واکنش بزرگان فناوری به تکامل هوش مصنوعی چگونه بوده است؟
هوش مصنوعی؛ تهدید یا فرصت؟
این روزها هوش مصنوعی کانون توجه همه دانشمندان، شرکتهای بزرگ فناوری، کارشناسان، سایتهای خبری و علاقهمندان دنیای فناوری است. پیشرفتهای خیرهکننده هوش مصنوعی به گونهای است که نگرانی برخی بزرگان را برانگیخته است. بزرگانی همچون استفان هاوکینگ و بیل گیتس که روزگاری تلاش میکردند تا این پدیده را به زندگی روزمره مردم وارد کنند و از ظرفیتهای آن برای کشف اسرار ناشناخته جهان استفاده کنند، اکنون خود به جمع مدافعانی پیوستهاند که تمایل دارند هوش مصنوعی به صورت محدود و کنترلشده پیش برود. پیشرفتهای هوش مصنوعی نه تنها باعث میشود بسیاری از مردم شغل خود را از دست بدهند، بلکه زمینهساز به وجود آمدن کاربردهای نامتعارفی از آن میشود. هرچند پیشرفتهای هوش مصنوعی در صنایعی همچون پزشکی و حل معماهای بزرگ فیزیک و هستیشناسی واقعاً ارزشمند و قابل تحسین است، اما باز هم به همان جمله معروف میرسیم که نقطه تاریک قدرت همیشه بر بخش روشن آن برتری دارد.
هوش مصنوعی مسیر خود را پیدا کرده است
شاید در گذشته بازیهای کامپیوتری مصداق عینی اما سادهای از هوش مصنوعی بودند و برای سالهای متمادی این فناوری در حصار برنامههای ساده و در قالب پروژههای محرمانه نظامی گرفتار بود. اما به یکباره جهان حضور هوش مصنوعی را مشاهده کرد. هوش مصنوعی توانست با زیرکی خاصی راه خود را به دنیای انسانها باز و انسانها را کاملاً به خود وابسته کند. گوگل خودران خود را به خیابانها روانه کرده است؛ واتسون آیبیام با خیال راحت نه تنها همگام با انسانها پیشرفت میکند، بلکه نقاط قوت و ضعف انسانها را شناسایی میکند و میداند؛ سیری اپل میداند شما از او چه میخواهید؛ Google Now مفهوم جملههای شما را درک میکند؛ کورتانا مایکروسافت تعاملی زنده با شما برقرار میکند؛ ماشینهای هوشمندی همچون جیپ چروکی بدون دخالت انسانی برخی کارها را انجام میدهند و هواپیماهای بدون سرنشین در بیشتر موارد به صورت Autopilot عمل میکنند. هوش مصنوعی و دستگاههای هوشمند در قالب پدیده اینترنت اشیا به طور جدی به زندگی ما وارد شدهاند و همه این دستگاهها در نظر دارند بدون دخالت انسانی وظایف خود را انجام دهند. اما پرسش اصلی این است که اگر روزی این دستگاههای هوشمند به ما گفتند «نه» باید چه کنیم؟ آیا در آن زمان این توانایی را خواهیم داشت تا نیروگاه هوشمندی که وظیفه تأمین برق ما را برعهده دارد و تصفیهخانهای که وظیفه تأمین آب شرب ما را در اختیار دارد از کار بیاندازیم؟ شاید بتوانیم این کار را انجام دهیم، اما آینده ما چه میشود؟ البته اگر فرض کنیم در آن روزگار روباتی شبیه به روبات ساخت شرکت Touchpoint Group موسوم به Radiant موفق شد لقب عصبانیترین روبات جهان را از آن خود کند، با پیشرفتهترین سلاحهای جنگی در مقابل ما قرار نگرفته باشد! بیشک، نوابغ روزگار ما با بینش خاصی آینده را درک کردهاند و به همین دلیل است که به طور مرتب به ما هشدار می دهند اجازه ندهید در آینده برده ماشینها شوید و خود را در حصار ماشینها و مطیع قوانین آنها بیابید. در آن زمان دیگر راه چارهای وجود نخواهد داشت.بزرگان درباره هوش مصنوعی چه دیدگاهی دارند؟
نگرانی از هوش مصنوعی موضوعی نیست که توسط یک فرد یا یک سازمان یا جریان خاصی به وجود آمده باشد. دانشمندان و بزرگان فناوری هر یک در مقاطع زمانی مختلف نگرانی خود را از بابت آن علام کردهاند. نکته جالبی در صحبتهای این افراد وجود دارد، هر یک از آنها از دریچه دید خود به آن نگاه کردهاند، اما همگی متفقالقول هستند که هوشمندی بیش از اندازه هوش مصنوعی دردسرهای جدی را به همراه خواهد داشت. در ادامه، نگاهی به دیدگاههای این افراد خواهیم داشت.تاریخ: پانزدهم ژوئن 2014
صاحب نظر: استفان هاوکینگدیدگاه:
هوش مصنوعی یک خطر واقعی است.
فیزیکدان معروف در پانزدهم ژوئن سال گذشته میلادی در برنامه تلویزیونی شبکه HBO به نام Last week Tonight شرکت کرد و دیدگاههای خود را درباره هوش مصنوعی به سمع و نظر مخاطبان این برنامه رساند. او در این برنامه تلویزیونی گفت و گوی عمیقی را با جان اولیور انجام داد. مهمترین محور این گفت و گو در ارتباط با هوش مصنوعی بود. جان اولیور از هاوکینگ سؤال کرد: «همانند بسیاری از مصنوعات هوشمند، آیا هوش مصنوعی برای ما مضر یا اصلاً کشنده است؟ » هاوکینگ در پاسخ به او گفت: «هوش مصنوعی در آیندهای نه چندان دور به یک خطر واقعی تبدیل میشود.» اولیور در ادامه از هاوکینگ سؤال کرد: «چرا من نباید از مبارزه با یک روبات هیجانزده شوم؟ » هاوکینگ یک پاسخ علمی به او داد: «شما در این مبارزه بازنده خواهید بود.» اولیور در ادامه به هاوکینگ گفت اگر این ابرکامپیوتر قدرتمند وجود نداشت، شما نمیتوانستید با من به گفت و گو بپردازید. هاوکینگ (یا به عبارت دقیقتر روبات هاوکینگنما) به او جواب داد: «تو یک احمق هستی.» هاوکینگ در پایان صحبتهای خود هشدار داد، این احتمال وجود دارد که روباتها راهی برای ارتقاء پیشرفت خود پیدا کنند، پیشرفتی که دقیقاً به نفع انسانها نباشد.تاریخ: دوم مه 2014
صاحب نظر: استیو وزنیاکدیدگاه:
ما بیش از اندازه ماشینها را بزرگ کردهایم.
«هرکاری که انجام میدهید باید حداقل کمی تفریح در آن وجود داشته باشد، اما هر ایدهای که میتواند جهان ما را تغییر دهد، لزوماً با اهمیت نیست. من عاشق فناوری هستم و خود شخصاً آن را مورد آزمایش قرار میدهم. من حدقل پنج آی فون و چند تا گوشی آندروییدی دارم. من آیندهای را تصور میکنم که ماشینها بتوانند به فرزندان ما آموزش دهند، اما بیش از اندازه هوش مصنوعی را هوشمند کردهایم و این اتفاق از مدتها قبل آغاز شده است. ماشینها دویست سال پیش برنده شدهاند. ما آنها را بیش از اندازه مهم کردهایم و همین موضوع باعث میشود تا هوش مصنوعی تهدیدی جدی برای بقای ما باشد. در حال حاضر، خلاقیت مهمترین ابزاری است که انسانها در اختیار دارند. شبیه به افرادی همچون هاوکینگ و ماسک، من هم بر این باور هستم که آینده ترسناک و بسیار بسیار بدی در انتظار بشریت قرار دارد. اگر دستگاههایی طراحی کنیم که مراقب تمام حالات ما باشد، سرانجام آنها میتوانند سریعتر از انسانها فکر کنند و به راحتی از دست انسانها خلاص شوند.» او در ادامه صحبتهای خود افزود: «از این موضوع نگران هستم که روزگاری ما به حیوانات خانگی ماشینها تبدیل شویم.»تاریخ: هجدهم ژوئن 2014
صاحب نظر: ایلان ماسکدیدگاه:
من نگران یک (نابودگر) ترمیناتور هستم.
در مصاحبهای که ایلان ماسک هجدهم ژوئن سال گذشته میلادی با CNBC داشت، اعلام کرد بیش از اندازه نگران هوش مصنوعی است و این احتمال وجود دارد که هوش مصنوعی به چشم شیطان تبدیل شود. ماسک در ادامه صحبتهای خود افزود: «فیلمهای مختلفی در این زمینه وجود دارد، «ترمیناتور» یکی از آنها است. نتایجی که در این فیلمها نشان داده میشود، بسیار ترسناک است. ما باید اطمینان حاصل کنیم هوش مصنوعی پیامدهای خوبی برای ما همراه دارد. اما این دیدگاه خوب یک عیب بزرگ نیز دارد. شما نمیتوانید اطمینان حاصل کنید همه چیز خوب پیش میرود. در حال حاضر، تقلید از مغز انسان یک سرگرمی محسوب میشود، اما در آینده اوضاع رنگ دیگری به خود خواهد گرفت.» او در ادامه صحبتهای خود افزود: «بهترین روش برای پیشگیری از چنین پیامدی پیادهسازی مکانیسم کنترل انسانی است.»تاریخ: اول مه 2014
صاحب نظر: استفان هاوکینگدیدگاه:
به نظر میرسد برتری از آن هوش مصنوعی است. آیا ما هوش مصنوعی را آنگونه که باید جدی گرفتهایم؟
استفان هاوکینگ، مدیر تحقیقات ریاضیات کاربردی و فیزیکدان کمبریج و برنده جایزه فیزیک بنیادی در زمینه گرانش کوانتومی در سال 2012؛ استوارت راسل، پروفسور علوم کامپیوتر در دانشگاه برکلی کالیفرنیا و یکی از نویسندگان کتاب «نگرش مدرن به هوش مصنوعی»؛ مکس تگ مارک، پروفسور فیزیک در مؤسسه تحقیقاتی MIT و نویسنده ریاضیات جهان ما؛ فرانک ولیچک، پروفسور فیزیک در MIT و برنده جایزه نوبل 2004 به خاطر کار روی نیروی هسته قوی، در نامهای که سال 2014 منتشر کردند، نوشتند: «طراحی موفقیت آمیز هوش مصنوعی بزرگترین رخداد تاریخ بشریت است. اما متأسفانه این اختراع میتواند پایان راه بشریت باشد، مگر آن که یاد بگیریم چگونه از به وجودآمدن خطر پیشگیری کنیم.»تاریخ: دوم دسامبر 2014
صاحب نظر: استفان هاوکینگدیدگاه:
هوش مصنوعی میتواند بدترین کابوس انسانها باشد.
پروفسور استفان هاوکینگ، دانشمند برجسته انگلیسی، میگوید: «تلاش برای ساخت ماشینهایی که توانایی فکرکردن دارند، تهدیدی جدی برای موجودیت انسانها به شمار میرود. تلاش برای طراحی هوش مصنوعی کامل (هوشمندی کامل اکنون در اختیار انسانها قرار دارد) به معنای تلاش برای پایان دادن به بشریت است.» پروفسور هاوکینگ بر این باور است که شکل فعلی و ابتدایی هوش مصنوعی که ما این روزها از آن استفاده میکنیم، برای ما کارآمد و قابل قبول است. اما نگرانی او از بابت ساخت ماشینهایی است که جلوتر از انسانها باشند. هاوکینگ در بخشی از صحبتهای خود میگوید: «هوش مصنوعی این توانایی را دارد که خود را خاموش و اقدام به بازطراحی قدرتمندتری از خود کند. اما در نقطه مقابل تکامل بیولوژیکی انسانها قرار دارد که با سرعت کمی همراه است و نمیتواند با هوش مصنوعی به رقابت بپردازد. در حالی که در کوتاهمدت تأثیر هوش مصنوعی به کنترلی بستگی دارد که روی آن اعمال میشود. در درازمدت تأثیر آن به این موضوع بستگی دارد که آیا اصلاً قابل کنترل خواهد بود یا نه؟»تاریخ: سوم اوت 2014
صاحب نظر: ایلان ماسکدیدگاه:
خطر هوش مصنوعی از سلاحهای هستهای بیشتر است.
کارآفرین بزرگی که به شکلهای مختلف فناوری را در بخشهایی همچون ماشینهای برقی مورد استفاده قرار داده است، نگرانی عمیقی نسبت به هوشمندی فوقالعاده فناوری دارد. ایلان ماسک میلیاردر و مخترع بزرگی که معتقد است، در آینده انرژی خورشیدی و ماشینهای برقی انسانها را به خانه دوم آنها مریخ میبرد، میگوید آینده خطرناکی را مشاهده میکند که پر از ماشینهای فوقالعاده هوشمند است. او در توییتی که در سوم اوت سال گذشته میلادی منتشر کرد، اعلام کرد: «ما باید بیش از اندازه مراقب هوش مصنوعی باشیم. هوش مصنوعی این ظرفیت را دارد که خطرناکتر از سلاحهای هستهای باشد.»تاریخ: هفتم ژوییه 2015
صاحب نظر: لینوس توروالدزدیدگاه:
خوشبین؛ هوش مصنوعی موضوع نگران کنندهای نیست.
تاکنون نظرات کارشناسانی را خواندیم که همگی از بابت قدرت مهارنشدنی هوش مصنوعی ابراز نگرانی کردهاند. اما بد نیست بدانید، لینوس توروالدز که به خاطر طراحی هسته لینوکس معروف شده است، نظر دیگری در این زمینه دارد. او میگوید افرادی که از هوش مصنوعی هراس دارند، انسانهای سادهلوحی هستند. او در صحبتهای خود به نقاط قوت هوش مصنوعی اشاره میکند و میگوید اما هیچگاه شاهد ظهور هوش مخربی همچون اسکاینت (در فیلم «ترمیناتور») نخواهیم بود. او معتقد است، کارشناسان این توانایی را دارند تا از هوش مصنوعی در زمینه برنامهریزی یا ترجمه زبانها به یکدیگر استفاده کنند. او بر این باور است که برنامههایی شبیه Google Now یا سیری چیزی بیش از یک خیالبافی نیستند و این برنامهها ظرفیت آن را ندارند تا در مقام هوش انسانی به فعالیتهای خود بپردازند.تاریخ: بیست و هشتم ژانویه 2015
صاحب نظر: بیل گیتسدیدگاه:
نگران قدرت مهارنشدنی هوش مصنوعی هستم.
نزدیک به هشت ماه پیش جلسه پرسش و پاسخی با حضور بیل گیتس در Reddit انجام شد. بیل گیتس جدا از آن که بنیانگذار مایکروسافت بوده و انسان هوشمند عصر ما نام گرفته است، زمانی که صحبت از نجات دنیا میشود، حاضر است پول خود را صرف این کار کند. زمانی که صحبت از هوش مصنوعی به میان میآید، بیل گیتس همچون استفان هاوکینگ و ایلان ماسک، مرد آهنین تسلا موتورز، نگران است که هوش مصنوعی به تهدیدی برای بشریت تبدیل شود. در جلسه پرسش و پاسخی که چهارشنبه بیست و هشتم ژوئن سال جاری میلادی توسط Reddit برگزار شد، بیل گیتس گفت: «میترسم هوش مصنوعی به چنان ظرفیت و پتانسیلی دست یابد که داستانهای فیلمهای «ترمیناتور» و سهگانه «ماتریکس» به واقعیت تبدیل شود.» او صحبتهای خود را اینگونه ادامه داد: «من در همان کمپینی هستم که نگران هوش مصنوعی است. ماشینها کارهای عادی زیادی برای ما انجام میدهند، در نتیجه نمیتوانند زیاد باهوش باشند. کنترلکردن آنها ایده خوبی است. اما بعد از گذشت چند دهه، هوش مصنوعی به قدری قدرتمند خواهد شد که باید درباره آن نگران باشیم. من با ایلان ماسک و دیگران در این مورد موافق هستم، اما متوجه نمیشوم چرا دیگران از این بابت نگران نیستند.»تاریخ: بیست و هشتم ژوییه 2015
صاحب نظر: استوارت راسلدیدگاه:
از بابت مسابقه تسلیحاتی ساخت سلاحهای مبتنی بر هوش مصنوعی نگران است.
سایت NPR مصاحبهای را با استوارت راسل، پژوهشگر هوش مصنوعی، در بیست و هشتم ژوییه ترتیب داد. در این مصاحبه، راسل از بابت ساخت سلاحهای هوشمندی هشدار داد که مستقل از انسان کار میکنند. راسل صحبتهای خود را این گونه آغاز کرد یک هواپیمای بدون سرنشین وسیله خودرانی است که از راه دور کنترل میشود. در این جا یک انسان این هواپیما را کنترل میکند و با استفاده از دوربین نصب شده روی هواپیما به مشاهده مناظر میپردازد. انسان تصمیم میگیرد هدف چیست و آیا باید به هدف شناساییشده موشکی شلیک شود یا خیر. اما برای یک سلاح هوشمند اوضاع به گونه دیگری رقم میخورد، به طوری که سلاح خود تصمیم میگیرد اکنون باید چه کاری انجام دهد. سلاح هوشمند خود تصمیم میگیرد به کجا برود. یک سلاح هوشمند خود تصمیم میگیرد هدفش را انتخاب کند و در نهایت خود تصمیم میگیرد چه کسی را باید به قتل برساند. در حال حاضر، در کشور کره جنوبی روباتهایی در بخشهای غیرنظامی مستقر شدهاند که میتوانند در فاصله دو مایلی یک انسان را دنبال و با دقت بسیار بالایی به آن شلیک کنند. این ماشین در دو وضعیت مورد استفاده قرار میگیرد. در حالت نخست، برای کشتن یک انسان نیازمند یک مجوز انسانی است. اما اگر از این حالت تغییر وضعیت دهد، ماشین در وضعیت خودکار قرار میگیرد و خود اقدام به کشتن یک انسان میکند.در نهایت؛ نامه سرگشاده پژوهشگران هوش مصنوعی
استفان هاوکینگ و ایلان ماسک به جمع هزاران متخصص هوش مصنوعی پیوستهاند که خواستار منع گسترش روباتهای قاتل شدهاند. در کنفرانس بینالمللی هوش مصنوعی در بوینس آیرس آرژانتین برگزار شد، هزار کارشناس هوش مصنوعی نامه سرگشادهای را خطاب به سازمان ملل امضا کردند و در آن نامه خواستار منع گسترش سلاحهای خودکار شدند. از جمله شخصیتهای معروفی که این نامه با امضا آنها رسیده است، میتوان به استفان هاوکینگ، ایلان ماسک، مدیرعامل اسپیس اکس و تسلا، پیتر نورویک، مدیر تحقیقات گوگل، استوارت راسل، دانشمند هوش مصنوعی دانشگاه برکلی کالیفرنیا و اریک هورویتز، مدیرعامل اجرایی مایکروسافت، اشاره کرد. این نامه اشاره به این موضوع دارد که توسع سلاحهای خودکار یا سلاحهایی که توانایی شناسایی و هدفگیری دارند، میتواند به بروز سومین جنگ جهانی منجر شوند. شبیه به زمانی که مسابقه تسلیحاتی برای ساخت بمبهای اتمی به راه افتاده بود. حتی اگر این سلاحهای خودکار برای استفاده در جنگهای قانونی مورد استفاده قرار گیرند، باز هم این احتمال وجود دارد که به کلاشینکفهای آینده تبدیل شوند که در اختیار تروریستها و علیه غیرنظامیان یا برای کشتار افراد بیگناه مورد استفاده قرار گیرند. استوارت راسل در اینباره میگوید: «این سلاحهای خودکار شبیه کلاشینکف میتوانند کاربرد دوگانهای داشته باشند، در حالی که دو کشور میتوانند از آنها علیه یکدیگر استفاده کنند. همچنین، میتواند در جنگهای داخلی برای ترساندن مردم یا عملیات چریکی نیز مورد استفاده قرار گیرند. این احتمال وجود دارد که توسط دولتها برای سرکوب مردم مورد استفاده قرار گیرند. زندگی در سایه ترس تروریستی یا تهدید نظامی با سلاحهای خودمختار هوشمند آرزوی هیچ انسانی نیست.» در ادامه، راسل در پاسخ به این پرسش که با سلاحهای هوشمند چند سال فاصله داریم، گفت: «دولتها تا رسیدن به ساخت روباتهای قاتل فاصله چندانی ندارند و به احتمال زیاد تا چند سال آینده شاهد حضور روباتهای هوشمند نظامی خواهیم بود.» برخلاف سلاحهای هستهای، طراحی و پیاده سازی اینگونه سیستمهای تسلیحاتی هوشمند به مواد اولیه پرهزینه نیاز ندارد، به طوری که طراحی آنها به سادگی و ارزانی برای همه قدرتهای نظامی امکانپذیر است و میتوانند به صورت انبوه تولید شوند و مورد استفاده قرار گیرند. در واقع، در حال حاضر سلاحهای نیمه هوشمندی وجود دارند که توانایی انجام برخی وظایف را به طور مستقل دارند، اما هنوز این قابلیت را ندارند که به انسانها شلیک کنند. آنچنانکه هدر رف، پروفسور دانشگاه دن ور به هافینگتون پست گفته است، خط حایل بین سلاحهای نیمه هوشمند و سلاحهای کاملاً هوشمند بسیار نازک است و هر روز نازکتر میشود. رف در یادداشت خود به موشکهای ضد کشتی مارتین لاک هیلد اشاره میکند که توانایی شناسایی هدف خود را دارند؛ با این حال، هنوز هم تصمیمگیری نهایی در اختیار انسانها است. اما پرس، ش اصلی این است که آیا برنامهای برای تبدیل شدن این سلاحهای نیمه هوشمند به سلاحهای هوشمند وجود دارد و این که چه کسی مسئولیت تصمیمگیری در این زمینه را برعهده دارد؟ با توجه به گزارش منتشرشده از سوی نیویورک تایمز، کشورهایی همچون انگلستان و نروژ در حال حاضر اقدام به استقرار سامانههای موشکی و هواپیماهای بدون سرنشینی کردهاند که میتوانند به اهدافی همچون رادارها، تانکها و کشتیها بدون آن که هیچگونه کنترل مستقیمی از سوی انسانها بر آنها اعمال شود، حمله کنند. این نامه سرگشاده آخرین و جدیدترین هشداری است که از سوی دانشمندان و متخصصان حوزه هوش مصنوعی در ارتباط با خطراتی که هوش مصنوعی میتواند برای بشریت به همراه آورد، ارائه شده است. همانگونه که در ابتدای مقاله به بیان دیدگاههای کارشناسان پرداختیم و صحبتهای بزرگانی همچون استفان هاوکینگ را مورد بررسی قرار دادیم، هاوکینگ معتقد است اگر در مسیر توسعه هوش مصنوعی کامل گام بردارید، پایان حیات انسانها رقم زدهاید. شماری از امضاکنندگان این نامه سرگشاده، در ژانویه سال جاری میلادی نامهای را به امضا رساندند و در آن خواستار تحقیقات مفید و قدرتمندی در زمینه هوش مصنوعی در مؤسسه حیات آینده (Future of Life) شدند. سازمانی که توسط بزرگان هوش مصنوعی، دانشمندان و حتی مورگان فریمن اداره میشود. در ماه ژانویه، ماسک نزدیک به ده میلیون دلار را برای پروژهها و تحقیقات بنیادی در اختیار مؤسسه حیات آینده قرار داد. این مؤسسه اکنون 37 پروژه تحقیقاتی را در دست کار دارد. یکی از این پروژهها در ارتباط با طراحی سیستمهای فوق هوشمندی است که همتراز با اهداف انسانی حرکت میکنند. پروژه دیگری که رف مسئولیت هدایت آن را برعهده دارد. طراحی سلاحهای هوشمندی است که تحت کنترل معنادار انسان نگهداری میشوند. جرید آدامز، مدیر روابط عمومی آژانس توسعه تحقیقات پیشرفته دفاعی، در ایمیلی به سایت تک اینسایدر گفته است که دپارتمان دفاعی صراحتاً طراحی و ساخت سیستمهای هوشمند را ممنوع اعلام کرده است. در حال حاضر، این آژانس هیچگونه پروژه تحقیقاتی که به ساخت اینگونه سلاحها منجر شود را در دست کار ندارد. در حال حاضر، این آژانس در حال کار و طراحی سیستمهای نیمههوشمندی است که همچنان بر پایه کنترل انسانی کار میکنند. تا زمان نگارش این مقاله 19816 نفر این نامه را امضا کردهاند که از این تعداد 2914 نفر در زمینه هوش مصنوعی و روباتیک فعالیت میکنند.منابع تحقیق:
- http://www.forbes.com/sites/ericmack/2015/01/28/billgates-also-worries-artificial-intelligence-is-a-threat/?utm_campaign=ForbesTech&utm_source=TWITTER&utm_medium=social&utm_channel=Technology&linkld=12030352
- . http://www.masslive. com/news/index. ssf/2015/05/steve-wozniak- talls- apple- early -days-future-springfield. html
http://www.independent.co.uk/news/
- science/stephen-hawking-transcendence-looks-at-the-implications-of-artificial-intelligence-but-are-we-taking-ai-seriously-enough-9313474.html
-http://www.cnet,com/news/woz-weve-made-machines-too-important
-http://www.cnet.com/news/woz-says-the-future-is-very-bad-for-humans
- http://www.bbc.co.uk/news/technology-30290540
- http://www.cnet.com/news/elon-musk-im-afraid-of-the-terminator
-http:www.cnet.com/news/elon-musk-artificial-intelligence
could-be-more-dangerous-than-nukes
-http://www.cnet.com/news/stephen-hawking-artificial-intelligence-could-be-a-real-danger
-http://www.businessinsider.com/stephen-hawking-elon-musk-sign-open-letter-to-ban-killer-robots-2015-7
- http://www.npr.org/2015/07/28/427178289/tech-experts-warn-of-artifical-intelligence-arms-race-in-open-letter
-http://gizmodo.com/linux-creator-linus-torvalds-laughs-at-the-ai-apocalyps-1716383135
منبع مقاله : ماهنامه شبکه، شمارهی 173.
/ج
{{Fullname}} {{Creationdate}}
{{Body}}