واکنش بزرگان فناوری به تکامل هوش مصنوعی چگونه بوده است؟

هوش مصنوعی؛ تهدید یا فرصت؟

این روزها هوش مصنوعی کانون توجه همه دانشمندان، شرکت‌های بزرگ فناوری، کارشناسان، سایت‌های خبری و علاقه‌مندان دنیای فناوری است. پیش‌رفت‌های خیره‌کننده هوش مصنوعی به گونه‌ای است که نگرانی برخی بزرگان را
شنبه، 2 مرداد 1395
تخمین زمان مطالعه:
پدیدآورنده: علی اکبر مظاهری
موارد بیشتر برای شما
هوش مصنوعی؛ تهدید یا فرصت؟
 هوش مصنوعی؛ تهدید یا فرصت؟

 

نویسنده: حمیدرضا تائبی




 

واکنش بزرگان فناوری به تکامل هوش مصنوعی چگونه بوده است؟
این روزها هوش مصنوعی کانون توجه همه دانشمندان، شرکت‌های بزرگ فناوری، کارشناسان، سایت‌های خبری و علاقه‌مندان دنیای فناوری است. پیش‌رفت‌های خیره‌کننده هوش مصنوعی به گونه‌ای است که نگرانی برخی بزرگان را برانگیخته است. بزرگانی همچون استفان هاوکینگ و بیل گیتس که روزگاری تلاش می‌کردند تا این پدیده را به زندگی روزمره مردم وارد کنند و از ظرفیت‌های آن برای کشف اسرار ناشناخته جهان استفاده کنند، اکنون خود به جمع مدافعانی پیوسته‌اند که تمایل دارند هوش مصنوعی به صورت محدود و کنترل‌شده پیش برود. پیش‌رفت‌های هوش مصنوعی نه تنها باعث می‌‌شود بسیاری از مردم شغل خود را از دست بدهند، بلکه زمینه‌ساز به وجود آمدن کاربردهای نامتعارفی از آن می‌‌شود. هرچند پیش‌رفت‌های هوش مصنوعی در صنایعی همچون پزشکی و حل معماهای بزرگ فیزیک و هستی‌شناسی واقعاً ارزشمند و قابل تحسین است، اما باز هم به همان جمله معروف می‌‌رسیم که نقطه تاریک قدرت همیشه بر بخش روشن آن برتری دارد.

هوش مصنوعی مسیر خود را پیدا کرده است

شاید در گذشته بازی‌های کامپیوتری مصداق عینی اما ساده‌ای از هوش مصنوعی بودند و برای سال‌های متمادی این فناوری در حصار برنامه‌های ساده و در قالب پروژه‌های محرمانه نظامی گرفتار بود. اما به یک‌باره جهان حضور هوش مصنوعی را مشاهده کرد. هوش مصنوعی توانست با زیرکی خاصی راه خود را به دنیای انسان‌ها باز و انسان‌ها را کاملاً به خود وابسته کند. گوگل خودران خود را به خیابان‌ها روانه کرده است؛ واتسون آی‌بی‌ام با خیال راحت نه تنها هم‌گام با انسان‌ها پیشرفت می‌کند، بلکه نقاط قوت و ضعف انسان‌ها را شناسایی می‌‌کند و می‌‌داند؛ سیری اپل می‌‌داند شما از او چه می‌‌خواهید؛ Google Now مفهوم جمله‌های شما را درک می‌‌کند؛ کورتانا مایکروسافت تعاملی زنده با شما برقرار می‌‌کند؛ ماشین‌های هوشمندی همچون جیپ چروکی بدون دخالت انسانی برخی کارها را انجام می‌‌دهند و هواپیماهای بدون سرنشین در بیش‌تر موارد به صورت Autopilot عمل می‌‌کنند. هوش مصنوعی و دستگاه‌های هوشمند در قالب پدیده اینترنت اشیا به طور جدی به زندگی ما وارد شده‌اند و همه این دستگاه‌ها در نظر دارند بدون دخالت انسانی وظایف خود را انجام دهند. اما پرسش اصلی این است که اگر روزی این دستگاه‌های هوشمند به ما گفتند «نه» باید چه کنیم؟ آیا در آن زمان این توانایی را خواهیم داشت تا نیروگاه هوشمندی که وظیفه تأمین برق ما را برعهده دارد و تصفیه‌خانه‌ای که وظیفه تأمین آب شرب ما را در اختیار دارد از کار بیاندازیم؟ شاید بتوانیم این کار را انجام دهیم، اما آینده ما چه می‌‌شود؟ البته اگر فرض کنیم در آن روزگار روباتی شبیه به روبات ساخت شرکت Touchpoint Group موسوم به Radiant موفق شد لقب عصبانی‌ترین روبات جهان را از آن خود کند، با پیش‌رفته‌ترین سلاح‌های جنگی در مقابل ما قرار نگرفته باشد! بی‌شک، نوابغ روزگار ما با بینش خاصی آینده را درک کرده‌اند و به همین دلیل است که به طور مرتب به ما هشدار می دهند اجازه ندهید در آینده برده ماشین‌ها شوید و خود را در حصار ماشین‌ها و مطیع قوانین آن‌ها بیابید. در آن زمان دیگر راه چاره‌ای وجود نخواهد داشت.

بزرگان درباره هوش مصنوعی چه دیدگاهی دارند؟

نگرانی از هوش مصنوعی موضوعی نیست که توسط یک فرد یا یک سازمان یا جریان خاصی به وجود آمده باشد. دانشمندان و بزرگان فناوری هر یک در مقاطع زمانی مختلف نگرانی خود را از بابت آن علام کرده‌اند. نکته جالبی در صحبت‌های این افراد وجود دارد، هر یک از آن‌ها از دریچه دید خود به آن نگاه کرده‌اند، اما همگی متفق‌القول هستند که هوشمندی بیش از اندازه هوش مصنوعی دردسرهای جدی را به همراه خواهد داشت. در ادامه، نگاهی به دیدگاه‌های این افراد خواهیم داشت.

تاریخ: پانزدهم ژوئن 2014

صاحب نظر: استفان هاوکینگ

دیدگاه:

هوش مصنوعی یک خطر واقعی است.

فیزیک‌دان معروف در پانزدهم ژوئن سال گذشته میلادی در برنامه تلویزیونی شبکه HBO به نام Last week Tonight شرکت کرد و دیدگاه‌های خود را درباره هوش مصنوعی به سمع و نظر مخاطبان این برنامه رساند. او در این برنامه تلویزیونی گفت و گوی عمیقی را با جان اولیور انجام داد. مهم‌ترین محور این گفت و گو در ارتباط با هوش مصنوعی بود. جان اولیور از هاوکینگ سؤال کرد: «همانند بسیاری از مصنوعات هوشمند، آیا هوش مصنوعی برای ما مضر یا اصلاً کشنده است؟ » هاوکینگ در پاسخ به او گفت: «هوش مصنوعی در آینده‌ای نه چندان دور به یک خطر واقعی تبدیل می‌‌شود.» اولیور در ادامه از هاوکینگ سؤال کرد: «چرا من نباید از مبارزه با یک روبات هیجان‌زده شوم؟ » هاوکینگ یک پاسخ علمی به او داد: «شما در این مبارزه بازنده خواهید بود.» اولیور در ادامه به هاوکینگ گفت اگر این ابرکامپیوتر قدرتمند وجود نداشت، شما نمی‌توانستید با من به گفت و گو بپردازید. هاوکینگ (یا به عبارت دقیق‌تر روبات هاوکینگ‌نما) به او جواب داد: «تو یک احمق هستی.» هاوکینگ در پایان صحبت‌های خود هشدار داد، این احتمال وجود دارد که روبات‌ها راهی برای ارتقاء پیش‌رفت خود پیدا کنند، پیش‌رفتی که دقیقاً به نفع انسان‌ها نباشد.

تاریخ: دوم مه 2014

صاحب نظر: استیو وزنیاک

دیدگاه:

ما بیش از اندازه ماشین‌ها را بزرگ کرده‌ایم.

«هرکاری که انجام می‌‌دهید باید حداقل کمی تفریح در آن وجود داشته باشد، اما هر ایده‌ای که می‌تواند جهان ما را تغییر دهد، لزوماً با اهمیت نیست. من عاشق فناوری هستم و خود شخصاً آن را مورد آزمایش قرار می‌‌دهم. من حدقل پنج آی فون و چند تا گوشی آندروییدی دارم. من آینده‌ای را تصور می‌‌کنم که ماشین‌ها بتوانند به فرزندان ما آموزش دهند، اما بیش از اندازه هوش مصنوعی را هوشمند کرده‌ایم و این اتفاق از مدت‌ها قبل آغاز شده است. ماشین‌ها دویست سال پیش برنده شده‌اند. ما آن‌ها را بیش از اندازه مهم کرده‌ایم و همین موضوع باعث می‌‌شود تا هوش مصنوعی تهدیدی جدی برای بقای ما باشد. در حال حاضر، خلاقیت مهم‌ترین ابزاری است که انسان‌ها در اختیار دارند. شبیه به افرادی همچون هاوکینگ و ماسک، من هم بر این باور هستم که آینده ترسناک و بسیار بسیار بدی در انتظار بشریت قرار دارد. اگر دستگاه‌هایی طراحی کنیم که مراقب تمام حالات ما باشد، سرانجام آن‌ها می‌‌توانند سریع‌تر از انسان‌ها فکر کنند و به راحتی از دست انسان‌ها خلاص شوند.» او در ادامه صحبت‌های خود افزود: «از این موضوع نگران هستم که روزگاری ما به حیوانات خانگی ماشین‌ها تبدیل شویم.»

تاریخ: هجدهم ژوئن 2014

صاحب نظر: ایلان ماسک

دیدگاه:

من نگران یک (نابودگر) ترمیناتور هستم.

در مصاحبه‌ای که ایلان ماسک هجدهم ژوئن سال گذشته میلادی با CNBC داشت، اعلام کرد بیش از اندازه نگران هوش مصنوعی است و این احتمال وجود دارد که هوش مصنوعی به چشم شیطان تبدیل شود. ماسک در ادامه صحبت‌های خود افزود: «فیلم‌های مختلفی در این زمینه وجود دارد، «ترمیناتور» یکی از آن‌ها است. نتایجی که در این فیلم‌ها نشان داده می‌‌شود، بسیار ترسناک است. ما باید اطمینان حاصل کنیم هوش مصنوعی پیامدهای خوبی برای ما همراه دارد. اما این دیدگاه خوب یک عیب بزرگ نیز دارد. شما نمی‌‌توانید اطمینان حاصل کنید همه چیز خوب پیش می‌‌رود. در حال حاضر، تقلید از مغز انسان یک سرگرمی محسوب می‌‌شود، اما در آینده اوضاع رنگ دیگری به خود خواهد گرفت.» او در ادامه صحبت‌های خود افزود: «بهترین روش برای پیش‌گیری از چنین پیامدی پیاده‌سازی مکانیسم کنترل انسانی است.»

تاریخ: اول مه 2014

صاحب نظر: استفان هاوکینگ

دیدگاه:

به نظر می‌‌رسد برتری از آن هوش مصنوعی است. آیا ما هوش مصنوعی را آن‌گونه که باید جدی گرفته‌ایم؟

استفان هاوکینگ، مدیر تحقیقات ریاضیات کاربردی و فیزیک‌دان کمبریج و برنده جایزه فیزیک بنیادی در زمینه گرانش کوانتومی در سال 2012؛ استوارت راسل، پروفسور علوم کامپیوتر در دانشگاه برکلی کالیفرنیا و یکی از نویسندگان کتاب «نگرش مدرن به هوش مصنوعی»؛ مکس تگ مارک، پروفسور فیزیک در مؤسسه تحقیقاتی MIT و نویسنده ریاضیات جهان ما؛ فرانک ولیچک، پروفسور فیزیک در MIT و برنده جایزه نوبل 2004 به خاطر کار روی نیروی هسته قوی، در نامه‌ای که سال 2014 منتشر کردند، نوشتند: «طراحی موفقیت آمیز هوش مصنوعی بزرگ‌ترین رخداد تاریخ بشریت است. اما متأسفانه این اختراع می‌تواند پایان راه بشریت باشد، مگر آن که یاد بگیریم چگونه از به وجودآمدن خطر پیشگیری کنیم.»

تاریخ: دوم دسامبر 2014

صاحب نظر: استفان هاوکینگ

دیدگاه:

هوش مصنوعی می‌‌تواند بدترین کابوس انسان‌ها باشد.

پروفسور استفان هاوکینگ، دانشمند برجسته انگلیسی، می‌‌گوید: «تلاش برای ساخت ماشین‌هایی که توانایی فکرکردن دارند، تهدیدی جدی برای موجودیت انسان‌ها به شمار می‌‌رود. تلاش برای طراحی هوش مصنوعی کامل (هوشمندی کامل اکنون در اختیار انسان‌ها قرار دارد) به معنای تلاش برای پایان دادن به بشریت است.» پروفسور هاوکینگ بر این باور است که شکل فعلی و ابتدایی هوش مصنوعی که ما این روزها از آن استفاده می‌‌کنیم، برای ما کارآمد و قابل قبول است. اما نگرانی او از بابت ساخت ماشین‌هایی است که جلوتر از انسان‌ها باشند. هاوکینگ در بخشی از صحبت‌های خود می‌‌گوید: «هوش مصنوعی این توانایی را دارد که خود را خاموش و اقدام به بازطراحی قدرتمندتری از خود کند. اما در نقطه مقابل تکامل بیولوژیکی انسان‌ها قرار دارد که با سرعت کمی همراه است و نمی‌‌تواند با هوش مصنوعی به رقابت بپردازد. در حالی که در کوتاه‌مدت تأثیر هوش مصنوعی به کنترلی بستگی دارد که روی آن اعمال می‌‌شود. در درازمدت تأثیر آن به این موضوع بستگی دارد که آیا اصلاً قابل کنترل خواهد بود یا نه؟»

تاریخ: سوم اوت 2014

صاحب نظر: ایلان ماسک

دیدگاه:

خطر هوش مصنوعی از سلاح‌های هسته‌ای بیش‌تر است.

کارآفرین بزرگی که به شکل‌های مختلف فناوری را در بخش‌هایی همچون ماشین‌های برقی مورد استفاده قرار داده است، نگرانی عمیقی نسبت به هوشمندی فوق‌العاده فناوری دارد. ایلان ماسک میلیاردر و مخترع بزرگی که معتقد است، در آینده انرژی خورشیدی و ماشین‌های برقی انسان‌ها را به خانه دوم آن‌ها مریخ می‌‌برد، می‌‌گوید آینده خطرناکی را مشاهده می‌‌کند که پر از ماشین‌های فوق‌العاده هوشمند است. او در توییتی که در سوم اوت سال گذشته میلادی منتشر کرد، اعلام کرد: «ما باید بیش از اندازه مراقب هوش مصنوعی باشیم. هوش مصنوعی این ظرفیت را دارد که خطرناک‌تر از سلاح‌های هسته‌ای باشد.»

تاریخ: هفتم ژوییه 2015

صاحب نظر: لینوس توروالدز

دیدگاه:

خوش‌بین؛ هوش مصنوعی موضوع نگران کننده‌ای نیست.

تاکنون نظرات کارشناسانی را خواندیم که همگی از بابت قدرت مهارنشدنی هوش مصنوعی ابراز نگرانی کرده‌اند. اما بد نیست بدانید، لینوس توروالدز که به خاطر طراحی هسته لینوکس معروف شده است، نظر دیگری در این زمینه دارد. او می‌‌گوید افرادی که از هوش مصنوعی هراس دارند، انسان‌های ساده‌لوحی هستند. او در صحبت‌های خود به نقاط قوت هوش مصنوعی اشاره می‌‌کند و می‌‌گوید اما هیچ‌گاه شاهد ظهور هوش مخربی همچون اسکای‌نت (در فیلم «ترمیناتور») نخواهیم بود. او معتقد است، کارشناسان این توانایی را دارند تا از هوش مصنوعی در زمینه برنامه‌ریزی یا ترجمه زبان‌ها به یکدیگر استفاده کنند. او بر این باور است که برنامه‌هایی شبیه Google Now یا سیری چیزی بیش از یک خیال‌بافی نیستند و این برنامه‌ها ظرفیت آن را ندارند تا در مقام هوش انسانی به فعالیت‌های خود بپردازند.

تاریخ: بیست و هشتم ژانویه 2015

صاحب نظر: بیل گیتس

دیدگاه:

نگران قدرت مهارنشدنی هوش مصنوعی هستم.

نزدیک به هشت ماه پیش جلسه پرسش و پاسخی با حضور بیل گیتس در Reddit انجام شد. بیل گیتس جدا از آن که بنیان‌گذار مایکروسافت بوده و انسان هوشمند عصر ما نام گرفته است، زمانی که صحبت از نجات دنیا می‌‌شود، حاضر است پول خود را صرف این کار کند. زمانی که صحبت از هوش مصنوعی به میان می‌‌آید، بیل گیتس همچون استفان هاوکینگ و ایلان ماسک، مرد آهنین تسلا موتورز، نگران است که هوش مصنوعی به تهدیدی برای بشریت تبدیل شود. در جلسه پرسش و پاسخی که چهارشنبه بیست و هشتم ژوئن سال جاری میلادی توسط Reddit برگزار شد، بیل گیتس گفت: «می‌ترسم هوش مصنوعی به چنان ظرفیت و پتانسیلی دست یابد که داستان‌های فیلم‌های «ترمیناتور» و سه‌گانه «ماتریکس» به واقعیت تبدیل شود.» او صحبت‌های خود را این‌گونه ادامه داد: «من در همان کمپینی هستم که نگران هوش مصنوعی است. ماشین‌ها کارهای عادی زیادی برای ما انجام می‌‌دهند، در نتیجه نمی‌‌توانند زیاد باهوش باشند. کنترل‌کردن آن‌ها ایده خوبی است. اما بعد از گذشت چند دهه، هوش مصنوعی به قدری قدرتمند خواهد شد که باید درباره آن نگران باشیم. من با ایلان ماسک و دیگران در این مورد موافق هستم، اما متوجه نمی‌‌شوم چرا دیگران از این بابت نگران نیستند.»

تاریخ: بیست و هشتم ژوییه 2015

صاحب نظر: استوارت راسل

دیدگاه:

از بابت مسابقه تسلیحاتی ساخت سلاح‌های مبتنی بر هوش مصنوعی نگران است.

سایت NPR مصاحبه‌ای را با استوارت راسل، پژوهش‌گر هوش مصنوعی، در بیست و هشتم ژوییه ترتیب داد. در این مصاحبه، راسل از بابت ساخت سلاح‌های هوشمندی هشدار داد که مستقل از انسان کار می‌‌کنند. راسل صحبت‌های خود را این گونه آغاز کرد یک هواپیمای بدون سرنشین وسیله خودرانی است که از راه دور کنترل می‌‌شود. در این جا یک انسان این هواپیما را کنترل می‌‌کند و با استفاده از دوربین نصب شده روی هواپیما به مشاهده مناظر می‌‌پردازد. انسان تصمیم می‌‌گیرد هدف چیست و آیا باید به هدف شناسایی‌شده موشکی شلیک شود یا خیر. اما برای یک سلاح هوشمند اوضاع به گونه دیگری رقم می‌‌خورد، به طوری که سلاح خود تصمیم می‌‌گیرد اکنون باید چه کاری انجام دهد. سلاح هوشمند خود تصمیم می‌‌گیرد به کجا برود. یک سلاح هوشمند خود تصمیم می‌گیرد هدفش را انتخاب کند و در نهایت خود تصمیم می‌‌گیرد چه کسی را باید به قتل برساند. در حال حاضر، در کشور کره جنوبی روبات‌هایی در بخش‌های غیرنظامی مستقر شده‌اند که می‌‌توانند در فاصله دو مایلی یک انسان را دنبال و با دقت بسیار بالایی به آن شلیک کنند. این ماشین در دو وضعیت مورد استفاده قرار می‌‌گیرد. در حالت نخست، برای کشتن یک انسان نیازمند یک مجوز انسانی است. اما اگر از این حالت تغییر وضعیت دهد، ماشین در وضعیت خودکار قرار می‌‌گیرد و خود اقدام به کشتن یک انسان می‌‌کند.

در نهایت؛ نامه سرگشاده پژوهش‌گران هوش مصنوعی

استفان هاوکینگ و ایلان ماسک به جمع هزاران متخصص هوش مصنوعی پیوسته‌اند که خواستار منع گسترش روبات‌های قاتل شده‌اند. در کنفرانس بین‌المللی هوش مصنوعی در بوینس آیرس آرژانتین برگزار شد، هزار کارشناس هوش مصنوعی نامه سرگشاده‌ای را خطاب به سازمان ملل امضا کردند و در آن نامه خواستار منع گسترش سلاح‌های خودکار شدند. از جمله شخصیت‌های معروفی که این نامه با امضا آن‌ها رسیده است، می‌‌توان به استفان هاوکینگ، ایلان ماسک، مدیرعامل اسپیس اکس و تسلا، پیتر نورویک، مدیر تحقیقات گوگل، استوارت راسل، دانشمند هوش مصنوعی دانشگاه برکلی کالیفرنیا و اریک هورویتز، مدیرعامل اجرایی مایکروسافت، اشاره کرد. این نامه اشاره به این موضوع دارد که توسع سلاح‌های خودکار یا سلاح‌هایی که توانایی شناسایی و هدف‌گیری دارند، می‌‌تواند به بروز سومین جنگ جهانی منجر شوند. شبیه به زمانی که مسابقه تسلیحاتی برای ساخت بمب‌های اتمی به راه افتاده بود. حتی اگر این سلاح‌های خودکار برای استفاده در جنگ‌های قانونی مورد استفاده قرار گیرند، باز هم این احتمال وجود دارد که به کلاشینکف‌های آینده تبدیل شوند که در اختیار تروریست‌ها و علیه غیرنظامیان یا برای کشتار افراد بی‌گناه مورد استفاده قرار گیرند. استوارت راسل در این‌باره می‌‌گوید: «این سلاح‌های خودکار شبیه کلاشینکف می‌‌توانند کاربرد دوگانه‌ای داشته باشند، در حالی که دو کشور می‌‌توانند از آن‌ها علیه یکدیگر استفاده کنند. همچنین، می‌تواند در جنگ‌های داخلی برای ترساندن مردم یا عملیات چریکی نیز مورد استفاده قرار گیرند. این احتمال وجود دارد که توسط دولت‌ها برای سرکوب مردم مورد استفاده قرار گیرند. زندگی در سایه ترس تروریستی یا تهدید نظامی با سلاح‌های خودمختار هوشمند آرزوی هیچ انسانی نیست.» در ادامه، راسل در پاسخ به این پرسش که با سلاح‌های هوشمند چند سال فاصله داریم، گفت: «دولت‌ها تا رسیدن به ساخت روبات‌های قاتل فاصله چندانی ندارند و به احتمال زیاد تا چند سال آینده شاهد حضور روبات‌های هوشمند نظامی خواهیم بود.» برخلاف سلاح‌های هسته‌ای، طراحی و پیاده سازی این‌گونه سیستم‌های تسلیحاتی هوشمند به مواد اولیه پرهزینه نیاز ندارد، به طوری که طراحی آن‌ها به سادگی و ارزانی برای همه قدرت‌های نظامی امکان‌پذیر است و می‌‌توانند به صورت انبوه تولید شوند و مورد استفاده قرار گیرند. در واقع، در حال حاضر سلاح‌های نیمه هوشمندی وجود دارند که توانایی انجام برخی وظایف را به طور مستقل دارند، اما هنوز این قابلیت را ندارند که به انسان‌ها شلیک کنند. آن‌چنان‌که هدر رف، پروفسور دانشگاه دن ور به هافینگتون پست گفته است، خط حایل بین سلاح‌های نیمه هوشمند و سلاح‌های کاملاً هوشمند بسیار نازک است و هر روز نازک‌تر می‌‌شود. رف در یادداشت خود به موشک‌های ضد کشتی مارتین لاک هیلد اشاره می‌‌کند که توانایی شناسایی هدف خود را دارند؛ با این حال، هنوز هم تصمیم‌گیری نهایی در اختیار انسان‌ها است. اما پرس، ش اصلی این است که آیا برنامه‌ای برای تبدیل شدن این سلاح‌های نیمه هوشمند به سلاح‌های هوشمند وجود دارد و این که چه کسی مسئولیت تصمیم‌گیری در این زمینه را برعهده دارد؟ با توجه به گزارش منتشرشده از سوی نیویورک تایمز، کشورهایی همچون انگلستان و نروژ در حال حاضر اقدام به استقرار سامانه‌های موشکی و هواپیماهای بدون سرنشینی کرده‌اند که می‌‌توانند به اهدافی همچون رادارها، تانک‌ها و کشتی‌ها بدون آن که هیچ‌گونه کنترل مستقیمی از سوی انسان‌ها بر آن‌ها اعمال شود، حمله کنند. این نامه سرگشاده آخرین و جدیدترین هشداری است که از سوی دانشمندان و متخصصان حوزه هوش مصنوعی در ارتباط با خطراتی که هوش مصنوعی می‌‌تواند برای بشریت به همراه آورد، ارائه شده است. همان‌گونه که در ابتدای مقاله به بیان دیدگاه‌های کارشناسان پرداختیم و صحبت‌های بزرگانی همچون استفان هاوکینگ را مورد بررسی قرار دادیم، هاوکینگ معتقد است اگر در مسیر توسعه هوش مصنوعی کامل گام بردارید، پایان حیات انسان‌ها رقم زده‌اید. شماری از امضاکنندگان این نامه سرگشاده، در ژانویه سال جاری میلادی نامه‌ای را به امضا رساندند و در آن خواستار تحقیقات مفید و قدرتمندی در زمینه هوش مصنوعی در مؤسسه حیات آینده (Future of Life) شدند. سازمانی که توسط بزرگان هوش مصنوعی، دانشمندان و حتی مورگان فریمن اداره می‌‌شود. در ماه ژانویه، ماسک نزدیک به ده میلیون دلار را برای پروژه‌ها و تحقیقات بنیادی در اختیار مؤسسه حیات آینده قرار داد. این مؤسسه اکنون 37 پروژه تحقیقاتی را در دست کار دارد. یکی از این پروژه‌ها در ارتباط با طراحی سیستم‌های فوق هوشمندی است که هم‌تراز با اهداف انسانی حرکت می‌‌کنند. پروژه دیگری که رف مسئولیت هدایت آن را برعهده دارد. طراحی سلاح‌های هوشمندی است که تحت کنترل معنادار انسان نگه‌داری می‌‌شوند. جرید آدامز، مدیر روابط عمومی آژانس توسعه تحقیقات پیش‌رفته دفاعی، در ایمیلی به سایت تک اینسایدر گفته است که دپارتمان دفاعی صراحتاً طراحی و ساخت سیستم‌های هوشمند را ممنوع اعلام کرده است. در حال حاضر، این آژانس هیچ‌گونه پروژه تحقیقاتی که به ساخت این‌گونه سلاح‌ها منجر شود را در دست کار ندارد. در حال حاضر، این آژانس در حال کار و طراحی سیستم‌های نیمه‌هوشمندی است که همچنان بر پایه کنترل انسانی کار می‌‌کنند. تا زمان نگارش این مقاله 19816 نفر این نامه را امضا کرده‌اند که از این تعداد 2914 نفر در زمینه هوش مصنوعی و روباتیک فعالیت می‌‌کنند.
منابع تحقیق:
- http://www.forbes.com/sites/ericmack/2015/01/28/billgates-also-worries-artificial-intelligence-is-a-threat/?utm_campaign=ForbesTech&utm_source=TWITTER&utm_medium=social&utm_channel=Technology&linkld=12030352
- . http://www.masslive. com/news/index. ssf/2015/05/steve-wozniak- talls- apple- early -days-future-springfield. html
http://www.independent.co.uk/news/
- science/stephen-hawking-transcendence-looks-at-the-implications-of-artificial-intelligence-but-are-we-taking-ai-seriously-enough-9313474.html
-http://www.cnet,com/news/woz-weve-made-machines-too-important
-http://www.cnet.com/news/woz-says-the-future-is-very-bad-for-humans
- http://www.bbc.co.uk/news/technology-30290540
- http://www.cnet.com/news/elon-musk-im-afraid-of-the-terminator
-http:www.cnet.com/news/elon-musk-artificial-intelligence
could-be-more-dangerous-than-nukes
-http://www.cnet.com/news/stephen-hawking-artificial-intelligence-could-be-a-real-danger
-http://www.businessinsider.com/stephen-hawking-elon-musk-sign-open-letter-to-ban-killer-robots-2015-7
- http://www.npr.org/2015/07/28/427178289/tech-experts-warn-of-artifical-intelligence-arms-race-in-open-letter
-http://gizmodo.com/linux-creator-linus-torvalds-laughs-at-the-ai-apocalyps-1716383135
منبع مقاله : ماهنامه شبکه، شماره‌ی 173.



 

 



ارسال نظر
با تشکر، نظر شما پس از بررسی و تایید در سایت قرار خواهد گرفت.
متاسفانه در برقراری ارتباط خطایی رخ داده. لطفاً دوباره تلاش کنید.
مقالات مرتبط
موارد بیشتر برای شما