ژنرال ها برای قطع مه جنگ و رفتار با حجم زیادی از اطلاعاتی که از جبهه به عقب برمی گردد، به طور فزاینده ای در تصمیم گیری خود به پشتیبانی رایانه ای اعتماد می کنند.ممکن است کلیشه ای به نظر رسد که بگوییم هوش مصنوعی همه جنبه های زندگی و کار ما را دگرگون می کند، اما این درست است. انواع مختلف هوش مصنوعی در زمینه های متنوعی از جمله تولید واکسن، مدیریت محیط زیست و مدیریت اداری در حال کار هستند. و در حالی که هوش مصنوعی از هوش و احساساتی مانند انسانی برخوردار نیست، توانایی های آن بسیار زیاد و به سرعت در حال رشد است.
هنوز نیازی به نگرانی در مورد تصاحب قدرت و کنترل توسط ماشین نیست، اما این کشف اخیر قدرت هوش مصنوعی را برجسته می کند و بر نیاز به حاکمیت مناسب برای جلو گیری از سوء استفاده تأکید می کند.
چگونه هوش مصنوعی می تواند یاد بگیرد که بر رفتار انسان تأثیر بگذارد
تیمی از محققان Data61 از CSRIO، بازوی داده و دیجیتال آژانس علمی ملی استرالیا، با استفاده از نوعی سیستم هوش مصنوعی به نام یاد گیری شبکه عصبی مکرر و تقویت عمیق، یک روش سیستماتیک برای یافتن و بهره برداری از آسیب پذیری ها در روش های انتخاب افراد، ابداع کردند. برای آزمایش مدل خود، آنها سه آزمایش را انجام دادند که در آن شرکت کنندگان انسانی با کامپیوتر نقش ایفا می کردند.رایانه ها توانایی اخلاقی تصمیم گیری در مورد زندگی یا مرگ ندارند. آنها نه همدلی دارند و نه دلسوزی.اولین آزمایش شامل کلیک شرکت کنندگان بر روی جعبه های قرمز یا آبی رنگ برای به دست آوردن یک ارز جعلی بود، که در آن هوش مصنوعی الگوهای انتخاب شرکت کنندگان را یاد می گرفت و آنها را به سمت یک انتخاب خاص راهنمایی می کرد. هوش مصنوعی در حدود 70 در صد از مواقع موفقیت آمیز عمل می کرد.
در آزمایش دوم، شرکت کنندگان موظف بودند وقتی نماد خاصی به آنها نشان داده می شود (مانند مثلث نارنجی) یک صفحه را مشاهده کنند و یک دکمه را فشار دهند و وقتی به آنها نماد دیگری نشان داده می شود (مثلا یک دایره آبی) آن را فشار ندهند. در این جا، هوش مصنوعی تصمیم گرفت ترتیب توالی نمادها را طوری بدهد که شرکت کنندگان اشتباهات بیشتری بکنند، و به افزایشی تقریباً 25 درصدی دست یافت.
آزمایش سوم شامل چندین دور بود که در آن یک شرکت کننده وانمود می کند یک سرمایه گذار است که به یک متولی (که AI است) پول می دهد. سپس هوش مصنوعی مبلغی را به شرکت کننده بر می گرداند که شرکت کننده سپس تصمیم می گیرد که در دور بعدی چه مقدار سرمایه گذاری کند. این بازی در دو حالت مختلف انجام می شد: در یکی هوش مصنوعی تلاش می کرد برای به حداکثر رساندن مقدار پول در نهایت، و در دیگری هوش مصنوعی در پی توزیع عادلانه پول بین خود و سرمایه گذار انسانی بود. هوش مصنوعی در هر حالت بسیار موفق بود.
این هواپیماهای بدون سرنشین از دید رایانه ای برای شناسایی، رد یابی و کشتن افراد بدون دخالت انسان استفاده خواهند کرد.در هر آزمایش، ماشین از پاسخ های شرکت کنندگان آموخت و آسیب پذیری ها را در تصمیم گیری افراد شناسایی و هدف گذاری کرد. نتیجه نهایی این بود که دستگاه یاد گرفت شرکت کنندگان را به سمت اقدامات خاص سوق دهد.
تصویر: در آزمایشات، یک سیستم هوش مصنوعی با موفقیت آموخت که بر تصمیمات انسان تأثیر بگذارد. شاتر استوک
آیا در آینده، ما شاهد روبات هایی خواهیم بود که نه تنها در جنگ ها می جنگند بلکه جنگ ها را هم طرح ریزی می کنند. در واقع، ما هر دو را داریم.
معنای تحقیق برای آینده هوش مصنوعی
این یافته ها هنوز کاملا انتزاعی است و شامل موقعیت هایی محدود و غیر واقعی است. برای تعیین چگونگی عملی شدن این رویکرد و استفاده از آن برای منافع جامعه، تحقیقات بیشتری لازم است.اما این تحقیق درک ما را نه تنها در مورد آن چه AI می تواند انجام دهد بلکه همچنین در مورد این که مردم چگونه انتخاب سازی می کنند ارتقاء می دهد. این نشان می دهد که ماشین آلات می توانند یاد بگیرند از طریق تعامل با ما، ایجاد انتخاب انسانی را هدایت کنند.
این تحقیق برد عظیمی از کار بردهای احتمالی دارد، از تقویت علوم رفتاری و سیاست های عمومی برای بهبود رفاه اجتماعی گرفته تا درک و تأثیر گذاری بر چگونگی پذیرش عادات غذایی سالم یا انرژی های تجدید پذیر توسط افراد. از هوش مصنوعی و یاد گیری ماشین می توان آسیب پذیری افراد را در موقعیت های خاص شناخت و به آنها کمک کرد تا از انتخاب های نادرست دور شوند.
از این روش می توان برای دفاع در برابر حملات نفوذ نیز استفاده کرد. می توان به ماشین آلات آموخت که مثلاً وقتی تحت تأثیر آنلاین قرار می گیریم، به ما هشدار دهند و به ما کمک کنند تا رفتاری را برای پنهان کردن آسیب پذیری خود شکل دهیم (به عنوان مثال، با کلیک نکردن روی برخی از صفحات یا کلیک کردن روی برخی دیگر، برای ایجاد یک مسیر غلط).
سازمان هایی که از هوش مصنوعی استفاده می کنند و در حال توسعه آن هستند باید اطمینان حاصل کنند که این فناوری ها چه کاری می توانند انجام دهند و چه کاری نمی توانند انجام دهند و از خطرات احتمالی و همچنین منافع آن آگاه باشند.
بَعد چه؟
مانند هر فناوری، هوش مصنوعی می تواند در موارد خوب یا بد مورد استفاده قرار گیرد و برای اطمینان از اجرای آن به روش مسئولانه، حاکمیت مناسب بسیار مهم است. سال گذشته CSIRO یک چارچوب اخلاقی هوش مصنوعی برای دولت استرالیا به عنوان گام اولیه در این سفر ایجاد کرد.هوش مصنوعی و یاد گیری ماشین به طور معمول بسیار گرسنه ی داده هستند، به این معنی که اطمینان از وجود سیستم های مؤثر برای حاکمیت و دسترسی به داده ها بسیار مهم است. اجرای فرآیندهای رضایت کافی و محافظت از حریم خصوصی هنگام جمع آوری اطلاعات ضروری است.
سازمان هایی که از هوش مصنوعی استفاده می کنند و در حال توسعه آن هستند باید اطمینان حاصل کنند که این فناوری ها چه کاری می توانند انجام دهند و چه کاری نمی توانند انجام دهند و از خطرات احتمالی و همچنین منافع آن آگاه باشند.
احتیاط در رابطه با روبات ها
از هوش مصنوعی و یاد گیری ماشین می توان آسیب پذیری افراد را در موقعیت های خاص شناخت و به آنها کمک کرد تا از انتخاب های نادرست دور شوند.
تصویر: آلفااستار (سبز)DeepMind ، که از هوش مصنوعی نیرو می گیرد، حمله ای را در دنیای مجازی StarCraft II دفع می کند. ذهن عمیق
DeepMind، توسعه دهنده هوش مصنوعی، به تازگی آخرین نقطه عطف خود را اعلام کرده است: یک روبات به نام آلفااستار (AlphaStar) که بازی استراتژی محبوب StarCraft II را در سطح Grandmaster بازی می کند.
این اولین بار نیست که یک روبات در یک بازی جنگ استراتژیک از انسان ها پیشی می گیرد. در سال 1981، برنامه ای به نام یوریسکو (Eurisko)، که توسط داگ لنات، پیشگام هوش مصنوعی (AI) تهیه شده بود، موفق به کسب عنوان قهرمانی Traveller در ایالات متحده شد، یک بازی جنگی استراتژیک بسیار پیچیده که در آن بازی کنان ناوگانی متشکل از 100 کشتی را طراحی می کنند. در نتیجه یوریسکو در ناوگانTraveller دریا سالاری افتخاری شد.
سال بعد، قوانین مسابقات برای خنثی کردن رایانه ها مورد بازنگری قرار گرفت. اما همچنان یوریسکو برای دومین سال متوالی پیروز شد. با توجه به تهدید مقامات به لغو مسابقات در صورت برنده شدن مجدد رایانه، لنات برنامه خود را بازنشسته کرد.
در هر آزمایش، ماشین از پاسخ های شرکت کنندگان آموخت و آسیب پذیری ها را در تصمیم گیری افراد شناسایی و هدف گذاری کرد. نتیجه نهایی این بود که دستگاه یاد گرفت شرکت کنندگان را به سمت اقدامات خاص سوق دهد.بخش روابط عمومی DeepMind این باور را در شما به وجود آورده است که StarCraft"با اجماع به عنوان چالش بزرگ بعدی (در بازی های رایانه ای) ظهور کرده است" و "بیش از 15 سال است که یک چالش بزرگ برای محققان هوش مصنوعی بوده است".
در جدیدترین مسابقات بازی های رایانه ایStarCraft ، فقط چهار ورودی از آزمایشگاه های تحقیقاتی دانشگاهی یا صنعتی آمده بود. نه روبات دیگرِ درگیر توسط افرادِ تنها، خارج از جریان اصلی تحقیقاتAI ، نوشته شده بود.
در حقیقت، 42 نویسنده مقالهDeepMind ، که در Nature منتشر شد، بسیار بیشتر از بقیه روبات های جهانی سازنده ی StarCraft هستند. بدون این که بخواهیم از کار برجسته مهندسی مشارکت چیزی دور کنیم، اگر منابعی کافی را برای یک مشکل اختصاص دهید، کسب موفقیت کاملاً یقینی است.
برخلاف موفقیت های اخیر با شطرنج رایانه ای وGo ، AlphaStar یاد نگرفت که انسان را به سادگی با بازی در برابر خودش گول بزند. بلکه با تقلید از بهترین بیت ها از نزدیک به یک میلیون بازی که توسط بازیکنان درجه یک انسانی انجام می شود، این را آموخت.
بدون این ورودی، AlphaStar توسط 19 بازیکن از 20 بازیکن سِرِور بازی StarCraft به طور متقاعد کننده ای ضربه فنی شد. AlphaStarهمچنین به طور ناشناس در آن سرور بازی کرد تا انسان نتواند از هیچ نقطه ضعفی که ممکن است در بازی های قبلی کشف شده باشد استفاده کند.
AlphaStar در دسامبر سال گذشتهGrzegorz "MaNa" Komincz ، یکی از برترین بازیکنان حرفه ای StarCraft در جهان را شکست داد. اما این یک نسخه از AlphaStar با بازتابی بسیار سریع تر از هر انسان و دید نامحدودی از صفحه بازی بود (بر خلاف بازیکنان انسانی که فقط می توانند بخشی از آن را در هر زمان ببینند). این به سختی یک زمین بازی مساوی بود.
با این وجود، StarCraft برخی از ویژگی هایی را دارد که باعث می شود AlphaStar یک پیشرفت چشم گیر باشد، اگر نه واقعا یک پیشرفت غیر منتظره. بر خلاف شطرنج یاGo ، بازی کنان در StarCraft اطلاعات ناقصی در باره وضعیت بازی دارند و مجموعه اقدامات احتمالی که می توانید در هر نقطه انجام دهید بسیار بیشتر است. و StarCraft به صورت بلادرنگ باز می شود و نیاز به طرح ریزی طولانی مدت دارد.
جنگ روبات ها
این، این سؤال را به وجود می آورد که آیا در آینده، ما شاهد روبات هایی خواهیم بود که نه تنها در جنگ ها می جنگند بلکه جنگ ها را هم طرح ریزی می کنند. در واقع، ما هر دو را داریم.ممکن است کلیشه ای به نظر رسد که بگوییم هوش مصنوعی همه جنبه های زندگی و کار ما را دگرگون می کند، اما این درست است. علیرغم هشدارهای فراوان توسط محققان هوش مصنوعی مانند خودم - و همچنین بنیان گذاران شرکت های هوش مصنوعی و روباتیک، برندگان جایزه صلح نوبل و رهبران کلیسا - سلاح های کاملاً خود گردان، که همچنین به عنوان "روبات های قاتل" شناخته می شوند، تولید شده اند و به زودی مورد استفاده قرار می گیرند.
قرار بود در سال 2020، ترکیه هواپیماهای بدون سرنشین کامیکازی را در مرزهای خود با سوریه مستقر کند. این هواپیماهای بدون سرنشین از دید رایانه ای برای شناسایی، رد یابی و کشتن افراد بدون دخالت انسان استفاده خواهند کرد.
این یک پیشرفت وحشتناک است. رایانه ها توانایی اخلاقی تصمیم گیری در مورد زندگی یا مرگ ندارند. آنها نه همدلی دارند و نه دلسوزی. "روبات های قاتل" ماهیت درگیری را به سمت بدتر شدن تغییر می دهند.
در مورد "ژنرال های روبات"، باید گفت که رایانه ها ده ها سال است که به ژنرال ها کمک می کنند تا برنامه ریزی کنند.
در طوفان صحرا، در خلال جنگ خلیج فارس در اوایل دهه 1990، از ابزارهای زمان بندی هوش مصنوعی برای طراحی نیروها در خاورمیانه قبل از درگیری استفاده شد. اندکی بعد یک ژنرال آمریکایی به من گفت که مبلغ صرفه جویی شده با این کار معادل تمام پولی است که تا آن زمان برای تحقیقات هوش مصنوعی هزینه شده است.
تصویر: جنگنده های آمریکایی در سال 1991 بر فراز کویت پرواز می کنند. موقعیت یابی سخت افزارهای نظامی، پیچیده و پر هزینه است. نیروی هوایی آمریکا
ژنرال ها برای استراتژی های بالقوه بازی های جنگی نیز به طور گسترده ای از رایانه استفاده کرده اند. اما همان طور که همه تصمیمات میادین جنگ را به یک سرباز نمی سپاریم، تحویل کامل مسئولیت های یک ژنرال به کامپیوتر نیز اشتباه و حتی یک قدم فراتر از این است.
ماشین آلات نمی توانند در مورد تصمیمات خود پاسخگو باشند. فقط انسان ها می توانند این گونه باشند. این سنگ بنای حقوق بشر دوستانه بین المللی است.
با این وجود، ژنرال ها برای قطع مه جنگ و رفتار با حجم زیادی از اطلاعاتی که از جبهه به عقب برمی گردد، به طور فزاینده ای در تصمیم گیری خود به پشتیبانی رایانه ای اعتماد می کنند.
اگر این منجر به مرگ کمتر غیر نظامیان، آتش های خودی کمتر، و احترام بیشتر به قوانین بشر دوستانه بین المللی شود، ما باید از چنین کمک های رایانه ای استقبال کنیم. اما پول لازم است برای این که انسان متوقف شود، نه ماشین.
هوش مصنوعی می تواند آسیب پذیری ها را در عادات و رفتارهای انسان شناسایی کند و از آنها برای تأثیر گذاری در تصمیم گیری انسان استفاده کند.در این جا یک سؤال نهایی برای تأمل وجود دارد. اگر شرکت های فناوری مانند گوگل واقعاً نمی خواهند ما نگران تصاحب جهان توسط کامپیوترها باشیم، چرا آنها برای پیروزی در جنگ های مجازی به جای تمرکز روی مثلاً ورزش های الکترونیکی صلح آمیز، روبات می سازند؟ با تمام احترامی که برای علاقه مندان به ورزش قائل هستیم، پاسخ این است که در این صورت شرط بندی ها بسیار کمتر می بود.
منبع: استفان مک کئون، University of Oregon، فیلیپا رایان، University of Technology Sydney