سلاح های خود گردان قاتل

سلاح های خود گردان مرگبار و جنگ جهانی سوم: برای متوقف کردن ظهور "روبات های قاتل" خیلی دیر نیست. نامه سرگشاده: ما باید روبات های قاتل را قبل از ساخته شدن متوقف کنیم.
چهارشنبه، 27 مرداد 1400
تخمین زمان مطالعه:
موارد بیشتر برای شما
سلاح های خود گردان قاتل
سال گذشته، بر اساس گزارش سازمان ملل متحد در ماه مارس، نیروهای دولتی لیبی نیروهای شورشی را با استفاده از "سیستم های تسلیحاتی کشنده خود گردان" که "برای حمله به اهداف بدون نیاز به اتصال داده بین اپراتور و مهمات برنامه ریزی شده بودند" شکار کردند. هواپیماهای بدون سرنشین کشنده عبارت بودند از کوادکوپترهای ساخت ترکیه به اندازه یک بشقاب غذا خوری که قادر به رها کردن کلاهک به وزن یک کیلوگرم یا بیشتر بودند.
 
سال هاست محققان هوش مصنوعی مانند من در مورد ظهور چنین سیستم های تسلیحاتی خود گردان مرگ باری که می توانند بدون دخالت انسان تصمیمات مرگ و زندگی را بگیرند هشدار داده اند. قسمت اخیر سریال 4 Corners این و بسیاری دیگر از خطرات ناشی از تحولات هوش مصنوعی را مرور کرده است.
 
حدود 50 کشور اخیراً در دفاتر سازمان ملل متحد در ژنو ملاقات کردند تا این ملاقات آخرین تلاش تاکنون برای دستیابی به پیمانی برای جلوگیری از گسترش این دستگاه های قاتلی باشد. تاریخ نشان می دهد که چنین معاهداتی مورد نیاز است و می تواند مؤثر واقع شود.
 

درس تسلیحات هسته ای

دانشمندان در هشدار نسبت به خطرات پیش روی کره زمین بسیار خوب عمل می کنند. متأسفانه جامعه در توجه به آنها خوب عمل نمی کند.
 
در آگوست 1945، ایالات متحده بمب های اتمی را بر روی شهرهای هیروشیما و ناگازاکی ژاپن پرتاب کرد و 200 هزار غیرنظامی را کشت. ژاپن روزهای بعد تسلیم شد. جنگ جهانی دوم به پایان رسید و جنگ سرد آغاز شد.
 سلاح های خود گردان برای کارهایی مانند ترور، بی ثبات سازی ملت ها، وادار به تسلیم کردن جمعیت ها و کشتنِ انتخابی یک گروه قومی خاص ایده آل هستند. بنابراین ما معتقدیم که مسابقه تسلیحاتی هوش مصنوعی نظامی برای بشریت مفید نخواهد بود. جهان هنوز هم امروز تحت تهدید نابودی هسته ای زندگی می کند. در ده ها مورد از آن زمان تاکنون، ما حتی به چند دقیقه ای یک جنگ همه جانبه هسته ای نزدیک شده ایم.
 
خیلی قبل از اولین آزمایش بمب هسته ای، بسیاری از دانشمندان که روی پروژه منهتن کار می کردند نگران چنین آینده ای بودند. در ژوئیه 1945 یک درخواست مخفی به رئیس جمهور هری اس. ترومن ارسال شد. این درخواست، آینده را به طور دقیق پیش بینی کرد:
 
«توسعه قدرت اتمی ابزارهای جدیدی برای نابودی در اختیار ملت ها قرار می دهد. بمب های اتمیِ در اختیار ما تنها اولین قدم در این راه است و تقریبا هیچ محدودیتی برای نیروی مخرب که در طول توسعه آینده آنها در دسترس خواهد بود وجود ندارد. بنابراین ملتی که سابقه استفاده از این نیروهای تازه آزاد شده طبیعت را برای اهداف تخریب ایجاد می کند، ممکن است مسئولیت بازکردن درهای عصر ویرانی را در مقیاسی غیر قابل تصور بر عهده داشته باشد.
 
اگر پس از این جنگ اجازه داده شود وضعیتی در جهان به وجود آید که به قدرت های رقیب اجازه دهد این وسایل جدید تخریب را در اختیار خود داشته باشند، شهرهای ایالات متحده و همچنین شهرهای دیگر کشورها مداوماً در معرض خطر نابودی ناگهانی قرار خواهند گرفت. برای جلوگیری از ظهور چنین وضعیتی در جهان، باید تمام منابع ایالات متحده، از نظر اخلاقی و مادی، بسیج شود
 
از آن زمان تاکنون میلیاردها دلار صرف زراد خانه های هسته ای شده است که تهدید به نابودی متقابل دارند، که همان "خطر مستمر نابودی ناگهانی" است که فیزیک دانان در ژوئیه 1945 در مورد آن هشدار دادند.
 

هشداری برای جهان

شش سال پیش، هزاران نفر از همکاران من هشدار مشابهی در مورد تهدیدی جدید دادند. فقط این بار، دادخواست (پتیشن) مخفی نبود، دنیا در جنگ نبود و فناوری ها به طور مخفی توسعه نمی یافتند. با این وجود، موضوع دادخواست آنها تهدیدی مشابه برای ثبات جهانی است.
 
این تهدید این بار از هوش مصنوعی و به ویژه توسعه سلاح های مرگبار خودگردان ناشی می شود: سلاح هایی که می توانند بدون دخالت انسان اهداف را شناسایی، ردیابی و نابود کنند. رسانه ها اغلب دوست دارند آنها را "روبات های قاتل" بنامند.
 
نامه سرگشاده ما به سازمان ملل متحد حامل یک هشدار شدید بود:
 
«سؤال کلیدی بشر امروز این است که آیا یک مسابقه تسلیحاتی جهانی هوش مصنوعی را آغاز کند یا از شروع آن جلوگیری کند. اگر هر گونه قدرت نظامی بزرگ با توسعه سلاح های هوش مصنوعی پیش برود، رقابت تسلیحاتی جهانی عملاً اجتناب ناپذیر است. سرانجامِِ چنین مسیر فناورانه ای روشن است: سلاح های خود گردان تبدیل می شوند به کلاشینکف های فردا.»
 سلاح های خود گردان به عنوان سومین انقلاب در جنگ، پس از باروت و تسلیحات هسته ای، توصیف شده اند. از نظر استراتژیک، سلاح های خود گردان یک رؤیای نظامی است. آنها به یک ارتش اجازه می دهند عملیات خود را بدون محدودیت نیروی انسانی انجام دهد. یک برنامه نویس می تواند صدها سلاح خود گردان را فرماندهی کند. یک ارتش می تواند خطرناک ترین ماموریت ها را بدون به خطر انداختن سربازان خود انجام دهد.
 

کابوس هجوم می آورد

به هر حال، دلایل زیادی وجود دارد که چرا رؤیای نظامی فوق الذکر در مورد سلاح های خود گردانِ کشنده به یک کابوس تبدیل می شود. اول از همه، یک بحث اخلاقی قوی علیه روبات های قاتل وجود دارد. اگر ما اخذ تصمیم در مورد این که آیا یک فرد باید زنده بماند یا بمیرد را به یک ماشین واگذار کنیم، ما بخشی اساسی از انسانیت خود را کنار گذاشته ایم.
 
فراتر از استدلال های اخلاقی، دلایل فنی و حقوقی زیادی برای نگرانی از روبات های قاتل وجود دارد. یکی از قوی ترین آنها این است که آنها انقلابی در جنگ ایجاد خواهند کرد. سلاح های خود گردان سلاح های تخریبی عظیمی خواهند بود.
 
قبلاً، اگر می خواستید آسیبی برسانید، باید ارتش سربازان را برای جنگ در اختیار می داشتید. شما باید این ارتش را متقاعد می کردید تا از دستورات شما پیروی کنند. شما باید آنها را آموزش می دادید، به آنها غذا می دادید و به آنها حقوق پرداخت می کردید. اکنون فقط یک برنامه نویس می تواند صدها سلاح را کنترل کند.
 
 سلاح های خود گردان قاتل
 
تصویر: هجوم سازمان دهی شده هواپیماهای بدون سرنشین می تواند نورهای خیره کننده ای تولید کند - اما فناوری مشابه می تواند یک سلاح ارزان و ویرانگر بسازد. یومیوری شیمبون / AP
 سلاح های خود گردان بدون دخالت انسان اهدافی را انتخاب و درگیر می کنند. آنها ممکن است شامل، به عنوان مثال، کوادکوپترهای مسلح باشند که می توانند افرادی را که دارای معیارهای از پیش تعیین شده هستند، جستجو و حذف کنند.از جهاتی سلاح های خود گردان کشنده حتی بیشتر از سلاح های هسته ای نگران کننده هستند. ساخت بمب هسته ای به پیچیدگی فنی قابل توجهی نیاز دارد. شما به منابع ملی یک کشور، فیزیک دانان و مهندسان ماهر و دسترسی به مواد اولیه کمیاب مانند اورانیوم و پلوتونیوم نیاز دارید. در نتیجه، به این دلایل تسلیحات هسته ای، خیلی گسترش نیافته است.
 
سلاح های خود گردان به هیچ یک از این موارد نیاز ندارند و در صورت تولید به احتمال زیاد ارزان و فراوان خواهند شد. آنها سلاح های کامل ترور خواهند بود.
 
آیا می توانید تصور کنید که تعقیب شدن توسط گروهی از هواپیماهای بدون سرنشین چقدر وحشتناک خواهد بود؟ آیا می توانید چنین پهپادهایی را در دست تروریست ها و دولت های سرکش تصور کنید که هیچ تردیدی در مورد حمله به غیرنظامیان ندارند؟ آنها سلاحی ایده آل برای سرکوب جمعیت های غیر نظامی خواهند بود. برخلاف انسان ها، آنها از ارتکاب جنایات، حتی نسل کشی، دریغ نخواهند کرد.
 

زمانِ یک معاهده است

ما در مورد این موضوع بر سر دو راهی ایستاده ایم. باید از نظر اخلاقی غیر قابل قبول تلقی شود که ماشین ها تصمیم بگیرند چه کسی زندگی کند و چه کسی بمیرد. و بر دیپلمات های سازمان ملل متحد است که در باره معاهده ای که استفاده از آنها را محدود می کند مذاکره کنند، همان طور که ما معاهده هایی برای محدود کردن سلاح های شیمیایی، بیولوژیکی و سایر سلاح ها داریم. به این ترتیب، ممکن است بتوانیم خود و فرزندانمان را از این آینده وحشتناک نجات دهیم.
فراخوان ما برای اقدام ساده است: ممنوعیت استفاده از سلاح های خود گردان تهاجمی، و با انجام این کار، تأمین آینده ای امن برای همه مان.

دادخواست

سلاح های خود گردان قاتل
 
تصویر: داستان های علمی تخیلی مملو از هشدارها در مورد سلاح های خود گردان تهاجمی یا "روبات های قاتل" است.superde1uxe/Flickr ، CC BY
 سلاح های خود گردان سلاح های تخریبی عظیمی خواهند بود.چند سال پیش بیش از 1000 محقق برجسته در زمینه هوش مصنوعی (AI) و روباتیک نامه ای سرگشاده امضا و منتشر کردند و خواستار ممنوعیت استفاده از سلاح های خود گردان تهاجمی، که همان طور که گفته شد در محاوره به عنوان "روبات های قاتل" نیز شناخته می شوند، شدند.
 
این نامه همچنین توسط بسیاری از فناوران و متخصصان از جمله ایلان ماسک، مدیر عامل شرکت SpaceX و تسلا، استفان هاوکینگ فیزیکدان، استیو وزنیاک بنیانگذار اپل، Jaan Talinn  بنیانگذار اسکایپ و نوام چامسکی زبان شناس و فعال اجتماعی امضا شده بود.
 
ماسک، هاوکینگ و وزنیاک هشدار دادند که هوش مصنوعی چه تهدیدی برای بشر دارد. اگر چه باید گفت، وزنیاک فکر می کند که اگر روبات ها جهان را در دست بگیرند، برای انسان ها خوب خواهد شد؛ ما فقط حیوانات خانگی آنها می شویم.
 
این نامه سرگشاده از سازمان ملل متحد می خواهد تا از ممنوعیت استفاده از سیستم های تسلیحاتی خود گردان حمایت کند. این به دنبال نشست آوریل کنوانسیون سلاح های متعارف، که در سازمان ملل در ژنو برگزار شد و در آن در مورد چنین ایده ای بحث شد، بود.
 
در این نامه استدلال می شود که استقرار چنین سلاح های خود گردانی طی چند سال امکان پذیر است و نقش مهمی در پیشبرد انقلاب بعدی در جنگ ایفا خواهد کرد.
 اگر ما اخذ تصمیم در مورد این که آیا یک فرد باید زنده بماند یا بمیرد را به یک ماشین واگذار کنیم، ما بخشی اساسی از انسانیت خود را کنار گذاشته ایم.به منظور افشاگری کامل، من نیز این نامه را امضا کردم. نظر من این است که تقریباً از هر فناوری ای می توان خوب یا بد استفاده کرد. و در این میان تفاوتی برای هوش مصنوعی وجود ندارد. بنابراین ما باید انتخاب کنیم که کدام مسیر را باید دنبال کنیم.
 
هوش مصنوعی یک فناوری است که می توان برای مقابله با بسیاری از مشکلات فوری جامعه امروز از آن استفاده کرد، از جمله در موارد نابرابری و فقر؛ افزایش هزینه مراقبت های بهداشتی؛ تأثیر گرمایش زمین و بسیاری دیگر. اما می توان از آن برای وارد آوردن آسیب های غیر ضروری نیز استفاده کرد. و اکنون زمان مناسب برای ممنوعیت قبل از شروع مسابقه تسلیحاتی بعدی است.
 
نامه سر گشاده - که در زیر باز نشر شده است - خلاصه ای از استدلال های ممنوعیت را ارائه می دهد. به طور خلاصه، احتمالاً مسابقه ای تسلیحاتی در چنین فناوری ای وجود خواهد داشت که جنگ را به سمت بدتر شدن متحول خواهد کرد.
 

آن چه می توانیم از تاریخ بیاموزیم

مثل همیشه، ما می توانیم از تاریخ چیزهای زیادی بیاموزیم. یک نمونه اخیر پروتکل سازمان ملل متحد در مورد نابینایی ناشی از سلاح های لیزری است که در سال 1998 اجرایی شد. کمیته بین المللی صلیب سرخ استدلال کرد که این ممنوعیت یک گام تاریخی برای بشریت است و اظهار داشت:
 
«این اولین باری است از سال 1868، هنگامی که استفاده از گلوله های منفجر شونده ممنوع شد، که سلاح های مورد علاقه نظامی قبل از استفاده در میدان جنگ و قبل از آن که جریان قربانیان اثبات قابل مشاهده ای از آثار غم انگیز آن را نشان دهند، ممنوع شده است.»
 
البته، فناوری لیزرهای کور کننده هنوز وجود دارد. لیزرهای پزشکی که بینایی را اصلاح می کنند نمونه ای از همان فناوری هستند. اما به دلیل این ممنوعیت، هیچ تولید کننده اسلحه ای لیزرهای کور کننده نمی فروشد. و ما هیچ قربانی ای از لیزرهای کور کننده نداریم تا از او مراقبت کنیم.
 تهدید این بار از هوش مصنوعی و به ویژه توسعه سلاح های مرگبار خودگردان ناشی می شود: سلاح هایی که می توانند بدون دخالت انسان اهداف را شناسایی، ردیابی و نابود کنند. رسانه ها اغلب دوست دارند آنها را "روبات های قاتل" بنامند.به طور مشابه، ممنوعیت استفاده از سلاح های خود گردان تهاجمی قرار نیست مانع از توسعه فناوری پشت چنین سلاح هایی شود. به هر حال، تنها چند خط کد لازم است تا یک خود روی خود گردان را به سلاحی تهاجمی تبدیل کند. اما در صورت وجود ممنوعیت، نقض آن، لکه ننگ و پیامدهای کافی را تضمین می کند به گونه ای که بعید است دیده شود که نیروهای نظامی متعارف از آن استفاده می کنند.
 
این نمی تواند تروریست ها و دیگر گروه های کوچک تر را که به پروتکل های سازمان ملل اهمیت چندانی نمی دهند، متوقف کند، اما آنها در دو سطح محدود خواهند شد. اول، آنها باید خود فناوری را توسعه دهند. آنها نمی توانند بیرون بروند و چنین سلاح هایی را بخرند. و دوم، نیروهای نظامی متعارف هنوز می توانند از هر گونه فناوری دفاعی که دوست دارند برای محافظت از خود استفاده کنند.
 

حالا زمانش فرا رسیده

با این نامه سرگشاده، امیدواریم بتوانیم به ارمغان آورنده آگاهی ای باشیم در مورد موضوعی وخیم که بدون تردید تأثیری شوم بر کل بشر خواهد داشت.
 
ما می توانیم در مراحل اولیه به این نتیجه برسیم، یا می توانیم بیکار بایستیم و شاهد تولد دوره جدیدی از جنگ باشیم. صادقانه بگویم، این چیزی نیست که بسیاری از دانشمندان در این زمینه مایل به دیدن آن باشند.
 
فراخوان ما برای اقدام ساده است: ممنوعیت استفاده از سلاح های خود گردان تهاجمی، و با انجام این کار، تأمین آینده ای امن برای همه مان.
 
یک کنفرانس مطبوعاتی که نامه سرگشاده را برای عموم منتشر کرد در افتتاحیه کنفرانس مشترک بین المللی هوش مصنوعی برگزار شد.
 دانشمندان در هشدار نسبت به خطرات پیش روی کره زمین بسیار خوب عمل می کنند. متأسفانه جامعه در توجه به آنها خوب عمل نمی کند.در زیر متن کامل نامه سرگشاده آمده است:
 
سلاح های خود گردان بدون دخالت انسان اهدافی را انتخاب و درگیر می کنند. آنها ممکن است شامل، به عنوان مثال، کوادکوپترهای مسلح باشند که می توانند افرادی را که دارای معیارهای از پیش تعیین شده هستند، جستجو و حذف کنند، اما شامل موشک های کروز یا هواپیماهای بدون سرنشین خلبانی شده از راه دور نمی شوند که انسان ها تمام تصمیمات هدف گیری را برای آنها می گیرند. فناوری هوش مصنوعی (AI) به حدی رسیده است که استقرار چنین سیستم هایی - عملاً حتی اگر قانونی نباشد - در عرض چند سال، نه ده ها سال، امکان پذیر است و مخاطرات زیادی در این رابطه وجود دارد: سلاح های خود گردان به عنوان سومین انقلاب در جنگ، پس از باروت و تسلیحات هسته ای، توصیف شده اند.
 
استدلال های زیادی له و علیه سلاح های خود گردان ارائه شده است، به عنوان مثال جایگزینی سربازان انسانی با ماشین آلات با کاهش تلفات انسانی برای مالک ماشین الات خوب است اما از طرفی در نتیجه این امر آستانه رفتن به جنگ کاهش پیدا می کند و این بد است. سؤال کلیدی بشر امروز این است که آیا یک مسابقه تسلیحاتی جهانی AI را آغاز کند یا از شروع آن جلوگیری کند. اگر هر گونه قدرت نظامی بزرگ با توسعه سلاح های هوش مصنوعی پیش برود، ایجاد یک مسابقه تسلیحاتی جهانی عملاً اجتناب ناپذیر خواهد بود و نقطه پایانی این مسیر تکنولوژیکی روشن است: سلاح های خود گردان به کلاشینکف های فردا تبدیل می شوند. بر خلاف سلاح های هسته ای، آنها برای ساخته شدن نیازی به مواد اولیه پر هزینه یا به سختی قابل استحصال ندارند، بنابراین برای تولید انبوه برای همه قدرت های مهم نظامی، همه جا حاضر و ارزان می شوند. تنها زمانی نه چندان دراز طول می کشد تا آنها در بازار سیاه و در دستان تروریست ها، دیکتاتورهایی که می خواهند مردمِ خود را بهتر کنترل کنند، فرماندهان جنگی که قصد پاک سازی قومی را دارند و غیره، ظاهر شوند. سلاح های خود گردان برای کارهایی مانند ترور، بی ثبات سازی ملت ها، وادار به تسلیم کردن جمعیت ها و کشتنِ انتخابی یک گروه قومی خاص ایده آل هستند. بنابراین ما معتقدیم که مسابقه تسلیحاتی هوش مصنوعی نظامی برای بشریت مفید نخواهد بود. روش های زیادی وجود دارد که از طریق آنها هوش مصنوعی می تواند بدون ایجاد ابزارهای جدید برای کشتن مردم، زمینه های نبرد را برای انسان ها، به ویژه غیر نظامیان امن تر کند.
 
همان طور که اکثر شیمی دانان و زیست شناسان علاقه ای به ساختن سلاح های شیمیایی یا بیولوژیکی ندارند، اکثر محققان هوش مصنوعی نیز هیچ علاقه ای به ساخت سلاح های هوش مصنوعی ندارند - و نمی خواهند دیگران با این کار رشته آنها را، به طور بالقوه با ایجاد یک واکنش عمومی عمده علیه هوش مصنوعی که باعث کاهش منافع و مزایای اجتماعی آینده آن می شود، خدشه دار کنند. در واقع، شیمی دانان و زیست شناسان به طور گسترده از توافقنامه هایی بین المللی حمایت کرده اند که سلاح های شیمیایی و بیولوژیکی را با موفقیت ممنوع کرده اند، همان طور که اکثر فیزیکدانان از معاهدات منع سلاح های هسته ای فضایی و سلاح های لیزری کور کننده حمایت کرده اند.
 
به طور خلاصه، ما معتقدیم که هوش مصنوعی پتانسیل بالایی برای سود آوری برای بشریت از جهات مختلف دارد و هدف این حوزه باید این باشد. شروع مسابقه تسلیحاتی AI نظامی ایده بدی است و باید با ممنوعیت استفاده از سلاح های خود گردان تهاجمی خارج از کنترل معنا دار بشر از آنها جلوگیری شود.
 
منبع: توبی والش، UNSW، Data61


مقالات مرتبط
ارسال نظر
با تشکر، نظر شما پس از بررسی و تایید در سایت قرار خواهد گرفت.
متاسفانه در برقراری ارتباط خطایی رخ داده. لطفاً دوباره تلاش کنید.
موارد بیشتر برای شما