خطوط هوایی روی امنیت ما هیچ ریسکی نمی‌کنند، و هوش مصنوعی هم نباید بکند

در این مقاله به ریسک‌های بالقوه استفاده از هوش مصنوعی و لزوم در نظر گرفتن تنظیمات دقیقی برای آن پرداخته می‌شود.
يکشنبه، 25 اسفند 1398
تخمین زمان مطالعه:
موارد بیشتر برای شما
خطوط هوایی روی امنیت ما هیچ ریسکی نمی‌کنند، و هوش مصنوعی هم نباید بکند
فکر می‌کنید پرواز با هواپیما خطرناک‌تر از رانندگی با یک ماشین است؟ در واقعیت پرواز بسیار امن‌تر است، تا حدی به این علت که صنعت حمل و نقل هوایی به شدت تنظیم شده است.
 
خطوط هوایی برای ایمنی، آزمایش، آموزش، سیاست‌ها و رویه‌ها، حسابرسی و نظارت باید به استانداردهای سختگیرانه پایبند باشند. و وقتی کارها اشتباه پیش می‌روند، ما بررسی و تلاش می‌کنیم تا موضوع را برای بهبود ایمنی در آینده اصلاح کنیم.
 
این فقط شرکت‌های هواپیمایی نیستند که این گونه‌اند. صنایع دیگری که در آن موارد خطا می‌تواند نتایج بسیار بدی به بار آورد، مانند داروخانه‌ها و دستگاه‌های پزشکی، نیز به شدت تنظیم شده‌اند.
 
هوش مصنوعی یک صنعت نسبتاً جدید است، اما به سرعت در حال رشد است و ظرفیت بسیاری برای آسیب وارد آوردن دارد. مانند هوانوردی و داروسازی، باید آن نیز به شدت تنظیم شود.
 

هوش مصنوعی می‌تواند صدمات بزرگی وارد آورد

طیف گسترده‌ای از فناوری‌ها و برنامه‌های کاربردی متناسب با "هوش مصنوعی" ، نقش مهمی در زندگی و نهادهای اجتماعی ما بازی کرده‌اند. اما می‌توان از آنها به روش‌هایی مضر استفاده کرد که قبلاً شاهد آن بوده‌ایم.
 
به عنوان مثال، در پرونده"robodebt" ، آژانس رفاه دولت استرالیا Centrelink از ماشینی کردن داده‌ها و تصمیم گیری خودکار استفاده کرد تا تذکرهای بدهی را که اغلب نادرست بود برای دریافت کنندگان خدمات رفاهی صادر کند. علاوه بر این، مسئولیت اثبات معکوس شد: افراد موظف بودند ثابت کنند که بدهی مطالبه شده را بدهکار نیستند.
 
دولت نیو ساوت ولز همچنین استفاده از هوش مصنوعی را برای ردیابی رانندگان دارای تلفن همراه آغاز کرده است. این شامل نظارت گسترده‌ای از طریق دوربین‌های تشخیص تلفن همراه است که از هوش مصنوعی استفاده می‌کنند تا به طور خودکار یک شیء مستطیل شکل را در دست راننده تشخیص داده و آن را به عنوان تلفن طبقه بندی کنند. دوربین‌های اتوماتیک رانندگان در حال استفاده از موبایل را مشخص می‌کنند، اما با چه هزینه‌ای؟
 
تشخیص چهره یکی دیگر از کاربرد‌های هوش مصنوعی در مناطق دارای نظارت امنیتی شدید در اطراف جهان است. این به خاطر پتانسیل آن برای تضعیف حقوق بشر است: می توان از آن برای نظارت گسترده و سرکوب اعتراض‌های عمومی استفاده کرد، و تعصب برنامه ریزی شده می‌تواند به عدم دقت و تبعیض نژادی منجر شود. برخی حتی خواستار توقف یا ممنوعیت آشکار استفاده از این قابلیت شده‌اند زیرا بسیار خطرناک است.
 
در چندین کشور، از جمله استرالیا ، از هوش مصنوعی برای پیش بینی میزان احتمال ارتکاب جرم در فرد استفاده می‌شود. نشان داده شده است که چنین روشهای پیش بینی کننده‌ای، جوانان بومی را به طور نامتناسب تحت تأثیر قرار داده و منجر به اعمال سرکوبگر پلیس می‌شود.
 
هوش مصنوعی‌ای که به رانندگان قطار کمک می‌کند نیز مورد استفاده قرار می‌گیرد و در آینده می توان انتظار داشت که خودروهای خودران و سایر خودروهای خودمختار را در جاده های خود ببینیم. زندگی به این نرم افزار بستگی پیدا خواهد کرد.
 

رویکرد اروپایی

هنگامی که تصمیم گرفتیم که هوش مصنوعی باید تنظیم شود، هنوز این سؤال وجود داشت که چگونه آن را انجام دهیم. مقامات اتحادیه اروپا اخیراً مجموعه‌ای از پیشنهادات را برای نحوه تنظیم هوش مصنوعی ارائه داده‌اند.
 
به گفته آنها، اولین قدم ارزیابی خطرات ناشی از هوش مصنوعی در بخش‌های مختلف مانند حمل و نقل، مراقبت‌های بهداشتی و برنامه‌های دولتی مانند مهاجرت، عدالت کیفری و امنیت اجتماعی است. آنها همچنین به برنامه‌هایی از هوش مصنوعی نگاه می‌کنند که خطر مرگ یا جراحت را به همراه می‌آورند و یا تأثیراتی در حقوق بشر مانند نقض حقوق حریم خصوصی، برابری، آزادی و امنیت، آزادی جا به جایی و اجتماعات، امنیت اجتماعی، سطح زندگی، فرضیه‌ی بی گناهی و ... دارند.
 
هرچه خطر ابتلا بر اثر برنامه هوش مصنوعی بیشتر باشد، مقررات بیشتری در مقابل آن قرار خواهد گرفت. تنظیمات، پوشش دهنده همه چیز هستند از داده‌های مورد استفاده برای آموزش هوش مصنوعی و نحوه نگهداری سوابق گرفته، تا این که چقدر  سازندگان و اپراتورهای سیستم باید شفاف باشند، و تا آزمایش برای استحکام و صحت سیستم، و تا الزاماتی برای نظارت انسانی. این شامل صدور گواهینامه و کسب اطمینان برای استفاده از سیستم های هوش مصنوعی بی خطر است که به نتایج تبعیض آمیز یا خطرناک منجر نمی‌شود.
 
اگرچه رویکرد اتحادیه اروپا نکات برجسته‌ای دارد، اما حتی برنامه‌های هوش مصنوعی "کم خطر" نیز می‌توانند صدمات واقعی وارد کنند. به عنوان مثال، الگوریتم‌های توصیه در موتورهای جستجو نیز تبعیض آمیز هستند. مقامات اتحادیه اروپا اخیراً مجموعه‌ای از پیشنهادات را برای نحوه تنظیم هوش مصنوعی ارائه داده‌اند. پیشنهاد اتحادیه اروپا همچنین به دلیل تلاش برای تنظیم فناوری تشخیص چهره به جای ممنوعیت کامل آن، مورد انتقاد قرار گرفته است.
 
اتحادیه اروپا مقررات مربوط به حمایت از داده‌ها را در جهان رهبری کرده است. اگر در مورد هوش مصنوعی نیز همین اتفاق بیفتد، احتمالاً این پیشنهادات به عنوان الگویی برای سایر کشورها عمل می‌کند و در مورد هر کسی که با اتحادیه اروپا یا حتی شهروندان اتحادیه اروپا تجارت کند، اعمال می‌شود.
 

چه اتفاقی در استرالیا می‌افتد؟

در استرالیا برخی قوانین و مقررات قابل اجرا در این زمینه وجود دارد، اما بسیاری از شکاف‌ها نیز وجود دارد، و همین مقررات نیز همیشه اجرا نمی‌شوند. به دلیل عدم حمایت از حقوق بشر در سطح فدرال، این وضعیت دشوارتر می‌شود.
 
سال گذشته یکی از تلاشهای برجسته برای تدوین برخی از قوانین برای هوش مصنوعی، ازData61، داده‌ها و بازوی دیجیتالCSIRO ، آمد. آنها یک چارچوب اخلاق هوش مصنوعی ساختند که در آن در حدود هشت اصل اخلاقی برای هوش مصنوعی مقرر شده است.
 
این اصول اخلاقی کاملاً بی ربط نیستند (به عنوان مثال شماره دو "آسیب نرسان" است)، اما آنها غیرقابل اجرا هستند و از این رو تا حد زیادی بی معنی هستند. چارچوب‌های اخلاقی‌ای مانند این برای هوش مصنوعی، به عنوان "شستشوی اخلاقی"  و دستاویزی برای صنعت برای طفره رفتن از قوانین و مقررات سخت، مورد انتقاد قرار گرفته است. باید به این اندیشید که چگونه فناوری بزرگ قواعد اخلاقی خود را برای جلوگیری از بررسی و پاسخگویی طراحی می‌کند.
 
قبل از این که هوش مصنوعی به طور گسترده‌تری پذیرفته شود، باید تأثیرات آن را بفهمیم و محافظت‌هایی را در نظر بگیریم. برای تحقق مزایای بالقوه هوش مصنوعی، باید اطمینان حاصل شود که به طور مناسب اداره می‌شود، در غیر این صورت، ما به عنوان افراد و به عنوان یک جامعه، هزینه‌ای سنگین را پرداخت خواهیم کرد.
 
منبع: مونیک مان - Deakin University


مقالات مرتبط
ارسال نظر
با تشکر، نظر شما پس از بررسی و تایید در سایت قرار خواهد گرفت.
متاسفانه در برقراری ارتباط خطایی رخ داده. لطفاً دوباره تلاش کنید.
مقالات مرتبط
موارد بیشتر برای شما
رستوران‌های که به سیب‌زمینی می‌گویند "فرنچ فرایز"
play_arrow
رستوران‌های که به سیب‌زمینی می‌گویند "فرنچ فرایز"
ربات انسان‌نمای پیشرفته چینی معرفی شد
play_arrow
ربات انسان‌نمای پیشرفته چینی معرفی شد
حادثه برای دختر وزنه‌بردار ایران
play_arrow
حادثه برای دختر وزنه‌بردار ایران
رکورد طولانی‌ترین پرش اسکی شکسته شد
play_arrow
رکورد طولانی‌ترین پرش اسکی شکسته شد
بازدید نیروهای امنیتی ایران از مقرهای گروهک دموکرات در کردستان عراق
play_arrow
بازدید نیروهای امنیتی ایران از مقرهای گروهک دموکرات در کردستان عراق
حملات خمپاره‌ای گردان های قدس علیه صهیونیست‌ها
play_arrow
حملات خمپاره‌ای گردان های قدس علیه صهیونیست‌ها
تصاویر جدید از شکست سامانه دفاعی اسرائیل در برابر موشک یمنی
play_arrow
تصاویر جدید از شکست سامانه دفاعی اسرائیل در برابر موشک یمنی
لحظه هجوم خودرو به میان جمعیت در آلمان(۱۵+)
play_arrow
لحظه هجوم خودرو به میان جمعیت در آلمان(۱۵+)
هشدار افسر بازنشسته ارتش آمریکا به اسرائیل درباره اقدام علیه تاسیسات هسته‌ای ایران
play_arrow
هشدار افسر بازنشسته ارتش آمریکا به اسرائیل درباره اقدام علیه تاسیسات هسته‌ای ایران
سرقت بزرگ
play_arrow
سرقت بزرگ
تصاویر دیده نشده از یحیی سنوار، اسماعیل هنیه و صالح العاروری
play_arrow
تصاویر دیده نشده از یحیی سنوار، اسماعیل هنیه و صالح العاروری
جزئیات الزام بیمه‌ها به پرداخت خسارت افت قیمت
play_arrow
جزئیات الزام بیمه‌ها به پرداخت خسارت افت قیمت
ما به بشار اسد توصیه‌های زیادی کردیم اما او از شنیدن آن‌ها امتناع کرد
play_arrow
ما به بشار اسد توصیه‌های زیادی کردیم اما او از شنیدن آن‌ها امتناع کرد
دوبله زنده سریال خاطره‌انگیز جومونگ پس از یک دهه در شبکه سه
play_arrow
دوبله زنده سریال خاطره‌انگیز جومونگ پس از یک دهه در شبکه سه
نتانیاهو: حوثی‌ها بهای سنگینی خواهند پرداخت
play_arrow
نتانیاهو: حوثی‌ها بهای سنگینی خواهند پرداخت