فکر می‌کنید پرواز با هواپیما خطرناک‌تر از رانندگی با یک ماشین است؟ در واقعیت پرواز بسیار امن‌تر است، تا حدی به این علت که صنعت حمل و نقل هوایی به شدت تنظیم شده است.
 
خطوط هوایی برای ایمنی، آزمایش، آموزش، سیاست‌ها و رویه‌ها، حسابرسی و نظارت باید به استانداردهای سختگیرانه پایبند باشند. و وقتی کارها اشتباه پیش می‌روند، ما بررسی و تلاش می‌کنیم تا موضوع را برای بهبود ایمنی در آینده اصلاح کنیم.
 
این فقط شرکت‌های هواپیمایی نیستند که این گونه‌اند. صنایع دیگری که در آن موارد خطا می‌تواند نتایج بسیار بدی به بار آورد، مانند داروخانه‌ها و دستگاه‌های پزشکی، نیز به شدت تنظیم شده‌اند.
 
هوش مصنوعی یک صنعت نسبتاً جدید است، اما به سرعت در حال رشد است و ظرفیت بسیاری برای آسیب وارد آوردن دارد. مانند هوانوردی و داروسازی، باید آن نیز به شدت تنظیم شود.
 

هوش مصنوعی می‌تواند صدمات بزرگی وارد آورد

طیف گسترده‌ای از فناوری‌ها و برنامه‌های کاربردی متناسب با "هوش مصنوعی" ، نقش مهمی در زندگی و نهادهای اجتماعی ما بازی کرده‌اند. اما می‌توان از آنها به روش‌هایی مضر استفاده کرد که قبلاً شاهد آن بوده‌ایم.
 
به عنوان مثال، در پرونده"robodebt" ، آژانس رفاه دولت استرالیا Centrelink از ماشینی کردن داده‌ها و تصمیم گیری خودکار استفاده کرد تا تذکرهای بدهی را که اغلب نادرست بود برای دریافت کنندگان خدمات رفاهی صادر کند. علاوه بر این، مسئولیت اثبات معکوس شد: افراد موظف بودند ثابت کنند که بدهی مطالبه شده را بدهکار نیستند.
 
دولت نیو ساوت ولز همچنین استفاده از هوش مصنوعی را برای ردیابی رانندگان دارای تلفن همراه آغاز کرده است. این شامل نظارت گسترده‌ای از طریق دوربین‌های تشخیص تلفن همراه است که از هوش مصنوعی استفاده می‌کنند تا به طور خودکار یک شیء مستطیل شکل را در دست راننده تشخیص داده و آن را به عنوان تلفن طبقه بندی کنند. دوربین‌های اتوماتیک رانندگان در حال استفاده از موبایل را مشخص می‌کنند، اما با چه هزینه‌ای؟
 
تشخیص چهره یکی دیگر از کاربرد‌های هوش مصنوعی در مناطق دارای نظارت امنیتی شدید در اطراف جهان است. این به خاطر پتانسیل آن برای تضعیف حقوق بشر است: می توان از آن برای نظارت گسترده و سرکوب اعتراض‌های عمومی استفاده کرد، و تعصب برنامه ریزی شده می‌تواند به عدم دقت و تبعیض نژادی منجر شود. برخی حتی خواستار توقف یا ممنوعیت آشکار استفاده از این قابلیت شده‌اند زیرا بسیار خطرناک است.
 
در چندین کشور، از جمله استرالیا ، از هوش مصنوعی برای پیش بینی میزان احتمال ارتکاب جرم در فرد استفاده می‌شود. نشان داده شده است که چنین روشهای پیش بینی کننده‌ای، جوانان بومی را به طور نامتناسب تحت تأثیر قرار داده و منجر به اعمال سرکوبگر پلیس می‌شود.
 
هوش مصنوعی‌ای که به رانندگان قطار کمک می‌کند نیز مورد استفاده قرار می‌گیرد و در آینده می توان انتظار داشت که خودروهای خودران و سایر خودروهای خودمختار را در جاده های خود ببینیم. زندگی به این نرم افزار بستگی پیدا خواهد کرد.
 

رویکرد اروپایی

هنگامی که تصمیم گرفتیم که هوش مصنوعی باید تنظیم شود، هنوز این سؤال وجود داشت که چگونه آن را انجام دهیم. مقامات اتحادیه اروپا اخیراً مجموعه‌ای از پیشنهادات را برای نحوه تنظیم هوش مصنوعی ارائه داده‌اند.
 
به گفته آنها، اولین قدم ارزیابی خطرات ناشی از هوش مصنوعی در بخش‌های مختلف مانند حمل و نقل، مراقبت‌های بهداشتی و برنامه‌های دولتی مانند مهاجرت، عدالت کیفری و امنیت اجتماعی است. آنها همچنین به برنامه‌هایی از هوش مصنوعی نگاه می‌کنند که خطر مرگ یا جراحت را به همراه می‌آورند و یا تأثیراتی در حقوق بشر مانند نقض حقوق حریم خصوصی، برابری، آزادی و امنیت، آزادی جا به جایی و اجتماعات، امنیت اجتماعی، سطح زندگی، فرضیه‌ی بی گناهی و ... دارند.
 
هرچه خطر ابتلا بر اثر برنامه هوش مصنوعی بیشتر باشد، مقررات بیشتری در مقابل آن قرار خواهد گرفت. تنظیمات، پوشش دهنده همه چیز هستند از داده‌های مورد استفاده برای آموزش هوش مصنوعی و نحوه نگهداری سوابق گرفته، تا این که چقدر  سازندگان و اپراتورهای سیستم باید شفاف باشند، و تا آزمایش برای استحکام و صحت سیستم، و تا الزاماتی برای نظارت انسانی. این شامل صدور گواهینامه و کسب اطمینان برای استفاده از سیستم های هوش مصنوعی بی خطر است که به نتایج تبعیض آمیز یا خطرناک منجر نمی‌شود.
 
اگرچه رویکرد اتحادیه اروپا نکات برجسته‌ای دارد، اما حتی برنامه‌های هوش مصنوعی "کم خطر" نیز می‌توانند صدمات واقعی وارد کنند. به عنوان مثال، الگوریتم‌های توصیه در موتورهای جستجو نیز تبعیض آمیز هستند. مقامات اتحادیه اروپا اخیراً مجموعه‌ای از پیشنهادات را برای نحوه تنظیم هوش مصنوعی ارائه داده‌اند. پیشنهاد اتحادیه اروپا همچنین به دلیل تلاش برای تنظیم فناوری تشخیص چهره به جای ممنوعیت کامل آن، مورد انتقاد قرار گرفته است.
 
اتحادیه اروپا مقررات مربوط به حمایت از داده‌ها را در جهان رهبری کرده است. اگر در مورد هوش مصنوعی نیز همین اتفاق بیفتد، احتمالاً این پیشنهادات به عنوان الگویی برای سایر کشورها عمل می‌کند و در مورد هر کسی که با اتحادیه اروپا یا حتی شهروندان اتحادیه اروپا تجارت کند، اعمال می‌شود.
 

چه اتفاقی در استرالیا می‌افتد؟

در استرالیا برخی قوانین و مقررات قابل اجرا در این زمینه وجود دارد، اما بسیاری از شکاف‌ها نیز وجود دارد، و همین مقررات نیز همیشه اجرا نمی‌شوند. به دلیل عدم حمایت از حقوق بشر در سطح فدرال، این وضعیت دشوارتر می‌شود.
 
سال گذشته یکی از تلاشهای برجسته برای تدوین برخی از قوانین برای هوش مصنوعی، ازData61، داده‌ها و بازوی دیجیتالCSIRO ، آمد. آنها یک چارچوب اخلاق هوش مصنوعی ساختند که در آن در حدود هشت اصل اخلاقی برای هوش مصنوعی مقرر شده است.
 
این اصول اخلاقی کاملاً بی ربط نیستند (به عنوان مثال شماره دو "آسیب نرسان" است)، اما آنها غیرقابل اجرا هستند و از این رو تا حد زیادی بی معنی هستند. چارچوب‌های اخلاقی‌ای مانند این برای هوش مصنوعی، به عنوان "شستشوی اخلاقی"  و دستاویزی برای صنعت برای طفره رفتن از قوانین و مقررات سخت، مورد انتقاد قرار گرفته است. باید به این اندیشید که چگونه فناوری بزرگ قواعد اخلاقی خود را برای جلوگیری از بررسی و پاسخگویی طراحی می‌کند.
 
قبل از این که هوش مصنوعی به طور گسترده‌تری پذیرفته شود، باید تأثیرات آن را بفهمیم و محافظت‌هایی را در نظر بگیریم. برای تحقق مزایای بالقوه هوش مصنوعی، باید اطمینان حاصل شود که به طور مناسب اداره می‌شود، در غیر این صورت، ما به عنوان افراد و به عنوان یک جامعه، هزینه‌ای سنگین را پرداخت خواهیم کرد.
 
منبع: مونیک مان - Deakin University