خطوط هوایی روی امنیت ما هیچ ریسکی نمیکنند، و هوش مصنوعی هم نباید بکند
در این مقاله به ریسکهای بالقوه استفاده از هوش مصنوعی و لزوم در نظر گرفتن تنظیمات دقیقی برای آن پرداخته میشود.
خطوط هوایی برای ایمنی، آزمایش، آموزش، سیاستها و رویهها، حسابرسی و نظارت باید به استانداردهای سختگیرانه پایبند باشند. و وقتی کارها اشتباه پیش میروند، ما بررسی و تلاش میکنیم تا موضوع را برای بهبود ایمنی در آینده اصلاح کنیم.
این فقط شرکتهای هواپیمایی نیستند که این گونهاند. صنایع دیگری که در آن موارد خطا میتواند نتایج بسیار بدی به بار آورد، مانند داروخانهها و دستگاههای پزشکی، نیز به شدت تنظیم شدهاند.
هوش مصنوعی یک صنعت نسبتاً جدید است، اما به سرعت در حال رشد است و ظرفیت بسیاری برای آسیب وارد آوردن دارد. مانند هوانوردی و داروسازی، باید آن نیز به شدت تنظیم شود.
هوش مصنوعی میتواند صدمات بزرگی وارد آورد
طیف گستردهای از فناوریها و برنامههای کاربردی متناسب با "هوش مصنوعی" ، نقش مهمی در زندگی و نهادهای اجتماعی ما بازی کردهاند. اما میتوان از آنها به روشهایی مضر استفاده کرد که قبلاً شاهد آن بودهایم.به عنوان مثال، در پرونده"robodebt" ، آژانس رفاه دولت استرالیا Centrelink از ماشینی کردن دادهها و تصمیم گیری خودکار استفاده کرد تا تذکرهای بدهی را که اغلب نادرست بود برای دریافت کنندگان خدمات رفاهی صادر کند. علاوه بر این، مسئولیت اثبات معکوس شد: افراد موظف بودند ثابت کنند که بدهی مطالبه شده را بدهکار نیستند.
دولت نیو ساوت ولز همچنین استفاده از هوش مصنوعی را برای ردیابی رانندگان دارای تلفن همراه آغاز کرده است. این شامل نظارت گستردهای از طریق دوربینهای تشخیص تلفن همراه است که از هوش مصنوعی استفاده میکنند تا به طور خودکار یک شیء مستطیل شکل را در دست راننده تشخیص داده و آن را به عنوان تلفن طبقه بندی کنند. دوربینهای اتوماتیک رانندگان در حال استفاده از موبایل را مشخص میکنند، اما با چه هزینهای؟
تشخیص چهره یکی دیگر از کاربردهای هوش مصنوعی در مناطق دارای نظارت امنیتی شدید در اطراف جهان است. این به خاطر پتانسیل آن برای تضعیف حقوق بشر است: می توان از آن برای نظارت گسترده و سرکوب اعتراضهای عمومی استفاده کرد، و تعصب برنامه ریزی شده میتواند به عدم دقت و تبعیض نژادی منجر شود. برخی حتی خواستار توقف یا ممنوعیت آشکار استفاده از این قابلیت شدهاند زیرا بسیار خطرناک است.
در چندین کشور، از جمله استرالیا ، از هوش مصنوعی برای پیش بینی میزان احتمال ارتکاب جرم در فرد استفاده میشود. نشان داده شده است که چنین روشهای پیش بینی کنندهای، جوانان بومی را به طور نامتناسب تحت تأثیر قرار داده و منجر به اعمال سرکوبگر پلیس میشود.
هوش مصنوعیای که به رانندگان قطار کمک میکند نیز مورد استفاده قرار میگیرد و در آینده می توان انتظار داشت که خودروهای خودران و سایر خودروهای خودمختار را در جاده های خود ببینیم. زندگی به این نرم افزار بستگی پیدا خواهد کرد.
رویکرد اروپایی
هنگامی که تصمیم گرفتیم که هوش مصنوعی باید تنظیم شود، هنوز این سؤال وجود داشت که چگونه آن را انجام دهیم. مقامات اتحادیه اروپا اخیراً مجموعهای از پیشنهادات را برای نحوه تنظیم هوش مصنوعی ارائه دادهاند.به گفته آنها، اولین قدم ارزیابی خطرات ناشی از هوش مصنوعی در بخشهای مختلف مانند حمل و نقل، مراقبتهای بهداشتی و برنامههای دولتی مانند مهاجرت، عدالت کیفری و امنیت اجتماعی است. آنها همچنین به برنامههایی از هوش مصنوعی نگاه میکنند که خطر مرگ یا جراحت را به همراه میآورند و یا تأثیراتی در حقوق بشر مانند نقض حقوق حریم خصوصی، برابری، آزادی و امنیت، آزادی جا به جایی و اجتماعات، امنیت اجتماعی، سطح زندگی، فرضیهی بی گناهی و ... دارند.
هرچه خطر ابتلا بر اثر برنامه هوش مصنوعی بیشتر باشد، مقررات بیشتری در مقابل آن قرار خواهد گرفت. تنظیمات، پوشش دهنده همه چیز هستند از دادههای مورد استفاده برای آموزش هوش مصنوعی و نحوه نگهداری سوابق گرفته، تا این که چقدر سازندگان و اپراتورهای سیستم باید شفاف باشند، و تا آزمایش برای استحکام و صحت سیستم، و تا الزاماتی برای نظارت انسانی. این شامل صدور گواهینامه و کسب اطمینان برای استفاده از سیستم های هوش مصنوعی بی خطر است که به نتایج تبعیض آمیز یا خطرناک منجر نمیشود.
اگرچه رویکرد اتحادیه اروپا نکات برجستهای دارد، اما حتی برنامههای هوش مصنوعی "کم خطر" نیز میتوانند صدمات واقعی وارد کنند. به عنوان مثال، الگوریتمهای توصیه در موتورهای جستجو نیز تبعیض آمیز هستند. مقامات اتحادیه اروپا اخیراً مجموعهای از پیشنهادات را برای نحوه تنظیم هوش مصنوعی ارائه دادهاند. پیشنهاد اتحادیه اروپا همچنین به دلیل تلاش برای تنظیم فناوری تشخیص چهره به جای ممنوعیت کامل آن، مورد انتقاد قرار گرفته است.
اتحادیه اروپا مقررات مربوط به حمایت از دادهها را در جهان رهبری کرده است. اگر در مورد هوش مصنوعی نیز همین اتفاق بیفتد، احتمالاً این پیشنهادات به عنوان الگویی برای سایر کشورها عمل میکند و در مورد هر کسی که با اتحادیه اروپا یا حتی شهروندان اتحادیه اروپا تجارت کند، اعمال میشود.
چه اتفاقی در استرالیا میافتد؟
در استرالیا برخی قوانین و مقررات قابل اجرا در این زمینه وجود دارد، اما بسیاری از شکافها نیز وجود دارد، و همین مقررات نیز همیشه اجرا نمیشوند. به دلیل عدم حمایت از حقوق بشر در سطح فدرال، این وضعیت دشوارتر میشود.سال گذشته یکی از تلاشهای برجسته برای تدوین برخی از قوانین برای هوش مصنوعی، ازData61، دادهها و بازوی دیجیتالCSIRO ، آمد. آنها یک چارچوب اخلاق هوش مصنوعی ساختند که در آن در حدود هشت اصل اخلاقی برای هوش مصنوعی مقرر شده است.
این اصول اخلاقی کاملاً بی ربط نیستند (به عنوان مثال شماره دو "آسیب نرسان" است)، اما آنها غیرقابل اجرا هستند و از این رو تا حد زیادی بی معنی هستند. چارچوبهای اخلاقیای مانند این برای هوش مصنوعی، به عنوان "شستشوی اخلاقی" و دستاویزی برای صنعت برای طفره رفتن از قوانین و مقررات سخت، مورد انتقاد قرار گرفته است. باید به این اندیشید که چگونه فناوری بزرگ قواعد اخلاقی خود را برای جلوگیری از بررسی و پاسخگویی طراحی میکند.
قبل از این که هوش مصنوعی به طور گستردهتری پذیرفته شود، باید تأثیرات آن را بفهمیم و محافظتهایی را در نظر بگیریم. برای تحقق مزایای بالقوه هوش مصنوعی، باید اطمینان حاصل شود که به طور مناسب اداره میشود، در غیر این صورت، ما به عنوان افراد و به عنوان یک جامعه، هزینهای سنگین را پرداخت خواهیم کرد.
منبع: مونیک مان - Deakin University
مقالات مرتبط
تازه های مقالات
ارسال نظر
در ارسال نظر شما خطایی رخ داده است
کاربر گرامی، ضمن تشکر از شما نظر شما با موفقیت ثبت گردید. و پس از تائید در فهرست نظرات نمایش داده می شود
نام :
ایمیل :
نظرات کاربران
{{Fullname}} {{Creationdate}}
{{Body}}