سیستم های هوش مصنوعی ابزاری قدرتمند برای مشاغل و دولت ها برای پردازش داده ها و پاسخ به شرایط متغیر، چه در بورس سهام و چه در میدان جنگ هستند. اما هنوز مواردی وجود دارد که هوش مصنوعی برای آنها آماده نیست.
ما دانشمندان علوم کامپیوتری هستیم که برای درک و بهبود روش های تعامل الگوریتم ها با جامعه تلاش می کنیم. سیستم های هوش مصنوعی هنگامی که هدف مشخص است و داده های با کیفیت بالا وجود دارد، بهترین عملکرد را دارند، مانند زمانی که از آنها خواسته می شود چهره های مختلف را پس از یاد گیری از تصاویر بسیاری از افراد مختلف به درستی تشخیص دهند.
یک الگوریتم هوش مصنوعی با همکاری یک انسان می تواند از مزایا و کارایی تصمیمات خوب هوش مصنوعی بهره مند شود، بدون این که در تصمیمات بد آن محبوس شود.بعضی اوقات سیستم های هوش مصنوعی به حدی خوب عمل می کنند که کاربران و ناظران از میزان درک این فناوری تعجب می کنند. با این وجود، گاهی موفقیت دشوار است که اندازه گیری شود و یا اشتباه تعریف می شود، یا داده های آموزشی با وظیفه موجود مطابقت ندارند. در این موارد، الگوریتم های هوش مصنوعی به روش های غیر قابل پیش بینی و چشمگیری شکست می خورند، هر چند همیشه بلافاصله مشخص نیست که حتی اصلاً اشتباهی رخ داده است. در نتیجه، مهم است که از گزافه پردازی و هیجان بپرهیزید و در مورد آن چه AI می تواند انجام دهد محتاط باشید و تصور نکنید که راه حلی که پیدا می کند همیشه صحیح است.
هنگامی که الگوریتم ها در حال کار هستند، باید یک شبکه ایمنی برای جلوگیری از آسیب رساندن به افراد وجود داشته باشد. تحقیقات ما نشان داد که در برخی شرایط الگوریتم ها می توانند مشکلات عملکرد خود را تشخیص دهند و از انسان کمک بگیرند. به طور خاص، ما نشان می دهیم، درخواست کمک از انسان می تواند در برخی از تنظیمات به کاهش سوگیری الگوریتمی کمک کند.
الگوریتم تا چه اندازه مطمئن است؟
سیستم های هوش مصنوعی در مجازات های کیفری، پروفایل کردن شخصیت بر پایه چهره، از سرگیری غربالگری، ثبت نام در مراقبت های بهداشتی و سایر کارهای دشوار که در آنها زندگی و رفاه مردم در معرض خطر است استفاده می شوند. آژانس های دولتی ایالات متحده در واکنش به دستور اجرایی اخیر دونالد ترامپ، رئیس جمهور آمریکا، در حال جستجو و اکتشاف و استفاده از سیستم های مناسب AI هستند.به یاد داشته باشید که هوش مصنوعی می تواند تصورات غلط در نحوه پرداختن به یک کار را تقویت کند یا نابرابری های موجود را بزرگ تر کند. این حتی اگر کسی به صراحت به الگوریتم نگفته باشد که با کسی به گونه ای متفاوت رفتار کند، ممکن است اتفاق بیافتد.
به عنوان مثال، بسیاری از شرکت ها الگوریتم هایی دارند که سعی می کنند ویژگی های یک شخص را از طریق چهره او تعیین کنند - مثلاً حدس می زنند که جنسیت او چیست. سیستم های توسعه یافته توسط شرکت های آمریکایی به طور قابل توجهی در طبقه بندی مردان سفید بهتر از طبقه بندی زنان و دارندگان پوست های تیره عمل می کنند. آنها در زنان دارای پوستی تیره حتی بدتر عمل می کنند. با این وجود سیستم های توسعه یافته در چین، برای صورت های سفید بدتر عمل می کنند.
تصویر: داده های آموزشی دارای جهت گیری می توانند عملکرد سیستم ها در شناخت انواع خاصی از چهره ها را بهتر یا بدتر کنند. Andrey_Popov / Shutterstock.com
تفاوت به این خاطر نیست که یک گروه چهره هایی دارد که طبقه بندی آنها آسان تر از گروه های دیگر است، بلکه بیشتر این گونه است که دو الگوریتم معمولاً هر کدام روی مجموعه (احتمالاً متفاوت) بزرگی از داده ها که به اندازه جمعیت کلی انسان ها متنوع نیستند، آموزش می بینند. اگر مجموعه داده ها نوع خاصی از چهره های غالب - مردان سفیدپوست در ایالات متحده و چهره های چینی در چین - باشند، احتمالاً الگوریتم در تجزیه و تحلیل این چهره ها بهتر از سایرین عمل می کند.
الگوریتم ها را می توان به گونه ای برنامه ریزی کرد که کمبودهای خود را تشخیص دهند - و این تشخیص را با درخواست از یک انسان برای کمک به حل موضوع دنبال کنند.مهم نیست که تفاوت چگونه به وجود آید، نتیجه این خواهد بود که الگوریتم ها می توانند با دقت بیشتر در یک گروه نسبت به گروه دیگر سوگیرانه عمل کنند.
تداوم نظارت انسانی بر هوش مصنوعی
برای موقعیت های پر مخاطره، اعتماد الگوریتم به نتیجه خودش (اعتماد به نفس آن) – یعنی برآوردش در مورد میزان احتمال این که سیستم از عهده ارائه جواب صحیح برآمده باشد - به همان اندازهی خود نتیجه مهم است. افرادی که خروجی از الگوریتم ها را دریافت می کنند، باید بدانند که چقدر نتایج را جدی بگیرند، نه این که تنها تصور کنند درست است زیرا این کار را یک رایانه انجام داده است.سیستم های هوش مصنوعی ابزاری قدرتمند برای مشاغل و دولت ها برای پردازش داده ها و پاسخ به شرایط متغیر، چه در بورس سهام و چه در میدان جنگ هستند.فقط اخیراً بوده که محققان شروع به ایجاد روش هایی برای شناسایی نابرابری ها در الگوریتم ها و داده ها، حتی با تلاشی خیلی کمتر در اصلاح آنها، کرده اند. الگوریتم ها را می توان به گونه ای برنامه ریزی کرد که کمبودهای خود را تشخیص دهند - و این تشخیص را با درخواست از یک انسان برای کمک به حل موضوع دنبال کنند.
بسیاری از انواع الگوریتم های هوش مصنوعی در حال حاضر سطح اطمینان داخلی را محاسبه می کنند – که عبارت است از پیش بینی این که در تجزیه و تحلیل یک بخش خاص از داده ها چقدر خوب عمل کرده اند. در تجزیه و تحلیل صورت، بسیاری از الگوریتم های هوش مصنوعی اعتماد به نفس کمتری در چهره های تیره و صورت های زن نسبت به صورت های سفید مرد دارند. مشخص نیست که چقدر این مسأله مهم توسط مجریان قانون برای استفاده های پر مخاطب از این الگوریتم ها در نظر گرفته شده است.
هدف این است که خود هوش مصنوعی مناطقی را پیدا کند که برای گروه های مختلف دارای دقت یکسان نیست. در این ورودی ها، هوش مصنوعی می تواند کار تصمیم گیری خود را به یک ناظر انسانی محول کند. این تکنیک به ویژه برای کارهای دارای زمینه سنگین مثل مدیریت محتوا کاملاً مناسب است.
ناظران محتوای انسانی نمی توانند سیل تصاویر درج شده در سایت های رسانه های اجتماعی را دنبال کنند. اما از طرف دیگر مدیران محتوای هوش مصنوعی نیز مشهور شده اند به شکست در به حساب آوردن زمینه های پشت یک پست - شناسایی نادرست بحث های گرایش جنسی به عنوان محتوایی صریح، یا تشخیص اعلامیه استقلال به عنوان سخنانی نفرت انگیز. این می تواند منجر به اعمال سانسور نادرست یک گروه جمعیتی یا سیاسی بر گروه دیگر شود.
الگوریتم ها می توانند با دقت بیشتر در یک گروه نسبت به گروه دیگر سوگیرانه عمل کنند. برای دستیابی به بهترین حالت در هر دو جهان، تحقیقات ما امتیاز دهی به تمام مطالب را به صورت خودکار و با استفاده از همان روش های هوش مصنوعی که امروزه رایج است، پیشنهاد می کند. سپس رویکرد ما از تکنیک های تازه پیشنهاد شده استفاده می کند تا به طور خودکار نابرابری های احتمالی در صحت الگوریتم را روی گروه های مختلف محافظت شده از افراد قرار دهد و تصمیمات مربوط به افراد خاص را به یک انسان تحویل دهد. در نتیجه، الگوریتم می تواند در مورد افرادی که واقعاً روی آنها تصمیم می گیرد کاملاً بی طرف باشد. و انسان ها در مورد افرادی تصمیم می گیرند که تصمیم الگوریتمی به گونه ای اجتناب ناپذیر در مورد آنها جانبدارانه است.
این رویکرد، جانبداری را برطرف نمی کند: فقط پتانسیل تعصب و جانبداری را در مجموعه تصمیمات کوچکتر "متمرکز" می کند، که سپس با استفاده از عقل سلیمِ انسان ها روی آنها توسط افراد انسانی تصمیم گیری می شود. به این ترتیب، هوش مصنوعی هنوز هم می تواند عمده کار تصمیم گیری را انجام دهد.
مهم است که از گزافه پردازی و هیجان بپرهیزید و در مورد آن چه AI می تواند انجام دهد محتاط باشید و تصور نکنید که راه حلی که پیدا می کند همیشه صحیح است.این نمایانگر وضعیتی است که یک الگوریتم هوش مصنوعی با همکاری یک انسان می تواند از مزایا و کارایی تصمیمات خوب هوش مصنوعی بهره مند شود، بدون این که در تصمیمات بد آن محبوس شود. سپس انسان ها وقت بیشتری برای کار در مورد تصمیمات دشوار و مبهم که برای اطمینان از انصاف و عدالت بسیار مهم هستند، خواهند داشت.
منبع: سارا شفیر، آدام دی اسمیت، رَن کَنِتی، Boston University