استفاده روزافزون از هوش مصنوعی در حوزه های حساس، از جمله در استخدام، عدالت کیفری و مراقبت های بهداشتی، بحث درباره سوگیری و انصاف را برانگیخته است. با این حال، تصمیم گیری انسان در این حوزه ها و سایر حوزه ها نیز می تواند نادرست باشد، و توسط تعصبات فردی و اجتماعی شکل گیرد که اغلب ناخودآگاه هستند. آیا تصمیمات هوش مصنوعی نسبت به تصمیمات انسانی مغرضانه تر خواهد بود؟ یا آیا هوش مصنوعی این مشکلات را بدتر خواهد کرد؟
 
ما یک نمای کلی از این که الگوریتم ها در چه زمینه ای می توانند به کاهش اختلافات ناشی از تعصبات انسانی کمک کنند، و همچنین نمایی کلی از هوشیاری بیشتر انسان برای تجزیه و تحلیل انتقادی و تعصبات ناعادلانه ای که می توانند توسط سیستم های هوش مصنوعی پخته و مقیاس پذیر شوند ارائه می دهیم. این مقاله همچنین برخی از تحقیقات انجام شده برای رفع چالش های سوگیری در هوش مصنوعی را برجسته می کند و چند راه عملی را برای پیشرفت پیشنهاد می دهد.
 

آیا تصمیمات هوش مصنوعی نسبت به تصمیمات انسانی مغرضانه تر خواهد بود؟ یا آیا هوش مصنوعی این مشکلات را بدتر خواهد کرد؟

دو فرصت در بحث وجود دارد. اولین فرصت استفاده از هوش مصنوعی برای شناسایی و کاهش اثر سوگیری های انسانی است. مورد دوم، فرصت بهبود خود سیستم های هوش مصنوعی است، از نحوه استفاده از داده ها گرفته تا چگونگی توسعه، استقرار و استفاده از آنها، برای جلوگیری از تداوم تعصبات انسانی و اجتماعی یا ایجاد تعصب و چالش های مربوط به خود. مدل ها ممکن است بر روی داده های حاوی تصمیمات انسانی یا داده هایی که تأثیرات درجه دوم نابرابری های اجتماعی یا تاریخی را منعکس می کنند، آموزش ببینند. تحقق این فرصت ها مستلزم همکاری بین رشته ها برای توسعه و اجرای بیشتر پیشرفت های فنی، اقدامات عملیاتی و استانداردهای اخلاقی است.
 
هوش مصنوعی می تواند به کاهش تعصب کمک کند، اما همچنین می تواند تعصب را ایجاد و مقیاس کند.
تعصبات در نحوه تصمیم گیری انسان به خوبی ثبت شده است. برخی از محققان تأکید کرده اند که چگونه تصمیمات قضات می توانند ناخودآگاه تحت تأثیر ویژگی های شخصی آنان قرار بگیرند، در حالی که نشان داده شده است که کارفرمایان به نامزدهای با رزومه یکسان اما با نام هایی که منعکس کننده گروه های مختلف نژادی هستند در مصاحبه ها امتیازات متفاوت می دهند. همچنین انسان ها مستعد استفاده نادرست از اطلاعات هستند. به عنوان مثال، کارفرمایان ممکن است تاریخچه اعتباری کارمندان احتمالی را به روشی بررسی کنند که به گروه های اقلیت آسیب برساند، حتی اگر ارتباط قطعی بین سابقه اعتبار و رفتار در محل کار برقرار نشده باشد. تحقیق و بررسی تصمیمات انسانی نیز دشوار است: افراد ممکن است در مورد عواملی که در نظر گرفته اند دروغ بگویند، یا ممکن است عواملی را که بر تفکر آنها تأثیر گذاشته درک نکنند، و جایی برای تعصب ناخودآگاه باقی می گذارند.
 
در بسیاری از موارد، هوش مصنوعی می تواند تفسیر ذهنی انسان از داده ها را کاهش دهد، زیرا الگوریتم های یادگیری ماشین یاد می گیرند که بر اساس داده های آموزشی استفاده شده، فقط متغیرهایی را که دقت پیش بینی آنها را بهبود می بخشد در نظر بگیرند. علاوه بر این، برخی شواهد نشان می دهد که الگوریتم ها می توانند تصمیم گیری را بهبود بخشند، و این باعث می شود روند کار منصفانه تر شود. به عنوان مثال، Jon Kleinberg  و دیگران نشان داده اند که الگوریتم ها می توانند به کاهش اختلاف نژادی در سیستم عدالت کیفری کمک کنند. مطالعه دیگری نشان داد که سیستم های پذیره نویسی خود کار مالی به ویژه به متقاضیانی که از لحاظ تاریخی به اقشار کم برخوردار تعلق دارند بهره رسانده اند. برخلاف تصمیمات انسانی، تصمیمات گرفته شده توسط هوش مصنوعی در اصل (و به طور فزاینده ای در عمل) می توانند مجدداً باز، بررسی و بازجویی شوند. به قول اندرو مک آفی ازMIT ، "اگر می خواهید تعصب را حذف کنید، الگوریتم ها را وارد کنید. "
 
در عین حال، شواهد گسترده نشان می دهد که مدل های هوش مصنوعی می توانند تعصبات انسانی و اجتماعی را در خود جای دهند و در مقیاس گسترده به کار گیرند. جولیا آنگوین و دیگران در ProPublica نشان داده اند که چگونه COMPAS ، پیش بینی تکرار جرم در شهرستان بروارد، فلوریدا ، به اشتباه، متهمان آفریقایی- آمریکایی را به عنوان "پر خطر" نشان می دهد، تقریباً دو برابر میزان نامناسب بودن متهمان سفیدپوست. به تازگی، یک شرکت فناوری پس از کشف این که الگوریتم استخدام، متقاضیان کالج های زنان را جریمه می کند، توسعه آن را بر اساس تجزیه و تحلیل تصمیمات قبلی متوقف کرد. کارهای جوی بولاموینی و تیمیت گبرو نشان دادند که میزان خطا در فناوری های تجزیه و تحلیل صورت از نظر نژاد و جنسیت متفاوت است. برنامه "در جستجوی تصویر مدیرعامل"، فقط 11 درصد از نتایج تصویر برای "مدیر عامل"  را متعلق به زنان نشان می داد، در حالی که زنان در آن زمان 27 درصد از مدیران عامل ایالات متحده بودند.
 

داده های اساسی اغلب منبع تعصب هستند

بیشتر، این داده های اساسی هستند که منبع اصلی مشکل هستند تا خود الگوریتم. مدل ها ممکن است بر روی داده های حاوی تصمیمات انسانی یا داده هایی که تأثیرات درجه دوم نابرابری های اجتماعی یا تاریخی را منعکس می کنند، آموزش ببینند. به عنوان مثال، تعبیه کلمات (مجموعه ای از تکنیک های پردازش زبان طبیعی) که در مقالات خبری آموزش دیده اند، ممکن است کلیشه های جنسیتی موجود در جامعه را به نمایش بگذارند.
 
تعصب همچنین می تواند از طریق نحوه جمع آوری یا انتخاب برای استفاده در داده ها وارد شود. در مدل های عدالت کیفری، نمونه برداری بیش از حد از محله های خاص به دلیل بیش از حد زیاد بودن آنها، می تواند منجر به ثبت جرم بیشتر شود، که منجر به تمرکز بیشتر پلیس در آن جاها می شود.
 
داده های تولید شده توسط کاربران همچنین می توانند یک حلقه بازخورد ایجاد کنند که منجر به سو گیری شود. در تحقیقات لاتانیا سوئینی در مورد تفاوت های نژادی در هدف گذاری تبلیغاتی آنلاین، جستجوی نام های شناسایی کننده آفریقایی- آمریکایی بیشتر از جستجوی نام های شناسایی کننده سفید پوست منجر به آگهی های برجسته شده با کلمه "دستگیری" می شد. در بسیاری از موارد ، هوش مصنوعی می تواند تفسیر ذهنی انسان از داده ها را کاهش دهد، زیرا الگوریتم های یادگیری ماشین یاد می گیرند که بر اساس داده های آموزشی استفاده شده، فقط متغیرهایی را که دقت پیش بینی آنها را بهبود می بخشد در نظر بگیرند.  سوئینی این فرضیه را مطرح کرد که حتی اگر نسخه های مختلف نسخه تبلیغاتی - نسخه هایی با و بدون کلمه "دستگیری" در ابتدا، به یک اندازه نمایش داده شده باشند، ممکن است کاربران برای جستجوهای مختلف بیشتر روی نسخه های مختلف کلیک کنند و این باعث می شود الگوریتم آنها را بیشتر نشان دهد.
 
یک الگوریتم یادگیری ماشین ممکن است همبستگی های آماری غیر قابل قبول یا غیرقانونی از نظر اجتماعی را انتخاب کند. به عنوان مثال، اگر با یک مدل وام رهن مسکن مشخص شود که افراد مسن احتمال بیشتری برای عدم بازپرداخت دارند و وام ها را بر اساس افزایش سن کاهش دهد، جامعه و نهادهای قانونی ممکن است این را یک تبعیض سنی غیر قانونی بدانند.
 

به منظور به حداقل رساندن تعصب، چگونه عدالت را تعریف و اندازه گیری کنیم؟

چگونه باید تعاریف انصاف را مدون کنیم؟ آرویند نارایانان حداقل 21 تعریف مختلف از انصاف را شناسایی کرد و گفت که حتی آنها "غیر کامل" هستند. کیت کرافورد، مدیر وابسته مؤسسه AI Now در دانشگاه نیویورک، از جستجوی تصویر مدیر عامل شرکت که قبلاً ذکر شد، برای برجسته کردن پیچیدگی های موجود استفاده کرد: چگونه درصد "عادلانه" زنانی را که الگوریتم باید نشان دهد، تعیین کنیم؟ آیا درصدی از مدیران عامل زن امروزی داریم؟ یا ممکن است عدد "منصفانه" 50 درصد باشد، حتی اگر دنیای واقعی هنوز در آن حد نباشد؟ بسیاری از مکالمات در مورد تعاریف، بر انصاف فردی، یا رفتار مشابه با افراد مشابه و انصاف گروهی متمرکز شده است – که پیش بینی ها یا نتایج مدل را در بین گروه ها، به ویژه برای گروه های بالقوه آسیب پذیر، عادلانه جلوه می دهد.
 
 
کار برای تعریف انصاف همچنین داد و ستدهای بالقوه بین تعاریف مختلف، یا بین انصاف و اهداف دیگر را نشان داده است. به عنوان مثال ، Jon Kleinberg ،  Sendhil Mullainathan و Manish Raghavan ، و همچنین Alexandra Chouldechova و دیگران نشان داده اند که یک مدل نمی تواند همزمان با بیش از چند معیار عدالت گروهی مطابقت داشته باشد، مگر در شرایط بسیار خاص. این امر توضیح می دهد که چرا شرکتی که نمرات COMPAS  را توسعه داده ادعا کرده است که سیستم‌اش بی طرفانه است زیرا "برابری پیش بینی کننده" را برآورده می کند ، اما ProPublica  متوجه شد جانبدارانه است زیرا "تعادل برای مثبت های نادرست" را نشان نمی دهد.
 
کارشناسان در مورد بهترین راه حل این داد و ستدها اختلاف نظر دارند. به عنوان مثال، برخی پیشنهاد داده اند که تعیین آستانه های تصمیم گیری متفاوت برای گروه های مختلف (مانند امتیاز پیش بینی شده لازم برای دریافت وام) ممکن است بهترین تعادل را به دست دهد، به ویژه اگر معتقد باشیم برخی از متغیرهای اساسی مدل ممکن است مغرضانه باشند. برخی دیگر ادعا می کنند که حفظ یک آستانه واحد برای همه گروه ها عادلانه تر است. در نتیجه این پیچیدگی ها، تهیه یک تعریف واحد و جهانی از انصاف یا معیاری برای اندازه گیری آن احتمالاً هرگز ممکن نخواهد بود. در عوض، بسته به نوع استفاده و شرایط، معیارها و استانداردهای مختلفی احتمالاً مورد نیاز خواهد بود.
 

پیشرفت فنی اولیه در حال انجام است، اما موارد بیشتری لازم است

چندین روش برای اعمال محدودیت های انصاف در مدل های هوش مصنوعی پدید آمده است. اولین مورد شامل پیش پردازش داده ها برای حفظ حداکثر دقت در هنگام کاهش هرگونه رابطه بین نتایج و خصوصیات محافظت شده، یا در هنگام تولید نمایش داده هایی است که حاوی اطلاعاتی درباره ویژگی های حساس نیستند. این گروه اخیر شامل رویکردهای "انصاف خلاف واقع" است که بر اساس این ایده است که تصمیم باید در دنیای خلاف واقع که یک ویژگی حساس تغییر می کند، ثابت بماند. روش متعارف خاص مسیر Silvia Chiappa حتی می تواند روش های مختلفی را در نظر بگیرد که در آنها ویژگی های حساس ممکن است بر نتایج تأثیر بگذارند - برخی از تأثیرات ممکن است منصفانه در نظر گرفته شوند و می توانند حفظ شوند، در حالی که تأثیر دیگر ممکن است ناعادلانه تلقی شود و بنابراین باید کنار گذاشته شود.
 
رویکرد دوم شامل تکنیک های پس از پردازش است. اینها پس از انجام برخی از پیش بینی های مدل برای برآورده ساختن محدودیت انصاف، تغییر شکل می دهند. رویکرد سوم یا محدودیت های انصاف را در روند بهینه سازی خود اعمال می کند یا از یک دشمن برای به حداقل رساندن توانایی سیستم در پیش بینی ویژگی حساس استفاده می کند.
 
محققان همچنین در حال توسعه و آزمایش سایر پیشرفت ها هستند. در قسمت داده ها، محققان با افزودن نقاط داده بیشتر برای بهبود عملکرد برای گروه های محافظت شده، در کارهای طبقه بندی متن پیشرفت کرده اند. مفید بودن تکنیک های نوآورانه آموزش مانند استفاده از یادگیری انتقال یا طبقه بندی جدا شده برای گروه های مختلف برای کاهش اختلاف در فناوری های تجزیه و تحلیل چهره، به اثبات رسیده است.
 
سرانجام، تکنیک های توسعه یافته برای پرداختن به مسئله مجاور که تبیین در سیستم های هوش مصنوعی است نیز می تواند در شناسایی و کاهش سوگیری نقش داشته باشد – این تبیین یعنی مشکلی که هنگام استفاده از شبکه های عصبی در توضیح چگونگی دستیابی به یک پیش بینی یا تصمیم خاص و این که چگونه ویژگی های موجود در داده ها یا مکان های دیگر منجر به نتیجه می شوند وجود دارد. تکنیک های تبیین کننده می توانند شناسایی کنند که آیا فاکتورهای در نظر گرفته شده در یک تصمیم منعکس کننده تعصب هستند یا خیر و آیا می توانند پاسخگویی بیشتری نسبت به تصمیم گیری انسان فراهم کنند، که به طور معمول این نمی تواند تحت چنین تحقیق جدی‌ای قرار گیرد.
 
مرجع: جیک سیلبرگ ، جیمز مانیکا ،Company  & McKinsey