بررسی موضوع جانبداری در هوش مصنوعی

برای اطمینان از عادلانه بودن تصمیم گیری مورد حمایت هوش مصنوعی هنوز به قضاوت انسان نیاز است.
دوشنبه، 17 آذر 1399
تخمین زمان مطالعه:
موارد بیشتر برای شما
بررسی موضوع جانبداری در هوش مصنوعی
اگرچه تعاریف و معیارهای آماری انصاف قطعاً مفید است، اما آنها نمی توانند تفاوت های ظریف در زمینه های اجتماعی را که یک سیستم هوش مصنوعی در آن مستقر شده است، و یا مسائل احتمالی پیرامون نحوه جمع آوری داده ها را در نظر بگیرند. بنابراین مهم است که در نظر بگیریم قضاوت انسان در کجا و به چه شکلی مورد نیاز است. چه کسی تصمیم می گیرد که چه زمانی یک سیستم هوش مصنوعی تعصب را به اندازه کافی به حداقل رسانده است تا بتواند با خیال راحت برای استفاده آزاد شود؟ به علاوه، در کدام شرایط باید تصمیم گیری کاملاً خودکار مجاز باشد؟ هیچ الگوریتم بهینه سازی‌ای نمی تواند چنین مشکلاتی را حل کند و هیچ دستگاهی برای تعیین پاسخ های صحیح باقی نمی ماند. این امر نیازمند قضاوت و فرایندهای انسانی است که با استفاده از رشته هایی از جمله علوم اجتماعی، حقوق و اخلاق، استانداردهایی را تدوین می کند تا بشر بتواند هوش مصنوعی را همراه با موضوع جانبداری و انصاف در ذهن به کار گیرد. این کار تازه شروع شده است.
 
برخی از کارهای در حال ظهور بر روی فرایندها و روش هایی مانند "برگه های داده برای مجموعه داده ها" و "کارت های مدل برای گزارش مدل" متمرکز شده اند که شفافیت بیشتری در مورد ساخت، آزمایش و استفاده های در نظر گرفته شده از مجموعه داده ها و مدل های هوش مصنوعی ایجاد می کنند. برخی از سیستم های امیدوار کننده، از ترکیبی از ماشین ها و انسان ها برای کاهش سو گیری استفاده می کنند. تلاش های دیگر بر تشویق ارزیابی تأثیرات و ممیزی ها برای بررسی عدالت قبل از استقرار سیستم ها و بررسی آنها به طور مداوم و همچنین تقویت درک بهتر از چارچوب ها و ابزارهای قانونی است که ممکن است عدالت را بهبود بخشد. تلاش هایی مانند گزارش های سالانه مؤسسهAI Now ، که بسیاری از سؤالات مهم در مورد هوش مصنوعی را پوشش می دهد، وEmbedded EthiCS ، که ماژول های اخلاقی را در برنامه های درسی استاندارد علوم کامپیوتر ادغام می کند، نشان می دهد که چگونه متخصصان از سراسر رشته ها می توانند در این زمینه همکاری کنند.
 

همان طور که میله تصمیم گیری خودکار را بالا می بریم، آیا می توانیم تصمیم گیری توسط انسان را نیز در سطح استاندارد بالاتر نگه داریم؟

پیشرفت در شناسایی تعصب به فرصتی دیگر اشاره دارد: باز نگری در استانداردهایی که استفاده می کنیم که تعیین کنیم چه زمانی تصمیم گیری های انسان منصفانه است و چه زمانی آنها منعکس کننده سو گیری مسئله دار است. بررسی فاکتورهای واقعی که انسان ها هنگام تصمیم گیری از آنها استفاده کرده اند (نه آنچه که آنها می گویند استفاده کرده اند) بسیار دشوارتر از ارزیابی الگوریتم ها است. اغلب ما به نمایندگان یا پروکسی های انصاف اعتماد می کنیم. به عنوان مثال، ما اغلب نتایجی را می پذیریم که ناشی از روندی است که "عادلانه" تلقی می شود. اما آیا انصافِ رویّه ای همان انصافِ نتیجه است؟ پروکسی دیگری که اغلب مورد استفاده قرار می گیرد انصاف ترکیبی است، به این معنی که اگر گروهی که تصمیم می گیرد دارای دیدگاه های گوناگونی باشد، آنچه تصمیم می گیرد عادلانه تلقی می شود. شاید این ها به طور سنتی بهترین ابزاری بودند که ما در اختیار داشتیم، اما با شروع آزمایش انصاف در سیستم های هوش مصنوعی، آیا می توانیم شروع کنیم به این که انسان ها را نیز بیشتر مسئول قرار دهیم؟
 
داده ها، و تجزیه و تحلیل های بهتر و هوش مصنوعی می توانند به ابزاری قدرتمند و جدید برای بررسی سوگیری های انسانی تبدیل شوند. این می تواند به صورت اجرای الگوریتم ها در کنار تصمیم گیرندگان انسانی، مقایسه نتایج و بررسی توضیحات احتمالی تفاوت ها باشد. نمونه هایی از این روش در چندین سازمان در حال ظهور است. به همین ترتیب، اگر سازمانی متوجه شود که الگوریتمی تعلیم یافته در مورد تصمیمات انسانی خود (یا داده های مبتنی بر تصمیمات قبلی بشر) مغرضانه جلوه گر شده است، نباید به سادگی فقط استفاده از الگوریتم را متوقف کند بلکه باید چگونگی تغییر رفتارهای اساسی انسان را نیز در نظر بگیرد. شاید سازمان ها با استفاده از آزمون های مرتبط برای تعصب در تصمیم گیری های انسانی، از پیشرفت های اخیر در زمینه اندازه گیری انصاف نیز بهره مند شوند.
 

شش روش بالقوه برای متخصان هوش مصنوعی و رهبران تجارت و سیاست که باید در نظر بگیرند

به حداقل رساندن جانبداری در هوش مصنوعی پیش شرط مهمی است که افراد را قادر می سازد به این سیستم ها اعتماد کنند. اگر هوش مصنوعی بخواهد به پتانسیل خود برسد، همان طور که توسط تحقیقات MGI و دیگران نشان داده شده است، برای ایجاد منافع برای مشاغل، برای اقتصاد از طریق رشد بهره وری و برای جامعه از طریق مشارکت در مقابله با مسائل مهم جامعه، موضوع اعتماد به انصاف این سیستم ها امری بسیار مهم خواهد بود. افرادی که قصد دارند برای به حداکثر رساندن انصاف و به حداقل رساندن تعصب در هوش مصنوعی تلاش کنند می توانند چندین مسیر پیش رو را در نظر بگیرند:
 
1- از زمینه هایی که AI  می تواند در اصلاح تعصب کمک کند و همچنین از مواردی که خطر بالایی وجود دارد که AI  می تواند تعصب را تشدید کند، آگاه باشید.
هنگام استفاده از هوش مصنوعی، پیش بینی دامنه هایی که احتمالاً مستعد سوگیری ناعادلانه هستند، مانند مواردی که با مثال های قبلی سیستم های مغرض یا داده های انحرافی از قبل وجود دارند، بسیار مهم است. سازمان ها باید به روز باشند تا ببینند چگونه و از کجا هوش مصنوعی می تواند انصاف را بهبود ببخشد - و سیستم های هوش مصنوعی در کجا مشکل دارند.
 
بررسی موضوع جانبداری در هوش مصنوعی
 
2- فرآیندها و روش هایی را برای آزمایش و کاهش سوگیری در سیستم های هوش مصنوعی ایجاد کنید.
مقابله با سوگیری ناعادلانه مستلزم استفاده از مجموعه ابزارها و روش هاست. ابزارهای فنی توضیح داده شده در بالا می توانند منابع احتمالی سوگیری را برجسته کرده و ویژگی هایی را در داده ها نشان دهند که بیشترین تأثیر را بر خروجی ها دارند. به حداقل رساندن جانبداری در هوش مصنوعی پیش شرط مهمی است که افراد را قادر می سازد به این سیستم ها اعتماد کنند. استراتژی های عملیاتی می توانند شامل بهبود جمع آوری داده ها از طریق نمونه گیری آگاهانه تر و استفاده از "تیم های قرمز" داخلی یا اشخاص ثالث برای حسابرسی داده ها و مدل ها باشند. سرانجام، شفافیت در مورد فرایندها و معیارها می تواند به ناظران در درک گام های برداشته شده برای ارتقاء انصاف و هرگونه داد و ستد مرتبط کمک کند.
 
3- در مکالمات مبتنی بر واقعیت در مورد تعصبات بالقوه در تصمیمات انسانی شرکت کنید.
همان طور که هوش مصنوعی اطلاعات بیشتری در مورد تصمیم گیری انسان در اختیار می گذارد، رهبران می توانند بررسی کنند که آیا پروکسی های مورد استفاده در گذشته کافی هستند یا نه، و چگونه هوش مصنوعی می تواند با تسطیح کردن سوگیری های طولانی مدت که مورد توجه قرار نگرفته اند، در این زمینه کمک کند. وقتی مدل هایی که در مورد تصمیمات یا رفتارهای اخیر انسانی آموزش دیده اند، تعصب نشان می دهند، سازمان ها باید در نظر بگیرند که چگونه فرآیندهای انسان محور در آینده می توانند بهبود یابند.
 
4- به طور کامل بررسی کنید که چگونه انسان و ماشین می توانند با هم کار کنند.
این شامل در نظر گرفتن شرایط و موارد استفاده ای است که تصمیم گیری خودکار در آنها قابل قبول است (و در واقع برای دنیای واقعی آماده شده است) در مقایسه با زمانی که همیشه انسان باید درگیر آن باشد. برخی از سیستم های امیدوار کننده، از ترکیبی از ماشین ها و انسان ها برای کاهش سو گیری استفاده می کنند. تکنیک های موجود در این زمینه شامل تصمیم گیری "انسان در حلقه" است، جایی که الگوریتم ها پیشنهادها یا گزینه هایی را ارائه می دهند که انسان آنها را دو باره بررسی یا انتخاب می کند. در چنین سیستم هایی، شفافیت در مورد اطمینان به الگوریتم در توصیه انجام شده توسط آن می تواند به انسان کمک کند تا درک کند که چقدر وزن باید برای آن قائل شود.

بررسی موضوع جانبداری در هوش مصنوعی
 
5- بیشتر در تحقیقات سو گیری سرمایه گذاری کنید، داده های بیشتری را برای تحقیق در دسترس قرار دهید (ضمن رعایت حریم خصوصی)، و یک رویکرد چند رشته ای را در پیش بگیرید.
در حالی که در سال های اخیر در تحقیقات فنی و چند رشته ای پیشرفت چشم گیری حاصل شده است، سرمایه گذاری بیشتری در این تلاش ها لازم خواهد بود. رهبران مشاغل همچنین می توانند در صورت حساس بودن به نگرانی های مربوط به حریم خصوصی و خطرات احتمالی، با در دسترس قرار دادن داده های بیشتر در اختیار محققان و متخصصان در سراسر سازمان هایی که روی این مسائل کار می کنند، به پیشرفت در این زمینه کمک کنند. پیشرفت بیشتر مستلزم تعامل میان رشته ای است، از جمله با شرکت اخلاق شناسان، دانشمندان علوم اجتماعی و متخصصانی که به خوبی تفاوت های ظریف هر حوزه برنامه را در این فرآیند درک می کنند. داده ها، و تجزیه و تحلیل های بهتر و هوش مصنوعی می توانند به ابزاری قدرتمند و جدید برای بررسی سوگیری های انسانی تبدیل شوند. یک بخش کلیدی از رویکرد چند رشته ای این است که به طور مداوم نقش تصمیم گیری هوش مصنوعی را در نظر بگیرید و ارزیابی کنید، زیرا این زمینه پیشرفت می کند و تجربه عملی در برنامه های واقعی رشد می کند.
 
6- بیشتر در تنوع بخشیدن به خود حوزه AI سرمایه گذاری کنید.
بسیاری به این واقعیت اشاره کرده اند که حوزه هوش مصنوعی خود تنوع موجود جامعه، از جمله جنسیت، نژاد، جغرافیا، طبقه و معلولیت های جسمی، را شامل نمی شود. جامعه هوش مصنوعی متنوع تر، برای پیش بینی، ردیابی و بررسی موضوعات تعصب ناعادلانه مجهزتر خواهد بود و می تواند جوامعی را که احتمالاً تحت تأثیر سوگیری قرار دارند، درگیر کند. این امر مستلزم سرمایه گذاری در چندین جبهه، به ویژه در آموزش هوش مصنوعی و دسترسی به ابزارها و فرصت هاست.
 
مرجع: جیک سیلبرگ ، جیمز مانیکا ،Company  & McKinsey


مقالات مرتبط
ارسال نظر
با تشکر، نظر شما پس از بررسی و تایید در سایت قرار خواهد گرفت.
متاسفانه در برقراری ارتباط خطایی رخ داده. لطفاً دوباره تلاش کنید.
مقالات مرتبط