هوش مصنوعیِ مسئول چیست؟
در مورد هوش مصنوعی،نگرانی های زیادی مانند تصمیمات ناعادلانه، تعویض کارگران و عدم رعایت حریم خصوصی و امنیت وجود دارد. و بدتر این که بسیاری از این مسائل مختص هوش مصنوعی است. این بدان معناست که دستورالعمل ها و قوانین موجود برای رسیدگی به هوش مصنوعی مناسب نیست. اینجاست که هوش مصنوعی مسئول وارد می شود. هدف آن رسیدگی به این مسائل و ایجاد پاسخگویی برای سیستم های هوش مصنوعی است.
 
هوش مصنوعی و یادگیری ماشین در زندگی روزمره ما فراگیر شده است، و از اتومبیل های خودران گرفته تا رسانه های اجتماعی مان، هوش مصنوعی به دنیای ما کمک کرده است تا سریع تر از همیشه کار کنیم.
 
همان طور که این فناوری ها در زندگی روزمره ما ادغام می شوند، سؤالات زیادی نیز در زمینه اخلاق و ایجاد و استفاده از این فناوری ها وجود دارد. ابزارهای هوش مصنوعی مدل ها و الگوریتم هایی هستند که بر اساس داده های دنیای واقعی ساخته شده اند، بنابراین بی عدالتی های جهان واقعی مانند نژادپرستی و زن ستیزی را به همراه بسیاری دیگر منعکس می کنند. این داده ها منجر به الگوهایی می شود که کلیشه های موجود را تداوم می بخشند، عملکرد گروه های خاصی از مردم را در برابر اکثریت مردم پشتیبانی می کنند، یا منابع یا دسترسی به خدمات را به طور ناعادلانه واگذار می کنند. همه این نتایج پیامدهای بزرگی را برای مصرف کنندگان و مشاغل ایجاد می کند.
 
در حالی که بسیاری از شرکت ها تشخیص این مشکلات احتمالی را در راه حل های هوش مصنوعی خود آغاز کرده اند، تنها تعداد کمی از آنها ساختارها و سیاست هایی را برای رفع آنها آغاز کرده اند. هوش مصنوعی و عدالت اجتماعی دیگر نمی توانند به عنوان دو جهان مجزا عمل کنند. آنها نیاز به تأثیر بر یکدیگر برای ایجاد ابزارهایی دارند که به ما در ساختن دنیایی که می خواهیم ببینیم کمک کنند. پرداختن به سؤالات اخلاقی پیرامون هوش مصنوعی و درک مسئولیت های اجتماعی ما یک فرایند پیچیده است که شامل کار چالش برانگیز و فداکاری بسیاری از افراد است.
 

چرا ما به هوش مصنوعی مسئول نیاز داریم

وقتی از هوش مصنوعی صحبت می کنیم، معمولاً منظور یک مدل یادگیری ماشین است که در یک سیستم برای خودکارسازی چیزی استفاده می شود. به عنوان مثال، یک اتومبیل خودران می تواند به وسیله سنسورها عکس بگیرد. یک مدل یادگیری ماشین می تواند از این تصاویر برای پیش بینی استفاده کند (به عنوان مثال پیش گویی این که شیئی که در مقابل ما قرار دارد یک درخت است). از این پیش بینی ها توسط خودرو برای تصمیم گیری استفاده می شود (به عنوان مثال برای جلوگیری از برخورد با درخت به چپ بپیچید). ما از کل این سیستم به عنوان هوش مصنوعی یاد می کنیم.
 
این فقط یک نمونه است. از هوش مصنوعی می توان برای هر چیزی از بیمه نامه گرفته تا تشخیص سرطان استفاده کرد. ویژگی مشخص این است که هیچ محدودیتی برای تصمیم گیری های سیستم وجود ندارد. این می تواند منجر به بسیاری از مسائل بالقوه شود و شرکت ها باید رویکرد روشنی برای استفاده از هوش مصنوعی تعریف کنند. هوش مصنوعیِ مسئول یک چارچوب نظارت و راهبری است که هدف آن دقیقاً همین کار است.
 
این چارچوب می تواند شامل جزئیاتی در مورد این که چه داده هایی می تواند جمع آوری و مورد استفاده قرار گیرد، چگونه مدل ها باید ارزیابی شوند، و نحوه استقرار و نظارت بهینه بر مدل ها باشد. این چارچوب همچنین می تواند تعیین کند که چه کسی مسئول پیامدهای منفی هوش مصنوعی است. چارچوب ها بین شرکت ها متفاوت خواهد بود. برخی رویکردهای خاصی را تعریف می کنند و برخی دیگر برای تفسیر، بازتر خواهند بود. همه آنها به دنبال دستیابی به یک هدف هستند. یعنی ایجاد سیستم های هوش مصنوعی قابل تفسیر، عادلانه، ایمن و احترام گذار به حریم شخصی کاربران.
 

اهداف هوش مصنوعی مسئول

اولین حوزه ای که ذکر شد تفسیرپذیری است. وقتی ما یک مدل را تفسیر می کنیم، توضیحی در مورد نحوه پیش بینی آن اتخاذ می کنیم. یک سیستم هوش مصنوعی می تواند درخواست شما را برای وام مسکن رد کند یا تشخیص سرطان دهد. حتی اگر این تصمیمات صحیح باشد، کاربر احتمالاً توضیح می خواهد. تفسیر برخی از مدل ها نسبت به مدل های دیگر آسان تر است و توضیحات را آسان تر می کند. هوش مصنوعی مسئول می تواند نحوه ایجاد مدل های قابل تفسیر و یا استفاده از مدل هایی که کمتر قابل تفسیر هستند را مشخص کند.
 
انصافِ مدل مربوط به تفسیرپذیری است. این امکان وجود دارد که سیستم های هوش مصنوعی تصمیماتی بگیرند که بر گروه های خاصی از افراد تبعیض قائل شود. این سوگیری ناشی از سوگیری در داده های مورد استفاده برای آموزش مدل ها است. به طور کلی، هرچه مدل تفسیرپذیرتر باشد، اطمینان از انصاف و تصحیح هرگونه سوگیری آسان تر است. ما همچنان به یک چارچوب هوش مصنوعی مسئول نیاز داریم برای تعیین نحوه ارزیابی انصاف و این که هنگامی که مدلی یافت شد که پیش بینی های ناعادلانه انجام می داد چه کنیم. این امر به ویژه هنگام استفاده از مدل های کمتر قابل تفسیر اهمیت دارد.
 
هوش مصنوعیِ مسئول چیست؟

ایمنی و مصونیت یکی دیگر از نگرانی ها است. این ها در توسعه نرم افزار مطالب جدیدی نیستند و با تکنیک هایی مانند رمزگذاری و تست های نرم افزاری به آنها پرداخته می شود. تفاوت این است که برخلاف سیستم های رایانه ای عمومی، سیستم های هوش مصنوعی قطعی و غیر احتمالی نیستند. هنگامی که با سناریوهای جدید روبرو می شوند می توانند تصمیمات غیرمنتظره ای بگیرند. حتی می توان سیستم ها را برای تصمیم گیری نادرست دستکاری کرد. این امر به ویژه هنگامی که با روبات ها سروکار داریم نگران کننده است. اگر آنها اشتباه کنند، در مواردی مانند اتومبیل های خودران می توانند باعث ایراد آسیب یا مرگ شوند.
 
آخرین جنبه، حریم خصوصی و حاکمیت داده ها است. کیفیت داده های مورد استفاده مهم است. اگر اشتباهاتی در داده های مورد استفاده AI وجود داشته باشد، ممکن است سیستم تصمیمات نادرستی بگیرد. به طور کلی، AI  همچنین نباید مجاز به استفاده از داده های حساس (مانند سابقه پزشکی، یا عضویت در اتحادیه های کارگری) باشد. در اروپا، بسیاری از این نگرانی ها توسط GDPR برطرف می شود. در خارج از اروپا، باید توسط چارچوب AI مسئول مربوط به خود شرکت به آنها پرداخته شود.
 
در نهایت، چیزی که همه این ها در آن خلاصه می شود اعتماد است. اگر کاربران به هوش مصنوعی اعتماد نداشته باشند از خدمات شما استفاده نمی کنند. ما به سیستم هایی که از اطلاعاتی که از به اشتراک گذاشتن آنها ناراحت هستیم یا فکر می کنیم باعت اتخاذ تصمیمات مغرضانه می شوند استفاده می کنند اعتماد نخواهیم کرد. اگر فکر کنیم که به ما آسیب جسمی وارد می کند، بدون شک به آن اعتماد نخواهیم کرد. توضیح تصمیمات و پاسخگویی به آن تصمیمات در ایجاد این اعتماد نقش به سزایی دارد. این نیاز به اعتماد چیزی است که باعث خودتنظیمی در بین شرکت هایی که از هوش مصنوعی استفاده می کنند، می شود.
 

آینده هوش مصنوعی مسئول

در حال حاضر، وقتی صحبت از هوش مصنوعی به میان می آید، انتظار می رود که شرکت ها خود را تنظیم کنند. این بدان معناست که آنها باید دستورالعمل های هوش مصنوعی مسئول مربوط به خودشان را ایجاد و اجرا کنند. شرکت هایی مانند گوگل، مایکروسافت و آی بی ام همگی دستورالعمل های خاص خود را دارند. یکی از مسائلی که در این زمینه وجود دارد این است که اصول هوش مصنوعی مسئول ممکن است به طور ناسازگار در صنایع اعمال شود. ممکن است شرکت های کوچک تر حتی منابع لازم برای ایجاد هوش مصنوعی مسئول مربوط به شرکت خود را نداشته باشند.
 
یک راه حل بالقوه این است که همه شرکت ها از دستورالعمل های یکسان استفاده کنند. به عنوان مثال، کمیسیون اروپا اخیراً دستورالعمل اخلاقی برای هوش مصنوعی قابل اعتماد را منتشر کرده است. در این دستورالعمل به 7 شرط اصلی که باید هوش مصنوعی داشته باشد تا بتوان آن را قابل اعتماد دانست، اشاره شده است. استفاده از این دستورالعمل ها به شرکت ها کمک می کند تا اطمینان حاصل کنند که سیستم های هوش مصنوعی آنها دارای معیارهای یکسانی هستند. سؤال واقعی این است - آیا می توان به شرکت ها اعتماد کرد که خود را تنظیم کنند؟
 
گزارش وضعیت هوش مصنوعی و یادگیری ماشین 2020 شامل پاسخ های 374 سازمان است که با داده / هوش مصنوعی کار می کنند. 75 درصد از سازمان ها گفتند که هوش مصنوعی بخش مهمی از تجارت آنها است. با این حال، تنها 25 درصد از آنها گفتند که هوش مصنوعی عادلانه مهم است. این نشان می دهد که پاسخ منفی است؛ نه، ما نمی توانیم به آنها اعتماد کنیم. برای مؤثر بودن دستورالعمل های رایج، باید آنها را همچنین اجرا کرد. به عبارت دیگر، دستورالعمل ها باید به قوانین / مقررات تبدیل شوند و شرکت ها به دلیل عدم رعایت آنها باید مجازات شوند.
 
به نظر می رسد این مسیری است که ما در پیش داریم. در اروپا، مقررات جدیدی به تازگی پیشنهاد شده است. این مقررات بر اساس دستورالعمل های اخلاقی ذکر شده در بالا هستند و بر بسیاری از صنایع تأثیر خواهند گذاشت. در حال حاضر، چنین مقرراتی در ایالات متحده وجود ندارد، اگرچه مدیران شرکت های فناوری مانند گوگل، فیس بوک، مایکروسافت و اپل همگی خواستار وضع قوانین بیشتر در مورد داده ها و هوش مصنوعی شده اند. بنابراین به نظر می رسد که انجام این کار فقط یک موضوع زمان است.
 

ملاحظات چهارگانه

در زیر چند نکته کاربردی است که هنگام شروع سفر به سمت هوش مصنوعی مسئول باید در نظر داشته باشید.
 
فضایی ایجاد کنید که به مردم اجازه دهد سؤالات و نگرانی های خود را بیان کنند.
هنگام مطالعه اخلاق در هر شرایطی، مواجه شدن با حقایق ناخوشایند بالتبع خواهد آمد. قوی ترین تیم ها در مبارزه برای هوش مصنوعی مسئول آنهایی هستند که با خود صادق هستند. این تیم ها سوگیری هایی را که در داده های آنها، مدل های آنها و خودشان ظاهر می شود، تصدیق می کنند. آنها همچنین نحوه تأثیر این سوگیری ها بر جهان اطراف خود را در نظر می گیرند.
 
به عنوان تیم، ما باید فضاهایی را ایجاد کنیم که به ما اجازه دهد در مورد موضوعاتی که ممکن است بدون ترس از عواقب بحث برانگیز باشد آزادانه صحبت کنیم. این امر اساساً به حمایت مدیران اجرایی نیاز دارد. گاهی اوقات، ملاقات و بحث تیم بدون مدیران و سپس ارائه ایده های گروه به مدیران آسان تر خواهد بود. این سطح از ناشناس بودن می تواند به ایجاد احساس امنیت کمک کند، زیرا ایده هایی که از طرف تیم ارائه می شود را نمی توان در یک فرد دنبال کرد. امکان برقراری ارتباط باز و بازخورد صادقانه چیزی است که به ما امکان می دهد با این سؤالات به طور مؤثر مواجه شویم. در مبارزه برای هوش مصنوعی اخلاقی، این تیمی متشکل از افراد در مقابل یکدیگر نیست، این تیمی در برابر مشکلات احتمالی در مدل است.
 
بدانید که به دنبال چه چیزی باشید یا حداقل از کجا شروع کنید.
یافتن مشکلات موجود در راه حل های هوش مصنوعی می تواند مشکل باشد. عملکرد ضعیف یک مدل در مجموعه آموزشی ممکن است نشان دهد که جمعیت آموزش دهنده نماینده دنیای واقعی نیستند. برای مثال، ارائه کم رزش اقلیت می تواند به  یک ابزار گفتاری منجر شود که لهجه ها را اشتباه تفسیر می کند یا به فیلتری منجر شود که فقط چهره های سفید را تشخیص می دهد. موارد بسیار دیگری نیز وجود دارد که ممکن است به وجود آید.
 
هوش مصنوعیِ مسئول چیست؟

بهترین راه برای تشخیص سوگیری یا نگرانی های دیگر در مدل شما این است که در آزمایش خود توجه و عمدی داشته باشید. در سال های اخیر، فشارهایی در جامعه دانشگاهی ایجاد شده است که برگه های داده برای مجموعه های داده ایجاد شود. این برگه های اطلاعاتی به منظور آگاهی است از آن چه در یک مجموعه داده وجود دارد و آن چه که نیست، و به منظور ایجاد اطمینان است از این که داده هایی که استفاده می شود برای اهداف آنها در نظر گرفته شده است و نشان دهنده پایگاه کاربر آنها است. ایجاد این برگه های داده برای مجموعه داده های خود، راهی عالی برای اطمینان از آگاهی از جمعیت داده های شما است. به طور مشابه، آزمایش عملکرد مدل بر روی اقلیت ها مهم است. مدلی که در مورد اکثریت جمعیت در مقایسه با اقلیت عملکرد بهتری دارد، به احتمال زیاد در آینده سؤالات اخلاقی را ایجاد می کند.
 
با افراد در آن جایی که هستند ملاقات کنید، نه جایی که می خواهید آنها باشند
تیم های موفق متشکل از افرادی هستند که در همه جنبه های زندگی خود از جمله سن، تجربیات و سوابق متفاوت هستند. این در وهله اول با درک متفاوتی از سؤالات اخلاقی پیرامون هوش مصنوعی همراه است. مجموعه تحقیقات و گفتمان های روزافزون در مورد هوش مصنوعیِ مسئول پر از اصطلاحات و مفاهیمی است که ممکن است برای همه آشنا نباشد. برخی از افراد ممکن است نسبت به مسائل مربوط به عدالت اجتماعی احساس تعصب کنند، در حالی که برخی دیگر حتی برخی از این مسائل را نشنیده اند. صدای همه افراد در تیم شایسته شنیده شدن است و ایجاد یک زبان و چارچوب مشترک برای بحث و درک برای ایجاد هوش مصنوعی بسیار مهم است.
 
هم به صورت جداگانه و هم به صورت تیمی وقت بگذارید و درباره مسائلی که می خواهید در مورد آنها بحث کنید تحقیق کنید. از فضاهایی که ایجاد کرده اید برای بحث استفاده کنید تا به یکدیگر کمک کنید تا مسائل موجود را بدون قضاوت باز کرده و درک کنند. مرور اصطلاحات و ایده های کلیدی این اطمینان را می دهد که همه از یک زبان برای صحبت در مورد ایده های مشابه استفاده می کنند. از بین بردن هرگونه ارتباط نادرست احتمالی، امکان برقراری مکالمات سازنده تر را فراهم می کند.
 
همان طور که یاد می گیرید شجاعت انطباق را داشته باشید.
در حالی که به روز بودن در مورد موضوعات جاری در عدالت اجتماعی و هوش مصنوعی بسیار مهم است، اما به همان اندازه ضروری است که مایل به پذیرش ناشناخته ها باشید. فرایند دستیابی به هوش مصنوعی شامل پیش بینی تغییرات، باز بودن برای یادگیری مستمر و آگاهی از این است که ممکن است مشکلاتی به وجود آید که پاسخ های واضحی ندارند.
 
هوش مصنوعی یک صنعت سریع است و چابک بودن و آمادگی برای محوریت رویکرد اغلب بخشی از بازی است. با این حال، تمایل به تغییر رویکرد به دلایل اخلاقی، یا توقف پیشرفت در جهت محرومیت از ابزاری که در حال حاضر در دسترس کاربران است، شجاعت می خواهد. هدف تنها این نیست که یک ابزار یا مدل را با موفقیت از خط لوله تولید وارد کنیم. هدف باید این باشد که در نوآوری فناوری هوش مصنوعی بمانیم و در عین حال اطمینان حاصل کنیم که محصول نهایی عادلانه و نماینده جهانی است که در آن زندگی می کنیم.
 
مسئولیت هوش مصنوعیِ مسئول بر عهده همه است
مسئولیت جمعی ما این است که اطمینان حاصل کنیم که مدل ها برای مبارزه با بی عدالتی به جای تداوم آن ساخته شده اند. این کاری است که باید با ایده پردازی آغاز شود، بخشی اساسی از چرخه حیات تحقیق و توسعه باشد، و تا زمان انتشار و در بقیه چرخه عمر محصول ادامه یابد. تیم های علم داده و تحقیقات، همراه با دیگر تیم هایی که متعهد به اطمینان از هوش مصنوعی هستند، بدون حمایت سطح اجرایی هرگز موفق نخواهند شد. شرکت ها و مؤسساتی که هوش مصنوعی مسئول را به عنوان یک تعهد بلندمدت در نظر می گیرند و موفقیت را بر مبنایی بیش از فقط درآمد اندازه گیری می کنند، تیم های خود را قادر می سازند تا سؤالات و نگرانی های خود را بدون ترس از عواقب بیان کنند. این امر باعث می شود چرخه ای از تأمل و بازبینی ایجاد شود که به سؤالات اخلاقی که در مورد ساختمان و استفاده از هوش مصنوعی می پرسیم، پاسخ دهد. در این راه اشتباهاتی رخ خواهد داد و کار ما این نیست که از نوآوری اجتناب کنیم تا از آسیب های احتمالی دوری کنیم. در عوض، کار ما این است که به پیشرفت های خود با چشم انتقادی نگاه کنیم تا بتوانیم جهان را به مکانی عادلانه تر تبدیل کنیم.
 
منبع: کانر اوسالیوان، towardsdatascience، مایکل کاپلان، CallMiner
نسخه چاپی