دنیای محاسبات پر است از کلمات باب روز: هوش مصنوعی، ابر رایانه ها، یاد گیری ماشین، ابر، محاسبات کوانتومی، و موارد دیگر. اما از یک کلمه به طور خاص در کل محاسبات استفاده می شود – الگوریتم.
به عام ترین معنای آن، الگوریتم مجموعه ای از دستور العمل ها است که به کامپیوتر می گوید چگونه مجموعه ای از حقایق مربوط به جهان را به اطلاعات مفید تبدیل کند. حقایق، داده ها هستند و اطلاعات مفید عبارتند از دانشِ افراد و نیز دستور العمل های ماشین آلات یا ورودی برای الگوریتم دیگری. مثال های متداول بسیاری از الگوریتم ها وجود دارد، از مرتب سازی مجموعه اعداد گرفته تا یافتن مسیرها از طریق نقشه ها تا نمایش اطلاعات روی صفحه.
برای درک مفهوم الگوریتم ها، به لباس پوشیدن صبح فکر کنید. کمتر کسی است که حتی یک ثانیه به این موضوع فکر کند. اما واقعاً چگونه می توانید روند این کار خود را یادداشت کنید یا رویکرد خود را برای انجام این کار به یک کودک 5 ساله بگویید؟ پاسخ دقیق به این سؤالات، یک الگوریتم را ارائه می دهد.
ورودی
تصویر: نمای نزدیکی از پیراهن های رنگی مختلف که در کمد آویزان است. متغیرهای زیادی وجود دارد که باید هنگام انتخاب این که چه لباسی بپوشید در نظر بگیرید. کریس / فلیکر ، CC BY-NC
برای رایانه، ورودی، اطلاعاتِ مورد نیاز برای تصمیم گیری است.
صبح که لباس می پوشید، به چه اطلاعاتی نیاز دارید؟ اول و مهمتر از همه، شما باید بدانید که چه لباس هایی در کمد شما وجود دارد. سپس ممکن است در نظر بگیرید که دمای هوا چقدر است، پیش بینی تغییرات آب و هوایی برای روز چیست، چه فصلی هست و چه بسا برخی از تنظیمات شخصی را نیز لازم باشد در نظر بگیرید.
الگوریتم مجموعه ای از دستور العمل ها است که به کامپیوتر می گوید چگونه مجموعه ای از حقایق مربوط به جهان را به اطلاعات مفید تبدیل کند. الگوریتم فرایندی است که کامپیوتر از آن برای تبدیل داده های ورودی به داده های خروجی استفاده می کند.همه این ها را می توان در داده ها نشان داد، که در واقع مجموعه ای ساده از اعداد یا کلمات هستند. به عنوان مثال، دما یک عدد است و ممکن است پیش بینی هوا "بارانی" یا "آفتابی" باشد.
دگرگونی
بعد از آن نوبت قلب الگوریتم است - محاسات. محاسبات شامل حساب، تصمیم سازی و تکرار است.خوب، این موضوع چگونه در لباس پوشیدن کاربرد پیدا می کند؟ شما با انجام برخی از عملیات ریاضی، در باره مقادیر ورودی تصمیم می گیرید. این که ژاکت بپوشید ممکن است به دما بستگی داشته باشد و این که شما کدام ژاکت را انتخاب می کنید به پیش بینی آب و هوایی بستگی دارد. از نظر رایانه، بخشی از الگوریتم لباس پوشیدن ما به این شکل به نظر می رسد: "اگر دما زیر 50 درجه باشد و باران ببارد، پس ژاکت بارانی و یک پیراهن آستین بلند را برای پوشیدن در زیر آن انتخاب کنید. "
پس از انتخاب لباس های خود، باید آنها را بپوشید. این یک قسمت کلیدی الگوریتم ماست. برای یک رایانه، یک تکرار می تواند به صورت چیزی شبیه این بیان شود: " هر قطعه لباسی که انتخاب کردی، آن را بپوش."
خروجی
تصویر: زنی جوان با موهای صورتی در حال گرفتن سلفی. آخرین مرحله یک الگوریتم ارائه خروجی است. Eternity in an Instant/Stone via Getty Images
سرانجام، آخرین مرحله یک الگوریتم، خروجی است - بیان پاسخ. برای یک رایانه، خروجی معمولاً دقیقاً مانند ورودی، به معنای داده های بیشتر است. این، به رایانه ها اجازه می دهد تا الگوریتم هایی با مدهای پیچیده را برای تولید الگوریتم های بیشتر به هم وصل کنند. با این حال، خروجی می تواند شامل ارائه اطلاعات باشد، به عنوان مثال قرار دادن کلمات روی صفحه نمایش، تولید نشانه های شنیداری یا هر شکل دیگری از ارتباطات.
خوب، پس از لباس پوشیدن، پا به دنیای بیرون می گذارید، و آماده عناصر و نگاه های خیره مردم اطراف خود هستید. شاید حتی یک سلفی بگیرید و آن را در اینستاگرام قرار دهید تا به فالورهایتان پُز بدهید.
فراگیری ماشین
گاهی اوقات تشریح روند تصمیم گیری بسیار پیچیده است. دسته خاصی از الگوریتم ها، الگوریتم های یاد گیری ماشین، سعی می کنند بر اساس مجموعه ای از مثال های تصمیم گیری گذشته "یاد بگیرند". استفاده از یاد گیری ماشین برای مواردی مانند توصیه ها، پیش بینی ها و جستجوی اطلاعات امری عادی است.برای مثال، در مورد لباس پوشیدن مان، الگوریتم یاد گیری ماشین معادل است با تصمیمات گذشته شما در مورد پوشیدن لباس، دانستن احساس راحتی در پوشیدن هر مورد، و شاید سلفی هایی که بیشترین پسند را داشته اند و استفاده از این اطلاعات برای بهتر کردن انتخاب ها.
این احتمال وجود دارد که هوش انسان و ماشین به روش های ارزشمندی مکمل یکدیگر باشند.بنابراین، الگوریتم فرایندی است که کامپیوتر برای تبدیل داده های ورودی به داده های خروجی استفاده می کند. الگوریتم یک مفهوم ساده است و در عین حال هر فناوری قابل لمسی از الگوریتم های زیادی استفاده می کند. شاید دفعه بعدی که گوشی تلفن خود را برای تماس برداشتید، یک فیلم هالیوودی را دیدید، یا ایمیل خود را چک کردید، بتوانید به این فکر کنید که مجموعهی الگوریتم های پیچیده پشت صحنه آنها چیست.
چگونه می توان اطمینان حاصل کرد که الگوریتم ها منصفانه عمل می کنند؟
تصویر: وقتی الگوریتم ها تصمیماتی با عواقبی در دنیای واقعی می گیرند، باید تصمیمات آنها منصفانه باشد. R-Type / Shutterstock.com
استفاده از ماشین آلات برای تقویت فعالیت های انسان چیز جدیدی نیست. هیروگلیف های مصری استفاده از کالسکه هایی که توسط اسب کشیده می شدند را حتی قبل از سال 300 پیش از میلاد نشان می دهد. نوشتجات هند باستان مانند "Silapadikaram" حیواناتی را که برای کشاورزی استفاده می شدند توصیف کرده است. و یک نگاه به بیرون نشان می دهد که امروزه مردم از وسایل نقلیه موتوری برای رفت و آمد استفاده می کنند.
در حالی که در گذشته انسان ها خود را با روش های فیزیکی تقویت و بزرگ می کردند، اکنون ماهیت تقویت و بزرگ سازی نیز هوشمندتر شده است. باز هم، همه آن چه باید انجام شود این است که به صنعت اتومبیل نگاه کنید - مهندسان ظاهراً در قله صنعت اتومبیل های خود رانی هستند که توسط هوش مصنوعی هدایت می شوند. دستگاه های دیگر در مراحل مختلف هوشمندتر شدن قرار دارند. در طول مسیر، شاهدیم که تعاملات بین مردم و ماشین ها در حال تغییر است.
هوش ماشین و انسان نقاط قوت متفاوتی را ارائه داده است. محققانی مانند ما در تلاشند بفهمند که چگونه الگوریتم ها می توانند مهارت های انسان را تکمیل کنند و در عین حال مسئولیت اتکا به هوش ماشینی را به حداقل برسانند. ما به عنوان متخصص یاد گیری ماشین، پیش بینی می کنیم به زودی تعادل جدیدی بین هوش انسان و ماشین ایجاد شود، تغییری که بشریت قبلاً با آن رو به رو نبوده است.
چنین تغییراتی غالباً ترس از چیزهای ناشناخته را ایجاد می کنند و در این حالت یکی از موارد ناشناخته نحوه تصمیم گیری ماشین ها است. این امر خصوصاً در مورد انصاف بسیار مصداق دارد. آیا ماشین ها می توانند به گونه ای منصفانه که برای مردم قابل درک باشد عمل کنند؟
وقتی مردم غیر منطقی هستند
از نظر انسان ها، انصاف اغلب در قلب یک تصمیم خوب قرار دارد. تصمیم گیری معمولاً به مراکز عاطفی و عقلانی مغز ما متکی است، همان چیزی که برنده جایزه نوبل، دانیل کانمن، آن را تفکر سیستم 1 و سیستم 2 می نامد. نظریه پردازانِ تصمیم گیری بر این باورند که مراکز احساسی مغز در تمام اعصار کاملاً پیشرفت کرده اند، در حالی که مناطق مغزی درگیر تفکر عقلانی یا منطقی اخیراً تکامل یافته اند. قسمت عقلانی و منطقی مغز، چیزی که کانمن آن را سیستم 2 می نامد، به انسان ها نسبت به سایر گونه ها برتری داده است.با این حال، به دلیل این که سیستم 2 اخیراً توسعه یافته است، تصمیم گیری انسان اغلب با خطا توأم است. به همین دلیل است که بسیاری از تصمیمات، غیر منطقی، متناقض و غیر بهینه است.
با وجود چالش ها، ماشین ها و الگوریتم ها همچنان برای انسان ها مفید خواهند بود.به عنوان مثال، نقض ترجیح، یک پدیده شناخته شده و در عین حال غیر منطقی است که مردم از خود به نمایش می گذارند: در آن، شخصی که انتخاب A را بر B و B را بر C ترجیح می دهد لزوما A را بر C ترجیح نمی دهد. یا در نظر بگیرید که محققان دریافته اند که قضات دادگاه کیفری در اتخاذ تصمیمات عفو مشروط خود درست پس از زمان تنفس ناهار در مقایسه با ساعات آخر روز نرم تر رفتار می کنند.
بخشی از مشکل در این جاست که مغز ما دقیقاً در انجام محاسبات احتمالات، بدون آموزش مناسب، مشکل دارد. ما اغلب از اطلاعات بی ربط استفاده می کنیم یا تحت تأثیر عوامل غیر مستقیم قرار می گیریم. این جاست که هوش ماشین می تواند مفید باشد.
ماشین ها منطقی هستند ... تا لحظه یک نقص
هوش های ماشین که خوب طراحی شده باشند می توانند در تصمیم گیریِ بهینه سازگار و مفید باشند. ماهیت آنها از نظر ریاضی منطقی است - آنها به راحتی از دستور العمل برنامه دور نمی شوند. به عنوان مثال، در یک الگوریتم یاد گیری ماشین که به خوبی طراحی شده باشد، نمی توان با چیزی مثل عکس العمل های ترجیحی غیر منطقی که مردم اغلب نشان می دهند مواجه شد. در حواشی خطاهای آماری، تصمیمات متخذه توسط هوش ماشین، استوار و نا متناقض هستند.مشکل این است که هوش ماشین همیشه به خوبی طراحی نشده است.
هر چه الگوریتم ها قدرتمندتر شده و در بخش های بیشتری از زندگی گنجانده می شوند، دانشمندانی مانند ما انتظار دارند که این دنیای جدید، که تعادل متفاوتی بین هوش ماشین و انسان دارد، هنجار آینده باشد.
تصویر: احکام قضات در باره آزادی مشروط می تواند تا سطح مواردی که برنامه رایانه توصیه می کند تنزل پیدا کند. THICHA SATAPITANON / Shutterstock.com
در سیستم عدالت کیفری، قضات در هنگام تصمیمات مربوط به آزادی مشروط از الگوریتم ها برای محاسبه خطرات تکرار جرم استفاده می کنند. از لحاظ تئوری، این عمل می تواند بر هر گونه یکجانبه نگری ایجاد شده توسط ساعت تنفس ناهار یا خستگی در پایان روز غلبه کند. با این حال، هنگامی که روزنامه نگارانی از ProPublica تحقیقاتی را انجام دادند، متوجه شدند که این الگوریتم ها غیر منصف هستند: مردان سفید پوستی با سابقه محکومیت سرقت مسلحانه، نسبت به زنان آمریکایی - آفریقایی تبار که به تخلف از قانون محکوم شده بودند، در ریسکی پایین تر ارزیابی شدند.
بعداً نمونه های بیشتری از این الگوریتم های یاد گیری ماشین غیر منصفانه مشاهده شده است، از جمله در شرکت آمازون و استخدام آن و برچسب گذاری تصویر در Google.
محققان از این مشکلات آگاه بوده و تلاش کرده اند محدودیت هایی را ایجاد کنند که از همان ابتدا رعایت انصاف را تضمین کنند. به عنوان مثال، الگوریتمی بنام CB (کور رنگی یا color blind) محدودیتی را اعمال می کند که به موجب آن از هیچ متغیر تمایز دهنده ای، مانند نژاد یا جنسیت، نباید در پیش بینی نتایج استفاده شود. الگوریتم دیگری به نام DP (برابری جمعیتی یا demographic parity)، به رعایت انصاف متناسب با جمعیت گروه ها اطمینان می دهد. به عبارت دیگر، نسبت جمعیتی گروهی که نتیجه مثبتی دریافت می کند در میان هر دو گروه تبعیض آمیز و بدون تبعیض برابر یا عادلانه است.
هنگامی که از یک الگوریتم استفاده می شود، زیرجمعیت هایی که تحت تأثیر قرار می گیرند، به طور طبیعی تلاش های خود را در پاسخ تغییر خواهند داد.محققان و سیاست گذاران شروع به بالا بردن پرده می کنند. IBM بسیاری از الگوریتم های خود را به صورت منبع آزاد تهیه کرده و آنها را تحت عنوان "AI Fairness 360" منتشر کرده است. و بنیاد ملی علوم اخیراً پیشنهادهای دانشمندانی را پذیرفته است که می خواهند بنیادی تحقیقاتی را که زیر بنای انصاف در AI است تقویت کنند.
بهبود انصاف در تصمیمات متخذه توسط ماشین آلات
ما معتقدیم الگوریتم های ماشین منصفانه موجود از بسیاری جهات ضعیف هستند. این ضعف اغلب از معیارهایی منشأ می گیرد که برای اطمینان از منصفانه بودن مورد استفاده قرار می گیرند. اکثر الگوریتم هایی که "محدودیت انصاف" را اعمال می کنند مانند الگوریتم های برابری جمعیتی (DP) و کور رنگی (CB) بر اطمینان از انصاف در سطح نتیجه متمرکز هستند. اگر دو نفر از زیرجمعیت های مختلف وجود داشته باشند، محدودیت های اعمال شده اطمینان می دهد که نتیجه تصمیمات آنها در بین گروه ها استوار و نامتناقض است.تصویر: فراتر از ورودی ها و خروجی ها ، طراحان الگوریتم باید در نظر بگیرند که چگونه گروه ها رفتار خود را تغییر می دهند تا با الگوریتم سازگار شوند. elenabsl / Shutterstock.com
اگر چه این اولین قدم خوب است، محققان باید به تنهایی فراتر از نتایج نگاه کنند و همچنین بر روند کار تمرکز کنند. به عنوان مثال، هنگامی که از یک الگوریتم استفاده می شود، زیرجمعیت هایی که تحت تأثیر قرار می گیرند، به طور طبیعی تلاش های خود را در پاسخ تغییر خواهند داد. این تغییرات نیز باید در نظر گرفته شوند. از آن جا که آنها مورد توجه قرار نگرفته اند، ما و همکارانمان روی آن چه که " انصاف بهترین پاسخ" می نامیم تمرکز می کنیم.
اگر زیر مجموعه ها ذاتاً مشابه باشند، سطح تلاش آنها برای دستیابی به همان نتیجه حتی پس از اجرای الگوریتم نیز باید یکسان باشد. این تعریف ساده از انصافِ بهترین پاسخ را الگوریتم های مبتنی بر DP و CB برآورده نمی کنند. به عنوان مثال، DP نیاز دارد که نرخ های مثبت برابر باشند حتی اگر یکی از زیر جمعیت ها تلاش نکند. به عبارت دیگر، افراد در یک زیر جمعیت باید برای دستیابی به همان نتیجه به گونه ای سخت تر کار کنند. در حالی که یک الگوریتم مبتنی بر DP آن را عادلانه می داند – چون به هر حال، هر دو زیر مجموعه نتیجه یکسانی را به دست آوردند - اما اکثر انسان ها چنین نمی اندیشند.
محدودیت انصاف دیگری وجود دارد که به عنوان شانس برابر یا (EO) equalized oddsشناخته می شود و مفهوم بهترین انصاف پاسخ را برآورده می کند – و حتی اگر پاسخ زیر گروه ها را نیز در نظر بگیرید، رعایت انصاف را تضمین می کند. با این حال، برای اعمال محدودیت، الگوریتم باید متغیرهای تبعیض آمیز را بشناسد (مثلاً سیاه / سفید)، و در نهایت آستانه های کاملاً متفاوتی برای زیر مجموعه ها تعیین خواهد شد - بنابراین، آستانه ها برای نامزدهای سیاه و سفید آزادی مشروط به طور آشکارا متفاوت خواهد بود.
مراکز احساسی مغز در تمام اعصار کاملاً پیشرفت کرده اند، در حالی که مناطق مغزی درگیر تفکر عقلانی یا منطقی اخیراً تکامل یافته اند.اگر چه این امر به افزایش انصافِ نتایج کمک می کند، اما چنین روشی ممکن است مفهوم برخورد برابر را که برای اجرای قانون مدنی مصوب 1964 مورد نیاز است نقض کند. به همین دلیل، یک مقاله بررسی قانون کالیفرنیا از سیاست گذاران خواسته است تا قانون را به گونه ای اصلاح کنند که الگوریتم های عادلانه ای که از این رویکرد استفاده می کنند بتوانند بدون نگرانی از عواقب قانونیِ بالقوه قابل استفاده باشند.
این محدودیت ها و همکاران ما انگیزه ایجاد الگوریتمی را می دهند که نه تنها "بهترین پاسخ منصفانه" باشد بلکه به طور صریح از متغیرهای تبعیض آمیز استفاده نکند. ما با استفاده از مجموعه داده های شبیه سازی شده و مجموعه داده های نمونه واقعی از وب، عملکرد الگوریتم های خود را به صورت تئوری نشان می دهیم. وقتی الگوریتم های خود را با مجموعه داده های نمونهی پرکاربرد آزمایش کردیم، از عملکرد خوب آنها د مقایسه با الگوریتم های منبع باز جمع آوری شده توسط IBM متعجب شدیم.
دسته خاصی از الگوریتم ها، الگوریتم های یاد گیری ماشین، سعی می کنند بر اساس مجموعه ای از مثال های تصمیم گیری گذشته "یاد بگیرند". کار ما نشان می دهد که، با وجود چالش ها، ماشین ها و الگوریتم ها همچنان برای انسان ها مفید خواهند بود – هم برای مشاغل فیزیکی و همچنین برای مشاغل دانش. ما باید هوشیار بمانیم که این گونه نیست که هر تصمیمی توسط الگوریتم ها گرفته می شود منصفانه باشد، و ضروری است که همه، محدودیت های خود را درک کنند. اگر ما بتوانیم این کار را انجام دهیم، این احتمال وجود دارد که هوش انسان و ماشین به روش های ارزشمندی مکمل یکدیگر باشند.
منبع: جوری دِنی، کارتیک کانان، Purdue University، University of Richmond