هوش مصنوعی، تبعیض، و روش‌هایی برای خودکنترلی فناوری بزرگ

به هشدار FTC به صنعت هوش مصنوعی توجه کنید: تبعیض قائل نشوید، در غیر این صورت .... اگر "فناوری بزرگ" عزم و اراده داشته باشد، طبق تحقیقات، روش‌هایی وجود دارد که خود کنترلی می‌تواند مؤثر واقع شود.
سه‌شنبه، 28 ارديبهشت 1400
تخمین زمان مطالعه:
موارد بیشتر برای شما
هوش مصنوعی، تبعیض، و روش‌هایی برای خودکنترلی فناوری بزرگ
تصویر: FTC  به شرکت‌هایی که سیستم‌های هوش مصنوعی می‌فروشند اعلام کرد: اگر با محصولات تبعیض آمیز از خط قرمز عبور کنید با شما برخورد قانونی خواهد شد.
 
کمیسیون تجارت فدرال ایالات متحده صریحاً صنعت هوش مصنوعی را تهدید کرد. در 19 آوریل 2021، مقام مسؤل آژانس، که به عنوان مرجع اصلی حمایت از مصرف کنندگان عمل می‌کند، درمورد الگوریتم‌های جهت دار هوش مصنوعی پست وبلاگی نوشت که شامل این هشدار صریح بود: "یادتان باشد اگر حد و مرز خود را رعایت نکنید، FTC ممکن است این کار را برای شما انجام دهد."
 
این پست با عنوان "هدف ما برقراری حقیقت، عدالت و برابری در استفاده از هوش مصنوعی شرکت شماست"، به دلیل لفاظی‌های سنگین و خاص در مورد هوش مصنوعی تبعیض آمیز قابل توجه بود. نویسنده عنوان کرد که اختیار کمیسیون در منع اقدامات غیر منصفانه و فریبنده "شامل فروش یا استفاده از (مثلاً) الگوریتم‌های جهت دار و نژاد پرستانه است و همچنین اغراق این صنعت در مورد توانایی هوش مصنوعی در تصمیم گیری عادلانه یا بی طرفانه در امر استخدام می‌تواند منجر به "فریب"، تبعیض و نهایتاً اقدامات قانونی FTC گردد."
 پلتفرم‌های فناوری نقش فوق العاده بزرگی در شکل گیری افکار عمومی دارند.به نظر می‌رسد تعصب و جهت گیری، صنعت هوش مصنوعی را فرا گرفته است. شرکت‌های بزرگ و کوچک در حال فروش سیستم‌های به وضوح جهت دار هستند و مشتریان آنها نیز به نوبه خود از این محصولات استفاده می‌کنند، به نحوی که این بی‌اندازه روی قشر آسیب پذیر و به حاشیه رانده شده تأثیر می‌گذارد. از جمله مواردی که در آنها سوء استفاده می‌شود می‌توان به مراقبت‌های بهداشتی، عدالت کیفری و استخدام اشاره کرد.
 
گذشته از هرچه شرکت‌ها می‌گویند یا انجام می‌دهند، به نظر می‌رسد که آنها قادر نیستند یا نمی‌خواهند مجموعه داده‌ها و مدل‌های خود را عاری از تعصبات نژادی، جنسیتی و سایر مواردی که جامعه را آزار می‌دهد، کنند. تلاش‌های این صنعت برای برقراری برابری و عدالت به دلیل پشتیبانی ناکافی و ضعیف رهبران - که گاهی اوقات هم به طور کامل فرو می‌پاشد - مورد انتقاد قرار گرفته است.
 
من به عنوان یک محقق در زمینه حقوق و فناوری و ناظر پیشکسوت FTC، تهدید تقریباً مستقیم آژانس را دقیقاً مورد توجه قرار دادم. آژانس‌ها به طور معمول از بیانیه‌های رسمی و غیر رسمی استفاده می‌کنند تا نهادهای تحت نظارت را متوجه گرایش و توجه خود به یک صنعت یا موضوع خاص کنند. اما چنین تهدید مستقیمی برای اقدام آژانس – حواستان به عملکردتان باشد، در غیر این صورت... - برای کمیسیون پدیده نسبتاً نادری است.
 

کاری که FTC می‌تواند انجام دهد (اما هنوز انجام نداده است)

رویکرد FTC در مورد هوش مصنوعی تبعیض آمیز، به عنوان مثال کاملاً در تضاد با وضعیت روزهای اولیه حفظ حریم خصوصی اینترنت است.  در دهه 1990، آژانس از الگوی ساده‌تر خود تنظیمی استقبال کرد و تنها پس از سالها سهل انگاری در حفظ حریم خصوصی و امنیت، رویه قاطعانه‌تری را در پیش گرفت.
 به نظر می‌رسد تعصب و جهت گیری، صنعت هوش مصنوعی را فرا گرفته است.
 هوش مصنوعی، تبعیض، و روش‌های برای خودکنترلی فناوری بزرگ
 
تصویر: معرفی نامزد منتقد صنعت فناوری، "لینا خان"، به عنوان رئیس FTC، شاهد دیگری از قصد دولت "بایدن" برای استفاده از آژانس برای تنظیم صنعت است.
 چگونه افراد را ترغیب کنیم تا داوطلبانه در یک کار مشترک مانند شناسایی اخبار جعلی با استفاده از منابع گسترده شرکت کنند.اما گردانندگان صنعت یا مردم چقدر باید حرف یک مأمور دولت را در یک پست وبلاگ بخوانند و اطاعت کنند؟ طبق تجربه من، کارمندان FTC به طور کلی سرکش نیستند. اگر چنین چیزی هم باشد، این که یک مأمور دولت آن قدر احساس قدرت کرده است که چنین سخنان محکمی را از طرف کمیسیون به کار ببرد، مبنای وسیع‌تری از حمایت آژانس برای مراقبت و نظارت بر هوش مصنوعی را تأیید می‌کند.
 
آیا یک آژانس فدرال یا هر کس می‌تواند مشخص کند که چه چیزی هوش مصنوعی را عادلانه یا برابر نگر می‌کند؟ مسئله راحتی نیست. در واقع این مسئولیت بر عهده FTC نیست. آژانس فقط باید تعیین کند که آیا شیوه‌های تجاری صنعت هوش مصنوعی ناعادلانه است یا فریبنده - استانداردی که آژانس تقریباً یک قرن تجربه اجرای آن را دارد - یا در غیر این صورت خلاف قوانینی است که کنگره از آژانس خواسته است آن را اجرا کند.
 

تغییر اوضاع در کنترل هوش مصنوعی

دلایلی وجود دارد که به تغییرات یک دریا شک کنید. FTC به طور مزمن دارای کمبود نیرو خصوصاً در مورد فن آوران بوده است. دیوان عالی کشور اخیراً آژانس را با ضرورت ایجاد موانع اضافی مواجه کرد، قبل از این که FTC بتواند از متخلفان قانون FTC درخواست بازپرداخت پول کند.
 
اما اوضاع به نفع کمیسیون پیش می‌رود. نگرانی عمومی نسبت به هوش مصنوعی در حال افزایش است. اعضای فعلی و آینده پنج نفر هستند (با انتصاب سه دموکرات) و صراحتاً نسبت به صنعت این فناوری بدبین هستند، موضع رئیس جمهور "بایدن" نیز همین است. در همان هفته اتخاذ تصمیم دیوان عالی کشور، اعضای کمیسیون در مجلس سنای ایالات متحده حاضر شدند و به سؤالات کمیته بازرگانی در باره این که آژانس چگونه می‌تواند کارهای بیشتری برای مصرف کنندگان انجام دهد، پاسخ دادند.
 
من انتظار ندارم صنعت هوش مصنوعی در واکنش به پست وبلاگی یک شبه تغییر کند. اما اگر همین پست وبلاگ آخرین حرف آژانس در مورد هوش مصنوعی تبعیض آمیز باشد، به همان اندازه متعجب می‌شوم.
 داوطلبان، واقعی یا جعلی بودن پست‌های پرطرفدار را طبقه بندی می‌کنند.

خود کنترلی چگونه می تواند مؤثر واقع شود

 هوش مصنوعی، تبعیض، و روش‌های برای خودکنترلی فناوری بزرگ
 
تصویر:  برای بهبود اطلاع رسانی نادرست پلیس، شرکت‌های رسانه‌های اجتماعی می‌توانند اشتیاق خود را برای تعامل مداوم مهار کنند.
 
دولت‌ها و ناظران در سراسر جهان بارها در مورد قدرت انحصاری شرکت‌های “فناوری بزرگ” و نقشی که این شرکت‌ها در انتشار اطلاعات غلط بازی می‌کنند، ابراز نگرانی کرده‌اند. در پاسخ، شرکت‌های " فناوری بزرگ" سعی کرده‌اند از طریق خودکنترلی، از مقررات پیشی بگیرند.
 
طبق تحقیقات سه روش اصلی برای اِعمال خود کنترلی در شبکه‌های اجتماعی وجود دارد: محرومیت از تعامل و مشارکت، برچسب اطلاع رسانی غلط و تأیید صحت منابع با جمع سپاری.
 

محرومیت از فعالیت و تعامل

پلتفرم‌های رسانه‌های اجتماعی برای تعامل مداوم ساخته شده‌اند و شرکت‌ها الگوریتم‌هایی را طراحی می‌کنند که پست‌های مورد نظر افراد را برای مشغولیت و مشارکت کاربرانشان انتخاب می‌کند. مطالعات نشان می‌دهد که دروغ‌ها سریع‌تر از حقایق در شبکه‌های اجتماعی منتشر می‌شوند، اغلب به این دلیل که مردم جذب اخباری می‌شوند که باعث تحریک احساسات می‌شود و این باعث می‌شود که آنها بیشتر چنین اخباری را بخوانند، واکنش نشان دهند و به اشتراک بگذارند. این تأثیر از طریق توصیه‌های الگوریتمی تقویت می‌شود. تحقیقات ما نشان می‌دهد که افراد در YouTube نسبت به ویدیوهایی که موضوعاتی مانند دیابت دارند، بیشتر جذب می‌شوند تا ویدیوهای که اطلاع رسانی کمتری دارند.
جمعیت مردم در زمینه تشخیص اخبار جعلی و واقعی اغلب کارشان را به خوبی انجام می‌دهند. اکثر پلتفرم‌های “فناوری بزرگ” بدون سیستم‌های ناظر یا فیلترهایی که بر منابع سنتی اخبار و اطلاعات حاکم هستند فعالیت می‌کنند. انبوه داده‌های جمعیت شناختی ریز و دقیق آنها به این پلتفرم‌ها امکان «هدف گذاری خُرد» برای تنها تعداد کمی از کاربران را می‌دهد. این امر همراه با تقویت الگوریتمی محتوای طراحی شده برای افزایش تعامل می‌تواند پیامدهای منفی زیادی برای جامعه به همراه داشته باشد، از جمله سرکوب رأی دهندگان دیجیتال، هدف قرار دادن اقلیت‌ها برای اطلاع رسانی نادرست و هدف قرار دادن تبلیغات تبعیض آمیز.
 
محروم کردن از تعامل و مشارکت در توصیه‌های محتوا باید از اثر «سوراخ خرگوش» رسانه‌های اجتماعی - به این معنی که کاربران، پست بعد از پست و فیلم بعد از فیلم را نگاه می‌کنند – بکاهد. طراحی الگوریتمی پلتفرم‌های “فناوری بزرگ” محتوای جدید و ریز هدف را در اولویت قرار می‌دهد که گسترش تقریباً کنترل نشده اطلاعات غلط را تقویت می‌کند. اخیراً "تیم کوک" مدیر عامل شرکت "اپل"، این مسئله را به طور خلاصه بیان کرده است: "در لحظه انتشار اطلاعات دروغ و نظریه‌های غلط و و فتنه انگیز که توسط الگوریتم‌ها تهیه شده است، دیگر نمی‌توانیم چشم خود را بر روی این تئوری فناوری ببندیم که می‌گوید هر نوع تعاملی خوب است، هر چه طولانی‌تر، بهتر - و فقط با هدف جمع آوری داده‌های تا جایی که ممکن است پیش برویم".
 

برچسب اطلاعات نادرست

شرکت‌های فناوری می‌توانند برای تعیین صحت و سقم یک خبر، سیستم برچسب گذاری محتوا را راه بیندازند. در طول انتخابات، توییتر سیاست تمامیت مدنی را اعلام کرد که بر اساس آن توئیت‌هایی با برچسب جنجال برانگیز یا گمراه کننده، توسط الگوریتم‌های آنها توصیه نمی‌شود. تحقیقات نشان می‌دهد که برچسب زدن، مؤثر واقع می‌شود. مطالعات نشان می‌دهد که استفاده از برچسب برای پست‌های رسانه‌های تحت کنترل دولت، مانند کانال رسانه‌ای روسیه (RT)، می‌تواند اثرات اطلاعات غلط را کاهش دهد.
 
در یک آزمایش، محققان کارگران موقت ناشناسی را استخدام کردند تا پست‌های قابل اعتماد را برچسب گذاری کنند. پست‌ها متعاقباً در فیس بوک با برچسب‌هایی که توسط کارگران منابع مردمی یادداشت نویسی شده بودند، نمایش داده شدند. در این آزمایش، جمعیت کارگران از کل طیف سیاسی توانستند بین منابع جریان اصلی و منابع خبری فراجناحی یا جعلی تفاوت قائل شوند. این امر نشان می‌دهد که جمعیت مردم در زمینه تشخیص اخبار جعلی و واقعی اغلب کارشان را به خوبی انجام می‌دهند.
شرکت‌های فناوری می‌توانند برای تعیین صحت و سقم یک خبر، سیستم برچسب گذاری محتوا را راه بیندازند. آزمایشات همچنین نشان می‌دهد افرادی که تا حدودی با منابع خبری سر و کار دارند، معمولاً می‌توانند بین اخبار واقعی و جعلی تفاوت قائل شوند. آزمایش‌های دیگر نشان داد که ارائه یادآوری در مورد صحت یک پست، احتمال اشتراک آن را بین کاربران بیش از پست‌های نادرست افزایش می‌دهد.
 
ما در حوزه کاری خودمان، مطالعه کرده‌ایم که چگونه می‌توان از ترکیب حاشیه نویسان انسانی، یا مجریان تعدیل محتوا و الگوریتم‌های هوش مصنوعی - که به آن هوش انسان محور می‌گویند - برای طبقه بندی ویدیوهای مرتبط با مراقبت‌های بهداشتی در YouTube استفاده کرد. اگر چه تماشای تک تک ویدیوهای YouTube در مورد دیابت توسط متخصصان پزشکی امکان پذیر نیست، اما می‌توان یک روش طبقه بندی انسانی را در نظر گرفت. به عنوان مثال، من و همکارانم از متخصصان هر موضوع استفاده کردیم تا به الگوریتم‌های هوش مصنوعی فیدبک بدهیم، این کار منجر به ارزیابی بهتر محتوای پست‌ها و ویدیوها می‌شود.
 
شرکت‌های فناوری قبلاً از چنین رویکردهایی استفاده کرده‌اند. فیس بوک برای کنترل اطلاعات غلط مربوط به "کووید -19" از ترکیبی از واقعیت سنج‌ها و الگوریتم‌های تشخیص شباهت استفاده می‌کند. این الگوریتم‌ها موارد کپی را شناسایی می‌کنند و کپی‌های پست‌های گمراه کننده را می‌بندند.
 

اجرای قانون جامعه محور

توییتر اخیراً اعلام کرده است که برای مقابله با اطلاعات نادرست، یک اتاق گفتگو تحت عنوان "بِرد واچ" تشکیل می‌دهد. هر چند توییتر جزئیات مربوط به نحوه اجرای آن را ارائه نداده است، اما مکانیسم تأیید مبتنی بر جمعیت با اضافه کردن رأی موافق یا رأی مخالف به پست‌های پرطرفدار و استفاده از الگوریتم‌های انتقال مداوم اطلاعات و اخبار برای پایین آوردن سطح محتوای منابع غیر معتبر می‌تواند به کاهش اطلاعات غلط کمک کند.
 اکثر پلتفرم‌های “فناوری بزرگ” بدون سیستم‌های ناظر یا فیلترهایی که بر منابع سنتی اخبار و اطلاعات حاکم هستند فعالیت می‌کنند.ایده اصلی، مشابه سیستم مشارکت در محتوای ویکی پدیا است، از این نظر که داوطلبان، واقعی یا جعلی بودن پست‌های پرطرفدار را طبقه بندی می‌کنند. این چالش مانع رأی دهی مردم به مطالب جالب و جذاب اما تأیید نشده می‌شود، به ویژه هنگامی که تلاش‌های عمدی برای دستکاری در رأی گیری وجود دارد. مردم می‌توانند از طریق یک اقدام هماهنگ، سیستم‌ها را اجرا کنند مانند قسمت اخیر پمپاژ سهام "گیم استاپ".
 
مشکل دیگر این است که چگونه افراد را ترغیب کنیم تا داوطلبانه در یک کار مشترک مانند شناسایی اخبار جعلی با استفاده از منابع گسترده شرکت کنند. با این حال، چنین تلاش‌هایی متکی به داوطلبانی است که صحت مقالات خبری را یادداشت می‌کنند، شبیه ویکی پدیا، همچنین نیاز به شرکت‌های ثالث برای بررسی واقعیت است که می‌توانند برای تشخیص این که کدام اخبار گمراه کننده است، مورد استفاده قرار گیرند.
 
با این حال، یک مدل به سبک ویکی پدیا به مکانیسم‌های قوی حاکمیت جامعه نیاز دارد تا اطمینان حاصل شود که افراد داوطلب هنگام تأیید پست‌ها و بررسی واقعیت‌ها، از دستور العمل‌های همسو پیروی می‌کنند. ویکی پدیا اخیراً استانداردهای جامعه خود را به طور خاص برای جلوگیری از گسترش اطلاعات نادرست به روز رسانی کرده است. این که آیا شرکت‌های فناوری بزرگ داوطلبانه اجازه می‌دهند سیاست‌های تعدیل محتوای آنها با این شفافیت بررسی شود، موضوع دیگری است.
 دروغ‌ها سریع‌تر از حقایق در شبکه‌های اجتماعی منتشر می‌شوند.

مسئولیت‌های " فناوری بزرگ"

در نهایت، شرکت‌های رسانه‌های اجتماعی می‌توانند از ترکیبی از محرومیت زدایی تعامل و مشارکت، مشارکت با سازمان‌های خبری و هوش مصنوعی و کشف اطلاعات غلط از طریق منابع عمومی استفاده کنند. بعید به نظر می‌رسد که این رویکردها به صورت جداگانه کار کنند و لازم است برای همکاری با یک دیگر طراحی شوند.
 
اقدامات هماهنگ شده توسط شبکه‌های اجتماعی می‌تواند جامعه را از بازارهای اقتصادی گرفته تا سیاست مختل کند. پلتفرم‌های فناوری نقش فوق العاده بزرگی در شکل گیری افکار عمومی دارند، به عبارت دیگر آنها مسئولیت مدیریت مؤثر خود را در برابر مردم دارند.
 
تقاضاهای تنظیم مقررات “فناوری بزرگ” در سراسر جهان، از جمله در ایالات متحده در حال افزایش است، یک نظرسنجی اخیر "گالوپ" نشان داده است که نگرش منفی نسبت به شرکت‌های فناوری و حمایت بیشتر از مقررات دولتی در حال افزایش است. قوانین جدید آلمان در مورد تعدیل محتوا مسئولیت بیشتری برای شرکت‌های فناوری در قبال محتوای به اشتراک گذاشته شده در پلتفرم‌هایشان به وجود می‌آورد. مجموعه‌ای از مقررات در اروپا با هدف کاهش حمایت از مسئولیت این پلتفرم‌ها و مقررات پیشنهادی در ایالات متحده با هدف باز سازی قوانین اینترنت، نظارت بیشتری را در سیاست‌های تعدیل محتوای شرکت‌های فناوری به ارمغان می‌آورد.
 نگرانی عمومی نسبت به هوش مصنوعی در حال افزایش است.نوعی از مقررات دولتی احتمالاً در " فناوری بزرگ" ایالات متحده هنوز فرصتی برای اتخاذ خود تنظیمی و مسئولیت پذیری دارد - قبل از این که شرکت‌ها توسط قانون گذاران مجبور به اقدام شوند.
 
منبع: رایان کالو، University of Washington، آنژانا سوسارلا، Michigan State University


مقالات مرتبط
ارسال نظر
با تشکر، نظر شما پس از بررسی و تایید در سایت قرار خواهد گرفت.
متاسفانه در برقراری ارتباط خطایی رخ داده. لطفاً دوباره تلاش کنید.