هوش مصنوعی، تبعیض، و روشهایی برای خودکنترلی فناوری بزرگ
به هشدار FTC به صنعت هوش مصنوعی توجه کنید: تبعیض قائل نشوید، در غیر این صورت .... اگر "فناوری بزرگ" عزم و اراده داشته باشد، طبق تحقیقات، روشهایی وجود دارد که خود کنترلی میتواند مؤثر واقع شود.
کمیسیون تجارت فدرال ایالات متحده صریحاً صنعت هوش مصنوعی را تهدید کرد. در 19 آوریل 2021، مقام مسؤل آژانس، که به عنوان مرجع اصلی حمایت از مصرف کنندگان عمل میکند، درمورد الگوریتمهای جهت دار هوش مصنوعی پست وبلاگی نوشت که شامل این هشدار صریح بود: "یادتان باشد اگر حد و مرز خود را رعایت نکنید، FTC ممکن است این کار را برای شما انجام دهد."
این پست با عنوان "هدف ما برقراری حقیقت، عدالت و برابری در استفاده از هوش مصنوعی شرکت شماست"، به دلیل لفاظیهای سنگین و خاص در مورد هوش مصنوعی تبعیض آمیز قابل توجه بود. نویسنده عنوان کرد که اختیار کمیسیون در منع اقدامات غیر منصفانه و فریبنده "شامل فروش یا استفاده از (مثلاً) الگوریتمهای جهت دار و نژاد پرستانه است و همچنین اغراق این صنعت در مورد توانایی هوش مصنوعی در تصمیم گیری عادلانه یا بی طرفانه در امر استخدام میتواند منجر به "فریب"، تبعیض و نهایتاً اقدامات قانونی FTC گردد."
پلتفرمهای فناوری نقش فوق العاده بزرگی در شکل گیری افکار عمومی دارند.به نظر میرسد تعصب و جهت گیری، صنعت هوش مصنوعی را فرا گرفته است. شرکتهای بزرگ و کوچک در حال فروش سیستمهای به وضوح جهت دار هستند و مشتریان آنها نیز به نوبه خود از این محصولات استفاده میکنند، به نحوی که این بیاندازه روی قشر آسیب پذیر و به حاشیه رانده شده تأثیر میگذارد. از جمله مواردی که در آنها سوء استفاده میشود میتوان به مراقبتهای بهداشتی، عدالت کیفری و استخدام اشاره کرد.
گذشته از هرچه شرکتها میگویند یا انجام میدهند، به نظر میرسد که آنها قادر نیستند یا نمیخواهند مجموعه دادهها و مدلهای خود را عاری از تعصبات نژادی، جنسیتی و سایر مواردی که جامعه را آزار میدهد، کنند. تلاشهای این صنعت برای برقراری برابری و عدالت به دلیل پشتیبانی ناکافی و ضعیف رهبران - که گاهی اوقات هم به طور کامل فرو میپاشد - مورد انتقاد قرار گرفته است.
من به عنوان یک محقق در زمینه حقوق و فناوری و ناظر پیشکسوت FTC، تهدید تقریباً مستقیم آژانس را دقیقاً مورد توجه قرار دادم. آژانسها به طور معمول از بیانیههای رسمی و غیر رسمی استفاده میکنند تا نهادهای تحت نظارت را متوجه گرایش و توجه خود به یک صنعت یا موضوع خاص کنند. اما چنین تهدید مستقیمی برای اقدام آژانس – حواستان به عملکردتان باشد، در غیر این صورت... - برای کمیسیون پدیده نسبتاً نادری است.
کاری که FTC میتواند انجام دهد (اما هنوز انجام نداده است)
رویکرد FTC در مورد هوش مصنوعی تبعیض آمیز، به عنوان مثال کاملاً در تضاد با وضعیت روزهای اولیه حفظ حریم خصوصی اینترنت است. در دهه 1990، آژانس از الگوی سادهتر خود تنظیمی استقبال کرد و تنها پس از سالها سهل انگاری در حفظ حریم خصوصی و امنیت، رویه قاطعانهتری را در پیش گرفت.به نظر میرسد تعصب و جهت گیری، صنعت هوش مصنوعی را فرا گرفته است.
تصویر: معرفی نامزد منتقد صنعت فناوری، "لینا خان"، به عنوان رئیس FTC، شاهد دیگری از قصد دولت "بایدن" برای استفاده از آژانس برای تنظیم صنعت است.
چگونه افراد را ترغیب کنیم تا داوطلبانه در یک کار مشترک مانند شناسایی اخبار جعلی با استفاده از منابع گسترده شرکت کنند.اما گردانندگان صنعت یا مردم چقدر باید حرف یک مأمور دولت را در یک پست وبلاگ بخوانند و اطاعت کنند؟ طبق تجربه من، کارمندان FTC به طور کلی سرکش نیستند. اگر چنین چیزی هم باشد، این که یک مأمور دولت آن قدر احساس قدرت کرده است که چنین سخنان محکمی را از طرف کمیسیون به کار ببرد، مبنای وسیعتری از حمایت آژانس برای مراقبت و نظارت بر هوش مصنوعی را تأیید میکند.
آیا یک آژانس فدرال یا هر کس میتواند مشخص کند که چه چیزی هوش مصنوعی را عادلانه یا برابر نگر میکند؟ مسئله راحتی نیست. در واقع این مسئولیت بر عهده FTC نیست. آژانس فقط باید تعیین کند که آیا شیوههای تجاری صنعت هوش مصنوعی ناعادلانه است یا فریبنده - استانداردی که آژانس تقریباً یک قرن تجربه اجرای آن را دارد - یا در غیر این صورت خلاف قوانینی است که کنگره از آژانس خواسته است آن را اجرا کند.
تغییر اوضاع در کنترل هوش مصنوعی
دلایلی وجود دارد که به تغییرات یک دریا شک کنید. FTC به طور مزمن دارای کمبود نیرو خصوصاً در مورد فن آوران بوده است. دیوان عالی کشور اخیراً آژانس را با ضرورت ایجاد موانع اضافی مواجه کرد، قبل از این که FTC بتواند از متخلفان قانون FTC درخواست بازپرداخت پول کند.اما اوضاع به نفع کمیسیون پیش میرود. نگرانی عمومی نسبت به هوش مصنوعی در حال افزایش است. اعضای فعلی و آینده پنج نفر هستند (با انتصاب سه دموکرات) و صراحتاً نسبت به صنعت این فناوری بدبین هستند، موضع رئیس جمهور "بایدن" نیز همین است. در همان هفته اتخاذ تصمیم دیوان عالی کشور، اعضای کمیسیون در مجلس سنای ایالات متحده حاضر شدند و به سؤالات کمیته بازرگانی در باره این که آژانس چگونه میتواند کارهای بیشتری برای مصرف کنندگان انجام دهد، پاسخ دادند.
من انتظار ندارم صنعت هوش مصنوعی در واکنش به پست وبلاگی یک شبه تغییر کند. اما اگر همین پست وبلاگ آخرین حرف آژانس در مورد هوش مصنوعی تبعیض آمیز باشد، به همان اندازه متعجب میشوم.
داوطلبان، واقعی یا جعلی بودن پستهای پرطرفدار را طبقه بندی میکنند.
خود کنترلی چگونه می تواند مؤثر واقع شود
تصویر: برای بهبود اطلاع رسانی نادرست پلیس، شرکتهای رسانههای اجتماعی میتوانند اشتیاق خود را برای تعامل مداوم مهار کنند.
دولتها و ناظران در سراسر جهان بارها در مورد قدرت انحصاری شرکتهای “فناوری بزرگ” و نقشی که این شرکتها در انتشار اطلاعات غلط بازی میکنند، ابراز نگرانی کردهاند. در پاسخ، شرکتهای " فناوری بزرگ" سعی کردهاند از طریق خودکنترلی، از مقررات پیشی بگیرند.
طبق تحقیقات سه روش اصلی برای اِعمال خود کنترلی در شبکههای اجتماعی وجود دارد: محرومیت از تعامل و مشارکت، برچسب اطلاع رسانی غلط و تأیید صحت منابع با جمع سپاری.
محرومیت از فعالیت و تعامل
پلتفرمهای رسانههای اجتماعی برای تعامل مداوم ساخته شدهاند و شرکتها الگوریتمهایی را طراحی میکنند که پستهای مورد نظر افراد را برای مشغولیت و مشارکت کاربرانشان انتخاب میکند. مطالعات نشان میدهد که دروغها سریعتر از حقایق در شبکههای اجتماعی منتشر میشوند، اغلب به این دلیل که مردم جذب اخباری میشوند که باعث تحریک احساسات میشود و این باعث میشود که آنها بیشتر چنین اخباری را بخوانند، واکنش نشان دهند و به اشتراک بگذارند. این تأثیر از طریق توصیههای الگوریتمی تقویت میشود. تحقیقات ما نشان میدهد که افراد در YouTube نسبت به ویدیوهایی که موضوعاتی مانند دیابت دارند، بیشتر جذب میشوند تا ویدیوهای که اطلاع رسانی کمتری دارند.جمعیت مردم در زمینه تشخیص اخبار جعلی و واقعی اغلب کارشان را به خوبی انجام میدهند. اکثر پلتفرمهای “فناوری بزرگ” بدون سیستمهای ناظر یا فیلترهایی که بر منابع سنتی اخبار و اطلاعات حاکم هستند فعالیت میکنند. انبوه دادههای جمعیت شناختی ریز و دقیق آنها به این پلتفرمها امکان «هدف گذاری خُرد» برای تنها تعداد کمی از کاربران را میدهد. این امر همراه با تقویت الگوریتمی محتوای طراحی شده برای افزایش تعامل میتواند پیامدهای منفی زیادی برای جامعه به همراه داشته باشد، از جمله سرکوب رأی دهندگان دیجیتال، هدف قرار دادن اقلیتها برای اطلاع رسانی نادرست و هدف قرار دادن تبلیغات تبعیض آمیز.
محروم کردن از تعامل و مشارکت در توصیههای محتوا باید از اثر «سوراخ خرگوش» رسانههای اجتماعی - به این معنی که کاربران، پست بعد از پست و فیلم بعد از فیلم را نگاه میکنند – بکاهد. طراحی الگوریتمی پلتفرمهای “فناوری بزرگ” محتوای جدید و ریز هدف را در اولویت قرار میدهد که گسترش تقریباً کنترل نشده اطلاعات غلط را تقویت میکند. اخیراً "تیم کوک" مدیر عامل شرکت "اپل"، این مسئله را به طور خلاصه بیان کرده است: "در لحظه انتشار اطلاعات دروغ و نظریههای غلط و و فتنه انگیز که توسط الگوریتمها تهیه شده است، دیگر نمیتوانیم چشم خود را بر روی این تئوری فناوری ببندیم که میگوید هر نوع تعاملی خوب است، هر چه طولانیتر، بهتر - و فقط با هدف جمع آوری دادههای تا جایی که ممکن است پیش برویم".
برچسب اطلاعات نادرست
شرکتهای فناوری میتوانند برای تعیین صحت و سقم یک خبر، سیستم برچسب گذاری محتوا را راه بیندازند. در طول انتخابات، توییتر سیاست تمامیت مدنی را اعلام کرد که بر اساس آن توئیتهایی با برچسب جنجال برانگیز یا گمراه کننده، توسط الگوریتمهای آنها توصیه نمیشود. تحقیقات نشان میدهد که برچسب زدن، مؤثر واقع میشود. مطالعات نشان میدهد که استفاده از برچسب برای پستهای رسانههای تحت کنترل دولت، مانند کانال رسانهای روسیه (RT)، میتواند اثرات اطلاعات غلط را کاهش دهد.در یک آزمایش، محققان کارگران موقت ناشناسی را استخدام کردند تا پستهای قابل اعتماد را برچسب گذاری کنند. پستها متعاقباً در فیس بوک با برچسبهایی که توسط کارگران منابع مردمی یادداشت نویسی شده بودند، نمایش داده شدند. در این آزمایش، جمعیت کارگران از کل طیف سیاسی توانستند بین منابع جریان اصلی و منابع خبری فراجناحی یا جعلی تفاوت قائل شوند. این امر نشان میدهد که جمعیت مردم در زمینه تشخیص اخبار جعلی و واقعی اغلب کارشان را به خوبی انجام میدهند.
شرکتهای فناوری میتوانند برای تعیین صحت و سقم یک خبر، سیستم برچسب گذاری محتوا را راه بیندازند. آزمایشات همچنین نشان میدهد افرادی که تا حدودی با منابع خبری سر و کار دارند، معمولاً میتوانند بین اخبار واقعی و جعلی تفاوت قائل شوند. آزمایشهای دیگر نشان داد که ارائه یادآوری در مورد صحت یک پست، احتمال اشتراک آن را بین کاربران بیش از پستهای نادرست افزایش میدهد.
ما در حوزه کاری خودمان، مطالعه کردهایم که چگونه میتوان از ترکیب حاشیه نویسان انسانی، یا مجریان تعدیل محتوا و الگوریتمهای هوش مصنوعی - که به آن هوش انسان محور میگویند - برای طبقه بندی ویدیوهای مرتبط با مراقبتهای بهداشتی در YouTube استفاده کرد. اگر چه تماشای تک تک ویدیوهای YouTube در مورد دیابت توسط متخصصان پزشکی امکان پذیر نیست، اما میتوان یک روش طبقه بندی انسانی را در نظر گرفت. به عنوان مثال، من و همکارانم از متخصصان هر موضوع استفاده کردیم تا به الگوریتمهای هوش مصنوعی فیدبک بدهیم، این کار منجر به ارزیابی بهتر محتوای پستها و ویدیوها میشود.
شرکتهای فناوری قبلاً از چنین رویکردهایی استفاده کردهاند. فیس بوک برای کنترل اطلاعات غلط مربوط به "کووید -19" از ترکیبی از واقعیت سنجها و الگوریتمهای تشخیص شباهت استفاده میکند. این الگوریتمها موارد کپی را شناسایی میکنند و کپیهای پستهای گمراه کننده را میبندند.
اجرای قانون جامعه محور
توییتر اخیراً اعلام کرده است که برای مقابله با اطلاعات نادرست، یک اتاق گفتگو تحت عنوان "بِرد واچ" تشکیل میدهد. هر چند توییتر جزئیات مربوط به نحوه اجرای آن را ارائه نداده است، اما مکانیسم تأیید مبتنی بر جمعیت با اضافه کردن رأی موافق یا رأی مخالف به پستهای پرطرفدار و استفاده از الگوریتمهای انتقال مداوم اطلاعات و اخبار برای پایین آوردن سطح محتوای منابع غیر معتبر میتواند به کاهش اطلاعات غلط کمک کند.اکثر پلتفرمهای “فناوری بزرگ” بدون سیستمهای ناظر یا فیلترهایی که بر منابع سنتی اخبار و اطلاعات حاکم هستند فعالیت میکنند.ایده اصلی، مشابه سیستم مشارکت در محتوای ویکی پدیا است، از این نظر که داوطلبان، واقعی یا جعلی بودن پستهای پرطرفدار را طبقه بندی میکنند. این چالش مانع رأی دهی مردم به مطالب جالب و جذاب اما تأیید نشده میشود، به ویژه هنگامی که تلاشهای عمدی برای دستکاری در رأی گیری وجود دارد. مردم میتوانند از طریق یک اقدام هماهنگ، سیستمها را اجرا کنند مانند قسمت اخیر پمپاژ سهام "گیم استاپ".
مشکل دیگر این است که چگونه افراد را ترغیب کنیم تا داوطلبانه در یک کار مشترک مانند شناسایی اخبار جعلی با استفاده از منابع گسترده شرکت کنند. با این حال، چنین تلاشهایی متکی به داوطلبانی است که صحت مقالات خبری را یادداشت میکنند، شبیه ویکی پدیا، همچنین نیاز به شرکتهای ثالث برای بررسی واقعیت است که میتوانند برای تشخیص این که کدام اخبار گمراه کننده است، مورد استفاده قرار گیرند.
با این حال، یک مدل به سبک ویکی پدیا به مکانیسمهای قوی حاکمیت جامعه نیاز دارد تا اطمینان حاصل شود که افراد داوطلب هنگام تأیید پستها و بررسی واقعیتها، از دستور العملهای همسو پیروی میکنند. ویکی پدیا اخیراً استانداردهای جامعه خود را به طور خاص برای جلوگیری از گسترش اطلاعات نادرست به روز رسانی کرده است. این که آیا شرکتهای فناوری بزرگ داوطلبانه اجازه میدهند سیاستهای تعدیل محتوای آنها با این شفافیت بررسی شود، موضوع دیگری است.
دروغها سریعتر از حقایق در شبکههای اجتماعی منتشر میشوند.
مسئولیتهای " فناوری بزرگ"
در نهایت، شرکتهای رسانههای اجتماعی میتوانند از ترکیبی از محرومیت زدایی تعامل و مشارکت، مشارکت با سازمانهای خبری و هوش مصنوعی و کشف اطلاعات غلط از طریق منابع عمومی استفاده کنند. بعید به نظر میرسد که این رویکردها به صورت جداگانه کار کنند و لازم است برای همکاری با یک دیگر طراحی شوند.اقدامات هماهنگ شده توسط شبکههای اجتماعی میتواند جامعه را از بازارهای اقتصادی گرفته تا سیاست مختل کند. پلتفرمهای فناوری نقش فوق العاده بزرگی در شکل گیری افکار عمومی دارند، به عبارت دیگر آنها مسئولیت مدیریت مؤثر خود را در برابر مردم دارند.
تقاضاهای تنظیم مقررات “فناوری بزرگ” در سراسر جهان، از جمله در ایالات متحده در حال افزایش است، یک نظرسنجی اخیر "گالوپ" نشان داده است که نگرش منفی نسبت به شرکتهای فناوری و حمایت بیشتر از مقررات دولتی در حال افزایش است. قوانین جدید آلمان در مورد تعدیل محتوا مسئولیت بیشتری برای شرکتهای فناوری در قبال محتوای به اشتراک گذاشته شده در پلتفرمهایشان به وجود میآورد. مجموعهای از مقررات در اروپا با هدف کاهش حمایت از مسئولیت این پلتفرمها و مقررات پیشنهادی در ایالات متحده با هدف باز سازی قوانین اینترنت، نظارت بیشتری را در سیاستهای تعدیل محتوای شرکتهای فناوری به ارمغان میآورد.
نگرانی عمومی نسبت به هوش مصنوعی در حال افزایش است.نوعی از مقررات دولتی احتمالاً در " فناوری بزرگ" ایالات متحده هنوز فرصتی برای اتخاذ خود تنظیمی و مسئولیت پذیری دارد - قبل از این که شرکتها توسط قانون گذاران مجبور به اقدام شوند.
منبع: رایان کالو، University of Washington، آنژانا سوسارلا، Michigan State University
مقالات مرتبط
تازه های مقالات
ارسال نظر
در ارسال نظر شما خطایی رخ داده است
کاربر گرامی، ضمن تشکر از شما نظر شما با موفقیت ثبت گردید. و پس از تائید در فهرست نظرات نمایش داده می شود
نام :
ایمیل :
نظرات کاربران
{{Fullname}} {{Creationdate}}
{{Body}}