گسترش استفاده از الگوریتم ها
الگوریتم ها، خصوصاً مواردی که توسط دولت و سایر ارگان های عمومی در انگلیس مورد استفاده قرار می گیرند، اخیراً مورد توجه بسیاری قرار گرفته اند. الگوریتم جنجالی مورد استفاده برای اعطای نمرات دانش آموزان موجب اعتراض عمومی گسترده ای شد، و این موجب شد که دولت های ملی و محلی و چندین نیروی پلیس در عکس العمل به چالش های قانونی و شکست های عارض بر طراحی ها، دیگر الگوریتم ها و ابزارهای هوش مصنوعی را از سرویس استفاده در طول سال خارج کنند.این موضوع به گونه ای کاملاً به جا باعث شد تا سازمان های بخش دولتی نیاز به اتخاذ رویکرد انتقادی تری نسبت به هوش مصنوعی و تصمیم گیری الگوریتمی را در خود احساس کنند. اما موارد بسیاری وجود دارد که ارگان های دولتی می توانند چنین فناوری ای را در سناریوهای کم خطر و دارای تأثیر زیاد به کار گیرند که این می تواند زندگی را بهبود بخشد، به ویژه اگر در آن مستقیماً از داده های شخصی استفاده نکنند.
الگوریتم ها با پیشرفت فناوری فقط به بخشی مهمتر از زندگی ما تبدیل می شوند. بنابراین قبل از این که به طور جدی به بد بینی در مورد هوش مصنوعی بپردازیم، باید مزایا و نیز خطرات آن را در نظر بگیریم و خواستار یک رویکرد مسئولانه تر برای توسعه و به کارگیری هوش مصنوعی باشیم.
یکی از این موارد، پروژه هوشمند روشنایی خیابان است که توسط شورای شهر گلاسگو آزمایش می شود. این یک الگوریتم برای پردازش داده های حسگر بلادرنگ در مورد سر و صدا، آلودگی هوا و رد پا در اطراف شهر و کنترل روشنایی خیابان ها در واکنش به استفاده مردم از مسیرهای دوچرخه و فضاهای بازی که استفاده می کنند است.
هدف این است که ایمنی را بلافاصله بهبود بخشیم اما همچنین می توان برنامه ریزی بهتری را برای شهر و حفاظت از محیط زیست انجام داد. نکته مهم این است که این پروژه به درستی آزمایش می شود و برای بررسی موشکافانه عمومی، به روی مردم باز است، که این به رفع نگرانی ها و نیازهای مردم کمک می کند.
به همین ترتیب، شورای شهر لیورپول در حال کار با شرکت Red Ninja در پروژه کنترل ترافیک اضطراری Life First است که هدف آن کاهش زمان سفر آمبولانس تا 40٪ است. یک الگوریتم جدید در سیستم موجود سیگنال راهنمایی و رانندگی، برای اولویت بندی وسایل نقلیه اضطراری کار می کند، با هدف کاهش ازدحام خودروهای اورژانس و نجات دقیقه های حساس در زمان های پاسخ گویی آمبولانس.
ساده ترین راه برای مقابله با مشکلات الگوریتم از طریق قانون، محافظت از داده هاست. دولت ها همچنین می توانند از هوش مصنوعی برای بسیاری از مشاغل کم خطر، که هدف آنها پیش بینی رفتار انسان یا تصمیم گیری مستقیم مؤثر بر افراد نیست، استفاده کنند. به عنوان مثال، National Grid از AI و هواپیماهای بدون سرنشین برای بازرسی 7200 مایل از خطوط برق هوایی در انگلیس و ولز استفاده می کند.
این شرکت به این وسیله قادر است فولاد کاری، سایش و خوردگی و نقص رسانا ها را ارزیابی کند. این امر باعث تسریع در بازرسی، و صرفه جویی در وقت و هزینه می شود و به مهندسان انسانی اجازه می دهد تا بر روی تعمیرات و اصلاحات، و تولید انرژی قابل اطمینان تر تمرکز کنند.
تصویر: یک هواپیمای بدون سرنشین در نزدیکی ستون برق معلق است. هوش مصنوعی می تواند اتوماسیون مشاغل سخت را تأمین کند. KOHUKU / Shutterstock
آژانس استانداردهای راننده و خودرو (Driver and Vehicle Standards Agency) (DVSA) از هوش مصنوعی برای بهبود آزمایش MOT با استفاده از هوش مصنوعی برای تجزیه و تحلیل مقدار زیادی از داده های آزمایش برای توسعه نمره های ریسک برای گاراژها و شناسایی مراکز بالقوه کم عملکرد استفاده کرده است. این کار، 50٪ بازدیدهای اجرایی را کاهش داده است.
دولت ها همچنین می توانند از هوش مصنوعی برای بسیاری از مشاغل کم خطر، که هدف آنها پیش بینی رفتار انسان یا تصمیم گیری مستقیم مؤثر بر افراد نیست، استفاده کنند.آژانس صدور مجوز راننده و وسایل نقلیه (Driver and Vehicle Licensing Agency) (DVLA) از یک الگوریتم پردازش زبان طبیعی برای ایجاد یک چت بات (یا روبات پاسخ گو) برای رسیدگی به سؤالات مشتریان استفاده کرد. این الگوریتم در یک پلتفرم واحد خدمات مشتری ادغام شده است تا کارکنان بتوانند کلیه تعاملات مشتری را از طریق تلفن، ایمیل، گفتگوی اینترنتی و رسانه های اجتماعی کنترل کنند.
این نمونه ها، پتانسیل استفاده توأم با موفقیت و مسئولیت پذیری دولت از هوش مصنوعی را نشان می دهد. بنابراین چگونه ارگان های بخش دولتی می توانند از الگوریتم های خود برای مدیریت این امر اطمینان حاصل کنند؟
برای شروع، مجموعه ای از دستور العمل ها وجود دارد که آنها می توانند دنبال کنند، مانند اصول OECD در مورد هوش مصنوعی. این اصول بیان می کند که هوش مصنوعی باید به گونه ای طراحی شود که به حقوق بشر، ارزش های دموکراتیک و تنوع احترام بگذارد و شامل پادمان های مناسب و نظارت بر خطرات باشد. نیاز به شفافیت و افشای مسئولانه وجود دارد به گونه ای که مردم سیستم ها را درک کنند و بتوانند آنها را به چالش بکشند.
اگر شرکت ها بر اساس محدوده درآمد، عنوان شغلی یا وضعیت اجتماعی شما قیمت ها را افزایش دهند یا از ارائه خدماتشان به شما خودداری کنند، نیاز به تنظیم مقررات مربوط به الگوریتم بسیار شدیدتر است.اما دستور العمل ها لزوما کافی نیستند. دولت انگلیس رهنمودهای مربوط به استفاده قابل اعتماد از هوش مصنوعی را منتشر کرده و به گونه ای قابل توجه در بسیاری از نهادهای مشاوره متخصص هوش مصنوعی سرمایه گذاری کرده است. همان طور که اتفاقات اخیر نشان داده است، دولت هنوز هم در توسعه الگوریتم ها اشتباهات زیادی را به موجب شده است.
یکی از دلایل این امر این است که حتی اکنون توافق کمی وجود دارد بر این که فناوری هوش مصنوعی به اندازه کافی خوب نیست که بتواند در موارد با تأثیر بالا و خطرناک مانند اعطای درجه و ویزا مورد استفاده قرار گیرد. گاهی اوقات هوش مصنوعی نباید یک راه حل باشد.
قوانین و سقلمه ها
قوانین جدیدی که استفاده از هوش مصنوعی را تنظیم می کنند می توانند کمک کننده باشند، اما تاکنون تنها تعداد کمی از کشورها در حال تصویب قوانین خاصی در این زمینه هستند. مثال های خوبی در این زمینه وجود دارد، مانند لایحه پاسخگویی هوش مصنوعی ایالات متحده. با این حال، قانون گذاری به کندی پیش می رود، تحت لابی قابل توجهی قرار دارد و نوآوری در فناوری از آن پیشی می گیرد. بنابراین تحریک سریع تر رفتارهای مسئولانه مورد نیاز است.رها کردگی اخیر برخی الگوریتم های دولتی نشان داده است که وقتی مردم از وجود هوش مصنوعی ضعیف توسعه یافته آگاهی داشته باشند، این می تواند رفتار دولت را تغییر داده و تقاضا برای استفاده قابل اعتمادتر از فناوری را ایجاد کند. بنابراین یک راه حل ممکن که توسط شبکه محققان زنان راهبر در هوش مصنوعی (Women Leading in AI) ، که من یک از بنیانگذاران آن هستم، درخواست شده است، Infomark AI است.
هرگونه برنامه، وب سایت یا اسناد مربوط به خدمات، سیستم ها یا تصمیمات دولتی که از هوش مصنوعی استفاده می کنند، از این علامت برای هشدار دادن به مردم در رابطه با آن واقعیت و جلب توجه آنها به اطلاعات مربوط به عملکرد AI و تأثیر بالقوه و خطر آن، استفاده می کنند. این یک استراتژی اولین شهروند (یا citizen-first) است که برای توانمند سازی مردم در درک و به چالش کشیدن الگوریتم یا سیستم هوش مصنوعی که آنها را تحت تأثیر قرار می دهد، طراحی شده است. و این استرانژی امیدوار است که دولت را تحت فشار قرار دهد تا مطمئن شود که در وهله اول امور را درست پیش می برد.
الگوریتم ها معمولاً از نظر تجاری حساس و بسیار سود آور هستند.اگر دولت بتواند مقررات کافی را با این نوع قدرت بخشی، که رویکردی از پایین به بالا برای اطمینان از وجود یک فناوری مسئولیت پذیرتر است، ترکیب کند، می توانیم از مزایای واقعی استفاده بیشتر از الگوریتم ها و هوش مصنوعی بهره مند شویم.
خود محافظتی در مقابل الگوریتم های پنهان
از نظر سیاسی، چند سال قبل یک زمان توأم با عدم اطمینان بود. با این حال، همچنین شاهد افزایش تسلط الگوریتم ها، و محاسبات پیچیده ریاضی بود که از الگوی از پیش تعیین شده پیروی می کنند و به طور فزاینده ای در فناوری طراحی شده برای پیش بینی، کنترل و تغییر رفتار انسان مورد استفاده واقع می شوند.
الگوریتم ها سعی می کنند از گذشته به عنوان شاخصی برای آینده استفاده کنند. به همین ترتیب، آنها بی طرف هستند. آنها تعصب ندارند و بی احساس هستند. اما الگوریتم ها را می توان به گونه ای برنامه ریزی کرد که جانبدارانه باشند یا تعصب غیرعمدی در سیستم رخنه کند. آنها همچنین به شرکت های بزرگ اجازه می دهند تا در مورد نحوه رفتارشان با مصرف کنندگان و کارمندانشان تصمیمات کاملاً پنهانی بگیرند. و آنها به سازمان های دولتی اجازه می دهند تا در مورد نحوه توزیع خدمات و حتی عدالت تصمیم بگیرند.
خطر استفاده غیر منصفانه یا حتی غیر قانونی از الگوریتم ها منجر به تماس های اخیر حزب کارگر انگلیس برای تنظیم مقررات بیشتر نه تنها در بنگاه های فناوری بلکه در مورد خود الگوریتم ها شده است. اما در واقع قوانین دقیق تر در مورد الگوریتم ها چه چیزی را پوشش می دهد؟ آیا حتی می توان چنین حوزه پیچیده ای از فناوری را تنظیم کرد؟
الگوریتم ها توسط دولت ها و به گونه ای مشابه توسط شرکت ها مورد استفاده قرار می گیرند تا آینده را پیش بینی کنند و تصمیم گیری را اطلاع دهند. به عنوان مثال، گوگل از الگوریتم هایی استفاده می کند تا همان طور که در جعبه جستجو تایپ می کنید به طور خودکار آن را پر کند و پس از زدن دکمه بازگشت، وب سایت هایی را که لیست می کند رتبه بندی کند و شما را به وب سایت های خاص دیگری هدایت کند. اتومبیل های خود ران از الگوریتم هایی برای تصمیم گیری در مورد مسیر و سرعت خود و حتی به طور بالقوه تصمیم گیری در شرایط اضطراری که برای نجات بقیه چه کسی را زیر بگیرند استفاده می کنند.
اتومبیل های خود ران از الگوریتم هایی برای تصمیم گیری در مورد مسیر و سرعت خود و حتی به طور بالقوه تصمیم گیری در شرایط اضطراری که برای نجات بقیه چه کسی را زیر بگیرند استفاده می کنند.شرکت های مالی برای ارزیابی این که آیا باید به شما وام، کارت اعتباری یا بیمه بدهند، از الگوریتم هایی برای ارزیابی مشخصات ریسک شما استفاده می کنند. اگر آن قدر خوش شانس باشید که یکی از محصولاتشان به شما پیشنهاد شود، آنها سپس درمورد این که چه مبلغی برای این محصول باید پرداخت کنید و چگونه این پرداخت باید صورت گیرد، بررسی خواهند کرد. کارفرمایان برای انتخاب بهترین کاندیداها برای کار و ارزیابی بهره وری و توانایی کارگران خود همین کار را می کنند.
حتی دولت های سراسر جهان نیز در حال پذیرش بزرگ الگوریتم ها هستند. الگوریتم های پلیسِ پیش بینی کننده این امکان را به پلیس می دهند که منابع محدود خود را بر روی نقاط مهم جرم متمرکز نمایند. مقامات امنیتی مرزی از الگوریتم هایی برای تعیین این که چه کسی باید در لیست پرواز ممنوع باشد استفاده می کنند. قضات می توانند به زودی با استفاده از الگوریتم هایی، خطر جرم مجدد مجرم را تعیین کرده و مناسب ترین حکم را صادر نمایند.
تصویر: رانندگی با الگوریتم. شاتر استوک
با توجه به این تأثیر گسترده الگوریتم بر زندگی ما، جای تعجب نیست که سیاستمداران دوست دارند آنها را تحت کنترل بیشتر قرار دهند. اما الگوریتم ها معمولاً از نظر تجاری حساس و بسیار سود آور هستند. شرکت ها و سازمان های دولتی می خواهند شرایط دقیق نحوه کار الگوریتم های خود را مخفی نگه دارند. آنها ممکن است توسط حقوق مالکیت معنوی مانند حق ثبت اختراع و توافق نامه های محرمانه محافظت شوند. بنابراین دستیابی به توانایی تنظیم الگوریتم های واقعی بسیار دشوار خواهد بود.
این ماهیت پنهان الگوریتم ها ممکن است خود یک منبع تنظیم کننده ثمر بخش باشد. این قانون می تواند اصلاح شود تا همه شرکت ها و سازمان های دولتی را مجبور به تبلیغ گسترده تر این واقعیت کند که تصمیم گیری در سازمان از طریق الگوریتم گرفته شود. اما چنین رویکردی فقط در جهت بهبود شفافیت است. این رویکرد هیچ کاری برای تنظیم روند الگوریتمی واقعی نخواهد داشت. بنابراین تمرکز بر تنظیم باید به ورودی ها و خروجی های الگوریتم تغییر یابد.
الگوریتم ها را می توان به گونه ای برنامه ریزی کرد که جانبدارانه باشند یا تعصب غیرعمدی در سیستم رخنه کند. در انگلستان، قانون فعلی رسیدگی قضایی برای پوشش ورودی داده ها به الگوریتم های ارگان های دولتی کافی است. بررسی قضایی به قضات اجازه می دهد تا قانونی بودن تصمیمات گرفته شده توسط ارگان های عمومی را ارزیابی کنند. بنابراین قضات می توانند تشخیص دهند که داده های وارد شده به الگوریتم صحیح، مرتبط و منطقی هستند. تصمیم نهایی اتخاذ شده توسط ارگان عمومی بر اساس خروجی داده شده توسط الگوریتم نیز قابل بررسی قضایی خواهد بود، با این سؤال که آیا تصمیم نهایی متناسب، قانونی و منطقی است یا نه؟
برای شرکت های خصوصی، این تصویر متفاوت است. نیاز به مقررات با توجه به تأثیرات احتمالی بر روی فرد متفاوت است. الگوریتم هایی که انتخاب می کنند از چه موسیقی، فیلم و نمایش تلویزیونی ممکن است بخواهید لذت ببرید مسلماً به تنظیمی اندک نیاز دارند یا اصلاً به تنظیم نیاز ندارند. اما اگر شرکت ها بر اساس محدوده درآمد، عنوان شغلی یا وضعیت اجتماعی شما قیمت ها را افزایش دهند یا از ارائه خدماتشان به شما خودداری کنند، نیاز به تنظیم مقررات مربوط به الگوریتم بسیار شدیدتر است.
با سیاستمدارانی که به تنظیم کنندگان قدرت می دهند تا الگوریتم های همیشه در حال تغییر را به صورت بلادرنگ و به صورت ریز کنترل کنند، نمی توان کار کرد. در عوض، شرکت ها باید بتوانند از الگوریتم های خود به دلخواه خود استفاده کنند، و این در حالی است که مسئولیت سوء استفاده از آنها پس از رویدادِ سوء استفاده است.
گاهی اوقات هوش مصنوعی نباید یک راه حل باشد.
حفاظت اطلاعات
همه این سناریوها برای عملکرد خود، از داده های شخصی استفاده می کنند، بنابراین در واقع ساده ترین راه برای مقابله با مشکلات الگوریتم از طریق قانون، محافظت از داده هاست. قوانین کنونی انگلیس ایجاب می کند که اگر تصمیم گیری های خودکار تأثیر قابل توجهی بر افراد داشته باشد، آنها بتوانند اعتراض کنند. بنابراین افراد می توانند به طور خاص درخواست بررسی مجدد رد خودکار را بدهند تا یک اپراتور انسانی دو باره کار ارزیابی را اجرا کند. برای شرایطی که شامل قیمت گذاری های فردی است، می توان از قوانین موجود حمایت از حقوق مصرف کننده و قوانین رقابت برای کنترل رفتار شرکت ها در استفاده از الگوریتم ها استفاده کرد.با این حال، عموم مردم به طور کلی از این روش های قانونی برای کنترل فعالیت های شرکت ها بی اطلاع هستند. دانش و آگاهی بیشتر به شهروندان و مصرف کنندگان قدرت می بخشد.
الگوریتم ها با پیشرفت فناوری فقط به بخشی مهمتر از زندگی ما تبدیل می شوند. اگر شفافیت عمومی و آگاهی عمومی نسبت به فراگیر بودن الگوریتم ها را افزایش دهیم، این آینده روشن خواهد بود. شرکت ها و دولت ها چاره ای جز بهبود نرم افزار خود ندارند. حتی فرایندهای تجدید نظر با کاربرد آسان تر تحت قوانین محافظت از داده، حمایت از مصرف کننده و رقابت نیز به شما کمک می کنند.
هوش مصنوعی باید به گونه ای طراحی شود که به حقوق بشر، ارزش های دموکراتیک و تنوع احترام بگذارد و شامل پادمان های مناسب و نظارت بر خطرات باشد.اما یک تنظیم کننده سوپر جدید و کاملاً فراگیر بیش از حد پرهزینه، بدقواره و دارای تأثیر محدود خواهد بود. در دنیای پسا حقیقت، سیاستمداران باید در مورد نوید دادن بیش از حد و تحویل کمتر، احتیاط کنند.
منبع: آلیسون گاردنر، آلان رِید، Keele University، Sheffield Hallam University