سیستمهای تشخیص چهره در دست نیروهای اجرای قانون
علیرغم درخواست برای توقف موقت، فدرال رزرو در حال افزایش استفاده از سیستم های تشخیص چهره است. همچنین می بینیم که چگونه نیروهای اجرای قانون از فناوری برای ردیابی افرادی که به ساختمان کنگره آمریکا حمله کردند استفاده می گنند.
با وجود مخالفت های فزاینده، دولت ایالات متحده در حال افزایش استفاده از فناوری بحث برانگیز تشخیص چهره است.
دفتر پاسخگویی دولت (Government Accountability Office) ایالات متحده گزارشی در 24 آگوست 2021 منتشر کرد که در آن جزئیات استفاده فعلی و برنامه ریزی شده از فناوری تشخیص چهره توسط سازمان های فدرال ارائه شده است. GAO بیست و چهار دپارتمان و آژانس - از وزارت دفاع گرفته تا اداره مشاغل کوچک - را مورد بررسی قرار داد و دریافت که 18 مورد گزارش کردند که از این فناوری استفاده می کنند و 10 مورد طرح هایی را برای توسعه استفاده از آن گزارش کردند.
این گزارش بیش از یک سال پس از آن منتشر می شود که کمیته سیاست فناوری انجمن ماشین های محاسباتی ایالات متحده، بزرگ ترین انجمن محاسبات آموزشی و علمی جهان، خواستار توقف فوری تقریباً همه استفاده های دولت از فناوری تشخیص چهره شد.
سیستم های تشخیص چهره با تطبیق چهره در فیلم یا عکس با چهره در پایگاه داده که با نام شخص و سایر اطلاعات شناسایی مرتبط است، کار می کنند. کمیته سیاست فناوری ایالات متحده یکی از گروه ها و چهره های برجسته ی متعدد، از جملهACLU ، انجمن کتابخانه های آمریکا، و گزارشگر ویژه سازمان ملل متحد در زمینه آزادی نظر و بیان است که خواستار محدودیت استفاده از این فناوری شده اند. موضوع مشترک این مخالفت ها عدم وجود استانداردها و مقررات مربوط به فناوری تشخیص چهره است.
یک سال پیش، آمازون، آی بی ام و مایکروسافت نیز اعلام کردند که فروش فناوری تشخیص چهره به ادارات پلیس را در انتظار قانون فدرال این فناوری متوقف می کنند. کنگره در حال بررسی قانون توقف موقت استفاده دولت از این فناوری است. برخی از شهرها و ایالت ها، به ویژه مین، محدودیت هایی را وضع کرده اند.
چرا کارشناسان محاسبات می گویند نه
کمیته سیاست های فناوری انجمن ماشین های محاسباتی ایالات متحده، که فراخوان توقف را صادر کرد، شامل متخصصان محاسبات از دانشگاه، صنعت و دولت است که تعدادی از آنها به طور فعال در توسعه یا تجزیه و تحلیل فناوری مشارکت داشته اند. به عنوان رئیس کمیته در زمان صدور بیانیه و به عنوان محقق علوم کامپیوتر، می توانم توضیح دهم که چه چیزی باعث شد تا کمیته ما این ممنوعیت را توصیه کند، و شاید مهم تر این که این کمیته برای لغو فراخوان خود به چه چیزی نیاز دارد.اگر تلفن همراه شما چهره شما را تشخیص نمی دهد و باعث می شود شما مجبور شوید رمز عبور خود را تایپ کنید، یا اگر نرم افزار مرتب سازی عکس که از آن استفاده می کنید یک عضو خانواده را اشتباه تشخیص می دهد، هیچ آسیبی واقعی وارد نمی شود. از سوی دیگر، اگر شما به دلیل ناقص بودن الگوریتم های تشخیص برنامه کاربردی تان، مسئول بازداشت کسی یا ممنوعیت ورود او به یک مرکز شناخته شوید، تأثیر آن می تواند شدید باشد.
بیانیه ای که نوشتیم اصولی را برای استفاده از فناوری های تشخیص چهره در این برنامه های کاربردی ارائه می دهد. اولین و مهم ترین آنها نیاز به درک صحت این سیستم ها است. یکی از مشکلات اصلی این الگوریتم ها این است که آنها برای گروه های مختلف قومی، متفاوت عمل می کنند.
ارزیابی فروشندگان برنامه های تشخیص چهره توسط مؤسسه ملی استاندارد و فناوری ایالات متحده نشان داد که اکثر سیستم های مورد آزمایش تفاوت قابل توجهی در توانایی شان برای مطابقت دو تصویر از یک فرد در مقایسه یک گروه قومی با گروه دیگر نشان می دهند. مطالعه دیگری نشان داد که الگوریتم ها برای مردان با پوست روشن تر در مقایسه با زنان با پوست تیره تر دقیق تر است. محققان همچنین در حال بررسی چگونگی تأثیر ویژگی های دیگر مانند سن، بیماری و معلولیت بر این سیستم ها هستند. این مطالعات همچنین وجود نابرابری ها را نشان می دهد.
تعدادی از ویژگی های دیگر بر عملکرد این الگوریتم ها تأثیر می گذارد. تفاوت بین ظاهر تان در یک عکس خانوادگی زیبا که در رسانه های اجتماعی به اشتراک گذاشته اید را در مقایسه با تصویری که توسط یک دوربین امنیتی دانه دانه ای یا یک ماشین پلیس در حال حرکت در یک شب مه آلود از شما گرفته شده، در نظر بگیرید. آیا سیستمی که در زمینه اول آموزش دیده است در زمینه دوم عملکرد خوبی دارد؟ این که چگونه نور، آب و هوا، زاویه دوربین و سایر عوامل بر این الگوریتم ها تأثیر می گذارد هنوز یک سؤال باز است.
در گذشته، سیستم هایی که اثر انگشت یا آثار DNA را مطابقت می دادند، باید به طور رسمی مورد ارزیابی قرار می گرفتند و استانداردها، قبل از استفاده پلیس و دیگران از آنها، تعیین می شد. تا زمانی که الگوریتم های تشخیص چهره نتوانند استانداردهای مشابهی را برآورده کنند - و محققان و تنظیم کننده ها واقعاً درک کنند که زمینه استفاده از این فناوری بر دقت آن چگونه تأثیر می گذارد - این سیستم ها نباید در برنامه هایی استفاده شوند که می توانند پیامدهای جدی برای زندگی مردم داشته باشند.
شفافیت و پاسخگویی
همچنین مهم است که سازمان هایی که از تشخیص چهره استفاده می کنند، نوعی اطلاع رسانی عمومی پیشرفته و مداوم را ارائه دهند. اگر یک سیستم می تواند منجر به از دست رفتن آزادی یا زندگی شما شود، باید بدانید که از این اطلاع رسانی در مورد آن استفاده می شود. در ایالات متحده، این یک اصل برای استفاده از بسیاری از فناوری های بالقوه مضر، از دوربین های سرعت گرفته تا نظارت تصویری، بوده است، و موضع USTPC این است که در مورد سیستم های تشخیص چهره باید همان استاندارد رعایت شود.برای به دست آوردن شفافیت، همچنین باید قوانینی وجود داشته باشد که بر گردآوری و استفاده از اطلاعات شخصی که تحت آموزش سیستم های تشخیص چهره است، حاکم باشد. شرکت Clearview AI که در حال حاضر نرم افزارهایی دارد که در سازمان های پلیس در سراسر جهان مورد استفاده قرار می گیرد، نمونه ای از این مورد است. این شرکت داده های خود - عکس چهره افراد - را بدون اطلاع قبلی جمع آوری می کرد.
Clearview AI داده ها را از برنامه های کاربردی، فروشندگان و سیستم های مختلف جمع آوری می کرد و از قوانین ضعیفی که چنین مجموعه هایی را کنترل می کند استفاده می کرد. بچه هایی که ویدیوهای خود را در TikTok ارسال می کنند، کاربرانی که دوستان خود را در عکس ها در فیس بوک برچسب گذاری می کنند، مشتریانی که با Venmo خرید می کنند، افرادی که ویدئوها را در YouTube بارگذاری می کنند و بسیاری دیگر همه تصاویری را ایجاد می کنند که می تواند با نام آنها پیوند داده شود و توسط شرکت هایی مانند Clearview AIاز این برنامه ها برداشته شود.
آیا شما در مجموعه داده ای هستید که Clearview از آن استفاده می کند؟ راهی ندارید که این را بدانید. موضع ACM این است که شما باید حق دانستن داشته باشید و دولت ها باید نحوه جمع آوری، ذخیره و استفاده از این داده ها را محدود کنند.
در سال 2017، انجمن ماشین های محاسباتی کمیته سیاست فناوری ایالات متحده و همتای اروپایی آن بیانیه مشترکی در مورد الگوریتم های تصمیم گیری خودکار در مورد افراد که می توانند منجر به تبعیض مضر شوند منتشر کردند. به طور خلاصه، ما از سیاست گذاران خواسته ایم تا مؤسساتی را که از تجزیه و تحلیل استفاده می کنند با استانداردهای یکسانی مشابه با استانداردهای مؤسساتی که بشر به طور سنتی در آنها تصمیم گیری می کند، اعم از مؤسسات مربوط به اجرای ترافیک یا تعقیب کیفری، برپا دارند.
این شامل درک مبادلات بین خطرات و مزایای فناوری های محاسباتی قدرتمند در هنگام استفاده از آنها و داشتن اصول روشن در مورد مسئولیت افراد در هنگام وقوع آسیب است. فناوری های تشخیص چهره در این دسته قرار می گیرند و درک چگونگی اندازه گیری خطرات و مزایای آنها و این که چه کسی مسئول شکست آنها است مهم است.
حفاظت از مردم
یکی از نقش های اصلی دولت ها مدیریت خطرات فناوری و حفاظت از جمعیت آنها است. اصولی که USTPC انجمن ماشین های محاسباتی بیان کرده است در تنظیم سیستم های حمل و نقل، محصولات پزشکی و دارویی، شیوه های ایمنی مواد غذایی و بسیاری از جنبه های دیگر جامعه مورد استفاده قرار گرفته است. USTPC انجمن ماشین های محاسباتی به طور خلاصه از دولت ها می خواهد که سیستم های تشخیص چهره ای را که از طریق خطاها و سوگیری ها می توانند به افراد زیادی آسیب جدی برسانند، شناسایی کنند.این سیستم ها هنوز در مراحل اولیه بلوغ خود هستند و چیزهای زیادی وجود دارد که محققان، دولت و صنعت در مورد آنها نمی دانند. تا زمانی که فناوری های تشخیص چهره بهتر درک نشوند، استفاده از آنها در برنامه های کاربردی بعدی باید متوقف شود تا زمانی که بتوان آنها را به درستی تنظیم کرد.
تا زمانی که فناوری های تشخیص چهره بهتر درک نشوند، استفاده از آنها در برنامه های کاربردی بعدی باید متوقف شود تا زمانی که بتوان آنها را به درستی تنظیم کرد.
ردیابی چهره ای مهاجمین
تصویر: بسیاری از افرادی که در 6 ژانویه به ساختمان کنگره آمریکا نفوذ کردند تلفن های همراهی داشتند که قابل ردیابی است و عکس هایی از فعالیت های خود را در رسانه های اجتماعی منتشر کردند. عکس توسط Saul Loeb/AFP از طریق گتی ایماژ
پس از هجوم آشوبگران به ساختمان کنگره ایالات متحده در 6 ژانویه، بلافاصله درخواست شد تا کسانی که مأموران حاضر در صحنه را تحت کنترل خود درآورده و در طبقه مجلس نمایندگان و سنا و دفاتر شخصی اعضای کنگره تجمع کرده اند، شناسایی، دستگیر و تحت پیگرد قانونی قرار گیرند. واکنش هماهنگ نیروی انتظامی به این حادثه بسیار گسترده است.
به عنوان محققانی که به بررسی عدالت کیفری می پردازند، می بینیم که سازمان های اجرای قانون برای بررسی حمله به ساختمان کنگره ایالات متحده از طریق منابع تکنولوژیکی به اطلاعات زیادی دسترسی دارند. دوربین های امنیتی با کیفیت بالا، فناوری تشخیص چهره، خدمات موقعیت مکانی به دست آمده از تلفن های همراه و برنامه های شخص ثالث و دسترسی به شواهد بایگانی شده در رسانه های اجتماعی همه برای شناسایی عاملان جرم و اتصال آنها به مکان ها و زمان های خاص مورد استفاده قرار می گیرد.
در حالی که گروه های نظارتی نگرانی های مشروع خود را در مورد استفاده از فناوری نظارتی دولتی و بخش خصوصی برای شناسایی افرادی که ممکن است در آینده اقدام به خشونت کنند، مطرح کرده اند، نگرانی بسیار کمتری در مورد استفاده از فناوری برای شناسایی، دستگیری و تعقیب افراد وقتی که این جنایات رخ داده است وجود دارد.
آژانس های دولتی به طور فزاینده ای از فناوری تشخیص چهره استفاده می کنند.
فناوری تشخیص چهره
در روزهای پس از تجاوز به کنگره، اطلاعات به طور مستمر با اسامی و / یا تصاویری از مشارکت مشکوک در ناآرامی ها به نیروی انتظامی می رسد. از فناوری تشخیص چهره می توان برای مقایسه تصاویر به دست آمده توسط نیروی انتظامی - به ویژه تصاویری که از شبکه دوربین های امنیتی در داخل و خارج مجموعه کاپیتول گرفته شده است - برای شناسایی مثبت افراد مورد نظر استفاده کرد.سیستم های تشخیص چهره با تطبیق چهره در فیلم یا عکس با چهره در پایگاه داده که با نام شخص و سایر اطلاعات شناسایی مرتبط است، کار می کنند. فراتر از استفاده از سوابق عمومی، نهادهای مجری قانون برای دسترسی به پایگاه داده های بزرگ چهره های شناسایی شده، به شرکت های خصوصی روی آورده اند. شواهد فزاینده ای نشان دهنده حجم زیادی از داده هایی است که برخی شرکت ها از رسانه های اجتماعی و سایر منابع در دسترس عموم و همچنین سیستم های دوربین مدار بسته در فضاهای عمومی در سراسر جهان جمع آوری کرده اند. سازمان های اجرای قانون می توانند خدمات این شرکت ها را به سادگی خریداری کنند.
تصویر: یک دوربین امنیتی بر روی تیر چراغ خیابان نصب شده و گنبد کنگره آمریکا در پس زمینه دیده می شود. دوربین های موجود در فضاهای عمومی امکان نظارت را فراهم می کنند - و به تعداد زیادی از پایگاه داده های تشخیص چهره خصوصی که در اختیار سازمان های اجرای قانون است کمک می کنند. عکس AP/خوزه لوئیس ماگانا
این فناوری برای شناسایی افراد شرکت کننده در برخوردهای خشونت آمیز در فضاهای عمومی به صورت بلادرنگ با استفاده از پایگاه داده شناسه ملی که به زودی تکمیل می شود، وجود دارد. این می تواند منجر به خروج برخی از گروه های افراطی از شبکه شود تا از شناسایی شدن خود پرهیز کنند.
تهیه اطلاعات از شبکه های اجتماعی
بسیاری از شرکت کنندگان در حوادث 6 ژانویه که گزارش فعالیت های خود را در شبکه های اجتماعی ارسال کرده اند، به این وسیله به محققان کمک می کنند. علاوه بر شرکت کنندگان در عملیات عبور از موانع کنگره، بسیاری از تماشاگران وقایع را ثبت کردند. شرکت های رسانه های اجتماعی به نیروی انتظامی در دسترسی به محتوایی که ممکن است برای یافتن و تعقیب افراد خاص مفید باشد ، کمک می کنند.یکی از مشکلات اصلی این الگوریتم ها این است که آنها برای گروه های مختلف قومی، متفاوت عمل می کنند.برخی از اولین سوژه هایی که پس از وقایع 6 ژانویه دستگیر شده بودند، قبلاً توسط سازمان های اجرای قانون در سراسر کشور شناخته شده بودند، و دخالت آنها با انتشار پست های رسانه های اجتماعی تأیید شد.
در رابطه با جوانب مثبت و منفی محدودیت توانایی افراط گرایان برای برقراری ارتباط در بسترهایی مانند توییتر، فیس بوک، اینستاگرام، TikTok وParler ، برخی اختلاف نظرها در جامعه مجری قانون وجود دارد. مزیت محدود کردن دسترسی افراط گرایان، مانع ارتباطات به امید جلوگیری از حملات مشابه است. شواهد جدیدی در دست است که نشان می دهد گروه های افراطی مکالمات رسانه های اجتماعی خود را به سایت های محافظت شده با رمز عبور و به شبکه تاریک منتقل می کنند، جایی که ناشناس بودن افراد محفوظ است. این مهاجرت ممکن است برای گروه های افراطی در جذب و تبلیغات ممانعت ایجاد کند، اما مشخص نیست که آیا این امر بر سازماندهی گروه ها تأثیر می گذارد یا خیر.
جنبه منفی سوق دادن افراط گرایان به بسترهای آنلاینِ کمتر قابل مشاهده این است که جمع آوری اطلاعات مورد نیاز برای رسیدگی به پرونده افرادی که در حوادث جنایی شرکت می کنند را برای مجریان قانون دشوار می کند. و دنبال کردن رد پای مجازی آنها سخت تر می شود.
فناوری، دسترسی به تحقیقاتِ اجرای قانون را گسترش می دهد و همراه با نکات عمومی، گم شدن شرکت کنندگان در اقدامات جمعی را در جمعیت دشوارتر می کند. با این حال، این فناوری ها این سؤال را ایجاد می کنند که آیا می توان و باید در آینده از آنها برای جلوگیری از وقوع این نوع حوادث خشونت آمیز در درجه اول استفاده شود.
منبع: جیمز هندلر، Rensselaer Polytechnic Institute، دان هامر، Penn State، جیمز برن، University of Massachusetts Lowell
مقالات مرتبط
تازه های مقالات
ارسال نظر
در ارسال نظر شما خطایی رخ داده است
کاربر گرامی، ضمن تشکر از شما نظر شما با موفقیت ثبت گردید. و پس از تائید در فهرست نظرات نمایش داده می شود
نام :
ایمیل :
نظرات کاربران
{{Fullname}} {{Creationdate}}
{{Body}}