متن ماده ۵۰: الزام شفافیت برای ارائهدهندگان و بهره برداران برخی سامانههای هوش مصنوعی
۱. ارائهدهندگان موظفاند اطمینان حاصل کنند که سامانههای هوش مصنوعی که برای تعامل مستقیم با افراد طبیعی طراحی شدهاند، بهگونهای طراحی و توسعه یافته باشند که افراد مورد نظر آگاه باشند که با یک سامانه هوش مصنوعی در تعامل هستند، مگر آنکه این امر از دیدگاه فرد طبیعی که بهطور معقول مطلع، دقیق و محتاط است، با توجه به شرایط و زمینه استفاده، بدیهی باشد. این الزام شامل سامانههای هوش مصنوعی که توسط قانون برای شناسایی، پیشگیری، تحقیق یا تعقیب جرایم مجاز شناخته شدهاند، نمیشود، مشروط بر آنکه تدابیر مناسبی برای حقوق و آزادیهای اشخاص ثالث فراهم شده باشد، مگر آنکه آن سامانهها برای عموم در دسترس باشند تا جرمی را گزارش کنند.۲. ارائهدهندگان سامانههای هوش مصنوعی، از جمله سامانههای هوش مصنوعی چندمنظوره، که محتوای صوتی، تصویری، ویدئویی یا متنی مصنوعی تولید میکنند، موظفاند اطمینان حاصل کنند که خروجیهای سامانه در قالبی قابل خوانش توسط ماشین مشخص شده و قابل تشخیص بهعنوان محتوای مصنوعی یا دستکاریشده باشند. ارائهدهندگان باید اطمینان دهند که راهحلهای فنی آنان از نظر فنی مؤثر، سازگار، پایدار و قابل اعتماد هستند، با توجه به ویژگیها و محدودیتهای انواع مختلف محتوا، هزینههای اجرا و وضعیت پذیرفتهشده علمی و فنی، همانگونه که در استانداردهای فنی مرتبط منعکس شده است. این الزام شامل سامانههایی که نقش کمکی در ویرایش استاندارد دارند یا دادههای ورودی را بهطور قابل توجهی تغییر نمیدهند، یا سامانههایی که توسط قانون برای شناسایی، پیشگیری، تحقیق یا تعقیب جرایم مجاز هستند، نمیشود.

۳. بهره برداران از سامانههای تشخیص احساسات یا سامانههای دستهبندی بیومتریک موظفاند افراد طبیعی در معرض سامانه را از عملکرد آن آگاه کنند و دادههای شخصی را مطابق مقررات (EU) 2016/679، (EU) 2018/1725 و دستورالعمل (EU) 2016/680 پردازش کنند. این الزام شامل سامانههای هوش مصنوعی که برای تشخیص، پیشگیری یا تحقیق در جرایم توسط قانون مجاز هستند، مشروط بر رعایت تدابیر حفاظتی مناسب برای حقوق و آزادیهای اشخاص ثالث و مطابق با حقوق اتحادیه نمی شوند.
۴. بهره برداران از سامانههای هوش مصنوعی که محتوای تصویری، صوتی یا ویدئویی تولید یا دستکاری میکنند و محتوای «دیپفیک» ایجاد میشود، موظفاند افشا کنند که این محتوا بهطور مصنوعی تولید یا دستکاری شده است. این الزام شامل مواردی نمیشود که استفاده از سامانه بهمنظور شناسایی، پیشگیری، تحقیق یا تعقیب جرم توسط قانون مجاز باشد. اگر محتوا بخشی از آثار هنری، خلاقانه، طنزآمیز، داستانی یا مشابه آن باشد، الزامات شفافیت محدود به اطلاعرسانی مناسب درباره وجود چنین محتوای تولید یا دستکاریشده است، بهگونهای که نمایش یا لذتبردن از اثر مختل نشود.
بهره برداران از سامانههای هوش مصنوعی که محتوای متنی تولید یا دستکاری میکنند و با هدف اطلاعرسانی به عموم در مسائل با اهمیت عمومی منتشر میشوند، موظفاند افشا کنند که این متن بهطور مصنوعی تولید یا دستکاری شده است. این الزام شامل مواردی نمیشود که استفاده از سامانه برای شناسایی، پیشگیری، تحقیق یا تعقیب جرم توسط قانون مجاز باشد یا محتوای تولیدشده توسط هوش مصنوعی تحت بازبینی انسانی یا کنترل سردبیری قرار گرفته باشد و فرد یا نهاد مسئول سردبیری انتشار محتوا باشد.
۵. اطلاعات مذکور در بندهای ۱ تا ۴ باید حداکثر در زمان اولین تعامل یا مواجهه با افراد مورد نظر به صورت واضح و قابل تمایز ارائه شود. این اطلاعات باید با الزامات دسترسیپذیری قابل اعمال مطابقت داشته باشد.
۶. بندهای ۱ تا ۴، الزامات و تعهدات مندرج در فصل سوم را تحت تأثیر قرار نمیدهند و به سایر تعهدات شفافیت پیشبینی شده در حقوق اتحادیه یا ملی برای بهره برداران سامانههای هوش مصنوعی خدشهای وارد نمیکنند.

۷. دفتر هوش مصنوعی، تهیه و تدوین آییننامههای رفتار در سطح اتحادیه را به منظور تسهیل در اجرای مؤثر تعهدات مربوط به تشخیص و برچسبگذاری محتوای تولیدشده یا دستکاریشده مصنوعی، تشویق و تسهیل خواهد نمود. کمیسیون میتواند مطابق با رویه پیشبینی شده در ماده ۵۶، اقدامات اجرایی برای تصویب این آییننامههای رفتار اتخاذ نماید. در صورت تشخیص عدم کفایت آییننامه، کمیسیون میتواند مطابق با رویه بررسی پیشبینی شده در ماده ۹۸، اقدام اجرایی برای تعیین مقررات مشترک جهت اجرای این تعهدات اتخاذ نماید.
تحلیل و تفسیر بند به بند ماده ۵۰: الزام شفافیت برای ارائهدهندگان و بهره برداران برخی سامانههای هوش مصنوعی
بند ۱ — تحلیل و تفسیراین بند شرکتها را ملزم میکند که به افراد اطلاع دهند هنگامی که با یک سامانه هوش مصنوعی در تعامل هستند. معیار تشخیص «بدیهی بودن» از دیدگاه یک فرد معقول و آگاه سنجیده میشود، نه صرفاً برداشت کاربر عادی. این الزام ماهیتی طراحیمحور دارد؛ یعنی سامانه باید از ابتدا بهگونهای ساخته شود که اطلاعرسانی شفاف ممکن باشد. در عین حال، استفادههایی که بر اساس قانون برای کشف، پیشگیری یا تعقیب جرایم مجاز هستند، از این الزام معافند، مگر آنکه سامانه برای گزارش جرم در اختیار عموم قرار گیرد. ماهیت اصلی این بند تضمین آگاهی کاربران و جلوگیری از فریب در تعاملات دیجیتال است.
بند ۲ — تحلیل و تفسیر
در این بند مسئولیت اصلی بر دوش ارائهدهندگان سامانههای تولیدکننده محتوای مصنوعی گذاشته شده است. آنان باید خروجیهای سامانه را بهصورت ماشینی قابل شناسایی کنند تا مشخص باشد محتوا مصنوعی یا دستکاریشده است. این الزام برای جلوگیری از جعل پیشرفته، دیپفیک و محتوای گمراهکننده طراحی شده است. استثناها شامل مواردی است که سامانه صرفاً نقش ابزاری برای ویرایش معمول ایفا میکند یا محتوا را به شکل ماهوی تغییر نمیدهد. استانداردهای فنی آینده نقش مهمی در تعیین سطح مورد انتظار «قابلیت تشخیص» خواهند داشت. استفادههای قانونی مرتبط با حوزه کیفری نیز دوباره از این الزام مستثنا شده است.
بند ۳ — تحلیل و تفسیر
این بند بر بهرهبرداران سامانههای تشخیص احساسات و دستهبندی بیومتریک متمرکز است. آنان باید افراد در معرض سامانه را از عملکرد آن آگاه کنند و هرگونه پردازش داده شخصی را مطابق مقررات سختگیرانه GDPR انجام دهند. در عمل این به معنای محدود شدن گسترده این فناوریها در محیطهای عمومی و تجاری است، زیرا مبنای قانونی لازم برای چنین پردازشی بسیار دشوار بهدست میآید. تنها استثنا برای استفادههای قانونی در حوزه کشف و تحقیق جرایم لحاظ شده است. این بند صریحاً نشان میدهد که اتحادیه اروپا فناوریهای بیومتریک و تشخیص احساسات را بسیار پرریسک تلقی کرده و سطح شفافیت و حفاظت بالایی برای آنها میطلبد.
بند ۴ — تحلیل و تفسیر
این بند عملاً مقابله با دیپفیک و دستکاری رسانهای را هدف قرار میدهد. هرگونه تصویر، صوت یا ویدئو که توسط هوش مصنوعی ایجاد یا دستکاری شده باشد باید بهصراحت افشا شود و کاربران باید بدانند محتوا مصنوعی است. اگر محتوای تولیدشده بخشی از یک اثر هنری، طنز یا خلاقانه باشد، الزام افشا محدود به اطلاعرسانی کلی است تا لذت یا مفهوم اثر دچار اختلال نشود. در مورد محتوای متنی که بهمنظور اطلاعرسانی در موضوعات عمومی منتشر میشود، شرکت باید مصنوعی بودن آن را افشا کند؛ مگر آنکه متن تحت نظارت انسانی و با مسئولیت سردبیری منتشر شده باشد، در این صورت الزام رفع میگردد. این بند بر تمایز بین اخبار معتبر و محتوای کاملاً خودکار تأکید دارد و در راستای مبارزه با اطلاعات نادرست طراحی شده است.
بند ۵ — تحلیل و تفسیر
این بند زمان و نحوه اطلاعرسانی را مشخص میکند: اطلاعات باید در نخستین مواجهه یا تعامل به شکلی واضح و قابل تشخیص ارائه شود. همچنین این اطلاعرسانی باید مطابق الزامات دسترسیپذیری بوده و برای افراد دارای معلولیت نیز قابل فهم باشد. نتیجه عملی این بند آن است که شرکتها باید طراحی رابط کاربری و روند تعامل را با استانداردهای قانونی اتحادیه هماهنگ کنند تا هیچ کاربری بدون آگاهی اولیه در معرض یک سامانه هوش مصنوعی قرار نگیرد.

بند ۶ — تحلیل و تفسیر
در این بند تأکید میشود که الزامات ماده ۵۰ نه جایگزین و نه ناقض تعهدات دیگر شفافیت در مقررات اتحادیه اروپا است. به بیان دیگر، رعایت ماده ۵۰، شرکت را از سایر مسئولیتهای قانونی معاف نمیکند. این بند برای جلوگیری از سوءاستفاده شرکتها در کاهش سطح شفافیت طراحی شده و تضمین میکند که تمامی الزامات شفافیت در مقررات مختلف همچنان پابرجا بماند.
بند ۷ — تحلیل و تفسیر
آخرین بند نقش دفتر هوش مصنوعی اتحادیه اروپا را در تسهیل تدوین «کدهای رفتار» در سطح اتحادیه بیان میکند؛ کدهایی که صنعت میتواند برای خودتنظیمی و پیادهسازی مؤثر الزامات شناسایی محتوا تدوین کند. کمیسیون اروپا اختیار دارد این کدها را تصویب کند یا اگر آنها را ناکافی بداند، مقررات مشترک و الزامآور وضع کند. این بند نشان میدهد که اتحادیه اروپا رویکردی ترکیبی از خودتنظیمی صنعت و تنظیمگری رسمی اتخاذ کرده است تا استانداردهای عملی بهمرور توسعه یابد.
منبع: ترجمه شده توسط بخش فناوری های نوین سایت راسخون