ماده ۲۰ قانون هوش مصنوعی اروپا مقرر می‌کند که اگر ارائه‌دهندگان سیستم‌های هوش مصنوعی پرخطر تشخیص دهند یا احتمال منطقی بدهند که سیستم‌شان با مقررات سازگار نیست، باید بدون تأخیر اقدامات لازم مانند اصلاح سیستم، توقف عرضه، غیرفعال‌سازی یا فراخوانی را انجام دهند و این موضوع را به توزیع‌کنندگان، استفاده‌کنندگان، نمایندگان و واردکنندگان اطلاع دهند. همچنین اگر سیستم ریسکی ایجاد کند، ارائه‌دهنده موظف است فوراً علت را بررسی کند، در صورت لزوم با استفاده‌کننده همکاری کند و ماهیت مشکل و اقدامات اصلاحی را به مقامات نظارت بازار و نهادهای صدور گواهی گزارش دهد. این ماده برای تضمین شفافیت، ایمنی و واکنش سریع در مواجهه با نقص یا خطر طراحی شده است.

ماده قبلی: 

ماده 20: اقدامات اصلاحی و تکلیف اطلاع‌رسانی

بند 1:
ارائه‌دهندگان سیستم‌های هوش مصنوعی پرخطر که تشخیص دهند یا دلیلی داشته باشند که یک سیستم هوش مصنوعی پرخطری که آن را در بازار عرضه کرده‌اند یا به کار گرفته‌اند با الزامات این مقررات سازگار نیست، باید فوراً اقدامات اصلاحی لازم را انجام دهند تا سیستم را با مقررات منطبق کنند، یا در صورت لزوم آن را از بازار خارج کنند، غیرفعال کنند، یا فراخوانی نمایند. آن‌ها باید توزیع‌کنندگان سیستم هوش مصنوعی مربوطه و در صورت وجود «به‌کارگیرندگان» (استفاده‌کنندگان نهایی سازمانی)، نماینده‌ی مجاز و واردکنندگان را نیز از این موضوع آگاه کنند.

بند 2:
چنانچه سیستم هوش مصنوعی پرخطر مطابق تعریف ماده 79(1) «ریسکی» ایجاد کند و ارائه‌دهنده از این ریسک آگاه شود، باید بلافاصله علت‌های آن را، در صورت لزوم با همکاری استفاده‌کننده‌ای که ریسک را گزارش کرده، بررسی کند. سپس باید مراجع نظارت بر بازار که نسبت به آن سیستم صلاحیت دارند و در صورت وجود، «نهاد اعلام‌شده»‌ای که برای آن سیستم طبق ماده 44 گواهی صادر کرده است را از ماهیت عدم انطباق و هر اقدام اصلاحی انجام‌شده مطلع سازد.

تحلیل و تفسیر ماده 20 — Corrective Actions and Duty of Information

این ماده درباره‌ی مسئولیت‌های ارائه‌دهندگان (Providers) در مواقعی است که یک سیستم هوش مصنوعی پرخطر دچار مشکل، نقص، یا عدم انطباق با مقررات باشد. ماده به‌وضوح فرایند واکنش، اصلاح، اطلاع‌رسانی و همکاری را تعیین می‌کند.

تحلیل بند 1 

بند ۱ ماده ۲۰ یک «تکلیف فعال و فوری» برای ارائه‌دهندگان سیستم‌های هوش مصنوعی پرخطر ایجاد می‌کند. بر اساس این بند، هرگاه ارائه‌دهنده حتی صرفاً احتمال منطقی بدهد که سیستمش با مقررات EU AI Act سازگار نیست، باید بی‌درنگ اقدام اصلاحی انجام دهد. اقدامات اصلاحی نیز سلسله‌مراتبی هستند: ابتدا تلاش برای رفع مشکل و انطباق با قانون، و اگر ممکن نبود، خارج‌کردن سیستم از بازار، غیرفعال‌سازی کامل، یا فراخوانی آن. این بند همچنین تکلیف اطلاع‌رسانی گسترده ایجاد می‌کند؛ یعنی ارائه‌دهنده موظف است همه بازیگران زنجیره—from distributors to deployers and authorised representatives—را در جریان مشکل و اقدامات اصلاحی قرار دهد. بنابراین بند ۱ در واقع دو اصل کلیدی را اجرا می‌کند: مسئولیت پاسخ‌سرعتی (rapid response) و شفافیت اجباری در کل زنجیره عرضه.
 

تحلیل بند 2

بند ۲ تمرکز خود را بر موقعیت‌هایی می‌گذارد که سیستم هوش مصنوعی پرخطر «ریسک» ایجاد می‌کند، طبق تعریف ریسک در ماده ۷۹(۱). در این حالت، ارائه‌دهنده باید فوراً علت بروز ریسک را بررسی کند و اگر استفاده‌کننده (deployer) گزارش‌دهنده بوده، این بررسی باید با همکاری او انجام شود. سپس ارائه‌دهنده موظف است بلافاصله مشکل، ماهیت عدم انطباق، و اقدامات اصلاحی اتخاذشده را به مقامات نظارت بازار و—در صورت وجود—نهاد گواهی‌دهنده (notified body) گزارش کند. این بند بدین معناست که در شرایط پرریسک، ارائه‌دهنده نه‌تنها باید علت را تحلیل و رفع کند، بلکه باید فرایند کامل را به نهادهای نظارتی گزارش دهد تا ریسک به‌صورت نظام‌مند کنترل شود. در واقع بند ۲ سازوکار «نظارت پس از بازار» را تقویت می‌کند و تضمین می‌کند که خطرات به‌صورت پنهان باقی نمانند.


منبع: تهیه شده در واحد فناوری های نوین راسخون