ماده قبلی:
ماده 20: اقدامات اصلاحی و تکلیف اطلاعرسانی
بند 1:ارائهدهندگان سیستمهای هوش مصنوعی پرخطر که تشخیص دهند یا دلیلی داشته باشند که یک سیستم هوش مصنوعی پرخطری که آن را در بازار عرضه کردهاند یا به کار گرفتهاند با الزامات این مقررات سازگار نیست، باید فوراً اقدامات اصلاحی لازم را انجام دهند تا سیستم را با مقررات منطبق کنند، یا در صورت لزوم آن را از بازار خارج کنند، غیرفعال کنند، یا فراخوانی نمایند. آنها باید توزیعکنندگان سیستم هوش مصنوعی مربوطه و در صورت وجود «بهکارگیرندگان» (استفادهکنندگان نهایی سازمانی)، نمایندهی مجاز و واردکنندگان را نیز از این موضوع آگاه کنند.
بند 2:
چنانچه سیستم هوش مصنوعی پرخطر مطابق تعریف ماده 79(1) «ریسکی» ایجاد کند و ارائهدهنده از این ریسک آگاه شود، باید بلافاصله علتهای آن را، در صورت لزوم با همکاری استفادهکنندهای که ریسک را گزارش کرده، بررسی کند. سپس باید مراجع نظارت بر بازار که نسبت به آن سیستم صلاحیت دارند و در صورت وجود، «نهاد اعلامشده»ای که برای آن سیستم طبق ماده 44 گواهی صادر کرده است را از ماهیت عدم انطباق و هر اقدام اصلاحی انجامشده مطلع سازد.
.jpg)
تحلیل و تفسیر ماده 20 — Corrective Actions and Duty of Information
این ماده دربارهی مسئولیتهای ارائهدهندگان (Providers) در مواقعی است که یک سیستم هوش مصنوعی پرخطر دچار مشکل، نقص، یا عدم انطباق با مقررات باشد. ماده بهوضوح فرایند واکنش، اصلاح، اطلاعرسانی و همکاری را تعیین میکند.تحلیل بند 1
بند ۱ ماده ۲۰ یک «تکلیف فعال و فوری» برای ارائهدهندگان سیستمهای هوش مصنوعی پرخطر ایجاد میکند. بر اساس این بند، هرگاه ارائهدهنده حتی صرفاً احتمال منطقی بدهد که سیستمش با مقررات EU AI Act سازگار نیست، باید بیدرنگ اقدام اصلاحی انجام دهد. اقدامات اصلاحی نیز سلسلهمراتبی هستند: ابتدا تلاش برای رفع مشکل و انطباق با قانون، و اگر ممکن نبود، خارجکردن سیستم از بازار، غیرفعالسازی کامل، یا فراخوانی آن. این بند همچنین تکلیف اطلاعرسانی گسترده ایجاد میکند؛ یعنی ارائهدهنده موظف است همه بازیگران زنجیره—from distributors to deployers and authorised representatives—را در جریان مشکل و اقدامات اصلاحی قرار دهد. بنابراین بند ۱ در واقع دو اصل کلیدی را اجرا میکند: مسئولیت پاسخسرعتی (rapid response) و شفافیت اجباری در کل زنجیره عرضه.تحلیل بند 2
بند ۲ تمرکز خود را بر موقعیتهایی میگذارد که سیستم هوش مصنوعی پرخطر «ریسک» ایجاد میکند، طبق تعریف ریسک در ماده ۷۹(۱). در این حالت، ارائهدهنده باید فوراً علت بروز ریسک را بررسی کند و اگر استفادهکننده (deployer) گزارشدهنده بوده، این بررسی باید با همکاری او انجام شود. سپس ارائهدهنده موظف است بلافاصله مشکل، ماهیت عدم انطباق، و اقدامات اصلاحی اتخاذشده را به مقامات نظارت بازار و—در صورت وجود—نهاد گواهیدهنده (notified body) گزارش کند. این بند بدین معناست که در شرایط پرریسک، ارائهدهنده نهتنها باید علت را تحلیل و رفع کند، بلکه باید فرایند کامل را به نهادهای نظارتی گزارش دهد تا ریسک بهصورت نظاممند کنترل شود. در واقع بند ۲ سازوکار «نظارت پس از بازار» را تقویت میکند و تضمین میکند که خطرات بهصورت پنهان باقی نمانند.منبع: تهیه شده در واحد فناوری های نوین راسخون