قانون هوش مصنوعی اتحادیه اروپا - فصل 3؛ ماده 20: اقدامات اصلاحی و تکلیف اطلاع‌رسانی

ماده ۲۰ ارائه‌دهندگان سیستم‌های پرخطر را موظف می‌کند در صورت مشاهده‌ی هرگونه عدم انطباق یا ریسک، فوراً سیستم را اصلاح، متوقف یا فراخوانی کنند و تمام طرف‌های مرتبط و مقامات را مطلع سازند.
شنبه، 1 آذر 1404
تخمین زمان مطالعه:
موارد بیشتر برای شما
قانون هوش مصنوعی اتحادیه اروپا - فصل 3؛ ماده 20: اقدامات اصلاحی و تکلیف اطلاع‌رسانی
ماده ۲۰ قانون هوش مصنوعی اروپا مقرر می‌کند که اگر ارائه‌دهندگان سیستم‌های هوش مصنوعی پرخطر تشخیص دهند یا احتمال منطقی بدهند که سیستم‌شان با مقررات سازگار نیست، باید بدون تأخیر اقدامات لازم مانند اصلاح سیستم، توقف عرضه، غیرفعال‌سازی یا فراخوانی را انجام دهند و این موضوع را به توزیع‌کنندگان، استفاده‌کنندگان، نمایندگان و واردکنندگان اطلاع دهند. همچنین اگر سیستم ریسکی ایجاد کند، ارائه‌دهنده موظف است فوراً علت را بررسی کند، در صورت لزوم با استفاده‌کننده همکاری کند و ماهیت مشکل و اقدامات اصلاحی را به مقامات نظارت بازار و نهادهای صدور گواهی گزارش دهد. این ماده برای تضمین شفافیت، ایمنی و واکنش سریع در مواجهه با نقص یا خطر طراحی شده است.

ماده قبلی: 
قانون هوش مصنوعی اتحادیه اروپا - فصل 3؛ ماده 19 – ثبت خودکار رویدادها (Logs)

ماده 20: اقدامات اصلاحی و تکلیف اطلاع‌رسانی

بند 1:
ارائه‌دهندگان سیستم‌های هوش مصنوعی پرخطر که تشخیص دهند یا دلیلی داشته باشند که یک سیستم هوش مصنوعی پرخطری که آن را در بازار عرضه کرده‌اند یا به کار گرفته‌اند با الزامات این مقررات سازگار نیست، باید فوراً اقدامات اصلاحی لازم را انجام دهند تا سیستم را با مقررات منطبق کنند، یا در صورت لزوم آن را از بازار خارج کنند، غیرفعال کنند، یا فراخوانی نمایند. آن‌ها باید توزیع‌کنندگان سیستم هوش مصنوعی مربوطه و در صورت وجود «به‌کارگیرندگان» (استفاده‌کنندگان نهایی سازمانی)، نماینده‌ی مجاز و واردکنندگان را نیز از این موضوع آگاه کنند.

بند 2:
چنانچه سیستم هوش مصنوعی پرخطر مطابق تعریف ماده 79(1) «ریسکی» ایجاد کند و ارائه‌دهنده از این ریسک آگاه شود، باید بلافاصله علت‌های آن را، در صورت لزوم با همکاری استفاده‌کننده‌ای که ریسک را گزارش کرده، بررسی کند. سپس باید مراجع نظارت بر بازار که نسبت به آن سیستم صلاحیت دارند و در صورت وجود، «نهاد اعلام‌شده»‌ای که برای آن سیستم طبق ماده 44 گواهی صادر کرده است را از ماهیت عدم انطباق و هر اقدام اصلاحی انجام‌شده مطلع سازد.

قانون هوش مصنوعی اتحادیه اروپا - فصل 3؛ ماده 20: اقدامات اصلاحی و تکلیف اطلاع‌رسانی

تحلیل و تفسیر ماده 20 — Corrective Actions and Duty of Information

این ماده درباره‌ی مسئولیت‌های ارائه‌دهندگان (Providers) در مواقعی است که یک سیستم هوش مصنوعی پرخطر دچار مشکل، نقص، یا عدم انطباق با مقررات باشد. ماده به‌وضوح فرایند واکنش، اصلاح، اطلاع‌رسانی و همکاری را تعیین می‌کند.

تحلیل بند 1 

بند ۱ ماده ۲۰ یک «تکلیف فعال و فوری» برای ارائه‌دهندگان سیستم‌های هوش مصنوعی پرخطر ایجاد می‌کند. بر اساس این بند، هرگاه ارائه‌دهنده حتی صرفاً احتمال منطقی بدهد که سیستمش با مقررات EU AI Act سازگار نیست، باید بی‌درنگ اقدام اصلاحی انجام دهد. اقدامات اصلاحی نیز سلسله‌مراتبی هستند: ابتدا تلاش برای رفع مشکل و انطباق با قانون، و اگر ممکن نبود، خارج‌کردن سیستم از بازار، غیرفعال‌سازی کامل، یا فراخوانی آن. این بند همچنین تکلیف اطلاع‌رسانی گسترده ایجاد می‌کند؛ یعنی ارائه‌دهنده موظف است همه بازیگران زنجیره—from distributors to deployers and authorised representatives—را در جریان مشکل و اقدامات اصلاحی قرار دهد. بنابراین بند ۱ در واقع دو اصل کلیدی را اجرا می‌کند: مسئولیت پاسخ‌سرعتی (rapid response) و شفافیت اجباری در کل زنجیره عرضه.
 

تحلیل بند 2

بند ۲ تمرکز خود را بر موقعیت‌هایی می‌گذارد که سیستم هوش مصنوعی پرخطر «ریسک» ایجاد می‌کند، طبق تعریف ریسک در ماده ۷۹(۱). در این حالت، ارائه‌دهنده باید فوراً علت بروز ریسک را بررسی کند و اگر استفاده‌کننده (deployer) گزارش‌دهنده بوده، این بررسی باید با همکاری او انجام شود. سپس ارائه‌دهنده موظف است بلافاصله مشکل، ماهیت عدم انطباق، و اقدامات اصلاحی اتخاذشده را به مقامات نظارت بازار و—در صورت وجود—نهاد گواهی‌دهنده (notified body) گزارش کند. این بند بدین معناست که در شرایط پرریسک، ارائه‌دهنده نه‌تنها باید علت را تحلیل و رفع کند، بلکه باید فرایند کامل را به نهادهای نظارتی گزارش دهد تا ریسک به‌صورت نظام‌مند کنترل شود. در واقع بند ۲ سازوکار «نظارت پس از بازار» را تقویت می‌کند و تضمین می‌کند که خطرات به‌صورت پنهان باقی نمانند.


منبع: تهیه شده در واحد فناوری های نوین راسخون


ارسال نظر
با تشکر، نظر شما پس از بررسی و تایید در سایت قرار خواهد گرفت.
متاسفانه در برقراری ارتباط خطایی رخ داده. لطفاً دوباره تلاش کنید.
مقالات مرتبط