از آن جا که نقش هوش مصنوعی (AI) در زندگی ما برجسته‌تر می‌شود، ما به طور فزاینده به تصمیم گیری مبتنی بر آن متکی هستیم. درک هوش مصنوعی و استدلال آن برای این که ما بتوانیم به چنین فن آوری بالقوه قدرتمندی اعتماد کنیم، بسیار مهم است. اما، با افزایش کارآیی هوش مصنوعی، پیچیدگی و انتزاع در تصمیماتش خواهی نخواهی ما را از این درک دور می‌کند. به همین دلیل است که بسیاری از نهادهای حاکم ، از جمله اتحادیه اروپا و دولت انگلیس، در صدد توضیح بیشتر در مورد هوش مصنوعی هستند.
 
در این جا، ما به این موضوع می‌پردازیم که چرا درک هوش مصنوعی اهمیت دارد، و خواهیم دید که بررسی مفهوم "جعبه سیاه AI" و چرایی تبیین هوش مصنوعی از اهمیت بالایی برخوردار است.
 

جعبه سیاه AI

عملکرد هوش مصنوعی با توانایی آن در یافتن الگو در مجموعه داده‌های عظیم و حل سریعتر و دقیق‌تر مشکلات فراتر از حد امکانات انسان است.
 
نتیجه گیری حاصل از این الگوها اغلب برای درک ما بسیار پیچیده است. به این، "جعبه سیاه AI" گفته می‌شود. هر چه مشکلات پیچیده‌تری را  هوش مصنوعی حل کند، درک چگونگی حل آنها برای ما دشوارتر خواهد شد. در این جا یک معضل پیش می‌آید: هرچه هوش مصنوعی برای حل مشکلات پیچیده‌تر و جالب‌تر شود، توضیح آن دشوارتر می‌شود.
 

مدل سازی شده از رمز و راز مغز

شبکه‌های عصبی کلید موفقیت فن آوری‌هایی مانند یاد گیری ماشین و یادگیری عمیق است. این همان چیزی است که به هوش مصنوعی امکان می‌دهد "یاد بگیرد". تنها کاری که باید انجام دهید تهیه داده به عنوان مطالب آموزشی است. عملکرد هوش مصنوعی با توانایی آن در یافتن الگو در مجموعه داده‌های عظیم و حل سریعتر و دقیق‌تر مشکلات فراتر از حد امکانات انسان است. با استفاده از نحوه عملکرد مغز انسان، شبکه‌های عصبی با عبور از لایه‌های متعدد، اطلاعات را پردازش می‌کنند. از قوانین ریاضی برای نمره دادن هر ورودی در هر لایه استفاده می‌شود. با عبور از چندین لایه، مجموعه ساختار یافته‌ای از روابط ایجاد می‌شود، تا زمانی که تولید یا پیش بینی‌ای ایجاد کند.
 
کشف این اتصالات بین لایه‌ها دشوار است: همان رمز گشایی "جعبه سیاه" است. جعبه سیاه هوش مصنوعی، پیچیدگی یا عدم وضوح این فرآیند یاد گیری و خروجی چند لایه است.
 
درواقع یاد گیری ماشین یکی از کاربردهای هوش مصنوعی (AI) است که سیستم‌ها را قادر می‌سازد به طور خودکار و از طریق تجربه یاد بگیرند و خود را بهبود دهند. تمرکز این تکنولوژی بر توسعه برنامه‌های کامپیوتری است که به داده‌ها دسترسی دارند و می‌توانند از این داده‌ها استفاده کنند تا خودشان یاد بگیرند.
 

قابلیت توضیح هوش مصنوعی

بنا بر این، قابلیت توضیح هوش مصنوعی عبارت است از مفهوم چگونگی شفاف سازی هوش مصنوعی، و چگونگی "باز کردن جعبه سیاه" ، به گونه‌ای که بتوانیم درک کنیم که چرا یک نتیجه حاصل شده است.
 

اهمیت ایجاد اعتماد کاربر

نتایج بیشتری که شما از هوش مصنوعی استخراج می‌کنید ممکن است این سؤال را ایجاد کند: "چرا این قدر مهم است که بدانیم هوش مصنوعی چگونه تصمیم گرفته است؟ مطمئناً، این نتایج است که مهم هستند. " در این جا چند مثال وجود دارد که نشان می‌دهد دلیل قابل توجهی وجود دارد برای این که چرا قابلیت توضیح هوش مصنوعی این قدر مهم است.
 

تشخیص تصمیمات

هوش مصنوعی به طور فزاینده‌ای با موفقیت در مراقبت‌های بهداشتی و سلامتی مورد استفاده قرار می‌گیرد ، با مدل‌های هوش مصنوعی، دقتی باور نکردنی در پیش بینی تشخیص در مراحل اولیه نسبت به گذشته ممکن شده است. پتانسیل این فن آوری برای تغییر زندگی افراد بسیار زیاد است. اما چه اتفاقی می‌افتد هنگامی که ما نتوانیم توضیح دهیم که چرا تشخیصی صورت گرفته است؟
 
بله، ممکن است فرقی نکند، زیرا که هدف نجات جان افراد است و اگر زندگی نجات یابد روش آن شاید چندان مهم نباشد. اما چه اتفاقی می‌افتد اگر مدل هوش مصنوعی دچار اشتباه شود، و تشخیص آن نادرست باشد. پیامدهای قانونی، پزشکی و بیمه‌ای سناریوهایی مانند این چیست؟ چگونه می‌توان این اشتباه را برای دستگاه‌های حاکم، متخصصان مراقبت‌های بهداشتی و سلامتی و از همه مهمتر بیماران توضیح داد؟ مثال خوب دیگر اتومبیل‌های خودران است. اگر حادثه‌ای رخ دهد و سازنده خودرو نتواند توضیح دهد که چرا خودروی او آن تصمیم را گرفته است، روند کار چگونه پیش می‌رود؟
 

پاسداری از هوش مصنوعی

موقعیت‌هایی از این دست می‌توانند منجر به از دست دادن اعتماد مردم به مدل‌های هوش مصنوعی شوند. درک چگونگی اتخاذ تصمیمات هوش مصنوعی بسیار مهم است، تا بتوانید اعتماد کاربر را تقویت کنید. اگر بخواهید از سناریوهایی مشابه آن چه در بالا ذکر شد اجتناب کنید و مانع این شوید که مدلهای هوش مصنوعی شما نتایج یا تمایل‌های نامطلوب را توسعه دهند، باید قادر باشید درک کنید که چرا هوش مصنوعی یک تصمیمی را اتخاذ کرده است.
 

درک هوش مصنوعی با راه حل‌های انسان - محور

اگر بخواهیم به آنچه با هوش مصنوعی امکان دست یابی به آن را داریم دست یابیم اعتماد و شفافیت ضروری است به جهانی که هوش مصنوعی محرک آن است برای بهبود زندگی انسان. در این جا ما یک راه حل برای مشکل "جعبه سیاه" هوش مصنوعی ارائه داده‌ایم.
 

هوش مصنوعی توضیح داده شده

آن چه طراحی و ارائه می‌شود باید  قابلیت توضیح برای ارائه هرگونه اعتماد به مدلهای "جعبه سیاه" با ارائه توضیحات واضح متناسب با کاربران و با دانش‌های فنی و تجاری مختلف لازم را داشته باشد.
 
راه حل‌ها باید رابط‌ها و تجسم‌های قابل تفسیر را فراهم کند تا درک نتایج هوش مصنوعی را برای کاربران آسان‌تر کند. قابلیت توضیح هوش مصنوعی عبارت است از مفهوم چگونگی شفاف سازی هوش مصنوعی، و چگونگی "باز کردن جعبه سیاه" ، به گونه‌ای که بتوانیم درک کنیم که چرا یک نتیجه حاصل شده است. تجزیه و تحلیل عدالت، که به بررسی، شناسایی و کاهش مدلهای نادرست یا ناعادلانه‌ای می‌پردازد که تعصب را از مجموعه داده‌های ضعیف آموخته‌اند ، به ایجاد اعتماد کاربر کمک می‌کند و از وقوع تعصبات نامطلوب جلوگیری می‌نماید.
 
نکته مهم موفقیت در توضیح قابلیت هوش مصنوعی، ایجاد راه حلهای هوش مصنوعی که در حد امکان انسان – محور باشند است، زیرا تنها هنگامی که راه حلهای هوش مصنوعی به راحتی توسط کسانی که از این فناوری استفاده می‌کنند قابل درک و فهم است، می تواند شروع به حل مشکلات تجاری و ایجاد تغییرات مثبت در زندگی کند.
 
منبع: PHIL DONELSON Elenet AI