چرا درک هوش مصنوعی مهم است

درک چگونگی عملکرد و نحوه اتخاذ تصمیم هوش مصنوعی به ویژه در مسائل خیلی مهم و حیاتی و پزشکی ضرورتی اساسی دارد تا احیاناً از بروز خطاهایی غیر قابل جبران پرهیز شود.
جمعه، 9 اسفند 1398
تخمین زمان مطالعه:
موارد بیشتر برای شما
چرا درک هوش مصنوعی مهم است
از آن جا که نقش هوش مصنوعی (AI) در زندگی ما برجسته‌تر می‌شود، ما به طور فزاینده به تصمیم گیری مبتنی بر آن متکی هستیم. درک هوش مصنوعی و استدلال آن برای این که ما بتوانیم به چنین فن آوری بالقوه قدرتمندی اعتماد کنیم، بسیار مهم است. اما، با افزایش کارآیی هوش مصنوعی، پیچیدگی و انتزاع در تصمیماتش خواهی نخواهی ما را از این درک دور می‌کند. به همین دلیل است که بسیاری از نهادهای حاکم ، از جمله اتحادیه اروپا و دولت انگلیس، در صدد توضیح بیشتر در مورد هوش مصنوعی هستند.
 
در این جا، ما به این موضوع می‌پردازیم که چرا درک هوش مصنوعی اهمیت دارد، و خواهیم دید که بررسی مفهوم "جعبه سیاه AI" و چرایی تبیین هوش مصنوعی از اهمیت بالایی برخوردار است.
 

جعبه سیاه AI

عملکرد هوش مصنوعی با توانایی آن در یافتن الگو در مجموعه داده‌های عظیم و حل سریعتر و دقیق‌تر مشکلات فراتر از حد امکانات انسان است.
 
نتیجه گیری حاصل از این الگوها اغلب برای درک ما بسیار پیچیده است. به این، "جعبه سیاه AI" گفته می‌شود. هر چه مشکلات پیچیده‌تری را  هوش مصنوعی حل کند، درک چگونگی حل آنها برای ما دشوارتر خواهد شد. در این جا یک معضل پیش می‌آید: هرچه هوش مصنوعی برای حل مشکلات پیچیده‌تر و جالب‌تر شود، توضیح آن دشوارتر می‌شود.
 

مدل سازی شده از رمز و راز مغز

شبکه‌های عصبی کلید موفقیت فن آوری‌هایی مانند یاد گیری ماشین و یادگیری عمیق است. این همان چیزی است که به هوش مصنوعی امکان می‌دهد "یاد بگیرد". تنها کاری که باید انجام دهید تهیه داده به عنوان مطالب آموزشی است. عملکرد هوش مصنوعی با توانایی آن در یافتن الگو در مجموعه داده‌های عظیم و حل سریعتر و دقیق‌تر مشکلات فراتر از حد امکانات انسان است. با استفاده از نحوه عملکرد مغز انسان، شبکه‌های عصبی با عبور از لایه‌های متعدد، اطلاعات را پردازش می‌کنند. از قوانین ریاضی برای نمره دادن هر ورودی در هر لایه استفاده می‌شود. با عبور از چندین لایه، مجموعه ساختار یافته‌ای از روابط ایجاد می‌شود، تا زمانی که تولید یا پیش بینی‌ای ایجاد کند.
 
کشف این اتصالات بین لایه‌ها دشوار است: همان رمز گشایی "جعبه سیاه" است. جعبه سیاه هوش مصنوعی، پیچیدگی یا عدم وضوح این فرآیند یاد گیری و خروجی چند لایه است.
 
درواقع یاد گیری ماشین یکی از کاربردهای هوش مصنوعی (AI) است که سیستم‌ها را قادر می‌سازد به طور خودکار و از طریق تجربه یاد بگیرند و خود را بهبود دهند. تمرکز این تکنولوژی بر توسعه برنامه‌های کامپیوتری است که به داده‌ها دسترسی دارند و می‌توانند از این داده‌ها استفاده کنند تا خودشان یاد بگیرند.
 

قابلیت توضیح هوش مصنوعی

بنا بر این، قابلیت توضیح هوش مصنوعی عبارت است از مفهوم چگونگی شفاف سازی هوش مصنوعی، و چگونگی "باز کردن جعبه سیاه" ، به گونه‌ای که بتوانیم درک کنیم که چرا یک نتیجه حاصل شده است.
 

اهمیت ایجاد اعتماد کاربر

نتایج بیشتری که شما از هوش مصنوعی استخراج می‌کنید ممکن است این سؤال را ایجاد کند: "چرا این قدر مهم است که بدانیم هوش مصنوعی چگونه تصمیم گرفته است؟ مطمئناً، این نتایج است که مهم هستند. " در این جا چند مثال وجود دارد که نشان می‌دهد دلیل قابل توجهی وجود دارد برای این که چرا قابلیت توضیح هوش مصنوعی این قدر مهم است.
 

تشخیص تصمیمات

هوش مصنوعی به طور فزاینده‌ای با موفقیت در مراقبت‌های بهداشتی و سلامتی مورد استفاده قرار می‌گیرد ، با مدل‌های هوش مصنوعی، دقتی باور نکردنی در پیش بینی تشخیص در مراحل اولیه نسبت به گذشته ممکن شده است. پتانسیل این فن آوری برای تغییر زندگی افراد بسیار زیاد است. اما چه اتفاقی می‌افتد هنگامی که ما نتوانیم توضیح دهیم که چرا تشخیصی صورت گرفته است؟
 
بله، ممکن است فرقی نکند، زیرا که هدف نجات جان افراد است و اگر زندگی نجات یابد روش آن شاید چندان مهم نباشد. اما چه اتفاقی می‌افتد اگر مدل هوش مصنوعی دچار اشتباه شود، و تشخیص آن نادرست باشد. پیامدهای قانونی، پزشکی و بیمه‌ای سناریوهایی مانند این چیست؟ چگونه می‌توان این اشتباه را برای دستگاه‌های حاکم، متخصصان مراقبت‌های بهداشتی و سلامتی و از همه مهمتر بیماران توضیح داد؟ مثال خوب دیگر اتومبیل‌های خودران است. اگر حادثه‌ای رخ دهد و سازنده خودرو نتواند توضیح دهد که چرا خودروی او آن تصمیم را گرفته است، روند کار چگونه پیش می‌رود؟
 

پاسداری از هوش مصنوعی

موقعیت‌هایی از این دست می‌توانند منجر به از دست دادن اعتماد مردم به مدل‌های هوش مصنوعی شوند. درک چگونگی اتخاذ تصمیمات هوش مصنوعی بسیار مهم است، تا بتوانید اعتماد کاربر را تقویت کنید. اگر بخواهید از سناریوهایی مشابه آن چه در بالا ذکر شد اجتناب کنید و مانع این شوید که مدلهای هوش مصنوعی شما نتایج یا تمایل‌های نامطلوب را توسعه دهند، باید قادر باشید درک کنید که چرا هوش مصنوعی یک تصمیمی را اتخاذ کرده است.
 

درک هوش مصنوعی با راه حل‌های انسان - محور

اگر بخواهیم به آنچه با هوش مصنوعی امکان دست یابی به آن را داریم دست یابیم اعتماد و شفافیت ضروری است به جهانی که هوش مصنوعی محرک آن است برای بهبود زندگی انسان. در این جا ما یک راه حل برای مشکل "جعبه سیاه" هوش مصنوعی ارائه داده‌ایم.
 

هوش مصنوعی توضیح داده شده

آن چه طراحی و ارائه می‌شود باید  قابلیت توضیح برای ارائه هرگونه اعتماد به مدلهای "جعبه سیاه" با ارائه توضیحات واضح متناسب با کاربران و با دانش‌های فنی و تجاری مختلف لازم را داشته باشد.
 
راه حل‌ها باید رابط‌ها و تجسم‌های قابل تفسیر را فراهم کند تا درک نتایج هوش مصنوعی را برای کاربران آسان‌تر کند. قابلیت توضیح هوش مصنوعی عبارت است از مفهوم چگونگی شفاف سازی هوش مصنوعی، و چگونگی "باز کردن جعبه سیاه" ، به گونه‌ای که بتوانیم درک کنیم که چرا یک نتیجه حاصل شده است. تجزیه و تحلیل عدالت، که به بررسی، شناسایی و کاهش مدلهای نادرست یا ناعادلانه‌ای می‌پردازد که تعصب را از مجموعه داده‌های ضعیف آموخته‌اند ، به ایجاد اعتماد کاربر کمک می‌کند و از وقوع تعصبات نامطلوب جلوگیری می‌نماید.
 
نکته مهم موفقیت در توضیح قابلیت هوش مصنوعی، ایجاد راه حلهای هوش مصنوعی که در حد امکان انسان – محور باشند است، زیرا تنها هنگامی که راه حلهای هوش مصنوعی به راحتی توسط کسانی که از این فناوری استفاده می‌کنند قابل درک و فهم است، می تواند شروع به حل مشکلات تجاری و ایجاد تغییرات مثبت در زندگی کند.
 
منبع: PHIL DONELSON Elenet AI


مقالات مرتبط
ارسال نظر
با تشکر، نظر شما پس از بررسی و تایید در سایت قرار خواهد گرفت.
متاسفانه در برقراری ارتباط خطایی رخ داده. لطفاً دوباره تلاش کنید.
مقالات مرتبط
موارد بیشتر برای شما
بررسی مرقع و قطاع در خوشنویسی
بررسی مرقع و قطاع در خوشنویسی
خیابانی: آقای بیرانوند! من بخواهم از نام بردن تو معروف بشوم؟ خاک بر سر من!
play_arrow
خیابانی: آقای بیرانوند! من بخواهم از نام بردن تو معروف بشوم؟ خاک بر سر من!
توضیحات وزیر رفاه در خصوص عدم پرداخت یارانه
play_arrow
توضیحات وزیر رفاه در خصوص عدم پرداخت یارانه
حمله پهپادی حزب‌ الله به ساختمانی در نهاریا
play_arrow
حمله پهپادی حزب‌ الله به ساختمانی در نهاریا
مراسم تشییع شهید امنیت وحید اکبریان در گرگان
play_arrow
مراسم تشییع شهید امنیت وحید اکبریان در گرگان
به رگبار بستن اتوبوس توسط اشرار در محور زاهدان به چابهار
play_arrow
به رگبار بستن اتوبوس توسط اشرار در محور زاهدان به چابهار
دبیرکل حزب‌الله: هزینۀ حمله به بیروت هدف قراردادن تل‌آویو است
play_arrow
دبیرکل حزب‌الله: هزینۀ حمله به بیروت هدف قراردادن تل‌آویو است
گروسی: فردو جای خطرناکی نیست
play_arrow
گروسی: فردو جای خطرناکی نیست
گروسی: گفتگوها با ایران بسیار سازنده بود و باید ادامه پیدا کند
play_arrow
گروسی: گفتگوها با ایران بسیار سازنده بود و باید ادامه پیدا کند
گروسی: در پارچین و طالقان سایت‌های هسته‌ای نیست
play_arrow
گروسی: در پارچین و طالقان سایت‌های هسته‌ای نیست
گروسی: ایران توقف افزایش ذخایر ۶۰ درصد را پذیرفته است
play_arrow
گروسی: ایران توقف افزایش ذخایر ۶۰ درصد را پذیرفته است
سورپرایز سردار آزمون برای تولد امیر قلعه‌نویی
play_arrow
سورپرایز سردار آزمون برای تولد امیر قلعه‌نویی
رهبر انقلاب: حوزه‌ علمیه باید در مورد نحوه حکمرانی و پدیده‌های جدید نظر بدهد
play_arrow
رهبر انقلاب: حوزه‌ علمیه باید در مورد نحوه حکمرانی و پدیده‌های جدید نظر بدهد
حملات خمپاره‌ای سرایاالقدس علیه مواضع دشمن در جبالیا
play_arrow
حملات خمپاره‌ای سرایاالقدس علیه مواضع دشمن در جبالیا
کنایه علی لاریجانی به حملات تهدیدآمیز صهیونیست‌ها
play_arrow
کنایه علی لاریجانی به حملات تهدیدآمیز صهیونیست‌ها