تصویر: تعامل یک روبات و انسان - Tommy Ton, tontommy.com, CC BY-ND
 
هوش مصنوعی از بسیاری جهات وارد زندگی ما می‌شود - در تلفن‌های هوشمند، خانه‌ها، و اتومبیل‌های ما. این سیستم‌ها می‌توانند به افراد در تعیین قرار ملاقات، رانندگی و حتی تشخیص بیماری کمک کنند. اما از آن جا که سیستم‌های هوش مصنوعی همچنان به نقش‌های مهم و مشارکتی در زندگی افراد می‌پردازند، یک سؤال طبیعی این است: آیا می‌توانم به آنها اعتماد کنم؟ چگونه بدانم آنها آن چه را که انتظار دارم انجام می‌دهند؟
 
هوش مصنوعی قابل توضیح (XAI) شاخه‌ای از تحقیقات هوش مصنوعی است که بررسی می‌کند چگونه می‌توان عوامل مصنوعی را برای کاربران انسانی‌شان شفاف‌تر و قابل اعتمادتر ساخت. در صورت همکاری با روبات‌ها، اعتماد به نفس ضروری است. هوش مصنوعی قابل توضیح یا XAI در تلاش است تا سیستم‌هایی از هوش مصنوعی را توسعه دهد که انسانها آنها را قابل اعتماد بدانند – و در عین حال عملکرد خوبی برای انجام وظایف طراحی شده نیز داشته باشند.
 
در مرکز بینایی، شناخت، یادگیری و خودگردانی درUCLA ، ما و همکارانمان علاقه‌مند هستیم که دریابیم چه عواملی باعث می‌شود ماشین‌ها قابل اطمینان‌تر شوند و الگوریتم‌های یادگیری مختلف چگونه می‌توانند به خوبی اعتماد ایجاد کنند. آزمایشگاه ما از نوعی بازنمایی دانش – که مدلی جهانی است که در آن از یک هوش مصنوعی برای تفسیر محیط اطرافش و تصمیم گیری استفاده می‌شود – استفاده می‌کند که توسط انسان راحت‌تر قابل درک است. این به طور طبیعی در توضیح و ایجاد شفافیت کمک می‌کند و از این طریق اعتماد کاربران انسانی را بهبود می‌بخشد.
 
در جدیدترین تحقیقاتمان، ما روش‌های مختلفی را آزمایش کردیم که یک روبات می‌تواند اقدامات خود را برای یک ناظر انسانی توضیح دهد. جالب این جاست که آن اَشکال توضیح که بیشترین اعتماد به نفس انسان را جلب می‌کنند با الگوریتم‌های یادگیری‌ای که بهترین عملکرد وظیفه‌ای را ایجاد می‌کنند مطابقت ندارند. این نشان می‌دهد که عملکرد و توضیحات ذاتاً به یک دیگر وابسته نیستند - بهینه سازی برای یکی ممکن است به نتیجه‌ای متفاوت برای دیگری منجر شود. این واگرایی، گوشزد کننده لزوم طراحی روبات‌هایی است که هم عملکرد خوبی داشته باشند و هم توضیحات قابل اعتماد بدهند.
 

آموزش روبات‌ها

در انجام این مطالعه، گروه ما به دو چیز علاقه‌مند بودند. چگونه یک روبات به بهترین وجه یاد می‌گیرد که یک کار خاص را انجام دهد؟ سپس، مردم چگونه به توضیحات روبات در باره عملکردش واکنش نشان می‌دهند؟
 
ما به یک روبات یاد دادیم که از تظاهرات انسانی یاد بگیرد که چگونه می‌تواند یک بطری دارویی دارای قفل ایمنی را باز کند. یک فرد از دستکش لمسی‌ای استفاده کرد که حالت‌ها و نیروهای دست انسان را هنگامی که دست، بطری را باز می‌کرد ضبط می‌کرد. آن اطلاعات به روبات به دو طریق کمک کرد که آن چه را که انسان انجام داد یاد بگیرد: نمادین و لمسی. ما به یک روبات یاد دادیم که از تظاهرات انسانی یاد بگیرد که چگونه می‌تواند یک بطری دارویی دارای قفل ایمنی را باز کند. نمادین به بازنمایی‌های معنی دار از عملکردهای شما اشاره دارد: به عنوان مثال ، کلمه "چنگ زدن". لمسی به احساساتی که با وضعیت و حرکات بدن شما مرتبط است اشاره دارد: به عنوان مثال ، احساس این که انگشتان شما (برای چنگ زدن) به هم نزدیک می‌شوند.
 
ابتدا، این روبات یک مدل نمادین را آموخت که توالی مراحل لازم برای انجام کار باز کردن بطری را کد گذاری می‌کرد. دوم، ربات یک مدل لمسی را آموخت که به روبات اجازه می­داد تا خود را در نقش یک تظاهر کننده انسانی "تصور" کند و پیش بینی کند که شخص در هنگام مواجهه با موقعیت­ها و نیروهای خاص چه اقدامی انجام می­داد.
 
این گونه از کار در آمد که این روبات هنگام ترکیب اجزای نمادین و لمسی توانست به بهترین عملکرد خود برسد. این روبات با استفاده از دانش مراحل مربوط به انجام کار و حس کردن بلادرنگ از چنگ زنی خود، بهتر از استفاده از هر یک از آنها به طور جداگانه، عمل می‌کرد.
 

جلب اعتماد انسانی

حال که روبات می‌داند چه کاری انجام دهد، چگونه می‌تواند رفتار خود را برای شخص توضیح دهد؟ و چقدر این توضیحات اعتماد انسان را جلب می‌کند؟
 
برای توضیح اقدامات خود، این روبات می‌تواند فرایند تصمیم گیری داخلی و همچنین رفتار خود را ترسیم کند. مدل نمادین توصیفات گام به گام از اقدامات روبات را ارائه می‌دهد، و مدل لمسی حسی را فراهم می‌آورد از آن چه چنگ زنی روبات احساس می­کند.
 
در آزمایشمان، ما توضیح دیگری را برای انسان­ها اضافه کردیم: شرحی متنی که پس از اتمام تلاش روبات برای باز کردن بطری دارو، خلاصه­ای را ارائه می­داد. ما می­­خواستیم ببینیم که آیا توضیحات مختصر به اندازه توضیحات نمادین گام به گام برای به دست آوردن اعتماد انسان مؤثر است یا نه.
 
از 150 شرکت کننده انسانی که به چهار گروه تقسیم شدند، خواستیم روبات را که سعی در باز کردن بطری دارویی داشت، مشاهده کنند. سپس این روبات توضیحات متفاوتی در مورد کار به هر گروه داد: نمادین، ​​گام به گام، لمسی – موقعیت­ها و حرکات بازو، خلاصه­ی متنی، یا نمادین و لمسی با هم. یک گروه مرجع فقط ویدئویی از روبات را که سعی در باز کردن بطری داشت، مشاهده کردند، بدون این که توضیحی اضافی برای آنها فراهم شود.
 
ما دریافتیم که ارائه توأمان توضیحات نمادین و لمسی بیشترین اعتماد را ایجاد کرده است، در حالی که مؤلفه نمادین بیشترین سهم را داشته است. جالب این جاست که توضیحات در قالب خلاصه متنی اعتمادی بیشتر از تماشای روبات در حال انجام کار ایجاد نکرد، و این نشان می‌دهد که انسان ترجیح می­دهد روبات­ها توضیحات گام به گام در مورد آنچه انجام می­دهند داشته باشند.
 
 
تصویر: محققان UCLA یک روبات را بعد از آن تست می‌کنند که با مشاهده تظاهرات انسانی یاد گرفت چگونه یک بطری دارو را باز کند. UCLA دانشکده مهندسی ساموئلی ، CC BY-ND
 

طراحی برای هر دو عملکرد و اعتماد

جالب­ترین نتیجه این تحقیق این است که آن چه باعث می­شود روبات­ها عملکرد خوبی داشته باشند، همان چیزی نیست که باعث می­شود افراد آنها را به صورت قابل اعتماد ببینند. برای انجام بهترین کار این روبات به دو بخش نمادین و لمسی احتیاج داشت. اما این توضیح نمادین بود که باعث شد مردم بیشترین اعتماد به روبات را داشته باشند.
 
این واگرایی، اهداف مهمی را برای تحقیقات هوش مصنوعی و تحقیقات روباتیک در آینده برجسته می­کند: تمرکز بر روی دنبال کردن هر دوی اجرای وظیفه و توضیح پذیری. تنها تمرکز روی عملکرد کار ممکن است به روباتی منجر نشود که خود را به خوبی توضیح می‌دهد. آزمایشگاه ما از یک مدل ترکیبی برای فراهم کردن هر دوی عملکرد بالا و توضیحات جلب اعتماد کننده استفاده می­کند.
 
منبع: THE CONVERSATION