هوش مصنوعی از بسیاری جهات وارد زندگی ما میشود - در تلفنهای هوشمند، خانهها، و اتومبیلهای ما. این سیستمها میتوانند به افراد در تعیین قرار ملاقات، رانندگی و حتی تشخیص بیماری کمک کنند. اما از آن جا که سیستمهای هوش مصنوعی همچنان به نقشهای مهم و مشارکتی در زندگی افراد میپردازند، یک سؤال طبیعی این است: آیا میتوانم به آنها اعتماد کنم؟ چگونه بدانم آنها آن چه را که انتظار دارم انجام میدهند؟
هوش مصنوعی قابل توضیح (XAI) شاخهای از تحقیقات هوش مصنوعی است که بررسی میکند چگونه میتوان عوامل مصنوعی را برای کاربران انسانیشان شفافتر و قابل اعتمادتر ساخت. در صورت همکاری با روباتها، اعتماد به نفس ضروری است. هوش مصنوعی قابل توضیح یا XAI در تلاش است تا سیستمهایی از هوش مصنوعی را توسعه دهد که انسانها آنها را قابل اعتماد بدانند – و در عین حال عملکرد خوبی برای انجام وظایف طراحی شده نیز داشته باشند.
در مرکز بینایی، شناخت، یادگیری و خودگردانی درUCLA ، ما و همکارانمان علاقهمند هستیم که دریابیم چه عواملی باعث میشود ماشینها قابل اطمینانتر شوند و الگوریتمهای یادگیری مختلف چگونه میتوانند به خوبی اعتماد ایجاد کنند. آزمایشگاه ما از نوعی بازنمایی دانش – که مدلی جهانی است که در آن از یک هوش مصنوعی برای تفسیر محیط اطرافش و تصمیم گیری استفاده میشود – استفاده میکند که توسط انسان راحتتر قابل درک است. این به طور طبیعی در توضیح و ایجاد شفافیت کمک میکند و از این طریق اعتماد کاربران انسانی را بهبود میبخشد.
در جدیدترین تحقیقاتمان، ما روشهای مختلفی را آزمایش کردیم که یک روبات میتواند اقدامات خود را برای یک ناظر انسانی توضیح دهد. جالب این جاست که آن اَشکال توضیح که بیشترین اعتماد به نفس انسان را جلب میکنند با الگوریتمهای یادگیریای که بهترین عملکرد وظیفهای را ایجاد میکنند مطابقت ندارند. این نشان میدهد که عملکرد و توضیحات ذاتاً به یک دیگر وابسته نیستند - بهینه سازی برای یکی ممکن است به نتیجهای متفاوت برای دیگری منجر شود. این واگرایی، گوشزد کننده لزوم طراحی روباتهایی است که هم عملکرد خوبی داشته باشند و هم توضیحات قابل اعتماد بدهند.
آموزش روباتها
در انجام این مطالعه، گروه ما به دو چیز علاقهمند بودند. چگونه یک روبات به بهترین وجه یاد میگیرد که یک کار خاص را انجام دهد؟ سپس، مردم چگونه به توضیحات روبات در باره عملکردش واکنش نشان میدهند؟ما به یک روبات یاد دادیم که از تظاهرات انسانی یاد بگیرد که چگونه میتواند یک بطری دارویی دارای قفل ایمنی را باز کند. یک فرد از دستکش لمسیای استفاده کرد که حالتها و نیروهای دست انسان را هنگامی که دست، بطری را باز میکرد ضبط میکرد. آن اطلاعات به روبات به دو طریق کمک کرد که آن چه را که انسان انجام داد یاد بگیرد: نمادین و لمسی. ما به یک روبات یاد دادیم که از تظاهرات انسانی یاد بگیرد که چگونه میتواند یک بطری دارویی دارای قفل ایمنی را باز کند. نمادین به بازنماییهای معنی دار از عملکردهای شما اشاره دارد: به عنوان مثال ، کلمه "چنگ زدن". لمسی به احساساتی که با وضعیت و حرکات بدن شما مرتبط است اشاره دارد: به عنوان مثال ، احساس این که انگشتان شما (برای چنگ زدن) به هم نزدیک میشوند.
ابتدا، این روبات یک مدل نمادین را آموخت که توالی مراحل لازم برای انجام کار باز کردن بطری را کد گذاری میکرد. دوم، ربات یک مدل لمسی را آموخت که به روبات اجازه میداد تا خود را در نقش یک تظاهر کننده انسانی "تصور" کند و پیش بینی کند که شخص در هنگام مواجهه با موقعیتها و نیروهای خاص چه اقدامی انجام میداد.
این گونه از کار در آمد که این روبات هنگام ترکیب اجزای نمادین و لمسی توانست به بهترین عملکرد خود برسد. این روبات با استفاده از دانش مراحل مربوط به انجام کار و حس کردن بلادرنگ از چنگ زنی خود، بهتر از استفاده از هر یک از آنها به طور جداگانه، عمل میکرد.
جلب اعتماد انسانی
حال که روبات میداند چه کاری انجام دهد، چگونه میتواند رفتار خود را برای شخص توضیح دهد؟ و چقدر این توضیحات اعتماد انسان را جلب میکند؟برای توضیح اقدامات خود، این روبات میتواند فرایند تصمیم گیری داخلی و همچنین رفتار خود را ترسیم کند. مدل نمادین توصیفات گام به گام از اقدامات روبات را ارائه میدهد، و مدل لمسی حسی را فراهم میآورد از آن چه چنگ زنی روبات احساس میکند.
در آزمایشمان، ما توضیح دیگری را برای انسانها اضافه کردیم: شرحی متنی که پس از اتمام تلاش روبات برای باز کردن بطری دارو، خلاصهای را ارائه میداد. ما میخواستیم ببینیم که آیا توضیحات مختصر به اندازه توضیحات نمادین گام به گام برای به دست آوردن اعتماد انسان مؤثر است یا نه.
از 150 شرکت کننده انسانی که به چهار گروه تقسیم شدند، خواستیم روبات را که سعی در باز کردن بطری دارویی داشت، مشاهده کنند. سپس این روبات توضیحات متفاوتی در مورد کار به هر گروه داد: نمادین، گام به گام، لمسی – موقعیتها و حرکات بازو، خلاصهی متنی، یا نمادین و لمسی با هم. یک گروه مرجع فقط ویدئویی از روبات را که سعی در باز کردن بطری داشت، مشاهده کردند، بدون این که توضیحی اضافی برای آنها فراهم شود.
ما دریافتیم که ارائه توأمان توضیحات نمادین و لمسی بیشترین اعتماد را ایجاد کرده است، در حالی که مؤلفه نمادین بیشترین سهم را داشته است. جالب این جاست که توضیحات در قالب خلاصه متنی اعتمادی بیشتر از تماشای روبات در حال انجام کار ایجاد نکرد، و این نشان میدهد که انسان ترجیح میدهد روباتها توضیحات گام به گام در مورد آنچه انجام میدهند داشته باشند.
تصویر: محققان UCLA یک روبات را بعد از آن تست میکنند که با مشاهده تظاهرات انسانی یاد گرفت چگونه یک بطری دارو را باز کند. UCLA دانشکده مهندسی ساموئلی ، CC BY-ND
طراحی برای هر دو عملکرد و اعتماد
جالبترین نتیجه این تحقیق این است که آن چه باعث میشود روباتها عملکرد خوبی داشته باشند، همان چیزی نیست که باعث میشود افراد آنها را به صورت قابل اعتماد ببینند. برای انجام بهترین کار این روبات به دو بخش نمادین و لمسی احتیاج داشت. اما این توضیح نمادین بود که باعث شد مردم بیشترین اعتماد به روبات را داشته باشند.این واگرایی، اهداف مهمی را برای تحقیقات هوش مصنوعی و تحقیقات روباتیک در آینده برجسته میکند: تمرکز بر روی دنبال کردن هر دوی اجرای وظیفه و توضیح پذیری. تنها تمرکز روی عملکرد کار ممکن است به روباتی منجر نشود که خود را به خوبی توضیح میدهد. آزمایشگاه ما از یک مدل ترکیبی برای فراهم کردن هر دوی عملکرد بالا و توضیحات جلب اعتماد کننده استفاده میکند.
منبع: THE CONVERSATION