آیا تاکنون از دستیارGoogle ، Apple's Siri یا Amazon Alexa برای تصمیم گیری هایتان در مورد خودتان استفاده کرده اید؟ شاید شما از آن ها سؤال کرده باشید که در مورد چه فیلم های جدیدی نظر خوبی دارند یا این که از آن ها خواسته باشید که یک رستوران جالب در همسایگی تان را به شما توصیه کنند.
هوش مصنوعی و دستیارهای مجازی مرتباً در حال تصفیه هستند و ممکن است به زودی برای شما قرار ملاقات بگذارند، به شما مشاوره پزشکی بدهند یا بخواهند نوشابه ای را به شما بفروشند.
اگر چه فناوری هوش مصنوعی برای توسعه مهارت هایی اجتماعی که هم تراز با مهارت های ما باشد مسافت زیادی را برای پیمودن لازم دارد، اما برخی از هوش های مصنوعی درک درستی از زبان را نشان داده اند و توانسته اند کارهای تعاملی نسبتاً پیچیده ای را به پایان برسانند.
در چندین نمایش اثباتی در سال 2018 ، هوش مصنوعی Google رزوهایی برای آرایش مو یا گرفتن جا در رستوران صورت داد بدون این که مسئولین پذیرش متوجه شوند که با یک غیر انسان صحبت می کنند. (آیا شما به Google Duplex اجازه رزرو تلفنی برای خودتان را می دهید؟)
به احتمال زیاد توانایی های هوش مصنوعی توسعه یافته توسط غول های فناوریای مانند آمازون و گوگل فقط بیشتر رشد پیدا می کنند و قادر به تأثیر گذاری بر ما در آینده خواهند بود.
اما آیا واقعاً چه چیزی را قانع کننده می یابیم؟
من و همکارم، آدام دوهاچک، متوجه شدیم که پیام های هوش مصنوعی وقتی قانع کننده ترند که این که "چگونه" یک عمل باید انجام شود را برجسته کنند تا این که "چرا" یک عمل باید انجام شود. به عنوان مثال، هنگامی که هوش مصنوعی نحوه استفاده از کرم ضد آفتاب را قبل از بیرون آمدن توضیح می داد، افراد تمایل بیشتری به استفاده از ضد آفتاب پیدا می کردند تا وقتی که توضیح می داد که چرا باید از ضد آفتاب استفاده کنند.ما دریافتیم که مردم به طور کلی باور ندارند که دستگاهی بتواند اهداف و خواسته های انسانی را درک کند. مثلاً AlphaGo ی گوگل را، که الگوریتمی طراحی شده برای اجرای بازی روی تخته Go است، در نظر گیرید. فقط تعداد کمی از افراد می گویند که الگوریتم می تواند درک کند که چرا بازی Go سرگرم کننده است، یا چرا قهرمان شدن در Go معنی دار است. بلکه آنها اعتقاد دارند که این بازی فقط یک الگوریتم از پیش برنامه ریزی شده را دنبال می کند که به او می گوید چگونه می تواند روی صفحه بازی حرکت کند.
تحقیقات ما نشان می دهد که افراد توصیه های AI را در شرایطی که هوش مصنوعی گام های ساده ای در زمینه ساخت بیمه درمانی شخصی، چگونگی اجتناب از یک اتومبیل لیمویی، یا نحوه انتخاب راکت تنیس مناسبتان برای شما ایجاد می کند، ترغیب کننده تر می یابند، تا این که مثلاً چرا از لحاظ حس انسانی انجام هر یک از این موارد مهم است.
عکس: دست روباتی که بازی تخته ای باستانی چینی را که Go نامیده می شود اجرا می کند. مردم تمایل دارند که هوش مصنوعی را فاقد اراده آزاد بدانند و بنابراین فکر می کنند هوش های مصنوعی توانایی توضیح دلیل مهم بودن چیزی را برای انسان ندارند. شاتر استوک
آیا هوش مصنوعی اراده آزاد دارد؟
اکثر ما معتقدیم که انسان ها اراده آزاد دارند. ما از شخصی که به دیگران کمک می کند تعریف می کنیم زیرا فکر می کنیم این کار را آزادانه انجام می دهد و کسانی که به دیگران آسیب می رسانند را مجازات می کنیم. علاوه بر این، اگر فرد از اراده آزاد محروم شد، ما مایلیم مجازات کیفری او را کاهش دهیم، مثلاً وقتی که در چنگال توهم اسکیزوفرنیک گرفتار باشد.اما آیا مردم فکر می کنند هوش مصنوعی اراده آزاد دارد؟ ما یک آزمایش انجام دادیم تا این مطلب را بفهمیم.
افراد تمایل دارند اطلاعات شخصی و تجارب شرم آور خود را، با تمایل بیشتری در مقایسه با یک انسان، برای یک هوش مصنوعی افشا کنند. به شخصی 100 دلار داده می شود و او پیشنهاد می کند که آن را بین خودش و شما تقسیم کند به این صورت که او 80 دلار بگیرد و شما 20 دلار. و وضعیت طوری است که اگر این پیشنهاد را رد کنید، هم شما و هم آن شخص پیشنهاد دهنده چیزی به دست نمی آورید. به نظر می رسد به دست آوردن 20 دلار بهتر از هیچ چیز است، اما تحقیقات قبلی نشان می دهد پیشنهاد 20 دلار رد می شود زیرا ما آن را غیر منصفانه می دانیم. مطمئناً باید 50 دلار بگیریم، درست است؟
اما اگر پیشنهاد دهنده هوش مصنوعی باشد چه؟ در یک پروژه تحقیقاتی که هنوز منتشر نشده است، من و همکارانم دریافتیم که در این حالت میزان رد به طور قابل توجهی کاهش می یابد. به عبارت دیگر، در صورت ارائه پیشنهاد توسط هوش مصنوعی، افراد احتمالاً این پیشنهاد "ناعادلانه" را می پذیرند.
این به این دلیل است که فکر نمی کنیم یک هوش مصنوعی که برای خدمت به انسان ایجاد شده است نیت بد خواهانه ای برای بهره کشی از ما داشته باشد - او فقط یک الگوریتم است، و اراده آزاد ندارد، بنابراین ما نیز ممکن است فقط 20 دلار را بپذیریم.
این واقعیت که مردم می توانند پیشنهادات ناعادلانه AI را بپذیرند من را نگران می کند، زیرا این ممکن است به معنای مورد سوء استفاده قرار گرفتن این پدیده باشد. به عنوان مثال، یک شرکت وام رهنی ممکن است سعی کند نرخ بهره ناعادلانه بالایی را با تنظیم تصمیم به عنوان محاسبه شده توسط یک الگوریتم، بگیرد. یا ممکن است یک شرکت تولیدی با گفتن این که تصمیمی است که توسط رایانه گرفته شده، کارگران را در قبول دستمزدهای ناعادلانه مدیریت کند.
برای محافظت از مصرف کنندگان، باید بفهمیم چه زمانی افراد انسانی در معرض مدیریت با هوش مصنوعی قرار دارند. دولت ها هنگام در نظر گرفتن تنظیم هوش مصنوعی باید این موضوع را در نظر بگیرند.
ما به طور شگفت انگیزی مایل به افشای خودمان به هوش مصنوعی هستیم
در کار دیگری که هنوز منتشر نشده است، من و همکارانم دریافتیم که افراد تمایل دارند اطلاعات شخصی و تجارب شرم آور خود را، با تمایل بیشتری در مقایسه با یک انسان، برای یک هوش مصنوعی افشا کنند.ما به شرکت کنندگان گفتیم تصور کنند برای عفونت ادراری نزد پزشک هستند. ما شرکت کنندگان را تقسیم کردیم، به گونه ای که نیمی از آنها با یک پزشک انسانی و نیمی با یک پزشک هوش مصنوعی صحبت می کردند. ما به آنها گفتیم دکتر برای یافتن بهترین درمان چند سؤال می پرسد و این شما هستید که مسئول هستید هر چه قدر بیشتر، اطلاعات شخصیتان را ارائه دهید.
شرکت کنندگان در مورد سؤالات احتمالی شرم آور در مورد استفاده از آلات تناسلی، کاندوم یا سایر فعالیت های جنسی، اطلاعات شخصی بیشتری را برای پزشک هوش مصنوعی افشا کردند تا برای پزشک انسانی. ما متوجه شدیم که این به این دلیل است که مردم فکر نمی کنند هوش مصنوعی رفتار ما را قضاوت کند، در حالی که انسان ها چنین می کنند. در واقع، ما از شرکت کنندگان پرسیدیم که چقدر نگرانند که مورد قضاوت منفی قرار بگیرند، و متوجه شدیم که قضاوت شدن مکانیسم اصلی تعیین کننده میزان افشا گری آنها است.
آیا مردم فکر می کنند هوش مصنوعی اراده آزاد دارد؟به نظر می رسد هنگام گفتگو با هوش مصنوعی احساس خجالت کمتری می کنیم. این جالب است، زیرا بسیاری از مردم نگرانی های شدیدی در مورد AI و حریم خصوصی دارند و با این وجود ممکن است ما تمایل بیشتری داشته باشیم تا اطلاعات شخصی خود را با AI در میان بگذاریم.
عکس: تلفنی به دستیار Google. همان طور که هوش مصنوعی بیشتر توسعه می یابد، باید بدانیم که چگونه بر تصمیم گیری انسان تأثیر می گذارد. شاتر استوک
اما اگر هوش مصنوعی اراده آزاد داشته باشد چه؟
ما همچنین جنبه کمتر مهم قضیه را هم بررسی کردیم: چه اتفاقی می افتد اگر مردم باور کنند هوش مصنوعی دارای اراده آزاد است؟ ما دریافتیم که دادن ویژگی هایی به AI شبیه ویژگی های انسان یا نام انسانی، می تواند به معنای آن باشد که مردم احتمالاً باور می کنند که AI یک اراده آزاد دارد.این موضوع چندین پیامد دارد:
* در این حال، هوش مصنوعی بهتر می تواند مردم را با سؤالات "چرا" ترغیب کند، زیرا افراد فکر می کنند هوش مصنوعی مانند انسان ممکن است اهداف و انگیزه های انسانی را درک کند.
* پیشنهاد ناعادلانه هوش مصنوعی کمتر پذیرفته می شود زیرا ممکن است هوش مصنوعیِ دارای ظاهری انسانی دارای اهداف خاص خود باشد، که می تواند استثماری باشد.
* افراد شروع به احساس قضاوت در مورد هوش مصنوعی مانند قضاوت در مورد یک انسان می کنند و احساس خجالت می کنند و اطلاعات شخصی کمتری را در نزد آنان افشا می کنند.
* افراد هنگام آسیب رساندن به هوش مصنوعی که دارای ظاهری انسانی است احساس گناه می کنند و بنابراین با حسن رفتار بیشتری نسبت به هوش مصنوعی عمل می کنند.
مردم به طور کلی باور ندارند که دستگاهی بتواند اهداف و خواسته های انسانی را درک کند.در آینده احتمالاً انواع مختلفی از هوش مصنوعی و روبات ها را خواهیم دید. آنها ممکن است آشپزی کنند، غذا سرو کنند، به ما ماشین بفروشند، در بیمارستان به ما توجه کرده و از ما مراقبت کنند، و حتی به عنوان یک شریکِ دوست، روی میز غذایمان بنشینند. درک این که چگونه هوش مصنوعی بر تصمیمات ما تأثیر می گذارد مهم است، بنابراین می توانیم هوش مصنوعی را تنظیم کنیم تا از خود در برابر آسیب های احتمالی محافظت کنیم.
منبع: تائووو کیم، University of Technology Sydney