
چکیده:
رباتها قادرند وظائف بسیاری را به سرانجام برسانند بطوریکه برخی از آنها را به خوبی انسان انجام میدهند و شاید هم بهتر از انسان به آنها رسیدگی میکنند. اما یکی از حوزههایی که در آن دچار کمبود هستند، تصمیم گیری یا انتخاب از میان یک مجموعه گزینه است. دانشمندان و فیلسوفان به منظور کمک به رباتها جهت اتخاذ تصمیمات مناسب و اخلاقی شروع به همکاری با یکدیگر نمودهاند.
تعداد کلمات: 1156 / تخمین زمان مطالعه: 5 دقیقه
رباتها قادرند وظائف بسیاری را به سرانجام برسانند بطوریکه برخی از آنها را به خوبی انسان انجام میدهند و شاید هم بهتر از انسان به آنها رسیدگی میکنند. اما یکی از حوزههایی که در آن دچار کمبود هستند، تصمیم گیری یا انتخاب از میان یک مجموعه گزینه است. دانشمندان و فیلسوفان به منظور کمک به رباتها جهت اتخاذ تصمیمات مناسب و اخلاقی شروع به همکاری با یکدیگر نمودهاند.
تعداد کلمات: 1156 / تخمین زمان مطالعه: 5 دقیقه
.png)
مترجم: رزیتا ملکیزاده
تصور کنید با عجله به سمت مدرسه در حال دویدن هستید تا به موقع خود را به کلاس برسانید که ناگهان متوجه میشوید دوستتان به دردسر افتاده است. او مشغول فرستادن پیام و گوش دادن به موسیقی است و متوجه نیست که مستقیم به سوی چالهای در پیاده رو پیش میرود. آن لحظه چه عکسالعملی از خود نشان میدهید؟
پاسخ بسیار ساده است. به سمت او دویده و سعی میکنید مانع از افتادنش در چاله شوید. چه اهمیتی دارد که کمی هم دیر به کلاس برسید.
چنین تصمیم گیریهایی نیاز به فکر چندانی ندارند. شما تمام مدت در حال گرفتن چنین تصمیمات سادهای هستید. اما آیا رباتها نیز به همین سادگی تصمیم گیری میکنند؟ آیا آنها نیز باید مانع از صدمه دیدن دوستتان شوند؟ آیا میتوانند این کار را انجام دهند؟
پاسخ آن خیر است. رباتها از هوش کافی برخوردار نیستند که حتی تشخیص دهند، فردی در خطر است. شاید این امر در آیندهای نزدیک امکانپذیر باشد. یک ربات هنوز هم بدون پیروی از برخی قوانین، نمیداند که بهترین تصمیم چه خواهد بود.
بنابراین توسعه دهندگان و سازندگان ربات روی به فلسفهای تحت عنوان اخلاقیات آوردهاند. اخلاقیات شاخهای علمی است که در آن تفاوتهای میان درست و غلط مورد مطالعه قرار میگیرند. و از این طریق آنها شروع به ساخت رباتهایی کردهاند که بتوانند تصمیمات اخلاقی اولیه را اتخاذ کنند.
یک ربات آزمایشگاهی تمام سناریو و دستورات از پیش تعیین شده را مدیریت میکند. دیگری میتواند از دستورات فرد در صورت خطرناک بودن سرپیچی کند. ربات سوم میآموزد که چگونه موقعیتهای دشوار را در یک آسایشگاه اداره کند.
این رفتار اخلاقی میتواند بخشی از برنامه ریزی آنها را تشکیل دهد. به طوریکه این کار به آنها اجازه داده با افراد به شیوههایی ایمن و قابل پیش بینی تعامل نمایند. دیر یا زود زمانی فراخواهد رسید که رباتها شروع به درک تفاوت میان درست و غلط کنند.
سه اصل مهم
معروفترین مجموعه قوانین اتخاذ شده برای رباتها از تحقیقات بدست نیامده است بلکه از داستانی تخیلی به نویسندگی ایزاک آسیموف تحت عنوان Runaround گرفته شده است که در آن از دو مرد و یک ربات با نام اسپیدی سخن به میان میآید. آنها جهت انجام مأموریتی به سیاره عطارد سفر کرده و اسپیدی با سه قانون ابتدایی برنامه ریزی شده است که این سه قانون عبارتنداز:
1) یک ربات نمیتواند به کسی صدمه وارد کند یا اجازه دهد فردی صدمه ببیند.
2) یک ربات بایستی از دیگران اطاعت کند البته تا زمانی که قانون اول شکسته نشود.
3) یک ربات باید از خود محافظت نماید البته تا زمانی که دو قانون اول شکسته نشوند.
به نظر میرسد که قوانین وضع شدهی آسیموف قوانین خوبی باشند. اما این داستان نشان میدهد که چنین قوانین سادهای ممکن است کافی نباشند.
نوشتن مجموعه قوانینی که بتوانند در تمامی موقعیتها بکار روند بسیار دشوار است. به همین دلیل بعضی دانشمندان رباتهایی را ساختند که توانایی یادگیری رفتار اخلاقی داشته باشند.
یک ربات نمونههایی از کارهای درستی که توسط انسانها در موقعیتهای مختلف انجام میدهد را تماشا میکند. بر اساس این نمونهها و مشاهدات خود، آنگاه قوانین خاص خود را شکل میدهد. با این وجود، ربات ممکن است رفتارهایی را بیاموزد که سازندگان آن دوست نداشته باشند.
اصول اخلاقی یک ربات باید از توانایی توضیح فعالیتهای صورت گرفته توسط او برخوردار باشداصول اخلاقی یک ربات باید از توانایی توضیح فعالیتهای صورت گرفته توسط او برخوردار باشد. تصور کنیدکه به ربات وظیفهای در خارج از خانه محول میشود و او مجبور به ترک مأموریت و نجات فردی میشود که در خطر است. هنگامی که ربات به خانه باز میگردد لازم است که علت عدم انجام مأموریت خود را توضیح دهد.
آلن وینفیلد مهندس و طراح ربات شاغل در دانشگاه وِست آو اینگلند در بریستون است که سابق بر این معتقد بود، ساختن یک ربات اخلاق گرا غیر ممکن است. اما در چند سال اخیر نظر خود را تغییر داده و عنوان میکند که دانشمندان باید رباتی بسازند که بتواند از قوانین اخلاقی بدون فکر به آنها پیروی کند.
در برخی موارد، تصمیم گیری اخلاقی بخش سادهای از برنامه ریزی یک ربات محسوب میشود. قسمت سخت آن تشخیص خطر یا وجود یک مشکل است.
یادتان میآید در خصوص به خطر افتادن دوستتان در چاله صحبت کردیم؟ تصمیم گیری در خصوص نجات او نیازمند چیزی بیشتر از تنها درک درست از غلط است. به گفته وینفیلد: «شما همچنین دارای توانایی پیشبینی آنچه ممکن است برای آن دوست رخ دهد، هستید». میدانید که دوستتان در همان جهت به راه خود ادامه خواهد داد، همچنین میدانید که افتادن در یک چاله میتواند به او صدمه وارد کند. در نهایت میتوانید پیشبینی کنید که آیا فرصت کافی جهت دویدن به سمت او و متوقف کردنش را دارید یا خیر.
همهی این موارد به نظر واضح و روشن میآید. در واقع رفتاری بسیار شگفت انگیز به حساب میآید. شما آینده را پیشبینی کرده و سپس اقدامات لازم جهت دوری از یک پیشامد بد را به عمل میآورید. افزودن وظائف جدید برای یک ربات کار سادهای نیست. هر اندازه فهرست کنشها و رفتارهای احتمالی ربات طولانیتر شود، اصول اخلاقی نیز پیچیده و پیچیدهتر خواهند شد
وینفیلد و تیمش برنامهای را برای رباتی با نام A-Rbot نوشتند که به وسیله آن میتوانست از قدرت پیشبینی آینده برخوردار باشد. او میتواند سایر رباتها را در اطراف خود تشخیص دهد و پیشبینی کند که در آیندهی نزدیک چه اتفاقی برای آنها و خود قرار است رخ دهد. در نهایت به منظور کمک اقداماتی را انجام دهد که کمترین صدمه به خود و سایرین وارد شود.
محققان این ربات را با همان سناریوی چاله مورد آزمایش قرار دادند. اما مجبور بودند که شرایط را کمی تغییر دهند. بجای استفاده از انسان برای رفتن به سوی چاله از رباتی تحت عنوان H-robot استفاده کردند. به A-Robot دستور داده شد که به سوی هدفی به سوی دیگر اتاق حرکت کند. اما زمانی که متوجه شد H-robot به سوی محل خطر پیش میرود، تغییر جهت داده تا مانع از سقوط او شود.
1) یک ربات نمیتواند به کسی صدمه وارد کند یا اجازه دهد فردی صدمه ببیند.
2) یک ربات بایستی از دیگران اطاعت کند البته تا زمانی که قانون اول شکسته نشود.
3) یک ربات باید از خود محافظت نماید البته تا زمانی که دو قانون اول شکسته نشوند.
به نظر میرسد که قوانین وضع شدهی آسیموف قوانین خوبی باشند. اما این داستان نشان میدهد که چنین قوانین سادهای ممکن است کافی نباشند.
نوشتن مجموعه قوانینی که بتوانند در تمامی موقعیتها بکار روند بسیار دشوار است. به همین دلیل بعضی دانشمندان رباتهایی را ساختند که توانایی یادگیری رفتار اخلاقی داشته باشند.
یک ربات نمونههایی از کارهای درستی که توسط انسانها در موقعیتهای مختلف انجام میدهد را تماشا میکند. بر اساس این نمونهها و مشاهدات خود، آنگاه قوانین خاص خود را شکل میدهد. با این وجود، ربات ممکن است رفتارهایی را بیاموزد که سازندگان آن دوست نداشته باشند.
اصول اخلاقی یک ربات باید از توانایی توضیح فعالیتهای صورت گرفته توسط او برخوردار باشداصول اخلاقی یک ربات باید از توانایی توضیح فعالیتهای صورت گرفته توسط او برخوردار باشد. تصور کنیدکه به ربات وظیفهای در خارج از خانه محول میشود و او مجبور به ترک مأموریت و نجات فردی میشود که در خطر است. هنگامی که ربات به خانه باز میگردد لازم است که علت عدم انجام مأموریت خود را توضیح دهد.
آلن وینفیلد مهندس و طراح ربات شاغل در دانشگاه وِست آو اینگلند در بریستون است که سابق بر این معتقد بود، ساختن یک ربات اخلاق گرا غیر ممکن است. اما در چند سال اخیر نظر خود را تغییر داده و عنوان میکند که دانشمندان باید رباتی بسازند که بتواند از قوانین اخلاقی بدون فکر به آنها پیروی کند.
در برخی موارد، تصمیم گیری اخلاقی بخش سادهای از برنامه ریزی یک ربات محسوب میشود. قسمت سخت آن تشخیص خطر یا وجود یک مشکل است.
یادتان میآید در خصوص به خطر افتادن دوستتان در چاله صحبت کردیم؟ تصمیم گیری در خصوص نجات او نیازمند چیزی بیشتر از تنها درک درست از غلط است. به گفته وینفیلد: «شما همچنین دارای توانایی پیشبینی آنچه ممکن است برای آن دوست رخ دهد، هستید». میدانید که دوستتان در همان جهت به راه خود ادامه خواهد داد، همچنین میدانید که افتادن در یک چاله میتواند به او صدمه وارد کند. در نهایت میتوانید پیشبینی کنید که آیا فرصت کافی جهت دویدن به سمت او و متوقف کردنش را دارید یا خیر.
همهی این موارد به نظر واضح و روشن میآید. در واقع رفتاری بسیار شگفت انگیز به حساب میآید. شما آینده را پیشبینی کرده و سپس اقدامات لازم جهت دوری از یک پیشامد بد را به عمل میآورید. افزودن وظائف جدید برای یک ربات کار سادهای نیست. هر اندازه فهرست کنشها و رفتارهای احتمالی ربات طولانیتر شود، اصول اخلاقی نیز پیچیده و پیچیدهتر خواهند شد
وینفیلد و تیمش برنامهای را برای رباتی با نام A-Rbot نوشتند که به وسیله آن میتوانست از قدرت پیشبینی آینده برخوردار باشد. او میتواند سایر رباتها را در اطراف خود تشخیص دهد و پیشبینی کند که در آیندهی نزدیک چه اتفاقی برای آنها و خود قرار است رخ دهد. در نهایت به منظور کمک اقداماتی را انجام دهد که کمترین صدمه به خود و سایرین وارد شود.
محققان این ربات را با همان سناریوی چاله مورد آزمایش قرار دادند. اما مجبور بودند که شرایط را کمی تغییر دهند. بجای استفاده از انسان برای رفتن به سوی چاله از رباتی تحت عنوان H-robot استفاده کردند. به A-Robot دستور داده شد که به سوی هدفی به سوی دیگر اتاق حرکت کند. اما زمانی که متوجه شد H-robot به سوی محل خطر پیش میرود، تغییر جهت داده تا مانع از سقوط او شود.

جهت رفع چنین مشکلاتی، یکی از همکاران وینفیلد در حال کار برروی A-Robot است که به آن توانایی فریاد زدن یا بالا بردن دست خود را دهد. H-Robot علامت او را خواهد دید و یا متوقف شده یا این جمله را به زبان میآورد که: «چیزی نیست، خودم میدانم چه میکنم». آنگاه A-Robot متوجه میشود که نیازی به مداخله ندارد.
هرچند این ربات مانند انسان نبوده و نمیتواند انتخاب کند یا تصمیم بگیرد که H-Robot را نجات ندهد. او تنها از دستوراتی که در برنامه ریزی او وارد شده است پیروی میکند. او حتی نمیداند که چنین انتخابی وجود دارد.
ربات دیگری ساخته شده است که دارای توانایی پیشبینی آینده است اما هنگامی که خطر را پیشبینی میکند میتواند انتخاب کرده هیچ عکسالعملی نشان ندهد. به گفته ماتیاس شوتز دانشمند علوم کامپیوتر«چنانچه ربات دستوری دریافت کند که منجر به بوجود آمدن موقعیت خطرناکی شود، میتواند از آن دستور سرپیچی نماید.»
در حالت ایدهآل انتظار داریم که رباتهای آینده رفتارهای شایان توجه و ستودنی را از خود نشان دهند. اما این کار به دانشمندان، پژوهشگران، قانونگذاران و همه ما بستگی دارد که این اتفاق رخ دهد.
برگرفته از سایت sciencenewsforstudents