آموزش تشخیص درست از غلط به رباتها

رباتها قادرند وظائف بسیاری را به سرانجام برسانند بطوریکه برخی از آنها را به خوبی انسان انجام می‌دهند و شاید هم بهتر از انسان ‏به آنها رسیدگی می‌کنند.
سه‌شنبه، 7 اسفند 1397
تخمین زمان مطالعه:
پدیدآورنده: رزیتا ملکی زاده
موارد بیشتر برای شما
آموزش تشخیص درست از غلط به رباتها
چکیده:
رباتها قادرند وظائف بسیاری را به سرانجام برسانند بطوریکه برخی از آنها را به خوبی انسان انجام می‌دهند و شاید هم بهتر از انسان به آنها رسیدگی می‌کنند. اما یکی از حوزه‌هایی که در آن دچار کمبود هستند، تصمیم گیری یا انتخاب از میان یک مجموعه گزینه است. دانشمندان و فیلسوفان به منظور کمک به رباتها جهت اتخاذ تصمیمات مناسب و اخلاقی شروع به همکاری با یکدیگر نموده‌اند.

تعداد کلمات:    1156  /   تخمین زمان مطالعه: 5 دقیقه
ربات
مترجم: رزیتا ملکی‌زاده

تصور کنید با عجله به سمت مدرسه در حال دویدن هستید تا به موقع خود را به کلاس برسانید که ناگهان متوجه می‌شوید دوست‌تان به دردسر افتاده است. او مشغول فرستادن پیام و گوش دادن به موسیقی است و متوجه نیست که مستقیم به سوی چاله‌ای در پیاده رو پیش می‌رود. آن لحظه چه عکس‌العملی از خود نشان می‌دهید؟

پاسخ بسیار ساده است. به سمت او دویده و سعی می‌کنید مانع از افتادنش در چاله شوید. چه اهمیتی دارد که کمی هم دیر به کلاس برسید.

چنین تصمیم گیری‌هایی نیاز به فکر چندانی ندارند. شما تمام مدت در حال گرفتن چنین تصمیمات ساده‌ای هستید. اما آیا رباتها نیز به همین سادگی تصمیم گیری می‌کنند؟ آیا آنها نیز باید مانع از صدمه دیدن دوست‌تان شوند؟ آیا می‌توانند این کار را انجام دهند؟

پاسخ آن خیر است. رباتها از هوش کافی برخوردار نیستند که حتی تشخیص دهند، فردی در خطر است. شاید این امر در آینده‌ای نزدیک امکان‌پذیر باشد. یک ربات هنوز هم بدون پیروی از برخی قوانین، نمی‌داند که بهترین تصمیم چه خواهد بود.

بنابراین توسعه دهندگان و سازندگان ربات روی به فلسفه‌ای تحت عنوان اخلاقیات آورده‌اند. اخلاقیات شاخه‌ای علمی است که در آن تفاوتهای میان درست و غلط مورد مطالعه قرار می‌گیرند. و از این طریق آنها شروع به ساخت رباتهایی کرده‌اند که بتوانند تصمیمات اخلاقی اولیه را اتخاذ کنند.

یک ربات آزمایشگاهی تمام سناریو و دستورات از پیش تعیین شده را مدیریت می‌کند. دیگری می‌تواند از دستورات فرد در صورت خطرناک بودن سرپیچی کند. ربات سوم می‌آموزد که چگونه موقعیتهای دشوار را در یک آسایشگاه اداره کند.

این رفتار اخلاقی می‌تواند بخشی از برنامه ریزی آنها را تشکیل دهد. به طوریکه این کار به آنها اجازه داده با افراد به شیوه‌هایی ایمن و قابل پیش بینی تعامل نمایند. دیر یا زود زمانی فراخواهد رسید که رباتها شروع به درک تفاوت میان درست و غلط کنند.

 

سه اصل مهم

معروفترین مجموعه قوانین اتخاذ شده برای رباتها از تحقیقات بدست نیامده است بلکه از داستانی تخیلی به نویسندگی ایزاک آسیموف تحت عنوان Runaround گرفته شده است که در آن از دو مرد و یک ربات با نام اسپیدی سخن به میان می‌آید. آنها جهت انجام مأموریتی به سیاره عطارد سفر کرده و اسپیدی با سه قانون ابتدایی برنامه ریزی شده است که این سه قانون عبارتنداز:
1) یک ربات نمی‌تواند به کسی صدمه وارد کند یا اجازه دهد فردی صدمه ببیند.
2) یک ربات بایستی از دیگران اطاعت کند البته تا زمانی که قانون اول شکسته نشود.
3) یک ربات باید از خود محافظت نماید البته تا زمانی که دو قانون اول شکسته نشوند.

به نظر می‌رسد که قوانین وضع شده‌ی آسیموف قوانین خوبی باشند. اما این داستان نشان می‌دهد که چنین قوانین ساده‌ای ممکن است کافی نباشند.

نوشتن مجموعه قوانینی که بتوانند در تمامی موقعیتها بکار روند بسیار دشوار است. به همین دلیل بعضی دانشمندان رباتهایی را ساختند که توانایی یادگیری رفتار اخلاقی داشته باشند.
یک ربات نمونه‌هایی از کارهای درستی که توسط انسانها در موقعیتهای مختلف انجام می‌دهد را تماشا می‌کند. بر اساس این نمونه‌ها و مشاهدات خود، آنگاه قوانین خاص خود را شکل می‌دهد. با این وجود، ربات ممکن است رفتارهایی را بیاموزد که سازندگان آن دوست نداشته باشند.
اصول اخلاقی یک ربات باید از توانایی توضیح فعالیتهای صورت گرفته توسط او برخوردار باشد
اصول اخلاقی یک ربات باید از توانایی توضیح فعالیتهای صورت گرفته توسط او برخوردار باشد. تصور کنیدکه به ربات وظیفه‌ای در خارج از خانه محول می‌شود و او مجبور به ترک مأموریت و نجات فردی می‌شود که در خطر است. هنگامی که ربات به خانه باز می‌گردد لازم است که علت عدم انجام مأموریت خود را توضیح دهد.

آلن وینفیلد مهندس و طراح ربات شاغل در دانشگاه وِست آو اینگلند در بریستون است که سابق بر این معتقد بود، ساختن یک ربات اخلاق گرا غیر ممکن است. اما در چند سال اخیر نظر خود را تغییر داده و عنوان می‌کند که دانشمندان باید رباتی بسازند که بتواند از قوانین اخلاقی بدون فکر به آنها پیروی کند.

در برخی موارد، تصمیم گیری اخلاقی بخش ساده‌ای از برنامه ریزی یک ربات محسوب می‌شود. قسمت سخت آن تشخیص خطر یا وجود یک مشکل است.

یادتان می‌آید در خصوص به خطر افتادن دوست‌تان در چاله صحبت کردیم؟ تصمیم گیری در خصوص نجات او نیازمند چیزی بیشتر از تنها درک درست از غلط است. به گفته وینفیلد: «شما همچنین دارای توانایی پیش‌بینی آنچه ممکن است برای آن دوست رخ دهد، هستید». می‌دانید که دوست‌تان در همان جهت به راه خود ادامه خواهد داد، همچنین می‌دانید که افتادن در یک چاله می‌تواند به او صدمه وارد کند. در نهایت می‌توانید پیش‌بینی کنید که آیا فرصت کافی جهت دویدن به سمت او و متوقف کردنش را دارید یا خیر.

همه‌ی این موارد به نظر واضح و روشن می‌آید. در واقع رفتاری بسیار شگفت انگیز به حساب می‌آید. شما آینده را پیش‌بینی کرده و سپس اقدامات لازم جهت دوری از یک پیشامد بد را به عمل می‌آورید. افزودن وظائف جدید برای یک ربات کار ساده‌ای نیست. هر اندازه فهرست کنش‌ها و رفتارهای احتمالی ربات طولانی‌تر شود، اصول اخلاقی نیز پیچیده و پیچیده‌تر خواهند شد


وینفیلد و تیمش برنامه‌ای را برای رباتی با نام A-Rbot نوشتند که به وسیله آن می‌توانست از قدرت پیش‌بینی آینده برخوردار باشد.  او می‌تواند سایر رباتها را در اطراف خود تشخیص دهد و پیش‌بینی کند که در آینده‌ی نزدیک چه اتفاقی برای آنها و خود قرار است رخ دهد. در نهایت به منظور کمک اقداماتی را انجام دهد که کمترین صدمه به خود و سایرین وارد شود.

محققان این ربات را با همان سناریوی چاله مورد آزمایش قرار دادند. اما مجبور بودند که شرایط را کمی تغییر دهند. بجای استفاده از انسان برای رفتن به سوی چاله از رباتی تحت عنوان H-robot استفاده کردند. به A-Robot دستور داده شد که به سوی هدفی به سوی دیگر اتاق حرکت کند. اما زمانی که متوجه شد H-robot به سوی محل خطر پیش می‌رود، تغییر جهت داده تا مانع از سقوط او شود.

 
نجات رباتهرچند زمانی که دو H-robot نیاز به نجات داشتند، A-robot دچار سردرگمی شده و از یک سو به سوی دیگر با تردید حرکت کرده و نمی‌دانست کدامیک را باید نجات دهد. و معمولاً در مواقع این چنینی هیچکدام را نجات نمی‌دهد.

جهت رفع چنین مشکلاتی، یکی از همکاران وینفیلد در حال کار برروی A-Robot  است که به آن توانایی فریاد زدن یا بالا بردن دست خود را دهد. H-Robot علامت او را خواهد دید و یا متوقف شده یا این جمله را به زبان می‌آورد که: «چیزی نیست، خودم می‌دانم چه می‌کنم». آنگاه A-Robot متوجه می‌شود که نیازی به مداخله ندارد.

هرچند این ربات مانند  انسان نبوده و نمی‌تواند انتخاب کند یا تصمیم بگیرد که H-Robot را نجات ندهد. او تنها از دستوراتی که در برنامه ریزی او وارد شده است پیروی می‌کند. او حتی نمی‌داند که چنین انتخابی وجود دارد.

ربات دیگری ساخته شده است که دارای توانایی پیش‌بینی آینده است اما هنگامی که خطر را پیش‌بینی می‌کند می‌تواند انتخاب کرده هیچ عکس‌العملی نشان ندهد. به گفته ماتیاس شوتز دانشمند علوم کامپیوتر«چنانچه ربات دستوری دریافت کند که منجر به بوجود آمدن موقعیت خطرناکی شود، می‌تواند از آن دستور سرپیچی نماید.»

در حالت ایده‌آل انتظار داریم که رباتهای آینده رفتارهای شایان توجه و ستودنی را از خود نشان دهند. اما این کار به دانشمندان، پژوهشگران، قانونگذاران و همه ما بستگی دارد که این اتفاق رخ دهد.

برگرفته از سایت sciencenewsforstudents


نظرات کاربران
ارسال نظر
با تشکر، نظر شما پس از بررسی و تایید در سایت قرار خواهد گرفت.
متاسفانه در برقراری ارتباط خطایی رخ داده. لطفاً دوباره تلاش کنید.