جایگاه اخلاقی روباتهای هوشیار
اگر یک روبات هوشیار یا آگاه باشد، آیا خاموش کردن آن مشکل اخلاقی دارد؟ پیامدهای اخلاقی ساخت هوش های مصنوعی واقعی چیست؟
در قسمت ـ«پیشتازان فضا: نسل بعدی» ("Star Trek: The Next Generation") قسمت "The Measure of a Man" ، قرار است Data (داده)، یکی از خدمه اندرویدEnterprise ِ، برای اهداف تحقیق پیاده سازی و نابود شود، مگر این که کاپیتان پیکارد بتواند استدلال کند که Data سزاوار حقوق یکسان با انسان است. به طور طبیعی این سؤال مطرح می شود: مبنایی که چیزی بر اساس آن حق دارد چیست؟ چه چیزی به یک وجود، جایگاه اخلاقی می بخشد؟
هنوز هیچ دستگاه هوش مصنوعی عمومی به وجود نیامده است. اما اکنون وقت آن است که بررسی کنیم که جایگاه اخلاقی برای آنها چیست؟ فیلسوف پیتر سینگر استدلال می کند موجوداتی که می توانند احساس درد کنند یا رنج بکشند می توانند ادعای جایگاه اخلاقی کنند. او استدلال می کند که حیواناتِ غیر انسانی دارای جایگاه اخلاقی هستند، زیرا آنها می توانند احساس درد و رنج کنند. محدود کردن این جایگاه به مردم، نوعی گونه گرایی است، چیزی شبیه نژادپرستی و تبعیض جنسی.
بدون تأیید خط استدلال سینگر، ممکن است تعجب کنیم که آیا می توان آن را به یک روبات اندرویدی مانند Data نیز گسترش داد. این مستلزم این است که Data یا احساس درد کند و یا رنج بکشد. و چگونگی پاسخ شما به آن به چگونگی درک شما از شعور و هوش بستگی دارد.
هرچه فناوری هوش مصنوعی واقعی به سمت نسخه های تصویر شده هالیوودی پیش می رود، مسئله جایگاه اخلاقی اهمیت بیشتری پیدا می کند. اگر هوش مصنوعی دارای جایگاه اخلاقی باشد، فیلسوفانی مانند من استدلال می کنند که می توان نتیجه گرفت که آنها حق زندگی دارند. این بدان معناست که شما نمی توانید آنها را به سادگی پیاده سازی کنید و از بین ببرید، و همچنین ممکن است به این معنی باشد که افراد نباید در راه رسیدن آنها به اهدافشان دخالت کنند.
تصویر: کاسپاروف در یک صفحه شطرنج در حالی که هیچ شخصی را مقابل خود ندارد. گری کاسپاروف توسط دیپ بلو، یک هوش مصنوعی با هوشی بسیار عمیق در یک رقابت نزدیک مغلوب شد. استن هوندا / خبرگزاری فرانسه از طریق گتی ایماژ
دو طعم هوش و یک تست
دستگاه شطرنج دیپ بلوی آی بی ام (IBM’s Deep Blue) با موفقیت برای شکست دادن استاد بزرگ گری کاسپاروف آموزش دید، اما کار دیگری نمی توانست انجام دهد. این رایانه دارای چیزی بود که هوش خاص دامنه نامیده می شود.از طرف دیگر، نوعی هوش وجود دارد که امکان انجام انواع کارها را به خوبی فراهم می کند. به آن هوش عمومی دامنه می گویند. این همان چیزی است که به مردم امکان می دهد آشپزی کنند، اسکی کنند و کودکان را بزرگ کنند – وظایفی که به هم مرتبط، اما همچنین بسیار متفاوتند.
هوش عمومی مصنوعی (یا Artificial General Intelligence)، AGI، اصطلاحی برای ماشین هایی است که دارای هوش عمومی دامنه هستند. مسلماً هنوز هیچ دستگاهی این نوع هوش را نشان نداده است. تابستان امسال، استارتاپی به نام OPENAI نسخه جدیدی از مدل زبان Generative Pre-Training خود را منتشر کرد. GPT-3 یک سیستم پردازش زبان طبیعی است، که برای خواندن و نوشتن آموزش داده شده است تا به راحتی برای مردم قابل درک باشد.
این مورد بلافاصله مورد توجه قرار گرفت، نه فقط به دلیل توانایی چشمگیر آن در تقلید از جلوه های سبک و جمع آوری محتوای قابل قبول، بلکه همچنین به دلیل فاصله آن با نسخه قبلی. با وجود این عملکرد چشمگیر ، GPT-3 در واقع چیزی فراتر از نحوه اتصال رشته کلمات به روش های مختلف نمی داند، و همچنان با هوش عمومی مصنوعی فاصله کاملاً زیاد است.
رنج ممکن است به آگاهی محسوس، مانند روشی که اساساً به درد نیاز دارد، نیاز نداشته باشد.آزمون تورینگ به نام محقق پیشگام هوش مصنوعی آلن تورینگ نامگذاری شده است و به شما کمک می کند تا توانایی هوش مصنوعی را اندازه بگیرید: آیا شخصی که با یک هوش مصنوعی مخفی شده صحبت می کند می تواند تشخیص دهد که این یک هوش مصنوعی است یا یک انسان؟ اگر او نتواند، برای تمام اهداف عملی، هوش مصنوعی، با هوش است. اما این تست چیزی در مورد هوشیاری یا آگاهی هوش مصنوعی بیان نمی کند.
دو نوع آگاهی
آگاهی دو قسمت دارد. اول، جنبه ی من همان (یا آن چه شبیه من است) یک تجربه است، که قسمت حسی آگاهی است. فلاسفه آن را قسمت محسوس آگاهی می نامند. این قسمت در مورد چگونگی تجربه یک پدیده است، مانند بوییدن گل رز یا احساس درد.در مقابل، آگاهی دسترسی نیز وجود دارد. این آگاهی دارای توانایی گزارش، استدلال، رفتار و عمل هماهنگ و پاسخگو در برابر محرک های مبتنی بر اهداف است. به عنوان مثال، هنگامی که من توپ فوتبال را به دوستم می دهم که روی دروازه بازی می کند، من به محرک های بینایی پاسخ می دهم، از تمرین قبلی یاد می گیرم و عمل می کنم و هدفی را که قواعد بازی تعیین می کند دنبال می کنم. من پاس را به صورت خودکار و بدون تعمق آگاهانه در جریان بازی انجام می دهم.
کور بینی یا بینایی ناآگاهانه تفاوت بین دو نوع هوشیاری را به خوبی نشان می دهد. ممکن است فردی که دارای این شرایط عصبی (بینایی ناآگاهانه) است گزارش کند که نمی تواند چیزی را در سمت چپ میدان بینایی خود ببیند. اما اگر از او بخواهید قلمی را از بین آرایه ای از اشیاء در سمت چپ میدان بینایی خود بردارد، بتواند به طرز قابل اعتمادی این کار را انجام دهد. آنها نمی توانند قلم را ببینند، اما در صورت درخواست می توانند آن را بردارند - نمونه ای از آگاهی دسترسی بدون آگاهی محسوس.
Data یک اندروید است. این تمایزات در مورد او چگونه نقش بازی می کنند؟
تصویر: هنوز هم مثالی از Star Trek: The Next Generation. آیا ویژگی های Data به وی جایگاه اخلاقی می بخشد؟ CBS
دو راهی Data
Dataی اندروید نشان می دهد که وی از این جهت خود آگاه است که می تواند دیده بانی کند بر این که آیا مثلاً به گونه ای بهینه شارژ شده است یا آسیب داخلی به بازوی روباتیک او وارد آمده است یا نه.Data همچنین از جنبه عمومی با هوش است. او بسیاری از کارهای متمایز را در سطح بالایی از تسلط انجام می دهد. او می تواند Enterprise را به پرواز در آورد، از کاپیتان پیکارد دستور بگیرد و با او در باره بهترین راهی که باید در پیش گرفته شود محاجه کند.
نوعی هوش وجود دارد که امکان انجام انواع کارها را به خوبی فراهم می کند. به آن هوش عمومی دامنه می گوینداو همچنین می تواند با هم سفینه ای های خود کارت بازی کند، آشپزی کند، در مورد مشکلات موضعی با دوستان نزدیک خود بحث کند، با دشمنان در سیارات بیگانه جنگ کند و به اشکال مختلف کار فیزکی بپردازد. Data آگاهی دسترسی دارد. او اگر واقعیت داشت به وضوح در آزمون تورینگ قبول می شد.
با این حال، دیتا به احتمال زیاد فاقد شعور حسی است - به عنوان مثال، او از رایحه گل رز لذت نمی برد و درد را تجربه نمی کند. او نسخه فوق العاده ای از کور بینی را مجسم می کند. او خودآگاه است و شعور دسترسی دارد - می تواند قلم را بردارد - اما در تمام حواس، او فاقد شعور حسی یا محسوس است.
اکنون، اگر Data احساس درد نکند، حداقل یکی از دلایلی که سینگر برای دادن جایگاه اخلاقی به موجودی ارائه داده است برای او برآورده نشده است. اما Data ممکن است شرط دیگر توانایی تحمل رنج، حتی بدون احساس درد را برآورده کند. رنج ممکن است به آگاهی محسوس، مانند روشی که اساساً به درد نیاز دارد، نیاز نداشته باشد.
به عنوان مثال، اگر رنج همچنین به عنوان ایده باز داشته شدن از پیگیری یک هدف عادلانه، بدون آسیب رسیدن به دیگران، تعریف شود، چه می گویید؟ فرض کنید هدف Data نجات هم خدمه ایش است، اما او به دلیل آسیب دیدن یکی از اندام هایش نمی تواند به او برسد. کاهش عملکرد Data که او را از نجات همکار خود باز می دارد، نوعی رنج غیرعادی است. او ترجیح می داد که هم خدمه ای خود را نجات می داد و اگر این کار را می کرد بهتر بود.
در این قسمت، سؤال پایانی نه این است که آیا Data از خود آگاه است یا خیر – که در آن تردیدی نیست، و نه این است که آیا او باهوش است، در حالی که او به راحتی نشان می دهد که به معنای عام با هوش است. آنچه مشخص نیست این است که آیا او به طور محسوس هوشیار و آگاه است یا نه؟ Data پیاده سازی نمی شود و از بین نمی رود زیرا، در پایان، داوران انسانی او نمی توانند روی موضوع اهمیت آگاهی برای جایگاه اخلاقی توافق کنند.
تصویر: مفهوم هنرمندانه از کدهای باینری دیواری که اتصالات نورون مانند ایجاد می کنند. وقتی 1 و 0 ها به یک موجود اخلاقی اضافه می شوند. ktsimage / iStock از طریق Getty Images Plus
آیا یک هوش مصنوعی باید جایگاهی اخلاقی به دست آورد؟
Data مهربان است - او برای حمایت از رفاه اعضای خدمه خود و کسانی که در سیارات بیگانه با آنها رو به رو می شود، عمل می کند. او از دستورات مردم اطاعت می کند و به نظر می رسد صدمه ای به آنها نمی زند و به نظر می رسد از وجود خودش محافظت می کند. به همین دلایل به نظر می رسد او در حوزه کارهایی که دارای جایگاه اخلاقی هستند، صلح جو و به گونه ای راحت تر قابل قبول است.اگر هوش مصنوعی دارای جایگاه اخلاقی باشد، فیلسوفانی استدلال می کنند که می توان نتیجه گرفت که آنها حق زندگی دارند. اما Skynet در فیلم های "ترمیناتور" (یا «نابودگر») چطور؟ یا نگرانی هایی که اخیراً توسط الون ماسک در مورد خطرناک تر بودن هوش مصنوعی از انفجارهای هسته ای، و استفان هاوکینگ در مورد پایان دادن به نوع بشر توسط هوش مصنوعی، ابراز شده است چطور؟
انسان ها ادعای خود در مورد جایگاه اخلاقی را تنها به این دلیل که بر خلاف منافع شخص دیگری عمل می کنند از دست نمی دهند. به همین ترتیب، شما نمی توانید به طور خودکار بگویید که فقط به این دلیل که هوش مصنوعی بر خلاف منافع بشریت یا هوش مصنوعی دیگری عمل می کند، از نظر اخلاقی جایگاهی ندارد. ممکن است در مبارزه باAI ی مانند Skynet موجه باشید، اما این امر، جایگاه اخلاقی او را از بین نمی برد. اگر به جایگاه اخلاقی، فضیلت توانایی رنج غیرمحسوس داده شود، Skynet و Data هر دو آن را می گیرند حتی اگر فقط Data بخواهد به انسان ها کمک کند.
مبنایی که چیزی بر اساس آن حق دارد چیست؟ چه چیزی به یک وجود، جایگاه اخلاقی می بخشد؟هنوز هیچ دستگاه هوش مصنوعی عمومی به وجود نیامده است. اما اکنون وقت آن است که بررسی کنیم که جایگاه اخلاقی برای آنها چیست؟ چگونگی انتخاب بشریت برای پاسخگویی به سؤال جایگاه اخلاقی موجودات غیر بیولوژیکی، پیامدهای بزرگی در نحوه برخورد ما با هوش مصنوعی آینده خواهد داشت - خواه مهربان و مفید مانند Data باشند، یا مانند Skynet تخریب کنند.
منبع: آناند وایدیا، San José State University
مقالات مرتبط
تازه های مقالات
ارسال نظر
در ارسال نظر شما خطایی رخ داده است
کاربر گرامی، ضمن تشکر از شما نظر شما با موفقیت ثبت گردید. و پس از تائید در فهرست نظرات نمایش داده می شود
نام :
ایمیل :
نظرات کاربران
{{Fullname}} {{Creationdate}}
{{Body}}