مزایا و خطرات هوش مصنوعی

مسلماً هوش مصنوعی تغییرات مثبت قابل توجهی در زندگی بشر به وجود آورده است، اما به هر حال لازم است خطرات احتمالی ناشی از برتری احتمالی آینده آن بر هوش انسانی نیز در نظر گرفته شود.
سه‌شنبه، 6 آبان 1399
تخمین زمان مطالعه:
موارد بیشتر برای شما
مزایا و خطرات هوش مصنوعی
"همه چیزهایی که ما در مورد تمدن دوست داریم محصول هوش است، بنابراین تقویت هوش انسانی ما با هوش مصنوعی این امکان را دارد که به شکوفایی تمدن کمک کند، چیزی که هرگز مانند قبل نیست – البته تا زمانی که ما بتوانیم این فناوری را مفید نگه داریم. "
ماکس تگمارک، رئیس مؤسسه آینده زندگی
 

هوش مصنوعی چیست؟

از SIRI گرفته تا اتومبیل های خودران، هوش مصنوعی (AI) به سرعت در حال پیشرفت است. در حالی که داستان های علمی - تخیلی اغلب هوش مصنوعی را به صورت روبات هایی با ویژگی هایی شبیه انسان نشان می دهند، هوش مصنوعی می تواند از الگوریتم های جستجوی گوگل گرفته تا واتسن IBM  و تا سلاح های خودگردان را شامل شود.
 
هوش مصنوعی امروزه به درستی به عنوان هوش مصنوعی باریک (یا هوش مصنوعی ضعیف) شناخته می شود، از این نظر که برای انجام یک کار محدود طراحی شده است (به عنوان مثال فقط تشخیص چهره یا فقط جستجوی اینترنتی یا فقط رانندگی با ماشین). انسان ها اکنون سیاره را کنترل می کنند، نه به این دلیل که ما قوی ترین، سریع ترین یا بزرگترین هستیم، بلکه به این دلیل که باهوش ترین هستیم. اگر دیگر باهوش ترین نباشیم، آیا اطمینان داریم که کنترل خود را حفظ خواهیم کرد؟ با این حال، هدف طولانی مدت بسیاری از محققان ایجاد هوش مصنوعی کلی (General AI) یا هوش مصنوعی قوی است. در حالی که هوش مصنوعی باریک ممکن است در هر وظیفه خاصی از انسان بهتر عمل کند، مانند بازی شطرنج یا حل معادلات ، هوش مصنوعی کلی تقریباً در هر کار شناختی از انسان پیشی می گیرد.
 

چرا باید درباره ایمنی هوش مصنوعی تحقیق کرد؟

در کوتاه مدت، هدف از حفظ تأثیر هوش مصنوعی بر جامعه، ایجاد انگیزه تحقیقات در بسیاری از زمینه ها، از اقتصاد و حقوق گرفته تا موضوعات فنی مانند ممیزی، اعتبار سنجی، امنیت و کنترل است. اگر لپ تاپ شما خراب شود یا هک شود، ممکن است تنها کمی بیشتر از یک دردسر جزئی باشد، اما این امر اهمیت بیشتری می یابد اگر که یک سیستم هوش مصنوعی که ماشین شما، هواپیمای شما، ضربان ساز قلب شما، تجارت خودکار شما، یا سیستم یا شبکه برق شما را کنترل می کند، و همان کاری را که می خواهید انجام می دهد، خراب شود.. چالش کوتاه مدت دیگر جلوگیری از یک مسابقه ویرانگر تسلیحاتی در سلاح های خودمختار کشنده است.
 
در دراز مدت، یک سؤال مهم این است که اگر تلاش برای هوش مصنوعی قوی موفقیت آمیز باشد و یک سیستم هوش مصنوعی در تمام کارهای شناختی بهتر از انسان عمل کند، چه اتفاقی می افتد. همان طور که توسط I.J.Good در سال 1965 اشاره شد، طراحی سیستم های هوش مصنوعی هوشمندتر خود یک کار شناختی است. چنین سیستمی می تواند به طور بالقوه دچار خود بهبودی بازگشتی شود، و باعث انفجار اطلاعاتی می شود که عقل انسان را بسیار عقب نگاه می دارد. اکثر محققان اتفاق نظر دارند که بعید به نظر می رسد هوش مصنوعی فوق العاده هوشمند احساسات انسانی مانند عشق یا نفرت را از خود نشان دهد و هیچ دلیلی وجود ندارد که انتظار داشته باشیم هوش مصنوعی عمداً خیرخواهانه یا بدخواهانه شود. با ابداع فناوری های جدید انقلابی، چنین ابر هوشمندی ممکن است به ما کمک کند تا جنگ، بیماری و فقر را ریشه کن کنیم و بنابراین ایجاد هوش مصنوعی قوی بزرگترین واقعه در تاریخ بشر است، هر چند برخی از متخصصان ابراز نگرانی کرده اند که ممکن است آخرین هدف نیز باشد، مگر این که یاد بگیریم اهداف  هوش مصنوعی را قبل از این که فوق العاده هوشمند شود، تراز کنیم.
 
برخی افراد وجود دارند که سؤال می کنند آیا هرگز به هوش مصنوعی قوی دست می یابیم یا خیر. و برخی دیگر اصرار دارند که ایجاد هوش مصنوعی فوق العاده هوشمند مفید است. در FLI ما هر دو این احتمالات را تشخیص می دهیم، اما همچنین توانایی بالقوه یک سیستم هوش مصنوعی را که به طور عمدی یا ناخواسته آسیب بزرگی باشد به رسمیت می شناسیم. ما اعتقاد داریم که تحقیقات امروز به ما کمک می کند تا در آینده برای جلوگیری از چنین عواقب احتمالی منفی بهتر آماده شویم و از آنها جلوگیری کنیم. بنابراین ضمن جلوگیری از مشکلات، از مزایای هوش مصنوعی بهره مند می شویم.
 

چگونه هوش مصنوعی می تواند خطرناک باشد؟

اکثر محققان اتفاق نظر دارند که بعید به نظر می رسد هوش مصنوعی فوق العاده هوشمند احساسات انسانی مانند عشق یا نفرت را از خود نشان دهد و هیچ دلیلی وجود ندارد که انتظار داشته باشیم هوش مصنوعی عمداً خیرخواهانه یا بدخواهانه شود. در عوض، هنگام بررسی چگونگی خطرناک شدن هوش مصنوعی، کارشناسان احتمالاً دو سناریو را در نظر می گیرند:
 
* هوش مصنوعی برای انجام کاری ویرانگر برنامه ریزی شده است: سلاح های خودگردان سیستم های هوش مصنوعی‌ای هستند که برای کشتن برنامه ریزی شده اند. این سلاح ها در دست یک فرد عوضی می توانند به راحتی تلفات جانی ایجاد کنند. علاوه بر این، یک مسابقه تسلیحاتی هوش مصنوعی می تواند به طور ناخواسته به جنگ هوش مصنوعی منجر شود که منجر به تلفات جانی نیز می شود. برای جلوگیری از خنثی شدن توسط دشمن، این سلاح ها به گونه ای طراحی شده اند که "خاموش کردن" آنها بسیار دشوار است، بنابراین انسان ها می توانند به طور منطقی کنترل چنین وضعیتی را از دست بدهند. این خطر، خطری است که حتی با هوش مصنوعی باریک وجود دارد، اما با افزایش سطح هوش و استقلال هوش مصنوعی رشد می کند.
 
* هوش مصنوعی برای انجام یک کار مفید برنامه ریزی شده است، اما برای رسیدن به هدف خود روشی مخرب را توسعه می دهد: هر زمان که نتوانیم اهداف هوش مصنوعی را با اهداف خود هماهنگ کنیم، این اتفاق می افتد که بسیار سخت است. اگر از یک ماشین هوشمند مطیع بخواهید که شما را در سریعترین زمان ممکن به فرودگاه برساند، ممکن است شما را سریع تر از هلی کوپتر و البته با حالت تهوع فراوان به آنجا برساند، که این کاری نیست که شما تمایل داشتید بلکه به معنای واقعی کلمه همان چیزی است که شما از او درخواست کردید. اگر یک سیستم فوق العاده هوشمند وظیفه یک پروژه ژئو مهندسی بلند پروازانه را بر عهده داشته باشد، ممکن است به صورت یک عارضه جانبی ویرانگر برای اکوسیستم ما عمل کند و تلاش های انسان برای متوقف کردنش را تهدیدی تلقی کند که نیاز به عکس العمل دارد.
 
همان طور که این مثال ها نشان می دهد، نگرانی در مورد هوش مصنوعی پیشرفته بدخواهی نیست بلکه موضوعی در رابطه با صلاحیت است. هوش مصنوعی فوق العاده هوشمند در تحقق اهداف خود بسیار خوب خواهد بود و اگر این اهداف با اهداف ما مطابقت نداشته باشد، ما با یک مشکل روبرو هستیم. شما احتمالاً یک شریر ضد مورچه نیستید که از روی سوء نیت پا روی مورچه ها بگذارید، اما اگر شما مسئول یک پروژه انرژی سبز برق آبی باشید و یک تپه مورچه ای در منطقه تعیین شده برای آبگیری وجود داشته باشد، این برای مورچه ها بسیار بد است. یک هدف اصلی در تحقیقات ایمنی هوش مصنوعی این است که هرگز بشریت را در موقعیت آن مورچه ها قرار ندهیم.
 

چرایی علاقه اخیر به ایمنی هوش مصنوعی؟

استیون هاوکینگ، ایلان ماسک، استیو وزنیاک، بیل گیتس و بسیاری دیگر از بزرگان علم و فناوری اخیراً در رسانه ها و از طریق نامه های سرگشاده در مورد خطرات ناشی از هوش مصنوعی ابراز نگرانی کرده اند و بسیاری از محققان برجسته هوش مصنوعی در این امر به آنها پیوسته اند. چرا این موضوع ناگهان در تیتر یک قرار گرفته است؟
 
این ایده که تلاش برای هوش مصنوعی قوی در نهایت به موفقیت برسد مدت ها، قرن ها یا از گذشته ای دورتر، است که به عنوان داستان علمی - تخیلی تصور می شده است. با این وجود، به لطف موفقیت های اخیر، بسیاری از نقاط عطف هوش مصنوعی، که به عقیده کارشناسان، تنها پنج سال پیش، دهه ها دور به نظر می رسیدند، اکنون به دست آمده است، و این باعث می شود بسیاری از کارشناسان احتمال وقوع فوق هوشمندی را در طول زندگی فعلی‌مان جدی بگیرند. در حالی که برخی از کارشناسان هنوز حدس می زنند که با هوش مصنوعی در سطح انسان قرن ها فاصله داریم، بیشتر تحقیقات هوش مصنوعی در کنفرانس 2015 پورتوریکو حدس می زدند که این اتفاق قبل از سال 2060 واقع می شود. هدف طولانی مدت بسیاری از محققان ایجاد هوش مصنوعی کلی (General AI) یا هوش مصنوعی قوی است. از آن جا که ممکن است چندین دهه طول بکشد تا تحقیقات ایمنی مورد نیاز عملی شود، معقول است که کار را از هم اکنون شروع کنیم.
 
از آن جا که هوش مصنوعی توانایی هوشمندتر شدن از هر انسانی را دارد، ما هیچ روش مطمئنی برای پیش بینی رفتار آن نداریم. ما نمی توانیم از پیشرفت های فناوری گذشته به عنوان یک مبنا استفاده کنیم زیرا هرگز چیزی را ایجاد نکرده ایم که توانایی آن را داشته باشد که، خواسته یا ناخواسته، از ما پیشی بگیرد. بهترین مثال برای آن چه ممکن است با آن رو به رو شویم، تکامل خودمان است. انسان ها اکنون سیاره را کنترل می کنند، نه به این دلیل که ما قوی ترین، سریع ترین یا بزرگترین هستیم، بلکه به این دلیل که باهوش ترین هستیم. اگر دیگر باهوش ترین نباشیم، آیا اطمینان داریم که کنترل خود را حفظ خواهیم کرد؟
 
موضع FLI این است که تمدن ما شکوفا خواهد شد مادامی که ما در رقابت بین قدرت رو به رشد فناوری و خردی که با آن مدیریت می کنیم پیروز شویم. در مورد فناوری هوش مصنوعی، موضع FLI این است که بهترین راه برای پیروزی در این مسابقه این نیست که با حمایت از تحقیقات ایمنی هوش مصنوعی مانع اولی (یعنی پیشرفت خود هوش مصنوعی) شوید، بلکه باید روند دومی (یعنی تحقیقات ایمنی هوش مصنوعی)  را تسریع کنید.
 
منبع: Future of Life


مقالات مرتبط
ارسال نظر
با تشکر، نظر شما پس از بررسی و تایید در سایت قرار خواهد گرفت.
متاسفانه در برقراری ارتباط خطایی رخ داده. لطفاً دوباره تلاش کنید.
مقالات مرتبط
موارد بیشتر برای شما