هوش مصنوعی جدید شبیه انسان می‌بیند

دانشمندان کامپیوتر به یک عامل هوش مصنوعی آموزش داده اند چگونه کاری را بکند که معمولاً تنها انسان ها می توانند انجام دهند – چند نظر اجمالی سریع به اطراف بیاندازد و به کل محیطش پی ببرد، مهارتی که برای توسعه روبات های جستجو و نجات مؤثر که روزی می توانند اثربخشی ماموریت های خطرناک را بهبود بخشند لازم است.
شنبه، 4 خرداد 1398
تخمین زمان مطالعه:
پدیدآورنده: علی رضایی میر قائد
موارد بیشتر برای شما
هوش مصنوعی جدید شبیه انسان می‌بیند
مفهوم هوش مصنوعی.
اعتبار: © TanyaJoy / Adobe Stock
 

گزارش کامل

دانشمندان کامپیوتر در دانشگاه تگزاس در آستین به یک عامل هوش مصنوعی آموزش داده اند چگونه کاری را بکند که معمولاً تنها انسان ها می توانند انجام دهند – چند نظر اجمالی سریع به اطراف بیاندازد و به کل محیطش پی ببرد، مهارتی که برای توسعه روبات های جستجو و نجات مؤثر که روزی می توانند اثربخشی ماموریت های خطرناک را بهبود بخشند لازم است. تیم، به رهبری پروفسور دکتر کریستن گرومن، Ph.D. همراه با دیگران، نتایج خود را در مجله Science Robotics منتشر کردند.
 
اکثر عوامل هوش مصنوعی - سیستم های کامپیوتری که می توانند برای روبات ها و یا ماشین های دیگر هوش را به ارمغان بیاورد - برای انجام وظایف بسیار خاص - مانند تشخیص یک شیء یا تخمین میزان آن - در محیطی مثل یک کارخانه که پیش از آن تجربه کرده اند، آموزش دیده اند. اما عامل توسعه یافته توسط گرامن و راماکریشنان دارای یک هدف کلی است، و به جمع آوری اطلاعات بصری می پردازد که سپس می تواند برای طیف گسترده ای از وظایف مورد استفاده واقع شود.
 
گرامن گفت: "ما عاملی را می خواهیم که به طور کلی مجهز برای ورود به محیط ها و آماده شدن برای وظایف جدید ادراکی، زمانی که ایجاب می کند، باشد." "این عامل به طریقی چندسوگرد رفتار می کند و قادر به موفقیت در وظایف مختلف است، زیرا الگوهای مفیدی در مورد دنیای بصری آموخته است."
 
دانشمندان از یادگیری عمیق، یک نوع یادگیری ماشین الهام گرفته از شبکه های عصبی مغز، برای آموزش عامل خود در هزاران عکس 360 درجه ای از محیط های مختلف استفاده کردند.
 
در حال حاضر، زمانی که صحنه ای به آن ارائه می شود که هرگز قبلاً ندیده است، عامل از تجربه اش برای انتخاب چند نظر اجمالی استفاده می کند -  مانند یک توریست ایستاده در وسط یک کلیسای جامع که چندین عکس فوری در جهت های مختلف می گیرد - که در مجموع کمتر از 20 درصد از صحنه کامل را شامل می شوند. چیزی که باعث می شود این سیستم بسیار مؤثر باشد این است که صرفاً تصاویر را در جهت های رندم نمی گیرد، بلکه بعد از هر نگاه اجمالی، عکس بعدی‌ای را انتخاب می کند که پیش بینی می کند بیشترین اطلاعات جدید را در مورد کل صحنه به او اضافه کند. ما عاملی را می خواهیم که به طور کلی مجهز برای ورود به محیط ها و آماده شدن برای وظایف جدید ادراکی، زمانی که ایجاب می کند، باشد. این بسیار شبیه به این است که اگر شما در یک فروشگاه مواد غذایی باشید که پیش از آن هرگز از آن بازدید نکرده اید و سیب ها را ببینید، انتظار خواهید داشت در نزدیکی آن پرتقال ها را پیدا کنید، اما برای پیدا کردن شیر، ممکن است به جهت مخالف نگاه کنید. بر اساس نظرهای اجمالی، عامل استنتاج می کند که اگر در همه دیگر جهات نگاه کرده بود چه می دید، و با این کار یک تصویر 360 درجه ای کامل از محیط اطرافش را نوسازی می کند.
 
گرامن گفت: "درست همانطور که شما اطلاعات قبلی در مورد قواعد موجود در محیط های قبلا تجربه شده - مثل همه فروشگاه های مواد غذایی که تا به حال در آنها بوده اید – را می آورید، این عامل به طریقی که شامل تمام چیزها نباشد به جستجو می پردازد." " یاد می گیرد حدس و گمان های هوشمندانه بزند که کجا به جمع آوری اطلاعات بصری برای موفقیت در وظایف ادراکی بپردازد."
 
یکی از چالش های اصلی که دانشمندان برای خود تعیین کردند، طراحی یک عامل است که بتواند تحت قیدهای زمانی تنگ کار کند. این در یک برنامه جستجو و نجات، حیاتی است. برای مثال، در یک ساختمان آتش گرفته، یک روبات فرا خوانده شده باید سریعا افراد، شعله های آتش و مواد خطرناک را شناسایی کند و اطلاعات را به آتش نشان ها ارسال کند.
 
در حال حاضر، یک عامل جدید مانند یک فرد ایستاده در یک نقطه عمل می کند، با قابلیت جهت دهی به دوربین در هر جهت، اما قادر به تصمیم گیری برای حرکت به یک موقعیت جدید نیست. یا، معادل با آن، عامل می تواند به یک شیء که نگاه داشته است زُل بزند و تصمیم بگیرد که آن را بچرخاند تا طرف دیگر آن را بررسی کند. در ادامه، محققان در حال توسعه سیستم برای کار با یک روبات کاملا متحرک هستند.
 
با استفاده از ابر رایانه ها در مرکز محاسبات پیشرفته تگزاس و دپارتمان علوم کامپیوتر دانشگاه تگزاس در آستین، تقریباً یک روز طول کشید که، با استفاده از یک رویکرد هوش مصنوعی به نام یادگیری تقویتی، به عامل خود آموزش دهند. این تیم، با رهبری راماکیشنان، یک روش برای سرعت بخشیدن به آموزش را توسعه داد: ساختن یک عامل دوم، به نام یک شخص وابسته، برای کمک به عامل اولیه.
 
راماکیشنان گفت: "استفاده از اطلاعات اضافی که صرفا در طول دوره آموزشی موجود است، به عامل اصلی کمک می کند سریعتر یاد بگیرند."
 
قسمتی از این تحقیق توسط آژانس پروژه های تحقیقاتی پیشرفته دفاع ایالات متحده، دفتر تحقیقات علمی نیروی هوایی ایالات متحده، IBM Corp. و Sony Corp، پشتیبانی شد.
 
در تحقیقی دیگر تحت عنوان " روبات‌ها اشیاء متحرک را با دقتی بی سابقه‌ دنبال می‌کنند "، نشان داده شده است که یک سیستم جدید از برچسب های RFID استفاده می کند تا کمک کند که روبات ها روی اشیاء در حال حرکت با سرعت و دقت بی سابقه ای قفل کنند. این سیستم می تواند همکاری و دقت بیشتر را، با روبات هایی که روی بسته بندی و مونتاژ کار می کنند و با گروه های هواپیماهای بدون سرنشینِ در حال انجام مأموریت های جستجو و نجات، مقدور سازد.
 
محققان نشان می دهند که روبات هایی که از این سیستم استفاده می کنند می توانند اشیاء برچسب زده شده را به طور متوسط ​​در حدود 7.5 میلی ثانیه و با خطای کمتر از یک سانتی متر مکان یابی کنند.
 

منبع: دانشگاه تگزاس در آستین


مقالات مرتبط
ارسال نظر
با تشکر، نظر شما پس از بررسی و تایید در سایت قرار خواهد گرفت.
متاسفانه در برقراری ارتباط خطایی رخ داده. لطفاً دوباره تلاش کنید.