نقشه راه برای ساخت مغز مصنوعی
محاسبات الهام گرفته از مغز اکنون دارای اهمیت است. الگوریتم های شبکه عصبی مصنوعی مانند یادگیری عمیق، که به طور خیلی آزادانه بر اساس عملکرد مغز انسان عمل می کند، اکنون به رایانه های دیجیتالی اجازه می دهد تا کارهای فوق العاده ای مانند ترجمه زبان، جستجوی الگوهای ظریف در حجم عظیمی از داده ها و مغلوب کردن بهترین بازیکنان انسانی در Go را انجام دهند.
 
اما حتی در حالی که مهندسان به دنبال این استراتژی محاسباتی قدرتمند هستند، بازده انرژی محاسبات دیجیتال به سرعت به محدوده خود نزدیک می شود. مراکز داده و ابر رایانه های ما تاکنون مگاوات ها  توان مصرف می کنند - حدود 2 درصد از برق مصرفی در ایالات متحده به تنهایی به مراکز داده می رسد. در مقابل، مغز انسان با حدود 20 وات به خوبی کار می کند، که نشان دهنده قدرت تولید شده توسط کسری از غذایی است که هر روز فرد می خورد. اگر بخواهیم به بهبود محاسبات ادامه دهیم، به رایانه هایی نیاز داریم که بیشتر شبیه مغز ما باشند.
 
از این رو تمرکز اخیر بر فناوری نورومورفیک است که وعده می دهد محاسبات را ورای شبکه های عصبی ساده و به سمت مدارهایی که بیشتر شبیه به نورون ها و سیناپس های مغز عمل می کنند، حرکت دهد. توسعه چنین مدارهای فیزیکی شبیه مغز در واقع بسیار دور است. کار در آزمایشگاه من و دیگران در سراسر جهان طی 35 سال گذشته منجر به ایجاد اجزای عصبی مصنوعی مانند سیناپس ها و دندریت ها شده است که سیگنال های الکتریکی را خیلی شبیه به چیزی واقعی پاسخ می دهند و تولید می کنند.
 
بنابراین، ادغام این اجزای سازنده در رایانه ای در مقیاس مغزی چقدر طول می کشد؟ در سال 2013، بو مار، دانشجوی سابق تحصیلات تکمیلی من درGeorgia Tech ، و من بهترین دانش مهندسی و علوم عصبی آن زمان را بررسی کردیم و به این نتیجه رسیدیم که می توان نسخه سیلیکونی قشر مغز انسان را با فناوری ترانزیستور ساخت. سپس در مرحله تولید علاوه بر این، دستگاه به دست آمده کمتر از یک متر مکعب فضا را اشغال می کند و کمتر از 100 وات توان مصرف می کند، که چندان دور از مغز انسان نیست.
 
این بدان معنا نیست که ایجاد چنین رایانه ای آسان است. سیستمی که ما تصور می کردیم هنوز به چند میلیارد دلار برای طراحی و ساخت نیاز دارد، از جمله برای برخی نوآوری های قابل توجه در بسته بندی برای جمع و جور شدن آن. همچنین این سؤال وجود دارد که چگونه کامپیوتر را برنامه ریزی کنیم و آموزش دهیم. محققان نورومورفیک هنوز در تلاش هستند تا بفهمند چگونه می توان هزاران نورون مصنوعی را واداشت که با هم کار کنند و چگونه می توان فعالیت های مغزی را به کاربردهای مهندسی مفید تبدیل کرد.
 
با این حال، این واقعیت که ما می توانیم چنین سیستمی را تصور کنیم به این معنی است که ممکن است از تراشه های مقیاس کوچک تر که در لوازم الکترونیکی قابل حمل و پوشیدنی استفاده می شود، دور نباشیم. این گجت ها نیاز به مصرف کمِ انرژی دارند و بنابراین یک تراشه نورومورفیک بسیار کارآمد - حتی اگر فقط زیرمجموعه ای از کارهای محاسباتی مانند پردازش سیگنال را به عهده بگیرد - می تواند تحول افرین باشد. قابلیت های موجود، مانند تشخیص گفتار، می تواند برای کنترل محیط های پر سر و صدا گسترش یابد. ما حتی می توانیم تصور کنیم تلفن های هوشمند آینده در حال ترجمه زبان واقعی بین شما و شخصی که با او صحبت می کنید، باشند. این طور فکر کنید: در 40 سال پس از اولین مدارهای مجتمع پردازش سیگنال، قانون مور بازده انرژی را تا حدود فاکتور 1000 بهبود داده است. شبیه ترین تراشه های نورومورفیک به مغز می توانند زمان رسیدن به چنین بهبودهایی را کاهش دهند و به طور بالقوه مصرف توان را با یک فاکتور دیگر 100 میلیون کاهش دهند. این امر محاسباتی را در کف دست شما قرار می دهد که در غیر این صورت به یک مرکز داده نیاز می داشت.
 
ماشینِ دارای شباهت غایی به مغز ماشینی خواهد بود که در آن ما برای همه اجزای عملکردی ضروری مغز آنالوگ یا نظیر می سازیم: سیناپس ها، که نورون ها را به هم متصل کرده و به آنها اجازه می دهند سیگنال ها را دریافت کرده و به آنها پاسخ دهند؛ دندریت ها، که محاسبات موضعی را روی آن سیگنال های ورودی ترکیب کرده و انجام می دهند؛ و هسته یا سوما (جسم یاخته عصبی)، که منطقه هر نورون است، که ورودی های دندریت ها را ادغام کرده و خروجی خود را بر روی آکسون منتقل می کند.
 
نسخه های ساده ی همه این اجزای اساسی قبلاً در سیلیکون پیاده سازی شده اند. نقطه شروع چنین کاری همان ترانزیستور اثر میدان فلز – اکسید - نیمه هادی، یا MOSFET (metal-oxide-semiconductor field-effect transistor) است که میلیاردها نفر برای ساختن مدار منطقی در پردازنده های دیجیتالی مدرن از آن استفاده می کنند.
 
این دستگاه ها شباهت های زیادی با نورون ها دارند. نورون ها با استفاده از موانع کنترل شده با ولتاژ عمل می کنند و فعالیت الکتریکی و شیمیایی آنها در درجه اول به کانال هایی بستگی دارد که یون ها از طریق آنها بین داخل و خارج سلول حرکت می کنند - یک فرآیند صاف و آنالوگ که به جای یک عمل خاموش و روشن کردن ساده، درگیر ایجاد یا کاهش مداوم است.
 
MOSFET  ها ولتاژ را نیز کنترل می کنند و با حرکت واحدهای فردی بار کار می کنند. و هنگامی که MOSFET ها در حالت "زیر آستانه" به کار گرفته می شوند، یعنی زیر آستانه ولتاژ مورد استفاده برای سویچ دیجیتالی بین خاموش و روشن، مقدار جریان جاری از طریق دستگاه بسیار ناچیز است - کمتر از یک هزارم آن چه در سوئیچینگ معمولی دروازه های منطق دیجیتال مشاهده می شود.
 
این تصور که فیزیک ترانزیستور زیرآستانه می تواند برای ایجاد مدارهای مغزی مورد استفاده قرار گیرد ، از Carver Mead of Caltech  سرچشمه گرفت، که در دهه 1970 انقلابی تحول آفرین در زمینه طراحی مدارهای مقیاس بزرگ ایجاد کرد. مید خاطرنشان کرد که طراحان تراشه وقتی از ترانزیستورها فقط برای منطق دیجیتال استفاده می کنند، از بسیاری از رفتارهای جالب - و در نتیجه اطلاعات - استفاده نمی کنند. او در سال 1990 نوشت، این فرایند اساساً شامل "گرفتن تمام فیزیک زیبایی است که در ... ترانزیستورها ساخته شده است، در حالی که آن را به 1 یا 0 خُرد می کنند، و سپس به گونه ای پر دردسر، ساختنِ آن به صورت پشتیبان دروازه های AND و OR برای بازاختراع ضرب. " یک رایانه "فیزیکی" یا "مبتنی بر فیزیک" می تواند محاسبات بیشتری را در واحد انرژی نسبت به دستگاه دیجیتال همتای خود انجام دهد. مید پیش بینی کرد چنین رایانه ای فضای کمتری نیز اشغال خواهد کرد.
 
در سال های بعد، مهندسان نورومورفیک تمام سازه های اصلی مغز را از سیلیکون با وفاداری بیولوژیکی زیادی ساخته اند. اجزای دندریت، آکسون و سومای نورون همه می توانند از ترانزیستورهای استاندارد و سایر عناصر مدار ساخته شوند. در سال 2005، به عنوان مثال، Ethan Farquhar، و سپس یک نامزد دکترای تخصصی، و من یک مدار نورونی با استفاده از مجموعه ای از شش ماسفت (MOSFET) و تعدادی خازن ایجاد کردیم. مدل ما پالس هایی الکتریکی تولید کرد که بسیار نزدیک به قسمت سوما در یک سلول عصبی ماهی مرکب بود، که یک موضوع آزمایشی دیرینه بوده است. علاوه بر این، مدار ما این عملکرد را با سطوح جاری و مصرف انرژی (هر دو) مشابه با مغز مرکب انجام داد. اگر ما در عوض از مدارهای آنالوگ برای مدل سازی معادلاتی که دانشمندان عصب شناسی برای توصیف آن رفتار ایجاد کرده اند استفاده کرده بودیم، به چیزی در حدود 10 برابر ترانزیستور نیاز می داشتیم. انجام این محاسبات با رایانه دیجیتال به فضای بیشتری نیاز دارد.
 
 نقشه راه برای ساخت مغز مصنوعی
 
تصویر: سیناپس و سوما: ترانزیستور دروازه شناور (بالا سمت چپ)، که می تواند مقادیر متفاوتی از بار را در خود ذخیره کند، می تواند برای ایجاد یک مجموعه "نوار عرضی" از سیناپس های مصنوعی (پایین سمت چپ) استفاده شود. نسخه های الکترونیکی سایر اجزای نورون، مانند ناحیه سوما (سمت راست) را می توان از ترانزیستورهای استاندارد و سایر اجزای مدار تهیه کرد. تصویر: جیمز پرووست
 
تقلید از سیناپس ها کمی پیچیده تر است. دستگاهی که مانند سیناپس رفتار می کند باید این قابلیت را داشته باشد که به خاطر بیاورد در چه وضعیتی قرار دارد، به طور خاص به سیگنال ورودی پاسخ دهد و پاسخ آن را در طول زمان تطبیق دهد.
 
چندین روش بالقوه برای ساخت سیناپس وجود دارد. بالغ ترین آن سیناپس یادگیری تک ترانزیستوری (STLS) (single-transistor learning synapse) است، دستگاهی که من و همکارانم در Caltech در دهه 1990 در حالی که دانشجوی کارشناسی ارشد بودم و تحت نظر Mead مشغول به کار بودم، روی آن کار کردیم.
 
ما برای اولین بار STLS را در سال 1994 ارائه کردیم و این ابزار مهم برای مهندسانی بود که در حال ساخت مدارهای آنالوگ مدرن مانند شبکه های عصبی فیزیکی بودند. در شبکه های عصبی، هر گره در شبکه دارای وزن مربوط به خود است و این وزن ها نحوه ترکیب داده های گره های مختلف را تعیین می کنند. STLS اولین دستگاهی بود که می توانست انواع مختلفی از وزن ها را در خود نگه داشته و مجددا برنامه ریزی شود. این دستگاه همچنین فرار است، به این معنی که حتی وقتی از آن استفاده نمی شود، وضعیت خود را به خاطر می آورد - این قابلیت به میزان قابل توجهی میزان انرژی مورد نیاز را کاهش می دهد.
 
STLS  یک نوع ترانزیستور شناور است، دستگاهی که برای ساخت سلول های حافظه در فلش مموری استفاده می شود. در یک ماسفت معمولی، یک گیت جریان الکتریسیته را از طریق یک کانال حامل جریان کنترل می کند. یک ترانزیستور دروازه شناور دارای یک دروازه دوم است که بین این دروازه الکتریکی و کانال قرار دارد. این دروازه شناور مستقیماً به زمین یا هر جزء دیگر متصل نمی شود. به لطف آن جداسازی الکتریکی، که توسط رابط های عایق سیلیکون با کیفیت بالا تقویت شده است، بارها در دروازه شناور برای مدت طولانی باقی می مانند. دروازه شناور می تواند بارهای متفاوتی را به خود اختصاص دهد و سطوح مختلف پاسخ الکتریکی را نیز داشته باشد، که یک ضرورت اساسی برای ایجاد سیناپس مصنوعی است که می تواند پاسخ آن را به محرک ها تغییر دهد.
 
من و همکارانم از STLS برای نشان دادن اولین شبکه نوار عرضی استفاده کردیم، یک مدل محاسباتی که در حال حاضر در بین محققان نانودستگاه محبوب است. در این آرایه دو بعدی، دستگاه ها در تقاطع خطوط ورودی که از شمال به جنوب و خطوط خروجی که از شرق به غرب حرکت می کنند، قرار دارند. این پیکربندی مفید است زیرا به شما امکان می دهد قدرت اتصال هر "سیناپس" را به صورت جداگانه برنامه ریزی کنید، بدون آن که سایر عناصر آرایه را مختل کنید.
 
بنابراین چگونه می توان همه این اجزای شبیه مغز را کنار هم قرار داد؟ البته در مغز انسان، نورون ها و سیناپس ها با هم آمیخته شده اند. طراحان تراشه های نورومورفیک نیز باید از رویکرد یکپارچه تری استفاده کنند و همه اجزای عصبی روی یک تراشه، محکم با هم مخلوط شوند. امروزه در بسیاری از آزمایشگاه های نورومورفیک این طور نیست: برای این که پروژه های تحقیقاتی بیشتر قابل کنترل باشند، اجزای مختلف ساختمان ممکن است در مناطق مختلف قرار داده شود. به عنوان مثال، سیناپس ها ممکن است به یک آرایه خارج از تراشه منتقل شود. اتصالات ممکن است از طریق تراشه دیگری به نام آرایه دروازه قابل برنامه ریزی با میدان یا FPGA (field-programmable gate array) هدایت شوند.
 
اما همان طور که سیستم های نورمورفیک را افزایش مقیاس می دهیم، باید مراقب باشیم که  آرایه را در رایانه های امروزی بازتولید نکنیم، زیرا که مقدار قابل توجهی انرژی را با هدایت بیت ها به عقب و جلو بین منطق، حافظه و انباره از بین می برند. امروزه، یک کامپیوتر می تواند به راحتی 10 برابر انرژی ای را که برای انتقال داده برای یک عملیات تجمع چندگانه – که محاسبه رایج پردازش سیگنال است – نیاز دارد صرف انجام محاسبه کند.
 
برعکس، مغز با ادامه دادن به عملیات به نحو بالایی به صورت موضعی، هزینه انرژی ارتباطات را به حداقل می رساند. عناصر حافظه مغز، مانند قدرت سیناپسی، با اجزای عصبی که سیگنال ها را یکپارچه می کنند، مخلوط شده است. و "سیم" های مغز - دندریت ها و آکسون هایی که از نورون ها به ترتیب سیگنال های دریافتی و پالس های خروجی را منتقل می کنند - به طور کلی نسبت به اندازه مغز کوتاه هستند، بنابراین برای حفظ یک سیگنال به مقادیر زیادی انرژی نیاز ندارند. از داده های آناتومیکی می دانیم که بیش از 90 درصد نورون ها تنها با نزدیک ترین 1000 همسایه خود ارتباط دارند.
 ماشینِ دارای شباهت غایی به مغز ماشینی خواهد بود که در آن ما برای همه اجزای عملکردی ضروری مغز آنالوگ یا نظیر می سازیم: سیناپس ها، دندریت ها، و هسته یا سوما (جسم یاخته عصبی).یک سؤال بزرگ دیگرِ سازندگان تراشه ها و رایانه های شبیه مغز، الگوریتم هایی است که بر روی آنها اجرا می کنیم. حتی یک آزادِ سیستم الهام گرفته از مغز می تواند مزیت بزرگی نسبت به سیستم های دیجیتال داشته باشد. به عنوان مثال، در سال 2004، گروه من از دستگاه های دروازه شناور برای انجام ضرب ها برای پردازش سیگنال با یک هزارم انرژی و یک صدم مساحتِ یک سیستم دیجیتالی قابل مقایسه استفاده کرد. در سال های پس از آن، سایر محققان و گروه من با موفقیت رویکردهای نورومورفیک را برای انواع دیگر محاسبات پردازش سیگنال نشان دادند.
 
اما مغز هنوز 100000 برابر کارآمدتر از سیستم های این تظاهرات است. دلیل این امر این است که در حالی که فناوری عصبی فعلی ما از فیزیک ترانزیستورهای عصبی استفاده می کند، الگوریتم هایی را که مغز برای انجام عملیات خود استفاده می کند در نظر نمی گیرد.
 
امروز ، ما تازه در حال کشف این الگوریتم های فیزیکی هستیم - یعنی فرایندهایی که به تراشه های مغزی اجازه می دهد با کارایی بیشتر شبیه مغز عمل کنند. چهار سال پیش، گروه تحقیقاتی من از سوما، سیناپس و دندریت های سیلیکون برای انجام یک الگوریتم تشخیص لغت استفاده کرد که کلمات را در شکل موج گفتار شناسایی می کند. این الگوریتم فیزیکی هزاران بار بهبود بهره وری انرژی را نسبت به پردازش سیگنال آنالوگ پیش بینی شده نشان داد. سرانجام، با کاهش میزان ولتاژ تأمین شده برای تراشه ها و استفاده از ترانزیستورهای کوچک تر، محققان باید بتوانند تراشه هایی بسازند که در کارآیی برای طیف وسیعی از محاسباتی که انجام می شود موازی مغز  باشد.
 
وقتی 30 سال پیش در تحقیقات نورومورفیک شروع به کار کردم، همه معتقد بودند که با طراحی سیستم هایی که بیشتر شبیه مغز هستند، فرصت های فوق العاده ای ایجاد می شود. و در واقع، کل صنایع در حال حاضر در اطراف هوش مصنوعی الهام گرفته از مغز و یادگیری عمیق در حال ساخته شدن هستند، با برنامه هایی که نوید دگرگونی را می دهند از جمله برای دستگاه های تلفن همراه ما، مؤسسات مالی ما و نحوه تعامل ما در فضاهای عمومی.
 
و با این حال، این برنامه ها فقط کمی به آن چه ما در مورد نحوه عملکرد مغز می دانیم تکیه می کنند. بدون شک 30 سال آینده شاهد ترکیب چنین دانش هایی خواهیم بود. ما در حال حاضر بسیاری از سخت افزارهای اساسی مورد نیاز برای انجام این ترجمه عصب شناسی به محاسبات را داریم. اما ما باید درک بهتری از نحوه عملکرد آن سخت افزار داشته باشیم - و این که چه برنامه های محاسباتی بیشترین مزایای دنیای واقعی را به همراه خواهد داشت.
 
این را دعوت به عمل بدانید. ما با یک مدل بسیار شل از نحوه عملکرد مغز بسیار جلو رفته ایم. اما علوم اعصاب می تواند منجر به کامپیوترهای پیچیده تری مانند مغز شود. و چه چیزی بزرگ تر از استفاده از مغز خود برای یادگیری نحوه ساختن مغزهای جدید است؟
 
منبع: جنیفر هاسلر، مؤسسه فناوری جورجیا
نسخه چاپی