شرکت ها می توانند مجذوب این ایده که نیاز به یک سیستم یادگیری عمیق پیشرفته دارند که بتواند همه کارها را انجام دهد، شوند. با این حال، اگر آنها بخواهند با یک مورد استفاده متمرکز، مانند خودکارسازی صورتحساب برخورد کنند، نیازی به سیستم پیشرفته ندارند. آموزش یک مدل هوش مصنوعی پیشرفته به زمان، هزینه و داده های با کیفیت بالا نیاز دارد. همچنین این امر انرژی زیادی مصرف می کند.
بین ذخیره اطلاعات در مراکز داده در مقیاس بزرگ و سپس استفاده از این داده ها برای آموزش یک مدل یادگیری ماشین یا یادگیری عمیق، مصرف انرژی AI زیاد است. در حالی که یک سیستم هوش مصنوعی ممکن است از نظر درآمدزاییِِ پولی جواب دهد، این سیستم از نظر زیست محیطی مشکل ایجاد می کند.
مصرف انرژی هوش مصنوعی در حین آموزش
به عنوان مثال، برخی از محبوب ترین مدل های زبان را در نظر بگیرید.OpenAI مدل GPT-3 خود را بر روی 45 ترابایت داده آموزش داد. برای آموزش نسخه نهایی MegatronLM، یک مدل زبانی مشابه اما کوچک تر ازGPT-3 ، Nvidia 512 پردازنده گرافیکی V100 را در مدت 9 روز اجرا کرد.
کیفیت داده ها برای برنامه های کلان داده که حجم، تنوع و سرعت بسیار بیشتری از داده ها را شامل می شود، اهمیت بیشتری پیدا می کند.یک واحد گرافیکی V100 می تواند بین 250 تا 300 وات مصرف کند. اگر فرض کنیم 250 وات باشد، 512 V100 GPUS 128000 وات یا 128 کیلووات (کیلو وات) مصرف می کند. اجرای نه روزه به این معنی است که آموزش MegatronLM 27648 کیلووات ساعت (kWh) هزینه داشته است.
به گفته اداره اطلاعات انرژی ایالات متحده، متوسط خانوارها سالانه 10649 کیلووات ساعت مصرف می کنند. بنابراین، آموزش نسخه نهایی MegatronLM تقریباً انرژی ای به میزان مصرف انرژی سه خانه در مدت یک سال مصرف کرده است.
تکنیک های جدید آموزشی میزان داده های مورد نیاز برای آموزش مدل های یادگیری ماشین و یادگیری عمیق را کاهش می دهد، اما بسیاری از مدل ها هنوز برای تکمیل یک مرحله آموزشی اولیه به مقدار زیادی داده و برای به روز نگه داشته شدن به داده های اضافی نیاز دارند.
هنوز این فرض گسترده وجود دارد که دیجیتال ذاتاً سبز است و این خیلی دور از واقعیت است.
مصرف انرژی مراکز داده
با پیچیده تر شدن هوش مصنوعی، انتظار داشته باشید که برخی از مدل ها از داده های بیشتری استفاده کنند. این یک مشکل است، زیرا مراکز داده از مقداری باورنکردنی از انرژی استفاده می کنند.آلن پلز شارپ، بنیان گذار شرکت تحلیل گر Deep Analysis می گوید: "مراکز داده یکی از تأثیرگذارترین چیزها بر محیط زیست خواهند بود. "گر چه هوش مصنوعی مزایای زیادی برای مشاغل دارد، اما مشکلاتی را برای محیط زیست ایجاد می کند.
شرکت هواشناسی IBM روزانه حدود 400 ترابایت داده را پردازش می کند تا مدل های آن بتوانند وضعیت روزهای آینده را از نظر آب و هوایی از قبل در سراسر جهان پیش بینی کنند. فیس بوک روزانه حدود 4 پتابایب (4000 ترابایت) داده تولید می کند.
مردم در سال 2020 در حدود 64.2 زتابایت اطلاعات تولید کردند. این رقم در حدود 58،389،559،853 ترابایت است.
در حالی که مراکز داده در دهه گذشته از نظر الکتریکی کارآمدتر شده اند، کارشناسان معتقدند که برق فقط 10 درصد از انتشار CO2 یک مرکز داده را تشکیل می دهد. زیرساخت های مرکز داده، شامل ساختمان و سیستم های خنک کننده نیز CO2 زیادی تولید می کند.مراکز داده این داده ها را در سراسر جهان ذخیره می کنند.
در همین حال، بر اساس نظر اتاق فکر اندیشکده انرژی و آب و هوایEnergy Innovation ، بزرگ ترین مراکز داده به بیش از 100 مگاوات ظرفیت نیاز دارند که برای تأمین انرژی حدود 80،000 خانوار آمریکایی کافی است.
مراکز داده را می توان "مغز" اینترنت دانست. وظیفه آنها پردازش، ذخیره و ارتباط داده ها در پشت خدمات بی شمار اطلاعاتی است که ما هر روز به آنها تکیه می کنیم، اعم از پخش ویدئو، ایمیل، رسانه های اجتماعی، همکاری آنلاین یا محاسبات علمی. مراکز داده از دستگاه های مختلف فناوری اطلاعات (IT) برای ارائه این خدمات استفاده می کنند که همه آنها از برق استفاده می کنند. سرورها در پاسخ به درخواست اطلاعات، محاسبات و منطق را ارائه می دهند، در حالی که درایوهای ذخیره سازی فایل ها و داده های مورد نیاز برای برآوردن این درخواست ها را در خود جای می دهند.
دستگاه های شبکه مراکز داده را به اینترنت متصل می کنند و جریان داده های ورودی و خروجی را فعال می کنند. الکتریسیته مورد استفاده این دستگاه های فناوری اطلاعات در نهایت به گرما تبدیل می شود که باید با استفاده از تجهیزات خنک کننده که با برق کار می کنند، از مرکز داده حذف شود. به طور متوسط، بیشترین سهم مصرف مستقیم برق را در مراکز داده سرورها و سیستم های خنک کننده و پس از آن درایوهای ذخیره سازی و دستگاه های شبکه به خود اختصاص می دهند.
هوش مصنوعی پر انرژی است و هر چه تقاضا برای هوش مصنوعی بیشتر باشد، از توان بیشتری استفاده می کنیم. انرژی الکتریکی صرفاً برای آموزش هوش مصنوعی نیست.این مصرف در حال ساخت ابر رایانه ها است. این مصرف همچنین داده ها را جمع آوری و ذخیره می کند. برخی از بزرگ ترین مراکز داده جهان هر کدام می توانند ده ها هزار دستگاه فناوری اطلاعات را در بر بگیرند و به بیش از 100 مگاوات (مگاوات) ظرفیت نیاز دارند – که برای تأمین برق مورد نیاز 80 هزار خانوار آمریکایی کافی است. با افزایش تعداد کاربران جهانی اینترنت، تقاضا برای خدمات مرکز داده نیز افزایش یافته است و نگرانی هایی را در مورد افزایش استفاده از انرژی مراکز داده ایجاد کرده است.
بین سال های 2010 تا 2018، ترافیک IP جهانی- مقدار داده های منتقل کننده اینترنت - بیش از ده برابر افزایش یافته است، در حالی که ظرفیت ذخیره سازی مراکز داده جهانی به طور موازی 25 برابر افزایش یافته است. در همان بازه زمانی، تعداد نمونه های محاسبه ای که روی سرورهای جهان اجرا می شوند – یعنی اندازه ای از کل برنامه های میزبانی شده - بیش از شش برابر افزایش یافته است.
انتظار می رود این روندهای رشد قوی همچنان ادامه یابد زیرا جهان داده های بیشتری مصرف می کند. و اشکال جدید خدمات اطلاعاتی مانند هوش مصنوعی(AI) ، که از نظر محاسباتی بسیار فشرده است، ممکن است رشد تقاضا را بیشتر تسریع کند. بنابراین، توانایی کمّی سازی و پیش بینی استفاده از انرژی مراکز داده، اولویت اصلی سیاست انرژی و آب و هوا است.
با وجود 600 مرکز داده فوق مقیاس بزرگ در جهان - مراکز داده ای که بیش از 5000 سرور و 10000 فوت مربع مساحت دارند، مشخص نیست که چقدر انرژی برای ذخیره همه داده های ما مورد نیاز است، اما این مقدار احتمالاً سرسام آور است. در حال حاضر آمارهای رسمی در مورد استفاده از انرژی مراکز داده در سطح ملی یا جهانی تنظیم نشده است. بنابراین، برای برآورد این مصرف انرژی، باید از مدل های ریاضی استفاده شود. مدل های به اصطلاح "از پایین به بالا" ذخایر نصب شده دستگاه های فناوری اطلاعات در مراکز داده مختلف و ویژگی های مصرف انرژی آنها را برای برآورد کل مصرف انرژی محاسبه می کنند. در حالی که مطالعات از پایین به بالا بینش های زیادی در مورد محرک های مصرف انرژی ارائه می دهند، اما داده ها و زمان زیادی را نیز در بر می گیرند.
با وجود 600 مرکز داده فوق مقیاس بزرگ در جهان - مراکز داده ای که بیش از 5000 سرور و 10000 فوت مربع مساحت دارند، مشخص نیست که چقدر انرژی برای ذخیره همه داده های ما مورد نیاز است، اما این مقدار احتمالاً سرسام آور است.
از نظر زیست محیطی، مصرف انرژی مراکز داده و هوش مصنوعی نیز یک کابوس است.
تصویر: یک مرکز داده گوگل. مرکز داده Google در شهرستان داگلاس، جورجیا.
بین سال های 2010 تا 2018، ترافیک IP جهانی- مقدار داده های منتقل کننده اینترنت - بیش از ده برابر افزایش یافته است، در حالی که ظرفیت ذخیره سازی مراکز داده جهانی به طور موازی 25 برابر افزایش یافته است. در همان بازه زمانی، تعداد نمونه های محاسبه ای که روی سرورهای جهان اجرا می شوند – یعنی اندازه ای از کل برنامه های میزبانی شده - بیش از شش برابر افزایش یافته است.
هوش مصنوعی، داده ها و محیط
مصرف انرژی، CO2، گاز اصلی گلخانه ای منتشر شده توسط انسان را ایجاد می کند. در اتمسفر، گازهای گلخانه ای مانند CO2 گرما را در نزدیکی سطح زمین به دام می اندازند و باعث افزایش دمای زمین می شوند و اکوسیستم های ظریف را از تعادل خارج می کنند.گری مک گاورن، نویسنده کتاب زباله در سرتاسر جهان می گوید: "ما بحران مصرف انرژی داریم. "
او گفت که هوش مصنوعی پر انرژی است و هر چه تقاضا برای هوش مصنوعی بیشتر باشد، از توان بیشتری استفاده می کنیم.
وی گفت: " انرژی الکتریکی صرفاً برای آموزش هوش مصنوعی نیست." "این مصرف در حال ساخت ابر رایانه ها است. این مصرف همچنین داده ها را جمع آوری و ذخیره می کند. "
مک گاورن برآورد کرد که تا سال 2035، انسان ها بیش از 2000 زتابایت داده تولید خواهند کرد. وی گفت: "انرژی ذخیره شده برای این امر نجومی خواهد بود. "
به قول آلن پلز شارپ، مؤسس تحلیل عمیق، مراکز داده یکی از تأثیرگذارترین موارد بر محیط زیست خواهند بود.
به طور متوسط، بیشترین سهم مصرف مستقیم برق را در مراکز داده سرورها و سیستم های خنک کننده و پس از آن درایوهای ذخیره سازی و دستگاه های شبکه به خود اختصاص می دهند.در حال حاضر، بزرگ ترین کاربران داده ها در مورد ردپای کربن یا مشکل مصرف انرژی AI کار چندانی نمی کنند.
مک گاورن گفت: "من از برخی بازشناسی ها [ی مشکل ردپای کربن هوش مصنوعی] آگاه هستم در حالی که اقدامات زیادی انجام نمی شود." "مراکز داده، که" منابع غذایی" برای هوش مصنوعی هستند، بر بازده الکتریکی متمرکز بوده اند و قطعاً پیشرفت های عمده ای در 10 سال گذشته داشته اند. "
مک گاورن گفت، در حالی که مراکز داده در دهه گذشته از نظر الکتریکی کارآمدتر شده اند، کارشناسان معتقدند که برق فقط 10 درصد از انتشار CO2 یک مرکز داده را تشکیل می دهد. زیرساخت های مرکز داده، شامل ساختمان و سیستم های خنک کننده نیز CO2 زیادی تولید می کند.
علاوه بر این، مراکز داده همچنین از آب زیادی به عنوان نوعی خنک کننده تبخیری استفاده می کنند. این روش خنک کننده مصرف برق را کاهش می دهد اما می تواند میلیون ها گالن آب در روز در هر مرکز داده مقیاس بزرگ استفاده کند. مک گاورن خاطر نشان کرد: علاوه بر این، آب مورد استفاده می تواند در این فرآیند آلوده شود.
وی گفت: "هنوز این فرض گسترده وجود دارد که دیجیتال ذاتاً سبز است و این خیلی دور از واقعیت است. "
تأثیرات محیطی مشاغل
در حالی که مشاغل معمولی نمی توانند نحوه ذخیره داده های شرکت های بزرگ را تغییر دهند، اما مشاغلی که نگران ردپای محیطی خود هستند می توانند بر ایجاد داده های باکیفیت و نه پر کمیت تمرکز کنند. آنها می توانند داده هایی را که دیگر استفاده نمی کنند، برای مثال، حذف کنند. به گفته مک گاورن، کسب و کارها 90 درصد از داده ها را 90 روز پس از ذخیره سازی، دیگر استفاده نمی کنند.بزرگ ترین مراکز داده به بیش از 100 مگاوات ظرفیت نیاز دارند که برای تأمین انرژی حدود 80،000 خانوار آمریکایی کافی است.کیفیت داده ها می تواند یک چالش بزرگ در هر پروژه مدیریت داده و تجزیه و تحلیل باشد. مشکلات می توانند از منابعی مانند غلط های املایی، قراردادهای نامگذاری مختلف و مشکلات ادغام داده ها بیرون بیایند. اما کیفیت داده ها برای برنامه های کلان داده که حجم، تنوع و سرعت بسیار بیشتری از داده ها را شامل می شود، اهمیت بیشتری پیدا می کند.
اما چرا کیفیت داده ها برای داده های بزرگ مهم است؟ مسائل مربوط به کیفیت داده های بزرگ می تواند نه تنها به الگوریتم های نادرست منجر شود، بلکه منجر به حوادث و آسیب های جدی و در نتیجه پیامدهای سیستمی جهان واقعی می شود. حداقل، کاربران تجاری تمایل کمتری به اعتماد به مجموعه داده ها و برنامه های کاربردی ایجاد شده بر روی آنها خواهند داشت. علاوه بر این، اگر کیفیت و دقت داده ها در تصمیم گیری های تجاری اولیه نقش داشته باشد، ممکن است شرکت ها تحت نظارت دولت قرار گیرند. معاون ارشد علوم زیستی در ارائه دهنده خدمات تحول دیجیتال Orion Innovation گفت: داده ها تنها در صورتی می توانند دارایی استراتژیک باشند که فرآیندها و مکانیسم های پشتیبانی کافی برای مدیریت و مدیریت کیفیت داده ها وجود داشته باشد.
با پیچیده تر شدن هوش مصنوعی، انتظار داشته باشید که برخی از مدل ها از داده های بیشتری استفاده کنند. این یک مشکل است، زیرا مراکز داده از مقداری باورنکردنی از انرژی استفاده می کنند.مشاغل همچنین می توانند نحوه استفاده از هوش مصنوعی یا نوع هوش مصنوعی مورد استفاده خود را تنظیم کنند.
سازمان ها می توانند در مورد موارد استفاده خاصی که می خواهند انجام دهند فکر کنند و یک هوش مصنوعی یا فناوری اتوماسیون اختصاص داده شده به آن مورد استفاده را انتخاب کنند. به هر حال، انواع مختلف هوش مصنوعی هزینه های مصرف انرژی AI اضافی دارند.
پلز شارپ گفت، شرکت ها می توانند مجذوب این ایده که نیاز به یک سیستم یادگیری عمیق پیشرفته دارند که بتواند همه کارها را انجام دهد، شوند. با این حال، اگر آنها بخواهند با یک مورد استفاده متمرکز، مانند خودکارسازی صورتحساب برخورد کنند، نیازی به سیستم پیشرفته ندارند. این سیستم ها گران هستند و از داده های زیادی استفاده می کنند، به این معنی که رد پای کربن بالایی دارند.
یک سیستم اختصاصی در مورد حجم بسیار کمتری از داده ها آموزش دیده است در حالی که احتمالاً یک مورد استفاده خاص و همچنین یک سیستم کلی تر را تکمیل می کند.
پلز شارپ گفت: "از آن جا که بسیار تخصصی است، هوش مصنوعیِ این سیستم های اختصاصی بر روی دقیق ترین داده های ممکن آموزش داده شده است" در حالی که یک مجموعه داده کوچک را حفظ می کند. در حالی که یک مدل یادگیری عمیق، در عین حال، باید حجم عظیمی از داده ها را برای دستیابی به هر چیزی جمع آوری کند.
مک گاورن گفت: "در همه تصمیمات خود، ما باید تجربه زمین را در نظر بگیریم. "
آموزش یک مدل هوش مصنوعی پیشرفته به زمان، هزینه و داده های با کیفیت بالا نیاز دارد. همچنین این امر انرژی زیادی مصرف می کند.
منبع: مارک لبه، SearchEnterpriseAI