Google and Facebook

سال 1999 بود که مؤسسان شرکت Google, Sergey Brin و Larry Page به تازگی دو شرکت ناآشنا و بیگانه خود را با یکدیگر ادغام کرده بودند و به تعداد زیادی سرور نیاز داشتند. بنابراین شروع به خرید مادربورد، دیسک
چهارشنبه، 27 شهريور 1392
تخمین زمان مطالعه:
موارد بیشتر برای شما
Google and Facebook
 Google and Facebook






 

سرکشی به دیتاسنترها، سرویس ها و نرم افزارهایی که احساس شیرین اتصال به جهان را برای ما به ارمغان می آورند

سال 1999 بود که مؤسسان شرکت Google, Sergey Brin و Larry Page به تازگی دو شرکت ناآشنا و بیگانه خود را با یکدیگر ادغام کرده بودند و به تعداد زیادی سرور نیاز داشتند. بنابراین شروع به خرید مادربورد، دیسک درایو و منبع تغذیه کردند. مدت های نه چندان زیادی از تحصیل آن دو می گذشت و از طرفی با وضعیت مالی نه چندان مناسبی روبرو بودند. بنابراین برای صرفه جویی در پول 4 مادربورد را به یک منبع تغذیه متصل کردند و آنها را به یک صفحه فلزی که به منظور اجتناب از اتصالات کوتاه با چوب پنبه هایی در یک خط نگه داشته بودند، سوار کردند. سپس این سرورهای غیرعملیاتی را در رک های مجهز به کابل های شبکه ای که در همه جا آویخته بودند متراکم ساختند. در روزهای ابتدایی آغاز کار، زیر ساخت فنی Google بدون هیچ ارتقایی به همین صورت به کار خود ادامه داد. در آن زمان Google تمایلی به فاش کردن نحوه عملکرد خود در Back-end نداشت.
مهندسان این شرکت در مصاحبه ای با IEEE Spectrum عمداً برخی سؤالات را به صورت مبهم و سربسته پاسخ می دادند و از جملاتی شبیه به "ما قصد نداریم درباره جزئیات صحبت کنیم" و یا اینکه "ما نمی توانیم زیاد راجع به جزئیات حرف بزنیم" استفاده می نمودند. در واقع Google سعی داشت تا موقعیت دیتاسنترهای خود را که در 20 جای ایالت متحده امریکا پراکنده بودند را به صورت راز نگه دارد. البته این کار چندان هم معقول و آسان نبود چرا که مخفی نگه داشتن انبار تجهیزات مالتی میلیون دلاری که نگهداری آن نیازمند کسب تأیید و تصویب مقامات رسمی محلی و بررسی توسط ممیزهای دولتی بود، دشوار به نظر می رسید. امروزه کسب اطلاعات ارزشمند درباره زیر ساخت های Google به راحتی توسط "googling Google یا تجسس درباره Google" امکان پذیر شده است.
Facebook نیز به سرعت از یک پروژه دانش آموزی به یک امپراطوری در وب پرتاپ شد! با افزایش سریع نرخ محبوبیت این سایت در میان عموم مردم، مهندسان Facebook باید برای نگه داشتن جایگاه خود با سرعت بسیار زیادی رکاب بزنند. Google و Facebook در برخی جنبه ها با یکدیگر شباهت هایی نیز داشته اند. به عنوان مثال هر دو اولین دیتاسنتر خود را در هفتمین سال عملیات خود افتتاح کردند. اما این دو شرکت در جنبه های اساسی و ریشه ای کار با یکدیگر تفاوت داشتند. به خصوص درباره چگونگی تولید نرم افزارهای مورد انتظار ما و یا نحوه رویارویی با عملیات های تکنیکی.
عملیات ها باید به گونه ای برنامه ریزی شود که هم از نظر اندازه و هم از نظر پیچیدگی پاسخگوی رشد نمایی نیازها نیز باشد. هم اکنون در هر روز موتور جستجوی Google بالغ بر یک میلیارد درخواست جستجو را اجابت می کند و یک چهارم میلیارد نفر روزانه از وب سایت Facebook بازدید می نمایند. هر دو شرکت ملزم هستند تا حجم وسیعی از دانش مهندسی روز را به کار گیرند تا بتوانند پاسخگوی این حجم ترافیک باشند که حقیقتاً در حال حاضر این کار را به خوبی انجام می دهند.
دیتاسنتر Google در شهر Dalles, Ore که در سال 2006 تکمیل شد، یکی از اولین دیتاسنترهایی بود که به جای اجاره کردن، توسط خود شرکت ساخته شد. در آن زمان Google تمایل داشت تا این پروژه را سری نگه دارد. بنابراین با مقامات رسمی شهر توافقات عدم افشاء را امضاء نمود که در آنها حتی محرمانه ماندن تجهیزات از نظر مطبوعات نیز قید شده بود. اگرچه امروزه شرکت Google و موقعیت یکی از دیتاسنتر آن در منطقه ویژه Columbia River به اندازه کافی روشن شده است اما تا همین امروز Google Earth تنها نمای فوقانی سایت که پیش از ساخته شدن آن گرفته شده بود را نشان می دهد.
دیدگاه Google درباره دیتاسنترهایش چندان هم سفت و سخت نیست. برای مثال در سال 2009 Google دیتاسنتر اثر بخش کننده انرژی خود را راه اندازی کرد و اطلاعات بیشتری درباره عملکرد آن نیز منتشر ساخت. یک روز بعد یک ویدئوی داستانی را درباره یکی از دیتاسنترهای خود در YouTube منتشر ساخت و از آن دیتاسنتر با نام دیتاسنتر A یاد کرد. این دیتاسنتر دارای 45 هزار سرور است که در 45 کانتینر حمل و نقل جاسازی شده و در یک ساختمان تونل مانند قرار داده شده است. این ساختمان به گونه ای به نظر می آید که گویی محلی موقتی بوده و Google قصد دارد به محض آگاهی عموم از این محل آنها را به محل دیگری انتقال دهد.
این رویکرد ماژولار تنها مختص گوگل نیست و رویکرد استانداری هم نیز نیست. Google همچنین در مدیریت انرژی نیز به روش متداول و معمول کنونی عمل نمی کند. ژنراتورهای پشتیبان هنگام از کار افتادن شبکه وارد مدار می شوند اما در همان لحظه شروع به کار نمی کنند و برای عملیاتی نگه داشتن سرورها در 10 ثانیه اول (یا بیشتر) پس از خاموش شدن چراغ چشمک زن، نیازمند یک منبع تغذیه بدون وقفه یا UPS هستند.
اکثر دیتاسنترها برای مدیریت انرژی خود در هنگام وقفه های ناگهانی از تعداد زیادی UPSهای متمرکز استفاده می کنند اما برخی از آنها بلااستفاده هستند. این امر به این علت است که ولتاژ AC به ولتاژ DC تبدیل می شوند و سپس به ولتاژ AC باز می گردنند و به واحدهای توزیع انرژی مختلف فرستاده شده و از آنجا به هر یک از سرورها ارسال می شوند. در حین این تغییرات ولتاژها افت و خیز هم خواهند داشت و در حدود 10 درصد از الکتریسیته آنها در تجهیزات کامپیوتری تلف می شوند. به همین دلیل Google به منظور اجتناب از این ضایعات به هر یک از سرورها یک UPS کوچک متصل می کند.
تکنولوژی دیگری که Google در ویدئو خود در YouTube درباره تکنولوژی دیتاسنترهایش به نمایش گذاشت تکنیک خنک کننده است که به نام صرفه جوگر آبی معروف است. این تکنیک نقش مهمی را ایفا می کند چرا که در چند سال اخیر نزدیک به 40 درصد از هزینه مصرف برق دیتاسنترها به دلیل سیستم خنک کننده آنها بوده است. صرفه جوگر آبی هزینه ها را با استفاده از آب کاهش می دهد. در واقع آب قطره قطره به سوی تبادلگر گرما در خارج از ساختمان انتقال می یابد.
یک حلقه خنک کننده مسدود شده که از داخل کانتینر حاوی سرورهای متراکم شده عبور کرده است، آب گرم را به سمت تبادلگر گرما هدایت می کند. با هدایت قطره قطره آب و تبخیر آن، مقدار زیادی از گرمای موجود از سیستم خارج می شود. فصول مختلف تا حدودی بر این تاکتیک تأثیرگذار هستند اما در اکثر مواقع قادر است سرورها را خنک نگه دارد. چیلرهای خنک کننده قدیمی نیز می توانند در صورت نیاز در حلقه مذکور مورد استفاده قرار گیرند و به خنک نگه داشتن کمک کنند.
دیتاسنترهای Google نسبت به گذشته استفاده اثربخش تری از برق می کنند. متخصصان دیتاسنتر به منظور سنجش اثربخشی از یک روش آماری با نام "میزان اثربخشی انرژی مصرفی یا (PUE)" استفاده می نمایند. نحوه محاسبه به این گونه است که کل انرژی الکتریکی مصرفی توسط یک دستگاه را به انرژی توزیع شده به کامپیوترها و تجهیزات شبکه مربوط به آنها تقسیم می کنند.
اواخر سال 2010 مقدار کل PUE محاسبه شده برای دیتاسنترهای Google 1.13 برآورده شد که این مقدار به میزان ایده آل خود که 1.0 است بسیار نزدیک بود. با انجام محاسبات فوق برای 22 دیتاسنتر، عدد میانگین PUE برابر با 2.0 گردید که این پیشرفت بسیار مهم تلقی می شود. در واقع عدد 2.0 برای PUE به این معناست که یک وات برای استفاده برای فعالیت های کامپیوتری و شبکه ای صرف می شود و یک وات دیگر هم صرف چیلرها، سیستم روشنایی، پمپ ها، فن ها، تجهیزات اداری و سایر تجهیزات می گردد.
اگرچه سایر دیتاسنترهای بزرگ می توانند به راحتی با Google و شرایط توصیف شده آن برای دیتاسنترهایش رقابت کنند. ولیکن اینطور به نظر می رسد که با به کارگیری مراکز بیشتر اثربخش کننده انرژی میزان PUE Google همچنان کمتر و کمتر شود. این شرکت در حال حاضر بر روی دیتاسنتری در کشور فنلاند کار می کند که در آن، برای نمونه، سرورها با استفاده از پمپ کننده های آب دریای بالتیک (نام دریایی در شمال اروپا) خنک می شوند.
اما تنها مهندسان شرکت Google نیستند که نحوه استفاده از روش های سوپر اثربخش کنندگان انرژی را برای دیتاسنترهای خود می دانند. مهندسان Facebook نیز به همین سرعت در حال ترقی بوده و مشتاقانه در پی ارائه نتایج خود هستند.
سری به فضای گسترده ای می زنیم که دیتاسنتر جدید Facebook در آن در حال ساخته شدن است. محلی که دارای خاک رس قرمز بوده و در موقعیتی واقع شده است که تا پیش از این جنگل شرقی کوهستان Blue Ridge در آن قرار داشت. مقیاس عظیم این پروژه هر انسانی را تحت تأثیر خود قرار می دهد. محوطه ای 24 هزار مترمربعی (معادل 370 هزار فوت مربع) در جلوی چشم انسان جلوه گری می کند و پیوسته تا مسافت 340 متری (معادل 1100 فوت) امتداد می یابد. سوپر دیتاسنتر WalMart را به خاطر می آورید؟ حتی تصور بزرگی آن هم به حد کافی میسر نبود. باید بگوییم که Facebook قصد دارد زمانی 3 عدد دیتاسنتر غول پیکر دیگر را نیز یکجا بنا کند. علاوه بر سایز عظیم آن، شگفتی دیگر در سرعت کار پیمانکاران آن، DPR/Fortis روی این پروژه است. بطوریکه چنین پیش بینی می شود این پروژه 4 ماه زودتر از زمان مورد انتظار به پایان می رسد.
Tom Furlong ناظر عملیاتی دیتاسنتر Facebook می گوید: "این پروژه من را واقعاً شگفت زده کرده است." در ملاقاتی با Tom Furlong در سایت روستای Rutherford County در شمال Carolina, Furlong عنوان کرد که در سال های ابتدایی کار Facebook، شرکت با یک Collocation (محلی است که سرورهای چندین شرکت در آن نگهداری می شوند) ساده نیز قادر به راه اندازی کارهای خود بود اما هم اکنون شاهد رشد شرکت و ساخت دیتاسنتر شخصی آن هستیم.
در سال 2008 که وضعیت اقتصادی بخش های زیادی از جهان با مشکلاتی مواجه گردید، اوضاع تغییر کرد. در آن زمان اکثر سرورهای Facebook در اجاره دیتاسنترهای San Francisco Bay بودند. در آنجا شرکت از 8 عدد تجهیزات جداگانه که به یک لینک داده پر سرعت متصل بودند، استفاده می کرد. علاوه بر آن شرکت مجبور شد تا فضایی از دیتاسنتر Virginia شمالی را نیز برای متمرکز کردن فعالیت های خود اجاره کرده و به کار گیرد.
Furlong می گوید: هنگامیکه شرکت به دنبال فضای بیشتری می گشت متوجه شد که دیتاسنترهای زیادی قربانی بحران مالی شده اند. بالاخره Facebook از جستجوی فضا برای سرورهای خود خسته شد و در اوایل سال 2009 تصمیم گرفت تا دیتاسنتر مخصوص به خود را ایجاد کند. در ماه آگوست همان سال Furlong و همکاران او روی Prineville Ore و 150 کیلومتر دورتر از ساختمان های Google (در Dalles) کار می کردند. هنوز کار روی مرکز Prineville به پایان نرسیده بود، شرکت طرح بعدی را برای ساخت دومین دیتاسنتر خود در شمال کالیفرنیا به فراخوان گذاشت.
در حالیکه Mark Zuckerberg مدیر ارشد اجرایی Facebook در حال مشاجره و چالش درباره این موضوع که "آزادی یک هنجار اجتماعی جدید است" بود، مهندسان Facebook برخی از ویژگی های فنی آخرین دستاوردهای خود در تجهیزات را منتشر ساختند. آنها معتقداند که PUE برآورد شده آنها عددی برابر 1.07 و یا کمتر است. آنها پروژه خود را "پروژه کامپیوتری باز" نام گذاری کردند. البته این امر به این معنا نبود که تمامی سورس های سخت افزاری و نرم افزاری آنها برای استفاده و کپی برداری عموم در دسترس قرار گرفت اما مقالات منتشر شده توسط آنها دارای جزئیات فوق العاده ای بود.
شکل [1]
دیتاسنتر Facebook واقع در Prineville Ore از یک سیستم مه ساز استفاده می کند. این سیستم هوای خارجی را خنک می کند، سپس این هوای خنک را به داخل سرورها انتقال می دهد.
مرکز Prineville که رسماً در ماه آپریل در مدار قرار گرفت و عملیاتی شد همانند رویکرد Google، در کانیترهای حمل کننده سرور قرار نگرفت. Tom Furlong می گوید: "ماژولار بودن تنها روش برای صرفه جویی اقتصادی نیست. از راه های دیگری نیز می توان استفاده نمود." بنابراین Prineville سرورهای خود را در همان رک های سنتی جای داد و آنها را مستقیماً در کف دیتاسنتر خود که توسط جریان هوا از زیر و کنار خنک می شد، قرار داد. این جریان هوا از تهویه کننده های قدیمی تأمین نمی شوند. Jay Park مدیر طراحی و ساخت دیتاسنتر Facebook توضیح می دهد که: "برای این منظور از یک خنک کننده تبخیر مستقیم استفاده می شود". یک سیستم مه ساز هوا را خنک می کند و در عوض هوای سرد، سرورها را خنک نگه می دارد. "این نحوه عملکرد یک سیستم مه ساز است".
استفاده از خنک کننده تبخیر مستقیم اعتقاد مهندسین Facebook را در ساده سازی نشان می دهد. Park می گوید: "دیتاسنتر ما در Prineville اساساً بر هوای خارجی مبتنی است". "ما هوای خارج را فیلتر می کنیم و به سیستم مه ساز انتقال می دهیم. سپس عمل مکش هوا را به داخل دیتاسنتر انجام می دهیم. اگر هوای خارجی بسیار سرد باشد، آن را تعدیل می نماییم در غیر اینصورت هوا را مستقیماً وارد می کنیم". Park ادعا می کند که طراحی مکانیکی آن نیز بسیار جالب و ساده بوده و حتی نیاز به کانال سازی هم ندارد.
تسهیلات Facebook در شمال کالیفرنیا نیز به همین ترتیب پیکربندی شده اند. با این تفاوت که در این مرکز تهویه های هوای پشتیبان نیز وجود دارند که سیستم مه ساز را در گرمای شدید پشتیبانی می کند.
دیتاسنترهای Facebook مانند Google بدون استفاده از UPSهای مرکزی کار می کنند. در واقع از یک فاز به جای سه فاز استفاده می شود. 480 ولت برق AC که از صفحه کلید برق اصلی گرفته شده را مستقیماً به سمت سرورها می فرستند. این برق منبع تغذیه ای است که از برق AC 227 ولت استفاده می کند. هنگام قطعی برق این منبع های تغذیه از قفسه های نصب شده در کنار رک های سرور که حاوی UPSهای مهندسی شده است، برق 48 ولت DC را تولید می کنند.
این ارتباطات و چینش تجهیزات از اتلاف انرژی جلوگیری می کند و با کم کردن تعداد قطعات قابل نگهداری، پشتیبانی و نگهداری تأسیسات را آسان تر می سازد. Furlong می گوید: "در دیتاسنترهای قدیمی UPSها انرژی مورد نیاز را افزایش می دهد و اتصالات اضافی زیادی را تولید می کند". "انتقال UPS در نزدیکی سرور انعطاف پذیری را بالا می برد و شما را از شر سیم کشی های اضافی خلاص می کند."
دیتاسنترهای غول پیکر به همراه اثربخش کنندگان انرژی، هیچی جز تعداد زیادی سرور نیستند. Facebook دیتاسنترهای خود را به همراه سرورهای سفارشی سازی شده خود در Oregon و شمال کالیفرنیا دایر خواهد کرد. همانند کاری که Google مدت ها پیش انجام داد.
Amir Michael مدیر طراحی سخت افزار شرکت Facebook توضیح می دهد که هنگامیکه شرکت تصمیم گرفت تا تهجیزات اختصاصی خود را تولید کند "ما یک طرح شفاف داشتیم" که به ما اجازه می داد که طراحی مراکز و سرورها را با ماکسیمم صرفه جویی در انرژی بهینه سازی کنیم. تجربه آن طراحی سروری بود که بیشتر شبیه به یک استخوان لخت بود و هیچ چیز اضافی نداشت. بدون رنگ، بدون لوگو و یا هر برچسب دیگر. تنها چیزهای مورد نیاز خود را به همراه داشت.
Google هم حواشی و یا تزئینات سرورهای خود را به حداقل می رساند. Google همانند Facebook به جای خریداری سیستم های لوکسی که کمتر مستعد از کار افتادن هستند و در عوض گران قیمت هستند، سخت افزارهای خود را به انواع ساده تر و ارزان قیمت تری تبدیل می کند. توجه به مسائل اقتصادی حداقل مواردی هستند ممکن است مورد اتفاق نظر همه مهندسان قرار گیرد. در واقع هنگامیکه یک سرور و یا حتی 100 سرور خریداری می کنید، ممکن است بُعد کیفیت برای شما مهم به نظر آید ولی هنگامیکه ده ها هزار سرور در یک زمان خریداری می کنید قضیه فرق می کند. در این مقیاس معمولاً تلاش برای حداکثر کردن فاکتور قابلیت اطمینان اندکی بی معنا می گردد.
Michael می گوید که با کمک او سه نوع سرور برای اجرای برنامه های Facebook طراحی شد. بالاترین لایه سخت افزاری مستقیماً به کاربران Facebook متصل شده است و صورت خارجی وب سرورها را پوشش می دهد. این بخش حجم زیادی از فضای دیسک را اشغال نمی کند. بلکه تنها برای سیستم عامل (لینوکس)، نرم افزار وب سرور (معمولاً Apache است)، کدهای مورد نیاز برای ساخت صفحه Facebook (کدهای نوشته شده در PHP)، تعدادی لاگ فایل و بخش های اندک دیگری، فضا لازم است. ماشین ها نیز به لایه پایین تری از سرورها متصل شده اند که شامل دیسک های سخت افزاری و درایورهای فلشی می شود که یک فضای ذخیره سازی پایدار را برای نگهداری دیتابیس غول پیکر MySQL فراهم می آورند. دیتابیسی که عکس ها، ویدئوها، نوشته ها و لیست دوستان کاربران Facebook را در خود نگهداری می کند. در این میان RAMهای عظیم سرورها نیز وجود دارند که در نقش حافظه بلادرنگ سیستم، دسترسی سریع به محتویات سرورها را امکانپذیر می نماید.
شکل [2]
سرورهای Google دارای منابع تغذیه بدون وقفه هستند. این منابع از باطری های سنگین و بسیار قوی استفاه می کنند.
یک متخصص چنین اعتقاد دارد که تمامی بخش های فوق از قبیل نرم افزار، لینوکس، Apache، PHP، MySQL، حافظه بلادرنگ، همه و از دنیای Open Source وارد شده اند. برنامه نویسان Facebook این بسته های Open Source را براساس نیازهایشان تغییر داده اند. اما ابتدایی ترین کاری را که اغلب توسعه دهندگان وب انجام می دهند که همان ایجاد سایت Open Source می باشد را انجام نداده اند.
این امر درباره Google صدق نمی کند. به غیر از لینوکس که بر روی سرورهایشان اجرا می شود، سایر نرم افزارهای آن توسط برنامه نویسان خود شرکت نوشته شده اند. حساس ترین و برجسته ترین آنها فایل سیستم Google (یا GFS که یک فایل سیستم توزیع شده در مقیاس بسیار کلان است)، Big Table (یک دیتابیس) و MapReduce (مکانیزمی است برای انجام محاسبات مختلفی نظیر پردازش های موازی) است. دیگر آنکه برنامه نویسان Google کد اصلی جستجوگر شرکت را بیشتر از یک بار بازنویسی کرده اند.
در حدود 2 سال پیش در دومین کنفرانس بین المللی ACM درباره جستجوگرهای وب و داده کاوی، Jeff Dean یکی از اعضای گروه زیرساخت سیستم Google عنوان کرد که در چند سال آینده شرکت او هفت بازنگری و تجدید نظر اصلی را در نحوه پیاده سازی Web Search اعمال خواهد کرد. مطابق گفته Dean "می توان آنچه پشت صحنه اتفاق می افتد را تغییر داد بدون اینکه کسی متوجه آن شود". به همین دلیل به نظر می رسد که کاربران این تغییرات را احساس نکنند.
حال ما تفاوت های میان فرهنگ مهندسی Google و Facebook را در به کارگیری کدهای Open Source چگونه تفسیر می کنیم؟ ممکن است بخشی از پاسخ چنین باشد که Google زودتر کار خود را شروع کرده و به دلیل آنکه بحث های Open Source در آن زمان هنوز مطرح نشده بود، خودش مجبور به تولید نرم افزارهای خود بود. Steve Lacy به عنوان فردی که برای سال های 2005 تا 2010 به عنوان مهندس نرم افزار در Google کار کرده است به صورت دیگری فکر می کند.
در یکی از پیام هایی که اخیراً در یکی از بلاگ ها نوشته شده بود او این مطلب را که Google قربانی نبود کدهای Open Source در آن زمان را رد کرد و گفت: "با وجود بسته های نرم افزاری Open Source که کاربری آسانی دارند و بر محصول تمرکز دارند، زیر ساخت های Google شرم آور هستند". در واقع چنین به نظر می رسد که مهندسان Google جرأت استفاده از این سیستم ها را ندارند و حتی برای فکر کردن به چیزی غیر از استفاده از BigTable/Spanner و GFS نیز توبیخ می شوند.
آیا ممکن است زیر ساخت های Facebook یا Google زیر بار افزایشی خود شکاف بردارند؟
بازدیدکنندگان و کاربران Facebook به مرز یک میلیارد نفر رسیده و هنوز هم در حال ریشه دواندن در میان مردم است. بطوریکه ماهیانه 20 میلیون کاربر جدید نیز به حجم فعلی اضافه می شود. Google نیز باید منابع محاسباتی عظیمی را به کار گیرد تا بتواند 34 هزار جستجو را در یک ثانیه به همراه ترجمه انواع زبان ها، مدیریت ویدئوهای YouTube، مدیریت ترافیک های Gmail و مزایده آگهی های خود را پاسخ دهد. آیا این عملیات ها بدون هیچ پایانی ادامه پیدا می کنند؟
چنین به نظر می رسد که پاسخ مثبت باشد. با وجود هزینه های بسیار سنگین، این شرکت ها قادرند محاسبات سنگین خود را با یک سهولت نسبی به انجام برسانند. و شاید این موضوع خیلی هم تعجبی نداشته باشد. با تمام این اوصاف اگر در تأمین انرژی خود موفق عمل نکنند، معرفی خدمات جدید توسط آنها به تعویق می افتد و نمی توانند سرویس خود را به موقع بازار عرضه کنند.
قابلیت جستجوی فوری را که Google در ماه سپتامبر گذشته معرفی کرد را به خاطر بیاورید. به گفته سرپرست تیم پروژه فوری هدف پروژه مذکور، افزایش فاکتور سهولت و لذت بود. پروژه فوری جستجو را براساس اولین حرف وارد شده توسط شما در درخواستگر جستجو، انجام می دهد و نتایج نیز براساس پیش بینی فکر شما در تکمیل کلمه کلیدی مورد نظر انجام می گیرد.
بنابراین حتی برای یک درخواست ساده نیز چندین جستجو بصورت موازی انجام می شود و بدین ترتیب محاسبات بیشتری برای استخراج و انتخاب پاسخ های مناسب و قابل نمایش در وب انجام می پذیرد. اگر مهندسان Google به هر دلیلی در توانایی سیستم خود برای پاسخگویی به نیازهای خود شک داشتند، آیا Google این تغییرات را می پذیرفت؟
Facebook نیز مشابه Google دقیقاً حجم فشار کاربران به سیستم خود را کنترل می کند. مثلاً در سال گذشته کاربران Facebook، 50 میلیارد عکس را در این سایت آپلود کرده بودند و تمام پهنای باند وسیع و فضای ذخیره سازی بسیار بسیار عظیم آن توسط این عکس ها خورده شد! با این وجود Facebook همچنان در هر برهه از زمان کیفیت و وضوح تصاویری که کاربران قادر به آپلود و ذخیره سازی آن هستند را افزایش می دهد. در صورتیکه مهندسان این شرکت ترس در خطر بودن و یا دزدیده شدن زیرساخت های سیستم خود را داشتند، آیا باز هم همه این عملیات ها می توانست به درستی انجام گیرد؟
هدف من اینست که بگویم نه Google و نه Facebook، هیچکدام برای ارتقای زیرساخت های خود به منظور تطابق با نیازهایشان ترسی نداشته و ندارند. به طور حتم در هر زمان نقص ها و مشکلاتی هم وجود داشته است اما اینطور نیست که این دو شرکت در ایجاد جذابیت های محاسباتی و پیشبرد زندگی آنلاین ما مشکلات دراز مدتی داشته باشند.
البته دغدغه درباره اینکه برای ساخت دیتاسنترهای خود تا چه حد باید سریع عمل کنند و یا از چه تکنیک صرفه جویی در انرژی باید استفاده کنند همیشه یک ابهام است. اما در این میان یک چیز قطعی است: "سرورها همیشه زشت و بدقیافه باقی خواهند ماند."
شکل [3]
دیتاسنتر در حال ساخت Facebook در شمال کالیفرنیا تقریباً دو برابر اندازه دیتاسنتر Google و Dalles, Ore می باشد.
منبع: نشریه بزرگراه رایانه شماره 143

 

 



ارسال نظر
با تشکر، نظر شما پس از بررسی و تایید در سایت قرار خواهد گرفت.
متاسفانه در برقراری ارتباط خطایی رخ داده. لطفاً دوباره تلاش کنید.