قابل درک است که زیرساخت های راه آهن نتوانستند با دمای هفته گذشته مقابله کنند، اما چرا امکانات گوگل و اوراکل آفلاین شدند؟
یکی از لذت‌های غیرمنتظره موج گرما ، صدای یک وزیر حمل‌ونقل محافظه‌کار بود که در حال صحبت کردن بود. Grant Shapps در برنامه امروز سه شنبه صبح در توضیح یک اصل اساسی طراحی مهندسی خوب بود: مشخصات را درست بگیرید. هنگامی که شما در حال ایجاد یک قطعه جدید از زیرساخت عمومی هستید، باید بتوانید محدودیت هایی را که انتظار می رود طراحی تحت آنها عمل کند، مشخص کنید.
شاپس توضیح داد که سیستم راه‌آهنی که او در حال حاضر بر آن نظارت می‌کند طوری طراحی شده است که بین دمای -10 تا 35 درجه سانتیگراد کار کند. و در اقدامی زیرکانه برای جلوگیری از سرمقاله خشمگین دیلی میل در مورد ریل های راه آهن بریتانیا که مطمئناً می توانند با دمایی که تنها پنج درجه بالاتر از حد طراحی شده خود کنار بیایند، اشاره کرد که اگر دمای هوا 40 درجه سانتیگراد باشد، دمای واقعی ریل ممکن است دو برابر آن باشد. به هر حال، آنها از فولاد ساخته شده‌اند و می‌توانستند در گرما کمانش کنند، به همین دلیل است که برخی از خطوط آن روز بسته شده بودند.
جالب اینجاست که صنعت راه آهن تنها صنعتی نبود که نتوانست گرما را تحمل کند. وقتی دما در روز سه‌شنبه به 40.3 درجه سانتی‌گراد رسید، دیتاسنترهایی که توسط گوگل و اوراکل اداره می‌شوندباید آفلاین شوند. طبق گزارش The Register «ماشین‌های منتخب [Google] برای جلوگیری از آسیب طولانی‌مدت خاموش شدند، که باعث می‌شد برخی از منابع، سرویس‌ها و ماشین‌های مجازی در دسترس نباشند، وب‌سایت‌های بدشانس و مواردی از این قبیل را از بین ببرند.» و در ساعت 3:41 بعد از ظهر مشتریان اوراکل هشداری دریافت کردند که به آنها می‌گفت: «در نتیجه دمای غیر فصلی در منطقه، زیر مجموعه‌ای از زیرساخت‌های خنک‌کننده در مرکز داده جنوب بریتانیا (لندن) با مشکل مواجه شدند. این امر منجر به این شد که زیر مجموعه ای از زیرساخت خدمات ما باید خاموش شود تا از خرابی های سخت افزاری کنترل نشده جلوگیری شود. این گام با هدف محدود کردن پتانسیل هرگونه تأثیر بلندمدت بر مشتریان ما برداشته شده است.
هیچ یک از اینها برای کسانی که به اندازه کافی خوش شانس بوده اند که از یکی از این مراکز دیدن کرده اند غافلگیر کننده نباشد. (از آنجایی که شرکت‌های فناوری در مورد آنها بسیار حساس هستند، دعوت‌نامه‌ها نادر هستند.) اساساً، آنها سوله‌های فلزی بزرگ و بدون پنجره هستند که اغلب در مکان‌های دور ساخته می‌شوند و با حصارهای محیطی درجه نظامی احاطه شده‌اند. در داخل هزاران رایانه شخصی (که سرور نامیده می شود) قرار دارد که در قفسه های عمودی چیده شده اند.
مراکز در اندازه های مختلف هستند. متوسط 100000 فوت مربع را پوشش می دهد . بزرگترین آنها (که قابل پیش بینی در چین است) 6.3 متر فوت مربع را پوشش می دهد. تعداد سرورها در هر مرکز به منطقه و وظایفی که سرورها انجام می دهند بستگی دارد – از میزبانی وب سایت ها (قدرت کم)، تا اجرای ربات های جاوا اسکریپت (میانگین محدوده) به گرافیک و رندر ویدیو یا اجرای الگوریتم‌های یادگیری ماشینی (با شدت بالا). به عنوان مثال، تخمین زده شده است که یک مرکز 1 متر مربع می تواند هر چیزی از 800000 تا 6.3 متر ماشین را در ترکیبات مختلف در خود جای دهد.
همه چیز در مورد دیتاسنتر به یک چیز خلاصه می شود: نیروی الکتریکی. برای اجرای سرورها و خنک کردن آنها لازم است، زیرا آنها داغ کار می کنند. تصور کنید 800000 رایانه شخصی قدرتمند به طور مداوم کار می کنند و به این ایده خواهید رسید. بر این اساس، تهویه مطبوع فضای داخلی سرکوبگر آنها یک عملکرد حیاتی است. به همین دلیل است که شرکت‌های فناوری اغلب سعی می‌کنند آن‌ها را در مکان‌هایی قرار دهند که منبع برق ارزان و پایدار است و خنک‌سازی آسان‌تر است، زیرا دمای غالب پایین‌تر است.
به نوعی، مراکز داده (که زمانی «مزرعه‌های سرور» نامیده می‌شدند تا زمانی که صنعت فناوری تصمیم گرفت که یک اصطلاح بسیار پیش پا افتاده باشد) کلیساهای جامع دنیای شبکه‌ای ما هستند. اما بر خلاف کلیساها که فقط دارای اهمیت نمادین، زیبایی شناختی، فرهنگی یا مذهبی هستند، مراکز داده یک ضرورت ملموس و سودمند دنیای آنلاین را تشکیل می دهند. بدون آنها، به هر حال، تلفن های هوشمند ما فقط وزن کاغذی گران قیمت خواهند بود. هر زمان که عکسی را در اینستاگرام پست می‌کنید، برای دوستی پیام متنی ارسال می‌کنید یا با یک اپلیکیشن آب‌وهوا مشورت می‌کنید تا ببینید چقدر هوا در Doncaster گرم است، با یک مرکز داده در جایی تعامل دارید.
به همین دلیل اتفاقی که هفته گذشته برای مراکز گوگل و اوراکل افتاد جالب توجه است. این یک یادآوری است که راه آهن تنها بخشی از زیرساخت های حیاتی جامعه ما نیست که در برابر گرمایش جهانی آسیب پذیر است. در حالی که Shapps در روز سه‌شنبه در حال توضیح واقعیت‌های گسترش متالیک برای شنوندگان رادیو 4 بود، سوالی که در ذهن من وجود داشت این بود: پارامترهای طراحی برای دو مرکزی که باید روز سه‌شنبه آفلاین می‌شدند چه بود؟ آیا مهندسانی که آنها را مشخص کردند این فرض را داشتند که سوله ها هرگز با بیش از 35 درجه سانتیگراد مقابله نخواهند کرد؟ اگر چنین است، آنها – و ما – ممکن است دچار مشکل شویم.
درک اینکه چرا راه‌آهن‌ها زیرساخت حیاتی یک جامعه را تشکیل می‌دهند، آسان است: آنها چیزهای ملموس و به شدت فیزیکی هستند. اما فناوری پشت گوشی‌های هوشمند ما، به نوعی، اثیری به نظر می‌رسد. نکته مفید در مورد مراکز داده این است که آنها به ما یادآوری می کنند که اینطور نیست.
من پست می کنم پس هستم
چالش های آموزش دوره آشنایی با فلسفه برای نسل اینستاگرام چیست؟ ماری اسنایدر این موضوع را در یک مقاله جالب 3 کوارکس روزانه، در مورد پرتاب توپ در یک توپ بررسی می کند.
بولتن پزشکی
Donald McNeil's Monkeypox: آنچه شما در واقع باید بدانید یک قطعه واقعاً آموزنده در زیر پشته Common Sense است.
فاصله بحرانی
اگر احساس می‌کنید به چشم‌اندازی نیاز دارید، مقاله‌ای از مکس فیشر در نیویورک تایمز، آیا جهان واقعاً در حال فروپاشی است یا فقط اینطور احساس می‌شود؟ ، تلاش برای گرفتن نمای طولانی را بررسی می کند.

source

توسط artmisblog