Fоtо: Facebook
Ваш ежедневный просмотр Facebook заставляет "шевелиться" сотни серверов, физических находящихся в разных странах на разных континентах — в "магических" местах, именуемых дата-центрами. Они у Facebook свои: один в Швеции, три в разных частях США, а еще один, пятый, начали строить в июле этого года — также в США. И вот как все это выглядит.

Снаружи любой дата-центр Facebook выглядит как большой склад или даже сарай. Например, площадь этого центра в Северной Каролине (США) — 27 000 кв. метров.

Не все пространство внутри занято серверами. Еще там работают люди, которые следят за "здоровьем" машин. Тот факт, что Facebook использует собственную инфраструктуру, позволяет компании ежегодно экономить 2 млрд. долларов США. Именно на столько больше она бы платила, если бы арендовала мощности.

Все серверы внутри дата-центров разработаны самой Facebook. А вот оборудование для управления самими центрами, системы питания и охлаждения, сетевое оборудование — стороннее. Эти стойки, кстати, стоят внутри шведского дата-центра Facebook в Лулео, городке размером с Елгаву.

Это открытая стойка. Компоненты выглядят одинаково потому, что они одинаковые — сотни, тысячи, десятки тысяч абсолютно однотипных серверов. То, что все одинаковое, экономит Facebook деньги — все взаимозаменяемо и производство/закупка компонентов дешевле.

Facebook активно работает над эффективностью оборудования — и снижением его цены. И "экономит" не значит "уменьшает". В самом первом дата-центре компании в Орегоне около 1500 километров проводов и всевозможных кабелей.

Все эти серверы довольно эффективны в плане потребления электроэнергии и, соответственно, влияния на атмосферу. Один пользователь за год вынуждает Facebook потратить на свое обслуживание и выбросить в атмосферу меньше углеродного газа, чем нужно на приготовление чаши латте.

Если техникам надо провести диагностику отдельного сервера или заменить что-то — они никуда его не несут, вся работа происходит на специальных мобильных станциях.

Понятно, что серверы и прочее оборудование генерируют много тепла и их надо охлаждать. Обычно охлаждают или водой, или воздухом. В дата-центре в Швеции, например, охлаждение сугубо воздушное.

Воздух проходит через множество фильтров и попадает в "туманную комнату", где специальные установки особым образом готовят его, регулируя не только температуру, но и влажность.

Причем в процессе регулирования температуры подающегося в комнаты воздуха участвует и теплый воздух, уже нагретый серверами (это нужно холодной шведской зимой, например). Помещения, в котором воздушные потоки встречаются и "разводятся по углам" находятся над серверными залами, что логично — теплый воздух поднимается вверх, холодный опускается вниз.

Теперь, когда в следующий раз зайдете на Facebook (чтобы поделиться этой статьей, например), вы будете лучше представлять себе, какие огромные и сложные механизмы стоят за простыми вроде бы "лайками" или просмотром ленты друзей. Кстати, ежесуточно четыре дата-центра Facebook обрабатывают 10 триллионов(!) запросов пользователей — от "лайка" до создания поста.

Читайте нас там, где удобно: Facebook Telegram Instagram !