Цифровой журнал «Компьютерра» № 23 (Журнал «Компьютерра») - страница 10


В закутке напротив, за металлическими дверями, находится оптоволоконный шкаф. Сюда подведены магистральные каналы с точек обмена трафиком М9 и М10 (второй нужен на случай сбоя).


Каждый из них может обеспечить пропускную способность до 400 Гбит/с. Пока что используется лишь 70.


Изучив коммуникационное оборудование, мы переходим в гермозону. Это помещение в помещении — со своими стенами, полом и потолком. Здесь искусственно поддерживается чуть большее давление — это помогает снизить количество пыли. Также на всякий случай над комнатой установлена дренажная система. Хоть канализация и организована так, чтобы не находиться над дата-центром, от Всемирного потопа никто не застрахован.


Пока что, как видно, не используется и половина площади. Чёрные шкафы с правой стороны — это промышленные кондиционеры. Чёрные полосы с дырками в полу тоже используются для охлаждения. На них поместят стойки с оборудованием и через них будет подаваться охлаждённый воздух.

Как и прочего оборудования, кондиционеров установлено с запасом — всего их тринадцать, а для охлаждения заполненного дата-центра достаточно шести.

В дальнем конце зала уже выстроено несколько рядов со стойками.


Коридоры чередуются — один холодный (с передними панелями оборудования), во второй выдувается теплый воздух с обратной стороны стоек. Поскольку в зале прохладно, стоять в тёплом коридоре приятно.


Часть стоек занята клиентскими серверами.


Часть — отдана под масштабируемый хостинг и сервера «облачного» хостинга «Оверсан Скалакси». Всего — несколько сотен серверов.


Главная главная коммутирующая система для облачного хостинга — Infiniband.


F5 Viprion — адаптивный балансировщик нагрузки, его как раз сейчас настраивают. За внешний трафик отвечает магистральный коммутатор Juniper.


Сетевые фильтры управляются удалённо — по сети можно отключить или включить питание, чтобы удалённо обесточить или перезагрузить сервер.


Под потолком в этой комнате тоже много интересного. Каждый коридор между стойками просматривается камерами видеонаблюдения.


Датчики задымления.


И, собственно, система газового пожаротушения. О её устройстве нам расскажут чуть позже.


Мы покидаем гермозону и выходим в резервную батарейную комнату. Она находится в режиме ожидания и готова обеспечить дата-центр электроэнергией в момент, когда основная отключится по каким-нибудь причинам. Здесь стоит источник бесперебойного питания. Он состоит из шкафов с контроллерами...


... и, собственно, батарей. Их общий вес — около 20 тонн.

Дембовский не без гордости сообщает, что дата-центр «Меркурий» относится к особой группе первой категории надёжности – то есть его электроснабжение происходит наравне, скажем, с госпиталями. Если электричество всё равно отключится, оборудование при полной нагрузке сможет работать от батарей ещё около десяти минут. При этом для запуска дизелей достаточно пяти минут, а запаса топлива хватит на шесть часов работы заполненного дата-центра. Если и этого не хватит, может выручить контракт с топливной компанией на подвоз топлива в течение 2 часов. Если, конечно, конец света не застанет её врасплох.