Может ли ЦОД устареть?

С одной стороны, долгие годы надежной и безотказной работы — плюс к репутации ЦОДа. С другой — износ инженерных сетей, моральное устаревание оборудования и деградацию параметров эффективности никто не отменял. Время беспощадно и к человеку, и к технологиям. В связи с этим закономерно возникает вопрос: как понять, что ЦОД устарел и чем это чревато?

Жизненный цикл и причины устаревания дата-центров

Расчетный жизненный цикл ЦОДа 10-15 лет, но даже построенные 10 лет назад многие дата-центры сейчас с трудом справляются с текущей нагрузкой. Во-первых, в отрасли значительно выросла доля виртуальных сервисов, что потребовало увеличения потребления энергии на единицу площади. ЦОДы 2005-2008 гг спроектированы для нагрузок 1-2 кВ/А на стойку и это несравнимо с текущими потребностями. Во-вторых, с повышением производительности вычислений увеличилась плотность расстановки оборудования, что привело к росту тепловыделения. Для его отвода необходимы мощные и высокоэффективные системы охлаждения, которые в проектах старых ЦОДов просто не предусмотрены. 

Проблемы дата-центров 2005-2008 гг через 10-12 лет станут актуальными для ЦОДов 2015-2018 гг запуска. И выход здесь один — предусмотреть постепенную плановую модернизацию технологических систем практически сразу после выхода ЦОДа на полную мощность.

Повод задуматься

О постепенном устаревании ЦОДа и повышении риска отказа оборудования можно судить по следующим показателям: 

  • Энергоэффективность. У ЦОДов показатель энергоэффективности (PUE) определяется как соотношение затраченной энергии к количеству энергии, переданной для работы ИТ-систем. Чем PUE ниже, тем лучше в ЦОДе работает инфраструктура электропитания/кондиционирования. И тем надежнее сервера защищены от перегрева, а сам ЦОД от аварийного отключения. Соответственно, чем выше параметр энергоэффективности, тем больше ЦОД тратит энергии на поддержание нормального режима работы. И когда плотность вычислительных мощностей растет, а система энергоснабжения/кондиционирования остается на том же уровне, увеличивается и PUE. Вместе с ростом PUE растет риск отказа оборудования, ведь  инженерные системы ЦОДа постепенно вырабатывают свой ресурс. 

Разница в энергоэффективности с показателями PUE 1,7 и 1,5

Разница в энергоэффективности с показателями PUE 1,7 и 1,5

  • Точечные обновления. Невозможно обновить сетевую и инженерную инфраструктуру, затронув только один компонент. Модернизация и обновление одной системы требуют того же и для другой. Если обновления практикуются как «заплатки», рано или поздно они потянут за собой клубок проблем из соседних систем. Бессистемное, точечное переоборудование чревато перегрузками и сбоями в смежных системах.  Для поддержания инфраструктуры в рабочем состоянии необходимо обновлять ее планомерно, поэтапно и системно. 

  • Кабельные сети. Иногда в попытке догнать современные скорости и мощности ЦОД год за годом перекладывает новые кабели. Сначала для Ethernet на 100 Мбит/с, потом для 1 Гбит/с или 10 Гбит/с. В итоге кабельные сети напоминают гигантскую паутину: трассы переполняются, проводка путается. На первый взгляд это выглядит как творческий беспорядок. На самом деле все серьезней: скорей всего текущие мощности — предел возможностей ЦОДа. Вырасти, масштабироваться в таких условиях не получится.

Самое важное — ЦОД с Tier II, например, априори не может позволить себе системную модернизацию, сохраняя оговоренную в SLA доступность. С Tier III — да, это возможно, но при наличии свободных площадей и технологического потенциала. 

В ЦОД GreenBushDC под эту задачу разработана стратегия поэтапной модернизации.  

Вообще, вопросы борьбы с износом и деградацией инженерных систем дата-центра рассматривали еще на стадии проектирования, предусмотрев возможности глубокой модернизации технологических и архитектурных решений. Так что GreenBushDC может меняться и будет меняться по мере роста потребностей ИТ-сервисов. Вслед за мощностями и технологиями. 



Поделиться:
Читать еще
Облачные сомнения: что переносить в облака, а что оставить 18.09.2020
Рассказываем о подготовительном этапе перехода в облака: что переносить, а что оставлять.
Читать подробнее
О виртуализации ЦОДов и нюансах виртуальности 25.09.2020
Кратко об исторических предпосылках, современных технологиях и направлениях виртуализации дата-центров.
Читать подробнее
Основы монтажа серверного оборудования в стойку 09.10.2020
Полезные мелочи для организации пространства в серверной стойке: размещение основного оборудования, разводка кабельной системы, резерв.
Читать подробнее
Что, если в ЦОДе обрубят сеть? 16.10.2020
Рассматриваем гипотетический обрыв сети и другие форс-мажорные ситуации, при которых ЦОД переключается на автономный режим работы.
Читать подробнее
Когда и какому бизнесу нужен VDI 23.10.2020
Разбираемся с VDI — одной из технологий виртуализации рабочих мест. Рассказываем о достоинствах, недостатках и экономике внедрения для малого, среднего и крупного бизнеса.
Читать подробнее
Базовый чек-лист обслуживания серверов 30.10.2020
Перечисляем основные операции в составе регламента обслуживания серверного оборудования и даем чек-лист, по которому можно составить свой список работ.
Читать подробнее
контакты компании
Адрес компании
г. Москва, г. Зеленоград, Проезд №683, д. 8
Поддержка 24\7
8 800 350 15 00
ПОЧТИ готово!
Спасибо, данные вашего заказа будут переданы в отдел продаж.
После чего ожидайте звонка вашего личного менеджера.
* Поля, обязательные к заполнению.