С одной стороны, долгие годы надежной и безотказной работы — плюс к репутации ЦОДа. С другой — износ инженерных сетей, моральное устаревание оборудования и деградацию параметров эффективности никто не отменял. Время беспощадно и к человеку, и к технологиям. В связи с этим закономерно возникает вопрос: как понять, что ЦОД устарел и чем это чревато?
Жизненный цикл и причины устаревания дата-центров
Расчетный жизненный цикл ЦОДа 10-15 лет, но даже построенные 10 лет назад многие дата-центры сейчас с трудом справляются с текущей нагрузкой. Во-первых, в отрасли значительно выросла доля виртуальных сервисов, что потребовало увеличения потребления энергии на единицу площади. ЦОДы 2005-2008 гг спроектированы для нагрузок 1-2 кВ/А на стойку и это несравнимо с текущими потребностями. Во-вторых, с повышением производительности вычислений увеличилась плотность расстановки оборудования, что привело к росту тепловыделения. Для его отвода необходимы мощные и высокоэффективные системы охлаждения, которые в проектах старых ЦОДов просто не предусмотрены.
Проблемы дата-центров 2005-2008 гг через 10-12 лет станут актуальными для ЦОДов 2015-2018 гг запуска. И выход здесь один — предусмотреть постепенную плановую модернизацию технологических систем практически сразу после выхода ЦОДа на полную мощность.
Повод задуматься
О постепенном устаревании ЦОДа и повышении риска отказа оборудования можно судить по следующим показателям:
-
Энергоэффективность. У ЦОДов показатель энергоэффективности (PUE) определяется как соотношение затраченной энергии к количеству энергии, переданной для работы ИТ-систем. Чем PUE ниже, тем лучше в ЦОДе работает инфраструктура электропитания/кондиционирования. И тем надежнее сервера защищены от перегрева, а сам ЦОД от аварийного отключения. Соответственно, чем выше параметр энергоэффективности, тем больше ЦОД тратит энергии на поддержание нормального режима работы. И когда плотность вычислительных мощностей растет, а система энергоснабжения/кондиционирования остается на том же уровне, увеличивается и PUE. Вместе с ростом PUE растет риск отказа оборудования, ведь инженерные системы ЦОДа постепенно вырабатывают свой ресурс.
Разница в энергоэффективности с показателями PUE 1,7 и 1,5
-
Точечные обновления. Невозможно обновить сетевую и инженерную инфраструктуру, затронув только один компонент. Модернизация и обновление одной системы требуют того же и для другой. Если обновления практикуются как «заплатки», рано или поздно они потянут за собой клубок проблем из соседних систем. Бессистемное, точечное переоборудование чревато перегрузками и сбоями в смежных системах. Для поддержания инфраструктуры в рабочем состоянии необходимо обновлять ее планомерно, поэтапно и системно.
-
Кабельные сети. Иногда в попытке догнать современные скорости и мощности ЦОД год за годом перекладывает новые кабели. Сначала для Ethernet на 100 Мбит/с, потом для 1 Гбит/с или 10 Гбит/с. В итоге кабельные сети напоминают гигантскую паутину: трассы переполняются, проводка путается. На первый взгляд это выглядит как творческий беспорядок. На самом деле все серьезней: скорей всего текущие мощности — предел возможностей ЦОДа. Вырасти, масштабироваться в таких условиях не получится.
Самое важное — ЦОД с Tier II, например, априори не может позволить себе системную модернизацию, сохраняя оговоренную в SLA доступность. С Tier III — да, это возможно, но при наличии свободных площадей и технологического потенциала.
В ЦОД GreenBushDC под эту задачу разработана стратегия поэтапной модернизации.
Вообще, вопросы борьбы с износом и деградацией инженерных систем дата-центра рассматривали еще на стадии проектирования, предусмотрев возможности глубокой модернизации технологических и архитектурных решений. Так что GreenBushDC может меняться и будет меняться по мере роста потребностей ИТ-сервисов. Вслед за мощностями и технологиями.