|
|
|
|
Охлаждение для «лезвий»: советы эксперта
В статье рассмотрены вопросы организации охлаждения в ЦОД для вычислительных систем высокой плотности, в частности, блейд-серверов. Материал подготовлен по мотивам интервью с системным инженером российского представительства компании APC by Schneider Electric Михаилом Балкаровым.
Появление вычислительных систем высокой плотности таких, например, как блейд-серверы вместе с выгодами принесло в центры обработки данных и некоторые проблемы, значительная часть которых связана с вопросами охлаждения и электропитания.
Высокая плотность — особое охлаждение На сегодняшний день модульные серверы являются наиболее предпочтительными вычислительными системами для многих дата-центров. Но если традиционные стоечные серверы нагревали воздух, в среднем, на 100С (разница температуры потока на входе и выходе из системы), то в случае блейд-серверов этот показатель составляет около 200С, а в ряде случаев 300С и более. Все это результаты повышения аппаратной плотности, быстродействия компонентов, вычислительной нагрузки (где не последнюю роль играет популярная нынче виртуализация) и других факторов. Устанавливая шасси для модульного сервера, владелец дата-центра, как правило, рассчитывает на то, что вскоре оно будет полностью заполнено «лезвиями» (даже если вначале там размещено всего несколько серверов). Наиболее распространенные модели сегодня позволяют установить до 16 «лезвий», с общим максимальным тепловыделением системы до 6–8 кВт. Но это в случае постоянной и полной вычислительной нагрузки, что характерно, главным образом, для высокопроизводительных (High Performance, HPC) систем. В большинстве случаев реальные показатели колеблются в пределах 3–5 кВт. При этом шасси, в зависимости от модели, занимает в стойке 6–10 U. О чем это говорит? Во-первых, о том, что для охлаждения годится только кондиционер, использующий воду в качестве хладагента. В данном случае воздушная система справляться не будет. Дело в том, что максимальная температура входящего потока в воздушном кондиционере, как правило, не должна превышать 35–400С (соответственно, выходить должен поток с температурой не выше 10–150С). В то же время современные блейд-серверы вполне нормально воспринимают температуру входящего потока 25–270С. Соответственно на выходе можем получить свыше 550С! Более того, рекомендуемая температура входящего потока для оборудования постепенно повышается. Кстати, если она достигнет достаточно высокого показателя, скажем, 350С, то система охлаждения как таковая для ЦОД вообще не понадобится. Большую роль тогда будут играть вентиляторы и оптимизация воздушных трасс. Второй важный момент состоит в том, что традиционная система охлаждения, с подачей холодного воздуха из-под фальшпола, способна эффективно отвести от каждой стойки не более 5 кВт. Следовательно, в каждом шкафу можно будет разместить только одну блейд-ферму. Хотя это и вполне приемлемый вариант — одна система на стойку, — здесь теряются явные преимущества оборудования высокой плотности.
Ближе к источнику Нельзя забывать и о том, что в случае применения блейд-систем необходимо значительно увеличить интенсивность воздушного потока для охлаждения. В сравнении с традиционными серверами для блейд-систем этот показатель должен быть больше в разы. В то же время надо учитывать, что слишком высокая скорость холодного потока не позволит серверным вентиляторам затягивать его в достаточной мере. Таким образом, надо либо использовать дополнительные системы для каждого шкафа, например усилители тока воздуха, либо размещать кондиционеры ближе к источнику тепла. Усилители могут быть выполнены в виде блоков вентиляторов, размещенных непосредственно в серверном шкафу, или же в форм-факторе полноценной двери, которая устанавливается на шкаф сзади. В любом случае с помощью подобных систем не получится отвести больше 15–16 кВт. Это могут быть также внутрирядные модули или навесные доводчики. Оба метода вполне эффективны, но второй вариант схематически сложнее, поскольку внутрирядный кондиционер кроме себя самого предполагает наличие еще двух основных активных элементов — чиллера или компрессора. В системах с доводчиками (которые, по сути, представляют собой теплообменники с вентиляторами) активных элементов на один больше, поскольку добавляется еще и прецизионный кондиционер (рис. 1).
К тому же доводчик подает холодный воздух сверху вниз, а внутрирядный кондиционер — по всей высоте стойки, при том что горизонтальное сечение сетки серверного шкафа почти в четыре раза меньше, чем вертикальное. Однако доводчики не занимают места в рядах и позволяют строить более гибкие конфигурации. Однозначного мнения насчет того, какой подход лучше, нет, все зависит от конкретной ситуации. По мнению экспертов, преимущества доводчиков начинают ощущаться только в крупных проектах ЦОД, мощностью несколько сотен киловатт и выше. Существенно повысить эффективность климатической системы позволяют всевозможные средства герметизации воздушных потоков. В современных ЦОД прижились два типа изоляции: на уровне коридоров (холодных или горячих) и на уровне отдельной стойки (т.н. замкнутая система кондиционирования, ЗСК). В первом случае изолируются термические коридоры между рядами шкафов, а во втором — от влияния извне полностью изолируется отдельная стойка с оборудованием (рис. 2).
Особенностям герметизации холодного и горячего коридоров, преимуществам и недостаткам каждого метода посвящена отдельная публикация «Дилемма изоляции коридоров: «холодный» или «горячий», опубликованная в этом же номере «СиБ» (см. с. 98). Детальный обзор ЗСК, иллюстрированный примерами решений мировых производителей, выполнен в статье «Чемпионы охлаждения в ЦОД» («СиБ», 2007, № 6), которую можно найти на сайте www.sib.com.ua в разделе «Архив» за 2007 год. Отметим, что полная герметизация является наиболее эффективным методом охлаждения в дата-центрах. Такие решения позволяют отвести от одной стойки до 50–70 кВт тепла!
Мы за ценой не постоим? Не будет лишним обратить внимание на экономические тенденции в сфере систем кондиционирования ЦОД, хотя приведенные ниже рассуждения могут относиться в равной степени к любым другим подсистемам дата-центра. Особенности бизнеса на постсоветском пространстве таковы, что владельцы ЦОД стремятся возвратить вложенные деньги (хотя бы выйти «в ноль») всего за несколько лет. Следовательно, предпочтение отдается решениям того производителя, который пообещает самую высокую скорость «возврата инвестиций». Понимая это, производители, а также компании-интеграторы, создающие дата-центры, при общении с заказчиком делают акцент на небольших первоначальных затратах на решение, игнорируя переменные расходы (скажем, затраты на обслуживание или ремонт). ЦОД строится в расчете на 5–10 лет эксплуатации, однако даже вернув первоначальные затраты за первые 2–3 года, заказчик сталкивается в дальнейшем с необходимостью вложения новых и новых средств, и затраты эти со временем меньше не становятся. Наоборот, по мере старения оборудования расходы на его эксплуатацию повышаются, поскольку устаревшее решение переходит в разряд «уникальных». В условиях экономического спада такие затраты особенно ощутимы, поскольку прибыль падает и число клиентов сокращается. Есть ряд примеров крупных российских коммерческих дата-центров, которые, вернув первоначальные инвестиции за 1,5–2 года, столкнулись с огромными текущим затратами на эксплуатацию. Поэтому одним из важных факторов при выборе как системы охлаждения в частности, так и всех подсистем ЦОД, должна быть их «стандартизованность» и, если возможно, повсеместность применения. В таком случае гораздо легче найти расходные материалы, запасные компоненты, квалифицированных специалистов и прочие составляющие, необходимые для нормального функционирования центра обработки данных. Тем более, что в условиях глобального экономического спада происходит общее падение доходов в отрасли. Если один-два года назад владельцы ЦОД еще могли компенсировать вышеупомянутые расходы за счет высоких доходов от продажи услуг дата-центра, то сейчас многие клиенты (главным образом, небольшие компании сегмента SOHO и SMB) готовы даже пренебречь надежностью дата-центра, в котором размещается их оборудование ради более низкой цены. Таким образом, ситуация еще более усугубляется, поскольку наряду с высокими текущими расходами ощущается значительное падение доходов.
По мотивам беседы с системным инженером представительства компании APC by Schneider Electric в России Михаилом БАлкАроВЫМ подготовил Игорь кИрИллоВ, СиБ
Другие статьи о ЦОД:
Дилемма изоляции коридоров – «холодный» или «горячий»?
Решения RAD для оптимизации ЦОД
Коммерческие дата-центры Украины – взгляд изнутри
Охлаждение на уровне рядов: подходы и технологии
ЦОД: проблематика реализации концепта
Бизнес-Академия 2008: равнение на ЦОД
Отечественный рынок ЦОД — взгляд изнутри
Украинский рынок центров обработки вызовов — перспективы и ретроспективы
|
|