Отправить сообщение
Свяжитесь мы
LEO

Номер телефона : 13486085502

Взгляд на технологиях центра данных охлаждая

August 31, 2021

Sabey оптимизирует с воздушным охлаждением центры данных через сдерживание
Джоном Sasser

Единственная цель технологии центра данных охлаждая поддерживать условия окружающей среды соответствующие для деятельности оборудования информационной технологии (ITE). Достигать этой цели требует извлекать жару произведенную ITE и переносить эту жару к некоторому теплоотводу. В большинств центрах данных, операторы ожидают систему охлаждения для того чтобы работать непрерывно и надежно.

Я ясно вспоминаю разговор с инженер-механиком который привелся в действие центры данных в течение многих лет. Он чувствовал что большинств инженер-механики поистине не поняли деятельность и дизайн центра данных. Он объяснил что большинств инженеры HVAC начинают в офисе или жилом дизайне, фокусируя на комфорте охлаждая, перед получать в дизайн центра данных. Он думал что парадигмы они учат в тех дизайн-проектах обязательно не переводят хорошо к центрам данных.

Важно понять что этот охлаждать комфорта нет основной цели систем охлаждения центра данных, даже если центр данных должен быть безопасен для людей которые работают в их. На самом деле, оно совершенно приемлем (и типичен) для зон внутри центр данных быть дискомфортн для долгосрочного пребывания.

Как с любой хорошо проектированной системой, система охлаждения центра данных должна эффективно служить своя функция. Центры данных могут быть очень энергией интенсивной, и довольно возможно для системы охлаждения использовать как много (или больше) энергию как компьютеры она поддерживает. Наоборот, хорошо конструированная и, который управля система охлаждения может использовать только небольшую часть энергии используемой ITE.

В настоящей статье, я обеспечу некоторую историю на охлаждать центра данных. Я после этого обсужу некоторые из технических элементов центра данных охлаждая, вместе со сравнением технологий центра данных охлаждая, включая некоторое которое мы используем в центрах данных Sabey.

Экономическая встряска закона Moore
В раньше к mid-2000s, дизайнеры и операторы потревожились о способности технологий воздушного охлаждения охладить все больше и больше серверы силы голодные. С плотностями дизайна причаливая или превышая 5 киловаттам (kW) в шкаф, некоторые считали, что операторы прибегнуть к технологиям как теплообменные аппараты задн-двери и другие виды в-строки охлаждая для того чтобы держать вверх с увеличивая плотностями.

В 2007, Брилл Кен института uptime известно предсказал экономическую встряску закона Moore. Он сказал что увеличивая количество жары следуя из приспособление больше и больше транзисторов на обломок достигнет критическую точку на которой оно больше не не было бы экономически возможно охладить центр данных без значительных прогрессов в технологии (см. диаграмму 1).

Figure 1. ASHRAE New Datacom Equipment Power Chart, published February 1, 2005

Диаграмма 1. диаграмма силы оборудования Datacom ASHRAE новая, опубликовала 1-ое февраля 2005

Конгресс США даже впутался. Национальные лидеры стали осведомленными центров данных и количества энергии они требуют. Конгресс направил, что управление по охране окружающей среды США (EPA) представило отчет на энергопотреблении центра данных (всенародном праве 109-341). Этот закон также направил EPA для того чтобы определить стратегии эффективности и управить рынок для эффективности. Этот отчет запроектировал чрезвычайно увеличивая использование энергии центрами данных если не будут приняты измерения значительно увеличить эффективность (см. диаграмму 2).

Figure 2. Chart ES-1 from EPA report dated (August 2, 2007)

Диаграмма 2. диаграмма ES-1 от датированного отчета о EPA (2-ое августа 2007)

От 2014, закон Moore пока не терпел неудачу. Когда он сделает, конец будет результатом физических ограничений, который включили в дизайн обломоков и транзисторов, не имеющ ничего сделать с окружающей средой центра данных.

Примерно в то же время что EPA опубликовало свой отчет о центра данных, лидеры индустрии приняли примечание вопросов эффективности, изготовителей ITE начали устанавливать большее внимание на эффективности в их дизайнах, в дополнение к представлению; и дизайнеры и операторы центра данных начали конструировать для эффективности так же, как надежности и цены; и операторы начали осуществить что эта эффективность не требует поддачи надежности.

Охлаждать наследия и конец поднятого пола
На десятилетия, использованные компьютерные комнаты и центры данных подняли системы пола для того чтобы поставить холодный воздух к серверам. Холодный воздух от обработчика воздуха компьютерной комнаты кондиционера (CRAC) или компьютерной комнаты (CRAH) надул космос под поднятым полом. Пефорированные плитки обеспечили середины для холодного воздуха выйти нагнетание и вписать главный космос-идеальн перед входами сервера. После проходить через сервер, нагретый воздух возвращенный в CRAC/CRAH, который нужно охладить, обычно после смешивать с холодным воздухом. Очень часто, температура блока CRAC возвращенная была точкой отсчета используемой для того чтобы контролировать деятельность системы охлаждения. Большая часть обыкновенно вентиляторы блока CRAC бежали на неизменяемой скорости, и CRAC имело увлажнитель внутри блок который произвел пар. Основное преимущество поднятого пола, от охлаждая точки зрения, поставить холодный воздух где оно необходимо, с очень маленьким усилием, просто обменивать твердую плитку для пефорированной плитки (см. диаграмму 3).

Figure 3: Legacy raised floor cooling

Диаграмма 3: Наследие подняло охлаждать пола

В течение многих лет, эта система был самым общим дизайном для компьютерных комнат и центров данных. Она все еще использована сегодня. На самом деле, я все еще нахожу много операторов которые удивлены вписать современный центр данных и не найти поднятый пол и блоки CRAC.

Система наследования полагается на одном из принципов охлаждать комфорта: поставьте относительно небольшое количество подготовленного воздуха и позвольте что небольшой том подготовленного смешивания воздуха с более большим томом воздуха в космосе для достижения пожеланной температуры. Эта система работала ок когда плотности ITE были низки. Низкие плотности позволили система соотвествовать своей основной задаче несмотря на свои рванин-плохую эффективность, неровный охлаждать, etc.
В этот момент, утрировка, который нужно сказать что поднятый пол устарелый. Компании все еще строят центры данных с поднятой доставкой воздуха пола. Однако, больше и больше современные центры данных не поднимали пол просто потому что улучшенные методы доставки воздуха представляли ее ненужной.

Как холодный холодный достаточно?
«Схватите куртку. Мы идем в центр данных.»

Жару необходимо извлечь из близости электрических деталей ITE для избежания перегреть компоненты. Если сервер получает слишком горячим, то бортовая логика повернет ее для избежания повреждения к серверу.

Технический комитет 9,9 ASHRAE (TC 9,9) сделал значительную работу в зоне определять соответствующие окружающие среды для ITE. Я верю их изданиям, особенно термальным директивам для аппаратуры для обработки данных, облегчал преобразование центров данных от «шкафчиков мяса» центров данных наследия к более умеренным температурам. [Примечание редактора: Директива технического комитета TC9.9 ASHRAE рекомендует что вход прибора между 18-27°C и относительной влажностью 20-80% (RH) для того чтобы соотвествовать критери по изготовителя установленной. Институт uptime более самый дальний рекомендует, чтобы верхний предел был уменьшен к 25°C для того чтобы учитывать осадки, переменные условия в деятельности, или возмещать потерю ошибки своиственные в датчиках температуры и/или системах управления.]

Весьма важно понять что директивы TC 9,9 основаны на температурах сервера температур-не входа сервера внутренних, не комнатных температурах, и определенно не температурах вытыхания сервера. Также важно понять концепции порекомендованных и позволяемых условий.
Если сервер сдержан слишком горячий, но не настолько горячий, то что он сам поворачивает, своя продолжительность жизни смогла быть уменьшена. Вообще говоря, это уменьшение продолжительности жизни функция высоких температур опыты сервера и продолжительность этой выдержки. В обеспечивать более широкий позволяемый ряд, ASHRAE TC 9,9 предлагает что ITE можно подвергнуть действию более высоких температур на больше часов каждый год.

Данный которую технология освежает смогите происходить как часто как каждые 3 лет, операторы ITE рассматривать как уместный уменьшение продолжительности жизни к их деятельности. Ответ может зависеть от специфик, который дали ситуации. В однородной окружающей среде с обновленный тариф 4 лет или, интенсивность отказов увеличенных температур может быть недостаточна для того чтобы управлять охлаждая дизайном-особ если изготовитель гарантирует ITE на более высоких температурах. В смешанной среде с оборудованием более длинных ожидаемых продолжительностей жизни, температуры могут гарантировать увеличенное вникновение.

В дополнение к температуре, влажность и загрязнение могут повлиять на ITE. Влажность и загрязнение клонят только повлиять на ITE когда ITE подвергается действию неприемлемых условий в течение длительного периода времени. Конечно, в крайних случаях (если кто-то сбросило ведро воды или грязи на компьютере), то рассчитывать увидеть немедленное влияние.

Забота о низкой влажности включает электростатическую разрядку (ESD). По мере того как большинство людей испытывали, в окружающей среде с меньше влаги в воздухе (более низкой влажности), события ESD более правоподобны. Однако, заботы ESD связанные с низкой влажностью в центре данных в большинстве были разоблачаны. В «управлениях влажности для центров данных – они необходимые» (журнал ASHRAE, март 2010), Марк Hydeman и Дэвид Swenson написало что ESD не была реальной угрозой для ITE, покуда он остался в шасси. На оборотной стороне медали, плотное управление влажности никакая гарантия защиты против ESD для ITE со своим извлекли кожухом, который. Техник извлекая кожух для работы на компонентах должен использовать ремешок.

Кажется, что представляет высокая влажность, с другой стороны, реалистическую угрозу для ITE. Пока конденсация не должна определенно произойти, нет значительной угрозы в большинств центрах данных. Основная угроза что-то вызванные hygrometric частицки пыли. По существу, более высокая влажность может сделать пыль в воздухе более вероятно для того чтобы вставить к электрическим деталям в компьютере. Когда пыль вставляет, она может уменьшить передачу тепла и по возможности корозию причины к тем компонентам. Влияние уменьшенной передачи тепла очень подобно этому причиненному высокими температурами.

Несколько угроз связанных с загрязнением. Пыль может покрыть электронные блоки, уменьшая передачу тепла. Некоторые типы пыли, вызвали вискеры цинка, проводные. Вискеры цинка наиболее обыкновенно были найдены в гальванизировать поднятых плитках пола. Вискеры цинка могут стать воздушнодесантными и приземлиться внутри компьютера. В виду того что они проводные, они могут фактически причинить повреждая шорты в крошечных внутренних компонентах. Институт uptime документировал это явление в озаглавленной бумаге «вискерами цинка растя на плитках Поднимать-пола причиняет проводные отказы и выключения оборудования.»

В дополнение к угрозам представленным физическим частичным загрязнением, угрозы связанные с газообразным загрязнением. Некоторые газы могут быть въедливы к электронным блокам.

Процесс охлаждения
Процесс охлаждения можно сломать в шаги:

1. Охлаждать сервера. Извлекать жару из ITE

2. Охлаждать космоса. Извлекать жару из космоса расквартировывая ITE

3. Сброс жары. Отвергать жару к теплоотводу вне центра данных

4. Жидкий подготовлять. Закаляя и возвращающ жидкость к белому космосу, для поддержания соотвествующего
условия внутри космос.

Охлаждать сервера
ITE производит жару как электронные блоки в пределах электричества пользы ITE. Newtonian физика: энергия во входящем электричестве сохранена. Когда мы скажем сервер использует электричество, мы значит что компоненты сервера эффектно изменяют государство энергии от электричества для того чтобы нагреть.

Передачи тепла от твердой (электрическая деталь) к жидкому (типично воздух) внутри сервер, часто через другая твердую (теплоотводы внутри сервер). Вентиляторы ITE рисуют воздух через внутренние компоненты, облегчая эту передачу тепла.

Некоторые sytems используют жидкости для поглощения и для того чтобы снести жары от ITE. Вообще, жидкости выполняют эту функцию более эффективно чем воздух. Я видел 3 таких sytems:

• Жидкостный контакт с теплоотводом. Жидкостные подачи через сервер и кашутся с теплоотводом внутри оборудования, поглощая жары и извлекать ее от ITE.

• Охлаждать погружения. Компоненты ITE погружены в непроводящей жидкости. Жидкость поглощает жару и возвращает ее далеко от компонентов.

• Диэлектрическая жидкость с изменением государства. Компоненты ITE распылены с непроводящей жидкостью. Жидкостное государство изменений и принимает жару прочь к другому теплообменному аппарату, где жидкость отвергает жару и изменения заявляют назад в жидкость.

В настоящей статье, я фокусирую на системах связанных с с воздушным охлаждением ITE, по мере того как это безоговорочно самый общий метод используемый в индустрии.

Охлаждать космоса
В дизайнах центра данных наследия, нагретый воздух от смешиваний серверов с другим воздухом в космосе и окончательно делает свою заднюю часть пути к блоку CRAC/CRAH. Воздух возвращает свою жару, через катушку, к жидкости в пределах CRAC/CRAH. В случае CRAC, жидкость хладоагент. В случае CRAH, жидкость охлаженная вода. Хладоагент или охладил воду извлекает жару из космоса. Воздух приходя из CRAC/CRAH часто имеет температуру выхлопа 55-60°F (13-15.5°C). CRAC/CRAH дует воздух в поднятое нагнетание-типичн пола используя вентиляторы с постоянным числом оборотов. Стандартная конфигурация CRAC/CRAH от много изготовителей и дизайнеров контролирует охлаждать блока основанный на возвращенной температуре воздушной среды.

Варианты сброса плана и жары
Пока поднятый охлаждать пола свободный работал ок в космосах низко-плотности где никто обращенное внимание эффективность, оно не смогло соотвествовать увеличивая теплонапряженности поверхности и эффективност-на наиболее меньше не как оно исторически было использовано. Я в центрах данных наследия с датчиками температуры, и я измерял температуры вокруг 60°F (15.5°C) на основании шкафа и температуры около 80°F (26°C) вверху такой же шкаф и также высчитал PUEs хорошо свыше 2.

Люди начали использовать передовые практики и технологии включая горячие проходы и холодные проходы, нагнетания возвращения потолка, подняли управление пола, и панели сервера прикрывая для того чтобы улучшить охлаждая представление в поднятых окружающих средах пола. Эти методы определенно полезны, и операторы должны использовать их.

Около 2005, профессионалы дизайна и операторы начали экспериментировать с идеей сдерживания. Идея проста; используйте физический барьер для того чтобы отделить крутой воздух входа сервера от нагретого выхлопного воздуха сервера. Предотвращение крутого воздуха поставки и нагретого выхлопного воздуха от смешивать обеспечивает несколько преимуществ, включая:

• Более последовательные температуры воздушной среды входа

• Температуру воздуха поставленную к белому космосу можно повысить, улучшающ варианты для эффективности

• Температура воздуха возвращающ в катушку выше, которая типично делает ее работать более эффективно

• Космос может приспособить более высокое оборудование плотности

Идеально, в, который содержат окружающей среде, воздух выходит погрузочно-разгрузочное оборудование воздуха на температуру и влажность соответствующие для деятельности ITE. Воздух идет через ITE только раз и после этого возвращает к погрузочно-разгрузочному оборудованию воздуха для подготовлять.

Горячее сдерживание прохода против холодного сдерживания прохода
В холодной системе сдерживания прохода, содержится крутой воздух от обработчиков воздуха, пока горячий выхлопной воздух сервера позволен возвратить свободно в обработчики воздуха. В горячей системе сдерживания прохода, горячий выхлопной воздух содержится и возвращает к обработчикам воздуха, обычно через нагнетание возвращения потолка (см. диаграмму 4).

Figure 4: Hot Aisle containment

Диаграмма 4: Горячее сдерживание прохода

Холодное сдерживание прохода может быть очень полезно в поднятом retrofit пола, особенно если никакое нагнетание возвращения потолка. В подобном случае, могло быть возможно выйти шкафы больше или более менее по мере того как они, покуда они в холодном проходе/горячем расположении прохода. Одно строит систему сдерживания вокруг существующих холодных проходов.

Большинств холодные окружающие среды сдерживания прохода использованы совместно с поднятым полом. Также возможно использовать холодное сдерживание прохода с другим средством доставки, как надземная дактировка. Поднятый вариант пола учитывает некоторую гибкость; гораздо более трудно двинуть трубопровод, как только он установлен.

В поднятой окружающей среде пола со множественными холодными стручками прохода, том холодного воздуха поставленный к каждому стручку зависит в большинстве от числа плиток пола раскрытых в пределах каждой из зон сдерживания. Если одно не будет строить весьма высокий поднятый пол, количество воздуха которое может пойти к, который дали стручку идет быть ограниченным. Высокие поднятые полы могут быть дороги построить; тяжелое ITE должно пойти поверх поднятого пола.

В холодном центре данных сдерживания прохода, необходимо типично высказывать предположение о том, что требования к воздушного потока для стручка не поменяет значительно на регулярной основе. Оно не практически часто для того чтобы переключить вне плитки пола или даже отрегулировать демферы плитки пола. В некоторых случаях, программная система которая использует CFD моделируя для того чтобы определить воздушные потоки основанные на информации в реальном времени может после этого скорости вентилятора обработчика импульсного воздуха в попытке получить правое количество воздуха к правым стручкам. Пределы к насколько воздуха можно поставить к стручку с любой, который дали конфигурацией плитки; одно должно все еще попробовать иметь о правом количестве плиток пола в свойственном положении.

В общем, холодном сдерживании прохода работает самое лучшее в примерах где дизайнер и оператор имеют доверие в плане шкафов ITE и в примерах где загрузка ITE не изменяет много, ни меняют широко.

Я предпочитаю горячее сдерживание прохода в новых центрах данных. Горячее сдерживание прохода увеличивает гибкость. В как следует конструированном горячем центре данных сдерживания прохода, операторы имеют больше гибкости в раскрывая сдерживании. Оператор может раскрыть полный стручок или шкафы камина. Планы шкафа могут поменять. Одно просто соединяет стручок или камин с нагнетанием и отрезками потолка или извлекает плитки потолка для того чтобы позволить горячему воздуху войти его.

В как следует контролируемой горячей окружающей среде сдерживания прохода, ITE определяет насколько воздуха необходимы. Значительная гибкость в плотности. Система охлаждения затопляет комнату с воздержательным воздухом. По мере того как воздух извлечется из крутой стороны комнаты вентиляторами сервера, зона низкое давление причиняет больше воздуха пропустить для того чтобы заменить ее.

Идеально, комната сервера имеет большое, открытое нагнетание потолка, с ясным возвращает в погрузочно-разгрузочное оборудование воздуха. Легче иметь большое, открытое нагнетание потолка чем большой, открытый поднятый пол, потому что нагнетание потолка не должно поддержать шкафы сервера. Обработчики воздуха извлечь воздух из нагнетания возвращения потолка. Sabey типично контролирует скорость вентилятора основанную на перепаде давления (dP) между крутым воздушным пространством и нагнетанием возвращения потолка. Попытки Sabey держать dP немножко отрицательным в нагнетании возвращения потолка, по отношению к крутому воздушному пространству. Таким образом, все небольшие утечки в сдерживании причиняют крутой воздух пойти в нагнетание. Пандус вентиляторов обработчика воздуха вверх или вниз для поддержания свойственного воздушного потока.

Горячее сдерживание прохода требует гораздо проще схемы контроля и обеспечивает более гибкие планы шкафа чем типичная холодная система сдерживания прохода.

В одном довольно весьма примере, Sabey раскрыло 6 шкафов клиента в 6000 космосе ft2 вытягивая маленькие больше чем 35 киловаттов (kW) в шкаф. Шкафы все были помещены в ряд. Sabey позволило около 24 дюймам между шкафами и построило горячий стручок сдерживания прохода вокруг их. Много центров данных имели бы тревогу приспосабливая такие шкафы высокой плотности. Более типичное использование в таком же космосе могло быть 200 шкафов (30 ft2 в шкаф) на 4,5 kW/rack. За исключением построения стручка, Sabey не должно принять любой вид изготовленных на заказ измерений для охлаждать. Последовательность деятельности работала как запланированный, просто поднимающ рывком вверх по вентиляторам обработчика воздуха бит возмещать потерю увеличенный воздушный поток. Эти шкафы работают хорошо на почти год.

Горячие системы сдерживания прохода клонят обеспечить высокие уровни подготовленного воздуха сравненного к холодному сдерживанию прохода, которое небольшое преимущество. В холодной системе сдерживания прохода, том воздуха в центре данных в любой момент времени том воздуха в нагнетании поставки (ли это поднятый пол или надземный трубопровод) и количество воздуха в, который содержат холодных проходах. Этот том типично чем том в остатке комнаты. В горячей системе сдерживания прохода, комната затоплена с воздухом. Том горячего воздуха типично ограничен к воздуху внутри горячего сдерживания прохода и нагнетания возвращения потолка.

Горячее сдерживание прохода также позволяет операторам извлечь поднятый пол из дизайна. Воздержательный воздух затопляет комнату, часто от периметра. Сдерживание предотвращает смешать, поэтому воздух не должен быть поставлен немедленно перед ITE. Извлекать поднятый пол уменьшает начальные затраты и продолжая головную боль управления.

Один фактор который смог привести операторов продолжать установить поднятый пол. Если предвидеть сразу жидкостный охлаждать во время продолжительности жизни центра данных, то поднятый пол может сделать очень хорошее положение для необходимого тубопровода.