Яка правильна температура для серверної кімнати?


63

Коли я працював у нашому серверному залі, я помітив, що дуже холодно.

Я знаю, що серверна кімната повинна бути холодною, щоб компенсувати теплоту серверів, але, можливо, це ТОО холодно.

Яка підходяща температура для підтримки нашого серверного приміщення?


1
Це залежить. Багато сучасних серверів цілком задоволені робочою температурою 45 градусів Цельсія. USV повинні вийти з цього місця - бої не люблять цього. Але для сервера ... це може бути нормально. Старі машини задихаються від цієї температури.
TomTom

Відповіді:


53

Рекомендації щодо температури в кімнаті сервера сильно різняться.

Цей посібник говорить, що:

Загальні рекомендації свідчать, що не слід опускатись нижче 10 ° C (50 ° F) або вище 28 ° C (82 ° F). Хоча це здається широким діапазоном, ці крайності є набагато частіше, і навколишнє середовище підтримує температуру близько 20-21 ° C (68-71 ° F). З різних причин це іноді може бути високим порядком.

Ця дискусія на Slashdot має різноманітні відповіді, але більшість із них є у межах, процитованих вище.

Оновлення : Як коментують інші нижче, Google рекомендує для центрів обробки даних 26,7 ° C (80 ° F).

Крім того , Американське товариство інженерів з опалення, охолодження та Інженерів Кондиционирования (ASHRAE) недавно оновив свій асортимент рекомендовану tempature бути від 18 ° C-27 ° C (64,4 ° F-80,6 ° F).

Однак ця стаття підкреслює, що досі немає єдиної думки з цього приводу. Як було сказано у статті, я зазначив би, що:

... висування термостата вище може також залишити менше часу для відновлення після відмови охолодження, і підходить лише компаніям, які добре розуміють умови охолодження на своєму об'єкті.

Більшість компаній IMO не мали б такого глибокого розуміння умов охолодження, і, таким чином, було б безпечніше в умовах малого бізнесу запустити кімнати трохи прохолодніше.

NB: Важливо зазначити, що в серверній / кімнаті даних потрібно враховувати набагато більше факторів, ніж просто температура, повітряний потік і вологість, наприклад, також є важливими проблемами.


1
Google насправді рекомендує вивчити рівномірний нахил до 80 ° F для економії енергії. Тут хороша стаття: datacenterknowledge.com/archives/2008/10/14/…
gharper

1
Дякую, я оновлю відповідь, щоб згадати, що моя оригінальна відповідь була більш орієнтована на щоденні серверні кабінети малого офісу - там, де IMO може бути більше свободи у випадку відмови охолодження (або більша увага до потоку повітря тощо)
неділя

36
Щось важливо пам’ятати, це те, що Google працює на очікуваній моделі відмов - замість дорогих серверів, що мають стійкість до помилок, як це має більшість компаній, Google замість цього використовує програмне забезпечення, що налаштовується на помилки. Google повністю очікує, що його сервери регулярно загинуть (але для того, щоб програмне забезпечення подолало несправність). Тож у моделі калькулювання витрат Google може мати сенс запустити їх серверні приміщення на 80 градусів, оскільки збільшення (дуже дешевого) апаратних збоїв легко компенсується економією енергії. Чи варто кілька загиблих серверів на 6000 доларів зекономити електроенергію у вашій компанії?
Девід

що не так з <50 ° F? Мені цікаво, бо я знаю, що пара центрів обробки даних в "екстремальних" умовах просто виходять на вулицю для охолодження ... і хтось пам'ятає Kryotech? перша компанія, яка отримала споживчі ПК на 1 ГГц, але супер охолоджує процесори Athlon 600 МГц до -40 & deg;
warren

10

Передовий досвід Центру обробки даних Google рекомендує 80 градусів:

Підвищення температури на холодному проході зменшить споживання енергії у приміщенні. Не намагайтеся запустити холодний прохід при 70F; встановити температуру на 80F або вище - практично всі виробники обладнання це дозволяють.

Ми бігаємо в 72, але потім я не дуже вірю, що наша власна кімната була розроблена з врахуванням повітряного потоку.


8

Як говорили інші, десь у низькому 70-х F це добре. Однак ще важливіше переконатися, що стійка та обладнання в ній можуть «дихати». Якщо гаряче повітря потрапить у стійку - або в шасі сервера - то низька температура навколишнього середовища насправді не принесе користі.


4

У моїй серверній кімнаті встановлено 69 градусів. У нас є один кондиціонер, який обслуговує цю кімнату, і вона працює цілодобово і підтримує кімнату на 69 градусах цілий рік.


4

Усі серверні кімнати, яких я бачив, зазвичай становлять від 20 ° C до 25 ° C, але, з досвіду, я помітив, що обладнання більш чутливе до змін більше, ніж заданої температури. Я часто бачив, як апаратне забезпечення виходить з ладу після удару, скажімо, 4-5 ° C, навіть якщо воно становить від 20 до 25.

Тож стабільність є ключовою, як і потік повітря, звичайно.


4

18 ° C (65 ° F). Це трохи холодніше, ніж це має бути, але якщо щось не вдається, це дає нам кілька дорогоцінних додаткових хвилин, щоб відреагувати, перш ніж стає неприємно жарко.


2

Пам’ятайте, що порада Google щодо 80 ° F включає в себе практично не варто вимикати центр обробки даних, коли він перегрівається через несподіване навантаження або несправність кондиціонера. Вони також включають в себе більший контроль повітряного потоку над критичними компонентами.


1

Нам подобається, що у нас буде від 19 до 23 градусів, тривоги на 28 градусах - ми на 98% лезо HP, тому у випадку, коли ми дістаємося до цього рівня тривоги, деякі сервери / корпуси "повертають свій гніт", щоб знизити загальну потужність енергії ( це називається термалогічним).


1

На мій досвід, це залежить від обладнання. Я знаю, що одна компанія мала три серверні зали. Один утримувався близько 80 ° F, інший із меншою кількістю серверів - близько 72 ° F, а третій із лише двома серверами - близько 65 ° F. Ніколи не було проблем у той час, коли я там був, але, як казали інші, 75 ° F чи трохи нижче, мабуть, найкраще, оскільки це дає трохи місця для ліктя, якщо змінного струму вимкнеться.


0

Все, що ми виявили на входах для повітря понад 30 ° С, спричиняє попередження температури (яке ми контролюємо), загалом це означає, що температура в приміщенні нижче 25 ° С.

В Австралії, здається, Емерсон (Ліберт) вирішив, що 21с буде стандартом, і кожна кімната, в якій я був тут, була встановлена ​​однаково.

Якщо ваша кімната достатньо велика, погляньте на гарячий аїс / холодний аїс, ковдра плитки тощо, вони дійсно можуть підвищити ефективність охолодження.


0

Я на флоті. На своєму кораблі ми тримали свої кімнати при температурі не нижче 65 градусів за Фаренгейтом. Ми були б посеред Червоного моря, і це було б 120 градусів зовні. Ми виходили б з космосу (при 62 градусах) із светром, рукавичками, пальто та павичем, і кожен би дивився на нас, як ми з розуму. Всі інші були збитими до майки і потіли, як божевільні.

Проблема в тому, що наша система охолодження не дуже добре знімає вологість. Так, якщо зовні волого, а темп піднімається до 70 градусів і більше, він починає липнути в просторі.


6
Привіт Джастін, ласкаво просимо до ServerFault. Те, що ви тут написали, - прикольний анекдот, але насправді це не чудова відповідь на питання. Відповідь включала б речі, які слід враховувати та / або рекомендувати найкращі практики. Ви можете подивитися на це: serverfault.com/questions/how-to-answer
quux

0

На це питання немає важкої та швидкої відповіді. Це багато що залежить від типу комп'ютерів та дизайну датацентру.

Одним із ключових моментів у цій дискусії є те, що справжня складність стосується гарячих точок та повітряного потоку .

Прохолодна температура навколишнього середовища в приміщенні - це простий спосіб охолодити тисячі гарячих точок в кімнаті. Але це неефективно: Центр обробки даних охолоджує всю кімнату, коли все, що дійсно потрібно, - охолоджувати гарячі частини серверів (процесор, пам'ять, накопичувач, джерела живлення тощо). У багатьох приміщеннях для розміщення є клієнти з різними типами обладнання (115 В або 208 В, хороший дизайн, поганий дизайн).

Центр обробки даних також повинен підтримувати достатньо прохолодного повітря, щоб забезпечити буфер у разі відключення електроенергії . Буфер прохолодного повітря означає, що ДБЖ та генератори працюють менше. Уявіть, що центр обробки даних втрачає 100% енергії (всі вузли знижуються, охолодження також знижується) відразу. Вузли можуть не мати потужності, але обладнання потребує часу для його охолодження і все ще певний час випромінює тепло, і це може зробити центр обробки даних дуже гарячим.

Організації з теплими серверними кімнатами часто використовують закриті шафи та вишукані канали, щоб направляти прохолодне повітря прямо через гарячі вузли. Спеціалізована енергетична інфраструктура може допомогти зменшити тепло від перетворення енергії. Це тримає вузли досить прохолодними, навіть якщо температура навколишнього середовища в серверній кімнаті тепла. Ці організації, як правило, мають жорсткий контроль над більшістю аспектів свого обладнання, і можуть на замовлення розробити весь центр обробки даних для своїх потреб. Вони можуть робити інвестиції та отримувати переваги.


0

По-перше: де ви вимірюєте кімнатну температуру? ;-) Яка температура стійки холодної сторони? на якій стійці гаряча сторона? при чому температура кондиціонування?

Це дійсно залежить від пристроїв. (відчуваю тепло, яке виходить з xbox) Тепловий менеджмент - це наука, дивіться, Honda (та багато інших) починають водоохолоджувати вихлопи ;-) ...

Я вам скажу про це, з центрів обробки даних, в яких я був:

Equnix тримає там холод DC (робить хороший досвід) коли exec вирушає в тур)

RW тримає їх теплими / гарячими 80f або близько того, з досить холодним повітрям, що виходить з підлоги (кращий дизайн кімнати / склепіння і вища якість системи в цілому)

Coresite (принаймні там, де я був) ближче до RW, але це залежить від CR та клієнтів. Деякі CR у 80, деякі у 70. (холодні острови завжди холодні)



-2

Температура, яку ви дійсно хочете контролювати, - це внутрішня температура сервера, а не зовнішня температура навколишнього середовища. Слідкуйте за температурою вашого сервера (усі сервери мають внутрішні термометри, які повідомляють через серверний інтерфейс) і відповідно регулюйте температуру навколишнього середовища. Це враховуватиме потік повітря тощо. Хороша ідея мати резервний план охолодження, навіть переносні пристрої кондиціонування можуть бути рятувальниками, якщо є первинна несправність системи охолодження.


7
Це насправді погана порада. Добре, що ОП, мабуть, цього не побачить. Але ігнорування температури навколишнього середовища - це прекрасний спосіб перетворити всі ваші сервери на дорогі дверні зупинки, коли ви охолоджуєте приміщення нижче точки роси та отримуєте конденсацію води на всіх металевих поверхнях. Я настійно рекомендую його для проведення диверсійних операцій, оскільки це руйнівно і практично неможливо довести наміри.
HopelessN00b

-5

Я знайшов 19-21 хорошу температуру. Google управляє своїми серверними кімнатами з дещо вищою температурою, ніж ви могли би встановити, оскільки вони виявили, що трохи більший показник відмов краще, ніж платити за охолодження.


9
Не робіть цього. Дайте відповідь на питання через 3,5 роки, нічого не знаходячи в інших відповідях.
HopelessN00b
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.