Ви пропускаєте стійки блоку між серверами?


70

Здається, що в наборі думок є багато розбіжностей, коли справа доходить до установки серверів rackmount. Там були теми, які обговорювали зброю для кабелю та інші аксесуари для стійки, але мені цікаво:

Чи залишаєте порожній стійки між вашими серверами, коли ви встановлюєте їх? Чому або чому ні? Чи є у вас емпіричні докази на підтримку ваших ідей? Хтось знає про дослідження, яке переконливо доводить, чи краще це чи ні?

Відповіді:


81

Якщо ваші сервери використовують переднє та заднє потокове охолодження, як це робить більшість серверів, встановлених на рейках, залишаючи прогалини, це може насправді пошкодити охолодження. Ви не хочете, щоб холодне повітря не мав жодного способу дістатися до гарячого проходу, за винятком самого сервера. Якщо вам потрібно залишити прогалини (з приводу енергетичних проблем, проблем з вагою підлоги тощо), слід використовувати панелі, що захищають, щоб повітря не міг проходити між серверами.


6
Так, якщо ви залишите прогалину, вам потрібно заповнити її панеллю, щоб цього не допустити.
Томас,

2
= 1. сервери і стійки для монтажу стійки призначені для подачі повітря з усіма панелями та панелями, і всі залиті u. так само, як повітряний потік в ПК призначений для того, щоб усі кришки були на. обхід конструкції, залишаючи зазори та \ або видаляючи панелі та кришки, ймовірно, принесе більше шкоди, ніж користі.
joeqwerty

23

Я ніколи не пропускав стійки між шафами пристроїв у шафі. Якби виробник доручив мені пропускати U між пристроями, я б хотів, але я ніколи не бачив такої рекомендації.

Я б очікував, що будь-який пристрій, призначений для кріплення до стелажа, буде відводити тепло через передню або задню панелі. Частина тепла буде проводитися через рейки та верхню і нижню частину шасі, але я б очікував, що це буде дуже мало порівняно з випромінюванням спереду та ззаду.


5
Насправді, якщо ви пропускаєте стійки, вам потрібно використовувати кришки між кожним сервером, інакше ви отримаєте перемішування повітря між високими та холодними проходами.
Doug Luxem

22

У нашому центрі обробки даних ми не залишаємо прогалин. У нас прохолодне повітря, що піднімається з підлоги, і розриви викликають проблеми повітряного потоку. Якщо у нас з якихось причин є зазор, ми накриваємо його чистою тарілкою. Додавання порожніх тарілок негайно зробило верхівки наших холодних проходів холодними, а наші гарячі проходи гарячішими.

Я не думаю, що у мене більше немає даних або графіків, але різниця була дуже зрозумілою, як тільки ми почали вносити зміни. Сервери на вершинах стійок перестали перегріватися. Ми припинили готувати джерела живлення (що ми робили зі швидкістю близько 1 / тиждень). Я знаю, що зміни були розпочаті після того, як наш менеджер центрів обробки даних повернувся з експозиції центрально-оздоровчих центрів Сонця, де він провів семінари про охолодження тощо. До цього ми використовували зазори та частково заповнені стелажі та перфоровані плитки в підлозі спереду та ззаду стійок.

Навіть при наявності зброї управління усунення прогалин вийшло краще. Всі внутрішні температури нашого сервера скрізь у приміщенні зараз знаходяться в межах специфікації. Це було не так, перш ніж ми стандартизували управління кабелем та усунули прогалини та виправили наше розміщення плитки для підлоги. Ми хотіли б зробити більше, щоб направити гаряче повітря назад до підрозділів CRAC, але ми поки не можемо отримати фінансування.


9

Я не пропускаю нас. Ми здаємо в оренду і нам коштують гроші.

Немає підстав для тепла в ці дні. Все прохолодне повітря надходить спереду, а ззаду. У верхівках вже немає отворів для вентиляції.


1
Re: "Нам коштують гроші". Я думаю, що простір був головним фактором у ціноутворенні центрів обробки даних. Тоді я влаштувався на роботу в хостинговий сектор, виявляється, більшість витрат в середовищі Колора - це від ланцюгів живлення та перехресних з'єднань.
JamesBarnett

6

Google не залишає U між серверами, і я думаю, що їх турбує управління теплом. Завжди цікаво спостерігати, як великі гравці виконують роботу. Ось відео одного з їх центрів обробки даних: http://www.youtube.com/watch?v=zRwPSFpLX8I&feature=player_embedded

Перейдіть безпосередньо до 4:21, щоб побачити їхні сервери.


5

Не залишайте місця, якщо з підлоги прохолодне повітря, а також використовуйте заготовки у невикористаному просторі. Якщо у вас просто низькотехнологічна система охолодження, що використовує стандартний кондиціонер, найкраще залишити прогалини, щоб мінімізувати гарячі точки, коли у вас гарячі сервери зібрані.


4
Якщо ваші сервери використовують вентилятор «передній-задній», охолоджуючи його зовсім не розумно, залишати прогалини, це зашкодить повітряному потоку.
pauska

5

У нас є 3 1/2 стійки, варті кластерних вузлів та їх зберігання в колокаційному об'єкті. Єдине місце, де ми пропустили U - це те, де нам потрібно прокласти мережеве кабелювання до центральної стійки, де знаходиться перемикач основного кластера. Ми можемо дозволити собі зробити це просто розумно, оскільки стійки вже розміщені з точки зору потужності, тому не вдасться набити в них більше вузлів :)

Ці машини працюють 24/7 зі 100% процесором, а деякі з них мають до 16 ядер у коробці 1U (4х квадроядерні Xeons), і я ще не бачив жодних негативних ефектів, не залишаючи пробілів між більшістю з них.

Поки ваше обладнання має добре розроблений повітряний шлях, я не розумію, чому це має значення.


5

У мене великі зазори над моїм ДБЖ (для встановлення другого акумулятора в майбутньому) і над моєю бібліотекою стрічок (якщо мені потрібна ще одна). Крім цього у мене немає прогалин, і я використовую панелі, щоб заповнити порожні місця для збереження повітряного потоку.


3

Кожен третій, але це пов’язано зі зброєю управління та необхідністю працювати навколо них, а не тепла. Той факт, що на кожному з цих серверів є 6 кабелів Cat5, до них не допомагає. Ми вкрай користуємося забійними панелями та повітряними дамбами на вершинах стійок, щоб запобігти рециркуляції з гарячого проходу.

Крім того, одне, чого нам не вистачає у нашому центрі обробки даних, - це простір. Він був розроблений для розширення назад, коли 7-10U сервери були стандартними. Тепер, коли ми пішли з щільними кластерами ESX, це місто-привид.


Гаразд, 6 кабелів, подивимось ... 2 інтерфейси управління, 2 інтерфейси iscsi та 2 .... присвячені менеджеру кластерів?
Метт Сіммонс

Не використовуйте зброю управління, і вам не доведеться пропускати одиниці. :)
Doug Luxem

1
6 кабелів: 1x карта HP iLO, 1x ESX mgmt LUN, 4x VM Luns. Також волокна для SAN. Ми ще не пройшли iSCSI. Якби ми були готові повністю роздягнути сервери перед тим, як витягнути їх, ми неодмінно пішли б без зброї.
sysadmin1138

1
Побачивши ваш центр обробки даних, я повинен задуматися, чи ви налаштовуєте речі в традиційному режимі холодного проходу з холодним проходом, а не розсипаєтесь по своїй гігантській кімнаті, якщо ви отримаєте кращі теплові показники.
Лаура Томас

3

Я б не залишав прогалин між серверами, але я буду робити такі речі, як комутатори локальної мережі - це дозволяє мені поставити кілька панелей управління кабелем 1U вище та знизу ... але це точно не робиться для охолодження.


2

Жодних прогалин, за винятком випадків, коли ми взяли сервер чи щось інше, і не намагалися переупорядкувати. Я думаю, що ми трохи менше, ніж багато людей, з двома стелажами, на яких розміщено лише близько 15 серверів плюс кілька стрічкових накопичувачів та комутаторів та ДБЖ.


2

Ніяких прогалин, крім планування розширення сан-систем або подібних речей. Ми вважаємо за краще ставити нові шафи близько до реальних контролерів.

При правильному охолодженні залишення прогалин не буде корисним, якщо сервер погано побудований.


2

У мене складається враження (можливо, неправильно), що це більш популярна практика в деяких телекомунікаційних середовищах, де проходи гарячого / холодного не так широко використовуються.

Він не підходить для високої щільності і добре працює датацентру.


1

Зазвичай я залишаю порожнє RU після приблизно 5RU серверів (тобто 5x1ru або 1x2ru + 1x3ru), і це буде залежати від налаштування охолодження в центрі обробки даних, у якому ви знаходитесь. перед стійкою) ідея полягає в тому, що прохолодне повітря виштовхується з підлоги і ваші сервери висмоктують прохолодне повітря через них. У цьому випадку ви, як правило, краще охолоджуєтеся, не залишаючи порожніх прорізів (тобто використовуйте порожню кришку RU. Але якщо ви охолоджуєтеся через підлогову панель у своїй стійці, з мого досвіду ви отримуєте більш ефективне охолодження, розбиваючи сервери від збивання. один на одного для всієї стійки


1

У ситуації, коли у нас був власний центр обробки даних, а простір не був проблемою, я пропускав U (з прокладкою для блокування повітряного потоку) між логічними областями: веб-сервери мають один розділ, базу даних, контролер домену, електронну пошту, і файловий сервер мав ще одного, а брандмауері та маршрутизатори - ще один. Вимикачі та патч-панелі для зовнішніх робочих столів були у власній стійці.

Я точно пам'ятаю один випадок, коли я пропустив U з причини охолодження. Це було петлеве / кабельне телевізійне рішення в середній школі, де було три підрозділи, які відповідали за обслуговування системи кабельного телебачення до однієї секції будівлі. Після того, як верхній пристрій довелося замінити втретє за два роки через перегрів, я здійснив деяку "операцію" на стійці, щоб зробити кріпильні отвори, щоб я міг залишити 1 / 2U місця між кожним із трьох блоків (для всього 1 U загального місця).

Це все-таки вирішило проблему. Потрібно сказати, що це було ретельно задокументовано, і для надзвичайної міри я проклеїв аркуш до вершини одного із прогалин, пояснюючи, чому все так, як вони.

Тут є два уроки:

  1. Залишити зазор для охолодження робиться лише у виняткових обставинах.
  2. Скористайтеся поважним постачальником або сервером. Будьте обережні, купуючи обладнання, яке намагається зібрати 2U тепла, що коштує, на 1U місця. Це буде заманливо, адже система 1U може здатися значно дешевшою. І будьте обережні, купуючи фірмовий корпус, який недостатньо враховував потік повітря.

0

У мене їх складено в одній стійці, яку я маю. Ніколи з цим не виникало жодних проблем, тому у мене ніколи не було підстав їх розміщувати. Я б міг уявити, що найбільша причина, по якій люди відволікають їх, - це тепло.


0

Залишення проміжків між серверами може вплинути на охолодження. У багатьох центрах обробки даних функціонують набори на "гарячому проході", "холодному проході".

Якщо ви залишаєте прогалини між серверами, то ви можете вплинути на ефективний потік повітря та охолодження.

Ця стаття може зацікавити:

Чергування холодних та гарячих проходів забезпечує більш надійне охолодження для ферм серверів


0

Раніше я залишив 1/3 RU між двома перемикачами, в основному тому, що вони були 1 1/3 RU кожен.

Якби я склав їх важко разом, тоді шестерня вище була б поза місцем на 1/3 U.

Крім цього, я ніколи не залишав місця просто для охолодження, а лише для майбутнього зростання.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.