Плануєте придбати сервер, що має принаймні 48 Гб оперативної пам’яті, чи леза шлях?


13

Ми плануємо розмістити наш веб-сайт вперше для себе. Наразі у нас є лінод з 8 концертів, і більшість часу пам'ять збирається до 90%. Тому я хочу перенести свій веб-сайт на власний сервер з величезною оперативною пам’яттю. Таким чином, це буде вперше керувати будь-яким фізичним обладнанням сервера.

Тож я натрапив на BladeCenter IBM, виявив їх цікавими. Тож я можу просто купити лезо і запустити його? Або мені обов’язково потрібно купити шасі точно? Також чи потрібно купувати ДБЖ? То як важко налаштувати? Як щодо жорстких дисків? Чи можу я їх легко налаштувати? Будь ласка, порадь.


3
Швидка примітка: Лопаті призначені для спеціалізованих розгортань, таких як розетки / ядра високої щільності на стійку або надзвичайно гнучкі сценарії з голими кістками. Вони не для більшості людей.
Марк Хендерсон

1
FYI, на серверах лезових центрів є вентилятори, голосні як пекло.
Тревор Бойд Сміт

2
У нас багато систем леза HP c7000, і вони взагалі не гучні ... напевно, одні з найтихіших систем у нас, якщо тільки ви не підтягнете деяких вентиляторів вгору, що призведе до того, щоб інші працювали більше, щоб зробити втрачений повітряний потік.
mrTomahawk

Відповіді:


28

Якщо у вас є дуже вагомі причини - щільність тощо - я б радив не ходити з лезами.

Хороший 2U-сервер від HP або Dell забезпечив би все, що потрібно на шляху оперативної пам'яті. Особисто я віддаю перевагу HP DL380 - у мене є кілька із 72+ ГБ оперативної пам’яті. Вам дійсно потрібно краще зрозуміти основи, перш ніж починати турбуватися про те, яке обладнання придбати. Потрібно мати надійну потужність, охолодження, безпеку (заблокована стійка / серверна кімната), доступ до мережі, характеристики оперативної пам’яті та диска тощо перед тим, як почати дивитися на тип серверів, які потрібно придбати.

EDIT - в одному керівництві по серверах такого поняття не існує. Я дам вам декілька попередніх речей для початку роботи. Тут є трохи додаткової інформації на випадок, якщо хтось зіткнеться з цим пізніше.

Ця стаття про технічну республіку добре описує фізичні вимоги, про які ви повинні задуматися.

Ваші існуючі вимоги до пропускної здатності мають бути досить легко визначити. З точки зору вашого запитання, у вас є рішення, яке розміщується десь в іншому місці, або VPS, або якийсь хостинг-провайдер. Ви маєте змогу знайти наявні дані використання. Розраховуйте забезпечити однакову кількість пропускної здатності або вище для вашого домашнього сервера. Те саме можна сказати і щодо необхідного обсягу дискового простору.

Вам обов'язково потрібно встановити ДБЖ для вашого сервера. Без кондиціонування на місці ви просите про аварію. Що станеться, якщо живлення мерехтить одну другу секунду в п'ятницю? Ваш веб-сайт буде поза комісією, поки хтось не помітить вранці в понеділок.

Що стосується ваших дисків, вам потрібно мати RAID на своєму сервері. Я пропоную або RAID 5, RAID 10 або RAID 6, Дивіться тут і тут . Більшість будь-яких сучасних серверів забезпечує цю ємність. Проконсультуйтеся в посібнику сервера щодо того, як налаштувати RAID, оскільки він сильно відрізняється від виробника.

Є ще кілька додаткових моментів, пов’язаних із запуском власного сервера, які також слід враховувати.

Поряд із запуском будь-якого сервера, навантаження на підтримку резервного копіювання також стає вашим. Здається, це щось, що ви не розглядали. У цій ситуації ви можете скористатися стрічковим накопичувачем, приєднаним безпосередньо до вашого сервера.

Будь-який сервер, що звертається до Інтернету, створює певний ризик для мережі, в якій він сидить. Використовуйте брандмауер, щоб захистити його від більшості інтернет-трафіку. Щоб мінімізувати ризик до використання ДМЗ , настійно рекомендується.


дякую, чи є посібник для початківців, як я, про налаштування фізичних серверів?
varchar1

+1 Також кожен клинок, який я бачив, вимагає відповідного шасі, вони не працюватимуть самостійно. Не возиться з початківцем керівництвом, якщо ви хочете щось зробити, то найміть когось, хто знає, про що вони говорять.
Кріс С

@Chris S - хороший момент про шасі. Думав, що я висвітлював цей аспект. Дякуємо, що вказали на це.
Тім Брігхем

1
Не погоджуються на рівні RAID. RAID 5 втрачає всі свої відмови, якщо один диск гине; в цей момент будь-який поганий блок, який може існувати на іншому диску, буде втрачено; таким чином, використовуйте RAID6 або RAID10 з принаймні трьома дзеркалами в шарі RAID1 (це втратить більше місця, але значно швидше для невеликих записів, що важливо для баз даних).
Саймон Ріхтер

1
+1 - просто поїхати з кимось іншим, крім IBM. Особисто я б рекомендував Dell. Вони зберуть все для вас і налаштують те, що RAID хочете. Замовте сервер у IBM, і вам доведеться це зробити самостійно, як правило, за більш $ $ $.
шеллак

9

Так, вам потрібно шасі. Леза зазвичай не містять багато місця для зберігання та не мають мережевого вводу-виводу на самому лезо. Через щільність вам потрібно набагато краще охолодження, ніж потрібно для охолодження пари 1U-серверів. Якщо ви конкретно не зможете виправдати потребу в лезах, вам краще без них.

Люди, які їх потребують, знають, що вони їм потрібні. Люди, які не впевнені, зазвичай цього не роблять.


Дуже правильно. Якщо ви не впевнені, чи потрібні вам леза, 99,9% шансів, що вони вам не потрібні.
Марк Хендерсон

+1 за останнє речення.
Філ

5

Ви впевнені, що придбання більшого обладнання (а потім влаштування його власне (здригання)) - це правильна відповідь? Що станеться, коли у нового хоста закінчиться пам'ять / процесор / сховище / тощо? Отримати ще більшого господаря?

Я б тримався осторонь вашої слабкості (керуючи апаратом, це ваш перший фізичний хост) і залишаюсь з вашими сильними сторонами (запуск веб-сайту) і досліджую перехід від одного веб-хостингу до кількох веб-хостів. Горизонтальне масштабування веб-сторінки - це добре зрозуміла проблема з багатьма рішеннями, і після початкового інвестування дозволяє практично необмежене масштабування.


0

Я пропоную вам розмовляти: коли ви розміщуєте власне обладнання в центрі обробки даних.

За характером ваших питань я пропоную вам керовану розмову;)

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.