У мене 40 років в обчислювальній техніці, але мені ніколи не доводилося будувати сервер, як цей, тому це може бути питання n00b.
У мене є клієнт, який буде пропонувати для завантаження музичні файли надвисокої якості. У цьому випадку це означає стиснений FLAC 24/192 КГц = ~ 10 Гб / альбом. (Ні, я не хочу обговорювати бажаність продукту, а лише конфігурацію сервера.) У каталозі буде близько 3000 альбомів, як ультрависоких, так і низьких версій (для їх iPod, я думаю), 35-40 ТБ або близько того первинних даних.
Оскільки це дуже спеціалізований продукт, розмір ринку відносно невеликий (подумайте: люди, які витрачають $ 20 000 + на свої аудіосистеми), що означає, що більшість часу сервер буде на 100% простоювати (або близько до нього). У мене є те, що виглядає як гарна пропозиція щодо колокації від ColocationAmerica з з'єднанням 1 Гбіт / с і пропускною здатністю приблизно $ 20 / ТБ, тому тепер мені просто потрібно створити коробку для доставки товару.
Випадок використання доступу до даних - це один раз / читати-багато, тому я думаю про використання програмного RAID 1 для пар приводів. Це дозволило б мені (я думаю ) переналаштувати запасні накопичувачі для несправних на ходу, тим самим мати можливість розпочати відновлення другого накопичувача до того, як деякий sysadmin помітить червоне світло в системі (вони роблять безкоштовну заміну). Було б чудово, якби я міг отримати більшість дисків у режимі сну / віджиму, якщо вони не потрібні, що буде більшість часу для більшості дисків.
Мені не потрібно багато на шляху до обчислювальної потужності - ця річ - це просто штовхання жирових об’єктів по трубі - і тому процесор / материнська плата можуть бути досить скромними, якщо вони можуть підтримувати таку кількість накопичувачів.
Зараз я розглядаю таку конфігурацію:
Chasis: Supermicro CSE-847E26-RJBOD1
Drives: 30 4TB SAS drives (Seagate ST4000NM0023 ?)
MB: SUPERMICRO MBD-X10SAE-O w/ 8GB
CPU: Xeon E3-1220V3 3.1GHz LGA 1150 80W Quad-Core Server
Отже, я йду в правильному напрямку, чи це абсолютно n00b / динозавр спосіб наближення до проблеми?
Оновіть, щоб уточнити пару пунктів:
- Я не маю досвіду роботи з ZFS, оскільки останній продукт Sun, яким я володів, був ще в кінці 80-х. Я зроблю трохи RTFMing, щоб побачити, чи правильно це відчувається.
- Мені не дуже потрібна файлова система, щоб робити щось вражаюче, оскільки імена файлів будуть простими UUID, а об'єкти будуть врівноважені між дисками (на зразок великої системи кешування). Тож я насправді думав про це як 40 окремих файлових систем, і це зробило RAID 1 правильним (але я тут визнаю невігластво).
- Оскільки ми очікуємо, що ми навряд чи зможемо завантажувати більше декількох десятків файлів одночасно, і в більшості випадків будь-який користувач завантажить будь-який файл, я не знаю, чи потрібні ми тонни пам'яті для буферів. Можливо, 8 Гб трохи легке, але я не думаю, що 128 Гб нічого іншого не витратять, крім споживання енергії.
- Є 2 окремих машин , які не йдеться тут: їх поточний інтернет - магазин, і майже повністю роз'єднаний Download Master , який обробляє всі аутентифікації, новий продукт вживає управління, забезпечення дотримання політики ( в кінці кінців, це є майданчиком в RIAA в), створенні ефемерною URL (і , можливо , передача завантажень більш ніж одному з цих звірів, якщо трафік перевищує наші очікування), відстеження використання та створення звітів. Це означає, що цю машину можна було майже побудувати з використанням піщанок на Quaaludes.
ZFS? Де користь?
Гаразд, я розглядаю шлях через кілька посібників із ZFS, поширені запитання та ін. Пробачте, що я звучав нерозумно, але я справді намагаюся зрозуміти користь використання ZFS над моїм допотопним поняттям N пар RAID1. На цій сторінці « Найкращі практики» (з 2006 року) вони навіть пропонують робити не 48 пристроїв ZFS, а 24 дзеркала з 2 пристроями - схоже на те, про що я говорив. На інших сторінках згадується кількість пристроїв, до яких потрібно отримати доступ, щоб доставити 1 (один) блок ZFS. Також пам’ятайте, що при 10 Гб на об'єкт та при 80% використанні диска я зберігаю загальну кількість 320 файлів на 4 ТБ накопичувача . Мій час відновлення з N RAID 1, для будь-якої несправності накопичувача, - це 4 ТБ запису з одного пристрою на інший.Як ZFS робить це кращим?
Я визнаю себе динозавром, але диск дешевий, RAID 1 Я розумію, мої потреби в керуванні файлами тривіальні, а ZFS в Linux (моя вподобана ОС) все ще молодий. Можливо, я занадто консервативний, але коли я дивлюся на виробничу систему, то так я кочуюся.
Я вдячний усім вам за ваші коментарі, які змусили мене задуматися про це. Я все ще не вирішив повністю, і мені, можливо, доведеться повернутися і задати ще кілька питань n00b.