У нас буде машина, яка на пікових роботах повинна мати можливість просувати 50 ("писати голови") x 75 ГБ даних на годину. Це пікова продуктивність швидкості запису ~ 1100 МБ / с. Щоб отримати це з машини, потрібно дві лінії 10 Гбіт. Моє запитання - який сервер + технологія може обробляти / зберігати такий потік даних?
В даний час для зберігання даних ми працюємо з ZFS, хоча швидкість запису ніколи не була проблемою. (ми навіть не наближені до цих швидкостей) Чи буде ZFS (zfs на linux) варіантом? Нам також потрібно зберігати багато даних, "ІТ-путівник" пропонує десь приблизно 50-75 ТБ. Тому, ймовірно, це не всі SSD-диски, якщо ми не хочемо запропонувати своїй первістці.
Деякі доповнення на основі чудових відповідей:
- максимум - 50x75 Гб / год., в пік - менше 24 годин (швидше за все, <6 год.)
- Ми не очікуємо, що це станеться незабаром, швидше за все, ми будемо працювати 5-10x75GB / hour
- це попередньо-альфа-машина, проте потрібно дотримуватися вимог (навіть якщо у грі багато питань запитань)
- ми б використовували NFS як з'єднання з машини до сервера
- макет: генеруюча машина -> сховище (ця) -> (безпечний рейд 6) -> обчислити кластер
- тому швидкість читання не є суттєвою , але було б непогано використовувати її з обчислювального кластера (але це абсолютно необов'язково)
- швидше за все, це будуть великі файли даних (не багато маленьких)