Тому я вирішив зробити 2 групи RAID6 16HDD або 4 з 8 жорстких дисків.
Це не найкращий спосіб робити речі. Це може працювати досить добре, але залежно від ваших вимог до продуктивності це може не статися.
Ідеальний розмір для масиву RAID5 / 6 буде таким, що точний кратний об'єм даних, який "охоплює" масив, відповідає розміру блоку файлової системи, побудованої над ним.
Масиви RAID5 / 6 працюють як блокові пристрої - один блок даних охоплює диски в масиві, і цей блок також містить дані парності. Більшість контролерів RAID записуватиме масив даних у два розміри на кожен диск масиву - точне значення якого можна налаштувати в кращих системах RAID - і ваш блок Dot Hill є однією з таких «кращих систем RAID». Це важливо.
Таким чином, потрібно N x (кількість збережених даних на шматок диска), щоб охопити масив, де N - кількість дисків даних. 5-дискний масив RAID5 має 4 диски "даних", а 10-накопичувальний масив RAID6 має 8 дисків даних.
Тому що, коли дані записуються в масив RAID5 / 6, якщо блок даних такий, що він достатньо великий, щоб охопити весь масив, для цих даних обчислюється паритет - як правило, в пам'яті контролера - тоді вся смуга записується в диск. Просто і швидко.
Але якщо фрагмент записаних даних недостатньо великий, щоб охопити весь масив, що повинен робити контролер RAID, щоб обчислити нові дані паритету? Подумайте над цим - йому потрібні всі дані по всій смузі, щоб перерахувати нові дані паритету.
Отже, якщо ви створюєте масив RAID6 на 16 приводів із шматом за замовчуванням 512 кбіт, це означає, що для «прольоту» масиву потрібно 7 Мб.
ZFS, як правило, працює у блоках із 128 КБ.
Так ZFS записує блок на 128 КБ - до масиву RAID6 на 16 приводів. У запропонованій конфігурації це означає, що RAID-контролеру потрібно прочитати майже 7 Мб з масиву та перерахувати паритет через ці 7 Мб. Потім перепишіть ці цілі 7 Мб на диск.
Якщо вам пощастить, це все в кеші, і ви не приймаєте величезного хіта на продуктивність. (Це одна з основних причин, чому позиція "не використовувати RAID5 / 6" має таке наступне - RAID1 [0] не страждає від цього.)
Якщо вам не пощастило, і ви неправильно вирівняли розділи файлової системи, блок 128 КБ охоплює дві смуги RAID, які не знаходяться в кеші, і контролеру потрібно прочитати 14 Мб, перерахувати паритет, а потім записати 14 Мб. Усі написати один блок 128 КБ.
Тепер це має відбуватися логічно . Існує багато оптимізацій, які хороші контролери RAID можуть прийняти, щоб зменшити IO та обчислювальну завантаженість таких шаблонів вводу-виводу, тому це може бути не так вже й погано.
Але при сильному навантаженні запису блоків на 128 КБ до випадкових локацій є справді хороший шанс, що продуктивність 16-накопичувального масиву RAID6 з розміром смужки 7 Мб буде абсолютно жахливою.
Для ZFS, «ідеального» , що лежить в основі RAID5 / 6 LUNs для загального призначення файлу системи , де більшість доступи ефективно випадковим чином буде мати розмір смуги, це навіть дільник 128 Кбайт, такі , як 32kB, 64 Kb, або 128kB. У цьому випадку це обмежує кількість дисків даних у масиві RAID5 / 6 до 1 (що є безглуздим - навіть якщо можливо налаштувати, краще просто використовувати RAID1 [0]), 2, 4 або 8. Найкраща продуктивність у найкращому випадку - використовувати розмір смуги 128 КБ для масивів RAID5 / 6, але найкращий випадок не трапляється часто у файлових системах загального призначення - часто тому, що файлові системи не зберігають метадані такі ж, як вони зберігати дані файлів.
Я рекомендую налаштувати 5-дискові масиви RAID5 або 10-дискові масиви RAID6, розмір шматка на диск встановлений досить малим, щоб обсяг даних, що охоплював всю смугу масиву, становив 64 кБ (так, я це зробив раніше для ZFS - багато разів). Це означає, що для масиву RAID з 4 дисками даних розмір шматка на один диск повинен становити 16 кБ, тоді як для масиву RAID для 8-дискових даних розмір фрагмента на один диск повинен бути 8 кБ.
Потім дозвольте ZFS використовувати весь масив - не розділяйте його. ZFS буде правильно вирівнювати весь диск, будь то простий одиночний диск або масив RAID, представлений контролером RAID.
У цьому випадку, і не знаючи ваших точних вимог щодо простору та продуктивності, я рекомендую встановити три 10-накопичувальні масиви RAID6 або шість 5-дискних масивів RAID5 з розміром смуги 64 кБ, налаштувати пару гарячих запасних частин і зберегти чотири ваші диски на все, що з’явиться в майбутньому. Бо щось буде.
Я, звичайно, не використовував би цю дискову систему в режимі JBOD - це повністю сумісний з NEBS Level 3 пристрій, який забезпечує значну захист надійності та доступності, вбудовану прямо в апаратне забезпечення. Не кидайте це лише тому, що "ZFS !!!!". Якщо це дешевий товарний предмет, який ви збираєте з частин? Так, режим JBOD із ZFS, що обробляє RAID, найкращий - але це НЕ обладнання, яке ви маєте. ВИКОРИСТУЙТЕ функції, які надає обладнання.