Ми розглядаємо можливість створення сервера зберігання ~ 16 ТБ. Наразі ми розглядаємо і ZFS, і XFS як файлову систему. Які переваги, недоліки? Що ми маємо шукати? Чи є третій, кращий варіант?
Ми розглядаємо можливість створення сервера зберігання ~ 16 ТБ. Наразі ми розглядаємо і ZFS, і XFS як файлову систему. Які переваги, недоліки? Що ми маємо шукати? Чи є третій, кращий варіант?
Відповіді:
Я виявив, що XFS більше підходить для надзвичайно великих файлових систем з можливо великою кількістю великих файлів. У мене функціонує файлова система XFS 3.6TB вже понад 2 роки без проблем. Визначально працює краще, ніж ext3 та ін. При такому розмірі (особливо при роботі з великими файлами та великою кількістю вводу-виводу).
Що ви отримуєте з ZFS - це об'єднання пристроїв, роздягання та інші вдосконалені функції, вбудовані в саму файлову систему. Я не можу говорити з конкретними даними (я дозволю іншим коментувати), але, з того, що я можу сказати, ви хочете скористатися Solaris, щоб отримати тут максимальну користь. Також мені незрозуміло, наскільки ZFS допомагає, якщо ви вже використовуєте апаратний RAID (як і я).
xfs_fsr
«дефрагментація».
ZFS надасть вам переваги понад програмного RAID. Структура команди дуже продумана і інтуїтивно зрозуміла. У ньому також є стискання, знімки, клонування, пристрої передачі / прийому файлової системи та кеш-пристрої (ті модні нові SSD-накопичувачі) для пришвидшення індексації метаданих.
Стиснення:
#zfs set compression=on filesystem/home
Він підтримує прості для створення знімки з копією на запис, які можна встановити наживо:
# zfs snapshot filesystem/home/user@tuesday
# cd filesystem/home/user/.zfs/snapshot/tuesday
Клонування файлової системи:
# zfs clone filesystem/home/user@tuesday filesystem/home/user2
Відправка / отримання файлової системи:
# zfs send filesystem/home/user@tuesday | ssh otherserver "zfs receive -v filesystem/home/user"
Поступове надсилання / отримання:
# zfs send -i filesystem/home/user@tuesday | ssh otherserver "zfs receive -v filesystem/home/user"
Пристрої кешування:
# zpool add filesystem cache ssddev
Це все лише верхівка айсберга, я б настійно рекомендував отримати свої руки на встановлення Open Solaris і спробувати це.
http://www.opensolaris.org/os/TryOpenSolaris/
Редагувати : Це дуже давно, Open Solaris припинено, найкращий спосіб використання ZFS - це, мабуть, на Linux або FreeBSD .
Повне розкриття: я раніше був архітектором зберігання НД, але я не працював над ними більше року, я просто в захваті від цього продукту.
http://opensolaris.org/os/TryOpenSolaris/
використання lvm знімків та xfs у живих файлових системах - це рецепт катастрофи, особливо при використанні дуже великих файлових систем.
Я працюю виключно на LVM2 та xfs протягом останніх 6 років на своїх серверах (вдома навіть з моменту, коли zfs-fuse просто занадто повільний) ...
Однак я більше не можу рахувати різні режими відмов, з якими я стикався під час використання знімків. Я взагалі перестав їх використовувати - це занадто небезпечно.
Єдиний виняток, який я зараз роблю, - це власне резервне копіювання особистого сервера / веб-сервера, де я робитиму резервні копії протягом ночі за допомогою ефемерного знімка, який завжди дорівнює розміру вихідного файлу, і видаляється одразу після цього.
Найважливіші аспекти, які слід пам’ятати:
Пара додаткових речей, про які варто подумати.
Якщо диск загине в апаратному масиві RAID, незалежно від файлової системи, що знаходиться поверх нього, всі блоки на пристрої повинні бути відновлені. Навіть ті, що не мали жодних даних. З іншого боку, ZFS є диспетчером томів, файловою системою та керує надмірністю та смугами даних. Таким чином він може інтелектуально перебудувати лише блоки, які містили дані. Це призводить до більш швидкого відновлення часу, ніж тоді, коли гучність на 100% заповнена.
ZFS має вимивання фону, завдяки чому ваші дані залишаються послідовними на диску та відновлює будь-які проблеми, які він знайде, перш ніж це призведе до втрати даних.
Файлові системи ZFS завжди знаходяться в послідовному стані, тому немає необхідності в fsck.
ZFS також пропонує більшу гнучкість та функції завдяки знімкам та клонам порівняно із знімками, які пропонує LVM.
Запустивши великі пули пам’яті для виробництва відеофайлів великого формату на стеку Linux, LVM, XFS. Мій досвід полягав у тому, що легко потрапити в мікро-керування вашим сховищем. Це може призвести до великої кількості невикористаного виділеного простору та часу / проблем із керуванням вашими логічними томами. Це може не спричинити великих труднощів, якщо у вас є адміністратор пам’яті, що працює на повний робочий день, завданням якого є мікро-управління пам’яттю. Але я виявив, що підхід системи зберігання пулу ZFS усуває ці проблеми управління.
ZFS абсолютно дивовижний. Я використовую його як свій домашній файловий сервер для файлового файлу 5 x 1 TB HD, а також використовую його у виробництві з майже 32 ТБ місця на жорсткому диску. Він швидкий, простий у використанні та містить найкращий захист від корупції даних.
Ми використовуємо OpenSolaris на цьому сервері, зокрема, тому, що ми хотіли отримати доступ до нових функцій і тому, що це забезпечило нову систему управління пакетами та спосіб оновлення.
Яку ОС ви плануєте працювати? Або це інша частина розгляду? Якщо ви працюєте з Solaris, XFS навіть не є варіантом, наскільки я знаю. Якщо ви не працюєте з Solaris, як ви плануєте використовувати ZFS? Підтримка обмежена на інших платформах.
Якщо ви говорите про Linux-сервер, я б особисто дотримувався Ext3, хоча б тому, що він отримує найбільшу кількість тестування. zfs-fuse ще дуже молодий. Також у мене були проблеми з XFS одного разу, коли помилка викликала пошкодження даних після оновлення ядра. Переваги XFS над Ext3, безумовно, не переважали затрати на відновлення машини, яка знаходилась у віддаленому центрі обробки даних.
Я не думаю, що вам слід орієнтуватися на продуктивність. Чи безпечні ваші дані за допомогою XFS, ext4 тощо? Ні. Прочитайте ці кандидатські дисертації та наукові роботи:
XFS не є безпечним від пошкодження даних: pages.cs.wisc.edu/~vshree/xfs.pdf
І не є ext3, JFS, ReiserFS тощо: zdnet.com/blog/storage/how-microsoft-puts-your-data-at-risk/169?p=169&tag=mantle_skin%3bcontent "Я натрапив на захоплюючу кандидатську дисертацію Vijayan Prabhakaran, IRON File Systems, який аналізує, як п’ять товарних файлових систем журналу - NTFS, ext3, ReiserFS, JFS та XFS - вирішують проблеми зберігання.
Коротше кажучи, він виявив, що всі файлові системи є
. . . failure policies that are often inconsistent, sometimes buggy, and generally inadequate in their ability to recover from partial disk failures. "
Але ZFS успішно захищає ваші дані. Ось дослідний документ щодо цього: zdnet.com/blog/storage/zfs-data-integrity-ested/811
Вибачте, не FS-орієнтована відповідь, але пам’ятайте, що ряд дискових контролерів не матиме справу з LUNS 2TB / логічними дисками - це може досить обмежити спосіб організації вашого зберігання. Я просто хотів, щоб ви були в курсі, щоб ви могли перевірити свою систему в кінці, щоб переконатися, що вона буде працювати з 16 ТБ протягом усього часу.
Залежить від того, які функції ви хочете ..., два розумні варіанти - xfs та zfs, як ви вже сказали, код xfs досить добре перевірений. Я вперше використав це 8 років тому під IRIX
Можна отримати знімки з xfs (використовуючи lvm та xfs_freeze)
Можливо мати окремий журнальний пристрій, наприклад, SSD
mkfs.xfs -l logdev=/dev/sdb1,size=10000b /dev/sda1
Великим xfs традиційно потрібно багато пам'яті, щоб перевірити
Проблема з нулями, що з'явилися, була функцією "безпеки", яка, на мою думку, зникла деякий час тому.
Крім того, що вже згадувалося, з точки зору продуктивності xfs на рейді на базі MD працює краще, ніж zfs на потокових носіях. Я півтора десятиліття використовував саме те саме обладнання з xfs і приблизно стільки ж часу з zfs на своєму медіа-сервері. На Intel Atom 330 з xfs я ніколи не відчуваю стутеру, на zfs на складних сценах той же апарат не може йти в ногу і починає скидати кадри.
Ну, хлопці, давайте не забувати про останнє доповнення до zfs: дедуплікація. І давайте поговоримо про льоту iscsi, nfs або smb-спільний доступ. Як вже говорили інші, експорт файлових систем zfs, знімки, raidz (= raid5) блокує контрольну суму, динамічну ширину смуги, кеш-керування та багато інших. Я голосую за zfs.