Я архівую дані з одного сервера на інший. Спочатку я розпочав rsync
роботу. На це знадобилося 2 тижні, щоб створити список файлів лише для 5 ТБ даних і ще тиждень для передачі 1 ТБ даних.
Тоді мені довелося вбити роботу, оскільки нам потрібно трохи часу на новому сервері.
Було домовлено, що ми будемо орієнтуватися на нього, оскільки нам, ймовірно, не потрібно буде звертатися до нього знову. Я думав розбити його на шматки 500 Гб. Після того як я tar
це тоді я збирався скопіювати це наскрізь ssh
. Я використовую tar
і , pigz
але це все ще надто повільно.
Чи є кращий спосіб це зробити? Я думаю, що обидва сервери є на Redhat. Старий сервер - Ext4, а новий - XFS.
Розміри файлів коливаються від кількох кбіт до декількох МБ, і 24 мільйони jpegs в 5 ТБ. Тому я здогадуюсь приблизно 60-80 мільйонів за 15 ТБ.
редагувати: Після гри з rsync, nc, tar, mbuffer та pigz протягом декількох днів. Вузьким місцем буде IO диска. Оскільки дані наводяться на 500 дисках SAS та близько 250 мільйонів JPG. Однак зараз я дізнався про всі ці приємні інструменти, які я можу використовувати в майбутньому.