У нашій інтрамережі є структура папок, яка містить близько 800 000 файлів, які поділяються на близько 4000 папок. Нам потрібно синхронізувати це з невеликою групою машин у наших ДМЗ. Глибина споруди дуже мала (вона ніколи не перевищує двох рівнів глибини).
Більшість файлів ніколи не змінюються, кожен день з'являється кілька тисяч оновлених файлів і 1-2 тисячі нових файлів. Дані - це дані історичної звітності, які зберігаються там, де вихідні дані були очищені (тобто це доопрацьовані звіти, для яких вихідні дані є достатньо старими, щоб ми їх архівували та видаляли). Синхронізація один раз на день є достатньою, враховуючи, що це може відбуватися у розумні часові рамки. Звіти формуються протягом ночі, і ми спочатку синхронізуємо вранці як заплановане завдання.
Очевидно, оскільки так мало файлів змінюється регулярно, ми можемо отримати велику користь від поступової копії. Ми спробували Rsync, але це може зайняти від восьми до дванадцяти годин, щоб виконати операцію "створення списку файлів файлів". Зрозуміло, що ми швидко переростаємо, на що здатний rsync (12-годинний часовий проміжок є занадто довгим).
Ми використовували інший інструмент під назвою RepliWeb для синхронізації структур, і він може робити поступовий перенос приблизно за 45 хвилин. Однак, здається, ми перевищили його ліміт, він почав бачити, що файли відображаються як видалені, коли їх немає (можливо, якась внутрішня структура пам'яті вичерпана, ми не впевнені).
Хтось ще натрапив на масштабний проект синхронізації такого роду? Чи є щось, розроблене для обробки таких масивних файлових структур для синхронізації?