Я починаю бачити клієнтів із сотнями терабайт даних (в установках SQL Server). Оскільки загальний обсяг даних на деяких підприємствах наближається до значущих часток петабайт, я хотів би створити колективну базу знань там, щоб побачити, що люди роблять з такою величиною даних, щоб їх захистити.
Очевидна проблема полягає в тому, що зберігання декількох резервних копій такої кількості даних є надмірно дорогим, використовуючи сховище корпоративного класу, чортів, навіть просто RAID-5.
Я бачу такі варіанти:
- Створіть дзеркальну копію даних в іншому центрі обробки даних і постійно надсилайте до неї відмінності (використовуючи будь-який механізм, доступний для вашого джерела даних - наприклад, доставка журналів або дзеркальне відображення бази даних за допомогою SQL Server)
- Робіть регулярні резервні копії, використовуючи потужний алгоритм стиснення (мабуть, підходить лише тоді, коли дані добре піддаються сильному стисненню)
- Візьміть поодинокі резервні копії критичних / мінливих частин даних.
- Не створюйте резервні копії даних і не довіряйте корупціонерам.
Я бачу, що варіант №4 приймається за замовчуванням, і як експерт HA / DR це дуже страшно, але що я раджу як альтернативу? Я думаю, що №1 є найкращим підходом, але "я не думаю так" - це звичайна відповідь, коли пропонуються будь-які альтернативи, крім №4 та, можливо, №3.
Тепер, звичайно, це залежить від швидкості зміни та критичності даних. Не потрібно відповідати на це, оскільки я відповідав за всі функції HA на SQL Server, коли я працював у Microsoft, тому я добре розбираюся в аргументах "це залежить" - ось моя фраза :-)
Мені б дуже цікаво почути будь-які альтернативи, які я пропустив, або почути, що всі інші знаходяться в одному човні, і немає реальної альтернативи витрачати багато грошей на більше місця зберігання.
Заздалегідь дякую - всі належно продумані та висловлені відповіді будуть надані належним чином.