У мене була така ситуація:
Я скопіював 5.5 TB
варті дані (загалом понад 100 000 каталогів та 10 мільйонів файлів) зі старого диска на щойно придбаний зовнішній диск.
Я використовував Ultracopier
для того, Windows 10
щоб робити всю копію, і у мене була Verify checksums
включена опція, щоб після копії була перевірена контрольна сума кожного файлу.
Далі я використав TreeSize
і SpaceSniffer
переконався, що загальний розмір резервних копій каталогів та кількість файлів і каталогів однакові на старому та новому диску.
Нарешті, я використав, Beyond Compare 4
який нібито порівнює всі атрибути файлів і папок між собою (розмір, дати тощо). Це також здатне binary comparison
. Він повідомляв, що дані про старий та новий накопичувачі абсолютно однакові навіть після binary comparison
.
Моє запитання потрійне:
- Чи був вищенаведений підхід достатньо надійним та всебічним, щоб зробити висновок про те, що дані дійсно однакові на обох накопичувачах та не було помилок / помилок під час процесу копіювання?
- Який найкращий та найнадійніший атрибут файлу та / або підхід для порівняння двох файлів? Чи
checksum
справді достатньо? Або аbinary comparison
? - Наскільки ймовірно, при такій величезній передачі файлів опинитися кілька пошкоджених або частково скопійованих файлів? Особливо, коли це
Verify checksums
було ввімкнено. Є чи такий сценарій , ймовірно , взагалі, коли - небудь ?
ПОВ'ЯЗАНО: Чи безпечна перевірка суми MD5 після копіювання 100 ГБ даних?
sha256sum
, була б краще.