У нас є звичайна робота, яка робить du
резюме ряду підкаталогів, вибирає найгірших правопорушників і використовує вихід, щоб з’ясувати, чи є речі, які швидко зростають, щоб виявити потенційні проблеми. Ми використовуємо diff
для знімків для їх порівняння.
Існує каталог верхнього рівня, що містить декілька (кілька сотень) підкаталогів, кожен з яких може містити 10 тисяч тисяч файлів у кожному (або більше).
" du -s
" У цьому контексті може бути дуже агресивним IO, що змушує наш сервер заставити кеш-пам'ять, а потім впливатимуть масивні IO-шипи, які є дуже небажаною стороною.
Яку стратегію можна використовувати для отримання одних і тих же даних без небажаних побічних ефектів?