У мене каталог з приблизно 100000 невеликих файлів (кожен файл - 1-3 рядки, кожен файл - текстовий файл). За розміром каталог не дуже великий (<2 Гб). Ці дані перебувають на професійно керованому сервері NFS. Сервер працює під управлінням Linux. Я думаю, що файлова система ext3, але я не знаю точно. Крім того, у мене немає кореневого доступу до сервера.
Ці файли є результатом масштабного наукового експерименту, над яким я не маю контролю. Однак я маю проаналізувати результати.
Будь-яка операція / обробка вводу / виводу в цьому каталозі відбувається дуже, дуже повільно. Відкриття файлу (fopen в python), читання з відкритого файлу, закриття файлу - все дуже повільно. У bash ls, du тощо не працюють.
Питання:
Яка максимальна кількість файлів у каталозі в Linux таким чином, що практично робити обробку, фокусувати, читати тощо? Я розумію, що відповідь залежить від багатьох речей: типу fs, версії ядра, версії сервера, апаратного забезпечення і т. Д. Я просто хочу правила, якщо це можливо.