Я часто маю справу з неймовірно великими файлами журналів (> 3 ГБ). Я помітив, що продуктивність менш жахлива з цими файлами. Часто мені хочеться стрибнути на середину файлу, але коли я скажу менше стрибати вперед на 15 М рядків, це потребує хвилин.
Проблема, яку я собі уявляю, полягає в тому, що потрібно менше сканувати файл на предмет \ \ n 'символів, але це займає занадто багато часу.
Чи є спосіб зробити це просто прагненням до явного компенсації? наприклад, прагнути байт змістити 1,5 мільярда у файлі. Ця операція повинна бути на порядок швидшою. Якщо менше не забезпечує таку можливість, чи є інший інструмент, який це робить?
perl -pi -e 's/\n//g;' <filename>