ls
насправді сортує файли та намагається перелічити їх, що стає величезною накладною витратою, якщо ми намагаємось перелічити понад мільйон файлів всередині каталогу. Як згадується в цьому посиланні, ми можемо використовувати strace
або find
перераховувати файли. Однак ці варіанти також видалися нездійсненними для моєї проблеми, оскільки у мене було 5 мільйонів файлів. Через якийсь - то трохи Googling, я виявив , що якщо список каталогів з допомогою getdents()
, він повинен бути швидше, тому що ls
, find
і Python
бібліотеки використовують readdir()
яка повільніше , але використовує getdents()
внизу.
Ми можемо знайти код C для перегляду списку файлів , використовуючи getdents()
від сюди :
/*
* List directories using getdents() because ls, find and Python libraries
* use readdir() which is slower (but uses getdents() underneath.
*
* Compile with
* ]$ gcc getdents.c -o getdents
*/
#define _GNU_SOURCE
#include <dirent.h> /* Defines DT_* constants */
#include <fcntl.h>
#include <stdio.h>
#include <unistd.h>
#include <stdlib.h>
#include <sys/stat.h>
#include <sys/syscall.h>
#define handle_error(msg) \
do { perror(msg); exit(EXIT_FAILURE); } while (0)
struct linux_dirent {
long d_ino;
off_t d_off;
unsigned short d_reclen;
char d_name[];
};
#define BUF_SIZE 1024*1024*5
int
main(int argc, char *argv[])
{
int fd, nread;
char buf[BUF_SIZE];
struct linux_dirent *d;
int bpos;
char d_type;
fd = open(argc > 1 ? argv[1] : ".", O_RDONLY | O_DIRECTORY);
if (fd == -1)
handle_error("open");
for ( ; ; ) {
nread = syscall(SYS_getdents, fd, buf, BUF_SIZE);
if (nread == -1)
handle_error("getdents");
if (nread == 0)
break;
for (bpos = 0; bpos < nread;) {
d = (struct linux_dirent *) (buf + bpos);
d_type = *(buf + bpos + d->d_reclen - 1);
if( d->d_ino != 0 && d_type == DT_REG ) {
printf("%s\n", (char *)d->d_name );
}
bpos += d->d_reclen;
}
}
exit(EXIT_SUCCESS);
}
Скопіюйте програму C вище в каталог, в якому потрібно вказати файли. Потім виконайте наведені нижче команди.
gcc getdents.c -o getdents
./getdents
Приклад хронометражу : getdents
може бути набагато швидшим, ніж ls -f
залежно від конфігурації системи. Ось кілька таймінгів, що демонструють 40-кратну швидкість для переліку каталогу, що містить близько 500k файлів через кріплення NFS в обчислювальному кластері. Кожна команда виконувалась 10 разів у першу чергу getdents
, спочатку , потім ls -f
. Перший запуск значно повільніше, ніж усі інші, ймовірно, через помилки кешування сторінки NFS. (Убік: над цим монтом d_type
поле є ненадійним, у тому сенсі, що багато файлів видаються як "невідомий" тип.)
command: getdents $bigdir
usr:0.08 sys:0.96 wall:280.79 CPU:0%
usr:0.06 sys:0.18 wall:0.25 CPU:97%
usr:0.05 sys:0.16 wall:0.21 CPU:99%
usr:0.04 sys:0.18 wall:0.23 CPU:98%
usr:0.05 sys:0.20 wall:0.26 CPU:99%
usr:0.04 sys:0.18 wall:0.22 CPU:99%
usr:0.04 sys:0.17 wall:0.22 CPU:99%
usr:0.04 sys:0.20 wall:0.25 CPU:99%
usr:0.06 sys:0.18 wall:0.25 CPU:98%
usr:0.06 sys:0.18 wall:0.25 CPU:98%
command: /bin/ls -f $bigdir
usr:0.53 sys:8.39 wall:8.97 CPU:99%
usr:0.53 sys:7.65 wall:8.20 CPU:99%
usr:0.44 sys:7.91 wall:8.36 CPU:99%
usr:0.50 sys:8.00 wall:8.51 CPU:100%
usr:0.41 sys:7.73 wall:8.15 CPU:99%
usr:0.47 sys:8.84 wall:9.32 CPU:99%
usr:0.57 sys:9.78 wall:10.36 CPU:99%
usr:0.53 sys:10.75 wall:11.29 CPU:99%
usr:0.46 sys:8.76 wall:9.25 CPU:99%
usr:0.50 sys:8.58 wall:9.13 CPU:99%
ls
цього використання,--color
або-F
що це означатиме створенняlstat(2)
файлу для кожного файла.