Якщо ви хочете реальної швидкості:
echo 'int cache[256],x,y;char buf[4096],letters[]="tacgn-"; int main(){while((x=read(0,buf,sizeof buf))>0)for(y=0;y<x;y++)cache[(unsigned char)buf[y]]++;for(x=0;x<sizeof letters-1;x++)printf("%c: %d\n",letters[x],cache[letters[x]]);}' | gcc -w -xc -; ./a.out < file; rm a.out;
Це неймовірно швидкий псевдооднолінійний.
Простий тест показує, що на моєму процесорі Core i7 870 при 2,93 ГГц він нараховує трохи більше 600 МБ / с:
$ du -h bigdna
1.1G bigdna
time ./a.out < bigdna
t: 178977308
a: 178958411
c: 178958823
g: 178947772
n: 178959673
-: 178939837
real 0m1.718s
user 0m1.539s
sys 0m0.171s
На відміну від рішень, що включають сортування, це працює в постійній (4K) пам'яті, що дуже корисно, якщо ваш файл набагато більший, ніж ваш баран.
І, звичайно, трохи змастивши ліктьовий жир, ми можемо збрити 0,7 секунди:
echo 'int cache[256],x,buf[4096],*bp,*ep;char letters[]="tacgn-"; int main(){while((ep=buf+(read(0,buf,sizeof buf)/sizeof(int)))>buf)for(bp=buf;bp<ep;bp++){cache[(*bp)&0xff]++;cache[(*bp>>8)&0xff]++;cache[(*bp>>16)&0xff]++;cache[(*bp>>24)&0xff]++;}for(x=0;x<sizeof letters-1;x++)printf("%c: %d\n",letters[x],cache[letters[x]]);}' | gcc -O2 -xc -; ./a.out < file; rm a.out;
Мережі трохи більше 1,1 Гб / с закінчуються:
real 0m0.943s
user 0m0.798s
sys 0m0.134s
Для порівняння, я перевірив деякі інші рішення на цій сторінці, які, здавалося, мали якусь обіцянку швидкості.
sed
/ awk
Розчин зробив героїчні зусилля, але помер через 30 секунд. З таким простим регулярним виразом я думаю, що це буде помилка в sed (версія GNU sed 4.2.1):
$ time sed 's/./&\n/g' bigdna | awk '!/^$/{a[$0]++}END{for (i in a)print i,a[i];}'
sed: couldn't re-allocate memory
real 0m31.326s
user 0m21.696s
sys 0m2.111s
Метод perl здався також багатообіцяючим, але я відмовився після його запуску протягом 7 хвилин
time perl -e 'while (<>) {$c{$&}++ while /./g} print "$c{$_} $_\n" for keys %c' < bigdna
^C
real 7m44.161s
user 4m53.941s
sys 2m35.593s