Відповіді:
Використовуйте "--filter":
split --bytes=1024M --filter='gzip > $FILE.gz' /path/to/input /path/to/output
Однолінійний човен, що використовує умовний, наближається як можна ближче.
cd /path/to/output && split --bytes=1024M /path/to/input/filename && gzip x*
gzip
буде працювати тільки якщо split
успішно з - за умовні , &&
яка також між cd
і split
переконавшись , що cd
є успішним, теж .. Зверніть увагу , що split
і gzip
вихід в поточний каталог , замість того, можливість вказати вихідний каталог. Ви можете скласти каталог, якщо потрібно:
mkdir -p /path/to/output && cd /path/to/output && split --bytes=1024M /path/to/input/filename && gzip x*
Щоб все це зробити разом:
gunzip /path/to/files/x* && cat /path/to/files/x* > /path/to/dest/filename
Баш-функція для стиснення на льоту зі свинею
function splitreads(){
# add this function to your .bashrc or alike
# split large compressed read files into chunks of fixed size
# suffix is a three digit counter starting with 000
# take compressed input and compress output with pigz
# keeps the read-in-pair suffix in outputs
# requires pigz installed or modification to use gzip
usage="# splitreads <reads.fastq.gz> <reads per chunk; default 10000000>\n";
if [ $# -lt 1 ]; then
echo;
echo ${usage};
return;
fi;
# threads for pigz (adapt to your needs)
thr=8
input=$1
# extract prefix and read number in pair
# this code is adapted to paired reads
base=$(basename ${input%.f*.gz})
pref=$(basename ${input%_?.f*.gz})
readn="${base#"${base%%_*}"}"
# 10M reads (4 lines each)
binsize=$((${2:-10000000}*4))
# split in bins of ${binsize}
echo "# splitting ${input} in chuncks of $((${binsize}/4)) reads"
cmd="zcat ${input} \
| split \
-a 3 \
-d \
-l ${binsize} \
--numeric-suffixes \
--additional-suffix ${readn} \
--filter='pigz -p ${thr} > \$FILE.fq.gz' \
- ${pref}_"
echo "# ${cmd}"
eval ${cmd}
}
--line-bytes=1024M
.