Як вже говорили інші, загальноправильного розміру блоку немає; те, що є оптимальним для однієї ситуації або один апарат, може бути дуже неефективним для іншого. Крім того, залежно від стану здоров'я дисків, можливо, краще використовувати інший розмір блоку, ніж "оптимальний".
Єдине, що досить надійно в сучасному обладнанні - це те, що розмір блоку за замовчуванням у 512 байтів, як правило, на порядок менший, ніж більш оптимальна альтернатива. Коли ви сумніваєтесь, я виявив, що 64K - досить солідний сучасний дефолт. Хоча 64K зазвичай не є оптимальним розміром блоку, на мій досвід, це, як правило, набагато ефективніше, ніж за замовчуванням. 64K також має досить солідну історію надійності роботи: Ви можете знайти повідомлення зі списку розсилки Eug-Lug , близько 2002 року, рекомендуючи розмір блоку 64K.
Для визначення оптимального розміру вихідного блоку я написав наступний сценарій, який перевіряє запис тестового файлу 128M з dd в діапазоні різних розмірів блоку, від 512 байтів до максимуму 64 Мб. Будьте попереджені, цей сценарій використовує dd внутрішньо, тому використовуйте з обережністю.
dd_obs_test.sh
:
#!/bin/bash
# Since we're dealing with dd, abort if any errors occur
set -e
TEST_FILE=${1:-dd_obs_testfile}
TEST_FILE_EXISTS=0
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi
TEST_FILE_SIZE=134217728
if [ $EUID -ne 0 ]; then
echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi
# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'
# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
# Calculate number of segments required to copy
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
if [ $COUNT -le 0 ]; then
echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests."
break
fi
# Clear kernel cache to ensure more accurate test
[ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches
# Create a test file with the specified block size
DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null)
# Extract the transfer rate from dd's STDERR output
TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')
# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi
# Output the result
printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done
Переглянути на GitHub
Я протестував цей сценарій лише в системі Debian (Ubuntu) і на OSX Yosemite, тому, можливо, знадобиться певна настройка, щоб працювати над іншими ароматами Unix.
За замовчуванням команда створить тестовий файл, названий dd_obs_testfile
у поточному каталозі. Крім того, ви можете надати шлях до користувальницького тестового файлу, вказавши шлях після імені сценарію:
$ ./dd_obs_test.sh /path/to/disk/test_file
Вихід сценарію - це список тестованих розмірів блоків та їх відповідні швидкості передачі:
$ ./dd_obs_test.sh
block size : transfer rate
512 : 11.3 MB/s
1024 : 22.1 MB/s
2048 : 42.3 MB/s
4096 : 75.2 MB/s
8192 : 90.7 MB/s
16384 : 101 MB/s
32768 : 104 MB/s
65536 : 108 MB/s
131072 : 113 MB/s
262144 : 112 MB/s
524288 : 133 MB/s
1048576 : 125 MB/s
2097152 : 113 MB/s
4194304 : 106 MB/s
8388608 : 107 MB/s
16777216 : 110 MB/s
33554432 : 119 MB/s
67108864 : 134 MB/s
(Примітка. Одиниця швидкості передачі залежить від ОС)
Щоб перевірити оптимальний розмір блоку читання, ви могли б використовувати більш-менш той самий процес, але замість того, щоб читати /dev/zero
і записувати на диск, ви б читали з диска і писали на нього /dev/null
. Сценарій для цього може виглядати так:
dd_ibs_test.sh
:
#!/bin/bash
# Since we're dealing with dd, abort if any errors occur
set -e
TEST_FILE=${1:-dd_ibs_testfile}
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi
TEST_FILE_SIZE=134217728
# Exit if file exists
if [ -e $TEST_FILE ]; then
echo "Test file $TEST_FILE exists, aborting."
exit 1
fi
TEST_FILE_EXISTS=1
if [ $EUID -ne 0 ]; then
echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi
# Create test file
echo 'Generating test file...'
BLOCK_SIZE=65536
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1
# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'
# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
# Clear kernel cache to ensure more accurate test
[ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches
# Read test file out to /dev/null with specified block size
DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null)
# Extract transfer rate
TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')
printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done
# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi
Переглянути на GitHub
Важлива відмінність у цьому випадку полягає в тому, що тестовий файл - це файл, записаний сценарієм. Не вказуйте цю команду на існуючий файл, інакше існуючий файл буде перезаписаний випадковими даними!
Для мого конкретного обладнання я виявив, що 128K був найбільш оптимальним розміром вхідного блоку на жорсткому диску, а 32K - найбільш оптимальним для SSD.
Хоча ця відповідь охоплює більшість моїх висновків, мені потрібно було визначити оптимальний розмір блоку dd достатньо разів, ніж я писав про це в блозі . Ви можете знайти більш детальну інформацію про тести, які я там виконував.
Цей пост StackOverflow також може бути корисним: dd: Як обчислити оптимальний розмір блоків?
dd if=/dev/hda of=hdb
? Ось відповідь, яка показує деякі деталі, включаючи час виконання 160 Гб: askubuntu.com/questions/435694/…