Хороший розмір блоку для клонування диска з diskdump (dd)


46

Я використовую dd в його найпростішому вигляді для клонування жорсткого диска:

dd if=INPUT of=OUTPUT

Однак я прочитав на сторінці сторінки, що dd знає параметр блокування. Чи є оптимальне значення для параметра «розмір», який прискорить процедуру клонування?


Відповіді:


32

64k, здається, хороший вибір:

Results:

  no bs=        78s     144584+0 records
  bs=512        78s     144584+0 records
  bs=1k         38s     72292+0 records
  bs=2k         38s     36146+0 records
  bs=4k         38s     18073+0 records
  bs=5k         39s     14458+1 records
  bs=50k        38s     1445+1 records
  bs=500k       39s     144+1 records
  bs=512k       39s     144+1 records
  bs=1M         39s     72+1 records
  bs=5M         39s     14+1 records
  bs=10M        39s     7+1 records

(взято звідси ).

це збігається з моїми власними висновками щодо буферизації читання / запису для прискорення іо-важкої перетворювальної програми, яку я колись сутеніла @work.


Зверніть увагу, що цей орієнтир може виглядати по-різному для обертових приводів і ssds.
Іржі

3
-1 Це майже повністю залежить від вашого жорсткого диска. Далі опишіть процедуру, яка використовується для отримання цих значень, щоб ОП міг повторити кроки для отримання оптимального розміру блоку для власного жорсткого диска. Крім того, ви не вказали 64k у своєму списку результатів, і всі результати, що минули 1k, більш-менш однакові.
Мішель Джонсон

@MichealJohnson не соромтесь відредагувати цю публікацію та описати те, як була створена таблиця із наданого посилання та вставити її сюди. 64k - це перше значення, яке, здається, не дає подальшого поліпшення щодо швидкості AND - це природне вирівнювання. і так, очевидно, що вимірювана швидкість повністю залежить від використовуваного обладнання. це було правдою 5 років тому, і це правда зараз.
акіра

1
Чому 64 к? Для мене 2k не дає ніяких подальших вдосконалень, тому 1k є найкращим значенням, а також є таким же природним вирівнюванням, як 64k.
Мікель Джонсон

Чи змінює розмір блоку продуктивність SD-картки або лише скорочує розмір рухомого файлу за допомогою dd на sdcard?
Трисмегістос

22

dd з радістю буде копіювати за допомогою BS все, що завгодно, і скопіює частковий блок (наприкінці).

В основному, параметр розміру блоку (bs), здається, встановлює об'єм пам'яті, який використовується для читання в грудці з одного диска, перш ніж намагатися записати цю грудку на інший.

Якщо у вас багато оперативної пам’яті, то BS велика (але цілком міститься в оперативній пам’яті) означає, що підсистема вводу-виводу використовується максимально, роблячи масово великі зчитування та записи - використовуючи оперативну пам’ять. Зробити BS малим означає, що накладні витрати вводу / виводу як частка загальної активності збільшуються.

Звичайно, в цьому існує закон зменшення прибутку. Моє грубе наближення полягає в тому, що розмір блоку в діапазоні приблизно від 128 К до 32 М, ймовірно, буде давати продуктивність такою, що накладні витрати невеликі порівняно з звичайним введенням / виводом, а збільшившись більше, не призведе до великої різниці. Причина того, що нижня межа становить від 128 К до 32 М, - це залежить від вашої ОС, обладнання тощо.

Якби це я, я би зробив декілька експериментів, призначаючи копію / клонування, використовуючи BS 128K і знову використовуючи (скажімо) 16M. Якщо ви помітно швидше, використовуйте його. Якщо ні, то використовуйте менший BS з двох.


10

Для тих, хто закінчується тут через Google, навіть якщо ця дискусія трохи давня ...

Майте на увазі, що ДД глума з причини: чим простіше, тим менше способів її викрутити.

Складні схеми розділення (розгляньте жорсткий диск з двома завантаженнями, який додатково використовує LVM для своєї системи Linux) почнуть витягувати помилки з дерев’яної роботи в таких програмах, як Clonezilla. Неправильно відключені файлові системи можуть підірвати ntfsclone до неба.

Пошкоджена файлова система, клонована по секторах, не гірша за оригінал. Пошкоджена файлова система після невдалої "розумної копії" може бути дійсно вибачлива.

Якщо ви сумніваєтесь, використовуйте dd та криміналістику. Для судово-медичних зображень потрібні секторальні копії (насправді, це може зажадати більше секторів, ніж ви зможете зняти з dd, але це довга історія). Це повільно і нудно, але це виконає роботу правильно.

Крім того , отримати знати «до = NoError, синхронізація» варіанти, так що ви можете клонувати диски, які починають fail-- або зробити ISOs від подряпане ( кашлю ) CDs-- без нього приймати місяців.


Що робить syncваріант? Сторінка людей просто говорить: "use synchronized I/O for data and metadata". З чим ми синхронізуємось? Це може бути багато різних речей.
sherrellbc

1
Синхронізація @sherrellbc заповнює вхідні блоки нулями, якщо були помилки читання, тому компенсації даних залишаються синхронізованими.
goetzc

9

Як вже говорили інші, загальноправильного розміру блоку немає; те, що оптимально для однієї ситуації або один апаратний засіб, може бути дуже неефективним для іншого. Крім того, залежно від стану здоров’я дисків може бути кращим використовувати розмір блоку, ніж "оптимальний".

Єдине, що досить надійно в сучасному обладнанні - це те, що розмір блоку за замовчуванням у 512 байтів, як правило, майже на порядок повільніше, ніж більш оптимальна альтернатива. Коли ви сумніваєтесь, я виявив, що 64K - досить солідний сучасний дефолт. Хоча 64K зазвичай не є оптимальним розміром блоку, на мій досвід, це, як правило, набагато ефективніше, ніж за замовчуванням. 64K також має досить міцну історію надійності роботи: Ви можете знайти повідомлення зі списку розсилки Eug-Lug, близько 2002 року, рекомендуючи розмір блоку 64K тут: http://www.mail-archive.com/eug- lug@efn.org/msg12073.html

Для визначення оптимального розміру вихідного блоку я написав наступний сценарій, який перевіряє запис тестового файлу 128M з dd в діапазоні різних розмірів блоку, від 512 байтів до максимуму 64 Мб. Будьте попереджені, цей сценарій використовує dd внутрішньо, тому використовуйте з обережністю.

dd_obs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_obs_testfile}
TEST_FILE_EXISTS=0
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi
TEST_FILE_SIZE=134217728

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Calculate number of segments required to copy
  COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))

  if [ $COUNT -le 0 ]; then
    echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests."
    break
  fi

  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Create a test file with the specified block size
  DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null)

  # Extract the transfer rate from dd's STDERR output
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  # Clean up the test file if we created one
  if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

  # Output the result
  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

Переглянути на GitHub

Я протестував цей сценарій лише в системі Debian (Ubuntu) і на OSX Yosemite, тому, можливо, знадобиться певна настройка, щоб зробити роботу над іншими ароматами Unix.

За замовчуванням команда створить тестовий файл під назвою dd_obs_testfile у поточному каталозі. Крім того, ви можете надати шлях до користувальницького тестового файлу, вказавши шлях після імені сценарію:

$ ./dd_obs_test.sh /path/to/disk/test_file

Вихід із сценарію - це список тестованих розмірів блоків та їх відповідні швидкості передачі:

$ ./dd_obs_test.sh
block size : transfer rate
       512 : 11.3 MB/s
      1024 : 22.1 MB/s
      2048 : 42.3 MB/s
      4096 : 75.2 MB/s
      8192 : 90.7 MB/s
     16384 : 101 MB/s
     32768 : 104 MB/s
     65536 : 108 MB/s
    131072 : 113 MB/s
    262144 : 112 MB/s
    524288 : 133 MB/s
   1048576 : 125 MB/s
   2097152 : 113 MB/s
   4194304 : 106 MB/s
   8388608 : 107 MB/s
  16777216 : 110 MB/s
  33554432 : 119 MB/s
  67108864 : 134 MB/s

(Примітка. Одиниця швидкості передачі залежить від ОС)

Щоб перевірити оптимальний розмір блоку читання, ви могли б використовувати більш-менш той самий процес, але замість того, щоб читати з / dev / zero і записувати на диск, ви читали б з диска і писали в / dev / null. Сценарій для цього може виглядати так:

dd_ibs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_ibs_testfile}
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi
TEST_FILE_SIZE=134217728

# Exit if file exists
if [ -e $TEST_FILE ]; then
  echo "Test file $TEST_FILE exists, aborting."
  exit 1
fi
TEST_FILE_EXISTS=1

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Create test file
echo 'Generating test file...'
BLOCK_SIZE=65536
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Read test file out to /dev/null with specified block size
  DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null)

  # Extract transfer rate
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

Переглянути на GitHub

Важливою відмінністю в цьому випадку є те, що тестовий файл - це файл, записаний сценарієм. Не вказуйте цю команду на існуючий файл, або існуючий файл буде перезаписаний випадковими даними!

Для мого конкретного обладнання я виявив, що 128K був найбільш оптимальним розміром вхідного блоку на жорсткому диску, а 32K - найбільш оптимальним на SSD.

Хоча ця відповідь охоплює більшість моїх висновків, я досить часто стикався з цією ситуацією, коли писав про це в блозі: http://blog.tdg5.com/tuning-dd-block-size/ Ви можете знайти більш детальну інформацію на тестах, які я там виконував.

Цей пост StackOverflow також може бути корисним: dd: Як розрахувати оптимальний розмір блоків?



1

клонування старого завантажувального пристрою до нового ssd на зовнішньому sata (ssd to ssd)

  • за допомогою linux Ubuntu 18.04.2 LTS 64bit
  • hp xw4600 (8 Гб оперативної пам’яті, Intel Core 2 Quad Q6700 при 2,66 ГГц 4c / 4t no-HT)

за допомогою дисків (інструмент)> формат> ATA Secure Erase (2 хв.)

$ lsblk -l /dev/sd?
NAME MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
sda    8:0    0 119,2G  0 disk 
sda1   8:1    0 119,2G  0 part /
sdb    8:16   0   2,7T  0 disk 
sdc    8:32   0   2,7T  0 disk 
sdd    8:48   0  12,8T  0 disk 
sde    8:64   0   2,7T  0 disk
sdf    8:80   1 465,8G  0 disk 

$ sudo fdisk -l /dev/sda
Disk /dev/sda: 119,2 GiB, 128035676160 bytes, 250069680 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

$ sudo fdisk -l /dev/sdf
Disk /dev/sdf: 465,8 GiB, 500107862016 bytes, 976773168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
  • sda: Kingston SSD (старий; Disks повідомляє про середню швидкість 263 Мб / с з піками, близькими до 270 Мб / с - тест запису не відбувається через системний диск)
  • sdf: Найважливіший MX500, 500 ГБ, CT500MX500SSD1 (звіти про диски: середня швидкість / час роботи 284/262 Мб / с, час доступу 0,05 мс, з піками приблизно 290/270 МБ / с)

Випробування:

$ sudo dd if=/dev/sda of=/dev/sdf
250069680+0 records in
250069680+0 records out
128035676160 bytes (128 GB, 119 GiB) copied, 3391,72 s, 37,7 MB/s
#       --vvvvv--                            *********
$ sudo dd bs=1M if=/dev/sda of=/dev/sdf
122104+1 records in
122104+1 records out
128035676160 bytes (128 GB, 119 GiB) copied, 473,186 s, 271 MB/s
#                                            *********  ********

друга спроба після безпечного стирання з таким же результатом:

128035676160 bytes (128 GB, 119 GiB) copied, 472,797 s, 271 MB/s

Ласкаво просимо до Супер Користувача! Дякую за вашу відповідь, але я б радив вам відредагувати його, щоб включити резюме; серед усіх цитованих результатів, мені було складно дізнатися, яка ваша реальна відповідь! Ура
бертіб
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.