Чи є моя команда клонування диска оптимальною?


16

Я провів півгодини читання навколо, щоб підготуватися до клонування мого жорсткого диска. Він має кілька розділів, включаючи розділ Windows. Я збираюся придбати дуже великий зовнішній жорсткий диск для резервного копіювання. Я хотів би мати можливість використовувати цей клон, щоб відновити весь диск, якщо щось піде не так (я збираюся зробити певну перестановку ОС). Я хочу навчитися робити це за допомогою dd, оскільки мені подобаються інструменти низького рівня, які не вимагають нічого встановлювати.

Я знайшов наступний корисний код з форумів ubuntu (введений із кореневої оболонки за допомогою живого компакт-диска):

dd if=/dev/hda of=/dev/hdb & pid=$!
while kill -USR1 $pid; do sleep 1; done

(Я знаю, що мені доведеться редагувати вхідні та вихідні місця.) Однак у мене є два питання. Перший дуже нубі: ця команда розділена на два рядки. Напевно, коли я натискаю клавішу Enter після оклику, це почне процес?

По-друге, на інших сайтах рекомендується ввести розмір блоку. Подобається це:

# dd if=/dev/hda conv=sync,noerror bs=64K of=/mnt/sda1/hda.img

Я нічого не знаю про розміри блоків. 64K правильно? Схоже, розмір мого блоку становить 512 байт з наступного, вихід sudo fdisk -ul:

Disk /dev/sda: 750.2 GB, 750156374016 bytes
255 heads, 63 sectors/track, 91201 cylinders, total 1465149168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0xc3ffc3ff

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *          63   143364059    71681998+   7  HPFS/NTFS/exFAT
Partition 1 does not start on physical sector boundary.
/dev/sda2       976867328  1465147391   244140032    7  HPFS/NTFS/exFAT
/dev/sda3       143364094   976867327   416751617    5  Extended
Partition 3 does not start on physical sector boundary.
/dev/sda5       143364096   162895871     9765888   82  Linux swap / Solaris
/dev/sda6       162897920   205864959    21483520   83  Linux
/dev/sda7       205867008   976867327   385500160   83  Linux

Partition table entries are not in disk order

Disk /dev/mapper/cryptswap1: 10.0 GB, 10000269312 bytes
255 heads, 63 sectors/track, 1215 cylinders, total 19531776 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x433bb3a7

Disk /dev/mapper/cryptswap1 doesn't contain a valid partition table

Дякую.


Ви пробували просте dd if=/dev/hda of=hdb? Ось відповідь, яка показує деякі деталі, включаючи час виконання 160 Гб: askubuntu.com/questions/435694/…
SDsolar

В останніх версіях Ubuntu використовується coreutils v.8.24 або новішої версії, в якій ddвключений перемикач прогресу, як згадувалося тут
Elder Geek

Відповіді:


22

Прогрес

Команда, яку ви перерахували

dd if=/dev/hda of=/dev/hdb & pid=$!
while kill -USR1 $pid; do sleep 1; done

це приємний дворівень, щоб ddрегулярно отримувати прогрес . Я також використовую дуже подібний. Виглядає чудово. Знайшли його, можливо, тут ?

Блокує розміри dd: вирівнювання та продуктивність

Ви можете додати розмір блоку, в якому відбуваються операції. Не має значення, який розмір блоку основного блокового пристрою полягає в тому, щоб виконати операцію однаково добре, але з міркувань продуктивності ви можете вибрати той, який відповідає вашим потребам.

Перш за все, тут річ вирівнювання . Якщо ваш блоковий пристрій працює як 512KiB (як це роблять флешки), було б дуже прикро працювати ddз bs=512(байтами), оскільки це призведе до 1024 записів (!) Для кожного блоку з точки зору пристрою. На практиці це буде не так погано , як операція запису в буфер і приймати в один прийом, але під час синхронізується він все ще може посилити кількість записів багато.

Тоді також врахуйте, що звичайне використання процесора накладні витрати, коли ви маєте справу з дуже великою кількістю дрібних операцій. Просто скопіювати мегабайти відразу при копіюванні над великою кількістю даних.

Моя найкраща практика - почати з 1 Мб, тому що це хороша множина більшості налаштувань, включаючи розміри смуг RAID, розміри LVM і т.д. більше не бачу його на моєму фізичному жорсткому диску.

Останній блок

Не турбуйтеся про те, що розмір диска / гучності не кратний розміру блоку. Останній блок ddкопіювання буде скоригований відповідно до останнього біта даних про нього. Ви можете побачити, чи був останній блок іншого розміру, поглянувши на вихід.

18335302+0 records out

Це +0означає, що це точно збіг, це +1означає, що це не було. Немає нічого.

Дивись також


1
Вау, яка ґрунтовна відповідь. Дуже дякую, що знайшли час, щоб це зробити. Я оновлюю початкове запитання посиланням на моє джерело. Я тоді піду з 1 МБ. Тож моя команда буде такою, я прав? # dd if=/dev/hda conv=sync,noerror bs=1MB of=/mnt/sda1/hda.img & pid=$! while kill -USR1 $pid; do sleep 1; done
Кіт Джонсон

2
@oldmankit Я б зробив bs=1Mтак, що це сила 2, а не bs=1MBпотужність 10. Але просто запустіть деякі орієнтири у вашій системі, якщо зможете побачити, що найкраще.
gertvdijk

4
Зауважте, що, як згадувалося тут, з моменту випуску coreutils> = 8.24 (за замовчуванням у Ubuntu Xenial 16.04 вгору), DD більше не потрібно, kill -USR1 $pidтепер додається звіт про прогрес, додавши status=progressперемикач
Elder Geek

10

Як вже говорили інші, загальноправильного розміру блоку немає; те, що є оптимальним для однієї ситуації або один апарат, може бути дуже неефективним для іншого. Крім того, залежно від стану здоров'я дисків, можливо, краще використовувати інший розмір блоку, ніж "оптимальний".

Єдине, що досить надійно в сучасному обладнанні - це те, що розмір блоку за замовчуванням у 512 байтів, як правило, на порядок менший, ніж більш оптимальна альтернатива. Коли ви сумніваєтесь, я виявив, що 64K - досить солідний сучасний дефолт. Хоча 64K зазвичай не є оптимальним розміром блоку, на мій досвід, це, як правило, набагато ефективніше, ніж за замовчуванням. 64K також має досить солідну історію надійності роботи: Ви можете знайти повідомлення зі списку розсилки Eug-Lug , близько 2002 року, рекомендуючи розмір блоку 64K.

Для визначення оптимального розміру вихідного блоку я написав наступний сценарій, який перевіряє запис тестового файлу 128M з dd в діапазоні різних розмірів блоку, від 512 байтів до максимуму 64 Мб. Будьте попереджені, цей сценарій використовує dd внутрішньо, тому використовуйте з обережністю.

dd_obs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_obs_testfile}
TEST_FILE_EXISTS=0
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi
TEST_FILE_SIZE=134217728

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Calculate number of segments required to copy
  COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))

  if [ $COUNT -le 0 ]; then
    echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests."
    break
  fi

  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Create a test file with the specified block size
  DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null)

  # Extract the transfer rate from dd's STDERR output
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  # Clean up the test file if we created one
  if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

  # Output the result
  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

Переглянути на GitHub

Я протестував цей сценарій лише в системі Debian (Ubuntu) і на OSX Yosemite, тому, можливо, знадобиться певна настройка, щоб працювати над іншими ароматами Unix.

За замовчуванням команда створить тестовий файл, названий dd_obs_testfileу поточному каталозі. Крім того, ви можете надати шлях до користувальницького тестового файлу, вказавши шлях після імені сценарію:

$ ./dd_obs_test.sh /path/to/disk/test_file

Вихід сценарію - це список тестованих розмірів блоків та їх відповідні швидкості передачі:

$ ./dd_obs_test.sh
block size : transfer rate
       512 : 11.3 MB/s
      1024 : 22.1 MB/s
      2048 : 42.3 MB/s
      4096 : 75.2 MB/s
      8192 : 90.7 MB/s
     16384 : 101 MB/s
     32768 : 104 MB/s
     65536 : 108 MB/s
    131072 : 113 MB/s
    262144 : 112 MB/s
    524288 : 133 MB/s
   1048576 : 125 MB/s
   2097152 : 113 MB/s
   4194304 : 106 MB/s
   8388608 : 107 MB/s
  16777216 : 110 MB/s
  33554432 : 119 MB/s
  67108864 : 134 MB/s

(Примітка. Одиниця швидкості передачі залежить від ОС)

Щоб перевірити оптимальний розмір блоку читання, ви могли б використовувати більш-менш той самий процес, але замість того, щоб читати /dev/zeroі записувати на диск, ви б читали з диска і писали на нього /dev/null. Сценарій для цього може виглядати так:

dd_ibs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_ibs_testfile}
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi
TEST_FILE_SIZE=134217728

# Exit if file exists
if [ -e $TEST_FILE ]; then
  echo "Test file $TEST_FILE exists, aborting."
  exit 1
fi
TEST_FILE_EXISTS=1

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Create test file
echo 'Generating test file...'
BLOCK_SIZE=65536
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Read test file out to /dev/null with specified block size
  DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null)

  # Extract transfer rate
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

Переглянути на GitHub

Важлива відмінність у цьому випадку полягає в тому, що тестовий файл - це файл, записаний сценарієм. Не вказуйте цю команду на існуючий файл, інакше існуючий файл буде перезаписаний випадковими даними!

Для мого конкретного обладнання я виявив, що 128K був найбільш оптимальним розміром вхідного блоку на жорсткому диску, а 32K - найбільш оптимальним для SSD.

Хоча ця відповідь охоплює більшість моїх висновків, мені потрібно було визначити оптимальний розмір блоку dd достатньо разів, ніж я писав про це в блозі . Ви можете знайти більш детальну інформацію про тести, які я там виконував.

Цей пост StackOverflow також може бути корисним: dd: Як обчислити оптимальний розмір блоків?


Навчіть людину ловити рибу = +1
HackSlash

@ tdg5 Це чудовий сценарій, але він стикається з фатальними помилками при виконанні Cygwin в середовищі Windows 7. Чи є його версія, яка буде працювати на Cygwin?
Хашим
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.