GNU/Linux >> Belajar Linux >  >> Linux

Ukuran blok yang bagus untuk kloning disk dengan diskdump (dd)

64k tampaknya merupakan pilihan yang bagus:

Results:

  no bs=        78s     144584+0 records
  bs=512        78s     144584+0 records
  bs=1k         38s     72292+0 records
  bs=2k         38s     36146+0 records
  bs=4k         38s     18073+0 records
  bs=5k         39s     14458+1 records
  bs=50k        38s     1445+1 records
  bs=500k       39s     144+1 records
  bs=512k       39s     144+1 records
  bs=1M         39s     72+1 records
  bs=5M         39s     14+1 records
  bs=10M        39s     7+1 records

(diambil dari sini).

ini cocok dengan temuan saya sendiri terkait buffering baca/tulis untuk mempercepat program konverter io-berat yang pernah saya lakukan di @work.


dd akan dengan senang hati menyalin menggunakan BS dari apa pun yang Anda inginkan, dan akan menyalin sebagian blok (di bagian akhir).

Pada dasarnya, parameter ukuran blok (bs) tampaknya menyetel jumlah memori yang digunakan untuk membaca gumpalan dari satu disk sebelum mencoba menulis gumpalan itu ke cakram lain.

Jika Anda memiliki banyak RAM, maka membuat BS besar (tetapi seluruhnya terkandung dalam RAM) berarti bahwa sub-sistem I/O digunakan sebanyak mungkin dengan melakukan pembacaan dan penulisan yang sangat besar - mengeksploitasi RAM. Membuat BS kecil berarti bahwa I/O overhead sebagai proporsi dari total aktivitas naik.

Tentu saja dalam hal ini ada hukum pengembalian yang semakin berkurang. Perkiraan kasar saya adalah bahwa ukuran blok dalam kisaran sekitar 128K hingga 32M mungkin akan memberikan kinerja sedemikian rupa sehingga biaya overhead kecil dibandingkan dengan I/O biasa, dan menjadi lebih besar tidak akan membuat banyak perbedaan. Alasan batas bawah 128K hingga 32M adalah - tergantung pada OS, perangkat keras, dan sebagainya.

Jika itu saya, saya akan melakukan beberapa percobaan waktu salinan/kloning menggunakan BS 128K dan sekali lagi menggunakan (katakanlah) 16M. Jika ada yang lebih cepat, gunakan itu. Jika tidak, gunakan BS yang lebih kecil dari keduanya.


Seperti yang dikatakan orang lain, tidak ada ukuran blok yang benar secara universal; apa yang optimal untuk satu situasi atau satu perangkat keras mungkin sangat tidak efisien untuk situasi lainnya. Selain itu, bergantung pada kesehatan disk, mungkin lebih baik menggunakan ukuran blok yang berbeda dari yang "optimal".

Satu hal yang cukup andal pada perangkat keras modern adalah bahwa ukuran blok default 512 byte cenderung lebih lambat daripada alternatif yang lebih optimal. Jika ragu, saya menemukan bahwa 64K adalah default modern yang cukup solid. Meskipun 64K biasanya bukan ukuran blok yang optimal, menurut pengalaman saya, ini cenderung jauh lebih efisien daripada default. 64K juga memiliki riwayat kinerja yang andal:Anda dapat menemukan pesan dari milis Eug-Lug, sekitar tahun 2002, merekomendasikan ukuran blok 64K di sini:http://www.mail-archive.com/example@ unixlinux.online/msg12073.html

Untuk menentukan ukuran blok keluaran optimal, saya telah menulis skrip berikut yang menguji penulisan file uji 128M dengan dd pada kisaran ukuran blok yang berbeda, dari standar 512 byte hingga maksimum 64M. Berhati-hatilah, skrip ini menggunakan dd secara internal, jadi gunakan dengan hati-hati.

dd_obs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_obs_testfile}
TEST_FILE_EXISTS=0
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi
TEST_FILE_SIZE=134217728

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Calculate number of segments required to copy
  COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))

  if [ $COUNT -le 0 ]; then
    echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests."
    break
  fi

  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Create a test file with the specified block size
  DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null)

  # Extract the transfer rate from dd's STDERR output
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  # Clean up the test file if we created one
  if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

  # Output the result
  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

Lihat di GitHub

Saya hanya menguji skrip ini pada sistem Debian (Ubuntu) dan pada OSX Yosemite, jadi mungkin perlu beberapa penyesuaian untuk bekerja pada varian Unix lainnya.

Secara default, perintah akan membuat file uji bernama dd_obs_testfile di direktori saat ini. Alternatifnya, Anda dapat memberikan jalur ke file pengujian khusus dengan memberikan jalur setelah nama skrip:

$ ./dd_obs_test.sh /path/to/disk/test_file

Keluaran dari skrip adalah daftar ukuran blok yang diuji dan kecepatan transfernya masing-masing seperti:

$ ./dd_obs_test.sh
block size : transfer rate
       512 : 11.3 MB/s
      1024 : 22.1 MB/s
      2048 : 42.3 MB/s
      4096 : 75.2 MB/s
      8192 : 90.7 MB/s
     16384 : 101 MB/s
     32768 : 104 MB/s
     65536 : 108 MB/s
    131072 : 113 MB/s
    262144 : 112 MB/s
    524288 : 133 MB/s
   1048576 : 125 MB/s
   2097152 : 113 MB/s
   4194304 : 106 MB/s
   8388608 : 107 MB/s
  16777216 : 110 MB/s
  33554432 : 119 MB/s
  67108864 : 134 MB/s

(Catatan:Satuan tarif transfer akan bervariasi berdasarkan OS)

Untuk menguji ukuran blok baca yang optimal, Anda dapat menggunakan proses yang kurang lebih sama, tetapi alih-alih membaca dari /dev/zero dan menulis ke disk, Anda akan membaca dari disk dan menulis ke /dev/null. Skrip untuk melakukan ini mungkin terlihat seperti ini:

dd_ibs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_ibs_testfile}
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi
TEST_FILE_SIZE=134217728

# Exit if file exists
if [ -e $TEST_FILE ]; then
  echo "Test file $TEST_FILE exists, aborting."
  exit 1
fi
TEST_FILE_EXISTS=1

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Create test file
echo 'Generating test file...'
BLOCK_SIZE=65536
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Read test file out to /dev/null with specified block size
  DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null)

  # Extract transfer rate
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

Lihat di GitHub

Perbedaan penting dalam hal ini adalah bahwa file pengujian adalah file yang ditulis oleh skrip. Jangan arahkan perintah ini ke file yang ada atau file yang ada akan ditimpa dengan data acak!

Untuk perangkat keras khusus saya, saya menemukan bahwa 128K adalah ukuran blok input paling optimal pada HDD dan 32K paling optimal pada SSD.

Meskipun jawaban ini mencakup sebagian besar temuan saya, saya sudah cukup sering mengalami situasi ini sehingga saya menulis posting blog tentangnya:http://blog.tdg5.com/tuning-dd-block-size/ Anda dapat menemukan lebih spesifik pada tes yang saya lakukan di sana.

Posting StackOverflow ini mungkin juga bermanfaat:dd:Bagaimana cara menghitung ukuran pemblokiran yang optimal?


Linux
  1. Hitung Catatan Pencocokan Pola Dengan Awk?

  2. Perbedaan Antara Ukuran Blok Dan Ukuran Cluster?

  3. Untuk Apa Inode Baik?

  1. 3 tips untuk mencetak dengan Linux

  2. Memulai Samba untuk interoperabilitas

  3. Cara menentukan ukuran byte terbaik untuk perintah dd

  1. Pengecualian ukuran blok ilegal – CKR_ENCRYPTED_DATA_LEN_RANGE [SoftHSM]

  2. Go For It – Daftar Pekerjaan Modern dengan Pengatur Waktu

  3. Tukar ukuran partisi untuk RAM 4GB