64k tampaknya merupakan pilihan yang bagus:
Results:
no bs= 78s 144584+0 records
bs=512 78s 144584+0 records
bs=1k 38s 72292+0 records
bs=2k 38s 36146+0 records
bs=4k 38s 18073+0 records
bs=5k 39s 14458+1 records
bs=50k 38s 1445+1 records
bs=500k 39s 144+1 records
bs=512k 39s 144+1 records
bs=1M 39s 72+1 records
bs=5M 39s 14+1 records
bs=10M 39s 7+1 records
(diambil dari sini).
ini cocok dengan temuan saya sendiri terkait buffering baca/tulis untuk mempercepat program konverter io-berat yang pernah saya lakukan di @work.
dd akan dengan senang hati menyalin menggunakan BS dari apa pun yang Anda inginkan, dan akan menyalin sebagian blok (di bagian akhir).
Pada dasarnya, parameter ukuran blok (bs) tampaknya menyetel jumlah memori yang digunakan untuk membaca gumpalan dari satu disk sebelum mencoba menulis gumpalan itu ke cakram lain.
Jika Anda memiliki banyak RAM, maka membuat BS besar (tetapi seluruhnya terkandung dalam RAM) berarti bahwa sub-sistem I/O digunakan sebanyak mungkin dengan melakukan pembacaan dan penulisan yang sangat besar - mengeksploitasi RAM. Membuat BS kecil berarti bahwa I/O overhead sebagai proporsi dari total aktivitas naik.
Tentu saja dalam hal ini ada hukum pengembalian yang semakin berkurang. Perkiraan kasar saya adalah bahwa ukuran blok dalam kisaran sekitar 128K hingga 32M mungkin akan memberikan kinerja sedemikian rupa sehingga biaya overhead kecil dibandingkan dengan I/O biasa, dan menjadi lebih besar tidak akan membuat banyak perbedaan. Alasan batas bawah 128K hingga 32M adalah - tergantung pada OS, perangkat keras, dan sebagainya.
Jika itu saya, saya akan melakukan beberapa percobaan waktu salinan/kloning menggunakan BS 128K dan sekali lagi menggunakan (katakanlah) 16M. Jika ada yang lebih cepat, gunakan itu. Jika tidak, gunakan BS yang lebih kecil dari keduanya.
Seperti yang dikatakan orang lain, tidak ada ukuran blok yang benar secara universal; apa yang optimal untuk satu situasi atau satu perangkat keras mungkin sangat tidak efisien untuk situasi lainnya. Selain itu, bergantung pada kesehatan disk, mungkin lebih baik menggunakan ukuran blok yang berbeda dari yang "optimal".
Satu hal yang cukup andal pada perangkat keras modern adalah bahwa ukuran blok default 512 byte cenderung lebih lambat daripada alternatif yang lebih optimal. Jika ragu, saya menemukan bahwa 64K adalah default modern yang cukup solid. Meskipun 64K biasanya bukan ukuran blok yang optimal, menurut pengalaman saya, ini cenderung jauh lebih efisien daripada default. 64K juga memiliki riwayat kinerja yang andal:Anda dapat menemukan pesan dari milis Eug-Lug, sekitar tahun 2002, merekomendasikan ukuran blok 64K di sini:http://www.mail-archive.com/example@ unixlinux.online/msg12073.html
Untuk menentukan ukuran blok keluaran optimal, saya telah menulis skrip berikut yang menguji penulisan file uji 128M dengan dd pada kisaran ukuran blok yang berbeda, dari standar 512 byte hingga maksimum 64M. Berhati-hatilah, skrip ini menggunakan dd secara internal, jadi gunakan dengan hati-hati.
dd_obs_test.sh:
#!/bin/bash
# Since we're dealing with dd, abort if any errors occur
set -e
TEST_FILE=${1:-dd_obs_testfile}
TEST_FILE_EXISTS=0
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi
TEST_FILE_SIZE=134217728
if [ $EUID -ne 0 ]; then
echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi
# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'
# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
# Calculate number of segments required to copy
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
if [ $COUNT -le 0 ]; then
echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests."
break
fi
# Clear kernel cache to ensure more accurate test
[ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches
# Create a test file with the specified block size
DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null)
# Extract the transfer rate from dd's STDERR output
TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')
# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi
# Output the result
printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done
Lihat di GitHub
Saya hanya menguji skrip ini pada sistem Debian (Ubuntu) dan pada OSX Yosemite, jadi mungkin perlu beberapa penyesuaian untuk bekerja pada varian Unix lainnya.
Secara default, perintah akan membuat file uji bernama dd_obs_testfile di direktori saat ini. Alternatifnya, Anda dapat memberikan jalur ke file pengujian khusus dengan memberikan jalur setelah nama skrip:
$ ./dd_obs_test.sh /path/to/disk/test_file
Keluaran dari skrip adalah daftar ukuran blok yang diuji dan kecepatan transfernya masing-masing seperti:
$ ./dd_obs_test.sh
block size : transfer rate
512 : 11.3 MB/s
1024 : 22.1 MB/s
2048 : 42.3 MB/s
4096 : 75.2 MB/s
8192 : 90.7 MB/s
16384 : 101 MB/s
32768 : 104 MB/s
65536 : 108 MB/s
131072 : 113 MB/s
262144 : 112 MB/s
524288 : 133 MB/s
1048576 : 125 MB/s
2097152 : 113 MB/s
4194304 : 106 MB/s
8388608 : 107 MB/s
16777216 : 110 MB/s
33554432 : 119 MB/s
67108864 : 134 MB/s
(Catatan:Satuan tarif transfer akan bervariasi berdasarkan OS)
Untuk menguji ukuran blok baca yang optimal, Anda dapat menggunakan proses yang kurang lebih sama, tetapi alih-alih membaca dari /dev/zero dan menulis ke disk, Anda akan membaca dari disk dan menulis ke /dev/null. Skrip untuk melakukan ini mungkin terlihat seperti ini:
dd_ibs_test.sh:
#!/bin/bash
# Since we're dealing with dd, abort if any errors occur
set -e
TEST_FILE=${1:-dd_ibs_testfile}
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi
TEST_FILE_SIZE=134217728
# Exit if file exists
if [ -e $TEST_FILE ]; then
echo "Test file $TEST_FILE exists, aborting."
exit 1
fi
TEST_FILE_EXISTS=1
if [ $EUID -ne 0 ]; then
echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi
# Create test file
echo 'Generating test file...'
BLOCK_SIZE=65536
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1
# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'
# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
# Clear kernel cache to ensure more accurate test
[ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches
# Read test file out to /dev/null with specified block size
DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null)
# Extract transfer rate
TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')
printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done
# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi
Lihat di GitHub
Perbedaan penting dalam hal ini adalah bahwa file pengujian adalah file yang ditulis oleh skrip. Jangan arahkan perintah ini ke file yang ada atau file yang ada akan ditimpa dengan data acak!
Untuk perangkat keras khusus saya, saya menemukan bahwa 128K adalah ukuran blok input paling optimal pada HDD dan 32K paling optimal pada SSD.
Meskipun jawaban ini mencakup sebagian besar temuan saya, saya sudah cukup sering mengalami situasi ini sehingga saya menulis posting blog tentangnya:http://blog.tdg5.com/tuning-dd-block-size/ Anda dapat menemukan lebih spesifik pada tes yang saya lakukan di sana.
Posting StackOverflow ini mungkin juga bermanfaat:dd:Bagaimana cara menghitung ukuran pemblokiran yang optimal?