Saya telah menemukan ukuran blok optimal saya adalah 8 MB (sama dengan cache disk?) Saya perlu menghapus (ada yang mengatakan:mencuci) ruang kosong pada disk sebelum membuat gambar terkompresi darinya. Saya menggunakan:
cd /media/DiskToWash/
dd if=/dev/zero of=zero bs=8M; rm zero
Saya bereksperimen dengan nilai dari 4K hingga 100M.
Setelah membiarkan dd berjalan sebentar, saya mematikannya (Ctlr+C) dan membaca hasilnya:
36+0 records in
36+0 records out
301989888 bytes (302 MB) copied, 15.8341 s, 19.1 MB/s
Karena dd menampilkan laju masukan/keluaran (dalam hal ini 19,1MB/dtk), mudah untuk melihat apakah nilai yang Anda pilih berperforma lebih baik daripada yang sebelumnya atau lebih buruk.
Skor saya:
bs= I/O rate
---------------
4K 13.5 MB/s
64K 18.3 MB/s
8M 19.1 MB/s <--- winner!
10M 19.0 MB/s
20M 18.6 MB/s
100M 18.6 MB/s
Catatan:Untuk memeriksa berapa ukuran cache/buffer disk Anda, Anda dapat menggunakan sudo hdparm -i /dev/sda
Seperti yang dikatakan orang lain, tidak ada ukuran blok yang benar secara universal; apa yang optimal untuk satu situasi atau satu perangkat keras mungkin sangat tidak efisien untuk situasi lainnya. Selain itu, bergantung pada kesehatan disk, mungkin lebih baik menggunakan ukuran blok yang berbeda dari yang "optimal".
Satu hal yang cukup andal pada perangkat keras modern adalah bahwa ukuran blok default 512 byte cenderung lebih lambat daripada alternatif yang lebih optimal. Jika ragu, saya menemukan bahwa 64K adalah default modern yang cukup solid. Meskipun 64K biasanya bukan ukuran blok yang optimal, menurut pengalaman saya, ini cenderung jauh lebih efisien daripada default. 64K juga memiliki riwayat kinerja yang andal:Anda dapat menemukan pesan dari milis Eug-Lug, sekitar tahun 2002, merekomendasikan ukuran blok 64K di sini:http://www.mail-archive.com/example@ unixlinux.online/msg12073.html
Untuk menentukan ukuran blok keluaran optimal, saya telah menulis skrip berikut yang menguji penulisan file uji 128M dengan dd pada kisaran ukuran blok yang berbeda, dari standar 512 byte hingga maksimal 64M. Berhati-hatilah, skrip ini menggunakan dd secara internal, jadi gunakan dengan hati-hati.
dd_obs_test.sh:
#!/bin/bash
# Since we're dealing with dd, abort if any errors occur
set -e
TEST_FILE=${1:-dd_obs_testfile}
TEST_FILE_EXISTS=0
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi
TEST_FILE_SIZE=134217728
if [ $EUID -ne 0 ]; then
echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi
# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'
# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
# Calculate number of segments required to copy
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
if [ $COUNT -le 0 ]; then
echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests."
break
fi
# Clear kernel cache to ensure more accurate test
[ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches
# Create a test file with the specified block size
DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null)
# Extract the transfer rate from dd's STDERR output
TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')
# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi
# Output the result
printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done
Lihat di GitHub
Saya hanya menguji skrip ini pada sistem Debian (Ubuntu) dan pada OSX Yosemite, jadi mungkin perlu beberapa penyesuaian untuk bekerja pada varian Unix lainnya.
Secara default, perintah akan membuat file uji bernama dd_obs_testfile di direktori saat ini. Alternatifnya, Anda dapat memberikan jalur ke file pengujian khusus dengan memberikan jalur setelah nama skrip:
$ ./dd_obs_test.sh /path/to/disk/test_file
Keluaran dari skrip adalah daftar ukuran blok yang diuji dan kecepatan transfernya masing-masing seperti:
$ ./dd_obs_test.sh
block size : transfer rate
512 : 11.3 MB/s
1024 : 22.1 MB/s
2048 : 42.3 MB/s
4096 : 75.2 MB/s
8192 : 90.7 MB/s
16384 : 101 MB/s
32768 : 104 MB/s
65536 : 108 MB/s
131072 : 113 MB/s
262144 : 112 MB/s
524288 : 133 MB/s
1048576 : 125 MB/s
2097152 : 113 MB/s
4194304 : 106 MB/s
8388608 : 107 MB/s
16777216 : 110 MB/s
33554432 : 119 MB/s
67108864 : 134 MB/s
(Catatan:Satuan tarif transfer akan bervariasi berdasarkan OS)
Untuk menguji ukuran blok baca yang optimal, Anda dapat menggunakan proses yang kurang lebih sama, tetapi alih-alih membaca dari /dev/zero dan menulis ke disk, Anda akan membaca dari disk dan menulis ke /dev/null. Skrip untuk melakukan ini mungkin terlihat seperti ini:
dd_ibs_test.sh:
#!/bin/bash
# Since we're dealing with dd, abort if any errors occur
set -e
TEST_FILE=${1:-dd_ibs_testfile}
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi
TEST_FILE_SIZE=134217728
# Exit if file exists
if [ -e $TEST_FILE ]; then
echo "Test file $TEST_FILE exists, aborting."
exit 1
fi
TEST_FILE_EXISTS=1
if [ $EUID -ne 0 ]; then
echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi
# Create test file
echo 'Generating test file...'
BLOCK_SIZE=65536
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1
# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'
# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
# Clear kernel cache to ensure more accurate test
[ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches
# Read test file out to /dev/null with specified block size
DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null)
# Extract transfer rate
TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')
printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done
# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi
Lihat di GitHub
Perbedaan penting dalam hal ini adalah bahwa file pengujian adalah file yang ditulis oleh skrip. Jangan arahkan perintah ini ke file yang ada atau file yang ada akan ditimpa dengan nol!
Untuk perangkat keras khusus saya, saya menemukan bahwa 128K adalah ukuran blok input paling optimal pada HDD dan 32K paling optimal pada SSD.
Meskipun jawaban ini mencakup sebagian besar temuan saya, saya sudah cukup sering mengalami situasi ini sehingga saya menulis posting blog tentangnya:http://blog.tdg5.com/tuning-dd-block-size/ Anda dapat menemukan lebih spesifik pada tes yang saya lakukan di sana.
Ini sepenuhnya bergantung pada sistem. Anda harus bereksperimen untuk menemukan solusi optimal. Coba mulai dengan bs=8388608
. (Karena HDD Hitachi tampaknya memiliki cache 8MB.)
Ukuran blok yang optimal bergantung pada berbagai faktor, termasuk sistem operasi (dan versinya), dan berbagai bus dan disk perangkat keras yang terlibat. Beberapa sistem mirip Unix (termasuk Linux dan setidaknya beberapa varian BSD) mendefinisikan st_blksize
anggota di struct stat
yang memberikan apa yang dianggap kernel sebagai ukuran blok optimal:
#include <sys/stat.h>
#include <stdio.h>
int main(void)
{
struct stat stats;
if (!stat("/", &stats))
{
printf("%u\n", stats.st_blksize);
}
}
Cara terbaik adalah dengan bereksperimen:salin satu gigabyte dengan berbagai ukuran blok dan waktu itu. (Ingatlah untuk menghapus cache buffer kernel sebelum dijalankan:echo 3 > /proc/sys/vm/drop_caches
).
Namun, sebagai aturan praktis, saya menemukan bahwa ukuran blok yang cukup besar memungkinkan dd
melakukan pekerjaan dengan baik, dan perbedaan antara, katakanlah, 64 KiB dan 1 MiB kecil, dibandingkan dengan 4 KiB versus 64 KiB. (Meskipun, memang, sudah lama sejak saya melakukan itu. Saya menggunakan mebibyte secara default sekarang, atau biarkan dd
pilih ukurannya.)