Disk dökümü (dd) ile disk klonlama için iyi blok boyutu


46

Bir sabit sürücüyü klonlamak için dd'yi en basit haliyle kullanırım:

dd if=INPUT of=OUTPUT

Bununla birlikte, mand içinde dd'nin bir blocksize parametresi bildiğini okudum. Klonlama işlemini hızlandıracak blocksize parametresi için optimal bir değer var mı?


Yanıtlar:


32

64k iyi bir seçim gibi görünüyor:

Results:

  no bs=        78s     144584+0 records
  bs=512        78s     144584+0 records
  bs=1k         38s     72292+0 records
  bs=2k         38s     36146+0 records
  bs=4k         38s     18073+0 records
  bs=5k         39s     14458+1 records
  bs=50k        38s     1445+1 records
  bs=500k       39s     144+1 records
  bs=512k       39s     144+1 records
  bs=1M         39s     72+1 records
  bs=5M         39s     14+1 records
  bs=10M        39s     7+1 records

( buradan alınır ).

bu, bir zamanlar iş başında durduğum bir io-heavy dönüştürücü programını hızlandırmak için okuma / yazma tamponlaması ile ilgili kendi bulgularımla eşleşiyor.


Lütfen bu kıyaslamanın dönen sürücüler ve ssds için farklı görünebileceğini unutmayın.
Jiri

3
-1 Bu neredeyse tamamen sabit sürücünüze bağlıdır. Aksine, bu değerleri elde etmek için kullanılan prosedürü açıklayın, böylece OP kendi sabit sürücüsü için en uygun blok boyutunu elde etmek için adımları tekrarlayabilir. Ayrıca, sonuçlar listenizde 64k yazmadınız ve 1k’den sonraki sonuçların tümü aşağı yukarı aynı.
Micheal Johnson

@MichealJohnson bu gönderiyi düzenlemekte ve bu tablonun sağlanan bağlantıdan nasıl oluşturulduğunu açıklamaktan ve buraya yapıştırmaktan çekinmeyin. 64k, hız bakımından daha fazla gelişme sağlamayan görünen ilk değerdir VE doğal bir uyumdur. ve evet, ölçülen hızın tamamen kullanılan donanıma bağlı olduğu açıktır. bu 5 yıl önce doğruydu ve şimdi doğru.
akira

1
Neden 64k? Bana göre 2k daha fazla gelişme göstermiyor ve bu yüzden 1k en iyi değer ve ayrıca 64k kadar doğal bir hizalama.
Micheal Johnson,

Blok boyutu SD kartın performansını değiştiriyor mu, yoksa sadece sd kartını kullanarak hareketli dosyanın boyutunu kesiyor mu?
Trismegistos

22

dd, istediğinizi BS kullanarak mutlu bir şekilde kopyalar ve kısmi bir bloğu kopyalar (sonunda).

Temel olarak, blok büyüklüğü (bs) parametresi, bu topağı diğerine yazmaya çalışmadan önce bir diskten bir topakta okumak için kullanılan bellek miktarını ayarlıyor gibi görünüyor.

Çok fazla RAM’iniz varsa, BS’yi büyük yapmak (ancak tamamen RAM’de bulunur), I / O alt sisteminin, büyük miktarda okuma ve yazma yaparak, RAM’i kullanarak mümkün olduğu kadar kullanılması anlamına gelir. BS'yi küçük yapmak, toplam faaliyetin bir parçası olarak G / Ç ek yükünün artması demektir.

Tabi bu konuda azalan getiriler kanunu var. Kaba yaklaşımım, yaklaşık 128K - 32M aralığında bir blok büyüklüğünün muhtemelen genel giderlerin düz G / Ç ile karşılaştırıldığında küçük olacağı ve daha büyük olmanın çok fazla bir fark yaratmayacağı şekilde performans göstereceği yönünde. Alt sınırın 128K - 32M arasında olmasının nedeni - işletim sisteminize, donanımınıza vb. Bağlıdır.

Ben olsaydım, 128 K'lık bir BS kullanarak bir kopya / klonlama zamanlaması ve tekrar 16M kullanarak bir kaç deney yapardım. Eğer biri oldukça hızlıysa, kullanın. Eğer değilse, o zaman ikisinin küçük BS kullanın.


10

Bu tartışma Google’da bitecek olanlar için, bu tartışma biraz eski olsa bile ...

Dd'nin bir nedenden dolayı aptal olduğunu aklınızda bulundurun: ne kadar basitse, o kadar az vidalar.

Karmaşık bölümleme şemaları (Linux sistemi için ayrıca LVM kullanan çift önyüklemeli bir sabit disk düşünün), Clonezilla gibi programlarda böcekleri tahtadan çekmeye başlayacaktır. Kötü bir şekilde monte edilmemiş dosya sistemleri ntfsclone sky-high'i patlatabilir.

Sektöre göre sektörlere klonlanmış bozuk bir dosya sistemi orijinalinden daha kötü değildir. Başarısız bir "akıllı kopya" işleminden sonra bozulmuş bir dosya sistemi GERÇEKTEN üzgün bir şekilde olabilir.

Şüphe duyduğunuzda, gg kullanın ve adli tıpa gidin. Adli görüntüleme, sektör bazında kopyalar gerektirir (aslında, dd ile çekebileceğinizden daha fazla sektör gerektirebilir, ancak bu uzun bir hikaye). Yavaş ve sıkıcı ama işin doğru yapılmasını sağlayacak.

Ayrıca, "conv = noerror, sync" seçeneklerini tanıyın, böylece arıza yapmaya başlayan sürücüleri klonlayabilirsiniz - veya ISO'ları çizik ( öksürük ) CD'lerden aylar olmadan yapın.


syncSeçenek ne yapar ? Adam sayfa sadece diyor ki: "use synchronized I/O for data and metadata". Neyle senkronize ediyoruz? Bu çok farklı şeyler olabilir.
sherrellbc

1
@sherrellbc sync, okuma hataları varsa giriş bloklarını sıfırlarla doldurur, böylece veri ofsetleri senkronize kalır.
goetzc

9

Diğerlerinin söylediği gibi, evrensel olarak doğru blok boyutu yoktur; bir durum veya bir donanım parçası için en uygun olan şey bir diğeri için çok verimsiz olabilir. Ayrıca, disklerin sağlığına bağlı olarak, "optimal" olandan farklı bir blok büyüklüğünün kullanılması tercih edilebilir.

Modern donanımda oldukça güvenilir olan bir şey, 512 baytlık varsayılan blok boyutunun daha optimal bir alternatiften daha yavaş bir büyüklük sırası olma eğiliminde olmasıdır. Şüphe durumunda, 64K'nın oldukça sağlam ve modern bir varsayılan olduğunu gördüm. 64K genellikle en uygun blok boyutu olmasa da, benim deneyimimde varsayılandan çok daha verimli olma eğiliminde. 64K'nın güvenilir bir performans sergileme konusunda sağlam bir geçmişi var: 2002 dolaylarında, Eug-Lug posta listesinden 64K'lık bir blok büyüklüğü öneren bir mesaj bulabilirsiniz: http://www.mail-archive.com/eug- lug@efn.org/msg12073.html

Optimum çıkış bloğu boyutunu belirlemek için, varsayılan 512 bayttan maksimum 64M'ye kadar farklı blok boyutlarında bir gd ile 128M test dosyası yazmayı test eden aşağıdaki betiği yazdım. Dikkat edin, bu komut dosyası dahili olarak dd kullanır, bu nedenle dikkatli kullanın.

dd_obs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_obs_testfile}
TEST_FILE_EXISTS=0
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi
TEST_FILE_SIZE=134217728

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Calculate number of segments required to copy
  COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))

  if [ $COUNT -le 0 ]; then
    echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests."
    break
  fi

  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Create a test file with the specified block size
  DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null)

  # Extract the transfer rate from dd's STDERR output
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  # Clean up the test file if we created one
  if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

  # Output the result
  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

GitHub'da görüntüleyin

Bu betiği yalnızca Debian (Ubuntu) sistemde ve OSX Yosemite'de test ettim, bu nedenle diğer Unix lezzetleri üzerinde çalışılması biraz zaman alabilir.

Varsayılan olarak komut , geçerli dizinde dd_obs_testfile adlı bir test dosyası oluşturur . Alternatif olarak, komut dosyası adından sonra bir yol sağlayarak özel bir sınama dosyası için bir yol sağlayabilirsiniz:

$ ./dd_obs_test.sh /path/to/disk/test_file

Komut dosyasının çıktısı, test edilen blok boyutlarının ve bunun gibi ilgili aktarım hızlarının bir listesidir:

$ ./dd_obs_test.sh
block size : transfer rate
       512 : 11.3 MB/s
      1024 : 22.1 MB/s
      2048 : 42.3 MB/s
      4096 : 75.2 MB/s
      8192 : 90.7 MB/s
     16384 : 101 MB/s
     32768 : 104 MB/s
     65536 : 108 MB/s
    131072 : 113 MB/s
    262144 : 112 MB/s
    524288 : 133 MB/s
   1048576 : 125 MB/s
   2097152 : 113 MB/s
   4194304 : 106 MB/s
   8388608 : 107 MB/s
  16777216 : 110 MB/s
  33554432 : 119 MB/s
  67108864 : 134 MB/s

(Not: Aktarım hızlarının birimi işletim sistemine göre değişecektir)

Optimum okuma bloğu boyutunu test etmek için, aynı işlemi daha fazla veya daha az kullanabilirsiniz, ancak / dev / zero'dan okumak ve diske yazmak yerine, diskten okuyup / dev / null'a yazarsınız. Bunu yapmak için bir komut dosyası gibi görünebilir:

dd_ibs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_ibs_testfile}
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi
TEST_FILE_SIZE=134217728

# Exit if file exists
if [ -e $TEST_FILE ]; then
  echo "Test file $TEST_FILE exists, aborting."
  exit 1
fi
TEST_FILE_EXISTS=1

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Create test file
echo 'Generating test file...'
BLOCK_SIZE=65536
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Read test file out to /dev/null with specified block size
  DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null)

  # Extract transfer rate
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

GitHub'da görüntüleyin

Bu durumda önemli bir fark, test dosyasının kod tarafından yazılmış bir dosya olmasıdır. Bu komutu mevcut bir dosyaya doğrultmayın, yoksa mevcut dosyanın üzerine rasgele veriler yazılacaktır!

Özel donanımım için, 128K’nın bir HDD’de en uygun giriş bloğu boyutunda olduğunu ve 32K’nın bir SSD’de en uygun olduğunu gördüm.

Her ne kadar bu cevap bulduklarımın çoğunu kapsamasına rağmen, bu konu hakkında bir blog yazısı yazdığım kadarıyla bu duruma rastladım : http://blog.tdg5.com/tuning-dd-block-size/ Daha fazla bilgi bulabilirsiniz. orada yaptığım testlerde.

Bu StackOverflow gönderisi de yardımcı olabilir: dd: En uygun blok boyutu nasıl hesaplanır?



1

eski önyükleme sürücüsünü harici sata'da yeni ssd'ye klonlama (ssd'den ssd'ye)

  • linux Ubuntu 18.04.2 LTS 64bit kullanarak
  • hp xw4600 (8 GB RAM, intel Çekirdek 2 Quad Q6700 @ 2.66GHz 4c / 4t no-HT)

Diskler (araç)> format> ATA Secure Erase (2dk) kullanarak

$ lsblk -l /dev/sd?
NAME MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
sda    8:0    0 119,2G  0 disk 
sda1   8:1    0 119,2G  0 part /
sdb    8:16   0   2,7T  0 disk 
sdc    8:32   0   2,7T  0 disk 
sdd    8:48   0  12,8T  0 disk 
sde    8:64   0   2,7T  0 disk
sdf    8:80   1 465,8G  0 disk 

$ sudo fdisk -l /dev/sda
Disk /dev/sda: 119,2 GiB, 128035676160 bytes, 250069680 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

$ sudo fdisk -l /dev/sdf
Disk /dev/sdf: 465,8 GiB, 500107862016 bytes, 976773168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
  • sda: Kingston SSD (eski; Diskler, ortalama bellek hızı 263 MB / sn, tepe noktaları 270 MB / sn'ye yakın - sistem diski nedeniyle yazma testi yok) bildirdi
  • sdf: Önemli MX500, 500GB, CT500MX500SSD1 (Diskler raporları: ortalama rd / wr oranı 284/262 MB / s ve erişim süresi 0.05ms, yaklaşık 290/270 MB / s hızında)

Test çalıştırması:

$ sudo dd if=/dev/sda of=/dev/sdf
250069680+0 records in
250069680+0 records out
128035676160 bytes (128 GB, 119 GiB) copied, 3391,72 s, 37,7 MB/s
#       --vvvvv--                            *********
$ sudo dd bs=1M if=/dev/sda of=/dev/sdf
122104+1 records in
122104+1 records out
128035676160 bytes (128 GB, 119 GiB) copied, 473,186 s, 271 MB/s
#                                            *********  ********

ikinci kez, aynı sonucu veren güvenli silme işleminden sonra deneyin:

128035676160 bytes (128 GB, 119 GiB) copied, 472,797 s, 271 MB/s

Süper Kullanıcıya Hoşgeldiniz! Cevabınız için teşekkür ederim, ancak özeti eklemek için düzenlemenizi öneririm ; alıntılanan tüm çıktılar arasında, gerçek cevabınızın ne olduğunu bulmayı zor buldum! Şerefe
bertieb
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.