Przeczytałem pół godziny, żeby przygotować się do sklonowania dysku twardego. Ma wiele partycji, w tym partycję Windows. Mam zamiar kupić bardzo duży zewnętrzny dysk twardy do tworzenia kopii zapasowych. Chciałbym móc użyć tego klonu do przywrócenia całego dysku na wypadek, gdyby coś poszło nie tak (zamierzam ponownie przetasować system operacyjny). Chcę nauczyć się, jak to robić za pomocą dd, ponieważ lubię narzędzia niskiego poziomu, które nie wymagają instalowania niczego.
Znalazłem następujący użyteczny kod z forum Ubuntu (wprowadzony z powłoki roota za pomocą płyty CD na żywo):
dd if=/dev/hda of=/dev/hdb & pid=$!
while kill -USR1 $pid; do sleep 1; done
(Wiem, że będę musiał edytować lokalizację wejściową i wyjściową.) Mam jednak dwa pytania. Pierwszy jest bardzo noobie: to polecenie jest podzielone na dwie linie. Czy na pewno po naciśnięciu klawisza Enter po wykrzykniku rozpocznie się proces?
Po drugie, w innych witrynach zaleca się wprowadzenie rozmiaru bloku. Lubię to:
# dd if=/dev/hda conv=sync,noerror bs=64K of=/mnt/sda1/hda.img
Nic nie wiem o rozmiarach bloków. Czy 64K ma rację? Wygląda na to, że mój rozmiar bloku wynosi 512 bajtów z następujących danych wyjściowych sudo fdisk -ul:
Disk /dev/sda: 750.2 GB, 750156374016 bytes
255 heads, 63 sectors/track, 91201 cylinders, total 1465149168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0xc3ffc3ff
Device Boot Start End Blocks Id System
/dev/sda1 * 63 143364059 71681998+ 7 HPFS/NTFS/exFAT
Partition 1 does not start on physical sector boundary.
/dev/sda2 976867328 1465147391 244140032 7 HPFS/NTFS/exFAT
/dev/sda3 143364094 976867327 416751617 5 Extended
Partition 3 does not start on physical sector boundary.
/dev/sda5 143364096 162895871 9765888 82 Linux swap / Solaris
/dev/sda6 162897920 205864959 21483520 83 Linux
/dev/sda7 205867008 976867327 385500160 83 Linux
Partition table entries are not in disk order
Disk /dev/mapper/cryptswap1: 10.0 GB, 10000269312 bytes
255 heads, 63 sectors/track, 1215 cylinders, total 19531776 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x433bb3a7
Disk /dev/mapper/cryptswap1 doesn't contain a valid partition table
Dziękuję Ci.
dd if=/dev/hda of=hdb
? Oto odpowiedź, która pokazuje niektóre szczegóły, w tym środowisko wykonawcze dla 160 GB: askubuntu.com/questions/435694/…dd
zawiera przełącznik postępu, jak wspomniano tutajOdpowiedzi:
Postęp
Polecenie, które wymieniłeś
jest ładnym dwuliniowym narzędziem do
dd
regularnego uzyskiwania postępu . Używam też bardzo podobnego. Wygląda dobrze. Znalazłeś to tutaj ?Blocksizes z
dd
: wyrównanie i wydajnośćMożesz dodać rozmiar bloku, w którym mają miejsce operacje. Nie ma znaczenia, jaki jest rozmiar bloku podstawowego urządzenia blokowego, aby operacja została wykonana równie dobrze, ale ze względu na wydajność możesz wybrać taki, który odpowiada Twoim potrzebom.
Przede wszystkim chodzi o dostosowanie . W przypadku, gdy twoje urządzenie blokowe działa jako 512KiB (podobnie jak dyski flash), bardzo niefortunnie byłoby pracować
dd
zbs=512
(bajtami), ponieważ spowoduje to 1024 zapisy (!) Dla każdego bloku z perspektywy urządzenia. W praktyce nie będzie tak źle, ponieważ zapisy są buforowane i pobierane za jednym razem, ale podczas synchronizacji wciąż może znacznie zwiększyć liczbę zapisów.Następnie weź pod uwagę zwykłe obciążenie procesora przy bardzo dużej liczbie małych operacji. Bardziej wydajne jest jednoczesne pobieranie megabajtów podczas kopiowania dużych ilości danych.
Moją najlepszą praktyką jest zacząć od 1 MB, ponieważ jest to niezła wielokrotność większości ustawień, w tym rozmiarów pasków RAID, rozmiarów LVM itp. Na moim laptopie z dyskiem SSD zauważam niewielką poprawę przy użyciu 10 MB jako rozmiaru bloku, podczas gdy ja nie widzę tego więcej na moim fizycznym dysku twardym.
Ostatni blok
Nie martw się, że rozmiar dysku / woluminu nie będzie wielokrotnością rozmiaru bloku. Ostatni blok, który
dd
zostanie skopiowany, zostanie dostosowany do ostatniego bitu danych na nim. Możesz zobaczyć, czy ostatni blok miał inny rozmiar, patrząc na wynik.Te
+0
środki, że było dokładne dopasowanie, a+1
oznacza, że tak nie było. Nie ma sprawy.Zobacz też
źródło
# dd if=/dev/hda conv=sync,noerror bs=1MB of=/mnt/sda1/hda.img & pid=$!
while kill -USR1 $pid; do sleep 1; done
bs=1M
ponieważ jest to potęga 2, a niebs=1MB
potęga 10. Ale po prostu uruchom kilka testów porównawczych w swoim systemie, aby zobaczyć, co jest najlepsze.kill -USR1 $pid
dd miał teraz dostępny raport postępu dodającstatus=progress
przełącznikJak powiedzieli inni, nie ma uniwersalnie poprawnego rozmiaru bloku; to, co jest optymalne dla jednej sytuacji lub jednego elementu sprzętu, może być strasznie nieefektywne w innym. Ponadto, w zależności od kondycji dysków, może być zalecane użycie innego rozmiaru bloku niż „optymalny”.
Jedną z rzeczy, która jest dość niezawodna na współczesnym sprzęcie, jest to, że domyślny rozmiar 512 bajtów jest prawie o rząd wielkości wolniejszy niż bardziej optymalna alternatywa. W razie wątpliwości stwierdziłem, że 64K to dość solidne, nowoczesne ustawienie domyślne. Chociaż 64K zwykle nie jest optymalnym rozmiarem bloku, z mojego doświadczenia wynika, że jest on znacznie bardziej wydajny niż domyślny. 64K ma również dość solidną historię niezawodności: możesz znaleźć wiadomość z listy mailingowej Eug-Lug , około 2002 roku, zalecając rozmiar bloku 64K.
Aby określić optymalny rozmiar bloku wyjściowego, napisałem następujący skrypt, który testuje zapisanie pliku testowego 128M z dd w zakresie różnych rozmiarów bloku, od domyślnej 512 bajtów do maksymalnie 64M. Ostrzegam, ten skrypt używa dd wewnętrznie, więc używaj go ostrożnie.
dd_obs_test.sh
:Zobacz na GitHub
Testowałem ten skrypt tylko w systemie Debian (Ubuntu) i OSX Yosemite, więc prawdopodobnie zajmie trochę poprawek, aby działać na innych smakach Uniksa.
Domyślnie polecenie utworzy plik testowy o nazwie
dd_obs_testfile
w bieżącym katalogu. Alternatywnie możesz podać ścieżkę do niestandardowego pliku testowego, podając ścieżkę po nazwie skryptu:Dane wyjściowe skryptu to lista testowanych rozmiarów bloków i odpowiadających im szybkości przesyłania, takich jak:
(Uwaga: Jednostka szybkości przesyłania różni się w zależności od systemu operacyjnego)
Aby przetestować optymalny rozmiar bloku odczytu, można użyć mniej więcej tego samego procesu, ale zamiast odczytywać
/dev/zero
i zapisywać na dysku, należy odczytywać z dysku i zapisywać na/dev/null
. Skrypt do wykonania tego może wyglądać tak:dd_ibs_test.sh
:Zobacz na GitHub
Ważną różnicą w tym przypadku jest to, że plik testowy jest plikiem zapisanym przez skrypt. Nie kieruj tego polecenia na istniejący plik, ponieważ istniejący plik zostanie zastąpiony losowymi danymi!
W przypadku mojego konkretnego sprzętu stwierdziłem, że 128K jest najbardziej optymalnym rozmiarem bloku wejściowego na HDD, a 32K jest najbardziej optymalnym na SSD.
Chociaż ta odpowiedź obejmuje większość moich odkryć, musiałem określić optymalną wielkość bloku dd wystarczająco często, aby napisać o nim post na blogu . Możesz znaleźć więcej szczegółów na temat testów, które tam przeprowadziłem.
Ten post StackOverflow może być również przydatny: dd: Jak obliczyć optymalny rozmiar bloku?
źródło