Jakiego rodzaju okresową konserwację należy wykonywać podczas tworzenia kopii zapasowej dysku twardego?

15

Mam kopię zapasową katalogów na zewnętrznym dysku twardym - nie na dysku SSD, dysku magnetycznym.

Kopia zapasowa jest tylko na jednym dysku (tak, wiem, dodatkowy dysk twardy z kopią byłby dobrym pomysłem, ale w tej chwili tak nie jest). Ponadto na dysku nie ma podwójnych kopii plików.

HDD ma (opcja 1) znacznie więcej miejsca niż zajmują moje pliki (opcja 2) mniej wolnego miejsca niż moje pliki (ale nadal niezła ilość)

Trzymam dysk w oryginalnym opakowaniu: plastikowa torba w „kartonowym pudełku”, takim jak opakowanie, w plastikowym pudełku. Jest przechowywany w pokoju w moim domu z pudełkiem, który nigdy nie jest wystawiony na słońce, deszcz itp.

Moje pytanie brzmi: czy należy coś okresowo robić z dyskiem, aby zmaksymalizować żywotność danych? np. czytaj wszystko, aby gdzie indziej, albo czytaj i pisz wstecz, albo przetasuj fizyczne pozycje danych na dysku, a nawet potrząśnij dyskiem, zmieniając jego fizyczną pozycję, włączając go bez robienia niczego itp. itp. Chciałbym znaleźć odpowiedź na oba opisane przeze mnie opcjonalne scenariusze.

Uwagi:

  • Wolałbym, aby to pytanie nie było specyficzne dla jednej marki dysków twardych, ale jeśli musisz wiedzieć - to dysk Toshiba STOR.E o pojemności 750 GB. Nie mój wybór, po prostu muszę nad tym popracować.
  • Podręcznik dysku twardego nic nie mówi o tym problemie.
  • Kopia zapasowa reprezentuje stan tych folderów w przeszłości. Załóżmy, że ważne jest, aby utrzymać ten stan w obecnym stanie i że nie ma „głównej kopii” tych samych danych.
  • Chociaż prawdopodobnie nie ma to znaczenia dla pytania, nie jest katastrofalnie złe, jeśli te pliki zostaną utracone, chciałbym tylko zwiększyć oczekiwaną długość życia.
  • nawet gdybym miał dwie kopie na dwóch dyskach twardych, pytanie byłoby równie istotne: Jakie rodzaje czynności konserwacyjnych należy wykonać na każdym z nich osobno?
einpoklum
źródło
Dobrym pomysłem byłoby okresowe czytanie plików w celu „poprawy” pola magnetycznego reprezentującego dane. Użycie systemu plików, który dodaje do tego pewną automatyzację / dodatkową ochronę, uczyniłoby to nieco łatwiejszym. Oczywiście lepiej byłoby mieć wiele urządzeń medialnych z tymi samymi danymi. Podręcznik nic o tym nie mówi, ponieważ używanie dysków twardych jako magazynu offline jest rzadkością (tak mi się wydaje).
Seth
4
Odpowiedzi wydają się opierać na opinii i wspólnej praktyce. Nie widzę solidnych, opartych na badaniach odpowiedzi ani autorytatywnych cytatów.
fixer1234
Pytanie i odpowiedź tutaj, na SU, choć jest to o wiele bardziej zaangażowane niż twoje pytanie. Przeczytaj zaakceptowaną odpowiedź na to pytanie . Wszystkie dane / źródła / cytowania, na które możesz mieć nadzieję! Możesz wyodrębnić, co działa dla Ciebie z jego danych.
user686699

Odpowiedzi:

5

Z profesjonalnego punktu widzenia masz następujące opcje:

  1. Módl się.
  2. Wykonaj wiele kopii na wielu urządzeniach.

W „opcji 1” (znacznie więcej miejsca) możesz bardzo nieznacznie zwiększyć swoje szanse, wykonując wiele kopii na tym samym sprzęcie, ale faktem jest, że sprzęt zawodzi, nierzadko czyniąc cały dysk nieczytelnym. Pojedyncza kopia nie jest realną strategią tworzenia kopii zapasowych.

Nie jestem pewien, czy jest to rzeczywista kopia zapasowa (plików na urządzeniu podstawowym) czy archiwum (plików usuniętych z urządzenia podstawowego). Dodatkowa kopia jest nieco ważniejsza, jeśli w ogóle zależy ci na przypadku archiwum - w W przypadku kopii zapasowej jest teoretycznie kopia podstawowa, więc musisz mieć co najmniej dwie awarie, zanim całkowicie nie będziesz miał szczęścia.

Ecnerwal
źródło
1
Chociaż twoje rekomendacje są ważne i doceniane, nie o to prosiłem. Wydaje się, że sugerujesz, że wszystkie działania, które zasugerowałem, są bezsensowne / bezużyteczne z punktu widzenia długowieczności. Czy tak mówisz?
einpoklum
1
Przepraszam, ale modlitwa tak naprawdę nie jest z „profesjonalnego” punktu widzenia.
oldmud0
2
Jeśli jesteś dobrym inżynierem, pomodlisz się do Murphy'ego, a twoje oferty będą obejmować więcej domów dla tych danych, ponieważ wszystko, co może pójść nie tak, pójdzie nie tak. Inne bóstwa i ofiary mogą mieć mniej zadowalające wyniki ...
Ecnerwal
1
Tbh, z jednym egzemplarzem, szukanie boskiej łaski nie jest najgorszym pomysłem.
Journeyman Geek
5

Jeśli masz więcej wolnego miejsca niż dane zapasowe - opcja 1 w pytaniu - lub jeśli masz wiele kopii danych, mam pomysł, który „coś zrobiłby”; jeśli uważasz, że SpinRite naprawdę pomaga w „konserwacji” dysku twardego i / lub chcesz całkowicie nadpisać, a następnie ponownie zapisać każdy fragment danych, to by to zrobiło.

Niezależnie od tego, czy powinieneś coś zrobić, czy nie, nie jestem zbyt pewien ... bit-rot lub Data Degradation wydają się istnieć, a pytania takie jak ten na superużytkowniku i ten na temat awarii serwera wydają się doradzać tworzenie kopii zapasowych, a może błąd - poprawianie lub tolerowanie błędów RAID (ale tylko dla jednego dysku twardego wybrałbym wiele kopii zapasowych i sprawdzanie wartości skrótu / CRC i nie martwiłem się, co zrobić, jeśli RAID ulegnie awarii).

Skłaniam się ku prostszemu i leniwemu podejściu „nic nie rób”, ale poniższe jest co najmniej dobre „upewnij się, że nadal mogę czytać moje dane raz w roku, i równie dobrze mogę je ponownie napisać” .

Linux DIY Emulacja niektórych funkcji konserwacyjnych SpinRite

Wiele osób wydaje się przekonanych, że SpinRite naprawdę działa, ale nie jest darmowy i używam Linuksa, więc słuchałem JAK Steve Gibson JAK działa SpinRite? wideo i mówi, że jedną z rzeczy, które robi teraz SpinRite, jest:

  • Odczytuje cały dysk
  • Odwraca bity i zapisuje je
  • Czyta je ponownie
  • Odwraca bity i zapisuje je
  • Czyta je ponownie

Jeśli dysk znajdzie jakieś (niewielkie) problemy, powinno to „skłonić sam dysk do zamiany uszkodzonych sektorów na dobre”.

Jak często powinieneś to robić? Steve mówi „nikt tak naprawdę nie wie, jak często to jest, ale co kilka miesięcy powinno to wystarczyć” . Zgaduję tylko co 6 miesięcy lub co roku.

badblocks

Proces odczytu / przerzucania / odczytu / przerzucania brzmi prawie identycznie jak w badblocksprzypadku korzystania z jego testu w trybie zapisu ( -wopcja), tyle że tak naprawdę nie „ odwraca bitów” danych, ale powoduje destrukcyjne zapisywanie, odczytywanie i odwracanie wszystkich bity na partycji:

Dzięki tej opcji badblocks skanuje w poszukiwaniu uszkodzonych bloków, pisząc pewne wzorce (0xaa, 0x55, 0xff, 0x00) na każdym bloku urządzenia, czytając każdy blok i porównując zawartość.

Nieprzypadkowo wzory te są dwójkowo: 10101010, 01010101, 11111111, 00000000.

Badblocks pisze, odczytuje i przerzuca bity całkiem dokładnie, i to również za darmo. Jeśli mke2fsuruchomiłeś Badblocks (z badblocks -cc), zapisuje listę Badblocks, więc ext2 / 3/4 uniknie ich, jeśli zostaną znalezione.

Minusem jest to , że testowanie przez badblocks zapisu jest destrukcyjne , więc do działania będą potrzebne co najmniej dwie partycje (w celu zapisania i zapisania danych).

  • Zachowaj dwie kopie danych na dysku twardym , każda w RÓŻNYCH PARTYCJACH! .
    Pozwala to na zastąpienie każdego bitu na jednej partycji, a 10, 01, 11, 00 podwaja szanse na odzyskanie, jeśli pojawią się złe obszary. I przechowuj listę sum kontrolnych / skrótów dla swoich plików danych, takich jak CRC32 lub MD5 (chociaż MD5 / SHA są bardzo wolne w porównaniu do CRC, a CRC nie powinno pomijać błędów losowych)
  • Co kilka miesięcy:
    1. Przeczytaj swoje kopie zapasowe i sprawdź, czy nadal są zgodne z sumami kontrolnymi / skrótami.
    2. „Pseudo” -bit-flip partycji z badblocks -wlub mke2fs -cc( tylko jedna partycja , nie zastępuj wszystkich danych, tylko jedna kopia!)
    3. Skopiuj dane z powrotem na świeżo odwróconą partycję
    4. „Pseudo” -bit-flip-flip drugiej partycji (tej, która nie została jeszcze odwrócona)
    5. Skopiuj dane z powrotem na świeżo przerzuconą partycję

Jest to podobne do ponownego formatowania i kopiowania danych z powrotem, ale szybki / standardowy format zwykle nie zapisuje się w każdym sektorze, więc możesz nie zmienić / przerzucić wielu bitów


Najlepszym rozwiązaniem jest zawsze wiele kopii na wielu urządzeniach .
Przeczytałem, że nośniki optyczne mogą być czytelne przez 10, 20, może nawet ponad 50 lat, a dwa identyczne dyski / ISO pasowałyby gddrescue(poniżej).
Przechowywanie w chmurze jest często bezpłatne dla kilku GB, przechowywanie tam plików (opcjonalnie zaszyfrowanych) może być dobrym pomysłem, szczególnie jeśli kwoty będą rosły.

Również zapisanie plików w archiwum z korekcją błędów może pomóc, jeśli pojawią się jakiekolwiek błędy, ale utrata jednego pliku na milion może nie być tak poważna, jak utrata całego archiwum miliona plików. Jeśli istniałoby jakieś oddzielne oprogramowanie do korekcji błędów, takie jak ECC-CRC, to mogłoby pomóc, ale nie znam żadnego, a dodatkowa kopia danych byłaby jeszcze lepsza.


Stycznie spokrewniona, SpinRite „bardzo się stara”, aby odczytać dane ze złego sektora dysku twardego, czytając z różnych kierunków i prędkości, co również brzmi bardzo podobnie gddrescue, w przypadku (lub kiedy) problemów z odczytem danych . gddrescue może również odczytać z dwóch kopii danych z błędami i mam nadzieję, że poskładam jedną pełną dobrą kopię, i kusi mnie, aby zrobić dwie (lub więcej) identycznych kopii twojej partycji danych dd, ale wtedy, gdy badblocks znajdzie jakieś złe sektory, które możesz nie mogłem ich uniknąć, ponieważ zmieniłoby to identyczne kopie.

Xen2050
źródło
Można połączyć się z wyjaśnieniem, dokładnie jak ty bit-flig partycji z badblocksalbo mke2fs?
einpoklum
Przerzucanie bitów nie naprawi adresu sektora, który znajduje się poza sektorem. Wiem, że SpinRite sprytnie wykorzystuje niektóre właściwości kontrolera dysku w dość zaskakujący sposób, niełatwy do uzyskania na podstawie specyfikacji, które wciąż utrzymuje w tajemnicy. Faceci za HDD Regenerator mogli to wypracować, ale to nie jest wiedza publiczna.
harrymc
Czy jest jakiś dowód na to, że podrzucanie bitów przynosi jakieś korzyści? Brzmi jak wymiana zużycia dysku na rozwiązanie problemu, którego nigdy nie widziałem w żadnym miejscu, w dowolnym miejscu, w jakimkolwiek odpowiednim, godnym zaufania źródle. Cytowanie byłoby bardzo pouczające.
Journeyman Geek
@einpoklum Zaktualizowałem trochę odpowiedź. Nie mam linku innego niż strona podręcznika, aby Badblocks nadpisywał co jakiś czas , a następnie zapisywał dane z powrotem.
Xen2050
@JourneymanGeek Przechodziłem tylko przez to, co powiedział Steve Gibson w linkowanym wideo na swojej stronie, zasadniczo „z pyska konia”. Ale niestety nie mam i nie mogłem znaleźć żadnych innych odniesień, przynajmniej z szybkiego wyszukiwania. Właściwie mam wrażenie z innych pytań SE, że zgnilizna bitów może nie być powodem do zmartwień, a samo ponowne pisanie, nawet te same bity w tym samym miejscu, może powodować „domeny magnetyczne na powierzchni dysku fizycznego [ ] zostaną odnowione z ich oryginalną siłą ”
Xen2050
5

Ponieważ wydaje się, że większość plakatów go nie zauważyła, oto moja zalecana odpowiedź na specyfikę twojego pytania, korzystając z tego doskonałego postu. Jakie medium powinno być używane do długoterminowego przechowywania dużych ilości danych (archiwizacji)? jako przewodnik. Nie będę ponownie cytował referencji i badań, ponieważ wykonał świetną robotę, a przeczytanie całego postu jest lepsze niż streszczenie tego przypadku.

Ograniczając się do jednego dysku twardego w chłodni (offline), z dwiema podanymi opcjami, powinieneś podłączyć dysk co kilka lat lub w innym miejscu i go rozkręcić. Największym powodem takiego stanu rzeczy jest zapobieganie stwardnieniu i zatarciu smaru wrzeciona. Smar wrzeciono będzie twardnieć z upływem czasu, a przędzenie dysk raz na jakiś czas może znacznie opóźnić tę ewentualność. Jeśli chcesz uzyskać wgląd w znaczenie smaru na dysku twardym, spójrz na wysiłek Minebea, producent silników dysków twardych wkłada swoje badania na ten temat w tym raporcie .

Gdy dysk jest podłączony, równie dobrze możesz uruchomić diagnostykę SMART, aby znaleźć oznaki zbliżającej się awarii elektroniki, sprzętu lub talerza. Chociaż z badań przedstawionych na targach FAST'07 przez Google i Carnegie Mellon University {zdobywając w tym roku nagrodę „Best Paper”}, test SMART może wskazywać na niepowodzenie, ale test „pozytywny” może nie wskazywać na dobre zdrowie. Niemniej sprawdzanie nie zaszkodzi. Tak, to stare badania, ale wydaje się, że nikt nie zastąpił go niczym nowym.

Dłuższe działanie napędu i dostęp do danych również odnowią siłę pól magnetycznych, w których są przechowywane dane. Niektórzy twierdzą, że nie jest to konieczne w oparciu o hordy niepotwierdzonych dowodów, ale wydaje się, że przeprowadzone badania wskazują, że osłabienie pól magnetycznych jest możliwe. Prezentuję trzy artykuły z University of Wisconsin-Madison: Zanieczyszczenie parzystości , uszkodzenia danych , a Disk-Pointer Korupcji . Po ich przeczytaniu możesz zdecydować, na ile ich wnioski zagrażają Twoim danym i ile wysiłku warto przed nimi chronić.

Sugerowana rutynowa kuracja

Nie wiem, jakiego systemu operacyjnego używasz, jakie masz lub preferujesz narzędzia ani jaki system plików wybierasz. Dlatego moje sugestie będą miały charakter ogólny, umożliwiając wybór narzędzi, które najlepiej pasują do Twojej konfiguracji i preferencji.

Pierwszą jest konfiguracja do przechowywania. Przed zapisaniem plików na dysku twardym utwórz ich archiwa. Nie oznacza to kompresji ani jej nie unika. Wybierz format archiwum, który zapewni odzyskiwanie po błędzie lub zdolność do samonaprawiania się. Nie twórz jednego ogromnego archiwum, raczej archiwizuj rzeczy, które do siebie pasują, tworząc bibliotekę archiwów. Jeśli wybierzesz kompresję, upewnij się, że nie koliduje ona z funkcją odzyskiwania po błędzie. W przypadku większości formatów muzycznych, wideo, filmów i obrazów kompresja nie ma sensu. Takie formaty plików są już skompresowane, a próba ich kompresji rzadko zyskuje miejsce, czasami tworząc większepliki i marnuje czas i moc procesora w okazyjnej cenie. Mimo to zarchiwizuj je w celu odzyskania błędu powyżej. Następnie utwórz sumę kontrolną dla każdego pliku archiwum, korzystając z wybranego algorytmu podsumowania. Bezpieczeństwo nie jest tutaj problemem, a jedynie sprawdzeniem poprawności pliku, więc MD5 powinno wystarczyć, ale wszystko będzie działać. Zapisz kopię sum kontrolnych z plikami archiwalnymi, ina drugim miejscu na tym samym dysku twardym - być może w dedykowanym katalogu do całkowitego gromadzenia sum kontrolnych. Wszystko to jest zapisywane na dysku. Następnie, bardzo ważne, jest zapisanie na tym dysku twardym narzędzi używanych do tworzenia sum kontrolnych i przywracania archiwów (a także ich dekompresowania, jeśli korzystałeś z kompresji). W zależności od systemu mogą to być same programy lub może to być dla nich instalator. Teraz możesz przechowywać dysk twardy według własnego wyboru.

Drugi to magazyn. Obecne dyski twarde są odpowiednio chronione przed wstrząsami fizycznymi (wstrząsami i wstrząsami), ale nie ma sensu ich przesuwać. Przechowuj go prawie tak, jak wspomniałeś w swoim pytaniu. Dodałbym, aby spróbować uniknąć obszarów, w których prawdopodobnie będzie podlegać siłom elektromagnetycznym. Na przykład nie w takim samym stanie, w jakim znajduje się panel wyłącznika lub nad radiem HAM. Błyskawiczne odległości są czymś, czego nie można uniknąć, ale odkurzacz i moc mówią, że można tego uniknąć. Jeśli chcesz być ekstremalny, zdobądź tarczę Faradaya lub torbę Faraday. Dwie z was są albo bezcelowe, albo złe. Zmiana jego fizycznej pozycji podczas przechowywania nie wpłynie na nic, co się liczy, i potrząsanie nią możepowodować uszkodzenia, nie powinny, ponieważ większość dysków ma dobrą ochronę przed wstrząsami G, ale jest to możliwe.

Ostatni to okresowe środki. Zgodnie z wybranym harmonogramem, co roku lub co dwa lata, na przykład wyjmij go z magazynu i podłącz ponownie do komputera. Uruchom test SMART i faktycznie przeczytaj wyniki. Przygotuj się na wymianę dysku, gdy wyniki SMART pokażą, że powinieneś nie „następnym razem”, ale „tym razem”. Po podłączeniu sprawdź wszystkie pliki archiwów pod kątem ich sum kontrolnych. Jeśli jakikolwiek test zakończy się niepowodzeniem, spróbuj użyć funkcji odzyskiwania po błędzie formatu archiwum, aby przywrócić ten plik, odtworzyć archiwum oraz jego sumę kontrolną i zapisać ponownie. Ponieważ dałeś również opcję 2 jako „niezłą ilość” wolnego miejsca, skopiuj archiwa do nowych katalogów, a następnie usuń oryginały. Po prostu „przenoszenie” ich może wcale ich nie ruszać. W wielu nowszych systemach plików przeniesienie pliku zmieni katalog, w którym jest wymieniony, ale zawartość pliku pozostanie tam, gdzie się znajduje. Kopiowanie pliku wymusza zapisanie go w innym miejscu, a następnie można zwolnić miejsce, usuwając oryginał. Jeśli masz wiele plików archiwów, żaden z nich prawdopodobnie nie będzie tak duży, aby wypełnić wolne miejsce na dysku twardym. Po zweryfikowaniu lub przywróceniu wszystkich plików i przeniesieniu dowolnych plików przywróć opakowanie i umieść je z powrotem w pamięci do następnego razu.

Dodatkowe rzeczy, na które należy zwrócić uwagę. Po uaktualnieniu systemu lub, co gorsza, przejściu na inny system operacyjny, upewnij się, że nadal masz możliwość odczytu tego dysku twardego w nowej konfiguracji. Jeśli masz coś, co nie jest zwykłym tekstem, upewnij się, że nie stracisz możliwości odczytania pliku jako zapisanego. Na przykład: Dokumenty MS-Word mogą mieć równania utworzone w jednym formacie, nowsze wersje nie mogą ich odczytać. Zobacz to dla tego bardzo problemu. Program Word nie jest jedynym możliwym źródłem problemów, a nawet formaty Open Source nie gwarantują, że Twoje dane będą zabezpieczone na przyszłość. Aby dowiedzieć się o poważnych błędach w tej dziedzinie, przeczytaj o nieudanym projekcie Digital Domesday Book. Gdy pojawią się nowe technologie, rozważ również zaktualizowanie swojej kolekcji. Jeśli masz filmy zapisane jako pliki AVI i bardziej podoba Ci się MKV, przekonwertuj je. Jeśli masz dokumenty do edycji tekstu i zaktualizujesz swój program, zapisz zarchiwizowane dokumenty w nowym formacie.

użytkownik686699
źródło
4

Media magnetyczne mogą z czasem zanikać, a wynikiem jest zły fragment lub sektor. Jednym z rozwiązań może być odnawianie części magnetycznej raz na kilka lat.

Najprostszym sposobem jest skopiowanie i przepisanie całego dysku twardego, chociaż może to nie odnawiać adresu sektora, który jest „nagłówkiem” sektora, który pozwala oprogramowaniu układowemu ustawić głowicę do niego. Odnowienie adresu sektora może wymagać ponownego sformatowania dysku (format głęboki - nie szybki).

Alternatywnym rozwiązaniem jest użycie produktów do regeneracji dysku. Produkty te skanują dysk na poziomie fizycznym, odczytują każdy sektor i jego adres oraz przepisują oba w celu odnowienia danych magnetycznych.

Dodatkową korzyścią jest to, że w przypadku błędu odczytu, te produkty wypróbują wiele metod odczytu w celu zapisania danych, oznaczą sektor jako zły i przekapują go na sektor zapasowy (większość dysków twardych ma sektory zapasowe), więc dane są zapisywane.

Oto kilka takich produktów:

  • DiskFresh (darmowy do użytku prywatnego i niekomercyjnego lub 25 USD) - część narzędzi Puran, które otrzymują dobre recenzje. Informuje tylko, czy istnieją uszkodzone / uszkodzone sektory i nie wykonuje zaawansowanego odzyskiwania.

  • SpinRite (89 USD z gwarancją zwrotu pieniędzy) - To nie było aktualizowane przez kilka lat, chociaż jeszcze kilka lat temu zapisało mój dysk. Nie ufałbym gwarancji zwrotu pieniędzy, ponieważ produkt jest dość stary.

  • Regenerator HDD (89,99 USD z gwarancją zwrotu pieniędzy) - Nowszy produkt z dobrymi recenzjami.

W trosce o kompletność dla czytelników szukających bezpiecznego, długoterminowego przechowywania, chciałbym zauważyć, że istnieją produkty DVD i Blu-Ray typu „jeden raz i zawsze czytaj raz na zawsze”, znane pod marką M-DISC lub Archival Disc.

harrymc
źródło
Wiem, że SpinRite używa własnego nośnika startowego; co z innymi, o których wspominałeś? Czy są oparte na systemie Windows? Oparty na systemie Linux? Własny bootowalny?
einpoklum
1
DiskFresh działa w systemie Windows, a HDD Regenerator obsługuje zarówno system Windows, jak i bootowalny dysk flash.
harrymc
Więc może powinienem zapytać, czy zrobienie tego w Linuksie wymaga osobnego rozruchu, czy też można po prostu zrobić z /dev/sdXplikami urządzeń ddlub coś podobnego.
einpoklum
1
@einpoklum: Wszelkie produkty w dowolnym systemie operacyjnym, które wykonują głębokie formatowanie oraz obrazowanie dysku i przepisywanie, wykonają to zadanie, w tym dd dla przepisanej części. Chodzi o to, aby całkowicie odnowić wszystkie sektory dysku, sektory używane zarówno dla danych pliku, jak i metadanych. Podczas kopiowania dysku wymagana jest alternatywna pamięć tymczasowa, ale dziś jest to tanie.
harrymc
@einpoklum: Można użyć DiskFresh do konserwacji i używać bardziej zaawansowanych narzędzi do odzyskiwania po błędach (sukces nie jest gwarantowany). DiskFresh powinien wystarczyć w odpowiednich warunkach przechowywania.
harrymc
3

Nie należy wykonywać żadnych czynności konserwacyjnych . Ponowne podłączenie napędu i włączenie go stanowi większe ryzyko niż ciągła praca i znacznie wyższa niż pozostawienie go w pudełku. Dlatego sprawdzanie go bardzo często zwiększa prawdopodobieństwo uszkodzenia.

Sposób przechowywania jest doskonały, ale nie zapominaj o temperaturze . Nie pozwól, żeby było ekstremalnie. Czego dokładnie używasz jako dysku zapasowego? Niektóre są znacznie bardziej wytrzymałe niż inne.

Możesz zrobić, ponieważ, jak już powiedziałeś, masz wystarczająco dużo miejsca, wykonaj dwie kopie tych samych danych na dysku twardym . W przypadku złych sektorów wszystko będzie dobrze. Z tego, co zauważyłem, większość dzisiejszych dysków otrzymuje uszkodzenia sektorowe na początku dysku (kilka pierwszych GB), ale dzieje się tak głównie z powodu systemu operacyjnego (nie twojego przypadku). Ogólnie rzecz biorąc, złe sektory pojawią się początkowo w większości przypadków w klastrze razem, więc posiadanie dwóch kopii danych na tym samym dysku pomaga.

Jeśli masz tylko kilka krytycznych plików, dobrym rozwiązaniem byłoby zapisanie ich również w innym miejscu, dla zachowania bezpieczeństwa. Utwórz zaszyfrowane archiwum i umieść je na patyku lub przekaż je komuś, komu ufasz.

Overmind
źródło
1
W części „uwagi” wymieniono używany dysk twardy (podstawy Toshiba STOR.E 750 GB). Czy możesz również odnieść się do jakiegoś odniesienia do twierdzenia, że ​​włączenie zasilania i podłączenie napędów skraca szacowany czas do awarii? Nie dlatego, że nie ma powodu do roszczenia, po prostu inni ludzie sugerują coś wręcz przeciwnego.
einpoklum
Czy jest coś, co można przytoczyć jako podstawę do twierdzenia, że ​​nie należy wykonywać żadnych czynności konserwacyjnych, a zwiększenie zasilania wiąże się z większym ryzykiem?
fixer1234
Nie zgadzam się z argumentem braku konserwacji, ponieważ nawet dysk pozostawiony bez zasilania może nadal ulec uszkodzeniu, a bez zasilania nigdy go nie wykryjesz.
harrymc
Statystycznie jest bardziej prawdopodobne, że zostanie uszkodzony, gdy włączysz go w celu sprawdzenia, niż w ogóle nie uzyskasz do niego dostępu.
Overmind
Nie widziałem żadnych takich statystyk, a nawet jeśli takie istnieją, z pewnością nie mają zastosowania po włączeniu raz na kilka godzin raz na kilka lat . Potrzeba tysięcy włączeń, aby spowodować wymierne uszkodzenie dysku.
harrymc
3

Zawsze czułem, że sztuczka polega na założeniu, że dysk zawiedzie . Istnieją pewne losowe tryby awarii. W przypadku awarii losowych - istnieją tutaj dwa aspekty - dysk i system plików.

Chociaż jest to trochę nietypowe źródło - ten wątek reddit sugeruje, że jeden dany bit może się odwrócić za około 10 lat, chociaż podejrzewam, że pojedynczy bit odwrócony byłby dyskretnie obsługiwany przez ECC - w systemie plików lub na samym dysku.

Zwykle można znaleźć problemy „na dużą skalę” związane z wiekiem za pomocą okresowych testów SMART - takich jak oczekujące przeniesienia sektorów. Przy stosunkowo krótkich cyklach pracy nie powinieneś zbyt wiele widzieć, ale jesteśmy tu trochę paranoikiem. Jeszcze raz, dopóki wszystko nie stanie się naprawdę złe, dysk prawdopodobnie po cichu poradzi sobie z tym w ECC.

Wreszcie istnieje ryzyko nagłej śmierci napędu lub sterownika . Teoretycznie możesz zadbać o napęd, uruchamiając go w kontrolowanych, niskich temperaturach, o których wiadomo, że maksymalizują żywotność dysku, ale nigdy tak naprawdę nie dbałem o dyski.

Dyski powinny mieć pewną liczbę spinów i spinów (tutaj nie ma problemu), i podejrzewam, że prawidłowe wysunięcie dysku pozwoliłoby na spłukanie danych na dysk, i istnieją narzędzia do wyłączania dysków. Wierzę, że hdparm by to zrobił, ale potrzebuję trochę więcej testów.

Wreszcie wybieram dyski o znanej trwałości . Co kilka lat obracam również dyski zewnętrzne, przesuwając starsze dyski w dół hierarchii.

W teorii systemów plików, takich jak bibl i ZFS są zaprojektowane, aby zmniejszyć ryzyko utraty danych chociaż integralnych sum kontrolnych danych. Przynajmniej nie będziesz mieć plików, które zostaną po cichu uszkodzone. Wybór ich na bardziej popularne systemy plików prawdopodobnie zmniejszyłby ryzyko utraty danych, ale nie ma jeszcze „łatwego” sposobu na ich wdrożenie na komputerowym systemie operacyjnym. ZFS ma dość przyzwoitą obsługę Linuksa, a żadną w Windowsie, a ReFS nie dotarł jeszcze do pulpitu Windows. Są one zaprojektowane w taki sposób, że mają wiele kopii na jednym lub większej liczbie dysków do faktycznego odzyskiwania, więc nie działałoby tutaj dokładnie.

Journeyman Geek
źródło
2
Technicznie sumy kontrolne w ZFS (i może ReFS) nie robią nic, aby same ograniczyć utratę danych, tylko weryfikują integralność danych. Nadal będziesz potrzebować napędu parzystości lub dublowania (tj. Pewnego rodzaju redundancji), aby odzyskać po błędach / uszkodzeniach. Nie sądzę, aby istniały (popularne) systemy plików, które można odzyskać samodzielnie za pomocą jednego dysku (a jeśli takie istnieją, będą musiały poświęcić miejsce na dysku, aby to zrobić).
Bob
Zaktualizowano, aby to odzwierciedlić. Nie przejmowałem się pójściem dalej, ponieważ te systemy plików tak naprawdę nie działałyby w jego skrzynce /
Journeyman Geek
Tak, jedyną korzyścią z sum kontrolnych w tego rodzaju scenariuszu jest to, że przynajmniej wiesz, którym plikom / dyskom nie ufać.
Bob
Dlaczego sektory miałyby zostać ponownie przydzielone, gdy dysk twardy właśnie tam siedzi? To znaczy, możesz zasugerować, żebym sprawdził statystyki SMART po skopiowaniu całej zawartości dysku do jakiegoś tymczasowego (lub /dev/nullmoże?), A to spowodowałoby błędy i przeniesienia.
einpoklum
To dobre pytanie - w normalnych okolicznościach nie powinno tak się zdarzyć, zwłaszcza przy dość minimalnych cyklach pracy. Jednak krótki nagłych i nieoczekiwanych i bardzo terminala śmierci dysku twardym, jego nieprawdopodobne coś rzeczywiście stało dysku. Większość trybów awarii, o których mogę myśleć, bywa nieoczekiwana.
Journeyman Geek
2

Jak wynika z zaleceń innych, pojedynczy zasób kopii zapasowej nie jest niezawodnym rozwiązaniem, JEŚLI kopia zapasowa ma jakąkolwiek wartość. Doświadczenie z urządzeniami elektronicznymi nauczyło wielu z nas (na poważnie), że nie jest to JEŻELI, ale KIEDY urządzenie zapasowe zawiedzie.

Dyski twarde z założenia służą do przechowywania danych w stosunkowo krótkim okresie. Dwa doskonałe artykuły, /server/51851/does-an-unplugged-hard-drive-used-for-data-archival-deteriorate i Ile czasu upływa, zanim nieużywany dysk twardy utraci dane? przedyskutuj żywotność danych przechowywanych na dysku twardym. Jak zawsze przebieg może się różnić.

Opisane przez Ciebie rozwiązanie do tworzenia kopii zapasowych jest lepsze niż brak tworzenia kopii zapasowej, ale nadal występuje jeden punkt awarii. Korzystając z kopii zapasowej na jednym urządzeniu, ryzykujesz utratę TYLKO kopii danych w celu pożaru, powodzi, kradzieży, eksplozji, awarii urządzenia itp. Pytanie brzmi zatem: czy starasz się zachować kopię zapasową godnym wydatkiem?

Aby osiągnąć cel, tzn. Wykonać kopię zapasową, na której można polegać, wymagana jest więcej niż jedna kopia zapasowa. Jeśli zamierzasz przechowywać dane na dysku twardym, twoja kopia zapasowa wymaga od czasu do czasu „odświeżenia”, aby przeciwdziałać długotrwałej degradacji danych związanej z dyskami twardymi. Gdybym nosił twoje buty, kupiłbym drugi dysk zapasowy podobny do oryginału i raz w roku kopiowałbym dane z dysku podstawowego na dysk dodatkowy. Pod koniec każdego roku odwróć proces i skopiuj dane z dysku dodatkowego z powrotem na dysk podstawowy. Spłucz i powtarzaj co roku. Jeden z dysków powinien pozostać poza siedzibą, z dala od lokalizacji, aby uniknąć utraty jedynej kopii danych w wyniku klęski żywiołowej.

John Littleton
źródło
Chociaż wszystko, co mówisz, jest prawdą, tylko ostatni akapit odpowiada na pytanie.
einpoklum
Czy jest coś, co możesz podać jako podstawę do odświeżenia i roczny okres?
fixer1234
1

Nie mogłem znaleźć żadnych wiarygodnych, popartych naukowo danych na ten temat. Ogólnie rzecz biorąc, istnieją dwa aspekty tego problemu:

  1. Zgnilizna bitów : różne efekty fizyczne mogą odwracać bity przechowywane w domenach magnetycznych przechowywanych na talerzach dysku twardego, niszcząc w ten sposób dane na dysku twardym. (dysk jest nadal w pełni funkcjonalny)
  2. Problemy mechaniczne : włączanie / wyłączanie napędu, obracanie lub zatrzymywanie talerzy, warunki przechowywania i naturalne starzenie mogą po pewnym czasie uniemożliwić korzystanie z napędu. (dane mogą być nadal nienaruszone i możliwe do odzyskania)

Bit rot jest omawiany w tym wątku od 2008 roku. Użytkownik arnaudk napisał:

Z tego, co mogę ustalić, wygląda na to, że zajęłoby to około 22 lat (szczegóły poniżej), abyś stracił swoje dane z powodu rozmagnesowania termicznego, gdyby dysk twardy po prostu siedział nieruchomo w temperaturze pokojowej w ciemnym kącie. W rzeczywistości czas ten będzie nieco krótszy z powodu wibracji mechanicznych i zewnętrznych pól magnetycznych powstających z powodu wszystkiego, od silnika samego dysku twardego po burze z piorunami oddalone o 50 km.

Dopuszczalne poziomy zaniku sygnału różnią się w zależności od projektu systemu, ale zwykle wynoszą od 10-20% [ref4], więc zajęłoby (-1/326000) * ln (0,8) = około 22 lat dla całej domeny bitowej, aby uzyskać 20% słabsze, powodując możliwą utratę danych wyłącznie z powodu efektów rozmagnesowania termicznego.

(bezpośredni link do posta)

To jedyne oszacowanie, jakie udało mi się znaleźć. Jeśli to prawda, możesz bezpiecznie przepisać cały dysk co 5 lat, aby „odświeżyć” dane.

Problemy mechaniczne są jeszcze bardziej tajemnicze. Backblaze to firma, która wykorzystuje tysiące twardych dysków klasy konsumenckiej w swoich centrach danych i regularnie publikuje aktualizacje dotyczące ich dobrego samopoczucia. Według ich szacunków po 4 latach wirowania 24/7 zmarł 20% dysków twardych, a jeśli trend się utrzyma, po 6 latach połowa z nich zniknie. Jest to mniej więcej zgodne z danymi z tego oficjalnego dokumentu Google . Nie jest to jednak standardowy przypadek użycia dysku twardego i trudno go porównać z dyskiem stojącym offline w pudełku. Nie znam żadnych badań, które dotyczyłyby tej sprawy.

Podsumowując, jeśli naprawdę zależy Ci na tych danych, powinieneś zachować dwie kopie tych danych i przenosić je na nowy, przetestowany pod kątem obciążenia dysk twardy co 5 lat. To powinno utrzymać domeny magnetyczne i sprzęt na stosunkowo świeżym poziomie, ale YMMV.

gronostaj
źródło
0

Wydłużenie żywotności dysku twardego jest jedną z kwestii, w których uzyskuje się najlepszy wynik, robiąc najmniej. Rozpakuj go, umieść na solidnej platformie, z dala od intensywnego ciepła, wilgoci, pyłu lub promieniowania, gdzie zapewniona jest wystarczająca cyrkulacja powietrza i najmniejsze prawdopodobieństwo przypadkowego rozbicia go przez dziecko. Możesz spodziewać się długiej żywotności dysku twardego, dopóki nie nadejdzie czas jego aktualizacji.

Być może trudno jest zaakceptować fakt, że jako konsument niewiele można zrobić (nawet nic), aby zwiększyć żywotność dysku twardego. Ale z pewnością istnieją sposoby na zwiększenie szansy na przeżycie danych: ReFS, RAID i kopie zapasowe.

Uwierz mi, branża pracuje nad poprawą długowieczności samych danych w przeciwieństwie do dysków twardych.


źródło
Ochrona przed uszkodzeniem to dobra rada. Czy jest coś, co można przytoczyć, aby potwierdzić twierdzenie, że niewiele da się zwiększyć długość życia?
fixer1234
-1

Z mojego doświadczenia wynika, że ​​częste przełączanie z trybu start / stop (tryb bezczynności / bieg) jest niekorzystne dla dysków twardych, lepiej jest, aby zawsze się obracały, jeśli ok, że będzie pobierać więcej prądu. (Testowano na wielu systemach z tymi samymi dyskami twardymi z tego samego sklepu, gdzie niektóre dyski twarde zawsze wymuszały wirowanie, a inne nie)

Na wszystkich serwerach uruchamiamy regularnie te „krótkie” testy SMART dziennie, aw weekendy „długie testy”, które przynajmniej mogą dać wyobrażenie o awarii dysku twardego. Jeśli korzystasz z ZFS, wystarczy regularne „czyszczenie” raz w miesiącu dla wersji HDD dla przedsiębiorstw i raz na 2 tygodnie dla dysku twardego klasy konsumenckiej.

Dobry, przyzwoity zasilacz jest również jednym z czynników zdrowego dysku twardego, a także zasilaczem UPS, który zapobiega przypadkowemu niespodziewanemu elektrycznemu przejściu na dysk twardy. (Zewnętrzne dyski twarde pobierają energię z komputera, więc dotyczy to również ich)

Wibracje / wstrząsy podczas pracy dysku twardego również nie są dla nich dobre. (Szczególnie ważne w przypadku przenośnych dysków twardych - nie należy ich przenosić podczas pracy)

Również wybór odpowiedniego modelu dla określonych zadań HDD (nadzór, NAS, komputer stacjonarny ...) jest sposobem na przedłużenie ich życia

Alex
źródło
1
Nie sądzę, żeby uruchamiał go w pudełku ...
Journeyman Geek
Właściwie to nie uruchamiam ... to tylko kopia zapasowa. Oczywiście nie uruchamiałbym go z pudełka :-) Z tego powodu rada dotycząca zasilacza UPS, wibracji itp. Nie ma znaczenia w moim przypadku (dotyczyłaby dysku, który jest stale / często używany)
einpoklum
Nie powiedziałbym, że UPS jest nieistotny. Nawet jeśli jest to zewnętrzny dysk zapasowy, nadal musi być zasilany, a na wypadek, gdyby coś się stało na liniach energetycznych, coś powinno chronić takie sytuacje.
Alex
Ci, którzy głosują w dół, proszę podać powód w komentarzach. To ciekawy temat, więc chciałbym usłyszeć, co jest nie tak. Twoja opinia przyniesie korzyści wszystkim.
Alex
-3

Ogólnie rzecz biorąc, jeśli jest to system Linux, wówczas nie jest wymagana żadna konserwacja. Systemy Windows wydają się tracić klastry znacznie częściej niż Linux. Z tego powodu chkdsk co 3-6mo jest mądry w systemie Windows.

Wszystkie części dysku twardego z tulejami i łożyskami ulegają pewnej niewspółosiowości po zużyciu po 5 lub więcej latach ciągłego użytkowania. Najlepszym sposobem, aby nie obudzić się z uszkodzoną partycją, jest ponowne formatowanie przynajmniej co 5 lat.

Ogólnie mam coś, co wymaga gruntownego przeglądu mojego systemu co kilka lat, więc ponownie sformatuj w tym czasie (pamiętaj, aby użyć pełnego ponownego formatowania z kontrolą błędów). Moja pamięć jest ogólnie na tyle dobra, że ​​po sformatowaniu odnotowuję spadek ilości miejsca na dysku; oznacza to awarię napędu. Jeśli dana osoba nie jest zaznajomiona ze swoim systemem, może prowadzić rejestr dokładnej liczby bajtów po sformatowaniu.

W pewnym momencie zostaną wykorzystane „dodatkowe” sektory (specjalnie do tego celu) i system zacznie oznaczać „normalne” obszary na dysku jako bezużyteczne - liczba bajtów spadnie. W tym momencie dysk powinien zostać zeskrobany - prawdopodobnie nastąpi już utrata danych. Jest to normalne w przypadku dysku twardego, który jest przechowywany 24 godziny na dobę przez 7–10 lat.

Jedynym sposobem na przedłużenie żywotności dysku jest ustawienie go w taki sposób, aby wyłączał się po kilku minutach bezczynności. Mam dysk 2 TB, którego używam jako główną kopię zapasową, i wyłączam go po 10 minutach nieużywania. Mogę przejść 30 dni bez dostępu do niego, więc pozostanie on wyłączony. Włączenie zasilania zajmuje 20 sekund i stanie się czytelne, jeśli zajdzie taka potrzeba.


Więc jeśli dyskusja ogranicza się do okresu przydatności, nigdy nie jest okresowo włączana; to są dobrze uwzględnione problemy środowiskowe zawarte w powyższym linku „Ile czasu do czasu, gdy nieużywany dysk twardy straci swoje dane?” Jedynym problemem, o którym nie wspominałem w tej dyskusji na temat niezasilanej elektroniki, jest trwałość kondensatora. Trwają dłużej dzięki okresowemu stosowaniu; w przeciwnym razie wyschną; jest to struktura elektrochemiczna kondensatora (i akumulatorów).

Ogólna zasada życia kondensatora wynosi 20 lat. Nazywa się to zasadą 20/20. Awaria kondensatora będzie najwyższa w pierwszych 20 minutach użytkowania, a następnie statystyczna awaria zostanie ponownie przekroczona po 20 latach użytkowania. Ale zawodzą znacznie wcześniej niż 20 lat, jeśli nie zostaną wykorzystane.

Najczęstszą (ogólnie mówiąc) awarią elementów elektronicznych są kondensatory. Kondensatory (elektrochemiczne), a następnie cewki indukcyjne i transformatory (elektromechaniczne) zużywają się, niezależnie od tego, czy są używane, czy nie.


Firma o nazwie Backblaze zebrała dane o awariach dysków twardych. Opublikowała te dane na blogach firmowych, podkreślając, które dyski producentów zawiodły częściej niż inne.

W ostatnim blogu opublikowano dane wskazujące dokładnie, które 5 atrybutów SMART wskazuje na zbliżającą się awarię dysku:

From experience, the following 5 SMART metrics indicate impending disk drive failure:

    SMART 5 – Reallocated_Sector_Count.
    SMART 187 – Reported_Uncorrectable_Errors.
    SMART 188 – Command_Timeout.
    SMART 197 – Current_Pending_Sector_Count.
    SMART 198 – Offline_Uncorrectable.

Możesz wybrać taki podzbiór, jak te sugerowane 5 statystyk, ponieważ są one spójne między producentami i są dobrymi predyktorami awarii.

Artykuł sugeruje:

SMART 5: Reallocated_Sector_Count 1-4 miej oko, więcej niż 4 zamień

SMART 187: Zgłoszony_Nieprawidłowy 1 lub więcej zamień

SMART 188: Command_Timeout 1-13 miej oko na to, ponad 13 zamień

SMART 197: Current_Pending_Sector_Count 1 lub więcej zamień

SMART 198: Offline_Nie można naprawić 1 lub więcej zamień

jwzumwalt
źródło
4
> Systemy Windows wydają się tracić klastry znacznie częściej niż Linux. Z tego powodu chkdsk co 3-6mo jest mądry w systemie Windows. [potrzebne źródło] - Nie słyszałem wcześniej takich rad. W każdym razie nie od 2007 roku. Jest to raczej ortogonalne pytanie, które najczęściej dotyczy sprzętu w wyłączonej pamięci - sprzętu, który tak naprawdę nie obchodzi, jakiego systemu plików używasz.
Bob
1
Używanie dowolnego rodzaju „złego sektora” na poziomie systemu plików do sprawdzania kondycji dysku jest ... dziwne. Po to istnieje SMART. Który przypadkowo zgłasza zarówno liczbę realokowanych sektorów, jak i liczbę oczekujących sektorów [realokacja] (a jeśli którykolwiek z nich ma wartość inną niż 0, czas wymienić dysk).
Bob
1
Ta odpowiedź, mimo że może zawierać przydatne informacje (jeśli coś więcej niż przypuszczenie), nie odpowiada jasnym wymaganiom przedstawionym w pytaniu, które dotyczyło konkretnie dbałości i konserwacji zapewniającej maksymalną prawdopodobną żywotność wyłączanego sprzętu.
music2myear
1
@jwzumwalt Nie uważam (nie) istnienia wbudowanego narzędzia za szczególnie ważne - dane tam są, sprzęt i oprogramowanie układowe je obsługują i jest dostępne dla oprogramowania, np. CrystalDiskInfo. (A jeśli próbujesz porównać systemy operacyjne, nie ma wbudowanego / wstępnie zainstalowanego narzędzia na wielu dstrosach Linuksa, w tym na Debianie.) SMART jest bardzo standardowym w branży sposobem wykrywania zbliżającej się awarii dysku (choć, mówiąc szczerze, , w większym środowisku korporacyjnym są równie prawdopodobne, że zawiodą i zastąpią po tym faktyczną redundancję).
Bob
1
Jaki „system Linux” lub „system Windows”? Co nosić? Myślę, że mówisz o dyskach używanych w działającym systemie, a nie odpowiadasz na moje pytanie.
einpoklum