Jak wykonać kopię zapasową serwera pamięci?

14

Zastanawiam się nad wdrożeniem bardzo dużego serwera pamięci masowej, który będzie używany jako żywy NAS dla kilku innych serwerów (wszystkie oparte na systemie Linux).

Przez bardzo dużą mam na myśli między 4 TB a 20 TB przestrzeni użytkowej (chociaż jest mało prawdopodobne, że faktycznie uzyskamy 20 TB).

Serwer pamięci będzie RAID 10 dla bezpieczeństwa danych i wydajności, ale nadal będziemy potrzebować rozwiązania do tworzenia kopii zapasowych, w tym tworzenia kopii zapasowych poza siedzibą.

Moje pytanie brzmi: Jak wykonać kopię zapasową tylu danych !?

To nie tak, że mogę po prostu podłączyć przenośny dysk twardy i przesłać pliki. Obecnie nie mamy innych urządzeń z tak dużą przestrzenią dyskową.

Czy muszę przeznaczyć budżet na drugi, zewnętrzny serwer pamięci, czy jest lepsze rozwiązanie?

Andrew Ensley
źródło
5
Zostawię swój zwykły komentarz, mówiąc, że wsparcie jest offline. Naprawdę denerwuję się, że system tworzenia kopii zapasowych jest cały czas „na żywo i online”. Jeśli osoba atakująca może uzyskać dostęp do systemu produkcyjnego i kopii zapasowych, może zniszczyć kopie zapasowe zaraz po zakończeniu usuwania systemu produkcyjnego.
Evan Anderson
@Evan Wolę mieć oba, przywracanie z taśmy może zająć wiele godzin, ale przywracanie z dysku lokalnego lub podłączonego bezpośrednio można wykonać w kilka minut.
Tom O'Connor,
@ Tim O'Connor: D2D2T jest świetny, kiedy możesz go zdobyć. Pamiętaj, że przywracanie pojedynczych elementów z dysku lub taśmy może być bardzo szybkie. Tworzenie kopii zapasowych na dyskach ma reputację szybkiego przywracania, ale większość ludzi myśli, że „uzyskują dostęp do danych bezpośrednio z nośnika B2D”, a nie „przywracają”, kiedy to mówią. Jeśli musisz przywrócić kilka TB danych z systemu tworzenia kopii zapasowych opartego na dysku, aby, powiedzmy, zamienną sieć SAN po tym, jak twoje zostały spalone w pożarze, nie będzie „minut” na skopiowanie tych danych. Dysk i taśma wysokiej klasy pod względem prędkości przesyłania danych są bardzo podobne.
Evan Anderson

Odpowiedzi:

13

Istnieje wiele sposobów przetwarzania danych o takiej wielkości. Wiele zależy od środowiska i ilości gotówki, którą chcesz wydać. Zasadniczo istnieje kilka ogólnych strategii „usuń dane z serwera”:

  • Przez Ethernet Jak napisano na pudełku, dane są przesyłane strumieniowo do Some Where Else w celu obsługi. Kopiowanie ponad 1 GbE zajmuje 20 TB, ale można to zrobić. Pomocny może być sprzęt (taki jak łącza 10GbE lub w niektórych przypadkach łączenie NIC).
  • Przez podsystem Storage Jeśli korzystasz z Fibre Channel, wyślij go do innego urządzenia w sieci FC. Jeśli masz SAS, wyślij go na urządzenie podłączone do SAS. Generalnie szybszy niż Ethernet.
  • Wyślij do innej macierzy dyskowej Wyślij do innej części magazynu podłączonej do tego samego serwera.

To widok 100 km. Gdy zaczniesz powiększać, fragmentacja stanie się znacznie bardziej fragmentaryczna. Jak już wspomniano, LTO5 jest specyficzną technologią taśm zaprojektowaną do tego rodzaju obciążeń o dużej gęstości. Inna identyczna tablica pamięci jest dobrym celem, szczególnie jeśli możesz użyć czegoś takiego jak GlusterFS lub DRBD, aby uzyskać tam dane. Ponadto, jeśli potrzebujesz rotacji kopii zapasowej lub po prostu możliwości kontynuowania działania na wypadek awarii macierzy, wpłynie to na to, co umieścisz.

Gdy już zdecydujesz się na metodę widoku 100 km, przejście do oprogramowania będzie kolejnym dużym zadaniem. Czynniki mające na to wpływ, to przede wszystkim to, co można zainstalować na serwerze pamięci masowej (jeśli jest to NetApp, to jedno, serwer Linux z dużą ilością pamięci to zupełnie inna sprawa, podobnie jak serwer Windows z dużą ilością pamięci) , jaki sprzęt wybierzesz (na przykład nie wszystkie pakiety kopii zapasowych FOSS dobrze obsługują biblioteki taśm) i jakiego rodzaju przechowywania kopii zapasowych potrzebujesz.

Naprawdę musisz dowiedzieć się, jakiego rodzaju odzyskiwania po awarii chcesz. Prosta replikacja na żywo jest łatwiejsza, ale nie pozwala przywracać danych tylko z zeszłego tygodnia. Jeśli zdolność przywracania z ostatniego tygodnia jest dla Ciebie ważna, musisz zaprojektować coś takiego. Zgodnie z prawem (w USA i gdzie indziej) niektóre dane muszą być przechowywane przez 7+ lat.

Prosta replikacja jest najłatwiejsza do zrobienia. Właśnie do tego przeznaczony jest DRBD. Po wykonaniu wstępnej kopii, po prostu wysyła zmiany. Czynnikami komplikującymi są tutaj lokalizacja sieci, jeśli druga tablica nie znajduje się w pobliżu podstawowego DRBD, może nie być wykonalna. Będziesz potrzebował drugiego serwera pamięci z co najmniej taką samą ilością miejsca jak pierwszy.


Informacje o kopii zapasowej na taśmie ...

LTO5 może pomieścić 1,5 TB danych bez kompresji. Karmienie tych potworów wymaga bardzo szybkiego połączenia sieciowego, którym jest Fibre Channel lub 6 Gb SAS. Ponieważ musisz wykonać kopię zapasową ponad 1,5 TB w jednym uderzeniu, musisz zajrzeć do autoloaderów (oto przykład: link , 24-slotowy autoloader z 1 napędem od HP). Dzięki oprogramowaniu, które je obsługuje, poradzą sobie ze zmianą taśm w trakcie tworzenia kopii zapasowej. Oni są wspaniali. Nadal będziesz musiał wyciągać taśmy, aby wysłać je poza witrynę, ale to cholerny widok lepszy niż kręcenie się przez całą noc, aby samemu ładować taśmy, gdy wymaga ich kopia zapasowa.

Jeśli taśma daje ci „ starsze, nowe ” heebiegeebies, wirtualna biblioteka taśm może być większa niż twoja prędkość (na przykład ta z Quantum: link ). Udają, że są bibliotekami taśmowymi do tworzenia kopii zapasowych oprogramowania, a jednocześnie przechowują rzeczy na dysku za pomocą solidnych (masz nadzieję) technik usuwania duplikatów. Bardziej wymyślni skopiują nawet wirtualne taśmy do prawdziwych taśm, jeśli podoba ci się to, co może być bardzo przydatne w przypadku rotacji poza witryną.


Jeśli nie chcesz się pieprzyć nawet z wirtualnymi taśmami, ale nadal chcesz wykonywać kopie zapasowe bezpośrednio na dysk, potrzebujesz tablicy pamięci wystarczająco dużej, aby poradzić sobie z tym 20 TB, a także dowolną ilością danych o zmianie sieci trzymać. Różne pakiety kopii zapasowych radzą sobie z tym inaczej. Niektóre technologie usuwania duplikatów są naprawdę fajne, inne to hacky kludges. Osobiście nie znam stanu pakietów oprogramowania do tworzenia kopii zapasowych FOSS w tym obszarze (słyszałem o Baculi), ale mogą one być wystarczające. Wiele komercyjnych pakietów kopii zapasowych ma lokalnych agentów instalowanych na serwerach, których kopie zapasowe mają być tworzone w celu zwiększenia przepustowości, co ma wiele zalet.

sysadmin1138
źródło
Dziękuję za długą i przemyślaną odpowiedź. Dałeś mi wiele do przemyślenia :-p
Andrew Ensley,
9

Szafa grająca LTO-5? potrzebujesz od trzech do 15 taśm, aby poprzeć tę tablicę, co nie jest szalenie dużą liczbą. Szafa grająca zajmie się zmianą taśm, a dobre oprogramowanie do tworzenia kopii zapasowych (np. Bacula) będzie śledzić, które pliki znajdują się na której taśmie.

Warto również wziąć pod uwagę czas potrzebny do utworzenia kopii zapasowej systemu plików tak duży, ponieważ jest bardzo prawdopodobne, że FS zmieni się w tym okresie. W celu uzyskania najlepszych rezultatów bardzo pomocny byłby system plików obsługujący migawki, dzięki czemu można wykonać natychmiastową migawkę i wykonać pełne lub przyrostowe kopie zapasowe w tym przypadku, zamiast w systemie plików na żywo.

Szalony Kapelusznik
źródło
1
Nie znam systemów taśmowych. Zgaduję, że nie ma sposobu na tworzenie przyrostowych kopii zapasowych. Czy nie zajęłoby to również kilku godzin i wymagałoby ręcznej wymiany napędów taśm jeden po drugim? To nie byłoby idealne, ponieważ miałbym taki czas tylko raz w miesiącu, a tak naprawdę nie chcemy ryzykować danych z miesiąca. Czy coś pomijam, czy są to tylko zaakceptowane niedogodności / zagrożenia / ograniczenia systemów tworzenia kopii zapasowych na taśmach?
Andrew Ensley,
4
Nowoczesne systemy tworzenia kopii zapasowych na taśmach są wysoce zautomatyzowane i zrobotyzowane :)
phoebus
3
Tak, kopie zapasowe taśm zwykle umożliwiają tworzenie przyrostowych kopii zapasowych. Dobrą strategią tworzenia kopii zapasowych jest wykonywanie pełnych kopii zapasowych (długie, wolne, wiele taśm) co miesiąc lub dwa razy w roku oraz wykonywanie codziennych kopii przyrostowych lub różnicowych pomiędzy nimi.
Brent,
Roboty taśmowe mają rozsądną cenę i mogą pomieścić wiele taśm. Jeśli chodzi o tworzenie kopii zapasowych, dlaczego nie byłoby sposobu na tworzenie przyrostowych? Wreszcie większość osób uruchamia tworzenie kopii zapasowej w godzinach wolnych. Jeśli ich nie masz, to ważna część specyfikacji.
Slartibartfast
Tak, naprawdę nie mamy wolnych godzin. Mamy godziny, w których bardziej akceptowalnym byłoby niedostępność systemu (np. 4 rano w sobotę rano), ale potencjalnie setki użytkowników będą korzystać z zagrożonych systemów 24 godziny na dobę, 7 dni w tygodniu.
Andrew Ensley,
5

Prawdopodobnie powinieneś rozważyć tworzenie kopii zapasowej na dysku , ponieważ taśma zajmie dużo czasu, a ponieważ dostęp sekwencyjny, przywracanie potrwa wieczność.

Zdecydowanie skorzystaj z różnicowych lub przyrostowych kopii zapasowych - tylko tworzenie kopii zapasowych zmian, na dowolnej częstotliwości, która ma dla Ciebie sens.

Prawdopodobnie idealnym rozwiązaniem byłby drugi serwer o podobnej wielkości w innym miejscu , w którym przyrostowe kopie zapasowe są regularnie wysyłane, i które mogłyby zostać szybko zamienione, gdyby główny serwer kiedykolwiek zmarł. Jednak inną opcją byłoby użycie dysków wymiennych na miejscu, które są następnie zabrane poza miejsce przechowywania.

Gdy masz do czynienia z tak dużą ilością danych, sensowne jest również rozbicie kopii zapasowych na mniejsze zadania tworzenia kopii zapasowych, a jeśli nie można ich codziennie tworzyć, ustaw kolejność tworzenia kopii zapasowych, aby zestaw A był tworzony przez jeden dzień i ustaw B następny.

Zawsze myśl o procedurze przywracania . Utknęliśmy raz, gdy musieliśmy przywrócić plik z kilkuset gigabitowego zadania tworzenia kopii zapasowych, co wymagało dużo pamięci i dużo czasu na odbudowanie indeksu kopii zapasowych i przywrócenie. Ostatecznie nie mogliśmy go ukończyć w ciągu jednego dnia i musieliśmy zbudować dedykowany serwer przywracania, aby nasz główny serwer kopii zapasowych mógł kontynuować swoje nocne zadania!

--dodany--

Chcesz również pomyśleć o technologiach deduplikacji , które mogą zaoszczędzić ogromne ilości miejsca, nie tworząc kopii zapasowych tych samych informacji wiele razy dla wielu użytkowników. Wiele rozwiązań do tworzenia kopii zapasowych lub systemów plików oferuje deduplikację w ramach swojej funkcjonalności.

Brent
źródło
+1 dla thinking about the restore procedure. Amen!
Steven poniedziałek
Wiele świetnych wskazówek. Dzięki. Mam dużo do myślenia.
Andrew Ensley,
2
Chciałbym głosować, ale nie widzę wspomnianej taśmy. Taśma najprawdopodobniej będzie istotną częścią systemu tworzenia kopii zapasowych dla takiej ilości danych, jeśli potrzebne będzie jakiekolwiek znaczące okno przechowywania w połączeniu z pamięcią zewnętrzną. Koszt wkładów LTO-5 do długoterminowego przechowywania poza siedzibą, w porównaniu do wymiennych dysków twardych, czyni je bardzo atrakcyjnymi. Kasety z taśmą są również przeznaczone do przechowywania w archiwach, podczas gdy wymienne dyski twarde zazwyczaj nie są.
Evan Anderson
@Evan: Mówiąc szczerze, wspominał o taśmach w pierwszym zdaniu.
Andrew Ensley,
2

Najpierw wylicz ryzyko, przed którym chronisz. Niektóre typowe zagrożenia:

  • Katastrofa: Coś bardzo niefortunnego dzieje się w całej witrynie.
  • Błędy ludzkie (to ten, który zdarza się _wszystko_godzina_):
    • Ktoś decyduje się na korzystanie z możliwości „wymiany podczas pracy” serwera pamięci w sposób niezamierzony przez producenta.
    • Ktoś uruchamia proces, który dyskretnie uszkadza dane, których tworzenie kopii zapasowej odbywa się niezawodnie przez kilka miesięcy, zanim problem zostanie zauważony.
    • Ktoś usuwa ważny raport, który ma nastąpić za godzinę i jest wart tysiące dolarów.

Następnie oceń koszt różnych rozwiązań unikania ryzyka, np .:

  • Zewnętrzna kopia zapasowa on-line (zdalne dublowanie): Zabezpieczona przed katastrofą, niektórymi (ale nie wszystkimi) błędami ludzkimi (wciąż jest on-line).
  • Zewnętrzne miejsce przechowywania poza siecią (taśmy): Zabezpieczone przed katastrofą, trudne do szybkiego odzyskania danych.
  • Kopie zapasowe online na miejscu (kopia lustrzana): Zabezpieczone przed jakimś błędem ludzkim, awarią sprzętu, podatne na katastrofę.
  • Kopie zapasowe offline na miejscu (taśmy w zmieniaczu taśm): Bezpieczne od większości błędów ludzkich, większości awarii sprzętu.

Następnie oceń strategie rotacji (jak daleko chcesz być w stanie odzyskać, ile danych możesz stracić).

Następnie wybierz, jakie są twoje dane.

Slartibartfast
źródło
Niezły podział. Przeważnie już to oceniłem i wylądowałem w zewnętrznej opcji tworzenia kopii zapasowych online. Celem kopii zapasowej jest przede wszystkim ochrona przed katastrofą oprócz oczywistego błędu ludzkiego. Stojak znajduje się w odległości 2 mil od wybrzeża zatoki, więc huragany są problemem. Będziemy musieli zrobić wszystko, co w naszej mocy, aby chronić się przed ludzkimi błędami dzięki częstym kontrolom integralności. Twoja odpowiedź pomogła mi poczuć się lepiej z tym wnioskiem. Dzięki.
Andrew Ensley,
Cieszę się że mogłem pomóc. Kilka uwag dotyczących wybranego przez Ciebie rozwiązania: może to być oczywiste, ale witryna zapasowa powinna być prawdopodobnie w innym stanie lub w miejscu dobrze chronionym przed huraganami, którym jesteś narażony. Możesz złagodzić obawy związane z korupcją, mając długi „ogon” (kopie zapasowe z wielu dat w przeszłości). Korzystając z kopii zapasowej online, należy również wziąć pod uwagę niebezpieczeństwo przypadkowego usunięcia danych zamiast ich przywracania. Na koniec zawsze testuj proces przywracania.
Slartibartfast
2

Mam klienta z dwoma podobnymi systemami 12 TB w dwóch różnych budynkach, podłączonymi do 1 GB. Jednym z nich jest system produkcji; kopia zapasowa jest tworzona stopniowo (z codziennymi migawkami) przy pomocy doskonałego narzędzia rdiff-backup . rdiff-backup musi być dostępny w standardowym repozytorium dystrybucyjnym.

wazoox
źródło
1

Zewnętrzna kopia zapasowa on-line (zdalne kopiowanie)

użyj rsync chociaż ssh (tylko zmiany) - pierwsza kopia zapasowa musi być wykonana lokalnie, ale potem kopia zapasowa będzie prosta w zależności od zmian

jeśli chcesz zachować wersje ze zmianami - rdiff-backup

http://www.nongnu.org/rdiff-backup/

System plików btrfs w systemie Linux brzmi obiecująco, ale wciąż intensywnie się rozwija

strumień
źródło
Dzięki za skierowanie mnie w stronę rdiff. Korzystam już z rsync i wygląda to na idealny krok do przodu.
Andrew Ensley,
1

Spójrz na swoją „treść” i jak często się zmienia przed zaplanowaniem strategii. Wiele razy ludzie po prostu przesyłają te same dane, aby co tydzień nagrywać bez powodu.

Technologie deduplikacji od niektórych dostawców mogą umożliwiać migawki, aby uchronić Cię przed przywracaniem pojedynczych plików, ale zawsze będziesz potrzebować ochrony zewnętrznej.

SpacemanSpiff
źródło
System będzie używany przez tysiące, być może dziesiątki tysięcy codziennych użytkowników, wprowadzających formularze i aktualizujących informacje. To bardzo dynamiczne dane. Powinienem był o tym wspomnieć w pytaniu.
Andrew Ensley,
Gdybym to był ja, zaprojektowałbym system z wystarczającymi możliwościami narzutu lub migawek, że nie musiałbym chodzić do prawdziwych kopii zapasowych, chyba że byłaby to katastrofa.
SpacemanSpiff
Zgadzam się. Jak powiedziałem wcześniej, dyski będą w RAID 10, więc jesteśmy objęci ubezpieczeniem na wypadek awarii dysku twardego, a także będę mieć lokalne kopie zapasowe / migawki. Kopia zapasowa poza siedzibą jest przeznaczona dla najgorszego scenariusza, takiego jak uderzenie meteoru w kolokację lub przypadkowe uruchomienie rm -rf / * na serwerze pamięci.
Andrew Ensley,
Miałem na myśli koszty ogólne w odniesieniu do pojemności. Oczywiście RAID10 jest sprytny dla najlepszej redundancji, ale wziąłbym RAID6, jeśli wydajność nie była tak wymagająca i gdybym mógł wykorzystać dodatkową przestrzeń na więcej obszaru migawek. Im więcej migawek możesz sobie pozwolić, tym mniej będziesz potrzebować „kopii zapasowej” do przywracania plików.
SpacemanSpiff