Architektura tła / środowiska:
Moje obecne środowisko $corp_overlords$
jest skonfigurowane w modelu hub-and-speak z dobrze wyposażonym technologicznie hubem domowego biura (SAN, klaster bladecenter / bladesystem ESXi, światłowodowe połączenie internetowe itp.) Podłączonym do wielu zdalnych szprych witryny, które są nie tak dobrze i zwykle zawiera pojedynczy serwer hosta ESXi i łączy się z koncentratorem biura domowego za pośrednictwem T1. Cały ruch pochodzący z dowolnej zdalnej lokalizacji kieruje z powrotem do domowego biura przez „sieć MPLS” (która jest tak naprawdę tylko T1 łączącym zdalną stronę z domowym biurem).
W biurze domowym w sieci SAN mamy wiele szablonów maszyn wirtualnych, które utworzyłem w celu wdrażania maszyn wirtualnych. Są one przechowywane w wolumenie NFS, czyli magazynie danych vSphere, dołączonym do obiektu centrum danych biura domowego w ramach vSphere.
Każda zdalna witryna ma odpowiedni obiekt centrum danych vSphere, zawierający obiekt magazynu danych, który jest podłączony do lokalnie podłączonej pamięci na serwerze hosta ESXi fizycznie zlokalizowanej w zdalnej witrynie.
Ponieważ te szablony maszyn wirtualnych istnieją w woluminie NFS, zajmują ~ 40 GiB (cienkie przydzielanie). Jako pliki w systemie plików NTFS (lub Linux FS) zajmują ~ 100 GiB.
Pytanie:
Jak mam skopiować te 40 GiB danych cienko alokowanych (które zajmują 100 GiB przestrzeni systemu plików) między moimi witrynami?
Mam ograniczenia, które mam na to około 5 dni i nie mogę (zauważalnie) zakłócać „normalnego ruchu sieciowego”.
źródło
Odpowiedzi:
Co powiesz na użycie ovftool do kopiowania szablonów bezpośrednio między hostami?
Użyłem tego wcześniej dla maszyn wirtualnych i działa całkiem dobrze. Nie jestem pewien, czy to również działa w przypadku szablonów, ale jeśli nie, możesz po prostu tymczasowo ukryć szablony na maszynach wirtualnych w celu ich skopiowania.
Instrukcje, z przykładem są tutaj .
Możesz również użyć ovftool do konwersji szablonów na
.ovf
pakiety, które powinny być bardzo kompaktowe, a następnie przenieś pakiety między centrami danych za pomocą BITS lub FTP lub SCP lub dowolnego protokołu, który chcesz.źródło
.ovf
pakiety spowodowała, że każdy miał po kilka GB, które mogłem łatwo przenosić między stronami za pomocą BITS.Opcje:
Z tego, co widzę, mam trzy możliwe podejścia, ale mam nadzieję, że brakuje mi lepszego, na które ktoś mógłby mnie tutaj wskazać. (Idealnie taki, w którym przenoszę tylko 40 GiB rzeczywistych danych i można go wznowić metodą „tła” lub ograniczania prędkości.)
ProbationBonus: PowerShell Remoting pozwala to zrobić za pomocą jednego polecenia.źródło
Oto nieco interesujący pomysł dla Ciebie. To nie pomoże w początkowym zaszczepieniu, ale zastanawiam się, czy użycie czegoś takiego jak darmowy produkt Crashplan pomógłby ci w twoich szablonach.
https://www.code42.com/store/
Robi różnicę poziomów deduplikacji i bloków, więc można ją zainstalować na jednym lokalnym serwerze w centrali jako „seeder”, a na każdym serwerze mówionym (jak sądzę w maszynie wirtualnej) jako „odbiornik”. Skonfiguruj kopie zapasowe, aby zawierały tylko folder, w którym szablony będą przechowywane na serwerze HQ. Może także tworzyć kopie zapasowe do wielu miejsc docelowych (takich jak każdy „przemówiony”) https://support.code42.com/CrashPlan/Latest/Getting_Started/Choosing_Destinations
Kroki (po skonfigurowaniu aplikacji Crashplan po każdej stronie) będą działać w następujący sposób:
Pomysł ... może być interesującą drogą do zaryzykowania i sprawdzenia, czy działa ona jako replikacja deduplikacji / bloków biedaka dla tylko tych plików.
źródło
Zrobiłem tego rodzaju ruch na wiele sposobów, ale biorąc pod uwagę to, co opisałeś ...
FedEx lub UPS z niespodzianką ...
Wiem, że używane serwery to HP ProLiant i Dell PowerEdge. VMware nie ma dobrego wsparcia dla urządzeń wymiennych (np. USB) jako celów magazynów danych. Jednak użycie jednego dysku logicznego RAID 0 (w HP-speak) w głównej witrynie może działać. Możesz dodawać i usuwać lokalnie podłączone dyski w systemach HP i Dell i używać ich jako środka transportu magazynów danych.
Będąc szablonami, możesz przenosić / kopiować je na dysk lokalny za pomocą vCenter. Wyślij dyski. Włóż do odbierającego autonomicznego serwera. Tablica i magazyn danych zostaną rozpoznane przez ponowne skanowanie systemu pamięci masowej. Skopiuj dane. Zysk.
Użyłem tego również jako narzędzia do inicjowania kopii do replikacji vSphere, ponieważ 24 godziny delt są o wiele łatwiejsze do zarządzania niż wielokrotne pełne synchronizacje.
źródło
Jest to metoda, której dość często używam w tego rodzaju scenariuszach. Wydaje się to sprzeczne z intuicją, ponieważ przesyłasz pliki z maszyny wirtualnej przechowywanej w magazynie danych do samego magazynu danych. Daje to jednak o wiele większą kontrolę nad sposobem realizacji transferu.
Plusy:
Dzieląc szablon na mniejsze części, zmniejszasz ryzyko uszkodzenia danych podczas transferu. (Jeśli plik ulegnie uszkodzeniu, wystarczy ponownie przesłać ten fragment pliku RAR, a nie cały plik 40 GB).
Przesyłasz tylko 40 GB (prawdopodobnie mniej, ponieważ RAR'ing będzie kompresował dalej).
Dostajesz wybór narzędzi do przesyłania podczas wykonywania transferu w wybranym systemie operacyjnym.
Cons:
Musisz utworzyć maszynę wirtualną pomostową. Ułatwiam to, mając wstępnie utworzony szablon o wielkości <1 GB, który zawiera tylko instalację systemu operacyjnego + serwer SFTP.
Kompresowanie / dekompresowanie szablonu 40 GB zajmie około 4-6 godzin, w zależności od zasobów procesora.
źródło
Z tym samym problemem poradziłem sobie już kilka razy i mniej więcej w połowie przypadków odkrywam, że znacznie lepiej jest zbudować nowe maszyny w zdalnej lokalizacji. Jest to szczególnie prawdziwe w przypadku maszyn, które nazywam „szablonami”. Moja wersja tego jest dość prostą maszyną. Twoja wersja może być trochę inna.
źródło