VMware i wielu ewangelistów sieciowych próbuje powiedzieć, że wyrafinowane (= drogie) światłowodowe sieci SAN są „jedyną” opcją przechowywania dla serwerów VMware ESX i ESXi. No tak, oczywiście. Korzystanie z SAN jest szybkie, niezawodne i umożliwia vMotion. Świetny. Ale: czy wszyscy użytkownicy ESX / ESXi naprawdę mogą sobie pozwolić na SAN?
Moja teoria jest taka, że mniej niż 20% wszystkich instalacji VMware ESX na tej planecie faktycznie korzysta z sieci SAN Fibre lub iSCS. Większość tych instalacji będzie w większych firmach, które mogą sobie na to pozwolić. Przewiduję, że większość instalacji VMware korzysta z „dołączonej pamięci” (vmdks są przechowywane na dyskach wewnątrz serwera). Większość z nich działa w MŚP i jest ich tak wiele!
Obsługujemy dwa serwery ESX 3.5 z dołączoną pamięcią i dwa serwery ESX 4 z san iSCS. A „prawdziwa różnica na żywo” między nimi jest ledwo zauważalna :-)
Czy znasz jakieś oficjalne statystyki dotyczące tego pytania? Czego używasz jako nośnika pamięci?
źródło
Odpowiedzi:
Robię dużo pracy konsultingowej VMware i powiedziałbym, że odsetek ten jest bliższy 80% zainstalowanej podstawowej pamięci współdzielonej o wysokiej dostępności (FC, iSCSI lub wysokiej klasy NAS), a wielu moich klientów to MŚP. Kluczowym czynnikiem, który znalazłem, jest to, czy firma traktuje czas działania serwera jako krytyczny, czy nie, dla większości dzisiejszych firm.
Z pewnością możesz uruchomić bardzo wydajne maszyny wirtualne z bezpośrednio podłączonej pamięci masowej (HP DL380 G6 z 16 dyskami wewnętrznymi w macierzy RAID 10 miałby dość szybkie operacje we / wy dysku), ale jeśli budujesz VMware lub inne zwirtualizowane środowisko, aby zastąpić dziesiątki, setki lub tysiące serwerów, jesteś szalony, jeśli nie wkładasz dużo wysiłku (i prawdopodobnie pieniędzy) w solidną architekturę pamięci masowej.
Nie musisz kupować wysokiej klasy sieci SAN dla funkcji klastrowania - możesz je zaimplementować za pomocą dość taniego serwera NAS (lub zwirtualizowanej sieci SAN, takiej jak VSA HP \ Lefthand) i nadal korzystać z certyfikowanej pamięci masowej. Jeśli jednak korzystasz z pamięci współdzielonej i nie ma ona nadmiarowości we wszystkich punktach infrastruktury SAN \ NAS, to nie powinieneś używać jej więcej niż do testowania. Nadmiarowość to (co najmniej) podwójne (niezależne) karty HBA \ NIC pamięci masowej na serwerach, podwójne niezależne sieci, nadmiarowe kontrolery w sieci SAN, pamięć podręczna podtrzymywana bateryjnie \ destrukcja pamięci podręcznej, nadmiarowe wentylatory wymienialne podczas pracy i zasilacze itp., RAID 5 \ 6 \ 10 \ 50 i odpowiednią liczbę części zamiennych.
Rzeczywista różnica między Twoimi systemami polega na tym, że jeśli jeden z autonomicznych systemów ulegnie katastrofalnej awarii, musisz wiele pracy zrobić, aby go odzyskać, i będziesz musiał przestać go utrzymywać. W przypadku klastrowych systemów podłączonych do sieci SAN łatanie hiperwizorów, a nawet modernizacja sprzętu hiperwizora powinno skutkować zerowym przestojem. Katastrofalna awaria serwera po prostu obniża czas usługi do ponownego uruchomienia maszyny wirtualnej na oddzielnym węźle (w najgorszym przypadku) lub jeśli tolerancja błędów obejmuje te maszyny wirtualne, nie ma w ogóle przestoju.
źródło
Jako firma mamy ponad tysiąc hostów, zaczęliśmy od FC, próbowaliśmy przez jakiś czas iSCSI, ale wycofaliśmy się do FC z powodu problemów z wydajnością. Patrzymy poważnie na NFS, ale nie mamy jeszcze żadnych wniosków. Aha, używamy HP XP / EVA i niektórych NetApp, nie mamy lokalnych hostów na pasku pamięci / hostów.
źródło
Jak widać, nie ma jednego uniwersalnego rozmiaru i nie musi to dotyczyć jednego rozwiązania pamięci masowej. Możesz mieć wiele klas pamięci w zależności od wymagań dostępności i wydajności
źródło
W przypadku zapisów i odczytów o wysokiej wydajności uważam, że FC nie ma sobie równych pod względem wydajności, a podczas gdy cena jest wysoka ... To po prostu działa ... w przypadku bardziej przyziemnych oczekiwań dotyczących wydajności iSCSI faktycznie osiągnęło całkiem dobrą wydajność, więc zwykle mam wymienia pliki skrzynki pocztowej serwera w podsystemie dysku FC i rzeczywiste dyski rozruchowe na dysku interfejsu iSCSI, przy czym serwery DNS i maszyny Active Directory również działają z iSCSI.
źródło
Uruchomiłem ESX z SAN, NAS i DAS. Zależy to całkowicie od:
Jeśli chodzi o niezawodność i szybkość, nie sądzę, że możesz pokonać SAN.
Dla niezawodności i kosztów wybrałbym NAS.
A jeśli chodzi o szybkość i koszty, DAS.
Nie chodzi o to, że poszczególne opcje się nie pokrywają, ale są to mocne strony, których byłem świadkiem.
źródło
Obsługujemy 4 serwery ESX 4 i używamy sieci SAN EqualLogic iSCSI.
źródło
W mniejszych instalacjach lokalna pamięć masowa jest całkowicie akceptowalna, o ile masz przyzwoite dyski - powiedziałbym, że 10k RPM + dyski SAS. Jedynym rozwiązaniem, w którym MUSISZ użyć dysku udostępnionego (celowo nie powiedziałem san, ponieważ dysk udostępniony może być wyłączony, a udział NFS) jest, gdy potrzebujesz klastrowania - VMWare HA i DRS.
W tej chwili mamy 3 poziomy pamięci - SAN FibreChannel, SAN wysokiej klasy Equalogix i SAN niskiej klasy MD3000i. Dwa ostatnie to iSCSI. Obsługujemy również niektóre serwery poza lokalną pamięcią serwerów ESX - głównie serwery narzędziowe, które nie dbają o to, czy są wyłączone przez godzinę lub dwie, podczas gdy my naprawiamy wszystko, jeśli wszystko rozkwita w pudełku.
Uruchamiamy również nasze środowisko testowe z wbudowanego NAS z dyskami SATA 7,2 tys. I celem korporacyjnym iSCSI (wydajność nie jest aż tak dobra, ale nam to pomaga).
Dużo ludzi ma tendencję do ucieczki przed udziałami NFS w większych środowiskach. Od jakiegoś czasu chciałem się tym bawić, ale nie miałem czasu.
źródło
Obsługujemy cztery (no, cztery na żywo, jeden do testowania) hosty ESXi z tkaniną iSCSI zbudowaną z przełączników towarowych oraz niskiej klasy Hitachi SAN - SMS-100.
Nawet na tym poziomie mamy podwójne kontrolery, każdy z podwójnymi portami na płycie montażowej SAS, dzięki czemu każdy kontroler może przejąć dyski, a także podwójne karty sieciowe - które przecinamy drutem do podwójnych przełączników i podwójnych kart sieciowych w hostach ESX.
Każdy z tomów VFS ma cztery widoczne ścieżki, więc jest dość tolerancyjny. Używamy przełączania zasilania Dell dla sieci - na pewno mają potencjalne problemy (przynajmniej nie ma zbędnych zasilaczy) ... ale są też na tyle tanie, że posiadanie dwóch wstępnie skonfigurowanych części zamiennych w pudełku gotowym do wymiany staje się realną możliwością.
oczywiście, jeśli chcesz więcej dziewiątek, musisz wydać więcej pieniędzy, ale myślę, że piękno iSCSI, ESXi i towarowego gigabitowego zestawu Ethernet polega na tym, że możesz przewyższyć swoją wagę pod względem odporności i wydajności.
źródło
Wszystko ma swoje zalety i wady ... Najważniejsze jest SLA, obciążenie aplikacji i skala. Więc jeśli potrzebujesz magazynu o wysokiej wydajności dla małego wdrożenia (1-5 hostów), prawdopodobnie możesz go ściągnąć z NFS (faktycznie faktycznie osiągnąłem większe opóźnienia z NFS niż z SAN przy użyciu dysków RAM). Teraz spróbuj skalować to, a przekonasz się, że koszt replikacji konfiguracji na dużą skalę jest bardzo porównywalny z ładną siecią SAN, dzięki czemu FC jest jedyną logiczną opcją do przejrzenia ... W większości przypadków używam kombinacji różnych usług (aplikacji) , Bazy danych, kopie zapasowe, archiwa) nie ma jednej platformy do optymalizacji kosztów, w zależności od potrzeb.
źródło