Używam NFS
(i tylko tego znam dobrze w plikach sieciowych) od kilku lat. Ale nadal nie mogę się dowiedzieć ...
- Jak sprawić, by
NFS
serwery były projektowane w klastry (lub z równoważeniem obciążenia?) - A przynajmniej wdrożenie go na serwerze MORE-THEN-ONE i „Automatyczne przełączanie awaryjne”.
Głównym celem jest NIE dopuszczanie, aby mój pojedynczy serwer NFS działał jako pojedynczy punkt awarii.
Ponieważ nie wiem, jak to zrobić poprawnie, do tej pory samodzielnie wymyśliłem:
- NFS na 2 serwerach.
- RSYNC z 1. (zakładanego serwera głównego) na inny 2. serwer.
- Na serwerach aplikacji (WWW itp.) Umieść a,
Shell Script
aby sprawdzić prawidłowy stan punktu montowania serwera NSF-Master. A następnie w razie potrzeby automatycznie odmontuj go (pozostawiając), a następnie automatycznie podłącz od drugiego. - Główną funkcją, której użyłem w moim automatycznym skrypcie powłoki, jest
nfsstat -m
.. sprawdzenie stanu punktu podłączenia.
(Używam Redhat )
Ale i tak nadal nie sądzę, że jest to bezpieczny i standardowy sposób.
źródło
To tylko jeden z wielu sposobów, w jaki NFS jest do bani.
Nie można tego zrobić tylko z NFS do wersji 3. Będziesz musiał ręcznie dodać tę funkcjonalność.
To prawdopodobnie oznacza:
Istnieją pakiety, aby to wszystko zrobić, ale będziesz musiał zintegrować je dla swojej organizacji.
Projekt Linux HA powstał wiele lat temu, aby zaimplementować niektóre z tych rzeczy. http://www.linux-ha.org/
Większość tego, co zrobili, powinieneś znaleźć już w dowolnej popularnej dystrybucji, z której korzystasz.
Warto zauważyć ... Jedną z największych przyczyn awarii systemu (jak dotąd) jest błąd administracyjny, a klastry HA są z definicji systemem złożonym i bardziej podatnym na błędy administracyjne.
OK poza NFS v4, NFS v4 zaczyna wdrażać niektóre funkcje skalowalności, bezpieczeństwa i dostępności, które AFS ma od 20 lat, nie jest w żaden sposób w pełni lub szeroko wdrożony, a nawet całkowicie kompatybilny z różnymi klientami i serwerami, ale jeśli używasz NFS, zacznij od v4 i sprawdź, co zostało już zaimplementowane na twojej platformie.
źródło
O ile mi wiadomo, nie można mieć NFS jako klastra aktywno-aktywnego. Teraz dla Active-Passive są pewne narzędzia, które pomogą Ci to osiągnąć. Jestem bardziej zaznajomiony z systemem operacyjnym Solaris i klastrem Solaris, które zapewniają możliwość tworzenia udziału / udziałów NFS o wysokiej dostępności w zależności od celu.
Jedną rzeczą, której będziesz potrzebować, jest pamięć współdzielona, którą można przenieść z serwera A na serwer B i odwrotnie w razie potrzeby. Najlepiej pamięć iSCSI lub SAN. I adres IP powiązany z udziałem NFS.
Klaster będzie działał w ten sposób. W przypadku awarii serwera A, serwer B włączy IP z serwerem NFS i przejmie współdzielony dysk, zamontuje go i uruchomi serwer NFS. To samo dzieje się w przypadku awarii serwera B i awarii serwera A.
Jeśli chcesz to zrobić ręcznie, musisz wykonać podstawowe kroki, monitorując skrypty i skrypty, aby automatycznie włączać i wyłączać usługi.
Spójrz tutaj na Redhat
źródło
Skonfigurowałem nadmiarową parę serwerów plików NFS w konfiguracji „dual dual” active / active przy użyciu modułu równoważenia obciążenia, CentOS, NFS, DRBD (replikacja), GFS2 (klastrowany system plików) i Pacemaker (zarządzanie klastrami).
Oto przewodnik dla tej implementacji w RackSpace, ale byłby podobny w każdym innym środowisku.
Howto setup Dual Primary DRBD na CentOS 6: GFS2 & Pacemaker .
źródło
Produkt Red Hat RHSS / RHGS (Red Hat Storage / Gluster Server) robi to doskonale, używając klienta GlusterFS opartego na FUSE do proxy połączeń NFS z działającym serwerem zaplecza, przy jednoczesnym zachowaniu kopii lustrzanej pamięci wielu węzłów serwerów, wszystko przejrzyste po stronie klienta. To bardzo sprytne rozwiązanie, które będzie dla Ciebie działać. Możesz zainstalować rozwiązanie EPEL / Extra RPM lub kupić od Red Hat. Po stronie klienta po prostu używasz FUSE / glusterfs lub NFS jako typu montowania w fstab. Żadnych bałaganiarskich kwarum / szermierki.
źródło
Jest to bardzo przyjemny i prosty poradnik, wypróbowany i działa dobrze.
https://www.howtoforge.com/high_availability_nfs_drbd_heartbeat
Osobiście wolę lvs, ponieważ łączę ha z równoważeniem obciążenia, ale próbowałem z nfs + gfs2 + drbd i działa naprawdę źle. Może potrzebuję trochę jak, ale nie mogę znaleźć nic o lvs + nfs ha
źródło
Virtual IP
tam wspomnieć, na serwerach? (Nie wiem)