Pracuję nad rozszerzeniem zaplecza pamięci masowej dla kilku klastrów VMware vSphere 5.5 i 6.0 w moim centrum danych. Zasadniczo korzystałem z magazynów danych NFS w całym moim doświadczeniu VMware (Solaris ZFS, Isilon, VNX, Linux ZFS) i mogę wprowadzić do środowiska macierz Nimble iSCSI , a także możliwą macierz hybrydową Tegile (ZFS) .
Obecne rozwiązania pamięci masowej to macierze Zex Nexenta ZFS i Linux ZFS, które zapewniają podłączenia NFS do hostów vSphere. Łączność sieciowa jest dostarczana przez 2 x łącza 10ACbE LACP na głowicach pamięci i 2 x 10GbE na każdym hoście ESXi. Przełączniki to podwójne urządzenia Arista 7050S-52 na górze szafy skonfigurowane jako równorzędne MLAG .
Po stronie vSphere używam vSphere Distributed Switches (vDS) skonfigurowanych z wiązaniami LACP na 2 x 10GbE uplink i Network I / O Control (NIOC) przydzielających udziały dla grupy portów VM, NFS, vMotion i ruchu zarządzania.
To podejście i podejście do projektowania działało cudownie od lat, ale dodanie blokowania pamięci iSCSI to dla mnie duża zmiana. Nadal będę musiał zachować infrastrukturę NFS w dającej się przewidzieć przyszłości.
Chciałbym zrozumieć, w jaki sposób mogę zintegrować iSCSI z tym środowiskiem bez zmiany fizycznego wyglądu. MLAG na przełącznikach ToR jest dla mnie niezwykle ważny.
- W przypadku pamięci masowej opartej na systemie plików NFS LACP jest powszechnie akceptowanym sposobem zapewniania redundancji ścieżek.
- W przypadku iSCSI, LACP jest zwykle niezadowolony, przy czym zalecanym podejściem jest projektowanie wielościeżkowe MPIO.
- Używam wszędzie 10GbE i chciałbym zachować proste dwuportowe łącza do każdego z serwerów. Ma to na celu uproszczenie okablowania i projektowania.
Biorąc pod uwagę powyższe, jak mogę w pełni wykorzystać rozwiązanie iSCSI?
- Skonfigurować iSCSI przez LACP?
- Utworzyć adaptery iSCSI VMkernel na vDS i spróbować powiązać je w celu oddzielenia łączy w górę w celu uzyskania pewnego rodzaju zmutowanego MPIO?
- Dodać więcej kart sieciowych?
źródło