Dyskutuję z kolegą na temat potencjalnej konfiguracji. Wdrażamy nowe rozwiązanie typu blade, które ma wbudowany przełącznik 10 Gb i dwa serwery typu blade, każdy z 4 kartami sieciowymi 10 Gb.
Jednak reszta naszego środowiska to nadal 1 Gb.
Przełącznik kasetowy ma cztery zewnętrzne porty 10GBASE-T, które automatycznie wykrywają do 1 Gb. Planujemy ich LGD.
Zasadniczo będziemy mieli przepustowość 80 Gb NIC na przełączniku 10 Gb połączonym z łączem między przełącznikami 4 Gb.
Myślę, że powinniśmy ręcznie ustawić porty wewnętrzne na 1 Gb, ale on nie sądzi, że wystąpią zauważalne problemy z wydajnością z powyższego projektu.
Daj mi znać, jeśli masz jakiekolwiek doświadczenia z podobną konfiguracją lub jeśli znasz problemy, których możemy się spodziewać.
Odpowiedzi:
Zasadniczo, twoje pakiety łączy 40 Gb będą tylko odporne na uszkodzenia, chyba że masz transfer typu „blade-to-blade” na przełączniku blade; nawet pojedyncze połączenie z serwerem 10 Gb to więcej niż całkowita przepustowość łącza w górę.
Istnieje wiele sieci i przełączników o mieszanej prędkości portów. Cisco ma wytyczne oparte na szeroko zakrojonych badaniach. Stosunek przepustowości portu dostępu (połączenia z serwerem) do portu dystrybucji (połączenia zewnętrzne) nie powinien być większy niż 20: 1. Oznacza to, że na każde 20 Gb w twojej prędkości portu dostępu potrzebujesz prędkości 1 Gb portu w górę. To, co opisujesz (od 80 Gb do 4 Gb) to 20: 1. Zalecany stosunek do współczynnika rdzenia jest znacznie niższy przy 4: 1.
źródło
Powinieneś zastosować QoS między przełącznikami kasetowymi a resztą środowiska, aby zapobiec przepływie dużych przepływów przez inne przepływy.
To, jak można to osiągnąć, zależy od specyfikacji sprzętu, ale każdy z 10 portów GbE skierowanych do przełączników 1 GbE ma 8 kolejek sprzętowych (0–7, jedna kolejka na wartość CoS), w których pakiety czekają na swoją kolej.
Masz możliwość skonfigurowania algorytmów planowania używanych przez każdą kolejkę (ścisły priorytet lub jakiś harmonogram). Kolejkę, w której ramki Ethernet czekają na pozostawienie przełączników kasetowych, można wybrać, gdy ramki wejdą do przełącznika.
System operacyjny serwera, hiperwizory, muszą oznaczać ramki Ethernet, a przełączniki kasetowe muszą honorować wartości CoS, ufając swojemu odpowiednikowi.
Po zaznaczeniu ramki kończą się w żądanej kolejce, zapewniając Ci kontrolę.
Przeczytaj o obsłudze mostkowania centrum danych ( DCB ) i konfiguracji między serwerami kasetowymi i przełącznikami.
Sprawdź obsługę DCB w przełącznikach 1 GbE: jeśli przełączniki 1 Gb są zgodne z DCB, Wstrzymaj ramki skierowane do przełączników kasetowych, będą działać w określonych kolejkach w przypadku przeciążenia (Kontrola priorytetu przepływu Ethernet), podczas gdy kolejki o wyższym priorytecie będą nadal przenosić ramki Ethernet.
źródło
Nie ma różnicy. Ponieważ masz ten sam port w przełączniku o przepustowości 1 Gb i 10 Gb. Ten przełącznik prawdopodobnie ma współużytkowany bufor pakietów, który nie powoduje problemów z upuszczaniem mikroprzepływów. Ale jeśli dostaniesz przełącznik pakietu, który ma osobne bufory na różnych portach, możesz nie mieć wolnego miejsca w kolejce wyjściowej w momentach dużego obciążenia.
źródło