W pierwszej części artykułu dotyczącego hiperkonwergencji od CISCO skupiliśmy się na wprowadzeniu do świata serwerów, poprzedni wpis można przeczytać tutaj. Tym razem w tekście skupimy się na wizji rozwoju infrastruktury w centrach przetwarzania danych oraz platformie sprzętowej.
Rys. 1. Wizja rozwoju infrastruktury w centrach przetwarzania danych. Od dedykowanych systemów do konkretnych zastosowań po systemy uniwersalne pozwalające szybciej uruchamiać przeniesione oraz nowe aplikacje
Proces projektowania własnej realizacji hiperkonwergencji przez Cisco uwzględnia realizację następujących celów:
Spełnienie tych postulatów wymaga nowego podejścia, które dostarcza kompleksowego rozwiązania, niezależnego od innych usług czy technologii. Integracja sieci jest krokiem, obejmuje ostatni obszar będący pod kontrolą innych dostawców, wymagający osobnego zarządzania, monitorowania i rozwoju. Kolejnym wyzwaniem jest stworzenie wydajnego, niezawodnego systemu plików, udostępnianego w ramach klastra, którego niezależne fragmenty znajdują się w poszczególnych węzłach. Ostatnim krokiem jest stworzenie rozwiązania będącego w stanie przejąć obciążenia obecnej infrastruktury często dedykowanej konkretnym zadaniom, a w szczególności gotowego na obsługę nowych aplikacji, które będą się pojawiać w kolejnych latach.
Przełącznik Cisco Noexus 9000 (opcjonalny):
Cisco UCS 6248UP:
Rys. 2. Przykładowa platforma sprzętowa HyperFlex i jej podstawowe komponenty: serwery Cisco HX oraz przełączniki Fabric Interconnect. Poza klastrem pozostają elementy takie jak: inne przełączniki sieciowe czy vCenter, jednak są one wymagane dla poprawnego funkcjonowania całości rozwiązania. Warto zwrócić uwagę, że dla nadmiarowych połączeń sieciowych nie stosuje się protokołu VTP lecz vPC, który pozwala wykorzystywać wszystkie połączenia jednocześnie bez ryzyka powstania pętli. Do realizacji sieci nie są wymaganie konkretnie modele Nexus 9000, dlatego występują jako opcjonalne.
Podstawą klastra Cisco HX jest architektura UCS, bazująca na dwóch przełącznikach Fabric Interconnect (FI), do których podłączone są serwery typu rack wielkości 1 lub 2 RU. Przykładowe połączenie klastra przedstawiono na rysunku 2. Każdy serwer podłączony jest dwoma konwergentnymi łączami 10 GbE lub 40 GbE (w zależności od wybranej opcji) do obu FI, a FI połączone są ze sobą w celu uzyskania wspólnej warstwy zarządzania (dane pomiędzy serwerami nie są transmitowane). W prawidłowo skonfigurowanym środowisku cały ruch klastra zamyka się w obrębie jednego FI, jednak w sytuacji specyficznej awarii ruch może wychodzić do przełączników LAN w celu przekazania go do drugiego FI. Autorska architektura Cisco UCS pozwala definiować w serwerach karty sieciowe oraz światłowodowe, w wyniku czego w jednym fizycznym połączeniu może być realizowany ruch LAN oraz SAN. W sytuacji gdy dysponujemy odrębną siecię SAN, każdy FI należy niezależne z nią połączyć. Dzięki integracji automatycznie nakładane są odpowiednie polityki QoS oraz konfiguracja separacji ruchu za pomocą wirtualnych interfejsow oraz VLAN-ów, zapewniając odpowiedni priorytet dla danej klasy ruchu, a serwery uzyskują dodatkowe logiczne połączenie bez potrzeby fizycznego wpinania w nie dodatkowych komponentów. Warto wspomnieć, że dla zachowania takich samych parametrów wydajnościowych nie jest wspierana rozbudowa urządzeń Fabric Interconnect za pomocą Fabric Extenderów.
Fizyczne połączenie nie różnią się od tych stosowanych w ramach architektury USC. Występują natomiast różnice w obsadzeniu pojedyńczych serwerów dodatkowymi dyskami, a ponadto oprogramowanie uruchomione na serwerach ma wyłączność w zarządzaniu wspomnianymi dyskami.
Serwer w ramach klastra HyperFlex dostarczany jest wg wymagań klientów, zatem ilość pamięci RAM jak i procesory mogą się różnić. Przy projektowaniu klastra należy podjąć decyzję o konfiguracji all flash lub hybrydowej oraz wymaganej pojemności pojedynczego węzła. Wsparcie w takiej decyzji dostarczają oczywiście odpowiednie narzędzia Cisco, gdyż samodzielny wybór mógłby nie być optymalny. Biorąc pod uwagę wielkość serwerów mamy następujące możliwości:
Do buforowania operacji zapisów i odczytów zawsze stosuje się dyski SSD o pojemności 480 GB lub 1,6 TB dla konfiguracji hybrydowych. W konfiguracjach all flash dyski z tej warstwy buforują tylko operacje zapisów, stosuje się wówczas model o pojemności 800 GB.
Oprócz wymienionych dysków każdy serwer posiada dodatkową pamięć na system operacyjny hyperwizora oraz HX Controller VM.
W sytuacji gdy w klastrze wymagane jest szyfrowanie przechowywanych danych, należy to uwzględnić już na etapie zamówienia, gdyż taka funkcjonalność opiera się na dyskach ze sprzetowym szyfrowaniem (self-encrypting drives). Podejście takie pozwala zwiększyć bezpieczeństwo przechowywanych danych bez obniżania wydajności zapisów czy odczytów.
Opis architektury platformy zaczniemy od systemu operacyjnego, który zainstalowany jest na fizycznym serwerze. Aktualnie Cisco HyperFlex wspiera tylko VMware, zatem wirtualizatorem jest ESXi. Na dedykowanej pamięci znajduje się system operacyjny firmy VMware oraz maszyna wirtualna Data Platform Controller. Pozostałe dyski twarde – dyski SSD warstwy buforującej, oraz dyski warstwy magazynowania danych – podłączone są bezpośrednio do maszyny wirtualnej kontrolera, co pozwala na wydajniejsze operacje na danych i eliminuje dodatkowe warstwy logiczne wirtualizacji. Wymagania kontrolera na zasoby obliczeniowe to 8 vCPU z rezerwacją 1080 MHz, 48 GB RAM dla serwerów 1 RU, albo 72 GB dla serwerów 2 RU.
Rys. 3. Schemat pojedynczego węzła w klastrze. Programowy element Data Platform Controller zawarty jest w maszynie wirtualnej, która ma bezpośredni dostęp do dysków twardych i zarządza znajdującymi się tam danymi.
Kolejnym elementem architektury są dwa moduły instalowane w systemie ESXi:
Dla samego HyperFlex brak jest dodatkowych modeli licencyjnych, nie ma potrzeby wyboru z jakich funkcji chcemy korzystać – dostępne są wszystkie. Rozwiązanie działa już od VMware vSphere Essentials Plus wersja 6, w poprzednich wersjach VAAI dostępne było dla wyższych wersji licencyjnych (nie było dostępne dla najniższych wersji licencyjnych VMware). Jednocześnie warto dodać, że optymalna liczba węzłów w klastrze wynosi cztery, jednak dla mniejszych środowisk dostępna jest wersja HyperFlex Edge uruchamiana dla trzech węzłów bez Fabric Interconnect, w planach jest także uruchomienie wersji dwuwęzłowej – ROBO. Takie najmniejsze wdrożenia mogą skorzystać z najniższych wersji licencyjnych VMware.
Artykuł został opublikowany na łamach IT Professional.
Poniżej znajdą Państwo linki do wcześniejszych artykułów: