W poprzednich częściach (cz. 1, cz. 2, cz. 3) opisywałem platformę Nutanix, a dokładnie jej rozwój na przestrzeni ostatnich lat, nowe funkcje, zmieniające się potrzeby rynku w obszarze lokalnych centrów przetwarzania danych, które próbują godzić ogień z wodą. Tym razem zaprezentuję scenariusze sytuacji, w których przyda się backup, a zrobię to na przykładzie systemu Commvault. Ale zaznaczam – celem artykułu nie jest omawianie tego systemu, zakładam, że jest on znany czytelnikom.
Obecnie spotykamy się z sytuacjami, gdy z jednej strony – zakupy i instalacja nowej infrastruktury trwają miesiącami, z drugiej strony zaś – wymagana jest potrzeba elastyczności, łatwej skalowalności i szybkiego dostarczania nowych usług, gdyż punktem odniesienia są usługi chmury publicznej.
Oparcie całej infrastruktury na jednym dostawcy chmury publicznej będzie wygodne i elastyczne, a czas wdrażania nowych usług będzie krótki, lecz może być kosztowny. Będą także scenariusze typu: lokalna serwerownia będzie tańsza w utrzymaniu, a dodatkowo ryzyko jest rozpraszane. Albo: dostawca usług chmury publicznej może mieć awarię, podnieść ceny lub utracić dane klientów, na wymaganiach prawnych, kończąc. W zależności od poziomu akceptowanego ryzyka i rozpatrywanych scenariuszy, zastosowane rozwiązanie będzie inne. Poziom trudności dodatkowo się zwiększa, gdy zaczynamy rozpatrywać ataki ransomware, w wyniku których dane produkcyjne firmy są zaszyfrowane, a nie rzadko także kopie bezpieczeństwa. Strategia polagająca na ubezpieczeniu się od takiego scenariusza bez dodatkowych działań powoli przestaje się sprawdzać, gdyż firmy ubezpieczeniowe nie chcą ręczyć za sytuacje nieprzygotowane na atak, nie wspominając o powszechnych wkluczeniach na wypadek wojny. Utrata wizerunku może być najmniejszym problemem, gdy powrót do procedur papierowych jest jedynym rozwiązaniem, a brak płynności finansowej, niezbilansowany pieniędzmi z odszkodowania, ściąga w otchłań nieistnienia.
Obserwując zagrożenia jakie niesie za sobą ransomware, tak nielubiane kopie bezpieczeństwa na taśmach magnetycznych zaczynają znowu być atrakcyjne
Lecz problemem jest to, że do pełnego ich zabezpieczenie należy je fizycznie przenieść np. do sejfu. Proces ten jest powolny wymaga fizycznej interwencji i jest dobry dla dłuższego przechowywania danych. Dużo trudniej jest zorganizować codzienne przenoszenie taśm, aby jak najszybciej je odizolować. Dane na taśmach, pozostające w bibliotekach, nadal są względnie bezpieczne, gdyż chroni je wolny dostęp, a próba ich skasowania wymaga sporo czasu i daje szansę, że ktoś się zorientuje zanim wszystkie zostaną nadpisane. Mimo wszystko, taki proces jest trudny do utrzymania, a w dobie braków specjalistów jeszcze kosztowniejszy. Ciągle wymagana jest potrzeba elastyczności i łatwości dostępu do danych.
Funkcją, która godzi te wymagania są macierze (często obiektowe), dostarczające funkcjonalność WORM (Write once read many). Zapewnia to zabezpieczenie danych przed nadpisaniem a często również przed skasowaniem danych. Oczywiście poziom bezpieczeństwa takiego rozwiązania zależy od wielu czynników, zaczynając od bezpieczeństwa fizycznego urządzeń przechowujących dane, poprzez wbudowane przez producenta zabezpieczenie (nawet przez administratorami urządzeń), po polityki zastosowane przez organizacje regulujące aspekty czasu przechowywania danych i kwalifikacji krytyczności systemów podlegających zabezpieczeniom.
Stworzenie takiego systemu do backupu będzie wymagać odpowiedniej macierzy dyskowej, technologii podłączenia jej do serwerów backupu jak i samych serwerów obsługujących backup. Zadanie się coraz bardziej komplikuje a koszty rosną, gdy zaczynamy uwzględniać wymagania wysokiej dostępności zarówno samej macierzy, serwerów obsługujących backup jak i połączeń obu elementów. Skalowanie przestaje być łatwe a z pewnością tanie.
Potrzebę elastyczności już od dawna adresują dostawcy macierzy dla małych firm, na których często można uruchomić także kilka maszyn wirtualnych. Eliminuje to konieczność posiadania dedykowanych pod wirtualizację serwerów. Oczywiście nie w każdym scenariuszu się to sprawdzi. Idąc jednak tym tropem można sobie wyobrazić system backupu, który w jednym pudełku posiada macierz dyskową oraz serwer wirtualny do zbierania danych z innych systemow, przetwarzania, katalogowania i przechowywania na dyskach macierzy. Przy odpowiedniej konfiguracji przez dostawcę system mogłby zapewniać dostęp typu WORM, co miałoby szansę zmniejszyć ryzyka jakie niesie za sobą ransomware. Oczywiście pojawi się tu problem skalowalności i wysokiej dostępności – miejsce na nowe dyski się skończy, a wydajność kontrolerów dyskowych nie wzrasta przy dodawaniu nowych dysków.
Jest to platforma hiperkonwergentna integrująca serwery obsługujące maszyny wirtualne oraz macierze dyskowe. Każdy serwer zawiera dyski, zatem mając minimum trzy serwery tworzony jest wysokodostępny klaster, w którym każda porcja danych może być przechowywana np. w dwóch kopiach na dwóch fizycznych serwerach. W przypadku odpowiednio większej ilości serwerów w klastrze możliwe jest uruchomienie mechanizmu erasure coding (przypominającego np. RAID5), co pozwoli na zapis większej ilości danych.
W przypadku awarii jednego serwera (lub jego dowolnego komponentu), dane są dostępne na innym, a maszyna wirtualna może być ponownie uruchomiona na sprawnym serwerze.
Oczywiście komunikacja odbywa się przez sieć, zatem tu także wymagana jest odpowiednia nadmiarowość. Dane dostępne są przez sieć Ethernet, zatem nie zostaną poniesione koszty na budowę i utrzymanie sieci typu SAN wymagającej osobnego okablowania i fizycznych urządzeń.
Po więcej szczegółów odsyłam do poprzednich części, w których także wspomniane było o funkcjonalności Nutanix w formie udostępniania danych z klastra jako storage obiektowy.
Ze wszystkich zalet jakie ma przechowywanie danych w formie obiektów:
To, że w klastrze Nutanix można uruchamiać maszyny wirtualne, nie jest nowością, warto jednak przypomnieć, że serwery fizyczne mogą być uruchomiane na autorskim systemie operacyjnym AVH, co uniezależnia od opłat licencyjnych od innych dostawców wirtualizacji.
Dodatkowe oszczędności daje licencja dla obiektów, jeżeli zrezygnujemy z uruchamiania na klastrze dużej ilości maszyn wirtualnych. Pozostawiamy sobie możliwość uruchomienia dosłownie kilku maszyn, np. do obsługi systemu backupu. Tym samym, dochodzimy do zintegrowanego rozwiązania służącego przechowywaniu danych i obsłudze backupu, które jest łatwe w zarządzaniu i dobrze się skaluje, a co ważne – przy skalowaniu wydajność całego rozwiązania rośnie!
W niniejszym tekście wykorzystamy system Commvault. Celem artykułu nie jest omawianie tego systemu, zakładam, że jest on znany czytelnikom. Ogólnie Commvault składa się z modułów: CommServ, MediaAgent oraz klientów odpowiedzialnych za pobieranie danych z systemów objętych backupem. CommServ oraz MediaAgent może być zainstalowany w jednej maszynie wirtualnej w klastrze Nutanix.
Prawidłowa konfiguracja Nutanix oraz Commvault pozwali uniknąć zaszyfrowania istniejących kopii bezpieczeństwa oraz ułatwi przywrócenie prawidłowego funkcjonowania firmy po ataku. Oczywiście należy pamiętać, że w przypadku kompromitacji danych dostępowych do poszczególnych elementów tworzących całość rozwiązania, odtworzenie danych może być utrudnione lub nawet niemożliwe – w przypadku, jeżeli przestępcy zdołają zresetować cały klaster Nutanix. W przypadku chęci zabezpieczenia przed takimi scenariuszami, należy wdrożyć rozwiązania całkowicie izolujące środowisko służące odtwarzaniu po ataku ransomware z wykorzystaniem rozwiązań typu Air Gap, celem uniemożliwienia włamywaczom przejścia do środowiska odizolowanego.
Opisane połączenie Nutanix oraz Commvault jest bardzo ciekawym rozwiązaniem adresującym problemy spotykane aktualnie w różnych środowiskach.
Partner artykułu: S4E & Nutanix