Monolit-IT - Blog - szczegóły

Baza wiedzy

Czy storage w firmie ma jeszcze znaczenie?

14.04.2021

Ostatni okres to wysyp nowości u prawie wszystkich producentów w zakresie macierzy…., trzeba się ugryźć w język, żeby już nie powiedzieć dyskowych…. Bo rzeczywiście nadszedł ten czas, o którym jakiś czas temu się mówiło – dyski mechaniczne odchodzą do lamusa.

Nie są już tańsze, na pewno są wolniejsze, zajmują dużo miejsca i zużywają dużo więcej coraz cenniejszej energii.

Na szczęście dla jednych vendorów i wbrew oczekiwaniom innych nie wszystkie aplikacje i dane da się przenieść na ten „zawsze niepełny” storage w obłokach. A danych jednak przybywa i wiele działów IT staje przed wyzwaniem jak zwiększyć posiadaną przestrzeń. Jak zawsze możliwości jest kilka i na pewno usłyszycie „to zależy”.

Pierwsza rozterka, rozbudować to co już posiadamy, czy może kupić coś błyszczącego świeżością i mieniącego się dyskami NVMe?

Żeby odpowiedzieć na to pytanie trzeba zacząć od analizy, co nowości mogą wnieść do naszej infrastruktury? Jeśli chcemy mieć demona prędkości i podbić naszą pozycję w rankingach IOPS to właściwym wyborem będą dyski SCM SSD. Taki pojedynczy dysk cechuje się ultra niskim czasem odpowiedzi na poziomie 10-15 mikrosekund oraz największą żywotnością ze wszystkich dysków półprzewodnikowych. Macierz klasy midrange wyposażona w te dyski może osiągnąć wydajność rzędu kilku milionów IOPS (1-10 M IOPS) przy stałym i niskim czasie odpowiedzi. Dla porównania jeszcze niedawno macierz z dyskami SSD chwaliła się wynikiem mierzonymi w kilku tysiącach albo dziesiątkach tysięcy operacji wejście/wyjścia przy czasach odpowiedzi liczonych w milisekundach. Obecnie, przy zastosowaniu dysków SCM mamy sto razy więcej operacji na sekundę przy niskim czasie odpowiedzi. W uproszczeniu można powiedzieć, że jest od dziesięciu do stu razy szybciej. Danych macierzy wyposażonej tylko w dyski obrotowe, z litości już nie przytaczamy dla porównania…

PowerStore T 1000

A co jeśli zależy nam na pojemności? Jeszcze niedawno dociążaliśmy macierze wolnymi i pojemnymi dyskami NL SATA/SAS. Obecnie możemy połączyć pojemność z wydajnością. Producenci dają nam możliwość upakowania 1PB danych na dyskach „do zadań specjalnych” NVMe ze sprzętową kompresją danych w macierzy wysokość 1RU. Co ciekawe kompresja danych jest realizowana na samych dyskach i odbywa się bez wpływu na wydajność kontrolerów macierzy. Ile ta macierz zużyje energii? 900 W! Macierz o nieco bardziej tradycyjnej budowie kręciła licznikiem prądu z zawrotną, jak na dzisiejsze czasy, prędkością 5 kW/h.

Na rynku poza wydajnymi i żywotnymi dyskami SCM funkcjonują rozwiązania pośrednie. Dostępne są dyski:

  • SAS SSD- (protokół SCSI, wielkość 1-30 TB, <1milisekund),
  • NVMe SSD (protokół NVMe, wielkość 800GB – 16 TB, 150-250 mikrosekund),
  • i oczywiści wciąż dostępne dyski talerzowe (SCSI, 2TB-30TB, 3-5 milisekund).

IBM_kwiecienŹródło: A general introduction, Brent Yardley, Roger Kasten, IBM, Jan 2021

No dobrze, dyski mogą być bardzo szybkie, a co się zmienia w zakresie połączeń? Czy szyna danych i interfejsy pozwolą nam wykorzystać możliwości dysków?

Interfejsy SAS stosowane w dyskach SSD w ubiegłych latach wprowadzały wiele ograniczeń związanych z transferem danych w konstrukcji „back-endu” samej macierzy. Wśród nich najbardziej znaczącym dla macierzy dyskowych jest limit przepustowości. Wraz z rozpowszechnianiem dysków półprzewodnikowych rozpoczęto prace zarówno nad nowym protokołem transmisji danych, jak też nowym interfejsem fizycznym dla samych urządzeń. Dzięki temu powstał protokół NVMe (Non Volatile Memory Express) oraz interfejs pod taką samą nazwą, pozwalający na podłączenie „dysku” półprzewodnikowego bezpośrednio do magistrali PCIe.

Ibm FlashSystem 5200

Jednym z podstawowych ograniczeń obrotowych dysków było to, że w danym momencie były w stanie przetwarzać tylko jedno żądanie (głowica dysku nie mogła znajdować się w dwóch lub więcej miejscach w tym samym czasie), transfer danych w czasie dysków obrotowych miał charakter sekwencyjny. Próbowano sobie z tym radzić zwiększając prędkości wirowania dysków ale tu fizyka pokazała swoją wyższość nad materią. Nie udało się skonstruować i wdrożyć produkcyjnie dysków kręcących się szybciej niż 15k rpm.

W momencie upowszechnienia się dysków pół przewodnikowych ta cecha stała się kluczowym ograniczeniem. Projektując nowy standard komunikacji postawiono na:

  • równoległe sekwencjonowanie zadań, które w przypadku dysków półprzewodnikowych są wykonywane w 64 tys. kolejek (zamiast jak do tej pory w jednej),
  • każda z kolejek może zawierać 64 tys. poleceń (zamiast jak do tej pory 32),
    - polecenia mogą posiadać zdefiniowany priorytet obsługi,
    - polecenie są podzielone na dwie grupy: zarządzająca I/O i treść,
  • wykorzystanie wielordzeniowości CPU macierzy w taki sposób, że kolejki i przerwania można przydzielać do różnych rdzeni procesorów. Każdy rdzeń procesora może mieć przydzieloną na własność swoją kolejkę.

W efekcie nowy standard komunikacji NVMe pozwala na znaczne obniżenie opóźnień i zwiększenie wydajności operacji dyskowych, które mogą zacząć korzystać jednocześnie z 64 tysięcy równoległych strumieni.

Aby w pełni wykorzystać zalety nowej technologii dyski SSD NVMe muszą być podłączane bezpośrednio do szyny PCIe. Protokołem komunikacyjnym na tej magistrali musi być protokół NVMe. Jest to ważny element wyboru macierzy ponieważ część producentów oferuje tzw. etap przejściowy czyli dyski NVMe ale architekturę wciąż opartą na SAS.

Kolejnym elementem układanki jest oprogramowanie macierzy. Tu zaznaczyć należy zmiany w zakresie trwającego wyścigu producentów w kategorii „która macierz pozwala na wystawienie LUN w jak najmniejszej liczbie kliknięć”. I nie chodzi tu o zmianę zasad i reguł a bardziej o to, że wielu producentów w oprogramowaniu macierzy zaszywa algorytmy AI, które mają pomóc administratorowi w zarządzaniu macierzą.

Bezsprzecznie, na przestrzeni ostatnich lat zarządzanie macierzami klasy entry czy midrange znacznie się uprościło. W większości administrator ma do dyspozycji „wizadry”, które prowadzą go przez wszystkie etapy tworzenia LUNA, wystawiania go, replikacji itp. zadań administracyjnych.

Kolejną zmianą w kontekście oprogramowanie jest podejście producentów. Obecnie, macierze klasy entry i midrange posiadają większość funkcjonalności w cenie samego rozwiązania. I nie chodzi tu o takie podstawowe funkcjonalności jak kopie migawkowe czy tiering ale również klastrowanie macierzy, replikacje pomiędzy macierzami czy budowanie klastrów wysokiej dostępności w oparciu o wolumeny wystawiane z dwóch czy więcej macierzy z kilku geograficznie oddalonych lokalizacjach. Na samym końcu należy wspomnieć o kolejnej funkcjonalności schodzącej do klasy entry. Mianowicie wirtualizacji zasobów macierzowych w tym tych „third party” przez macierze entry nowych generacji.

Uważny obserwator widzi też toczący się bój w kategorii redukcji danych. Producenci wielokrotnie podkreślają wyższość swoich algorytmów kompresji i deduplikacji danych. Dla macierzy all flash standardem jest redukcja 2:1 a niejednokrotnie i więcej. Dla klientów oznacza to po prostu, że mogą finalnie kupić mniej dysków. Co ciekawe i warte zauważenia, niejednokrotnie taka deklaracja producenta może przybrać formę umowy i jeżeli faktycznie klient nie osiągnie zakładanego poziomu redukcji 4:1 otrzymuje brakującą liczbę dysków w „gratisie”.

hitachi VSP E590_1.jpgZ ciekawostek, jeden z producentów pozwala nam na instalację maszyn wirtualnych bezpośrednio na macierzy, z wykorzystaniem dedykowanych do tego zasobów (procesorów, pamięci).

Jak już mamy garść informacji na temat nowinek to możemy wrócić do pytania, czy rozbudować, czy kupić nową? Oczywiście wrócicie z pytaniem, a ile to kosztuje? A my odpowiemy znowu „to zależy”, od tego co powyżej zostało opisane. Jedno z pewnością możemy Wam obiecać. Z dostępnej w naszej ofercie gamy vendorów: Dell, Hitachi, IBM wybierzemy dla Was najlepszy model.

Autorzy: Andrzej Sobolewski, Marek Ślusarski.

Zainteresował Cię ten wpis?
Chcesz dowiedzieć się więcej?

Andrzej Sobolewski

Andrzej Sobolewski

Od ponad 10 lat odpowiada za rozwój sprzedaży w firmie Monolit IT, a od września 2019 roku pełni funkcję Dyrektora Zarządzającego i odpowiada za kluczowe decyzje dla funkcjonowania Spółki.

Andrzej.Sobolewski(at)monolit-it.pl

Zobacz wszystkie artykuły danego autora »