Wzrost ilości danych jeszcze nigdy nie odbywał się szybciej, niż obecnie. Na przykład, usługi w chmurze to sektor będący odpowiedzią na wymagania pamięci masowych, który w ciągu najbliższych pięciu lat osiągnie wysokie tempo wzrostu, a według prognoz Gartnera przychody Infrastruktury jako usługi (IaaS) osiągną 24,4 mld USD w 2016 roku, przy czym pamięć masowa będzie stanowić prawie 40% tej kwoty (Gartner, Public Cloud Services,Worldwide, 2011-2016, 2Q12 Update, Opublikowano: 20 sierpnia 2012). Poza technologią mediów społecznościowych w chmurze i trendów ndas, BYOD i analityką dużych zbiorów danych istnieje wiele innych trendów powodujących wzrost ilości danych.
Istotniejsze pytanie brzmi: Co robimy, aby przygotować nasz infrastrukturę serwerową i pamięci masowej do tego, aby mogła sprostać eksplodującemu zapotrzebowaniu na pojemność, dostarczając wciąż niespotykany poziom wydajności, skalowalności i niezawodności?
Wprowadzenie do interfejsów
W związku z eksplozją ilości danych w ciągu ostatniej dekady, technologia pamięci masowej musiała ewoluować. W pierwszych latach pamięć masowa klasy korporacyjnej, równoległa magistrala SCSI stanowiła interfejs z wyboru dla opartej na serwerze pamięci masowej. Wraz z ewolucją sieci koncepcja dostępu do danych ze współdzielonych zasobów pamięci powszechnie określanych jako sieci pamięci masowej (SAN), uwiarygodniła interfejs Fibre Channel. W tym momencie, równoległa magistrala SCSI zdominowała architektury serwerowej i bezpośrednio podłączanej pamięci masowej (DAS), natomiast Fiber Channel zdominowała SAN.
To właśnie w tym czasie zarówno desktopowy interfejs ATA i interfejs SCSI DAS przedsiębiorstwo DAS interfejs ulegały uszeregowaniu. Wprowadzenie szeregowego interfejsu SATA i szeregowego SCSI (SAS) zapoczątkowało gwałtowny rozwój pamięci masowej do komputerów stacjonarnych i klasy korporacyjnej. Interfejs SATA szybko stał się standardowym interfejsem w zakresie przetwarzania danych typu klient, zapewniając większą przepustowość, cieńsze i łatwiejsze okablowanie oraz lepszą integralność sygnału. W tym samym czasie interfejs SAS szybko zaczął konkurować z technologią Fibre Channel w interfejsach SAN i DAS klasy korporacyjnej, jednak pojawiła się nowa architektura – sieciowa pamięć masowa (NAS) i protokół iSCSI, która zapewniała niższe koszty i większą łączność.
Jak tu dotarliśmy?
Wraz z rozwojem technologii NAS i iSCSI instalowane okablowanie Ethernet w różnej wielkości przedsiębiorstwach wykorzystywano dla pamięci masowej. Tańsze rozwiązania NAS zapewniły bezproblemową łączność z klientami na poziomie działu i grup roboczych, wypierając sferę wewnętrznego centrum danych, którą całkowicie zastąpiła pamięć SAN klasy korporacyjnej. To tutaj wprowadzony został do przedsiębiorstw dysk SATA do komputerów stacjonarnych.
Ponieważ dyski SATA do komputerów stacjonarnych były tańsze, podobnie jak kontrolery SATA, a także ze względu na fakt, że SATA może pracować na płycie bazowej SAS, rozwiązania NAS i DAS zaczęły wykorzystywać dyski SATA do komputerów stacjonarnych zapewniające tanią, dużej pojemności pamięć, jednak takie podejście nie było pozbawione problemów. Dyski SATA do komputerów stacjonarnych nie były przeznaczone do pracy w cyklu całodobowym wymaganym w przedsiębiorstwach. Klienci odczuli spadek wydajności i niską niezawodność, jak przedstawiono dalej. Winę ponosiły wibracje spowodowane ruchem obrotowym. Zbyt wiele dysków twardych pracujących non-stop w systemie powodowały, że system wpadał w wibracje, skutkując znacznym spadkiem realizowanych operacji wejścia/wyjścia na sekundę (IOPS) i niezawodności. Dyski SATA do komputerów stacjonarnych nadal rozprzestrzeniały się w rozwiązaniach sprzedawanych jako pamięć masowa klasy korporacyjnej, zwłaszcza z nadejściem technologii chmury.
Przy obecnym i przewidywanym tempie wzrostu ilości danych firmy zwykle poszukują wszelkich możliwości usunięcia kosztów swoich rozwiązań pamięci masowej. Dla wielu powszechne stało się po prostu znalezienie dysku twardego o największej pojemności ponosząc możliwie najniższe koszty. W wielu przypadkach poszukiwania kończą się na dyskach do komputerów stacjonarnych, które nie są przeznaczone dla obciążeń i cykli pracy w przedsiębiorstwach. Może to rozwiązywać problem zmniejszenia początkowych kosztów pozyskania pojemności pamięci, lecz wprowadza dla centrum danych zupełnie nowe ukryte koszty.

Wejście All-SAS Enterprise
Dynamiczne trendy technologiczne stanowiły dla producentów dysków bodziec do tego, aby opracować nową kategorię pamięci masowej klasy korporacyjnej, odznaczającej się wysoką wydajnością i niskimi kosztami: nearline. Pamięć typu nearline (powszechnie określana jako pamięć poziomu 2) oraz pamięć kluczowa dla zastosowań biznesowych, midline, a nawet pamięć masowa, to najbardziej krytyczne parametry, którymi kierują się przedsiębiorstwa w kategorii kosztów przypadających na gigabajt lub, w dzisiejszych systemach pamięci, kosztów przypadających na terabajt. Nearline była odpowiedzią na gwałtowny rozwój danych.
Dobrze już zadomowione na rynkach dysków o wysokiej wydajności, dyski SAS wkraczają w obszar drugorzędnych pamięci masowych z dyskami o zoptymalizowanej pojemności. Jeśli chodzi o skalowalność lub zdolność centrum danych przedsiębiorstwa lub centrum danych w chmurze szybkiego skalowania w odpowiedzi na zwiększające się wymagania w zakresie pojemności i wydajności, nie ma sprawdzonego rozwiązania, które zapewniałoby wydajność, integralność danych, niezawodność i długotrwałą ochronę inwestycji dysku SAS.
W jaki sposób All-SAS Enterprise zmienia sposób myślenia o pamięci masowej?
Wydajność – dyski klasy korporacyjnej muszą utrzymywać wysoki poziom wydajności w wielodyskowych konfiguracjach, w których występują wibracje fizyczne przenoszone przez obudowę. Zjawisko to znane jest jako drgania wywoływane ruchem obrotowym (RV).
Same drgania to wywieranie momentu obrotowego i są mierzone w radianach, jak prędkość kątowa zmiany w sekundach. Inaczej mówiąc, jest to tolerancja dysku na przyspieszenie kątowe.
Główne źródła energii generowanej drganiami RV to:
- ruchy podczas przeszukiwania dysku
- dodatkowe dyski wewnątrz obudowy, uzyskujące dostęp do danych (np. systemy wielowrzecionowe)
- siły zewnętrzne działające na obudowę
Ignorując przy projektowaniu dysku drgania RV, ich siła może powodować zepchnięcie głowicy ze ścieżki, skutkując nieprawidłowymi obrotami i opóźnieniem transmisji danych. Testy na dyskach, które nie są w stanie tolerować drgań RV, wykazały znaczny spadek (o ponad 50%) wydajności.
Na szczęście, od ponad dekady dyski klasy korporacyjnej wykorzystują wiele technologii w celu eliminacji skutków drgań RV. Aby zoptymalizować te gęste wielodyskowe systemy firma Seagate stosuje w swoich dyskach klasy korporacyjnej czujniki drgań RV, a także czujniki drgań liniowych. Te czujniki umożliwiają dyskom kompensować wszelkie drgania, które występują w samym napędzie lub na zewnątrz (np. wentylatory, gorszej jakości płyty montażowe itp.) i nadal odczytywać i zapisywać dane.
Dobrym pomysłem jest także zmniejszenie ilości wibracji, które może generować sam napęd. Dużej pojemności dyski Seagate klasy korporacyjnej konstruuje się montując silnik wrzeciona do górnej pokrywy, zwiększając sztywność każdego napędu wykorzystującego 4-dyskową konfigurację. Dalsze udoskonalenia konstrukcji polegają na optymalizacji profili wyszukiwania napędów w oprogramowaniu układowym w celu zminimalizowania emitowanego momentu obrotowego.
Jak się ma to do kwestii korzystania z dysków do komputerów stacjonarnych w przedsiębiorstwach? Poniższy diagram przedstawia wpływ wydajności dysków do komputerów stacjonarnych, nearline i klasy korporacyjnej przy wibracjach na różnym poziomie. 6, 12 i 21,5 radianów/s^2 przedstawia określone poziomy tolerancji dysków do komputerów stacjonarnych i odpowiednio dysków zoptymalizowanych pod kątem pojemności (nearline) i zoptymalizowanych pod kątem wydajności (enterprise) klasy korporacyjnej w celu utrzymania przepustowości na poziomie 80%. Należy zauważyć, że gdy drgania RV wykraczają poza określony poziom tolerancji, wydajność dysków stacjonarnych gwałtownie spada, podczas gdy napędy klasy korporacyjnej utrzymują swoją wydajność prawie na poziomie 100% w każdych warunkach poza najbardziej ekstremalnymi.

Jak drgania wywołane ruchem obrotowym wpływają na działanie dysku twardego?
Głowice odczytująco-zapisujące śledzą koncentryczne ścieżki na dysku. Aby mogły nastąpić operacje odczytu i zapisu głowica musi pozostać na dopuszczalnym poziomie tolerancji. Dopuszczalny poziom tolerancji dla zapisu jest mniejszy od dopuszczalnego poziomu tolerancji dla odczytu, przez co operacje zapisu są bardziej wrażliwe na drgania niż operacje odczytu.
Jeśli położenie elementu zapisującego wykracza poza dopuszczalny poziom tolerancji operacja zapisu zostaje tymczasowo wstrzymana. Przekroczenie poziomu tolerancji w położeniu zapisu nazywa się błędem zapisu. Operacja zapisu zostaje wznowiona, gdy poziom dokładności śledzenia powraca do dopuszczalnego, a docelowa lokalizacja zapisu (adres bloku logicznego – LBA) znajduje się pod elementem zapisującym. Docelowy adres LBA wypada pod elementem zapisującym raz na obrót dysku. W przypadku błędu zapisu operacja zapisu zostaje zwykle wznowiona podczas kolejnego obrotu dysku. W przypadku występowania ekstremalnych drgań operacja może opóźniać się o kilka obrotów dysku. Opóźnione operacje odczytu/zapisu są źródłem wszelkiego pogorszenia operacji wejścia/wyjścia wywołanych drganiami.
Podsumowanie: Klienci dysponujący systemami wielodyskowymi odniosą znaczne korzyści dzięki faktycznemu osiągnięciu określonego stopnia wydajności możliwego dzięki integracji dysków klasy korporacyjnej w wielu warstwach pamięci masowej.
W wielowarstwowym środowisku pamięci masowej dane nie tylko przenoszą się szybko z poziomu 0 i poziomu 1, lecz także do i z tańszego poziomu 2. Możliwość jak najszybszego przenoszenia danych między poziomami pamięci masowej staje się coraz bardziej istotne dla sprostania oczekiwaniom klientów. Niespełnienie oczekiwań skutkuje kosztami utraconych korzyści w związku z rezygnacją klientów, utraconą sprzedażą i mniejszą liczbą klientów.
Skalowalność – aby sprostać rosnącym wymaganiom w zakresie danych, firmy poszukują rozwiązań, które zapewniają największy poziom skalowalności. Możliwość szybkiego i oszczędnego zwiększenia pojemności pamięci w sieci bez naruszania postanowień umów o poziomie usług jest bardzo istotna w dzisiejszym świecie terabajtów, petabajtów, a nawet eksabajtów danych.
Wraz z przejściem do sieci pamięci powstaje też potrzeba bardziej zaawansowanej kontroli błędów. Pobieranie danych z płyty głównej na bezpośrednio przyłączony dysk to jedno. Transfer tych samych informacji przez wiele punktów przełączania, w szafie serwera lub w całym kraju, to jeszcze inna rzecz. Każdy punkt, w którym następuje zmiana adresu, wprowadza możliwość wystąpienia błędu. Dyski do komputerów stacjonarnych wykorzystują podstawową kontrolę błędów, lecz napęd nie stwierdzi: „Muszę upewnić się, że informacje, które odbieram to dokładnie te same informacje, które zostały pierwotnie do mnie wysłane”. W przypadku przerzucenia bitu w trakcie przesyłu, dysk do komputera stacjonarnych zapisze błąd, nie wiedząc lepiej o tym. Dysk SAS typu nearline będzie korzystać z zaawansowanych metod, podobnych do tych używanych w pamięci serwerowej ECC, wraz z metadanymi osadzonymi w strumieniu informacji w celu identyfikacji i korekcji błędów porównania.
Adresowanie i korekcja błędów zaczyna przybierać na znaczeniu, gdy popatrzymy na to, jak można skalować dysk SAS poza typowe realizacje dwu- lub czteronapędowe. Jak wiadomo, większość płyt głównych mieści od czterech do ośmiu urządzeń SATA. Jednak w przeciwieństwie do dysków SATA, urządzenia SAS działają w obrębie domeny, podobnie jak konwencjonalna sieć biznesowa. Tak jak w przypadku sieci, można stosować różne rodzaje switchów SAS (zazwyczaj nazywanych ekspanderami) w celu połączenia urządzeń w domenie. Możesz dysponować 128 urządzeniami na ekspander brzegowy i 128 ekspanderów brzegowych na ekspander typu fan-out. Ostatecznie domena SAS może zawierać 16.384 urządzeń.
Oczywiście, większość użytkowników nie osiągnie tej ilości. Mimo to, na poziomie montażu na stelażu wymaganie rozwiązania pamięci składającego się z dziesiątków lub setek dysków nie należy do rzadkości. To tutaj swoją potęgę ukazuje potencjał architektoniczny SAS w zakresie szybkiego skalowania.
Niezawodność – jak wcześniej wspomniano, niska niezawodność napędu w większości przypadków zazwyczaj jest wynikiem wdrażania niewłaściwego typu urządzenia pamięci masowej w systemie klasy korporacyjnej lub do określonych zadań panującego w klasie korporacyjnej. Dyski twarde, będące urządzeniami mechanicznymi, są konstruowane z specyficznymi cechami i komponentami do obsługi konkretnych zadań. Dysk klasy korporacyjnej posiada dodatkowe funkcje i możliwości, które pozwalają niezawodnie odczytywać i zapisywać dane w bardziej obciążonych systemach centrum danych pracujących w trybie całodobowym.
Na przykład, dyski SAS pomagają zmniejszać awaryjność systemu pamięci, ograniczając liczbę połączeń fizycznych i dodając funkcję podwójnego portu. Chociaż specjaliści IT mogą zachowywać niechęć w zakresie wdrażania systemów pamięci masowej, które mogą zakłócać działalność, konstrukcja dysku SAS klasy korporacyjnej umożliwia bezproblemową integrację w samych infrastrukturach SAS, które obecnie obsługują kluczowe pamięci poziomu 1. Obsługa dużej liczby połączeń hosta pomaga dyskom SAS uniknąć ryzyka związanego z punktami podatności na awarię, które charakteryzuje dyski SATA. Dzięki wyeliminowaniu konieczności stosowania adaptera, jak ma to miejsce w przypadku dysków SATA, w dyskach SAS została również zredukowana liczba elementów systemu, co przyczynia się do zwiększenia niezawodności.
Wspomniane w części Wydajność wibracje wywołane ruchem obrotowym wpływają oczywiście na niezawodność dysku, a także wydajność w środowiskach wielowrzecionowych. Niemniej jednak dyski klasy korporacyjnej, zaprojektowane specjalnie z myślą o drganiach RV posiadają czujniki drgań RV, które zapewniają informacje mające na celu przeciwdziałanie drganiom mechanicznym – wywołanych zarówno ruchem liniowym, jak i obrotowym. Dwustopniowe siłowniki dające większą przepustowość, zapewniając odporność na drgania RV i silniki z mocowanymi wałkami zapewniającymi lepszą stabilność mechaniczną to kolejne przykłady technologii w dyskach klasy korporacyjnej nie są uważane za niezbędne w dyskach do komputerów stacjonarnych. Zastosowanie dysków klasy korporacyjnej ma wiele wymiernych korzyści w okresie użytkowania napędu, lub raczej średnim czasie bezawaryjnej pracy (MTBF), który jest znacznie dłuższy w dyskach klasy korporacyjnej, w tym mniejszy wysiłek związany z integracją, lepszy współczynnik nieodwracalnych błędów, optymalizacja prędkości, obszerniejsze testowanie produkcji, i, co najważniejsze, mniejsze koszty związane z wymianą napędów, zapewniając lepszy zwrotu z inwestycji (ROI).
Kluczowe prezentowane informacje
Podsumowując:
- Wymagania w zakresie pamięci masowej wciąż się zwiększają wykładniczo, bez widoków na spowolnienie.
- Dyski do komputerów stacjonarnych nie są przeznaczone dla centrów danych i środowisk wielowrzecionowych o trwałej wydajności, skalowalności i niezawodności jako dyski należące do czołówki
- Nie wszystkie centra danych i infrastruktury są równe, a wydajność każdego systemu nie musi być zgodna z wymaganiami niezbędnymi dla krytycznych aplikacji.
- Organizacje planujące zakup lub leasing niezawodnych, odznaczających się trwałością i wydajnością skalowalnych pamięci masowych powinny szukać lepszych trwałych i wydajnych dysków klasy korporacyjnej (nearline SAS) odpowiadających ich potrzebom.
O ile w opracowaniu poruszono część rzeczywistych różnic technologicznych między dyskami do komputerów stacjonarnych (SATA) i korporacyjnych (SAS), oczywiście występuje więcej szczegółów na temat możliwości i różnic pomiędzy napędami. Aby uzyskać więcej informacji proszę zapoznać się z częścią Przypadki technologiczne.
Znacznik: