Perspective

29 sie, 2024

POWIERZCHNIOWA GĘSTOŚĆ ZAPISU

Postępy Seagate w zakresie gęstości zapisu torują drogę erze sztucznej inteligencji

Perspective

Wiemy, że procesory graficzne odgrywają kluczową rolę w przepływach pracy opartych na sztucznej inteligencji. A co z dyskami twardymi? Starszy wiceprezes ds. produktów i rynków w firmie Seagate, Jason Feist, niedawno wystąpił w odcinku podcastu Tech Disruptors kanału Bloomberg Intelligence, którego gospodarzem był Woo Jin Ho. Rozmawiano o technologii HAMR, nowej platformie Mozaic™ 3+ i o tym, w jaki sposób dyski twarde wspierają rozwój ery sztucznej inteligencji. 

Poniżej przedstawiono skróconą wersję rozmowy w formie pytań i odpowiedzi, zredagowaną pod kątem długości. 

Posłuchaj pełnego odcinka podcastu z Jasonem Feistem w serwisie Bloomberg, Apple Podcasts lub Spotify. 

Jak brzmiałby krótki opis Seagate — i dlaczego uważasz firmę za innowatora w branży? 

Seagate od lat pozostaje liderem w dziedzinie pamięci masowej, przekształcając sposób, w jaki jest wykorzystywana w obliczeniach. Przeszliśmy od komputerów mainframe, przez urządzenia mobilne, aż do świata przetwarzania w chmurze o ogromnej skali. Wciąż obserwujemy zmiany i nowe możliwości wynikające z rozwoju sztucznej inteligencji oraz sposobów, w jakie będzie ona wykorzystywana do generowania większej wartości z danych. 

Dane są podstawą wszystkiego, co robimy. To jeden z kluczowych tematów, o których mówimy każdego dnia w kontekście technologii obejmujących szeroki zakres dziedzin — od inżynierii, chemii, robotyki i oprogramowania po fizykę i materiałoznawstwo. 

Dzisiaj skupiamy się na wprowadzeniu na rynek naszej technologii Mozaic 3+ HAMR. Firma Seagate jest w bardzo dobrej pozycji, dzięki ścisłej współpracy z naszymi klientami, aby nadal dostarczać tę wartość, wykorzystując i rozwijając fundamenty technologii HAMR. 

Zacząłeś od omówienia platformy Mozaic i technologii HAMR. Czy mógłbyś wyjaśnić, dlaczego ma to tak duże znaczenie i czym HAMR różni się od istniejących technologii, takich jak PMR i SMR? 

Zawsze staramy się zapisać jak najwięcej informacji na jak najmniejszej powierzchni. Nazywamy to gęstością zapisu. Ile bitów i ścieżek możemy zmieścić na określonej powierzchni? 

Istnieją także inne sposoby na zwiększenie pojemności z biegiem czasu. Można dodać więcej głowic. Można dodać więcej talerzy. Można zmienić format dysku. Wadą tego typu rozwiązań jest jednak to, że zwiększają one koszty. Robi się to tylko wtedy, gdy nie ma możliwości zwiększenia gęstości zapisu. 

Technologia HAMR wniosła znaczący postęp w dziedzinie zapisu magnetycznego, wyznaczając ścieżkę rozwoju: 3 TB na talerz, 4 TB, 5 TB i więcej. Pojawiła się nowa technologia nośników danych, która pozwala zmniejszyć rozmiar każdego bitu. To podstawowa właściwość zapisu magnetycznego, zwana koercją — określa, w jaki sposób utrzymać stan magnetyczny 0 lub 1 podczas zapisu.

Musieliśmy również opracować wiele innowacji dotyczących sposobu zapisu na takim nośniku. Tu właśnie wkracza technologia wspomaganego cieplnie zapisu (HAMR), która wykorzystuje światło i przetwornik bliskiego pola do przekazywania energii do nośnika, umożliwiając zapis danych w czasie rzeczywistym przy prędkości obrotowej 7200 obr./min. 

Wspomniałeś o pojemnościach 3 TB, 4 TB i 5 TB. Czy plan rozwoju produktu ogranicza się do 5 TB na talerz lub dysku 50 TB?

Nie, nie ogranicza się. Właśnie to jest najbardziej ekscytujące i przełomowe w technologii HAMR. Prowadzimy nieustanne badania — zarówno wewnętrznie, jak i we współpracy z uniwersytetami na całym świecie — aby rozwijać technologie przyszłości sięgające 8–10 TB na talerz. To naprawdę ekscytujące. Potrafimy osiągnąć 3 TB, 4 TB i 5 TB na talerz. Już rozpoczęliśmy prace badawczo-rozwojowe, które pozwolą zwiększyć te wartości do 8–10 TB na talerz.

Jak Twoim zdaniem sytuacja będzie się rozwijać w ciągu najbliższych kilku lat? 

Obecnie coraz więcej osób przechowuje ogromne ilości danych, a centra danych dynamicznie się rozrastają. Codziennie można zobaczyć w wiadomościach, że na całym świecie powstaje coraz więcej centrów danych i rośnie ich powierzchnia. Wszystko wskazuje na to, że ilość danych nadal będzie rosnąć. Wykorzystujemy ten trend, aby zapewnić, że pamięć masowa używana w centrach danych będzie najbardziej innowacyjna i zaawansowana technologicznie. 

A co z istniejącą infrastrukturą? Prawdopodobnie będziemy modernizować dyski z pojemności 16–20 TB do 30 TB. Czy w tym przypadku pojawia się cykl wymiany lub możliwość odnowienia? 

Odświeżanie to proces ciągły. Operatorzy centrów danych będą nadal analizować cykl życia każdego elementu — od zasilania, przez sprzęt sieciowy i procesory, po gęstość pamięci masowej. Sprzedają usługę i monetyzują wszystkie te urządzenia, z których każde ma swój cykl życia. 

Dla nas, jako producenta pamięci masowych, sytuacja wygląda podobnie — również musimy dojrzewać wraz z rozwojem innych komponentów. Nadal będą porównywać opłacalność używania dwóch pięcioletnich dysków 16 TB w porównaniu z nowym dyskiem 32 TB. Omawiamy z klientami kwestie cyklu życia, odświeżania oraz tego, jak planują nowe zapotrzebowanie na bardziej wydajne rozwiązania pamięci masowej. 

A co jeśli nie potrzebuję dysku 30, 40 lub 50 TB? Czy mogę wykorzystać tę technologię, aby uzyskać 20 TB na pięciu talerzach? Czy to również jest dla was szansa?

 Właśnie ta elastyczność w projektowaniu pamięci masowej jest fascynująca — zamiast zwiększać pojemność przez dodawanie głowic i talerzy, można ją poprawiać dzięki większej gęstości zapisu. Gdy rozwijasz technologię gęstości zapisu, ci, którzy potrzebują największej pojemności — czyli dostawcy usług hiperskalowych — sięgają po największe dostępne urządzenia tak szybko, jak to możliwe. To właśnie równanie całkowitego kosztu posiadania (TCO), które obserwujemy na rynku od wielu lat. Istnieje jednak wiele innych zastosowań, takich jak analiza wideo i obrazów, sieciowe pamięci masowe czy rozwiązania korporacyjne, w których taka elastyczność również jest bardzo cenna, ponieważ działają w różnych przedziałach cenowych. Działają w modelu B2B, a nie B2C ani B2X.

Klienci pytają o możliwość tworzenia bardziej opłacalnych wersji dysków — o pojemności 8 TB, 12 TB, 16 TB czy 20 TB. Wiemy, że rynki i zastosowania na tym skorzystają — dzięki temu możemy oferować tę samą technologię co w dyskach o najwyższej pojemności, wykorzystując jednak mniej głowic i talerzy w rozwiązaniach o niższej pojemności. Możemy zoptymalizować wykorzystanie przestrzeni, głowic, nośników, fabryk i mocy produkcyjnych, aby sprostać zapotrzebowaniu na różnych rynkach.

Zidentyfikowałeś rynki i możliwości, ale przy mniejszej liczbie talerzy w jednym dysku. Czy konieczna jest zmiana formatu, a jeśli tak — czy pozostała infrastruktura również wymaga dostosowania, zanim rynek się rozwinie?

Nie ma potrzeby zmiany formatu, ponieważ obecnie używane są standardowe gniazda. W ramach optymalizacji tworzymy mniej komponentów w tej samej przestrzeni fizycznej urządzenia. Zmiana formatu wymaga bardzo długiego czasu realizacji, ponieważ wiąże się z koniecznością dostosowania infrastruktury oraz modernizacji już wdrożonych rozwiązań. Dzięki takiej strategii znamy już bazę instalacyjną dla wszystkich dysków o dużej pojemności i możemy zarówno odświeżać starsze produkty, jak i wprowadzać nowe rozwiązania w bardziej optymalnej architekturze sprzętowej. Co najważniejsze, wykorzystujemy te same komponenty i technologie platformowe, które można skalować do bardzo dużych wolumenów dla klientów z sektora hiperskalowego.

Wszyscy wiemy, że sztuczna inteligencja to obecnie najgorętszy temat w branży technologicznej. Jaką rolę odgrywają dyski twarde w infrastrukturze pamięci masowej dla AI? 

Obecnie procesory graficzne i pamięć o dużej przepustowości są ściśle połączone w ramach pamięci DRAM. Dzieje się tak, ponieważ GPU potrafi przetwarzać dane niezwykle szybko. Ta architektura pozwala analizować dane w błyskawicznym tempie, co otwiera drogę do powstawania nowych aplikacji i oprogramowania, generujących jeszcze więcej danych.

W miarę jak aplikacje te się rozwijają i są coraz częściej wykorzystywane w codziennych procesach, będą generować coraz więcej treści, które ostatecznie trzeba będzie przechowywać i ponownie wykorzystywać do trenowania modeli AI. Wszystko to doskonale pasuje do dysków twardych i dużych zbiorów danych przechowywanych w pobliżu procesorów graficznych oraz pamięci o wysokiej przepustowości. 

Jesteśmy naprawdę podekscytowani nadchodzącymi możliwościami. Podobnie jak w przypadku chmury, gdzie różne typy urządzeń współpracują ze sobą w sposób symbiotyczny, tak i tu obserwujemy rozwój tego zjawiska — coraz więcej firm uczestniczy w rozwoju AI, jej architektury i infrastruktury, podczas gdy dawniej było ich zaledwie kilka. 

Jakieś ostatnie wnioski? 

Nadal zatrudniamy jednych z najlepszych inżynierów i specjalistów na świecie, o różnorodnych umiejętnościach, doświadczeniach i kulturach. To naprawdę niezwykłe widzieć codzienne zaangażowanie ludzi na wszystkich poziomach organizacji, przez całą dobę, siedem dni w tygodniu.

W ciągu ostatnich 45 lat wielokrotnie dostosowywaliśmy się do potrzeb branży pamięci masowych, dostarczając ponad cztery miliardy terabajtów danych, a nasza praca obejmuje różnorodne rynki — od urządzeń i systemów po rozwiązania chmurowe.

To wyjątkowe miejsce, w którym codziennie można doświadczyć czegoś nowego, unikalnego i inspirującego. Jednocześnie możemy obserwować, jak nasza codzienna praca przynosi wartość milionom użytkowników na całym świecie i jak wiele danych przechowywanych jest na tworzonych przez nas urządzeniach.

Posłuchaj teraz

Posłuchaj pełnego odcinka podcastu Tech Disruptors z Jasonem Feistem w serwisie Bloomberg, Apple Podcasts lub Spotify. 

Powiązane tematy:

Sustainability Data Center