Perspective

29 ago., 2024

DENSIDAD DE ÁREA

Las mejoras en la densidad de área de Seagate hacen posible la era de la IA

Perspective

Sabemos que las GPU son fundamentales para los flujos de trabajo de IA. ¿Pero qué pasa con las unidades de disco duro? Jason Feist, vicepresidente senior de Productos y Mercados de Seagate, participó recientemente en un episodio del podcast Tech Disruptors de Bloomberg Intelligence, presentado por Woo Jin Ho. Hablaron sobre la tecnología HAMR, la nueva plataforma Mozaic™ 3+ y cómo las unidades de disco duro hacen posible la era de la IA. 

Lo que sigue es una versión abreviada de dichas preguntas y respuestas, editada para que sea más breve. 

Escuche el episodio completo del podcast con Jason Feist en Bloomberg, Apple Podcasts o Spotify. 

¿Cuál es el argumento de venta de Seagate y por qué cree que es innovador? 

Seagate ha sido líder en almacenamiento a lo largo de la transformación de cómo se utiliza el almacenamiento con la computación. Hemos pasado de cosas como mainframes a clientes móviles y ahora a un mundo de computación en la nube a hiperescala. Seguimos viendo disrupción y oportunidades a medida que despega la megatendencia de la IA y cómo se utilizará [la IA] para generar más valor a partir de los datos. 

Los datos son la base de todo lo que hacemos. Son uno de los pilares fundamentales de los que hablamos a diario en relación con tecnologías que abarcan una amplia gama de habilidades, principios de ingeniería, química, robótica, firmware, software, física y ciencia de los materiales. 

Hoy nos centramos en el lanzamiento de nuestra tecnología Mozaic 3+ HAMR. Seagate está muy bien posicionado, y en estrecha colaboración con nuestros clientes, para seguir ofreciendo ese valor, utilizando y construyendo sobre la base de la tecnología HAMR. 

Comenzó hablando de Mozaic, [que son unidades habilitadas por] la tecnología HAMR. ¿Podría explicarnos por qué es importante y en qué se diferencia HAMR de las tecnologías existentes, como PMR y SMR? 

Intentamos siempre incluir cada vez más información en un espacio más pequeño. El término es densidad de área. ¿Cuántos bits y pistas podemos empaquetar en una ubicación específica? 

Existen otros mecanismos para aumentar la capacidad a lo largo del tiempo. Puedes agregar más cabezas. Puedes añadir más placass. Puede cambiar los factores de forma. Sin embargo, la desventaja de las cosas de esa naturaleza es que añaden costos. Esto solo ocurre cuando no tienes capacidad de densidad de área. 

HAMR ha incorporado un avance tecnológico significativo a la grabación magnética, creando para nosotros una hoja de ruta que vemos como 3 TB por placa, 4 TB por placa, 5 TB por placa y más. Existe una nueva tecnología de medios que nos permite reducir el tamaño de cada bit. Se trata de una propiedad fundamental de la grabación magnética llamada coercitividad, que es el concepto de cómo mantener un estado magnético en un uno o en un cero mientras lo estás grabando.

También hemos tenido que innovar mucho en la escritura de este tipo de tecnología, y ahí es donde entra en juego la tecnología asistida por calor. Hemos tomado la tecnología de usar un mecanismo de suministro de luz para transferirla a algo que crea plasmones superficiales y energía (y un transductor de campo cercano), enfocando esa luz y transfiriendo esa energía al medio, que luego se acopla a un escritor magnético y nos permite la transición de un uno a un cero en tiempo real mientras gira un plato a 7200 RPM. 

Mencionó capacidades de 3TB, 4TB, 5TB. ¿El plan de desarrollo del producto está limitado a 5 TB por placa o una unidad de 50 TB?

No. Esto es lo realmente emocionante y disruptivo de la tecnología HAMR. Realizamos investigaciones constantes, tanto en nuestra organización como en universidades de todo el mundo, para seguir respaldando tecnologías vanguardistas que llegan hasta los 8 a 10 TB por placa a partir de una capacidad tecnológica de física de grabación fundamental. Es realmente emocionante. Sabemos cómo hacer 3 TB, 4 TB y 5 TB por placa. Hemos iniciado innovaciones y realizamos investigaciones basadas en el registro de la física para llevarnos más allá, al nivel 8-10.

¿Cómo cree que se desarrollará esto en los próximos años? 

En este momento, creo que hay mucha gente almacenando mucha más información y un gran crecimiento de los centros de datos. Todos los días, al leer las noticias, podemos comprobar que se está asignando más espacio a más centros de datos en todo el mundo. Creo que las señales son bastante claras de que habrá un mayor crecimiento de datos. Estamos aprovechando eso en términos de nuestra capacidad para asegurarnos de que el almacenamiento necesario para llenar esos centros de datos tenga el dispositivo de almacenamiento más innovador y tecnológicamente capaz para acompañarlo. 

¿Qué pasa con la huella existente? Porque probablemente estemos actualizando desde una unidad de 16 a 20 TB a una de 30 TB. ¿Existe allí un ciclo de reemplazo o una oportunidad de reemplazo? 

Siempre hay una actualización. Los operadores de centros de datos seguirán prestando atención al ciclo de vida de cualquier componente dentro de su centro de datos, ya sea el suministro de energía, el equipo de red, el avance de la CPU o la mejora de la densidad de almacenamiento. Están vendiendo un servicio y monetizan todos esos dispositivos, y todos ellos tienen un ciclo de vida posterior incorporado. 

Para nosotros, como fabricantes de dispositivos de almacenamiento, eso no es diferente a madurar en comparación con esos otros componentes. Seguirán analizando el rendimiento de la implementación de dos unidades de 16 TB que tienen cinco años de antigüedad en comparación con el uso, hoy, de una unidad de 32 TB. Tenemos una conversación clara con nuestros clientes sobre ese ciclo de vida, ese ciclo de actualización, así como sobre cómo ven la nueva demanda de almacenamiento implementándose en la solución más densa desde el principio. 

¿Qué pasa si no necesito 30, 40 o 50? ¿Puedo aprovechar la tecnología para poder mantener 20 en cinco placas? ¿Es esa también una oportunidad que también tienen por delante?

 Esa opcionalidad de almacenamiento es lo interesante de la densidad aérea por placa, en lugar de solo obtener capacidad agregando cabezas y placas. Cuando se crea innovación en torno a la densidad del área, aquellos que necesitan más capacidad (es decir, los hiperescaladores) saldrán a implementar el dispositivo más grande que puedan conseguir lo más rápido posible. Esa es la ecuación TCO que hemos visto y observado durante muchos años en su mercado. Sin embargo, hay muchos otros casos de uso, como análisis de video o de imágenes, almacenamiento conectado a red y casos de uso empresariales que agradecerían esa opcionalidad, porque operan en diferentes bandas de precios. Venden aplicaciones de empresa a empresa, no de empresa a consumidor o de empresa a muchos usuarios.

Entonces, tener esa opción de querer hacer una unidad de 8 TB, 16 TB, 12 TB o 20 TB más optimizada en términos de costos es algo que sabemos que los clientes están preguntando. Sabemos que los mercados y los casos de uso se beneficiarán, y eso nos permitirá complementar y lanzar al mercado la misma tecnología que estamos usando en la unidad de mayor capacidad en la nube y luego utilizar menos cabezas y placas que las que se están implementando actualmente en esas soluciones en las capacidades más bajas. Podemos optimizar ese espacio y optimizar el uso de nuestras cabezas y medios, nuestras fábricas y nuestras capacidades de producción para satisfacer toda esa demanda en diferentes mercados.

Identificó mercados y oportunidades, pero con menos placas por unidad. ¿Es necesario cambiar el factor de forma y, si lo hace, hay alguna otra infraestructura detrás que deba cambiar junto con ella antes de que el mercado realmente despegue?

No es necesario cambiar ningún factor de forma en el sentido de que hoy en día se trata de ranuras estandarizadas. Lo que estamos haciendo en términos de optimización es que, dentro de la caja, estamos creando menos componentes y permaneciendo dentro del mismo espacio físico. Si se piensa de otra manera, cambiar los factores de forma tiene plazos de entrega muy largos porque va a haber un impacto en nueva infraestructura y luego se tiene que cambiar lo que ya se implementó en el campo. Al utilizar una estrategia como esta, ya sabemos cuál es la base instalada para todos estas unidades de disco duro de gran capacidad y ahora podemos actualizar los productos heredados que están en el mercado y que utilizan menos cabezas y placas (y seguir manteniendo esas aplicaciones en funcionamiento), así como desarrollar nuevas rutas de comercialización en esta arquitectura de hardware más óptima. Y lo más importante es que utiliza la misma tecnología de componentes y plataforma que escalaríamos a volúmenes muy altos con nuestros clientes de hiperescala.

Todos sabemos que el tema más actual en tecnología es la IA. ¿Qué papel fundamental desempeñan las unidades de disco duro en una infraestructura de almacenamiento de IA? 

Hoy en día, las GPU y la memoria de alto ancho de banda están estrechamente acopladas en la DRAM. Esto se debe a que una GPU puede procesar las cosas rápidamente. Lo bueno de esa arquitectura es que analiza información a un ritmo muy alto y va a crear un montón de nuevas aplicaciones y desarrollo de software, lo que a su vez genera más información.

A medida que esas aplicaciones vayan tomando forma, se utilicen más, se implementen en los flujos de trabajo y se integren en nuestras actividades cotidianas, se generará más contenido que, en última instancia, vamos a querer almacenar y volver a entrenar para el desarrollo de modelos futuros. Todo ello se adapta muy bien al almacenamiento en unidades de disco duro y a los grandes conjuntos de información que se encuentran muy cerca de esas GPU y de la memoria de alto ancho de banda. 

Al final, estamos muy emocionados. Una vez más, al igual que la nube tiene una relación simbiótica entre los diferentes tipos de dispositivos, a medida que hemos interactuado con los clientes y los diferentes usos, vemos que esa relación simbiótica se prolifera y, en todo caso, seguirá creciendo porque ahora hay muchas más empresas que participan en este desarrollo de IA, y en la arquitectura e infraestructura de IA, mientras que antes solo había entre cuatro y diez empresas que participaban realmente en la nube. 

¿Alguna última conclusión? 

Seguimos contando con algunos de los mejores y más brillantes ingenieros y empleados de todo el mundo, con una gran diversidad de habilidades, capacidades y culturas. Es realmente extraordinario ver cada día, las 24 horas del día, los 7 días de la semana, un compromiso total en todos los ámbitos.

En los últimos 45 años, hemos realizado varias transiciones en función de las necesidades del sector del almacenamiento, hemos suministrado más de cuatro mil millones de terabytes de capacidad de datos y trabajamos constantemente en cosas diferentes: dispositivos, sistemas, todos los mercados que interactúan con los consumidores, hasta la nube.

Es uno de esos lugares únicos, ya que hablo con muchas empresas diferentes e interactúo con muchas personas diferentes, donde realmente cada día se puede experimentar algo nuevo, único y emocionante. Y, al mismo tiempo, se puede ver cómo nuestro trabajo diario aporta valor a tantos usuarios de todo el mundo y cómo se almacena tanta información en los dispositivos que creamos.

Escuchar ahora

Escuche el podcast completo Tech Disruptors con Jason Feist en Bloomberg, Apple Podcasts o Spotify. 

Temas relacionados:

Sustainability Data Center