Whitepaper

Moderne Speicherarchitektur für KI in Rechenzentren.

seagate-supermicro-osnexus

Supermicro, Seagate und OSNexus entwickeln gemeinsam eine besonders effiziente und skalierbare Lösung für die Zukunft der künstlichen Intelligenz.

Minute gelesen

seagate-supermicro-osnexus

Inhaltsverzeichnis:

    Kurzfassung.

    Die zunehmende Verbreitung von künstlicher Intelligenz (KI) hat zu einer beispiellosen Nachfrage nach skalierbaren, hochleistungsfähigen und kostengünstigen Speicherlösungen für Rechenzentren geführt. Dieses Whitepaper stellt eine umfassende Lösung vor, bestehend aus Hardware von Supermicro, Exos-Festplatten mit der HAMR-basierten Mozaic 3+™-Technologie von Seagate sowie der Software QuantaStor von OSNexus. Diese gemeinsame Lösung erfüllt den explosionsartig wachsenden Bedarf an Datenspeicherung im Zusammenhang mit KI und bietet eine robuste Architektur, die Konfigurationen sowohl zum vertikalen als auch zum horizontalen Skalieren unterstützt. Zu den Hauptvorteilen zählen die verbesserte Skalierbarkeit für wachsende KI-Workloads, die außergewöhnlich hohe Leistung mit hohem Durchsatz und geringer Latenz, erhöhte Kosteneffizienz durch weniger physische Laufwerke und Stromkosten, eine einheitliche Verwaltungsplattform für unkomplizierteren Betrieb, moderne Sicherheitsfunktionen für die Einhaltung von Vorschriften und schließlich eine geringere Umweltbelastung durch energieeffiziente Speicherlösungen.

    Einführung.

    Die rasante Entwicklung von KI und maschinellem Lernen (ML) hat den Markt für Datenspeicherung von Grund auf verändert. Fortschritte bei der Rechenleistung, demokratisierter Zugriff für Entwickler und schnellere Entwicklungstools haben zu einem explosionsartigen Anstieg von KI-gestützter Entwicklung geführt. Da KI-Modelle immer ausgefeilter werden, ist der Bedarf an skalierbaren, hochleistungsfähigen Speicherlösungen so groß wie nie. Daten sind das Rückgrat der KI. Damit KI-Modelle trainiert und KI-Anwendungen bereitgestellt werden können, müssen die Unternehmen große Datenmengen effizient speichern, verwalten und darauf zuzugreifen können. Herkömmliche Speicherlösungen werden diesen Anforderungen oft nicht gerecht, sodass neue Architekturen entwickelt werden müssen, die auf KI-Workloads zugeschnitten sind.

    Wachsende KI-Workloads erfordern modernste Speicherlösungen.

    KI-Workloads bringen völlig neue Herausforderungen mit sich, die mit herkömmlichen Speicherlösungen nur schwer zu meistern sind. KI-Modelle benötigen für das Training riesige Datenmengen, die oft im Petabyte-Bereich liegen. Daten müssen jederzeit und schnell abrufbar sein, denn nur so sind KI-Trainings in realistischen Zeitrahmen zu bewältigen. Zudem leisten KI-Anwendungen häufig umfangreiche Datenverarbeitung mit Echtzeit-Ergebnissen, für die ein hoher Durchsatz und niedrige Latenzzeiten erforderlich sind.

    Die Rechenleistung von KI-Workloads erzeugt zudem erhebliche Mengen an Metadaten, die effizient verwaltet werden müssen, um Engpässe zu vermeiden. Herkömmliche Speicherlösungen sind aufgrund ihrer eingeschränkten Skalierbarkeit und Leistung für diese Anforderungen ungeeignet. Ihnen fehlt oft die Flexibilität, um dynamische Workloads zu bewältigen, was zu Ineffizienzen und höheren Betriebskosten führt.

    KI-gestützte Innovationen erfordern Speicherlösungen, die schnell skalierbar sind, große Mengen unstrukturierter Daten verarbeiten und nahtlosen Zugriff auf diese Daten bieten. Zum Training eines komplexen KI-Modells gehört beispielsweise die iterative Verarbeitung riesiger Datensätze, um die Algorithmen zu verfeinern und die Treffsicherheit zu verbessern. Die schiere Menge an Daten, die für diese Iterationen erforderlich ist, kann herkömmliche Speichersysteme überfordern. Es kommt dann zu Verzögerungen und Effizienzeinbußen beim KI-Betrieb.

    Zudem werden KI-Anwendungen zunehmend in Echtzeitumgebungen eingesetzt, in denen eine sofortige Datenverarbeitung erwartet wird. Dazu zählen unter anderem Anwendungen für autonome Fahrzeuge, vorausschauende Instandhaltung und personalisierte Gesundheitsversorgung. Für derartige Anwendungsfälle müssen Speicherlösungen nicht nur große Kapazität, sondern auch überaus hohe Leistung bieten, damit die schnelle Datenanalyse und Entscheidungsfindung überhaupt möglich sind.

    Geeignet für Konfigurationen mit vertikalem und horizontalem Skalieren.

    Die gemeinsame Lösung von Supermicro, Seagate und OSNexus kombiniert hochmoderne Hardware und Software zu einer robusten, skalierbaren und kostengünstigen Speicherinfrastruktur für KI-Workloads. Zu den Kernkomponenten der Lösung gehören Server und JBODs von Supermicro, Mozaic 3+-Festplatten von Seagate, Nytro NVMe-SSDs von Seagate und die Software QuantaStor von OSNexus.

    Die Architektur der gemeinsamen Lösung unterstützt Konfigurationen für vertikales und horizontales Skalieren und deckt so unterschiedliche Anforderungen bei der Bereitstellung ab. 

    Beim vertikalen Skalieren („Scale-up“) wird die Kapazität eines einzelnen Speichersystems oder Servers durch zusätzliche Ressourcen wie CPUs, Arbeitsspeicher oder Speicherlaufwerke erhöht. Auf diese Weise lässt sich zwar in einzelnen Einheiten maximale Leistung erreichen, die Skalierbarkeit ist jedoch nur begrenzt gewährleistet. 

    Beim horizontalen Skalieren („Scale-out“) werden einem System hingegen weitere Speicherknoten oder Server hinzugefügt, wodurch der Workload auf mehrere Einheiten verteilt wird. Dieser Ansatz ermöglicht eine praktisch unbegrenzte Skalierbarkeit, sodass Systeme größere und komplexere KI-Workloads bewältigen können. Die Architektur wächst dabei lückenlos mit steigendem Bedarf mit.

    Konfigurationen mit vertikaler Skalierung mit einem Durchsatz von bis zu 5 bis 10 GB/s sind ideal für kleinere Anwendungen mit begrenztem Budget. Im Gegensatz dazu sind horizontal skalierbare Konfigurationen für größere Bereitstellungen ausgelegt. Die Leistung wird dabei durch Integration von zusätzlichen Knoten linear skaliert. Mit dieser Skalierbarkeit erreicht die Lösung einen Durchsatz von Hunderten Gigabyte pro Sekunde und wird damit den Anforderungen intensiver KI-Workloads gerecht.

    Durch die nahtlose Integration von Supermicro-Servern, Seagate-Festplatten und QuantaStor-Software entsteht eine in sich geschlossene und effiziente Speicherlösung. Diese Architektur unterstützt sowohl Datei- als auch Objektspeicher und bietet Unternehmen die Flexibilität, die jeweils am besten geeignete Konfiguration für ihre Anforderungen zu wählen. Die einheitliche Verwaltung mit QuantaStor gewährleistet, dass alle Komponenten harmonisch zusammenarbeiten und optimale Leistung und Zuverlässigkeit entstehen. Auf der Plattform können die vertikal und die horizontal skalierbaren Konfigurationen gleichzeitig verwaltet werden. Das vereinfacht die Abläufe und verringert die Komplexität, die die Verwaltung mehrerer Speichersysteme normalerweise mit sich bringen würde. 

    Überblick über die Architektur.

    Die Architektur umfasst Server von Supermicro, Exos Mozaic 3+-Festplatten und Nytro NVMe-SSDs von Seagate, alles gesteuert durch die Software QuantaStor von OSNexus. Diese Kombination erfüllt die hohen Anforderungen von KI-/ML-Workloads – hoher Durchsatz, geringe Latenz und eine effiziente Verarbeitung großer Datensätze.

    Abwägungen zur Bereitstellungsinfrastruktur.

    • Bei der konkreten Architekturplanung müssen Themen wie Netzwerke und die mindestens benötigte Infrastruktur unbedingt in die Entscheidung einfließen; eine genauere Betrachtung an dieser Stelle würde jedoch den Rahmen dieses Dokuments übersteigen.
    • Wichtige Kriterien:
      • Netzwerkgeschwindigkeit (bestimmt die optimale Medien- und Knotengröße)
      • Rack-Spezifikationen (Racktiefe und HEs)
      • Budget für Strom und Kühlung

     

    Architekturen mit vertikaler und horizontaler Skalierung.

     

    • Architektur mit vertikaler Skalierung
      • Diese Architektur eignet sich ideal für Umgebungen, die kostengünstigen Speicher mit hoher Dichte erfordern. Sie nutzt NVMe-Laufwerke mit zwei Ports in einem Gehäuse mit 24 Laufwerksschächten von Supermicro. Das sorgt für eine hohe Verfügbarkeit und Leistung durch gemeinsamen Zugriff auf die zugrunde liegenden Laufwerke. Die Architektur unterstützt die Erweiterung durch JBODs. Bis zu vier JBODs können an die Scale-up-Controller angeschlossen werden. Dadurch werden Konfigurationen mit bis zu sieben Petabyte Speicher mit Mozaic 3+-Festplatten der Enterprise-Klasse unterstützt.
      • In Konfigurationen mit vertikaler Skalierung nutzt QuantaStor das Hochleistungs-Dateisystem „OpenZFS“, das für seine starken Datenschutzfunktionen, seine Skalierbarkeit und seine Effizienz bekannt ist, insbesondere in großen Speicherumgebungen. Es ermöglicht eine effiziente Überprüfung der Datenintegrität sowie Speicheroptimierung. Die Architektur eignet sich insbesondere für kleinere KI-/ML-Workloads und -Umgebungen, in denen Kostenminimierung und Dichtemaximierung oberste Priorität haben.
    Produktbild mit Hinweisen zu Funktionen.

    Vergrößern

     

    • Architektur mit horizontaler Skalierung
      • Die Architektur mit horizontaler Skalierung ist so konzipiert, dass sie durch das Hinzufügen weiterer Knoten eine lineare Skalierbarkeit der Leistung schafft. Sie nutzt Erasure Coding und Replikations-Techniken auf allen Knoten, um eine hohe Verfügbarkeit und Datenredundanz zu gewährleisten. Die Architektur eignet sich besonders für große KI-/ML-Workloads, bei denen die Anforderungen an Leistung und Kapazität kontinuierlich steigen. So erfordert das Trainieren von Large Language Models (LLMs) wie GPT (Generative Pre-Trained Converters) oder BERT (Bidirectional Encoder Representations from Transformers) immense Rechenleistung und Datenspeicher, weshalb eine skalierbare Architektur zum Bewältigen der zunehmenden Komplexität und Menge an Daten unerlässlich ist. Außerdem profitiert die KI-gestützte Genomforschung erheblich von der Skalierbarkeit und Hochverfügbarkeit der Architektur mit horizontaler Skalierbarkeit. Dort müssen für Aufgaben wie Variantenanalysen und die Untersuchung von Genexpressionen große Mengen an Genomdaten verarbeitet werden.
      • Bei dieser Architektur können Hybridknoten (mit einer Mischung aus NVMe und Festplatten) und reine Flash-Knoten miteinander kombiniert werden, was Flexibilität bei der Konfiguration von Clustern entsprechend den spezifischen Leistungs- und Kapazitätsanforderungen bietet. In Konfigurationen mit horizontaler Skalierung nutzt QuantaStor die Integration der Ceph-Technologie mit Bereitstellung von verteiltem Speicher über eine große Anzahl von Knoten hinweg.

    Wichtige Gesichtspunkte und Gestaltungsoptionen.

    Abhängig von den spezifischen Erwartungen an Leistung und Datenkapazität der KI-/ML-Workloads sind bestimmte Konfigurationen besser geeignet. Faktoren wie das zu verarbeitende Datenvolumen und die gewünschte Zugriffsgeschwindigkeit entscheiden darüber, ob sich eine Hybrid- oder eine reine Flash-Konfiguration am besten für das jeweilige Szenario eignet. Des Weiteren beeinflussen Budget und Skalierbarkeit die Gestaltung der Architektur. 

    • Hybride Konfigurationen.  
      • Bei Hybridkonfigurationen werden NVMe-SSDs und Festplatten mit großer Speicherkapazität miteinander kombiniert, um ein ausgewogenes Verhältnis zwischen Leistung und Kosten zu erzielen. Die Architektur unterstützt bis zu 60 bzw. 90 Laufwerke in JBODs und eignet sich damit für KI- und ML-Workloads, die sowohl hohe Leistung als auch große Kapazitäten im Petabyte-Bereich erfordern, z. B. in der medizinischen oder physikalischen Forschung. 
      • Ein typischer Hybridpool mit vertikaler Skalierung nutzt drei NVMe-Laufwerke pro Pool für Metadaten sowie die Übertragung kleiner Dateien. Hinzu kommen Festplatten mit großer Kapazität für das Speichern größerer Datensätze. Hybridkonfigurationen mit horizontaler Skalierung hätten hier drei oder mehr NVMe-Laufwerke pro Knoten.
    • Reine Flash-Konfigurationen 
      • Reine Flash-Konfigurationen empfehlen sich für KI- und ML-Workloads, bei denen extrem hohe Leistung erforderlich ist, z. B. für Echtzeitanalysen oder intensive Datenverarbeitung. 
      • Diese horizontal skalierbaren Konfigurationen ermöglichen einen Durchsatz von bis zu 1 TB/s, möglich durch Hunderte von NVMe-Laufwerken in horizontal skalierbaren Clustern. 
    • Erwägungen in Bezug auf Kapazität und Leistung 
      • Ein Gleichgewicht zwischen Speicherkapazität ist unerlässlich. Zum Beispiel könnte der Flasch-Anteil in einem horizontal skalierbaren Hybridcluster für optimale Leistung etwa 3 % des gesamten Speichers betragen. In einem vertikal skalierbaren Hybridcluster hingegen wären es nur ca. 1 %. Während Festplatten einen klaren Vorteil hinsichtlich Kosten pro Terabyte und Gesamtbetriebskosten bieten (gewerbliche SSDs kosten 6-mal mehr), sind Festplatten nach wie vor die erste Wahl für große Speicherkapazitäten in Rechenzentren. 
      • Die Architektur ermöglicht es, mit kleineren Clustern zu beginnen und sie bei Bedarf mit zusätzlichen Knoten oder JBODs zu erweitern. So wird sichergestellt, dass die Speicherinfrastruktur mit den KI- und ML-Workloads wachsen kann. 

    Verwaltung und Optimierung.

    Damit KI- und ML-Workloads innerhalb der Speicherarchitektur optimal funktionieren, sind effektive Verwaltung und Optimierung entscheidend. Das moderne Verwaltungstool QuantaStor optimiert den Betrieb und ermöglichen eine umfassende Kontrolle und Übersicht über verschiedene Konfigurationen.

    • QuantaStor – für einheitliche Verwaltung
      • QuantaStor stellt eine einheitliche Steuerungsebene bereit, die die Verwaltung von Architekturen sowohl mit vertikaler als auch mit horizontaler Skalierung vereinfacht. Sie unterstützt moderne Funktionen wie Auto-Tiering, Ende-zu-Ende-Verschlüsselung und die Einhaltung von Branchenstandards. So wird sichergestellt, dass die Speicherinfrastruktur sicher und für KI-/ML-Workloads optimiert ist. 
      • Die Grid-Technologie der Software ermöglicht die nahtlose Skalierung von Speicher über mehrere Standorte hinweg und löst damit das Problem von zu komplexer Verwaltung bei unzusammenhängenden Systemen.

    Anwendungsfälle und Szenarien.

    Jeder KI- und ML-Workload erfordert eigens darauf abgestimmte Speicherlösungen, damit er optimale Leistung und Kosteneffizienz erzielen kann. Je nach Umfang und Komplexität des Workloads können vertikal skalierbare, horizontal skalierbare oder gemischte Konfigurationen eingesetzt werden, um die spezifischen Anforderungen der verschiedenen Branchen und Anwendungen zu erfüllen.

    • Anwendungsfälle für vertikale Skalierung
      • Scale-Up-Konfigurationen eignen sich ideal für Umgebungen mit kleineren KI-/ML-Workloads oder solche, bei denen Kosteneffizienz im Vordergrund steht. Sie eignen sich bestens für Anwendungen wie das Speichern von Medien, Server und Datenarchivierung. 
    • Anwendungsfälle für horizontale Skalierung 
      • Scale-out-Konfigurationen sind für hohe Rechenleistung, Data Lakes und KI-/ML-Umgebungen ausgelegt, bei denen die Skalierbarkeit sowohl der Leistung als auch der Kapazität entscheidend ist. Diese Konfigurationen eignen sich auch ideal für umfangreiche Objektspeicher und Echtzeitanalysen. 
    • Anwendungsfälle für gemischte Ansätze
      • Unternehmen können in derselben Umgebung sowohl vertikal als auch horizontal skalierbare Konfigurationen einsetzen. Die einheitliche Verwaltung durch QuantaStor sorgt dabei für Konsistenz und erlaubt die Optimierung der Performance über unterschiedliche Workloads hinweg.

    whitepaper-joint-ai-supermicro-figure-4

    Vergrößern

    Fortschritte bei der Technologie.

    Die moderne Technologie in dieser Lösung ist entscheidend für ihre Leistungsfähigkeit. Die Exos Mozaic 3+-Festplatten von Seagate sind ein echter Technologiesprung in der Welt der Speicherlösungen. Durch die HAMR erreichen diese Festplatten eine bisher unerreichte Flächendichte und bieten damit größere Speicherkapazität bei gleichem Platzbedarf. Diese Verbesserung ermöglicht nicht nur umfangreiche Datenspeicher, sondern verbessert auch die Energieeffizienz, da zum Speichern der gleichen Datenmenge weniger Festplatten erforderlich sind.

    Die Vorteile von Mozaic 3+-Festplatten im Hinblick auf TCO sind beträchtlich: Sie bieten die dreifache Speicherkapazität bei gleichem Platzbedarf im Rechenzentrum, 25 % geringere Kosten pro TB, einen um 60 % geringeren Stromverbrauch pro TB und einen um 70 % reduzierten CO2-Ausstoß pro TB (verglichen mit den aktuell weit verbreiteten und obsolet werdenden 10 TB-PMR-Festplatten). Der geringere Stromverbrauch der Festplatten schlägt sich in geringeren Stromkosten nieder, während die höhere Dichte den Platzbedarf verringert – alles Dinge, die die Kosten für Rechenzentren senken. Durch den gesenkten CO2-Ausstoß sind die Festplatten außerdem umweltfreundlicher und erleichtern Unternehmen das Erreichen ihrer Nachhaltigkeitsziele.

    Die Integration der Nytro NVMe-SSDs von Seagate verbessert die Leistung zusätzlich. Diese High-Speed-Laufwerke sind unerlässlich für die Bewältigung der intensiven Lese- und Schreiboperationen, die für KI-Workloads typisch sind. Die geringe Latenz der Lösung sorgt dafür, dass Daten in Echtzeit abgerufen und verarbeitet werden können, was für das Training von KI-Modellen und die Bereitstellung von KI-Anwendungen entscheidend ist. Das Design der SSDs mit zwei Ports erhöht die Zuverlässigkeit, da es einen kontinuierlichen Betrieb ermöglicht, selbst wenn ein Port ausfällt.

    Die Software QuantaStor von OSNexus bereichert die Lösung durch intelligente Datenverwaltung und moderne Sicherheitsfunktionen. Die Auto-Tiering-Funktionen der Software stellen sicher, dass Daten auf der am besten geeigneten Ebene gespeichert werden, was sowohl die Leistung als auch die Wirtschaftlichkeit optimiert. Die Ende-zu-Ende-Verschlüsselung und die Einhaltung von Branchenstandards tragen zum Schutz der Daten bei. Das betrifft vor allem Branchen wie das Gesundheitswesen und das Finanzwesen, in denen häufig mit sensiblen Daten umgegangen wird und in denen KI-Anwendungen keine Lücken bei Sicherheit und Datenschutz zulassen dürfen.

    whitepaper-joint-ai-supermicro-figure-6

    Vergrößern

     

    Vorteile der Lösung.

    Die gemeinsame Lösung von Supermicro, Seagate und OSNexus bietet mehrere wichtige Vorteile, die den spezifischen Anforderungen von KI- und ML-Workloads gerecht werden. Diese Vorteile sind:

    • Skalierbarkeit: Dadurch, dass die Lösung vertikal und horizontal skalierbar ist, kann sie mit den steigenden Anforderungen von KI-Workloads mitwachsen. Egal, ob ein Unternehmen mit wenigen Terabyte oder mehreren Petabyte an Daten arbeitet – die Lösung kann allen Anforderungen gerecht werden, ohne dass dafür die Speicherinfrastruktur komplett erneuert werden muss.
    • Leistung: Der Einsatz von Nytro NVMe-SSDs und Mozaic 3+-Festplatten von Seagate sorgt in Kombination mit dem Verwaltungstool QuantaStor für außergewöhnlich hohe Leistung. Das ist insbesondere für KI- und ML-Workloads wichtig, für die ein hoher Durchsatz und geringe Latenz erforderlich sind, um effektiv zu funktionieren.
    • Kosteneffizienz: Die Architektur der Lösung ist für optimale Investitions- und Betriebskosten ausgelegt. Durch eine geringere Gesamtzahl an physischen Laufwerken, weniger Stromverbrauch und die flexible, einheitliche Verwaltungsplattform hat die Lösung erheblich geringere Gesamtbetriebskosten (TCO).
    • Einheitliche Verwaltung: Dadurch, dass mit QuantaStor vertikal und horizontal skalierbare Konfigurationen gleichzeitig verwaltet werden können, sind Abläufe vereinfacht und die Verwaltung von Speicherlösungen mehrerer Anbieter weniger komplex. Dieser einheitliche Ansatz spart nicht nur Zeit, sondern verringert auch die Fehleranfälligkeit und steigert die Gesamteffizienz.
    • Sicherheit und Compliance: Die Lösung umfasst moderne Sicherheitsfunktionen, die Daten vor unbefugtem Zugriff schützen und die Einhaltung von Branchenstandards gewährleisten. Dies ist insbesondere für KI-Anwendungen in Branchen mit strengen Vorschriften wichtig, in denen Verstöße gegen die Datensicherheit erhebliche rechtliche und finanzielle Strafen nach sich ziehen können.
    • Auswirkungen auf die Umwelt: Festplatten von Seagate aus der Mozaic 3+-Plattform verringern die ökologischen Auswirkungen von Rechenzentren, indem sie den Stromverbrauch senken und weniger Platz benötigen. Das ist ganz im Sinne der wachsenden Bedeutung von Nachhaltigkeit im Technologiebereich.

    Anwendungsfälle.

    Die Lösung ist so vielseitig, dass eine Vielzahl von Anwendungsfällen in verschiedenen Branchen denkbar ist. Mögliche Beispiele sind:

    • Gesundheitswesen: KI- und ML-Workloads im Gesundheitswesen, etwa Prognosen und personalisierte Medizin, müssen große Datenmengen schnell und sicher verarbeiten können. Die gemeinsame Lösung bietet die zur Unterstützung dieser Anwendungen erforderliche Skalierbarkeit, Leistung und Sicherheit.
    • Finanzwesen: Im Finanzwesen, wird KI für Aufgaben wie die Betrugserkennung, Trading-Algorithmen und das Risikomanagement eingesetzt. Diese Anwendungen erfordern überaus schnelle Datenverarbeitung sowie Echtzeit-Analysen – beides möglich dank der Hochleistungs-Speicherarchitektur der Lösung.
    • Medien und Unterhaltung: In der Medien- und Unterhaltungsbranche werden riesige Datenmengen erzeugt, insbesondere durch die zunehmende Verbreitung von Videodateien mit hoher Auflösung. Dadurch, dass diese Lösung mit umfangreichen Datenspeichern umgehen kann und schnellen Zugriff auf Dateien bietet, ist sie ideal für Aufgaben wie Videobearbeitung, Rendering und Archivierung. 
    • Fertigung: KI und ML werden in der Fertigung für die vorausschauende Instandhaltung, die Qualitätskontrolle und die Optimierung der Lieferkette eingesetzt. Bei diesen Anwendungen entstehen große Datenmengen, die effizient gespeichert und analysiert werden müssen. Die gemeinsame Lösung bietet die erforderliche Skalierbarkeit und Leistung für diese Anwendungsfälle. 
    • Forschung und Entwicklung: Für die KI-gestützte Forschung in Bereichen wie Pharmazeutik, Genomforschung, Materialwissenschaften und Klimamodellierung müssen große Datensätze gespeichert und verarbeitet werden. Durch den hohen Durchsatz und die geringe Latenz ist die Lösung bestens für diese anspruchsvollen Anwendungen geeignet. 

    Fazit.

    Die von Supermicro, Seagate und OSNexus gemeinsam entwickelte KI-Lösung bietet eine umfassende, skalierbare und kostengünstige Speicherarchitektur, die speziell auf die besonderen Anforderungen von KI- und ML-Workloads zugeschnitten ist. Durch die Kombination fortschrittlicher Hardware und Software bietet die Lösung herausragende Leistung, Zuverlässigkeit und Effizienz. Das macht sie zur idealen Wahl für Unternehmen, die KI nutzen und sich damit einen Wettbewerbsvorteil verschaffen möchten. Ob im Gesundheitswesen, im Finanzwesen, für die Medienbranche, in der Fertigung oder in der Forschung – die Lösung bietet die robuste Infrastruktur für die nächste Generation von KI-Anwendungen. Damit ist der Weg in die Zukunft der KI-gestützten Innovation in allen möglichen Branchen geebnet. 

    Lösungstabelle.

    Topologie Produkt- Ausfallsicherheitsmodell Reine Kapazität Nutzbare Kapazität Detaillierte Spezifikationen
    Vertikales Skalieren SBB hybrid; Dreifache Parität 2.039 TB brutto 1.512 TB nutzbar Link
    Vertikales Skalieren SBB rein Flash Doppelte Parität (4d + 2p) 737 TB brutto 553 TB nutzbar Link
    Horizontale Skalierung Hyper rein Flash EC2k+2m/REP3 1.106 TB brutto 533 TB nutzbar Link
    Horizontale Skalierung 4U/36 EC4K+2m/REP3 3.974 TB brutto 2.513 TB nutzbar Link
    Horizontale Skalierung 4U/36 EC8K+3m/REP3 8.342 TB brutto 5.786 TB nutzbar Link
    Horizontale Skalierung Topload mit zwei Knoten EC8K+3m/REP3 11.981TB brutto 8.406 TB nutzbar Link


    Akronyme und zusätzliche Informationen.

    SBB: Storage Bridge Bay.
    EC: Erasure Coding.
    „Doppelte Parität“ und „Dreifache Parität“ steht für die Anzahl der Paritätsblöcke, die für Datenredundanz und Fehlertoleranz verwendet werden.
    Numerische Zeichenfolgen beziehen sich auf das Ausfallsicherheitsmodell.