X

Do More Schnelle Skalierung in Unternehmens- und Cloud-Rechenzentren dank SAS

SAS bietet Unternehmens- und Cloud-Rechenzentren die nötige Leistung und Zuverlässigkeit, um angesichts der stetig wachsenden Anforderungen schnell skalieren zu können.

Das Datenwachstum war nie so rasant wie heute. So werden zum Beispiel Cloud-Dienste über die nächsten fünf Jahre ein besonders wachstumsstarker Sektor mit Speicheranforderungen sein. Gartner prognostiziert für 2016 einen Umsatzanstieg für Infrastructure as a Service (IaaS) auf 24,4 Milliarden US-Dollar, wovon Speicher rund 40 % ausmachen sollen. (Gartner, Public Cloud Services, Worldwide, 2011–2016, 2Q12 Update, Veröffentlichung: 20. August 2012.) Neben Clouds werden derzeit weitere Trends beobachtet, die zu Datenwachstum führen werden: soziale Medien, BYOD und Big-Data-Analysen.

Vornehmlich stellt sich jedoch eine Frage: Wie rüsten wir unsere Server- und Speicherinfrastruktur angemessen auf, um zum einen die explodierende Nachfrage nach Speicherkapazität zu decken und zum anderen zugleich Leistung, Skalierbarkeit und Zuverlässigkeit auf einem bisher unerreichten Niveau zu gewährleisten?

Schnittstellen kurz vorgestellt

Angesichts des enormen Datenwachstums in den vergangenen zehn Jahren musste sich die Speichertechnologie weiterentwickeln. In den Anfangsjahren des Enterprise Storage waren parallele SCSI-Schnittstellen die erste Wahl für serverbasierte Speicher. Mit der zunehmenden Weiterentwicklung von Netzwerken rückte das Konzept des Datenzugriffs aus einer gemeinsamen Quelle von Speicherressourcen (häufig als Speichernetzwerke oder SAN bezeichnet) in den Vordergrund – das Fibre-Channel-Netzwerk bekam nun Relevanz. Parallele SCSI-Schnittstellen sollten nun die Server- und DAS-Architekturen dominieren, während Fibre-Channel der Standard für SAN wurde.

Genau in dieser Zeit begann die Serienproduktion von ATA-Desktop-Schnittstellen und SCSI-Schnittstellen für DAS-Unternehmensarchitekturen. Die Einführung von SATA-Schnittstellen (SATA: Serial AT Attachment) und SCSI-Schnittstellen (SAS) führte zu einem Boom bei Desktop- und Unternehmensspeichern. SATA wurde schnell zur Standardschnittstelle für Client Computing, da sie einen schnelleren Durchsatz, eine dünnere und überschaubarere Verkabelung und eine höhere Signalintegrität ermöglichte. Zugleich konkurrierte SAS bei den SAN- und DAS-Unternehmensarchitekturen zunehmend mit Fibre-Channel, musste sich dabei jedoch noch mit einer weiteren neuen Architektur messen: Network Attached Storage (NAS) mit iSCSI-Protokoll ermöglichte nicht nur Kosteneinsparungen, sondern auch mehr Konnektivität.

Wie kam es dazu?

Angesichts des wachsenden Marktanteils von NAS- und iSCSI-Speichern suchten Unternehmen jeder Größenordnung nach der bestmöglichen Speichermöglichkeit für die bestehenden umfangreichen Ethernet-Verkabelungen. Die kostengünstigeren NAS-Lösungen ermöglichten eine nahtlose Konnektivität zu Clients auf Abteilungsebene sowie in Arbeitsgruppen und machten damit die vormals ausschließlich von SAN auf Unternehmensebene genutzten Backend-Rechenzentren überflüssig. An diesem Punkt erfolgte die Einführung der SATA-Laufwerke der Desktop-Klasse für den Unternehmensbereich.

SATA-Festplatten der Desktop-Klasse waren, wie auch SATA-Controller, kostengünstiger und zudem konnte SATA auf einer SAS-Backplane betrieben werden. SATA-Festplatten der Desktop-Klasse wurden für NAS- und DAS-Lösungen daher zunehmend als kostensparende Speicher mit großer Kapazität eingesetzt. Allerdings brachte das auch Nachteile mit sich. SATA-Festplatten der Desktop-Klasse waren nicht auf die Auslastung im Dauerbetrieb ausgelegt, die in Unternehmensumgebungen verlangt wird. Kunden beobachteten Leistungsverschlechterungen und mangelnde Zuverlässigkeit (siehe weiter unten). Die Ursache: Rotationsschwingung. Eine zu hohe Anzahl an Festplatten in ununterbrochenem Systembetrieb verursachte Vibrationen im System, die zu einer erheblichen Verschlechterung bei den Eingabe- und Ausgabeoperationen pro Sekunde (Input/Output Operations per Second, IOPS) sowie bei der Zuverlässigkeit führten. Dennoch stoßen Festplatten der Desktop-Klasse, insbesondere angesichts des Siegeszugs der Cloud, auch weiterhin in den Markt der als Speicher der Enterprise-Klasse vertriebenen Lösungen vor.

Wenn das Datenwachstum Dimensionen erreicht, wie sie derzeit bestehen und für die Zukunft erwartet werden, suchen Unternehmen jede Gelegenheit, um bei ihren Speicherlösungen Kosten zu sparen. Für viele ist es Usus geworden, sofort zur Festplatte mit der größten Kapazität zum geringstmöglichen Preis zu greifen. Häufig handelt es sich dabei um ein Produkt der Desktop-Klasse, das nicht auf die Auslastungen und Arbeitszyklen von Unternehmen ausgelegt ist. Das Problem der Kostenreduzierung bei der Erstanschaffung von Speicherkapazität ist damit zwar gelöst, doch das Rechenzentrum ist nun mit einer ganzen Reihe versteckter Kosten konfrontiert.

Das einheitliche SAS-Unternehmen

Die eingangs erwähnten dynamischen Techniktrends waren der Anstoß für Festplattenhersteller, eine völlig neue Gattung von Enterprise-Speichern mit großer Kapazität und geringen Kosten zu entwickeln: Nearline. Nearline-Speicher (häufig auch als Tier-2-Speicher bezeichnet), unternehmenskritische Speicher (sog. Midline-Speicher) und sogar Massenspeicher sind für Unternehmen in puncto Kosten-pro-Gigabyte bzw. in modernen Speicherumgebungen Kosten-pro-Terabyte die entscheidendsten Speichermetriken. Nearline war einst die Antwort auf die Datenexplosion.

Auf dem Markt für Hochleistungsfestplatten ist SAS bereits gut etabliert und dringt nun mit seinen kapazitätsoptimierten Nearline-Festplatten in das Sekundärspeichersegment ein. Hinsichtlich der Skalierbarkeit bzw. der Möglichkeit für Unternehmens- oder Cloud-Rechenzentren zur schnellen Skalierung bei steigenden Anforderungen an Kapazität und Leistung gibt es keine bewährte Lösung, die der Leistung, Datenintegrität, Zuverlässigkeit und langfristigen Investitionssicherheit von SAS gleichkommt.

Welche Relevanz hat die Vereinheitlichung des Unternehmens auf SAS für die Speicheranforderungen?

Leistung – Festplatten der Enterprise-Klasse müssen in Konfigurationen mit mehreren Festplatten, bei denen durch das Gehäuse übertragene physische Vibrationen auftreten, ein zuverlässig hohes Leistungsniveau gewährleisten. Diese auftretenden Vibrationen werden auch als Rotationsschwingungen (RV) bezeichnet.

Bei Rotationsschwingungen handelt es sich um Schwung- und Drehmomente, deren Drehbeschleunigung in Radiant pro Sekunde gemessen wird. Anders ausgedrückt: die maximale durch Drehbeschleunigung auftretende Belastbarkeit der Festplatte.

RV werden hauptsächlich verursacht durch:

  1. Abtastbewegungen der Festplatte
  2. Datenzugriff durch weitere Festplatten im Gehäuse (z. B. in Umgebungen mit mehreren Spindeln)
  3. Äußere Krafteinwirkung auf das Gehäuse

Wird die Rotationsschwingung bei der Gehäusekonstruktion nicht berücksichtigt, kann der Lesekopf durch das RV-Moment aus der Position geschüttelt werden. Dadurch können Aussetzer bei den Umdrehungen und in der Folge Verzögerungen bei der Datenübertragung auftreten. In Tests mit nicht für RV angemessenen Festplatten konnten erhebliche Leistungseinbußen (über 50 %) nachgewiesen werden.

Glücklicherweise kommt bei Enterprise-Festplatten seit über zehn Jahren immer wieder neue Technik zum Einsatz, um der Einwirkung von RV-Kräften entgegenzuwirken. Zur Optimierung dieser dicht gepackten Umgebungen mit mehreren Laufwerken setzt Seagate bei seinen Enterprise-Festplatten Sensoren für Rotationsschwingungen sowie Sensoren für Linearschwingungen ein. Dank dieser Sensoren können Vibrationen, die durch die Festplatte selbst oder durch von außen einwirkende Kräfte (z. B. Lüfter, minderwertige Gehäuse usw.) verursacht werden, kompensiert werden, ohne dabei die Lese- und Schreibkapazität zu beeinträchtigen.

Auch konstruktionstechnisch hat dies Vorteile, da die Vibrationen, die das Laufwerk selbst verursachen könnte, eingedämmt werden. Für Enterprise-Festplatten mit großer Kapazität von Seagate wird ein am Oberteil befestigter Spindelmotor eingebaut, der die Konstruktionsstabilität von Laufwerken mit einer Konfiguration für vier Festplatten verstärkt. Weitere Konstruktionsverbesserungen wurden u. a. durch die Optimierung der Suchprofile von Festplatten in der Firmware erreicht, um ausgestrahlte Drehmomente zu minimieren.

Xyratex ist in der Branche anerkannt für das Management von Rotationsschwingung, Energie und Kühlung für 2,5- und 3,5-Zoll-Festplatten unter seinen anspruchsvollen Festplattenverarbeitungssystemen (Drive Processing Systems, DPS) mit weltweit über 3 Millionen Test-Slots. Auf der Grundlage seiner mehr als 25 Jahre Erfahrung mit Testeinrichtungen für Festplatten und Speicherkomponenten nutzt Xyratex Wärmemodulation und Techniken zur Isolierung der Festplatte von verschiedenen Vibrationsquellen (z. B. Lüftern und anderen beweglichen Komponenten) oder wählt Komponenten, die Vibration minimieren, z. B. Lüfter mit mehr Gewicht, um ideale individuelle Testumgebungen zu erzeugen. So können Seagate und andere Festplattenhersteller höhere Festplattenleistung, -dichte und -flexibilität erkennen und Xyratex ermöglichen, modulare Gehäuse und Lösungen für Hochleistungsplattformen mit sehr dichter Speicherkapazität zu erzeugen. Xyratex arbeitet eng mit Seagate zusammen, um deren Festplatten durch Leistungstests in Prozessen und Gehäusen zu qualifizieren.

Wie sieht es also nun mit Desktop-Festplatten in Unternehmensumgebungen aus? Das unten dargestellte Diagramm zeigt die Auswirkungen auf die Leistung von Festplatten der Desktop-, Nearline- und Enterprise-Klasse bei unterschiedlicher Vibrationsintensität. Die Werte 6 Radiant/Sek., 12 Radiant/Sek. und 21,5 Radiant/Sek. stehen für die jeweiligen Toleranzgrenzen von Desktop-Festplatten, kapazitätsorientierten Enterprise-Festplatten (Nearline) bzw. leistungsorientierten Enterprise-Festplatten (Enterprise) bei einer gleichbleibenden Durchsatzleistung von bis zu 80 %. Es ist zu beachten, dass bei Überschreitung der angegebenen Toleranzwerte insbesondere bei Desktop-Festplatten ein erheblicher Leistungsabfall auftritt. Festplatten der Enterprise-Klasse hingegen bieten unter allen Bedingungen mit Ausnahme von Extrembedingungen weiterhin eine Leistung von fast 100 %.

Wie wirken sich Rotationsschwingungen auf den Festplattenbetrieb aus?

Die Lese- und Schreibköpfe folgen konzentrischen Spuren auf der Festplatte. Die Position des Lese- und Schreibkopfes muss innerhalb eines zulässigen Toleranzfensters bleiben, um den Lese- und Schreibbetrieb zu gewährleisten. Das zulässige Toleranzfenster für den Schreibbetrieb liegt niedriger als das für Lesevorgänge, d. h., dass Schreibvorgänge gegenüber Vibrationen anfälliger sind als Lesevorgänge.

Wenn die Position des Schreibkopfes nicht im zulässigen Positionsbereich liegt, wird der Schreibvorgang vorübergehend unterbrochen. Die Nichteinhaltung des Positionsbereichs für den Schreibkopf wird als Schreibfehler bezeichnet. Der Schreibvorgang wird wieder aufgenommen, sobald die Spurgenauigkeit wieder innerhalb des zulässigen Bereichs liegt und der Zielort (logische Blockadresse, LBA) unter dem Schreibkopf durchläuft. Die Ziel-LBA läuft einmal pro Festplattenumdrehung unter dem Schreibkopf durch. Wenn ein Schreibfehler auftritt, wird der Schreibvorgang nach einer Festplattenumdrehung wieder aufgenommen. Bei sehr starken Vibrationen kann der Schreibvorgang für mehrere Festplattenumdrehungen ausgesetzt werden. Verzögerungen bei Lese- und Schreibvorgängen sind die Ursache für vibrationsbedingte Einbußen bei der E/A-Leistung.

Fazit: Kunden, die Anwendungen mit mehreren Festplatten nutzen, werden deutlich davon profitieren, die angegebenen Leistungsdaten durch Integration von Festplatten der Enterprise-Klasse auf verschiedenen Speicherstufen tatsächlich zu erreichen.

In Tiered-Storage-Umgebungen müssen die Daten nicht nur von Tier-0- und Tier-1-Speichern schnell übertragen werden, sondern auch zwischen den kostengünstigeren Tier-2-Speichern. Eine möglichst schnelle Datenübertragung zwischen den verschiedenen Speicherstufen ist immer wichtiger, um den Erwartungen der Kunden gerecht zu werden. Können die Kundenerwartungen nicht erreicht werden, entstehen Zusatzkosten infolge von höheren Abbruchraten, entgangenem Umsatz und geringeren Kundenzahlen.

Skalierbarkeit: Um den steigenden Datenbedarf zu decken, suchen Unternehmen Lösungen, die höchstmögliche Skalierbarkeit bieten. Angesichts unzähliger Terabytes, Petabytes und inzwischen sogar schon Exabytes an Daten in der heutigen Zeit ist es entscheidend, die Netzwerkspeicherkapazität schnell, kosteneffizient und ohne Beeinträchtigung der Service Level Agreements zu erweitern.

Die Umstellung auf Speichernetzwerke erfordert komplexere und umfassendere Fehlerprüfungen. Es ist eine Sache, Daten vom Motherboard an eine direkt angeschlossene Festplatte zu übertragen. Eine ganz andere ist es jedoch, diese Daten dann durch mehrere innerhalb eines Serverracks oder über das ganze Land verteilte Schaltpunkte zu übertragen. Jeder Punkt, an dem die Adresse sich ändert, ist eine potenzielle Fehlerquelle. Desktop-Festplatten führen eine einfache Fehlerprüfung durch. Diese berücksichtigt jedoch nicht, ob die empfangenen Daten auch genau den ursprünglich gesendeten Daten entsprechen. Wenn bei einem Bit während der Übertragung also ein Problem auftritt, schreibt die Desktop-Festplatte den Fehler einfach mit. Eine SAS-Nearline-Festplatte hingegen erkennt und behebt Vergleichsfehler durch fortschrittliche Technik, wie sie etwa für ECC-Serverspeicher genutzt wird, und im Datenstrom eingebettete Metadaten.

Adressierung und Fehlerbehebung gewinnen für die SAS-Skalierbarkeit jenseits des typischen Implementierungsmodells mit zwei bis vier Festplatten immer mehr an Bedeutung. Die meisten Motherboards sind bekanntermaßen nur für vier bis acht SATA-Geräte ausgelegt. Doch anders als bei SATA können SAS-Geräte, ähnlich einem gewöhnlichen Unternehmensnetzwerk, innerhalb derselben Domäne betrieben werden. Wie in einem Netzwerk können verschiedene Typen von SAS-Schaltern (meist als „Expander“ bezeichnet) eingesetzt werden, um mehrere Geräte in einer Domäne zusammenzufassen. An einen Edge-Expander können bis zu 128 Geräte angeschlossen werden, wobei 128 Edge-Expander pro Fanout-Expander möglich sind. Insgesamt können damit in einer SAS-Domäne bis zu 16.384 Geräte zusammengeschlossen werden.

Für die meisten Benutzer dürften diese Dimensionen jedoch nicht annähernd erreicht werden. Doch auch auf Rackmount-Ebene kann eine Speicherlösung durchaus dutzende bis hunderte Festplatten umfassen. Genau hier kann die SAS-Architektur ihr Potenzial für schnelle Skalierung hervorragend entfalten.

Zuverlässigkeit – Wie bereits erwähnt, lässt sich die mangelhafte Zuverlässigkeit der Festplatte in den meisten Fällen auf die Nutzung eines Speichergeräts zurückführen, das nicht für ein System der Enterprise-Klasse bzw. nicht für eine bestimmte Enterprise-Auslastung geeignet ist. Festplatten sind mechanische Geräte und werden als solche mit bestimmten Eigenschaften und Komponenten für bestimmte Auslastungen konzipiert. Festplatten der Enterprise-Klasse werden mit zusätzlichen Eigenschaften und Funktionen ausgestattet, die ein zuverlässiges Lesen und Schreiben von Daten in stärker belasteten dauerbetriebenen Rechenzentrumsumgebungen ermöglichen.

So können SAS-Festplatten dank Dual-Port-Redundanz und einer geringeren Anzahl physikalischer Verbindungen die Ausfallrate von Speichersystemen senken. IT-Experten sträuben sich grundsätzlich gegen Speichersysteme, die eine Störung der Betriebsintegrität mit sich bringen können. Doch Enterprise-SAS-Festplatten ermöglichen durch ihr Design eine nahtlose Integration in bestehende SAS-Infrastrukturen, die derzeit die so wichtigen Tier-1-Speicher unterstützen. Da SAS-Festplatten zahlreiche Host-Verbindungen unterstützen, kann das für SATA-Festplatten so typische Single-Point-of-Failure-Risiko beseitigt werden. Da keine SATA-Interposer-Karte mehr nötig ist, lässt sich durch SAS-Festplatten außerdem auch die Anzahl der Systemkomponenten reduzieren. Dies ist ein wichtiger Punkt, wenn es um mehr Zuverlässigkeit geht.

Wie bereits im Abschnitt Leistung erwähnt, wird die Zuverlässigkeit der Festplatte sowie die Leistung in Umgebungen mit mehreren Spindeln durch Rotationsschwingungen (RV) beeinträchtigt. Die Konstruktion von Enterprise-Festplatten berücksichtigt diesen Faktor durch Integration spezieller RV-Sensoren, die eine Kompensation dieser mechanischen Linear- und Rotationsschwingungen ermöglichen. Zwei-Stufen-Aktoren mit höherer Bandbreite bieten mehr Schutz vor RVs und fest verbundene Spindelmotoren gewährleisten mehr mechanische Stabilität. Das sind nur zwei Beispiele für Technik, die in Enterprise-Festplatten zum guten Ton gehört, bei Desktop-Festplatten jedoch kaum zum Einsatz kommt. Die Nutzung von Enterprise-Festplatten hat zahlreiche deutliche Vorteile, die weit über die Lebensdauer bzw. die bei Enterprise-Festplatten im übrigen sehr viel höhere Mean Time Between Failures (MTBF) hinausgehen: weniger Integrationsaufwand, geringere Fehlerraten für nicht behebbare Fehler, Geschwindigkeitsoptimierung, umfassendere Herstellertests und, nicht zuletzt, weniger Ersatzbeschaffungen von Festplatten und damit eine Steigerung der Rendite.

Mit seiner weitreichenden Expertise und Erfahrung beim Testen von Festplatten in den letzten drei Jahrzehnten verbessert Xyratex Laufwerksqualität, -zuverlässigkeit und -robustheit durch die frühe Erkennung von individuellen Laufwerksschwächen oder -mängeln. Einer der proprietären Testverfahren von Xyratex, der sogenannte Combined Environmental Reliability Test (CERT), ist eine äußert effiziente und skalierbare Speichertestplattform, die Geräte mit inhärenten Mängeln oder Produktionsfehlern, die zeit- und belastungsabhängige Ausfälle verursachen, untersucht, identifiziert und eliminiert. Zusätzlich führt CERT anhand intensiver und an die Kundenwünsche angepasster Tests eine beschleunigte Belastungsprüfung an komplett montierten Speichersystemen durch. Darüber hinaus umfassen Tests der Leistung auf Systemebene und der Datensicherheit innerhalb dieses Prozesses Kernbereiche von Erschütterung und Vibration, Rotationsschwingung, Leistungsmessungen sowie Fehlerreplikation und -diagnose.

Die wichtigsten Erkenntnisse

Seagate und Xyratex hoffen, Sie fanden dieses Dokument interessant und informativ und danken Ihnen, dass Sie sich die Zeit zum Lesen genommen haben. Wir hoffen, dass alle Leser neue Informationen gefunden haben, aber auch, dass einige wichtige Erkenntnisse gewonnen wurden. Zusammengefasst:

  1. Die Speicheranforderungen steigen exponentiell. Eine Abschwächung dieser Entwicklung ist nicht in Sicht.
  2. Desktop-Festplatten sind nicht auf gleichbleibend hohe Leistung, Skalierbarkeit und Zuverlässigkeit ausgelegt und daher für Rechenzentren und Umgebungen mit mehreren Spindeln nicht geeignet.
  3. Nicht alle Rechenzentren und Infrastrukturen sind gleich: Die relative Leistungsfähigkeit der jeweiligen Umgebung muss den Anforderungen der kritischen Anwendungen entsprechen.
  4. Unternehmen, die eine gleichbleibend zuverlässige, skalierbare Speicherleistung erwerben oder leasen möchten, sollten bei ihrer Wahl nur die auf ihre speziellen Anforderungen ausgerichteten Hochleistungsfestplatten der Enterprise-Klasse (Nearline SAS) berücksichtigen.

Während in diesem Artikel zwar einige technische Unterschiede zwischen Festplatten der Desktop-Klasse (SATA) und der Enterprise-Klasse (SAS) behandelt werden konnten, gilt zu beachten, dass hier natürlich noch weitaus mehr Unterschiede bei Leistungsmerkmalen und der Technik bestehen. Seagate und Xyratex werden in naher Zukunft ein Folgedokument zu genau diesem Thema veröffentlichen, halten Sie sich also auf dem Laufenden.

Markierung:

Ähnliche Produkte
Enterprise Performance 10K HDD
Enterprise Performance 10K HDD

Geschäftskritische Server und externe Speicher-Arrays mit optionaler Selbstverschlüsselung und Zertifizierung gemäß FIPS

Enterprise Capacity 3.5 HDD
Enterprise Capacity 3.5 HDD

Weltweit schnellste Nearline-Festplatte mit 6 TB und Selbstverschlüsselung zum Speichern großer Datenmengen

Pulsar – Hauptmodell
Pulsar SAS SSD von Seagate

Leseintensive Anwendungen für Rechenzentren und Cloud Computing

ÄHNLICHE FEATURES ZU TECH. ERKENNTNISSEN
Schnelle Skalierung in Unternehmens- und Cloud-Rechenzentren dank SAS

SAS bietet Unternehmens- und Cloud-Rechenzentren die nötige Leistung und Zuverlässigkeit, um angesichts der stetig wachsenden Anforderungen schnell skalieren zu können.

Weitere Informationen
Schnelle Skalierung in Unternehmens- und Cloud-Rechenzentren dank SAS

SAS bietet Unternehmens- und Cloud-Rechenzentren die nötige Leistung und Zuverlässigkeit, um angesichts der stetig wachsenden Anforderungen schnell skalieren zu können.

Weitere Informationen
ÄHNLICHE RESSOURCEN
Seagate ist der weltweit führende Hersteller von in Cloud-Computern und -Speichern eingesetzten Festplatten.
Die Nachfrage nach Speichergeräten in einer vernetzten Datenwelt

Cloud-Daten-Ökosysteme erfordern digitale Speicherkapazität

Weitere Informationen