X

Seagate Point of View Halbleiterfestplatten und die Entwicklung von Enterprise-Storage-Tiering

Tiering bietet OEM-Kunden einen höheren Mehrwert als das einfache Packen von Daten.

Tiering-Entwicklung

Tiering ist die Fähigkeit, Daten zwischen unterschiedlichen Speicherklassen hin und her zu schieben, um die Leistung zu optimieren. Die ursprüngliche Tiering-Lösung kam wahrscheinlich in den 1980er Jahren von IBM in Form des hierarchischen Speichermanagements (HSH). Diese Version bot die Möglichkeit, Dateien je nach Aktivitätsebene von Festplatte auf Band (oder umgekehrt) zu verlagern. Später entwickelten auch andere Unternehmen HSM-Produkte, aber keines davon war besonders erfolgreich. In der jüngeren Vergangenheit wurde durch das Thin Provisioning eine Verbesserung eingeführt, bei der Daten auf Block- anstelle von Dateiebene verwaltet wurden. Diese blockorientierte Funktionalität bot einen Kontext, in dem eine viel präzisere Verschiebung von leistungskritischen Plattendaten möglich war.

Die Einführung von Halbleiterfestplatten (SSDs) führte zur zwingenden Notwendigkeit, Daten dynamisch zu platzieren. Jedoch betonte die erste SSD-Werbekampagne nur die Geschwindigkeit der SSDs, und zwar in der Erwartung, dass Benutzer dadurch schnell beeindruckt und kaufen würden. Diese Methode war aber nicht so erfolgreich, wie es sich die SSD-Hersteller erhofft hatten.

Die SSD-Herausforderung

Für den Enterprise-Speicher bieten SSDs zwei Besonderheiten: konkurrenzlos hohe Leistung und konkurrenzlos hohe Kosten. Benutzer möchten die SSDs verwenden, um den Zugriff auf ihre wichtigsten Daten zu beschleunigen, können sich aber nicht leisten, einen erheblichen Anteil ihrer Kapazität auf SSDs zu verlagern. Mit anderen Worten, die Benutzer müssen entscheiden, was am vorteilhaftesten für eine Verbesserung ihrer Arbeitsabwicklung ist, und dann nur die entsprechenden Daten auf die SSD verlagern.

Bei der Einsatzplanung von SSDs stehen Benutzer vor folgenden drei Problemen:

  1. Ihnen fehlen die Tools, um die aktivsten Daten schnell herausfinden zu können.
  2. Selbst wenn sie die am häufigsten verwendeten Daten identifizieren können, können sie diese nicht immer isolieren (z. B. die am häufigsten genutzte Datensätze vom Rest der Datenbank oder die Metadaten des Dateisystems vom Rest des Dateisystems).
  3. Da sich die Voraussetzungen im Laufe der Zeit ändern, braucht es sich bei dem besten Kandidaten für SSD-Daten zu einem bestimmten Zeitpunkt nicht immer um die beste Lösung dafür handeln.

Mit Tiering besteht die Aussicht, diese Probleme zu lösen und OEM-Kunden die Gelegenheit zu geben, für einen Mehrwert zu sorgen und nicht einfach nur Speichergeräte zu verpacken und einen Markenname draufzukleben.

Die Tiering-Lösung

Stellen Sie sich ein Subsystem mit einer Reihe von Festplatten und mehreren SSDs vor. In einer solchen Konfiguration überwacht Tiering-Software die Aktivität zu den Laufwerken und stellt die aktivsten Blöcke dynamisch auf den SSDs bereit, sodass die Plattenaktivität im Wesentlichen durch die SSDs gesteuert wird. Die Tiering-Funktion prüft die Aktivitätsebenen auf dem Subsystem regelmäßig, verlagert Daten, auf die weniger zugegriffen wird, zurück auf die Magnetplatten und ersetzt sie durch die zu diesem Zeitpunkt aktivsten Daten.

Mit anderen Worten, die drei Probleme des SSD-Einsatzes werden wie folgt angegangen: 1) Tiering nimmt dem Benutzer die Arbeit ab, die Plattenaktivität zu messen und die Platzierung aktiver Daten entsprechend anzupassen. 2) Da Tiering auf Blockebene erfolgt, ist die Verlagerung der Daten nicht auf Datei- oder Datenbankgranularität beschränkt. und 3) handelt es sich bei Tiering um eine konstant laufende Funktion des Subsystem, durch die die SSD/HDD-Position von Daten je nach kürzlicher Datenaktivität dynamisch angepasst wird.

Der Teufel steckt im Detail

Theoretisch sollte eine Tiering-Funktion wie oben beschrieben dem Benutzer ermöglichen, maximale Leistungsverbesserung mit den SSDs zu erzielen. Praktisch ist das jedoch nicht so einfach. Es ist nicht möglich, jeden Block in einem Subsystem einzeln zu verwalten. Dafür wäre zu viel Arbeitsspeicher im Subsystem-Controller erforderlich und würde auch ein übermäßiger Overhead entstehen.

Um ein praktisches Gleichgewicht zwischen Overhead und Verbesserung zu schaffen, muss die Tiering-Funktion sich selbst optimieren, und zwar auf Basis von zwei Variablen: 1) wie häufig muss die Bereitstellung von Daten zwischen Tiers erneut bewertet werden und 2) wie viele Daten muss das minimal zu überwachende und zu verschiebende Speicherteil umfassen. Ein vernünftiger Wert für die 2. Variable könnte zwischen 1 MB und 0,5 GB liegen. Der Tiering-Service würde dann beispielsweise über die Aktivität von jedem 1-MB-Teil des Plattenspeichers im Subsystem eine Statistik führen. Regelmäßig würde der Service dann die Teile mit der höchsten Aktivität auf den SSD-Speicher verschieben und die MBs mit der geringsten Aktivität, die sich bereits auf den SSDs befinden, wieder zurück auf die HDDs verlagern. (Wenn natürlich bei irgendeinem MB keine Schreibaktivität stattgefunden hat, kann es einfach verworfen werden.) Wenn diese Neubewertung jedoch zu häufig erfolgt, könnte der Overhead durch das Hin- und Herbewegen der Daten zwischen den Tiers den Leistungsvorteil der Datenbereitstellung auf SSDs vollkommen aufheben. Daher müssen durch eine Häufigkeitsrichtlinie möglicherweise dynamische Entscheidungen getroffen werden, und zwar auf Basis der Gesamtaktivitätsebene und der Rate, mit der sich E/A-Spitzen von einem MB-Block zum anderen bewegen. Eine weitere Schwierigkeit ist die Komplexität des Tiering-Subsystems. Obwohl Tiering dem Benutzer die Verwaltung der Datenplatzierung abnimmt, gibt es trotzdem eine Menge zu beachten. Die Abstimmung der beiden bereits genannten sowie auch anderer Richtlinien, um eine optimale Tiering-Lösung zu erreichen, erfordert erhebliche Anwender-/Administrator-Schulung. Erfahrenes Management ist nötig, um ein Tiering-Subsystem einzurichten und dadurch die bestmögliche Leistung zu erzielen.

Die Notwendigkeit eines dritten Tiers

Tiering-Befürworter behaupteten einst, dass Speicher mithilfe von Verbesserungen durch SSDs auf eine SSD-Ebene (häufig Tier 0 genannt) und eine kostengünstige Höchstkapazitätsebene (Tier 2 genannt) vereinfacht werden könnte und sich somit die Notwendigkeit von auftragsentscheidenden Laufwerken erübrigen würde. Neuere Umfragen sowie Kundenkommentare sprechen jedoch dafür, eine dritte Ebene (Tier 1) mit leistungsstarken Festplatten beizubehalten, um optimale Leistung bei Datenmustern zu bieten, die von SSDs nicht gut abgedeckt werden können, z. B. sequenzielle Lese- und starke Schreibaktivität, die aufeinander folgend oder zufällig auftreten kann. Tatsächlich handelt es sich dabei um ein allgemeineres Problem. Eine angemessene Investition in SSDs bringt zu wenig Leistungsverbesserung (d. h., hinterlässt zu viel Arbeit für die Festplatten). Es gibt jetzt feste Beweise, dass einige unserer Kunden Tiering-Subsysteme genau in dieser Weise anbieten, d. h. mit drei aktiven Stufen, um optimale Leistung zu erzielen. In einem Fall, in dem der IT-Manager um eine Tiering-Lösung bat, um ein kritisches Leistungsproblem im Fertigungssystem zu beheben, bot der Händler ein 3-Tier-System an, bei dem sich mehr als die Hälfte der Gesamtkapazität auf Festplatten mit 15.000 U/min befand. Mit anderen Worten, es wurden keine Tier-2-Festplatten angeboten!

Zusammenfassung

Tiering hat sich von den eher simplen Anfängen zu einer erheblich anspruchsvolleren und wirksameren Technologie entwickelt. Zwar konnten bisher nicht alle Verwaltungsprobleme bei mehreren Speicherleistungsebenen überwunden werden, jedoch bewährt sich Tiering als unverzichtbarer Bestandteil in einem Speichersubsystem und gibt dem Endbenutzer die beste Möglichkeit, den Leistungsvorteil einer Investition in SSDs in vollem Umfang zu nutzen.

Es besteht jedoch kein Grund anzunehmen, dass diese Entwicklung schon abgeschlossen ist. Diese Technologie wird weiterentwickelt werden und wird die Fähigkeit der Benutzer verbessern, maximale Leistung aus einer Speicherinvestition herauszuholen.

Markierung:

Ähnliche Produkte
600 Pro SSD – Hauptansicht
600 Pro SSD von Seagate

Hyperscale-Rechenzentren, erstklassige Leistungseffizienz (IOPS/W)

1200 SSD
1200 SSD von Seagate

Servervirtualisierungen, Online Transaction Processing, Hochleistungs-Computing und anspruchsvolle Datenanalysen.

Pulsar – Hauptmodell
Pulsar SAS SSD von Seagate

Leseintensive Anwendungen für Rechenzentren und Cloud Computing

ÄHNLICHE STANDPUNKT-FEATURES
NAND Flash Supply Markt

Investitionen von 750 Mrd. US-Dollar in SSDs nötig, um das 30 Milliarden US-Dollar schwere HDD-Geschäft zu ersetzen

Weitere Informationen
SSD-Festplatten für Unternehmen beschleunigen das Geschäft

Gemeinsam erfüllen SSDs und herkömmliche Festplatten die Anforderungen von Rechenzentren

Weitere Informationen
ÄHNLICHE HILFSARTIKEL
Seagate ist der weltweit führende Hersteller von in Cloud-Computern und -Speichern eingesetzten Festplatten.
Die Nachfrage nach Speichergeräten in einer vernetzten Datenwelt

Cloud-Daten-Ökosysteme erfordern digitale Speicherkapazität

Weitere Informationen