Mit dem Fortschreiten der Digitalisierung steigen Backup-Volumen und -Herausforderung. Doch die IT-Budgets stagnieren. Eine kostenneutrale Skalierung der Datensicherung ist gefragt. Nach Terabyte kommen Petabyte, Exabyte, dann Zettabyte. Im Jahr 2018 hat die Menschheit 33 Zettabyte an Daten generiert. (Statista Digital Economy Compass, 2019) Doch was bedeuten diese Zahlen für einzelne Unternehmen und ihre Datensicherung?Bereits vor einigen Jahren verwaltete der internationale Logistikdienstleister Agility ein Volumen von 80 Terabyte Daten. Die Sicherung innerhalb eines definierten Backup-Fensters wurde aufgrund von Stabilitätsproblemen der Backup-Lösung zur Herausforderung. In einem der am weitesten fortgeschrittenen Anwendungsbereiche von Digitalisierung und künstlicher Intelligenz, dem autonomen Fahren, erzeugen bei einem Zulieferer allein die Testdaten schon heute mehr als 100 Millionen Dateien an 5 Standorten. Die Auslagerung der über 30 Petabyte Daten auf Sekundärspeicher erfordert eine hohe Stabilität und Geschwindigkeit.
Die beiden Beispiele illustrieren die Bandbreite des Datenbestands in Unternehmen und die Herausforderungen im Umgang mit den Daten. Denn ob Sie heute 50 Terabyte oder bereits 8 Petabyte an Daten sichern müssen – das Datenwachstum ist gewiss, so dass Sie früher oder später vor ähnlichen Aufgaben stehen werden wie die oben genannten Unternehmen:
- Wie halten wir unsere Backup-Fenster ein?
- Wie reduzieren wir den Aufwand und Kosten für die Datensicherung?
- Wie beschleunigen wir die Datentransfers?
Stabilität reduziert Aufwand und ermöglicht Skalierbarkeit
IT-Verantwortliche müssen als Grundlage für den Geschäftsbetrieb die benötigten Anwendungen, Rechenkapazität und IT-Sicherheit bereitstellen - und nebenher Digitalisierungsprojekte unterstützen und vorantreiben. Datensicherung zählt zur Pflicht, ihre Stabilität zählt zu den zentralen Kriterien für die Vereinbarkeit mit den Kernaufgaben der IT – und schließlich für die Skalierbarkeit. Stabilität als Qualität einer Datensicherung resultiert aus einer Vielzahl von Eigenschaften. Die Verteilung der Metadaten verhindert beispielsweise, dass die zentrale Datenbank zum Bottleneck wird. Automation in Kombination mit hoher Fehlertoleranz reduziert Sicherungsabbrüche durch Fehler, die andernfalls nur manuell zu beheben wären. Eine geringe Ressourcenbelastung lässt sich unter anderem durch erzielen, indem die Kommunikation zwischen Clients und Servern minimiert wird.
Wirtschaftlichkeit versus Skalierbarkeit
Mit der Abhängigkeit von Daten und Systemen wächst nicht nur die Relevanz, sondern auch der Anspruch an die Wirtschaftlichkeit der Datensicherung. Auf steigende Datenmengen ausschließlich mit dem Ausbau der Speicher-Infrastruktur zu reagieren, ist daher keine Option. Dementsprechend gilt es den Widerspruch von Wirtschaftlichkeit und Skalierbarkeit aufzulösen. Für große Datenmengen bietet sich Tape als kostengünstiges Offline-Medium mit minimalem Energiebedarf als Speichertechnologie an. So stellt IDC in dem Whitepaper „The EMEA Datasphere: Rapid Growth and Migration tot he Edge“ (Januar 2019) fest: „Perhaps surprisingly, tape and optical will continue to have an important role, even as movie viewing and music listening migrate to streaming from DVDs and CDs. Archival storage and backup on tape and optical systems will still be needed years from now.“
Das Problem ist jedoch, dass zahlreiche Backup-Lösungen die Geschwindigkeit heutiger Magnetbänder nicht ausschöpfen können. Oft fehlen Techniken, um die optimale Nutzung der Schreib- bzw. Lesegeschwindigkeit zu nutzen. Eine Antwort liefert der Einsatz von Multistreaming und von Multiplexern.
Multistreaming und Multiplexer
Multistreaming teilt einen Datenstrom in mehrere Datenströme auf. Multiplexing parallelisiert die Datenströme, um das Bandlaufwerk mit der maximalen Geschwindigkeit und Auslastung zu beschreiben. Die Menge der Daten pro Stream reduziert sich und durch das parallele Beschreiben des Speichers – ob Tape oder Disk – sinkt die für die Übertragung benötigte Zeit.
Von der Theorie in die Praxis: Bei einem Test in einem 1 Gigabit Netzwerk erzielte die Aufteilung eines Datenstroms mit 1,36 Millionen Dateien in 8 Datenströme eine Reduktion des Backup-Fensters auf ein Viertel der Zeit, die die Sicherung in einem Datenstrom erforderte. Bei 11 Millionen Dateien gelang sogar die Beschleunigung der Sicherung auf ein Sechstel - von 24 Stunden in einem Datenstrom auf 4 Stunden in 8 Datenströmen.
Bei ausreichender Leistungsfähigkeit der Infrastruktur lassen die Streams sich mit NovaStors Technologie auf 32 steigern. Die Beschleunigung mit Multistreaming kann sowohl beim Backup als auch beim Restore erfolgen.
Der Einsatz von Multistreaming und Multiplexern erhöht den Datendurchsatz, schöpft die Schreib- und Lesegeschwindigkeit von Storage optimal aus, verschiebt die Last aus dem Netzwerk auf den Backup Server und vieles mehr. Wer mit begrenztem Budget mit großen Datenmengen sichert, sollte langfristig nicht auf Multistreaming verzichten. Unabhängig von der eingesetzten Speichertechnologie liefert Multistreaming einen unerlässlichen Baustein für Datensicherung 4.0
Mehr dazu: Whitepaper „Große und wachsende Datenmengen sichern“
Quelle: Reinsel, David, Archana Venkatraman, John F. Gantz, John Rydning. „The EMEA Datasphere: Rapid Growth and Migration to the Edge“, sponsored by Seagate, IDC, Januar 2019. https://www.seagate.com/files/www-content/our-story/trends/files/data-age-emea-idc.pdf