Vorher die richtigen Fragen stellen

Blender:Date:2019/11/12 19:49:49
Blender:Date:2019/11/12 19:49:49
Blender:Date:2019/11/12 19:49:49
Blender:Date:2019/11/12 19:49:49Bild: ©knssr_AdobeStock_302209976

Der Totalausfall beim Cloud-Provider OHVcloud hat gezeigt, wie eng die IT von Firmen mit der Cloud verknüpft sind und wie wichtig die Wahl des richtigen Providers ist. Denn der Effekt der Datengravitation lässt schnelle und leichte Wechsel nicht zu. Je mehr Daten und Dienste ein Unternehmen eines bestimmten Providers nutzt, desto größer ist die Datenlast und desto langwieriger und träger die Migration zu alternativen Angeboten. Daher lohnt es sich, vorab einige wichtige Punkte zu klären. Folgende Fragen können dabei helfen.

Werden alle Workloads unterstützt?

Die Workloads spiegeln die Service-Leistung und Innovationskraft des jeweiligen Providers wider. Dabei sollte der Provider bereits einige Eckdienste liefern und in seiner Roadmap Module, wie Big Data oder Internet of Things, ankündigen. Folgende wichtige Workloads sollten unterstützt werden:

  • Big Data: Dadurch können große Datenmengen schnell ausgewertet werden.
  • Open Source: Neben den kommerziellen sollten auch eine Reihe von Open-Source-Plattformen eingebunden werden können. Insbesondere Plattformen wie MongoDB, OpenStack und auf Container basierte Umgebungen wie Docker oder Kubernetes sollten abgedeckt werden, um zukunftssicher zu sein.
  • Hyperkonvergente Infrastrukturen: Dadurch können kritische Daten und Anwendungen möglichst hochverfügbar und ausfallsicher arbeiten
  • Hybride traditionelle Anwendungen: Damit Firmen ihre älteren Anwendungen weiterhin betreiben können, sollte der Provider hybride Cloud-Konstellationen unterstützen.

Wie klug lassen sich Daten wiederherstellen?

Sind die Daten ungesichert, garantiert der Provider keineswegs, dass er sie nach einem Ausfall vollständig wiederherstellen kann. Daher sollten Firmen Daten in der Cloud prinzipiell selbst per Backup sichern: Hier lautet das Stichwort ‚Shared Responsibility‘. Wie lassen sich im Ernstfall dann ganze Datenbestände oder nur wichtige Teile wiederherstellen? Ein Provider sollte dabei granulare Recovery-Prozesse mit unterstützen, damit ein Unternehmen beispielsweise eine virtuelle Maschine oder einzelne Dateien einer virtuellen Applikation granular zurückholen kann, ohne den gesamten Datenbestand herunterladen und neu aufsetzen zu müssen. Zudem sollten kritische Anwendungen und Daten priorisiert rekonstruiert werden können. Folgende Funktionen sind dabei wichtig:

  • Automatisierte und orchestrierte Wiederherstellung: Komplexe Multi-Tier-Anwendungen lassens ich so schnell wiederherstellen.
  • One-for-One-Orchestrationen: Dabei muss ein IT-Verantwortlicher die Schritte mit minimalen Befehlen bestätigen, sodass er weiterhin die volle Kontrolle über den Prozess behält.
  • Testen des Wiederherstellungsplans: Es ist wichtig, den Disaster-Recovery-Prozess zu testen, ohne dass der Produktionsbetrieb davon beeinträchtigt wird.
  • Herstellerübergreifendes Konzept: Da die Recovery-Mechanismen gegebenenfalls Anwendungen unterschiedlichster Art auf verschiedensten Plattformen wiederherstellen müssen.

Wie lässt sich Speicherplatz sparen?

Viele Firmen nutzen bereits Deduplizierung in ihren eigenen Backup-Umgebungen, um die Größe der Backups so klein wie möglich zu halten und Speicherplatz zu sparen. Idealerweise unterstützt der Provider diese Form der Deduplizierung ebenfalls. So lassen sich Speicher und Bandbreiten schonen. Außerdem sind unterschiedlich performante Speicher wichtig.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert