Kyndryl hat am Montag bekannt gegeben, dass das Unternehmen basierend auf NetApp-Technologie die Enterprise-Storage-Infrastruktur für BMW implementieren und betreiben wird. Die Ankündigung ist unter ganz verschiedenen Aspekten relevant, technologisch und beispielhaft für die neuen Freiheiten von Kyndryl.
Moderne Storage-as-a-Service-Lösung in der Cloud
Managed Storage-as-a-Service ist das zeitgemäße Konzept, um Speichermanagement heutzutage in den Griff zu bekommen, denn laut IDC wächst die weltweite Datenmenge bis zum Jahr 2024 auf 143 ZB an. Ein unvorstellbare Datenmenge. Diese Daten sollten nicht nur sicher gespeichert werden. Eine entsprechende Speicherinfrastruktur in der Cloud, die dann auch noch durch einen erfahrenen Dienstleister betrieben wird, ermöglicht es, das eigene Speichermanagement nach Bedarf nach oben (oder auch nach unten) zu skalieren und vor allem Daten weltweit immer an der Stelle zur Verfügung zu haben, wo sie im Geschäft oder für den Kunden benötigt werden. Eine derartige Lösung ist also zeitgemäß und wird von vielen Unternehmen benötigt.
Freie Wahl der Technologiepartner im Sinne des Kunden
Bei BMW arbeitet Kyndryl in Sachen Enterprise Storage mit NetApp als Partner zusammen. Dies zeigt neue Freiheit, neue Flexibilität in der Auswahl möglicher Partner und Technologien. Kyndryl kann Kunden jetzt die beste technologische Lösung empfehlen und ist keinem Druck ausgesetzt, eigene Software- oder Hardware-Produkte zu “verbauen”. Solche eigenen Produkte hat Kyndryl ganz einfach nicht mehr.
Präferenzen und bestehende Installationen der Kunden unterstützen
Aber man kann auch auf Präferenzen oder bestehende Installationen der Kunden reagieren und die entsprechenden Lösungen und Infrastrukturen sicher und stabil weltweit betreiben, also sich auf die eigenen Stärken im Betrieb fokussieren und diese ausspielen. Beide Szenarien eröffnen Kyndryl höhere Handlungsfreiheit und versprechen einen möglichen breiteren Zugang zu Kunden, wie auch Kyndryl Deutschland-Chef Markus Koerner auf LinkedIn kommentiert.
Enterprise Storage-Lösungen in viel höherem Maße replizieren
Natürlich wird das Unternehmen versuchen, Lösungen zu replizieren, also auch bei anderen Kunden in möglichst ähnlichen Konfigurationen einzusetzen, um so entsprechende Skalierungseffekte für Kyndryl und die Kunden zu erreichen. Es muss nicht immer die hochgradig individualisierte und ganz spezifische Lösung für den individuellen Kunden sein.
… arbeitet in Communications bei Kyndryl Deutschland, dem weltweit führenden Anbieter zum Management kritischer IT-Infrastruktur. Den gelernten Journalisten hat seine Leidenschaft für das Schreiben, Beobachten, Kommentieren und den gepflegten Diskurs nie verlassen. Diese Passion lebt er u.a. in seinem privaten Blog StefanPfeiffer.Blog oder auch als Moderator von Liveformaten wie #9vor9 – Die Digitalthemen der Woche und Podcasts aus. Digitalisierung in Deutschland, die digitale Transformation in der Gesellschaft, in Unternehmen und Verwaltung oder die Zusammenarbeit am modernen Arbeitsplatz sind Themen, die ihn leidenschaftlich bewegen. Vor Kyndryl hat Pfeiffer in der IBM im Marketing in unterschiedlichen internationalen Rollen gearbeitet. Seine weiteren beruflichen Stationen waren FileNet und die MIS AG. Auf Twitter ist er als @DigitalNaiv „erreichbar“.
Nachhaltigkeit steht im Zentrum gesellschaftlicher sowie politischer Diskussionen. Es wird zunehmend zur Pflicht für Unternehmen sich mit ressourcenschonenden Geschäftsmodellen auseinander zu setzen – sei es aufgrund von Forderungen innerhalb von Lieferketten, moralischen Überlegungen, Wettbewerbsdifferenzierung oder auch absehbaren regulatorischen Auflagen und Gesetzen. Das geschieht mitunter auch vor dem Hintergrund einer neuen Regierung in Deutschland1 oder des 2019 verabschiedeten Green Deal der EU2. Daraus leitet sich für die Wirtschaft ab, dass die CO2-Bilanz von Unternehmen ein immer wichtigerer Wettbewerbsfaktor am Markt ist. Das Interesse „grün zu werden“, steht daher stärker denn je zentral im Fokus.
Neben der Ausstattung der Arbeitsplätze oder den unternehmenseigenen Infrastrukturen trägt auch das Internet mitunter durch den teilweise unsauberen Energieverbrauch enorm zu den CO2-Emissionen bei3. Viele Unternehmen haben genau diese Herausforderung bemerkt und verfolgen daher die Intension, ihren CO2-Fußabdruck zu verringern und klimafreundlich oder gar klimaneutral zu wirtschaften.
Lokale On-Premise-Server sind weniger nachhaltig
Ausgerechnet der Einsatz lokaler (on-premise) Server zum Verwalten und Analysieren von Daten erhöht die CO2-Emissionen erheblich. Dabei kann man beobachten, dass viele lokale Server, ausgelegt auf den PUE-Wert (Power Usage Effectiveness), selten voll ausgelastet sind und viel Energie verbrauchen. Der PUE-Wert gibt an, wie effektiv die zugeführte Energie in einem Rechenzentrum verbraucht wird4. Denn der Energieverbrauch eines Servers wird nicht nur durch seine Auslastung bestimmt, sondern ganz wesentlich auch durch seinen Betrieb und die damit verbundenen Betriebsverfahren. Wer viele Server besitzt, diese aber nicht voll umfassend nutzen kann, verbraucht mehr Energie als eigentlich notwendig wäre5.
Denn IT-Infrastrukturen (u. a. Netzwerkkomponenten, Storage oder Server) benötigen sowohl Strom für den Betrieb als auch für die Abführung der beim Betrieb entstehenden Abwärme in Form von Lüftung und Kühlung. Außerdem reagieren Server empfindlich auf Temperaturschwankungen, was eine Klimatisierung mit hohem Energieverbrauch unumgänglich macht. Weiterhin findet man immer wieder energieintensive Verfahren (z. B. beim Brandschutz), die mittlerweile nur noch bedingt zukunftsfähig sind. Zusammenfassend kann man feststellen, dass IT-Infrastrukturen enorme Mengen an Ausrüstung sowie kontinuierliche Stromversorgung und Kühlung erfordern, um ein einzelnes Unternehmen mit IT-Services zu versorgen. Dieser Energie- und Ausrüstungsaufwand bindet Kapital und es ist fraglich, ob diese Form der Leistungserbringung wirtschaftlich im Sinne der Wettbewerbsfähigkeit ist.
Energie sparen mit Cloud Services
Cloud Computing kann bei der Veränderung des eigenen CO2-Footprint unterstützen. In einer Studie der Europäischen Kommission in Zusammenarbeit mit dem deutschen Borderstep Institut für Innovation und Nachhaltigkeit sowie dem österreichischen Umweltbundesamt wird aufgezeigt, wie Unternehmen durch eine geeignete digitale Infrastruktur, umweltfreundlichen und effizienten Cloud-Diensten sowie energieeffizienten Rechenzentren ressourcenschonender wirtschaften können. In der Studie wird auch diskutiert, wie die Förderung des Einsatzes nativer Cloud-Optimierungstools für das Cloud Computing zur Nachhaltigkeit beitragen. Durch die Migration in eine öffentliche Cloud, welche nicht durch das Unternehmen, sondern einen Service-Dienstleister betrieben wird, bieten sich eine Reihe von Potentialen.
Zum Beispiel ein Zugewinn an Flexibilität und Skalierbarkeit bei gleichzeitiger Kostenreduktion für Energie, Wartung sowie Flächenverbrauch. Cloud Datacenter bieten aufgrund ihrer Größenvorteile (Economies of Scale) eine effizientere Nutzung der eingesetzten Ressourcen. Es werden also nicht nur weniger Server verwendet, sondern diese auch effizienter betrieben, was insbesondere die Möglichkeit bietet, den CO2-Fußabdruck eines Unternehmens zu verringern, ohne auf Leistungen verzichten zu müssen. Das bedeutet, es werden Serverkapazitäten je nach Workload und Anwendungsfall des Unternehmens ausgewählt, zugewiesen und genutzt sowie unterschieden nach Datenverarbeitung, Speicher, Datenbank und Netzwerkanbindung6.
Unternehmen, die mit Cloud-Dienstleistern wie IBM oder Google kooperieren, eröffnen sich das Potential eigene Ressourcen einzusparen und effektiver zu arbeiten. Darüber hinaus ist „Green IT“ für Unternehmen auch nicht-monetär ein Vorteil, da dies dem Branding der eigenen Marke inbesondere in der aktuellen Zeit zuträglich ist und hilft das eigene Geschäftsmodell zukunftssicherer zu machen7.
Um einen besseren Überblick zu geben, werden im folgenden die Vorteile von Cloud Computing im Zusammenhang mit Nachhaltigkeit grafisch dargestellt.
Auszug – Cloud Computing Vorteile im Rahmen von Green IT Quelle: Kyndryl (2021)
Green Cloud Computing für die Zukunft
Die Cloud und das damit verbundene Betriebsmodell verändert die IT-Branche in vielerlei Hinsicht. Aus unserer täglichen Arbeit mit unterschiedlichsten Kunden und den damit verbundenen Erfahrungen kann man sagen, dass einerseits das Potential der IT auf dem Weg zum klimaneutralen Unternehmen weder vollständig identifiziert, adressiert oder gar realisiert ist. Ein erster Schritt hin zu einem umweltverträglichen Unternehmen könnte aber in der Nutzung von Cloud-Dienstleisten liegen. Insbesondere wenn diese dem Thema Nachhaltigkeit Priorität einräumen und beispielsweise transparent darstellen, welche CO2-Belastung die Erbringung der IT-Services bedeutet. Das umfasst Anbieter, die unter anderem erneuerbare Energiequellen nutzen, energieeffiziente Hard- und Software für Rechenzentren entwickeln, energieeffiziente Beleuchtung und Stromversorgung in Gebäude integrieren oder intelligente Kühlsysteme zur Abfallvermeidung entwickeln. Man sieht somit in der Nutzung von Cloud Computing erhebliches Potential, das sich positiv auf die Jahresbilanz, die Reaktionsgeschwindigkeit auf Veränderungen und auch auf die Umwelt auswirkt8.
Globale Cloud Service-Dienstleister, wie auch Kyndryl, teilen sich die Verantwortung, ihre Kunden auf ihrem Weg hin zu einer umweltfreundlicheren Cloud zu unterstützen, indem sie möglichst nachhaltige Systeme auswählen, die zur Workload passenden Fähigkeiten bereitstellen und Cloud-Transformationsinitiativen in Unternehmen beschleunigen. So können die identifizierten Mehrwerte früher realisiert werden. Darüber hinaus hat Kyndryl im Bereich der energieeffizienten CO2-Optimierung von Rechenzentren – insbesondere der nachhaltigen Nutzung der von den Servern erzeugten Abwärme – schon einige Kundenprojekte erfolgreich durchgeführt. Kyndryl unterstützt als unabhängiger Technologiepartner in allen Schritten der Beratung, Implementierung sowie des Betriebs von ganzheitlichen, energieeffizienten und nachhaltigen Lösungen im Kontext des IT Infrastrukturmanagements sowie des Green Cloud Computing.
Nachdem im Rahmen der Workload-Analyse geeignete Workloads zur Verlagerung in die Cloud identifiziert worden sind, müssen im nächsten Schritt nicht nur die Migrationsmethoden, sondern vor allem die aufzubauende Zielumgebung zur Aufnahme der Workloads festgelegt werden. Gerade dabei erlebe ich immer wieder, wie in einer ersten Euphorie zu Cloud Services wesentliche Anforderungen eines Enterprise IT-Betriebs im Sinne einer vollständigen „Total-Cost-of-Ownership“ (TCO)-Betrachtung übersehen werden. Prinzipiell muss ich zum Betrieb einer Workload in der Cloud die gleichen Fragen beantworten wie in traditionellen Umgebungen. Die Lösungen können allerdings andere sein.
Fragen und Antworten zum Betrieb einer Workload in der Cloud
Es gibt mehr oder weniger offensichtliche Fragen wie z. B. zu (Hoch-)Verfügbarkeit und Katastrophenfall-Vorsorge. Diese können mittlerweile mit den von den Cloud-Service-Providern zur Verfügung gestellten Services gelöst werden, haben allerdings auch ihren Preis.
Ein Blick auf einschlägige Websites, die die Verfügbarkeit von Cloud Services darstellen (z. B. „CloudHarmony“) zeigt, dass “Cloud is always on” nicht ganz der Realität entspricht. Welche Verfügbarkeit garantiert mir der gewählte Cloud Service? Deckt dies meine Anforderungen ab? Reicht eine schnelle Wiederherstellung (Stop & Restart) oder muss ich zusätzliche Redundanzen mit automatischer Umschaltung vorsehen (Clustering)? Reicht mir regionale Hochverfügbarkeit oder benötige ich aufgrund regulatorischer Vorgaben für den Katastrophenfall eine “Out-of-Region”-Vorsorge? Hat der Cloud-Service-Provider passende Rechenzentrumsstandorte und kann ich damit meine Vorgaben zu „Recovery Time Objective“ (RTO) und gerade auch „Recovery Point Objective“ (RPO) erreichen? Neben den Kosten für die Redundanzen fallen hier dann in der Regel weitere Kosten an, z. B. für den Datentransfer zwischen den Cloud Rechenzentren.
Ich erinnere an den Auto-Vergleich aus dem zweiten Artikel dieser Reihe. Bezogen auf Verfügbarkeit und Katastrophenfall müsste ich mir also die Frage stellen, ob es ausreicht, einfach nur ein Taxi zu bestellen, wenn ich früh morgens zum Flughafen muss? Oder aber besser gleich zwei, damit eines sicher pünktlich da ist und ich nicht auf ein Ersatztaxi warten kann? Dazu käme noch die Überlegung, zwei unterschiedliche Taxi-Unternehmen zu beauftragen, für den Fall, dass ein Unternehmen aufgrund einer Betriebsstörung zum angefragten Zeitpunkt kein Taxi schicken kann. Üblicherweise wäre dann aber eine Leerfahrt zu bezahlen. Man kann annehmen, dass nur wenige für eine Taxifahrt solche Überlegungen anstellen. Für unternehmenskritische Workloads, bei der Nichtverfügbarkeit für Minuten oder gar nur Sekunden direkt spürbare Auswirkungen auf mein Geschäft haben kann, sind diese Überlegungen allerdings dringend ratsam. Man sollte immer ausgehend von den Auswirkungen eines Ausfalls (= verlorener Umsatz pro Zeitfenster) die Anforderungen definieren und dann die dazu passende Umsetzung wählen, damit Kosten und Nutzen zueinander passen. Oder kurz gesagt: Nicht jeder Workload benötigt 99,999% Verfügbarkeit.
Sicherheit und Compliance im Fokus
Auch im Bereich Security und Compliance ergeben sich mit der Verlagerung in die Cloud zahlreiche Fragestellungen: Riskiert man es, den unternehmenskritischen Workload, also den Ferrari unter den Autos, öffentlich auf der Straße zu parken? Oder stellt man ihn besser in ein öffentliches Parkhaus, so dass er ein wenig geschützter steht und zumindest der Gebäudezugang überwacht wird? Vermutlich fühlt man sich aber erst so richtig wohl, wenn der Ferrari in einer privaten Garage steht, zu der ausschließlich man selbst einen Schlüssel besitzt und damit volle Kontrolle über den Zugang hat. Unternehmenskritische Workloads sollten ebenso wenig mit ungeschützten Public Cloud Services umgesetzt werden, sondern bedürfen eines entsprechenden Schutzes z. B. durch Netzwerk-Segmentierung mittels Firewalls und Überwachung (Intrusion Detection, etc.). Auch diese Bausteine können üblicherweise als Cloud Services bezogen werden, verursachen jedoch weitere Kosten, die in der TCO-Betrachtung zu berücksichtigen sind. Amazon Web Services (AWS) bietet z. B. neben den AWS Public Services mit ihrem Virtual Private Cloud (VPC)-Konzept und den darin möglichen Public und Private Subnet eine Abschottung von Cloud Services.
Ein wesentliches Charakteristikum von Cloud Services ist „Resource Pooling“ oder auch „Shared Resources“. Ressourcen, die jetzt gerade vertrauliche Unternehmensdaten berechnen, transportieren oder speichern, stehen im nächsten Moment einem anderen Cloud Nutzer, womöglich einem Mitbewerber, zur Verfügung. Datenverschlüsselung zu jedem Zeitpunkt ist daher ratsam. Wichtig ist hierbei, auf eine lückenlose Verschlüsselung zu achten, z. B. auch auf die Daten in einer Sicherung. Wie bei einer Garage ist ein Schlüssel notwendig, um auf diese Daten zuzugreifen. Wie aber wird dieser Schlüssel aufbewahrt? Hat ausschließlich man selbst darauf Zugriff, da er sich in der eigenen Hosentasche befindet – Stichwort „Bring your own Key“ (BYOK)? Oder ist er Teil der Schließanlage des Garagenbesitzers, der einen Generalschlüssel hat? Cloud Services bieten kostenpflichtige Lösungen zur Datenverschlüsselung und Schlüsselverwaltung, ein weiterer Kostenblock in der TCO Betrachtung.
Für den Betrieb stellt sich u.a. die Frage, ob und wie Cloud Ressourcen in unternehmenseigene Systems- und Servicemanagement-Werkzeuge zu integrieren sind. So kann man z. B. eine „End-to-End“-Überwachung von Geschäftsprozessen und ggf. notwendige Störungsbearbeitung unterstützen. Die Betrachtung dieser Frage und weiterer möglicher Kostenfallen im Cloud-Workload-Betrieb folgen im nächsten Artikel.
Falls bis hierhin der Eindruck entstanden ist, es würde mittels der angeführten Kostenfallen gegen die Nutzung von Cloud Services argumentiert, hier ein klares Dementi! Zur Entkräftung an dieser Stelle der Hinweis, dass für einen fairen TCO-Vergleich im traditionellen Umfeld auch häufig „versteckte“ Kosten z. B. für Hard- und Software-Wartung, Hardware-Refresh und Rechenzentrumsinfrastruktur (Gebäude, Strom, Kühlung, etc.) berücksichtigt werden müssen. Cloud Services bringen diese Dinge mit sich und nur unter Berücksichtigung dieser vergleicht man am Ende beim TCO tatsächlich Äpfel mit Äpfeln.
Die Wahl der richtigen Migrationsmethode
Neben der Definition der Zielumgebung sind in dieser Phase auch die Migrationsmethoden für die ausgewählten Workloads festzulegen. Diese brauchen in ihrer Umsetzung Zeit, verursachen Aufwand und damit schlussendlich Kosten, die in einen TCO einfließen. Diese Kosten sind letztendlich unvermeidbar, wenn ich Workloads in die Cloud verschieben möchte. Die gewählte Methode bestimmt jedoch den Zeitpunkt des „Return-on-Invest“ (ROI). Dabei ist es nicht zwangsläufig so, dass eine aufwändigere (= teurere) Methode den ROI verzögert, denn ein Workload erreicht damit in der Regel einen besseren „Cloud Benefit“, z. B. Kosteneinsparungen im Betrieb, schnellere Bereitstellung oder erhöhte Flexibilität. Üblich ist eine Unterscheidung in vier Migrationsmethoden, deren Verhältnis von Aufwand/Zeit und „Cloud Benefit“ in der Grafik oben dargestellt ist. „Retire“ (= abschalten) und „retain“ (= im traditionellen Modell belassen) als mögliche Ergebnisse einer Workload-Analyse benötigen keine Migration. Auch möglich ist eine Aneinanderreihung von Migrationsmethoden: Zum Beispiel einen Workload zunächst per „Lift & Shift“ mit geringem Aufwand in kurzer Zeit in die Cloud übertragen, da die darunterliegende Hardware kurzfristig abgelöst werden muss. Und anschließend per „Re-Architecture“ die Anwendung in Microservices überführen.
Die Festlegung der Migrationsmethode und Definition einer möglichst vollständigen Zielumgebung liefern wesentliche Kostenblöcke einer TCO und ROI Betrachtung, die in der Umsetzung und im Betrieb als Grundlage der Erfolgsmessung nachzuhalten sind. Und auch im Cloud-Workload-Betrieb lauern weitere Kostenfallen, auf die ich im nächsten Artikel eingehen werde.
Tobias Kreis
Unser Autor Tobias Kreis verantwortet als Executive IT Architect die technische Entwicklung, Implementierung und den Betrieb von komplexen IT Architekturen und Servicelösungen für Hybrid Multi Cloud Umgebungen. Ausgehend von den spezifischen Anforderungen seiner Kunden berücksichtigt er dabei über den kompletten IT Lifecycle alle notwendigen Elemente aus Hardware, Software, Cloud und Services unterschiedlicher Hersteller und Partner, um passgenaue, innovative Kundenlösungen zu erzeugen. Dazu kann Tobias auf mehr als 20 Jahre Erfahrung in unterschiedlichen Funktionen in Vertrieb, Consulting, Enterprise Architecture und Solution Design zurückgreifen.
Kurz nach dem Börsengang von Kyndryl gibt es spannende Neuigkeiten: Das Unternehmen hat eine “globale strategische Partnerschaft” mit Microsoft bekanntgegeben. In einem Gespräch mit Stefan Pfeiffer erläutert Klaus Stephan, Verantwortlicher für das Cloud-Geschäft von Kyndryl in Deutschland, wie die beiden Unternehmen ihre Expertise bei Cloud-Plattformen und IT-Infrastruktur-Services vereinen und welche Synergien dadurch für gemeinsame Kunden möglich sind. Im Fokus stehen dabei beispielsweise Anwendungen in den Bereichen Sicherheit, KI, Cloud-Migration, unternehmenskritische Workloads und Anwendungsmodernisierung. Und auch die Anwenderfreundlichkeit hat oberste Priorität: Nutzer werden diese Anwendungen nahtlos in ihre Umgebung integrieren können.
Auch für den Aufbau der entsprechenden Kenntnisse bei den Kyndryls ist durch eine spezielle Microsoft-University gesorgt, auf der sich Kyndryl-Mitarbeiterinnen und Mitarbeiter weiterbilden können. In einem Co-Creation-Lab werden gemeinsam wiederverwendbare Assets und Lösungen erarbeitet und entwickelt, die dann allen gemeinsamen Kunden zur Verfügung stehen.
Die neue Partnerschaft zeigt beispielhaft, wie sich Kyndryl nun frei im Markt bewegt und mit Technologieführern zusammenarbeitet. Durch solche Partnerschaften lässt sich der Bedarf von Unternehmen an Multi-Cloud- und Hybrid-Cloud-Umgebungen optimal adressieren, diese integrieren und für Kunden betreiben. So soll im Interesse der Kunden ein breites Ökosystem mit den besten Partnern und deren Lösungen entstehen, die den Ansprüchen der Kunden an eine moderne IT-Infrastruktur und die digitale Transformation gerecht wird – mit Kyndryl als weltweit agierendem Anbieter, der die Umgebungen betreiben kann.
Die (primäre) Motivation einer Cloud-Strategie sollten nicht die Kosten sein, sondern Innovationen und neue Geschäftsmodelle, die die Zukunftsfähigkeit eines Unternehmens sichern. Dies war kürzlich auch Thema des Webcasts „Von der Hybrid zur Balanced Cloud“, unter anderem mit meinem Kollegen Andreas Gräf. Aber trotz allem, es geht nicht ohne stimmigen (Gesamt-) Business Case! Im Artikel „Warum die Gleichung “Cloud = kostengünstig” nicht immer stimmt“ habe ich meine Erfahrungen zu typischen Kostenfallen in den Phasen Cloud-Workload-Selektion, Cloud-Migration und Cloud-Betrieb diskutiert und möchte heute das Thema Cloud-Workload-Selektion vertiefen. Cloud-Migration und Betrieb werden in separaten Artikeln folgen.
Abbildung 1: Analyse der Data Center Workload im 5-Phasenmodell
Unternehmensstrategien für die Cloud-Einführung legen meist so etwas wie „cloud first“ für neue Workloads fest. Deshalb sind diese daher heute in der Regel „cloud born“, während für die im traditionellen Data Center bestehende Workload zunächst eine Auswahl und Priorisierung zur Cloud-Migration erfolgen muss. In Kombination mit einem Business Case, der genauso wie die Workload-Analyse fortlaufend gepflegt bzw. überprüft werden muss, erfolgt dann die eigentliche Verlagerung der Workload in die Cloud in Wellen. Vorgehen und Dauer der Workload-Verlagerung können von Unternehmen zu Unternehmen sehr unterschiedlich sein. Dort, wo das Geschäft auf stabilen IT-Systemen beruht, die in den letzten Jahrzehnten optimiert wurden und keinen großen Schwankungen ausgesetzt sind, wird die Verlagerung der Workload vermutlich langsamer vorangehen und es verbleibt noch über Jahre hinweg Workload im traditionellen Rechenzentrum.
Kriterien für die Workload im Data Center im Hinblick auf eine Cloud-Migration
Vorweg möchte ich noch auf die bewusste Verwendung von „Workload“ im Unterschied zu „Anwendung“ hinweisen. Unter einer Anwendung verstehe ich „Programm-Code“, der auf einem abgrenzbaren „Deployment Node“, z. B. einer virtuellen Maschine, eine vorgegebene Funktionalität bereitstellt. Unter „Workload“ verstehe ich dagegen neben der Anwendung selbst auch notwendige Umsysteme, ihre Kommunikationsbeziehungen, Daten, Prozesse, Benutzer, etc. Also alles, was notwendig ist, damit die bereitgestellte Anwendungsfunktionalität „bestimmungsgerecht“ verwendet werden kann.
Kriterien zur Workload-Analyse wurden bereits viel diskutiert. Hier findet sich etwa eine gute Zusammenfassung: „Workloads in die Public Cloud umziehen lassen“. Diese Kriterien werden auch in verschiedensten Werkzeugen zur automatisierten Cloud-Workload-Analyse berücksichtigt (z. B. „Azure Migrate“). Nach meiner Einschätzung zielen diese aber häufig auf eine reine Bewertung der „cloud readiness“ ab and beantworten Fragen wie beispielsweise:
Welche Kontrollmechanismen und -grad sind zur Umsetzung von Compliance oder regulatorischen Anforderungen notwendig?
Ist die zugrunde liegende Anwendung einer Workload bereits als Cloud-Anwendung oder als Businessprozess verfügbar?
Ist die Workload in sich abgeschlossen?
Mit welchen Umsystemen kommuniziert die Workload (Latenz-/ Bandbreitenanforderungen)?
Daraus ergibt sich im Wesentlichen die Festlegung der Migrationsmethode zur Cloud-Verlagerung („Lift&Shift“, „Re-Platform“, „Re-Place“, „Re-Architecture“) sowie eine Wellen-Planung, d. h. welche Workloads aufgrund bestehender Abhängigkeiten zusammen in einer Welle migriert werden. Der „cloud benefit“ einer Workload ist hierin zunächst nicht berücksichtigt. Dazu sind Fragen zu stellen wie etwa:
Welche Flexibilitäts- und Skalierungsanforderungen hat die Workload?
Wo kann auf individuelle Lösungen ohne Einbuße von Wettbewerbsvorteilen verzichtet werden?
Welchen Nutzen bringt eine schnellere Anwendungsbereitstellung für diese Workload in der Cloud?
Die Antworten lassen sich direkt oder auch indirekt in Kosten übersetzen (z. B. „Azure TCO Werkzeug“) und ergeben im Vergleich zu den Workload-Kosten im Data Center einen positiven – gegebenenfalls aber auch negativen – Business Case. Die notwendigen Workload-Charakteristiken für einen positiven Business Case lassen sich gut mit einer Analogie veranschaulichen – und zwar die Anschaffung eines privaten PKW:
Ein Familienvater, der seine beiden Kinder täglich zur Schule und anschließend selbst zur Arbeit fährt, und der jedes Wochenende mit Sack und Pack unterwegs ist, kauft sich einen Kombi und käme eher nicht auf die Idee, bei ShareNow dauerhaft einen Wagen zu mieten. Ganz anders aber der Single, der unter der Woche mal im Homeoffice ist oder kurzfristig zum Kunden fährt, und am Wochenende eine Radtour mit Freunden im Mittelgebirge macht. Er braucht an manchen Tagen kein Auto, an anderen einen kleinen Stadtflitzer oder Taxi und am Wochenende einen 9-Sitzer… Beide Beispiele stellen für die “Ressource Auto” eine völlig unterschiedliche Workload dar und münden damit in unterschiedlichen Bezugsmodellen (Kauf versus Miete).
Dies kann man genauso auch auf die IT-Workload übertragen. Warum sollte der Betrieb einer Anwendung, 1:1 aus einem traditionellen Rechenzentrum in ein Cloud-Rechenzentrum transferiert, also mit den gleichen Ressourcen-Parametern an CPU, Speicher und 24×7-Betrieb in einem Mietmodell günstiger werden? Um in einer Cloud tatsächlich auch kostengünstiger zu werden und damit die Kostenfalle zu vermeiden, brauche ich Workload, die die Stärken von Cloud Services nutzt, u. a.:
Reduzierung der Fertigungstiefe durch Standardisierung Das fängt mit dem Nutzen der Cloud-Standards hinsichtlich der notwendigen Hard- und Software sowie der Service-Level an. Wenn ich etwas umständlich oder individuell nachbauen muss, wird es in der Regel teuer und je weiter ich meine eigene Fertigungstiefe reduzieren kann, desto günstiger wird es (SaaS vs PaaS vs IaaS vs Baremetal).
Flexible Abbildung des tatsächlichen Ressourcenbedarfs Variabler Ressourcenbedarf ist ein weiterer Gesichtspunkt: von ganz viel über wenig bis hin zu ungenutzt. Ein Beispiel wäre eine Workload für User Management oder Mail, die typischerweise im Tagesbetrieb viele Ressourcen, in der Nacht oder am Wochenende dagegen oftmals deutlich weniger Ressourcen benötigen. Hier kann man durch automatische Skalierung die Ressourcenkosten reduzieren. Ein etwas anderes Beispiel sind Entwicklungs- und Testsysteme, die nicht permanent benötigt werden. Durch sehr kurze Bereitstellungszeiten, noch dazu im Selfservice, können Entwickler diese in der Cloud bei tatsächlichem Bedarf bestellen und nach Gebrauch wieder löschen. Dagegen sind sie in traditionellen Umgebungen oftmals permanent vorhanden, da Bestellung und Bereitstellung viel zu lange dauern. Und nicht vergessen: Je nach Fertigungstiefe sind hierbei nicht nur Kosten für CPU und Speicher, sondern auch Softwarekosten enthalten und lassen sich damit optimieren.
Abbildung 2: Data Center Workload Analyse nach „cloud readiness” und “cloud benefit”
Erst mit der Erweiterung der eindimensionalen Workload-Analyse nach „cloud readiness“ um den Aspekt des „cloud benefits“ vermeide ich Kostenfallen bei einer Cloud-Migration, da damit auch Betriebskosten und Nutzen berücksichtigt werden. Ideale Migrationskandidaten weisen hohe „cloud readiness“ und „cloud benefit“ auf und werden in der Wellenplanung entsprechend priorisiert. Workload, die sich im Quadranten links oben einsortiert, kann vermutlich mit gleichem Aufwand, aber geringerem Nutzen in die Cloud migriert werden, ist aber immer noch ein guter Migrationskandidat. Die Workload rechts unten würde zwar von Cloud Services profitieren, bedarf aber üblicherweise eines höheren Migrationsaufwandes und damit oft auch mehr Zeit, da z. B. ein „Re-Architecture“ der darunter liegenden Anwendung notwendig ist. Links unten findet sich die Workload mit geringem Cloud-Nutzen und geringer Cloud-Reife, diese verbleibt zunächst im Data Center oder es gibt andere Gründe für eine Cloud-Migration. Ich rate dazu, diese Workload-Analyse und Priorisierung regelmäßig zu überprüfen, da sich Anwendungsportfolio und -architektur wie auch Cloud Services ständig weiterentwickeln.
Tobias Kreis
Unser Autor Tobias Kreis verantwortet als Executive IT Architect die technische Entwicklung, Implementierung und den Betrieb von komplexen IT Architekturen und Servicelösungen für Hybrid Multi Cloud Umgebungen. Ausgehend von den spezifischen Anforderungen seiner Kunden berücksichtigt er dabei über den kompletten IT Lifecycle alle notwendigen Elemente aus Hardware, Software, Cloud und Services unterschiedlicher Hersteller und Partner, um passgenaue, innovative Kundenlösungen zu erzeugen. Dazu kann Tobias auf mehr als 20 Jahre Erfahrung in unterschiedlichen Funktionen in Vertrieb, Consulting, Enterprise Architecture und Solution Design zurückgreifen.
Nach dem aktuellen State of the Cloud-Report von Flexera nutzen 92% der großen Unternehmen in Europa ein Multi-Cloud-Modell. Ein Großteil davon kombiniert eine oder mehrere Private Clouds mit einer oder mehreren Public Clouds zu einer Hybrid Cloud.
Diese große Zahl mag zunächst überraschen. Man muss aber bedenken, dass eine Multi-Cloud-Landschaft entweder strategisch gewollt ist, aber auch die Folge einer fehlenden oder unklaren Cloud-Strategie sein kann. In letzterem Fall hat sich ein Teil der IT-Landschaft eines Unternehmens in eine Art Shadow IT verwandelt. Hier definieren und implementieren Fachbereiche ihre eigenen Standards. Die unternehmenseigene IT erscheint ihnen zu langsam oder nicht flexibel genug.
Multi-Cloud kann auch das Ergebnis eines Unternehmenszusammenschlusses sein. Oder es resultiert aus der Einführung von Office 365 und damit verbunden Azure, während bereits Anwendungen in AWS oder GCP laufen.
Im Schnitt nutzen die Unternehmen Cloud Services von zwei bis drei Anbietern.
Da Multi-Cloud die Realität für die meisten Unternehmen ist, ist es umso wichtiger, sich die Vorteile wie auch die Herausforderungen eines solchen Modells bewusst zu machen.
Häufig genannte Vorteile einer Multi-Cloud sind
Verringerter Vendor Lock-in, da man sich unabhängiger von einzelnen Anbietern macht.
Kostenvorteile oder erweiterte Funktionalität, da man Services dort beziehen kann, wo sie am günstigsten sind oder wo man die besten Features erhält.
Katastrophen-Vorsorge, für den Fall, dass ein Provider ausfällt.
Datenschutz, wenn Unternehmen aus Gründen der Datensicherheit Daten in gewissen Regionen halten müssen, die manche Cloud Anbieter unterstützen, andere jedoch nicht.
Der Vorteil der Kostenersparnis in einem Multi-Cloud-Modell lässt sich vermutlich am schwierigsten realisieren. Immerhin benötigt man redundante Netzwerk-Anbindungen an nicht mehr nur eine, sondern zwei oder mehrere Clouds. Zusätzlich benötigt man eventuell noch Anbindungen der Clouds untereinander. Die Aufteilung von Workloads auf mehrere Clouds führt unter Umständen zu schlechteren volumenabhängigen Rabattstaffeln bei den Anbietern. Der Entwicklungs- und Testaufwand steigt, da selbst bei der Verwendung von Terraform und Container-Technologien die Anwendungen auf die Gegebenheiten der unterschiedlichen Clouds angepasst oder zumindest parametrisiert werden müssen.
Aber auch die Katastrophen-Vorsorge in einem Multi-Cloud-Modell sollte man sich genauer betrachten. Alle Cloud-Dienstleister bieten Disaster Recovery Szenarien innerhalb ihres eigenen Cloud-Verbundes. Diese sind erprobt und werden durch Technologie und Automatisierung unterstützt. Die Anbieter achten sorgfältig darauf, dass die verschiedenen Regionen keine gemeinsamen Komponenten teilen, die zum „Single Point of Failure“ werden können. In einem Multi-Cloud-Modell liegt diese Verantwortung dagegen beim Anwender. Es nützt wenig, seine Anwendung auf zwei Provider zu verteilen, wenn diese sich mit ihren Cloud-Rechenzentren im gleichen Gebäude angesiedelt haben oder eine gemeinsame externe Komponente, z.B. einen Netzwerk-Kontenpunkt, teilen.
Multi-Cloud-Modelle bringen aber noch weitere Herausforderungen mit sich
Erhöhte Anforderungen an die Mitarbeiter und damit Schulungsbedarf, um die Technologien mehrere Cloud-Anbieter bedienen zu können.
Management Overhead um Standards, Richtlinien und Verfahren für mehrere Cloud Anbieter zu erstellen und zu pflegen.
Die Verteilung von Daten auf mehrere Anbieter erhöht die potenzielle Angriffsfläche.
Funktionseinschränkungen, wenn man zur Vermeidung des Vendors lock-ins nur auf den kleinsten gemeinsamen Nenner an Funktionalität zwischen den Anbietern setzt.
Erhöhter Administrationsaufwand, Komplexität und Schnittstellen bei der Verwendung von operationalen Tools unterschiedlicher Anbieter.
Um die Herausforderungen zu meistern, bietet sich die Nutzung von entsprechenden Management-Plattformen an, die eine Abstraktionsschicht über die verschiedenen Clouds legen. Darüber hinaus können Service Provider (MSP), die sich auf Cloud Workload spezialisiert haben, bei der Umsetzung der Cloud-Strategie helfen.
Thomas Petzke
Senior Solutions Architect, Kyndryl Deutschland GmbH