Cloud Workloads – Kostenfallen im Betrieb vermeiden

Zum Abschluss meiner Artikelserie rund um Kostenfallen in den verschiedenen Phasen der Cloud-Einführung möchte ich auf die Phase des Cloud-Workload-Betriebs eingehen. Trotz Selektion geeigneter Workloads und Berücksichtigung der Unternehmensanforderungen an Migration und Zielplattform finden gibt es auch hier Fallstricke, die häufig zu unerwarteten Cloud-Kosten führen:

  • Komplexitätssteigerung im Betriebsmodell und bei Service-Integration
  • Unkontrollierte und ineffiziente Cloudnutzung
  • Hoher Aufwand durch mangelnde Transparenz

Komplexitätssteigerung im Betriebsmodell und bei der Service-Integration

Hier entstehen unerwartete Kosten vornehmlich aus der Komplexitätssteigerung im Betrieb. Die bisherige IT wird nicht einfach durch einen Cloud-Provider ersetzt, sondern Cloud entsteht parallel. Zudem bleibt es für viele Unternehmen nicht bei einem Cloud-Provider. Die meisten meiner Kunden sind heute schon bei mindestens zweiProvidern -Tendenz steigend.Von daher brauchen Unternehmen ein neues Service-Integrations-und Governance-Modell, das in der Lage ist, die Provider -so wie sie kommen -möglichst nahtlos in das eigene IT-Business zu integrieren.

Dafür braucht man neue Rollen, neue Skills und neue Prozesse. Als Beispiel sei hier der Managed Service erwähnt. „Cloud is an all managed service“ ist so absolut formuliert und zumindest bisher nicht zutreffend. Selbst wenn man einen Container-Service aus der Cloud bezieht, kann es sein, dass man noch immer selbst für die Konfiguration und das Patching der Workernodes verantwortlich ist, ganz abgesehen von der Integration in eigeneUmsysteme.Cloud Services sollen nicht isoliert irgendwo im Unternehmen benutzt werden, sondern gliedern sich idealerweise nahtlos in ein übergreifendes Monitoring, Eventmanagement, Incident/Problem/Change-Management etc. ein. Ein solches Modell zu schaffen, bedeutet zunächst einmal neue Tools und neue Integrationen und kann in unterschiedlichen Varianten umgesetzt werden.

Abbildung 1: Organisationsmodelle zur Service Integration

Zusätzlich zum bisherigen ITIL Betrieb der traditionellen Umgebungen entstehen neue DevSecOps-Ansätze zum Betrieb der Cloud-Services mit eigenen Tools, Verfahren und Skills. Egal für welches der obigen Organisationsmodelle man sich entscheidet, es werden weiterhin Menschen in ausreichender Zahl und mit entsprechendem Know-How benötigt. Man erlebt immer wieder, dass dies zu Beginn einer Cloud-Transformation nicht klar ist und in der Regel erst spät zu bösem Erwachen führt.

Auch dies lässt sich an der bereits genutzten Auto-Analogie aus den vorherigen Artikeln sehr gut verdeutlichen. Wenn man sich ein Auto kauft und in die Garage stellt, hat man genau einen Beschaffungsweg. Aus Kaufpreis, Steuer und Versicherung ergeben sich feste, planbare monatliche Kosten. Mit einem Blick in die Garage stellt man fest, ob das Auto verfügbar ist und der Blick auf das Tachometer verrät den Kilometerstand. Bei Nutzung verschiedener Transportservices ergeben sich bereits unterschiedlichste Beschaffungswege wie z. B. der Telefonanruf bei der Taxizentrale, Flug-bzw. Zugbuchung im Webportal oder die Nutzung einer Handy-App für Car Sharing. Um dieVerfügbarkeit einzelnerServices oder deren aktuelle Auslastung festzustellen, sind ebenso viele unterschiedliche Wege notwendig. Als Vorgriff auf die beiden folgenden Abschnitte: Wenn man sich einen Überblick über monatliche Transportkosten verschaffen möchte, muss manRechnungen aus unterschiedlichsten Quellen und unterschiedlichster Formate zusammenführen.Wäre es nicht großartig, wenn man eine Anlaufstelle hätte, die zu einem gewünschten Zielort den optimalen Transportservice unter Abwägung von Geschwindigkeit, Zeit, Kosten, etc. vorschlägt?Damit ist man dann beim „Multi-Cloud-Management“ bzw. einer „Cloud-Management-Plattform“.

Unkontrollierte und ineffiziente Cloud-Nutzung

Der gewollt leichte Zugang zu Cloud Services führt zu einem Wiederaufleben des alt-bekannten Phänomens „Shadow IT“und damit zu unkontrollierter Cloudnutzung. Wer IT-Ressourcen benötigt, kann sie einfach in der Cloud beziehen. „Sourcing“ erfolgt nun plötzlich dezentral mit der Folge, dass IT-Budgets nicht mehr zentral, sondern ebenfalls dezentral („projekt-orientiert“)verwaltet werden.Das sorgt zwar vielfach für mehr Geschwindigkeit, allerdings bleiben Synergien und Kontrolle damit auf der Strecke:

  • Keine zentralen Einkaufskonditionen
  • Kein einheitliches Kontrollinstrument, um Kosten zu überwachen
  • Kein übergreifendes Know-How, wie Cloud Services möglichst effizient genutzt werden
  • Kein Überblick und damit keine Steuerungsmöglichkeit auf Unternehmensebene
  • „Multi-Single“-Cloud: Abhängigkeit von einzelnen Cloud Providern in unterschiedlichen Fachbereichen wird erhöht

Ineffiziente Cloud-Nutzung entsteht im Wesentlichen aus zwei ebenfalls alt-bekannten Verhaltensmustern:

  • „Was ich habe –behalte ich und gebe es so schnell nicht mehr her“: In traditionellen Umgebungen war es nicht leicht und häufig langsam, Zugriff auf dringend notwendige IT-Ressourcen zu erhalten. Wenn sie dann endlich verfügbar waren, wurden sie nicht mehr freigegeben. Die Rahmenbedingungen haben sich mit Cloud zwar geändert: Systeme können einfach bestellt werden und sind in kürzester Zeit verfügbar. Aber das Verhalten hat sich häufig (noch) nicht geändert und den neuen Möglichkeiten angepasst.
  • Im Artikel zur Selektion geeigneter Workloads für die Cloud wurde auf „Variabilität“ als eine Stärke von Cloud-Services hingewiesen. Nur, das muss natürlich auch (aus)genutzt werden und passiert erfahrungsgemäß häufig nicht. Durch die Flexibilität von Cloud-Services ist kein initiales Sizing auf eine „vermutete“ Spitzenlast mehr notwendig. Man fängt klein an und wächst analog zum tatsächlichen Bedarf mit.Besser noch, bei rückläufigem Ressourcen-Bedarf lassen sich ungenutzte Kapazitäten wieder zurückgeben („right-sizing“) und nicht mehr benötigte Services sogar ganz abschalten. Bei einigenKunden fanden sich bis zu 60% Überkapazitäten in der Cloud. Bei monatlich teilweise über 2 Millionen Euro Cloudkosten stellt dies ein relevantes Einsparpotential dar, auch wenn am Ende nur 20-30% Kapazitäten eingespart werden können. Diese Betrachtung schließt im Übrigen auch sogenannte „Zombie“ Services ein. Gerade bei Cloud Services gibt es häufig ein Geflecht von Services, die voneinander abhängig sind. Wenn ein Service nicht mehr gebraucht und abgekündigt wird, kann es dazu führen, dass einzelne Services (z.B. anhängende Storage Services) „vergessen“ werden und dann weiter Kosten verursachen, obwohl sie nicht mehr genutzt werden.

Letztendlich gilt es den Überblick zu behalten und Transparenz zu schaffen, womit man beim dritten Punkt wäre.

Hoher Aufwand durch mangelnde Transparenz

Eine häufig mit Kunden diskutiertesProblem ist die verursachergerechte Weiterverrechnung von Cloudkosten. Dabei geht es noch nicht um das Optimieren der Cloudkosten, sondern darum die anfallenden (nicht optimierten) Kosten zunächst einmal richtig zu zuordnen. Warum ist das ein Problem?

Anfänglich ist das ggf. noch mit Tabellenkalkulationen handhabbar, aber irgendwann wird es unübersichtlich, vor allem wenn mehrere Cloud-Service-Provider genutzt werden. Die Fragmentierung der Datenquellen wird dadurch weiter verstärkt. Zudem verwenden die Provider sehr unterschiedliche Rechnungsformate, benennen und klassifizieren ihre Services bzw. „Line Items“unterschiedlich. Mit zunehmender Cloudnutzung enthalten die Rechnungen dann viele „Line Items“mit durchschnittlich geringenBeträgen. Die Rechnung eines Kunden mit monatlich rund1,5Millionen Euro Cloudkosten erstreckte sich beispielsweise über 500.000 „Line Items“. Dies war mit der Tabellenkalkulation nicht mehr handhabbar und wurde einfach bezahlt.Diese hohe Kleinteiligkeit verursachte nicht nur einen hohen Aufwand bei der Zuordnung zu den Kostenverursachern, sondern führte auch dazu, dass Reports zu spätverfügbar sind, um z. B. als aktives Steuerungselement bei dynamischen Kostenverläufen eingesetzt werden zu können (also z. B. zur frühzeitigen Eindämmung von unkontrollierter oder ineffizienter Cloudnutzung).

Der Aufbau eines Cloud-Service-Provider übergreifenden Data Lakes bildet hier aber lediglich die Basis zur Schaffung der notwendigen Transparenz imCloud Service Betrieb. Es sind intelligente Analyse-Werkzeuge notwendig, die darauf aufsetzen und Auswertungen über beliebige Provider durch die entsprechenden Daten aus dem Data Lake erstellen können. Idealerweise können sie auch die unterschiedlichen Datenformate für Services, Klassen, Tags und Abhängigkeiten so normieren, dass providerübergreifende Analysen möglich sind. Wenn diese Analysen dann noch „ad-hoc“ verfügbar sind, erhält man ein pro-aktives Steuerungselement zur Optimierung der Cloudnutzung.

Der beste DataLake und Analysetools sind jedoch nutzlos, wenn Datenquellen nicht hergeben, was zur Analyse gebraucht wird. Gerade wenn es um eine Zuordnung von Cloud-Ressourcen zu Projekten, Abteilungen, Anwendungen etc. geht, ist ein gutes Tagging, also das Versehen der Ressourcen mit Schlagworten, unabdingbar. Nur mit dem richtigen Tag ging, am besten auf Basis einer unternehmensweitenStrategie, ist eine korrekte Zuordnung und damit bedarfsgerechte Optimierung möglich.

Aktuelle KI-basierte Werkzeuge liefern auf dieser Basis nicht nur einfache Analysen zur Kapazitätsoptimierung z. B. durch die Korrelation von Auslastung und Kosten, sondern z. T. auch Architekturempfehlungen zur Nutzung der Services, wie z. B. die Ablösung von IaaS durch PaaS Bausteine.

Tobias Kreis

Unser Autor Tobias Kreis verantwortet als Executive IT Architect  die technische Entwicklung, Implementierung und den Betrieb von komplexen IT Architekturen und Servicelösungen für Hybrid Multi Cloud Umgebungen. Ausgehend von den spezifischen Anforderungen seiner Kunden berücksichtigt er dabei über den kompletten IT Lifecycle alle notwendigen Elemente aus Hardware, Software, Cloud und Services unterschiedlicher Hersteller und Partner, um passgenaue, innovative Kundenlösungen zu erzeugen. Dazu kann Tobias auf mehr als 20 Jahre Erfahrung in unterschiedlichen Funktionen in Vertrieb, Consulting, Enterprise Architecture und Solution Design zurückgreifen. 

Kurz kommentiert: BMW-Deal zeigt neue Möglichkeiten von Kyndryl auf

Kyndryl hat am Montag bekannt gegeben, dass das Unternehmen basierend auf NetApp-Technologie die Enterprise-Storage-Infrastruktur für BMW implementieren und betreiben wird. Die Ankündigung ist unter ganz verschiedenen Aspekten relevant, technologisch und beispielhaft für die neuen Freiheiten von Kyndryl.

Moderne Storage-as-a-Service-Lösung in der Cloud

Managed Storage-as-a-Service ist das zeitgemäße Konzept, um Speichermanagement heutzutage in den Griff zu bekommen, denn laut IDC wächst die weltweite Datenmenge bis zum Jahr 2024 auf 143 ZB an. Ein unvorstellbare Datenmenge. Diese Daten sollten nicht nur sicher gespeichert werden. Eine entsprechende Speicherinfrastruktur in der Cloud, die dann auch noch durch einen erfahrenen Dienstleister betrieben wird, ermöglicht es, das eigene Speichermanagement nach Bedarf nach oben (oder auch nach unten) zu skalieren und vor allem Daten weltweit immer an der Stelle zur Verfügung zu haben, wo sie im Geschäft oder für den Kunden benötigt werden. Eine derartige Lösung ist also zeitgemäß und wird von vielen Unternehmen benötigt.

Freie Wahl der Technologiepartner im Sinne des Kunden

Bei BMW arbeitet Kyndryl in Sachen Enterprise Storage mit NetApp als Partner zusammen. Dies zeigt neue Freiheit, neue Flexibilität in der Auswahl möglicher Partner und Technologien. Kyndryl kann Kunden jetzt die beste technologische Lösung empfehlen und ist keinem Druck ausgesetzt, eigene Software- oder Hardware-Produkte zu „verbauen“. Solche eigenen Produkte hat Kyndryl ganz einfach nicht mehr.

Präferenzen und bestehende Installationen der Kunden unterstützen

Aber man kann auch auf Präferenzen oder bestehende Installationen der Kunden reagieren und die entsprechenden Lösungen und Infrastrukturen sicher und stabil weltweit betreiben, also sich auf die eigenen Stärken im Betrieb fokussieren und diese ausspielen. Beide Szenarien eröffnen Kyndryl höhere Handlungsfreiheit und versprechen einen möglichen breiteren Zugang zu Kunden, wie auch Kyndryl Deutschland-Chef Markus Koerner auf LinkedIn kommentiert.

Enterprise Storage-Lösungen in viel höherem Maße replizieren

Natürlich wird das Unternehmen versuchen, Lösungen zu replizieren, also auch bei anderen Kunden in möglichst ähnlichen Konfigurationen einzusetzen, um so entsprechende Skalierungseffekte für Kyndryl und die Kunden zu erreichen. Es muss nicht immer die hochgradig individualisierte und ganz spezifische Lösung für den individuellen Kunden sein.

All diese Facetten zeigen beispielhaft, wohin die Reise von Kyndryl gehen soll. Lesen Sie dazu auch den Beitrag von Markus Koerner, Präsident von Kyndryl Deutschland.

Stefan Pfeiffer

… arbeitet in Communications bei Kyndryl Deutschland, dem weltweit führenden Anbieter zum Management kritischer IT-Infrastruktur. Den gelernten Journalisten hat seine Leidenschaft für das Schreiben, Beobachten, Kommentieren und den gepflegten Diskurs nie verlassen. Diese Passion lebt er u.a. in seinem privaten Blog StefanPfeiffer.Blog oder auch als Moderator von Liveformaten wie #9vor9 – Die Digitalthemen der Woche und Podcasts aus. Digitalisierung in Deutschland, die digitale Transformation in der Gesellschaft, in Unternehmen und Verwaltung oder die Zusammenarbeit am modernen Arbeitsplatz sind Themen, die ihn leidenschaftlich bewegen.
Vor Kyndryl hat Pfeiffer in der IBM im Marketing in unterschiedlichen internationalen Rollen gearbeitet. Seine weiteren beruflichen Stationen waren FileNet und die MIS AG. Auf Twitter ist er als @DigitalNaiv „erreichbar“. 

Digitalisierung in der öffentlichen Verwaltung: „Es braucht Pragmatismus und Mut.“

Andreas Gräf ist Consultant bei Kyndryl in Deutschland und Experte für Digitalisierung in der öffentlichen Verwaltung. Im Kyndryl Videointerview spricht er über den Stellenwert, den das Thema Digitalisierung für die neue Bundesregierung haben sollte und wo die Ampel-Koalition ansetzen sollte, um den Staat und seine Verwaltung zu modernisieren.

Andreas bewertet den Koalitionsvertrag von SPD, Grünen und FDP aus digitaler Sicht und gibt einen Überblick über die Herausforderungen, denen sich die öffentliche Verwaltung bei der Umsetzung digitaler Maßnahmen ausgesetzt sieht.

Ich freue mich, wenn die Koalition jetzt bald in die Umsetzung geht. Und das, was es braucht, ist Pragmatismus und Mut.

Andreas Gräf, Kyndryl Deutschland

Der Druck der Digitalisierung in der öffentlichen Verwaltung

Als positiv bewertet er, dass die Digitalisierung nun endlich absolut im Fokus steht. Und dies ist auch sehr nötig, weil vor allem die Bürgerinnen und Bürger immer stärker eine digitale Verwaltung verlangen. Das Problem ist allerdings oft: Die öffentliche Verwaltung hängt der Entwicklung in Sachen Digitalisierung oft hinterher. Dies zeigt zum Beispiel die Frage: Dürfen Behörden Cloud-Anbieter nutzen?

Digitalisierung und Nachhaltigkeit: Ein Gegensatz?

Zum Schluss des Gesprächs geht es um das zweite große Thema der neuen Bundesregierung: die Nachhaltigkeit. Andreas beschreibt das Spannungsverhältnis, das auf den ersten Blick zwischen den beiden Zielen Digitalisierung und Klimaschutz besteht, und wie diese Spannung aufgelöst werden kann (siehe dazu auch den aktuellen Beitrag der Autorin Leonie Hermann zum Thema Green Cloud Computing), denn am Ende gilt:

„Die Digitalisierung bietet auch beim Klimaschutz Chancen ohne Ende, man muss sie nur offen und mutig angehen.“

Andreas Gräf, Kyndryl Deutschland

Ein Lob auf die Faulheit

Ich muss etwas gestehen. Ich neige zur Faulheit!  

Nicht immer und nicht überall, soviel sollte ich am Anfang klarstellen. Ich mache gerne Sport und auch bei meiner Arbeit, die ich wirklich liebe, hänge ich mich rein. Aber ich hasse manuelle und sich wiederholende Tätigkeiten, da fallen mir automatisch immer gleich die Augen zu. 

Meine erste steile These ist, dass ich in der IT nicht der Einzige bin, dem es so geht.  Und meine zweite These ist: Genau dieser Umstand hat der Entwicklung von Automatisierungstools einen großen Schub gegeben und wird das auch weiterhin tun. Während die erste These eher ein Bauchgefühl und Erfahrungswert aus vielen Gesprächen und Projekten ist, werde ich die zweite These gleich erläutern. 

Als ich vor über 20 Jahren in der IT angefangen habe, war es noch üblich, dass man neben Kundenprojekten auch zusätzlich “Betrieb macht”. So etwas wie DevOps, nur eben ProOps. Irgendwann habe ich entdeckt, dass das Ticket-System eine Mailschnittstelle hat, und man mit etwas Geschick (und viel Kaffee für das Security-Team) das System entsprechend füttern kann, um so viele Aufgaben zu automatisieren.  

Aber warum hat es erst in den letzten Jahren diesen Schub gegeben?  

  1. Weil viele Branchen unter einem gewaltigen Kostendruck stehen und sich digital neu aufstellen müssen, wenn sie auch in Zukunft noch auf dem Markt bestehen wollen. Laut einer Umfrage von IDC ist für 86% der befragten Unternehmen Automation mission-critical für ihre Transformations-Strategie.  (IDC InfoBrief, DevOps Agility Demand Advanced Management and Automation – March 2018) 
  1. Weil es zwar schon eine gefühlte Ewigkeit Script-Sprachen gibt, die auch exzessiv genutzt werden (Perl seit 1987, JavaScript seit 1995 und Python tatsächlich schon seit Anfang der 1990er), aber Frameworks auf Enterprise-Level erst seit einigen Jahren. Und genau diese sind notwendig für die Orchestrierung, damit alle Zahnräder ineinandergreifen. 
  1. Weil die meisten Applikationen oder Tools nicht über eine Schnittstelle von außen angesprochen werden konnten. Heute sind wir einen beträchtlichen Schritt weiter und sprechen bereits von Software-Defined Everything (SDx), also der Möglichkeit, abstrahierte Workloads unabhängig von der darunterliegenden Hardware nutzen zu können. Bei vielen Firmen ist diese Fähigkeit inzwischen Voraussetzung bei der Auswahl von Software.  

Zu den bekanntesten Frameworks gehört sicherlich Ansible Automation Plattform von RedHat, das seine Stärken in vielen kritischen Bereichen ausspielen kann, wie zum Beispiel bei Security & Compliance oder bei der Runbook und Event-Automatisierung. 

Wir bei Kyndryl setzen nicht nur stark auf Ansible, unser Community-Modell erlaubt es unseren Mitarbeiterinnen und Mitarbeitern auch, vorhandene Skripte (sogenannte Playbooks) zu teilen oder auf die jeweiligen Kundenbedürfnisse anzupassen. Damit wird es so einfach wie nie zuvor, mit unseren Kunden zusammen eine Automations-Roadmap zu erstellen, damit diese sich ganz auf ihr Business konzentrieren können.  

Was bedeutet das nun für meine oben aufgestellte These? 

Der IT-Betrieb wird sich stark wandeln und diese Entwicklung ist in vielen Firmen auch bereits in vollem Gange. Mitarbeiter werden sich nicht mehr um die Abarbeitung manueller Aufgaben kümmern müssen, sondern die Automation in alle Bereiche tragen und vorhandene Ineffizienzen aufspüren und weiter reduzieren. Zusätzlich werden durch die Automatisierung Kapazitäten frei für Aufgaben, die langfristigen Nutzen für das Business bringt. Die Arbeit wird insgesamt anspruchsvoller – und deshalb auch viel spannender und abwechslungsreicher.  Dann fallen mir und vielen anderen Kollegen in Zukunft bei der Arbeit auch nicht mehr die Augen zu!  

Stefan Mayer

Stefan Mayer war über 20 Jahre in unterschiedlichen technischen nationalen und internationalen Positionen bei IBM Schweiz beschäftigt. Seit dem 1. Oktober 2021 ist er Chief Technology Officer und Mitglied des Leadership Teams bei Kyndryl Schweiz.

Kyndryl unterstützt ABN AMRO bei dem nächsten Schritt in eine moderne und digitale Zukunft

Unternehmen müssen aktuell mit der immer schneller voranschreitenden Digitalisierung Schritt halten – und gleichzeitig den Fokus auf höchste Sicherheit haben. Dies gilt besonders für den Banken- und Finanzsektor. Um aktiver Treiber in der digitalen Transformation zu sein, sollten Banken ihre IT-Infrastruktur modernisieren, um reaktionsschnelle, flexiblere und kundenfreundlichere Prozesse zu ermöglichen.

Die niederländische Bank ABN AMRO ist ein solcher Vorreiter: ABN AMRO hat zum Ziel, eine Bank zu sein, die ihre Kunden auch im digitalen Zeitalter umfassend berät und optimalen Service bietet.

Dazu modernisiert ABN AMRO gemeinsam mit Kyndryl und IBM sein IT-Betriebskonzept, um ihre hybride Cloud-Infrastruktur weiter auszubauen und einen agilen DevOps-Ansatz zu verwirklichen. Bei diesem Ansatz arbeiten Entwickler- und Operationsteams eng zusammen. Somit wird die bereits bestehende Zusammenarbeit von ABN AMRO, Kyndryl und IBM weiter ausgebaut.

„Wir freuen uns, dass wir die produktive und erfolgreiche Zusammenarbeit mit IBM und Kyndryl fortsetzen können.“
Jan van Groningen, Chief Technology Officer von ABN AMRO.

Die verschiedenen Aspekte der Digitalisierung

Für den Erfolg dieses Langzeitprojektes sind einige Punkte entscheidend.
Für eine agile und optimale Zusammenarbeit werden die Teams von Kyndryl und ABN AMRO ineinander integriert, um ein einheitliches Service-Modell zu  entwickeln. Dieses Service-Modell wird an die Plattformen der Bank angepasst, mit dem Fokus u.a. auf SaaS, Azure und den entsprechenden Cloud-Services. Darüber hinaus werden die bankeigenen Plattformen  optimiert, und ein einziges generalisiertes Tool-Set wird die Arbeit auf allen Anwendungen vereinfachen. Aktuelle On-Premise-Plattformen werden in eine private Cloud überführt, um doppelte Anwendungen zu vermeiden und somit einen noch besseren Kundenservice zu bieten.

Gemeinsam arbeiten Kyndryl und seine Partner an der Modernisierung der Anwendungen und an neuen Lösungen für die Bank-Plattformen. Auch die IBM Z-Hardware und -Software und IBM Cloud Pak-Lösungen tragen zur erfolgreichen und schnellen Transformation in Richtung Hybrid Cloud bei.

Eine jahrelange erfolgreiche Partnerschaft wird somit mit umfassenden  Zielen fortgeführt und ABN AMRO wird weiterhin ein Vorreiter und Treiber bei der sicheren digitalen Transformation in der Bankenbranche sein.

Erfolgreiche Migration auf SAP S/4HANA ohne Ausfallzeiten

Kyndryl unterstützt die Mondi Group bei der digitalen Transformation für mehr Nachhaltigkeit

Aufgrund der Pandemie hat sich in den letzten beiden Jahren der eCommerce-Markt noch einmal beschleunigt, für den es schon die Jahre davor kontinuierlich nach oben ging: So berichtete zum Beispiel das E-Commerce-Magazin, dass der Onlinehandel in Deutschland im dritten Quartal dieses Jahres das größte Wachstum seit dem Jahr 2017 hinlegte. Dies führt zu einem Wachstum bei einer anderen Branche: Die Nachfrage nach Verpackungen für den Versand ist ebenso kontinuierlich angestiegen.

Das bedeutet auch: Die globalen Verpackungshersteller stehen vor einem wichtigen Wendepunkt, da sie inmitten dieses rasanten Wachstums auf sich verändernde Marktanforderungen reagieren müssen. Kyndryl ist Partner für diesen Wandel.

Die News der Woche:

Kyndryl unterstützt das globale Verpackungs-und Papierunternehmen Mondi Group bei der Umstellung von 40 Fabriken in 15 Ländern auf die nächste Generation von ERP SAP S/4HANA®.

Die SAPLösung wird auf robusten, leistungsstarken IBM® Power Systems™-Servern und wird auf IBM FlashSystem®-Speichern gehostet.

Zwei Ziele durften bei dieser Umstellung nicht aus den Augen verloren werden:

Zum einen musste die Produktion und der Versand von Verpackungen bei Mondi auch während der Migration weiterhin reibungslos funktionieren. Das Unternehmen hatte den Anspruch die durch die Pandemie verursachte Nonstop-Nachfrage auch ohne Unterbrechungen erfüllen. Dieses Ziel wurde vollständig erreicht: Es gab keine Ausfallzeiten während der Umstellung

Und zum anderen sollte diese Umstellung auch die Nachhaltigkeitsziele des Unternehmens unterstützen, die Mondi in seinem Mondi Action Plan 2030 (MAP2030) formuliert hat. Das Unternehmen kann diese Ziele nun mit einer noch stabileren IT und besserer Ausfallsicherheit angehen.

%%footer%%