Kostenfalle Public Cloud – Ist FinOps die Antwort?

Viele Kunden scheitern daran, die Kosten in der Public Cloud unter Kontrolle zu bekommen. Aber warum ist das ausgerechnet auf der Public Cloud der Fall? Was steckt hinter dem Begriff FinOps und warum sollten sich betroffene Unternehmen damit beschäftigen?

Neulich nahm ich an einem Kyndryl-internen Training teil, in dem es um die Strategie und neusten Portfolio Erweiterungen im Themenbereich FinOps ging. Dem Thema begegnet man bei uns in der Firma gerade ständig, sowohl in Deutschland als auch global. (Falls jemand den Begriff noch nicht gehört haben sollte, findet ihr hier eine gute Definition was dahinter steckt.)

In diesem Workshop fiel die Aussage, dass Kunden „Predictability“ und „Control” lieben – also Vorhersehbarkeit, Planbarkeit und Kontrolle. Aber in der Public Cloud würden sie das nicht bekommen. Viele Kunden, die schon signifikant die Public Cloud nutzen, hätten sogar ein sehr ernstes Problem mit dem Thema was die Planbarkeit und Kontrolle ihrer Ausgaben und Rechnungen für die Hyperscaler angeht. Dazu habe ich zunächst recherchiert, um herauszufinden, ob es dazu auch außerhalb unserer Firma ähnliche Meinungen und Beobachtungen gibt. Der Eindruck, den ich gewonnen habe, ist folgender:

Der Bedarf und die Nachfrage nach Lösungen und Konzepten, um die steigenden, und vor allem unkontrollierbaren Kosten der Hyperscaler in den Griff zu bekommen, scheint bei den Kunden, die schon intensivere Erfahrungen mit Public Clouds gemacht haben, immer größer zu werden. Manche Autoren berichten sogar schon von einem Trend, bestimmte Workloads wieder zurück ins eigene on-premise Rechenzentrum zu holen wie hier. Es wird auch berichtet, dass die Public Cloud in puncto Kosten die Erwartungen ziemlich enttäuscht hat, nachzulesen etwa hier.

Flexibilität verursacht Kosten

Seit vielen Jahren berate ich selbst Kunden im Themenkomplex „Journey to Cloud“. Ich habe die Architekturen dutzender Cloud-Zielumgebungen designt, Reviews durchgeführt und begleitet. Das überzeugende Argument für die Nutzung und die Migration auf eine Public Cloud war dabei immer die leichte Anpassbarkeit der Cloud Services auf schwankende und unvorhergesehene Anforderungen des Geschäfts sowie die einfache Nutzung für Entwickler und die Vielfältigkeit und Aktualität der Services, die den Verantwortlichen der Anwendungen und Geschäftsprozesse so viele Möglichkeiten und Freiräume bieten.

Die großen Hyperscaler bringen dazu eine Vielfalt an Funktionalität frei Haus mit, um die Performance zu überwachen aber auch die Security Settings und Controls und natürlich auch die anfallenden Kosten feingranular auf Mandanten, Organisationseinheiten und Projekte zuzuordnen. Ausgaben können in Echtzeit erfasst werden und es lassen sich sogar automatisiert Budgets auf User Ebene einrichten und verwalten. Diese Funktionalität und der Reifegrad dieser Tools und Services, um das Thema FinOps in Bezug auf Vorhersehbarkeit und Kontrolle in den Griff zu bekommen, übertrifft dabei bei weitem das was ich persönlich im Bereich der traditionellen Datacenter und IT Infrastrukturen – ob selbstbetrieben oder gehostet – gesehen habe.

Wenn aber die Tools und Funktionalitäten vorhanden sind – wo liegt dann das Problem?

Ich hab mir meine eigenen Gedanken gemacht und versucht einen Reim auf diese scheinbar widersprüchlichen Aussagen und Beobachtungen zu finden. Um diese Frage zu beantworten, bin ich dann einmal die typischen Use Cases und Personas einer produktiven Public Cloud durchgegangen und habe die Design-Thinking-Methode und Fragetechniken darauf angewandt.

Ein Beispiel:

  • Ein Fachbereich definiert eine Anforderung, dass eine neue Applikation benötigt wird.
  • Der Applikationsarchitekt identifiziert die funktionellen Anforderungen und wählt mit einem Team aus Cloud SMEs die aus seiner Sicht passenden Services der Public Cloud aus, um diese App zu implementieren.
  • Ein Entwickler Team bekommt den Auftrag die App zu implementieren.
  • Der Fachbereich fordert ein Budget an, das vom Controlling oder Einkauf geprüft und freigegeben wird.
  • Nachdem die App getestet und implementiert wurde, wird die App produktiv geschaltet und an ein Betriebsteam übergeben das die App dann in der Public Cloud nach einem bestimmten Operating Model (zum Beispiel DevSecOps, CloudOps) betreibt.
  • Wenn die App nicht richtig funktioniert, wird ein Incident-Management-Prozess angetriggert um die Fehler zu beheben.

Cloud-Ressourcen zurückfahren, aber wie?

Was passiert, wenn die provisionierten Cloud-Ressourcen gar nicht mehr oder zumindest nicht im geplanten Umfang benötigt werden? Gibt es in der Betriebsabteilung oder den Fachbereichen einen Prozess der angetriggert werden kann, um zu prüfen, ob ein beliebiger Service auch wieder deprovisioniert werden kann? Gibt es Verantwortliche, die die implementierte Architektur regelmäßig überprüfen, auf die aktuellen Anforderungen und technischen Möglichkeiten im Hyperscaler-Portfolio mappen und damit ein kontinuierliches Redesign, Resolutioning und Optimization der Landing Zone und Workloads ermöglichen? Welcher Prozess wird angestoßen, wenn am Ende des Monats auf der Rechnung des Hyperscalers Server stehen von denen keiner weiß, wer sie provisoniert hat und wofür sie gebraucht werden? Oder wen kann man fragen, warum zum Beispiel die Netzwerkkosten in Asien im letzten Monat um 300 Prozent gestiegen sind?

Jetzt könnte man natürlich festlegen das alle Ressourcen, die nicht klar zugeordnet werden können oder die nicht ausgelastet sind, einfach regelmäßig und automatisiert deprovisioniert oder verkleinert werden. Entsprechende Tools und Funktionen gibt es reichlich am Markt.

Aber wer trägt dann die Verantwortung, wenn eine geschäftskritische Anwendung im Unternehmen ausfällt oder aufgrund dieser Veränderung nicht mehr ausreichend performant ist?

Die Antwort auf diese Fragen ist, dass es nicht die eine Person geben kann, die für die Lösung dieser Herausforderungen verantwortlich gemacht werden kann. Vielmehr bedarf es eines orchestrierten Zusammenspieles aus unterschiedlichen Rollen und Skills in der IT Organisation eines Unternehmens wie beispielsweise:

IT Executive – Benötigt eine konsistente Sicht auf den Wert eines Cloud Service. Verbindet technische Entscheidungen mit den daraus resultierenden Geschäftsergebnissen.

IT Operations Manager – Identifiziert und bereinigt nicht ausgelastete Cloud-Ressourcen.

Financial Analyst – Analysiert und organisiert die Auswertung der Cloud Ausgaben.

Lead Architect / Engineer – Versteht die finanziellen Auswirkungen seiner Architekturentscheidungen und prüft diese kontinuierlich auf Potential zur Effizienzsteigerung.

Fazit

FinOps muss ein interdisziplinärer Prozess im Betriebsmodell einer Public Cloud sein, um den Herausforderung der Kostenkontrolle in der Public Cloud Herr zu werden. Das heißt im Betriebsmodell der Landing Zone und Workload-Verantwortlichen der Betriebsorganisation oder des beauftragten externen Service Providers müssen die Abläufe, die Rollen und Skills und die adäquaten, für die Zielumgebung passenden, Tools definiert und implementiert werden. Nur so schafft man es, die Vorteile der Public Cloud voll zu nutzen und gleichzeitig die Übersicht und Kontrolle über die Kosten zu behalten.

Viktor Greve – Executive IT Architect, Cloud Practice bei Kyndryl Deutschland

Abenteuer in Click-Bait County und warum Zero-Trust Architekturen nur ein Teil der Lösung sind 

Ich halte mich für einen security-affinen Menschen. Meine Systeme (IT/IoT) zu Hause halte ich auf dem aktuellen Firmware- und Patch-Level. Geräte, die von den Herstellern nicht mehr unterstützt werden, müssen gehen. Mein Heimnetzwerk besteht aus mehreren Segmenten (VLANs) und WLANs (SSIDs) um verschiedene Nutzer und Geräte Gruppen halbwegs voneinander getrennt zu halten. Mindestens einmal im Jahr testet unser Arbeitgeber unsere Reaktion in einer Phishing Simulationen. Und ich habe schweren Herzens mein privates Antivirus Abonnement des bekannten schweizerisch/russischen Anbieters nicht verlängert. 

Aber die Zeiten ändern sich. In den letzten Wochen und Monaten hat sich die Sicherheitslage nicht nur offiziell eingetrübt (z.B. Cyber Sicherheitslagebild Ukraine des BSI, Cyber Threat Reports des NCSC oder die ShieldsUp initiative des CISA, Avasant Radarview). Ich bin bei meinen privaten Streifzügen durch das Internet vermehrt in un-eindeutigen Situationen gelandet. 

Gerade diese Woche irritierten mich Emails eines großen Paketdienstes in meiner Firmen-E-Mail, in denen ein Paket aus England angekündigt wurde, das ich nicht erwartet habe. Dann war da die sehr ähnliche E-Mail in meinem privaten Postfach desselben Paketdienstes, die sich dann aber nach 2x hinschauen doch als Phishing Versuch herausgestellt hat. Zuletzt kam auf meiner präferierten News Seite die Werbeeinblendung eines bekanntermaßen seriösen Shops für das eine e-Bike das ich seit einigen Wochen recherchiere und das leider ausverkauft ist.  Hier ging es allerdings nicht zu dem Shop, sondern zu einer der Gewinnspiel Seiten zweifelhaften Rufes – das e-Bike wird warten müssen. 

Alle drei Vorfälle sind mir im Gedächtnis geblieben, weil sie mich Zeit gekostet haben, weil trotz der ganzen technischen Absicherungen meiner E-Mail-Dienste und Arbeitsgeräte doch das Misstrauen mitfährt und ich am Ende froh war “rechtzeitig” (das hoffe ich zumindest) erkannt zu haben, dass es sich entweder um eine korrekte oder halt eine gefälschte Nachricht handelt. 

Sie sind mir aber auch im Gedächtnis geblieben, weil ich glaube, relativ gut auf solche Vorfälle vorbereitet zu sein. Viele Jahre in der IT-Industrie, einige Jahre in besonders sensitiven Bereichen meiner Kunden und schließlich der jahrelange Drill meines Arbeitgebers schaffen in solchen Situationen das Gefühl von Routine. Aber ich weiß, dass meine Familie trotz aller technischen Maßnahmen, die ich ergriffen habe, nicht so gut geschützt ist. Ich weiß, dass viele meiner Freunde und Bekannte nicht den gleichen Drill hatten. Und ich weiß, dass viele meiner Kunden Ihre Umgebungen zwar seit Jahren härten und testen, moderne Sicherheitsarchitekturen und Information Security Management Systeme aufbauen und trotzdem werden Ihre Mitarbeiter nicht die gleichen Chancen haben Angriffe zu erkennen und abzuwehren, wie ich heute. 

Auch modernste Sicherheitskonzepte/-architekturen wie Zero-Trust oder State-of-the Art Informationssicherheits-Prozessframeworks (ISMS) sind am Ende auf das richtige Handeln des Faktor Mensch angewiesen.  

Ich finde es daher wichtig, dass Kyndryl Ihnen nicht nur hilft Ihre Umgebungen technologisch und konzeptionell abzusichern, sondern dass wir genauso hersteller- und anbieterunabhängig mit Ihnen den Schutz Ihrer Mitarbeiter planen, umsetzen, überprüfen und verbessern. 

Für uns bei Kyndryl ist es wichtig das Sicherheitsrisiko Mensch in Ihrer spezifischen (Arbeits-)Umgebung zu reduzieren. Dabei sind Themen wie Phishing und Social Engineering genauso wichtig wie klare Vorgaben und Prozeduren. Der Erfolg kann sich dabei nur einstellen, wenn die Mitarbeiter die Maßnahmen nicht als zusätzliche Belastung empfinden, sondern Ihrerseits ein Verständnis für die spezifischen IT Sicherheit Risiken ihres Arbeitsplatzes entwickeln. 

Zero Trust – always verify – das sind die technischen Schlagworte. Als Menschen müssen wir das erst erlernen. Lassen Sie uns dabei helfen. 

(Hendrik Müller-Hofstede)

Links: 

Aktuelle Anforderungen und Herausforderungen für ein kritisches Netz – das Beispiel Gesundheitswesen

Einführung

Es ist für jeden offensichtlich, dass sich die Welt, in der wir heute leben, nach dem Ausbruch der Covid-19-Pandemie verändert hat. War die Rolle der Netzwerke bis Dezember 2019 für die meisten Menschen eher diffus, so ist deren Rolle und der IT-Kommunikation im Allgemeinen nach dem Corona-Ausbruch für fast jeden Menschen klar geworden. Selbst viele technische Laien sind nun mit den grundlegenden drahtlosen Anwendungen vertraut – egal ob zu Hause, in öffentlichen Räumen oder in Einrichtungen des öffentlichen Sektors. Klar ist: Technologie – Internet, drahtlose Netzwerke (sowohl Wi-Fi als auch 4G/5G) und Videokonferenzanwendungen – hat die Lebensqualität der Menschen beeinflusst und verbessert.

Was ein kritisches Netzwerk ist

Nicht alle elektronischen Kommunikationsmittel, die durch drahtgebundene und drahtlose Technologien unterstützt werden, sind gleich wichtig. Auf der einen Seite stehen die Audio- und Videokonferenzen zwischen Freunden oder Familienmitgliedern, während am anderen Ende sehr spezialisierte und kritische Kommunikationen zwischen Menschen, spezialisierten Maschinen und Netzwerkgeräten zu finden sind. Die zugrundeliegenden Netzanforderungen variieren daher von angemessenen Verzögerungen und Paketverlusten zwischen den Kommunikationsendpunkten im ersten Szenario bis hin zu streng deterministischen Latenzzeiten, Jitter und Bandbreiten für das andere Ende des Spektrums. Diese unterschiedlichen Zuverlässigkeitsgrade, die von Netzen gefordert werden, ergeben sich aus der Tatsache, dass Netze in verschiedenen Situationen unterschiedliche Rollen spielen: Während im ersten Fall das Netz die normale Kommunikation zwischen Freunden und Familienmitgliedern unterstützt, unterstützt es im zweiten Fall kritische Anwendungen und die Kommunikation zwischen spezialisierten Maschinen und Robotern, die von OT (Operational Technology)-Experten bedient werden. Diese kritischen Netze spielen daher eine wichtige Rolle mit unmittelbaren Auswirkungen auf die Lebensqualität der Menschen.

Die kritischen Netzwerke haben daher strengere Leistungsanforderungen – insbesondere im aktuellen globalen Pandemiekontext, wenn viele medizinische Dienste über das Internet in Anspruch genommen werden. Anwendungen des Gesundheitswesens wie Fernüberwachungssysteme für den Gesundheitszustand, videobasierte telemedizinische Konsultationen, interdisziplinäre Zusammenarbeit zwischen medizinischem Personal oder die Konnektivität von Krankenwagen zur Übermittlung lebenswichtiger Daten an das Krankenhaus erfordern ein qualitativ hochwertiges Netz zur ständigen Überwachung der Gesundheitsparameter der Patienten. Die Bedeutung der Netzwerke anhand des Beispiels Gesundheitswesen liegt darin, dass die Datenströme, die das Netz transportieren muss, buchstäblich Menschenleben erhalten. Aus diesem Grund ist die Leistung der kritischen Netzwerke so wichtig.

Aktuelle Anforderungen und Herausforderungen für ein kritisches Netz

Um beim Beispiel des Gesundheitswesens zu bleiben: Das zugrundeliegende Netzwerk, das die kritischen Verkehrsströme der Gesundheitsanwendungen unterstützt, sollte sehr zuverlässig und sicher sein und muss eine relativ hohe und vorhersehbare Datenrate sowie eine konstant niedrige Latenzzeit für die Datenübertragungen gewährleisten. Die kontinuierliche Zunahme von Geräten (IoT-Geräte, tragbare Geräte, Maschinen, eingebettete Geräte, mobile Roboter usw.), die Konnektivität benötigen, stellt jedoch eine weitere wichtige Anforderung an ein kritisches Netzwerk dar: Skalierbarkeit bei gleichzeitiger Wahrung einer vorhersehbaren Netzwerkleistung. Darüber hinaus sollten solche kritischen Netze relativ einfach zu verwalten und zu warten sein, insbesondere, wenn unvermeidliche Probleme auftreten.

Herkömmliche kabelgebundene und drahtlose Netzwerke sind so konzipiert, dass sie die meisten der oben genannten Anforderungen erfüllen – Ausfallsicherheit, Skalierbarkeit, Sicherheit und Verwaltbarkeit. Für die Anwendungen im Gesundheitswesen – Fernüberwachungssysteme für den Gesundheitszustand (RPM – Remote Patient Monitoring), videobasierte telemedizinische Konsultationen oder die Konnektivität von Krankenwagen – sind die Anforderungen, die solche kritischen Netzwerke erfüllen müssen, jedoch eine Herausforderung, gerade wenn es um die Netzwerkleistung geht. Einer der Gründe dafür ist, dass die Konnektivität für solche Anwendungsfälle im Gesundheitswesen über das Internet mit normalen ISP-Verbindungen erreicht wird. Selbst innerhalb des Krankenhausgeländes ist es eine Herausforderung, mit herkömmlichen kabelgebundenen und drahtlosen Netzwerken das erforderliche Niveau der Netzwerkleistung zu erreichen. Die Dienstgüte für drahtlose Netze ist eine komplexe IT-Aufgabe, da sie viele Attribute aus verschiedenen Ebenen berücksichtigen muss (Funkausbreitungsbedingungen, Zellengröße und Durchsatz am Zellenrand, Schicht-2- und Schicht-3-Parameter usw.). Die bestehenden Schwankungen der Funkausbreitungsbedingungen innerhalb eines unlizenzierten Spektrums, das von jeder Wi-Fi-Lösung genutzt wird, machen die Leistungskennzahlen des Netzes unvorhersehbar.

Eine weitere Herausforderung in einer Wi-Fi-Umgebung ist der komplexe Prozess der Aufrechterhaltung einer gleichbleibenden Qualität der Netzleistung während des Roaming-trade-off-Prozesses. Während dies in normalen Netzwerken zu einer suboptimalen Datenqualität  für die Endnutzer führt, kann in kritischen Netzwerken (z. B. solchen, die Anwendungen im Gesundheitswesen unterstützen) der Mangel an Konsistenz und Vorhersagbarkeit der Netzwerkleistung die Lebensqualität der Menschen beeinträchtigen.

Welche Technologie kann also solche strengen Anforderungen an die Netzwerkleistung erfüllen?

Die bekanntesten Technologien, die in unterschiedlichem Maße die Leistungsanforderungen für kritische Netze erfüllen, sind: Wi-Fi 6 und 5G/Private 5G.

Wi-Fi 6 ist im Standard für Link Aggregation von Local und Metropolitan Area Networks IEEE 802.1ax  definiert und ist die erste Änderung in der Wi-Fi-Welt, die über die traditionellen Innenräume hinausgeht und auf die Außenumgebung abzielt. Die neuen technischen Merkmale (OFDMA, MU-MIMO usw.) versprechen eine konsequente Verbesserung des Durchsatzes und der Spektrumeffizienz im Vergleich zu Wi-Fi 5. Allerdings handelt es sich bei Wi-Fi 6 nach wie vor um Halbduplex-Systeme, doch Wi-Fi 7 zielt darauf ab, dieses Problem zu lösen.

Da die Wi-Fi-Frequenzbänder nicht lizenziert (aber nicht unreguliert) sind, müssen die Planung und das Design nach einer Standortuntersuchung möglicherweise regelmäßig überprüft werden. Funkausbreitungsbedingungen können sich im Laufe der Zeit ändern (Rauschuntergrenze steigt), da diese Frequenzbänder von anderen Geräten frei genutzt werden können. Diese Variabilität stellt eine Herausforderung für die Leistungsmerkmale dar, die für kritische Netze erforderlich sind, die von Spezialmaschinen oder OT-Geräten und Robotern genutzt werden. Hinzu kommt, dass die relativ geringe Funkabdeckung eines AP den erforderlichen logistischen Aufwand für die physische Installation sowie die Verwaltung einer beträchtlichen Anzahl von Switches und APs erheblich erschwert.

Auch die Sicherheit spielt in kritischen Netzen eine wichtige Rolle. Die End-to-End-Segmentierung zwischen IT- und OT-Netzwerken mit ihren jeweiligen QoS-Parametern ist in herkömmlichen Wi-Fi-Netzwerken schwer zu erreichen. Da die Anzahl der Geräte (einschließlich IoT-Geräte), die Konnektivität benötigen, zunimmt, steigt auch die Gesamtkomplexität.

Im Gegensatz dazu ist 5G / Private 5G besser für Anwendungen im Gesundheitswesen geeignet, die den Mobilitätsaspekt mit der IoT/OT-Komponente kombinieren. Anwendungen wie die Konnektivität von Krankenwagen oder videobasierte telemedizinische Konsultationen, um nur einige zu nennen, sind in der IMT-2020 (International Mobile Telecommunications) Spezifikation enthalten.

Die ITU-R hat drei Anwendungsgruppen für IMT-2020 definiert, die den Leistungsanforderungen in kritischen Netzen zumindest im Gesundheitswesen entsprechen:

  1. Enhanced Mobile Broadband (eMBB) – Anwendungen, die ultrahochauflösendes Videostreaming erfordern (z. B. Fernhilfe bei chirurgischen Eingriffen in Echtzeit). Die signifikante Steigerung der spektralen Effizienz ermöglicht eine höhere Dichte für die Gerätekonnektivität bei höheren Datenraten und ermöglicht gleichzeitig AR-Anwendungen (Augmented Reality).
  2. Massive Machine Type Communication (mMTC) – Anwendungen, mit denen Objekte (OT/IoT) miteinander verbunden werden können.
  3. Ultra-Reliable and Low-Latency Communication (URLLC) – Anwendungen, bei denen Sicherheit, niedrige Latenzzeiten und Zuverlässigkeit entscheidend sind. Die kritischen Netze, die im Gesundheitswesen eingesetzt werden, haben genau solche Leistungsanforderungen für mobile Krankenwagen oder Anwendungen zur Überwachung wichtiger Daten.

Das wohl bekannteste Merkmal von 5G-Netzen ist die konsequente Virtualisierung von Netzwerkfunktionen – das so genannte Network Slicing. Dies ermöglicht, dass in jeder Funkzelle die exakte Funktechnologie verwendet wird und die exakten QoS-Parameter in verschiedenen logischen Abschnitten des Netzes verfügbar sind, die unterschiedliche Anwendungen mit unterschiedlichen Leistungsanforderungen (in Bezug auf Latenz, Durchsatz oder Jitter) transportieren. Die 5G-Technologie ermöglicht also von Haus aus die Segmentierung zwischen IT- und kritischen OT-Netzen durch Network Slicing.

Von 5G zu Private 5G ist es nur ein kleiner Schritt. Private 5G ermöglicht es öffentlichen und privaten Organisationen, die geschäftskritische Anwendungen und kritische Netze betreiben, ihre herkömmlichen Netze zu erweitern, um den Umfang ihrer Geschäftsanwendungen, die optimal eingesetzt werden können, zu vergrößern und ihren Kunden einen noch größeren Mehrwert zu bieten.

Die Integration von Private 5G in ein herkömmliches Netz erhöht die Menge der verfügbaren Datenquellen, die in einem KI-System genutzt werden können, erheblich. Die Zunahme der Datenmenge macht es für einen Menschen nahezu unmöglich, zusätzliche Erkenntnisse aus diesen Daten zu gewinnen. KI hat das Potenzial, die Gesamtleistung eines kritischen Netzwerks zu steigern, indem sie das Verhalten von Anwendungen, Geräten und Menschen lernt und dynamische und automatische Aktualisierungen verschiedener Netzwerkparameter durchführt.

Fazit

Wi-Fi und 5G/Private 5G sind sowohl konkurrierende als auch komplementäre Technologien, und ihr Einsatz im Gesundheitsbranche könnte auf der Grundlage der Kritikalität und des Mobilitätsgrads, die für die Anwendungen im Gesundheitswesen erforderlich sind, angepasst werden. Während der normale Internetzugang für Gäste und Verwaltungsanwendungen weiterhin über herkömmliche Wi-Fi-Netzwerke erfolgen kann, erfordern anspruchsvollere, kritische und komplexe Anwendungen (z. B. vernetzte Krankenwagen, Telemedizin usw.) ein Netzwerk, in das die 5G-Funktionen hervorragend passen und die herkömmliche Leistungslücke schließen könnten.

(Eduard Dulharu)

Bibliografie:


CIOKurator.News #51: Viel Unruhe bei den SAP Kunden und im Management

Alle Jahre wieder schauen die Analysten von Gartner in ihre Glaskugel und sagen die Technologietrends voraus, so auch in diesem Jahr. Ein Trend ist sicher die Notwendigkeit zur Automatisierung. Ob dieses Thema laut Meinung von CIO.DE auch auf der Prioritätenliste stehen sollte? Kosten und ROI sind ganz sicher eine Priorität, gerade beim Thema Cloud.

Alle Jahre wieder tagen die SAP-Anwender, findet der DSAG Jahreskongress statt, diesmal wieder als Präsenzveranstaltung. Und derzeit herrscht Verunsicherung: On premise oder Cloud, Preiserhöhungen, all das wird diskutiert. Die Computerwoche berichtet, E-3 Chefredakteur Peter Färbinger kommentiert.Zum Abschluss haben wir noch drei Beiträge zum Thema Security für Sie ausgewählt.Viel Spaß bei der Lektüre

Krankenhauszukunftsgesetz: Digitales Update für Krankenkäuser – Benedikt Ernst kommentiert die Situation im Kyndryl Talk

Für Kyndryl ist das Thema Gesundheitswesen ein sehr wichtiger, weil zukunftsträchtiger Bereich mit ungeheurer Dynamik. Die digitale Gesundheits- bzw. Patientenakte ist hier nur ein Beispiel von vielen, wie stark der Gesundheitssektor in Deutschland vor einer grundlegenden Digitalisierung steht. Ein zentrales Vorhaben ist dabei das Krankenhauszukunftsgesetz (KHZG), durch das deutsche Krankenhäuser ins digitale Zeitalter gebracht werden sollen.

Über des KHZG und dessen Kernaspekte im Kontext der Digitalisierung des Healthcare-Sektors spricht Stefan Pfeiffer im Kyndryl Talk mit Kyndryl Cloud Advisory Leader Benedikt Ernst. Viel Spaß beim Anschauen.  

Was steckt hinter dem KHZG? „Ein Digitales Update für die Krankenhäuser in Deutschland“ wurde vom ehemaligen Gesundheitsminister Jens Spahn angekündigt, als ab 1. Januar 2021 rund 4,3 Milliarden Euro von Bund und Ländern bereits gestellt wurden, damit Krankenhäuser in moderne Notfallkapazitäten, die Digitalisierung und ihre IT-Sicherheit investieren können. Die Budgets mussten bis Ende letzten Jahres von den Krankenhäusern beantragt werden, nun läuft die Bewilligungs- und Umsetzungsphase. 

In insgesamt elf sogenannten „Fördertatbeständen“ wird das Budget runtergebrochen. Erfreulich ist der große Fokus auf das wichtige Thema CyberSecurity: 15 Prozent der Fördermittel müssen dabei für die Verbesserung der Informationssicherheit eingesetzt werden. Dies ist eine der wesentlichen Säulen des KHZG – als Experte im Betrieb kritischer Infrastrukturen kann Kyndryl als Partner und Berater einen großen Wertbeitrag leisten. Evaluieren des Status Quo, Beraten, Aufbauen und langfristig Begleiten sind die Aufgaben, die Kyndryl gemeinsam mit Kunden, etwa der Universitätsklinik Mainz, bereits angeht.  

Bild von Tung Nguyen auf Pixabay

Lünendonk: Unternehmen brauchen IT-Dienstleister, um Herausforderungen der Digitalisierung zu stemmen  

Den in Deutschland tätigen IT-Dienstleistern ist es trotz Pandemie, Fachkräftemangel und Lieferkettenproblemen gelungen, die Umsätze 2021 so stark zu steigern wie seit 2007 nicht mehr. Um 13,1 Prozent konnten IT-Dienstleister im Durchschnitt zulegen, so die wichtigsten Ergebnisse einer aktuellen Lünendonk-Liste. Einer der Haupttreiber: Unternehmen versprechen sich durch die Digitalisierung neue Umsatzquellen und IT wird zunehmend zum Kerngeschäft, weshalb Geschäftsmodelle, Produkte und Services einen wachsenden Digitalanteil haben.  

Eine besonders hohe Nachfrage erwarten IT-Dienstleister bei den Themen Cloud-Transformation, IT-Modernisierung, Data Analytics, Cyber Security, Customer Experience und der Entwicklung und Implementierung von Software. Diese Einschätzungen werden von den CIOs und IT-Verantwortlichen gestützt: so sollen sowohl interne Prozesse optimiert und automatisiert werden, um Kosten zu sparen, als auch neue digitale und datenbasierte Produkte, Services und Geschäftsmodelle aufgebaut werden. 

Kyndryl erstmals unter den Top 5  

Die Rangliste der führenden IT-Dienstleister in Deutschland umfasst diejenigen, die mehr als 50 Prozent ihres Umsatzes mit IT-Outsourcing, Hosting, Managed Services und anderen Rechenzentrumsdienstleistungen auf dem externen Markt erzielen. Trotz eines angenommenen Umsatzrückgangs von zehn Prozent bleibt T-Systems mit einem geschätzten Umsatz von 2,0 Milliarden Euro an der Spitze der führenden IT-Dienstleister. Atos folgt mit einem geschätzten Gesamtumsatz von 1,9 Milliarden Euro auf Platz zwei. Dahinter rangiert TCS mit einem massiven Umsatzsprung durch die Übernahme der Postbank Systems. Kyndryl hat es mit einem geschätzten deutschen Umsatz von 770 Millionen Euro erstmals unter die Top 5 und auf Platz 4 der Lünendonk-Liste geschafft. 

Nachhaltigkeit und ESG: Die Rolle der IT  

Aufgrund der deutlich gestiegenen gesellschaftlichen Relevanz von Nachhaltigkeit im Sinne von Corporate Social Responsibility (CSR) hat Lünendonk für diese Studie erstmals die CIOs und IT-Verantwortlichen danach gefragt, ob bereits konkrete Nachhaltigkeitsstrategien und Ziele zur Dekarbonisierung in der IT-Lieferkette bestehen. 

78 Prozent der Unternehmen haben oder planen die Entwicklung einer Nachhaltigkeitsstrategie für ihre IT. Auch Kyndryl hat den Wandel zu einer nachhaltigeren IT verstanden und kann seine Kunden bei der Umsetzung aktiv unterstützen zum Beispiel durch: 

  1. Standardisierung – Anwendungen von Legacy IT auf moderne Standardsysteme migrieren und energieintensive Legacy-Architekturen stilllegen 
  1. Automatisierung – Prozesse automatisieren, um so nicht nur effizienter zu werden, sondern in Summe auch weniger Energie für replizierbare Prozesse zu verwenden. 
  1. Modernisierung – zum Beispiel von Hardware / Rechenzentren. Der Umzug in ein neues Rechenzentrum, das mit einer effizienteren Kühlung arbeitet 

  

 

Kyndryl hat sich mit Focus Offerings parallel zum Markt positioniert. Besonders im Bereich IT-Beratungsdienstleistungen bauen wir durch Neueinstellung und Weiterbildungen unser Wissen und unsere Expertise weiter massiv aus. Die Bereiche Cloud Advisory und Security & Resiliency, welche auch im Jahr 2022 und 2023 an Wichtigkeit gewinnen, sind bereits jetzt Sweet Spots im Advisory & Implementations Team von Kyndryl. 

Hier finden Sie weitere interessante Details der Lünendonk-Studie 2022 „Der Markt für IT-Dienstleistungen in Deutschland“.  

Ausblick auf die Entwicklung der IT-Branche   

Lünendonk sieht einen erheblichen Beratungsbedarf im Markt, insbesondere bei der Transformation von Geschäftsmodellen, Produkten und Services, Cloud-Architekturen, Cybersecurity und Data Analytics sowie bei organisatorischen und kulturellen Themen wie Agility und New Work. Gleichzeitig werde laut Lünendonk das Multi-Provider-Management an Bedeutung gewinnen, da immer mehr Unternehmen ihre Prozesse in der Cloud von mehreren Providern abwickeln lassen. Dabei gehe es neben Kosteneinsparungen und Effizienzgewinnen auch um das Kundenerlebnis, das durch vernetzte und kanalübergreifende Prozessketten verbessert wird. Interessant: 92 Prozent der IT-Dienstleister erwarten für 2022 und 2023 eine starke Nachfrage nach Cloud-Transformationsdienstleistungen.   

Zum Herausgeber der Studie:  

Die Lünendonk-Listen sind Anbieterrankings der großen B2B-Dienstleistungssegmente. Erstellt werden diese Studien und Listen von Lünendonk & Hossenfelder, einem Beratungs- und Marktforschungsunternehmen mit Sitz in Mindelheim. Die Lünendonk-Studien und -Listen für den IT-Dienstleistungsmarkt werden seit 1985 jährlich neu aufgelegt und zeigen die aktuellen Entwicklungen und Trends bei IT- Dienstleistern wie auch bei Kundenunternehmen auf. Mit diesem in Deutschland einzigartigen Datenbestand ist es Lünendonk möglich, Langzeitanalysen vorzunehmen, Ergebnisse besser zu interpretieren und Trends frühzeitig zu erkennen. 

Für diese Studie untersuchte Lünendonk 99 IT-Dienstleister und zeigt die führenden Anbieter als Ranking auf. Zur Spiegelung der Perspektive der Dienstleister (Anbieterseite) wurden zudem 140 Kundenunternehmen (Nachfrageseite) von März bis Mai 2022 telefonisch und online zu ihren Digital- und IT-Strategien befragt. Knapp die Hälfte dieser Unternehmen erwirtschaftete 2021 einen Umsatz von mindestens einer Milliarde Euro. Befragt wurden überwiegend leitende Angestellte aus der IT (CIOs, CDOs, CTOs) verschiedenster Branchen.  

Mareike Wysocki

Mareike Wysocki ist als Associate Partner bei Kyndryl für das Beratungs- und Implementierungsgeschäft verantwortlich. Für die Bereiche Cloud Advisory, Security & Resiliency, Network sowie Apps Data und AI übernimmt sie den Vertrieb. Gemeinsam mit einem Team aus Beratern und Architekten versteht sie es IT bezogene Herausforderungen und Challenges zu analysieren und ihre Kunden dabei zu unterstützen diese zu bewältigen.
 
Ihre Expertise erstreckt sich über zahlreiche Branchen. Einen besonderen Fokus legt sie jedoch auf Kunden aus dem produzierenden Gewerbe, der Pharma und Chemie sowie dem Gesundheitswesen.

Bild von Gerd Altmann auf Pixabay

%%footer%%