Hybrid und Digital – Worauf es beim Arbeitsplatz der Zukunft ankommt

Wie wir arbeiten und wo wir arbeiten, hat sich in der Geschichte noch nie in einer derartigen Dramatik und Geschwindigkeit verändert wie in der ersten Jahreshälfte 2020. Es fand eine Art entgegengesetzte Industrialisierung statt. Statt einer Zentralisierung der Mitarbeiter von zu Hause an den Arbeitsplatz, fand eine Dezentralisierung vom Büro ins Home-Office statt. Vor der Corona-Pandemie nutzten bei einem Großteil der Unternehmen niemand oder nur sehr wenige der Mitarbeiter das Home-Office. Das komplette Gegenteil erlebt man seit Beginn der Pandemie. Jetzt arbeitet ein Großteil der Angestellten von zu Hause aus. Der Anteil der Beschäftigten, die kein Home-Office nutzen, hat sich halbiert. Wie wird der Arbeitsplatz der Zukunft zu einem Erfolgsmodell?

Home-Office – Jetzt mehr als eine Notlösung

Der Wechsel ins Home-Office musste schnell gehen. Binnen weniger Tage musste bei vielen Unternehmen eine Notlösung etabliert werden, die es möglichst vielen Mitarbeitern erlaubt von zu Hause zu arbeiten. Nach über zwei Jahren im Einsatz, funktionieren dieses Home-Office-Modell so gut, dass bei einer Umfrage 75 % der Mitarbeiter angaben, mindestens genauso produktiv zu sein, wie im Büro. Neben der Produktivität der Mitarbeiter stieg auch die Zufriedenheit der Kunden an.

Dennoch gibt es Schattenseiten – Die ursprüngliche Notlösung steht auf einem bröckelnden Fundament. Die IT der Unternehmen war und ist nicht richtig auf Remote-Work oder Hybrid-Work ausgelegt. Nötige Veränderungen in Abläufen, Prozessen oder Firmenkultur wurden gar nicht oder nur ansatzweise vorgenommen.

Zufriedenheit der Mitarbeiter und Kunden bedingen sich

Neben der Produktivität und Kundenzufriedenheit stieg auch die mentale Belastung der Mitarbeiter. Fünf Tage pro Woche ins Büro zurückkehren wollen die Mitarbeiter allerdings auch nicht. Sie haben die Vorteile von Home-Office kennen- und schätzen gelernt. 26% der Mitarbeiter in Europa gaben sogar an, dass sie den Job wechseln würden, sollte ihr Arbeitgeber kein Home-Office anbieten.

Eine weitere Anforderung der Mitarbeiter ist ein konsumentenähnliches Nutzererlebnis. Eine gute, so genannte „Employee Experience“ wirkt sich nicht nur positiv auf die Mitarbeiter, sondern auch auf die Customer Experience, also die Kunden, aus. Auch aus diesem Grund ist es sehr sinnvoll, in die Zufriedenheit der Mitarbeiter mit ihrem (digitalen) Arbeitsplatz der Zukunft zu investieren.

Neun von Zehn Unternehmen setzen für den Arbeitsplatz der Zukunft auf Hybrid-Work-Modelle

Die Zukunft der Arbeit wird hybrid sein, also eine Mischung aus Anwesenheit im Büro und Home-Office. Zusätzlich zu den bereits genannten Punkten ergeben sich für Arbeitgeber dadurch weitere Vorteile. Die Kosten für Immobilien sind bis zu 30% niedriger, der Zugang zum Arbeitsmarkt ist besser und durch den Wegfall von Arbeitswegen verringert sich der ökologische Fußabdruck. Außerdem steigt die Motivation und das Wohlbefinden der Mitarbeiter. Und hybrides Arbeiten kann eine dynamische und agile Organisation mit cross-funktionalen Teams fördern, die näher am Kunden sind.

„Bad Companies are destroyed by crisis. Good companies survive them. Great companies are improved by them.“

Andy Grove, Mitbegründer von Intel

Dies zeigt: Eine neue, dauerhafte, hybride Lösung zu etablieren ist unausweichlich. Diese Ansicht teilen neun von zehn Unternehmen. Dabei ist eine organisierte Herangehensweise elementar, die die Meinung der Mitarbeiter berücksichtigt, sowie Richtlinien, Erwartungshaltung und Vorhaben klar kommuniziert. Die Einbindung der Mitarbeiter in diesen Prozess ist auf viele Arten möglich: Projektdiskussionen, Ideenaustausch, Networking, Mentoring oder Coaching.

Hybrid Work – Somewhere, anywhere

In neuen Arbeitsmodellen ist der Ort nicht essenziell, viel wichtiger ist die Veränderung hin zu einer digitalen Arbeitsweise. Bisher hat der Arbeitgeber die Büroausstattung, Informationen und Kollegen bereitgestellt. In Zukunft müssen sowohl die Arbeit als solche, als auch die Mitarbeiter von einem physischen Ort entkoppelt werden. Durch das Design intelligenter, hybrider Arbeitsplätze, werden die Mitarbeiter befähigt, nahtlos, sicher und mit den benötigten Ressourcen kollaborativ zu arbeiten. Und das unabhängig von ihren tatsächlichen physischen Aufenthaltsorten.


Daraus ergeben sich für den Arbeitsplatz der Zukunft eine geographische Unabhängigkeit und ein schnellerer Austausch von Informationen und Daten. Zudem der nicht so offensichtliche, aber nicht weniger relevante Vorteil einer nie dagewesen Simplizität bei der Erstellung cross-funktionaler Teams, die nach dem zu lösenden Problem organisiert und gestaltet werden können.


Hierbei muss die Art der Arbeit beachtet werden. Bei Hybrid Work muss man unterscheiden zwischen „somewhere“-Arbeit, welche an einem bestimmten Ort erfolgen muss (z.B. Vor-Ort-Service), und „anywhere“-Arbeit, die von überall erledigt werden kann.

Bei der Ausgestaltung von Produktivitätseinbußen auf der einen Seite und Bestärkung der Unternehmenskultur und Innovationsförderung auf der anderen Seite muss man eine gute Balance finden.

Das Vertrauen in die Mitarbeiter wird wichtiger in einer hybriden Arbeitswelt

Neben diesem theoretischen Rahmen existieren bereits heute konkrete Elemente des Hybrid Workspace von morgen. Ein automatisierter IT-Service und IT-Support, Tools für Kollaboration und Kommunikation, die mit anderen Applikationen und Plattformen verknüpft sind, End-User Device Management und Desktop-Virtualisierung sind essenzielle Ressourcen. Um die angesprochene Zufriedenheit der Mitarbeiter, die Employee Experience, zu messen und zu verbessern, müssen Service Level Agreements durch Experience Level Agreements (XLA) ergänzt oder durch diese ersetzt werden. Auf diese Weise wird nicht der Output quantitativ, sondern der Outcome qualitativ gemessen.

Dieselbe veränderte Betrachtung ist außerdem in der Führung wichtig. Physische Anwesenheit kann nicht mehr als Indiz für Leistung stehen. Diesen veränderten Anforderungen an Führungskräfte muss beispielsweise durch Trainings begegnet werden. Zudem könnten hierarchische Strukturen in einem Hybrid-Work-System obsolet werden. Das Vertrauen in die Mitarbeiter und deren Autonomie wird steigen müssen.

Weiterhin müssen Prozesse zwangsläufig an die veränderten Anforderungen angepasst werden und optimaler Weise sollte das kontinuierlich iteriert werden. Künstliche Intelligenz kann bei vielen Prozessen und Applikationen unterstützen.

Mitarbeiter einbeziehen und Herausforderungen meistern

Da Hybrid Work ein breites Spektrum an Arbeitsweisen abdeckt, ist es wichtig, den verschiedenen Anforderungen der Mitarbeiter so offen wie möglich zu begegnen. Durch die verschiedenen Vorlieben bei der Wahl des Arbeitsorts sollten keine Nachteile entstehen. Mitarbeiter, die fast ausschließlich im Home-Office arbeiten wollen oder müssen, sollten ebenso unterstützt werden, wie jene, die regelmäßig das Büro besuchen. Außerdem sollten Programme zur Gesundheitsförderung beibehalten oder sogar ausgebaut werden.

Das zeigt: Bei der zukünftigen Gestaltung wie wir arbeiten gibt es vieles zu beachten und einige Hürden zu meistern. Die größten Herausforderungen, die bereits heute für den Arbeitsplatz der Zukunft bestehen und noch an Bedeutung gewinnen werden, sind mangelnder IT-Support, sicherer Zugriff von überall auf Daten, Applikationen und Inhalte, sowie die Sichtbarkeit von IT-Assets.

Diese bereits heute zu meistern, schafft eine solide Grundlage für zusätzliche Veränderungen.

Quellen:

<strong>Lukas Sela</strong>
Lukas Sela

Lukas ist Sales Representative / Solution Sales Specialist Digital Workplace Services bei Kyndryl in Deutschland. Davor war er dualer Student bei IBM im Studienfach Digital Business Management.

Rechenzentren sind das Antriebsrad der Digitalisierung – Und können nachhaltige Vorteile bringen

Die Kapazitäten von Rechenzentren sind von 2010 bis 2020 um stolze 84 Prozent gestiegen. Laut einer aktuellen Bitkom-Studie zum Entwicklungsstand in Deutschland gelten sie als Rückgrat der Digitalisierung. Sie müssen den wachsenden Bedarf an digitalen Anwendungen in der Wirtschaft und bei Verbrauchern decken können und haben dadurch großen Einfluss auf die wirtschaftliche Entwicklung. Mit dieser Entwicklung müssen Rechenzentren also mithalten können. Aber wo geht die Reise hin? Worauf müssen sich Betreiber in Zukunft einstellen? Und welche Rolle spielen Nachhaltigkeit und Ökosysteme bei der Realisierung neuer, größerer Standorte?  

Die Antworten darauf gibt Oxana Winkler, Projektmanagerin für Data Center Services bei Kyndryl Deutschland. Im Kyndryl Videointerview mit Moderator Stefan Pfeiffer erläutert sie, warum der Bau von Neubaugebieten und Rechenzentren miteinander zusammenhängen sollte und welche Rolle sie für den Standort Frankfurt am Main spielen. 

Die Kyndryl Data Center Services unterstützt Kunden bei der Planung und dem Bau von Rechenzentren. Die Kunden werden über den gesamten Prozess begleitet. Kyndryl führt Machbarkeitsstudien, Standortanalysen, Konzepterstellung, Planung und die komplette Bauleistung durch. So wird dem Kunden ein schlüsselfertiges Rechenzentrum bereitgestellt.  

Rechenzentren können mehr leisten, als man denkt 

„Wir erleben gerade die digitale Transformation, die besonders an Fahrt aufgenommen hat in den letzten beiden Jahren.“ 

Oxana Winkler, Kyndryl Deutschland

Oxana Winkler erklärt, dass die europaweiten Klimaziele auch die Data Center betreffen. Diese zeichnen sich naturgemäß durch einen hohen Stromverbrauch aus und müssen daher bis 2027 klimaneutral betrieben werden können. Die Möglichkeiten dafür sind vielfältig. Darüber hinaus können Rechenzentren auch anderswo zum Thema Nachhaltigkeit beitragen: 

Urban Farming und die Lebensmittelindustrie brauchen das ganze Jahr über Wärme. Ein Rechenzentrum kann einiges an Energie liefern.“ 

Oxana Winkler, Kyndryl Deutschland

Rechenzentren werden also immer wichtiger für die wirtschaftliche Entwicklung. Dabei müssen sie aber den klimagerechten Anforderungen gerecht werden. Aus Sicht von Oxana Winkler gibt es beim Umgang mit Data Centern noch einiges zu berücksichtigen:  

  1. Mehr Rechenzentren: Durch die steigenden Anforderungen der Wirtschaft wächst der Bedarf an Rechenzentren. Vor allem die Hyperscaler fördern das. Dafür benötigt es allerdings Platz und Planung.  
  1. Gute Planung: Rechenzentren sollten bereits bei der Stadtplanung fest berücksichtigt werden. So lassen sich Rechenzentren gut in eine Infrastruktur eingliedern und die entstandene Abwärme lässt sich anderweitig sinnvoll nutzen.  
  1. Upgraden statt abreißen: Alte Zentren müssen nicht gleich abgerissen und neugebaut werden. Moderne Lösungen aus dem Soft- und Hardware Bereich eignen sich hervorragend, um die Lebensdauer von Rechenzentren zu erhöhen.  

Zu diesen und mehr Themen können Sie persönlich mit dem Team des Kyndryl Data Center Service am 11. und 12. Mai auf der Data Centre World-Messe in Frankfurt sprechen. 

Hohe Risiken und hohe Anforderungen: Cybersecurity und Cyber Resiliency bei Finanzdienstleistern  

Von Banken über Versicherungen bis zu Fintech-Unternehmen – die Geschäfts- und Technologie-Landschaft der Finanzdienstleister wandelt sich. Die Unternehmen sehen sich daher mit neuen Cybersecurity-Risiken konfrontiert. Wie können Finanzdienstleister sensible Kundendaten schützen und die Einhaltung von Vorschriften gewährleisten? Wie können sie zugleich Prozesse optimieren und Kosten im Zaum halten, um in einer Branche mit so vielen Akteuren wettbewerbsfähig zu bleiben?  

Der Finanzdienstleistungssektor bietet wertvolle Ziele für Cyberkriminelle. Das Interpol Cyberthreat Assessment 2020 ergab, dass mehr als 20 Prozent der Phishing-Versuche auf Finanzdienstleister zielten. Die Unternehmen der Branche sind somit die weltweit am häufigsten angegriffene Zielgruppe.  

Trotz ständiger Einbruchsversuche und strenger gesetzlicher Vorschriften zum Schutz finanzieller und persönlicher Daten verharren Finanzdienstleister bei ihrem Bemühen um Cybersicherheit oft in einer reaktiven Haltung. Das ist auch deshalb problematisch, weil private und Unternehmenskunden zunehmend Echtzeit-Zugang zu allen Angeboten fordern – vom Online Banking und Mobile Banking bis zum Hochfrequenzhandel.  

Gleichzeitig müssen die Institute jedoch ihre Kosten kontrollieren und die betriebliche Effizienz optimieren. Das macht zusätzliche Investitionen in die Sicherheit kurzfristig unattraktiv für sie. Langfristig gibt es jedoch keine andere realistische Option. 

Zusätzliche Risiken durch Remote Work und den Umzug in die Cloud 

Finanzinstitute brauchen einen soliden Präventionsplan und Wiederherstellungsfähigkeiten auf dem neuesten Stand, um den komplexen Herausforderungen aus hohen Risiken, strengen Vorschriften und spezifischen Anforderungen nachhaltig begegnen zu können. Dafür müssen sie ihre Reaktionspläne regelmäßig auf Vorfälle testen und ständig aktualisieren. 

Bisher haben sich die Unternehmen des Finanzsektors  bei der Absicherung ihrer Netzwerke auf herkömmliche Methoden verlassen: Schutzmaßnahmen um die Grenzen herum, die den Netzwerkrand, den Endpunkt und das Rechenzentrum vor Ort sichern sollen.  

Es arbeiten jedoch immer mehr Mitarbeiter von zu Hause aus. Remote-Mitarbeiter brauchen das gleiche Maß an Zugang zum Netzwerk, Datengeschwindigkeit und Rechenleistung wie ihre Kollegen im Büro. Diese Anforderungen sind eine enorme Belastung für die bestehenden Netzwerke und gefährden geschäftskritische Abläufe.  

Darüber hinaus sind Organisationen im Finanzdienstleistungssektor zunehmend auf Cloud-basierte Infrastrukturen angewiesen – diese bringen jedoch ihre eigenen Sicherheitsprobleme mit sich. Die umlagefinanzierte Infrastruktur ist finanziell leicht zu rechtfertigen – zumindest im Vorfeld. Eindeutig vorteilhaft ist auch die betriebliche Flexibilität: Die Kapazität lässt sich kurzfristig erhöhen, unnötige 

Funktionen lassen sich bei Bedarf abschalten.  

Das Problem mit dem Umzug in die Cloud ist, dass solche Initiativen zur digitalen Transformation die Angriffsfläche vergrößern. Die Sicherheitsteams brauchen Netzwerktransparenz und -kontrolle, um Angriffe abzuwehren, Kosteneinsparungen zu erzielen und die betriebliche Effizienz zu steigern. Dies wird durch ständig strengere Sicherheitsbestimmungen, so wichtig und richtig diese sind, nur noch komplizierter.  

Starke Sicherheitsarchitektur hält Bedrohungen stand 

In einer Umgebung, in der Sicherheit immer und überall gewährleistet sein muss, können herkömmliche Lösungen den Anforderungen moderner Unternehmen nur schwer gerecht werden:  

  • Mangelhaft integrierte Sicherheitselemente und architektonische Fragmentierung sind ineffizient. Ohne Integration müssen viele Sicherheitsabläufe manuell verwaltet werden, was zu Verzögerungen und erhöhter Fehlerwahrscheinlichkeit führt.  
  • Architektur-Silos verzögern die Erkennung, Abwehr und Reaktion auf Bedrohungen. Zudem schaffen sie Redundanzen, erhöhen die Betriebskosten und bieten potenzielle Lücken in der Sicherheitsstruktur eines Unternehmens. 

Für eine cloud-basierte Infrastruktur ist eine flexible Sicherheitsarchitektur wichtig. Sie muss jegliche Art von Cloud-Dienst ermöglichen und zeitgleich herkömmliche On-Premises-Dienste schützen.  

Da sich die Netzwerkgrenzen immer weiter auflösen, sollten Unternehmen integrierte Tools oder Plattformen für konsistente Sicherheit und Edge-to-Edge-Leistung in Betracht ziehen. Netzwerk- und systemübergreifende Sicherheitslösungen können potenzielle Bedrohungen effizienter erkennen, Bedrohungsdaten austauschen und eine einheitliche und angemessene Reaktion koordinieren. 

Automatisierte Erkennung von Bedrohungen und Künstliche Intelligenz (KI) sind zudem unerlässlich für Unternehmen, um Angriffe in Echtzeit und in großem Umfang abwehren zu können.  

Endpunkt-Sicherheit und Zero-Trust-Modelle 

Laut einer Umfrage von Fortinet und Canam Research unter IT Sicherheitsverantwortlichen und Business-Entscheidern gaben 48 Prozent der Befragten an, dass die Endpunkt-Sicherheit eine der größten Herausforderungen für Finanzdienstleistungsunternehmen darstellt.  

Die Verbreitung von Geräten aus dem Internet der Dinge (IoT), die Einführung von Cloud-Technologien und  die Umstellung auf eine hybride Arbeitsumgebung haben die Angriffsfläche vergrößert. Um die Risiken zu bewältigen, setzen viele Finanzinstitute diverse Sicherheitsprodukte ein. Die Gefahr dabei: Daraus können Sicherheitssilos resultieren, die durch Unübersichtlichkeit die betriebliche Ineffizienz und damit auch die Sicherheitsrisiken erhöhen. 

Der erste Schritt zur Bewältigung dieser Herausforderungen, insbesondere für den Fernzugriff, besteht in der Umstellung auf moderne Endpunkt-Sicherheitslösungen und der Einführung eines Zero-Trust-Modells. Zero-Trust-Sicherheitsmodelle gehen davon aus, dass kein Benutzer oder Gerät vertrauenswürdig ist, bis das Gegenteil bewiesen ist.  

Durch Endpunkt-Überwachungsfunktionen können Unternehmen Versuche, das Netzwerk zu infiltrieren, frühzeitig erkennen und die Gefahr neutralisieren. Die Echtzeit-Erkennung von nicht konformem, verdächtigem oder anomalem Verhalten ermöglicht es Finanzdienstleistern zu handeln, bevor Bedrohungen zu ernsthaften Sicherheitsproblemen werden. 

Sicherheitsorientierter Ansatz bei der Vernetzung 

Um die Daten ihrer Kunden und ihr eigenes wertvolles geistiges Eigentum zu schützen und die Geschäftskontinuität aufrechtzuerhalten, müssen Finanzunternehmen erkennen, dass ihr Schutzwall brüchig geworden ist. Angesichts immer komplexerer IT-Infrastrukturen, hybrider Cloud-Implementierungen und wachsender Angriffsflächen wird es für IT-Teams immer schwieriger, eine starke Leistung und hohe Sicherheit für ihre Unternehmensnetzwerke aufrechtzuerhalten. 

Die Einführung neuer Remote-Working-Technologien im Banken- und Finanzdienstleistungssektor stellt den Outside-in-Sicherheitsansatz in Frage. Eine IBM-Umfrage aus dem Jahr 2020 ergab, dass Unternehmen im Durchschnitt etwa 45 verschiedene Lösungen einsetzen. Davon erfordern die meisten eine Koordination von bis zu 19 Sicherheitstools. Die Umfrage zeigt auch, dass Unternehmen häufig auf Punktlösungen zurückgreifen, die nur ein bestimmtes Netzwerksegment absichern sollen. Diese Aufteilung kann zu Sicherheitslücken führen.      

Zur Lösung dieser Probleme können Unternehmen einen sicherheitsorientierten Ansatz für die Vernetzung wählen. Diese Strategie integriert die Netzwerk- und Sicherheitsarchitektur eines Unternehmens und macht Sicherheit zu einem wesentlichen Bestandteil des Geschäftsbetriebs. Die Konvergenz von Netzwerk und Sicherheit bricht Silos auf und fördert die Zusammenarbeit im gesamten Netzwerk.  

Durch sicherheitsorientierte Ansätze für die Vernetzung können Unternehmen digitale Innovationen nutzen, ohne sich einem zu großen Risiko auszusetzen. 

Für den schlimmsten Fall gewappnet: mit Cyberresiliency  

Finanzunternehmen wollen die Einführung digitaler Technologien beschleunigen. Dafür brauchen sie volle Kontrolle über ihre Netzwerke und eine erhöhte Transparenz in Kombination mit verwertbaren Erkenntnissen aus der Bedrohungsanalyse. Mit einem proaktiven Ansatz zur Erkennung von Bedrohungen können Banken und Finanzunternehmen ihre Reaktionszeit bei Bedrohungen und Cybersicherheitsvorfällen verkürzen und so ihr Netzwerk besser schützen.  

Dabei sollten die Methoden und Prozesse zur Aufrechterhaltung der Business Continuity nicht vernachlässigt werden. Für den Fall, dass sich alle Abwehrstrategien als wirkungslos erweisen und ein Angreifer ganz oder teilweise die Kontrolle über die Wertschöpfungskette übernommen hat, brauchen Finanzinstitute Orchestrierungslösungen für Cyberresiliency.  

Das Ziel muss sein, die essenziellen Anwendungsgruppen schnellstmöglich wiederherzustellen. Denn im Finanzsektor gilt in besonderem Maße: Zeit ist Geld. 

Florian Walling
Florian Walling

Florian Walling ist Senior Solution Sales Specialist Security & Resiliency Services
bei Kyndryl Deutschland GmbH. Mit seinem Hintergrund als IT-Consultant für komplexe Infrastruktur Change Projekte und Fachmann für Security-Lösungen ist Florian Walling ein gefragter Experte, wenn es um Cyber Resiliency geht.

Schnelle, sichere und nachhaltige Digitalisierung im Gesundheitssektor: Geht das überhaupt?

Als Teil der kritischen Infrastruktur (KRITIS) ist der Gesundheitssektor unverzichtbar: Millionen Menschen allein in unserem Land verlassen sich jeden Tag auf seine Einrichtungen – und sind auf reibungslose Abläufe angewiesen. Umso entscheidender ist es, dass sich die Branche schnell, sicher und nachhaltig digitalisiert. Doch ist das überhaupt möglich? Oder widersprechen sich Digitalisierung und Krankenhausmarkt per se? 

Diese und weitere Fragen beantwortet Benedikt Ernst im Kyndryl Videointerview dem Moderator Stefan Pfeiffer. Zudem geht der Leiter IT Strategie und Transformation der Kyndryl Advisory & Implementation Services (A&IS) in Deutschland auf die Herausforderungen des Gesundheitssektors ein und stellt zwei Praxisbeispiele aus der Arbeit seines Teams vor. 

Kyndryl A&IS berät Unternehmen zur Modernisierung und zum Aufbau von modernen IT-Betriebsmodellen. Dabei profitieren die Kunden von der Erfahrung, die Kyndryl bereits im Betrieb standardisierter IT für große Unternehmen weltweit gesammelt hat. Auch im Gesundheitssektor ist dieses Wissen gefragt.

Digitalisierung sorgt für Aufbruchstimmung im Gesundheitssektor

Benedikt Ernst berichtet von der gemeinsamen Arbeit Kyndryls mit IBM an der Architektur der elektronischen Patientenakte für Krankenkassen, Gesundheitspersonal und Patienten. Ein anderes Beispiel: Derzeit begleitet Kyndryl die Universitätsmedizin Mainz bei der Transformation ihres gesamten IT-Systems.  

„Im Gesundheitssektor ist Aufbruchstimmung. Da ist Umsetzungswille.“ 

Benedikt Ernst, Kyndryl Deutschland

Um die Digitalisierung im Gesundheitssektor schnell, sicher und nachhaltig voranzutreiben, ist es laut Benedikt Ernst wichtig, die Anforderungen und Herausforderungen der Branche zu kennen. Diese sind aus Sicht des Experten: 

  1. Regionale Unterschiede: Die Gesundheitsversorgung in Deutschland ist föderal organisiert. In jedem Bundesland gibt es verschiedene Definitionen, Kategorisierungen und Herausforderungen. Es gilt, diese zu verstehen und bei der Digitalisierung zu berücksichtigen.  
  1. Schnelle Privatisierung: Im Jahr 2009 befanden sich noch 648 Krankenhäuser in der Hand öffentlicher Träger. Zehn Jahre später waren es nur noch 545. Der Krankenhausmarkt wandelt sich immer mehr von einem öffentlichen zu einem privaten Sektor. 
  1. Datenschutz als Chance: Die DSGVO ist laut dem Experten kein Showstopper. Richtig umgesetzt kann sie sogar ein Wettbewerbsvorteil sein. Schließlich zeigt man damit, dass man das Thema Datenschutz sehr ernst nimmt. 

„Schnelligkeit kriegen wir hin, indem wir von anderen Branchen lernen. Zugleich müssen wir die speziellen Anforderungen der Gesundheitsversorgung berücksichtigen. So schaffen wir eine gute Balance, um den Wandel im Gesundheitssektor voranzubringen.“ 

Benedikt Ernst, Kyndryl Deutschland

Digitalisierung in der Finanzbranche – Innovationen für die Zukunft

Der Megatrend Digitalisierung nimmt sich eine Branche nach der anderen vor und verändert diese nachhaltig. Unternehmen sollten diese Herausforderung annehmen und sich intensiv mit Innovationen, neuen Geschäftsmodellen und innovativer IT-Infrastruktur beschäftigen. Das betrifft natürlich auch die Finanzbranche.

Komplexität als Haupttreiber der Digitalisierung in der Finanzbranche

Ein Haupttreiber für Innovationen bei den Banken ist die steigende Komplexität, die mit der Digitalisierung in der Finanzbranche einhergeht. Neue und alte Technologien und Prozesse müssen miteinander verwoben werden. Erschwert wird das ganze durch die weitreichenden Regularien, die der Branche auferlegt sind. Die Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) hat ein besonderes Augenmerk auf die digitale Transformation bei Banken gelegt, insbesondere hinsichtlich der Anforderungen an alle IT-Systeme, an das Risikomanagements und die Sicherheit. Die BaFin stellt sicher, dass alle Prozesse sicher sind und sich keine möglichen Lücken für Angriffe auftun.

Bank To Go – immer und überall

Die erwähnte Komplexität entsteht auch durch die höheren Anforderungen der Kunden, die heute Servicedienstleistungen ihrer Banken über mehrere Kanäle hinweg erwarten. Für Bankgeschäfte in eine Filialen zu gehen, empfinden gerade junge Kunden als nicht mehr zeitgemäß. Stattdessen nutzen sie Onlinedienste und mobile Geräte wie Smartphones und Smartwatches: Kunden möchten Überweisungen, Daueraufträge oder Bezahlvorgänge von jedem Ort aus und zu jeder Zeit ausführen können – und das in Echtzeit und möglichst einfach. Das Angebot solcher Dienste ist deshalb für die Finanzbranche unerlässlich. Jeder zusätzliche Kanal erfordert jedoch auch mehr Aufwand, um eine reibungslose Verfügbarkeit zu gewährleisten.

Hinzu kommen technische Herausforderungen, die gemeistert werden müssen, um reibungslose Kundenerlebnisse zu ermöglichen. Hierbei können Multi-Cloud- und hybride Cloud-Systeme entscheidend unterstützen. Verschiedene Provider und unterschiedliche Infrastrukturen mit bestehenden Angeboten zu kombinieren, ist keine leichte Aufgabe und erfordert eine bewusste und umsichtige Integration. Zusätzlich gibt es für die Bankenbranche zunehmend Konkurrenz von Fintech-Unternehmen und Angeboten wie Paypal oder ApplePay. Hier müssen traditionelle Banken „mithalten“.

Digitale Fintechs sind Herausforderung und Chance

Gerade die Fintechs zeigen, dass es viele neue Technologien in der Bankenbranche gibt,  die das traditionelle Bankengeschäft bedrohen oder zumindest nachhaltig verändern. Dieses ist oft geprägt von starren Prozessen, die einer digitalen Entwicklung im Weg stehen. Um als Dienstleister relevant zu bleiben, müssen sich Banken allerdings auf Veränderungen einlassen und diese als Chance begreifen. Veraltete Systeme brauchen Modernisierung, und um den neuen Anforderungen zu begegnen,  müssen IT und Führungsebene gemeinsam an einem Strang ziehen.

Hohe Priorität sollte dabei die Vernetzung verschiedener Systeme haben, um das Kundenerlebnis in den Vordergrund zu rücken. Die Lösung hierfür ist die Verankerung von Innovationen in die generelle IT-Strategie. Somit begegnen die Unternehmen den Neuheiten auf dem Markt nicht nur reaktiv, sondern als festen Bestandteil einer zukunftsorientierten Entwicklung. Diese Strategien können etwa auch beinhalten, mit Fintechs zusammenzuarbeiten, die inzwischen fester Bestandteil des Finanzsystems sind.

Digitalisierung als Herausforderung – Die Banken sind nicht alleine

Bei der Digitalisierung in der Finanzbranche gibt es viele Aufgaben zu bewältigen. Experten, die große Erfahrung mit den Hürden und Herausforderungen im modernen Finanzwesen haben, können bei der Umsetzung von IT-Strategien unterstützen. Kyndryl hat einen breiten Erfahrungsschatz rund um das komplexe Thema Modernisierungen im Finanzwesen. Experten wie Beyza Erkul, IT Management Consultant bei Kyndryl in Deutschland, helfen dabei, eine moderne, sichere und einfache Anwendungslandschaft für Banken zu schaffen und damit die notwendigen Innovationen zu ermöglichen.

Videogespräch mit Beyza Erkul zu den Herausforderungen der Finanzbranche in Sachen Digitalisierung

Dies ist der zweite Beitrag in unserer Reihe zu den Herausforderungen der Digitalisierung in bestimmten Branchen. Den ersten Teil zur Digitalisierung in der öffentlichen Verwaltung finden Sie hier.

Kritische Infrastrukturen stehen 2022 im Fokus – und werden dort bleiben

Kritische Infrastrukturen sind in den vergangenen Wochen und Monaten erstmals in den Fokus der allgemeinen Öffentlichkeit gerückt. Aktuell wird heftig diskutiert, wie wir beispielsweise personell den Betrieb in Krankenhäusern aufrecht erhalten können, falls sich immer mehr Angestellte von Kliniken infizieren. Muss die Quarantänezeit eventuell reduziert werden? Wir alle erinnern uns noch an die Flutkatastrophe an der Ahr und was der Ausfall kritischer Infrastrukturen bedeuten kann. An diesen Beispielen wird gerade einer breiteren Öffentlichkeit deutlich, was kritische Infrastruktur bedeutet – und welche Folgen dort fehlendes Personal bewirken könnte.

Diese Frage stellt sich natürlich für alle Bereiche, die zur kritischen Infrastruktur beitragen, von Polizei bis zur Abfallentsorgung. Die Frage stabiler, resilienter Lieferketten ist eine andere Frage, die in den vergangenen Monaten in den Blickpunkt gerückt ist und die uns weiter beschäftigen wird. Das mag in Deutschland mit der Frage fehlenden Toilettenpapiers begonnen haben, geht aber unterdessen deutlich darüber hinaus. Fehlende Chips betreffen beispielsweise die Automobilindustrie – und das gerät natürlich im Autoland Deutschland damit auch ins allgemeine Bewusstsein.

Kritische Infrastrukturen – Alarmstufe Rot durch Log4j

Doch auch andere Ereignisse zahlen auf das Konto mehr Sensibilität für kritische Infrastrukturen ein. Ein Wendepunkt ist dabei die Log4j-Sicherheitslücke, die Ende 2021 bekannt wurde und nach Einschätzung vieler wohl „größte Schwachstelle in der Geschichte des modernen Computing„. Sicherheitslücken und Cyber-Attacken gab es schon lange Zeit vorher. Das reicht von den aktuellen Patches, die schon seit Jahren von IT-Abteilungen dringend eingespielt werden sollen, bis zu gezielten Angriffen, in denen Unternehmen oder auch Verwaltungen lahm gelegt werden.

Und es ist kein Problem, das erst 2021 aufgetreten ist. Man schaue sich nur einmal die Liste der Bedrohungen auf heise Security oder anderen entsprechenden Seiten an. Da kann man nur damit beginnen, zu weinen, frei nach WannaCry von 2017. Und wir können leicht noch weiter in die Vergangenheit zurück gehen. Kritische Infrastrukturen wurden und werden schon lange bedroht, durch Log4j könnte aber endlich ein neues Bewusstsein für Cyber Security entstehen. Und vielleicht denkt man endlich darüber nach, wie man solchen Bedrohungen neben den bekannten und bewährten Hausmitteln – spiele immer den neuesten Patch ein und so weiter – begegnen will.

Machen neue Modelle Sinn, in denen Unternehmen gemeinsam SWAT-Teams für Cyber Security oder SOCs (Security Operation Centers) aufstellen? Können gar IT Security-Experten, Verwaltung und Unternehmen in solchen Öffentlich-Privat-Experten-Konstellationen zusammen arbeiten, statt alleine den Security-Bedrohungen hinterher zu laufen? Die Fragen müssen endlich gestellt und durchdacht werden – im Sinne des Betriebs der kritischen Infrastrukturen.

Wie robust und stabil betreibe ich meine kritischen IT-Infrastrukturen?

Doch die Frage geht über das Thema Cyber Security hinaus. Generell müssen sich Unternehmen Gedanken machen, wie sie ihre IT-Infrastruktur robust, zuverlässig, resilient aufstellen – und was sie dafür bereit sind zu investieren. Ist mir als Unternehmen mein Betrieb so wichtig, dass ich aktive, kritische Anwendungen in zwei oder gar drei zeitlichen Regionen betreibe? Ist ein schnelles und vollautomatisches regionales Failover eine Option ?

Welche Rolle soll das eigene Rechenzentrum spielen, welche Anwendungen laufen dort, wie gewährleiste ich dort Ausfallsicherheit? Welche Mixtur an Multi-Cloud und Private Cloud und On Premise setze ich als Unternehmen ein? All das kostet natürlich auch entsprechend Geld und für diese Investitionen muss das Bewusstsein existieren, inklusive einer Risikobewertung.

Jenseits dieser eher an akuten Krisen orientierten Überlegungen stellt sich auch die Frage, wie Lösungen konzipiert und entwickelt werden. Baut man seine Anwendungen so, dass sie von der Cloud eines Hyberscalers in die Cloud eines anderen Hyperscalers oder gar die Private Cloud verschoben werden können, um Abhängigkeiten zu vermeiden? Auch das sind Überlegungen, die rund um die eigene kritische IT-Infrastruktur angestellt werden müssen.

CIO: Was mache ich selbst mit meinen Leuten? Wo hole ich externe Experten an Bord?

All diese Aspekte machen hoffentlich deutlich, dass das Thema kritische Infrastrukturen auf die Tagesordnung gehört. Natürlich müssen sich CIOs und IT-Abteilungen dem Aspekt IT-Infrastrukturen widmen. Man kann es sich einfach nicht mehr leisten, nicht hochprofessionell und schnell zu agieren. Der neueste Patch muss angesichts von Log4j und vergleichbaren Bedrohungen umgehend eingespielt werden. Dafür müssen die Ressourcen zur Verfügung stehen oder aber die entsprechenden Services müssen an externe Dienstleister vergeben werden. CIOs werden sich noch mehr fragen müssen, welche Aufgaben sie im Hause erledigen und wo sie sich – auch aufgrund des Mangels an IT-Spezialistinnen und -Spezialisten – externe Expertise zukaufen oder den Betrieb bestimmter Infrastrukturen outsourcen.

Stefan Pfeiffer
Stefan Pfeiffer

… arbeitet in Communications bei Kyndryl Deutschland, dem weltweit führenden Anbieter zum Management kritischer IT-Infrastruktur. Den gelernten Journalisten hat seine Leidenschaft für das Schreiben, Beobachten, Kommentieren und den gepflegten Diskurs nie verlassen. Diese Passion lebt er u.a. in seinem privaten Blog StefanPfeiffer.Blog oder auch als Moderator von Liveformaten wie #9vor9 – Die Digitalthemen der Woche und Podcasts aus. Digitalisierung in Deutschland, die digitale Transformation in der Gesellschaft, in Unternehmen und Verwaltung oder die Zusammenarbeit am modernen Arbeitsplatz sind Themen, die ihn leidenschaftlich bewegen.
Vor Kyndryl hat Pfeiffer in der IBM im Marketing in unterschiedlichen internationalen Rollen gearbeitet. Seine weiteren beruflichen Stationen waren FileNet und die MIS AG. Auf Twitter ist er als @DigitalNaiv „erreichbar“. 

Cloud Workloads – Kostenfallen im Betrieb vermeiden

Zum Abschluss meiner Artikelserie rund um Kostenfallen in den verschiedenen Phasen der Cloud-Einführung möchte ich auf die Phase des Cloud-Workload-Betriebs eingehen. Trotz Selektion geeigneter Workloads und Berücksichtigung der Unternehmensanforderungen an Migration und Zielplattform finden gibt es auch hier Fallstricke, die häufig zu unerwarteten Cloud-Kosten führen:

  • Komplexitätssteigerung im Betriebsmodell und bei Service-Integration
  • Unkontrollierte und ineffiziente Cloudnutzung
  • Hoher Aufwand durch mangelnde Transparenz

Komplexitätssteigerung im Betriebsmodell und bei der Service-Integration

Hier entstehen unerwartete Kosten vornehmlich aus der Komplexitätssteigerung im Betrieb. Die bisherige IT wird nicht einfach durch einen Cloud-Provider ersetzt, sondern Cloud entsteht parallel. Zudem bleibt es für viele Unternehmen nicht bei einem Cloud-Provider. Die meisten meiner Kunden sind heute schon bei mindestens zweiProvidern -Tendenz steigend.Von daher brauchen Unternehmen ein neues Service-Integrations-und Governance-Modell, das in der Lage ist, die Provider -so wie sie kommen -möglichst nahtlos in das eigene IT-Business zu integrieren.

Dafür braucht man neue Rollen, neue Skills und neue Prozesse. Als Beispiel sei hier der Managed Service erwähnt. „Cloud is an all managed service“ ist so absolut formuliert und zumindest bisher nicht zutreffend. Selbst wenn man einen Container-Service aus der Cloud bezieht, kann es sein, dass man noch immer selbst für die Konfiguration und das Patching der Workernodes verantwortlich ist, ganz abgesehen von der Integration in eigeneUmsysteme.Cloud Services sollen nicht isoliert irgendwo im Unternehmen benutzt werden, sondern gliedern sich idealerweise nahtlos in ein übergreifendes Monitoring, Eventmanagement, Incident/Problem/Change-Management etc. ein. Ein solches Modell zu schaffen, bedeutet zunächst einmal neue Tools und neue Integrationen und kann in unterschiedlichen Varianten umgesetzt werden.

Abbildung 1: Organisationsmodelle zur Service Integration

Zusätzlich zum bisherigen ITIL Betrieb der traditionellen Umgebungen entstehen neue DevSecOps-Ansätze zum Betrieb der Cloud-Services mit eigenen Tools, Verfahren und Skills. Egal für welches der obigen Organisationsmodelle man sich entscheidet, es werden weiterhin Menschen in ausreichender Zahl und mit entsprechendem Know-How benötigt. Man erlebt immer wieder, dass dies zu Beginn einer Cloud-Transformation nicht klar ist und in der Regel erst spät zu bösem Erwachen führt.

Auch dies lässt sich an der bereits genutzten Auto-Analogie aus den vorherigen Artikeln sehr gut verdeutlichen. Wenn man sich ein Auto kauft und in die Garage stellt, hat man genau einen Beschaffungsweg. Aus Kaufpreis, Steuer und Versicherung ergeben sich feste, planbare monatliche Kosten. Mit einem Blick in die Garage stellt man fest, ob das Auto verfügbar ist und der Blick auf das Tachometer verrät den Kilometerstand. Bei Nutzung verschiedener Transportservices ergeben sich bereits unterschiedlichste Beschaffungswege wie z. B. der Telefonanruf bei der Taxizentrale, Flug-bzw. Zugbuchung im Webportal oder die Nutzung einer Handy-App für Car Sharing. Um dieVerfügbarkeit einzelnerServices oder deren aktuelle Auslastung festzustellen, sind ebenso viele unterschiedliche Wege notwendig. Als Vorgriff auf die beiden folgenden Abschnitte: Wenn man sich einen Überblick über monatliche Transportkosten verschaffen möchte, muss manRechnungen aus unterschiedlichsten Quellen und unterschiedlichster Formate zusammenführen.Wäre es nicht großartig, wenn man eine Anlaufstelle hätte, die zu einem gewünschten Zielort den optimalen Transportservice unter Abwägung von Geschwindigkeit, Zeit, Kosten, etc. vorschlägt?Damit ist man dann beim „Multi-Cloud-Management“ bzw. einer „Cloud-Management-Plattform“.

Unkontrollierte und ineffiziente Cloud-Nutzung

Der gewollt leichte Zugang zu Cloud Services führt zu einem Wiederaufleben des alt-bekannten Phänomens „Shadow IT“und damit zu unkontrollierter Cloudnutzung. Wer IT-Ressourcen benötigt, kann sie einfach in der Cloud beziehen. „Sourcing“ erfolgt nun plötzlich dezentral mit der Folge, dass IT-Budgets nicht mehr zentral, sondern ebenfalls dezentral („projekt-orientiert“)verwaltet werden.Das sorgt zwar vielfach für mehr Geschwindigkeit, allerdings bleiben Synergien und Kontrolle damit auf der Strecke:

  • Keine zentralen Einkaufskonditionen
  • Kein einheitliches Kontrollinstrument, um Kosten zu überwachen
  • Kein übergreifendes Know-How, wie Cloud Services möglichst effizient genutzt werden
  • Kein Überblick und damit keine Steuerungsmöglichkeit auf Unternehmensebene
  • „Multi-Single“-Cloud: Abhängigkeit von einzelnen Cloud Providern in unterschiedlichen Fachbereichen wird erhöht

Ineffiziente Cloud-Nutzung entsteht im Wesentlichen aus zwei ebenfalls alt-bekannten Verhaltensmustern:

  • „Was ich habe –behalte ich und gebe es so schnell nicht mehr her“: In traditionellen Umgebungen war es nicht leicht und häufig langsam, Zugriff auf dringend notwendige IT-Ressourcen zu erhalten. Wenn sie dann endlich verfügbar waren, wurden sie nicht mehr freigegeben. Die Rahmenbedingungen haben sich mit Cloud zwar geändert: Systeme können einfach bestellt werden und sind in kürzester Zeit verfügbar. Aber das Verhalten hat sich häufig (noch) nicht geändert und den neuen Möglichkeiten angepasst.
  • Im Artikel zur Selektion geeigneter Workloads für die Cloud wurde auf „Variabilität“ als eine Stärke von Cloud-Services hingewiesen. Nur, das muss natürlich auch (aus)genutzt werden und passiert erfahrungsgemäß häufig nicht. Durch die Flexibilität von Cloud-Services ist kein initiales Sizing auf eine „vermutete“ Spitzenlast mehr notwendig. Man fängt klein an und wächst analog zum tatsächlichen Bedarf mit.Besser noch, bei rückläufigem Ressourcen-Bedarf lassen sich ungenutzte Kapazitäten wieder zurückgeben („right-sizing“) und nicht mehr benötigte Services sogar ganz abschalten. Bei einigenKunden fanden sich bis zu 60% Überkapazitäten in der Cloud. Bei monatlich teilweise über 2 Millionen Euro Cloudkosten stellt dies ein relevantes Einsparpotential dar, auch wenn am Ende nur 20-30% Kapazitäten eingespart werden können. Diese Betrachtung schließt im Übrigen auch sogenannte „Zombie“ Services ein. Gerade bei Cloud Services gibt es häufig ein Geflecht von Services, die voneinander abhängig sind. Wenn ein Service nicht mehr gebraucht und abgekündigt wird, kann es dazu führen, dass einzelne Services (z.B. anhängende Storage Services) „vergessen“ werden und dann weiter Kosten verursachen, obwohl sie nicht mehr genutzt werden.

Letztendlich gilt es den Überblick zu behalten und Transparenz zu schaffen, womit man beim dritten Punkt wäre.

Hoher Aufwand durch mangelnde Transparenz

Eine häufig mit Kunden diskutiertesProblem ist die verursachergerechte Weiterverrechnung von Cloudkosten. Dabei geht es noch nicht um das Optimieren der Cloudkosten, sondern darum die anfallenden (nicht optimierten) Kosten zunächst einmal richtig zu zuordnen. Warum ist das ein Problem?

Anfänglich ist das ggf. noch mit Tabellenkalkulationen handhabbar, aber irgendwann wird es unübersichtlich, vor allem wenn mehrere Cloud-Service-Provider genutzt werden. Die Fragmentierung der Datenquellen wird dadurch weiter verstärkt. Zudem verwenden die Provider sehr unterschiedliche Rechnungsformate, benennen und klassifizieren ihre Services bzw. „Line Items“unterschiedlich. Mit zunehmender Cloudnutzung enthalten die Rechnungen dann viele „Line Items“mit durchschnittlich geringenBeträgen. Die Rechnung eines Kunden mit monatlich rund1,5Millionen Euro Cloudkosten erstreckte sich beispielsweise über 500.000 „Line Items“. Dies war mit der Tabellenkalkulation nicht mehr handhabbar und wurde einfach bezahlt.Diese hohe Kleinteiligkeit verursachte nicht nur einen hohen Aufwand bei der Zuordnung zu den Kostenverursachern, sondern führte auch dazu, dass Reports zu spätverfügbar sind, um z. B. als aktives Steuerungselement bei dynamischen Kostenverläufen eingesetzt werden zu können (also z. B. zur frühzeitigen Eindämmung von unkontrollierter oder ineffizienter Cloudnutzung).

Der Aufbau eines Cloud-Service-Provider übergreifenden Data Lakes bildet hier aber lediglich die Basis zur Schaffung der notwendigen Transparenz imCloud Service Betrieb. Es sind intelligente Analyse-Werkzeuge notwendig, die darauf aufsetzen und Auswertungen über beliebige Provider durch die entsprechenden Daten aus dem Data Lake erstellen können. Idealerweise können sie auch die unterschiedlichen Datenformate für Services, Klassen, Tags und Abhängigkeiten so normieren, dass providerübergreifende Analysen möglich sind. Wenn diese Analysen dann noch „ad-hoc“ verfügbar sind, erhält man ein pro-aktives Steuerungselement zur Optimierung der Cloudnutzung.

Der beste DataLake und Analysetools sind jedoch nutzlos, wenn Datenquellen nicht hergeben, was zur Analyse gebraucht wird. Gerade wenn es um eine Zuordnung von Cloud-Ressourcen zu Projekten, Abteilungen, Anwendungen etc. geht, ist ein gutes Tagging, also das Versehen der Ressourcen mit Schlagworten, unabdingbar. Nur mit dem richtigen Tag ging, am besten auf Basis einer unternehmensweitenStrategie, ist eine korrekte Zuordnung und damit bedarfsgerechte Optimierung möglich.

Aktuelle KI-basierte Werkzeuge liefern auf dieser Basis nicht nur einfache Analysen zur Kapazitätsoptimierung z. B. durch die Korrelation von Auslastung und Kosten, sondern z. T. auch Architekturempfehlungen zur Nutzung der Services, wie z. B. die Ablösung von IaaS durch PaaS Bausteine.

Tobias Kreis
Tobias Kreis

Unser Autor Tobias Kreis verantwortet als Executive IT Architect  die technische Entwicklung, Implementierung und den Betrieb von komplexen IT Architekturen und Servicelösungen für Hybrid Multi Cloud Umgebungen. Ausgehend von den spezifischen Anforderungen seiner Kunden berücksichtigt er dabei über den kompletten IT Lifecycle alle notwendigen Elemente aus Hardware, Software, Cloud und Services unterschiedlicher Hersteller und Partner, um passgenaue, innovative Kundenlösungen zu erzeugen. Dazu kann Tobias auf mehr als 20 Jahre Erfahrung in unterschiedlichen Funktionen in Vertrieb, Consulting, Enterprise Architecture und Solution Design zurückgreifen. 

Kurz kommentiert: BMW-Deal zeigt neue Möglichkeiten von Kyndryl auf

Kyndryl hat am Montag bekannt gegeben, dass das Unternehmen basierend auf NetApp-Technologie die Enterprise-Storage-Infrastruktur für BMW implementieren und betreiben wird. Die Ankündigung ist unter ganz verschiedenen Aspekten relevant, technologisch und beispielhaft für die neuen Freiheiten von Kyndryl.

Moderne Storage-as-a-Service-Lösung in der Cloud

Managed Storage-as-a-Service ist das zeitgemäße Konzept, um Speichermanagement heutzutage in den Griff zu bekommen, denn laut IDC wächst die weltweite Datenmenge bis zum Jahr 2024 auf 143 ZB an. Ein unvorstellbare Datenmenge. Diese Daten sollten nicht nur sicher gespeichert werden. Eine entsprechende Speicherinfrastruktur in der Cloud, die dann auch noch durch einen erfahrenen Dienstleister betrieben wird, ermöglicht es, das eigene Speichermanagement nach Bedarf nach oben (oder auch nach unten) zu skalieren und vor allem Daten weltweit immer an der Stelle zur Verfügung zu haben, wo sie im Geschäft oder für den Kunden benötigt werden. Eine derartige Lösung ist also zeitgemäß und wird von vielen Unternehmen benötigt.

Freie Wahl der Technologiepartner im Sinne des Kunden

Bei BMW arbeitet Kyndryl in Sachen Enterprise Storage mit NetApp als Partner zusammen. Dies zeigt neue Freiheit, neue Flexibilität in der Auswahl möglicher Partner und Technologien. Kyndryl kann Kunden jetzt die beste technologische Lösung empfehlen und ist keinem Druck ausgesetzt, eigene Software- oder Hardware-Produkte zu „verbauen“. Solche eigenen Produkte hat Kyndryl ganz einfach nicht mehr.

Präferenzen und bestehende Installationen der Kunden unterstützen

Aber man kann auch auf Präferenzen oder bestehende Installationen der Kunden reagieren und die entsprechenden Lösungen und Infrastrukturen sicher und stabil weltweit betreiben, also sich auf die eigenen Stärken im Betrieb fokussieren und diese ausspielen. Beide Szenarien eröffnen Kyndryl höhere Handlungsfreiheit und versprechen einen möglichen breiteren Zugang zu Kunden, wie auch Kyndryl Deutschland-Chef Markus Koerner auf LinkedIn kommentiert.

Enterprise Storage-Lösungen in viel höherem Maße replizieren

Natürlich wird das Unternehmen versuchen, Lösungen zu replizieren, also auch bei anderen Kunden in möglichst ähnlichen Konfigurationen einzusetzen, um so entsprechende Skalierungseffekte für Kyndryl und die Kunden zu erreichen. Es muss nicht immer die hochgradig individualisierte und ganz spezifische Lösung für den individuellen Kunden sein.

All diese Facetten zeigen beispielhaft, wohin die Reise von Kyndryl gehen soll. Lesen Sie dazu auch den Beitrag von Markus Koerner, Präsident von Kyndryl Deutschland.

Stefan Pfeiffer
Stefan Pfeiffer

… arbeitet in Communications bei Kyndryl Deutschland, dem weltweit führenden Anbieter zum Management kritischer IT-Infrastruktur. Den gelernten Journalisten hat seine Leidenschaft für das Schreiben, Beobachten, Kommentieren und den gepflegten Diskurs nie verlassen. Diese Passion lebt er u.a. in seinem privaten Blog StefanPfeiffer.Blog oder auch als Moderator von Liveformaten wie #9vor9 – Die Digitalthemen der Woche und Podcasts aus. Digitalisierung in Deutschland, die digitale Transformation in der Gesellschaft, in Unternehmen und Verwaltung oder die Zusammenarbeit am modernen Arbeitsplatz sind Themen, die ihn leidenschaftlich bewegen.
Vor Kyndryl hat Pfeiffer in der IBM im Marketing in unterschiedlichen internationalen Rollen gearbeitet. Seine weiteren beruflichen Stationen waren FileNet und die MIS AG. Auf Twitter ist er als @DigitalNaiv „erreichbar“. 

Digitalisierung in der öffentlichen Verwaltung: „Es braucht Pragmatismus und Mut.“

Andreas Gräf ist Consultant bei Kyndryl in Deutschland und Experte für Digitalisierung in der öffentlichen Verwaltung. Im Kyndryl Videointerview spricht er über den Stellenwert, den das Thema Digitalisierung für die neue Bundesregierung haben sollte und wo die Ampel-Koalition ansetzen sollte, um den Staat und seine Verwaltung zu modernisieren.

Andreas bewertet den Koalitionsvertrag von SPD, Grünen und FDP aus digitaler Sicht und gibt einen Überblick über die Herausforderungen, denen sich die öffentliche Verwaltung bei der Umsetzung digitaler Maßnahmen ausgesetzt sieht.

Ich freue mich, wenn die Koalition jetzt bald in die Umsetzung geht. Und das, was es braucht, ist Pragmatismus und Mut.

Andreas Gräf, Kyndryl Deutschland

Der Druck der Digitalisierung in der öffentlichen Verwaltung

Als positiv bewertet er, dass die Digitalisierung nun endlich absolut im Fokus steht. Und dies ist auch sehr nötig, weil vor allem die Bürgerinnen und Bürger immer stärker eine digitale Verwaltung verlangen. Das Problem ist allerdings oft: Die öffentliche Verwaltung hängt der Entwicklung in Sachen Digitalisierung oft hinterher. Dies zeigt zum Beispiel die Frage: Dürfen Behörden Cloud-Anbieter nutzen?

Digitalisierung und Nachhaltigkeit: Ein Gegensatz?

Zum Schluss des Gesprächs geht es um das zweite große Thema der neuen Bundesregierung: die Nachhaltigkeit. Andreas beschreibt das Spannungsverhältnis, das auf den ersten Blick zwischen den beiden Zielen Digitalisierung und Klimaschutz besteht, und wie diese Spannung aufgelöst werden kann (siehe dazu auch den aktuellen Beitrag der Autorin Leonie Hermann zum Thema Green Cloud Computing), denn am Ende gilt:

„Die Digitalisierung bietet auch beim Klimaschutz Chancen ohne Ende, man muss sie nur offen und mutig angehen.“

Andreas Gräf, Kyndryl Deutschland

Ein Lob auf die Faulheit

Ich muss etwas gestehen. Ich neige zur Faulheit!  

Nicht immer und nicht überall, soviel sollte ich am Anfang klarstellen. Ich mache gerne Sport und auch bei meiner Arbeit, die ich wirklich liebe, hänge ich mich rein. Aber ich hasse manuelle und sich wiederholende Tätigkeiten, da fallen mir automatisch immer gleich die Augen zu. 

Meine erste steile These ist, dass ich in der IT nicht der Einzige bin, dem es so geht.  Und meine zweite These ist: Genau dieser Umstand hat der Entwicklung von Automatisierungstools einen großen Schub gegeben und wird das auch weiterhin tun. Während die erste These eher ein Bauchgefühl und Erfahrungswert aus vielen Gesprächen und Projekten ist, werde ich die zweite These gleich erläutern. 

Als ich vor über 20 Jahren in der IT angefangen habe, war es noch üblich, dass man neben Kundenprojekten auch zusätzlich “Betrieb macht”. So etwas wie DevOps, nur eben ProOps. Irgendwann habe ich entdeckt, dass das Ticket-System eine Mailschnittstelle hat, und man mit etwas Geschick (und viel Kaffee für das Security-Team) das System entsprechend füttern kann, um so viele Aufgaben zu automatisieren.  

Aber warum hat es erst in den letzten Jahren diesen Schub gegeben?  

  1. Weil viele Branchen unter einem gewaltigen Kostendruck stehen und sich digital neu aufstellen müssen, wenn sie auch in Zukunft noch auf dem Markt bestehen wollen. Laut einer Umfrage von IDC ist für 86% der befragten Unternehmen Automation mission-critical für ihre Transformations-Strategie.  (IDC InfoBrief, DevOps Agility Demand Advanced Management and Automation – March 2018) 
  1. Weil es zwar schon eine gefühlte Ewigkeit Script-Sprachen gibt, die auch exzessiv genutzt werden (Perl seit 1987, JavaScript seit 1995 und Python tatsächlich schon seit Anfang der 1990er), aber Frameworks auf Enterprise-Level erst seit einigen Jahren. Und genau diese sind notwendig für die Orchestrierung, damit alle Zahnräder ineinandergreifen. 
  1. Weil die meisten Applikationen oder Tools nicht über eine Schnittstelle von außen angesprochen werden konnten. Heute sind wir einen beträchtlichen Schritt weiter und sprechen bereits von Software-Defined Everything (SDx), also der Möglichkeit, abstrahierte Workloads unabhängig von der darunterliegenden Hardware nutzen zu können. Bei vielen Firmen ist diese Fähigkeit inzwischen Voraussetzung bei der Auswahl von Software.  

Zu den bekanntesten Frameworks gehört sicherlich Ansible Automation Plattform von RedHat, das seine Stärken in vielen kritischen Bereichen ausspielen kann, wie zum Beispiel bei Security & Compliance oder bei der Runbook und Event-Automatisierung. 

Wir bei Kyndryl setzen nicht nur stark auf Ansible, unser Community-Modell erlaubt es unseren Mitarbeiterinnen und Mitarbeitern auch, vorhandene Skripte (sogenannte Playbooks) zu teilen oder auf die jeweiligen Kundenbedürfnisse anzupassen. Damit wird es so einfach wie nie zuvor, mit unseren Kunden zusammen eine Automations-Roadmap zu erstellen, damit diese sich ganz auf ihr Business konzentrieren können.  

Was bedeutet das nun für meine oben aufgestellte These? 

Der IT-Betrieb wird sich stark wandeln und diese Entwicklung ist in vielen Firmen auch bereits in vollem Gange. Mitarbeiter werden sich nicht mehr um die Abarbeitung manueller Aufgaben kümmern müssen, sondern die Automation in alle Bereiche tragen und vorhandene Ineffizienzen aufspüren und weiter reduzieren. Zusätzlich werden durch die Automatisierung Kapazitäten frei für Aufgaben, die langfristigen Nutzen für das Business bringt. Die Arbeit wird insgesamt anspruchsvoller – und deshalb auch viel spannender und abwechslungsreicher.  Dann fallen mir und vielen anderen Kollegen in Zukunft bei der Arbeit auch nicht mehr die Augen zu!  

Stefan Mayer
Stefan Mayer

Stefan Mayer war über 20 Jahre in unterschiedlichen technischen nationalen und internationalen Positionen bei IBM Schweiz beschäftigt. Seit dem 1. Oktober 2021 ist er Chief Technology Officer und Mitglied des Leadership Teams bei Kyndryl Schweiz.