A n z e i g e n

Interview mit Tim Ehrich, Cloud Experte und Principal der Management-Beratung e&Co. AG: „Der Schlüssel zur erfolgreichen Cloud-Transformation liegt im internen Veränderungsprozess der Unternehmen.“

Beitrag von: Tim Ehrich

Unternehmen: e&Co. AG

Der Megatrend Cloud-Computing nimmt an Fahrt auf – und das klassische IT-Infrastruktur-Outsourcing gehört zunehmend der Vergangenheit an.

CM: Herr Ehrich, bitte verschaffen Sie uns zunächst ein Grundverständnis. Was versteht man nach aktueller Definition unter „Cloud-Computing“?

Tim Ehrich:
Gerne. Dazu möchte ich auf die Definition der US-amerikanischen Standardisierungsstelle NIST (National Institute of Standards and Technology) zurückgreifen, die Cloud-Computing wie folgt beschreibt:

„Cloud-Computing ist ein Modell, das es erlaubt bei Bedarf, jederzeit und überall bequem über ein Netz auf einen geteilten Pool von konfigurierbaren Rechnerressourcen (z.B. Netze, Server, Speichersysteme, Anwendungen und Dienste) zuzugreifen, die schnell und mit minimalem Managementaufwand oder geringer Serviceprovider-Interaktion zur Verfügung gestellt werden können.“

Fünf zentrale Eigenschaften charakterisieren gemäß der NIST-Definition einen Cloud-Service

(Quelle: BSI – Bundesamt für Sicherheit in der Informationstechnik):

  1. On-demand Self Service: Die Provisionierung der Ressourcen (z.B. Rechenleistung, Storage) läuft automatisch ohne Interaktion mit dem Service-Provider ab.
  2. Broad Network Access: Die Services sind mit Standard-Mechanismen über das Netz verfügbar und nicht an einen bestimmten Client gebunden.
  3. Resource Pooling: Die Ressourcen des Anbieters liegen in einem Pool vor, aus dem sich viele Anwender bedienen können (Multi-Tenant Modell). Dabei wissen die Anwender nicht, wo sich die Ressourcen befinden, sie können aber vertraglich den Speicherort, also z.B. Region, Land oder Rechenzentrum, festlegen.
  4. Rapid Elasticity: Die Services können schnell und elastisch zur Verfügung gestellt werden, in manchen Fällen auch automatisch.
  5. Measured Services: Die Ressourcennutzung kann gemessen und überwacht werden und entsprechend den Cloud-Anwendern zur Verfügung gestellt werden.

Nutzen statt besitzen, Everything-as-a-Service: Cloud-Computing ist schon seit gut einem Jahrzehnt ein Megatrend in der IT, vor allem im privaten Userbereich (z.B. Google Cloud oder Apple Cloud mit den bekannten On-Demand-Services wie z.B. Googlemail, Foto- und Dokumente-Speicherplätze sowie auch Software).
In meinen Ausführungen möchte ich mich aber vor allem auf den Business-Bereich konzentrieren. Hier gibt es im Gegensatz zum privaten Umfeld noch viel Nachholbedarf – und diese Revolution nimmt immer mehr an Fahrt auf. Laut Crisp Research werden über 80% der mittelständischen und großen Unternehmen in Deutschland zukünftig nicht ohne Cloud-Services als zentrale Komponente ihrer Infrastruktur auskommen (Quelle: Zweite Auflage des „Crisp Vendor Universe für Cloud Computing“). Diese Einschätzung teilen wir. Es ist auch zu beobachten, dass die meisten Cloud-Provider ihre Rechenzentrumsflächen massiv ausbauen, wohingegen viele Unternehmen die Größe der eigenen Rechenzentren sukzessive reduzieren bzw. sie konstant halten.

Eines wird damit sehr schnell klar: Cloud-Services machen die IT-Infrastruktur zur Commodity. Dies hat in den vergangenen Jahren bereits zu tiefgreifenden Änderungen in der IT-Branche geführt. Dieser Trend greift weiter um sich und wird die Landschaft der IT-Anbieter, insbesondere das IT-Outsourcing, in der nächsten Zeit deutlich verändern.

Das klassische Outsourcing der IT-Infrastruktur verliert zunehmend an Wettbewerbsfähigkeit gegenüber den Public-Cloud-Anbietern, da die Skaleneffekte von Amazon Web Services, Microsoft Azure und Google Cloud in den letzten Jahren zu einem deutlichen Preisrutsch von bis zu 70% der reinen Server- und Speicher-Komponenten geführt haben. Darüber hinaus wächst die Breite der angebotenen Services immer weiter. Viele IT-Provider halten dagegen, indem ihre Marketing-Abteilungen mit einem Cloud-Buzzword-Feuerwerk für sich werben – im Endeffekt stellen sie aber nur eine virtualisierte Umgebung pro Kunde bereit und erfüllen damit nicht die eingangs erwähnte Definition von Cloud-Computing. Wirkliche Public Cloud-Anbieter für Infrastruktur sind vor allem Amazon Web Services, Microsoft Azure, IBM Bluemix, Google, Alibaba und ein paar Nischen-Player wie z.B. RackSpace. Dann gibt es ganz viele, die von Private Cloud sprechen, aber eigentlich virtualisierte Hardware bereitstellen ohne die ganzen Management-Funktionen drum herum.

Und eines sollten wir immer im Hinterkopf behalten: Wenn Cloud-Services in Unternehmen implementiert werden, hat das auch weitreichende Konsequenzen auf den notwendigen internen Wandel – so müssen z.B. Prozesse und Organisationen angepasst werden. Und genau auf solche komplexen Veränderungsprozesse haben wir uns als e&Co. AG spezialisiert.

Die Cloud-Transformation führt zu vielen ohnehin längst notwendigen und sinnvollen Veränderungen in Unternehmen.

CM: Was sind die entscheidenden Vor- und Nachteile des Cloud-Computing für geschäftliche Anbieter?

Tim Ehrich:
Für Unternehmen liegt der zentrale Vorteil einer Cloud-Lösung in der hoch-standardisierten Infrastruktur-as-a-Service. Damit einhergehend: kurze Vorlaufzeiten und die extreme Skalierbarkeit. Das macht Unternehmen flexibel beim Auf- und Abbau von Hardware-Ressourcen – und sie profitieren dadurch von Kostenvorteilen. Auch die notwendige Entwicklung von neuen, innovativen Geschäftsmodellen und Services lässt sich durch Cloud-Lösungen und deren Plattform- bzw. Software-Services beschleunigen, da die erheblichen finanziellen Investments in eine eigene IT-Infrastruktur entfallen. Dies ist vor allem auch im Hinblick auf eine herausragende „Digital User und Customer Experience“ wichtig, die erst durch flexible Cloud-Lösungen ermöglicht werden kann.

Natürlich hat so eine Idealkonstellation auch ihren Preis. Kommen wir also zu den Nachteilen von Cloud-Computing: Die Individualisierung von IT-Lösungen wird eingeschränkt und die Architekturen müssen auf die Cloud Dienste zugeschnitten sein. Unternehmen müssen sich also den Standards der Cloud-Anbieter unterwerfen. Eine solche Anpassung geht häufig mit größeren Transformationsprojekten einher, die viele Ressourcen beanspruchen und hohe Kosten verursachen können. Die Transformation an sich ist allerdings in den meisten Fällen nicht wirklich ein Nachteil. Bei so einem Prozess werden häufig ohnehin notwendige Veränderungen – wie z.B. die Ablösung der Legacy-IT, die Verbesserung der Informationssicherheit oder die Service-Orientierung – endlich angepackt. Es wird Raum für Neues geschaffen: Neues Denken, neues Handeln, neue Lösungen, neue Formen der Zusammenarbeit.

Die Komplexität dieses begleitenden Veränderungsprogramms ist jedoch oftmals die größte Hemmschwelle bei der Cloud-Nutzung, somit auch der Digitalisierung – und damit meistens der Blocker für die substantielle Implementierung von Cloud-Services. Bleibt die interne Transformation der Prozesse und der Organisation aus, beobachten wir regelmäßig die Entwicklung einer Schatten-IT: Fachbereiche ordern selbstständig Cloud-Services, ohne die interne IT, die Beschaffung oder das Lizenzmanagement einzubinden. Das führt zu einem regelrechten Wildwuchs, der natürlich nicht die IT-Sicherheitsstandards erfüllt – und gefährlich ist.

Flexibilisierung und Skalierbarkeit können nachhaltig zu Einsparungen der Infrastrukturkosten führen.

CM: Geschätztes durchschnittliches Einsparungspotential, das man durch den Einsatz von Rechnerwolken erreichen kann?

Tim Ehrich:
Rein auf die einzelnen Infrastrukturkosten bezogen bieten Cloud-Umgebungen häufig gar keine Einsparungen: Wenn Unternehmen abgeschriebene Hardware mit dem eigenen Team betreiben, ist dies häufig günstiger. Die wirklichen Einsparungen und Wettbewerbsvorteile resultieren eher aus der Flexibilisierung und Skalierbarkeit.

Ein Beispiel für die Skalierbarkeit: Heutzutage ist das Sizing – also die Größe von On-Premise- bzw. Outsourcing-Infrastrukturen – häufig auf Lastenspitzen ausgelegt, da eine kurzfristige Skalierung der Hardware-Infrastruktur nur schwer zu realisieren ist. Über einen Cloud-Service hingegen lassen sich innerhalb von Minuten automatisch zusätzliche Kapazitäten bereitstellen. So kann man die Hardware grundsätzlich zunächst kleiner dimensionieren und die Leistung dann bei Bedarf durch ad hoc zugeschaltete Rechner sehr schnell hochfahren. Mit einem solchen Modell können Unternehmen 30-50% der Hardware reduzieren und somit auch Einsparungen erzielen.

Kommen wir zur Flexibilisierung: Viele Unternehmensserver laufen rund um die Uhr, ohne dass sie z.B. nachts oder am Wochenende benötigt werden. Ein klassisches Beispiel dafür sind die Test-Server einer Anwendung. Auf einer Cloud kann man diese je nach Bedarf einfach an- und abschalten. Dadurch lassen sich ebenfalls schnell Einsparungen von über 50% realisieren im Vergleich zu durchlaufenden On-Premise-Infrastrukturen.

Auch weitere Einsparungen können erreicht werden, indem die IT-Mitarbeiter, die sich bisher um die eigene Infrastruktur gekümmert haben, zukünftig in Projekten der Digitalisierung einen wertvollen Beitrag leisten. Gleichzeitig muss aber auch ein neues Service-Modell aufgebaut werden. Wie die hierfür nötigen internen Veränderungen aussehen, hängt ganz maßgeblich von der jeweiligen Situation des Unternehmens ab.

Die unternehmenskritischen Anwendungen laufen in der Regel noch nicht auf einer Public Cloud. Hierzu fehlt die interne Transformation.

CM: Wie weit ist die Cloud Transformation im Businesssektor bereits fortgeschritten?

Tim Ehrich:
Nach und nach setzt sich die Cloud-Technologie als wichtiger Bestandteil der IT-Strategie vieler Unternehmen durch. In der Breite ist diese Adaption relativ hoch, jedoch nicht in der Tiefe. Das bedeutet: Einfache Anwendungen, die nicht unternehmenskritisch sind und keine vertraulichen Daten enthalten, laufen häufig schon in der Cloud. Die komplexen, historisch gewachsenen und unternehmenskritischen Anwendungen hingegen, werden größtenteils noch über Outsourcing-Partner oder im On-Premise-Rechenzentrum betrieben. Der Grund dafür ist die fehlende interne Transformation der Applikationstechnologie, der Organisation und der Kultur. Und genau dieser notwendige Wandel stellt Unternehmen derzeit vor ein großes Umsetzungsproblem.

Warum ist dann trotzdem das Wachstum der Cloud-Provider ungebremst? Das liegt vor allem an der schieren Anzahl der Infrastrukturen für weniger kritische Anwendungen, die massiv den Ausbau von Cloud-Plattformen antreiben. Keine Firma kauft heute noch einen eigenen Server für Websites, Apps oder für innovative Lösungen, die Pilot-Charakter haben.

Ein großes Potential liegt aber noch in den besagten unternehmenskritischen und komplexen Anwendungen, an die sich bislang noch kaum jemand herantraut – obwohl die Cloud-Plattformen dafür grundsätzlich bereit sind. Hierfür muss man allerdings einen sehr viel umfassenderen Ansatz wählen: Es geht dabei nicht nur um eine reine Erneuerung der Technologie, sondern vor allem um Vertrauen im Unternehmen. Ziel ist es, adäquate Cloud-Architekturen zu implementieren, die zusammen mit der IT-Security-Organisation, dem Datenschutz und dem Risikomanagement erarbeitet werden.

Die richtigen Architekturen auf der Cloud Plattform sind entscheidend für IT-Sicherheit und Datenschutz.

CM: #ITSecurity und Datenschutz sind in aller Munde. Machen Cloudlösungen unsere Welt sicherer oder unsicherer? Welche Sicherheitsaspekte gilt es zu berücksichtigen?

Tim Ehrich:
Ja, da sprechen Sie ein sehr wichtiges Thema an, das mir auch sehr am Herzen liegt. Ich möchte in puncto Sicherheit für die Cloud eine digitale Lanze brechen, da aktuell rund um die Facebook-Debatte und ähnlichen Phänomenen viele Missverständnisse kursieren.

Applikationen in der Cloud sollten, wie andere IT-Infrastrukturen auch, natürlich ausreichend geschützt werden. In der Regel müssen Cloud-Nutzer eine sichere Architektur umsetzen, die zum jeweiligen Unternehmen und Einsatzzweck passt. Solche Architekturen, die sich aus bekannten Komponenten wie z.B. einer Firewall zusammensetzen, bilden dann einen Rahmen, den man als Virtual-Data-Center auf einer Cloud-Plattform bezeichnen kann. Diese Virtual-Data-Center-Umgebungen können dann die gleichen Sicherheitsstandards wie die von On-Premise-Rechenzentren oder von klassischen Outsourcing-Providern erreichen. Ich möchte sogar behaupten, dass die physischen Sicherheitsmerkmale der Cloud-Provider häufig um ein Vielfaches höher sind als die der On-Premise-Rechenzentren. Hinzu kommt, dass Cloud-Provider auch ein spezialisiertes Know-how und vor allem auch die nötige Manpower haben, um Sicherheitslücken wie z.B. Meltdown oder Spectre schnell zu beheben.

Zusammengefasst: Cloud-Provider stellen die notwendigen Werkzeuge zur Verfügung, häufig sogar untermauert durch zahlreiche höchste Zertifizierungsstandards. Die Gestaltung und Umsetzung der richtigen Architektur obliegt aber den Kunden – und ist somit auch in deren Verantwortung.

Erst durch die interne Veränderung der Prozesse und Organisation kann die Cloud-Transformation gelingen.

CM: Einige generelle Empfehlungen für die erfolgreiche Umsetzung einer Cloud Computing Strategie in Unternehmen? Kritische Parameter und sinnvolle Schritte für die Implementierung?

Tim Ehrich:
Der fundamentale Perspektivenwechsel ist hierbei entscheidend: Die erfolgreiche Umsetzung einer Cloud-Strategie muss als ganzheitlicher Veränderungsprozess verstanden werden. Und dieser ist nur maximal zur Hälfte wirklich technischer Natur. Ein weitaus größerer Teil der Implementierung liegt in der Transformation der Organisation, der Prozesse und Querschnittsfunktionen.

Ein Beispiel dafür ist das Lizenzmanagement. Das funktioniert auf Cloud-Plattformen anders. Hier kann man sich zwischen sogenannten Pay-as-you-Go (PAYG)- und Bring-your-own-Licenses (BYOL)-Services entscheiden. Wählt man BYOL, so müssen hier zum Teil andere Lizenzbedingungen beachtet werden. Kaum jemand verbindet die Umsetzung einer Cloud-Strategie mit solchen nicht-technischen und überhaupt nicht digitalen Themen. Will man aber eine Cloud-Plattform im großen Stil und für die kritischen Anwendungen einsetzen, dann gilt es insbesondere diese Themen mit zu beachten.

Ein weiteres sehr anschauliches Beispiel ist der interne Beschaffungs- oder Abrechnungsprozess der Cloud-Infrastrukturen. Versucht man weiterhin intern mit unzähligen Freigabestufen und häufig auch noch papierbasierten Prozessen einen Server von einem Cloud-Dienstleister zu erhalten, verliert das Unternehmen jegliche Geschwindigkeitsvorteile. Das Gleiche gilt für die interne Verrechnung auf Kostenstellen oder Projektbudgets und die darauf aufbauende Vorwärtsplanung für das folgende Geschäftsjahr. Solche Abläufe müssen radikal verschlankt werden – ansonsten wird ein sperriges Prozesskonstrukt über eine innovative und flexible Cloud gestülpt, was viele ihrer essentiellen Vorteile zunichtemacht.

Damit einher geht häufig auch ein großer Veränderungsbedarf in der Organisation – und das betrifft nicht nur die IT, sondern vor allem auch die Fachbereiche. Den Mitarbeitern muss bewusst werden, dass in Zukunft andere Skills erforderlich sind und sich viele Aufgaben verändern werden. Das ist in Deutschland und Europa immer noch ein schwieriger Prozess. Hierbei können aber Berater sehr gut unterstützen, um die notwendige Traktion für die Veränderung zu erzeugen.

Multi-Cloud ist die Königsdisziplin der zukünftigen IT-Infrastruktur.

CM: Wie ist Ihre Einschätzung zu dem neuen Thema Multi-Cloud was mehr und mehr in der Diskussion ist?

Tim Ehrich:
Das Multi-Cloud-Konzept ist ungefähr vor zwei Jahren auf die Agenda gekommen – und es ist in der Tat ein äußerst spannendes Thema. Dabei fokussiert man sich nicht nur auf einen einzelnen Cloud-Provider, sondern verteilt die Systeme – Workloads genannt – auf verschiedene Cloud-Provider.

Wichtig dabei: Es sollte darauf geachtet werden, einen Vendor-Lock-in zu vermeiden und möglichst unabhängig von Cloud-Providern zu arbeiten. Häufig kommen dabei Management-Plattformen wie z.B. Terraform zum Einsatz. Diese ermöglichen es, mit einem Management-Portal bzw. einer Script-Sprache mehrere Cloud-Plattformen zu steuern. Das ist ein großer Effizienzgewinn und als langfristiges strategisches Ziel für Unternehmen hoch attraktiv. Wir haben bei unseren Klienten mittlerweile sehr gute Erfahrungen mit Multi-Cloud-Konzepten gemacht.

Der Realitätscheck zeigt jedoch, dass die meisten großen und mittelständischen Unternehmen in Deutschland noch lange nicht so weit sind. Allein die Umsetzung von Cloud-Strategien, die nur auf einen Cloud-Provider abzielen, ist noch im zähen Anfangsstadium. Das Multi-Cloud-Konzept ist dann schon eher die Königsdisziplin – und noch in weiter Umsetzungsferne.

CM: Wer arbeitet bereits mit Multi-Cloud-Infrastrukturen? Gibt es Positiv-Beispiele aus Ihrer Beratungspraxis?

Tim Ehrich:
Es arbeiten durchaus schon einige damit, aber das ist alles noch nicht wirklich ausgegoren. Lassen Sie mich das kurz ausführen. Auf der einen Seite gibt es solche Konzerne und Unternehmen, die auf mehrere Cloud-Provider setzen – primär, um den beschriebenen Vendor-Lock-in zu vermeiden. Diese Multi-Cloud-Plattformen werden allerdings in der Regel noch nicht automatisiert über ein Management-Tool bereit gestellt. Dies wiederum liegt daran, dass die Management-Tools für Multi-Cloud-Management noch recht jung und die Konzepte bisher noch wenig bekannt sind.

Auf der anderen Seite haben wir in einigen Unternehmen chaotisch gewachsene Cloud-Plattformen, die unkontrolliert entstanden sind. Dieses Phänomen wird dann oftmals unter dem Deckmantel einer „Multi-Cloud-Strategie“ versucht zu kaschieren. Das hat aber natürlich nichts mit einer ausgereiften Multi-Cloud-Plattform zu tun, die wirklich professionell gesteuert und gemanagt ist.

Cloud-Lösungen werden in Zukunft ein zentraler Bestandteil innovativer Geschäftsmodelle sein.

CM: Welche Rolle können Cloudlösungen in naher und ferner Zukunft spielen? Unter welchen Voraussetzungen?

Tim Ehrich:
Cloud-Plattformen werden weiter stark wachsen, alleine schon aufgrund der Vorteile der reinen Infrastruktur-as-a-Service, aber auch durch übergeordnete wirtschaftliche Trends wie Connected Drive, New Mobility und Internet of Things. Die Voraussetzungen auf Seiten der Unternehmen: Sie müssen ein ganzheitliches End2End-Cloud-Delivery-Modell aufsetzen, das alle internen Aspekte und Prozesse betrachtet – und sie auch einbezieht. Wichtig dabei: alle Prozesse müssen gezielt neu ausrichtet werden, damit keine internen Hürden mehr existieren und die Cloud voll genutzt werden kann.

Wir haben ein solches Modell aufgesetzt und bereits erfolgreich bei einigen Klienten implementiert. Informationen dazu erhalten Sie hier (Briefing als PDF), oder Sie können mich auch gerne direkt kontaktieren.

CM: Welche innovativen, cloudbasierten Geschäftsmodelle werden wir in Zukunft vermehrt sehen?

Tim Ehrich:
Ich denke, dass eine digitalisierte Zukunft überhaupt nicht mehr ohne cloud-basierte Geschäftsmodelle funktionieren wird, vor allem im Bereich der Mobilitätsindustrie. Nur um einige Schlagworte zu nennen: Connected Drive, neue Mobilitäts-Services, Over-the-Air-Updates und -Services, Just-in-time-Delivery, Big Data Analytics mit Künstlicher Intelligenz und selbstlernenden Systemen, autonome Mobilität, Natural Language Processing für diverse Use Cases …

Im Endeffekt muss sich vor allem die IT entscheiden, ob sie in Zukunft den Stier bei den Hörnern packt – oder von der Zukunft niedergetrampelt wird. Die IT hat jetzt die Chance, sich als innovativer Treiber von Cloud-basierten Geschäftsmodellen stark zu positionieren und an Einfluss und Verantwortung zu gewinnen. Tut sie das nicht, gibt sie damit die Gestaltungshoheit der digitalen Zukunft an die Fachbereiche ab. Aus meiner Sicht gibt es nur eine Option: die komplette Veränderung und grundlegende Modernisierung der IT sowie die damit einhergehende Ablösung der Legacy-Systeme.

CM: Herr Ehrich, herzlichen Dank für die spannenden Einblicke und detaillierten Ausführungen! 

Beginnen Sie mit der Eingabe und drücken Sie Enter, um zu suchen

Katherin Kirschenmann und Florian Hoffmann, Gründer The Do SchoolFrauenpower - Die IFM-Geschäftsführung