10 Thesen zur digitalen Transformation – Teil 4

Mit der Verfügbarkeit großer Datenmengen und neuen Verarbeitungsmöglichkeiten sind im Rahmen der digitalen Transformation viele neue Geschäftsmodelle entstanden. Sie haben das Potenzial, ganze Märkte auf den Kopf zu stellen, und bieten eine große Chance für etablierte Unternehmen, sich auf die Gewinnerseite der digitalen Transformation zu schlagen. Im folgenden Beitrag geht es um API-Management und Architekturkonzepte, die auf Microservices basieren, sodass Unternehmen agil und flexibel maßgeschneiderte Lösungen entwickeln können.

Der dritte Beitrag unserer Artikel-Serie endete mit der These, dass sich auf Grundlage offener und flexibler digitaler Plattformen schnell neuartige Anwendungen entstehen können.

Diese neuen digitalen Services lassen sich nur dann schnell und flexibel entwickeln und implementieren, wenn keine Änderungen an vorhandener monolithischer Software nötig sind. Vielmehr müssen sie lose gekoppelt und modular konzipiert werden. Ein neuer Service könnte beispielsweise auf bestehende digitale Services zurückgreifen und sie den Anforderungen entsprechend miteinander kombinieren. Voraussetzung dafür sind eindeutig definierte und fokussierte Funktionen. Eine solche Servicelandschaft wird besonders gut durch ein Architekturkonzept auf der Grundlage von „Microservices“ unterstützt. Der modulare Ansatz vereinfacht Entwicklung, Test und Pflege von Anwendungen, denn die kleinen Einheiten (Microservices) können entwickelt werden, während unabhängige Teams parallel arbeiten und kontinuierlich Services zur Verfügung stellen. Daraus ergibt sich die logische Schlussfolgerung:

These 4: Microservices und APIs sind die Grundlage für maßgeschneiderte Lösungen

Eine dynamische Umgebung, die aus einer Vielzahl sich ständig ändernder Services besteht, welche das Geschäftsmodell unterstützen, muss verwaltet und gesteuert werden. Diese Aufgaben übernimmt das API-Management. Es gibt vor, wer einen Service nutzen darf, bietet Self-Service-Portale für Serviceentwickler und stellt Backend-Services mithilfe von API-Schlüsseln sowie Eingangs- und Ausgangsfiltern sicher bereit. Darüber hinaus können über das API-Management Richtlinien festgelegt und umgesetzt werden, ohne die eigentlichen Services zu verändern. Latenz und Skalierung sowie Speicherverwaltung und Caching lassen sich an den tatsächlichen Bedarf anpassen. Zudem bietet API-Management sowohl historische als auch aktuelle Informationen über die Nutzung und Performance eines Services, sodass die Nutzer Trends ablesen und ihre Systemkonfiguration bei Bedarf anpassen können. Es deckt den gesamten Lebenszyklus eines Services ab: Planung, Test, Installation, produktiver Betrieb, Versionskontrolle und schließlich die Einstellung des Supports. Die digitale Transformation setzt eine „IT der zwei Geschwindigkeiten“ voraus. Mit der einen Geschwindigkeit werden zentralisierte Speicher- und Abfragesysteme (ERP, CRM, HR usw.) betrieben, mit der anderen die agile Entwicklung neuer Anwendungen, die die neuen „digitalen“ Geschäftsmodelle abbilden. API-Management schafft diese Möglichkeit, indem es die vergleichsweise unflexible Umgebung der Legacy-Systeme von der rasanten App-Entwicklung abkoppelt, die auf den neuen Datenströmen basiert.

Das Internet der Dinge

Eine anwendungsorientierte Sicht auf die digitale Transformation führt direkt zum Internet der Dinge (IoT). Die folgende Abbildung veranschaulicht das Zusammenspiel der physischen Dinge, einem sogenannten digitalen Zwilling und den erzeugten Daten.

In einer solchen Konstellation mit Dingen wie Fahrzeugen, Waschmaschinen, Kühlschränken oder anderen Gegenständen der realen Welt, legen die verfügbaren Daten den Grundstein für eine neue Art von Anwendungen. Die folgenden Beispielszenarien werden häufig diskutiert:

  • Predictive Maintenance: Analyse der Daten, um vorherzusagen, wann die nächste Wartungsmaßnahme ansteht
  • Bedarfsprognose: Nutzung der Daten, um die Nachfrage nach einem bestimmten Produkt zu einem bestimmten Zeitpunkt und an einem bestimmten Ort zu prognostizieren
  • Patientenfernbetreuung: Überwachung des Gesundheitszustands von Patienten in ihrer alltäglichen Umgebung
  • Vernetzte Fahrzeuge: Datenaustausch Car2Car (zwischen Fahrzeugen) und Car2X (zwischen Fahrzeugen und ihrer Umgebung) als Voraussetzung für Fahrerassistenz und autonomes Fahren

Diese Anwendungen haben gemeinsam, dass die zugrunde liegenden Daten nicht aus herkömmlichen IT-Systemen wie ERP-Umgebungen stammen. Allerdings erfordern die Anwendungsfälle die Interaktion mit traditionellen IT-Systemen im Unternehmen. Beispielsweise muss die Bedarfsprognose mit dem Auftrags- und Kundenmanagement verknüpft sein. Daraus folgt die fünfte These:

These 5: Digitalisierung findet größtenteils außerhalb der traditionellen IT-Systeme statt, aber die Integration mit diesen ist essenziell.

ERP-Systeme sind für Transaktionen mit klar definiertem Beginn und Ende ausgelegt, während das IoT einen fortwährenden Datenfluss oder Datenstrom erzeugt.

Typischerweise wird dabei ein riesiges Datenvolumen generiert, wobei viele dieser Daten möglicherweise irrelevant sind. Beispielsweise wird der Puls eines Patienten in regelmäßigen Abständen gemessen. Wenn es keine dramatischen Abweichungen gibt, sind die einzelnen Messungen aber nicht von Bedeutung. Daher müssen angesichts der IoT-spezifischen Gegebenheiten neue Ansätze zur Datenverarbeitung entwickelt werden. Charakteristisch für das IoT-Umfeld ist eine dreifache Interoperabilität, nämlich das Zusammenwirken von:

  1. Cloud
  2. On-Premise
  3. Edge

Edge-Computing bezeichnet im Allgemeinen Geräte, Maschinen, Roboter oder Computer, die sich nicht im Rechenzentrum der Firmenzentrale, sondern in einem Werk, einer Niederlassung oder an einem anderen Standort befinden.
Um einen harmonischen Dreiklang dieser unterschiedlichen Verarbeitungsmodelle zu gewährleisten, ist eine Architektur auf der Grundlage von Microservices genauso unentbehrlich wie die Verfügbarkeit geeigneter Datenintegrationsfunktionen (Konnektoren).

Das war Teil 4 unserer Artikel-Serie zu den 10 Thesen zur digitalen Transformation. Lesen Sie hier alle weiteren Teile nach deren Veröffentlichung:

Teil 1:

Teil 2:

Teil 3:

Teil 4:

  • These 4: Microservices und APIs: Grundlage für maßgeschneiderte Lösungen
  • These 5: Digitalisierung findet größtenteils außerhalb der traditionellen IT-Systeme statt, aber die Integration mit diesen ist essenziell.

Teil 5:

  • These 6: Die Cloud als zentrales Element
  • These 7: Verteilte Daten – in Echtzeit vernetzt

Teil 6:

  • These 8: Echtzeitverarbeitung nicht ohne In-Memory-Technologie
  • These 9: Maschinenlernen – der unabdingbare Ansatz
  • These 10: Keine digitale Transformation ohne Asset- und Prozessmanagement

Von Dr. Stefan Sigg, Chief Research & Development Officer, und Dr. Harald Schöning, Vice President Research, bei der Software AG.

Harald Schöning

Harald Schöning

Vice President Research bei Software AG
Dr. Harald Schöning ist Vice President Research der Software AG. Nach seiner Promotion an der Universität Kaiserslautern wechselte er zur Software AG. Dort arbeitete er zunächst als Entwickler, Projektleiter und Chefarchitekt in verschiedenen Bereichen. Heute verantwortet Dr. Schöningalle öffentlich geförderten Forschungsprojekte des Unternehmens. Er ist Mitglied des Lenkungskreises der "Plattform Industrie 4.0" und Vorsitzender des Bitkom-Arbeitskreises „Industrie 4.0 – Markt und Strategie“. Dr. Schöning ist Autor mehrerer Bücher und Buchbeiträge und hält mehr als 40 Patente.
Harald Schöning

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.