10 Thesen zur digitalen Transformation – Teil 5

Mit der Verfügbarkeit großer Datenmengen und neuen Verarbeitungsmöglichkeiten sind im Rahmen der digitalen Transformation viele neue Geschäftsmodelle entstanden. Sie haben das Potenzial, ganze Märkte auf den Kopf zu stellen, und bieten eine große Chance für etablierte Unternehmen, sich auf die Gewinnerseite der digitalen Transformation zu schlagen. In dieser Artikel-Serie widmen wir uns den 10 Thesen zur digitalen Transformation. Im folgenden Beitrag geht es um die Cloud als Drehscheibe für Anwendungsentwicklung, zentrale Laufzeitumgebungen und Marktplätze.

Bereits seit einigen Jahren zeichnet sich der Trend ab, dass vor Ort installierte Anwendungen (On-Premise) durch Cloud-Services ersetzt werden. Software-as-a-Service (SaaS) ist mittlerweile ein anerkanntes Software-Delivery-Modell, bei dem für die Softwarenutzer beispielsweise Ressourcenmanagement, Updates und Versionskontrolle entfallen. Allerdings kann vorhandene Software nicht eins zu eins in der Cloud bereitgestellt werden. Software muss speziell für die Cloud konzipiert werden und rund um die Uhr verfügbar, schnell und reibungslos aktualisierbar, skalierbar und mandantenfähig sein. Vor allem im IoT-Kontext gewinnt die Cloud an Bedeutung, da die von IoT-Anwendungen benötigte Skalierbarkeit und Flexibilität beim Cloud-Computing viel eher gegeben sind als bei der On-Premise-Verarbeitung.

These 6: Die Cloud als zentrales Element

Im IoT-Kontext reicht Cloud-Computing jedoch möglicherweise nicht aus. Die riesigen, im IoT generierten Datenströme enthalten oft redundante oder irrelevante Informationen. Zudem sind die unvermeidlichen Latenzen in Cloud-Umgebungen für einige Berechnungsprozesse zu hoch. Infolgedessen muss Cloud-Computing um Edge-Computing erweitert werden. So können einige Berechnungen in der Nähe der Datenquellen erfolgen, um Datenströme zu komprimieren oder schnelle Entscheidungen zu treffen. Ein prominenter Anwendungsfall ist die Car2X-Kommunikation, bei der das Fahrzeug über die Rechenleistung verfügt, aus Sensor- und Umgebungsdaten blitzschnell Entscheidungen abzuleiten. Berechnungen, die nicht zeitkritisch sind oder Daten aus vielen Quellen heranziehen, können in der Cloud durchgeführt werden. Obwohl die Cloud ein immer breiteres Anwendungsspektrum abdeckt, werden bestimmte Berechnungen auch in Zukunft lokal (On-Premise) vorgenommen, insbesondere im B2B-Bereich. Dies gilt vor allem für geschäftskritische, maßgeschneiderte Anwendungen, die aufgrund ihrer Komplexität oder aus Sicherheits- oder Latenzgründen nicht einfach in die Cloud verlagert werden können.

Komplexe Deployments

Die Datenverarbeitung erfolgt oft über eine Mischung aus Edge-, Cloud- und On-Premise-Computing. Daher müssen diese verschiedenen Verarbeitungsumgebungen zwecks Kommunikation und gemeinsamer Datennutzung miteinander verbunden werden. Traditionelle Batch-Ansätze für das Verschieben von Massendaten werden den aktuellen Anforderungen an die Verarbeitungsgeschwindigkeit nicht gerecht. Stattdessen sind schnelle Verbindungen in Quasi-Echtzeit erforderlich. Skalierbare und verteilte Message-Bus-Installationen sind aus derartig komplexen Verarbeitungsumgebungen nicht wegzudenken.

These 7: Verteilte Daten – in Echtzeit vernetzt

Besonders Deployments im IoT-Umfeld sind gekennzeichnet durch eine hochgradig verteilte Verarbeitung mit geringer zentraler Kontrolle und intensivem Datenaustausch. Die traditionelle Vorgehensweise, Daten in zentralisierten Data-Warehouse-Systemen zu replizieren, wird zunehmend durch lokale Analysen mit Data-Streaming-Technologie ergänzt.

Da viele Anwendungsfälle Echtzeitverarbeitung und eine umgehende Reaktion auf Analyseergebnisse erfordern, ist die Latenz eines Data-Warehouse nicht mehr angemessen. Die Integration von Daten aus verteilten Quellen in Quasi-Echtzeit ist ebenfalls eine akzeptable Alternative zur physischen Batch-Replikation. Diese Entwicklungen sind vor dem Hintergrund der neuartigen Datenquellen zu sehen, die moderne IoT-Szenarien charakterisieren.

Das war Teil 5 unserer Artikel-Serie zu den 10 Thesen zur digitalen Transformation. Lesen Sie hier alle weiteren Teile nach deren Veröffentlichung:

Teil 1:

Teil 2:

Teil 3:

Teil 4:

Teil 5:

  • These 6: Die Cloud als zentrales Element
  • These 7: Verteilte Daten – in Echtzeit vernetzt

Teil 6:

Von Dr. Stefan Sigg, Chief Research & Development Officer, und Dr. Harald Schöning, Vice President Research, bei der Software AG.

Dr. Stefan Sigg

Dr. Stefan Sigg

Chief Research & Development Officer bei Software AG
Dr. Stefan Sigg, Jahrgang 1965 (Nationalität: Deutsch), ist seit April 2017 (Vertrag bis 2022) Mitglied des Vorstandes der Software AG und verantwortlich für Forschung & Entwicklung.

Dr. Sigg studierte Mathematik und Physik an der Universität Bonn und promovierte im Jahr 1994. Nach seinem Studium startete er seine berufliche Karriere in der Produktentwicklung der SAP SE. Nach verschiedenen Managementpositionen übernahm er die Entwicklungsleitung der Produkte SAP Business Warehouse und später SAP HANA. Zuletzt war er verantwortlich für das gesamte Produktportfolio im Bereich SAP Analytics.
Dr. Stefan Sigg

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.