Die zentrale Datenplattform als Schlüssel zukunftsfähiger Produktionsprozesse

Die moderne industrielle Produktion erfordert eine Erweiterung und Digitalisierung der klassischen Produktionsflusssteuerung, wenn Intelligenz und Vernetzung ermöglicht werden sollen. Dabei ist es notwendig, alle Ebenen der Automatisierungspyramide mithilfe von digitalen Lösungen und Datenverarbeitungssystemen zu verbinden und zu integrieren.

In der heutigen Zeit gibt es zahlreiche neue Technologien, wie Künstliche Intelligenz, Digital Twins oder Argumented Reality, die für eine smarte Produktion der Zukunft immer wichtiger werden. Um diese innovativen Methoden zum Einsatz zu bringen, ist eine Anbindung an vorhandene Systeme notwendig, was jedoch bisher nur eingeschränkt möglich ist. Eine standardisierte Herangehensweise zur Bereitstellung von Daten für den Einsatz Künstlicher Intelligenz oder zur Erstellung von Digitalen Zwillingen fehlt beispielsweise. Auch neue Anwendungsfälle, wie Vorausschauende Wartung, erfordern einen individuellen Zugriff auf die benötigten Daten. Nur durch enge Zusammenarbeit zwischen den Abteilungen und mit einer klaren Strategie für die Integration können neue Technologien und deren Anwendung erfolgreich umgesetzt werden.

Machbarkeit im Brownfield

Abbildung 1: Zugriff und Bereitstellung von Daten in einer neuen, dritten Dimension

Die meisten digitalen Transformationsprojekte finden in Brownfield-Produktionsumgebungen statt. Das bedeutet, dass die Fertigungsanlagen bereits in Betrieb sind und es aus wirtschaftlicher Sicht notwendig ist, Lösungen zu finden, die mit den vorhandenen Maschinen und Softwaresystemen integriert werden können. Die Entwicklung hin zu einer smarten Produktion benötigt neue Austauschkanäle, die eine dritte Dimension des Datenflusses eröffnen und es ermöglichen, vorhandene Daten zentral zur Verfügung zu stellen. Dabei ist es unwirtschaftlich, diese neuen Kanäle mit jedem Projekt neu zu implementieren. Es empfiehlt sich ein generischer Ansatz, bei dem Daten Anwendungsfall-unabhängig aus den jeweiligen Produktionssystemen geladen und homogen bereitgestellt werden. Eine zentrale Datenplattform, auf der alle vorhandenen Produktionsinformationen zugänglich gemacht werden, ermöglicht einen unabhängigen, flexiblen und skalierbaren Weg für die Weiterentwicklung und Optimierung der Produktionsprozesse.

Vorteile der zentralen Datenplattform

  • Demokratische Bereitstellung vorhandener Maschinendaten aus dem Brownfield
  • Schnelle Anbindung neuer Technologien
  • Umsetzung innovativer Anwendungsfälle
  • Einfache Umsetzung von Datentransparenz und Data Governance
  • Zugriff auf historische Daten und Echtzeitdaten
  • Skalierbare Anwendungsentwicklung
  • Erhöhte Effizient und Qualität beim Datentransfer

Herausforderungen der Datenverarbeitung

Es gibt definierte Schnittstellen für einzelne Systeme, die beispielsweise das Auslesen von Daten aus ERP oder MES-Systemen problemlos ermöglichen. Bei einem SCADA-System sieht es jedoch anders aus, da dieses sehr heterogen und domainspezifisch aufgebaut ist. Die Schnittstellen sind hier, sowie auch bei den untergeordneten Maschinensteuerungen (SPS), nicht einheitlich definiert.

Use case

Unser Beispiel zeigt einen klassischen induktiven Sensor, bei dem in den meisten Fällen nur das Signal „Sensor Ein/Aus“ genutzt wird. Die folgenden Funktionen sind bereits werksseitig implementiert und könnten zusätzlich ausgewertet werden:

  • Schaltermodus
  • Schaltzyklus Zähler, Zähler zurücksetzen
  • Betriebsstundenzähler
  • Absorption (analoger Messwert des elektrischen Feldes)
  • Innentemperatur
  • Geräteinformationen
  • Anwendungsspezifische Kennung, Anlagenkennung, Standortcode

Unabhängig vom vorhandenen Austauschkanal gibt es auf allen Ebenen Herausforderungen im Zusammenhang mit Daten. Beispiele sind Datenschutz, geschaffene Datensilos, die Verarbeitung von Massendaten, die Interaktion zwischen Mensch und Maschine oder auch nicht vorhandene oder standardisierte Kommunikationskanäle.

Angesichts der sehr heterogenen Infrastruktur in der Fertigung können individuell auf die Bedingungen angepasste Lösungen Abhilfe schaffen und sich den spezifischen Herausforderungen auf den einzelnen Ebenen widmen. Daten-Governance und -sicherheit sowie Cybersicherheit sind dabei berücksichtigt.

Abbildung 2: Herausforderungen bei Technologie und Kommunikation

Ganzheitlicher Ansatz

Abbildung 3: Integration aller für die Produktion relevanten Daten

Für die optimale Verkettung von Informationen und die damit verbundenen Vorteile, wie effiziente Ressourceneinsatz, Produktivitäts- und Qualitätssteigerung, sind nicht nur die Daten der Produktionsflusssteuerung relevant. Unternehmen haben eine Vielzahl von Parametern zu berücksichtigen:
Einsatz- und Wartungsplanung, Lagerhaltung, Personalverfügbarkeiten und vieles mehr. Die logische Verknüpfung dieser Daten ist größtenteils nur manuell möglich. Durch die Verfügbarkeit all dieser Informationen in digitaler Form könnte jedoch viel Zeit eingespart werden. Die Komplexität dieses Themas und die sehr unterschiedlichen Voraussetzungen einzelner Produktionsumgebungen machen deutlich, dass Standardlösungen nicht genügen, um den optimalen Weg hin zu einer uneingeschränkten Datenverfügbarkeit und somit zu neuen Technologien zu ebnen. Wichtig ist es also, sich zunächst mit den Anwendungsfällen auseinanderzusetzen, die den größten Mehrwert schaffen.

Die Vision für mehr Effizienz, Flexibilität und Qualität

Eine umfassende Werk-zu-Werk-Kommunikation zur Verbesserung der Produktionsabläufe und zur Ursachenerkennung bei Qualitätsproblemen kann durch eine zentrale Datenplattform realisiert werden. Dabei können bereitgestellte Daten über standardisierte Schnittstellen werksübergreifend ausgetauscht werden. Dieser voll automatisierte Informationsaustausch hat zahlreiche positive Effekte auf die Produktion. Die Produktionsplanung und -steuerung kann flexibel auf Informationen von Zulieferern und Kunden reagieren. Durch Echtzeitdaten werden Engpässe und Probleme schneller erkannt und behoben. Auch Qualitätsabweichungen lassen sich werksübergreifend auf ihre Ursache zurückführen und wiederkehrende Probleme durch frühzeitige Anomalieerkennung vermeiden. Der Datenaustausch ermöglicht es zudem, Transport- und Logistikkosten zu reduzieren. Die direkte Kommunikation zwischen den Werken verbessert auch die Zusammenarbeit: Durch den Austausch von Wissen und Erfahrungen können neue Ideen und Innovationen entstehen, die die Produktion weiter verbessern.

Werksübergreifende Kommunikation in der Halbleiter- und Automobilproduktion

Abbildung 4: Datentransparenz in der Waferproduktion von Front-End bis Back-End (Semiconductor)
Abbildung 5: Datenintegration für effizientere und zukunftsfähige Kommunikation von Zulieferern und Herstellern (Automotive)

Reifegrad der Datenplattform

Wie eingangs beschrieben bildet die Verfügbarkeit von Daten die Basis für zukünftige Technologien. Eine zentrale Datenplattform ermöglicht diesen Zugang. Der tatsächliche Mehrwert entsteht, wenn die erfassten Daten genutzt und in der Produktion sinnvoll eingesetzt werden können. Dazu müssen Anwendungen an die Plattform angebunden werden, die dies ermöglichen.

Ein Zukunftsszenario beschreibt einen einheitlichen Datenspeicher, auf den sämtliche Applikationen über unterschiedliche Produktionen hinweg zugreifen. Durch die Nutzung der Datenplattform können sich die
Applikationen untereinander austauschen und weitere Speicherorte werden obsolet.

Bei einer Entscheidung für die Transformation hin zu einer zentralen Datenplattform empfehlen wir, iterativ vorzugehen und in einer geeigneten Geschwindigkeit Kommunikationskanäle und Systeme weiterzuentwickeln. Der Vorteil einer individuellen Softwareentwicklung besteht darin, dass diese sich gemäß den Voraussetzungen und Anforderungen des jeweiligen Unternehmens mitentwickelt und somit immer die nötige Balance zwischen Evolution und Revolution gehalten werden kann. Im ersten Schritt beginnen wir demnach meist mit dem Data Engineering. Wir
berücksichtigen aber auch zukünftige Anwendungsfälle in unserer Architektur und bedenken diese in der Weiterentwicklung.

Fazit

Die Zusammenführung von Daten aus verschiedenen Schichten der Automatisierungspyramide und anderen Datensilos auf einer homogenen Plattform ermöglicht es Unternehmen, ihre Daten vollständig zu demokratisieren und zu transformieren. Regeln zur Datenverwaltung helfen dabei, die Datenqualität und -sicherheit zu gewährleisten. Ein Cloud-basierter Ansatz bietet dabei viele Vorteile, wie Skalierbarkeit und Flexibilität. Durch die Nutzung einer zentralen Datenplattform sind Unternehmen in der Lage, ihre Daten effektiver zu nutzen und ihr volles Potenzial auszuschöpfen.

Weitere Informationen finden Sie in unserem Whitepaper: Industrial Data Platform

Cyber-physikalische Systeme als eine Säule von Industrie 4.0

Was ist das?

Ein Cyber-physikalisches System (CPS) steuert einen physikalisch-technischen Prozess und vereint dazu Elektronik, komplexe Software und Netzwerkkommunikation z.B. über das Internet. Charakteristisch ist, dass alle Elemente einen untrennbaren Beitrag zur Funktionsweise des Systems leisten. Daher wäre es falsch, jedes Gerät mit etwas Software und einem Netzwerkanschluss zu einem CPS zu erklären.

Gerade im Fertigungsumfeld sind CPS oft mechatronische Systeme, z.B. vernetzte Roboter. Embedded Systems stehen im Kern dieser Systeme, werden durch Netzwerke miteinander verbunden und durch zentrale Softwaresysteme z.B. in der Cloud ergänzt.

Cyber-physikalische Systeme sind durch ihre Vernetzung in der Lage, auch Infrastrukturen automatisch zu steuern, die über größere Entfernungen oder viele Orte verteilt sind. In der Vergangenheit waren diese nur begrenzt automatisierbar. Beispiele dafür sind dezentral gesteuerte Stromnetze, Logistikabläufe und verteilte Produktionsprozesse.

Im Fertigungsumfeld ermöglichen CPS durch ihre Automatisierung, Digitalisierung und Vernetzung eine hohe Flexibilität und Autonomie der Produktion. Dadurch werden z.B. Matrix-Produktionssysteme möglich, die hohe Variantenvielfalt für große und kleine Stückzahlen unterstützen [1].

Es hat sich bisher keine einheitliche Definition durchgesetzt, da der Begriff breite und unspezifische Anwendung findet und manchmal auch utopisch-futuristische Konzepte damit vermarktet werden [2].

Woher kommt der Begriff?

Innovationen im Bereich der IT, Netzwerktechnik, Elektronik etc. ermöglichten in den vergangenen Jahren komplexe, automatisierte und vernetzte Steuerungssysteme. Akademische Disziplinen wie die Steuerungs- und Regeltechnik sowie die Informationstechnik boten kein passendes Konzept für den neuen Mix aus technischen Prozessen, komplexen Daten und Software. Daher wurde ein neues Konzept mit einem passenden Namen nötig.

Der Begriff steht in enger Verwandtschaft zum Internet of Things (IoT). Außerdem bilden Cyber-physikalische Systeme den technischen Kern für viele Innovationen, die das Label „smart“ im Namen tragen: Smart Home, Smart City, Smart Grid etc.

Übrigens wird der deutsche Begriff nicht einheitlich verwendet, die alternative Schreibweise Cyber-physische Systeme wird z.B. durch den Verein Deutscher Ingenieure (VDI) in seinen Normen propagiert. In der Fachliteratur hat sich diese Schreibweise aber bisher nicht durchgesetzt.

Merkmale von CPS

Wie bereits erwähnt gibt es keine allgemein anerkannte Definition. Aus der Vielzahl von Definitionen lassen sich aber folgende Merkmale destillieren:

  • Im Kern steht ein physikalischer oder technischer Prozess.
  • Es gibt Sensoren und Modelle, um den Zustand des Prozesses digital zu erfassen.
  • Es gibt komplexe Software, um auf Basis des Zustands eine (teil-)automatische Entscheidung zu treffen. Dabei ist ein menschlicher Eingriff möglich, aber nicht zwingend nötig.
  • Es gibt technische Mittel, um die getroffene Entscheidung umzusetzen.
  • Alle Elemente des Systems sind vernetzt, um Informationen auszutauschen.

Ein Modell für den Aufbau eines CPS ist das Schichtenmodell nach [2]

Abbildung 1: Schichtenmodell für den inneren Aufbau von Cyber-physikalischen Systemen

Beispiele von Cyber-physikalischen Systemen

  • Selbststeuernde Fertigungsmaschinen und -prozesse (Smart Factory)
  • Dezentrale Steuerung von Stromerzeugung und -verbrauch (Smart Grids)
  • Gebäudeautomatisierung im Haushalt (Smart Home)
  • Verkehrssteuerung in Echtzeit, durch zentrale oder dezentrale Steuerung mit Verkehrsleitsystemen oder Apps (Element der Smart City)

Beispiel für ein Cyber-physikalisches System in der Industrie

In diesem Beispiel wird eine Fertigungsmaschine vorgestellt, die durch Software und Vernetzung weitgehend autonom agieren kann und dabei Leerlauf- Ausfall- und Wartungszeiten minimiert. Für unser Beispiel nehmen wir an, dass es sich um eine Werkzeugmaschine für die Zerspanung handelt.

Vernetzte Elemente des Systems:

  • Werkzeugmaschine mit
    • QR-Code-Kamera zur Werkstück-Identifikation
    • RFID-Leser zur Werkzeug-Identifikation
    • Automatische Vorratsüberwachung
    • Verschleißerkennung und Wartungsvorhersage
  • Zentrales IT-System für Konstruktionsdaten und Werkzeugparameter (CAM)
  • MES/ERP-System

Die Fertigungsmaschine in unserem Beispiel ist in der Lage, das Werkstück und das Werkzeug zu identifizieren. Dafür können die gängigen Technologien RFID oder QR-Code verwendet werden. Ein zentrales IT-System verwaltet Konstruktions- und Vorgabedaten, z.B. bei CNC-Maschinen ein Computer-aided Manufacturing-System (CAM). Die Fertigungsmaschine ruft mit der ID von Werkstück und Werkzeug alle Daten aus dem zentralen System ab, die für die Bearbeitung nötig sind. Damit entfällt die manuelle Eingabe von Parametern, die Daten werden durchgängig digital verarbeitet. Die Identifikation ermöglicht die Verbindung von physikalischer Schicht und Datenschicht eines Cyber-physikalischen Systems.

Die digitalisierten Daten für Werkstücke, Maschinen und weitere Elemente einer Fertigung können unter dem Begriff Digitaler Zwilling zusammengefasst werden, der im Blogartikel „Der digitale Zwilling als eine Säule von Industrie 4.0“ von Marco Grafe vorgestellt wurde.

Basierend auf den Konstruktions- und Vorgabedaten werden die eingerüsteten Werkzeuge und die in der Maschine vorhandenen Material- und Ressourcenvorräte überprüft. Bei Bedarf benachrichtigt die Maschine das Personal. Durch diese Validierung vor Bearbeitungsbeginn kann Ausschuss vermieden und die Auslastung erhöht werden.

Die Maschine überwacht ihren Zustand (in Betrieb, Leerlauf, Störung) und meldet diesen digital an ein zentrales System, mit dem Auslastung und weitere Betriebskennzahlen erfasst werden. Solche Funktionen zur Zustandsüberwachungen sind typischerweise in ein Manufacturing Execution System (MES) integriert und mittlerweile weit verbreitet. Für eine höhere Autonomie ist die Maschine in unserem Beispiel zusätzlich in der Lage, den eigenen Verschleiß zu messen, daraus Wartungsbedarf vorherzusagen und zu melden. Diese Funktionen sind unter dem Stichwort Predictive Maintenance bekannt. Diese Maßnahmen erhöhen die Maschinenverfügbarkeit und erleichtern Wartung und Arbeitsplanung.

Durch den Einsatz von Elektronik und Software ist unser fiktive Fertigungsmaschine in der Lage, weitgehend autonom zu arbeiten. Die Rolle des Menschen wird auf Beschickung, Rüsten, Entstörung und Wartung reduziert, er unterstützt damit nur noch die Maschine im Fertigungsprozess.

Literatur

[1] Forschungsbeirat Industrie 4.0, „Expertise: Umsetzung von cyber-physischen Matrixproduktionssystemen,“ acatech – Deutsche Akademie der Technikwissenschaften, München, 2022.

[2] P. H. J. Nardelli, Cyber-physical systems: theory, methodology, and applications, Hoboken, New Jersey: Wiley, 2022.

[3] P. V. Krishna, V. Saritha und H. P. Sultana, Challenges, Opportunities, and Dimensions of Cyber-Physical Systems, Hershey, Pennsylvania: IGI Global, 2015.

[4] P. Marwedel, Eingebettete Systeme: Grundlagen Eingebetteter Systeme in Cyber-Physikalischen Systemen, Wiesbaden: Springer Vieweg, 2021.

Smart Manufacturing auf dem Büroschreibtisch

Schreibtisch auf dem eine Lernfabrik aus Lego aufgebaut ist, daneben arbeiten zwei Personen am Rechner
Abbildung 1: Überblick der Lernfabrik in Görlitz

Während immer mehr Startups, Mittelständler und Großkonzerne die Digitalisierung und Vernetzung für den Ausbau ihres Geschäfts nutzen und dabei auch völlig neuartige Geschäfts­modelle entwickeln, wächst der weltweite Bedarf an Standardisierung und Umsetzungs­kompetenz. So haben sich aus ehemaligen Worthülsen wie „Big Data“, „Internet of Things“ (IoT) und „Industrie 4.0“ längst konkrete Technologien entwickelt, die den digitalen Wandel vorantreiben und Unternehmen bei der Steigerung ihrer Produktivität, der Optimierung von Lieferketten und letztlich der Erhöhung von Rohertragsmargen unterstützen. Dabei profitieren sie vor allem von den wiederverwendbaren Diensten der sogenannten Hyperscaler wie Amazon, Microsoft, Google oder IBM, sind aber oft selbst nicht in der Lage, die Implementierung maßgeschneiderter Lösungen mit eigenem Personal zu stemmen. Die ZEISS Digital Innovation (ZDI) begleitet und unterstützt als Partner und Entwicklungsdienstleister ihre Kunden bei der digitalen Transformation.

Cloud-Lösungen hatten es lange Zeit vor allem im industriellen Umfeld schwer, da es weit verbreitete Vorbehalte in Bezug auf Daten-, IT- und Anlagensicherheit wie auch Entwicklungs- und Betriebs­kosten gab. Zudem erforderte die Anbindung und Aufrüstung unzähliger heterogener Bestands­systeme viel Fantasie. Inzwischen sind diese Grundsatzfragen weitgehend geklärt und Cloud-Anbieter werben mit spezifischen IoT-Diensten um neue Kunden aus dem produzierenden Gewerbe.

Um die typischen Chancen und Herausforderungen von IoT-Umgebungen möglichst praxisnah illustrieren zu können, wird ein interdisziplinäres ZDI-Team – bestehend aus erfahrenen Expertinnen und Experten aus den Bereichen Business-Analyse, Software-Architektur, Frontend- und Backend-Entwicklung, DevOps-Engineering sowie Test­management und Testautomatisierung – in bewährter agiler Vorgehensweise einen Demonstrator entwickeln, anhand dessen später auch kundenspezifische Anforderungen auf Umsetzbarkeit geprüft werden können.

Im Demonstrator wird eine vernetzte Produktionsumgebung mithilfe einer fischertechnik Lernfabrik simuliert und mit einer selbst entwickelten Cloud-Anwendung gesteuert. Die Lernfabrik enthält mit unterschiedlichen Sensoren, Kinematiken, Fördertechnik und insbesondere einer Siemens S7 Steuerung viele typische Elemente, wie sie auch in echten Industrieanlagen zum Einsatz kommen. Über etablierte Standards wie OPC UA und MQTT werden die Geräte an ein ebenfalls integriertes IoT-Gateway angebunden, das die gesammelten Daten seinerseits über eine einheitliche Schnittstelle den dafür optimierten Cloud-Diensten bereitstellt. Umgekehrt lässt das Gateway unter Berücksichtigung strenger Anforderungen an die IT- und Anlagensicherheit auch steuernde Zugriffe auf die Produktionsanlagen von außerhalb der Werksinfrastruktur zu.

Abbildung eines Teils der Lernfabrik
Abbildung 2: Greifarm mit blauem, NFC codiertem -Werkteil

Das Herstellen und Absichern der Konnektivität ist nach erfolgter Inbetriebnahme für die über alle ZDI-Standorte verteilt arbeitenden Kolleginnen und Kollegen einerseits ein organisatorisches Erfordernis, andererseits handelt es sich dabei bereits um eine Kernanforderung jeder praxistauglichen IoT-Lösung mit durchaus weitreichenden Konsequenzen für die Gesamtarchitektur. Technologisch wird sich das Team zunächst auf die Cloud-Services von Microsoft (Azure) und Amazon (AWS) konzentrieren und dabei umfangreiche Erfahrungen aus anspruchsvollen Kundenprojekten im IoT-Umfeld einbringen. Weiterhin stehen Architektur- und Technologie-Reviews sowie die Implemen­tierung erster Monitoring Use Cases im Fokus. Darauf aufbauend sind in der Folge auch komplexere Use Cases zur Taktzeitoptimierung, Maschineneffizienz, Qualitätssicherung oder Nachverfolgung (Track and Trace) geplant.

Besonders gut ist die ZDI auch im Bereich Testservices aufgestellt. Anders als in stark softwarelastigen Branchen wie z. B. der Logistik oder Finanzwirtschaft wurden die Testmanagerinnen und Testmanager in zahlreichen fertigungsnahen Use Cases jedoch immer wieder mit der Frage konfrontiert, wie Hardware, Software und insbesondere deren Zusammenspiel auf der Steuerungsebene möglichst vollumfänglich und vollautomatisch getestet werden können, ohne wertvolle Maschinen- und Anlagenzeit zu benötigen. In hyperkomplexen Produktionsumgebungen, wie sie ZEISS beispiels­weise in der Halbleiter- und Automotive-Industrie vorfindet, können die ansonsten weit verbreiteten digitalen Zwillinge aufgrund schwer modellierbarer Zusammenhänge und teilweise gänzlich unbekannter Einflussfaktoren nur noch bedingt Abhilfe leisten. Umso wichtiger ist die Konzeption einer geeigneten Testumgebung, mit der Fehler eingegrenzt, reproduziert und möglichst minimal­invasiv behoben werden können.

Wir werden auf diesem Blog regelmäßig über den Projektfortschritt berichten und unsere Erfahrungen teilen.


IoT (und mehr) mit Azure Digital Twins

Im Zuge der Weiterentwicklung der Industrie 4.0-Konzepte werden wir uns mit der Azure-Ausgabe der Digital Twins (digitale Zwillinge) befassen. Die Definition von digitalen Zwillingen geht von der digitalen Darstellung der Eigenschaften von realen Dingen (oder Menschen) aus, entweder in Echtzeit (zur Steuerung und vorausschauenden Wartung) oder in Simulationen, um Verhaltensweisen vor dem tatsächlichen Einsatz zu erfassen und zu testen. Als solche sind Azure Digital Twins eng mit den Azure IoT-Diensten verwandt; sie könnten jedoch noch etwas mehr leisten, wie wir im Folgenden sehen werden.

Symbolbild: Ein Ingenieur und eine Ingenieurin stehen in einer modernen Fabrik, während der Ingenieur ein Tablet bedient, mit dem er eine Maschine in der Produktionslinie steuert.

Wie werden Modelle erstellt und eingesetzt ?

Azure Digital Twins stützt sich auf die Digital Twins Definition Language (DTDL), die der JavaScript Object Notation for Linked Data (JSON-LD) folgt, wodurch sie sprachenagnostisch und mit bestimmten Ontologie-Standards verbunden ist. Die Root-Struktur wird als Schnittstelle deklariert, die Eigenschaften, Beziehungen und Komponenten enthalten kann. Eigenschaften können Telemetriedaten (ereignisbasiert, wie z. B. Temperaturmessungen) oder Werte (z. B. Name oder Gesamtverbrauch) enthalten, Beziehungen beschreiben die Verbindung zwischen Zwillingen (z. B. Etage enthält Raum), und schließlich sind Komponenten auch Modelle, die in der Schnittstelle per Id referenziert werden (z. B. Telefon hat Kamera-Komponente).

Modelle unterstützen Vererbung, daher kann man sich diese Modelle bereits als serverlose (POCOs) Klassen vorstellen. In der Tat werden aus diesen Modellen Instanzen erstellt, die in Azure Digital Twins leben. Es stellt sich die logische Frage: Wenn es sich um Klassen handelt, was ist dann mit Methoden? Hier kommen die serverlosen Azure Functions sehr gut zum Einsatz, da alle Ereignisse von Digital Twins mit Azure Functions abgefangen und verarbeitet werden können. Somit schaffen Azure Digital Twins, gepaart mit Azure Functions, eine leistungsstarke serverlose Infrastruktur, die sehr komplexe ereignisgesteuerte Szenarien implementieren kann, indem sie die bereitgestellte REST-API für die Modell- und Datenmanipulation nutzt. Der Preis für diese Flexibilität ist eine ziemlich steile Lernkurve und man muss Funktionen für die Dateneingabe und -ausgabe von Grund auf neu schreiben.

Json-Modelle können manuell erstellt werden, oder noch einfacher, Microsoft stellt Beispiel-Ontologien (vorgefertigte Domänenmodelle) in Excel zur Verfügung, die erweitert oder angepasst werden können. Mit dem Digital Twins Explorer (derzeit in der Vorschau im Azure-Portal) können diese Modelle in Azure hochgeladen werden, wobei die Erstellung von Instanzen und Beziehungen bereits automatisiert ist. Unter dem Azure Digital Twins Explorer befindet sich eine REST API, sodass man diese auch programmieren kann.

In unserer Beispielimplementierung eines intelligenten Gebäudes (siehe Abbildung 1) haben wir Modelle (links) und Instanzen mit Beziehungen (rechts) erstellt und hochgeladen. Es gibt eine Unternehmensmodellinstanz für ZEISS Digital Innovation (ZDI), die zwei Gebäude in Dresden und München hat, die jeweils Stockwerke, Räume und Aufzüge enthalten.

Screenshot aus einem Programm zur Modellierung von Azure Digital Twins
Abbildung 1: Modellierung

Wie kommen die Daten in das System?

In unserer Smart-Building-Implementierung (siehe Abbildung 2) verwenden wir den IoT-Hub, um Sensordaten aus Räumen (Temperatur, Energieverbrauch, Anzahl der Personen in den Räumen, usw.), sowie OPC-UA-konvertierte Daten aus Aufzügen, zu sammeln.

Schematische Darstellung der Architektur einer Smart-Building-Implementierung
Abbildung 2: Architektur

Normalerweise lässt sich IoT Hub mit ein paar Klicks problemlos in Insight Time Series integrieren, aber es sind einige Funktionen erforderlich, um diese Daten mit Digital Twins abzufangen. Die erste Funktion reagiert auf Änderungen im IoT Hub Event Grid und gibt Aktualisierungen an Digital Twins weiter, die dann andere Funktionen auslösen können, z. B. die Berechnung und Aktualisierung des Gesamtenergieverbrauchs im Raum und die Weitergabe an alle Eltern. Alle diese Änderungen in den Digital Twins werden in einem Update-Patch-Format an den Event Hub weitergeleitet, das von Insight Time Series nicht gelesen werden kann. Hier kommt eine weitere Funktion ins Spiel, die diese Patch-Änderungen umwandelt und sie an einen anderen Event Hub weiterleitet, den Insight Time Series abonnieren und die Daten speichern kann. Klingt über-technisch? Ist es auch! Wie bereits erwähnt, muss eine Menge Arbeit von Grund auf geleistet werden, aber wenn man sich erst einmal mit den Konzepten vertraut gemacht hat, ist der Preis die Flexibilität bei der Implementierung fast aller Szenarien. Von vertikalen Hierarchien mit Datenvermehrung (z. B. Aggregationen des Wärmeverbrauchs) bis hin zu horizontalen Interaktionen zwischen Zwillingen auf der Grundlage von Beziehungen (z. B. wenn ein Aufzug spricht und die Leistung der anderen Aufzüge im selben Gebäude auf der Grundlage eines KI-Modells beeinflusst) kann alles implementiert werden.

Eine weitere leistungsstarke Funktion besteht darin, dass wir Daten aus praktisch jeder Quelle in Digital Twins streamen und mischen können, um ihre Nutzung für Business Intelligence zu erweitern. Von ERP- und Buchhaltungssystemen bis hin zu Sensoren und OPC-UA-Servern können Daten in Echtzeit eingespeist und mit Querverweisen versehen werden, um nützliche Informationsströme zu erzeugen – von Teebeuteln, die an einem verschneiten Wintertag in der Küche ausgehen, bis hin zu der Frage, ob der monetäre Aufwand für die Aufzugswartung proportional zur Anzahl der Fahrten im Jahr ist.

Wie werden die Daten analysiert und berichtet?

In vielen industriellen Systemen und dank der immer preiswerteren Speicherung landen alle Telemetriedaten in der Regel in einer Zeitreihe zur Analyse und Archivierung.

Datenalarme, Durchschnittswerte und Aggregationen können jedoch ein echter Gewinn für die Berichterstattung in Echtzeit sein. Digitale Zwillinge bieten eine vollständige REST-API, über die Zwillinge auf der Grundlage von Beziehungen, Hierarchien oder Werten abgefragt werden können. Diese APIs können auch komponiert und in API Management Services für Echtzeitaufrufe an Dritte weitergegeben werden.

Eine andere Möglichkeit ist die Nutzung von Time Series Insights für eine umfassende Analyse kompletter Datensätze oder die Verwendung von Abfragen aus Time Series zur Erstellung interaktiver Berichte mit Power BI.

Sowohl Echtzeit- als auch historische Berichte haben ihre Berechtigung, und die optimale Nutzung sollte auf der Grundlage konkreter Szenarien bestimmt werden.

Zusammenfassung

Azure Digital Twins bieten eine sprachenagnostische Modellierung, die eine Vielzahl von Datentypen akzeptieren und verschiedene Ontologien unterstützen kann. In Verbindung mit serverlosen Funktionen können sehr komplexe und leistungsstarke interaktive Lösungen erstellt werden. Diese Flexibilität ist jedoch mit hohen Kosten für die manuelle Implementierung in den Datenfluss mittels Events und Funktionen verbunden. Aus diesem Grund ist zu erwarten, dass Microsoft (oder ein Open-Source-Anbieter) in Zukunft Middleware mit generischen Funktionen und Bibliotheken für Standarddatenflüsse bereitstellen wird.

Digitalisierung: Industrie 4.0 oder nur Papierloses Büro? – solutions.hamburg 2016

Vom 07.-09.09.2016 waren wir als Saxonia Systems AG (seit 03/2020 ZEISS Digital Innovation) mit mehreren Speakern und Teilnehmern auf der solutions.hamburg unterwegs. Der Kongress zu Digitalisierung, Business und IT beschäftigte sich 3 Tage lang in 333 Sessions mit der Frage: „Wie funktioniert Digitalisierung in Unternehmen?“ und konnte damit wieder zahlreiche Interessierte auf das Gelände des Kampnagel in Hamburg locken.

Wie schon auf anderen Konferenzen, haben wir auch dieses Mal wieder einen Teil der Kongressteilnehmer interviewt, um ein paar Impressionen und Meinungen zu aktuellen Fragen rund um das Leitthema „Digitalisierung“ zu sammeln.

Dementsprechend wollten wir zuerst einmal wissen, was genau die Befragten mit dem Begriff Digitalisierung assoziieren. Zur Auswahl standen die in der nachstehenden Abbildung ausgewerteten Antworten: „neue Zusammenarbeitsformen“, „Industrie 4.0/ IoT“, „Agilität“, „Big Data“ und „Mobile Lösung“.  Darüber hinaus wurden aber auch überraschende Dinge, wie HR 4.0 oder papierloses Büro genannt.  Kurz gesagt ist die Bandbreite der Meinungen zu diesem Thema sehr groß – was wenig überrascht. Dass sie allerdings so groß sein wird,  hat uns dann doch punktuell erstaunt.

Was verbinden Sie am meisten mit Digitalisierung? - Diagramm
Abbildung 1: Was verbinden Sie am meisten mit Digitalisierung?

Im Gespräch konnte man den allgemeinen Konsens erfassen, dass Digitalisierung Veränderung bedeutet und mit dieser Veränderung einhergehend neue Herausforderungen und vielleicht auch zu lösende Probleme auf Unternehmen zukommen.

Aus diesem Grunde wollten wir ebenfalls wissen, welches die größten Hausforderungen sind, die bereits jetzt im Arbeitsalltag der Befragten eine Rolle spielen. Auch hier hatten wir diverse Antwortmöglichkeiten vorgeben, deren absolute Nennungshäufigkeiten dem folgenden Diagramm entnommen werden können.

Was sind die größten Herausforderungen in Ihrem Arbeitsalltag? - Diagramm
Abbildung 2: Was sind die größten Herausforderungen in Ihrem Arbeitsalltag?

Den problematischsten Aspekt stellen offensichtlich Zuständigkeitsgrenzen dar, dicht gefolgt von schlechten Softwarewerkzeugen. Mit etwas Abstand wurden Rollenkonflikte, unangemessener Führungsstil und auch agile Methoden genannt, die scheinbar bei falscher Anwendung zu größeren Hürden führen.

Darauf aufbauend baten wir die Befragten einen Blick in die Zukunft zu wagen und zu prognostizieren, wie sich die Zusammenarbeit zwischen Fachbereich und IT in Zeiten der Digitalisierung wandeln wird. In einem Punkt waren sich hierbei wohl alle einig: Eine Veränderung der Zusammenarbeit ist unumgänglich. Besonders die Anpassung der Kommunikation und Organisation waren bei dieser qualitativen Frage die am häufigsten genannten Kernaussagen. Dieser Grundtenor zog sich dabei aber nicht nur durch unsere Umfrage, sondern auch durch das gesamte Programm des Kongresses. Häufig genannte Beispiele für eine Veränderung der Kommunikation sind unter anderem, dass Fachbereich und IT eine gemeinsame Sprache sprechen müssen und auch werden, oder sich zumindest ein Dolmetscher zwischen den Bereichen finden muss, und sich die Geschwindigkeit der Kommunikation (auch durch diverse Hilfsmittel) enorm ändern wird. Oft wurde auch ein organisatorischer Wandel als Veränderung aufgeführt. Ein Großteil der Interviewten war der Meinung, dass es nicht nur eine stärkere Verzahnung und Annäherung der Bereiche geben wird, sondern generell näher zusammengerückt werden muss und eine Verschmelzung zwischen IT und Fachbereich stattfinden wird. Die Teilnehmer waren sich einig, dass nur bei einer gemeinsamen Lösungssuche und einer engen Zusammenarbeit mit hoher Prozesskenntnis und beiderseitigem Verständnis füreinander, die Entwicklung innovativer Lösungen möglich sein wird.

Resultierend aus diesen Aussagen wollten wir abschließend wissen, ob es künftig noch einen dedizierten IT/Softwareentwicklungsbereich im Unternehmen geben wird. Trotz den bereits beschriebenen Antworten bei der Frage nach der Veränderung der Zusammenarbeit, sind 60% der Meinung, dass eine Trennung zwischen den Bereichen trotzdem nach wie vor in Zukunft erfolgen wird, auch wenn die Zusammenarbeit enger und interdisziplinärer sein wird. Die Begründung liegt bei den Meisten vor allem in der hohen Komplexität und Spezialisierung, die eine Softwareentwicklung voraussetzt. Eine Kompetenzbündelung von Expertenwissen ist ihrer Meinung nach trotz allem nur in einem ausgewiesenen IT/Softwareentwicklungsbereich möglich. Die 40%, welche gegen einen dedizierten Bereich stimmten, waren größtenteils einig darüber, dass zu einer Verwässerung, bzw. einem Verschwimmen der Bereichsgrenzen kommen wird.

Gibt es zukünftig noch einen dedizierten IT/Softwareentwicklungsbereich im Unternehmen? - Diagramm
Abbildung 3: Gibt es zukünftig noch einen dedizierten IT/Softwareentwicklungsbereich im Unternehmen?

Ein kurzes Stimmungsbild aus Hamburg zum Thema „Digitalisierung“!