Smart Manufacturing auf dem Büroschreibtisch

Schreibtisch auf dem eine Lernfabrik aus Lego aufgebaut ist, daneben arbeiten zwei Personen am Rechner
Abbildung 1: Überblick der Lernfabrik in Görlitz

Während immer mehr Startups, Mittelständler und Großkonzerne die Digitalisierung und Vernetzung für den Ausbau ihres Geschäfts nutzen und dabei auch völlig neuartige Geschäfts­modelle entwickeln, wächst der weltweite Bedarf an Standardisierung und Umsetzungs­kompetenz. So haben sich aus ehemaligen Worthülsen wie „Big Data“, „Internet of Things“ (IoT) und „Industrie 4.0“ längst konkrete Technologien entwickelt, die den digitalen Wandel vorantreiben und Unternehmen bei der Steigerung ihrer Produktivität, der Optimierung von Lieferketten und letztlich der Erhöhung von Rohertragsmargen unterstützen. Dabei profitieren sie vor allem von den wiederverwendbaren Diensten der sogenannten Hyperscaler wie Amazon, Microsoft, Google oder IBM, sind aber oft selbst nicht in der Lage, die Implementierung maßgeschneiderter Lösungen mit eigenem Personal zu stemmen. Die ZEISS Digital Innovation (ZDI) begleitet und unterstützt als Partner und Entwicklungsdienstleister ihre Kunden bei der digitalen Transformation.

Cloud-Lösungen hatten es lange Zeit vor allem im industriellen Umfeld schwer, da es weit verbreitete Vorbehalte in Bezug auf Daten-, IT- und Anlagensicherheit wie auch Entwicklungs- und Betriebs­kosten gab. Zudem erforderte die Anbindung und Aufrüstung unzähliger heterogener Bestands­systeme viel Fantasie. Inzwischen sind diese Grundsatzfragen weitgehend geklärt und Cloud-Anbieter werben mit spezifischen IoT-Diensten um neue Kunden aus dem produzierenden Gewerbe.

Um die typischen Chancen und Herausforderungen von IoT-Umgebungen möglichst praxisnah illustrieren zu können, wird ein interdisziplinäres ZDI-Team – bestehend aus erfahrenen Expertinnen und Experten aus den Bereichen Business-Analyse, Software-Architektur, Frontend- und Backend-Entwicklung, DevOps-Engineering sowie Test­management und Testautomatisierung – in bewährter agiler Vorgehensweise einen Demonstrator entwickeln, anhand dessen später auch kundenspezifische Anforderungen auf Umsetzbarkeit geprüft werden können.

Im Demonstrator wird eine vernetzte Produktionsumgebung mithilfe einer fischertechnik Lernfabrik simuliert und mit einer selbst entwickelten Cloud-Anwendung gesteuert. Die Lernfabrik enthält mit unterschiedlichen Sensoren, Kinematiken, Fördertechnik und insbesondere einer Siemens S7 Steuerung viele typische Elemente, wie sie auch in echten Industrieanlagen zum Einsatz kommen. Über etablierte Standards wie OPC UA und MQTT werden die Geräte an ein ebenfalls integriertes IoT-Gateway angebunden, das die gesammelten Daten seinerseits über eine einheitliche Schnittstelle den dafür optimierten Cloud-Diensten bereitstellt. Umgekehrt lässt das Gateway unter Berücksichtigung strenger Anforderungen an die IT- und Anlagensicherheit auch steuernde Zugriffe auf die Produktionsanlagen von außerhalb der Werksinfrastruktur zu.

Abbildung eines Teils der Lernfabrik
Abbildung 2: Greifarm mit blauem, NFC codiertem -Werkteil

Das Herstellen und Absichern der Konnektivität ist nach erfolgter Inbetriebnahme für die über alle ZDI-Standorte verteilt arbeitenden Kolleginnen und Kollegen einerseits ein organisatorisches Erfordernis, andererseits handelt es sich dabei bereits um eine Kernanforderung jeder praxistauglichen IoT-Lösung mit durchaus weitreichenden Konsequenzen für die Gesamtarchitektur. Technologisch wird sich das Team zunächst auf die Cloud-Services von Microsoft (Azure) und Amazon (AWS) konzentrieren und dabei umfangreiche Erfahrungen aus anspruchsvollen Kundenprojekten im IoT-Umfeld einbringen. Weiterhin stehen Architektur- und Technologie-Reviews sowie die Implemen­tierung erster Monitoring Use Cases im Fokus. Darauf aufbauend sind in der Folge auch komplexere Use Cases zur Taktzeitoptimierung, Maschineneffizienz, Qualitätssicherung oder Nachverfolgung (Track and Trace) geplant.

Besonders gut ist die ZDI auch im Bereich Testservices aufgestellt. Anders als in stark softwarelastigen Branchen wie z. B. der Logistik oder Finanzwirtschaft wurden die Testmanagerinnen und Testmanager in zahlreichen fertigungsnahen Use Cases jedoch immer wieder mit der Frage konfrontiert, wie Hardware, Software und insbesondere deren Zusammenspiel auf der Steuerungsebene möglichst vollumfänglich und vollautomatisch getestet werden können, ohne wertvolle Maschinen- und Anlagenzeit zu benötigen. In hyperkomplexen Produktionsumgebungen, wie sie ZEISS beispiels­weise in der Halbleiter- und Automotive-Industrie vorfindet, können die ansonsten weit verbreiteten digitalen Zwillinge aufgrund schwer modellierbarer Zusammenhänge und teilweise gänzlich unbekannter Einflussfaktoren nur noch bedingt Abhilfe leisten. Umso wichtiger ist die Konzeption einer geeigneten Testumgebung, mit der Fehler eingegrenzt, reproduziert und möglichst minimal­invasiv behoben werden können.

Wir werden auf diesem Blog regelmäßig über den Projektfortschritt berichten und unsere Erfahrungen teilen.


IoT (und mehr) mit Azure Digital Twins

Im Zuge der Weiterentwicklung der Industrie 4.0-Konzepte werden wir uns mit der Azure-Ausgabe der Digital Twins (digitale Zwillinge) befassen. Die Definition von digitalen Zwillingen geht von der digitalen Darstellung der Eigenschaften von realen Dingen (oder Menschen) aus, entweder in Echtzeit (zur Steuerung und vorausschauenden Wartung) oder in Simulationen, um Verhaltensweisen vor dem tatsächlichen Einsatz zu erfassen und zu testen. Als solche sind Azure Digital Twins eng mit den Azure IoT-Diensten verwandt; sie könnten jedoch noch etwas mehr leisten, wie wir im Folgenden sehen werden.

Symbolbild: Ein Ingenieur und eine Ingenieurin stehen in einer modernen Fabrik, während der Ingenieur ein Tablet bedient, mit dem er eine Maschine in der Produktionslinie steuert.

Wie werden Modelle erstellt und eingesetzt ?

Azure Digital Twins stützt sich auf die Digital Twins Definition Language (DTDL), die der JavaScript Object Notation for Linked Data (JSON-LD) folgt, wodurch sie sprachenagnostisch und mit bestimmten Ontologie-Standards verbunden ist. Die Root-Struktur wird als Schnittstelle deklariert, die Eigenschaften, Beziehungen und Komponenten enthalten kann. Eigenschaften können Telemetriedaten (ereignisbasiert, wie z. B. Temperaturmessungen) oder Werte (z. B. Name oder Gesamtverbrauch) enthalten, Beziehungen beschreiben die Verbindung zwischen Zwillingen (z. B. Etage enthält Raum), und schließlich sind Komponenten auch Modelle, die in der Schnittstelle per Id referenziert werden (z. B. Telefon hat Kamera-Komponente).

Modelle unterstützen Vererbung, daher kann man sich diese Modelle bereits als serverlose (POCOs) Klassen vorstellen. In der Tat werden aus diesen Modellen Instanzen erstellt, die in Azure Digital Twins leben. Es stellt sich die logische Frage: Wenn es sich um Klassen handelt, was ist dann mit Methoden? Hier kommen die serverlosen Azure Functions sehr gut zum Einsatz, da alle Ereignisse von Digital Twins mit Azure Functions abgefangen und verarbeitet werden können. Somit schaffen Azure Digital Twins, gepaart mit Azure Functions, eine leistungsstarke serverlose Infrastruktur, die sehr komplexe ereignisgesteuerte Szenarien implementieren kann, indem sie die bereitgestellte REST-API für die Modell- und Datenmanipulation nutzt. Der Preis für diese Flexibilität ist eine ziemlich steile Lernkurve und man muss Funktionen für die Dateneingabe und -ausgabe von Grund auf neu schreiben.

Json-Modelle können manuell erstellt werden, oder noch einfacher, Microsoft stellt Beispiel-Ontologien (vorgefertigte Domänenmodelle) in Excel zur Verfügung, die erweitert oder angepasst werden können. Mit dem Digital Twins Explorer (derzeit in der Vorschau im Azure-Portal) können diese Modelle in Azure hochgeladen werden, wobei die Erstellung von Instanzen und Beziehungen bereits automatisiert ist. Unter dem Azure Digital Twins Explorer befindet sich eine REST API, sodass man diese auch programmieren kann.

In unserer Beispielimplementierung eines intelligenten Gebäudes (siehe Abbildung 1) haben wir Modelle (links) und Instanzen mit Beziehungen (rechts) erstellt und hochgeladen. Es gibt eine Unternehmensmodellinstanz für ZEISS Digital Innovation (ZDI), die zwei Gebäude in Dresden und München hat, die jeweils Stockwerke, Räume und Aufzüge enthalten.

Screenshot aus einem Programm zur Modellierung von Azure Digital Twins
Abbildung 1: Modellierung

Wie kommen die Daten in das System?

In unserer Smart-Building-Implementierung (siehe Abbildung 2) verwenden wir den IoT-Hub, um Sensordaten aus Räumen (Temperatur, Energieverbrauch, Anzahl der Personen in den Räumen, usw.), sowie OPC-UA-konvertierte Daten aus Aufzügen, zu sammeln.

Schematische Darstellung der Architektur einer Smart-Building-Implementierung
Abbildung 2: Architektur

Normalerweise lässt sich IoT Hub mit ein paar Klicks problemlos in Insight Time Series integrieren, aber es sind einige Funktionen erforderlich, um diese Daten mit Digital Twins abzufangen. Die erste Funktion reagiert auf Änderungen im IoT Hub Event Grid und gibt Aktualisierungen an Digital Twins weiter, die dann andere Funktionen auslösen können, z. B. die Berechnung und Aktualisierung des Gesamtenergieverbrauchs im Raum und die Weitergabe an alle Eltern. Alle diese Änderungen in den Digital Twins werden in einem Update-Patch-Format an den Event Hub weitergeleitet, das von Insight Time Series nicht gelesen werden kann. Hier kommt eine weitere Funktion ins Spiel, die diese Patch-Änderungen umwandelt und sie an einen anderen Event Hub weiterleitet, den Insight Time Series abonnieren und die Daten speichern kann. Klingt über-technisch? Ist es auch! Wie bereits erwähnt, muss eine Menge Arbeit von Grund auf geleistet werden, aber wenn man sich erst einmal mit den Konzepten vertraut gemacht hat, ist der Preis die Flexibilität bei der Implementierung fast aller Szenarien. Von vertikalen Hierarchien mit Datenvermehrung (z. B. Aggregationen des Wärmeverbrauchs) bis hin zu horizontalen Interaktionen zwischen Zwillingen auf der Grundlage von Beziehungen (z. B. wenn ein Aufzug spricht und die Leistung der anderen Aufzüge im selben Gebäude auf der Grundlage eines KI-Modells beeinflusst) kann alles implementiert werden.

Eine weitere leistungsstarke Funktion besteht darin, dass wir Daten aus praktisch jeder Quelle in Digital Twins streamen und mischen können, um ihre Nutzung für Business Intelligence zu erweitern. Von ERP- und Buchhaltungssystemen bis hin zu Sensoren und OPC-UA-Servern können Daten in Echtzeit eingespeist und mit Querverweisen versehen werden, um nützliche Informationsströme zu erzeugen – von Teebeuteln, die an einem verschneiten Wintertag in der Küche ausgehen, bis hin zu der Frage, ob der monetäre Aufwand für die Aufzugswartung proportional zur Anzahl der Fahrten im Jahr ist.

Wie werden die Daten analysiert und berichtet?

In vielen industriellen Systemen und dank der immer preiswerteren Speicherung landen alle Telemetriedaten in der Regel in einer Zeitreihe zur Analyse und Archivierung.

Datenalarme, Durchschnittswerte und Aggregationen können jedoch ein echter Gewinn für die Berichterstattung in Echtzeit sein. Digitale Zwillinge bieten eine vollständige REST-API, über die Zwillinge auf der Grundlage von Beziehungen, Hierarchien oder Werten abgefragt werden können. Diese APIs können auch komponiert und in API Management Services für Echtzeitaufrufe an Dritte weitergegeben werden.

Eine andere Möglichkeit ist die Nutzung von Time Series Insights für eine umfassende Analyse kompletter Datensätze oder die Verwendung von Abfragen aus Time Series zur Erstellung interaktiver Berichte mit Power BI.

Sowohl Echtzeit- als auch historische Berichte haben ihre Berechtigung, und die optimale Nutzung sollte auf der Grundlage konkreter Szenarien bestimmt werden.

Zusammenfassung

Azure Digital Twins bieten eine sprachenagnostische Modellierung, die eine Vielzahl von Datentypen akzeptieren und verschiedene Ontologien unterstützen kann. In Verbindung mit serverlosen Funktionen können sehr komplexe und leistungsstarke interaktive Lösungen erstellt werden. Diese Flexibilität ist jedoch mit hohen Kosten für die manuelle Implementierung in den Datenfluss mittels Events und Funktionen verbunden. Aus diesem Grund ist zu erwarten, dass Microsoft (oder ein Open-Source-Anbieter) in Zukunft Middleware mit generischen Funktionen und Bibliotheken für Standarddatenflüsse bereitstellen wird.

Patientenversorgung der Zukunft – Digital Health Solutions mit Azure Health Data Services

Seit Beginn der Covid-Pandemie steht das Gesundheitswesen unter enormem Druck. Die demografische Entwicklung, der Wandel des Krankheitsspektrums, gesetzliche Vorschriften, Kostendruck und Fachkräftemangel bei gleichzeitig steigendem Anspruch der Patienten stellt Gesundheitsorganisationen vor einige Herausforderungen. Hier bieten die Digitalisierung und der Einsatz moderner Technologien wie Künstlicher Intelligenz oder Machine Learning zahlreiche Chancen und Potentiale zur Effizienzsteigerung, Fehlerreduktion und somit Verbesserung der Patientenbehandlung.

Arzt verwendet eine medizinische Applikation auf Cloud-Basis auf dem Smartphone, im Hintergrund unterhalten sich medizinische Fachkräfte
Abbildung 1: Digital Health Solutions mit Azure Health Data Services für eine optimale und zukunftsfähige Patientenversorgung

Nutzung medizinischer Daten als Basis für eine optimierte Patientenversorgung

Grundlage für die Nutzung dieser Technologien und für eine zukunftsfähige prädiktive und präventive Versorgung sind medizinische Daten. Diese finden sich bereits heute überall. Die meisten Akteure im Gesundheitswesen und die im Einsatz befindlichen Medizingeräte speichern diese aber immer noch on-premise, was zu Millionen von isolierten medizinischen Datensätzen führt. Um einen vollumfänglichen Überblick über die Krankheitsgeschichte eines Patienten zu erhalten und darauf aufbauend Behandlungspläne im Sinne einer patientenzentrierten Behandlung zu erstellen und übergreifende Erkenntnisse aus diesen Datensätzen ableiten zu können, müssen Organisationen Gesundheitsdaten aus verschiedenen Quellen integrieren und synchronisieren.

Um die Entwicklung von Ökosystemen im Gesundheitswesen zu unterstützen, bieten die großen globalen Public Cloud Provider (Microsoft Azure, Amazon Web Service und Google Cloud Platform) zunehmend spezielle SaaS- und PaaS-Dienste für den Healthcare-Sektor an, die Unternehmen eine Basis für ihre eigenen Lösungen bieten können. Durch unsere Erfahrung bei ZEISS Digital Innovation als Implementierungspartner der Carl Zeiss Meditec AG und von Kunden außerhalb der ZEISS Gruppe haben wir bereits früh erkannt, dass Microsoft ein besonders leistungsfähiges Healthcare-Portfolio bietet und dieses weiter stark ausbaut. Das wurde auch auf der diesjährigen Ignite wieder deutlich.

Screenshot aus einem Video, in dem sich zwei Personen virtuell zu einem Thema unterhalten
ZEISS Digital Innovation (re.) bei der Ignite 2021 im Gespräch darüber, wie man langfristigen Nutzen aus Gesundheitsdaten mit Microsoft Cloud for Healthcare ziehen kann. (Hier geht’s zum vollständigen Video)

Medizinische Datenplattformen auf Basis von Azure Health Data Services

Eine Möglichkeit für den Aufbau einer solchen medizinischen Datenplattform als Basis eines Ökosystems ist die Nutzung vonAzure Health Data Services. Mit Hilfe dieser Services lassen sich Speicherung, Zugriff und Verarbeitung von medizinischen Daten interoperabel und sicher gestalten. Tausende Medizingeräte können miteinander verbunden werden und die so generierten Daten von zahlreichen Anwendungen skalierbar und robust genutzt werden. Da es sich bei den Azure Health Data Services um PaaS-Lösungen handelt, sind sie „out of the box“ nutzbar und werden vollständig von Microsoft entwickelt, verwaltet und betrieben. Sie sind dadurch außerdem standardmäßig sicher und compliant und mit geringem Aufwand hoch verfügbar. Dies senkt den Implementierungsaufwand und damit auch die Kosten erheblich.

Auch die Carl Zeiss Meditec AG setzt bei der Entwicklung seines digitalen, datengesteuerten Ökosystems auf Azure Health Data Services. Das gemeinsam mit der ZEISS Digital Innovation entwickelte ZEISS Medical Ecosystem verbindet Geräte und klinische Systeme über eine zentrale Datenplattform mit Applikationen und schafft so einen Mehrwert auf verschiedenen Ebenen zur Optimierung des klinischen Patientenmanagements.

Als zentrale Schnittstelle für die Geräteanbindung wird hier der DICOM Service der Azure Health Data Services genutzt. Da DICOM ein offener Standard zur Speicherung und zum Austausch von Informationen im medizinischen Bilddatenmanagement ist, kommunizieren ein Großteil der medizinischen Geräte, die Bilddaten generieren, mithilfe des DICOM-Protokolls. Durch eine erweiterbare Konnektivitätslösung, die auf Azure IoT Edge basiert, können diese Geräte unter Verwendung des DICOM-Standards direkt mit der Datenplattform in Azure verbunden werden. Dies ermöglicht die Integration einer Vielzahl von Geräten, die bereits seit Jahren bei Kunden im Einsatz sind, in das Ökosystem. Dies erhöht die Akzeptanz und sorgt dafür, dass mehr Daten in die Cloud fließen und weiterverarbeitet werden können, um klinische Anwendungsfälle zu ermöglichen und neue Verfahren zu entwickeln.

Als zentraler Data Hub der Plattform dient Azure API for FHIR®. Dort werden alle Daten des Ökosystems strukturiert gespeichert und miteinander verknüpft, um sie zentral auffindbar zu machen und den Applikationen zur Verfügung zu stellen. HL7® FHIR® (Fast Healthcare Interoperability Resources) bietet ein standardisiertes und umfassendes Datenmodell für Daten im Gesundheitsweisen. Damit können nicht nur einfache und robuste Schnittstellen zu den eigenen Anwendungen umgesetzt werden, sondern auch die Interoperabilität mit Drittsystemen wie EMR-Systemen (Electronic Medical Record), Krankenhausinformationssystemen oder der elektronischen Patientenakte sichergestellt werden. Die Daten aus den medizinischen Geräten, historische Messdaten aus lokalen PACS-Lösungen und Informationen aus anderen klinischen Systemen werden nach dem Hochladen automatisch weiterverarbeitet, strukturiert und zentral in Azure API for FHIR® aggregiert. Dies ist ein Schlüsselfaktor, um mehr wertvolle Daten für klinische Anwendungsfälle zu sammeln und den Kunden ein nahtlos integriertes Ökosystem zu bieten.

Schematische Darstellung des Aufbaus einer medizinischen Datenplattform mit Azure Healthcare APIs
Abbildung 2: Aufbau einer medizinischen Datenplattform mit Azure Health Data Services

Erfolgreiche Zusammenarbeit von ZEISS Digital Innovation und Microsoft

Als Early Adopter der Azure Health Data Services arbeiten unsere Entwicklungsteams bei ZEISS Digital Innovation eng mit der Produktgruppe der Azure Health Data Services im Microsoft Headquarter in Redmond, USA, zusammen und gestalten so die Services im Sinne unserer Kunden mit. In regelmäßigen Co-Creation-Sessions zwischen den Teams der ZEISS Digital Innovation und Microsoft wird das Lösungsdesign für aktuell implementierte Features der Azure Health Data Services diskutiert. So können wir sicherstellen, dass auch die komplexesten derzeit bekannten Anwendungsfälle berücksichtigt werden.

We are working very closely with ZEISS Digital Innovation to shape Azure’s next generation health services alongside their customer needs. Their strong background in the development of digital medical products for their customers is a core asset in our collaboration and enables the development of innovative solutions for the healthcare sector.

Steven Borg (Director, Medical Imaging at Microsoft)

Profitieren auch Sie von unserem Know-how und kontaktieren Sie uns. Wir erarbeiten gemeinsam die Vision Ihrer innovativen Lösung und unterstützen Sie bei der Implementierung.

Dieser Beitrag wurde verfasst von:

Elisa Kunze

Elisa Kunze ist seit 2013 bei der ZEISS Digital Innovation tätig und konnte dort bei ihren unterschiedlichen Tätigkeiten im Sales und Marketing viele Projekte, Teams und Unternehmen in unterschiedlichsten Branchen kennenlernen und begleiten. Heute betreut sie als Key Account Managerin ihre Kunden im Health Sector bei der Umsetzung ihrer Projektvisionen.

Alle Beiträge des Autors anzeigen