Data Ingestion als Grundbaustein einer industriellen Datenplattform – Teil 1

In der heutigen digitalen Welt ist die Fähigkeit, Daten effizient und effektiv zu verwalten, von entscheidender Bedeutung für den Erfolg jeder industriellen Datenplattform. Ein zentraler Bestandteil dieses Prozesses ist die sogenannte „Data Ingestion“ oder Datenaufnahme. Aber was genau bedeutet Data Ingestion? Einfach ausgedrückt, handelt es sich dabei um den Prozess, bei dem Daten aus verschiedenen Quellen gesammelt, in eine zentrale Datenplattform übertragen und dort für die weitere Verarbeitung und Analyse gespeichert werden. In der Fertigungsindustrie spielt Data Ingestion eine besonders wichtige Rolle, da hier oft große Mengen an Daten aus unterschiedlichen Quellen zusammengeführt werden müssen. Diese Daten können beispielsweise Informationen über Produktionsprozesse, Maschinenzustände, Lieferketten und Qualitätskontrollen umfassen. Durch die Analyse dieser Daten können Unternehmen wertvolle Einblicke in Produktionsengpässe, Maschinenleistung und Produktqualität gewinnen, was zu Optimierungen in der Effizienz der Produktionsabläufe und der Reduzierung von Kosten führt.

Abbildung 1: Transparente Produktionsabläufe durch moderne Dashboards mit Echtzeitdaten

Eine industrielle Datenplattform besteht aus mehreren Komponenten, wobei die Speicherung der Daten (Storage) eine entscheidende Funktion hat. Die Architektur einer solchen Plattform muss so gestaltet sein, dass sie die effiziente Aufnahme, Speicherung und Verarbeitung von Daten ermöglicht. Dies ist besonders wichtig, um die Performance und Skalierbarkeit der Plattform sicherzustellen.

Die Fertigungsindustrie steht vor spezifischen Herausforderungen, wenn es um die Datenaufnahme geht. Zum einen sind die Datenvolumina oft sehr hoch, da Maschinen und Sensoren kontinuierlich Daten generieren. Zum anderen stammen die Daten aus unterschiedlichen Quellen und Formaten, was die Integration erschwert. Hinzu kommen Echtzeitanforderungen, da viele Anwendungen in der Fertigung eine sofortige Verarbeitung der Daten erfordern, um beispielsweise Produktionsprozesse zu optimieren oder Ausfälle zu vermeiden.

Das Ziel dieses Artikels ist es, einen umfassenden Überblick über das Thema Data Ingestion in industriellen Datenplattformen zu geben. Im ersten Teil werden die verschiedenen Methoden und Techniken der Datenaufnahme erläutert und wir gehen auf Konzepte der Datenspeicherung ein. Wichtig ist dabei, zu verstehen, welche Vor- und Nachteile die verschiedenen Herangehensweisen haben. Im zweiten Teil diskutieren wir häufige Herausforderungen und stellen mögliche Lösungsansätze vor. Dabei legen wir besonderen Wert darauf, die Konzepte leicht verständlich zu erklären und durch konkrete Anwendungsbeispiele zu veranschaulichen.

Arten von Datenquellen in der Fertigungsindustrie

In der Fertigungsindustrie gibt es eine Vielzahl von Datenquellen, die für die Optimierung und Überwachung von Produktionsprozessen genutzt werden. Zu den wichtigsten gehören:

  1. Sensor- und Maschinendaten: Maschinen und Produktionsanlagen sind häufig mit Sensoren ausgestattet, die kontinuierlich Daten über Temperatur, Druck, Vibrationen und andere Betriebsparameter erfassen. Darüber hinaus generieren die Maschinen selbst auch wichtige Daten, wie z.B. Betriebszustände und Fehlermeldungen. Sowohl die Sensordaten als auch die maschinenspezifischen Daten sind entscheidend für die vorausschauende Wartung und die Optimierung der Maschinenleistung. Da die Sensordaten in vielen Fällen nicht direkt zugänglich sind, erfolgt der Zugriff häufig über die Maschinenebene, beispielsweise über eine speicherprogrammierbare Steuerung (SPS).
  2. SCADA-Systeme (Supervisory Control and Data Acquisition): SCADA-Systeme überwachen und steuern industrielle Prozesse auf höherer Ebene. Sie sammeln Daten von verschiedenen Sensoren und Steuergeräten und ermöglichen die Fernüberwachung und -steuerung von Produktionsanlagen.
  3. MES-Systeme (Manufacturing Execution Systems): MES-Systeme überwachen und steuern Produktionsprozesse in Echtzeit. Sie erfassen Daten über Produktionsaufträge, Maschinenauslastung und Produktionsqualität.
  4. ERP-Systeme (Enterprise Resource Planning): ERP-Systeme verwalten betriebswirtschaftliche Prozesse wie Beschaffung, Produktion, Vertrieb und Personalwesen. Sie liefern wertvolle Daten über Materialflüsse, Produktionspläne und Bestandsmanagement.
  5. Qualitätskontrollsysteme: Diese Systeme erfassen Daten über die Qualität der produzierten Waren. Sie helfen dabei, Qualitätsprobleme frühzeitig zu erkennen und Maßnahmen zur Verbesserung der Produktqualität zu ergreifen.
  6. Externe Datenquellen: Umwelt- und Wetterdaten können ebenfalls eine wichtige Rolle spielen, insbesondere in Branchen, die stark von äußeren Bedingungen beeinflusst werden. Diese Daten können genutzt werden, um Produktionsprozesse an wechselnde Umweltbedingungen anzupassen.
Abbildung 2: Datenquellen in der Produktion

Datenformate

Die in der Fertigungsindustrie verwendeten Datenquellen liefern Daten in verschiedenen Formaten. Zu den gängigsten Formaten gehören:

  • CSV (Comma-Separated Values): Ein einfaches Textformat, das häufig für tabellarische Daten verwendet wird. CSV lässt sich einfach mit Microsoft Excel erzeugen und verarbeiten.
  • XML (Extensible Markup Language): Ein weit verbreitetes Datenformat in der industriellen Maschinenanbindung, das durch XSD (XML Schema Definition) ergänzt wird, um die Struktur und Validität der Daten präzise zu definieren. Während neuere Formate wie JSON zunehmend an Bedeutung gewinnen, bleibt XML aufgrund seiner Robustheit und Kompatibilität mit bestehender Infrastruktur weiterhin ein wichtiger Bestandteil in vielen industriellen Anwendungen.
  • JSON (JavaScript Object Notation): Ein weit verbreitetes Format für strukturierte Daten, das leicht von Maschinen und Menschen gelesen werden kann.
  • OPC UA (Open Platform Communications Unified Architecture): Ein plattformunabhängiges Kommunikationsprotokoll, das speziell für die industrielle Automatisierung entwickelt wurde. Besonders hilfreich sind hier genormte semantische Datenmodelle in Form von Companion Specifications.
  • Bilder: In der Fertigungsindustrie werden häufig Bilddaten verwendet, beispielsweise von Kameras zur Qualitätskontrolle oder zur Überwachung von Produktionsprozessen. Diese Bilddaten können wertvolle Informationen liefern, die zur Optimierung der Produktionsabläufe beitragen.
  • Dokumente: Dazu gehören Formate wie PDF, die oft technische Spezifikationen, Handbücher oder Berichte enthalten. PDF-Dokumente können zusätzlich eingebettete XML-Daten beinhalten, die strukturierte Informationen enthalten und somit die Datenanalyse erleichtern.
  • Proprietäre Formate: Viele Maschinen und Systeme verwenden herstellerspezifische Datenformate, die oft speziell auf die Anforderungen der jeweiligen Anwendung zugeschnitten sind.

Datenvolumen und -geschwindigkeit

In der Fertigungsindustrie werden große Mengen an Daten generiert, die in unterschiedlichen Frequenzen und Geschwindigkeiten anfallen. Typischerweise können Sensordaten in Echtzeit oder in sehr kurzen Intervallen (Millisekunden bis Sekunden) erfasst werden, was zu einem hohen Datenvolumen führt. ERP- und MES-Systeme liefern in der Regel Daten in längeren Intervallen (Minuten bis Stunden), während Qualitätskontrollsysteme je nach Produktionszyklus variieren können.

Die Geschwindigkeit, mit der diese Daten an die zentrale Datenplattform übertragen werden, hängt von der Art der Datenquelle und den spezifischen Anforderungen der Anwendung ab. Echtzeitdaten müssen oft sofort verarbeitet werden, während andere Daten in regelmäßigen Abständen gesammelt und übertragen werden können.

Weitere Informationen zu typischen Anwendungsfällen nach Latenzbereich sind im Whitepaper Industrial Data Platform zu finden.

Datenzugriffsoptionen

Es gibt verschiedene technische Möglichkeiten, um auf die Datenquellen in der Fertigungsindustrie zuzugreifen:

  • Logfiles: In einer Fertigungsanlage protokollieren Maschinen Fehlerereignisse und Betriebszeiten in Logfiles. Diese Logfiles können regelmäßig ausgelesen werden, um den Zustand der Maschinen zu überwachen und um Fehleranalysen durchzuführen.
  • Dateizugriff: Ein Fertigungsunternehmen kann Sensordaten von Produktionslinien in CSV-Dateien speichern. Diese Dateien werden dann in einem zentralen Netzwerkspeicher abgelegt, wo sie von Datenanalysten abgerufen und analysiert werden können, um Produktionsmuster zu erkennen. Weitere Anwendungsgebiete für Dateizugriff sind Bilddaten oder Prüfberichte aus der Qualitätssicherung.
  • SQL (Structured Query Language): Eine Produktionsdatenbank kann Informationen über Bestände, Produktionspläne und Lieferketten enthalten. Ingenieure und Datenanalysten können SQL-Abfragen verwenden, um selektiv Daten abzurufen und daraus beispielsweise spezifische Berichte zu generieren.
  • CDC (Change Data Capture): Diese Technik erfasst Änderungen in Datenbanken bei ihrer Entstehung und überträgt sie an die zentrale Datenplattform. Das ist insbesondere für Anwendungsfälle interessant, bei denen sehr zeitnah (in Quasi-Echtzeit) auf Veränderungen reagiert werden soll. Damit ist eine engmaschige Überwachung von Prozessparametern und das rechtzeitige Einleiten von Gegenmaßnahmen bei erkannten Abweichungen möglich.
  • API (Application Programming Interface): Viele Systeme bieten APIs an, über die Daten programmgesteuert abgerufen werden können. Ein Anwendungsgebiet ist die Integration eines Produktionsplanungssystems mit einem ERP-System, um Produktionspläne und Materialbedarfe automatisch zu synchronisieren.
  • Messaging: In einer vernetzten Fertigungsumgebung kann ein MQTT-basiertes System verwendet werden, um Sensordaten von verschiedenen Maschinen an eine zentrale Steuerungseinheit zu senden. Dies ermöglicht eine Echtzeitüberwachung und Steuerung der Produktionsprozesse, was besonders in Industrie 4.0-Anwendungen wichtig ist. Apache Kafka als Lösung für die Speicherung und Verarbeitung von Datenströmen kann verwendet werden, um große Datenmengen von IoT-Geräten zu verarbeiten und zu analysieren. Es kann damit zur Optimierung von Produktionsprozessen eingesetzt werden.

Best Practices: Um die Belastung der primären Datenquelle gering zu halten, kann es sinnvoll sein, Read Replicas zu verwenden. Diese Kopien der Datenbank können für Lesezugriffe genutzt werden, ohne die Performance der Hauptdatenbank zu beeinträchtigen.

Durch die Kombination dieser verschiedenen Datenquellen, Formate und Zugriffsoptionen kann eine industrielle Datenplattform wertvolle Einblicke in die Produktionsprozesse liefern und zur Optimierung der gesamten Fertigung beitragen.

Datenspeicherung in der Plattform: Das Konzept eines Data Lakehouse

In der modernen Datenarchitektur hat sich das Konzept des Data Lakehouse als eine vielversprechende Lösung etabliert, welche die Vorteile von Data Lakes und Data Warehouse kombiniert. Ein Data Lakehouse ermöglicht die Speicherung und Verarbeitung großer Mengen an strukturierten und unstrukturierten Daten in einem einheitlichen System, was es Unternehmen erleichtert, wertvolle Erkenntnisse aus ihren Daten zu gewinnen.

Formate für die Datenspeicherung

Ein zentrales Merkmal von Data Lakehouse ist die Verwendung effizienter Speicherformate, die eine schnelle Abfrage und Analyse der Daten ermöglichen. Zu den gängigsten Formaten gehören:

  • Parquet: Ein spaltenbasiertes Speicherformat, das für die Speicherung von großen Datenmengen optimiert ist. Parquet ermöglicht eine effiziente Datenkompression und -kodierung, was die Speicherkosten senkt und die Abfragegeschwindigkeit erhöht.
  • Delta Lake: Eine Open-Source-Speicherlösung, die auf dem Apache Parquet Format aufbaut und ACID-Transaktionen unterstützt. Delta Lake ermöglicht es, Daten in einem Data Lake zu speichern und gleichzeitig die Vorteile eines Data Warehouse zu nutzen, indem es eine strukturierte Abfrage und Datenintegrität gewährleistet.
  • Apache Iceberg: Ein weiteres Open-Source-Projekt, das eine flexible und leistungsstarke Lösung für die Verwaltung von großen Datenmengen in Data Lakehouses bietet. Iceberg unterstützt komplexe Datenabfragen und ermöglicht eine einfache Verwaltung von Datenversionen.

Vergleich mit Data Warehouse und Data Lake

Data Warehouses sind darauf ausgelegt, strukturierte Daten in festen Schemas zu speichern und bieten leistungsstarke Abfragefunktionen für Business Intelligence und Reporting. Sie sind ideal für Unternehmen, die konsistente, strukturierte Daten benötigen, um historische Analysen und Berichte zu erstellen. Allerdings können sie teuer und weniger flexibel sein, wenn es um die Speicherung und Verarbeitung unstrukturierter Daten geht.

Data Lakehouses hingegen nutzen kostengünstige Object Storage Services wie Amazon S3 oder Azure Blob Storage. Dieses Merkmal wurde von Data Lakes übernommen, jedoch lassen sich mit den oben genannten Speicherformaten auch strukturierte Daten darin ablegen. Eine solche Speicherlösung bieten eine nahezu unbegrenzte Skalierbarkeit und Flexibilität, was es ermöglicht, große Datenmengen zu speichern, ohne sich um die Infrastruktur kümmern zu müssen. Die Nutzung von Object Storage reduziert nicht nur die Kosten für die Datenspeicherung, sondern ermöglicht es, Daten aus verschiedenen Quellen zu integrieren und mit modernen Analysewerkzeugen zu verarbeiten, was besonders für datenintensive Anwendungen wie maschinelles Lernen und Echtzeitanalysen vorteilhaft ist.

Im Gegensatz zu klassischen Data Warehouses lassen sich in einem Data Lakehouse Datenspeicherung und -verarbeitung unabhängig voneinander skalieren. Insbesondere durch eine zeitnahe und bedarfsgerechte Bereitstellung von Rechenkapazitäten können die Vorteile der Cloud effektiv genutzt werden. Sehr große Datenmengen können somit in kürzerer Zeit verarbeiten werden. Umgekehrt führt eine unkomplizierte Freigabe dieser Ressourcen zur Kostenersparnis in Zeiten geringeren Bedarfs.

Bronze Stage der Medaillionarchitektur

Die Medaillonarchitektur in Datenplattformen ist ein Ansatz, bei dem Daten in mehreren Schichten organisiert werden, um ihre Qualität und Verwendbarkeit schrittweise zu verbessern. Diese Schichten umfassen die Bronze-Schicht für Rohdaten, die Silber-Schicht für bereinigte Daten, bei denen fehlerhafte, unvollständige oder inkonsistente Daten korrigiert oder entfernt werden, und die Gold-Schicht für angereicherte Daten, die durch Hinzufügen zusätzlicher Informationen oder durch Aggregation weiter verfeinert wurden. Dadurch wird eine strukturierte und effiziente Datenverarbeitung ermöglicht.

Abbildung 3: Medaillonarchitektur innerhalb der Datenplattform

Ein wichtiger Aspekt der Datenspeicherung in einem Data Lakehouse ist die Bronze Stage der Medaillionarchitektur. In dieser Phase erfolgt die erste Aufnahme der Daten, die aus verschiedenen Quellen stammen (s. Arten von Datenquellen). Die Daten werden in ihrem Rohformat gespeichert, was bedeutet, dass sie noch nicht bereinigt oder transformiert wurden. Diese Bronze Stage dient als zentrale Ablage für alle eingehenden Daten und ermöglicht es Unternehmen, eine vollständige Historie ihrer Daten zu bewahren.

Die Bronze Stage ist entscheidend für die Data Ingestion, da sie die Grundlage für die nachfolgenden Stufen (Silber und Gold) bildet, in denen die Daten weiterverarbeitet, angereichert und für Analysen optimiert werden. Durch die Speicherung in der Bronze-Stufe haben Unternehmen jederzeit Zugriff auf die ursprünglichen Daten. Dies ist besonders wichtig für Audits, da es Transparenz und Nachvollziehbarkeit gewährleistet. Für Datenanalysen bietet der Zugriff auf die Rohdaten die Flexibilität, neue Analysemethoden zu testen oder bestehende Analysen zu validieren, indem man auf die ursprünglichen Daten zurückgreift.

Fazit

Data Ingestion ist ein zentraler Bestandteil industrieller Datenplattformen, der es ermöglicht, Daten aus verschiedenen Quellen effizient zu sammeln und für die Analyse zu speichern. In der Fertigungsindustrie ist dies besonders wichtig, da große Datenmengen in Echtzeit verarbeitet werden müssen, um Produktionsprozesse zu optimieren. Dabei bietet die Speicherung von Daten in einem Data Lakehouse unter Verwendung effizienter Formate wie Parquet, Delta Lake oder Apache Iceberg in kostengünstigen Cloud Object Storage Services zahlreiche Vorteile. Durch die Implementierung einer Medaillionarchitektur mit einer klaren Bronze Stage für die Data Ingestion können Unternehmen sicherstellen, dass sie eine robuste und flexible Dateninfrastruktur aufbauen, die ihnen hilft, wertvolle Einblicke aus ihren Daten zu gewinnen und ihre Produktionsprozesse zu optimieren.

Entscheidend für den Erfolg ist, dass sich die Implementierung einer Datenplattform an konkreten Anwendungsfällen orientiert. Denn nur die Nutzung der Daten schafft schließlich die erfolgsversprechenden Mehrwerte. Genau diese Anwendungsfälle sind das beste Indiz dafür, mit welchen Schritten begonnen werden sollte. So ist es ratsam diese z.B. nach schnellem Return on Investment (ROI) oder Quick Wins zu priorisieren. Es ist nicht notwendig gleich zu Beginn alle Elemente der Datenplattform zu implementieren, sondern diese Infrastruktur in einer sinnvollen Reihenfolge wachsen zu lassen.

Dieser Beitrag wurde verfasst von:

Christian Heinemann

Christian Heinemann ist Diplom-Informatiker und arbeitet als Solution Architect bei der ZEISS Digital Innovation am Standort Leipzig. Seine Arbeitsschwerpunkte liegen in den Bereichen verteilte Systeme, Cloud-Technologien und Digitalisierung im Bereich Manufacturing. Christian verfügt über mehr als 20 Jahre Projekterfahrung in der Softwareentwicklung. Er arbeitet mit verschiedenen ZEISS-Einheiten sowie externen Kunden zusammen, um innovative Lösungen zu entwickeln und umzusetzen. 

Die zentrale Datenplattform als Schlüssel zukunftsfähiger Produktionsprozesse

Die moderne industrielle Produktion erfordert eine Erweiterung und Digitalisierung der klassischen Produktionsflusssteuerung, wenn Intelligenz und Vernetzung ermöglicht werden sollen. Dabei ist es notwendig, alle Ebenen der Automatisierungspyramide mithilfe von digitalen Lösungen und Datenverarbeitungssystemen zu verbinden und zu integrieren.

In der heutigen Zeit gibt es zahlreiche neue Technologien, wie Künstliche Intelligenz, Digital Twins oder Argumented Reality, die für eine smarte Produktion der Zukunft immer wichtiger werden. Um diese innovativen Methoden zum Einsatz zu bringen, ist eine Anbindung an vorhandene Systeme notwendig, was jedoch bisher nur eingeschränkt möglich ist. Eine standardisierte Herangehensweise zur Bereitstellung von Daten für den Einsatz Künstlicher Intelligenz oder zur Erstellung von Digitalen Zwillingen fehlt beispielsweise. Auch neue Anwendungsfälle, wie Vorausschauende Wartung, erfordern einen individuellen Zugriff auf die benötigten Daten. Nur durch enge Zusammenarbeit zwischen den Abteilungen und mit einer klaren Strategie für die Integration können neue Technologien und deren Anwendung erfolgreich umgesetzt werden.

Machbarkeit im Brownfield

Abbildung 1: Zugriff und Bereitstellung von Daten in einer neuen, dritten Dimension

Die meisten digitalen Transformationsprojekte finden in Brownfield-Produktionsumgebungen statt. Das bedeutet, dass die Fertigungsanlagen bereits in Betrieb sind und es aus wirtschaftlicher Sicht notwendig ist, Lösungen zu finden, die mit den vorhandenen Maschinen und Softwaresystemen integriert werden können. Die Entwicklung hin zu einer smarten Produktion benötigt neue Austauschkanäle, die eine dritte Dimension des Datenflusses eröffnen und es ermöglichen, vorhandene Daten zentral zur Verfügung zu stellen. Dabei ist es unwirtschaftlich, diese neuen Kanäle mit jedem Projekt neu zu implementieren. Es empfiehlt sich ein generischer Ansatz, bei dem Daten Anwendungsfall-unabhängig aus den jeweiligen Produktionssystemen geladen und homogen bereitgestellt werden. Eine zentrale Datenplattform, auf der alle vorhandenen Produktionsinformationen zugänglich gemacht werden, ermöglicht einen unabhängigen, flexiblen und skalierbaren Weg für die Weiterentwicklung und Optimierung der Produktionsprozesse.

Vorteile der zentralen Datenplattform

  • Demokratische Bereitstellung vorhandener Maschinendaten aus dem Brownfield
  • Schnelle Anbindung neuer Technologien
  • Umsetzung innovativer Anwendungsfälle
  • Einfache Umsetzung von Datentransparenz und Data Governance
  • Zugriff auf historische Daten und Echtzeitdaten
  • Skalierbare Anwendungsentwicklung
  • Erhöhte Effizient und Qualität beim Datentransfer

Herausforderungen der Datenverarbeitung

Es gibt definierte Schnittstellen für einzelne Systeme, die beispielsweise das Auslesen von Daten aus ERP oder MES-Systemen problemlos ermöglichen. Bei einem SCADA-System sieht es jedoch anders aus, da dieses sehr heterogen und domainspezifisch aufgebaut ist. Die Schnittstellen sind hier, sowie auch bei den untergeordneten Maschinensteuerungen (SPS), nicht einheitlich definiert.

Use case

Unser Beispiel zeigt einen klassischen induktiven Sensor, bei dem in den meisten Fällen nur das Signal „Sensor Ein/Aus“ genutzt wird. Die folgenden Funktionen sind bereits werksseitig implementiert und könnten zusätzlich ausgewertet werden:

  • Schaltermodus
  • Schaltzyklus Zähler, Zähler zurücksetzen
  • Betriebsstundenzähler
  • Absorption (analoger Messwert des elektrischen Feldes)
  • Innentemperatur
  • Geräteinformationen
  • Anwendungsspezifische Kennung, Anlagenkennung, Standortcode

Unabhängig vom vorhandenen Austauschkanal gibt es auf allen Ebenen Herausforderungen im Zusammenhang mit Daten. Beispiele sind Datenschutz, geschaffene Datensilos, die Verarbeitung von Massendaten, die Interaktion zwischen Mensch und Maschine oder auch nicht vorhandene oder standardisierte Kommunikationskanäle.

Angesichts der sehr heterogenen Infrastruktur in der Fertigung können individuell auf die Bedingungen angepasste Lösungen Abhilfe schaffen und sich den spezifischen Herausforderungen auf den einzelnen Ebenen widmen. Daten-Governance und -sicherheit sowie Cybersicherheit sind dabei berücksichtigt.

Abbildung 2: Herausforderungen bei Technologie und Kommunikation

Ganzheitlicher Ansatz

Abbildung 3: Integration aller für die Produktion relevanten Daten

Für die optimale Verkettung von Informationen und die damit verbundenen Vorteile, wie effiziente Ressourceneinsatz, Produktivitäts- und Qualitätssteigerung, sind nicht nur die Daten der Produktionsflusssteuerung relevant. Unternehmen haben eine Vielzahl von Parametern zu berücksichtigen:
Einsatz- und Wartungsplanung, Lagerhaltung, Personalverfügbarkeiten und vieles mehr. Die logische Verknüpfung dieser Daten ist größtenteils nur manuell möglich. Durch die Verfügbarkeit all dieser Informationen in digitaler Form könnte jedoch viel Zeit eingespart werden. Die Komplexität dieses Themas und die sehr unterschiedlichen Voraussetzungen einzelner Produktionsumgebungen machen deutlich, dass Standardlösungen nicht genügen, um den optimalen Weg hin zu einer uneingeschränkten Datenverfügbarkeit und somit zu neuen Technologien zu ebnen. Wichtig ist es also, sich zunächst mit den Anwendungsfällen auseinanderzusetzen, die den größten Mehrwert schaffen.

Die Vision für mehr Effizienz, Flexibilität und Qualität

Eine umfassende Werk-zu-Werk-Kommunikation zur Verbesserung der Produktionsabläufe und zur Ursachenerkennung bei Qualitätsproblemen kann durch eine zentrale Datenplattform realisiert werden. Dabei können bereitgestellte Daten über standardisierte Schnittstellen werksübergreifend ausgetauscht werden. Dieser voll automatisierte Informationsaustausch hat zahlreiche positive Effekte auf die Produktion. Die Produktionsplanung und -steuerung kann flexibel auf Informationen von Zulieferern und Kunden reagieren. Durch Echtzeitdaten werden Engpässe und Probleme schneller erkannt und behoben. Auch Qualitätsabweichungen lassen sich werksübergreifend auf ihre Ursache zurückführen und wiederkehrende Probleme durch frühzeitige Anomalieerkennung vermeiden. Der Datenaustausch ermöglicht es zudem, Transport- und Logistikkosten zu reduzieren. Die direkte Kommunikation zwischen den Werken verbessert auch die Zusammenarbeit: Durch den Austausch von Wissen und Erfahrungen können neue Ideen und Innovationen entstehen, die die Produktion weiter verbessern.

Werksübergreifende Kommunikation in der Halbleiter- und Automobilproduktion

Abbildung 4: Datentransparenz in der Waferproduktion von Front-End bis Back-End (Semiconductor)
Abbildung 5: Datenintegration für effizientere und zukunftsfähige Kommunikation von Zulieferern und Herstellern (Automotive)

Reifegrad der Datenplattform

Wie eingangs beschrieben bildet die Verfügbarkeit von Daten die Basis für zukünftige Technologien. Eine zentrale Datenplattform ermöglicht diesen Zugang. Der tatsächliche Mehrwert entsteht, wenn die erfassten Daten genutzt und in der Produktion sinnvoll eingesetzt werden können. Dazu müssen Anwendungen an die Plattform angebunden werden, die dies ermöglichen.

Ein Zukunftsszenario beschreibt einen einheitlichen Datenspeicher, auf den sämtliche Applikationen über unterschiedliche Produktionen hinweg zugreifen. Durch die Nutzung der Datenplattform können sich die
Applikationen untereinander austauschen und weitere Speicherorte werden obsolet.

Bei einer Entscheidung für die Transformation hin zu einer zentralen Datenplattform empfehlen wir, iterativ vorzugehen und in einer geeigneten Geschwindigkeit Kommunikationskanäle und Systeme weiterzuentwickeln. Der Vorteil einer individuellen Softwareentwicklung besteht darin, dass diese sich gemäß den Voraussetzungen und Anforderungen des jeweiligen Unternehmens mitentwickelt und somit immer die nötige Balance zwischen Evolution und Revolution gehalten werden kann. Im ersten Schritt beginnen wir demnach meist mit dem Data Engineering. Wir
berücksichtigen aber auch zukünftige Anwendungsfälle in unserer Architektur und bedenken diese in der Weiterentwicklung.

Fazit

Die Zusammenführung von Daten aus verschiedenen Schichten der Automatisierungspyramide und anderen Datensilos auf einer homogenen Plattform ermöglicht es Unternehmen, ihre Daten vollständig zu demokratisieren und zu transformieren. Regeln zur Datenverwaltung helfen dabei, die Datenqualität und -sicherheit zu gewährleisten. Ein Cloud-basierter Ansatz bietet dabei viele Vorteile, wie Skalierbarkeit und Flexibilität. Durch die Nutzung einer zentralen Datenplattform sind Unternehmen in der Lage, ihre Daten effektiver zu nutzen und ihr volles Potenzial auszuschöpfen.

Weitere Informationen finden Sie in unserem Whitepaper: Industrial Data Platform

Der digitale Zwilling als eine Säule von Industrie 4.0

Ab den 1970er Jahren hielten Computer und Automatisierungstechnik Einzug in die Produktion. Flexible Massenproduktion war nun abseits von Fließbändern möglich. Maschinen wurden hinsichtlich maximalem Werkstückdurchsatz optimiert. Dieser bis in die 2000er Jahre anhaltende Prozess wird allgemein als dritte industrielle Revolution bezeichnet.

Die nun in den 2010er Jahren u.a. von der Bundesregierung postulierte „Industrie 4.0“ hat andere Ziele. Da die Produktivzeiten von Maschinen und ganzen Produktionstrecken in vielen Branchen weitestgehend optimiert sind, nimmt man sich nun der Optimierung von unproduktiven Zeiten an. Unproduktive Zeiten bestehen im Wesentlichen aus den Zuständen Maschinenstillstand und Ausschussproduktion.

Zwei wesentliche Ansätze zur Optimierung der unproduktiven Zeiten

Streben nach einer 100% Auslastung aller Maschinen

Erfüllen meine Produktionsmaschinen gerade nicht die Aufgabe, für die sie eingekauft und installiert worden sind, sind sie unproduktiv und erwirtschaften keinen Mehrwert. Man unterscheidet in geplanten und ungeplanten Stillstand. Einem geplanten Stillstand wird entgegengewirkt, indem man die Maschine flexibel an mehreren Stellen in der Produktionskette einsetzt. So wird insgesamt eine höhere Auslastung erreicht. Ein gut vorstellbares Beispiel ist ein 6-Achs Roboter mit einem Greifer, den man flexibel von einem Arbeitsplatz zum nächsten bringen kann, je nachdem, wo gerade Arbeit zu verrichten ist. Bei diesem Konzept spricht man von Wandelbarkeit der Produktion. Ungeplante Stillstände gehen meist auf Komponenten- und Baugruppenausfälle innerhalb einer Maschine zurück. Hier gilt es, die Wartung von Maschinen so zu organisieren, dass nur innerhalb von geplanten Zeiträumen Wartungen durchgeführt werden (vorausschauende Wartung).

Reduzierung des Ausschusses

Ein zweiter großer Ansatzpunkt ist die Reduzierung des Ausschusses. Dabei unterstützt die Prozesskontrolle, die nach jedem Arbeitsgang oder schon während eines Arbeitsganges erfolgen sollte. Aufbauend auf die Prozesskontrolle ist die Prozessregelung. Dabei werden Erkenntnisse aus der Prozesskontrolle zurück in den Arbeitsgang (Prozess) geführt und somit das Ergebnis der nächsten Durchführung des Arbeitsganges verbessert. Bei einem einzelnen Arbeitsgang kann man sich dieses Vorgehen noch sehr gut vorstellen: z.B. wird nach dem Fräsen einer Kreiskontur der Durchmesser des Kreises gemessen, bewertet und bei Abweichungen entsprechend das Fräsprogramm für das nächste Teil angepasst. Komplexere Ansätze verfolgen das Ziel, eine Prozesskontrolle über mehrere Arbeitsschritte oder sogar über Arbeitsschritte verteilt auf mehrere Unterlieferanten zu steuern.

Daten als Schlüssel zur besseren Planung

Beide Ansätze zur Produktionsoptimierung werden zum großen Teil über eine bessere Planung und Kontrolle von Prozessen beeinflusst. Bessere Planung bedingt einen deutlich größeren Pool an verschiedensten Daten, die gezielt ausgewertet werden müssen. Dabei übersteigen die Anzahl und Detaillierung der Daten die Auffassungsgabe von Menschen deutlich. Es werden komplexe Softwarelösungen gebraucht, um einen Nutzen (Mehrwert) aus diesen Daten zu erzeugen.

Je nach Reifegrad der Daten und Reifegrad der Auswertungen werden die Entscheidungen, die ein Mensch in einem Produktionsumfeld treffen muss, mehr und mehr durch Software unterstützt, bis hin zur völligen Autonomie der Produktion. Um den aktuellen Zustand der eigenen Produktion zu reflektieren, hilft das in Abbildung 1 dargestellte Data Analytics Maturity Model. Es zeigt eine Übersicht zum Zusammenhang zwischen Reifegrad der Daten und den möglichen Auswirkungen von Software auf den Entscheidungsprozess.

Data Analytics Maturity Model. Abbildung frei nach Hagerty
Abbildung 1: Data Analytics Maturity Model. Abbildung frei nach Hagerty[1]

In der niedrigsten Stufe des Modells (Descriptive) geben die Daten nur Auskunft über die in der Vergangenheit liegenden Ereignisse einer Maschine oder einer Produktionstrecke. Es benötigt viel menschliche Interaktion, Diagnose und zuletzt eine menschliche Entscheidung, um die geeignete Maschinenaktion auszulösen und umzusetzen. Je reifer die Daten sind (Diagnostic und Predictive Stufe), umso weniger menschliche Interaktion ist notwendig. In der höchsten angestrebten Stufe (Prescriptive) ist es möglich, dass Software völlig autonom alle Produktionsvorgänge plant und umsetzt.

Aspekte von Daten eines digitalen Zwillings

Die Erhebung von Daten jeglicher Art führt schnell zur Problematik der Sortierung und Ordnung. Stellen wir uns ein einfaches Bauteil bzw. eine Komponente vor, wie in Abbildung 2 dargestellt. Während des Betriebes dieses Bauteils innerhalb einer Produktionsmaschine fallen zyklische Live -Daten an. In anderen Lebensphasen, z.B. während der Herstellung dieses Bauteils, sind Daten wie Stückliste und technische Zeichnungen interessanter. Möchte man Daten erheben, ohne auf das Vorhandensein des Bauteils angewiesen zu sein, bietet sich das 3D Modell und ein funktionierendes Verhaltensmodell an, mit dem man Zustände und Funktionen simulieren kann.

Abbildung 2: Verschiedene Aspekte von Daten anhand des Beispiels Zeiss Stylus straight M5

Die meisten Menschen denken bei dem Schlagwort Digitaler Zwilling zunächst nur an ein 3D Modell, welches mit Verhaltensdaten angereichert wurde und für Simulationen verwendet werden kann. Im Kontext von Industrie 4.0 ist das allerdings nur ein Aspekt unter vielen.

Die Initiative Plattform Industrie 4.0 hat folgende Definition für einen digitalen Zwilling gewählt:

Ein digitaler Zwilling ist eine digitale Repräsentation eines Produktes*, die ausreicht, um die Anforderungen einer Menge von Anwendungsfällen zu erfüllen.

Mit dieser Definition ist ein digitaler Zwilling schon geschaffen, wenn der Aspekt meines konkreten Anwendungsfalles abgedeckt wurde. Je nach Sicht und Anwendungsfall wird es also sehr verschiedene Ausprägungen von digitalen Zwillingen geben. Wichtig ist nur, dass man sich mit seinem Gesprächspartner vorher verständigt, unter welchen Aspekten man über einen digitalen Zwilling spricht.

Digitaler Zwilling: Typ und Instanz

Um weiter ein besseres Verständnis um den Digitalen Zwilling zu erlangen, unterscheiden wir in die zwei Zustände Typ und Instanz:

Typ eines digitalen Zwillings: Beschreibt alle generischen Eigenschaften aller Produkt-Instanzen. In der Softwareentwicklung ähnelt es am ehesten einer Klasse. Am häufigsten nutzt man Digitale Zwillingstypen in den Lebensphasen vor der Herstellung des Produktes, also z.B. in der Engineering Phase. Digitale Zwillingstypen werden häufig mit einer Testumgebung verknüpft, in der man versucht Eigenschaften des digitalen Zwillings zu optimieren um dann später auch das reale Produkt verbessert herzustellen.

Instanz eines digitalen Zwillings: Beschreibt den digitalen Zwilling von genau einem konkreten Produkt und ist eindeutig mit ihm verbunden. Die digitale Zwillingsinstanz existiert nur einmalig weltweit. Allerdings ist es durchaus möglich, dass eine Instanz eines digitalen Zwillings nur einen bestimmten Aspekt des konkreten Produktes abbildet. Somit können mehrere digitale Zwillinge im Kontext unterschiedlicher Aspekte nebeneinander existieren. In der Softwareentwicklung entspräche es am ehestem einem Objekt. Digitale Zwillingsinstanzen verwendet man am häufigsten im Zusammenhang mit dem Betrieb eines konkreten Produktes. Oft werden digitale Zwillingsinstanzen von Typen abgeleitet (analog der Softwareentwicklung, wo Objekte von Klassen abgeleitet werden).

Digitaler Zwilling im Herstellungsprozess

Im Kontext von Industrie 4.0 und somit im Kontext eines Herstellungsprozesses sollte man sich stets dazu verständigen, ob man bei einem Digitalen Zwilling über die Produktionsmaschine oder über das Werkstück (Produkt) spricht, um Missverständnissen vorzubeugen. Beides kann einen Digitalen Zwilling besitzen, deren Anwendungsfälle sind aber sehr verschieden.

Digitaler Zwilling von Maschine und Werkstück. Beides ist möglich.
Abbildung 3: Digitaler Zwilling von Maschine und Werkstück. Beides ist möglich.

Steht die Planung der eigenen Produktion im Vordergrund meiner Überlegungen, werde ich mich wahrscheinlich mehr mit den digitalen Zwillingen meiner Produktionsmaschinen beschäftigen. Liegt mein Fokus auf der Anreicherung von Daten für meine Werkstück, und damit für mein Produkt, steht der Digitale Zwilling von eben jenem im Vordergrund. Es gibt keine klare Nutzungstrennung. Beide Betrachtungsweisen können sowohl für mich und meine Produktion genutzt werden als auch nützlich für den Nutzer meiner Produkte sein.

Einordnung digitaler Zwillinge nach dem Informationsfluss

Für eine weitere Unterscheidung in der Evolution vom digitalen Modell zum digitalen Zwilling gibt es Charakterisierungen nach dem Informationsfluss vom realen Objekt zum digitalen Objekt[2].

Digitale Modelle von Objekten sind heute schon Industriestandard. Ein prägnantes Beispiel ist das 3D Modell eines Bauteils. Es wird manuell mit Informationen angereichert (z.B. mit einem 3D CAD Programm) und man schaut sich manuell interessante Aspekte an (z.B. eine Kollisionsprüfung mit anderen 3D Modellen). Wird ein digitales Modell im Produktionsprozess zyklisch und automatisch mit Daten angereichert, spricht man von einem digitalen Schatten. Ein einfaches Beispiel wäre ein Betriebsstundenzähler eines Objektes, der automatisch durch das reale Objekt getriggert und im digitalen Objekt gespeichert wird. Auswertungen würden weiterhin manuell geschehen. Hin und wieder wird auch der Begriff digitaler Fußabdruck analog zu Digitaler Schatten verwendet. Gibt ein digitaler Schatten nun automatisch Informationen an das reale Objekt zurück und beeinflusst dessen Funktion, spricht man von einem digitalen Zwilling. Im Kontext der Plattform Industrie 4.0 spricht man weiterhin von einem cyber physischen System. Es ist Definition des Digitalen Zwillings und Realen Zwillings, welche über Datenströme miteinander verknüpft sind und sich gegenseitig beeinflussen.

Definition von Digitalen Modell, Schatten und Zwilling aufgrund der Informationsflüsse
Abbildung 4: Definition von Digitalen Modell, Schatten und Zwilling aufgrund der Informationsflüsse[2]

Die Einordnung nach dem Informationsfluss ist nur für Instanzen des digitalen Zwillings hilfreich. Für Typen von digitalen Zwillingen wird diese Einordnung nicht verwendet, weil das reale Objekt schlichtweg nicht existiert. Sind mehrere Aspekte innerhalb eines digitalen Zwillings zusammengefasst, sollte diese Art der Betrachtung für jeden Aspekt separat erfolgen, da unterschiedliche Aspekte in verschiedene Definitionen fallen können.

Vom digitalen Zwilling zur besseren Produktionsplanung

Die bis hier eingeführten Definitionen und Kategorisierungen sollten ausreichen, eine gemeinsame Sprache für die Beschreibung von Digitalen Zwillingen zu verwenden. Eine allumfassende Definition wird uns aktuell nicht gelingen, ist aber auch nicht notwendig.

Warum brauchen wir nun aber überhaupt Digitale Zwillinge?

Aus der Notwendigkeit von Daten und Auswertungen zur Effizienzverbesserung der Produktion könnte man die folgenden Schritte ableiten, um einen positiven Effekt zu erreichen:

  1. Zentralisieren von allen bisher schon anfallenden Daten
    Alle bisher schon anfallenden Daten z.B. einer Maschine werden aktuell in den meisten Betrieben in eigenen Systemen je nach Aspekt abgespeichert. So liegen z.B. Daten über die Wartung in einer Excel Tabelle beim verantwortlichen Meister, die Daten der Qualitätskontrolle der Werkstücke aber in einer CAQ Datenbank. Beide Datenaspekte sind nicht logisch verknüpft, obwohl sie einen direkten oder indirekten Zusammenhang haben könnten. Ob der Zusammenhang wirklich besteht, ist nicht ohne weiteres prüfbar. Erst wenn die Daten zentral und logisch verknüpft abgespeichert werden, ist es möglich Zusammenhänge (mit Hilfe von Software) zu erkennen. Daraus könnte ein Mehrwert generiert werden.
  2. Standardisierte Schnittstellen
    Werden Daten nun zentral abgespeichert, ist es von Vorteil das diese über standardisierte Schnittstellen erreichbar sind. Ist das der Fall, lassen sich sehr einfach automatische Informationsflüsse programmieren. Der Schritt vom einfachen Modell hin zum cyberphysischen System ist damit einfacher zu bewältigen. Der damit entstehende digitale Zwilling einer Komponente oder einer Maschine ist eine Grundlage für weiter folgende Auswertungen.
  3. Aufsetzen von Business Logik
    Sind alle Grundlagen für automatisierte Datenauswertungen geschaffen, ist es nun einfacher möglich, Software zu nutzen, die hilft, bessere Entscheidungen zu treffen oder gänzlich allein zu entscheiden (Business Logik). Hier entsteht nun der angestrebte Mehrwert.

Während Schritt 1 und 2 keinen oder nur wenig merkbaren Mehrwert schaffen, sind sie Grundlage für den Schritt 3.

Obwohl ich immer dafür plädiere eine Änderung oder Verbesserung im Produktionsprozess stets Anwendungsfall getrieben durchzuführen, kommt man schnell zu der Erkenntnis, dass ein gewisser Basisaufwand notwendig sein wird. Die Erstellung von digitalen Zwillingen ist eine notwendige Basis für den zukünftigen Erfolg. Somit sind sie eine wichtige Säule im Kontext von Industrie 4.0.

Praktischer Lösungsweg

Um möglichst klein anfangen zu können, später aber darauf agil aufzubauen, eignet sich das Konzept der Asset Administration Shell der Plattform Industrie 4.0. In diesem Konzept sind allgemeingültige Schnittstellen vordefiniert. Anwendungsfall spezifische Schnittstellen können leicht nachgerüstet werden. Dieses Konzept bietet Grundlagen für die Erstellung eines standardisierten digitalen Zwillings einer jeden Komponente. Ob man nun dieses Konzept als Startpunkt wählt oder ein komplett eigenes Informationsmodell programmiert ist sicherlich Geschmackssache.

Verbreitete Standards haben aber die Vorteile, dass Daten interoperabel sein können, was vor allem in Kunden/Lieferanten Beziehungen sehr von Vorteil ist. Auch ist zu erwarten, dass es auf dem Markt wiederverwendbare Software geben wird, die eben genau mit diesen Standards umzugehen vermag. Die Industrietauglichkeit des Konzeptes Asset Administration Shell zur Erstellung von Digitalen Zwillingen ist in 2022 erreicht worden und verbessert sich zunehmend. Es wird nun Zeit komplexe Projekte damit umzusetzen.

Quellen:

[1] J. Hagerty: 2017 Planning Guide for Data and Analytics. Gartner 2016

[2] W. Kritzinger, M. Karner, G. Traar, J. Henjes und W. Sihn: 2018 Digital Twin in manufacturing: A categorical literature review and classification.

*Die originale Definition wählt das Wort Asset, anstatt Produkt. Ich verwende hier aber die vereinfachte Wortwahl, auch wenn das nicht vollumfänglich ist.