27.11.2019 – Kategorie: Digitalisierung
Datenintegration: Warum sie die Grundlage für Industrie 4.0 bildet
Viele Produktionsunternehmen sind dabei, Fertigungsprozesse und ganze Wertschöpfungsketten zu digitalisieren. Sie alle benötigen ein tragfähiges Konzept für die Sammlung, Speicherung und Auswertung der vielen Daten, die im Zuge der Digitalisierung von Fertigungsprozessen anfallen. Die Zusammenhänge erläutert Stefan Müller von it-novum in einem Gastbeitrag.
Manche stehen noch am Anfang, andere sind schon mittendrin: Viele produzierende Unternehmen haben ihre Industrie 4.0-Initiative erfolgreich auf den Weg gebracht. Ohne die Datenintegration ist Industrie 4.0 allerdings nicht denkbar. Was aber ist in Sachen Datenintegration auf dem Weg zur smarten Fabrik wichtig und was nicht?
Eine gelungene Integration aller Datenströme stellt das Fundament für wichtige Anpassungen der Produktion dar, um beispielsweise die Gesamtanlageneffektivität oder die Gesamtproduktionseffektivität zu steigern. Um die Möglichkeiten und die zahlreichen Vorteile einer digitalisierten Produktion zu nutzen, müssen Unternehmen in drei Bereichen tätig werden: Daten, Datenintegration und Datenanalyse. Denn der Kern von Industrie 4.0-Initativen besteht aus Informationen, ihrer Integration und ihrer Auswertung.
Datenintegration: Rohstoff für die Wertschöpfungskette
Die klassische Industrie 3.0 hat hohen Optimierungsbedarf, was die Nutzung von Daten zum Generieren von Wissen betrifft. Produktionssysteme dieser Generation weisen eine starke Fragmentierung in Datensilos auf. Sie sind kaum vernetzt, sodass keine ganzheitliche Betrachtung von Prozessen möglich ist. Laut Schätzungen wird gegenwärtig weniger als ein Prozent der unstrukturierten Daten eines Unternehmens analysiert. Deshalb findet auch eine Betrachtung und Verknüpfung von internen wie externen Daten häufig nicht statt – obwohl der Anteil unstrukturierter Daten bis zu 80 Prozent ausmacht!
Exkurs: Was sind unstrukturierte Daten?
Ein typisches Beispiel für semi- und unstrukturierte Daten sind Logs, Sensor- und Videodaten. Zu den strukturierten Daten zählt man dagegen u.a. SAP-Daten. Momentan wird nur ein geringer Teil von unstrukturierten Daten ausgewertet, denn
- sie liegen in sehr unterschiedlichen Formaten vor, etwa als Bilder, Texte, Maschinen- und Sensordaten. Dadurch ist es schwierig, ein passendes Tool zu finden, das auf alle zugreifen und das jeweilige Datenformat lesen und verarbeiten kann
- das Datenvolumen ist extrem hoch
- sie müssen in geeigneter Form extrahiert werden
- oft müssen spezifische (manuelle) Lösungen entwickelt werden, damit sich die Daten überhaupt anbinden lassen
- die Vielzahl an Daten-Updates und die fehlende Vergleichbarkeit ihrer Quellen verkomplizieren die Prozesse
- es fehlt häufig an Fachwissen über Datenintegration und den Umgang mit Datenquellen
Großes Potenzial: Daten in der Produktion
In den Daten von Fertigungsunternehmen steckt enormes Potential. Seine Nutzung ist jedoch für viele Organisationen herausfordernd. Mit geeigneten Applikationen lassen sich die Schwierigkeiten lösen:
- Volume – die Datenmenge: Produktionsanlagen werden mit immer mehr Sensoren ausgestattet, die permanent und in Echtzeit Daten über die unterschiedlichsten Produktionsparameter liefern. Big Data-Technologien unterstützen bei der Speicherung, Verarbeitung und Analyse dieser Daten und liefern wertvolle Erkenntnisse.
- Velocity – die Übermittlungsgeschwindigkeit: Nutzt man beispielweise eine Applikation zur prädiktiven Wartung, also zur Vorhersage und Vermeidung von Anlagenausfällen, müssen die Informationen zeitnah an die Wartungsmitarbeiter übermittelt werden. Moderne Streaming Analytics-Technologien ermöglichen eine solche Alarmierung und Proaktivität in den operativen Prozessen einer Produktion.
- Variety – die Datenvielfalt: Die wahrscheinlich größte Herausforderung bei analytischen Industrie-4.0-Anwendungen liegt in der Vielfalt der Daten. Bevor die Daten zentral zusammengebracht werden, müssen erst unzählige proprietäre Datenquellen angezapft werden. Im Bereich der Sensoren existiert keinerlei Standard, und Daten werden über eine Vielzahl von Formaten und Protokollen geliefert. Es bedarf daher leistungsstarker und flexibler Datenintegrationswerkzeuge zur Überwindung dieser Herausforderungen.
Datenintegration in einzelnen Ausbaustufen
Eine große Herausforderung für die systematische Datennutzung in der Produktion liegt darin, die verstreuten Datenquellen so zusammenzuführen, dass am Ende ein optimaler Datenfluss entsteht, der alle wichtigen Systeme in der richtigen Zeit mit den passenden Daten versorgt. Dafür lassen sich folgende Stufen identifizieren:
- Data Warehouse: Klassische Data Warehouse-Implementierungen führen Daten aus den unterschiedlichen Systemen automatisiert zusammen, aggregieren sie und stellen Kennzahlen bereit.
- Data Lake: In der nächsten Entwicklungsstufe gilt es, mehr Daten zu integrieren und in den Prozessen als Information verfügbar zu machen. Semi- und unstrukturierte Daten müssen angebunden und genutzt werden. Neben der Ausstattung alter Maschinen mit entsprechenden Sensoren, dem Retro-Fitting, und der Datenanbindung verschiedener Sensoren müssen auch neue Systeme für die Speicherung und Verarbeitung dieser Informationen geschaffen werden. Data Lakes und Big Data-Technologien sind die Basis für alle darauf aufsetzenden Advanced Analytics- und Data Science-Applikationen.
- Near Realtime: Die nächste Stufe setzt auf die Verarbeitung von Daten in Fast-Echtzeit. Die Datenströme werden nicht erst im Data Warehouse oder Data Lake persistiert, sondern direkt dort ausgewertet, wo sie entstehen: nah am Sensor. Analytics „on the Edge“ ermöglicht, Probleme bereits im Vorfeld abzuwenden, indem bei Erreichung bestimmter Schwellwerte ein Alarm oder die automatische Abschaltung von Maschinen ausgelöst wird.
- Data Blending: Darunter wird der Prozess der Kombination von Daten aus mehreren Quellen verstanden, um einen analytischen Datensatz für Entscheidungen zu haben. Data Blending ist erforderlich, wenn die Datenintegrationsprozesse und die Infrastruktur eines Unternehmens nicht ausreichen, um spezifische Datensätze zusammenzuführen, die von den einzelnen Geschäftsbereichen benötigt werden.
Datenauswertung: Von der Analyse bis zur Handlungsempfehlung
Die verschiedenen Integrationsstufen bei Daten aus der digitalen Fertigung spiegeln sich auch in der Ausprägung der Auswertungsverfahren für diese Informationen wider: die Reise beginnt bei der klassischen Auswertung historischer Daten und endet bei Advanced Analytics mit Prognosen für zukünftige Entwicklungen mitsamt Handlungsempfehlungen oder Aufträgen an Prozesse oder andere Teilnehmer der Wertschöpfungskette. Nach der Überwindung der Datensilos-Welt steht die Erzeugung von Wissen durch Analysen und seine Verteilung an die richtigen Personen im Unternehmen an. So genannte Advanced Analytics bilden daher das Herz vieler Industrie 4.0-Anwendungen.
- Business Intelligence: BI-Anwendungen versorgen Fachanwender mit Informationen in Form von Berichten, Dashboards oder Self-Service-Auswertungen. Dadurch erhält man beispielsweise Einblicke in die Performance der Anlagen oder in Wartungsaktivitäten. So lassen sich Vergleiche von Rüstzeiten zwischen Maschinen oder Werken schnell aufdecken, etwa ob es Defizite bei einzelnen Teams oder Standorten gibt.
- Prädiktive Analysen: Dabei geht es weniger um den Blick nach hinten, sondern um Zukunftsprognosen und die Entdeckung versteckter Zusammenhänge in den Daten. Prädiktive Analysen prognostizieren, was als Nächstes passieren kann und eröffnen die Möglichkeit, Problemen proaktiv gegenzusteuern.
- Präskriptive Analysen: Sie geben Auskunft darüber, wie Unternehmen mit zukünftigen Herausforderungen umgehen sollten, und unterbreiten konkrete Handlungsempfehlungen für anstehende Aufgaben in der Produktion.
Mit Datenintegration Wettbewerbsvorteile realisieren
Im Rahmen einer gelungenen Industrie 4.0-Initiative sorgen leistungsfähige moderne Technologien dafür, dass Wettbewerbsvorteile wirklich realisiert und neue Perspektiven für künftige Produktionsszenarien möglich werden. McKinsey geht davon aus, dass Industrie 4.0-Applikationen das Potenzial haben, bis 2025 einen Wert von 3,7 Billionen US-Dollar pro Jahr zu erreichen. Fertigende Unternehmen profitieren bei der Umsetzung von Industrie 4.0-Projekten von folgenden Vorteilen:
- Produktivitätssteigerung und Kostensenkung
- Höhere Genauigkeit von Planungen und Forecasts
- Verkürzung der Zeit des Go-to-Market
- Steigerung der Wettbewerbsfähigkeit
Über den Autor: Stefan Müller, Director Big Data Analytics bei der it-novum GmbH Deutschland. Die 2001 gegründete it-novum ist ein IT-Beratungsunternehmen für Business Open Source und gehört heute zur börsennotierten KAP AG. Die Schwerpunkte sind die Integration von Open Source mit Closed Source und die Entwicklung kombinierter Open Source-Lösungen und -Plattformen.
Lesen Sie auch: IT-Service-Management: Voraussetzung für eine erfolgreiche Digitalisierung
Teilen Sie die Meldung „Datenintegration: Warum sie die Grundlage für Industrie 4.0 bildet“ mit Ihren Kontakten: