Prozessoptimierung  Prescriptive Analytics: Datenbasiert die richtigen Entscheidungen treffen

Von Dr. Martin Beisiegel, Projektmanagement Steinhaus Informationssysteme 4 min Lesedauer

Anbieter zum Thema

Prescriptive Analytics sind hilfreich bei der Optimierung von Prozessen, indem sie nicht nur Prozesse beschreiben oder Vorhersagen machen, sondern auf der Grundlage von Daten konkrete Handlungsempfehlungen geben. 

TeBIS von Steinhaus Informationssysteme erfasst, strukturiert und visualisiert Daten und unterstützt die Prozessoptimierung.(Bild: Steinhaus Informationssysteme GmbH, nijieimuart/Freepik)
TeBIS von Steinhaus Informationssysteme erfasst, strukturiert und visualisiert Daten und unterstützt die Prozessoptimierung.
(Bild: Steinhaus Informationssysteme GmbH, nijieimuart/Freepik)

Viele Führungskräfte haben Schwierigkeiten, Entscheidungen zu treffen – eine Herausforderung, die durch die große Menge verfügbarer Daten verschärft wird. Laut der Oracle-Studie „The Decision Dilemma“ wünschen sich zwar 97 Prozent der Führungskräfte datengestützte Hilfe. Dabei geben 85 Prozent der Befragten aber auch an, dass die schiere Menge an Daten ihre Entscheidungen erschwert. Hier setzen Prescriptive Analytics an, indem sie nützliche Informationen liefern und Vorschläge für konkrete Maßnahmen machen.

Wie funktioniert Prescriptive Analytics?

Prescriptive Analytics kombiniert die Analyse des Ist-Zustands, zum Beispiel den Lagerbestand, mit Voraussagen und Simulationen auf der Basis verfügbarer Daten, um den Handlungsspielraum (zum Beispiel Produktionskapazität pro Zeiteinheit) eines Unternehmens zu bestimmen. Durch die Integration externer Faktoren, wie etwa Bestellungen, entstehen Handlungsempfehlungen. Simulationen helfen, den Einfluss verschiedener Faktoren zu bewerten und so Prozesse zu optimieren. Künstliche Intelligenz (KI) und Algorithmen kommen oft zum Einsatz, um Muster in den Daten zu erkennen.

Die Datenqualität ist entscheidend

Die Qualität und Verfügbarkeit von Daten sind Bedingung für den Erfolg sowohl von Prescriptive Analytics, Predictive Analytics als auch Descriptive Analytics.  Entscheidend ist hier der Aufbau einer soliden Dateninfrastruktur, um Daten effizient zu sammeln, zu verarbeiten und zu strukturieren, zu verwalten und für verschiedene Anwendungen nutzbar zu machen. Gut strukturierte und aufbereitete Daten erleichtern Analysen und unterstützen dabei, große Datenräume verständlich zu machen.Ein Beispiel aus der Industrie zeigt, wie durch die Analyse der Produktionsdaten einer Anlage die optimale Dauer für einen Prozess ermittelt wurde.  In einem deutschen Industrieunternehmen wurde jeder Produktionsprozess einer Anlage zur Durcherwärmung eines Gemisches einheitlich über eine lange Zeit aufgezeichnet und die Daten in einem einheitlichen Zeitraster und Format visuell aufbereitet verfügbar gemacht. Somit war es möglich, jede einzelne Charge zu visualisieren. Vergleiche überlagerter Kurven zeigten ähnliche Ergebnisse bei unterschiedlichem Vorgehen und Aufwand. Befragte Fachkräfte bestätigten, dass der Prozess nach Bauchgefühl für abgeschlossen erklärt und gestoppt wurde. Aufgrund der Qualität der strukturierten Daten konnte ein idealer Punkt ermittelt werden, an dem die Durcherwärmung eine gewünschte Qualität erreicht. Ein folgend eingeführter Schwellenwert als Indikator für einen automatisierten Prozessstopp optimierte den Prozess mit Einsparung von Energie und Vermeidung von Sonderschichten.  Dieses einfache Beispiel zeigt, wie über die Verwendung von strukturierten Daten bei passender Visualisierung eine Prozessoptimierung erreicht wurde, ohne dass komplexe KI-Methoden notwendig waren.

Vorgehensweise bei der Einführung von Prescriptive Analytics

Für eine erfolgreiche Implementierung von Prescriptive Analytics empfiehlt sich ein schrittweises Vorgehen:

1. Zielbeschreibung: Erste Ziele sollten klar formuliert und auf Bereiche mit großem Potenzial fokussiert werden. So lässt sich ein schneller Return on Investment (ROI) erreichen.

2. Dateninfrastruktur aufbauen: Oft wird die Qualität der vorhandenen Daten überschätzt. Es ist wichtig, alle relevanten Daten zu erfassen und diese in einem flexiblen, standardisierten Format zu speichern. Ein Denken nach dem Muster „Wir erfassen bereits alle relevanten Daten“ stellt sich retrospektiv oft als zu kurz gegriffen heraus. Ein ideales Szenario ist die Verfügbarkeit von Daten aus einer flexiblen Datenintegrationsplattform, die aktuelle und vergangene Prozessabläufe umfassend erfasst und strukturiert voneinander abgrenzen kann. So wird das Prozessbild möglichst kleingliedrig, flexibel, umfassend und tief in einem standardisierten Format abgebildet. Die Dateninfrastruktur ist idealerweise deutlich breiter als die initiale Einschätzung, welche Daten notwendig sind, um die Prozesse zu beschreiben und umfasst alle Komponenten einer Anlage und deren Umfeld über eine lange Zeit.  

3. Daten aufbereiten: Eine Datenintegrationsplattform sollte verfügbare Daten strukturieren, erweitern und kontextualisieren – beispielsweise mit Zusatzinformationen zu Örtlichkeit, Medium oder Messgröße. Über diese Vorgehensweisen werden Muster in der Menge an Daten schneller klar, abgrenzbar und über Zusammenhänge schneller analytisch greifbar, sowohl in einem KI-getriebenen als auch KI-unabhängigem Ansatz.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

4. Daten verfügbar machen: Oft sind für einen Gesamtansatz in der Prescriptive Analytics mehrere Systeme beteiligt, die Daten austauschen. Dies erfordert eine flexible Datenintegrationsplattform, die Komplexität vermeidet und Datenaustausch einfach macht. Dabei sollten Zugriffe auf die OT-Umgebung von externen Systemen möglichst vermieden und ein hohes Maß an Sicherheit gegenüber externen Angriffen sowie unbeabsichtigten internen Effekten gewährleistet werden.

5. Iteratives Vorgehen: Statt umfassende Analysen von Anfang an durchzuführen, ist es oft ratsam, klein zu starten und die Ergebnisse schrittweise zu verbessern und auszuweiten. So können Annahmen überprüft und Prozesse optimiert werden. Hierbei liegt der große Nutzen einer breiten Dateninfrastruktur darin, dass sie dem Prescriptive-Analytics-Vorgehen erlaubt, sich kontinuierlich zu verbessern, auszuweiten und vorherrschende Annahmen herauszufordern und zu prüfen.

6. Know-how im Unternehmen aufbauen: Der Umgang mit Prescriptive Analytics setzt Fachwissen voraus. Unternehmen sollten daher Fachkräfte und entsprechende Schulungen einplanen und erfahrene externe Partner einbeziehen, um langfristig erfolgreiche Lösungen zu entwickeln.

Schnell erreichbare Erfolge realisieren

Ein zentraler Erfolgsfaktor ist die Datenintegrationsplattform. Sie sollte umfassende und flexible Daten liefern, um tiefere Einblicke und schnelle Erfolge zu ermöglichen. Oft liegen schnelle Optimierungspotenziale in „tief hängenden Früchten“, die schnell ohne den Einsatz komplexer Technologien erkannt und genutzt werden können.

Fazit: Datenqualität ist der Schlüssel zum Erfolg

Prescriptive Analytics bietet einen entscheidenden Vorteil, wenn es darum geht, industrielle Prozesse zu optimieren. Durch die Kombination von Echtzeitanalysen, Simulationen und datenbasierten Handlungsempfehlungen können Unternehmen ihre Effizienz steigern und schneller auf sich ändernde Bedingungen reagieren. Die Qualität der Daten ist dabei der Schlüssel zum Erfolg. Potente Datenerfassungs- und Datenintegrationsplattformen wie TeBIS von Steinhaus Informationssysteme spielen hier eine zentrale Rolle.