Zum Inhalt springen

So funktioniert der Prozess für Data Science Projekte

Das Data Science Framework (DSF) der ControlTech Engineering AG unterstützt Unternehmen bei der Analyse ihrer Daten. Im standardisierten Prozess mit drei Schritten dreht sich alles um die richtige Zieldefinition, ums Data Screening und ums Assessment der Daten. Mit diesem Navigationssystem erreichen Sie Ihre Ziele.

Das Thema Data Science ist in aller Munde. Hier positioniert sich auch die ControlTech Engineering AG (CTE) aus Liestal. Stefan Kramberg informierte am Pharma Forum vom 25. April 2024 über ein Update unserer Arbeiten. Der Fachvortrag zum Thema Data Science Framework nahm bereits im Vorjahr das Thema Daten sammeln und analysieren auf. Wie wichtig die Kontextualisierung ist, zeigte aber die Fortsetzung von diesem Jahr: «Wir hatten das theoretische Modell, aber nicht genügend Daten. Zudem war die Datenqualität nicht ausreichend. Das sorgte für Unmut. Wir wollten in diesem Jahr unbedingt praktische Resultate zeigen», erklärt der Datenspezialist und Projektverantwortliche Stefan Kramberg.

Das Data Science Framework ist ein standardisierter Prozess für Data Science Projekte mit drei Schritten, welche iterativ (Runde um Runde) wiederholt werden.

Anfang Jahr dann die erfreuliche Nachricht: «Wir haben es geschafft! Die Datenanalyse hilft uns, den Herstellungsprozess zu optimieren,» freute sich Stefan Kramberg. Das Pilotprojekt am Institut für Chemie und Bioanalytik der FHNW in Muttenz fokussierte auf eine Produktionsanlage, die nicht für den Markt produzierte. Sie steht aber dennoch sowohl von der Grösse wie auch von der Systemarchitektur einer produktiven Anlage in nichts nach. Demnach war sie flexibel für unseren Test einsetzbar. Als Basis wurde das Leitsystem PCS neo von Siemens eingesetzt, die Daten wurden mit dem AVEVA PI-System gesammelt und strukturiert.

Die Zielsetzung war klar: Das Ethanol-Wasser-Gemisch sollte in Ethanol und Wasser getrennt werden, wobei Ethanol das Produkt und Wasser das Abfallprodukt darstellte. Der Auftrag im Pilotprojekt für die FHNW war, dass die ControlTech Engineering (CTE) eine Kostenreduktion durch Verbrauchsenkung in Bezug auf Dampf, Kühlmittel und Stickstoff erzielte. Zudem galt es die Qualität zu steigern. Hierzu wurde die Produktreinheit über die Dichte des Destillates gemessen.

So funktioniert das Data Science Framework im Use Case:

  1. Zieldefinition: Ethanol und Wasser trennen

  2. Data Screening: Prozessdaten zur Kontextualisierung in AVEVA PI AF implementiert

  3. Assessment: zu wenig Batches / Daten, weitere Batches ab Q3 2023 vorhanden

Nach dem ersten Durchlauf wurde klar: Das Data Science Framework bringt einen beachtlichen Mehrwert, aber die Kontextualisierung ist von grosser Wichtigkeit. Nur so können inkonsistente Daten entdeckt und die Datenqualität auf ein Level gebracht werden, damit effizient damit gearbeitet werden kann. Der Faktor Mensch ist also unabdingbar!

Eine gut abgestimmte Zusammenarbeit bringt den gewünschten Erfolg. Der Kunde steht im Zentrum, während Systemlieferant, Integrator und Data Analytics Experts eng zusammenarbeiten.

Die Visualisierung oben zeigt: Eine gut abgestimmte Zusammenarbeit bringt den gewünschten Erfolg. Der Kunde steht im Zentrum, während Systemlieferant, Integrator und Data Analytics Experts eng zusammenarbeiten.

Wissen aller Experten vereinen

Der Schritt von reinen Daten zu Daten vernetzt mit Prozesswissen war schwer. Die Zusammenarbeit mit und das Fachwissen aller Experten war von zentraler Bedeutung. Vom Data Engineer über den Automations- und Prozessingenieur, dem Data Scientist bis zum Business- und Anlagenwissen des Kunden: Nur wenn alles Wissen integriert in den Daten vorliegt, kann der Data Analytics Expert das Potential der Datenanalyse bis hin zu KI ausschöpfen.

Nicht zu unterschätzen waren dabei auch herkömmliche Kommunikationsbarrieren. Fachexperten aus verschiedenen Bereichen sprechen oft unterschiedliche Fachsprachen. Trotzdem ist es für den Erfolg eines Data Science Projekts unerlässlich, dass sie eng zusammenarbeiten und sich in den Details präzise verstehen.

Aus diesem Grund setzte ControlTech Engineering auf die Partnerschaft mit Learning Machines. Stefan Kramberg dazu: «Wir von CTE können Daten sammeln und analysieren, brauchen aber einen Partner, welcher mittels statistischer Methoden, Machine- und Deep Learning Ordnung und Struktur in die komplexen Daten bringen kann. Neben dem Fachwissen aller Prozessbeteiligten braucht es also einen kompetenten Partner für die Bereinigung, Verarbeitung und vor allem für die Strukturierung und passende Darstellung der Daten. Nur so kann die Datenanalyse korrekt interpretiert werden.»

Die Data Analytics Experten von Learning Machines entwickelten dazu ein leistungsstarkes KI-Dashboard, das Anlagen- und Prozesswissen berücksichtigte sowie Betriebs- und Prozessdaten verknüpfte und die Daten so darstellte, dass die Kunden sie verstanden. Das KI-Dashboard war mit dem Ziel entwickelt worden, dass die jeweiligen Experten die Daten gegenüber den Kundenzielen wie Kostenreduktion und Qualitätssteigerung schnell und effizient beurteilen können. Die künstliche Intelligenz, also genauer CPA-, Machine Learning und Deep Learning Verfahren halfen dabei, das Wissen aller Beteiligten zu vereinen.

Ein interaktives Dashboard diente der Exploration von Daten aus der Produktion. Verschiedene KI-Module automatisierten die Auswertung.

Was ist das KI-Dashboard?

Das KI-Dashboard ist ein interaktives Dashboard zur Exploration von Daten aus der Produktion. Das KI-Dashboard kann mittels modernen KI-Methoden wie statistisches Lernen (CPA-Verfahren), Machine Learning und Deep Learning aus den vielen Messreihen und -kanälen die Unmengen an Daten strukturieren, darstellen und interpretieren. So kann es zum Beispiel Anomalien im Prozess erkennen, daraus Root-Cause Analysen zur Verfügung stellen und auch eine ideale Soll-Wert Korrelation rechnen. Es kann also sogar, basierend auf den Inputs der Experten, bestimmen, wie die Messwertkombination für eine Golden Batch Bestimmung sein muss. In unserem Praxisbeispiel wurden die Ergebnisse aus dem KI-Dashboard im dritten Schritt des DSF überprüft und mit den Schlüsselanforderungen verglichen. Anschliessend wurden aus den Erkenntnissen Massnahmen abgeleitet, um die definierten Ziele zu erreichen.

Data Science Framework für die Pharma Branche sorgt für einen grossen Mehrwert im Thema Big Data.

Live Demo

Werfen Sie einen Blick auf das KI-Dashboard und analysieren Sie die Daten ganz einfach selbst!

Zugang zum KI-Dashboard erhalten

Aufgrund des KI-Dashboards konnten selbst bei dieser einfachen Rektifikationskolonne zwei wichtige Erkenntnisse gewonnen werden:

Erste Erkenntnis: Optimierungspotential auch dank Fachwissen

Das KI-Dashboard fand, neben der Darstellung der Prozessdaten, auch zielgerichtet ungewöhnliche Schwingungsverhalten im System. Dabei wurde ein stark schwingender Ventil-Regler gefunden und analysiert. Wie würde er sich in Bezug auf Produktqualität und Produktionseffizienz verhalten?

Hier wurde sichtbar, dass der Regler aktuell die Anlagenverfügbarkeit in einem zu grossen Masse beeinflusst.

Die Daten lieferten eine klare Antwort: Der schwingende Regler hatte keinen Einfluss auf Produktqualität und Produktionseffizenz. Mit Hilfe des KI-Dashboard konnten die Experten der CTE aber die aktuellen Lastwechsel der Ventile über alle gefahrenen Batches bestimmen. Dabei zeigte sich, dass das Ventil, bezogen auf seine spezifizierte Lebensdauer (Mean Time between Failure, MTBF) pro Produktionsdurchgang deutlich zu stark belastet wurde. Es ist damit zu rechnen, dass das Ventil häufig gewartet werden müsste oder ausfallen würde. Das hätte einen Anlagenstillstand zur Folge. Im Pilotprojekt war das natürlich nicht derart relevant. Bei einer aktiven Produktionsanlage wäre dieser Fakt für die gesamte Anlageneffizienz von entscheidender Bedeutung.

Fazit: Nur anhand der Daten zeigt der Regler kein Optimierungspotenzial. Aber kombiniert mit Betriebs- und Businesswissen lassen sich dennoch Kosten reduzieren und die Anlageneffizienz steigern. Aus diesem Grund ist die Zusammenarbeit mit Menschen – mit dem Fachwissen aller Experten – unabdingbar.

Zweite Erkenntnis: Wie sich die Qualität steigern lässt

Dank dem KI-Dashboard resp. dem Data Science Framework liessen sich Erkenntnisse erzielen, mit welchen die Qualität und damit indirekt auch die Effizienz der Produktion gesteigert werden kann. Die Optimierungsfunktion des KI-Dashboards lieferte eindeutige Ergebnisse: Anhand der Daten liess sich zeigen, dass die Ausgangstemperatur des Vorlaufs einen Einfluss auf die Produktqualität hat. Die Ausgangstemperatur darf nicht unter 51.06°C liegen.

Doch ist diese Temperatur tatsächlich der einzige Faktor, der die Qualität des Produktes so stark beeinflusst?

Die Grafik oben zeigt deutlich, dass es sowohl qualitativ gute (Batch 10 und 13) wie auch schlechtere (Batch 7) Batches in einem engen Bereich der Vorläufer-Temperatur gibt. Es liegt demnach nahe, dass diese Temperatur nicht der einzige Einflussfaktor auf die Qualität des Produktes ist, auch wenn die reinen Daten dies implizieren.

Neue Fragen - neue Antworten

Um diese weiteren Faktoren zu finden, bot das KI-Dashboard den «3D-Quality-Schlauch». Dieser visualisierte alle Messwerte aus den korrekt abgelaufenen Prozessen mit guten Resultaten. Der «3D-Quality-Schlauch» kann daher auch als dreidimensionale Darstellung aller Messwerte für einen Golden Batch betrachtet werden.

Der Golden Batch als Schlauch erklärt die Abweichung von Batch 7 bei der Qualität, trotz dass die Temperatur des Vorwärmers sehr nahe am optimalen Betriebspunkt war:

Die Abweichung vom optimalen Prozessverlauf fand vor allem im mittleren Bereich der Kolonne statt. In diesem Bereich war die Rektifikationskolonne zu warm und hat die idealen Grenzen verlassen. Die Qualität wurde daher vor allem durch eine zu hohe Temperatur in der Mitte der Kolonne negativ beeinflusst.

Über weitere Vorteile des «3D-Quality-Schlauchs» als mehrfachen Golden Batch und seinen Mehrwert in der Praxis lesen Sie hier.

Bild von Stefan Kramberg, IT Systems Engineer bei ControlTech Engineering AG.

Haben Sie auch komplexe Aufgaben zu lösen? Dann lassen Sie uns gemeinsam Ihren Produktionslauf beleuchten.

Buchen Sie ein unverbindliches Gespräch mit Stefan Kramberg, OT Solutions Engineer.

Jetzt Kontakt aufnehmen
Weitere spannende Einblicke in unseren Alltag:
DSF: 3D-Quality-Schlauch

Die CTE und Learning Machines haben eine Reihe von KI-Tools entwickelt, die dabei helfen, Prozesse zu überwachen und komplexe Daten zu verstehen.

Bild von Stefan Kramberg Stefan Kramberg • 19.09.24
Data Science Framework für die Pharma Branche sorgt für einen grossen Mehrwert im Thema Big Data.
Pharma Forum 2024: Data Science Framework

Am Pharma Forum zeigen wir Resultate und Learnings aus dem Data Science Framework Projekt am Institut für Chemie und Bioanalytik der FHNW.

04.03.24
Roboter unter Wasser als Sinnbild für die suche nach dem Schatz auf dem Meeresgrund. Bild generiert mit künstlicher Intelligenz (Midjourney)
Data Science Framework

Unser Navigationssystem zu Ihrer erfolgreichen data based Optimierung!