3. März 2023

3M – Prädiktive Analytics und Simulation für kontinuierliche Verbesserung und Qualitätsmanagement

Sowohl die Digitalisierung von Prozess- und Qualitätsdaten als auch deren Verarbeitung zum Zwecke der Prozessoptimierung und Effizienz von Produkt & Prozessentwicklung im Kontext von „Industrie 4.0“ oder „IoT= Internet of Things“ stellen in der Regel wichtige Kernelemente in jeder Unternehmensstrategie dar. Ein Aspekt in der Etablierung dieser Kernelemente ist die Akzeptanz und die gesamte Datenkultur im Unternehmen.

Während die damit verbundenen technischen Fähigkeiten, insbesondere Machine Learning Tools (ML) oder auf Künstlicher Intelligenz beruhende Algorithmen (AI/KI) branchenübergreifend mit scheinbar rasender Geschwindigkeit eingeführt und ausgebaut werden, nutzen auch wir (die 3M Company) sowohl kommerzielle Software-Tools als auch firmeneigene selbstentwickelte Werkzeuge mit den folgenden Zielen: Wir treiben zum einen die Digitalisierung selbst voran („Digitale Transformation“), zum anderen arbeiten wir daran, verstärkt aus den in digitaler Form vorliegenden Daten den für den Erfolg entscheidenden Erkenntnisgewinn zu erzielen, Wissen anzureichern und somit ein verbessertes Prozessverständnis von vermeintlich bewährten und neuen Abläufen zu erhalten.

Wir sind überzeugt, dass jede erfolgreiche datengetriebene Problemlösung den Prinzipien einer strukturierten Projekt-Roadmap folgt, wie sie bspw. durch den klassischen QM-Ansatz, den PDCA-Zyklus, oder der DMAIC-Methode (Six Sigma) oder der speziell für die Datenanalyse entwickelten Variante, der CRISP-Methode beschrieben werden.

Innerhalb eines solch strukturierten projektorientierten Ansatzes setzen wir ClearVu Analytics bereits seit ca. 6 Jahren ein: Es unterstützt uns vielfältig aufgrund der flexiblen Möglichkeiten in EDA (Explorative Datenanalyse), der Datenbereinigung sowie bei Planung und Entwurf von Experimenten und den außergewöhnlichen Modellierungs- und Simulationsmöglichkeiten bei der Untersuchung des vorhergesagten Parameterraums.

Datengesteuerte und durch risikobasierte Methoden begleitete Entscheidungen sind traditionell Teil der Geschäftsprozesse von 3M, und umfassen neben der ständigen Optimierung von Fertigungsprozessen u.a. auch die Abläufe in der Business Planung, im Bestandsmanagement, und selbstverständlich auch innovative Ansätze in der Produktentwicklung und Anwendungstechnik. Data Science und Analytics spielen in jeder Phase unserer Wertströme eine wichtige Rolle, um im Einklang mit der Unternehmensstrategie ein fundiertes, kundenorientiertes Verständnis unserer Produkte und Prozesse zu erlangen.

Unsere Schwerpunkte der ClearVu Analytics-Anwendungen liegen im Bereich F&E, Verfahrenstechnik und Fertigungstechnologie. Vor Ort unterstützen wir die Erstellung bzw. Optimierung von Rezepturen und Formulierungsexperimenten im Labormaßstab. Zum anderen nutzen wir vorskalierte und kontrollierte multifaktorielle DOE’s, um bestehende Fertigungsprozesse zu optimieren.

Typische Anwendungen sind oft motiviert durch wiederkehrend auftretende Problemfelder, die Ausschuss oder ungeplante Bandstillstände zur Folge haben. Dazu zählen beispielsweise Wahrenbahnrisse in der Fertigung von Jumbos, Störungen in der Förderung und Verarbeitung viskoser Medien durch Rohmaterialeinflüsse, oder Alterungseffekte in chemischen Anlagenkomponenten, die irgendwann zu einer Unterbrechung des kontinuierlichen Betriebes führen oder den Wirkungsgrad ungünstig beeinflussen. Ein weiteres Anwendungsfeld bietet der zunehmende Zwang zur Einsparung von Kosten bei energieintensiven Prozessen. Es liegt nahe, dass man Projekte definiert, die eine Steigerung des Verhältnisses von Output zum Energieeinsatz zum Gegenstand haben.

In einigen Fällen kann man Funktionsfehler im Prozess durch unkalibrierte Sensorgeräte oder ungünstige Einstellungen in Prozesskontrollgrenzen erkennen, die vor Ort auf Shopfloor Level oder an der Maschine selbst unmittelbar nicht erkennbar sind. Ein unschätzbarer Wert liegt daher in der Vermeidung oder Erkennung zuvor unerkannter Mängel bzw. Schwachstellen und damit in der Vermeidung von Geldverschwendung, die a priori von Natur aus schwer zu messen ist, allenfalls schätzbar.

Im Falle der typisch vorhandenen multivariat strukturierten, meist historisch vorliegenden Daten bietet ClearVu Analytics sehr effiziente Werkzeuge, um den mehrdimensionalen Arbeitsbereich auf einen klar überschaubaren Satz von Parametern zu reduzieren. Diese bieten die Grundlage für weitere geplante Experimente, um in die eigentlichen Mechanismen des Prozesses einzutauchen.

Sobald nach der Validierung des vorgeschlagenen Modells eine Vorhersage neuer Zieleinstellungen möglich ist, können wir mit den Faktoreinstellungen „spielen“, um die Empfindlichkeit zu bewerten und den Prozess oder den Designraum grafisch zu erkunden (Sensitivity Analysis).

Einen echten Vorteil bietet uns ClearVu Analytics mit der Berechnung eines theoretischen Optimums, oder im Fall eines multi-faktoriellen und konkurrierendem Optimierungsszenarios, einer sogenannten „Pareto-Front“. Mit einfachen Worten liefert uns der Algorithmus mehrere Lösungsszenarien, die dem zuvor definierten Ziel am besten entsprechen.

An dieser Stelle obliegt es den Prozessexperten, zu entscheiden, ob ein weiteres Experiment diese Vorhersagen verifizieren soll, oder die hier abgeleiteten Hinweise aufgegriffen werden, um ein neues und verbessertes DOE anzusetzen. Vor allem wird die Entscheidung aber datenbasiert gestützt, was zu einer effizienteren Vorgehensweise und somit zu reduzierten Versuchs – und Projektkosten führt.

Hier zeigt sich eine der wesentlichen Stärken von ClearVu Analytics:

Ohne die hier eingebauten Mechanismen des Data Mining und dem automatisierten Vergleich mehrerer Lösungsansätze (Modelltypen) würde man bei der traditionellen Anwendung von „nur“ klassischen Regressionsmodellierungsmethoden, die mit den üblichen Risiken der Überanpassung oder Verzerrung aufgrund von Kovarianzen von Eingabefaktoren einhergehen, wesentlich mehr Zeit und Versuchskosten veranschlagen. Zudem erfordert die Analyse nicht die tiefen Spezialkenntnisse in Programmiersprachen wie R, Python o.ä., eines Data Scientist, um die modellspezifischen Abläufe der Berechnungen zu beherrschen.

Um es mit den Worten dieses Data Scientist zu sagen, das Model bietet bei entsprechend sorgfältiger Vor- und Aufbereitung der Datengrundlage mittels moderner ML-Algorithmen einen sehr guten Bias-Varianz-Kompromiss.

Unabhängig von der Anwendung ist festzuhalten: Der Einsatz von ClearVu Analytics lehrt uns, dass ein erfolgreiches datenbezogenes Verbesserungsprojekt neben dem methodischen Wissen des beteiligten Data Analytics Engineer, Scientist oder Statistikers einen multidisziplinären Ansatz erfordert, der mindestens die Stakeholder, den Prozesseigner und vor allem die individuelle Kompetenz und das Wissen der beteiligten Mitarbeiter vor Ort umfasst.

In diesem Kontext besteht immer die Forderung nach finanzieller Rechtfertigung (Einsparung bzw. Effizienz oder Nutzen vs. Kosten). Es ist nicht immer einfach, Einsparungen als Rechtfertigung für den Einsatz externer Software-Tools zu quantifizieren. Solche Potentiale verstecken sich oft als „niedrig hängende Früchte“ in einer explorativen Datenanalyse, oder werden durch die in der statistischen Qualitätssicherung üblichen varianzanalytischen Methoden aufgedeckt. Im Idealfall festigen oder generieren wir neues wertvolles Wissen bei der Verifizierung von Arbeitshypothesen durch Durchführung und Auswertung systematisch geplanter Experimente (DOE). Die Komplexität solcher Potentiale wird erst durch den Einsatz entsprechender Softwarewerkzeuge auch für den klassischen Prozessingenieur erfass- und handhabbar. Durch den Einsatz der Software identifizieren wir diese Potentiale und machen sie besser sicht- und quantifizierbar. Somit wird die Software selbst, aufgrund erzielter Ergebnisse und positiver Verbesserungen, auch ein entscheidender Baustein in der Etablierung einer breiten Datenkultur im Unternehmen.

Abschließend möchten wir festhalten, dass ClearVu Analytics einen sehr wertvollen Platz in unserem Portfolio von externen Software-Tools einnimmt, um Ingenieure und Teams in die Lage zu versetzen, deutlich komplexere Aufgabenstellungen auch bei hohen Datenaufkommen lösungsorientiert und effizient zu bearbeiten, ohne dass speziellere Programmierkenntnisse wie z.B. in R oder Python erforderlich sind. Dies steigert unsere Flexibilität und ermöglicht uns, die vorhandenen Verbesserungspotentiale erfolgreich auszuloten und abzuschöpfen.

 

Dipl.-Phys. Reiner Hackler

Statistics Advisor and Coach as independent first contact to support internal multidisciplinary project teams or individual engineers to achieve data driven solutions or improvements for all types of business process steadily driven by Customer Requirements and passion for statistical problem-solving methods. 33 y experience in Quality, and Product Engineering & Development as well development of Quality Management Systems. Study graduation in Physics from the Heinrich-Heine University Düsseldorf.

Dr.-Ing. Mario Horvat

Manufacturing Technology Specialist with core expertise and focus area in advanced data analytics, leading an EMEA initiative for leveraging machine learning and data analytics methodologies. 11 y experience as Process Engineer in manufacturing and data analytics lead. Study and PhD graduation from Karlsruhe Institute of Technology KIT (former University Karlsruhe TH).