Predicting Quality mit KI: Ein Blick in die Daten8 | 04 | 21

Predictive Quality verspricht das frühzeitige Erkennen von Ausschussteilen und die datengetriebene Optimierung von Produktionsprozessen zur Sicherstellung der Qualität der gefertigten Produkte. Dabei greift Predictive Quality auf verschiedenste Methoden aus dem Bereich der Künstlichen Intelligenz zurück, um Vorhersagemodelle als Entscheidungsgrundlage für abzuleitende Maßnahmen zu erstellen. Predictive Quality unterstützt dabei nicht nur mit einer Ausschussprognose bzw. der Vorhersage der Wahrscheinlichkeit eines fehlerhaft produzierten Teils, sondern hilft Unternehmen auch dabei die Fehlerquellen aufzudecken, die zu einer höheren Ausschussmenge führen. Dieser Wissensvorsprung ermöglicht dem Mitarbeiter proaktiv und gezielt Maßnahmen zur Qualitätssicherung einzuleiten. Letztlich können so Qualitätsschwankungen im Produktionsprozess verringert, die Ausschussrate minimiert, die Ressourceneffizienz gesteigert, Kosten nachhaltig gesenkt und die Qualität der gefertigten Produkte langfristig gesichert werden.

Damit dies gelingt braucht es Daten, Daten, Daten. Doch welche Daten braucht es wirklich? Und wie und wo können diese vorliegen? Mit dem zweiten Teil unserer Serie „Predicting Quality mit KI“ beantworten wir diese Frage und werfen einen Blick auf die benötigten Daten für die Umsetzung von Predictive Quality.

Daten als Grundlage für Predictive Quality

Im Wesentlichen geht es bei Predictive Quality darum, Machine Learning Algorithmen daraufhin zu trainieren, dass diese auf Basis historischer Produktionsabläufe Muster erkennen, die Rückschlüsse auf die Produktqualität zulassen. Diese trainierten Machine Learning Algorithmen können dann angewendet werden, um eine Vorhersage zur Qualität zukünftig produzierter Teile oder Produkte zu treffen.

Dafür benötigt Predictive Quality eine umfangreiche Datengrundlage, die, sofern sie noch nicht besteht, aufgebaut werden muss. Um die Qualität eines aktuell produzierten Teils oder eines Endprodukts vorhersagen zu können, werden zwei Datenquellen benötigt:

  • Produktionsprozessdaten: Unter Produktionsprozessdaten werden all jede Daten verstanden, die während des Produktionsprozesses anfallen. Dazu gehören insbesondere Maschinendaten (z. B. Sensordaten), Prozessdaten (z. B. Maschineneinstellungen) und Produktdaten (z. B. Materialeigenschaften). Denn um den Einsatz einer Predictive Quality Lösung zu ermöglichen, gilt es, alle Datenquellen, die wertvolle Informationen für eine intelligente Qualitätssicherung liefern können, strukturiert zu erfassen. Das gilt für alle potenziellen Einflussfaktoren, und zwar unabhängig davon, ob ihr Einfluss auf die Qualität offensichtlich ist oder nur vermutet wird. In gerade dieser ganzheitlichen genaueren Betrachtung aller qualitätsrelevanten Faktoren liegt ein entscheidender Vorteil gegenüber bestehenden Methoden. Denn erst so können komplexe Störfaktorkombinationen und Wechselwirkungen innerhalb der Produktion aufgedeckt und Abhängigkeiten sichtbar gemacht werden, die sonst im Verborgenen bleiben.
  • Qualitätsdaten: Ein Datensatz der die Qualitätseinstufung der produzierten Teile (Ausschuss vs. Gutteil) enthält. Klassischerweise haben Unternehmen für die Einstufung einen Bereich definiert, in dem die qualitätsbestimmenden Messungen für ein Gutteil liegen sollen. Die Qualitätseinstufung kann aber auch über Kundenfeedback und Wartungsdaten, wie z.B. Reparaturaufträge und Gewährleistungsdaten, bestimmt werden.

Um aussagekräftige Erkenntnisse zu erhalten, gilt es, diese Datenquellen zu konsolidieren und miteinander zu verknüpfen. Eine Herausforderung stellt hierbei oftmals die Rückverfolgbarkeit und Zuordnung der Qualitätsdaten zu einzelnen Werkstücken oder Produktionschargen dar. Dies ist jedoch zumeist über die Seriennummer, Chargennummer oder den konkreten Produktionszeitpunkt möglich.

Auf Basis dieser vorliegenden Daten lassen sich dann Vorhersagemodelle trainieren. Wird im laufenden Betrieb der Prozess mithilfe der trainierten Machine Learning Modelle kontinuierlich überwacht, können Problemfelder früher erkannt und verhindert werden.

Fazit

Zusammenfassend gilt damit, um mit Predictive Quality durchzustarten brauchen Sie eine zuverlässige Datenbasis. Das bedeutet in dem Fall eine ausreichende Anzahl an hergestellten Produkten, die in Ordnung bzw. nicht in Ordnung sind, um Muster bestmöglich zu erkennen.

Zu Beginn eines Predictive Quality Projektes gilt es daher, sich einen Überblick über die zur Verfügung stehenden Daten zu verschaffen und die Qualität der Daten zu bewerten. Wie wir in unserem Artikel „Wie Sie erfolgreich Data Science Projekte im Qualitätsmanagement meistern“ erklärt haben, erfolgt dieser Schritt im Rahmen des Datenverständnisses zu Beginn eines Predictive Quality Projekts. Heißt: der Data Scientist prüft in diesem Schritt, ob die in Ihrem Unternehmen vorliegenden Daten die Daten enthalten, die zur Erfüllung des Projektziels notwendig sind und ob es sich lohnt, eventuell weitere Daten zu erheben.

Ist eine qualitativ ausreichende Datenbasis gegeben, gilt es, die Daten entsprechend aufzubereiten und einen finalen Datensatz für das Training der Predictive Quality Vorhersagemodelle zu erstellen. Was genau es damit auf sich hat erfahren Sie im dritten und letzten Teil unserer Serie „Predicting Quality mit KI – Teil 3: Die Maschine lernt“.

Sie wollen genauer wissen, wie Sie erfolgreich Data Science oder Data Analytics Projekte im Qualitätsmanagement meistern können? Dann melden Sie sich direkt zu unserem Webinar „Wie Sie erfolgreich Data Analytics-Projekte meistern“ am 27. April 2021 an. Innerhalb von zwei Stunden zeigen wir Ihnen anhand eines Fallbeispiels, worauf Sie nicht nur während eines Data Science Projektes achten müssen, sondern auch wie Sie Ihr Unternehmen bereits jetzt optimal vorbereiten.

Zusätzlich finden Sie auf der Homepage des Westphalia DataLab weitere Informationen zu diesem und weiteren spannenden Themen.

Über den Autor: Westphalia DataLab

Das Westphalia DataLab (WDL) ist ein auf Data Science spezialisiertes Softwareentwicklungs- und Beratungsunternehmen mit tief greifender Expertise in den Bereichen Künstliche Intelligenz und Machine Learning – wie der 2020 von WELT vergebene „Deutscher KI-Anwenderpreis“ und der vom Center Smart Services der RWTH Aachen 2019 verliehene Titel „Champion für maschinelles Lernen“ bestätigen. Neben eigenen SaaS Produktlösungen, wie z. B. eine Forecasting Software, bietet das WDL Data Science und KI Consulting für Unternehmen aller Branchen an.