Menü

KI in der Qualitätssicherung – Open Source Werkzeuge geben künftig den Takt vor

Qualitätssicherung und Qualitätskontrolle gehören vor allem in fertigenden Unternehmen zu den wichtigsten Schritten der Wertschöpfungskette. Hierfür stehen immer mehr Daten zur Verfügung, die es zu verarbeiten gilt. Eine immer größere Rolle spielen hierbei Open-Source-Anwendungen für Big Data Analytics und KI wie beispielsweise Python. Gemeinsam mit DATATRONIQ und der AdvancedAnalytics.Academy hat die DGQ ein Training entwickelt, das den Teilnehmern einen strukturierten Zugang zu dieser Programmiersprache ermöglicht.

Durch die zunehmende Digitalisierung der Produktionsprozesse, den Aufbau und Ausbau von Sensorik sowie die Fortschritte in der Messtechnik stehen künftig deutlich mehr qualitätsbeschreibende und weitaus hochauflösendere Daten zur Verfügung, um die Qualität von Bauteilen oder Prozessen bewerten zu können.

Stetig wachsende Datenvolumina erfordern neue Analysewerkzeuge

Um die großvolumigen Daten künftig effizient verarbeiten und analysieren zu können, werden Werkzeuge benötigt, die sich problemlos mit den wachsenden Datenmengen skalieren lassen. Sie müssen außerdem in der Lage sein, die Datenverarbeitung automatisiert und idealerweise inline durchzuführen. Unternehmen können somit manuelle und stichprobenbasierte Prüfprozesse durch automatisierte Inline-Kontrollen im Fertigungsprozess ersetzen. Neben der vollständigen Prüfabdeckung in Form einer 100-prozentigen Digitalprüfung führt dies auch zu einer weiteren Erhöhung der Wertschöpfung.

KI findet Auffälligkeiten im Prozess und liefert Erklärungen für Prozess-Anomalien

Herkömmliche Mess- und Analysemethoden überwachen in der Regel einzelne Messreihen hinsichtlich einer Verletzung von Toleranzgrenzen (sogenannte univariate Analysen). Algorithmen der Künstlichen Intelligenz (KI) sind dagegen in der Lage, ein Vielfaches an hochfrequenten Zeitreihen auf einmal zu analysieren (multivariate Analysen). Dadurch ist es möglich, auch Korrelationen zwischen einzelnen Messreihen zu analysieren und diese automatisiert nach Auffälligkeiten zu durchforsten. Dabei entdecken KI-Methoden nicht nur Anomalien, sondern liefern zusätzlich auch noch Erklärungskomponenten, um die Ursachen für eine aufgetretene Messanomalie zu deuten und schneller interpretieren zu können. Dadurch lässt sich die Fehlersuche bei Qualitätsproblemen deutlich beschleunigen.

Open-Source-Werkzeuge sind „Quasi-Standard“ für Big Data Analytics und KI

In den letzten zehn Jahren haben sich Open-Source-basierte Werkzeuge zu den Schlüsseltechnologien moderner Big-Data-Infrastrukturen entwickelt – mit Python als „Quasi-Standard“ für Data Analytics, Machine Learning und Künstliche Intelligenz. Dabei geben heute Open-Source-basierte Technologien wie Python, Spark oder Kafka den Takt für die Verarbeitung und die Analyse großer Datenmengen vor. Neue Statistik- und KI-Algorithmen werden in einer weltweiten Community quasi im Tagesrhythmus entwickelt und stehen zur Verwendung in Python bereit.

Bewährte SPC-Methoden werden durch KI-Algorithmen erweitert

Der Vorteil von Python besteht darin, dass alle bewährten und für SPC relevanten Statistik-Methoden verfügbar sind. Darüber hinaus stehen mächtige Visualisierungs- und Chart-Bibliotheken bereit, mit denen man sämtliche Methoden der statistischen Prozesskontrolle (SPC) wie Scatter Plots, Pareto Charts, Bar Charts, Regelkarten bis hin zu Gage RnR Charts abbilden kann. Erweitert werden die SPC Methoden durch mächtige multivariate KI-Algorithmen, welche die Verwendung von unüberwachten (Unsupervised Learning), halb-überwachten (Semi-supervised Learning) und überwachten Lernmethoden (Supervised Learning) ermöglichen. Eine weitere Stärke von Python stellt die Verarbeitung von nahezu allen gängigen Datenformaten dar, so dass beispielsweise auch die Verarbeitung von Audio-, Bild- und Video-Formaten im Rahmen von Qualitätskontrollen problemlos möglich ist.

Ein neues DGQ-Schulungsformat für die Nutzung von Python in der Qualitätskontrolle

Gemeinsam mit der Deutschen Gesellschaft für Qualität und der DATATRONiQ GmbH hat die AdvancedAnalytics.Academy ein innovatives Schulungskonzept entwickelt. Die Teilnehmer werden durch ein dreitägiges Training in die Lage versetzt, die Vorzüge von Python von der Pike auf kennenzulernen. Mit dem erlernten Know-how können sie mit den ersten praktischen Anwendungen in Sachen KI-basierter Qualitätskontrolle beginnen. Das E-Training „Qualitätsprozesse mit Python automatisiert analysieren“ startet zunächst mit einer Einführung in Python, um die Grundzüge der Programmiersprache kennenzulernen. Mit dem Erlernen der wesentlichen Datenverarbeitungsfunktionen, Statistikmethoden und Visualisierungstechniken wird die Grundlage für die Verwendung von Python im Rahmen der statistischen Prozesskontrolle (SPC) geschaffen. Hier werden im Six-Sigma-Kontext die etablierten Statistikmethoden vorgestellt, wie beispielsweise Berechnungen der Prozessfähigkeit, Verwendung von Regelkarten in Abhängigkeit der zugrundeliegenden Stichprobe, Gage RnR. Darüber hinaus behandelt das Training auch gängige Statistikmethoden, wie beispielsweise Pareto-Charts, Bar-Charts, Box-Plots, Violin Plots und Korrelations-Matrizen beziehungsweise -Heatmaps. Ein weiterer Schwerpunkt der Lehrveranstaltung liegt in der praktischen Anwendung von Methoden der Künstlichen Intelligenz im Rahmen der Qualitätskontrolle. Hier werden die theoretischen Grundlagen rund um notwendige Datenaufbereitungstechniken, die wichtigsten Algorithmen, das Trainieren von KI-Modellen, deren Interpretation sowie dem Deployment der Modelle in Rahmen einer Produktivsetzung behandelt. Um den Praxisbezug über die gesamte Schulung hinweg aufrecht zu erhalten, begleiten praktische Übungen alle theoretischen Inhalte. Sämtliche Datenbeispiele in den praktischen Übungen stellt DATATRONiQ in Form anonymisierter Realdaten aus Fertigungsprozessen bereit.

Eine moderne cloudbasierte KI Plattform als kollaborative Schulungsumgebung

Um den Anforderungen an eine reibungslose Durchführung des E-Trainings gerecht zu werden, wurde mit AltaSigma eine moderne cloudbasierte KI-Plattform bereitgestellt. Die Teilnehmer können ausschließlich über den Browser darauf zugreifen. Somit werden lokale Installationen auf den Rechnern der Teilnehmer vermieden. Es ist zudem sichergestellt, dass sie mit den identischen qualitätsgesicherten Python Bibliotheken arbeiten können. Über AltaSigma haben alle Teilnehmer Zugriff auf die Daten, Übungen und Lösungen, welche per Notebooks bereitgestellt werden. Im Rahmen der Bearbeitung der einzelnen Übungen erlernen die Teilnehmer neben der reinen Programmierung in Python zusätzlich das kollaborative Arbeiten in einer modernen cloudbasierten KI-Plattform.

Cloudbasierte KI Plattform als kollaborative Schulungsumgebung

 

Die nächsten Schulungstermine stehen bereits fest
Das E-Training „Qualitätsprozesse mit Python automatisiert analysieren“ geht im Oktober 2022 in die nächste Runde und findet in Form von fünf Nachmittagsveranstaltungen vom 19.10. – 28.10.2022 online statt. Ab sofort ist die Anmeldung zum Training im Online-Shop möglich.

Über den Autor

Stefan Weingärtner ist Gründer und Geschäftsführer der DATATRONiQ GmbH, einem innovativen AIoT Lösungsanbieter für das Industrielle Internet der Dinge (IIoT). Darüber hinaus ist er Gründer und Geschäftsführer der AltaSigma GmbH, einem Anbieter einer innovativen Enterprise AI Orchestration Plattform, mit der Unternehmen Künstliche Intelligenz in ihrem jeweiligen Geschäftsfeld in kürzester Zeit effizient nutzen können. Davor war er Gründer und Geschäftsführer der DYMATRIX. Mit über 25 Jahren Berufserfahrung im Data Science Consulting- und Applikations-Umfeld zählt er zu den erfahrensten und renommiertesten Experten in dieser Domäne in Deutschland. Er ist als Dozent an verschiedenen Hochschulen tätig, Autor zahlreicher Fachbeiträge zum Thema Machine Learning und Herausgeber der Buchreihe „Information Networking“.

KI-basierte Bildverarbeitung in der Qualitätssicherung

Künstliche Intelligenz (KI) hat in den vergangenen Jahren insbesondere in der Bildverarbeitung ihr hohes Potenzial gezeigt. Allgemein bekannt sind hier vor allem Klassifizierungsaufgaben, wie beispielsweise die Unterscheidung zwischen Hunde- und Katzenbildern [Golle 2008]. Im industriellen Umfeld findet man Klassifizierungsaufgaben insbesondere in der Qualitätssicherung (QS). Die in der Bildverarbeitung eingesetzten KI-Methoden sind vor allem aus dem Bereich des maschinellen Lernens (ML) und können den überwachten Lernverfahren zugeordnet werden. Unüberwachte Lernverfahren spielen hier eine eher untergeordnete Rolle. (mehr …)

Blick in die Black Box: Erklärbarkeit maschineller Lernverfahren

In den letzten Jahren hat das maschinelle Lernen (ML) als Teildisziplin der künstlichen Intelligenz in vielen Bereichen, wie etwa der Produktion oder Medizin, verstärkt an Bedeutung gewonnen. Immer wichtiger wird dabei das sogenannte Deep Learning, das heißt das Training tiefer künstlicher neuronaler Netze (KNN) mittels großer Datensätze für eine bestimmte Aufgabe. Oftmals übertreffen Modelle, die durch Deep Learning erstellt wurden, sogar den Menschen (OpenAI 2019). Allerdings stellen viele ML-Verfahren, und hierzu zählen auch die gerade genannten tiefen KNN, eine Art „Black Box“ dar. Das bedeutet, dass getroffene Entscheidungen dieser Verfahren aufgrund komplexer interner Prozesse für den Menschen – selbst für Experten – oft nicht nachvollziehbar sind. (mehr …)

Deep Reinforcement Learning für sichere Mensch-Maschine-Kollaboration

Im Zeitalter zunehmender Automatisierung und Digitalisierung, Industrie 4.0, Produktindividualisierung und globaler Vernetzung müssen auch Mensch und Maschine immer enger zusammenarbeiten, um optimale Produktivität der Produktionsprozesse zu garantieren. Je nach Anwendungsbereich können Mensch und Roboter unterschiedlich eng zusammenarbeiten. Auch wenn der Begriff „Mensch-Roboter-Kollaboration (MRK)“ geläufig ist, kann das „K“ in MRK für verschiedene Ausprägungen der Zusammenarbeit stehen. (mehr …)

Warum rückgeführte Messergebnisse für Ihr Unternehmen notwendig sind

Rund um die Uhr wird gemessen. Im täglichen Leben beschäftigen wir uns eher unbewusst mit der Fragestellung, ob der Messwert überhaupt ein richtiger, gültiger Messwert ist. Vielleicht beim Kauf von hochpreisigen Lebensmitteln, bei einer gemessenen Geschwindigkeitsüberschreitung oder einer Reklamation, bewerten wir das Messergebnis auf seine Richtigkeit. In einer so schnelllebigen Zeit wie heute sind wir in einem besonderen Maß auf gültige Messergebnisse angewiesen. Aber wie kommen diese zustande, bzw. wann kann von einem gültigen Messergebnis die Rede sein?

(mehr …)

Geeignete Mess- und Prüfmittel – das Herz jeder Produktion

Wer komplexe Produktionsprozesse oder Konformitätsbestätigungen sicher beherrschen möchte, muss auch die „Kunst des Messens“ beherrschen. Dazu gehört vor allem die Feststellung der Eignung von Mess- und Prüfmitteln. Tatsächlich geht es jedoch nicht um die Eignung von Mess- und Prüfmitteln, sondern um den Nachweis das die zur Anwendung kommenden Mess- und Prüfmittel inkl. der dazugehörigen Methoden für die jeweiligen Überwachungs- und Messtätigkeiten geeignet sind. Nur dadurch wird gewährleistet, dass die Risiken in Verbindung mit ungeeigneten Überwachungs- und Messtätigkeiten nahezu auf null reduziert werden. Zu den wesentlichen Risiken zählen:

  • ungültige Konformitätsbestätigung (Auslieferung unsicherer Produkte)
  • nicht wirksame Regelkreise in der Produktion (hoher Ausschuss)
  • etwaiger Fehlerdurchschlupf zum Kunden (Reklamation, Kosten)
  • nicht Einhaltung von gesetzlichen Forderungen (z.B. CE)
  • Rückrufaktionen (erhebliche Kosten und Imageverlust)
  • erhebliche Haftungsrisiken (z.B. Umweltrecht)

In allen gängigen branchenübergreifenden (z.B. ISO 9001, ISO 14001, ISO 45001, etc.) und -spezifischen (ISO 9100, HACCP, QSF, ISO 17025, DIN 27201-9, ISO 13485, IATF 16949, etc.) Standards ist das Thema „… gültige und zuverlässige Überwachungs- und Messergebnisse“ in Verbindung mit festgelegten Anforderungen“ als „muss“ Forderung enthalten. Dazu kommen dann noch die Anforderungen an die Eignung von Überwachungs- und Messtätigkeiten aus diversen Rechtsvorschriften.

Die Kernforderung von ISO 9001 ist nicht das Kleben von Plaketten an Mess- oder Prüfmitteln

Was ist die Kernforderung von ISO 9001 in Bezug auf Produktkonformität? Erinnern wir uns an die Einleitung zu ISO 9001 „Die potenziellen Vorteile für eine Organisation, die sich aus der Umsetzung eines Qualitätsmanagementsystems basierend auf dieser Internationalen Norm ergeben, sind folgende: a) die Fähigkeit, beständig Produkte und Dienstleistungen zu liefern, die die Kundenanforderungen und zutreffende gesetzliche und behördliche Anforderungen erfüllen;…“. Das heißt im Klartext, dass die definierte Produkt-/Dienstleistungsqualität abgesichert hergestellt wird.

Dazu fordert die Norm, dass die entsprechenden Ressourcen festgelegt und bereitgestellt werden müssen, um die Konformität von Produkten und Dienstleistungen durch Mess- oder Überwachungsergebnisse nachweisen zu können. Konformität wiederum bedeutet die Erfüllung von Anforderungen. Eine weitere wesentliche Anforderung von ISO 9001 ist, dass die Eignung der bereitgestellten Ressourcen für die jeweilige Mess- oder Überwachungstätigkeit gegeben ist. Der Nachweis dieser Eignung ist dann auch entsprechend zu dokumentieren. Da ISO 9001 eine sogenannte wirkzielorientierte Norm ist, sind keine Methoden zur Eignungsfeststellung festgelegt worden. Die Definition der Methoden zur Eignungsfeststellung obliegt somit dem Anwender der Norm.

Was verbirgt sich hinter der Eignungsfeststellung?

Grundlage für die Eignungsfeststellung (also den geeigneten Einsatz für den beabsichtigten Gebrauch) bilden die Spezifikationen der Merkmale des Produktes. Eine Eignung ist dann gegeben, wenn ein Mess- oder Prüfmittel die definierten Anforderungen an seine beabsichtigte Verwendung erfüllt. Die definierte Anforderung ist das erwartete Mess- oder Überwachungsergebnis, um die Konformität mit den Vorgaben bestätigen zu können. In der Regel sind diese Anforderungen in entsprechenden Prüfspezifikationen festgelegt.

Es gibt viele Möglichkeiten zur Eignungsfeststellung. Entweder über statistisch abgesicherte Verfahren oder einfach nur durch die Anwendung des technischen Verstandes in Verbindung mit umfassenden Kenntnissen der Messtechnik und der Messfehler und Fehlerursachen. Die sicherlich bekanntesten Verfahren zum Eignungsnachweis sind die Measurement System Analysis (MSA, AIAG) oder der VDA Band 5 (Prüfprozesseignung, Eignung von Messsystemen, Mess- und Prüfprozessen – bei geometrischen Merkmalen). Diese Verfahren sind jedoch nicht zwingend erforderlich, um die Eignung feststellen zu können. Eine Eignung ist auch dann gegeben, wenn der Abstand zwischen der Fehlergrenze des Mess- oder Prüfmittels wesentlich kleiner ist, als die Toleranzgrenze für die Konformitätsentscheidung. Wichtig ist, dass ein zuverlässiges und reproduzierbares Messergebnis erzeugt werden kann.

Absicherung der Eignung als Erfolgsfaktor

Nachdem einmal die Eignung eines Verfahrens zur Ermittlung gültiger und zuverlässiger Überwachungs- und Messergebnisse nachgewiesen wurde, besteht die zweite Kernaufgabe darin, die Eignung kontinuierlich sicherzustellen. Dazu zählt dann u.a. die regelmäßige Verifizierung der Überwachungs- und Messverfahren mit Hilfe geeigneter Standards oder die Kalibrierung der eingesetzten Mess- oder Prüfmittel. Nur durch diese Maßnahmen sind metrologisch rückführbare Überwachungs- und Messergebnisse zur Konformitätsbewertung darstellbar.


DIN EN ISO 9001:2015 „Qualitätsmanagementsysteme – Anforderungen“

DIN 32937:2018 „Mess- und Prüfmittelüberwachung – Planen, Verwalten und Einsetzen von Mess- und Prüfmitteln“

DIN EN ISO 10012:2004 „Messmanagementsysteme – Anforderungen an Messprozesse und Messmittel“

VDI/VDE 2600:2013 Bl. 1, „Prüfprozessmanagement – Identifizierung, Klassifizierung und Eignungsnachweise von Prüfprozessen“

IATF 16949:2016 „Qualitätsmanagement – System – Standard der Automobilindustrie“

DIN EN ISO 9001:2015 „Qualitätsmanagementsysteme – Anforderungen“

DIN EN ISO/IEC 17025:2018 Allgemeine Anforderungen an die Kompetenz von Prüf- und Kalibrierlaboratorien“

ISO/IEC-Leitfaden 99:2007 „Internationales Wörterbuch der Metrologie“

Testo Fibel – Prüfmittelmanagement und Kalibrierung / Die Forderungen der Richtlinien und deren praktische Umsetzung“


Jörg Roggensack ist von Haus aus Elektroniker und Calibration Engineer GAF sowie zertifizierter Auditor für div. Managementsysteme. Er hat umfassende Erfahrung als Managementsystemkoordinator und als Auditor für diverse Regelwerke und Managementsysteme (IMS, QM, UM, AS, GMP, GLP) sowie als LEP Assessor die er in über 27 Jahren bei der Bundeswehr, in der Industrie und bei Zertifizierungsgesellschaften sammeln konnte. Über mehrere Jahre bildete er u.a. Kalibriertechniker an der Technischen Schule der Luftwaffe in Kaufbeuren aus und begann seine industrielle Kariere als Kalibrierlaborleiter bei BEYSCHLAG. In diversen Veröffentlichungen, als Herausgeber des Weka Werkes der „Mess- und Prüfmittelbeauftragte“ und als Auditor, Trainer sowie Umsetzungsberater bei JR Management Services & Qualifizierung gibt er immer wieder Hilfestellungen zur Gestaltung wirtschaftlicher und normkonformer Mess- und Prüfmittelüberwachungssysteme.