Menü

3. Süddeutscher Qualitätstag am Fraunhofer IPA in Stuttgart

2. Süddeutscher Qualitätstag, SQT

Der 3. Süddeutsche Qualitätstag am 28. Juni 2024 ist die perfekte Gelegenheit für alle, die ihre Kenntnisse im Bereich des Qualitätsmanagements erweitern möchten. Erleben Sie spannende Vorträge von renommierten Experten und diskutieren Sie die neuesten Trends und Entwicklungen mit anderen Teilnehmerinnen und Teilnehmern.

Die Eröffnung des 3. Süddeutschen Qualitätstags erfolgt unter anderem durch Michael Burghartz-Widmann, Vorstandsmitglied der DGQ. Ein weiteres Highlight ist die Keynote von Dr. Lars Vollmers. In seinem Vortrag “Zurück an die Arbeit – Wie aus Business-Theatern wieder echte Unternehmen werden” analysiert er, was in den Unternehmen falsch läuft, und zeigt, wie diese wieder zurückfinden zu echter Arbeit, die Freude macht, Sinn ergibt und sich nachhaltig lohnt.

Fachvorträge zu aktuellen Themen im Qualitätsmanagement

In zahlreichen Vorträgen aus Forschung und Praxis erfahren Sie, welche Trends sich im Qualitätsmanagement abzeichnen, welche Instrumente Firmen erfolgreich einsetzen und welche Standards neu betrachtet werden sollten. Freuen Sie sich auf den praktischen Austausch mit zahlreichen Expertinnen und Experten und profitieren Sie von den Erfahrungen.

Vortragsprogramm des 3. Süddeutschen Qualitätstags

  • Product Compliance System
    Dr. Ludwig Schares, Dr. Ing. h.c. F. Porsche Aktiengesellschaft
  • Reform nach fast 40 Jahren – Welche Auswirkungen hat die neue EU-Produkthaftungsrichtlinie für Unternehmen?
    Dr. Gerald Gräfe, Rechtsanwalt und Partner, CMS Hache Sigle
  • Industrielle Exoskelette – Status, Funktion, Ausblick
    Dr.-med. Urs Schneider, Abteilungsleiter Biomechatronische Systeme, Fraunhofer-Institut für Produktionstechnik und Automatisierung, IPA
  • Material Compliance – Zunehmende Heraus- und Anforderung für Unternehmen
    Berit Guse, Umweltmanagement, Dr. Fritz Faulhaber GmbH & Co. KG & Anne-Kathrin Nuffer, Gruppenleiterin Sustainability and Material Compliance Management, Fraunhofer-Institut für Produktionstechnik und Automatisierung, IPA
  • Holistisches Risikomanagement
    Alexander Schloske, Senior Expert Quality, Fraunhofer-Institut für Produktionstechnik und Automatisierung, IPA
  • Vom Lager zum Löffel
    Christian Pflüger, DACHSER SE
  • Industrie im Wandel – Der Weg zum lokal CO2 neutralen Transport aus der Sicht eines Nutzfahrzeugherstellers
    Dr. Dalibur Dudic, Daimler Truck AG
  • Risikomanagement für Medizinprodukte
    Dr. Thomas Schmitz, Consulting | Project Management PLATO GmbH | a PeakAvenue Company
  • Fehler ansprechen – verschweigen – ansprechen – verschweigen
    Thomas Dörr, DFS Deutsche Flugsicherung GmbH / Jörg Rittker, Dr. Fritz Faulhaber GmbH & Co. KG / Hildegard Schuller, Mitglied im Fachkreis Qualität und Projekte / Gabriella Zimmermann, Ipu fit for success
  • Schwäbische Kehrwoche im Managementsystem
    Jörg Nienaber, N5 GmbH
  • Prozessfähigkeitsuntersuchungen und Besondere Merkmale oder wie weise ich einen robusten Prozess nach
    Dr. Dirk Jödicke, Six Sigma Master Black Belt, Coaching & Prozessoptimierungen
  • Performance under Pressure! Was Führungskräfte von Spitzensportlern lernen können!
    Dunja Lang, Dunja Lang Consulting
  • Die Chancenchance: Managementsysteme der Zukunft
    Dr. Markus Reimer

 

Der 3. Süddeutsche Qualitätstag bietet damit eine einzigartige Möglichkeit zum Wissensaustausch und Networking für Fach- und Führungskräfte im Qualitätsmanagement.

Wir freuen uns, wenn Sie mit dabei sind!

 

Informationen zur Anmeldung

Wann: Freitag, 28. Juni 2024, von 10:00 Uhr bis 17:00 Uhr
Wo: Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA, Nobelstr. 12/13, 70569 Stuttgart
Kosten: 99,- € zzgl. MwSt. (79,- € zzgl. MwSt. für DGQ-Mitglieder)

Zur Anmeldung »

 

Als DGQ-Mitglied können Sie zum reduzierten Kostenbeitrag teilnehmen. Sie sind noch kein Mitglied? Dann nutzen Sie doch für die Anmeldung unsere beitragsfreie, dreimonatige Schnuppermitgliedschaft.

Haben Sie Fragen? Nehmen Sie gern Kontakt mit uns in der DGQ-Geschäftsstelle Stuttgart auf! Einfach per E-Mail an stuttgart@dgq.de oder telefonisch unter 0711- 95 611 61. Bei allen organisatorischen Fragen und Rückfragen zur Anmeldung hilft Ihnen auch unser Kooperationspartner des Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA (event@ipa.fraunhofer.de, 0711 970-3540) weiter.

Kontinuierliche Eignung von Prüfprozessen nach VDA Band 5 – Hintergrund und praktische Umsetzung

Prüfprozesse, VDA 5

Die Neuauflage des VDA Band 5 aus dem Jahr 2021 enthält eine Vielzahl von Neuerungen, die für Unternehmen im Automobilbereich in Zukunft wichtig werden. Eine der wichtigsten Neuerungen stellt die Forderung eines fortlaufenden Eignungsnachweises für kritische Prüfprozesse dar. Dieser Fachbeitrag erklärt die technischen und normativen Hintergründe der Anforderung und stellt konkrete Umsetzungsmöglichkeiten dar.

Die ISO 9001:2015 definiert Begriffe für die korrekte Funktion von Prüfmitteln. Grundsätzlich müssen im Kontext der ISO 9001:2015 zu jedem Zeitpunkt Eignung und Rückführbarkeit von Prüfmitteln sichergestellt sein. Diese beiden Anforderungen finden sich in vergleichbarer Form in Automobilspezifischen Normen wie der IATF 16949 oder dem VDA Band 5 wieder. Der VDA Band 5 beschreibt unter anderem, wie Eignung und Rückführbarkeit statistisch nachgewiesen werden können. Die Nachweispflicht gilt für alle Sensoren, Messgeräte und sonstige Hilfsmittel, bei denen eine Kundenspezifikation abgeprüft wird.

Um zu verstehen, was der VDA Band 5 unter einem fortlaufenden Eignungsnachweis versteht, ist es hilfreich zu veranschaulichen was die beiden Begriffe Rückführbarkeit und Eignung bedeuten:

Begriffsdefinition Rückführbarkeit
Rückführbarkeit stellt sicher, dass Messungen verschiedener Messmittel untereinander vergleichbar sind. So ist z.B. sichergestellt, dass Kunden und Lieferanten bei Messungen an Produkten zu gleichen Ergebnissen kommen. Die Vergleichbarkeit wird durch regelmäßige Kalibrierung sichergestellt. Das Kalibrierergebnis setzt sich aus Kalibrierabweichung und Kalibrierunsicherheit zusammen. Aus dem Kalibrierergebnis lässt sich eine Obergrenze für den systematischen Messfehler ableiten. Kalibrierung findet in regelmäßigen Intervallen und unter kontrollierten Bedingungen außerhalb des laufenden Produktionsprozesses statt.
Begriffsdefinition Eignung
Eignung beschreibt die Unsicherheit einer Messung im Verhältnis zu einer gegebenen Toleranz (z.B. ein Zeichnungsmaß). Je kleiner die Unsicherheit einer Messung im Verhältnis zur Toleranz, desto höher ist die Eignung eines Messmittels für eine gegebene Prüfaufgabe. Abbildung 1 stellt den Sachverhalt grafisch dar. Wichtig ist, dass ein Eignungsnachweis immer unter Berücksichtigung der realen Anwendungsbedingungen geführt werden muss. Alle Einflussfaktoren, die im Serienprüfprozess wirksam sind, müssen auch im Eignungsnachweis berücksichtigt werden. Der systematische Messfehler aus der Kalibrierung ist somit einer von mehreren Einflussfaktoren, die zur Messunsicherheit beitragen.
Schematische Darstellung von Eignung nach VDA Band 5

Abb. 1: Schematische Darstellung von Eignung nach VDA Band 5. Der gelb hinterlegte Bereich stellt den Unsicherheitsbereich der Messung dar.

Sicherstellung der fortlaufenden Eignung eines Prüfsystems

Bisher war es in vielen Firmen gelebte Praxis, den Eignungsnachweis einmalig bei der Inbetriebnahme oder nach größeren Änderungen durchzuführen. Die korrekte Funktion des Prüfmittels wurde lediglich über die regelmäßige Kalibrierung abgesichert. Dahinter steckt die Annahme, dass sich die Messunsicherheit eines Prüfmittels während des Betriebes nicht nennenswert verändert. Aus technischer Sicht ist dies jedoch eine gewagte Annahme. In vielen Messprozessen wird die Unsicherheit stark von äußeren Einflüssen bestimmt. Maschinen und Messaufnahmen und elektrische Kontaktierungen unterliegen beispielsweise dem Verschleiß, der über die Zeit hinweg zu einer höheren Messunsicherheit führen kann. Viele dieser äußeren Einflüsse auf die Messunsicherheit bleiben bei der regelmäßigen Kalibrierung jedoch unsichtbar.

An dieser Stelle setzt der neue VDA Band 5 an. In Kapitel 10 über die fortlaufende Eignung steht geschrieben: “Die Beurteilung der fortlaufenden Eignung, bislang oft auch als Stabilitätsüberwachung oder Messbeständigkeit genannt, hat aufgrund der Normenanforderung in der ISO 9001 an Bedeutung gewonnen.” Und weiter: “Die regelmäßige Kalibrierung der Messmittel ist im Rahmen der Prozesse zur Prüfmittelüberwachung unumgänglich (siehe Kapitel 4.5.2), reicht aber in vielen Fällen für eine umfassende Stabilitätsüberwachung nicht aus, da die Kalibrierung nicht unter tatsächlichen Einsatzgegebenheiten durchgeführt wird.

Der VDA Band 5 stellt somit deutlich heraus, dass nicht alle Einflussfaktoren auf die Messunsicherheit durch Kalibrierung abgesichert werden können. Aus diesem Grund reicht die regemäßige Kalibrierung allein nicht aus, um fortlaufende Eignung eines Prüfsystems nachzuweisen.

Da Eignungsnachweise in der Regel mit erheblichem Aufwand verbunden sind, stellt sich die Frage, für welche Prüfprozesse ein fortlaufender Eignungsnachweis erforderlich ist. Der VDA Band 5 fordert insbesondere für sicherheitskritische und zulassungskritische Merkmale Absicherungsmaßnahmen, um die fortlaufende Eignung von Prüfprozessen sicherzustellen. In verringertem Umfang gilt diese Anforderung auch für Prüfungen von funktionswichtigen Merkmalen und Messungen, die direkten Einfluss auf die Produktqualität haben.

Praktische Umsetzung des kontinuierlichen Eignungsnachweises

Neben der Frage, für welche Prüfprozesse fortlaufende Eignung gefordert ist, ist die praktische Umsetzung eines solchen kontinuierlichen Eignungsnachweises besonders wichtig. Der zusätzliche Aufwand, der durch den kontinuierlichen Eignungsnachweis entsteht, sollte dabei so gering wie möglich ausfallen. Der VDA Band 5 schlägt zur praktischen Umsetzung einer fortlaufenden Eignungsprüfung den Einsatz von Regelkarten vor. Um die Daten für die Regelkarte zu erheben, werden regelmäßig ein oder mehrere Meisterteile geprüft und die Messwerte erfasst. Die Meisterteile sollten in sich stabil sein und ihre Messwerte über die Zeit hinweg möglichst wenig ändern. Auf diesem Weg kann die Stabilität eines Messprozesses in Bezug auf Lage und Streuung überwacht werden. Häufigkeit und Umfang der Prüfung werden auf Basis des Risikos festgelegt. Im VDA Band 5 werden als Beispiel klassische x ̅-s Karten mit einer Eingriffsgrenze von drei Standardabweichungen (99,73% Vertrauensniveau) oder gleitende Mittelwertkarten vorgeschlagen.

Abbildung 2 zeigt eine Regelkarte mit x ̅- und s-Spur, die zur Stabilitätsüberwachung eingesetzt werden kann. Der Nachteil der Regelkartentechnik besteht im beträchtlichen zeitlichen Aufwand. Prüfstände für komplexe Produkte wie Steuergeräte oder Getriebe haben hunderte von Prüfungen. Selbst wenn nur ein Teil der Messungen für die fortlaufende Eignung ausgewählt wird, kommen auf diese Art schnell dutzende Regelkarten zusammen.

Zweispurige Stabilitätskarte zur Überwachung von Lage und Streuung eines Messprozesses

Abb. 2: Zweispurige Stabilitätskarte zur Überwachung von Lage und Streuung eines Messprozesses. Die Eingriffsgrenzen sind rot gekennzeichnet. Zur besseren Orientierung wurden zusätzlich auch die Warngrenzen in Gelb dargestellt.

Automatische Überwachung von Prüfprozessen mittels Softwarelösung

Eine digitale Auswertung von Messdaten kann den zeitlichen Aufwand für den kontinuierlichen Eignungsnachweis erheblich reduzieren. Prophet Analytics bietet eine Softwarelösung, die Prüfprozesse automatisch überwacht und bei Abweichungen Benachrichtigungen erzeugt. So ist es nicht länger notwendig, jede Regelkarte manuell zu führen und zu bewerten. Verletzungen von Eingriffs- und Warngrenzen können über automatische Benachrichtigungen gelenkt werden.

Obwohl die Regelkartentechnik das Risiko fehlerhafter Messungen deutlich verringert, erlaubt dieser Ansatz streng genommen keine fortlaufende Eignungsprüfung. Regelkarten basieren grundsätzlich auf Stichprobenprüfungen und geben somit immer nur eine Momentaufnahme wieder. Einflussfaktoren, die nur sporadisch wirksam sind, können durch Regelkarten nicht zuverlässig überwacht werden. Ein zweiter Nachteil der Regelkartentechnik ist die Tatsache, dass das Einlegen der Meisterteile in der Regel einen Eingriff in den normalen Produktionsprozess bedeutet. In Produktionsanlagen und Maschinen, die auf eine kontinuierliche Fertigung ausgelegt sind, ist so ein Eingriff nicht möglich. Beispiele hierfür sind chemische Prozesse oder die Herstellung von Blechen oder Folien.

Prophet Analytics bietet auch eine Lösung zur Stabilitätsüberwachung für Maschinen, bei denen keine Meisterteile verwendet werden können. Eine Überwachung von einzelnen Prüfmitteln ist dann möglich, wenn weitere Daten aus unterschiedlichen Quellen verfügbar sind. Abbildung 3 zeigt eine schematische Darstellung des Verfahrens. Das Verfahren nutzt Daten aus Messungen, die von anderen Prüfeinrichtungen erhoben wurden und mit dem zu überwachenden Prüfmittel korreliert sind.

Schematische Darstellung des Korrelationsverfahrens zur Stabilitätsüberwachung von Messprozessen

Abb. 3: Schematische Darstellung des Korrelationsverfahrens zur Stabilitätsüberwachung von Messprozessen.

Anwendung des Korrelationsverfahren in der Automobilindustrie

Ein Anwendungsbeispiel für das Korrelationsverfahren ist die Fertigung von Steuergeräten in der Automobilindustrie. Steuergeräte werden häufig mehrfach bei unterschiedlichen Temperaturen geprüft. Die Messwerte an den unterschiedlichen Prüfstationen sind korreliert. Durch Vergleich der Messwerte an den unterschiedlichen Prüfstationen kann eine Prognose für den erwarteten Messwert und ein plausibler Streubereich ermittelt werden. Abbildung 4 zeigt Messungen eines Prüfprozesses und den Zufallsstreubereich der Messung, der mit Hilfe des Korrelationsverfahrens ermittelt wurde. Messwerte außerhalb des blauen Zufallsstreubereichs würden auf eine Fehlfunktion des Messgeräts hindeuten.

Daten eines Messgeräts (Punkte)

Abb. 4: Daten eines Messgeräts (Punkte). Die blau hinterlegte Fläche zeigt Zufallsstreubereich an.

Das Korrelations-Verfahren hat zwei entscheidende Vorteile gegenüber der Regelkartentechnik: Es basiert nicht auf Stichproben und ermöglicht daher je nach Anlagenaufbau bis zu 100 Prozent Überwachung. Außerdem ist das Korrelationsverfahren aufwandsneutral, weil bestehende Daten aus dem laufenden Prozess verwendet werden und kein händischer Prozesseingriff mehr erforderlich ist. Das Korrelationsverfahren und das Regelkartenverfahren lassen sich unabhängig voneinander oder in Kombination anwenden (siehe Beispielanwendung einer Stabilitätsüberwachung).

Fazit

Auf den ersten Blick bedeutet ein kontinuierlicher Eignungsnachweis für Unternehmen mehr Aufwand und mehr Kosten. Diesem Aufwand stehen aber auch Einsparungen gegenüber. Die bessere Absicherung der Prüfprozesse beugt Reklamationen vor. Da die Lage und Streuung von Prüfprozessen mit kontinuierlichem Eignungsnachweis bekannt sind, besteht auch die Möglichkeit Kalibrierintervalle neu zu bewerten und gegebenenfalls zu verlängern. Viele Unternehmen nutzen heute schon eine Kombination aus Stabilitätsüberwachung und Kalibrierung, um Kosten bei der Kalibrierung einzusparen und gleichzeitig ein hohes Maß an Absicherung zu erreichen.

Zusammenfassend kann gesagt werden, dass die Anforderung nach einem kontinuierlichen Eignungsnachweis im neuen VDA Band 5 technisch sinnvoll ist. Die Forderung kann auf grundlegende Anforderungen der ISO 9001:2015 zurückgeführt werden und verbessert die Absicherung von kritischen Prüfprozessen. Der Einsatz moderner Softwarelösungen kann helfen, ein hohes Maß an Absicherung zu erreichen, ohne unnötige händische Eingriffe in den Produktionsprozess vornehmen zu müssen. Der kontinuierliche Eignungsnachweis kann auf diesem Wege nahezu aufwandsneutral gestaltet werden.

 

Über den Autor:
Dr.-Ing. Stefan Prorok ist Geschäftsführer der Prophet Analytics GmbH und DGQ-Trainer für Qualitätssicherung und Prüfmittel. Prophet Analytics unterstützt Unternehmen in allen Phasen Ihrer KI-Umsetzung mit Trainings- und Beratungsangeboten.

Lean Management ist mehr als Aufräumen – die Bedeutung und Prinzipien

Lean Management, Logistik, Lager

Lean Management hat in den letzten Jahrzehnten einen bemerkenswerten Aufschwung erlebt und ist zu einem integralen Bestandteil zahlreicher Unternehmensstrategien geworden. Doch oft wird Lean Management fälschlicherweise auf die schlichte Organisation und Sauberkeit am Arbeitsplatz reduziert. In Wahrheit ist Lean weit mehr als nur das.

Lean Management ist ein ganzheitlicher Ansatz zur Steigerung der Effizienz und Wertschöpfung in Unternehmen. Es geht dabei nicht nur um die Reduzierung von Verschwendung und die Schaffung von Ordnung am Arbeitsplatz, sondern um eine tiefgreifende Transformation der Unternehmenskultur und -prozesse.

Die Lean Prinzipien: Grundlagen einer schlanken Organisation

Die Prinzipien des Lean Management bilden das Fundament für eine effektive Umsetzung. Die Kernprinzipien lauten:

  1. Wertschöpfung aus Sicht des Kunden:
    Das Hauptaugenmerk liegt darauf, den Wert aus Sicht des Kunden zu definieren und alle Aktivitäten darauf auszurichten, diesen Wert zu maximieren und Verschwendung zu minimieren.
  2. Identifikation und Eliminierung von Verschwendung:
    Wertstrom identifizieren. Der Ansatz zielt darauf ab, alle Arten von Verschwendung zu erkennen und zu beseitigen, sei es in Form von Überproduktion, Wartezeiten, unnötigen Bewegungen, Lagerbeständen oder Fehlern.
  3. Schaffung von Fluss:
    Die reibungslose Durchführung von Prozessen wird durch die Schaffung eines kontinuierlichen Flusses von Materialien, Informationen und Aktivitäten angestrebt, um Verzögerungen und Engpässe zu minimieren.
  4. Pull-Prinzip:
    Die Produktion wird durch die tatsächliche Nachfrage gesteuert, wodurch Überproduktion vermieden und eine Just-in-Time-Produktion ermöglicht wird.
  5. Streben nach Perfektion:
    Lean Management ist ein kontinuierlicher Verbesserungsprozess, bei dem ständig nach Möglichkeiten gesucht wird, Prozesse effizienter zu gestalten und die Qualität zu verbessern.

Sieben Arten der Verschwendung

Die sieben Arten der Verschwendung (Akronym TIMWOOD), auch bekannt als die “7 Muda” im Lean Management, sind grundlegende Kategorien von nicht-wertschöpfenden Aktivitäten oder Ressourcen, die die Effizienz von Prozessen verringern. Diese Konzepte wurden von Taiichi Ohno, einem Pionier des Toyota Production Systems, entwickelt.

Die sieben Arten der Verschwendung lassen sie wie folgt beschreiben:

  1. Überflüssige Transporte (Transportation):
    Überflüssige Transporte beziehen sich auf unnötige Bewegungen von Materialien oder Produkten innerhalb eines Produktionsprozesses oder zwischen verschiedenen Standorten. Dies kann zu zusätzlichen Kosten, Zeitverlusten und Beschädigungen führen.
  2. Bestände (Inventory):
    Bestände entstehen, wenn mehr Materialien oder Produkte vorhanden sind als unmittelbar benötigt werden. Dies führt zu erhöhten Lagerkosten, versteckten Qualitätsproblemen und einem erhöhten Risiko für Überproduktion und Verschwendung.
  3. Bewegung (Motion):
    Verschwendung tritt auf, wenn Mitarbeitende unnötige Bewegungen ausführen, um eine Aufgabe abzuschließen, zum Beispiel längere Laufwege, unergonomische Arbeitsplatzgestaltung oder unnötige Auspack- oder Umräumvorgänge. Dies kann zu Ermüdung, Verletzungen und einer Verringerung der Effizienz führen.
  4. Wartezeiten (Waiting):
    Wartezeiten entstehen, wenn Produkte oder Mitarbeitende auf den Beginn einer nächsten Aktivität warten müssen. Dies kann durch ineffiziente Prozesse, unzureichende Ressourcenauslastung oder Engpässe in der Produktion verursacht werden.
  5. Überproduktion (Overproduction):
    Überproduktion tritt auf, wenn mehr produziert wird, als tatsächlich benötigt wird. Dies führt zu unnötigen Lagerbeständen, erhöhten Lagerkosten und verdeckt oft andere Probleme in der Produktion, wie Engpässe und Qualitätsprobleme. Zudem sind Überproduktionen die Ursache für zwei bereits genannte Lean Verschwendungsarten, nämlich Transport und Bestände.
  6. Überbearbeitung (Overprocessing):
    Overprocessing oder auch overengineering bezieht sich auf unnötige oder übermäßige Arbeitsschritte oder Aktivitäten, die über die Anforderungen des Kunden hinausgehen oder keinen zusätzlichen Wert für das Endprodukt oder die Dienstleistung bieten. Dies führt zu einer ineffizienten Nutzung von Ressourcen und erhöhten Kosten, ohne einen entsprechenden Nutzen zu erzielen.
  7. Defekte (Defects):
    Defekte oder Ausschuss bezieht sich auf fehlerhafte Produkte oder Dienstleistungen, die nicht den Qualitätsstandards entsprechen und daher nachgearbeitet oder aussortiert werden müssen.

Ergänzend wird häufig noch das ungenutzte Talent beziehungsweise die ungenutzte Kreativität der Mitarbeiter sowie das Ungleichgewicht („Mura“) und die Überbeanspruchung („Muri“) aufgenommen. Diese beiden Begriffen lassen sich wie folgt beschreiben:

Begriffsdefinition Muri 
Muri bezeichnet Überlastung oder Überbeanspruchung. Es tritt auf, wenn Mitarbeiter, Maschinen oder Prozesse über ihre Kapazitätsgrenzen hinaus belastet werden. Dies kann zu übermäßiger Anstrengung, Erschöpfung, Qualitätsproblemen und ineffizienten Abläufen führen. Beispiele für Muri sind übermäßige Arbeitsbelastung für Mitarbeiter, unzureichende Kapazität von Maschinen oder unnötig komplexe Arbeitsabläufe.
Begriffsdefinition Mura
Mura bezeichnet Ungleichgewicht oder Unausgeglichenheit. Es tritt auf, wenn es Unregelmäßigkeiten oder Schwankungen in einem Prozess gibt, die zu Instabilität und Ineffizienz führen. Dies kann zu Engpässen, Wartezeiten, Überproduktion oder unvorhersehbaren Ergebnissen führen. Beispiele für Mura sind ungleichmäßige Arbeitsbelastung, unregelmäßige Produktionsplanung oder unvorhersehbare Schwankungen in der Nachfrage.

 

In einem Lean-Produktionssystem strebt man danach, Muri und Mura zu reduzieren oder zu beseitigen, um einen gleichmäßigen, stabilen und effizienten Produktionsfluss zu erreichen. Durch die Eliminierung von Muri und Mura kann die Produktivität gesteigert, die Qualität verbessert und die Verschwendung reduziert werden.

Die sieben Verschwendungsarten werden besonders interessant, wenn man sie genauer analysiert und dabei möglicherweise feststellt, dass eine Verschwendung nur durch eine andere vermieden werden kann. Dadurch entwickeln sich die sieben Muda, insbesondere im Zusammenspiel mit Mura und Muri, zu einem umfassenden Denkmodell, das bei der Gestaltung von Organisationen, der Prozessoptimierung und der Digitalisierung äußerst nützlich ist.

Grundlegende Philosophie für mehr Wettbewerbsfähigkeit

Die Prinzipien des Lean, wenn sie konsequent angewendet werden, führen zu einer schlanken Organisation, die in der Lage ist, sich schnell an Veränderungen anzupassen, Verschwendung zu minimieren und höchste Qualität zu liefern. Es ist eine Philosophie, die die gesamte Organisation durchdringt und einen nachhaltigen Wettbewerbsvorteil schafft.

In der heutigen schnelllebigen Geschäftswelt ist es entscheidend, dass Unternehmen über die traditionellen Grenzen des Lean Managements hinausblicken und die tieferen Prinzipien verstehen, um ihre Wettbewerbsfähigkeit zu erhalten und zu verbessern. Lean Management zielt auf eine grundlegende Veränderung der Art und Weise ab, wie Unternehmen betrieben werden.

Mehr Prozesseffizienz durch Lean-Management-Methoden

Lean Management-Methoden können im Qualitätsmanagement dazu beitragen, Prozesse effizienter zu gestalten, indem sie Verschwendung reduzieren, kontinuierliche Verbesserungen fördern und eine stärkere Kundenorientierung ermöglichen. Hier sind einige Beispiele aus der Praxis:

Identifizierung und Eliminierung von Verschwendung:

Lean-Methoden wie Value Stream Mapping helfen dabei, den Fluss von Materialien und Informationen durch den gesamten Produktions- oder Dienstleistungsprozess zu visualisieren. Durch die Analyse dieses Flusses können Unternehmen nicht wertschöpfende Aktivitäten identifizieren und eliminieren, die die Qualität beeinträchtigen könnten.

Kontinuierliche Verbesserung:

Durch die Einführung von Methoden wie Kaizen-Veranstaltungen oder PDCA-Zyklen (Plan-Do-Check-Act) können Organisationen kontinuierlich nach Möglichkeiten zur Verbesserung ihrer Qualitätsprozesse suchen. Zum Beispiel könnte ein Unternehmen regelmäßige Kaizen-Veranstaltungen durchführen, um potenzielle Qualitätsprobleme zu identifizieren und zu lösen, bevor sie sich auf die Endprodukte auswirken.

Kundenorientierung:

Durch die Anwendung von Methoden wie Kundenfeedback-Analysen oder Voice of Customer (VOC)-Studien können Unternehmen ein besseres Verständnis für die Anforderungen ihrer Kunden entwickeln und sicherstellen, dass ihre Qualitätsprozesse diese Anforderungen erfüllen. Zum Beispiel könnte ein Unternehmen VOC-Studien verwenden, um direktes Feedback von Kunden über die Qualität seiner Produkte oder Dienstleistungen zu erhalten und Verbesserungen vorzunehmen, um ihre Zufriedenheit zu steigern.

Just-in-Time-Produktion:

Durch die Implementierung von Just-in-Time-Prinzipien können Unternehmen die Effizienz ihrer Produktionsprozesse steigern und gleichzeitig die Qualität verbessern. Indem Materialien und Ressourcen nur dann bereitgestellt werden, wenn sie benötigt werden, können Unternehmen Überproduktion und Lagerbestände reduzieren, die die Qualität beeinträchtigen könnten. Zum Beispiel könnte ein Unternehmen Kanban-Systeme verwenden, um den Materialfluss zu steuern und sicherzustellen, dass Materialien nur dann nachgeliefert werden, wenn sie tatsächlich benötigt werden.

 

Auch wenn der Ursprung aus dem produzierenden Umfeld stammt, ist die die Anwendung von Lean Management auch bei Dienstleistungen problemlos möglich:
Ein Callcenter analysiert beispielsweise gezielt Kundenfeedback, um die wichtigsten Bedürfnisse und Erwartungen der Kunden zu identifizieren. Dabei stellt sich heraus, dass die Kunden vor allem schnelle und präzise Antworten auf ihre Fragen erwarten und keinen Wechsel der Ansprechpersonen wünschen.

Durch die Anwendung von Lean-Tools wie Value Stream Mapping wird der Kundenserviceprozess visualisiert, von der Annahme des Anrufs bis zur Lösung des Kundenproblems. Dabei werden nicht-wertschöpfende Aktivitäten wie unnötige Übertragungen zwischen Abteilungen oder wiederholte Dateneingaben identifiziert und beseitigt.

 

Über den Autor:
Oliver Schneider studierte Ernährungswissenschaften (M.Sc.) in Gießen und war danach als wissenschaftlicher Mitarbeiter und Projektassistent tätig. Seit 2015 ist er als Produktmanager bei der DGQ und verantwortet aktuell das Weiterbildungsportfolio zum Thema Qualitätsmanagement und Lean Six Sigma. Seine Qualifizierungen zum Qualitätsmanager und Lean Six Sigma Green Belt helfen ihm bei der Weiterentwicklung und Beratung seiner Themenbereiche.

Künstliche Intelligenz in der Qualität – Praktische Einführung durch iteratives Vorgehen

In den vergangenen Jahren sind eine Reihe von einfach zu bedienenden künstliche Intelligenz (KI) Werkzeugen entstanden, die sich problemlos in bestehende Arbeitsabläufe integrieren lassen. Chatbots wie ChatGPT und Low-Code/No-Code- Lösungen sind Beispiele hierfür. Diese Entwicklung hat die Einstiegsschwelle für Mitarbeiter, die mit KI arbeiten möchten, deutlich reduziert. Im zweiten Teil der Fachbeitragsreihe haben wir die notwendigen Qualifikationen behandelt, die Mitarbeiter in Zukunft mitbringen sollten. In diesem Fachbeitrag wird anhand eines konkreten Beispiels gezeigt, wie eine Einbindung von einfachen KI-Werkzeugen einen Mehrwert im Unternehmen schaffen kann.

Die Anwendungsfälle für KI entstehen im besten Fall aus der Kreativität der Mitarbeiter und nicht aus einer übergeordneten Firmenstrategie. Das bedeutet: Reale Probleme lösen und nicht Probleme für bestehende (IT-)Lösungen suchen. Der Vorteil hierbei ist, dass zum frühestmöglichen Zeitpunkt ein Mehrwert für das Unternehmen entsteht, ohne dass große Projektbudgets ausgelobt werden müssen.

Einsatz von Methoden aus dem agilen Projektmanagement

Insbesondere durch den Einsatz der Methoden des agilen Projektmanagements (SCRUM, KANBAN) lassen sich Projekte in eigenständige Teillösungen, sogenannte Minimal Viable Products (MVP) planen. Dies hat zur Folge, dass man Produkte beziehungsweise Lösungen in einem Baukastensystem aufbaut und immer wieder verbessert und erweitert. Gleichzeitig lässt sich die hergestellte Teillösung nutzen, ohne das Gesamtergebnis abwarten zu müssen. Dieser Ansatz fügt sich nahtlos in bestehende Programme zur kontinuierlichen Verbesserung (zum Beispiel Kaizen) ein.

Hierfür ein Beispiel: In einer Produktionslinie werden Produkte durch das Prüfgerät fälschlicherweise als nicht in Ordnung (n.i.O.) eingestuft. Nach einer manuellen Analyse und dem Erstellen eines Analyseberichts des Mitarbeiters, wird das Produkt erneut getestet und durch das Prüfergebnis als in Ordnung (i.O.) eingestuft (siehe Abbildungen 1 und 2). Diese Fehlentscheidungen führen zu Verschwendungsformen wie: Fehlerkorrekturen, Lagerbestände, Wartezeiten und nicht genutztes Mitarbeiterpotential (s. sieben Arten der Verschwendung des Toyota Produktionssystems).

Abb. 1: Ablauf einer Prüfausfallanalyse mit manuellem Prozess

Abb. 1: Ablauf einer Prüfausfallanalyse mit manuellem Prozess

Abb. 12 Ablauf einer Prüfausfallanalyse mit maschinengestütztem Prozess

In der klassischen Qualitätssicherung ergreift man in erster Linie Maßnahmen, um das Prüfgerät und den Prüfprozess zu optimieren, zum Beispiel durch die klassische Six-Sigma-DMAIC-Methode. Gerade bei technisch anspruchsvollen Prüfungen muss jedoch häufig ein Kompromiss zwischen Fehlalarmen und der Gefahr eines Durchschlupfes gefunden werden, der sich mit klassischen Statistikwerkzeugen nur schwer auflösen lässt.

Machine-Learning-Methoden (ML) wie supervised learning können die bereits vorhandene Expertise des Mitarbeiters in Form eines Modells nachbilden und so offensichtliche Fehlalarme von vornherein zur Nachprüfung vorsehen. Das Modell wird dabei auf Basis bereits vorhandener Analyseberichte der Mitarbeiter trainiert.

Das Ergebnis des Pilotprojekts könnte wie folgt aussehen: Der Mitarbeiter liest die Prüfberichte des Prüfgeräts im erstellten ML-Programm ein. Algorithmen wie lineare Regression oder Entscheidungsbäume erlauben es mit wenig Aufwand die Wahrscheinlichkeit für eine Fehlmessung des Prüfgeräts zu ermitteln. Abbildung 3 zeigt ein Visualisierungsbeispiel. Der Mitarbeiter kann nun alle offensichtlichen Fehlentscheide einer Wiederholungsprüfung unterziehen, ohne diese vorher im Detail zu analysieren. Alle weiteren Prüfstandsausfälle, die nicht als klare Fehlmessung klassifiziert wurden, werden zur internen Analyse weitergeleitet.

Abb. 3: Beispielhafte Darstellung einer Messdatenbewertung mit Hilfe von Machine Learning. Werte außerhalb des blauen Stabilitätsbereichs sind mit hoher Wahrscheinlichkeit auf eine Fehlfunktion am Prüfgerät zurückzuführen. ©Prophet Analytics GmbH

Durch dieses Pilotprojekt lassen sich nicht wertschöpfende Aufgaben des Mitarbeiters reduzieren und der Fokus liegt auf den tatsächlich fehlerhaften Produkten. Nun hat man einen MVP, der sofort einsatzfähig ist. Allerdings muss dieser MVP offline am (Prüf-) Rechner des Mitarbeiters bedient werden. Nicht alle Verschwendungsarten lassen sich so vollständig eliminieren.

Integration von Machine Learning basierten Lösungen in den Produktionsprozess

Eine weitere Reduzierung von Verschwendung ist möglich, wenn das Machine-Learning-Modell in die Maschinensteuerung integriert wird. So können beispielsweise Transportkosten eliminiert und die Linienauslastung verbessert werden. Für eine Linienintegration benötigt man in der Regel weitere Ressourcen, zum Beispiel aus der IT -und Prozessplanungsabteilung. Diese würde man im Rahmen der weiteren Projektarbeit und weitere MVPs planen. Der erste MVP bleibt über die gesamte Projektdauer nutzbar und erzielt Einsparungen. Wichtig ist auch, dass das Projekt erst aufgesetzt wird, wenn die technische Umsetzbarkeit der Lösung schon nachgewiesen ist und Projektrisiken so auf ein Minimum reduziert werden.

Die Firma Prophet Analytics hat diesen Ansatz zur Reduzierung von Prüfstandsfehlern noch weiter ausgebaut. Die Machine Learning basierte Lösung erkennt und lokalisiert Ursachen für Prüfstandsfehler im laufenden Betrieb (siehe Abbildung 4). Die Überwachung von Messprozessen auf Basis von Daten eliminiert unnötige Eingriffe in den Produktionsprozess. Im Gegensatz zu Stichprobenverfahren wie der statistischen Prozesskontrolle (SPC) werden die Prüfprozesse durchgehend überwacht. Verschwendung durch Fehlentscheide können so von Vornherein vermieden werden und die Gefahr von Durchschlupf und Kundenreklamationen wird gebannt.

Abb. 4: Darstellung einer automatischen Überwachung von Messprozessen mit Hilfe von Machine Learning

Das Beispiel soll zeigen, wie die einzelnen Teilprojekte logisch auf einander aufbauen. Jeder weitere MVP hebt für zusätzliche Einsparpotentiale, aber erfordert auch mehr technisches Verständnis und eine höhere Qualifikation der Mitarbeiter.

Entwicklung neuer Berufsqualifikationen

Das bemerkenswerte an dem vorgestellten Ansatz für die Einführung von KI ist, dass interessierte Mitarbeiter automatisch höhere Qualifikationen erwerben, während sie an ihren eigenen Lösungen arbeiten. Das Ergebnis der Projekte kommt direkt ihrer eigenen täglichen Arbeit zugute und es werden nur Fähigkeiten aufgebaut, die relevant und zielführend sind. Mitarbeiter, die auf diesem Wege ein hohes Qualifikationsniveau erreicht haben, werden in der Fachwelt auch Citizen Data Scientists genannt. Diese Mitarbeiter wenden regelmäßig Methoden der KI und des Machine Learning zur Unterstützung ihrer eigentlichen Tätigkeit an, sind aber keine hauptberuflichen Data Science Experten.

Zusammenfassend kann gesagt werden, dass der Fokus auf einfache Anwendungsfälle für KI sich direkt aus dem kontinuierlichen Verbesserungsgedanken ergibt. Das Beispiel hat gezeigt, wie sich selbst bei einfachen KI Anwendungsfällen durch mehrfache Erweiterung immer höhere Einsparpotentiale heben lassen. Das iterative Vorgehen stellt dabei sicher, dass Einsparungen zeitnah wirksam werden und Finanzierungskosten für Projekte gering bleiben. Die Qualifikation der Mitarbeiter wächst parallel zur Umsetzung mit jedem KI-Anwendungsfall. Das natürliche Ende dieses iterativen Aufbaus von Qualifikationen ist der Citizen Data Scientist. Der Citizen Data Scientist kann KI-Methoden einsetzen und bringt ein hohes Maß an anwendungsspezifischen Kenntnissen mit.

 

Lesen Sie auch die ersten beiden Teile der Reihe “Künstliche Intelligenz in der Qualität“:

  • Teil 1: Künstliche Intelligenz in der Qualität – Bestehendes Know-how effektiv nutzen – zum Beitrag »
  • Teil 2: Künstliche Intelligenz in der Qualität – Welche Qualifikationen werden benötigt? – zum Beitrag »

 

Über die Autoren:

Dipl.-Ing. Waldemar Fahrenbruch ist Head of Q-Technology Division E-Mobility bei der ZF Friedrichshafen AG. Er ist verantwortlich für die Qualitätskostensenkung bei gleichzeitiger Optimierung von Qualitätskonzepten in den Werken der Division E (TCU, Power Electronics und E-Motoren Fertigung) durch Methodenkompetenz der Qualität, künstlicher Intelligenz und digitaler Transformation.

Dr.-Ing. Stefan Prorok ist Geschäftsführer der Prophet Analytics GmbH und DGQ-Trainer für Qualitätssicherung und Prüfmittel. Prophet Analytics unterstützt Unternehmen in allen Phasen Ihrer KI-Umsetzung mit Trainings- und Beratungsangeboten.

9. Norddeutscher Qualitätstag: Qualität leben und nachhaltig gestalten

Norddeutscher Qualitätstag 2024

Am 12. Juni 2024 ist es wieder soweit: Der Norddeutsche Qualitätstag lädt Fach- und Führungskräfte aus dem Qualitätsmanagement zu einer inspirierenden und informativen Veranstaltung nach Hamburg ein. Auch in diesem Jahr läuft das ganztägige Praxisforum als Hybridveranstaltung, so dass eine Teilnahme entweder persönlich vor Ort oder bequem online möglich ist.

Die neunte Auflage des beliebten Branchentreffs startet mit hochkarätigen Keynotes, die die Bedeutung des Qualitätsmanagements in Unternehmen aus unterschiedlichen Blickwinkeln beleuchten. So wird die Leitende Polizeidirektorin Indra Loose-Sommer Einblicke in die Herausforderungen von Qualität und Nachhaltigkeit bei der Bundespolizei geben.

Dr. Benedikt Sommerhoff, Leiter des Themenfeldes Qualität & Innovation bei der Deutschen Gesellschaft für Qualität e.V., zeigt auf unterhaltsame Weise, wie man sein eigenes Q-Profil entwickelt und damit auf die Erfolgsspur kommt. Begleitet von den Ergebnissen der aktuellen DGQ-Studie Q-Organisation können die Teilnehmenden ihre eigene Standortbestimmung vornehmen und wertvolle Impulse für ihre tägliche Arbeit erhalten.

Praxisnahe Einblicke erhalten sie auch dieses Jahr wieder in Workshops mit konkreten Beispielen aus dem Prozess- und Qualitätsmanagement. Ob vor Ort oder online, es erwartet die Teilnehmenden ein vielfältiges Programm:

Online und vor Ort

  • QM nach Udo Lindenberg – Mach’ Dein Ding, egal, was die ander’n sagen…
    Dr. Benedikt Sommerhoff, Leitung Themenfeld Qualität & Innovation, Deutsche Gesellschaft für Qualität e.V.
  • Nachhaltigkeit und Qualität in Uniform: Wie die Bundespolizei Umwelt- und Qualitätsmanagement umsetzt
    Indra Loose-Sommer, Leitende Polizeidirektorin im Bundespolizeipräsidium
  • Was bedeutet der KI Hype für die Industrie und wie kann „serious AI“ wirklich helfen?
    Jan Ruhnke, Director AI, Artificial Intelligence Center Hamburg (ARIC) e.V.
  • Storytelling im QM: Einfach erklären, Verständnis fördern und verbessern
    Jakob Scheitza, Head of Industrial Storytelling, Facts and Stories GmbH

Ausschließlich vor Ort, nicht online

  • Best Practice Transfer in der Otto Group: it’s a peoples business
    Juliane Dieckmann, Head of Knowledge Management, Digital & Consulting der Otto Group
  • Praktische Lösungen für KMU und ihre Nachhaltigkeitsstrategie
    Eric Schlichter, Schlichter Consulting und K. Henry Wehrenberg, Blueberries & Friends GmbH
  • Expertenrat und Umsetzungstipps für Managementsysteme und Nachhaltigkeit
    Altan Dayankac, Global Program Manager EMS, OHS, EnMS & Sustainability der DQS Holding GmbH
  • Erfolgsfaktor Mensch – wie Qualität durch gute Führungskräfte gelingt
    Arne Salig, CEO espressoul GmbH, Consultraining

 

Partner der Veranstaltung sind neben der Deutschen Gesellschaft für Qualität e.V. (DGQ) die ConSense GmbH, die Deutsche Gesellschaft zur Zertifizierung von Managementsystemen (DQS) sowie die Fachzeitschrift QZ Qualität und Zuverlässigkeit.

 

Informationen zur Anmeldung

Wann: Mittwoch, 12. Juni 2024, von 10:00 Uhr bis 16:00 Uhr
Wo: FOM Hochschulzentrum, Schäferkampsallee 16a, 20357 Hamburg oder online
Kosten:
Online-Teilnahme: 49,- € zzgl. MwSt. (29,- € zzgl. MwSt. für DGQ-Mitglieder)
Präsenz-Teilnahme: 99,- € zzgl. MwSt. (69,- € zzgl. MwSt. für DGQ-Mitglieder)

Zur Anmeldung »

Zum Programm (PDF-Download) »

 

Als DGQ-Mitglied können Sie – sowohl online als auch in Präsenz – zum reduzierten Kostenbeitrag teilnehmen. Sie sind noch kein Mitglied? Dann nutzen Sie doch für die Anmeldung unsere beitragsfreie, dreimonatige Schnuppermitgliedschaft.

Haben Sie Fragen? Nehmen Sie gern Kontakt mit uns in der DGQ-Geschäftsstelle Hamburg auf! Einfach per E-Mail an hamburg@dgq.de oder telefonisch unter 040 28533531-452. Bei allen organisatorischen Fragen und Rückfragen zur Anmeldung hilft Ihnen auch unser Veranstaltungspartner ConSense GmbH (events@consense-gmbh.de, 0241 990 93 93 0) weiter.

Nachvollziehbare und verlässliche Ergebnisse durch Computer System Validierung

Röntgen, Röntgengerät, Medizintechnik

Frederik Janas ist DGQ-Trainer des neuen E-Trainings „Computer System Validierung (CSV)“ für die Medizinprodukteindustrie und Experte für Medizinproduktesicherheit bei CRConsultants. Im Interview erläutert er, warum das Thema „Computer System Validierung“ im Kontext der Herstellung von sicheren Medizinprodukten so wichtig ist. 

Herr Janas, der Begriff „Computer System Validierung“ ist sicher nicht jedem geläufig. Könnten Sie uns erklären, was er bedeutet?

Frederik Janas: Computer System Validierung bezeichnet die Prüfung und den dokumentierten Nachweis, dass ein Computersystem oder eine eigenständige Software spezifische Anforderungen erfüllt. Initial werden Spezifikationen definiert, die sowohl allgemeine Anforderungen als auch spezifische Benutzerfälle darstellen. Im weiteren Verlauf der CSV werden Nachweise in Form von Tests geplant, durchgeführt und dokumentiert. Anders ausgedrückt, vorab wird definiert, wie ein Computersystem oder eine Software funktionieren soll und im Rahmen der Validierung wird geprüft, ob diese Funktion verlässlich und korrekt erfüllt wird.

Welche Arten von Software oder Computersystemen gibt es im Kontext der Medizinprodukteherstellung und müssen sie alle validiert werden?

Frederik Janas: Es können zwei verschiedene Arten von Computer Systemen beziehungsweise Software unterschieden werden. Erstens solche, die in der Produktion von Medizinprodukten oder Dienstleistungserbringung und für das Qualitätsmanagementsystem zum Einsatz kommen, Datenanalysesoftware zum Beispiel. Diese sind gemäß den Anforderungen der ISO 13485 zu validieren.

Zweitens solche, die selbst eigenständige Medizinprodukte – Software as a Medical Device (kurz SaMD) – oder Teil eines Medizinprodukts sind. Zum Beispiel könnte das Software sein, die für Überwachungs- oder Diagnosesysteme benötigt wird. Diese Software muss gemäß der ISO 62304 beziehungsweise ISO 82304 validiert werden.

Software- und Computersysteme im Kontext der Medizinprodukteherstellung

Abb. 1: Software- und Computersysteme im Kontext der Medizinprodukteherstellung

Warum ist die Validierung von Computersystemen so wichtig?

Frederik Janas: Zum einen müssen regulatorische Anforderungen eingehalten werden, der risikobasierte Ansatz der CSV ist beispielsweise normativ durch die ISO 13485 gefordert, die unter anderem bei Audits durch Benannte Stellen überprüft werden. Wir konnten feststellen, dass die CSV in den letzten Jahren verstärkt in den Fokus der Auditor:innen gerückt ist. Außerdem trägt die CSV zur Sicherheit und Einhaltung der Qualität von Medizinprodukten im Zusammenhang mit der Anwendung von Softwaresystemen bei. Da die Funktionen von heutigen Softwaresystemen immer komplexer werden, wird es immer schwieriger, nachvollziehbare Ergebnisse zu erzielen. Eine CSV hilft durch strukturierte Verfahren, die Validität der Ergebnisse zu beweisen.

Könnten Sie uns einen Überblick darüber geben, welche verschiedenen Arten der Validierung es gibt?

Frederik Janas: Neben der Computer System- beziehungsweise Softwarevalidierung werden Validierungen auch für Testmethoden, Umgebungsbedingungen sowie Prozesse und Ausrüstungen durchgeführt. Auch hier geht es immer darum sicherzustellen, dass die definierten Anforderungen verlässlich erfüllt werden. Beispielsweise zielt die Prozessvalidierung darauf ab, die Wirksamkeit der Prozesse, die gegebenenfalls im Zusammenhang mit der Softwareentwicklung- und -anwendung stehen, zu überprüfen. Im Rahmen der Digitalisierung ist Software ein häufiger Bestandteil in der Produktion oder bei der Überwachung von Anforderungen. Somit kann es bei allen Arten der Validierungen Schnittstellen zur Computer System Validierung geben.

Welche Konsequenzen können auftreten, wenn eine angemessene Computer System Validierung nicht durchgeführt wird?

Frederik Janas: Regulatorisch kann dies Konsequenzen in Form von Abweichungen bei Audits nach sich ziehen. Zudem kann durch fehlerhafte Funktionen die Produktqualität und Patientensicherheit beeinträchtigt werden. Mögliche Auswirkungen aufgrund nicht valider Computersysteme können falsche Parameter in der Produktion, falsche Angaben auf Produkten, falsche Ergebnisse in der Überwachung von Medizinprodukten oder mangelnde Rückverfolgbarkeit im Qualitätsmanagementsystem sein.

Lassen Sie uns die Praxis gemeinsam beleuchten. Welche Schritte umfasst der Validierungsprozess konkret?

Frederik Janas: Allgemein sind die Schritte der Validierung gemäß V-Modell in das Definieren von Anforderungen, das Testen von Funktionen und das Dokumentieren der Kriterien und Ergebnisse unterteilt. Der Umfang ist stark abhängig von der Komplexität der Anwendung sowie dem Risiko. Hier liefert die Software-Kategorisierung gemäß GAMP 5 (Good Automated Manufacturing Practice) eine gute Richtlinie, in der Software abhängig von der Standardisierung und Konfiguration eingestuft wird. Das bedeutet, dass in der Praxis die Schritte individuell definiert werden. Für eine einfache Software wie beispielsweise ein Excel-Sheet umfasst der Validierungsprozess gegebenenfalls nur einen Prüfplan, in dem die Beschreibung, Anforderung, Methodik und das Risiko beschrieben sind, sowie einen Prüfbericht, der die Ergebnisse darstellt. Für eine komplexe Software mit hohem Risiko sind mehr Schritte notwendig. Hierbei kann initial eine Risikobewertung durchgeführt und die Anforderungen in verschiedenen Detaillierungsstufen definiert werden. Daraus resultieren häufig mehrere Prüfpläne und -berichte.

Und zu guter Letzt, welche Werkzeuge und Methoden werden für die Validierung von Computersystemen eingesetzt?

Frederik Janas: Das wichtigste Werkzeug ist eine Softwaremasterliste sowohl aus interner Sicht als auch aus Sicht eines externen Auditors. Diese schafft eine Übersicht aller verwendeten Computersysteme inklusive weiterer Angaben unter anderem zur Validierungspflicht. Weiterhin ist die Risikobewertung in Form einer initialen Bewertung oder FMEA ein wichtiges Werkzeug, um die Validierungstätigkeiten risikobasiert zu priorisieren. Während der Validierung werden verschiedene Testmethoden herangezogen. So zum Beispiel Positiv-, Wiederholungs- und Regressionstests. Diese werden spezifisch für den Test ausgewählt und sollen einen geeigneten Nachweis zur Erfüllung der Anforderungen erbringen.

“DGQ-Zertifikate sind fast schon ein eigener Standard“

Personenzertifizierung, Zertifikat

Die DGQ verfügt auch über eine unabhängige Personenzertifizierungsstelle (PZ). Doch warum ist es insbesondere für Qualitätsfachleute wichtig, eine Weiterbildung mit einem DGQ-Zertifikat abzuschließen? Welche Rolle spielt die Akkreditierung durch die DAkkS, welche Rolle spielen Zertifizierungen für das Berufsbild der Auditor:innen und welche hilfreichen Tipps hält die PZ für Berufs- und Quereinsteiger bereit? Diese und weitere Fragen beantworten Karin Weltring, Leitung der DGQ-Personenzertifizierungsstelle, und Michael Sturm, Produktmanager bei der DGQ-Personenzertifizierungsstelle.

Es gibt zahlreiche Weiterbildungen mit oder auch ohne Prüfung, aber wie wichtig ist ein DGQ-Zertifikat? Und was sagt es genau aus?

Karin Weltring: Unternehmen setzen bei ihren Mitarbeitern häufig Fachwissen im Qualitätsmanagement voraus. Entsprechende Vorkenntnisse und Zertifikate werden für die berufliche Karriere immer wichtiger. Die Zertifikate der DGQ genießen in Industrie und Wirtschaft einen sehr guten Ruf als objektiver Kompetenznachweis. Viele Arbeitgeber sehen diese fast schon als einen eigenen Standard. DGQ-Zertifikate bergen vielseitige Chancen für die Karriere – national und international. Zertifikate werden in den Unternehmen oft als Mitarbeitermotivation genutzt, da mit einem sicheren Wissen und der kompetenzbasierten Umsetzung die Qualitätsstandards im Unternehmen verstanden und unterstützt werden können.

Michael Sturm: Wir arbeiten auf Basis von DIN EN ISO/IEC 17024, so dass unsere Zertifikate Ihre persönlichen Kenntnisse und Kompetenzen in Bezug auf einen Scope objektiv und neutral bewerten und bescheinigen. Für einen „DGQ-Auditor Qualität“ enthalten die DGQ-Zertifikate beispielsweise den Nachweis, dass sie Auditprogramme festlegen, umsetzen, überwachen, überprüfen und verbessern, Managementsystemaudits (First-, Second-Party), Prozessaudits, Compliance-Audits veranlassen, planen und durchführen, Qualitätsmanagementsysteme bewerten sowie Kommunikationstechniken zielgerichtet im Sinne des Auditzieles einsetzen können.

Die Personenzertifizierungsstelle ist von der Deutschen Akkreditierungsstelle (DAkkS) akkreditiert. Was bedeutet das und inwiefern profitieren die Absolventen davon?

Karin Weltring: Die Deutsche Akkreditierungsstelle (DAkkS) ist die nationale Akkreditierungsstelle in Deutschland. Wenn eine Personenzertifizierungsstelle von der DAkkS akkreditiert ist, bedeutet dies, dass diese von der DAkkS als kompetent anerkannt wurde, die Anforderungen der DIN EN ISO/IEC 17024 zu erfüllen. Dies schafft Vertrauen in die Zuverlässigkeit und Glaubwürdigkeit unserer Zertifizierungsprozesse. Die DGQ-Personenzertifizierungsstelle erfüllt diese Anforderungen. Die Überwachung durch die DAkkS erfolgt jährlich und bescheinigt somit die Einhaltung der notwendigen Anforderungen als unabhängige Zertifizierungsstelle. Die Aufrechterhaltung der Akkreditierungsanforderungen kommt den Kunden der DGQ zugute. In Deutschland gibt es derzeit „nur“ 12 akkreditierte Personenzertifizierungsstellen für QM-Fachpersonal. Der DGQ ist die Akkreditierung wichtig, da diese unabhängige Überwachung den Qualitätsstandard der Zertifizierungsverfahren sichert.

Michael Sturm: Als Kunde profitieren Sie davon, dass Arbeitgeber Ihr Zertifikat als vertrauenswürdig anerkennen, da es von einer anerkannten und unabhängigen Zertifizierungsstelle ausgestellt wurde. Sie können dies als objektiven Nachweis für ihre Kenntnisse, Fähigkeiten und Kompetenzen nutzen. Gerade in Branchen, in denen Zertifizierungen wichtig sind, können die DGQ-Zertifikate einen Vorteil für die weitere Karriere verschaffen. Durch die Rezertifizierung garantieren unsere Zertifikate stets eine Aktualität der bescheinigten Kompetenzen durch aktuelle Weiterbildungen und der nachgewiesene Berufspraxis, zum Beispiel durch Auditnachweise.

Greifen wir Ihr Beispiel „Audit“ einmal auf. Welches Know-how beziehungsweise welche Kompetenzen weisen Zertifizierte nach?

Karin Weltring: Im Rahmen des Zertifizierungsprozesses müssen die Antragsteller einen vorhandenen Berufsabschluss, Berufserfahrung sowie Auditerfahrung nachweisen.
Für den „DGQ-Auditor für interne und Lieferantenaudits nach ISO 19011“ gelten beispielsweise die folgenden Anforderungen:

  • Vier Jahre Berufserfahrung (bei Hochschulabschluss) beziehungsweise fünf Jahre Berufserfahrung (bei Berufsausbildung) in einer Vollzeittätigkeit
  • Tätigkeit als interner Auditor mit zwei vollumfänglichen internen Audits innerhalb der letzten zwei Jahre mit zehn Audittagen, davon sechs Tage vor Ort

Michael Sturm: Die Prüfung überprüft Wissen, Fertigkeiten und Kompetenzen im Bezug auf Auditgrundlagen, die Vorbereitung, Durchführung und Nachbereitung von Audits sowie Gesprächstechniken. Außerdem spielt das Thema Auditprogramm eine Rolle und regelwerksbezogene Auditoren müssen Managementsysteme der zu Grunde liegenden Norm (z.B. DIN EN ISO 9001) bewerten.

Was sind die wichtigsten Audit-Zertifikate der DGQ und was zeichnet diese aus?

Karin Weltring: Unsere wichtigsten Zertifikate – wenn man die Anzahl betrachtet – sind „DGQ-Auditor für interne und Lieferantenaudits nach 19011“ und „DGQ-Auditor Qualität“. Beide sind gedacht für 1st- und 2nd-party Auditoren. Das erstgenannte bietet einen guten Einstieg in die Arbeit als Auditor und ist regelwerksneutral, das heißt Kompetenzen bezüglich DIN EN ISO 19011 sind die Basis, aber weitere Vorgaben spielen keine Rolle. DIN EN ISO 19011 ist natürlich ebenfalls Basis für den „DGQ-Auditor Qualität“. Dieser ist aber klar auf Audits von Systemen nach DIN EN ISO 9001 ausgerichtet. Das Zertifikat „DGQ-Qualitätsmanagementbeauftragter“ ist deshalb eine Voraussetzung, um dieses Zertifikat erhalten zu können. Außerdem ist der „DGQ-Auditor Qualität“ durch die DAkkS akkreditiert und die Kunden erhalten gleichzeitig das gleichwertige EOQ-Zertifikat.

Als abschließende Zertifizierung der Weiterbildungsreihe im Qualitätsmanagement ist außerdem der „DGQ-Lead Auditor Qualität“ zu nennen. Voraussetzung dafür ist das Zertifikat „DGQ-Qualitätsmanager“. Dieser befähigt auf Basis DIN EN ISO/IEC 17021-1 zudem 3rd-party Audits durchführen zu können und ein Team aus mehreren Auditoren in einem Audit zu führen. Auch dieses ist durch die DAkkS akkreditiert und es gibt ein gleichwertiges EOQ/IPC-Zertifikat.

Außerdem bieten wir Zertifizierungen für Auditoren nach DIN EN ISO 13485, DIN EN ISO 40001, DIN EN ISO 45001, DIN EN ISO 50001 an.

Nicht unerwähnt bleiben sollte, dass wir einer der größten Lizenznehmer des VDA QMC (Qualitätsmanagement Center im Verband der Automobilindustrie) sind und auch Prüfungen für VDA QMC-Auditoren (z.B. IATF 16949 – 1st/2nd party Auditor, VDA 6.3 – Prozess-Auditor) organisieren und abnehmen. Diese sind in der Automotive-Branche nicht wegzudenken. Die Zertifikate stellt VDA QMC aus.

Berufsbild Auditor

Für die Integrität und Zuverlässigkeit von Unternehmen ist das Einhalten von gesetzlichen, behördlichen und normativen Vorgaben und Anforderungen essenziell. Neben dem Feststellen der Konformität können im Rahmen eines Audits unter anderem bewährte Praktiken erkannt, Lücken identifiziert und Optimierungspotenziale aufgedeckt werden. Auditoren können so einen entscheidenden Beitrag für das Unternehmen leisten und haben gute Karriereaussichten in den verschiedensten Branchen.
Antworten auf die wichtigsten Fragen finden Sie in unserem Berufsbild zum Auditor:

  • Welche Aufgaben betreuen Auditoren?
  • Wie werde ich Auditor?
  • Welche Weiterbildungsmöglichkeiten gibt es?
  • Was verdient ein Auditor?
  • Welche Karrieremöglichkeiten gibt es als Auditor?

Zum Berufsbild Auditor »

Auditor:innen haben es im Unternehmen nicht immer einfach, die auditierten Bereiche vom Nutzen eines Audits zu überzeugen. Welche Tipps haben Sie?

Michael Sturm: Bei internen Audits können Sie durch eine – in Bezug auf die Auditierten – „nutzer-freundlichen“ Wahl der Auditmethoden – zum Beispiel Interview, Beobachtung der durchgeführten Arbeiten – und einer der jeweiligen „Zielgruppe“ angemessenen Sprache eine positive und aufgeschlossene Atmosphäre auf Augenhöhe schaffen. Im Auditbericht sollten Sie die Ergebnisse des Audits so darstellen, dass sie praxistauglich und verständlich sind. So kann der Nutzen für die Organisation oder die einzelnen Prozesse besser erkannt werden.

Die DGQ ist nationaler Partner der European Organization for Quality. Welchen Nutzen haben die Kunden der DGQ?

Karin Weltring: Die European Organization for Quality (EOQ) ist das Netzwerk in Europa, dessen wesentliches Ziel die Harmonisierung der Anforderungen an Qualitäts- und Managementfachpersonal in Europa ist. Dafür erstellt sie – unter Mitwirkung der nationalen Partner – Zertifizierungsprogramme, die als Basis für die Weiterbildung und Personenzertifizierung nach europaweit einheitlichen Kriterien dienen.

Als Kunde der DGQ-Personenzertifizierungsstelle bekommen Sie in vielen Fällen mit Ihrem DGQ-Zertifikat das entsprechende Zertifikat der EOQ. Dieses ist aufgrund der harmonisierten Weiterbildungs- und Zertifizierungsvoraussetzungen möglich, so dass Sie als Kunde direkt ein international anerkanntes englischsprachiges Zertifikat bekommen. Gerade in Unternehmen, die international tätig sind und deren Managementsysteme auch international überwacht werden, ist das hilfreich. In Deutschland ist die DGQ die einzige Stelle, die diese Zertifikate vergeben darf.

Was raten Sie Berufs- oder Quereinsteigern, die neu in eines der Aufgabenfelder rund um Qualitätsmanagement einsteigen?

Karin Weltring: Nehmen Sie sich Zeit, Grundprinzipien und den zugrundeliegenden Qualitätsmanagement-Standard (oft DIN EN ISO 9001) zu verstehen. Für Qualitätsauditoren ist außerdem die DIN EN ISO 19011 obligatorisch. Die Teilnahme an einer Weiterbildung wird Ihnen helfen, Ihr Wissen zu vertiefen und Kompetenzen aufzubauen. Sammeln Sie erste Praxiserfahrungen und lernen Sie von erfahrenen Kollegen.

Knüpfen Sie unbedingt Kontakte zu Fachleuten auch außerhalb Ihres Unternehmens. Dies bietet Ihnen die Möglichkeit von anderen zu lernen. Darüber hinaus können Sie durch den Austausch mit Qualitätsfachleuten aus anderen Unternehmen und Branchen einen erweiterten Blick auf die Welt des Qualitätsmanagements erhalten. Hier bietet die DGQ vielfältige Möglichkeiten im Rahmen von Regionalkreisen, Fachkreisen oder – speziell für junge Berufseinsteiger – bei den „QM-Youngsters“. Aber auch im Bereich Hochschule bieten sich hierfür Einsteigermöglichkeiten.

Michael Sturm: Ein Zertifikat der DGQ-Personenzertifizierungsstelle kann abschließend einen objektiven Nachweis Ihrer dann vorhandenen Kompetenzen bescheinigen. Wichtig ist das Gleichbehandlungsprinzip. Das bedeutet, es werden auch Ausbildungsnachweise anderer Aus- und Weiterbildungen anerkannt, sofern diese die Anforderungen des Zertifizierungsprogramms erfüllen. Auch bedeutet es, dass jeder Antragsteller einer Zertifizierung gleiche Prüfungsprozesse erfährt und durch unabhängige Prüfer:innen einen gleichwertigen gesicherten Standard erhalten.

Sie kooperieren auch mit Hochschulen. Wie sieht das Modell der Zusammenarbeit aus?

Karin Weltring: Die DGQ bietet das Qualifizierungsmodell zum „DGQ-Manager Qualität Junior“ seit 1997 und in Kooperation mit mittlerweile bundesweit 22 Hochschulen an. Seit Beginn dieses Programms haben sich bereits rund 4.000 Studierende für ein solches Zertifikat entschieden und sich somit einen Vorsprung für Ihren Berufseinstieg gesichert. Die Inhalte der Ausbildung zum DGQ-Manager Qualität Junior stimmen mit den Forderungen des harmonisierten Ausbildungsschemas der EOQ für die Zertifizierung von Qualitätsfachpersonal überein. Wir überprüfen dabei die Lehrinhalte der Hochschulen auf die Übereinstimmung mit diesem Programm. Der Erwerb des Zertifikates läuft über ein Antragsverfahren der zugelassenen Hochschule. Die Hochschule weist durch ihr Curriculum die Gleichwertigkeit der Inhalte und anderer Rahmenbedingungen nach und wird für das Modell anerkannt. Das Zertifikat kann als Einstieg in die Berufswelt im Bereich Qualitätsmanagement und Audit ein Türöffner sein.

 

Über die Autoren:

Karin Weltring leitet die Personenzertifizierungsstelle der DGQ.

Michael Sturm ist Produktmanager bei der Personenzertifizierungsstelle der DGQ.

“Es geht nicht nur darum, Waren von A nach B zu transportieren“

Lieferkette, Osterhase, Produktion

Wie kommt der Schokohase frisch und pünktlich zu den Verbraucher:innen? Die Antwort auf diese Frage ist gar nicht so trivial. Denn es gibt zahlreiche Aspekte zu beachten, damit die Qualität der Ware sichergestellt werden kann. Im Interview mit der DGQ gibt Christian Pflüger, Head of Quality Management Food Logistics bei Dachser einen Einblick in die Anforderungen an die Lieferkette und erklärt dabei, welche Rolle interne und extern Audits spielen.

Der Schokohase und weitere Leckereien frisch und pünktlich zur Osterzeit auf den Tisch – da denken doch alle Verbraucher:innen, das kann doch nicht so schwer sein. Und, haben sie damit recht?

Christian Pflüger: Nein, ganz so simpel ist es dann doch nicht. Schoko-Osterhasen und viele weitere Leckereien für das Osterfest sind bereits weit vor Ostern in den Supermärkten zu finden und müssen bis zu den Feiertagen ständig nachbestückt werden. Dabei gibt es, gerade aus Sicht der Qualitätssicherung, viel zu beachten.

Neben den lebensmittelrechtlichen Bestimmungen sind vier der wichtigsten Anforderungen, welche Dachser für alle Lebensmittel stets im Fokus hat, die Temperaturkontrolle, die Beachtung der Hygienestandards, die Rückverfolgbarkeit sowie die präventive Vermeidung von Beschädigungen, zum Beispiel eingedrückte Schoko-Osterhasen durch falsche Transportsicherung. Die Einhaltung dieser Anforderungen trägt dazu bei, dass die Schokolade in bestem Zustand zum Verbraucher kommt und Qualität, Textur und Geschmack bewahrt bleiben.

Was sind die größten Hürden auf dem Weg des Schokohasen?

Christian Pflüger: Alles, was wir tun, muss der Lebensmittelsicherheit dienen. Der Qualitätskreislauf beginnt bereits bei der Übernahme der Waren und durchläuft während des gesamten Transport- und Lagerungsablaufs weitere wichtige Schnittstellen. Der Ablauf sieht folgendermaßen aus:

Bei der Übernahme der Ware beim Kunden wird bereits eine erste Schnittstellenkontrolle auf Unversehrtheit, gegebenenfalls korrekte Übernahmetemperaturen, Manipulation oder Schädlingsbefall durchgeführt. Aber auch unsere Kunden sind in der Verantwortung. Sie müssen die Ware transportsicher übergeben sowie stabile Verpackungslösungen schaffen. So gehen die Lebensmittel schon mit hoher Qualität in den Transport. Denn von der Abholung beim Kunden bis zur Zustellung muss ein lückenloser Transport unter Einhaltung der Kühlkette sichergestellt sein. Diesen Prozess überwacht Dachser mit einem durchgehenden Temperaturmonitoring. Alle Kühlhallen und -fahrzeuge von Dachser sind mit Temperaturloggern ausgestattet, die die aktuelle Temperatur stetig online übertragen. Auch die Türöffnungszeiten der Fahrzeuge oder die Toröffnungen im Lager werden so gering wie möglich gehalten. Das hört sich zwar banal an, aber Sie lassen zu Hause den Kühlschrank ja auch nicht unnötig lange offenstehen. Das verschwendet Energie und ist schlecht für die Umwelt.

Auch beim Transport wirken hohe Kräfte, zum Beispiel beim Beschleunigen, Bremsen oder in den Kurven. Eine unzureichend verpackte Ware kann deshalb beschädigt werden, selbst wenn sie im Lkw ausreichend gesichert ist.

Im Lager geht es weiter. Hier müssen die Waren entsprechend sorgfältig gehandhabt werden. Beispielsweise darf es zu keiner Kontamination durch andere Lebensmittel kommen. Auch dürfen Waren oft nicht gestapelt werden. Dazu kommen weitere produktspezifische Vorgaben, die unbedingt eingehalten werden müssen: Schokolade wird bei einer anderen Temperatur gelagert als Milchprodukte.

Bevor der Schoko-Osterhase dann auf die Reise in den Handel geht, muss darauf geachtet werden, dass die richtige Ware mit der richtigen Charge und dem richtigen Mindesthaltbarkeitsdatum verladen wird. Vor Beladung werden die Fahrzeuge geprüft, ob diese sauber, geruchsfrei und gegebenenfalls vorgekühlt sind. An jeder Schnittstelle werden die Paletten gescannt, sodass wir immer wissen, wo sich die Ware gerade befindet.

Bei der Zustellung erfolgt gemeinsam mit dem Empfänger nochmals eine Schnittstellenkontrolle. Damit stellen wir sicher, dass jeder Verbraucher einen unversehrten und nicht geschmolzenen Schoko-Osterhasen im Handel findet.

Da kann also eine Menge schiefgehen. Wie kann das Qualitätsmanagement beziehungsweise der strukturelle Aufbau des QM dazu beitragen, diese Risiken zu minimieren?

Christian Pflüger: Ein gut strukturierter Aufbau des Qualitätsmanagements (QM) und eine systematische Implementierung von Qualitätsmanagementsystemen sind hier entscheidend. Durch klare Prozesse schaffen wir Transparenz und entsprechende Key Performance Indicators (KPI) helfen uns dabei, eine bewertbare Beurteilung auszuarbeiten.

Des Weiteren überwachen wir die Qualität unserer Leistung sehr intensiv. Dafür erstellen wir monatliche Qualitätsreportings, die wir der kompletten Organisation zur Verfügung stellen. So kann in jeder einzelnen Niederlassung schnellstmöglich reagiert und die Qualität jederzeit auf höchstem Level gehalten werden.

Ein gut strukturiertes Qualitätsmanagement bietet nicht nur eine effektive Kontrolle über die Produkt- und Prozessqualität, sondern dient auch als präventives Instrument zur Identifikation, Bewertung und Minimierung von Risiken in einem Unternehmen. Nicht zuletzt spiegeln sich diese Aspekte auch in einer hohen Kundenzufriedenheit bei Produktanbietern und Endverbrauchern wider.

Welche Rolle spielt der Faktor Mensch?

Christian Pflüger: Gerade im Umgang mit sensiblen Produkten wie Lebensmitteln spielt der Mensch eine zentrale Rolle, denn die Beteiligung und das Engagement der Mitarbeitenden eines Unternehmens sind wesentliche Faktoren für den Erfolg eines Qualitätsmanagementsystems (QMS). Dachser fördert eine enge Zusammenarbeit der einzelnen Mitarbeiterinnen und Mitarbeiter, um sie maßgeblich in die Prozessgestaltung und Weiterentwicklung der Qualitätssicherung einzubinden. Hierzu gehören Schulungen und Qualifikationen, aber auch die Hinterfragung und ständige Überprüfung einzelner Prozesse, um eine zukunftsorientierte Logistik auszubauen und neue Schritte in die Wege leiten zu können.

Ein starkes Qualitätsbewusstsein auf allen Ebenen der Organisation trägt dazu bei, die Kundenzufriedenheit zu steigern und das Vertrauen in die Produkte oder Dienstleistungen zu stärken.

Welche übergreifenden Kompetenzen benötigt das Personal?

Christian Pflüger: Dies ist natürlich stark abhängig vom Aufgabengebiet des einzelnen Mitarbeiters. Neben der fachlichen Qualifikation stehen Kommunikationsfähigkeiten und kundenorientiertes Handeln im Vordergrund. Diese und weitere Kompetenzen sind ausschlaggebend für eine durchdringende Qualitätsstruktur im ganzen Unternehmen.

Welche Anforderungen an die Gesamt-Organisation braucht es, um dies gewährleisten zu können? Und wie stellen Sie das sicher?

Christian Pflüger: Das Dachser-Netzwerk wird von unserer Mission, unseren gemeinsamen Werten und einer klaren Strategie geleitet. Weiterhin ist Agilität eine wesentliche Anforderung, um Stabilität und Anpassungsfähigkeit zu bieten. Das ist die Grundlage für eine nachhaltige Entwicklung, welche sich auch auf das QM überträgt. Für das QM hat Dachser klare Qualitätsziele und eine klare Qualitätspolitik.

So kann ein stabiles und gelebtes Qualitätsmanagement bereitgestellt werden, um die Umsetzung effektiver Maßnahmen zu ermöglichen. Um potenzielle Gefahren für die Qualität frühzeitig zu erkennen beziehungsweise zu minimieren, wurde bei Dachser ein systematisches Risikomanagement implementiert. Außerdem existieren klare Verantwortlichkeiten für die Qualitätssicherung, damit jeder Beteiligte seine Rolle und Verantwortlichkeit versteht.

Die Integration all dieser Punkte in die Unternehmenskultur trägt dazu bei, eine Organisation zu schaffen, die sich auf kontinuierliche Verbesserung und Kundenzufriedenheit konzentriert.

Ihre Organisation haben Sie gut im Griff. Aber wie meistern Sie die Schnittstellen über die gesamte Lieferkette hinweg?

Christian Pflüger: Die Sicherstellung von Qualitätsmanagementstandards an den Schnittstellen über die gesamte Lieferkette erfordert eine sorgfältige Planung, klare Kommunikation und eine enge Zusammenarbeit mit allen beteiligten Parteien. Dies ist entscheidend, damit die Qualität von Produkten und Dienstleistungen konsistent ist und den Erwartungen der Kunden entspricht.

Deshalb legt Dachser einheitliche Standards entlang der gesamten Lieferkette fest, die für alle beteiligten Parteien verbindlich sind. Lieferantenqualifizierungen sowie Vereinbarungen mit Lieferanten und Dienstleistern helfen, die Erwartungen in Bezug auf Produktqualität, Lieferzeiten, Dokumentation und weitere relevante Kriterien zu erfüllen. Gleichzeitig bietet Dachser flächendeckend Schulungen an, damit alle Parteien die Anforderungen verstehen und erfüllen können. Ein robustes Überwachungs- und Auditierungssystem stellt sicher, dass die Qualitätsstandards entlang der gesamten Lieferkette eingehalten werden. Mit internen und externen Audits werden die Leistungen von Lieferanten systematisch bewertet, um potenzielle Gefahren für die Qualität zu identifizieren und zu minimieren. Durch dieses kontinuierliche Überprüfungs- und Verbesserungsverfahren wird die Integrität und Wirksamkeit des QMS aufrechterhalten.

Wie überprüfen Sie die Funktionsfähigkeit Ihres QMS? Welche Rolle spielen Audits?

Christian Pflüger: Regelmäßige interne Audits sind ein Schlüsselelement zur Überprüfung der Funktionsfähigkeit des QMS. Unsere internen Auditoren aus dem Regional Head Office und den Niederlassungen prüfen die Dokumentation, Prozesse und Verfahren, um sicherzustellen, dass sie den Standards entsprechen und effektiv implementiert sind. Audits dienen dabei als Instrument zur Identifizierung von Chancen zur Effizienzsteigerung und Qualitätsverbesserung.

Uns ist bewusst, dass menschliche Fehler passieren können. Deshalb spielt der richtige Umgang damit für Dachser eine entscheidende Rolle. Wir müssen den Fehler erkennen, bewerten und im Anschluss die entsprechenden Maßnahmen daraus ableiten. Dabei hilft eine offene Fehlerkultur.

Berufsbild Auditor

Für die Integrität und Zuverlässigkeit von Unternehmen ist das Einhalten von gesetzlichen, behördlichen und normativen Vorgaben und Anforderungen essenziell. Neben dem Feststellen der Konformität können im Rahmen eines Audits unter anderem bewährte Praktiken erkannt, Lücken identifiziert und Optimierungspotenziale aufgedeckt werden. Auditoren können so einen entscheidenden Beitrag für das Unternehmen leisten und haben gute Karriereaussichten in den verschiedensten Branchen.
Antworten auf die wichtigsten Fragen finden Sie in unserem Berufsbild zum Auditor:

  • Welche Aufgaben betreuen Auditoren?
  • Wie werde ich Auditor?
  • Welche Weiterbildungsmöglichkeiten gibt es?
  • Was verdient ein Auditor?
  • Welche Karrieremöglichkeiten gibt es als Auditor?

Zum Berufsbild Auditor »

Wie haben Sie Ihre Auditoren für die internen Audits vorbereitet?

Christian Pflüger: Wichtig ist aus unserer Sicht, dass Auditoren einen Mehrwert bringen und nicht nur das System befriedigen. Nur umfassend vorbereitete Auditoren können dazu beitragen, die Effektivität des Qualitätsmanagementsystems und die Erreichung der Qualitätsziele zu gewährleisten.

Diese Vorbereitung bei Dachser beinhaltet wie oben schon genannt umfangreiche Schulungen. Dazu kommen das Verständnis des QMS, das Erlernen der richtigen Auditprinzipien und -methoden sowie risikobasiertes Denken und Kommunikationsfähigkeiten. Grundlegend sollte ein Auditor dabei unabhängig und objektiv sein und souverän mit Konflikten umgeben können. Aus einem guten Feedback eines Auditors kann das Unternehmen kontinuierlich lernen und Verbesserungsmöglichkeiten schaffen.

Hat die Corona-Pandemie die Art der Audits verändert?

Christian Pflüger: Ja, natürlich waren auch das Qualitätsmanagement und damit die Audits von der Corona-Pandemie betroffen. Der gesamte Auditprozess wurde durch diese Situation umgekrempelt und neu strukturiert. Zum Beispiel wurden Remote-Audits durchgeführt, damit sie überhaupt stattfinden konnten. Die Corona-Pandemie hat aber auch gezeigt, wie wichtig es für uns ist, immer dranzubleiben und das Qualitätsmanagement vor Ort und in Präsenz zu leben.

Was ist davon nach Corona geblieben?

Christian Pflüger: Meetings und die Audits, die es zulassen, werden immer noch remote durchgeführt, um Zeit zu sparen und effizienter arbeiten zu können. Des Weiteren hat die Pandemie die Digitalisierung deutlich beschleunigt. Diese Tools und Möglichkeiten helfen uns, heute schneller und unkomplizierter miteinander in den Austausch zu gehen.

Stellt dies besondere Anforderungen an die Auditoren? Welche Qualifikationen müssen Sie mitbringen?

Christian Pflüger: Die Prozesse in einem Logistikunternehmen sind vielschichtig und komplex. Es geht nicht nur darum, Waren in einen LKW zu laden und von A nach B zu transportieren oder Waren im Hochregal zu lagern. Gerade in einem sensiblen und stark regulierten Umfeld wie der Lebensmittellogistik sind viele Anforderungen zu kennen und regelmäßig zu überprüfen.

Welcher Schwerpunkt lag auf den DGQ-Schulungen für Ihre Auditoren?

Christian Pflüger: Uns war es wichtig, gemeinsam mit der DGQ ein Inhouse-Training auf die Beine zu stellen, was uns ermöglicht, gezielt auf den Dienstleistungs- und im speziellen auf den Logistikbereich eingehen zu können. Dabei steht für uns im Vordergrund, dass die Norm verstanden werden muss, aber praktikabel und gelebt umgesetzt und somit auch auditiert werden kann. Hilfreich waren hier die gezeigten Tools aus der Praxis und die gemeinsame Erarbeitung eines möglichen Einsatzes in unserem Unternehmen.

Heilloses Durcheinander bei digitalen Pflegehilfsmitteln

Pflegehilfsmittel

Pflegehilfsmittel sind Produkte, die den Pflegeprozess unterstützen. Es kann sich um Verbrauchsmaterial handeln wie Einmalhandschuhe oder um Produkte, die zur Vermeidung von Schäden bei den Klient:innen dienen wie Betteinlagen. Die Pflegehilfsmittel können aber auch dem Erhalt von Kompetenzen bei hilfsbedürftigen Menschen dienen, indem sie Aktivität und Mobilität fördern und die selbstständige Lebensführung unterstützen. Dazu gehören technische und digitale Produkte wie Notrufsysteme, vernetzte Sensoren-Technologien und bestimmte Pflege-Apps.

Eine besondere Rolle spielen diese technischen und digitalen Pflegehilfsmittel in der Versorgung von Menschen daheim – der ambulanten Pflege. Dort sollen sie die Abhängigkeit von Pflege verringern und Selbstversorgungsdefizite eindämmen. Ein Rollator kann zum Beispiel die Einschränkung der Mobilität ausgleichen oder lindern und setzt dabei auf noch vorhandene Kompetenzen bei den Nutzenden. Damit verringert das Hilfsmittel auch den Einsatz von Personal und erfüllt eine weitere Funktion: Es schont Ressourcen, während gleichzeitig die Qualität der Versorgung steigt. Denn es wird keine helfende Hand benötigt, um das Mobilitäts-Bedürfnis zu erfüllen. Dies sichert Lebensqualität, weil so der Verbleib in der eigenen Häuslichkeit ermöglicht wird. Gleichzeitig steigt die Versorgungssicherheit, wenn die Sturzgefahr durch den Rollator verringert wird. Dieses Beispiel lässt sich auf digitale Hilfsmittel übertragen.

Wenn Sinn und Zweck von Hilfsmitteln für die Pflege leicht verständlich erscheinen, so sind die gesetzlichen Regelungen dazu doch komplex. Diese geben Kostenträgern, Dienstleistern und Pflegebedürftigen einen Rahmen, was nach bestimmten Kriterien als sinnvoll für die Pflege erachtet und welche Kosten für Hilfsmittel von den gesetzlichen Kassen übernommen werden. Sie sind in einem Katalog zusammengefasst, der in Abständen angepasst wird. Bei der aktuellen Überarbeitung stoßen die für die Erstellung verantwortlichen Kassen nun an Grenzen.

Denn bei der Kategorisierung sind unterschiedliche Maßstäbe und Perspektiven für die Kategorisierung in dem Hilfsmittelkatalog zu berücksichtigen. Diese Komplexität ist ein Spiegel des Themenfeldes Pflege in Deutschland. Sie zeigt den extremen und dringenden Reformbedarf, insbesondere im Bereich Digitalisierung und technische Vernetzung.

Das Perspektiven-Wirrwarr

  1. Aus Sicht des Gesetzgebers gelten nur solche Produkte als Pflegehilfsmittel, die zuhause eingesetzt werden. Nur dann werden auch die Kosten von der Pflegekasse übernommen. Werden Pflegehilfsmittel jedoch im Heim oder im Krankenhaus eingesetzt, dann sind die jeweiligen Einrichtungen dafür verantwortlich und die Kostenerstattung läuft über die Krankenkassen. Hier wird also eine Unterscheidung nach dem Ort der Versorgung gemacht, die Perspektive ist: Ort der Anwendung.
  2. Medizinische und pflegerische Hilfsmittel sind in einem gemeinsamen Katalog aufgeführt, der von den Kassen erstellt wird. Darin sind Produkte gelistet wie zum Beispiel medizinische Absaug- oder Bestrahlungsgeräte und Pflegehilfsmittel zur Erleichterung der Pflege wie Pflegebetten. Die Perspektive dieses sogenannten Hilfsmittelverzeichnisses ist produktbezogen.
  3. Obwohl die gesetzliche Grundlage für das Hilfsmittelverzeichnis das fünfte Sozialgesetzbuch (SGB V) – die Krankenversicherung – ist, so werden Pflegehilfsmittel aus der Pflegekasse (SGB XI) vergütet. Die Perspektive dabei ist der Kostenträger.
  4. Für digitale Pflegehilfsmittel gilt darüber hinaus eine besondere Regelung. Diese sogenannten „digitalen Pflege-Anwendungen“ (DiPAs) werden nicht vom Spitzenverband der Krankenkassen, sondern durch das Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) zugelassen und gelistet. Digitale Pflegehilfsmittel wie intelligente, sensorgestützte Notrufsysteme werden hingegen in dem zuvor genannten Hilfsmittelkatalog aufgeführt. Diesen Katalog erstellt der Spitzenverband der Krankenkassen (GKV-Spitzenverband). In Bezug auf digitale Hilfsmittel wird nach Hard- und Software, also nach Wirtschaftsgütern unterschieden und die Perspektive ist hoheitsgetrieben, weil unterschiedliche Institutionen deren Zulassung regeln.
  5. Zuletzt ist auch noch eine leistungsrechtliche Perspektive eingeführt worden. Damit wollte man vor allem der Neuregelung des Pflegebedürftigkeitsbegriffes Rechnung tragen. Die Kriterien für die Pflegebedürftigkeit sind seit 2017 in sechs Module gegliedert, die nach pflegebezogenen Kompetenzen der Klient:innen aufgeteilt sind:
    • Mobilität
    • Kognitive und kommunikative Fähigkeiten
    • Verhaltensweisen und psychische Problemlagen
    • Selbstversorgung
    • Umgang mit krankheitsspezifischen/therapiebedingten Anforderungen
    • Gestaltung des Alltagslebens und sozialer Kontakte

Diese Perspektive ist leistungsbezogen: Das Pflegehilfsmittel unterstützt die verbliebenen Kompetenzen in dem jeweiligen Modul, dadurch verringert sich dort der Pflege-Leistungsbedarf.

Das Hilfsmittelverzeichnis wird regelmäßig überarbeitet. Produkte werden hinzugefügt oder gelöscht. Die aktuelle Überarbeitung ist derzeit im Gange. Doch mittlerweile kommt das System bei der Einteilung und Zuordnung an seine Grenzen. Denn die unterschiedlichen Perspektiven führen zu einer Reihe von Dilemmata:

Ort der Anwendung

Der Ort der Anwendung ist für die pflegerische Intervention unerheblich. Ob eine Bettvorlage in der Klinik, im Heim oder in der eigenen Wohnung der Klient:in eingesetzt wird, hängt vom Bedarf ab. Da die Finanzierung aber über unterschiedliche Kostenträger erfolgt und es für die Kostenübernahmen unterschiedliche Voraussetzungen gibt, spielen pflegefachliche Kriterien eine nachgeordnete Rolle. Die Bewilligung eines Hausnotrufgerätes als Pflegehilfsmittel in einem Pflegeheim kommt aus diesem Grund nicht in Frage, weil per Definition die Pflegehilfsmittel nur für die Pflege in der Häuslichkeit vorgesehen sind. Dass aber ein Notrufsystem auch in einer Pflegeeinrichtung nützlich sein kann, wo Menschen häufig über lange Zeit allein in ihrer Wohnung oder ihrem Zimmer zubringen, liegt auf der Hand.

Produktperspektive

Bei der pflegerischen Versorgung kommt es vor allem auf die bei den Klient:innen – noch – vorhandenen Kompetenzen an. Der Zweck des Einsatzes von Pflegehilfsmitteln im Pflegeprozess ist oben erläutert. Die Produktgruppe oder -art ist dabei für das Erreichen der jeweiligen Pflegeziele unerheblich. Die Produktgruppenperspektive kann vielmehr sogar zu einer Schwächung der Pflege-Ziele führen. Es könnte nämlich der Fall eintreten, dass Hilfsmittel bei einem Individuum nur deshalb eingesetzt werden, weil sie in dem Produkt-Verzeichnis aufgeführt und finanziert werden, ohne dass in der individuellen Situation ein pflegerischer Nutzen entsteht.

Kostenträgerperspektive

Die Vermengung von medizinisch mit pflegerisch notwendigen Maßnahmen und Unterstützungsmöglichkeiten führt zu Herausforderungen: Solange kein Pflegegrad vorliegt, also eine gesetzlich festgestellte Pflegebedürftigkeit besteht, muss es eine medizinische Notwendigkeit für den Einsatz der Pflegehilfsmittel geben. Dann wird das Hilfsmittel vom Arzt verordnet und von der Krankenkasse bezahlt. Sobald der Bedarf über den Zeitraum von sechs Monaten hinaus besteht, ändert sich der Kostenträger und die Pflegekasse übernimmt. Solange der zuständige Kostenträger aber nicht geklärt ist, müssen Hilfsmittel eventuell privat ausgelegt werden. Da das nicht immer in ausreichendem Maße möglich ist, kann das die durchgängige Versorgung gefährden.

Hoheitsperspektive

Die Entscheidung über die Verordnung pflegerisch erforderlicher Hilfsmittel liegt in der Regel bei Ärzt:innen. Zwar hat der Gesetzgeber mittlerweile zugelassen, dass im Falle des Vorliegens einer Pflegebedürftigkeit auch Pflegefachkräfte die Verordnung vornehmen können. Von dieser Möglichkeit wird jedoch wenig Gebrauch gemacht, weil sie ohne Gegenfinanzierung bei der Pflege für hohen zusätzlichen administrativen Aufwand sorgt.

Neben dieser berufshoheitlichen Perspektive werden Pflegehilfsmittel auch noch durch zwei verschiedene Institutionen „verwaltet“. Digitale Software-Hilfsmittel werden vom BfArM geprüft, zugelassen und gelistet, während alle anderen Pflegehilfsmittel vom GKV-Spitzenverband verwaltet werden. Die Zulassungskriterien sind zwischen den Institutionen nicht abgestimmt. Im einen Fall ist ein Produktkatalog entstanden (GKV), auf der anderen Seite spielen leistungsrechtliche und fachliche Aspekte eine stärkere Rolle (BfArM).

Leistungsperspektive

Diese Sichtweise bietet für den Pflegeprozess die größten Chancen. Denn Hilfsmittel sollen Defizite ausgleichen und Kompetenzen schützen. Grundlage für die Einschätzung der entsprechenden Bedarfe ist die individuelle pflegefachliche Beurteilung: Mit welchem Hilfsmittel wird der größtmögliche Nutzen für die pflegerischen Ziele erreicht? Diese Ziele stehen in direktem Zusammenhang mit den pflegerischen Interventionen, die in Deutschland in sechs Leistungsmodulen zusammengefasst sind. Ein Pflegehilfsmittel, das für den Erhalt der kognitiven und kommunikativen Fähigkeiten (Modul 2) eingesetzt wird, passt momentan aber nicht logisch in die Kategorisierung nach Produktgruppen, die vor allem nach Hilfsmitteln für die Erleichterung der Pflegetätigkeiten, nach Verbrauchsmaterialien und Hilfsmittel zur selbstständigen Lebensführung unterscheiden (vor allem Hausnotruf).

Kernfragen und Forderungen

  1. Dient das jeweilige Pflegehilfsmittel den gemeinsam im Pflegeprozess zwischen Pflegenden und Klient:innen ausgehandelten Zielen?
    Hilfsmittel nach fachlichen Kriterien kategorisieren, Pflegemodule einbeziehen
  2. Welche Kompetenzen bei Patient:innen und Klient:innen werden gefördert, gestärkt, welche Defizite gelindert?
    Klient:innen-Perspektive bei der Nutzenbewertung einnehmen
  3. Wie kann der pflegefachlichen Verantwortung für das Erreichen der Pflegeziele am besten Rechnung getragen werden?
    Verordnung der Pflegehilfsmittel sektorenübergreifend – unabhängig vom Ort der Anwendung – an die entsprechend qualifizierten Pflegefachkräfte übergeben und aufwandsentsprechend vergüten
  4. Ist die Splittung in zwei Katalogen für die Administration hilfreich?
    Kataloge harmonisieren, doppelte Zuständigkeit auflösen, in echtem Pflegehilfsmittelverzeichnis integrieren

Mehr digitale Resilienz dank NIS-2-Richtlinie der EU

NIS2-Richtlinie, Switch

Die Richtlinie hat das Ziel, das Cybersicherheitsniveau innerhalb der EU zu vereinheitlichen und zu erhöhen. Sie ist im Januar 2023 in Kraft getreten und muss bis Oktober 2024 von den Mitgliedstaaten in nationales Recht umgesetzt werden. Aber dies geht nicht ohne gewissen Aufwand. Die Richtlinie sieht diverse Maßnahmen auf staatlicher Seite sowie für Unternehmen vor. Sie gilt in Deutschland für circa 40.000 Unternehmen in 18 Branchen ab 50 Mitarbeiter.

Die NIS-2-Richtlinie zielt darauf ab, die Sicherheit von Netzwerken und Informationssystemen in der EU zu stärken und die Resilienz- und Reaktionskapazitäten öffentlicher und privater Stellen, der zuständigen Behörden und der EU insgesamt weiter zu verbessern. Dies ist in Zeiten der wachsenden Digitalisierung und anhand der fast täglichen Meldungen im Bereich Cyberkriminalität zu begrüßen.

Solche Anforderungen stoßen aber in diesen unruhigen Zeiten aufgrund von Fachkräftemangel, Zeitnot und der für viele Organisationen engen finanziellen Spielräume auch auf Widerstände. Viele davon sind vermutlich auf eine Mischung aus Ignoranz, Hoffnung („Bei uns passiert schon nichts.“), Unwissenheit („Was ist NIS-2?“) und Fehleinschätzungen („Wir sind kein Ziel, bei uns ist nichts zu holen.“) zurückzuführen. Teilweise sind Widerstände auch der brutalen Erkenntnis geschuldet, angesichts der Bedrohungen bisher zu wenig getan zu haben. Gar mancher scheint das Ohnmachtsgefühl zu haben, sich ohnehin nicht wehren zu können.

Andererseits geht die Digitalisierung ohne Pause weiter. Neue Trends wie die KI bringen neue Herausforderungen, aber auch Möglichkeiten. Also wann will man mehr für die Sicherheit tun, wenn nicht jetzt? Und ist „Nichtstun“ wirklich eine Option?

Vorbereitung der Mitgliedsstaaten auf den Ernstfall

Die genannten staatlichen Maßnahmen dienen der Vorbereitung der Mitgliedstaaten. Sie verlangen, dass sie eine Organisation hierfür aufbauen und angemessen ausgerüstet sind. Zum Beispiel soll ein Computer Security Incident Response Team (CSIRT) und eine zuständige nationale Behörde für Netzwerk- und Informationssysteme (NIS) geschaffen werden. Dies wird in Deutschland in weiten Teilen vom Bundesamt für Sicherheit in der Informationstechnik sowie anderen Stellen abgedeckt. So unterhält die Polizei in den Ländern spezielle Stellen für diese Themen, die sogenannten ZAC, die Zentrale Ansprechstelle Cybercrime. Dort sind auf das Thema spezialisierte Juristen, IT-Fachleute und Polizei im Verbund aktiv.

Auch gilt es, die Zusammenarbeit zwischen allen Mitgliedstaaten durch Einsetzung einer Kooperationsgruppe zur Unterstützung und Erleichterung der strategischen Zusammenarbeit und des Informationsaustauschs zu organisieren und schrittweise zu verbessern.

Für staatliche Stellen und die Privatwirtschaft in allen Sektoren, die für unsere Wirtschaft und Gesellschaft von entscheidender Bedeutung und stark auf IKT angewiesen sind, müssen Maßnahmen ergriffen werden. Dies sind zum Beispiel Energie, Verkehr, Wasser, Banken, Finanzmarktinfrastrukturen, Gesundheitsversorgung und digitale Infrastruktur. Wichtige Anbieter digitaler Dienste wie Suchmaschinen, Cloud-Computing-Dienste und Online-Marktplätze müssen die Sicherheits- und Benachrichtigungsanforderungen der Richtlinie erfüllen. Besonders hervorzuheben ist die Geltung in großen Sektoren wie dem Maschinen- und Fahrzeugbau sowie der Chemie- und Lebensmittelindustrie.

Besonders relevant ist das Thema Haftung, denn Geschäftsführer sollen teilweise persönlich(!) für die Umsetzung (und Billigung) der Sicherheitsmaßnahmen in ihrer Einrichtung haften. In Verbindung mit Durchsetzungsregeln (Kontrollbesuche, Überprüfungen etc.) und einem verschärften Bußgeld- und Berichtswesen ist die NIS-2-Richtlinie ein wichtiger Schritt in Richtung einer einheitlichen und verbesserten Cybersicherheit in der EU.

Maßnahmenbündel zum Schutz vor Sicherheitsheitsvorfällen

Die konkret genannten Maßnahmen müssen auf einem umfassenden gefahrenübergreifenden Ansatz beruhen, der darauf abzielt, die Netz- und Informationssysteme und die physische Umwelt dieser Systeme vor Sicherheitsvorfällen zu schützen. Ein paar Beispiele für den Themenkreis der Anforderungen sind:

  • Risikoanalyse
  • Bewältigung von Sicherheitsvorfällen
  • Aufrechterhaltung des Betriebes
  • Sicherheit der Lieferkette
  • Sicherheit bei Entwicklung und Wartung
  • Bewertung von Risikomanagementmaßnahmen
  • Schulungen im Bereich der Cybersicherheit
  • Kryptografie und Verschlüsselung
  • Sicherheit des Personals und Konzepte für die Zugriffskontrolle
  • Sichere (Notfall-)Kommunikation
  • Awareness-Schulungen für Mitarbeiter und Führungskräfte

Positiv zu werten ist, dass die genannten Themen in der Praxis heute bereits im Rahmen von ausgereiften Informationssicherheitsmanagementsystemen (ISMS) unter anderem im Bereich Automotive durch TISAX® adressiert werden und im Business Continuity Management System (BCMS) Thema sind.

Die Umsetzung der Richtlinie erfolgt im Rahmen eines NIS-2-Umsetzungs- und Cybersicherheitsstärkungsgesetz (NIS2UmsuCG). Das Gesetzgebungsverfahren ist bereits im Gange, da verschiedene bestehende Gesetze (zum Beispiel BSIG; Kritis-Gesetze) miteinander im Sinne der NIS-2-Richtlinie zu harmonisieren sind. Aufgrund der vorhandenen Behörden und der gesetzlichen Vorarbeiten ist Deutschland hier schon relativ gut aufgestellt und muss wenig „Neues“ schaffen. Vielmehr geht es hierzulande darum zu integrieren, zu strukturieren und zu konkretisieren sowie schneller und besser zu werden.

Nach ISO/IEC 27001 zertifizierte Unternehmen sind im Vorteil

Erfreulich ist zudem, dass in den Erwägungsgründen der Richtlinie ausdrücklich die Normenreihe ISO/IEC 27000 (die 27001er ist ein Teil davon und zertifizierbar) als Bezugsrahmen für den Nachweis der Einhaltung der gesetzlichen Anforderungen zugelassen ist. Wohl dem, der bereits ein ISMS auf Basis ISO/IEC 27001 beziehungsweise TISAX® und BCMS (zum Beispiel auf Basis BIS-IT Grundschutz 200-4 oder ISO/IEC 22301) hat. Denn für diese Organisation wird wenig Mehraufwand wegen NIS-2 anfallen.

 

Über den Autor:
Klaus Kilvinger ist Geschäftsführender Gesellschafter der Opexa Advisory GmbH, einer auf die Themen Digitalisierung, Cyber- und Informationssicherheit, sowie deren Integration in Geschäftsprozesse spezialisiertes Beratungsunternehmen mit Hauptsitz in München. Er ist seit über 30 Jahren in der IT-Branche aktiv und verfügt über ein breites anwendungsbezogenes Erfahrungswissen, verfügt ferner über umfassende Kenntnisse und Erfahrungen im IT-Projektgeschäft sowie Fachwissen in der Software-Qualitätssicherung. Die Informationssicherheit im nationalen und internationalen Umfeld ist sein Zuhause. Als zertifizierter IT-Security Manager, IT-Security Beauftragter sowie Datenschutzbeauftragter verfügt er über breite Branchenkenntnisse, über die Fertigungs-, Automobilindustrie, den öffentlichen Sektor bis hin zur Wirtschaftsprüfung.

Qualitätsmanagement für Startups und Kleinstunternehmen agil aufbauen: Neues Projektvideo zeigt Ergebnisse des FQS-Forschungsprojekts „Startups“

Etablierte Konzepte und Ansätze zur Einführung eines Qualitätsmanagements und die formelle Anwendung der DIN EN ISO 9001 sind für Startups und Kleinstunternehmen meist wenig geeignet: Prozesse sind oftmals noch nicht ausreichend definiert und dokumentiert, Anforderungen können sich schnell ändern oder neu hinzukommen. Vielmehr ist ein agiles Vorgehen sinnvoll, bei dem die Beteiligten flexibel und iterativ agieren können und bei dem der Nutzen für das Unternehmen im Vordergrund steht. Im Rahmen des FQS-ForschungsprojektsStartups“ haben sich Wissenschaftler:innen des RIF – Institut für Forschung und Transfer e.V. mit der Nutzung von agilen Methoden zum Aufbau eines Qualitätsmanagementsystems beschäftigt.

In einem Zeitraum von zwei Jahren ist ein Vorgehensmodell entstanden, das Startups und Kleinstunternehmen darin unterstützt, modular ein bedarfsgerechtes Qualitätsmanagement aufzubauen. Das in einem IT-Tool umgesetzte Konzept sieht unter anderem die Definition von User Stories zur Erhebung von Anforderungen vor, die über Sprints umgesetzt werden. Durch einen Auswahlassistenten können anschließend passende Softwarelösungen identifiziert werden, die das agile Arbeiten unterstützen.

In einem neu veröffentlichten Projektvideo aus der FQS-Videoreihe stellen die Forschungspartner des RIF e.V. die Projektarbeiten vor und zeigen, wie Unternehmen von den vorgestellten Lösungen profitieren können. Ergänzt werden die Einblicke durch eine Praxisstimme des am Projekt beteiligten Startups IPS Engineers GmbH:

Forschungsprojekt Startups, FQS

 

Videoreihe der FQS – Forschungsgemeinschaft Qualität e. V.
Das Projektvideo „Startups“ ist Teil einer neuen Videoreihe der FQS – Forschungsgemeinschaft Qualität e.V., die die Arbeit und Themen der FQS als Forschungsarm der DGQ vorstellt und Einblicke in aktuelle Forschungsprojekte gibt. Zur Videoreihe »

 

Weitere Informationen zum Projekt und Kontakt:

Projektwebsite „Startups“ »

FQS – Forschungsgemeinschaft Qualität e. V.
August-Schanz-Straße 21A
60433 Frankfurt am Main
infofqs@dgq.de

Über die FQS:
Die FQS – Forschungsgemeinschaft Qualität e. V. (FQS) unterstützt seit 1989 die anwendungsorientierte Forschung rund um das Thema Qualität in Deutschland. Sie versteht sich selbst als Forschungsbereich der Deutschen Gesellschaft für Qualität e. V. (DGQ) und wird von ihr getragen. Die FQS fördert innovative Forschungsideen über das Instrument der Industriellen Gemeinschaftsforschung (IGF) und des Forschungsnetzwerks CORNET des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK). Ziele der Förderung sind möglichst anwendungsnahe Forschungsideen, die einen unmittelbaren Nutzen für die Wirtschaft, insbesondere für kleine und mittelständische Unternehmen (KMU), erbringen.

Ein Video mit weiteren Informationen über die FQS – Forschungsgemeinschaft Qualität e.V. findet sich hier.

FQS – Forschungsgemeinschaft Qualität e. V.
August-Schanz-Straße 21A
60433 Frankfurt am Main
infofqs@dgq.de

Digitale Prozessautomatisierung für Qualitätsmanager

Digitale Prozessoptimierung, Post-It, Prozesse

Organisationen fordern zunehmend standardisierte und automatisierte Prozesse. Lohnkosten, der demografische Wandel und die zunehmende Prozesskomplexität in allen Abteilungen und Organisationen erhöhen den Druck zur Standardisierung und Automatisierung. Die bisherige Herausforderung: Das Problem ist komplex und der Mangel an Fachkräften stellt zunehmend einen Engpass dar, doch die modellgesteuerte Prozessautomatisierung bietet an dieser Stelle eine Alternative.

Effiziente Prozessgestaltung und technische Ausführung von Prozessen leicht gemacht!

Bisher lagen die Verantwortung und Aufgaben wie die Automatisierung und Digitalisierung von Prozessen in den Händen von IT-Fachkräften oder Software-Entwickler:innen, die über die hierzu notwendigen technischen Fähigkeiten verfügten. Doch das verändert sich derzeit. Technologische Entwicklungen ermöglichen intuitivere Instrumente, die auch Qualitätsmanager:innen den Zugang zu diesen Themenbereichen eröffnen.

Am Beispiel der standardisierten Modellierungssprache „Business Process Model and Notation 2.0 (BPMN 2.0)“ ist das gut nachzuvollziehen. Qualitätsmanager:innen können dank dieser Notation fachliche Inhalte einfach visuell beschreiben und damit ganz ohne Programmierwissen oder spezielles Software-Knowhow Ausführungsanweisungen implementieren.

Was ist Prozessautomatisierung?

Wenn Unternehmen schnittstellenübergreifend digitalisieren und (mittlerweile häufig) automatisieren, spricht man von Prozessautomatisierung oder Workflow-Automatisierung. Ein funktionierendes Prozessmanagement ist ohne den Einsatz von Automatisierungstechnologien heute kaum noch vorstellbar. Die Komplexität steigt durch die Anzahl der für einen Prozess erforderlichen analogen und digitalen Ressourcen (Menschen, Systeme, Dienste, Maschinen, IoT-Geräte etc.) und deren Schnittstellen. Durch das abteilungs- und oft auch kompetenzübergreifende Verständnis von Prozessen können Qualitätsmanager:innen Synergien nutzen.

Häufige Herausforderung: Qualitätsmanager:innen sind selten IT-Expert:innen, müssen jedoch über verschiedene Fachabteilungen hinweg und im Austausch mit diesen die Leistungsfähigkeit der Prozesse auch durch Software ständig erhöhen. Eine gute Kommunikation und ein gemeinsames Verständnis des Prozesses zwischen Ingenieur:innen, IT-Techniker:innen und Nicht-Techniker:innen sind hier Basis für den Erfolg.

Modellgetriebene Automatisierung ist visualisierbar und verständlich

Die Modellierungssprache BPMN 2.0 wird zur Prozessmodellierung, also der Visualisierung und Beschreibung von Prozessen genutzt. Das Besondere: Die in Symbolen notierten Modelle sind gleichermaßen für Menschen wie auch für Software (Workflow Engines) lesbar. Die BPMN eignet sich daher gut, um auch komplexe Sachverhalte im Detail zu beschreiben und weiterhin abstrakt Inhalte vermitteln zu können. Technisch-orientierte und fachlich-orientierte Beteiligte können hiermit eine gemeinsame Sprache verwenden. Nicht nur gelingen mit der Notation der Entwurf und die bildhafte Darstellung von Prozessen, sondern diese können im selben Zuge durch Software gelesen und technisch ausgeführt werden. Die beiden Komponenten, Modelle und Workflow Engines, bilden die Grundlage moderner, modellgetriebener Automatisierung im Prozessmanagement.

Prozessmodelle orchestrieren so verschiedene Ressourcen. Zur Einbindung menschlicher Ressourcen, können BPMN-Prozesssmodelle den Aufruf von Benutzeroberflächen ermöglichen. Diese stellen die Schnittstelle zum Anwender dar (User Interface). Andere Ressourcen (z.B. ein ERP-System, oder ein Roboter) können durch den Aufruf technischer Schnittstellen (wie RestAPIs, OPC UA, u.a.) integriert werden. Durch Oberflächen und Schnittstellenaufrufe ergänzt, entsteht so auf Basis einer Workflow Engine eine Prozess-Applikation, die medienbruchfrei alle beteiligten Systeme integriert und von allen Mitarbeiter:innen der Organisation genutzt werden kann.

Berufsbild Prozessmanager

Wir leben in einer Zeit geprägt von Digitalisierung und Schnelllebigkeit. Umso wichtiger ist es, dass Unternehmen anpassungsfähig sind und auf veränderte Marktbedingungen eingehen können. Eine kontinuierliche Analyse und Optimierung von bestehenden Geschäftsprozessen ist sowohl für die Kosteneffizienz und Wirtschaftlichkeit, aber auch für die Kundenzufriedenheit von zentraler Bedeutung. Prozessmanager sind also gefragte Arbeitskräfte mit guten Zukunftsaussichten.
Antworten auf die wichtigsten Fragen finden Sie in unserem Berufsbild zum Prozessmanager:

  • Welche Aufgaben betreuen Prozessmanager?
  • Wie werde ich Prozessmanager?
  • Welche Weiterbildungsmöglichkeiten gibt es?
  • Was verdient ein Prozessmanager?
  • Welche Rollen gibt es im Prozessmanagement?

Zum Berufsbild Prozessmanager »

 

BPMN 2.0 ist demnach eine Low-Code/No-Code Methode, weil Modelle und Software-Anwendungen ganz ohne die klassischen Programmier-Codes, sondern anhand von grafischen Symbolen erstellt werden können. Nicht-Techniker:innen entwickeln aus der Expertise ihrer Fachabteilung heraus, unabhängig von Software-Expert:innen, automatisierte Lösungen – ein wichtiger Schritt für Unternehmen, um unter anderem dem Fachkräftemangel entgegenzuwirken.

Neben der technischen Ausführung des Prozesses übernimmt die Workflow-Engine auch die Steuerung und Überwachung der Prozessleistung. Die Prozesse-Applikation zeigt alle laufenden Prozesse zum besseren Verständnis an. Dadurch ist eine optimale Transparenz über alle laufenden Prozesse gewährleistet. Ressourcennutzung und -verbrauch sowie Prozessschwächen sind sofort erkennbar und gleichermaßen zugänglich, sodass Fachabteilungen Echtzeitinformationen nutzen können, um Prozesse zu optimieren und nahtlos in den Prozess-Kreislauf der Organisation zurückzugeben.

Eine Workflow Engine bietet im laufenden Betrieb die visuelle Form des Modells. Jeder Fachbereich erkennt und versteht leicht die eigene Verortung im Gesamtsystem, ebenso wie Querbezüge und Abhängigkeiten. Ein solcher Übergang wäre ohne BPMN nicht denkbar.

Vorteile von BPMN 2.0

Ist die Rede von Prozessautomatisierung, wird meist implizit von der Modellierungssprache „Business Process Model and Notation 2.0 (BPMN 2.0)“ gesprochen. Inzwischen gilt die Modellierungssprache BPMN 2.0 als der absolute Standard für Prozessmodellierung. Seit 2013 auch als ISO-Standard ISO19510 veröffentlicht, hilft er bei der Interaktion, vereinfacht die Transparenz, macht Workflows verständlicher und das Arbeiten angenehmer. Und nicht nur das: die visuelle Darstellung technischer Inhalte ist mit Hilfe von BPMN 2.0 ganz ohne IT-Fachwissen möglich.

Das System hinter solch schlicht gestalteten Symbolen ist leicht anzuwenden: Viele verschiedene Business-Szenarien können als Modell abgebildet werden. Selbst komplexe (Ende-zu-Ende-)Prozesse können auf diese einfache Weise dargestellt und auch fachfremden Kolleg:innen im Unternehmen zugänglich und verständlich gemacht werden. Modellierungssprachen bilden somit das gemeinsame Vokabular im automatisierten Prozessmanagement und sind unverzichtbares Kommunikationsmittel über die gesamte Organisation hinweg.

Zusammengefasst stechen folgende Vorteile heraus:

  1. Modell als Kommunikationsmittel
    Es heißt, ein Bild sagt mehr als tausend Worte. So verhält es sich auch bei der modellgetriebenen Automatisierung. Beteiligte Kolleg:innen aus unterschiedlichen Fachbereichen und Hintergründen können Prozesse dadurch besser verstehen und miteinander kommunizieren.
  2. Simpel und ausdrucksstark
    Der große Symbolumfang der Modellierungssprache BPMN 2.0 ermöglicht eine präzise und einfache Darstellung unterschiedlicher Einsatzszenarien.
  3. Prozessmodellierung ist keine Verschwendung
    In der Vergangenheit wurden Unternehmensprozessmodelle zwar oft erstellt, diese waren aber für Software nicht lesbar und „versauerten“ dann leider meist im Schrank. Die heutigen BPMN-Modelle sind direkt ausführbar, werden daher nicht mehr ausschließlich von Auditor:innen genutzt, sondern sind integraler Teil der Prozessleistung.
  4. Modell als Analyse-Instrument
    Die Präzision der Modellierungssprache offenbart bei der Dokumentation Unklarheiten. Sie eignet sich also gut, um Schnittstellen zwischen Prozessen abzustimmen und Anforderungen an IT-Systeme aufzudecken.
  5. Passgenau und zielgerichtet
    Auf Basis der erstellten formalen Modelle orchestrieren Workflow-Engines den Ressourcen-Einsatz der Organisation und können genau auf die Unternehmensziele ausgerichtet werden.

Fazit

Prozessautomatisierung wird leichter denn je. Qualitätsmanager:innen haben aufgrund ihrer bisherigen Prozessbetrachtungen hier häufig bereits die ersten Grundlagen gelernt, auf denen nun aufgebaut werden kann. Da das Qualitätsmanagement über zahlreiche Methoden verfügt, um Prozesse zu analysieren und zu verbessern, steht es in exponierter Stellung, um sicherzustellen, dass nur optimierten und reifen Prozessen eine Automatisierung erfahren.

 

Über den Autor:
Björn Richerzhagen ist Trainer und Berater bei MINAUTICS GmbH sowie DGQ-Trainer für Prozessmanagement und arbeitet an der Schnittstelle zwischen IT und Business. Sein schwerpunktmäßiges Tätigkeitsfeld ist das modellgetriebene Prozessmanagement. Als Kaufmann und ITler pflegt er den transdisziplinären Ansatz im BPM.

Von der Linearen Wirtschaft zur Kreislaufwirtschaft (Circular Economy), Teil 2 – Hinweise für die Umstellung

Circular Economy

Der Circularity Gap Report 2021 titelt „Wir alle lassen die Menschen und den Planeten im Stich… damit unsere Welt lebenswert bleibt und blüht, müssen wir die globale Kreislaufwirtschaft von 8,6 Prozent auf 17 Prozent verdoppeln“ (englische Fassung übersetzt). Zweifelsfrei besteht dringender Handlungsbedarf. Was jedoch hindert Organisationen daran, die Transformation zu einer „Circular Economy“ voranzutreiben? Einige Organisationen können offensichtlich die Vorteile der Kreislaufwirtschaft „noch“ nicht erkennen. Gründe könnten sein: fehlende Zahlen, Daten, Fakten, fehlendes Wissen und/oder fehlende Ressourcen zur erfolgreichen Umsetzung.

Dem gegenüber stehen Erfolgsmeldungen von Unternehmen, die frühzeitig die Chancen erkannt haben. Im Mai 2022 veröffentlichte das Institut der deutschen Wirtschaft (IW) eine Studie, aus der hervorgeht, dass Unternehmen mit zirkulären Geschäftsmodellen wirtschaftlich erfolgreicher sind. Die Kreislaufwirtschaft gilt daher als das Wirtschaftsmodell der Zukunft.

Wirtschaftliche Vorteile

Organisationen können durch eine zirkuläre Unternehmensstrategie wirtschaftliche Vorteile erzielen. Vom Rohstoffeinkauf und -einsatz über das Design als auch die Herstellung, den Vertrieb, die Verwendung, die Wiederverwertung und Reparatur sowie das Recycling bieten sich zahlreiche Möglichkeiten, neue, innovative und insbesondere nachhaltige Lösungen zu entwickeln.

Ein funktionierendes Netzwerk mit Blick auf die vor- und nachgelagerten Prozesse der Wertschöpfungskette ist hierzu ebenso notwendig. Zulieferer und externe Dienstleister sind wichtige Partner. Viele Daten werden benötigt, um die neuen zirkulären Abläufe zu bewerten und, sofern notwendig, nachzubessern. Eine wesentliche Voraussetzung zur erfolgreichen Umsetzung ist ein hoher Digitalisierungsgrad.

Zweifellos ist zu beobachten, dass auf nationaler, europäischer und internationaler Ebene die regulatorischen Vorgaben für die Transformation in Richtung einer Kreislaufwirtschaft zunehmen – soll heißen: Die Abkehr von einer linearen Wirtschaft ist alternativlos. Es lohnt sich für Organisationen, frühzeitig Kreislaufstrategien zu entwickeln und in Kreisläufen zu wirtschaften.

Dass kleine und mittlere Unternehmen (KMU) sich hier schwertun, ist verständlich. Oftmals fehlt es an Ressourcen und/oder Unterstützung durch Experten. Nachfolgend eine kleine, nicht vollständige, Linksammlung zu Förderprogrammen. Hier finden Organisationen sowohl Anregungen zur Umsetzung der Kreislaufwirtschaft als auch Fördermöglichkeiten auf europäischer, bundesweiter und landesweiter Ebene:

Informationen zu Förderprogrammen und zur Umsetzung der Kreislaufwirtschaft 

Europäische Ebene

  • InvestEU-Programm: Das InvestEU-Programm stellt langfristige Finanzmittel für Projekte und Unternehmen bereit, mit denen die Kreislaufwirtschaft umgesetzt wird.
  • EU-LIFE-Programm: LIFE steht für „L’Instrument Financier pour l’Environnement“ und ist ein Förderinstrument der Europäischen Kommission in den Bereichen Umwelt-, Klima- und Naturschutz sowie Energiewende.

Bundesweite Ebene

Landesweite Ebene

  • IHK Darmstadt: Fördermittel für die Kreislaufwirtschaft, für Forschung und Innovation, für Investitionen und Umsetzungsprojekte, für Beratungsleistungen zum Thema „Zirkuläre nachhaltige Textilien“
  • Land Niedersachsen: Das Land Niedersachsen unterstützt KMU mit Mitteln des Europäischen Fonds für regionale Entwicklung (EFRE) bei Vorhaben zur Steigerung der betrieblichen Ressourceneffizienz und zur Förderung der Kreislaufwirtschaft.

 

Beispiele für erfolgreich umgesetzte Kreislaufwirtschaft

Mit Blick auf die teils komplexen Anforderungen, welche mit der Transformation zur Kreislaufwirtschaft einhergehen, gibt es mittlerweile zahlreiche Beispiele, welche sehr gut zur Orientierung dienen können. Nachfolgend sind nur einige wenige exemplarisch aufgeführt.

  • Recup, Recircle und Vytal: Diese Unternehmen bieten Lösungen für die Gastronomie an. Speisen und Getränke lassen sich gegen Pfand in Mehrwegbehältern verpacken. Damit werden Einwegverpackungen komplett verzichtbar.
  • Patagonia: Das Unternehmen hat sich zum Ziel gesetzt, hochwertige Kleidung herzustellen, welche möglichst lange hält. Darüber hinaus wird die Kleidung so gefertigt, dass sie einfach repariert werden kann. Falls mal etwas repariert werden muss, bietet das Unternehmen in einigen Stores Reparaturdienstleistungen für seine Produkte an. Hier können Kunden ihre Kleidung an sogenannten Repair-Stationen kostenfrei reparieren lassen.
  • Ikea: Für Ikea ist die Wiederverwendung der Produkte wichtig. Der Ikea-Service bietet seinen Kunden eine „Zweite Chance“ für Produkte an. Jene Produkte, für welche die Kunden keine Verwendung mehr haben, werden von Ikea aufgekauft und finden in den Ikea-„Fundgruben“ neue Besitzer.
  • BMW: Für BMW ist Zirkularität ein strategisch wichtiges Thema und die Organisation sieht darin vielfältige Chancen. Unter anderem reduziert die Wiederverwendung wertvoller Ressourcen die kritische Abhängigkeit von kostspieligen Primärrohstoffen.
  • Stadt Amsterdam: Die Stadt will bis 2030 ihren Rohstoffverbrauch um 50 Prozent verringern und bis 2050 vollständig auf Kreislaufwirtschaft umstellen. Das bedeutet, sich von den klassischen ökonomischen Ansätzen zu lösen, um das gesteckte Ziel zu erreichen.

Diese Aufstellung ließe sich beliebig fortführen. Aus allen Branchen und Bereichen, national und international, gibt es viele positive Beispiele. Sofern noch nicht geschehen, ist es an der Zeit, sich mit dem Thema intensiv auseinanderzusetzen. Der DGQ-Fachkreis Nachhaltigkeit steht als Netzwerkpartner gerne jederzeit für Fragen zur Verfügung.

 

Lesen Sie mehr zum Thema Circular Economy im ersten Teil der Beitragsreihe: Von der Linearen Wirtschaft zur Kreislaufwirtschaft (Circular Economy), Teil 1 – ein Überblick »

 

Über die Autoren:

Prof. Dr.-Ing. Irina Mazilu-Eyaz hat Materialwissenschaft an der Technischen Universität Darmstadt und am Imperial College London studiert. Während Ihrer 11-jährigen Berufstätigkeit bei einem internationalen Technologiekonzern sammelte sie Erfahrung im Qualitätsmanagement und wurde zur Methoden-Expertin für technische Problemlösung. Seit 2021 ist sie Professorin für Qualitätsmanagement und Werkstoffkunde an der Hochschule RheinMain und entwickelt auch neue Lehrveranstaltungen zum Thema Nachhaltigkeit. Im Mai dieses Jahrs wurde sie ins Leitungsteam des DGQ-Fachkreises Nachhaltigkeit gewählt.

Dr. Wilhelm Floer hat als promovierter Maschinenbauingenieur und Qualitätsmanagement-Experte zahlreiche praktische Erfahrungen im Rahmen von Audits gesammelt. Er war über zehn Jahre im QM-Bereich Automotive in den unterschiedlichsten Positionen bei verschiedenen Unternehmen (OEM und First Tier) tätig. Bei einem namhaften Haushaltsgerätehersteller hat er sich unter anderem für agiles QM und als Energie- und Umweltmanagementvertreter für Nachhaltigkeitsthemen eingesetzt sowie als Co-Autor bei der Erstellung der Nachhaltigkeitsberichte mitgewirkt. Als Dozent für die DGQ leitet Dr. Wilhelm Floer seit 2019 verschiedene Trainings. Derzeit arbeitet er als Digitaler Nomade und steht als Freelancer, Coach und Consultant für VDA-, QM-, UM-, EM- und Nachhaltigkeits-Themen zur Verfügung. Wilhelm Floer ist Mitglied des Leitungsteams des Fachkreis Nachhaltigkeit.

Von der Linearen Wirtschaft zur Kreislaufwirtschaft (Circular Economy), Teil 1 – ein Überblick

Circular Economy

Die sogenannte „Circular Material Use Rate“ entspricht dem Anteil der Ressourcen, die in einer Volkswirtschaft genutzt werden und aus recycelten Produkten oder wiedergewonnen Materialien stammen. Während die Recyclingquote stetig zunimmt und europaweit im Jahr 2020 bei ca. 47,8 Prozent lag, nahm erstere hingegen von 2019 auf 2021 ab und lag zuletzt auf einem niedrigen Niveau von 11,7 Prozent. Angesicht der Tatsache, dass der Abbau und die Verarbeitung von Primärrohstoffen mit hohen umweltschädlichen Emissionen und steigenden Beschaffungspreisen verbunden sind, wird die Notwendigkeit im Umdenken der Unternehmen allerdings nicht nur von neuen Gesetzen, sondern tatsächlich auch von ökonomischen Überlegungen getrieben. Das verdeutlicht, welchen großen Impact die Transformation der linearen Wirtschaft zur zirkulären Wirtschaft (Kreislaufwirtschaft/„Circular Economy“) hat. Zu Recht stellt dies den größten wirtschaftlichen Wandel seit der Industriellen Revolution dar.

Was bedeutet Circular Economy?

Bei der Circular Economy handelt es sich um eine Erweiterung des häufig verwendeten Begriffs der Kreislaufwirtschaft auf ein übergreifendes Konzept, das zirkuläre Wirtschaften. Dabei geht es um die Umstellung von einer linearen Wirtschaft, die grob durch das Prinzip „take-make-waste“ gekennzeichnet ist, auf ein zirkuläres Wirtschaftsmodell, bei dem nach Möglichkeit endliche Ressourcen, also nicht-erneuerbare Rohstoffe, im Kreis geführt und wiederverwertet werden. Ähnlich zum „Biologischen Kreislauf“ der Natur, bei dem keine Abfälle, sondern nur neue Wertstoffe entstehen, sollen endliche Ressourcen in einem “Technischen Kreislauf” geführt und wieder zum Einsatz kommen. Im optimalen Fall bedeutet dies, dass endliche Ressourcen als Werkstoffe „unendlich“ in der Technosphäre innerhalb Produkten Verwendung finden. Im weiteren Abschnitt wird vor allem auf die Funktionsweise von Circular Economy im Technischen Kreislauf – also mit Blick auf die endlichen Ressourcen im zirkulären Wirtschaftsmodell – eingegangen.

Circular Economy

Abb. 1: Circular Economy, Endliche Ressourcen in der Technosphäre (eigene Darstellung © I. Mazilu-Eyaz)

Wie funktioniert Circular Economy in der Praxis?

Das zirkuläre Wirtschaften folgt drei Grundprinzipien:

  1. Der höchste Grad (High-Level) an Zirkularität wird durch eine intelligente Produktnutzung erreicht, die den Verbrauch von Materialen per se reduziert.
  2. Durch eine Erhöhung der Produktlebensdauer wird der Materialverbrauch insgesamt verlangsamt.
  3. Der niedrigste Grad (Low-Level) an zirkulärer Wertschöpfung kommt bei der für uns aus der klassischen Kreislaufwirtschaft bekannten Wiederverwertbarkeit von Materialien zum Tragen.

Umgesetzt werden die Prinzipien anhand der sogenannten 10 R-Strategien.

Circular Economy, 10 R-Strategien

Abb. 2: Circular Economy, 10 R-Strategien (eigene Darstellung © W. Floer)

Bei der intelligenten Produktnutzung (1) wird unter „Refuse, Rethink, Reduce” der Ersatz bisheriger Produkte durch neue Geschäftsideen verstanden. So verbirgt sich etwa hinter dem Car-Sharing das Konzept „Product as a Service”, hinter den Unterhaltungs-Streaming-Diensten das Konzept des „Entmaterialisierens“, durch welchen zum Beispiel der Besitz von CDs und DVDs obsolet wird. Natürlich kann der Materialverbrauch auch durch die Erhöhung der Materialeffizienz (zum Beispiel beim Leichtbau) erreicht werden. Hier gilt es aber auch immer, die Nachhaltigkeitsaspekte des effizienteren Werkstoffes entlang der ganzen Lebensdauer zu betrachten, was wieder die Relevanz der internationalen Umweltmanagementnorm ISO 14001 unterstreicht.

Mit Blick auf die Erhöhung der Produktlebensdauer (2) folgen fünf weitere R-Strategien: „Reuse, Repair, Refurbish, Remanufacture, Repurpose”. Während die ersten beiden beispielsweise durch Secondhand-Verkaufsbörsen oder Repair-Cafés hinlänglich bekannt sind, handelt es sich bei den darauffolgenden drei Strategien um weitreichende Vorgänge wie die Aufarbeitung von defekten Produkten mit beispielsweise Software-Updates zur Weiternutzung. Zum „Remanufacturing“ zählt darüber hinaus sogar die Nutzung komplexer technischer Komponenten nach Veränderung einzelner Bauteile als verbesserte Komponente mit gleicher Funktion und – ganz wichtig – bei erneuerten Qualitätsversprechen! Werden hingegen aus den nicht mehr für ihren angedachten Nutzen funktionstüchtigen Produkten neue Produkte mit geänderter Funktion hergestellt, dann spricht man von „Repurpose“. Ein Beispiel dafür ist der „Secondlife“-Einsatz für E-Batterien aus Autos im stationären Bereich.

Mit dem niedrigsten Grad an Zirkularität (3) folgen die Strategien „Recycle”, welche als Ergebnis der Wiederverwertung Materialien mit gleichbleibender oder niedrigerer Qualität als das Ursprungsmaterial liefert, und „Recover”, also die thermische Verwertung von Werkstoffen zur Gewinnung von Energie.

Neben der Herausforderung, Circular-Economy-fähige Produkte zu entwickeln, steht am Anfang für Organisationen die Frage: Welche Strategie kommt für welches Produkt in Frage? Das ist eine mehrdimensionale Problemstellung, die zum einen von der Komplexität des Produktes abhängt und zum anderen mit der Verfügbarkeit des Produktes nach der Nutzung durch den Kunden, was auch zum Beispiel den Aufbau eines Retourenmanagement (Reverse Logistik) benötigt.

Berufsbild Nachhaltigkeitsmanager

Die Themen Nachhaltigkeit und Klima­schutz gehören zu den Mega­trends unserer Zeit. Für Unter­nehmen wird es somit immer wichtiger, CSR-Maßnahmen um­zu­setzen und ihrer gesell­schaftlichen Verantwortung gerecht zu werden. Mit dem größeren Fokus auf Nachhaltigkeit haben sich in den letzten Jahren eine Vielzahl an grünen Jobs entwickelt, wie beispielsweise der Job als Nachhaltigkeitsmanager.
Antworten auf die wichtigsten Fragen finden Sie in unserem Berufsbild zum Nachhaltigkeitsmanager:

  • Welche Aufgaben betreuen Nachhaltigkeitsmanager?
  • Wie werde ich Nach­haltigkeits­beauf­tragter?
  • Welche Weiter­bildungs­möglich­keiten gibt es?
  • Was verdient ein Nach­haltigkeits­manager?
  • Welche Jobs gibt es im Nach­haltigkeits­manage­ment?

Zum Berufsbild Nachhhaltigkeitsmanager »

Unterstützung durch ein Managementsystem nach der DIN EN ISO 14001

Im DGQ-Blogbeitrag „Nachhaltigkeitsmanagement: Tipps für KMU” hat der DGQ-Fachkreis Nachhaltigkeit bereits darauf hingewiesen, dass Managementsysteme bei der Umsetzung von Nachhaltigkeitsaktivitäten hilfreich sein können. Insbesondere Unternehmen mit einem Umweltmanagementsystem nach der DIN EN ISO 14001 (kurz ISO 14001) fällt die Transformation hin zu einer Kreislaufwirtschaft wesentlich leichter.

Nachfolgend sind die wesentlichen Vorteile aufgelistet:

  • Rechtskonformität (bindende Verpflichtungen) ist Bestandteil der weltweit anerkannten Zertifizierung nach ISO 14001
  • Die Umsetzung der normativen Anforderungen wird jährlich von externen Zertifizierungsgesellschaften bzw. deren Auditoren geprüft
  • Mindestens einmal im Jahr wird im Management Review die Rechtskonformität bestätigt
  • Die hohe internationale Akzeptanz der Zertifizierung schafft Vertrauen bei internen und besonders bei externen Stakeholdern (Kunden, Lieferanten, Behörden, Geldgebern, etc.)
  • Erhöhtes Umweltbewusstsein aller Mitarbeiter zeichnet die Organisationskultur aus
  • Umweltschutz und Umweltmanagement, auch auf operativer Ebene, sind Teil der Unternehmenspolitik und Unternehmensstrategie
  • Das Abfallmanagement geht über in ein Wertstoffmanagement und regelmäßig erhobene Daten informieren sowohl über die eingesetzten sowie die rückgeführten Materialmengen als auch das erzielte jährliche Erlösen und Kosten
  • Die Umweltaspekte-Bewertung trägt unter anderem dazu bei, kontinuierlich den Einsatz von umweltbelastenden Stoffen wie beispielsweise Abfällen, Abwässern, Emissionen etc. zu reduzieren
  • Neue, auch gesetzliche, Umweltschutzauflagen auf internationaler Ebene und deren Änderungen werden schnell und effektiv umgesetzt
  • Regelmäßig wird eine umweltbezogene Chancen- und Risikobeurteilung vorgenommen entsprechend der im Unternehmen implementierten Prozesse
  • Um Schwachstellen unverzüglich zu identifizieren, sind standardisierte Prozesse mit Kontroll- und Steuerungsmechanismen vorhanden
  • Die Produktlebenszyklusbetrachtung, wenn auch nicht explizit gefordert, ist Teil der ISO 14001
  • Durch die Harmonized Structure der ISO 14001 ist mit geringem Aufwand eine Erweiterung zu einem Integrierten Managementsystem möglich

Unternehmen, welche nach der ISO 14001 zertifiziert sind, lehnen sich darüber hinaus häufig an die DIN EN ISO 14040 (Umweltmanagement – Ökobilanz – Grundsätze und Rahmenbedingungen) und DIN EN ISO 14044 (Umweltmanagement – Ökobilanz – Anforderungen und Anleitungen) an.

Ökobilanzen (ein anderer häufig verwendeter Begriff lautet Lebenszyklusbetrachtung, engl. Life Cycle Assessments, LCA) analysieren und bewerten die Umweltauswirkungen von Produkten und Dienstleistungen über deren gesamten Lebensweg. In erster Linie geht es hierbei um die Material- und Energieflüsse und die daraus resultierenden Auswirkungen für die Umwelt.

 

Zusammengefasst: Mit einem zertifizierten Managementsystem nach ISO 14001 werden beste Voraussetzungen geschaffen, sowohl für eine kontinuierliche Verbesserung der Umweltleistung als auch für ein verantwortungsvolles und nachhaltiges Wirtschaften innerhalb einer Organisation. Das europäische Umweltmanagementsystem EMAS (Eco-Management and Audit Scheme) basiert auf dem standardisierten Umweltmanagementsystem der ISO 14001. EMAS geht jedoch sogar noch über die Normanforderungen hinaus: Es fordert explizit einen Nachweis zur Verbesserung der Umweltleistung und die Einhaltung der Rechtsvorschriften in Form eines Umweltberichts oder einer Umwelterklärung.

 

Konkrete Hinweise für die Umstellung einer Organisation zu einer Kreislaufwirtschaft (Circular Economy) erhalten Sie im zweiten Teil der Beitragsreihe: Von der Linearen Wirtschaft zur Kreislaufwirtschaft (Circular Economy), Teil 2 – Hinweise für die Umstellung »

 

Über die Autoren:

Prof. Dr.-Ing. Irina Mazilu-Eyaz hat Materialwissenschaft an der Technischen Universität Darmstadt und am Imperial College London studiert. Während Ihrer 11-jährigen Berufstätigkeit bei einem internationalen Technologiekonzern sammelte sie Erfahrung im Qualitätsmanagement und wurde zur Methoden-Expertin für technische Problemlösung. Seit 2021 ist sie Professorin für Qualitätsmanagement und Werkstoffkunde an der Hochschule RheinMain und entwickelt auch neue Lehrveranstaltungen zum Thema Nachhaltigkeit. Im Mai dieses Jahrs wurde sie ins Leitungsteam des DGQ-Fachkreises Nachhaltigkeit gewählt.

Dr. Wilhelm Floer hat als promovierter Maschinenbauingenieur und Qualitätsmanagement-Experte zahlreiche praktische Erfahrungen im Rahmen von Audits gesammelt. Er war über zehn Jahre im QM-Bereich Automotive in den unterschiedlichsten Positionen bei verschiedenen Unternehmen (OEM und First Tier) tätig. Bei einem namhaften Haushaltsgerätehersteller hat er sich unter anderem für agiles QM und als Energie- und Umweltmanagementvertreter für Nachhaltigkeitsthemen eingesetzt sowie als Co-Autor bei der Erstellung der Nachhaltigkeitsberichte mitgewirkt. Als Dozent für die DGQ leitet Dr. Wilhelm Floer seit 2019 verschiedene Trainings. Derzeit arbeitet er als Digitaler Nomade und steht als Freelancer, Coach und Consultant für VDA-, QM-, UM-, EM- und Nachhaltigkeits-Themen zur Verfügung. Wilhelm Floer ist Mitglied des Leitungsteams des Fachkreis Nachhaltigkeit.

Einfluss von ESG-Ratings auf die Nachhaltigkeit von Unternehmensprozessen, Teil 1

ESG, Environmental, Social, Governance

Gute ESG-Ratings können Unternehmen Zugang zu kostengünstigem Eigen- und Fremdkapital verschaffen, ihre Marktpräsenz stärken und die Markenbekanntheit verbessern. Aber inwiefern wirken sich derartige Ratings auch auf die Gestaltung unternehmensinterner Prozesse aus?

Wer sich in den vergangenen Jahren mit dem Thema Nachhaltigkeit in Unternehmen beschäftigt hat, ist um folgende drei Buchstaben nicht herumgekommen: „ESG“. Das Akronym beschreibt die drei großen Bereiche, in denen Nachhaltigkeit (in der Wirtschaft) angestrebt wird: Umwelt („Environment“), Soziales („Social“) und Unternehmensführung („(Corporate-) Governance“). Viele Unternehmen veröffentlichen Informationen darüber, wie und in welchen Bereichen sie sich für Nachhaltigkeit engagieren. Um diese Informationen kurz und übersichtlich zusammenzufassen und Investoren eine qualitative Bewertung zur Verfügung zu stellen, gibt es ESG-Ratings.

Vorgehensweise der Ratingagenturen

Die Ratingagenturen, die jene Ratings erstellen, bewerten die Unternehmen häufig aufgrund von öffentlich verfügbaren oder individuell zur Verfügung gestellten Daten kurz und prägnant auf einer intuitiven Skala, wie zum Beispiel von 0 bis 100 oder auch von CCC bis AAA. Im vergangenen Jahrzehnt ist die Nachfrage von Investoren, in nachhaltige Unternehmen zu investieren, geradezu explodiert (Larcker et al/Stanford, 2022) und die verschiedenen Indizes oder Fonds, in denen die bestbewerteten Unternehmen gelistet sind, haben im Wert um viele Milliarden oder sogar Billionen US-Dollar zugelegt (C. Simpson / Bloomberg, 2021). Dies gibt Anlass zur Vermutung, dass ein gutes ESG-Rating für ein Unternehmen von großem wirtschaftlichem Vorteil sein kann. Wie groß der Ansporn für Unternehmen wirklich ist und inwiefern Unternehmen dafür tatsächlich nachhaltiger werden müssen, ist jedoch weitgehend unerforscht.

Um herauszufinden, ob ESG-Ratings einen positiven Einfluss auf die Nachhaltigkeit von Unternehmensprozessen haben, müssen mehrere Komponenten betrachtet werden. Daher soll es in diesem Beitrag einerseits darum gehen, alle Vorteile zu sammeln, die ein Unternehmen durch ein positives ESG-Rating gewinnt. Interessierte sollen verstehen, welchen Anreiz ein gutes Rating liefern kann, da bei Unternehmen der Profit an erster Stelle steht. Entscheidende Umstrukturierungen müssen also immer durch einen finanziellen Anreiz initiiert werden. Andererseits werden in diesem Beitrag die Schritte herausgearbeitet, die ein Unternehmen gehen muss, um ein positives Rating zu erhalten. Dabei wird hinterfragt, wie herausfordernd einige dieser Veränderungen sind oder ob vergleichsweise geringe Veränderungen bereits wesentliche Verbesserungen in den Ratings erzielen können.

Vorteile eines guten ESG-Rating

Zunächst einmal zeigt ein gutes ESG-Rating, dass das Unternehmen seine Verantwortung gegenüber der Gesellschaft und der Umwelt ernstnimmt und nachhaltig agiert. In einer Welt, in der Nachhaltigkeit immer wichtiger wird, werden Unternehmen, die sich um die Umwelt und die Gesellschaft kümmern, von vielen Menschen bevorzugt. Positive ESG-Ratings können dazu beitragen, das Vertrauen von Kunden, Investoren und anderen Stakeholdern zu gewinnen und zu stärken (J. Mandorfer, 2022). Die Markenbekanntheit wird gesteigert und neue Kunden werden noch einfacher generiert. Darüber hinaus kann ein gutes ESG-Rating dazu beitragen, dass Regierungen und andere Institutionen das Unternehmen bevorzugen. Viele öffentliche Auftraggeber setzen bei der Vergabe von Aufträgen auf Unternehmen, die sich für Nachhaltigkeit und Verantwortung engagieren.

Berufsbild Nachhaltigkeitsmanager

Die Themen Nachhaltigkeit und Klima­schutz gehören zu den Mega­trends unserer Zeit. Für Unter­nehmen wird es somit immer wichtiger, CSR-Maßnahmen um­zu­setzen und ihrer gesell­schaftlichen Verantwortung gerecht zu werden. Mit dem größeren Fokus auf Nachhaltigkeit haben sich in den letzten Jahren eine Vielzahl an grünen Jobs entwickelt, wie beispielsweise der Job als Nachhaltigkeitsmanager.
Antworten auf die wichtigsten Fragen finden Sie in unserem Berufsbild zum Nachhaltigkeitsmanager:

  • Welche Aufgaben betreuen Nachhaltigkeitsmanager?
  • Wie werde ich Nach­haltigkeits­beauf­tragter?
  • Welche Weiter­bildungs­möglich­keiten gibt es?
  • Was verdient ein Nach­haltigkeits­manager?
  • Welche Jobs gibt es im Nach­haltigkeits­manage­ment?

Zum Berufsbild Nachhhaltigkeitsmanager »

Schritte zur Verbesserung des eigenen Rankings

Eine wichtige Maßnahme für die Verbesserung des eigenen Ratings ist die Offenlegung von Informationen. Obwohl unklar ist, wie die Gewichtung von Informationen für ein gutes ESG-Rating genau ist, scheinen sich viele Experten einig darüber zu sein, dass primär der Akt, Informationen offenzulegen, zu verbesserten Ratings führt (S. Drempetic et al., 2020). Dazu gehört etwa die Veröffentlichung von Nachhaltigkeitsberichten, in denen das Unternehmen detailliert über seine Leistungen sowie Ambitionen in den Bereichen Umwelt, Soziales und Unternehmensführung informiert. Ein weiteres wichtiges Element ist die Implementierung interner Prozesse und Strukturen, die es dem Unternehmen ermöglichen, seine ESG-Leistung kontinuierlich zu überwachen und zu verbessern. Unter anderem wäre das die Einführung von Umwelt- und Sozialmanagementsystemen sowie die Schaffung von Rollen und Verantwortungsbereichen innerhalb des Unternehmens, die sich speziell mit ESG-Themen beschäftigen.

Ein weiterer wichtiger Schritt ist die Einbindung von ESG-Aspekten in die Geschäftsstrategie und die Unternehmensführung. Zu nennen wäre hier die Berücksichtigung von ESG-Faktoren bei Investitionsentscheidungen und die Berücksichtigung von ESG-Aspekten bei der Lieferantenauswahl (Verordnung (EU) 2020/852 des Europäischen Parlaments und des Rates Ziffer 34).

Relevanz im Kontext des Pariser Klimaabkommens

2015 haben 195 Länder das Pariser Klimaabkommen unterschrieben. Dieses verpflichtet die teilnehmenden Nationen dazu, jede Anstrengung zu unternehmen, die Erderwärmung bis 2030 auf maximal 2,0°C, besser sogar 1,5°C zu begrenzen (Übereinkommen von Paris (2015), Artikel 1). Es sieht vor, dass alle Teilnehmernationen eigene „ambitionierte“ Ziele setzen und diese anhand von zum Beispiel Gesetzen um- und durchsetzen. In dem Zuge wurden von der EU diverse Gesetze erlassen, die dabei helfen sollen, die selbstgesetzten Ziele der jeweiligen Länder zu erreichen. Die EU legte so als erster Gesetzgeber genau fest, was unter dem Begriff „Nachhaltigkeit“ zu verstehen sein soll, um Missverständnisse sowie Beschönigungen zu verhindern (Deutscher Bundestag (2022)).

Des Weiteren setzte die EU die Corporate Sustainability Reporting Directive (CSRD) in Kraft, die vor allem die größten Unternehmen dazu verpflichtet, Nachhaltigkeitsberichte zu veröffentlichen. Viele weitere Unternehmen wie zum Beispiel Unternehmen von öffentlichem Interesse mit mehr als 500 Mitarbeitenden oder kapitalmarkt­orientierte kleine und mittlere Unternehmen (KMU) sollen in den nächsten Jahren folgen, sodass bis 2025/2026 die Nachhaltigkeitsberichte von ca. 70% aller großen Unternehmen vorliegen (Richtlinie (EU) 2022/2464 des Europäischen Parlaments und des Rates). Diese nicht-finanzielle Berichterstattung ist in der EU-Taxonomie geregelt. Teil der Nachhaltigkeitsberichterstattung ist auch eine konkrete Zielsetzung, wie das berichtende Unternehmen zu den Klimazielen 2030 beitragen wird. So soll nicht nur ein CO2-Ausstoßziel gesetzt werden, sondern auch eine konkrete Strategie, um dieses zu erreichen. Diese gesetzliche Vorschrift, die realistische und ambitionierte selbstgesetzte Ziele von den Unternehmen fordert, ist einer der wichtigsten Schritte dabei, die angestrebten Klimaziele tatsächlich zu erreichen. Die Ziele der Unternehmen, der Regierung und der Bevölkerung werden auf diese Weise vereint. Sobald genau festgelegt ist, nach welchen Definitionen und Regularien ein Nachhaltigkeitsbericht geschrieben werden muss, werden Unternehmen ihren Konkurrenten gegenüber, ähnlich wie bei einer klassischen finanziellen Berichterstattung, deutlich transparenter und vergleichbarer. So ist es Shareholdern und Stakeholdern besser möglich, die aktuelle Lage einzuschätzen, und auch die Ratingersteller haben konkrete und genormte Zahlen und Begriffe, die in die Bewertungen einfließen können. Potenziell können dadurch also einheitlichere Ratings innerhalb einer Ratingagentur zu erwarten sein.

Arten und Zweck von Ratings

ESG-Ratings sollen ein übersichtliches, verständliches Bild davon abgeben, wie ein Unternehmen in den jeweiligen ESG-Bereichen abschneidet. Sie haben, ähnlich wie die Jahresabschlüsse, zwei wichtige Interessensparteien:

  1. Shareholder (Anteilseigner eines Unternehmens, zum Beispiel Aktionäre) und
  2. Stakeholder (andere vom Fortbestand des Unternehmens Profitierende, zum Beispiel Lieferanten oder Mitarbeiter)

Stakeholder verlangen Informationen über die Implementation von ESG hauptsächlich, um ihre weitere Zusammenarbeit einzuschätzen. Durch ihre Involvierung unterstützen sie die Tätigkeiten des Unternehmens und geben somit indirekt ihre Zustimmung zu der Unternehmensführung preis. Shareholder haben darüber hinaus zusätzlich die Perspektive, dass ihre Investition im Wert wachsen soll. Beide treffen ihre Geschäftsentscheidungen vermehrt auf Grundlage ethischer Grundprinzipien, weshalb es wichtig ist, die Vor- und Nachteile, Probleme und Chancen aus beiden Perspektiven zu betrachten.

Beispiel für die Veränderung des ESG-Ratings

Wird zum Beispiel ein neues Gesetz erlassen, das den CO2-Ausstoß stärker besteuert, bedeutet das ein gestiegenes (ESG-)Risiko für die Unternehmen, die nur schwer CO2 einsparen können. Folglich wird das Rating dieses Unternehmens schlechter. Dabei macht das schlechtere Rating den Eindruck, als hätte sich an der Unternehmenspraktik etwas geändert. Stellt das Unternehmen daraufhin auf Elektrofahrzeuge um oder entscheidet sich anderweitig CO2-Ausstoß zu senken, verbessert sich das Rating wieder, da das Risiko für Strafen oder größere Belastungen durch die CO2-Steuer gesunken ist. Dabei entsteht der Eindruck, dass das Rating sich aus dem Grund verbessert hat, weil weniger CO2-Ausstoß eine geringere Umweltbelastung bedeutet (N. Leeb, 2021). Diese Perspektive darf also nie außer Acht gelassen werden, wenn Unternehmensratings verglichen werden. Ein gutes Rating bedeutet in vielen Fällen, dass aktuell kein besonders hohes ESG-Risiko besteht, und nicht, dass das Unternehmen tatsächlich einwandfreie Umweltpolitik betreibt.

Die Autor:innen haben zu diesem Thema eine Expertenbefragung durchgeführt, deren Ergebnisse Sie im demnächst erscheinenden Teil 2 dieses Fachartikels lesen.

 

Der Text wurde von Prof. Dr. Irina Mazilu-Eyaz und ihrer wissenschaftlichen Mitarbeiterin Simone Schwarz verfasst und beruht auf der von Prof. Dr. Irina Mazilu-Eyaz und Prof. Dr. Alexander Rühl betreuten Bachelorarbeit von Herrn Maximilian Krause an der Hochschule RheinMain.

 

Über die Autoren:

Prof. Dr.-Ing. Irina Mazilu-Eyaz hat Materialwissenschaft an der Technischen Universität Darmstadt und am Imperial College London studiert. Während Ihrer 11-jährigen Berufstätigkeit bei einem internationalen Technologiekonzern sammelte sie Erfahrung im Qualitätsmanagement und wurde zur Methoden-Expertin für technische Problemlösung. Seit 2021 ist sie Professorin für Qualitätsmanagement und Werkstoffkunde an der Hochschule RheinMain und entwickelt auch neue Lehrveranstaltungen zum Thema Nachhaltigkeit. Im Mai dieses Jahrs wurde sie ins Leitungsteam des DGQ-Fachkreises Nachhaltigkeit gewählt.

Kontakt: irina.mazilu-eyaz@hs-rm.de, www.hs-rm.de

Bis Ende 2023 war Simone Schwarz wissenschaftliche Mitarbeiterin an der Hochschule RheinMain und arbeitet jetzt beim GSI Helmholtzzentrum für Schwerionenforschung GmbH in Darmstadt. Sie forscht für ihr Promotionsvorhaben zum Thema Nachhaltigkeit und Circular Economy im Bereich Maschinenbau.

Kontakt: s.schwarz@gsi.de, www.gsi.de


Larcker et al/Stanford (2022), ESG-Ratings – A Compass Without Direction, S. 11.

C. Simpson / Bloomberg (2021), Where ESG’s $35 Trillion Explosion Really Came From.

J. Mandorfer (2022), Nachhaltigkeitsberichterstattung i. d. Österreichischen Vers.-wirtschaft, S. 12.

S. Drempetic et al. (2020), The Influence of Firm Size on the ESG Score: Corporate Sustainability Ratings Under Review, S. 348 ff.

Verordnung (EU) 2020/852 des Europäischen Parlaments und des Rates Ziffer 34.

Übereinkommen von Paris (2015), Artikel 1.

Deutscher Bundestag (2022), Die EU-Taxonomie nachhaltiger Aktivitäten, Nr. 05/22, S. 1.

Richtlinie (EU) 2022/2464 des Europäischen Parlaments und des Rates.

N. Leeb (2021), ESG-Ratings und ESG Indizes – Eine Vergleichende Analyse, S. 23.


Künstliche Intelligenz in der Qualität – Welche Qualifikationen werden benötigt?

Künstliche Intelligenz (KI) in ihrer aktuellen Form hat eine hohe Aufmerksamkeit auf sich gezogen. Viele Firmen stellen sich die Frage, wie sie sich am besten auf die neuen Entwicklungen vorbereiten können. Einer der wichtigsten Erfolgsfaktoren ist dabei die Qualifikation der Mitarbeiter. Im ersten Teil dieser Serie wurde gezeigt, dass das Qualitätswesen eine vergleichsweise kleine Einstiegsschwelle in diese neuen KI-Technologien hat. Die Aufgabe des Qualitätswesens war es seit jeher, mit Hilfe von Daten und Statistik Transparenz zu schaffen und Verbesserungspotentiale zu heben. KI stellt somit in vielerlei Hinsicht eine Erweiterung des bestehenden Methodenkoffers dar. Auch für das Qualitätswesen stellt sich jedoch die Frage, wie Mitarbeiter am besten für den Einsatz neuer Methoden qualifiziert werden können.

In diesem Beitrag beschreiben wir drei Stufen der Qualifikation mit Mindestanforderungen. Die niedrigste Qualifikationsstufe ist dabei in der Regel für alle Qualitätsmitarbeiter ohne erweiterte Trainingsmaßnahmen erreichbar. Es wird gezeigt, dass sich mit jeder Qualifikationsstufe neue Anwendungsfälle erschließen lassen, die weitere Einsparpotenziale bieten. Welche Methoden für den einzelnen Mitarbeiter relevant sind, hängt vom Einsatzbereich innerhalb der Qualität ab. Es wird daher gezeigt, in welchem Bereich welche Technologie am besten einsetzbar ist und wie hoch die Einsparpotenziale typischerweise sind.

Methoden der künstlichen Intelligenz und ihre Anwendungsgebiete innerhalb des Qualitätswesens

Tabelle 1 zeigt eine Übersicht, welche Methoden für das Qualitätsmanagement und die Qualitätssicherung relevant sind. Die Methoden fallen in zwei große Bereiche der künstlichen Intelligenz: Machine Learning und generative KI. Machine Learning beinhaltet sowohl erweiterte statistische Verfahren als auch Bilderkennung. Generative KI wurde durch den Chatbot ChatGPT und die Bildverarbeitungsmodelle Midjourney und Stable Diffusion bekannt. Chatbots eignen sich zur Verarbeitung großer Textmengen (z.B. Normentexten oder Kundenanforderungen). Bildverarbeitungsmodelle sind im Qualitätsbereich weniger von Interesse.

Eine weniger bekannte Anwendung generativer KI ist die Einbettung (embedding). Einbettung erlaubt Texte zu gruppieren oder auf Ähnlichkeit zu prüfen. So können beispielsweise Kundenbewertungen zusammengefasst werden oder 8D Berichte nach ähnlichen Fehlerbildern durchsucht werden. Einbettung kann als eine Art erweiterte Schlagwortsuche verstanden werden, bei der nicht mehr nach exakten Übereinstimmungen, sondern nach ähnlichen Sinnzusammenhängen gesucht wird.

Eine weitere wichtige Disziplin stellt die Visualisierung von Daten dar. Visualisierung ist kein Teilgebiet der künstlichen Intelligenz, aber sie spielt eine wichtige Rolle in der Vermittlung von Ergebnissen. Insbesondere bei komplexeren Methoden des Machine Learnings ist eine gute Visualisierung unabdingbar.

Methoden der künstlichen Intelligenz und ihre Anwendungsgebiete innerhalb des Qualitätswesens

Tab. 1: Methoden der künstlichen Intelligenz und ihre Anwendungsgebiete innerhalb des Qualitätswesens.

Tabelle 1 kann in drei Anwendungsgruppen unterteilt werden. Visualisierung spielt überall dort eine große Rolle, wo aus Daten Korrekturmaßnahmen abgeleitet werden. Dies ist in der Problemlösung und Prozessverbesserung (KVP/Kaizen) der Fall. Auch in der Fertigung findet man solche Anwendungsfälle (z.B. Shopfloorvisualisierungen). Diese Anwendungsfälle lassen sich häufig mit geringem Aufwand und No-Code-Werkzeugen umsetzen.

Die zweite Anwendungsgruppe Generative KI beinhaltet Anwendungsfälle, bei denen große Mengen an Text analysiert und verarbeitet werden müssen. Das Qualitätsmanagement hat einen starken Bezug zu Normen, Richtlinien und Kundenvorgaben. Generative KI können in Form von Chat Bots viele Aufgaben vereinfachen (z.B. der Vergleich unterschiedlicher Normen oder das Erstellen von Gap-Listen bei Normänderungen). Außerdem können Chatbots mit geeigneten Prompts Problemlösungsprozesse unterstützen.

Die dritte Anwendungsgruppe umfasst das Machine Learning. Machine Learning hat eine große Überschneidung mit klassischer Statistik. Statistikwerkzeuge sind in der Qualitätssicherung weit verbreitet. Machine Learning bietet Methoden zum Klassifizieren und Clustern von Daten. Es können auch Modelle und Prognosen über zukünftige Verläufe erstellt werden. Diese Methoden eignen sich auch hervorragend zur Analyse großer Datensätze, die in modernen Produktionsprozessen entstehen.

Die Frage, die sich Mitarbeitern und Führungskräften gleichermaßen stellt ist: Welche Anwendungsfälle können mit den zur Verfügung stehenden Zeitressourcen bearbeitet werden und wie hoch sind die zu erwartenden Einsparungen. Tabelle 2 soll hierzu eine Hilfestellung geben. Auf der horizontalen Achse sind die zu erwartenden Einsparsummen und auf der vertikalen Achse sind die benötigten Ressourcen abgetragen. Es zeigt sich, dass mit höheren Qualifikationen und größerem Zeiteinsatz auch Anwendungen erschlossen werden können, die größere Einsparungen hervorbringen. Mit Hilfe der Tabelle können Qualifikationsmaßnahmen und Einsparziele zu einer Strategie mit Zielvorgaben verzahnt werden. Es ist wichtig zu betonen, dass es sich bei der Einteilung um Erfahrungswerte handelt, die je nach Anwendung abweichen können.

Gegenüberstellung von typischen Einsparpotenzialen und notwendiger Qualifikation für typische Anwendungsfälle

Tab. 2: Gegenüberstellung von typischen Einsparpotenzialen und notwendiger Qualifikation für typische Anwendungsfälle.

Als Pilotprojekte für künstliche Intelligenz eignen sich Anwendungsfälle der einfachen Kategorie. Diese Projekte können in der Regel ohne Einsatz von Programmierung erstellt werden und nutzen entweder vorgefertigte Lösungen wie ChatGPT oder Low-code-/No-Code-Software wie PowerBI oder KNIME. Das Ergebnis solcher Projekte sind häufig Dashboard-Lösungen oder kleine Werkzeuge. Sie können elegant in bestehende Prozesse eingebunden werden und reduzieren den Arbeitsaufwand bei wiederkehrenden Tätigkeiten. Der Fokus auf einfache Pilotprojekte erzeugt schnellen Mehrwert und Motivation.

Es ist nicht ungewöhnlich, dass einfache Projekte, wenn sie erfolgreich sind, immer wieder erweitert werden und von der einfachen auf die fortgeschrittene oder sogar anspruchsvolle Stufe gelangen. Ähnlich wie beim agilen Projektmanagement entsteht auf jeder Stufe neuer Mehrwert.

Typische Anforderungsprofile für Mitarbeiter der unterschiedlichen Qualifikationsniveaus

Ein Beispiel soll dies verdeutlichen: Viele Firmen nutzen automatische Prüfsysteme. Bei schwierigen Prüfaufgaben muss oft ein gewisses Maß an Fehlentscheidungen in Kauf genommen werden. Die Fehlerteile müssen dann händisch nachkontrolliert und gegebenenfalls nachgeprüft werden. Die Nachprüfentscheidung basiert oft auf einfachen Regeln. Diese Regeln lassen sich leicht mit Hilfe von Machine Learning auf Software übertragen, wenn eine ausreichende Anzahl von Beispielen vorhanden sind.

Das Ergebnis eines einfachen Pilotprojekts könnte wie folgt aussehen: Der Mitarbeiter liest die n.i.O.-Prüfberichte im erstellten ML-Programm ein. Das Programm gibt als Ergebnis alle Fehlentscheide mit einem zugehörigen Vertrauensniveau aus. Der Mitarbeiter kann alle offensichtlichen Fehlentscheide einer Wiederholungsprüfung unterziehen, ohne die Ausfälle im Detail zu analysieren. Durch das Pilotprojekt lassen sich repetitiven Aufgaben des Mitarbeiters reduzieren und er kann seinen Fokus den Echtfehlern widmen.

Das Pilotprojekt lässt sich in die fortgeschrittene Stufe erweitern, wenn die Software in die Produktionslinie integriert wird. Die benötigten Ressourcen steigen und es werden mehr Kenntnisse aus der IT und den technischen Abteilungen benötigt, aber die Einsparung ist ungleich größer. Da die Entscheidung nun innerhalb der Produktionsmaschine erfolgt, fallen Transportschritte und händische Teileerfassung in der Analyse weg. Dieses iterative Vorgehen minimiert Umsetzungsrisiken und erzeugt zählbaren Mehrwert bei jeder Erweiterung.

Die fortgeschrittene Aufwandskategorie benötigt bereits Grundkenntnisse in der Programmierung. R und Python sind hier die am weitesten verbreiteten Programmiersprachen [5]. Diese Programmiersprachen sind in vielen anderen Werkzeugen integriert, so dass beispielsweise ein Knime- oder PowerBI-Dashboard verwendet werden kann, um die Ergebnisse zu visualisieren, die mit einem Python Skript berechnet wurden. Mitarbeiter mit fortgeschrittener Qualifikation können Projekte mit erheblichen Einsparpotentialen umsetzen. Gleichzeitig sind die Projekte meist noch klein genug, um als Abschlussarbeit oder als Sonderaufgabe neben dem Tagesgeschäft bearbeitet zu werden.

In die anspruchsvolle Kategorie fallen Projekte, die von hochqualifizierten Mitarbeitern bearbeitet werden müssen. Die Einsparpotenziale sind hier nach oben offen, aber in der Regel sind diese Projekte so groß und komplex, dass Mitarbeiter mehrer Fachabteilungen zusammenarbeiten müssen. Oft werden bei solchen Projekten auch externe Experten hinzugezogen, um Qualifikationslücken innerhalb des Teams zu kompensieren. Anspruchsvolle Projekte zielen oft darauf ab, komplette Arbeitsabläufe zu komplett zu automatisieren. Ein Anwendungsbeispiel hierfür ist die Automatisierung der Überwachung von Prüfmitteln, die heute in der Regel händisch und unter hohem Aufwand erfolgt.

Mitarbeiter, die das höchste Qualifikationsniveau erreichen, sind Spezialisten. Im letzten Beitrag wurde die große Ähnlichkeit zwischen dem IBM Data Science Modell und Six Sigma dargestellt. Ähnlich wie ein Six Sigma Black Belt haben diese Spezialisten oft die Aufgabe, weniger qualifizierte Mitarbeiter anzuleiten und zu unterstützen.

Tabelle 3 zeigt Mindestqualifikationen für die Aufgabenkategorien aus Tabelle 2. Die erforderlichen Qualifikationen fallen in zwei Kategorien: Statistikkenntnisse, die benötigt werden, um die Korrektheit der Auswertungen bewerten zu können und Programmierkenntnisse, die für anspruchsvolle Anwendungen erforderlich sind. Auch hier handelt es sich um Erfahrungswerte. Im Einzelfall können die notwendigen Qualifikationen abweichen.

ypische Anforderungsprofile für Mitarbeiter der unterschiedlichen Qualifikationsniveaus

Tab. 3: Typische Anforderungsprofile für Mitarbeiter der unterschiedlichen Qualifikationsniveaus.

Die Tabelle 3 soll eine Richtschnur darstellen, was Mitarbeiter üblicherweise benötigen, um KI Aufgabenstellungen zu bearbeiten. Die Richtschnur ermöglicht Führungskräften, ihre Qualifikationsmaßnahmen auf ihre eigenen Anwendungen abzustimmen. Sie stellt außerdem sicher, dass Mitarbeiter mit Aufgaben betraut werden, die zu ihrem Qualifikationsprofil passen und so weder über- noch unterfordert sind. Wenn die Möglichkeit besteht, ist interne Qualifikation externer Unterstützung vorzuziehen. Der entscheidende Vorteil liegt darin, dass die Mitarbeiter aus der eigenen Domäne die Daten, Prozesse und Produkte des Unternehmens bereits kennen. Externe Experten müssen sich dieses Wissen erst erarbeiten.

Zusammenfassend kann gesagt werden, dass die Qualifikation der Mitarbeiter eine Schlüsselrolle bei der Einführung von KI im Qualiätsbereich darstellt. Die Qualifikation der Mitarbeiter bestimmt die Anwendungsfälle, die bearbeitet werden können. Aus diesem Grund müssen Qualifikationsmaßnahmen und die Projektplanung für den Einsatz von KI auf einander abgestimmt sein. Die beigestellten Tabellen liefern Richtwerte für gängige Anwendungsfälle und erlauben es Führungskräften, die richtigen Prioritäten bei der Einführung von KI zu setzen.

 

Lesen Sie auch die beiden anderen Teile der Reihe “Künstliche Intelligenz in der Qualität“:

  • Teil 1: Künstliche Intelligenz in der Qualität – Bestehendes Know-how effektiv nutzen – zum Beitrag »
  • Teil 3: Künstliche Intelligenz in der Qualität – Praktische Einführung durch iteratives Vorgehen – zum Beitrag »

 

Über die Autoren:

Dr.-Ing. Stefan Prorok ist Geschäftsführer der Prophet Analytics GmbH und DGQ-Trainer für Qualitätssicherung und Prüfmittel.

Dipl.-Ing. Waldemar Fahrenbruch ist Head of Q-Technology Division E-Mobility bei der ZF Friedrichshafen AG. Er ist verantwortlich für die Qualitätskostensenkung bei gleichzeitiger Optimierung von Qualitätskonzepten in den Werken der Division E (TCU, Power Electronics und E-Motoren Fertigung) durch Methodenkompetenz der Qualität, künstlicher Intelligenz und digitaler Transformation.


Fahrenbruch, Waldemar, Prorok Stefan. „Künstliche Intelligenz in der Qualität – Bestehendes Know-how effektiv nutzen“ https://www.dgq.de/fachbeitraege/kuenstliche-intelligenz-in-der-qualitaet-bestehendes-know-how-effektiv-nutzen/
Mumtarin, Maroa, Md Samiullah Chowdhury, and Jonathan Wood. “Large Language Models in Analyzing Crash Narratives–A Comparative Study of ChatGPT, BARD and GPT-4.” arXiv preprint arXiv:2308.13563 (2023).
Zhang, Yongfeng, et al. “Learning over knowledge-base embeddings for recommendation.” arXiv preprint arXiv:1803.06540 (2018).
Bach, Benjamin, et al. “Challenges and opportunities in data visualization education: A call to action.” IEEE Transactions on visualization and computer graphics (2023).
Agresti, Alan, and Maria Kateri. Foundations of statistics for data scientists: with R and Python. CRC Press, 2021.
Prorok, Stefan „Machine Learning in der Produktion – Warum die digitale Revolution anders aussieht, als gedacht.“ https://prophet-analytics.de/whitepapers/stat_models.pdf


Künstliche Intelligenz in der Qualität – Bestehendes Know-how effektiv nutzen

Viele Branchen sind heute mit stetig steigenden Qualitätsanforderungen konfrontiert. Zusätzlich erfordern komplexere Produkte erweiterte Absicherungen im Herstellungsprozess. Gleichzeitig stehen viele Hersteller vor der Herausforderung, Kostenoptimierungen umzusetzen, um langfristig wirtschaftlich zu bleiben. Wie kann Qualität diesen Spagat schaffen?

Neue Methoden im Bereich der künstlichen Intelligenz (KI), insbesondere des Machine Learnings bieten Möglichkeiten, um Verbesserungspotenziale auf Basis bestehender Daten zu heben. Besonders bei komplexen Produktionsabläufen kann Machine Learning zu neuen Erkenntnissen führen. Für Praktiker stellt sich allerdings die Frage, wie sich neue Methoden sinnvoll in bestehende Arbeitsabläufe integrieren lassen.

Dieser Beitrag zeigt auf, dass es große Überschneidungen zwischen klassischen Q-Werkzeugen und modernen KI Methoden gibt. Machine Learning, als Unterdisziplin der KI, wird den Methodenkoffer der Qualität langfristig erweitern. Der Beitrag nennt darüber hinaus Erfolgsfaktoren für Mitarbeiter und Führungskräfte, die Machine Learning in ihrer Firma einsetzen wollen, um ihre Prozesse effizienter zu gestalten.

Machine Learning als Prozess und Methode

Der Einstieg in den Bereich des Machine Learnings gestaltet sich in der Qualität wesentlich einfacher als in anderen Ressorts. In Abbildung 1 ist ein Vergleich der Methoden des PDCA-Zyklus, der Six Sigma DMAIC Methode und der IBM Data Science Methode dargestellt. Die Abbildung zeigt die Parallelen der Ansätze.

Alle drei Methoden verfolgen das gleiche Ziel: Nachhaltige Lösung eines bestimmten Problems.

PDCA, Six Sigma DMAIC, IBM Data Science Methode

Abb. 1: Vergleich zwischen PDCA, Six Sigma DMAIC und IBM Data Science Methode

Machine Learning und klassische Qualitätswerkzeuge basieren grundsätzlich auf Methoden der Statistik (induktive, deskriptive und explorative Statistik). Hier zeigen sich ebenfalls große Überschneidungen zwischen den beiden Ansätzen. Somit ist das Grundwissen für Machine Learning in vielen Qualitätsbereichen bereits vorhanden.

Auch prozessseitig gibt es große Parallelen zwischen KI-Projekten und dem klassischen Qualitätswesen. KI-Anwendungen lassen sich durch das Turtle Modell beschreiben (vergleiche Abbildung 2). In diesem Fall liegt der Fokus auf Dateneingabe, Verarbeitung mit Generierung der wertschöpfenden Informationen und Datenausgabe. Der Ansatz ist jedoch gleich.

Turtle-Modell, VDA 6.3

Abb. 2: Turtle-Modell nach VDA 6.3 (2023)

Was bleibt ist die Frage, wie eine gute Umsetzungsstrategie aussehen kann, um die neuen Machine Learning Werkzeuge im Unternehmen einzuführen. Eine der größten Hürden bei der Nutzung von Machine Learning besteht darin, Daten in geeigneter Art und Weise für die Mitarbeiter bereitzustellen. Hierbei kommt den Führungskräften eine Schlüsselrolle zu.

Datenverfügbarkeit und Dokumentation

Führungskräfte haben großen Einfluss darauf, wie und in welcher Form Daten abgelegt werden. Es gilt darauf achten, dass von vornherein möglichst nur maschinenlesbare Daten erzeugt werden.

Folgende Prinzipien helfen dabei, dieses Ziel zu erreichen:

  • Standardisierung der Daten mit einem einheitlichen Datenmodell
  • Nutzung von Datenbanken als Datenablage
  • Wenn keine Datenbank verwendet werden, sind einfach interpretierbare Dateiformate (z.B. csv oder xml) sinnvoll
  • Für Prozessdokumentation sollten feste Formulare mit möglichst wenig Freitext gewählt werden.

Die zweite Aufgabe für Führungskräfte besteht darin die Daten verfügbar zu machen. Es müssen Schnittstellen geschaffen werden, über die die Mitarbeiter sicher auf Daten zugreifen können. Dabei muss sichergestellt sein, dass eine fehlerhafte Abfrage nicht zu ungewolltem Datenverlust führen kann. Dies ermöglicht einen spielerischen Umgang mit Daten ohne Risiko. Anschließend sind die Mitarbeiter an der Reihe diese Daten gewinnbringend zu nutzen.

Auswahl geeigneter Anwendungen

Eine wichtige Aufgabe der Qualität war es seit jeher Transparenz zu schaffen und Optimierungspotenziale aufzudecken. Diese Aufgabe wird im Datenzeitalter noch wichtiger. Der Umgang mit Daten wird in Zukunft eine grundlegende Anforderung an Mitarbeiter im Qualitätswesen sein. Es ist jedoch nicht realistisch, alle Qualitätsmitarbeiter auf das Qualifikationsniveau von Datenspezialisten zu heben. Dies ist aber auch nicht nötig. Der Schlüssel zum Erfolg liegt in einer geeigneten Auswahl von Softwarewerkzeugen.

No-Code/Low-Code Lösungen, wie KNIME oder Tableau, bieten einfache Möglichkeiten, die Einstiegsschwelle für Mitarbeiter zu senken und schnellen Mehrwert zu schaffen. Grafische Visualisierungen und Dashboards stellen dabei einen guten Einstieg in die Welt des Machine Learnings dar. Dashboards können beispielswese gleichzeitig Auskunft über verschiedene Kennzahlen (z.B. Stillstandszeiten, OEE oder Ausschuss) geben und lassen sich gut in tägliche Shopfloormeetings einbinden. Es werden keine Programmierkenntnisse benötigt, um einfache Dashboards zu erstellen. Die Anleitungen sind meist frei im Internet verfügbar und viele Werkzeuge können kostenlos verwendet werden. Entscheidend für den erfolgreichen Einsatz von Dashboards ist, dass die Daten nicht mehr von Hand eingepflegt werden. So können die Mitarbeiter sich auf die Lösung der Probleme konzentrieren. Dies erhöht die Akzeptanz und motiviert die Mitarbeiter nach weiteren Anwendungen zu suchen. Der Übergang zum tatsächlichen Machine Learning (zum Beispiel durch Erweiterung von Dashboards für Klassifikation und Prognosen) ist fließend.

Ein weiteres Themenfeld für einen einfachen Einstieg sind Sprachmodelle. KI-Werkzeuge wie ChatGPT können Daten und Texte schnell zusammenfassen oder Fragen zu den Eingangsdaten beantworten. Sprachmodelle benötigen ebenfalls keine Programmiererfahrung und eignen sich hervorragend für Einsteiger. Interessant sind Sprachmodelle auch deshalb, weil sie sich einfach anpassen und mit anderen Systemen verknüpfen lassen (zum Beispiel automatische Terminbuchungen im Kalender oder Erfassung von Kundenreklamationen). Folgender Link zeigt ein angepasstes Sprachmodell, welches Fragen zu ISO 9001 oder IATF 16949 beantwortet. Sprachmodelle und Datenverarbeitung werden in den nächsten Jahren noch sehr viel enger zusammenwachsen. Beispiele hierfür sind Copilotfunktionen, die den Benutzer bei seiner Arbeit unterstützen und für Microsoft Windows und Office bereits erprobt werden.

Was die Zukunft bringt

Wir gehen davon aus, dass Programmierkenntnisse durch weitere Verbreitung von Copiloten und Low-Code/No-Code Werkzeugen an Bedeutung verlieren werden. Machine Learning wird damit für mehr Mitarbeiter ohne Programmierkenntnisse einsetzbar.

Im Zuge dieser Entwicklung werden immer mehr Methoden des Machine Learnings (Clustern, Klassifikation, Regression oder Prognosen auf Basis von Modellen) in den Methodenkoffer des Qualitätswesens integriert werden. Die grundlegende Arbeitsweise des Qualiätswesens nach PDCA und DMAIC bleibt dabei erhalten. Die neuen Werkzeuge aus dem Bereich Machine Learning versprechen schnellere Problemlösung und hohe Transparenz. Mitarbeiter, die heute noch händisch Daten erfassen und verarbeiten, werden entlastet und können so weitere Verbesserungen für das Unternehmen erzielen.

Unternehmen können diese Entwicklung aktiv fördern, indem sie die Datenqualität und Datenverfügbarkeit verbessern (siehe Abbildung 3). Mitarbeiter sollten spielerisch an Datenverarbeitung und Machine Learning herangeführt werden und ihre intrinsische Motivation sollte durch geeignete Schulungen aktiv unterstützt werden. Der Fokus für Qualifikation sollte dabei darauf liegen die Methoden des Machine Learnings zu kennen und diese Methoden mittels Low Code / No Code Lösungen im Unternehmenskontext einzusetzen.

Erfolgsfaktoren, Datenverfügbarkeit, Werkzeuge, Qualitätskultur

Abb. 3: Übersicht der Erfolgsfaktoren für moderne Qualitätsarbeit

 

Lesen Sie auch die beiden anderen Teile der Reihe “Künstliche Intelligenz in der Qualität“:

  • Teil 2: Künstliche Intelligenz in der Qualität – Welche Qualifikationen werden benötigt? – zum Beitrag »
  • Teil 3: Künstliche Intelligenz in der Qualität – Praktische Einführung durch iteratives Vorgehen – zum Beitrag »

 

Über die Autoren:

Dipl.-Ing. Waldemar Fahrenbruch ist Head of Q-Technology Division E-Mobility bei der ZF Friedrichshafen AG. Er ist verantwortlich für die Qualitätskostensenkung bei gleichzeitiger Optimierung von Qualitätskonzepten in den Werken der Division E (TCU, Power Electronics und E-Motoren Fertigung) durch Methodenkompetenz der Qualität, künstlicher Intelligenz und digitaler Transformation.

Dr.-Ing. Stefan Prorok ist Geschäftsführer der Prophet Analytics GmbH und DGQ-Trainer für Qualitätssicherung und Prüfmittel.


Rollins, John. “Why we need a methodology for data science.”, IBM Analytics Whitepaper (2015). https://tdwi.org/~/media/64511A895D86457E964174EDC5C4C7B1.PDF 
Al-Sai, Zaher Ali, Rosni Abdullah, and Mohd Heikal Husin. “Critical success factors for big data: a systematic literature review.” IEEE Access 8 (2020): 118940-118956.
Ahmad, Norita, and Areeba Hamid. “Will Data Science Outrun the Data Scientist?.” Computer 56.2 (2023): 121-128.
https://www.knime.com/blog/anomaly-detection-predictive-maintenance-control-chart
https://prophet-analytics.de/norma_ai/


Überarbeitete ISO 9001 kommt 2025 – weitere Revisionen angekündigt

Der Zeitplan für die Revision der ISO 9001 steht: Im Dezember 2025 soll voraussichtlich die revidierte Fassung der Qualitätsmanagementsystemnorm veröffentlicht werden. Das ist ein Ergebnis des Jahresmeetings des für Qualitätsmanagement zuständigen Technical Committee 176 der Internationalen Organisation für Normung (ISO). Die verantwortliche Arbeitsgruppe wird im Dezember 2023 erstmals zusammenfinden. Darüber hinaus fiel im Oktober die Entscheidung, dass auch die internationale Qualitätsmanagementnorm ISO 9000 sowie die ISO 19011 überarbeitet werden. Im August hatte die ISO bekanntgegeben, dass die ISO 9001 in Revision gehen wird.

Die Normen ISO 9004 und 9002 ebenso wie die ISO 10005 und 10006 wurden in ihrer bestehenden Form bestätigt.

Orientierungshilfen im Fokus

Bei der Revision der ISO 9001:2015 liegt ein Fokus auf der Erarbeitung ergänzender Orientierungshilfen; die Struktur und der Anwendungsbereich des Standards sollen erhalten bleiben. Eine entsprechende Design-Spezifikation, welche aktuelle Auswirkungen der globalen Veränderungen sowie Veränderungen in der QM-Anwendung und durch den Einsatz neuer Technologien berücksichtigt, befindet sich derzeit in Abstimmung durch die zuständige Arbeitsgruppe. Auch ESG-Aspekte sollen bei der Normenentwicklung strukturell berücksichtigt werden. Parallel werden laut einem Beschluss des TC 176 auch die sieben QM-Grundsätze einem Review unterzogen, die für die Umsetzung der ISO 9001 wichtig und in der ISO 9000 manifestiert sind.

„Durch Nutzung aller Mitwirkungsoptionen, unter anderem über Liaison Memberships bei der EOQ und der International Personnel Certification Association (IPC), konnten wir fünf Experten aus dem Umfeld von DGQ, EOQ und DIN für die Revisionen aktivieren und nominieren“, berichtet Thomas Votsmeier, Leiter Normung bei der DGQ und fachliche Leitung des DIN-Gremiums NA 147 00 01 AA Qualitätsmanagement. „Diese können nun die Weiterentwicklung der TC 176 9000er Normen mit ihren unterschiedlichen Hintergründen und Funktionen intensiv begleiten – zum einen durch Mitwirkung in den Arbeitsgruppen, zum anderen in Steuerungsgremien.“

Revision der ISO 9000

Auch für die Revision der ISO 9000:2015 entsteht aktuell eine neue Arbeitsgruppe. Eine Design-Spezifikation ist in Arbeit. Auch hier gilt: Der Anwendungsbereich und die Inhalte der Norm bleiben grundsätzlich erhalten. Unter anderem im Fokus steht eine Harmonisierung der Begriffe mit dem aktuellen Annex SL und die Abstimmung zur Terminologie mit anderen ISO Technical Committees. Thomas Votsmeier koordiniert die Beteiligung der Experten, die für dieses Gremium nominiert werden, wodurch auch hier eine intensive Mitwirkung sichergestellt wird.

Als ein Input sowohl bei der Revision der ISO 9000 als auch der ISO 9001 soll zudem ein neues Diskussionspapier namens „Risk concept paper“ dienen, das die Arbeitsgruppe TC 176 TG4 im Rahmen der Diskussionen um das Verständnis und Konzept von „Risiko“ bzw. des „risikobasierten Ansatzes“ vorgestellt hat. Bei der inhaltlichen Ausgestaltung war eine DGQ-/EOQ-Vertreterin maßgeblich mitbeteiligt. Inhaltliche Punkte betreffen unter anderem die historische Entwicklung des Risikokonzepts und seine Einbindung in die ISO 9001, die Entkopplung der Konzepte von Risiko und Chance sowie eine Anleitung zur Anwendung des risikobasierten Modells zur Risikobewältigung.

Das ISO Technical Management Board (TMB) hat derweil beschlossen, dass die Technical Comittees bei der Nutzung von Definitionen bezüglich Risiko eine gewisse Flexibilität besitzen, also nicht zwangsläufig in allen Managementsystemnormen eine identische Definition vorhanden sein muss.

Revision der ISO 19011

Des Weiteren hat das ISO Technical Management Board (TMB) im September entschieden, die ISO 19011 – Leitfaden zur Auditierung von Managementsystemen – zu revidieren, und ein neues Gremium eingerichtet. Eine Zeitplanung dazu ist in Vorbereitung. Noch zu klären ist in diesem Zusammenhang, wie die Relation zur in Erarbeitung befindlichen ISO 17012 Remote Audit Methods aussehen wird. In beiden Gremien ist eine direkte Beteiligung durch DGQ/EOQ sichergestellt. Die seitens DGQ in die ISO 17012 eingebrachten Inhalte aus dem Fachkreis Audit und Assessment wurden zu einem großen Teil in den entsprechenden Normentwurf integriert.

DQS feiert 30 Jahre DGQ-Firmenmitgliedschaft

Die DQS GmbH (Deutsche Gesellschaft zur Zertifizierung von Managementsystemen) feiert in diesem Jahr ihre 30-jährige Firmenmitgliedschaft bei DGQ. Zur Ehrung waren Claudia Welker, Geschäftsführerin der DGQ und Jürgen Freund, Leiter der DGQ-Geschäftsstelle Frankfurt, zu Gast. Die Ehren-Urkunde nahmen Ingo Rübenach, Geschäftsführer DQS Holding GmbH, Christian Gerling, Geschäftsführer DQS GmbH und Christiana Rambow-Krummeck, Leiterin Qualitäts- und Produktmanagement DQS GmbH, entgegen.

Im Rahmen einer kleinen Feierstunde überreichten die Verantwortlichen der DGQ die Urkunde und dankten der DQS für die aktive Mitarbeit seit 30 Jahren.

DQS, Firmenmitgliedschaft, Jubiläum

(v.l.n.r.) Jürgen Freund, Leiter DGQ-Geschäftsstelle Frankfurt, Christian Gerling Geschäftsführer DQS GmbH, Claudia Welker, Geschäftsführerin DGQ, Christiana Rambow-Krummeck, Leiterin Qualitäts- und Produktmanagement DQS GmbH, Ingo Rübenach, Geschäftsführer DQS Holding GmbH ©DQS GmbH

„Die Anforderungen, die Märkte und Kunden an uns stellen, sind komplex und mitunter sehr spezifisch. Um diesen gerecht zu werden, braucht es auch Impulse zur Innovation von außen. Mit unserer Mitarbeit in Fachkreisen und Netzwerken in der DGQ sowie auf gemeinsamen Veranstaltungen entwickeln wir den Qualitätsgedanken ständig weiter“, erläutert Christian Gerling, „Wir beschäftigen uns mit Zukunftsthemen wie Künstliche Intelligenz, Digitalisierung und Informations- und Datensicherheit, die auch in der Auditierung von Managementsystemen und in der Ausbildung von Auditoren eine immer größere Rolle spielen. Dieser Austausch mit Qualitätsverantwortlichen aus den unterschiedlichen Branchen über Best-Practice-Ansätze und Herangehensweisen ist unendlich wertvoll“, unterstreicht Gerling die Vorteile der DGQ-Mitgliedschaft.

Personalmaß in der Pflege – Chance oder Bürde?

Personalbemessung, Pflege, PeBeM

Es ist schon ein sperriges Wort: Personalbemessungsverfahren. Es wird im Pflegejargon mit „PeBeM“ abgekürzt und führt in der Branche wegen seiner weitreichenden Folgen zu vielen Diskussionen. Doch was ist das „PeBeM“, wird es gebraucht und kann es die Qualität der Pflegeleistungen verbessern?

Abwärts-Spirale

Hintergrund: Seit langem leidet die Pflege unter einem zunehmenden Mangel an Personal, mittlerweile auch im Bereich der weniger gut Qualifizierten. Gründe dafür sind die Arbeitsbedingungen bei vergleichsweise bescheidenen Karrierechancen und der rasante Anstieg des Pflegeleistungs-Bedarfs wegen der alternden Gesellschaft.

Die Folge ist ein Teufelskreis: Wo eigentlich immer mehr Pflegepersonal gebraucht wird, macht der Mangel den Beruf zusätzlich immer unattraktiver. Die körperlich und seelisch anstrengende Arbeit findet nicht genug neue Interessent:innen, um den wachsenden Bedarf zu decken. Der Krankenstand ist hoch, insbesondere Fachpersonal steigt aus.

Vorschläge und Lösungsversuche, um die sich drehende Spirale aus steigendem Bedarf und schlechter werdenden Bedingungen zu durchbrechen, gibt es zu Hauf. Bereits in den 90er Jahren des letzten Jahrhunderts wurde für Krankenhäuser eine Pflegepersonalregelung (PPR) eingeführt, die eine Mindestausstattung an Krankenpflege-Fachkräften abhängig vom Bedarf vorsah.

PPR offenbarte Personalmangel in Kliniken

Die Bestandsaufnahme bei der Einführung der PPR zeigte, dass bereits damals eine große Personal-Lücke in Kliniken klaffte. Der berechnete Bedarf lag weit über dem Bestand. Im Zuge einer Reform der Krankenhausfinanzierung wurde die Regelung dann aber kurzerhand wieder abgeschafft – mit dramatischen Folgen bis heute.

Denn die Pflegepersonalausstattung in Kliniken richtete sich fortan nicht mehr nach pflegerischem Bedarf und Aufwand, sondern nach den entstehenden Kosten. Um die zu drücken, wurde dort Pflegepersonal sukzessive verringert. Jetzt häufen sich Fälle, in denen Aufnahmestopps verhängt werden oder sogar Krankenhaus-Stationen vorübergehend geschlossen werden, weil das Pflegepersonal fehlt.

Genauso ist die derzeitige Situation in der Langzeitpflege. Heime haben lange Wartelisten, ambulante Pflegestationen verhängen Aufnahmestopps. Allerdings gab es bisher in der Langzeitpflege keine vergleichbare Grundlage für die Berechnung des vorzuhaltenden Personals und deren Qualifikation wie einst für Kliniken. Als Anhaltspunkt diente nur die sogenannte Fachkraftquote. Sie ist historischen Ursprungs und legt willkürlich den Anteil der Fachkräfte am eingesetzten Personal in Pflegeheimen auf mindestens 50 Prozent fest. Diese starre Quote wird den unterschiedlichen Anforderungen der Praxis nicht gerecht.

Neustart für die Langzeitpflege

Die Fachkraftquote stand deshalb zunehmend in der Kritik. Sie bildet nicht den tatsächlichen Bedarf an Pflegekräften und deren Qualifikation ab. Zudem mangelt es vielerorts schlicht an Fachpersonal, um die Quote ständig zu erreichen. Wo das nicht geschieht, verhängen die mit der Kontrolle beauftragten Heimaufsichten bis dato Aufnahme- und Belegungsstopps. Das führt nicht selten zu finanziellen Schieflagen der betroffenen Pflegeheime, weil dann Einnahmen fehlen.

Der Gesetzgeber hat 2017 mit dem zweiten Pflegestärkungsgesetz die Selbstverwaltung im Gesundheitswesen damit beauftragt, ein Verfahren zur Ermittlung des Personalbedarfs in Pflegeeinrichtungen zu ermitteln. Die Universität Bremen wurde daraufhin mit einer wissenschaftlichen Studie beauftragt, um nach pflegefachlichen Kriterien eine Methode zu entwickeln, die den Bedarf an Pflegepersonal in Pflegeeinrichtungen bestimmt.

Das Ergebnis ist das Personalbemessungsinstrument, mit dem der Bedarf an Pflegekräften für eine gute Pflege ermittelt werden kann. Die liegt nach dem Gesetz vor, wenn sie „nach qualitativen und quantitativen Maßstäben“ ausreichend ist.

Das Personalmaß für Heime…

Dieses Instrument ist die Grundlage für die seit Juli 2023 geltende Personalberechnung in der Langzeitpflege, kurz „PeBeM“. Es berücksichtigt die in Deutschland geltende Einteilung des Pflegebedarfs nach Pflegegraden. Je höher dieser ist, desto mehr Fachexpertise wird benötigt. Folglich müssen Einrichtungen mehr Fachpersonal vorhalten, in denen mehr Menschen mit einem höheren Pflegebedarf versorgt werden.

Da sich im Zuge der Studie herausstellte, dass die Berechnungssystematik nicht auf den ambulanten Sektor zu übertragen ist, gilt das Verfahren nur für Pflegeheime. „PeBeM“ ist also ein Qualitätsinstrument, mit dem die gesetzlichen Personal-Anforderungen für gute Pflege in Heimen umgesetzt werden sollen. Es gilt eine Übergangsfrist bis 2025. So lange haben die Heimbetreibenden Zeit, ihren Personalstamm an die Regelungen anzupassen. Und diese Anpassungen haben es in sich!

Denn die Studie der Universität Bremen brachte ans Licht, dass der Tätigkeitsmix in Heimen häufig an den fachlichen Erfordernissen vorbeigeht. Insbesondere Pflegefachkräfte übernehmen Aufgaben, für die sie eigentlich überqualifiziert sind. Diese könnten – als ein Ergebnis der Studie – von weniger qualifiziertem Personal, sogenannten Assistenzkräften, übernommen werden.

…wälzt Strukturen in den Einrichtungen um

Das bedeutet in der Praxis, dass bestehende Arbeitsabläufe geändert werden müssen und die jeweiligen Gruppen sich auf die Tätigkeiten konzentrieren, die ihrer Qualifikation entsprechen. Dies gilt insbesondere für Aufgaben, für die es fachliche und rechtliche Vorbehalte gibt:

  • Pflegefachkräfte führen die entsprechenden Vorbehaltsaufgaben der Fachpflege aus und leiten den Pflegeprozess.
  • Unterstützungsaufgaben werden drei Qualifikationsniveaus zugeordnet, je nach Dauer der Ausbildung: zweijährig, einjährig ausgebildete und angelernte Assistenzkräfte.

Das Vorhaben erfordert massive Umstrukturierungen in den Einrichtungen und stellt nach der Meinung vieler Expert:innen eine organisatorische Revolution in der stationären Pflege dar.

Aber keine Mahlzeit ohne Essen…

Hinzu kommt der allgemeine Personalmangel. Denn die Studie konstatiert auch, dass in allen Qualifikationsniveaus ein Defizit herrscht, von durchschnittlich 3,5 % bei Fachpersonal bis zu 69 % bei Assistenzkräften. Das heißt, selbst wenn Pflegefachkräfte nur die ihnen vorbehaltenen Aufgaben übernehmen würden, sind es absolut dennoch zu wenige.

Das bedeutet gleichzeitig, dass mit der Einführung des PeBeM die quantitativen Anforderungen an gute Pflege nicht erfüllt sind. Zu beobachten sein wird, ob der Qualifikationsmix flächendeckend in der Praxis funktioniert. Schließlich handelt es sich um eine grundlegende Umstrukturierung im laufenden Betrieb bei gleichzeitig sehr angespannter Personalsituation.

…und das kostet Geld

Inhaltlich wird spannend, wie die Rollen der Pflegedienst- und Pflegebereichsleitungen in den Einrichtungen neu definiert werden. Denn sie übernehmen momentan häufig die steuernden Aufgaben im Pflegeprozess. Die sollen im Zuge der Reform von den Pflegefachfrauen und -männern in der direkten Pflege wahrgenommen werden.

Eine Herausforderung wird auch die Finanzierung sein. Denn ein Mehr an Personal kostet Geld. Der Anstieg schlägt bei Pflegekassen, Heimbewohnern über die zu leistenden Eigenanteile und auch den Kommunen zu Buche, die den mit jeder Kostenerhöhung wachsenden Anteil an Sozialhilfeempfangenden stemmen müssen. Vor allem in den Verhandlungen mit den Kassen zeichnet sich ab, dass es ein zähes Ringen geben wird.

Fazit

Seit der Studie zur Personalbemessung, die dem PeBeM zugrunde liegt, ist nun mit Fakten belegt, dass es zu wenig Pflegepersonal jedweder Qualifikation gibt. Dass ein Mangel an ausreichend qualifiziertem Personal die Qualität der Leistungen verschlechtert, ist eine Binsenweisheit. Mit der Reform ist aber noch keine Pflegekraft gewonnen. Als Methode für die Sicherung der Pflegequalität kommt das PeBeM also an seine Grenzen.

Bisher wusste aber niemand genau, wie viel Personal für gute Pflege erforderlich ist. Das PeBeM beinhaltet eine nachvollziehbare Bestimmung dieses Personalbedarfs für Heime. In der Dauerdebatte über Personalquoten kann diese Methode dazu dienen, den emotional geführten Diskurs zu versachlichen. Das gilt auch, obwohl einige Kriterien bei der Bestimmung des Personalbedarfes und die Zuordnung der Tätigkeiten zu Qualifikationsniveaus wissenschaftlich vereinzelt angreifbar sind.

Gebraucht wird die Reform also. Denn nun kann der Personalmangel in der stationären Pflege auf Basis von definierten und vergleichbaren Messgrößen quantifiziert werden. Übrigens erlebt die Personalberechnung für die Pflege in der Klinik gerade mit der PPR 2.0 eine Renaissance. Das birgt Chancen für eine Neuauflage des öffentlichen Diskurses zur Steigerung der Attraktivität des Berufsfeldes Pflege insgesamt.

Dies sollte auch der ambulanten Pflege zu Gute kommen. Das ist der größte Bereich in der Pflege, wenn es um den Bedarf, die Menge der Leistungen und die Anzahl der pflegenden Hände geht. Bezogen auf die Masse der versorgten Menschen läge dort das größte Potential. Aber hier gelten weder PPR noch PeBeM und über die Qualität der Leistungen entscheidet häufig der private Geldbeutel.

Es muss viel geschehen, damit der Druck der Straße nicht durchschlägt und das ganze Vorhaben zunichtemacht. Denn der erwartete weitere ungeheure Anstieg an pflegebedürftigen Menschen droht das Vorhaben vor die Wand zu fahren. Dies würde neben dem Pflegenotstand auch ein dauerhaftes Qualitätsloch in der Pflege bedeuten.

 

Über den Autor:
Holger Dudel ist Fachreferent Pflege der DGQ. Er ist gelernter Krankenpfleger und studierter Pflegepädagoge und Pflegewissenschaftler. Er hat zuvor Leitungsfunktionen bei privaten, kommunalen und freigemeinnützigen Trägern der Langzeitpflege auf Bundesebene innegehabt. Qualität im Sozialwesen bedeutet für ihn, dass neben objektiver Evidenz auch das „Subjektive“, Haltung und Beziehung ihren Platz haben.

Die deutsche Medizinprodukte-Branche: vom Mittelstand geprägt, von Innovation getragen

Die Medizinprodukte-Branche nimmt als Akteur der industriellen Gesundheitswirtschaft eine wichtige Rolle ein. Sie ist zudem beispielhaft für die hohe Bedeutung des Mittelstands in der deutschen Wirtschaft. Neben dem Beitrag, den sie für die Sicherstellung und Weiterentwicklung qualitativ hochwertiger Patientenversorgung leistet, bietet sie großes wirtschaftliches Potenzial. Doch Lieferschwierigkeiten, politische Unwägbarkeiten und andere Herausforderungen ziehen auch an der mittelständisch geprägten Medizinprodukte-Branche nicht folgenlos vorbei. Auch branchenspezifische Entwicklungen, wie die Änderungen in der EU-Medizinprodukte-Verordnung (MDR), setzen insbesondere die kleinen und mittelständischen Unternehmen weiterhin unter Druck.

International als verlässlicher Zulieferer bekannt

Technologische Durchbrüche, die Zunahme von Zivilisationskrankheiten wie Diabetes, der demografische Wandel und der mit diesen Entwicklungen einhergehende stetig wachsende klinische Versorgungsbedarf – die Faktoren die dazu führen, dass Medizinprodukte zunehmend an Bedeutung gewinnen, sind vielfältig. Die große Bandbreite der Medizinprodukte umfasst Verfahren und Lösungen für Diagnostik und Therapie. Sie leisten in vielerlei Hinsicht einen wichtigen Beitrag: Zum einen tragen sie maßgeblich zur Leistungsfähigkeit des deutschen Gesundheitssystems und zur Patient:innenversorgung bei. Ob Lesebrille, Katheter, Implantate oder Röntgengerät – für Patient:innen bedeuten die verschiedenen Produkte konkret gesteigerte Lebensqualität, in vielen Fällen sogar lebensrettende Therapie. Zum anderen ist die die deutsche Medizinprodukte-Branche mit über 400.000 verschiedenen Produkten und einem Gesamtumsatz von 38,4 Milliarden Euro im Jahr 2022 ein wachstumsstarker und heterogener Wirtschaftszweig. Angesichts der über 250.000 Beschäftigten ist sie zudem aus beschäftigungspolitischer Perspektive von großem Interesse. Doch nicht nur national, auch international erfreuen sich deutsche Medizinprodukte großer Beliebtheit. Mit einer Exportquote von 67 Prozent im Jahr 2022 sind die deutschen Unternehmen auf dem internationalen Markt als verlässliche Zulieferer von qualitativ hochwertigen Produkten bekannt. Die im internationalen Vergleich starke Stellung zeugt davon, dass Deutschland als guter Standort für Innovation und Produktion geschätzt wird.

Hohe Relevanz kleiner und mittlerer Unternehmen

Die Branche ist stark mittelständisch geprägt. Die Betrachtung der Betriebsverteilung nach Beschäftigtengrößenklassen zeigt, dass rund 93 Prozent der Unternehmen, rund 1.300 Betriebe, weniger als 250 Mitarbeiter:innen beschäftigen und somit zur Kategorie der kleinen und mittleren Unternehmen (KMU) zählen. Der Anteil der Unternehmen mit mehr als 250 Mitarbeiter:innen beläuft sich indes auf nur 7 Prozent. 4 Prozent davon sind Unternehmen mit 250 bis 499 Mitarbeiter:innen, 3 Prozent mit 500 und mehr.

Doch ist der Mittelstand nicht nur aufgrund seiner Betriebsstärke von entscheidender Bedeutung für die Medizinprodukte-Branche:

  • Agilität und Flexibilität: KMU sind in ihrem Handeln oftmals agiler und flexibler als große Konzerne. Sie können schneller auf neue Marktanforderungen und technologische Entwicklungen reagieren und tragen so zu einem dynamischen Markt bei.
  • Nähe zum Markt: KMU sind oft in engerem Kontakt mit dem Markt, als größere Unternehmen und sind daher besser vertraut mit den Schmerzpunkten und Bedürfnissen ihrer Kunden. So können sie effektiver auf spezifische Anforderungen reagieren und Produkte entwickeln, die präzise auf diese Bedürfnisse zugeschnitten sind.
  • Spezialisierung: Viele KMU in der Medizinprodukte-Branche haben ein feines Gespür für Nischenmärkte. Dies ermöglicht es ihnen, hochspezialisierte Lösungen zu entwickeln, die von größeren Unternehmen möglicherweise nicht verfolgt werden.

KMU sind insofern maßgeblich für die Vielfalt verantwortlich, für die die deutsche Medizinprodukte-Branche bekannt ist. Sie sind zudem von einer starken Innovationskultur geprägt und fördern Kreativität und Austausch.

Anspruchsvolles Innovationsumfeld

Die deutsche Medizinprodukte-Branche ist hoch innovativ und von kurzen Produktzyklen geprägt: Rund ein Drittel des Umsatzes wird in der Medizinprodukte-Branche mit Produkten erzielt, die weniger als drei Jahre alt sind. Im Durchschnitt investieren die Unternehmen rund 9 Prozent ihres Umsatzes in Forschung und Entwicklung. Und das, obwohl Innovation in der Medizinprodukte-Branche deutlich anspruchsvoller ist, als in manch anderer Branche:

  • Strenge Regulierung: Die Branche unterliegt strengen regulatorischen und normativen Anforderungen. Für die Entwicklung und Markteinführung neuer Produkte müssen zahlreiche Gesetze und Normen berücksichtigt werden, die beispielsweise hohe Ansprüche an die klinische Erprobung und Dokumentation definieren und so die Sicherheit der Produkte sicherstellen.
  • Langwierige Entwicklungszyklen und hohe Kosten: Die Entwicklung neuer Medizinprodukte kann viele Jahre in Anspruch nehmen und ist ausgesprochen kostenintensiv. Dies liegt unter anderem an den umfangreichen formalen Anforderungen an die Entwicklung und Voraussetzungen für die Zertifizierung.
  • Komplexe Technologie: Medizinprodukte nutzen oft hochkomplexe Technologien, die spezialisiertes Fachwissen erfordern. Die Integration von Elektronik, Software und Mechanik setzt ein tiefes Verständnis verschiedener Fachgebiete voraus.

Alles in allem erfordert die Innovation in der Medizinproduktebranche ein hohes Maß an Fachwissen, Ressourcen und Zeit.

Chancen und Herausforderungen

Die Branche sieht sich aktuell vielfältigen Herausforderungen gegenüber. Zum einen wirken Trends und Entwicklungen wie die digitale Transformation, Fachkräftemangel und Lieferkettenunsicherheiten sowie die in Folge der Corona-Pandemie gestiegenen Kosten belastend auf die Unternehmen. Zum anderen bedeutet die Änderung in der EU-Medizinprodukte-Verordnung (MDR), etwa die verschärften Anforderungen an die klinische Bewertung, einen wesentlichen Mehraufwand. Diesen können insbesondere die KMU, aber auch die mit der Zulassung betrauten „Benannten Stellen“ in vielen Fällen nicht leisten. Lassen sich hierfür keine pragmatischen Antworten finden, ist zu befürchten, dass die Hersteller ihr Produktportfolio reduzieren. In der Folge wären dringend benötigte Medizinprodukte nicht mehr verfügbar.

Fazit

Deutschland braucht einen zukunftsfähigen Markt und einen starken Mittelstand. KMU sind in der Medizinproduktebranche von zentraler Bedeutung, da sie nicht nur Innovationen vorantreiben, sondern auch zur Vielfalt und vor allem zur Lösung gesundheitlicher Herausforderungen beitragen. Ihre Fähigkeit, schnell zu handeln und auf lokale und globale Bedürfnisse zu reagieren, macht sie zu einem unverzichtbaren Teil der deutschen Wirtschaft.

 

Über den Autor:
Nathalie Roskaritz ist als Produktmanagerin in der DGQ Weiterbildung für die Angebote im Bereich Medizinprodukte verantwortlich.

Interview zum FQS-Forschungsprojekt „METIS“: Effektive Bewertung von IT-Werkzeugen für die kollaborative Produktentwicklung

FQS, Forschung, METIS

In der Industrie 4.0 ist die Zusammenarbeit in und von Unternehmen mehr denn je entscheidend für den Unternehmenserfolg. Sie umfasst gemeinsame Aktivitäten, Prozesse und Entscheidungen, die intensive Koordination und Datenaustausch erfordern, insbesondere für kleine und mittlere Unternehmen (KMU). Die Konfiguration und Optimierung der IT-Infrastruktur und -Tools sind daher entscheidend für effiziente Zusammenarbeit. Dies stellt jedoch für viele KMU eine bedeutende Herausforderung dar.

Im FQS-Forschungsprojekt „METIS – Methodische Konfiguration von Informationstechnik zur Steigerung der Kollaborationsfähigkeit von KMU in der verteilten Produktentstehung“ arbeiten die Wissenschaftler:innen Can Çağıncan (Fachgebiet Qualitätswissenschaft) und Juliane Balder (Fachgebiet Industrielle Informationstechnik) der TU Berlin gemeinsam daran, diese Herausforderungen zu lösen.

Im Interview gewährt Can Çağıncan einen Einblick in die Projektarbeit und zeigt auf, welche Lösungen das Projekt für KMU bereithält.

 

Was ist das Forschungsprojekt METIS und worum geht es in Ihrem Projekt?

Can Çağıncan: Das Forschungsprojekt METIS hat das Ziel, Unternehmen eine Methode zur Analyse, Bewertung und Konfiguration von IT-Tool-Stacks für die kollaborative Produktentwicklung an die Hand zu geben. Ein IT-Tool-Stack ist die Summe aller informationstechnischen Anwendungen eines Bereichs. Wir konzentrieren uns dabei auf KMU und nutzen Software-as-a-Service (SaaS)-Technologien, um maßgeschneiderte IT-Lösungen für eine effektive Zusammenarbeit zu ermöglichen.

Was hat Sie zu der Entwicklung dieser Methode motiviert? Welche Problemstellung liegt dem Forschungsprojekt zugrunde?

Can Çağıncan: Unsere Motivation entstand aus den Herausforderungen, denen Unternehmen in der Kollaboration in der Industrie 4.0 gegenüberstehen. Aus den Ergebnissen des vorausgegangenen FQS-Forschungsprojektes DIP – Dynamisches Referenzmodell der IT- und Prozessqualität in der digitalen vernetzten Produktentwicklung hat sich gezeigt, dass die zunehmende Digitalisierung und steigende Komplexität von Produkten eine flexible Anpassung der IT-Tool-Stacks erfordern, um erfolgreich mit anderen Unternehmen zusammenzuarbeiten. Dabei spielen SaaS-Technologien eine wichtige Rolle, da sie eine schnelle und kosteneffiziente Anpassung der IT-Systeme und neue Arbeitsweisen in der Produktentwicklung ermöglichen.

Welche Lösung wird im Forschungsprojekt METIS entwickelt, um die genannten Herausforderungen zu bewältigen?

Can Çağıncan: Im Rahmen des Projektes entwickeln wir eine systematische Methode zur kontextabhängigen Analyse, Bewertung und Konfiguration von IT-Tool-Stacks für die kollaborative Produktentstehung. Unsere Methode soll auf einem heuristischen Bewertungsmodell basieren, das Unternehmen eine Bewertung der notwendigen IT-Tool-Stacks ermöglicht.

Welche Zielgruppe soll von den Ergebnissen des Projekts profitieren und welcher konkrete Nutzen ergibt sich für Unternehmen?

Can Çağıncan: Die Ergebnisse werden sowohl den beteiligten Unternehmen als auch KMU zugutekommen. Insbesondere für KMU ergeben sich konkrete Vorteile, da sie durch maßgeschneiderte IT-Lösungen ihre Kollaborationsfähigkeit steigern können, ohne ein eigenes kollaboratives System aufbauen zu müssen.

Können Sie uns einen Einblick in das weitere Vorgehen im Projekt geben?

Can Çağıncan: Das Projekt wird zunächst die gegenwärtige Situation der IT-Tool-Stacks und die maßgebenden Gestaltungstreiber, die zu typischen Projektarchetypen führen, untersuchen. Anschließend werden wir die spezifischen Einflüsse dieser IT-Tool-Stacks sowie möglicher SaaS-Technologien auf die Kollaborationsfähigkeit von KMU analysieren. Das Projekt entwickelt eine Bewertungsheuristik, die auf maschinellem Lernen basiert. Diese Methode wird in Form eines Assistenzsystems als Dashboard implementiert, um den Unternehmen einen niederschwelligen Zugang zu bieten.

Wir laden alle KMU ein, uns in den sozialen Medien zu folgen und an unserer bevorstehenden Umfrage teilzunehmen. Auf diese Weise können KMU maßgeschneiderte Lösungen für sich selbst erhalten und das Projekt unterstützen.

 


Stimmen aus dem Projektbegleitenden Ausschuss:

 

Dr. Marvin Hubl, IT-Innovation, SSC-Services GmbH

Die unternehmensübergreifende Kollaboration informationstechnisch zu ermöglichen, ist eine wichtige Voraussetzung für die effektive und effiziente gemeinschaftliche Produktentwicklung. Als eigentümergeführter IT-Dienstleister unterstützen wir insbesondere KMU umfassend bei der Befähigung zur reibungslosen digitalen Kollaboration, hauptsächlich im Automotive- und Aerospace-Sektor. Ich bin überzeugt, dass die kniffligen Herausforderungen unserer Zeit nur gemeinschaftlich und mit innovativen Ansätzen zu lösen sind.

Das Projekt METIS untersucht solche innovativen Lösungsansätze zur digital befähigten Kollaboration. Mit unserer langjährigen Erfahrung sind wir Experten für die täglichen Herausforderungen von KMU bei digitalen Kollaborationsprojekten. Als Mitglied des Projektbegleitenden Ausschusses freue ich mich sehr, dass wir unser Know-how einbringen können. Zugleich sind wir dafür dankbar, dass wir durch das Projekt aktiv an neuen, innovativen Lösungen mitwirken können.

 

Über den Interviewpartner:
Can Çağıncan, wissenschaftlicher Mitarbeiter am Fachgebiet Qualitätswissenschaft der TU Berlin, Ansprechpartner Forschungsprojekt METIS

 


Über das Forschungsprojekt:
Das IGF-Vorhaben 22534 N der FQS – Forschungsgemeinschaft Qualität e.V. (FQS), August-Schanz-Straße 21A, 60433 Frankfurt am Main wurde über die AiF im Rahmen des Programms zur Förderung der Industriellen Gemeinschaftsforschung (IGF) vom Bundesministerium für Wirtschaft und Klimaschutz (BMWK) aufgrund eines Beschlusses des Deutschen Bundestages gefördert.

Weitere Informationen finden Sie auf der Projektwebsite der TU Berlin und auf LinkedIn »

Kontakt:
Can Çağıncan
Technische Universität Berlin
Institut für Werkzeugmaschinen und Fabrikbetrieb
Fachgebiet Qualitätswissenschaft
Pascalstr. 8-9 – 10587 Berlin
E-Mail: cagincan@tu-berlin.de

Über die FQS:
Die FQS – Forschungsgemeinschaft Qualität e. V. (FQS) unterstützt seit 1989 die anwendungsorientierte Forschung rund um das Thema Qualität in Deutschland. Sie versteht sich selbst als Forschungsbereich der Deutschen Gesellschaft für Qualität e. V. (DGQ) und wird von ihr getragen. Die FQS fördert innovative Forschungsideen über das Instrument der Industriellen Gemeinschaftsforschung (IGF) und des Forschungsnetzwerks CORNET des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK). Ziele der Förderung sind möglichst anwendungsnahe Forschungsideen, die einen unmittelbaren Nutzen für die Wirtschaft, insbesondere für kleine und mittelständische Unternehmen (KMU), erbringen.

 

Vorstellung der FQS Forschungsgemeinschaft Qualität e.V. 
Wer ist die FQS Forschungsgemeinschaft Qualität e.V. und was tut sie? Lernen Sie im Video den Forschungsbereich der DGQ kennen und erfahren Sie von Dr. Christian Kellermann-Langhagen, wissenschaftlicher Geschäftsführer der FQS, wie die FQS arbeitet, welche Themen beforscht werden und wie sich Unternehmen in der FQS beteiligen und von den eingesetzten Förderprogrammen profitieren können.

Kontakt:
FQS – Forschungsgemeinschaft Qualität e. V.
August-Schanz-Straße 21A
60433 Frankfurt am Main
infofqs@dgq.de


 

Die „Frauen im QM“ begrüßen ihr 500. Mitglied auf DGQplus

Die DGQ-Netzwerkgruppe „Frauen im QM“ hat die 500er Marke geknackt: Seit dem Frühjahr 2022 hat sich die Mitgliederzahl der Netzwerkgruppe, die sich speziell an weibliche DGQ-Mitglieder richtet, auf der DGQ-Netzwerkplattform DGQplus verdoppelt. Das zeigt, dass das Angebot innerhalb des DGQ-Netzwerks auf breites Interesse stößt.

Bei den „Frauen im QM“ treffen sich seit 2015 regelmäßig Expertinnen aus dem breiten Feld des Qualitätsmanagements zum Austausch. Ob Vorträge, Workshops oder einfach der entspannte Dialog auf Augenhöhe: Im Fokus stehen sowohl fachliche (QM-)Themen als auch solche, welche die persönliche Weiterentwicklung in den Fokus stellen. Mitglieder können zudem aktuelle Herausforderungen aus dem eigenen Arbeitsalltag mitbringen und erhalten bei den „Frauen im QM“ praxisorientierte Hilfestellung.

 

Entdecken Sie das Mehr im Verein

Entdecken Sie das Mehr im Verein – und testen Sie die DGQ-Mitgliedschaft drei Monate beitragsfrei. Damit erhalten Sie auch die Möglichkeit, die Netzwerkgruppe “Frauen im QM” und deren Angebote kennenzulernen. Mehr Informationen zur DGQ-Mitgliedschaft finden Sie hier.

Interview zum FQS-Forschungsprojekt “MIQFEM”: Mitarbeiterorientierte Qualitätsregelkreise in der Produktion zum smarten Fehlermanagement

FQS, MIQFEM

Um in einem immer intensiveren Wettbewerbsumfeld bestehen zu können, ist es für Unternehmen essenziell, ihre Produkte schneller, kostengünstiger und in höherer Qualität herzustellen als ihre Konkurrenten. Dabei stellen auftretende Fehler in der Produktion ein signifikantes Hindernis dar, da sie sowohl Kosten als auch Zeitaufwand verursachen und im Falle der Fehlertolerierung zur Qualitätssenkung führen. Dementsprechend ist ein wichtiger Wettbewerbsfaktor zwischen erfolgreichen Unternehmen und weniger erfolgreichen Unternehmen, wie sie mit dem Fehlerwissen umgehen. In vielen kleinen und mittleren Unternehmen (KMU) ist dieses Wissen jedoch ein Tabuthema.

Im Rahmen des über die FQS – Forschungsgemeinschaft Qualität e. V. geförderten Forschungsprojektes „MIQFEM – Mitarbeiterorientierte Qualitätsregelkreise in der Produktion zum smarten Fehlermanagement“ wird unter der Leitung des Fachgebiets Qualitätswissenschaft an der TU Berlin gemeinsam mit Partnern aus Industrie ein smartes Fehlermanagementsystem entwickelt, welches die systematische Nutzung des Fehlerwissens ermöglicht und sich durch die Interaktion mit den Mitarbeitenden in einem ständigen Lernprozess befindet. Über eine KI-basierte Fehlerwissensbasis soll das System zukünftige Fehlerereignisse vorhersagen, Fehlerzusammenhänge in der Produktion frühzeitig erkennen, mögliche Problemursachen identifizieren und daraus Maßnahmen ableiten.

Im Interview gibt Turgut Refik Caglar, Wissenschaftlicher Mitarbeiter und Oberingenieur am Fachgebiet Qualitätswissenschaft der TU Berlin, einen Ausblick auf das Projekt und erklärt, wie Unternehmen von den Forschungsergebnissen profitieren können.

 

Aus welcher Problemstellung heraus ist das Forschungsprojekt entstanden?

Turgut Refik Caglar: Die systematische und wertsteigernde Auswertung von produktbezogenen Daten wird im Markt nicht konsequent verfolgt und kommt bei KMU gewöhnlich nicht zum Einsatz. Nur wenn Fehler am Entstehungsort (Arbeitsplätze) behandelt werden, ist es möglich, Zeitverluste zu senken und die Reaktionsgeschwindigkeit für auftretende Probleme zu erhöhen. KMU erfassen Fehler oft in manuell erstellten Listen oder in lokal gespeicherten Dateien wie Microsoft Excel. Dies erschwert den Aufbau einer soliden Fehlerwissensbasis, die datenbasierte Fehleranalyse sowie den nachhaltigen Umgang mit Fehlern, obwohl eine gut gepflegte Wissensbasis den Kern des smarten Fehlermanagementsystems bildet.

Vor diesem Hintergrund ist der Aufbau eines smarten Fehlermanagementsystems von eminenter Bedeutung für produzierende Gewerbe, um die Qualitäts-, Fehler- und Herstellkosten zu senken.

Welche Lösung wird im Forschungsprojekt MIQFEM entwickelt?

Turgut Refik Caglar: Das Hauptaugenmerk von MIQFEM liegt auf der Entwicklung eines intelligenten Fehlermanagementsystems. Dieses System ermöglicht die systematische Nutzung von Wissen über Fehler und lernt kontinuierlich durch Interaktion mit Mitarbeitenden. Es soll in der Lage sein, zukünftige Fehler vorherzusagen, Fehlerzusammenhänge frühzeitig zu identifizieren, mögliche Ursachen zu erkennen und daraus Handlungsstrategien abzuleiten.

Ein wichtiger Bestandteil dieses Systems ist die Wissensbasis zur Problemlösung. Diese wird im sogenannten „Berliner-Problemlösungskreis“ integriert sein, der Methoden und Werkzeuge der Qualitätswissenschaft und des Data Mining in einem wissensbasierten Expertensystem kombiniert, um einen systematischen Problemlösungsprozess im Falle eines unbekannten Fehlerereignisses zu ermöglichen. Wenn bestimmte Fehler, ihre Ursachen oder Maßnahmen unbekannt sind, kann das System mithilfe dieser Wissensbasis eine computergestützte, dialogorientierte Auswahl und Implementierung von Lösungsstrategien vorschlagen. Ziel ist, Mitarbeitende bei der Methodenauswahl und -durchführung sowie der Ergebnisinterpretation digitalisiert und dialogbasiert zu unterstützen. Ein Novum ist die Integration von Transfer Learning (TL) und Natural Language Processing (NLP) in das Fehlermanagementsystem.

Wer soll von den Ergebnissen profitieren und welcher konkrete Nutzen ergibt sich für Unternehmen?

Turgut Refik Caglar: Aus Gesprächen mit produzierenden KMU wurde ein großes Interesse an der Anwendung eines smarten Fehlermanagementsystems und systematischen Problemlösungsprozess im Shopfloor deutlich. Genau dafür entwickeln wir MIQFEM. Durch die Interaktion mit den Mitarbeitenden befindet sich das System in einem ständigen Lernprozess, wodurch es kognitive Problemlösungsfähigkeiten der Mitarbeitenden erlernt und nachahmt. Das System kann kausale problemlösungsrelevante Zusammenhänge im Shopfloor entdecken und erklären. Auf diese Weise können Fehlerereignisse frühzeitig prognostiziert und einschlägige Maßnahmen ergriffen werden.

Wie sehen diese aus?

Turgut Refik Caglar: Die Integration des Berliner-Problemlösungskreises in das Fehlermanagementsystem ermöglicht die computergestützte und dialogbasierte Auswahl sowie Durchführung von Problemlösungsmethoden im Rahmen eines systematischen Prozesses. Der Nutzen dieses Konzepts besteht darin, die Mitarbeitenden bei der Auswahl der passenden Methoden im Umgang mit Fehlern zu unterstützen und den Komplexitätsgrad des Entscheidungstreffens zu senken. Der Einsatz verschiedener Qualitäts- und Data Mining-Methoden sowie die systematische Nutzung des historischen Fehlerwissens erlauben komplexe Zusammenhänge zwischen Prozessparametern/Einflussgrößen und Qualitätsmerkmalen zu erklären. Darüber hinaus tragen diese zur ganzheitlichen Prozessverbesserung bei: Die Qualitäts-, Fehler- und Herstellkosten können gesenkt werden. Außerdem kann die Integration einer Problemlösungswissensbasis dazu verhelfen, die Komplexität bei der Identifizierung und Lösung von Fehlern zu reduzieren und die Effizienz der Problemlösungsprozesse zu verbessern. Die Nutzung von Transfer Learning (TL) und Natural Language Processing (NLP) optimiert zudem die Qualität und Genauigkeit der Ergebnisse.

Welche zusätzlichen Ziele haben Sie sich im Rahmen des Forschungsprojektes gesetzt?

Turgut Refik Caglar: Das Projektvorhaben beinhaltet eine digitale Learning Plattform, über die Mitarbeitende Problemlösungskompetenzen spielerisch erwerben können. Der Aufbau der eLearning-Plattform dient auch der Ersparnis der direkten und indirekten Weiterbildungskosten, wie beispielsweise Reisekosten, Teilnahmegebühren und ähnlichem. Unter diesem Aspekt stellt die Qualifizierung von Mitarbeitenden hinsichtlich problemorientierter Methoden auf einer solchen Plattform ein weiteres Optimierungspotenzial bei KMU dar.

Insgesamt ist das MIQFEM-Fehlermanagementsystem ein vielversprechender Ansatz, um Unternehmen bei der Verbesserung ihrer Produktqualität und der Reduzierung von Fehlerkosten zu unterstützen. Neben den eingesparten Kosten, welche sich aus den Ergebnissen dieses Projekts ergeben, sind zudem Einsparungen in Form von Zeit, Aufwand und Mitarbeiterausfall wegen der Beschäftigung mit Fehlerbeseitigung, die Verringerung der Belastung und Beanspruchung von Mitarbeitenden im Fehlermanagementprozesses und der Aufbau einer positiven Fehlerkultur bei KMU die Ziele.

 


Stimmen aus dem Projektbegleitenden Ausschuss:

 

Oliver Ostermann, Leiter Produktion und Qualität sowie Qualitätsmanagementbeauftragter, hankensbütteler kunststoffverarbeitung GmbH & Co.KG

Die Teilnahme am Forschungsprojekt ist für uns von großer sowie zukunftsorientierter Bedeutung. Als Hersteller von Kunststoffteilen im Spritzgussverfahren ist unsere tägliche Arbeit geprägt von kundenspezifischen Anforderungen, welche im Besonderen in der Automobilindustrie auf einem sehr hohen Niveau angesiedelt sind. Obwohl wir eine systematische, gezielte und geplante Herangehensweise verfolgen, sind unsere Produktionsprozesse immer komplexer geworden. Das führt auch zur Zunahme und Komplexität der aufgetretenen Fehler auf unserer Shopfloor-Ebene.

Auf der Suche nach einem mitarbeiterorientierten und smarten Fehlermanagementsystem sind wir auf MIQFEM gestoßen. Das Forschungsvorhaben bietet uns die Möglichkeit, Probleme effizienter zu lösen und unsere Qualitätspolitik weiter zu verbessern. Wir sind sehr interessiert daran, das Projekt voranzutreiben, und offen dafür, das entwickelte System als Prototyp in unserer Produktion zu testen.

 

Über den Interviewpartner:
Turgut Refik Caglar, Wissenschaftlicher Mitarbeiter und Oberingenieur am Fachgebiet Qualitätswissenschaft der TU Berlin, Ansprechpartner Forschungsprojekt MIQFEM

 


Über das Forschungsprojekt:
Das IGF-Vorhaben 22530 N der FQS – Forschungsgemeinschaft Qualität e. V., August-Schanz-Straße 21A, 60433 Frankfurt am Main wurde über die AiF im Rahmen des Programms zur Förderung der Industriellen Gemeinschaftsforschung (IGF) durch das Bundesministerium für Wirtschaft und Klimaschutz (BMWK) aufgrund eines Beschlusses des Deutschen Bundestages gefördert.

Weitere Informationen finden Sie auf der Projektwebsite der TU Berlin »

Kontakt:
Turgut Refik Caglar, M. Sc.
Technische Universität Berlin
Institut für Werkzeugmaschinen und Fabrikbetrieb
Fachgebiet Qualitätswissenschaft
Pascalstr. 8-9 – 10587 Berlin
E-Mail: t.caglar@tu-berlin.de

 

Über die FQS:
Die FQS – Forschungsgemeinschaft Qualität e. V. (FQS) unterstützt seit 1989 die anwendungsorientierte Forschung rund um das Thema Qualität in Deutschland. Sie versteht sich selbst als Forschungsbereich der Deutschen Gesellschaft für Qualität e. V. (DGQ) und wird von ihr getragen. Die FQS fördert innovative Forschungsideen über das Instrument der Industriellen Gemeinschaftsforschung (IGF) und des Forschungsnetzwerks CORNET des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK). Ziele der Förderung sind möglichst anwendungsnahe Forschungsideen, die einen unmittelbaren Nutzen für die Wirtschaft, insbesondere für kleine und mittelständische Unternehmen (KMU), erbringen.

 

Vorstellung der FQS Forschungsgemeinschaft Qualität e.V. 
Wer ist die FQS Forschungsgemeinschaft Qualität e.V. und was tut sie? Lernen Sie im Video den Forschungsbereich der DGQ kennen und erfahren Sie von Dr. Christian Kellermann-Langhagen, wissenschaftlicher Geschäftsführer der FQS, wie die FQS arbeitet, welche Themen beforscht werden und wie sich Unternehmen in der FQS beteiligen und von den eingesetzten Förderprogrammen profitieren können.

Kontakt:
FQS – Forschungsgemeinschaft Qualität e. V.
August-Schanz-Straße 21A
60433 Frankfurt am Main
infofqs@dgq.de


Interview zum FQS-Forschungsprojekt “AIQualify”: Framework zur Qualifizierung von KI-Systemen in der industriellen Qualitätsprüfung

AIQualify

Die produzierende Industrie und deren Endkunden stellen immer höhere Qualitätsansprüche. Anstelle von manchmal ineffizienten und fehleranfälligen manuellen Qualitätskontrollen setzen Unternehmen zunehmend auf automatisierte Prüfungen, wie zum Beispiel optische Prüfsysteme mit anschließender Bildverarbeitung (siehe Abb. 1). Die klassische Bildverarbeitung stößt jedoch oft an ihre Grenzen, vor allem dann, wenn es eine hohe Variabilität bei Fehlern oder Bauteilen gibt. So können beispielsweise Oberflächenkratzer in Form, Farbe und Lage variieren. Diese Defekte sind jedoch oft schwer analytisch zu beschreiben. Mit Methoden des maschinellen Lernens (ML), einem Teilgebiet der Künstlichen Intelligenz, können diese Einschränkungen zunehmend überwunden werden. Bedenken hinsichtlich der Zuverlässigkeit oder Genauigkeit von ML-Verfahren verhindern jedoch bisher ihren weit verbreiteten industriellen Einsatz. Gerade der Unterschied zu klassischen Algorithmen erschwert die Qualifizierung von ML-basierten Qualitätsprüfungssystemen. Die Qualifizierung solcher Systeme zu erleichtern, stellt das zentrale Forschungsziel des über die FQS – Forschungsgemeinschaft Qualität e. V. geförderten Projekts AIQualify dar.

 Optische Prüfung von Platine

Abb. 1: Optische Prüfung von Platinen. Quelle: Rainer Bez, Fraunhofer IPA

Das Konsortium von AIQualify besteht aus dem Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA sowie dem Institut für Industrielle Fertigung und Fabrikbetrieb IFF der Universität Stuttgart. Begleitet wird das Projekt von zahlreichen Unternehmen: 36ZERO Vision, AUDI, Babtec Informationssysteme, Bosch, EVT, Festool, Maddox AI, preML, scitis.io, sentin und WICKON Hightech. Zudem unterstützen die Allianz Industrie 4.0 der Bitkom und die Universität Speyer das Vorhaben. Das Projekt startete am 1. Mai 2023 und hat eine Laufzeit von zwei Jahren.

Im Interview gibt Prof. Dr.-Ing. Marco Huber (Fraunhofer IPA / IFF der Universität Stuttgart) einen Ausblick auf das Projekt und erläutert, wie Unternehmen von den Forschungsergebnissen profitieren können.

 

Aus welcher Problemstellung heraus ist das Forschungsprojekt entstanden?

Prof. Dr.-Ing. Marco Huber: Bei der klassischen Bildverarbeitung geben Menschen analytische Kriterien oder explizite Regeln vor, etwa bei der Defekterkennung. Folglich wird das Computerprogramm zur Qualitätsprüfung in der Regel manuell erstellt und besteht aus einer Folge von prüfbaren und nachvollziehbaren Anweisungen. Beim ML hingegen wird das auszuführende Computerprogramm automatisiert auf der Grundlage eines Datensatzes erstellt. Die Daten stellen gewissermaßen die Spezifikation des Programms dar. Dies hat zur Folge, dass bei maschinell erlernten Programmen – die in dem Kontext gerne als ML-Modell bezeichnet werden – eine begrenzte Nachvollziehbarkeit der Entscheidungsfindung oder eine unzureichende Robustheit gegenüber geringfügigen Änderungen der Eingabedaten vorliegt. Auch fehlen aussagekräftige Kriterien, die für einen Nachweis der Eignung herangezogen werden können. Dies alles erschwert die Qualifizierung von ML-basierten Qualitätsprüfungssystemen und mindert auch häufig die Akzeptanz in der Industrie.

Welche Lösung wird im Forschungsprojekt AIQualify entwickelt?

Prof. Dr.-Ing. Marco Huber: Die Entwicklung von ML-Systemen durchläuft üblicherweise die in Abb. 2 dargestellten Phasen. In jeder Entwicklungsphase stehen qualifizierte Entscheidungen an, die einen wesentlichen Einfluss auf das fertige System haben können. Folglich ist es zwingend erforderlich, nicht nur das fertige System zu betrachten, sondern jede Phase dessen Entwurfs bzw. Entwicklung. Dadurch wird sichergestellt, dass bereits frühzeitig qualifizierte Entscheidungen hinsichtlich Datenauswahl, Vorverarbeitung, Gütekriterien, Modellauswahl usw. getroffen und dokumentiert werden.

Phasen der Entwicklung eines ML-Systems

Abb. 2: Phasen der Entwicklung eines ML-Systems. Quelle: Fraunhofer IPA

 

Neben der Ganzheitlichkeit der Betrachtung der gesamten Entwicklungskette liegt die Innovation von AIQualify zudem in der assistierten Ermittlung und Bündelung von Prüf- und Bewertungskriterien und der assistierten Qualifizierung des ML-Systems entlang der formalisierten Kriterien. Hierzu entwickeln wir ein Software-Framework samt Vorgehensmodell und Software-gestützter Prüfmodule, welches die Ermittlung und Formulierung von Prüf- und Bewertungskriterien sowie die Abnahme des ML-Systems entlang dieser Kriterien erlaubt. Das Framework soll modular gestaltet sein, sodass eine einfache Integration und Erweiterung von Prüfmodulen möglich werden.

Wer soll von den Ergebnissen profitieren und welcher konkrete Nutzen ergibt sich für Unternehmen?

Prof. Dr.-Ing. Marco Huber: Angelehnt an die Norm ISO 19011 lassen sich drei Arten der Qualifizierung unterscheiden: Qualifizierung (1) durch die Organisation selbst, was einer Selbstauskunft entspricht, (2) durch einen Kunden, Lieferanten oder Partner oder (3) durch eine unabhängige dritte Stelle, z.B. Zertifizierung. Daraus ergeben sich drei potentielle Nutzerkreise für die Forschungsergebnisse:

  1. Dienstleister für (ML-basierte) Qualitätsprüfung und -management
  2. Produzierende Unternehmen
  3. Dienstleister für Konformitätsprüfungen und Auditierungen

Die Dienstleister können die Forschungsergebnisse für eine systematische und vollumfängliche Prüfung der Konformität eines entwickelten ML-Systems nutzen. Dies kann sowohl kontinuierlich im Entwicklungsprozess der Lösung als auch vor der Auslieferung an Kunden erfolgen. Produzierende Unternehmen erwarten ein Werkzeug, um fremdbezogene ML-Systeme zu qualifizieren, um so sicherstellen zu können, dass die gestellten Anforderungen an das System prüfbar erfüllt sind. Dienstleister für Konformitätsprüfungen und Auditierungen erhalten mit den Forschungsergebnissen ein Werkzeug, mit welchem sie ihre originären Prüfaufgaben auch auf ML-Systeme ausweiten können.

Wie sieht das weitere Vorgehen aus?

Prof. Dr.-Ing. Marco Huber: Zur Evaluierung der Projektergebnisse haben wir einen ersten Anwendungsfall im Bereich der kamerabasierten Defekterkennung von Lochscheiben definiert. Die Besonderheit bei diesem Anwendungsfall ist, dass neben echten Kamerabildern auch synthetische Bilder mit Defekten erzeugt werden können. Dies erlaubt es, unterschiedliche Schweregrade der Prüfaufgabe zu betrachten, um die Eignung von ML-Systemen bewerten zu können.

Die nächsten Schritte sehen vor, dass die unterschiedlichen allgemeinen Anforderungen und Kriterien an ML-Systeme in der Qualitätsprüfung bestimmt werden. Dies mündet dann in ein Konzept zur systematischen Ermittlung konkreter Anforderungen und Kriterien für spezifische Prüfsysteme. Zudem werden wir wird einen weiteren industrienahen Anwendungsfall zusammen mit einigen der beteiligen Unternehmen ausarbeiten.

 


Stimmen aus dem Projektbegleitenden Ausschuss:

 

Christian Els, CEO und Co-Founder, sentin GmbH

In zahlreichen Projekten haben wir festgestellt, dass eine standardisierte Qualifizierung von KI-Systemen dringend benötigt wird. Die Teilnahme am Forschungsprojekt verspricht eine Reihe von Vorteilen für unser Unternehmen: Die Erkenntnisse können dazu beitragen, die Zuverlässigkeit und Transparenz unserer Lösungen zu steigern, was zu schnelleren Implementierungsprojekten bei unseren Kunden führen wird. Auch die Übertragung der Standards auf andere Bereiche der industriellen Anwendung von KI ist denkbar, um die Implementierung der Technologie zu fördern. Durch unsere Beteiligung können wir dazu beitragen, die Industrieakzeptanz für KI insgesamt zu steigern, indem transparente und standardisierte Verfahren etabliert werden. Dies hilft, das Vertrauen in KI-Lösungen zu stärken und Innovationen in der Branche voranzutreiben.

Lesen Sie hierzu auch das DGQ-Interview mit Christian Els: QM und Künstliche Intelligenz – Wie lassen sich KI-Systeme qualifizieren? »

 

Lutz Krämer, Mitglied der Geschäftsleitung & Bereichsleiter Product & Communication – CPO, Babtec Informationssysteme GmbH

KI und deren Anwendung in Unternehmen wird immer präsenter. Als Softwareanbieter befassen wir uns intensiv mit dem Thema und möchten konkrete Anwendungsfälle bei unseren Kunden kennenlernen. Im Rahmen unserer Projektbeteiligung möchten wir Expertenwissen rund um das Thema Qualität zur Verfügung stellen und die Anforderungen, die sich beispielsweise aus Qualitätsnormen ergeben, in das Projekt tragen. Wir sind in der Lage, den Blickwinkel von produzierenden KMU einzunehmen – in Bezug auf Anwendbarkeit und Nutzen beim potenziellen Einsatz von KI in der Fertigung und Rückspiegelung des Marktes. Dabei identifizieren wir eine Problemstellung in der Praxis, genauer bei der Validierung der Systeme, die für Qualitätsprüfaufgaben eingesetzt werden. Wie wird sichergestellt, dass eine KI – die sich selbst weiterentwickelt und lernt – auch zuverlässig funktioniert und der Mensch sich darauf verlassen kann? Einen dokumentierten Nachweis der Fähigkeiten sehen wir als äußerst wichtig an.

 

Michael Beising, Geschäftsführer, EVT Eye Vision Technology GmbH

KI spielt eine immer größere Rolle in der optischen Qualitätssicherung. Die Entwicklung in diesem Bereich verläuft sehr schnell und es ist zunehmend wichtig, diese Verfahren auch nachvollziehbar zu qualifizieren und damit berechenbar zu machen. Die Idee, passende Vorgehensweisen zu erarbeiten, die vorhandene KI überprüfbar machen, aber auch eine Überführung in neue Systeme ermöglichen, ist sicher die Basis, um KI nachhaltig in der Industrie einzusetzen. Die Beteiligung am Forschungsprojekt ermöglicht uns, die Forschungsarbeiten aus der Praxisperspektive zu steuern und die entwickelten Ideen frühzeitig in die Entwicklung einfließen zu lassen, um so unsere KI-Systeme zukunftssicher und nachvollziehbar zu machen.

 

Über den Interviewpartner:
Prof. Dr.-Ing. Marco Huber, Institut für Industrielle Fertigung und Fabrikbetrieb IFF, Universität Stuttgart und Leiter der Abteilung Bild- und Signalverarbeitung sowie Leiter der Abteilung Cyber Cognitive Intelligence (CCI) am Fraunhofer IPA, Stuttgart

 


Über das Forschungsprojekt:
Das IGF-Vorhaben 22929 BG der FQS – Forschungsgemeinschaft Qualität e. V., August-Schanz-Straße 21A, 60433 Frankfurt am Main wird über die AiF im Rahmen des Programms zur Förderung der Industriellen Gemeinschaftsforschung (IGF) durch das Bundesministerium für Wirtschaft und Klimaschutz (BMWK) aufgrund eines Beschlusses des Deutschen Bundestages gefördert.

Kontakt:
marco.huber@ipa.fraunhofer.de

 

Über die FQS:
Die FQS – Forschungsgemeinschaft Qualität e. V. (FQS) unterstützt seit 1989 die anwendungsorientierte Forschung rund um das Thema Qualität in Deutschland. Sie versteht sich selbst als Forschungsbereich der Deutschen Gesellschaft für Qualität e. V. (DGQ) und wird von ihr getragen. Die FQS fördert innovative Forschungsideen über das Instrument der Industriellen Gemeinschaftsforschung (IGF) und des Forschungsnetzwerks CORNET des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK). Ziele der Förderung sind möglichst anwendungsnahe Forschungsideen, die einen unmittelbaren Nutzen für die Wirtschaft, insbesondere für kleine und mittelständische Unternehmen (KMU), erbringen.

Vorstellung der FQS Forschungsgemeinschaft Qualität e.V. 
Wer ist die FQS Forschungsgemeinschaft Qualität e.V. und was tut sie? Lernen Sie im Video den Forschungsbereich der DGQ kennen und erfahren Sie von Dr. Christian Kellermann-Langhagen, wissenschaftlicher Geschäftsführer der FQS, wie die FQS arbeitet, welche Themen beforscht werden und wie sich Unternehmen in der FQS beteiligen und von den eingesetzten Förderprogrammen profitieren können.


 

FQS-Forschungsprojekt “VorÜber”: Vorausschauende Prozessüberwachung in der Schmiedeindustrie

FQS-Forschungsprojekt VoRüber
Optische Vermessung eines Gesenk

Optische Vermessung eines Gesenks (Quelle: IPH gGmbH)

In der Schmiedeindustrie wird die Lebensdauer von Schmiedegesenken meist auf Basis von Erfahrungswerten und subjektiven Entscheidungen bestimmt. Im Rahmen des vor Kurzem abgeschlossenen FQS-Forschungsprojekts VorÜber haben Wissenschaftler:innen des IPH – Institut für Integrierte Produktion Hannover gGmbH eine Methode entwickelt, die eine Prognose der Restlebensdauer des Schmiedegesenks auf Basis von Bilddaten und Kraftmessungen während der Umformung ausgibt. Durch diese datenbasierte Prognose lässt sich die Restlebensdauer genauer abschätzen und die Produktion von Fehlteilen sowie Stillstandzeiten, aufgrund von Gesenkversagen, vermeiden. Schätzen Mitarbeitende die Lebensdauer von Schmiedegesenken geringer ein als sie wirklich ist, bedeutet dies eine Verschwendung der noch bestehenden Standmenge [1]. Wird die Standmenge zu hoch eingeschätzt, kann es bei unvorhergesehen hohem Verschleiß zur Produktion von fehlerhaften Teilen kommen [2]. In der Praxis wird die verbleibende Standmenge häufig um ein Vielfaches geringer als die tatsächliche verbleibende Standmenge festgelegt, um das Risiko eines Werkzeugversagens gering zu halten [1].

Um die verbleibende Standmenge auszunutzen, aber gleichzeitig das Risiko eines Werkzeugversagens zu vermeiden, kombinierten die Forscher:innen zwei Verfahrensweisen: Eine optische Überwachung des Schmiedegesenks mit einer Kraftmessung. Die erfassten Daten lassen eine objektive Berechnung der verbleibenden Standmenge zu.

 

FQS-Forschungsprojekt VorÜber – Predictive Maintenance in der Schmiedeindustrie
Die Lebensdauer von Schmiedegesenken wird in der Praxis meist auf Basis von Erfahrungswerten abgeschätzt. Im Rahmen des FQS-Forschungsprojekts VorÜber entwickelte das IPH – Institut für Integrierte Produktion Hannover gGmbH eine vorausschauende Prozessüberwachung, die es ermöglicht die Lebensdauer von Schmiedewerkzeugen nun auch exakt vorherzusagen. Erfahren Sie im Interview mit David Schellenberg, Projektingenieur am IPH, wie das Prognosemodell funktioniert und welche Einsparpotenziale sich dadurch für Unternehmen ergeben:

 

Verschleißermittlung mittels optischer Überwachung

Für die optische Überwachung wurde ein Laserscanner ausgewählt, durch den die Gesenke optisch gemessen und Geometrieveränderungen detektiert werden können. Um die verbleibende Standmenge eines Schmiedegesenks bestimmen zu können, verglichen die Wissenschaftler:innen den Zustand eines verschlissenen Gesenks mit der Geometrie eines Gesenks im unverschlissenen Zustand. Dafür wurden die aus den aufgenommenen Daten entstehenden Punktwolken mittels Anwendung des iterative-closest point-Algorithmus (icp-Algorithmus) übereinandergelegt (Abb. 1).

Orientierung der Punktewolken durch icp-Algorithmus

Abb. 1: Orientierung der Punktewolken durch icp-Algorithmus (Quelle: IPH gGmbH)

Der Vergleich der beiden Oberflächen zeigt, wie stark das benutzte Gesenk verschlissen ist. Der Verschleiß innerhalb eines Schmiedegesenks kann allerdings variieren, da die Belastungen beim Schmieden lokal unterschiedlich sind und Flächen mit unterschiedlichen Toleranzwerten existieren können. Um unterschiedliche Bereiche des Schmiedegesenks gesondert betrachten zu können, segmentierten die Forscher:innen die Punktwolken. Nach der Segmentierung konnten sie innerhalb der gesondert gespeicherten Datei einen Vergleich mit dem entsprechenden Bereich des unverschlissenen Gesenks anstellen. Durch einen Abgleich der Verschleißhöhe mit den Toleranzangaben des jeweiligen Bereichs kann so festgestellt werden, ob das Schmiedegesenk die Toleranzen erfüllt.

Auf Basis der erhobenen Daten (Verschleißhöhe und Anzahl bisher geschmiedeter Teile) berechneten die Wissenschaftler:innen anschließend, wie viele Schmiedeteile noch innerhalb der Toleranzen produziert werden können.

Verschleißermittlung mithilfe von Kraftmessungen

Für die Ermittlung von Verschleiß mithilfe von Kraftmessungen mussten die Forscher:innen zunächst Referenzwerte erfassen. Hierfür wurden Kraftmessungen mit unverschlissenem Gesenk durchgeführt. Diese Referenzwerte konnten dann genutzt werden, um Kraftveränderungen zu detektieren und entsprechend Verschleiß festzustellen. Für die Positionierung der Kraftaufnehmer wählten die Verantwortlichen Bereiche aus, in denen es zu deutlichen Spannungsänderungen aufgrund des Verschleißes kommt [3]. Um zu identifizieren, welche Ausprägung der Kraftmessungs-Verschleiß anzeigt, wurden mit Hilfe von vorab durchgeführten Simulationen Grenzen ausgewählt.

Die Auswertung der Kraftmessungen führten die Wissenschaftler:innen anhand der Mittelwerte der Schmiedungen mit den von Störgrößen bereinigten Krafteinflüssen durch. Dabei ist deutlich zu erkennen: Mit zunehmendem Verschleiß sinken die aufgenommenen Kraftwerte. Jedoch können diese Tendenzen nicht während der gesamten Umformung entdeckt werden. Konkret eignen sich dafür insbesondere signifikante Punkte der Umformung, wie der erste Berührpunkt, die Erreichung der Formfüllung und die Ausbildung des Grats. Die höchste Aussagekraft hatte innerhalb dieser Untersuchung die Auswertung der Kraftergebnisse am Berührpunkt.

Auf Basis der Messergebnisse bestimmten die beteiligten Forscher:innen anschließend eine Ausgleichsfunktion, anhand derer die verbleibende Standmenge ermittelt werden kann. Die Berechnung der verbleibenden Standmenge anhand der Kraftmessung lieferte ähnliche Werte wie die Berechnung der verbleibenden Standmenge anhand der optischen Messung.

Kombination beider Vorhersagemodelle und Nutzen der Prognose

Die Ergebnisse, die mit der optischen Messung und die Ergebnisse, die mit der Kraftmessung erzielt wurden, führten die Wissenschaftler:innen im Rahmen des Projekts zusammen (Abb. 2). So kann eine Prognose zur noch verbleibenden Standmenge getroffen werden, die sowohl die Ergebnisse der optischen Verschleißmessung als auch der Kraftmessung berücksichtigt.

Die Prognosegenauigkeit steigt mit der Anzahl der Messungen. Durch diese datenbasierte Voraussage können Mitarbeitende in Unternehmen künftig objektiv entscheiden, wann ein Werkzeug ausgetauscht werden sollte. Ein zu frühes und ein zu spätes Austauschen wird vermieden und so Verschwendung und Stillstandzeiten minimiert.

Übersicht der einzelnen Schritte der Methode

Abb. 2: Übersicht der einzelnen Schritte der Methode (Quelle: IPH gGmbH)


Stimmen aus dem Projektbegleitenden Ausschuss:

Uwe Dannen, Knipex-Werk C. Gustav Putsch KG
Verschleißbeurteilung und deren Vorhersage ist eine tägliche Herausforderung in der Massivumformung. Im Vorhaben wurden Möglichkeiten für eine gezielte Vorhersage des Verschleißes und die Planung damit verbundener Aufwendungen und Kosten entwickelt. Diese Möglichkeiten haben unsere Teilnahme am Forschungsprojekt bestärkt. Eine Übertragung der Erkenntnisse aus der Kraftmessung im Gesenk in die Simulation ist heute schon möglich. Weitere Praxisversuche mit anderen Gesenkgeometrien müssten aber noch durchgeführt werden. Die Forschungsergebnisse zeigen auf, dass eine gezielte Vorhersage noch immer nur mit einigen konstanten Parametern möglich ist. In der Praxis sind die Einflussfaktoren auf die Gesenkstandmenge aber leider nicht so konstant. Zur Verifizierung müssten beispielsweise Schmiede- und Gesenktemperatur, Materialien, Sprühkühlung oder Oberflächenverzunderung mit in die Bewertung einfließen. Fazit: Es gibt noch weiteren Forschungsbedarf.

 

Quellen:
[1] Bach, F.-W.: Prozesskette Präzisionsschmieden, Springer Verlag, Garbsen, 2014
[2] Reim, J.: Erfolgsrechnung – Wertsteigerung durch Wertschöpfung. Grundlagen, Konzeption, Instrumente. Springer Fachmedien, Wiesbaden 2015.
[3] Schellenberg, D. et al..: Reststandmenge von Schmiedewerkzeugen punktgenau prognostizieren. In: stahl + eisen, Maenken Kommunikation GmbH (2021), H. 8, S. 50-51. ISSN: 0340-4803.

Autoren:
Dipl.-Ing. Mareile Kriwall, 1985, Abteilungsleiterin Prozesstechnik, IPH gGmbH, kriwall@iph-hannover.de, Tel.: 0511 27076 330
David Schellenberg, M.Sc., 1993, ehemaliger Projektingenieur der Abteilung Prozesstechnik, IPH gGmbH
Dr.-Ing. Malte Stonis, 1979, Koordinierender Geschäftsführer, IPH gGmbH
Prof. Dr.-Ing. Bernd-Arno Behrens, 1964, Geschäftsführender Gesellschafter, IPH gGmbH und Institutsleitung des Instituts für Umformtechnik und Umformmaschinen

 


Über das Forschungsprojekt:
Das IGF-Vorhaben 21676 N der FQS – Forschungsgemeinschaft Qualität e. V., August-Schanz-Straße 21A, 60433 Frankfurt am Main wurde über die AiF im Rahmen des Programms zur Förderung der Industriellen Gemeinschaftsforschung (IGF) durch das Bundesministerium für Wirtschaft und Klimaschutz (BMWK) aufgrund eines Beschlusses des Deutschen Bundestages gefördert.

Das Forschungsvorhaben ist abgeschlossen. Der Schlussbericht steht der interessierten Öffentlichkeit in Kürze zur Verfügung und kann entweder über die FQS – Forschungsgemeinschaft Qualität e. V. oder die Forschungseinrichtung auf Anfrage bezogen werden.

Projektwebsite: https://www.iph-hannover.de/de/forschung/forschungsprojekte/?we_objectID=5878 

Projektvideo: https://youtu.be/K1sSqYiohmk?feature=shared

 

Über die FQS:
Die FQS – Forschungsgemeinschaft Qualität e. V. (FQS) unterstützt seit 1989 die anwendungsorientierte Forschung rund um das Thema Qualität in Deutschland. Sie versteht sich selbst als Forschungsbereich der Deutschen Gesellschaft für Qualität e. V. (DGQ) und wird von ihr getragen. Die FQS fördert innovative Forschungsideen über das Instrument der Industriellen Gemeinschaftsforschung (IGF) und des Forschungsnetzwerks CORNET des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK). Ziele der Förderung sind möglichst anwendungsnahe Forschungsideen, die einen unmittelbaren Nutzen für die Wirtschaft, insbesondere für kleine und mittelständische Unternehmen (KMU), erbringen.

Vorstellung der FQS Forschungsgemeinschaft Qualität e.V. 
Wer ist die FQS Forschungsgemeinschaft Qualität e.V. und was tut sie? Lernen Sie den Forschungsbereich der DGQ kennen und erfahren Sie von Dr. Christian Kellermann-Langhagen, wissenschaftlicher Geschäftsführer der FQS, wie die FQS arbeitet, welche Themen beforscht werden und wie sich Unternehmen in der FQS beteiligen und von den eingesetzten Förderprogrammen profitieren können.

Kontakt:
FQS – Forschungsgemeinschaft Qualität e. V.
August-Schanz-Straße 21A
60433 Frankfurt am Main
infofqs@dgq.de


Data Analytics – Von der Datenerfassung zur Entscheidungsunterstützung

Big Data mit explorativen Methoden analysieren

Wenn wir uns die vergangenen Jahrzehnte anschauen, wird eines ziemlich klar: Daten haben enormen Einfluss, egal ob es sich um kleine Mengen an Daten, Big Data, klassische oder moderne Statistik, Analytik oder gar künstliche Intelligenz handelt – und das betrifft Mitarbeiter:innen auf allen Unternehmensebenen. Daten helfen auf vielfältige Art und Weise, die Unternehmensleistung zu verbessern.

Auf der einen Seite haben wir künstliche Intelligenz, von der wir uns versprechen, Geschäftsmodelle komplett zu verändern und die deshalb die meiste Aufmerksamkeit bekommt. Auf der anderen Seite sind schon einfache Analysen mit wenigen Daten äußerst wirkungsvoll, wenn es darum geht, Unternehmen dabei zu unterstützen, bessere Entscheidungen zu treffen, Geschäftsabläufe zu steuern und zu optimieren, ein besseres Verständnis für Kunden zu bekommen und Produkte sowie Dienstleistungen zu verbessern.

Die Nutzung von Daten zur Informationsgewinnung und Entscheidungsunterstützung hat sich zu einer zentralen Säule in vielen Unternehmen entwickelt. Data Analytics bietet die Möglichkeit, aus Daten wertvolle Erkenntnisse zu gewinnen, Geschäftsprozesse zu optimieren und fundierte Entscheidungen zu treffen. In diesem Beitrag stelle ich Ihnen die vier Analytics-Reifegradstufen nach Gartner vor und wie das Vorgehensmodell des CRISP-DM (Cross-Industry Standard Process for Data Mining) einen strukturierten Rahmen bieten kann, um den größtmöglichen Nutzen aus Daten zu ziehen. 

Analytics-Reifegradstufen nach Gartner

Die Unternehmensberatung Gartner Inc. hat im Jahr 2012 Forschungsergebnisse vorgestellt, die es bis heute anschaulich ermöglichen, Data Analytics in vier Reifegradstufen zu unterteilen. Hierzu zählen:

  1. Deskriptive Analytics
    Deskriptive Analytics ist der Ausgangspunkt jeder Datenanalyse und beschreibt vergangene Ereignisse. Hierbei sammeln die Beteiligten historische Daten und nutzen diese, um überhaupt erst einmal zu verstehen, „Was ist passiert?“. Diese Phase legt den Grundstein für das Verständnis der eigenen Datenlandschaft und ermöglicht erste Einblicke in vergangene Entwicklungen.
  2. Diagnostic Analytics
    In der zweiten Reifegradstufe beschreibt Diagnostic Analytics die Identifizierung von Mustern und Trends in den Daten. Wenn diese erkannt wurden, geht es darum, die Gründe hinter den Ereignissen zu verstehen. Basierend auf der Frage „Warum ist es passiert?“ analysieren die Verantwortlichen Zusammenhänge und Kausalitäten, um beispielsweise Ursachen für Qualitätsprobleme oder Engpässe in Geschäftsprozessen aufzudecken.
  3. Predictive Analytics
    Predictive Analytics ist die erste in die Zukunft gerichtete Stufe. Es werden historische Daten genutzt, um zukünftige Entwicklungen vorherzusagen. Statistische Modelle und Machine-Learning-Algorithmen ermöglichen Prognosen, die als Grundlage für vorausschauende Entscheidungen dienen und der Frage nachgehen „Was wird passieren?“.
  4. Prescriptive Analytics
    Stufe vier ist die höchste Stufe der Data Analytics: Prescriptive Analytics geht über die Vorhersage hinaus und empfiehlt konkrete Handlungsschritte, indem sie fragt, „Was muss geschehen?“. Basierend auf den Erkenntnissen der vorherigen Stufen schlägt sie Maßnahmen vor, um gewünschte Ziele zu erreichen.
Vier Stufen nach Gartner

Maoz, Michael: How IT Should Deepen Big Data Analysis to Support Customer-Centricity. Gartner Research 2013.

Die Einteilung in die vier Stufen und ihre Leitfragen helfen Mitarbeiter:innen in Unternehmen insbesondere in der Praxis dabei, eine klare Struktur zu schaffen, um ihre Datenanalysestrategien zu gestalten und zu verbessern. Dies ermöglicht eine schrittweise Entwicklung von der reinen Datenerfassung bis hin zur datengestützten Entscheidungsfindung.

Durch diese Einteilung können Unternehmen gezielt in die jeweiligen Stufen investieren, um die Leistung ihrer Geschäftsprozesse zu steigern. Die Vorteile liegen in der schrittweisen Steigerung der Analysekomplexität, von retrospektiven Einblicken bis hin zu proaktiven Handlungsempfehlungen. Dadurch können sie nicht nur Vergangenes besser verstehen lernen, sondern auch zukünftige Trends vorhersagen und schließlich fundierte Maßnahmen ableiten, um ihre Ziele effizient zu erreichen und ihre Wettbewerbsfähigkeit zu stärken.

Der CRISP-DM-Prozess in der Data Analytics

Das CRISP-DM-Vorgehensmodell (CRoss Industry Standard Process for Data Mining) bietet einen bewährten Rahmen für den Datenanalyseprozess in Unternehmen. Es ist in folgende sechs Phasen unterteilt:

  1. Business Understanding
    Die Phase des Business Understanding dient dazu, zu Beginn klare Geschäftsziele und Anforderungen festzulegen. Dabei definieren die Beteiligten die grundlegenden Fragen, die durch die Datenanalyse beantwortet werden sollen. Hierbei steht im Fokus, wie die Daten zur Erreichung der Unternehmensziele beitragen können.
  2. Data Understanding
    In der Phase des Data Understanding geht es darum, verfügbare Datenquellen zu analysieren und zu verstehen. Die Untersuchung der Datenqualität und deren Zusammenhänge sind zentrale Aufgaben und Ziele in dieser Phase.
  3. Data Preparation
    Anschließend erfolgt die Data Preparation: Daten werden bereinigt, transformiert und aggregiert, um sie für die Modellbildung vorzubereiten.
  4. Modeling
    Während des Modeling erfolgt die Anwendung geeigneter Data-Analytics-Verfahren. Hierbei können verschiedene Modelle auch parallel entwickelt und erprobt werden, um Muster und Zusammenhänge in den Daten zu identifizieren.
  5. Evaluation
    Die Evaluation dient dazu, die erstellten Modelle auf ihre Leistung und Ergebnisse zu überprüfen und zu vergleichen. Als Ergebnis soll eine Auswahl des finalen Modells erfolgen. Hierbei ist es wichtig zu erwähnen, dass es zu einem Closed-Loop kommt, in dem die Ergebnisse mit den Zielen und Anforderungen des Business Understanding abgeglichen werden. Bei Abweichungen, die durchaus auch positive Erkenntnisse und Verbesserungen sein können, erfolgen die weiteren Phasen iterativ.
  6. Deployment
    In der letzten Phase des Deployment steht im Fokus, die am besten geeigneten Modelle zu implementieren und in die Geschäftsprozesse zu integrieren. Die implementierten Modelle sollten kontinuierlich überwacht werden, um sicherzustellen, dass sie effektiv arbeiten.
CRISP-DM

Chapman, Pete et al.: CRISP-DM 1.0: Step-by-step data mining guide. SPSS Inc. 2000.

 

Die Verknüpfung der vier Reifegradstufen nach Gartner mit den Phasen des CRISP-DM schafft einen leistungsstarken Rahmen für den effektiven Einsatz von Data Analytics. Von der explorativen Analyse der Vergangenheit bis zur präskriptiven Handlungsempfehlung für die Zukunft bietet dieser Ansatz ein umfassendes Vorgehensmodell, um Daten in konkrete und strategische Entscheidungen umzuwandeln.

Fazit

Data Analytics ist heute mehr denn je ein entscheidender Faktor für den Geschäftserfolg. Die systematische Orientierung an den oben genannten Reifegradstufen und die strukturierte Anwendung des CRISP-DM als Vorgehensmodell ermöglichen es Unternehmen, von der Datenerfassung zur wirkungsvollen Handlungsempfehlung zu gelangen. Egal, ob es um die Optimierung der Produktqualität, Prozesseffizienz oder die Vorhersage von Kundentrends geht – Data Analytics bietet eine reichhaltig wachsende Quelle für fundierte Entscheidungen und Innovationspotenzial.

Wie weit sind Sie in Ihrem Unternehmen mit der Anwendung von Data Analytics fortgeschritten? Teilen Sie uns Ihre Erfahrungen mit!

 

Autor:
Sebastian Beckschulte ist wissenschaftlicher Mitarbeiter am Lehrstuhl für Fertigungsmesstechnik und Qualitätsmanagement am WZL der RWTH Aachen. In der Abteilung Quality Intelligence entwickeln er und seine Kolleg:innen in den Bereichen der Produkt- und Prozessqualität bestehende Ansätze weiter und beantworten bekannte, unternehmerische Problemstellungen mit neuen Methoden und Technologien. Nach seinem Studium zum Wirtschaftsingenieur an der Universität Duisburg-Essen schlug Sebastian Beckschulte am Lehrstuhl eine wissenschaftliche Laufbahn ein. Als wissenschaftlicher Mitarbeiter setzt er sich dabei intensiv mit den Themen der datenbasierten Entscheidungsunterstützung in Fehlermanagement- und Produktionsprozessen auseinander.

Wertstromanalyse: Ein effizientes Instrument zur Prozessoptimierung

Wertstromanalyse, Automobilindustrie, Produktion

Die Wertstromanalyse, ein beeindruckendes Werkzeug aus dem Repertoire des Lean Managements, hat ihre Wurzeln in der Automobilindustrie. Ihr Hauptzweck besteht darin, Material- und Informationsflüsse in komplexen Produktionsprozessen sichtbar und begreiflich zu machen.

Das Potenzial der Wertstromanalyse reicht jedoch weit darüber hinaus. Sie visualisiert die einzelnen Phasen eines Produktionsprozesses und verdeutlicht somit Interaktionen, Abhängigkeiten und Flussdynamiken. Dadurch können Anwender Verschwendung, Engpässe und ineffiziente Abläufe aufspüren. Durch die konsequente Ausrichtung auf Verschwendungsminimierung, einen Grundpfeiler des Lean Managements, ermöglicht sie eine systematische und datengetriebene Basis für fortlaufende Verbesserungen und Effizienzsteigerungen. Daher kann die Wertstromanalyse dazu beitragen, die Leistung zu erhöhen, Kosten zu reduzieren und die Zufriedenheit von Kunden und Mitarbeitern zu verbessern.

Dieser Fachbeitrag soll das Verständnis von dieser Methode vertiefen. Er beleuchtet die Anwendung und Vorteile der Wertstromanalyse und gibt wertvolle Hinweise für ihren Einsatz. Ziel ist es, aufzuzeigen, wie Qualitätsmanager und Co. dieses Werkzeug nutzen können, um ihre Prozesseffizienz zu erhöhen.

 

Wie läuft eine Wertstromanalyse ab?

Die Wertstromanalyse ist ein hilfreiches Mittel, um den komplexen Produktionsprozess innerhalb eines Unternehmens umfassend darzustellen. Sie verfolgt Material und Informationen auf ihrem Weg durch den Produktionsprozess und visualisiert dabei alle Aktivitäten – wertschöpfende und nicht-wertschöpfende. Dabei wird der ‘Wertstrom’ auf zwei Ebenen betrachtet: der steuernde Informationsfluss und der Materialfluss selbst.

Kernkonzepte und verwendete Symbole
Zu den Hauptelementen der Wertstromanalyse gehören die Erkennung wertschöpfender und nicht-wertschöpfender Aktivitäten, die Analyse der Durchlaufzeit und die Identifizierung von Produktionsengpässen.

Wie vorgehen?
Die Durchführung der Wertstromanalyse folgt mehreren hilfreichen Schritten. Diese Schritte unterstützen das Verständnis der Prozesse und Produktion und helfen bei der Identifizierung von Verbesserungsmöglichkeiten. Hier sind die grundlegenden Schritte:

  • Auswahl des Produkts oder der Produktfamilie:
    Die Wertstromanalyse konzentriert sich oft auf eine spezifische Produktfamilie oder einen Prozess.
  • Bestimmung des Anfangs- und Endpunkts des Wertstroms:
    Dies könnte etwa den gesamten Prozess von der Materialbeschaffung bis zum Versand des Endprodukts umfassen.
  • Erstellung des Ist-Zustands:
    Dokumentieren Sie den aktuellen Prozess mit allen relevanten Aktivitäten, Durchlaufzeiten, Wartezeiten und Lagerbeständen.
  • Identifizierung von Verschwendung:
    Suchen Sie nach Aktivitäten, die keinen Wert hinzufügen, zum Beispiel Wartezeiten, Überproduktion, übermäßige Bewegungen usw.
  • Entwicklung des Soll-Zustands:
    Entwerfen Sie einen idealen Zustand, in dem Verschwendung minimiert wird.
  • Erstellung eines Maßnahmenplans:
    Bestimmen Sie die Schritte, die notwendig sind, um vom Ist- zum Soll-Zustand zu gelangen.

Welche Vor- und Nachteile bietet die Wertstromanalyse?

Vorteile:

  • Transparenz:
    Die Wertstromanalyse visualisiert den Material- und Informationsfluss und schafft damit Transparenz in den Prozessen.
  • Identifizierung von Verschwendung:
    Durch die transparente Darstellung werden Engpässe, Verschwendung und Ineffizienzen sichtbar und können gezielt angegangen werden.
  • Strukturierte Herangehensweise:
    Die Methode bietet einen systematischen Ansatz zur Prozessverbesserung, der von der Identifikation des Ist-Zustands über die Entwicklung des Soll-Zustands bis zur Umsetzung reicht.
  • Steigerung der Produktivität:
    Die Identifikation und Reduzierung von Verschwendung führt zu einer erhöhten Produktivität.
  • Kostenreduktion:
    Durch die Optimierung der Prozesse können Kosten gesenkt werden.
  • Verkürzung der Durchlaufzeiten:
    Effizientere Prozesse führen in der Regel zu kürzeren Durchlaufzeiten.

Nachteile:

  • Komplexität:
    Komplexe Prozesse mit vielen Abhängigkeiten können schwer darzustellen und zu analysieren sein.
  • Zeitaufwändig:
    Eine gründliche Wertstromanalyse erfordert Zeit und Ressourcen, was in einigen Organisationen schwierig umzusetzen sein könnte.
  • Qualifiziertes Personal:
    Es ist notwendig, Mitarbeiter zu haben, die in der Anwendung der Wertstromanalyse geschult sind.
  • Fehlerhafte Daten:
    Die Qualität der Wertstromanalyse ist stark abhängig von der Genauigkeit der verwendeten Daten.
  • Fehlende Einbindung:
    Ohne die aktive Beteiligung aller beteiligten Mitarbeiter kann die Umsetzung der Erkenntnisse aus der Wertstromanalyse schwierig sein.
  • Fokussiert auf physische Produktion:
    Ursprünglich wurde die Methode für die Anwendung in der Fertigung entwickelt. In Bereichen wie der Dienstleistung oder der Softwareentwicklung können Anpassungen notwendig sein.
  • Gefahr von Oberflächlichkeit:
    Ohne ausreichende Tiefe bei der Untersuchung können grundlegende Probleme übersehen werden.

Gibt es praktische Tipps zur Durchführung?

Erfolgreiche Wertstromanalysen hängen nicht nur vom theoretischen Verständnis ab, sondern auch von der Anwendung bewährter Praktiken und Tools. Hier sind einige hilfreiche Tipps:

  • Teamarbeit ist entscheidend:
    Eine Wertstromanalyse ist eine teambasierte Aufgabe. Die Einbeziehung aller Stakeholder, einschließlich der direkt involvierten Mitarbeiter, ist für den Erfolg unabdingbar.
  • Fokus auf den Kunden:
    Bewahren Sie stets das Ziel der Wertschöpfung für den Kunden im Blick. Jeder Prozessschritt sollte daraufhin geprüft werden, ob er Kundennutzen schafft.
  • Nicht nur offensichtliche Aspekte berücksichtigen:
    Beziehen Sie neben den Hauptprozessen auch unterstützende Prozesse und indirekte Aktivitäten in die Wertstromanalyse ein.
  • Schritt für Schritt vorgehen:
    Starten Sie mit einer groben Analyse und vertiefen Sie in weiteren Iterationen die Details. So behalten Sie den Überblick, ohne sich in Einzelheiten zu verlieren.
  • Kontinuierliche Verbesserung:
    Eine Wertstromanalyse ist nicht nur einmalig hilfreich. Der wahre Wert entsteht durch kontinuierliche Anwendung und Optimierung.

Was bleibt?

In der Rückblende hat sich die Wertstromanalyse als ein essenzielles Werkzeug im Lean-Management erwiesen. Sie hat Unternehmen dabei unterstützt, Material- und Informationsflüsse zu visualisieren, Verschwendung zu identifizieren und die Effizienz zu verbessern. Sie hat sich als flexibel und anpassungsfähig in einer Vielzahl von Umgebungen bewährt, von der Fertigung bis hin zu Dienstleistungen. Dennoch ist ihre effektive Anwendung nicht ohne Herausforderungen, darunter der notwendige Aufwand für die Durchführung der Analyse und die Notwendigkeit einer umfassenden Teamintegration.

Blickt man in die Zukunft, ist die Rolle der Wertstromanalyse noch bedeutsamer. Immer mehr Unternehmen erkennen ihre Vorteile und beginnen, ihre Methoden zu nutzen. Es wird erwartet, dass ihre Relevanz weiter zunehmen wird, da Unternehmen in immer komplexeren und wettbewerbsintensiven Umgebungen agieren müssen. Mit dem richtigen Engagement, effektiver Teamarbeit und einer Mentalität der kontinuierlichen Verbesserung kann die Wertstromanalyse einen entscheidenden Beitrag zur Steigerung der Wettbewerbsfähigkeit von Unternehmen und zur Optimierung ihrer Geschäftsprozesse leisten. Die Zukunft verspricht spannende Entwicklungen für die Wertstromanalyse und ihre Anwendung in der Geschäftswelt.

 

Autor:
Julian Steiger verfügt über sechs Jahre Erfahrung im Qualitätsmanagement. Bei der DGQ ist er sowohl als Teil des Leitungsteams des Regionalkreises Köln-Bonn als auch im Leitungsteam der QM-Youngsters ehrenamtlich tätig. Zu seinen Schwerpunkten zählt, gemeinsam im Team neue Prozesse zu gestalten und Workshops zu moderieren. An der Hochschule Wismar absolvierte Julian Steiger das Masterstudium Quality Management.

Einführung eines standardisierten Prozessaudits zur Überprüfung der Wirksamkeit von Quality Core Tools

Audit

Notwendigkeit des Einsatzes von Quality Core Tools

Um den hohen Qualitätsstandards der Branche gerecht zu werden, hat die Automobilindustrie eine Reihe von Werkzeugen und Methoden entwickelt, welche unter dem Begriff „Automotive Core Tools“ zusammengefasst werden. Die Automotive Core Tools sind heute ein erfolgreicher und etablierter Standard im Qualitätsmanagement der Automotiv-Unternehmen und so ist es nicht verwunderlich, dass diese immer häufiger von Non-Automotive-Branchen adaptiert und dort unter dem Begriff „Quality Core Tools“ im Qualitätsmanagement eingesetzt werden.

Auch die BSH Hausgeräte GmbH hat sich bereits vor vielen Jahren entschieden, die Quality Core Tools zu adaptieren, um die Prozesse von der Produktentwicklung, über das gesamte Projektmanagement bis zum Produktionsstart (SOP) zu optimieren. Damit können potenzielle Fehlerquellen frühzeitiger erkannt und behoben, sowie Kosten von Ausschuss und Reklamationen gesenkt werden. Zudem ermöglichen die eingesetzten Methoden eine bessere Steuerung und Überwachung der Prozesse, was zu einer Steigerung der Effizienz und Produktivität führen kann.

Erfordernis identischer Auditorenkompetenzen

Die DIN EN ISO 9001 sieht regelmäßige interne Systemaudits vor, um sicherzustellen, dass das Qualitätsmanagementsystem den Anforderungen der Norm entspricht und Abweichungen, Nichtkonformitäten oder Kundenbeschwerden überprüft und bewertet werden. Diese Systemaudits werden von internen Auditoren durchgeführt, die unabhängig von den auditierten Bereichen sind.
Der PDCA-Zyklus hilft dabei, kontinuierliche Verbesserung in Organisationen zu fördern.

Solche Systemaudits werden in der ISO 9001-zertifizierten BSH Hausgeräte GmbH regelmäßig durchgeführt und auch die Wirksamkeit der eingeführten Quality Core Tools wird dabei überprüft und bewertet.

Da die eingeführten Maßnahmen dabei bisher nur bezogen auf den Produktionsstandort betrachtet wurden, fiel erst bei der ganzheitlichen Auditierung der eingesetzten Quality Core Tools über alle Produktionsstandorte auf, dass die Methoden unterschiedlich umgesetzt und gelebt wurden.

Um die Standorte dabei zu unterstützen, ihre kritischen Prozesse regelmäßig zu überprüfen, ist nicht nur die standardisierte Durchführung von Systemaudits erforderlich. Durch die Einführung von Prozessaudits soll den Standorten auch ein Werkzeug an die Hand gegeben werden, mit dem sie ihre eigenen Prozesse analysieren und verbessern können.

Um ein hohes und vergleichbares Level der Prozessauditaktivitäten über alle Standorte sicherzustellen, müssen die eingesetzten lokalen Auditoren über identische Kompetenzen zu den jeweiligen Methoden verfügen. Sie sollen befähigt sein, die fachlich korrekte Anwendung der Quality Core Tools zu bewerten. Dabei ist die effiziente Herangehensweise während der Audits ein wichtiger Erfolgsfaktor. Dies gewährleistet in unterschiedlichen Auditsituationen eine Vergleichbarkeit der Bewertungen mit dem notwendigen Tiefgang und schafft einen echten Mehrwert für die Organisation.

Berufsbild Auditor

Für die Integrität und Zuverlässigkeit von Unternehmen ist das Einhalten von gesetzlichen, behördlichen und normativen Vorgaben und Anforderungen essenziell. Neben dem Feststellen der Konformität können im Rahmen eines Audits unter anderem bewährte Praktiken erkannt, Lücken identifiziert und Optimierungspotenziale aufgedeckt werden. Auditoren können so einen entscheidenden Beitrag für das Unternehmen leisten und haben gute Karriereaussichten in den verschiedensten Branchen.
Antworten auf die wichtigsten Fragen finden Sie in unserem Berufsbild zum Auditor:

  • Welche Aufgaben betreuen Auditoren?
  • Wie werde ich Auditor?
  • Welche Weiterbildungsmöglichkeiten gibt es?
  • Was verdient ein Auditor?
  • Welche Karrieremöglichkeiten gibt es als Auditor?

Zum Berufsbild Auditor »

Praktische Umsetzung

Damit zukünftige interne Prozessaudits (basierend auf VDA 6.3) von den lokalen Auditoren an 28 Produktionsstandorten durchgeführt werden können, initiierte die BSH Hausgeräte GmbH ein Ausbildungsprojekt für interne Prozessauditoren.

Dabei wurden folgende Kompetenzen geschult und gecoacht:

Das gesamte Projekt untergliederte sich in folgende Abschnitte:

Vorbereitungsphase:
Nach Erstellung eines Projekt- und Budgetplans, dem Einholen des Projektauftrags durch das Top-Management und der Einrichtung eines Steuerkreises wurden die zukünftigen Prozessauditoren nominiert und ausgewählt. Für diese galten klar definierte Teilnahmevoraussetzungen, wie zum Beispiel eine mehrjährige Berufserfahrung im Qualitätsmanagement und praktische Erfahrungen bei der Anwendung von Qualitätsmethoden.

Rollout Phase:
Die nominierten Mitarbeiter der jeweiligen Standorte wurden in den oben genannten unterschiedlichen Fach- und Methodentrainings qualifiziert. Anschließend erhielten sie in einem Praxiseinsatz an einem Pilotstandort vor Ort ein Coaching und wurden in einem Witness-Audit bewertet.

Operative Phase:
Die operative Umsetzung der regelmäßigen Auditierung der kritischen Prozesse findet an den jeweiligen Standorten in einem Dreijahreszyklus statt. Dazu erfolgten im Vorfeld mehrere Coachings, damit die Standorte ihre kritischen Prozesse nach einer einheitlichen Systematik identifizieren und mit gleichen Kriterien bewerten.

Abschluss des Projekts

Ein zentraler Fachexperte (Projektleitung und Koordinator) begleitete das Projekt permanent. Darüber hinaus unterstützten externe Trainer der DGQ und ein Veränderungsmanager das Vorhaben. Der Veränderungsmanager hatte dabei die Aufgabe, die erforderlichen Change Prozesse an den lokalen Standorten zu begleiten, die lokalen Prozessauditoren auf die Auditsituation vorzubereiten und ihnen nach dem Witness-Audit ein Feedback hinsichtlich der fachlichen Auditdurchführung sowie der Umsetzung der Rolle als Auditor (soziale Kompetenz) zu geben.

Nach Projektabschluss übernahm der Projektleiter, die Governance für die Prozessaudits im Unternehmen und verantwortet somit die Aufrechterhaltung und Weiterentwicklung einer globalen Prozessbeschreibung mit Rollen und Verantwortlichkeiten in der BSH Hausgeräte GmbH. Damit das erreichte Kompetenzlevel weiterhin erhalten bleibt, werden regelmäßig Netzwerktreffen mit den lokalen Prozessauditoren organisiert und für neue Auditoren Trainings- und Witness-Audits koordiniert.

 

Fazit

Die Prozessaudits im Rahmen der Ausbildung an den jeweiligen Pilotstandorten haben verdeutlicht, wie wichtig es ist, die Kompetenz der eingesetzten Auditoren auf einem hohen Niveau zu halten, damit die Prozessaudits professionell ablaufen. Der Vorteil dieser neu eingeführten Auditart (Prozessaudit) und der umfassenden Qualifizierungsmaßnahmen zeigt sich in der erhöhten Transparenz der kritischen Prozesse und der Identifikation zahlreicher Verbesserungspotenziale. Daher wird das interne Prozessaudit zukünftig die bereits bestehenden internen Systemaudits (ISO 9001, ISO 14001, ISO 50001, ISO 45001) ergänzen.

Ausgehend von der Unterstützung durch das Top-Management als Projektsponsor, war es von wesentlicher Bedeutung, dass die relevanten Führungskräfte von Anfang an in das Projekt integriert und deren Akzeptanz für das Prozessaudit durch regelmäßige Informationen und Schulungen geschaffen wurde.

Die Prozessoptimierung in der Produktentstehung und der Serienproduktion haben einen wichtigen Wertbeitrag zur Wettbewerbsfähigkeit des Unternehmens geleistet.

 

Autor:
Dipl.-Ing. (FH) Matthias Kohl, MBA ist Leiter der Integrierten Managementsystem Audits in der Konzernzentrale der BSH Hausgeräte GmbH in München und Six Sigma Master Black Belt. Zuvor war er in verschiedenen Qualitäts- und Projektmanagement Funktionen bei der Robert Bosch GmbH und Daimler Trucks AG tätig. In seiner nebenberuflichen Tätigkeit (KOHL Quality Training & Consulting) bietet er Trainings und Coachings im Bereich Qualitätsmanagement, Integrierter Managementsysteme und technischer Problemlösung an.

Agile und Lean Six Sigma – wie passt das zusammen?

Lean Six Sigma, Agile

Immer mehr Unternehmen wenden Ansätze wie Six Sigma und agile Arbeitsweisen in ihrem Unternehmen an. Und das ist keine Überraschung. In den letzten zehn Jahren ist zunehmend die Technologie in vielen Bereichen in den Vordergrund gerückt. Wir nutzen Technologie in unserem täglichen Leben, sei es zu Hause oder bei der Arbeit. Ganz gleich, um welche Aufgabe es sich handelt. Das Kundenverhalten wird stark von der Technologie beeinflusst, und wenn die Unternehmen nicht ständig am Ball bleiben, ist es nur eine Frage der Zeit, bis Ihre Kunden einen anderen Anbieter finden, der die Lücke füllt. Verbraucher erwarten heutzutage von Unternehmen zunehmend auch eine schnelle Lieferung, bei gleichbleibend hohem Qualitätsanspruch.

Ansätze wie Six Sigma, Lean Management und Agilität ermöglichen es Unternehmen, dem Druck und den Anforderungen des Verbrauchermarktes zu begegnen. Diese Methoden unterscheiden sich jedoch in ihrer Umsetzung. Klassischerweise werden sie selten gleichzeitig angewandt, da oftmals das Methodenwissen fehlt. Dabei können Unternehmen Lean Six Sigma und Agile gleichzeitig anwenden.

Vergleich zwischen Agile und Six Sigma

Was ist Agile bzw. agiles Projektmanagement?

Das agile Projektmanagement ist durch hohe Flexibilität, schnelle Handlungsfähigkeit und optimale Produktivität geprägt. Es ist die unternehmerische Antwort auf die steigende Komplexität und Dynamik ausgelöst durch die Digitalisierung.

Bereits im Jahr 2001 wurde das agile Manifest der Softwareentwicklung mit seinen 12 Prinzipien veröffentlicht. „Agile“ war der neue Weg, bei dem Veränderungen angenommen werden und auf sie reagiert wird, während Produkte schnell und mit hoher Qualität entstehen. Agil ist nicht nur eine Methode, sondern eine Reihe von Werten und Prinzipien, die Softwareentwicklungsteams bei ihrer Arbeit leiten. Agilität betont die Zusammenarbeit, das Engagement für den Kunden und das Reagieren auf Veränderungen im Vergleich zur strikten Prozessimplementierung, Dokumentation und Planung, wie das beim „Wasserfallmodell“ typischerweise üblich ist.

Was ist Lean Six Sigma?

Six Sigma ist eine Methode zur Prozessverbesserung, die in den 1980er Jahren entstand und durch Motorola bekannt wurde. Dabei wurden Methoden der statistischen Qualitätskontrolle eingesetzt, um Fehler und Qualitätsprobleme in der Fertigung zu verringern und so den Umsatz zu steigern. Dies war die Geburtsstunde des Six Sigma-Phasenmodells namens DMAIC, das für Definieren, Messen, Analysieren, Verbessern und Kontrollieren steht. Der Schwerpunkt von Six Sigma, ergänzt um Methoden des Lean Managements, liegt auf der Kontrolle von Abweichungen und der Reduzierung von Mängeln. Dies bedeutet, dass die Kernursachen von Problemen aufgespürt und die Gründe für Qualitätsprobleme beseitigt werden müssen. Durch die Gewährleistung von Konsistenz und Qualität können Six Sigma-Unternehmen ein höheres Maß an Kundenzufriedenheit erreichen.

Der DMAIC-Rahmen ist ein genau definierter Prozess, der die Teams bei Durchführung ihrer Six Sigma-Projekte anleitet. Lean Six Sigma-Verbesserungsprojekte werden von den „Lean Six Sigma-Belts“ durchgeführt. Green Belts und Black Belts sind in der Regel diejenigen, die je nach Umfang und Komplexität die Projekte zur Prozessverbesserung leiten.

Kombination von Six Sigma und Agile

Sowohl Agile als auch Six Sigma zielen darauf ab, den Kunden den besten Nutzen zu bieten. Der Schlüssel für den Erfolg bei der Kombination der Ansätze liegt in der Fähigkeit, beide aus einer anderen Perspektive zu betrachten. Diese Ansätze sind für sich allein nicht das A und O, sondern Werkzeuge, die Unternehmen helfen, ihre Prozesse zu verbessern, damit sie ihren Kunden einen größeren Nutzen bieten können.

Die Kombination von Lean Six Sigma und agilen Methoden erfordert ein tieferes Verständnis und Erfahrung in der Anwendung der beiden Ansätze. Weniger erfolgreiche Teams, die Six Sigma oder agiles Arbeiten einsetzen, kümmern sich oft mehr um die Methoden und den festgelegten Rahmen und weniger um die grundlegenden Prinzipien der einzelnen Ansätze. Nur weil Sie DMAIC anwenden, heißt das noch lange nicht, dass Sie Lean Six Sigma erfolgreich anwenden. Eine der häufig angewendeten Agile-Methoden, Scrum, schreibt eine Reihe von Rollen vor, beispielsweise einen Scrum Master, und Scrum Meetings, die durchzuführen sind. Nur weil ein Team einen Scrum Master hat und tägliche Standup-Meetings durchführt, heißt das noch lange nicht, dass es Scrum richtig durchführt. Es bedeutet auch nicht, dass es agil ist. Um Lean Six Sigma und „Agile“ erfolgreich zu kombinieren, müssen sich Unternehmen zunächst fragen, wie der Einsatz von Lean Six Sigma und ‚Agile‘ ihnen dabei helfen kann, ein definiertes Ziel zu erreichen oder ein bestimmtes Problem zu lösen.

Agile Teams können Lean Six Sigma als Prozessverbesserungsinstrument nutzen, um ihre Leistung weiter zu verbessern. Lean Six Sigma verbindet quantitative und qualitative Analysen der Prozessleistung und deckt Probleme auf, die bei der Umsetzung eines weniger rigorosen Ansatzes wie beim agilen Arbeiten möglicherweise unbemerkt bleiben würden.

Berufsbild Prozessmanager

Wir leben in einer Zeit geprägt von Digitalisierung und Schnelllebigkeit. Umso wichtiger ist es, dass Unternehmen anpassungsfähig sind und auf veränderte Marktbedingungen eingehen können. Eine kontinuierliche Analyse und Optimierung von bestehenden Geschäftsprozessen ist sowohl für die Kosteneffizienz und Wirtschaftlichkeit, aber auch für die Kundenzufriedenheit von zentraler Bedeutung. Prozessmanager sind also gefragte Arbeitskräfte mit guten Zukunftsaussichten.
Antworten auf die wichtigsten Fragen finden Sie in unserem Berufsbild zum Prozessmanager:

  • Welche Aufgaben betreuen Prozessmanager?
  • Wie werde ich Prozessmanager?
  • Welche Weiterbildungsmöglichkeiten gibt es?
  • Was verdient ein Prozessmanager?
  • Welche Rollen gibt es im Prozessmanagement?

Zum Berufsbild Prozessmanager »

Agile und Lean Six Sigma Hand in Hand

Six Sigma und Agile sollten als ergänzende Ansätze betrachtet werden. Der Schlüssel liegt darin, ein Gleichgewicht zwischen Exaktheit und Flexibilität zu finden. Agile ist keineswegs ein Laissez-faire-Ansatz. Die Kombination mit der umfangreichen DMAIC-Vorgehensweise kann jedoch dazu beitragen, einen strukturierteren Rahmen für Problemlösungen, Ideenfindung und Prozessoptimierung zu schaffen. Die gilt insbesondere in Bereichen, in denen eine Prozessverbesserung angestrebt wird.

Bei der Anwendung der DMAIC-Methode können agile Methoden wie Scrum, Kanban und Sprints helfen, die Prozesseffizienz zu optimieren:

  • Scrum hilft bei der Strukturierung, Planung und Umsetzung von Projekten
  • Kanban hilft bei der Visualisierung und Verfolgung von Aufgaben
  • Sprints unterstützen bei der Beschleunigung der Prozessumsetzung

Trotz der vordefinierten Ziele der DMAIC-Phasen können Teams mit mehr Eigenverantwortung eingebunden und durch stetige Reflektion und Verbesserung der Arbeit in den Verbesserungsprozess integriert werden, was wiederum den agilen Prinzipien entspricht. Die inkrementelle Werterstellung als agiles Prinzip muss viel stärker im gesamten DMAIC-Zyklus verankert sein, statt wie in vielen Organisationen üblich erst lange an der Erstellung von Konzepten und Umsetzungsplänen zu sitzen. Im Phasenabschluss sollte ein zeitgemäßes Gate Review analog einem Sprint Review funktionieren – offen und zugänglich für alle Stakeholder, zudem werden Ergebnisse und Learnings im Team geteilt. Auf der anderen Seite hilft die stringente Logik aus der Six Sigma-Philosophie auch den agilen Teams, um nicht den Fokus zu verlieren.

Um Lean Six Sigma und Agile gemeinsam erfolgreich zu implementieren, müssen sich die Teams nicht auf die Mechanismen der Methoden konzentrieren. Stattdessen müssen die Projektteams das Vorhaben als Ganzes betrachten und herausfinden, wie die agilen und Six-Sigma-Prinzipien effektiv eingesetzt werden können, um ein Produkt oder eine Dienstleistung zu schaffen, die den Kunden einen großen Nutzen bieten.

Mit dem Training „Lean Six Sigma: Agile for Belts“ erfahren die Teilnehmenden konkret, wie sich die agile Denkweise mit der DMAIC-Vorgehensweise vereinheitlichen und kombinieren lässt. Voraussetzung hierfür ist eine bereits absolvierte Lean Six Sigma Weiterbildung zum Green Belt, Black Belt oder Master Black Belt.

 

Über den Autor:
Oliver Schneider studierte Ernährungswissenschaften (M.Sc.) in Gießen und war danach als wissenschaftlicher Mitarbeiter und Projektassistent tätig. Seit 2015 ist er als Produktmanager bei der DGQ und verantwortet aktuell das Weiterbildungsportfolio zum Thema Qualitätsmanagement und Lean Six Sigma. Seine Qualifizierungen zum Qualitätsmanager und Lean Six Sigma Green Belt helfen ihm bei der Weiterentwicklung und Beratung seiner Themenbereiche.

Die Automotive Core Tools in der IATF 16949

Automotive Core Tools

Qualitätsmanagement in der Automobilindustrie: Warum? Wie? Was?

Die automobile Welt von heute befindet sich im Wandel. Die Maßstäbe zur Bewertung sind nicht länger Hubraum, Anzahl der Zylinder und Kraftstoffverbrauch- Vielmehr geht es mittlerweile um Batteriekapazität, die damit verbundene Reichweite, Ladegeschwindigkeit und die Fahrzeugsoftware, welche alle möglichen Features abbilden soll. Wer vorn mitspielen will, muss höchsten Ansprüchen genügen, sonst fällt er im globalen Wettbewerb zurück. Das ist keine neue Erkenntnis. Doch Zeiten des Wandels geben immer auch Anlass, Fragen zu stellen. Warum sollten wir uns weiterhin mit Qualitätsmanagement befassen? Wie lassen sich wirksam die Anforderungen eines solchen QM-Systems umsetzen und was ist konkret gefordert?

Normbasierte QM-Systeme wie jene nach ISO 9001 und IATF 16949 haben zum Ziel, einen systematischen Ansatz zur Steuerung der Erfüllung von Anforderungen über die gesamte Lieferkette bereitzustellen. Liefern bedeutet nichts anderes als die Erfüllung von Kunden-, gesetzlichen und behördlichen sowie internen Anforderungen. Dies ist zugleich die Basis für Qualität. Somit ist die Begründung für den Einsatz von QM-Systemen – das Warum? – unverändert aktuell.

Zwischen universellem Anspruch und individueller Flexibilität

Die Entwicklung der QM-Systeme nahm spätestens 1987 ihren Lauf, als die erste Ausgabe der ISO 9001 herausgegeben wurde. Sie setzt sich auch in der Automobilindustrie fort, deren aktuelle Anforderungen an ein QM-System in der IATF 16949 beschrieben sind. Die definierten Anforderungen geben vor, was zu tun ist, um erfolgreich agieren zu können.

Eine weitere Herausforderung stellt der Anspruch auf universelle Anwendbarkeit der Anforderungen in den einzelnen Produktgruppen der Automobilindustrie dar. Vom Airbag bis hin zum Zahnrad müssen alle implementierten Systeme die Anforderungen erfüllen. Das Motto „One fits all“ funktioniert auf Grund der unterschiedlichen Anforderungen und Risiken in den jeweiligen Produktgruppen jedoch nicht. Das führt zur Frage des „Wie werden die Anforderungen effektiv umgesetzt?“ Antworten dazu finden sich in den Automotive Core Tools.

Es besteht ebenfalls der Anspruch auf universelle Anwendbarkeit in den Produktgruppen. So beschreibt APQP (Advanced Product Quality Planning) im Vorwort, dass es sich dabei um allgemeine Leitlinien zur Erfüllung der Anforderungen und nicht um spezifische Anweisungen zur Umsetzung des Regelwerkes handelt. Das sei Aufgabe jeder Organisation selbst, diese gemäß ihrer Ausrichtung und deren Bedürfnissen zu definieren.

Aus dieser Konstellation heraus ergeben sich Chancen für jedes einzelne Unternehmen, durch die Anwendung der Core Tools erfolgreich am Markt zu agieren. Die Core Tools versetzen die Organisation in die Lage, das zur jeweiligen Organisation passende „Wie“ zu bestimmen und umzusetzen.

Q-Methoden (Automotive Core Tools): Das „Wie“ legt die jeweilige Organisation fest

Advanced Product Quality Planning und Reifegradabsicherung
Die Qualitätsplanungsmethoden Advanced Product Quality Planning (APQP) und die Reifegradabsicherung (RGA) verwenden teils unterschiedliche Ansätze, verfolgen aber ein gemeinsames Ziel: die Erfüllung der Anforderungen ab dem Start of Production (SOP) durch ein robustes und kundentaugliches Produkt, welches mittels eines beherrschten und fähigen Produktionsprozesses hergestellt wurde. Ein Anlauf ohne größere Probleme hilft, zusätzliche Kosten zu vermeiden und stellt somit einen unmittelbaren Beitrag zum Betriebsergebnis dar. Der Bezug zum QM-System (Was ist konkret gefordert?) ist die Erfüllung der Anforderungen nach einer Projektplanung aus dem Abschnitt 8.1.1 d) der IATF 16949.

Risikoanalysen mittels FMEA
Bei der Projektrealisierung kommen weitere Core Tools zur Anwendung. Risikoanalysen mittels FMEA helfen dabei, potenzielle Fehler und deren Folgen im Produkt- und Prozessdesign zu erkennen und durch geeignete Maßnahmen rechtzeitig zu minimieren, bevor durch die Fehlerfolgen größerer Schaden entsteht. Die daraus abgeleiteten Lenkungsmaßnahmen sind Eingaben in den Produktionslenkungsplan (PLP) und helfen dem Unternehmen dabei, seine Produktionsprozesse und Abläufe zu optimieren und sicher zu gestalten. Der vermiedene Ausschuss und vermiedene Nacharbeit dienen nicht nur dazu, das Betriebsergebnis zu verbessern. Sie unterstützen die Mitarbeiter durch klare Vorgaben für den Prozessablauf und bei der Zielerreichung. Mehrere Anforderungen aus dem Abschnitt 8.3 ff. der IATF 16949 werden hier unterstützt.

Messsystemanalyse zur Beurteilung von Prüfprozessen
Ein weiteres Core Tool ist die Messsystemanalyse (MSA) zur Beurteilung und zum Nachweis der Fähigkeit von Prüfprozessen, gefordert im Abschnitt 7.1.5.1.1 – Beurteilung von Messsystemen. Die Vorgehensweise ist beschrieben in den Regelwerken MSA 4th Edition beziehungsweise VDA Band 5 sowie firmenspezifischen Richtlinien. Erst wenn der Nachweis erbracht ist, dass der angewandte Prüfprozess und die dabei verwendeten Prüf- und Messsysteme fähig sind sowie die Ergebnisse reproduziert werden können, sind die ermittelten Messergebnisse vertrauenswürdig. Die Organisation wird damit in die Lage versetzt, die Ergebnisse des Herstellprozesses sicher zu belegen. Der Beitrag zum Betriebsergebnis ist die Vermeidung von Pseudoausschuss. Es wird verhindert, dass spezifikationskonforme Produkte und Teile als nicht konform deklariert werden. Im umgekehrten Fall wird verhindert, dass man nicht konforme Produkte und Teile als spezifikationskonform deklariert und an den Kunden ausliefert. Die daraus resultierenden Folgen sind oft mit deutlich mehr Aufwand verbunden als jede Vermeidungsmaßnahme.

Statistical Process Control
Die MSA bildet die Grundlage zur Ermittlung der Maschinen- und Prozessfähigkeit wie im Abschnitt 8.3.5.2 d) der IATF 16949:2016 gefordert. Im Ergebnis kann die Entscheidung zum Einsatz des Core Tools Statistical Process Control (SPC) getroffen werden. Damit kann die Überwachung des Herstellprozesses und der resultierenden Ergebnisse mittels Stichprobe (Größe und Frequenz) erfolgen. Eine im Vergleich zu SPC aufwendigere 100%-Prüfung der Merkmalswerte wird vermieden. Dies liefert einen weiteren Beitrag zum Erreichen des gewünschten Betriebsergebnisses.

Produktionsprozess- und Produktfreigabe
Die Anforderungen aus dem Abschnitt 8.3.4.4 zu einem geforderten Produktions- und Produktfreigabeprozess werden mit den Methoden zur Bemusterung Production Part Approval Process (PPAP) beziehungsweise Produktionsprozess- und Produktfreigabe (PPF) umgesetzt. Hier erbringt der Lieferant gegenüber seinem Kunden den Nachweis, dass er die vertraglich vereinbarten Anforderungen an Produkt und Prozess erfüllt. Der Kunde bestätigt dies durch Erteilung einer Serienlieferfreigabe. An dieser Stelle zeigt sich dann wie gut und konsequent APQP/ RGA durchgeführt wurden. Die Vermeidung von zusätzlichen, nicht geplanten Aktivitäten zur Absicherung des Anlaufs helfen dabei, das gewünschte Betriebsergebnis zu erzielen.

8D Methode
Nach dem SOP kann es zu Reklamationen kommen, die auf verschiedenste Grundursachen zurückzuführen sind. Zur Erfüllung der Anforderungen aus dem Abschnitt 10.2.3 der IATF 16949 trägt ein weiteres Core Tool, die 8D Methode – Problemlösung in acht Disziplinen, bei. Eine schnelle Identifikation und Abstellung der Grundursache hilft dabei, dass Wiederauftreten des Fehlers oder Problems zu verhindern und die Reklamationskosten zu senken. Auch dieses und alle weiteren Core Tools leisten ihren Beitrag dazu, die gewünschten Ergebnisse zu erzielen und den Kunden zufriedenzustellen.

Neue Risiken im Spannungsfeld vor Qualität und Wirtschaftlichkeit

Diese kurze Zusammenstellung verdeutlicht das Zusammenwirken von Anforderungen eines QM-Systems und Q-Methoden am Beispiel der Automobilindustrie. Es zeigt zudem, dass durch die ergänzenden und zusätzlichen Anforderungen der IATF 16949 die Freiräume für Lieferanten im Vergleich zur ISO 9001 geringer sind, was die Wahl der Methoden betrifft. Jedoch haben die Organisationen in der Anwendung und Ausgestaltung der Methoden nach wie vor die Flexibilität, die geforderte Qualität und Wirtschaftlichkeit übereinzubringen. Das setzt aber verlässliche Abnahmevolumen für den Lieferanten und ein faires Teilen von Risiken in der Lieferkette voraus. Anderenfalls lassen sich die Steuerungsmöglichkeiten, die Q-Methoden den Organisationen bieten, nicht zielführend umsetzen und anwenden.

 

Über den Autor:
Thomas Birke ist seit 2018 freiberuflich als Trainer, Berater und Zertifizierungsauditor tätig. Er ist unter anderem für die DGQ als Ausbilder von „Prozessauditoren VDA 6.3“ und „1st and 2nd party Auditoren“ im Einsatz und berät mit seiner Firma Entwickelte Qualität (www.en-qu.de) Unternehmen zu Themen des Qualitäts- und Change-Managements. Vor seinem Wechsel in die Selbstständigkeit war Thomas Birke in leitender Funktion im Qualitätsmanagement bei einem führenden Automobilzulieferer angestellt. Als gelernter Kfz-Mechaniker sammelte er zudem Erfahrung im Entwicklungsbereich bei einem weltweit führenden Automobilhersteller, ehe es ihn 2007 ins Qualitätsmanagement verschlug.

 

Weiterbildungsangebote rund um das Thema „Automotive Core Tools“

Sie suchen Trainings, um sich einen Überblick über die in der Automobilindustrie geforderten Methoden der Qualitätssicherung zu verschaffen? Die DGQ bietet Ihnen Trainings zu den wichtigsten Automotive Core Tools an. Verschaffen Sie sich einen vertieften Überblick zu Standards und Methoden der Automotive Core Tools oder lernen Sie die Bewertung von Automotive Core Tools in System- oder Prozessaudits:

„Auch das Integrierte Managementsystem vom Prozess her denken“

Integrierte Managementsysteme, IMS

Qualität, Energie, Umwelt oder Arbeitsschutz – die Anforderungen an Unternehmen werden immer vielfältiger und umfangreicher. Als effiziente Lösung bietet sich hier ein integriertes Managementsystem (IMS) an. Doch wie ein solches implementieren? Im Interview erläutert Philipp Hörmann, DGQ-Trainer und Gründer der Unternehmensberatung WeitBlick, die Vorteile eines IMS, warum die Prozesssicht entscheidend ist und welche Voraussetzungen für eine erfolgreiche Integration zu erfüllen sind.

Wo sehen Sie bei einem integrierten Managementsystem die größten Vorteile?

Philipp Hörmann: Um es auf den Punkt zu bringen – mehr Effektivität, Effizienz und Transparenz! Mit Hilfe eines integrierten Managementsystem schafft man, Aufwände, Kosten und Abläufe im Managementsystem und für die angestrebten Zertifizierungen zu optimieren. Dazu bedarf es einer ganzheitlichen Sichtweise und einer konsequenten Prozessorientierung. Außerdem sehe ich, wo Synergieeffekte optimal genutzt werden können und kann dadurch die verschiedenen Normanforderungen zentral bündeln. Da die Dokumentation meist ein ungeliebtes Thema ist, lässt sich auch hier mit einem gut aufgesetzten IMS der Aufwand reduzieren. In Verbindung mit dem einheitlichen methodischen Vorgehen erreicht man in der Regel auch mehr Akzeptanz bei den Mitarbeitenden und Beteiligten.

Ein weiterer wichtiger Punkt ist hinsichtlich des Risikomanagements die ganzheitliche Betrachtungsweise im Kontext mit Identifikation, Bewertung und Behandlung von Risiken inklusive des erforderlichen Maßnahmenmanagements. Auch die Pflege eines Rechtskatasters, mit dem gesetzliche und andere verbindliche Anforderungen von Stakeholdern erfasst und überwacht werden, schafft mehr Rechtssicherheit und reduziert Risiken.

Da es heutzutage zunehmend um Nachhaltigkeit und ESG-Kriterien geht, spielt ein IMS auch hier eine Rolle. Durch bessere Informations- und Entscheidungsgrundlagen lässt sich die Wertschöpfung zielgerichteter steuern und die Leistung verbessern, während Fehlleistungen, Reklamationen oder Ausschuss reduziert werden.

Neben zahlreichen Vorteilen eines integrierten Managementsystems gibt es sicherlich auch viele Herausforderungen beim Aufbau und der Pflege. Worauf ist zu achten, damit eine Integration reibungslos funktioniert?

Philipp Hörmann: Sicherlich muss man einen Überblick über die Anforderungen der verschiedenen Bereiche haben, die ein IMS abdecken soll. Hinzu kommt ein solides Normverständnis – sei es als verantwortliche Einzelperson oder innerhalb eines Teams von Managementbeauftragten. Hier gilt es zu unterscheiden und zu berücksichtigen, welche Normen bereichsspezifisch oder übergreifend gültig sind. Dasselbe gilt für die Kenntnis der relevanten Regelwerke. Nur so lassen sich die Synergiepotenziale heben. Auch bei der Dokumentation gilt es dann, dass richtige Maß zwischen der Erfüllung von Anforderungen und einer möglichst einfachen Umsetzung zu finden. Hierbei ist ein grundsätzlich pragmatischer Ansatz sinnvoll. Schließlich sollte man über die Integration hinausdenken. Man muss klären, wie eine Integration so in den Arbeitsalltag gelingen kann, dass sie langfristig funktioniert und von den Mitarbeitenden gelebt wird. Denn eines sollte deutlich werden: Ein gut funktionierendes Managementsystem ist vor allem für die Mitarbeitenden und nicht für die Managementsystembeauftragten oder eine kleine Gruppe gedacht. Schließlich sind die Mitarbeitenden die Nutzer und Anwender.

Aber wie geht man konkret vor, wenn man beispielsweise auf der grünen Wiese beginnt?

Philipp Hörmann: Der beste Rat, den ich hier geben kann, lautet: Auch beim IMS immer vom Prozess her denken. Denn Mitarbeitende haben einen besseren Zugang zum Managementsystem, wenn sie dort ihre Prozesse und ihre Begrifflichkeiten wiederfinden. Die Abläufe des Alltags sollten wiedererkannt werden. Manche Organisationen machen den Fehler, dass sie sich eher an der Kapitelstruktur der Normen orientieren. Zwar unterstützt die „Harmonized Structure“ – eine einheitliche Struktur, nach der viele Normen aufgebaut sind – den Gedanken eines IMS. Die konkrete Gestaltung sollte sich jedoch am jeweiligen Prozess ausrichten. In jedem Schritt ist dann zu fragen, welches Managementsystem gerade zu beachten ist, welche Anforderungen ergeben sich daraus, welche Norm ist relevant und welche Dokumentation bietet sich an? Zumal die Komplexität in den Unternehmen hinsichtlich der Prozesse, Schnittstellen und Entscheidungen immer weiter steigt.

Im Idealfall kann man Mehraufwände durch ein IMS reduzieren, was modular und prozessorientiert aufgebaut ist. Ideal wäre, wenn man nur eine Prozesslandkarte hat und nicht zwei, drei oder vier. So lassen sich auch künftige neue Anforderungen leichter andocken. Falls mehrere Regelwerke und Normen angestrebt werden, ist meine dringende Empfehlung – „Schritt für Schritt“. Integrieren Sie nicht alle Normen auf einmal, sondern planen Sie die Integration nach und nach. Meist sind Mitarbeitende mit dem großen Wurf überfordert. Und kommunizieren sie! Binden Sie auch die oberste Leitung bei der Planung ein. Idealerweise unterstützt sie Sie bei der Kommunikation.

Berufsbild Prozessmanager

Wir leben in einer Zeit geprägt von Digitalisierung und Schnelllebigkeit. Umso wichtiger ist es, dass Unternehmen anpassungsfähig sind und auf veränderte Marktbedingungen eingehen können. Eine kontinuierliche Analyse und Optimierung von bestehenden Geschäftsprozessen ist sowohl für die Kosteneffizienz und Wirtschaftlichkeit, aber auch für die Kundenzufriedenheit von zentraler Bedeutung. Prozessmanager sind also gefragte Arbeitskräfte mit guten Zukunftsaussichten.
Antworten auf die wichtigsten Fragen finden Sie in unserem Berufsbild zum Prozessmanager:

  • Welche Aufgaben betreuen Prozessmanager?
  • Wie werde ich Prozessmanager?
  • Welche Weiterbildungsmöglichkeiten gibt es?
  • Was verdient ein Prozessmanager?
  • Welche Rollen gibt es im Prozessmanagement?

Zum Berufsbild Prozessmanager »

Wie sehen die Verantwortlichkeiten für ein IMS typischerweise in der Praxis aus?

Philipp Hörmann: Das hängt stark von der Unternehmensgröße ab. In kleineren Organisationen erhält der Qualitätsmanagementbeauftragte oft den Auftrag, sich beispielsweise auch um Fragen des Umweltschutzes oder der Arbeitssicherheit zu kümmern. Größere Unternehmen können sich dagegen ein Team aus Spezialisten für den jeweiligen Bereich leisten. Die Teamleitung behält als Managementbeauftragter oder Koordinator für IMS den Überblick, ohne dabei fachlich tief in die Spezialgebiete einzusteigen. In dieser Funktion steht er häufig auch in einer direkten Berichtslinie zur Unternehmensleitung. Keine Frage, wer für das IMS zuständig ist, nimmt eine Schlüsselposition ein. Deswegen setzt diese Funktion – über die fachliche Expertise hinaus – ein breites Kompetenzprofil voraus. Apropos Kompetenzen, die notwendigen Kenntnisse zur Integration von Managementsystemen vermittelt übrigens das neue DGQ-Training „Integrierte Managementsysteme“. Die Premiere im Mai ist vielversprechend gestartet und die Rückmeldungen waren durchweg positiv.

Über welche weiteren Kompetenzen sollte ein Managementbeauftragter für IMS denn verfügen?

Philipp Hörmann: Neben den eher fachlich geprägten “Hardskills” sind auch die “Softskills” wichtig. Wie auch schon als Qualitätsmanager ist man in verschiedenen Rollen unterwegs und füllt verschiedene Funktionen aus: Beziehungsmanager, Kommunikator, Motivator, Einbinder, Stratege, Themenmanager, Übersetzer, Sprachrohr, Überzeuger und Durchsetzer. Da die Integration oftmals mit Change-Prozessen verbunden ist, spielt es eine entscheidende Rolle auch die oberste Leitung und die Beteiligten bei der Planung und Umsetzung einzubinden. Hier steckt viel Erfahrung und Prozesswissen dahinter.

Neuer FQS-Band und Online-Tool zur Bewertung und Verbesserung der kollaborativen Produktentwicklung ab sofort verfügbar

FQS, Reifegradmodell, Produktentwicklung

Die heutige Produktentwicklung ist stark geprägt durch kollaborative Entwicklungsprojekte. Die partnerschaftliche Entwicklung von Produkten erfordert eine enge Abstimmung zwischen den beteiligten Unternehmen, insbesondere hinsichtlich der verschiedenen Prozess- und IT-Schnittstellen. Insbesondere für kleine und mittelständische Unternehmen (KMU) stellt das aufgrund begrenzter Ressourcen eine Herausforderung dar. Um eine erfolgreiche Zusammenarbeit in kollaborativen Entwicklungsprojekten zu gewährleisten, müssen Prozesse, Vernetzung sowie die Bereitstellung von Daten und Modell in ihrer Qualität abgesichert sein.

Im FQS-Forschungsprojekt „DIP – Dynamisches Referenzmodell der IT- und Prozessqualität in der digitalen vernetzten Produktentwicklung in KMU“, durchgeführt von der Technischen Universität Berlin (TU Berlin), wurde ein Reifegradmodell entwickelt, das die Qualität der kollaborativen Produktentwicklung ganzheitlich bewertet und Verbesserungsmaßnahmen zur Steigerung und Sicherung insbesondere der Prozess- und IT-Qualität empfiehlt. Das Kollaborations-Reifegradmodell bietet dafür ein leicht anwendbares Assistenzsystem, welches speziell KMU darin unterstützt, eine dynamische Bewertung in Abhängigkeit vom Projektkontext durchzuführen. KMU erhalten dadurch die Möglichkeit, ihre Entwicklungsumgebung in kollaborativen Projekten einfach, schnell und selbstständig zu bewerten und Optimierungspotentiale zu erkennen.

Dr. Christian Kellermann-Langhagen, wissenschaftlicher Geschäftsführer der FQS, erklärt, wie Unternehmen auf die Forschungsergebnisse zugreifen und von ihnen profitieren können:

„Die Ergebnisse des Forschungsprojektes stehen allen interessierten Unternehmen zur Verfügung. In Zusammenarbeit mit der TU Berlin ist ein FQS-Band im Rahmen der FQS-DGQ-Schriftenreihe erschienen, der Unternehmen in der Anwendung und Nutzung der erarbeiteten Ergebnisse unterstützen soll. Darüber hinaus können Unternehmen mithilfe eines zum Projekt entwickelten Online-Tools die Qualität ihrer Zusammenarbeit selbstständig bewerten. Das individuelle Reifegradergebnis kann im Anschluss als PDF-Datei heruntergeladen werden. Neben Analysen zu den unterschiedlichen Bereichen der Entwicklungsumgebung und der Kollaboration erhalten Unternehmen konkrete Handlungsempfehlungen, um so Verbesserungspotentiale zu heben.

Das Thema verfolgen wir in der FQS auch weiterhin: Vor kurzem ist bei uns das Forschungsvorhaben „METIS“ als Folgeprojekt gestartet, das wir ebenfalls mit der TU Berlin umsetzen. Dieses Forschungsprojekt beschäftigt sich mit der Entwicklung einer niederschwelligen Methode zur Analyse und zweckmäßigen Konfiguration von IT-Tool-Stacks für die kollaborative Produktentstehung.“

 

FQS-Band „Reifegradmodell für die kollaborative Produktentwicklung“ – zum Download »

Online-Tool zur selbstständigen Reifegradbewertung – zum Online-Tool »

Weiterführende Informationen zum FQS-Folgeforschungsprojekt METIS »

Crowdworking qualitätssicher im Unternehmen einsetzen: Neues Projektvideo zeigt Ergebnisse des FQS-Forschungsprojekts „QM für Crowdsourcing“

Die Bedeutung von Crowdsourcing ist in den letzten Jahren stark gestiegen. Bei dieser digitalen Form der Arbeitsorganisation lagern Unternehmen bestimmte Aufgaben mittels eines offenen Aufrufs über das Internet aus. Eine Menge potenzieller Internet-User, die sogenannte „Crowd“, übernimmt die Bearbeitung der Aufgaben und reicht Beiträge zu deren Lösung ein.

Das Spektrum der ausgelagerten Tätigkeiten ist dabei breit gefächert: Es umfasst sowohl komplexe, kreative und entwicklerische Tätigkeiten, wie beispielsweise Ideengenerierung, Innovationen und Produktentwicklung als auch zeitaufwändige Tätigkeiten wie das Markieren von Bildern oder das Programmieren von Makros. Der Einsatz von Crowd-basierten Mechanismen ermöglicht Unternehmen einen einfachen und schnellen Zugriff auf externe Experten sowie Arbeitsleistungen „On Demand“ zu nutzen und interne Ressourcen besser auszuschöpfen. Gerade für kleine und mittelständische Unternehmen (KMU) und Start-ups, die nicht für alle Themen über Fachexperten verfügen, hält Crowdworking große Potenziale bereit.

Die Nutzung der digitalen Arbeitsform stellt jedoch häufig noch eine Herausforderung dar. So stellt sich unter anderem die Frage, inwieweit die Qualität der durch die Crowd eingereichten Beiträge den Erwartungen der Unternehmen entsprechen oder die Beiträge der Crowd Fehler enthalten. Im Rahmen des FQS-Forschungsprojektes „QM für Crowdsourcing“ – durchgeführt von den Fachbereichen Qualitäts- und Prozessmanagement und Wirtschaftsinformatik der Universität Kassel – wurde über einen Zeitraum von zwei Jahren unter anderem ein Referenzprozessmodell mit konkreten Handlungsempfehlungen zur Anpassung und Ergänzung des Qualitätsmanagements entwickelt, das insbesondere KMU dabei unterstützen soll, Crowdsourcing und Crowdworking qualitätssicher einzusetzen.

In einem neu veröffentlichten Projektvideo aus der FQS-Videoreihe stellen die beteiligten Fachbereiche der Universität Kassel die Forschungsarbeiten vor und zeigen, wie Unternehmen von den vorgestellten Lösungen profitieren können. Ergänzt werden die Einblicke durch eine Praxisstimme des am Projekt beteiligten Industriepartners InTec automation GmbH:

QM für Crowdsourcing, FQS, Universität Kassel,

Videoreihe der FQS – Forschungsgemeinschaft Qualität e. V.

Das Projektvideo „QM für Crowdsourcing“ ist Teil einer neuen Videoreihe der FQS – Forschungsgemeinschaft Qualität e.V., die die Arbeit und Themen der FQS als Forschungsarm der DGQ vorstellt und Einblicke in aktuelle Forschungsprojekte gibt. Zur Videoreihe »

 

Möchten Sie mehr zum Thema QM für Crowdsourcing erfahren?

Im nächsten mitgliederexklusiven Chili con Q-Webinar am 29. Juni 2023 von 15:00 bis 16:00 haben Sie die Gelegenheit, das Forschungsprojekt näher kennenzulernen. Sie erfahren:

  • Was es mit den Konzepten Crowdworking und Crowdsourcing auf sich hat
  • Welche Vorteile und Herausforderungen dieser Ansatz mit sich bringt
  • Wie Sie Crowdworking qualitätssicher in Ihrem Unternehmen einsetzen können

Noch kein DGQ-Mitglied? Dann testen Sie jetzt 3 Monate beitragsfrei die DGQ-Schnuppermitgliedschaft und seien Sie beim Webinar am 29. Juni 2023 von 15:00 bis 16:00 Uhr dabei!
Jetzt anmelden »

 

Weitere Informationen zum Projekt und Kontakt:

Zur Projektwebseite „QM für Crowdsourcing“ »

FQS – Forschungsgemeinschaft Qualität e. V.
August-Schanz-Straße 21A
60433 Frankfurt am Main
infofqs@dgq.de

Das Audit – kurz und kompakt erklärt

Audit, Leitfaden

Audit – was ist das?

Ein Audit im weiteren Sinne bedeutet, eine objektive Analyse zur Verbesserung der Betriebsorganisation systematisch durchzuführen. Mittels Interviews, Beobachtung und Einsichtnahme wird geprüft, ob ein Unternehmen geltende Vorschriften, Gesetze oder Bestimmungen einhält. Als Grundlage dienen zumeist ISO-Normen – zum Beispiel zu Managementsystemen für Qualität, Umwelt, Energie oder zu Branchenspezifika. Informationen aus dem Audit helfen Führungskräften und Abteilungsleitern, solide Entscheidung zu treffen. Dies bietet die Chance für kontinuierliche Verbesserungen der Betriebsorganisation und der Realisierung von Unternehmenszielen.

Warum braucht man ein Audit?

Zwischen einem Qualitätsziel und dem gewünschten Ergebnis steht eine eigene Ablauforganisation. Ein Unternehmen kann in diesem Fall die ISO 9001 für Qualitätsmanagementsysteme oder auch eigene Vorgaben anwenden. Ziel ist es, Betriebsblindheit im Sinne von „Das war schon immer so“ zu überwinden und Handlungsbedarf abzuleiten beziehungsweise den Sinn lange bestehender Vereinbarungen objektiv zu bestätigen oder zu hinterfragen. Gleichzeitig wird durch ein Audit die notwendige Kommunikation gefördert, um organisatorische Verbesserungen umsetzen zu können.

Dabei geht es nicht darum, sämtliche Arbeitsabläufe aus Prinzip regelmäßig zu verändern, sondern auch von bewährten und effizienten Arbeitsweisen zu lernen. Überflüssige Reibungsverluste, Risiken und Fehler können im Rahmen eines Audits erkannt und künftig vermieden werden. Auf der anderen Seite sollten Audits auch immer Stärken und Potenziale einer Organisation identifizieren. Somit erhalten Führungskräfte Informationen, um daraus solide Entscheidungen und Prozessgestaltungen abzuleiten.

Wertvolle Unterstützung zur Erreichung von Unternehmenszielen leisten Audits bei den folgenden Aufgaben:

  • Potenziale zur Optimierung von Prozessen und Arbeitsweisen ermitteln
  • Ein Managementsystem, zum Beispiel für Qualität, Umwelt, Energie, Informationssicherheit, Daten- oder Arbeitsschutz, nach international anerkannten ISO-Standards einführen und weiterentwickeln
  • Eine Einführung oder die Einhaltung einer neuen Vorgabe bewerten
  • Eine Änderung von Abläufen auf ihre Umsetzung in der Praxis prüfen
  • Chancen und Risiken ermitteln
  • Die Auswirkungen von Veränderungen bei Prozessen, Produkten, Standorten und Rahmenbedingungen auf die betriebliche Praxis verfolgen

Wo und wie werden Audits eingesetzt?

Audits können auf verschiedene Weise durchgeführt werden. Die Verbesserung interner Prozesse nennt sich „Internes Audit“ oder 1st party Audit. Hierbei wird die Betriebsorganisation unter die Lupe genommen und bestehende Abläufe hinterfragt. Im Fokus steht dabei, wie man erfolgreich zum Nutzen von Kunden und Unternehmen zusammenarbeiten kann. Ein internes Audit ist daher ein wichtiges Instrument, um interne Kommunikation zu fördern und Verbesserungspotenziale herauszuarbeiten.

Internes Audit

 

In einigen Branchen, wie zum Beispiel der Automobilindustrie, der chemischen Industrie oder der Herstellung von Medizinprodukten ist es üblich, dass B2B-Kunden ihre Lieferanten auditieren. Mithilfe von Lieferantenaudits, auch 2nd party Audits genannt, möchten sich die Abnehmer selbst von der Leistungsfähigkeit der Organisation ihres Lieferanten überzeugen. In einigen Wirtschaftszweigen werden auch nachgelagerte Kundenaudits durchgeführt, um deren Bedarf zu ermitteln.

Lieferantenaudit

 

Um in einer globalisierten und zunehmend schnelllebigen Welt Vertrauen zu schaffen, möchten viele Unternehmen in der Öffentlichkeit und auch den Kunden gegenüber ein Managementsystem nach internationalen Standards vorweisen. Sie lassen sich dazu von einem unabhängigen Zertifizierungsunternehmen prüfen. Das externe Audit oder auch 3rd party Audit ist eine stichproben-basierte Begutachtung. In der Regel wird die Erfüllung der Anforderungen bestimmter Normen, wie der ISO 9001 für das Qualitätsmanagement überprüft. Für die Auditierung dieser Standards existieren kompetente und seriöse Zertifizierungsunternehmen, die eigens dafür akkreditiert sind.

Externes Audit

Die Planung des einzelnen Audits

Auditziel – wozu trägt das Audit bei

Ein Auditziel strategischer Art kann sein, zu prüfen, ob ein neuer Kunde oder eine neue Branche mit den bestehenden Prozessen bedient werden kann.  Ein Auditziel auf der operativen Ebene kann sein, die tatsächliche Umsetzung eines neuen qualitätssichernden Arbeitsablaufs zu prüfen.

Auditkriterien – welche Vorgaben oder Wünsche sollen erfüllt werden?

Auditkriterien sind je nach Auditziel: ISO-Normen für Managementsysteme aller Art, interne Arbeitsanweisungen, Kundenanforderungen, Leistungsindikatoren, Projektauftrag, Gesetze und Vorschriften, Leitfäden oder andere Unternehmensziele und Perspektiven.

Auditart – welcher Bereich wird bei 1st, 2nd oder 3rd party betrachtet?

  • Beim Managementsystemaudit werden Stichproben zur Normerfüllung quer durch alle Prozesse und Organisationseinheiten genommen. Die Unternehmenszentrale ist immer dabei.
  • Das Prozessaudit nimmt Stichproben in einem oder mehreren Prozessen und in den jeweils zuständigen Organisationseinheiten.
  • Das Produktaudit beurteilt sowohl die erreichte Produktqualität als auch den Weg dorthin. Gleiches gilt für ein Dienstleistungsaudit.
  • Das Performance-Audit untersucht eine bestimmte Leistungserbringung.
  • Das Projekt-Audit hilft, Projektfortschritte und Meilensteine zu beurteilen.
  • Das Compliance-Audit prüft, ob rechtliche oder behördliche Vorschriften und ihre organisatorischen Handlungspflichten in den betroffenen Prozessen eingehalten werden.

Auditorganisation – wie erreicht das Audit am besten sein Ziel?

Zum richtigen Zeitpunkt am richtigen Ort zu sein gilt auch für Audits. Zeitlich muss zum Beispiel berücksichtigt werden, ab wann eine Veränderung in der Ablauforganisation in der Praxis sinnvoll geprüft werden kann. Je nachdem, wie sich eine aussagekräftige Stichprobe zum Auditziel gestaltet, sind Standorte, Bereiche und zu befragende Personen festzulegen.

Die Auditmethode beinhaltet zumeist einen Mix aus Dokumentensichtung, Ortsbegehung, Beobachtung und Befragung. Es können Umfragen initiiert werden, Einzel- oder Gruppengespräche stattfinden. Wichtig ist, die richtigen Personen zum Thema zu befragen und fragen zu lassen. Sie benötigen teils Fachwissen, teils den Überblick über den auditierten Bereich.

Die Kompetenz der Auditoren ist eine ebenso wichtige Voraussetzung für ein gelungenes Audit wie die Kooperation der daran Beteiligten.

Hybride Varianten des Audits

Neben der Durchführung von Audits in Präsenzform bietet die Digitalisierung eine Möglichkeit, Audits durchzuführen, ohne physisch anwesend zu sein. Auch hybride Varianten der Begutachtung von Prozessen werden in der Unternehmenspraxis immer relevanter. Es gibt unterschiedliche Möglichkeiten, diese Remote-Auditmethoden anzuwenden. Dank des heutigen Stands der Technik lassen sich alle Auditstufen auf diese Weise abbilden. Nachfolgend finden Sie eine kurze Erläuterung der möglichen Ausgestaltungen:

Fully Remote Audit

Alle Auditierenden sind nicht am Ort des Geschehens, sondern entweder im Homeoffice, arbeiten mobil oder sind in der Zentrale einer Organisation und auditieren einen anderen Standort. Geeignet sind vollständige Remote Audits grundsätzlich für Organisationen aller Größen in allen Wirtschaftssektoren. Die Einsparpotenziale bezüglich Reisekosten und -zeiten kommen in diesem Format vollständig und umfänglich zur Geltung.

Partly Remote Audit

Partly Remote beschreibt eine Mischform, bei dem das Audit nur teilweise vor Ort stattfindet und/oder beispielsweise Auditierender und Co-Auditierender von unterschiedlichen Orten aus auditieren.

Remote System Analysis, Remote Readiness Checks

Hierbei handelt es sich um Audits, die Ihren Schwerpunkt bei der Betrachtung, Analyse und Bewertung von Dokumenten haben. Dies sind Prozesse, Verfahren, Anweisungen, Leitlinien und Strategien – im weitesten Sinne also Vorgabedokumente.

Remote Follow-up

Ein weiteres, grundsätzlich gut als Remote Audit durchführbares Themenfeld sind Schließungen von Abweichungen aus zurückliegenden Audits beziehungsweise auch die darin eingebettete Bewertung der Wirksamkeit einer Maßnahme. Überall dort, wo keine persönliche Inaugenscheinnahme notwendig ist, kann dies als Fernbewertung absolviert werden.

E-Learning: Remote Audit

Sie möchten Ihr Wissen zu diesem spannenden Zukunftsthema weiter vertiefen? Dann buchen Sie gerne unser E-Learning zum Remote Audit und lernen das wichtigste Handwerkszeug, um Remote Audits im Alltag umzusetzen. Hier geht es zum E-Learning.

(mehr …)

DGQ-Fachkreis-Veröffentlichung zu Remote Audits findet Eingang in internationale Normung

Die DGQ treibt das Thema Remote Audits auf internationaler Ebene voran: Ein kürzlich veröffentlichtes Impulspapier des DGQ-Fachkreises Audit und Assessment hat direkten Eingang in ein aktuelles Normungsvorhaben der Internationalen Organisation für Normung (ISO) gefunden. Das Papier mit dem Titel „Das Remote Audit als zukunftsweisende Methodik für risikobasierte Audits“, das einen fachlichen Überblick über die wichtigsten Rahmenbedingungen für erfolgreich durchgeführte „Audits aus der Ferne“ enthält, dient in englischer Sprache dem ISO-CASCO-Ausschuss bei dessen Normungsvorhaben ISO 17012 als Orientierung. Ziel ist ein Leitfaden für die Durchführung von Remote Audits.

Die DGQ ist gleich in mehrfacher Weise an der Entstehung der ISO 17012 beteiligt: Ihre Vertreter, Thomas Votsmeier, Leitung Normung bei der DGQ, sowie Matthias Wernicke, Leiter des DGQ-Fachkreises Audit und Assessment, wirken zudem sowohl im entsprechenden DIN-Normungsausschuss als auch direkt in der Arbeitsgruppe WG 61 mit.

Hintergrund: Methoden zur Fernbewertung

Fernmethoden werden bereits seit mehreren Jahren für die Auditierung virtueller Tätigkeiten eingesetzt, haben im Zuge der Corona-Pandemie jedoch an Bedeutung gewonnen. Neben dem Vorteil der ortsunabhängigen Bewertung bietet das Remote Audit auch das Potenzial, Ressourcen in Form von Personal- und Reisekosten einzusparen. Umgekehrt erfordert die Durchführung von Remote Audits auch eine umfassende Vorausplanung bezüglich Themen wie Vertraulichkeit, Datensicherheit, Infrastruktur oder der Verfügbarkeit technischer Ressourcen.

Das Normungsvorhaben ISO 17012 war im Herbst vergangenen Jahres gestartet. Interessierte finden das Impulspapier des Fachkreises hier.

 

8. Norddeutscher Qualitätstag thematisiert Rolle und Praxis des QM in Unternehmen

Norddeutscher Qualitätstag, NQT

Am 21. Juni 2023 lädt die DGQ wieder alle Qualitätsinteressierten zum Norddeutschen Qualitätstag nach Hamburg. Bei dieser Hybridveranstaltung ist eine Teilnahme sowohl in Präsenz als auch online möglich.

In einleitenden Keynotes thematisieren hochkarätige Referenten aus unterschiedlichen Perspektiven den Stellenwert des Qualitätsmanagements in Organisationen und die damit verbundene eigene Rolle. Stefanie Hirsch, President Quality & Regulatory Affairs bei der Drägerwerk AG in Lübeck, gibt praxisnahe Einblicke, wie Qualitätskommunikation im Unternehmen gelingen kann. Jens Portmann, Geschäftsführer der renommierten Hamburger Kommunikationsagentur „Zum goldenen Hirschen”, zeigt, wie Kreativität bei unternehmerischen Herausforderungen hilft – und ungewöhnliche, aber dadurch oft bessere Lösungen liefert.

Aus der Praxis für die Praxis

Neben den beiden spannenden Vorträgen erwartet die Teilnehmerinnen und Teilnehmer des 8. Norddeutschen Qualitätstages ein umfangreiches Workshop-Programm mit konkreten Beispielen aus der Praxis rund um das Prozess- und Qualitätsmanagement. Partner der Veranstaltung sind neben der Deutschen Gesellschaft für Qualität e.V. (DGQ) die ConSense GmbH, die Deutsche Gesellschaft zur Zertifizierung von Managementsystemen (DQS) sowie die Fachzeitschrift QZ Qualität und Zuverlässigkeit.

Die praktische Umsetzung und der direkte Austausch stehen im Mittelpunkt des Workshop-Angebots am Nachmittag. Suchen Sie sich das Thema aus, dass Sie am meisten interessiert:

Online und vor Ort

  • Warum das Qualitätsmanagement den entscheidenden Beitrag für Unternehmenserfolg leisten wird
    Sören Hagge und Dennis Larrabe von Robin Consulting
  • Lasst uns gemeinsam Prozesse neu denken
    Mirko Kloppenburg, Gründer, NewProcessLab.com

Ausschließlich vor Ort, nicht online

  • Liefersorgfaltspflichtengesetz: Lieferantenmanagement einführen
    Altan Dayankac, Global Program Manager EMS, OHS, EnMS & Sustainability Corporate Management System, DQS
  • Effiziente Managementreviews: Wie begeistern wir unsere Geschäftsleitung?
    Michael Weubel, Senior Consultant, ConSense GmbH
  • Agil auditieren
    Pasqual Jahns, Global Director Process Management, Symrise AG gemeinsam mit dem DGQ-Fachkreis Audit und Assessment (Marita Großer und Mike Voß)
  • Mit Introvision lösen Sie Ihre Stressprobleme
    Dr. Klaus Köpnick, Ingenieur, promovierter Arbeits- und Organisationspsychologe und Coach

Das vollständige Programm ist ebenfalls verfügbar zum Download »

 

Der 8. Norddeutsche Qualitätstag bietet damit eine einzigartige Möglichkeit zum Wissensaustausch und Networking für Fach- und Führungskräfte im Qualitätsmanagement.

Wir freuen uns, wenn Sie mit dabei sind!

 

Informationen zur Anmeldung

Wann: Mittwoch, 21. Juni 2023, von 10:00 Uhr bis 16:00 Uhr
Wo: FOM Hochschulzentrum, Schäferkampsallee 16a, 20357 Hamburg oder online
Kosten:
Online-Teilnahme: 49,- € zzgl. MwSt. (29,- € zzgl. MwSt. für DGQ-Mitglieder)
Präsenz-Teilnahme: 99,- € zzgl. MwSt. (69,- € zzgl. MwSt. für DGQ-Mitglieder)

Zur Anmeldung »

Zum Programm (PDF-Download) »

 

Als DGQ-Mitglied können Sie – sowohl online als auch in Präsenz – zum reduzierten Kostenbeitrag teilnehmen. Sie sind noch kein Mitglied? Dann nutzen Sie doch für die Anmeldung unsere beitragsfreie, dreimonatige Schnuppermitgliedschaft.

Haben Sie Fragen? Nehmen Sie gern Kontakt mit uns in der DGQ-Geschäftsstelle Hamburg auf! Einfach per E-Mail an hamburg@dgq.de oder telefonisch unter 040 28533531-452. Bei allen organisatorischen Fragen und Rückfragen zur Anmeldung hilft Ihnen auch unser Veranstaltungspartner ConSense GmbH (events@consense-gmbh.de, 0241 990 93 93 0) weiter.

2. Süddeutscher Qualitätstag am Fraunhofer IPA in Stuttgart

2. Süddeutscher Qualitätstag, SQT

Nach dem erfolgreichen Start des 1. Süddeutschen Qualitätstag am Fraunhofer IPA in Kooperation mit der DGQ im vergangenen Jahr wird das Format fortgesetzt. Der 2. Süddeutsche Qualitätstag am 30. Juni 2023 ist die perfekte Gelegenheit für alle, die ihre Kenntnisse im Bereich des Qualitätsmanagements erweitern möchten.

Erleben Sie spannende Vorträge von renommierten Experten und diskutieren Sie die neuesten Trends und Entwicklungen mit anderen Teilnehmern. Die Eröffnung des 2. Süddeutschen Qualitätstags erfolgt unter anderem durch Michael Burghartz-Widmann, Vorstandsmitglied der DGQ. Ein weiteres Highlight ist die Keynote von Peter Brandl. In seinem Vortrag “Remove Before Flight, Fehlerkultur und lernende Organisation” zeigt er auf, wie Unternehmen den Wandel aktiv gestalten können. Erfahren Sie darüber hinaus in Vorträgen aus Forschung und Praxis, welche Trends sich im Qualitätsmanagement abzeichnen, welche Instrumente Firmen erfolgreich einsetzen und welche Standards neu betrachtet werden sollten.

Fachvorträge zu aktuellen Themen im Qualitätsmanagement

Nach der einleitenden Keynote erwartet die Teilnehmerinnen und Teilnehmer ein umfassendes Vortragsprogramm, mit aktuellen Themen und Trends aus dem Bereich Qualitätsmanagement. Freuen Sie sich auf den praktischen Austausch mit zahlreichen Expertinnen und Experten und profitieren Sie von den Erfahrungen.

Vortragsprogramm des 2. Süddeutschen Qualitätstags

  • Prozessgestaltung mit ChatGPT
    Jörg Nienaber, Geschäftsführer N5 GmbH
  • FMEA nachhaltig im Unternehmen verankern – Risikoanalysen bei der ANDREAS STIHL AG & Co. KG
    Jürgen Ruff, ANDREAS STIHL AG & Co. KG & Dr. Alexander Schloske, Fraunhofer-Institut für Produktionstechnik und Automatisierung, IPA
  • Basis-Werkzeuge des Qualitätsmanagements erfolgreich einsetzen (7 QM-Tools, 7 Management-Werkzeuge)
    Andreas Aichele, Fraunhofer-Institut für Produktionstechnik und Automatisierung, IPA
  • Zukunft nachhaltig gestalten, statt Krisen verwalten
    Dipl.-Kff. Gabriela Zimmermann, ipu – fit for success & Prof. Dr. jur. Josef Scherer, Technische Hochschule Deggendorf
  • Qualität kommt von Qualifizierung! Unser Unternehmen als starker Partner der Industrie
    Petar Racic & Klaus Stähle, Berufsförderungswerk Schömberg gGmbH
  • Managementsystem NEXT LEVEL – Ownership und Zertifikat als logische Konsequenz
    Jan Lauterbach & Tarik Erkan, Continental AG – Group Sector ContiTech MFS

 

Der 2. Süddeutsche Qualitätstag bietet damit eine einzigartige Möglichkeit zum Wissensaustausch und Networking für Fach- und Führungskräfte im Qualitätsmanagement.

Wir freuen uns, wenn Sie mit dabei sind!

 

Informationen zur Anmeldung

Wann: Freitag, 30. Juni 2023, von 10:00 Uhr bis 17:00 Uhr
Wo: Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA, Nobelstr. 12/13, 70569 Stuttgart
Kosten: Präsenz-Teilnahme: 99,- € zzgl. MwSt. (79,- € zzgl. MwSt. für DGQ-Mitglieder)

Zur Anmeldung

 

Als DGQ-Mitglied können Sie zum reduzierten Kostenbeitrag teilnehmen. Sie sind noch kein Mitglied? Dann nutzen Sie doch für die Anmeldung unsere beitragsfreie, dreimonatige Schnuppermitgliedschaft.

Haben Sie Fragen? Nehmen Sie gern Kontakt mit uns in der DGQ-Geschäftsstelle Stuttgart auf! Einfach per E-Mail an stuttgart@dgq.de oder telefonisch unter 0711- 95 611 61. Bei allen organisatorischen Fragen und Rückfragen zur Anmeldung hilft Ihnen auch unser Kooperationspartner des Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA (event@ipa.fraunhofer.de, 0711 970-1908) weiter.

Informationssicherheit und die Norm ISO/IEC 27001 – ein Blick auf die Normentwicklung und branchenspezifische Standards

Informationssicherheit, ISO/IEC 27001

Ein Blick zurück auf die Entwicklung der Informationssicherheit zeigt: Das Thema „Sicherheit“ im Sinne des Schutzes von Informationen oder Daten ist grundsätzlich nicht neu. Es ist jedoch traditionell stark mit dem Vorhandensein physischer Informationsträger – also technischer Geräte, Patente, Prototypen, Pläne, Aktenordner, Verträge – verbunden. Mit der Digitalisierung hat die Herausforderung dann eine neue Dimension erreicht. Im Fokus stehen damals wie heute die zentralen Schutzziele Verfügbarkeit, Vertraulichkeit und Integrität.

Bereits im vordigitalen Zeitalter bestand die Frage, was auf Basis der Schutzwürdigkeit (Abwägung des schutzwürdigen Werts gegenüber Sicherheitsrisiken) letztlich wie zu schützen ist. Vergitterte Türen, ein Schloss an einer Tür, massive Wände, abschließbare Aktenschränke, Zutrittskontrollen bis hin zu begehbaren Tresoren im Keller von Banken mit Schließfächern für Dokumente etc. waren die Folge des Schutzbedarfes.

Mit dem Aufkommen der Informationstechnik und dem Vorhandensein portabler Speichermedien boten sich für Kriminelle völlig neue Optionen, wichtige Informationen stehlen zu können. Nun konnten Wechselfestplatten, Floppy Disks etc. mit einem – im Vergleich zu papiergebundenen Ordnern – Vielfachen an Daten beschrieben sein und dennoch problemlos physisch aus den Unternehmen herausgetragen werden. Die nachfolgende Vernetzung ermöglichte Datenübertragungen und eröffnete wiederum neuen Spielraum. Noch kritischer wurde die Sicherheitslage im Zeitalter des Internets mit dessen weltweiten Verfügbarkeit, in dem alles mit allem vernetzt sein kann. Auch hier ergibt sich die Möglichkeit des „Einbruchs“ und Viren, Trojaner oder Ransomware finden Zugang über E-Mails. Zudem gibt es Smartphones, die per Mobilfunk Fotos und Filme in Sekundenschnelle ablichten und verteilen können. Tragbare kleine USB-Speicher mit Terabytes von Daten auf der Größe einer Streichholzschachtel ergänzen die Vielfalt an Optionen.

Von der Informationssicherheit zur Cybersicherheit

Natürlich wurde die Sicherheit in der Informationstechnik schon länger in der Forschung thematisiert, von Herstellern gefördert, an Hochschulen gelehrt und hat sich entsprechend weiterentwickelt. Gleichwohl ist die Entwicklung der Technologie so dynamisch, dass man den Eindruck hat, dass die Sicherheit immer ein bisschen hinterherläuft. Das gilt insbesondere, wenn bei neuen Features die Frage der Priorität gestellt wird: Was ist wichtiger, Funktion oder Sicherheit?

Wir dürfen nicht vergessen, dass das Internet sich von militärischen Wurzeln in den 1960er Jahren hin zu einer akademischen Welt mit Forschergeist und freiem Wissenstransfer bewegt hat. Die heutige Qualitäts- und Kommerzialisierungsstufe stellt einen Quantensprung gegenüber den Anfängen dar. Für manchen Regierungsvertreter war das Ganze dennoch im Jahr 2013 noch „Neuland“. Auch in den nationalen und internationalen Regulierungsstellen tat man sich angesichts der Dynamik schwer – oder versäumte es gar, für mehr Sicherheit zu sorgen.

Der Informationssicherheit in Form der klassischen „Sicherheit“ von physikalischen Aspekten gesellte sich die Cybersicherheit hinzu, die sich um den Schutz von digitalisierter Information kümmert und somit den Begriff erweitert hat. Allerdings sind die zentralen Schutzziele Verfügbarkeit, Vertraulichkeit und Integrität nach wie vor unverändert, unabhängig davon, ob es sich um papiergebundene Verträge, Daten auf einem Firmenserver im Rechenzentrum oder in der externen Cloud handelt. Der Zugriff auf diese sollte beschränkt und kontrolliert sein. Nur autorisierte Benutzer oder Programme dürfen auf die Information zugreifen, die Prinzipien des „need to know“ sind überall anzuwenden. Denn die Bedrohung kommt nicht nur von außen, auch der Schutz vor einem möglicherweise internen, kriminellen Kollegen ist zu bedenken.

Normentwicklung in der Informationssicherheit

Betrachtet man die Entwicklung gesamtheitlich anhand der Kondratieff-Zyklen, die einen wellenförmigen Verlauf der Wirtschaft beschreiben, befinden wir uns seit den 1950er Jahren im „fünften Kondratieff“. Seine Antriebsenergie kam aus der computerbasierten Informationstechnik. Mit ständig zunehmender Geschwindigkeit durchdrang die Informationstechnik sowohl Produkte als auch alle Bereiche der Gesellschaft und verwandelte die Welt in eine Informationsgesellschaft. Diese Technologie und deren Anwendung entwickelt sich weiter, wodurch auch eine Weiterentwicklung der Informationssicherheitsnorm ISO/IEC 27001 notwendig wurde.

Doch blicken wir erst einmal zurück: Der Vorläufer des Standards, in dem die heutigen Anforderungen an Informationssicherheitsmanagementsysteme geregelt sind, erschien Ende der 1980er Jahre in Großbritannien als Veröffentlichung des Departement of Trade and Industry. Er enthielt Bewertungsrahmen für Sicherheitsprodukte und ein darauf basierendes Evaluierungs- und Zertifizierungsschema, zudem eine „Code of good security practice“. Diese Publikation wurde weiterentwickelt und 1995 vom „British Standard Institute“ als nationale Norm BS 7799 veröffentlicht. Später ging diese in der internationalen ISO/IEC 17799:2000 auf, die einen Leitfaden für die Implementierung eines Informationssicherheitsmanagementsystems darstellt. Über weitere Verbesserungen, Harmonisierungen und Aktualisierungen gelangte die Norm schließlich in den Kanon der ISO/IEC 27000er Familie und ist heute als ISO/IEC 27001:2022 die wichtigste internationale, anerkannte und zertifizierbare Norm für Informationssicherheit. Im weitgehenden Konsens der Fachleute ist die ISO/IEC 27001 ein angemessener und umfassender Ansatz, um die Ziele der Sicherheit zu unterstützen und greifbarer zu machen.

Branchenspezifische Normen in der Informationssicherheit

Im Bereich der Informationssicherheit gibt es neben der ISO/IEC-27000er-Reihe auch branchenspezifische Normen, auf die im Rahmen einer Auswahl hier näher eingegangen werden soll. Hervorzuheben sei hier zudem die Verbindung zwischen Informationssicherheit und Cybersicherheit. Cybersicherheit dient konkret dem Schutz von digitalen Systemen, Netzwerken und Daten vor böswilligen Angriffen oder anderen Risiken. Informationssicherheit ist der Oberbegriff, da sowohl physische Informationen und Infrastruktur als auch digitalisierte Informationen betrachtet werden. Die Ziele der Cybersicherheit sind identisch mit denen in der Informationssicherheit (Verfügbarkeit, Vertraulichkeit, Integrität) und unabhängig davon, ob Daten auf privaten Devices wie Smartphone oder Laptop gespeichert oder in einer Cloud bzw. bei einem genutzten Service hinterlegt sind.

Automotive

Für die Automotive-Branche kann der „TISAX®“-Standard herangezogen werden. Er baut auf der ISO/IEC 27001 auf und ergänzt die Norm mit Branchenspezifika wie zum Beispiel den Aspekten Lieferketten und Prototypensicherheit.

Nicht unerwähnt bleiben sollte zudem die ISO/IEC/SAE 21434 „Road vehicles – Cybersecurity engineering“. Die Norm behandelt das Thema Cyber-Security in Kraftfahrzeugen und gilt für Komponenten (elektronische Bauteile und Software), sie umfasst die Phasen der Entwicklung, Produktion, Betrieb, Wartung und Recycling im Lebenszyklus eines Fahrzeuges. Aufgrund der zunehmenden Risiken durch Cyber-Angriffe auf Fahrzeuge soll die Norm Maßnahmen für die Entwicklung vorschlagen. Das wird unter anderem deshalb immer wichtiger, weil die digitale Infrastruktur im Hinblick auf Online-Updates von Fahrzeugen (OTA), das Flottenmanagement und die Kommunikation zwischen Fahrzeugen (Car2x/V2X) neue Angriffsflächen bietet. Die Anwendung der Norm ist wichtig im Rahmen der umfangreichen Zulassungsverfahren für Typgenehmigungen.

Medizin

Mit Blick auf die Medizin ist unter anderem die ISO 27799 relevant. Sie adressiert die Medizinische Informatik und spezifiziert die Anforderungen an ein Informationssicherheits-Managementsystem im Gesundheitswesen unter Anwendung der ISO/IEC 27002.

Kritische Infrastrukturen (Energieversorgung, Telekommunikation)

Für die Sicherheit Kritischer Infrastrukturen (KRITIS) wie Energie- und Wasserversorgung oder auch Telekommunikation kommen gesetzliche Rahmenwerke (z. B. IT-SiG 2.0, BSIG, BSI-KritisV) zum Einsatz. Sie definieren Anlagen, Betriebsstätten und weitere ortsfeste Einrichtungen sowie Maschinen, Geräte und sonstige ortsveränderliche Einrichtungen, außerdem Software und IT-Dienste, die für die Erbringung einer kritischen Dienstleistung notwendig sind. In Deutschland existiert mit dem IT-Sicherheitsgesetz bereits seit Juli 2015 ein einheitlicher Rechtsrahmen für die Zusammenarbeit von Staat und Unternehmen, um die Cyber-Sicherheit bei den Kritischen Infrastrukturen zu erhöhen. Dieser schreibt KRITIS-Betreibern vor, IT-Sicherheit nach dem “Stand der Technik” umzusetzen. Weitere Dynamik bekommt das Thema aus der europäischen Richtlinie zur Netz- und Informationssicherheit (NIS-Richtlinie), die im August 2016 in Kraft getreten ist. Diese definiert Maßnahmen zur Gewährleistung eines hohen gemeinsamen Sicherheitsniveaus von Netz- und Informationssystemen in der europäischen Union.

Über dieses Ziel hinaus geht die neue EU-Richtlinie vom November 2022 mit der Bezeichnung „NIS 2“. Diese wird die derzeit geltende NIS-Richtlinie ersetzen und legt für Unternehmen ab einer definierten Größenordnung Berichtspflichten und Standards fest, beispielsweise zu getroffenen Cybersicherheitsmaßnahmen. Vor allem erweitert sie die zuvor engere Definition (z. B. Energie, Wasser) auf weitere Sektoren. So sind nunmehr 18 Zielbranchen genannt: Die Lebensmittelbranche, IT-Unternehmen, Hersteller von Chemikalien, Maschinen und Fahrzeugen sind dann ebenfalls betroffen. In Branchenkreisen wird das neue Gesetz auch als Quantensprung gesehen, da von bis zu 40.000 Unternehmen ausgegangen wird, die Cybersecurity-Maßnahmen ergreifen müssen, was als echter Fortschritt auf breiter Front zu sehen ist. Auch der Rahmen für Strafzahlungen wurde signifikant angehoben – auf das Niveau der europäischen Datenschutz-Regulierung EU-DSGVO. Bußgelder belaufen sich auf bis zu 10 Millionen Euro beziehungsweise 2 Prozent des globalen Jahresumsatzes.

Finanz- und Bankwesen

Als weiterer Branchenstandard können die im Finanzbereich üblichen „Bankaufsichtlichen Anforderungen an die IT“ (BAIT, analog VAIT, die versicherungsaufsichtlichen Anforderungen an die IT) der Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) gelten, die sich primär an die Finanzbranche richten. Sie sollen die Erwartungshaltung der Aufsicht in Bezug auf die IT-Sicherheit transparent machen. Speziell die große Finanzbranche mit Banken, Versicherungen, Maklern, Fondsgesellschaften usw. hat darüber hinaus noch eine weitere Neuerung umzusetzen: Die neue Verordnung der EU, der „Digital Operational Resilience Act“ (DORA), ist ein Gesetzesvorschlag, der darauf zielt, die Widerstandsfähigkeit im Finanzsektor gegen betriebliche Störungen auf der IT-Ebene zu verbessern. Dabei geht es sowohl um gezielte Angriffe als auch um eine Reihe anderer, nicht böswillig verursachter, schwerwiegender IT-Probleme. So müssen Unternehmen in Zukunft beispielsweise auch Risiken durch Leistungen von Drittanbietern in ihren Analysen berücksichtigen, etwa solche von Cloud-Dienstleistern.

 

In unserer Blogreihe befassen wir uns mit verschiedenen Aspekten der Informationssicherheit sowie der Zertifizierung nach der Norm ISO/IEC 27001. Verstehen Sie die Notwendigkeit der Normanpassung und den Weg hin zur Zertifizierung. Zur Blogreihe »

 

Über den Autor:
Klaus Kilvinger ist Geschäftsführender Gesellschafter der Opexa Advisory GmbH, einer auf die Themen Digitalisierung, Cyber- und Informationssicherheit, sowie deren Integration in Geschäftsprozesse spezialisiertes Beratungsunternehmen mit Hauptsitz in München. Er ist seit über 30 Jahren in der IT-Branche aktiv und verfügt über ein breites anwendungsbezogenes Erfahrungswissen, verfügt ferner über umfassende Kenntnisse und Erfahrungen im IT-Projektgeschäft sowie Fachwissen in der Software-Qualitätssicherung. Die Informationssicherheit im nationalen und internationalen Umfeld ist sein Zuhause. Als zertifizierter IT-Security Manager, IT-Security Beauftragter sowie Datenschutzbeauftragter verfügt er über breite Branchenkenntnisse, über die Fertigungs-, Automobilindustrie, den öffentlichen Sektor bis hin zur Wirtschaftsprüfung.

DGQ-Präsident Prof. Dr. Robert Schmitt verstärkt QI-Digital-Beirat

Die nationale Qualitätsinitiative QI-Digital hat DGQ-Präsident Prof. Dr. Robert Schmitt in ihren Beirat berufen. Damit setzt sich die DGQ gemeinsam mit weiteren namhaften Akteuren der deutschen Qualitätsinfrastruktur (QI) dafür ein, die QI in der digitalen Transformation aktiv weiterzuentwickeln. Aufgabe des Beirats ist es, die Initiative bei diesem Vorhaben zu beraten und zu unterstützen. Neben Expert:innen aus Unternehmen und Verbänden besteht das Gremium unter anderem aus Vertreter:innen aus Forschungseinrichtungen und Behörden.

2021 haben die Bundesanstalt für Materialforschung und -prüfung (BAM), die Deutsche Akkreditierungsstelle (DAkkS), das Deutsche Institut für Normung (DIN), die Deutsche Kommission Elektrotechnik Elektronik Informationstechnik (DKE) und die Physikalisch-Technische Bundesanstalt (PTB) das Kooperationsprojekt „Initiative QI-Digital“ ins Leben gerufen. Das Ziel: Gemeinsame Lösungen für eine moderne und digitale QI vorantreiben. Zudem unterstützt das Bundesministerium für Wirtschaft und Klimaschutz (BMWK) die Initiative, deren Aktivitäten einen wesentlichen Beitrag für den Wirtschaftsstandort Deutschland leisten.

Doppelte Wesentlichkeitsanalyse in der Nachhaltigkeitsberichterstattung

Corporate Social Responsibility, CSR Strategy

Die Corporate Sustainability Reporting Directive (CSRD) verlangt künftig eine doppelte Wesentlichkeitsanalyse bei der Bewertung der Themen, die die European Sustainability Reporting Standards (ESRS) vorgeben. Im Interview mit Franziska Patzwald, Produktmanagerin der DGQ-Weiterbildung, berichten Tobias Kirchhoff und Ann-Katrin Bimber von der DFGE – Institut für Energie, Ökologie und Ökonomie über die Bedeutung und Umsetzung der doppelten Wesentlichkeitsanalyse.

Was ist eine doppelte Wesentlichkeitsanalyse?

Ann-Katrin Bimber: Die Wesentlichkeitsanalyse dient dazu, die für ein Unternehmen und seine Anspruchsgruppen bedeutenden Nachhaltigkeitsthemen zu ermitteln. Ein Unternehmen soll sich beim Nachhaltigkeitsmanagement zunächst auf die Themen konzentrieren, die als wesentlich betrachtet werden. Bei der Frage, was ‚wesentlich‘ oder ‚material‘ bedeutet, müssen im Sinne der doppelten Wesentlichkeit zwei Perspektiven berücksichtigt werden. Man unterscheidet zwischen der Inside-Out Perspektive, auch Impact Materiality genannt, und der Outside-In Perspektive, auch finanzielle Wesentlichkeit genannt. Diese Blickwinkel bilden die Basis für die Ableitung der strategisch relevanten Nachhaltigkeitsthemen und der Berichtspflichten.

Die Outside-In-Perspektive betrachtet externe Einwirkungen von Nachhaltigkeitsthemen auf das Unternehmen und dessen Geschäftsmodell, die Strategie und den Umsatz. Externe Entwicklungen sind beispielsweise Anpassungskosten an den Klimawandel oder eine strengere Regulatorik. Bei der Inside-Out Perspektive müssen Unternehmen ihre tatsächlichen und potenziellen Auswirkungen der Geschäftstätigkeit auf Nachhaltigkeitsthemen darlegen. Relevante Themen können hier der Einfluss des Unternehmens auf Umweltverschmutzung und Biodiversität genauso sein wie die Frage, inwiefern die Strategie Korruption verhindert und entgegenwirkt.

Warum ist das im Nachhaltigkeitskontext gerade so relevant?

Tobias Kirchhoff: Viele Unternehmen werden in den nächsten Jahren durch die Regelungen der Corporate Sustainability Reporting Directive sowie der European Sustainability Reporting Standards als Berichtsstandard dazu verpflichtet über ihre Nachhaltigkeitsperformance zu berichten. Die CSRD liefert dabei die Vorgaben, die European Sustainability Reporting Standards definieren die Inhalte. Die doppelte Wesentlichkeit ist eine zentrale Perspektive in der Corporate Sustainability Reporting Directive.

Unter der Non-Financial Reporting Directive (NFRD), der aktuell noch geltenden Richtlinie zur Nachhaltigkeitsberichterstattung, ist ein Thema erst dann als wesentlich anzusehen, wenn es in beiden Dimensionen der Nachhaltigkeit wesentliche Auswirkungen verursacht. Um berichtspflichtig zu werden reicht hingegen künftig aus, wenn ein Thema in einer der beiden Dimensionen wesentliche Auswirkungen verursacht. Durch diese Änderung werden zukünftig mehr Themen als materiell eingestuft. Die Anzahl der berichtspflichtigen Inhalte und damit der Berichtsaufwand werden dadurch maßgeblich ausgeweitet.

Wie unterscheidet sich das zu den Anforderungen der Global Reporting Initiative?

Ann-Katrin Bimber: Die CSRD setzt auf bereits bestehende etablierte Berichtsstandards auf. Die Global Reporting Initiative (GRI) wird als Partner genannt, der sich in engem Austausch mit der European Financial Reporting Advisory Group (EFRAG) befindet, die für die Entwicklung der Standards zur CSRD verantwortlich ist. GRI hat einen exklusiven Fokus auf die Impact-Materialität, also auf potenzielle und faktische, positive wie negative Auswirkungen, die durch Geschäftstätigkeiten des Unternehmens direkt oder indirekt entstehen. Die ESRS mit der doppelten Wesentlichkeit rücken zusätzlich die finanziellen Risiken und Chancen stärker in den Fokus.

Aufgrund der großen Überschneidungen zwischen den GRI-Indikatoren und den ESRS-Datenpunkten und den Parallelen bei den Grundprinzipien der Wesentlichkeit, sind Unternehmen, die heute bereits nach GRI berichten, gut für die ESRS aufgestellt. Um Unternehmen bei der Vorbereitung auf die ESRS zu unterstützen, bietet die DFGE in Zusammenarbeit mit der DQS GmbH Schulungen zum Thema GRI an.

Was sind die ersten Schritte bei der Umsetzung einer doppelten Wesentlichkeitsanalyse?

Ann-Katrin Bimber: Bei der Durchführung einer Wesentlichkeitsanalyse ist eine gute Vorbereitung wichtig, die für die notwendige Transparenz über den Gesamtprozess sorgt. Es müssen die zur Umsetzung erforderlichen Ressourcen bereitgestellt werden und die notwendige Rückendeckung durch die Unternehmensleitung gegeben sein.

Zu Beginn der Analyse müssen Unternehmen sich die Frage stellen, welche Nachhaltigkeitsaspekte potenziell wesentlich sein können, also welche Themen innerhalb der Wesentlichkeitsanalyse bewertet werden sollen. Hierfür orientieren wir uns an den ESRS. Diese bieten für die Erstellung der Liste mit potenziell wesentlichen Themen einen guten Ausgangspunkt. Zusätzlich können Nachhaltigkeitsratings, international anerkannte Reportingstandards und Sektorprofile genutzt werden. Wichtig hierbei ist, dass die Liste der Themen in einer Wesentlichkeitsanalyse stets vollständig und überschneidungsfrei ist.

Berufsbild Nachhaltigkeitsmanager

Die Themen Nachhaltigkeit und Klima­schutz gehören zu den Mega­trends unserer Zeit. Für Unter­nehmen wird es somit immer wichtiger, CSR-Maßnahmen um­zu­setzen und ihrer gesell­schaftlichen Verantwortung gerecht zu werden. Mit dem größeren Fokus auf Nachhaltigkeit haben sich in den letzten Jahren eine Vielzahl an grünen Jobs entwickelt, wie beispielsweise der Job als Nachhaltigkeitsmanager.
Antworten auf die wichtigsten Fragen finden Sie in unserem Berufsbild zum Nachhaltigkeitsmanager:

  • Welche Aufgaben betreuen Nachhaltigkeitsmanager?
  • Wie werde ich Nach­haltigkeits­beauf­tragter?
  • Welche Weiter­bildungs­möglich­keiten gibt es?
  • Was verdient ein Nach­haltigkeits­manager?
  • Welche Jobs gibt es im Nach­haltigkeits­manage­ment?

Zum Berufsbild Nachhhaltigkeitsmanager »

Wie können Stakeholder bei der Materialitätsanalyse miteinbezogen werden?

Tobias Kirchhoff: Wir durchlaufen mit unseren Kunden mehrere Schritte, um die Wesentlichkeit der Themen zu beurteilen und Stakeholder miteinzubeziehen. Hierzu gehören unter anderem eine Sektorenanalyse, eine Medienanalyse und ein Kunden- und Wettbewerberbenchmark. Zur Beurteilung der Financial Materiality involvieren wir außerdem das Risikomanagement des Unternehmens und führen Gespräche mit internen Expert:innen.

Eine Wesentlichkeitsanalyse sollte immer die Stakeholder eines Unternehmens miteinbeziehen. Hierfür nutzen wir eine Online-Umfrage, die von einer Vielzahl von Stakeholdern statistisch fundierte Aussagen darüber liefert, welche Themen von welchen Gruppen besonders favorisiert werden. Quantitative Modelle ergänzen die Befragung um eine wissenschaftliche Faktenbasis und erlauben eine meinungsunabhängige und zukunftsgerichtete Beurteilung der Wesentlichkeit.

Was sind die größten Herausforderungen bei ihren Kunden?

Ann-Katrin Bimber: Die Durchführung einer doppelten Wesentlichkeitsanalyse ist aufwendig. Oftmals wird die Komplexität unterschätzt, wodurch zu wenig Zeit und Ressourcen zur Verfügung gestellt werden. Herausfordernd kann auch die Festlegung der Interessensgruppen sein, die in die Analyse einbezogen werden sollen. Insbesondere bei der Beurteilung der Financial Materiality müssen die Stakeholder die Fähigkeit haben, ihre Meinung als Privatperson nicht mit der Unternehmenssicht zu verwechseln. Hier kann es hilfreich sein, Stakeholder zu befragen, die sich bereits mit den finanziellen Implikationen von Nachhaltigkeitsthemen für das Unternehmen beschäftigt haben.

Eine weitere Herausforderung ist die Betrachtung der Wesentlichkeit der Themen über die gesamte Wertschöpfungskette. Auswirkungen können beispielsweise durch eine Geschäftsbeziehung in der Lieferkette oder in der Nutzungsphase eines Produktes auftreten. Um fundierte Ergebnisse durch die Wesentlichkeitsanalyse zu erhalten, müssen all diese Auswirkungen betrachtet werden.

Die Umsetzung der doppelten Wesentlichkeitsanalyse ist ein Aspekt, der nicht trivial ist, aber wichtige Einsichten liefern kann, die zur Weiterentwicklung der Nachhaltigkeitsstrategie beitragen können und den Auftakt für einen langfristigen Stakeholderdialog bilden, der das Ziel hat, zukünftige Herausforderungen zu erkennen und gemeinsam zu meistern.

 

Über die Interviewpartner:

Tobias Kirchhoff leitet das Reporting Team der DFGE und unterstützt Kunden dabei, ihre Reporting-Anforderungen zu meistern.

Ann-Katrin Bimber ist Senior Project Specialist Corporate and Supply Chain Sustainability bei der DFGE und arbeitet schwerpunktmäßig an den Themen GRI, CSRD, CSR-Ratings und TCFD.

Über das DFGE – Institut für Energie, Ökologie und Ökonomie:

Gegründet im Jahre 1999 als Spin-Off der Technischen Universität München, bietet die DFGE – Institut für Energie, Ökologie und Ökonomie Beratungsleistungen im Bereich Nachhaltigkeit an. Unser Angebot „Sustainability Intelligence“ beinhaltet Berechnungs-Management, Reporting Lösungen sowie Strategie-Entwicklung und zielt darauf ab, den Aufwand für die Teilnahme an mehreren Nachhaltigkeits-/CSR-Standards und Rankings wie CDP (Carbon Disclosure Project), UNGC (United Nations Global Compact), DJSI (Dow Jones Sustainability Index), EcoVadis oder GRI (Global Reporting Initiative) zu bündeln und übergreifende Strategien wie eine Nachhaltigkeitsstrategie gemäß den SDGs zu entwickeln. Ferner betreut die DFGE ihre Kunden als einziger Partner des CDP (Carbon Disclosure Project) für SBTs (Science-based Targets) ganzheitlich beim Thema Klimastrategie und hilft ihnen auf Produktebene oder unternehmensweit klimaneutral zu wirtschaften. Für die KI-gestützte Zukunft des CSR-Managements setzt die DFGE auf den Big Data Ansatz und Machine Learning. Zu den Kunden zählen internationale Unternehmen (DAX und Fortune 500), aber auch mittelständische Betriebe und öffentliche Einrichtungen.

Zur Website: www.dfge.de

Sustainability Management-Lehrgang erfolgreich pilotiert

Der neu entwickelte DGQ-Lehrgang „Sustainability Management – Nachhaltigkeit integrieren und systematisch managen“ hat in der letzten Woche eine erfolgreiche Premiere gefeiert. 13 Teilnehmende haben gemeinsam mit zwei Trainerinnen die Bedeutung von Nachhaltigkeit in Unternehmen erarbeitet, die weit über den ökologischen Bereich hinausgeht. Der Lehrgang widmete sich  unter anderem den gesetzlichen Rahmenbedingungen, thematisierte den Zusammenhang von Nachhaltigkeit und Managementsystemen und erklärt, wie man Nachhaltigkeit in bestehende Managementsysteme integriert. Darüber hinaus erstellten die Teilnehmenden Stakeholder-Analysen ihrer eigenen Unternehmen. Dabei wendeten sie das neue Wissen unmittelbar und praktisch an und besprachen die Ergebnisse anschließend gemeinsam mit den Trainerinnen und den Kolleginnen.

Das Feedback der Teilnehmenden zum Inhalt der neuen Veranstaltung fiel ausgesprochen positiv aus. Insbesondere die intensiven Gruppenarbeitsphasen nahmen sie als progressiv und lehrreich wahr. Auch wurde der gesamtheitliche Ansatz, die Stakeholder-Thematik und die Prozessorientierung positiv bewertet.

Das nächste Online-Training findet am 14. Juni 2023 statt. Informationen und Anmeldemöglichkeiten finden Sie im DGQ-Shop: Jetzt informieren »

FQS-Forschungsprojekt: Das ISO GPS-System erfolgreich in die Praxis integrieren

Das System der Geometrischen Produktspezifikation und -verifikation (ISO GPS-System) bildet als größtes Normensystem der ISO im Maschinenbaubereich den Stand der Technik für die Spezifikation und Verifikation von Bauteilen ab. Das umfangreiche Normensystem zu durchschauen und umzusetzen, stellt für viele Unternehmen jedoch eine Herausforderung dar.

Im Rahmen des von der FQS Forschungsgemeinschaft Qualität e. V. geförderten Forschungsprojektes „GPSlife“ wurden in einem Zeitraum von zwei Jahren unter der Leitung der Professur Fertigungsmesstechnik an der TU Chemnitz gemeinsam mit Partnern aus Industrie und Weiterbildung neue und nachhaltige Umsetzungsstrategien für das komplexe ISO GPS-System entwickelt. Ziel des Projektes war es, durch eine reifegradbasierte Roadmap Methoden und Vorgehensweisen zur Integration der Geometrischen Produktspezifikation in der Praxis zu erarbeiten, welche insbesondere auf die Anforderungen von KMU abgestimmt sind, um somit flächendeckend ein gelebtes GPS-System zu erreichen. Im Interview stellen Prof. Dr. Sophie Gröger, Leiterin der Professur Fertigungsmesstechnik an der TU Chemnitz und Juliane Schuldt, wissenschaftliche Mitarbeiterin der Professur Fertigungsmesstechnik an der TU Chemnitz, die wichtigsten Ergebnisse vor.

Welche Relevanz hat das ISO GPS-System heute und welche konkreten Chancen ergeben sich durch die Nutzung des Normensystems?
Prof. Dr. Sophie Gröger: “Mit dem internationalen Normensystem der Geometrischen Produktspezifikation und -verifikation als umfassende non-verbale Sprache wird die einheitliche und vollständige Beschreibung der Geometrie von Produkten gewährleistet. Aus diesem Grund hält dieses System in immer weiteren Bereichen und Branchen, wie z. B. der Medizintechnik, Einzug. Vor allem in KMU ist bis heute unzureichend bekannt, welche Potentiale die betriebliche Einführung und eine konsequente Anwendung für die langfristige Wettbewerbssicherung mit sich bringt. Neben eindeutigen, vollständigen und rechtssicheren Spezifikationen, ergeben sich unter anderem Chancen durch die Reduzierung von Mehrdeutigkeiten, Rückführbarkeit von Messungen und Konformität zu QM Vorgaben. Außerdem ist die Anwendung des ISO GPS-Systems eine elementare Vorbereitung auf Zukunftsthemen, wie beispielsweise Digitaler Zwilling, Closed Loop Engineering, die Synchronisierung von Konstruktion, Fertigung und Qualitätssicherung sowie die Weiterentwicklung aktueller Simulationsmethoden (Montagesimulation etc.).”

Vor welchen Herausforderungen stehen Unternehmen, insbesondere kleine und mittelständische Unternehmen (KMU), bei der Anwendung des ISO GPS-Systems?
Prof. Dr. Sophie Gröger: “Das ISO GPS-System unterliegt seit Jahren einem starken normativen, regelgebundenen Wandel, wobei zahlreiche Abkürzungen, Symbole, Prinzipien und Regeln in neuen und überarbeiteten Normen veröffentlicht werden. Dabei existierten bis 1996 weniger als 40 Einzelnormen. Seitdem wurden zahlreiche Normen hinzugefügt, sodass es aktuell reichlich 150 gültige und weitere 20 in Überarbeitung befindliche Normen gibt. So wurde beispielsweise die zentrale Norm zur geometrischen Tolerierung, die ISO 1101, in den Jahren 2011, 2014 und bereits wieder 2017 überarbeitet und erweitert. Diese hohe Überarbeitungsgeschwindigkeit stellt nicht nur für KMU eine große Herausforderung dar. Das Gesamtsystem nahm in den letzten Jahren eine Komplexität und Dynamik an, die für Unternehmen schwer überschaubar ist.

Zudem sind in KMU oft nur geringe Personalkapazitäten für die Beschaffung und Integration neuer Normen vorhanden. Darüber hinaus fehlen Standards für die Aus- und Weiterbildung auf diesem Gebiet. Zum Integrationsvorgehen existierten vor dem Forschungsprojekt auch keine veröffentlichten und allgemeingültigen Empfehlungen. Die Folge dieser normativen Komplexität und der fehlenden Ausbildung ist ein differenzierter Umgang mit dieser Fachsprache, der mit zunehmenden Akzeptanz- und Anwendungsschwierigkeiten einhergeht.”

Was ist für ein gelebtes GPS-System notwendig?
Juliane Schuldt: “Die Einführung und nachhaltige Anwendung des ISO GPS-Systems muss als langfristiger Veränderungsprozess von den Unternehmen verstanden werden. Für die erfolgreiche Einführung, Verwirklichung, Aufrechterhaltung, Verbesserung und Weiterentwicklung des ISO GPS-Systems ist ein neues Aus- und Weiterbildungskonzept verbunden mit einer Integrationsstrategie und eines Bewertungsinstruments notwendig. Im Rahmen des Forschungsvorhabens wurde eine Roadmap erarbeitet, welche das Integrationsvorgehen Schritt für Schritt beschreibt und einen Methodenkasten zur Unterstützung der sechs Phasen enthält. Da die Einführung nicht ohne eine begleitende Schulung aller Fachkräfte, jedoch in unterschiedlicher Geschwindigkeit und Tiefe, ablaufen kann, entstand ein neues Aus- und Weiterbildungskonzept. Zur objektiven Bewertung des Integrationsvorgehens sowie des Weiterbildungsprozesses stellt ein kompetenzbasiertes GPS-Reifegradmodell, welches im Rahmen des Projektes entwickelt und teilweise bereits erprobt ist, eine ganz neue Dimension dar.”

Wie ist das im Forschungsprojekt erarbeitete GPS-Ausbildungskonzept aufgebaut?
Juliane Schuldt: “Herzstück des neuen GPS-Ausbildungskonzeptes ist eine Differenzierung aller GPS-Normeninhalte in fünf Schwierigkeitslevel. Im Rahmen des Projektes wurden die Level Anfänger/in, Fortgeschrittene/-r, Erfahrene/-r, Spezialist/in und Master/Coach ausgearbeitet und beschrieben. Im Level 1 „Anfänger/-in“ werden Grundlagen, Basiswissen, Prinzipien und Regeln zur Anwendung des ISO GPS-Systems vermittelt. Es werden Zusammenhänge zwischen Funktion, Spezifikation, Herstellung und Verifikation vermittelt. Im Level 2 und 3 wird das GPS-Verständnis vertieft und mittels Übungsszenarien anwendbares GPS-Wissen vermittelt. Ab dem Level 4 werden die GPS-Inhalte auf unternehmensspezifische Beispiele übertragen, Sonderfälle geschult und komplexe Sachverhalte integriert. Als Master im Level 5 ist man im Unternehmen zuständig für die interne Beratung und ggf. Schulung, praktische Integration neuer Normeninhalte und/oder Anpassen interner Regelungen, Templates usw. Diese Level-Struktur ermöglicht es, fachkräftespezifisch die GPS-Inhalte zu vermitteln, denn nicht jeder Mitarbeiter im Unternehmen benötigt GPS-Wissen in gleicher Menge und Tiefe.”

Was müssen Unternehmen bei der Einführung des GPS-Systems berücksichtigen?
Prof. Dr. Sophie Gröger: “Im Forschungsprojekt wurden einerseits verschiedene Unternehmen befragt, welche sich schon länger mit der Integration des GPS-Systems beschäftigen, anderseits wurden bewährte Konzepte aus der Einführung von QM-Systemen und ERP-Systemen recherchiert. Daraus wurde u.a. eine Successful Practice für die GPS-Integration abgeleitet. Diese beinhaltet den Entwurf eines Unternehmenskonzeptes im Vorfeld des Einführungsprozesses und die Bildung eines ISO GPS-Expertenteams für das Unternehmen sowie die Benennung eines GPS-Hauptverantwortlichen für die Projektleitung und langfristige Koordination. Anschließend folgt die Erstellung eines Schulungskonzeptes und die gestaffelte Ausbildung der Beschäftigten. Regelmäßige interne Spezifikations- und Verifikationsreviews unterstützen den Prozess. Es folgt die Übertragung auf unternehmensspezifische Inhalte und die Erstellung von Templates, Vorgehensweisen, Musterzeichnungen, Konstruktionszeichnungen für die nachhaltige Anwendung.”

GPSlife-Integrationsvorgehen

GPSlife – Integrationsvorgehen (TU Chemnitz)

 

Mit dem im Rahmen des Forschungsprojekts entwickelten Reifegradmodells lassen sich erstmals GPS-Kompetenzen objektiv bewerten. Welche Dimensionen werden abgebildet und wie können Unternehmen das Modell einsetzen?
Juliane Schuldt: “Für das Reifegradmodell wurde das gesamte GPS-System in 12 Dimensionen eingeteilt. Dazu zählen beispielsweise Allgemeintoleranzen, Form-, Richtungs-, Orts- und Lauftolerierungen und Rauheit. Aktuell existiert das Reifegradmodell als Excel-Programm. Zu allen Dimensionen wurden Indikatoren definiert, welche jeweils mit einer „klickbaren“ Checkliste untersetzt sind. Diese Checklisten können Mitarbeitende als Selbsteinschätzung nutzen oder Führungskräfte im Rahmen von Personalgesprächen bzw. zur Erhebung des Weiterbildungsbedarfs. Mit dem Reifegradmodell lassen sich aber auch anonym GPS-Kompetenzen von Organisationseinheiten erheben oder im Rahmen der Lieferantenbewertung ist eine Anwendung möglich. Die Auswertung aller Checklisten und damit die Bestimmung des Reifegrades erfolgt tabellarisch und zusätzlich grafisch als Sunburst-Diagramm. Für eine breite Anwendung wird derzeit eine webbasierte Version entwickelt, welches zukünftig über die Projektwebsite abgerufen werden kann.”

GPSlife-Reifegradmodell

GPSlife-Reifegradmodell als Sunburst-Diagramm (TU Chemnitz)

Welchen Nutzen haben die Forschungsergebnisse und wie können Unternehmen nach Projektabschluss von den erarbeiteten Lösungen profitieren?
Prof. Dr. Sophie Gröger: “Das beschriebene GPS-Integrationsvorgehen, GPS-Ausbildungskonzept und das entwickelte GPS-Reifegradmodell bieten die optimale Grundlage, das ISO GPS-System im Unternehmen nachhaltig einzuführen. Mit Hilfe der beschriebenen „Schritt für Schritt“- Integrationsstrategie wird eine Komplexitätsreduzierung erreicht, welche den Aufwand für die Einführung des GPS-Systems überschaubar macht. Durch die ganzheitliche Vorgehensweise mit lexikalischer Erarbeitung des Wissens und fortlaufender Reifgradbewertung werden die KMU befähigt, zukünftige Neuerungen im GPS-System selbstständig umzusetzen. Eng verzahnt mit dem Schulungskonzept ergänzt das vorgestellte Reifegradmodell den GPS-Einführungs- und Anwendungsprozess. Das GPS-Reifegradmodell steht in gekürzter Fassung als „Light“-Version demnächst über die Projekthomepage zur Verfügung. Im DIN-Normenausschuss NA 152-02-03 gibt es erste Bestrebungen die Anwendung des GPS-Systems mit einer Schritt-für-Schritt-Strategie zu beschreiben und als Leitfaden zusammenzustellen.”

 


Stimmen aus dem Projektbegleitenden Ausschuss:
Gemeinsam mit vier weiteren Industriepartnern waren die Hirschvogel Holding GmbH und DGQ Weiterbildung GmbH als Mitglieder des Projektbegleitenden Ausschusses „GPSlife“ an den Forschungsarbeiten beteiligt. Nach dem Ende des Projekts ziehen sie ein kurzes Fazit ihres Engagements:

 

Renate Kettner, Hirschvogel Umformtechnik GmbH
GPS ist ein sehr umfangreiches Thema, das in der Praxis bei laufenden Prozessen sehr schwierig einzuführen und umzusetzen ist. Da wir mit der Einführung bereits begonnen hatten und dabei einige Schwierigkeiten auftraten, war es für uns sehr interessant, unsere Erfahrungen einfließen zu lassen. Die Forschungseinrichtung hatte immer ein offenes Ohr für uns. Gemeinsam wurden unsere Praxisprobleme diskutiert, die daraufhin zum Teil als Input in das Projekt eingeflossen sind. Das Ergebnis stimmt uns positiv. Wir hoffen, dass daraus noch E-Learnings entstehen werden, die jedes Unternehmen verwenden kann, um Mitarbeiter, Zulieferer und Kunden zu schulen. Die gute Zusammenarbeit mit der TU Chemnitz hat uns in jeder Hinsicht geholfen. Durch die Gespräche und Abstimmungen konnte man verschiedene Sichtweisen besser verstehen und gemeinsame Lösungen erarbeiten. Die komplette Umsetzung ist immer noch ein weiter Weg, aber es wurden verschiedene Aktivitäten gestartet, die das Ganze leichter gestalten werden.

 

Dietmar Heuer, DGQ Weiterbildung GmbH
Die DGQ offeriert als Weiterbildungsmöglichkeit zwei Trainings, die Inhalte zum GPS-System vermitteln: Das Training „Geometrische Produktspezifikationen (GPS) – Form- und Lagetoleranzen“ sowie das Grundlagentraining „Geometrische Produktspezifikationen (GPS) für Entwickler und Konstrukteure“. Aus diesem Grund haben wir sofort zugesagt, als die FQS mit der Frage auf zukam, ob wir uns im Projektbegleitenden Ausschuss beteiligen wollen. In unseren Trainings erfahren wir von Teilnehmenden immer wieder aus erster Hand, wie relevant das Thema GPS ist, aber auch wie groß die damit verbundenen Herausforderungen sind. Durch das Projekt erhielten wir einerseits die Möglichkeit, diese Erfahrungen einzubringen. Andererseits lernten wir verschiedene Sichtweisen über die Anwendung des GPS-System in Unternehmen und die Anforderungen an die Weiterbildung kennen. Eine essentielle Erkenntnis für uns: GPS-Weiterbildung ist kein Einmalaufwand. Hohe Komplexität und stetige Weiterentwicklung des GPS-Systems erfordern eine immer wiederkehrende Auffrischung des Wissens bei allen Anwendern.

 

Über die Interviewpartner:

Prof. Dr. Sophie Gröger, Leiterin Professur Fertigungsmesstechnik an der TU Chemnitz

Juliane Schuldt, wissenschaftliche Mitarbeiterin Professur Fertigungsmesstechnik an der TU Chemnitz

Renate Kettner, Corporate Development, CAD Inhouse Consultant / Design Engineer, Hirschvogel Umformtechnik GmbH

Dietmar Heuer, DGQ-Produktmanager, DGQ Weiterbildung GmbH

 


Über das Forschungsprojekt:
Das IGF-Vorhaben 21491 BR der FQS – Forschungsgemeinschaft Qualität e. V., August-Schanz-Straße 21A, 60433 Frankfurt am Main wurde über die AiF im Rahmen des Programms zur Förderung der Industriellen Gemeinschaftsforschung (IGF) durch das Bundesministerium für Wirtschaft und Klimaschutz (BMWK) aufgrund eines Beschlusses des Deutschen Bundestages gefördert.

Das Forschungsvorhaben ist abgeschlossen. Der Schlussbericht steht der interessierten Öffentlichkeit zur Verfügung und kann entweder über die FQS – Forschungsgemeinschaft Qualität e. V. oder die Forschungseinrichtung (fmt@mb.tu-chemnitz.de) auf Anfrage bezogen werden.

Kontakt:
FQS – Forschungsgemeinschaft Qualität e. V.
August-Schanz-Straße 21A
60433 Frankfurt am Main
infofqs@dgq.de

Projektwebsite: https://www.fertigungsmesstechnik-chemnitz.de/forschung/gpslife/

Kontaktdaten für weitere Fragen, Umsetzung- und Anwendungsmöglichkeiten der Projektergebnisse sowie zum GPS-System allgemein:
Prof. Dr. Sophie Gröger, Leiterin Professur Fertigungsmesstechnik der TU Chemnitz unter www.fertigungsmesstechnik-chemnitz.de

Informationen zu den Trainings der DGQ Weiterbildung GmbH: https://shop.dgq.de/


DGQ-Forschung – Neue Videoreihe gibt Einblicke in aktuelle Projekte und Arbeit der FQS Forschungsgemeinschaft Qualität e.V.

Wer ist die FQS Forschungsgemeinschaft Qualität e.V. (FQS), wie arbeitet sie und welche Themen stehen aktuell im Fokus? Antworten auf diese und weitere Fragen rund um das Thema Forschung in der DGQ finden Innovations- und Forschungsinteressierte in einer neuen Videoreihe, in der aktuelle Forschungsprojekte der FQS vorgestellt werden. Neben einer allgemeinen Vorstellung der FQS und ihrer Arbeitsweise, stehen drei laufende FQS-Forschungsprojekte am Institut für Integrierte Produktion Hannover (IPH gGmbH) im Zentrum der neu veröffentlichten Videobeiträge. Schwerpunkte des Partnerforschungsinstituts der FQS liegen in den Bereichen Produktionsautomatisierung, Prozesstechnik und Logistik. Thematisch beschäftigen sich die Projekte mit Qualitätssicherung in Bereich 3D-Druck und Predictive Maintenance bei Schmiedeprozessen. In den Videobeiträgen geben Forschungspartner:innen des IPH einen Einblick in die laufende Projektarbeit, stellen Forschungsziele und -ergebnisse vor und berichten über die Zusammenarbeit mit den beteiligten Industriepartnern.

In den nachfolgenden Videos erhalten Sie Einblicke in die Forschungsarbeit der FQS sowie die derzeit laufenden Forschungsprojekte am Institut für Integrierte Produktion Hannover:

Vorstellung der FQS Forschungsgemeinschaft Qualität e.V. 
Wer ist die FQS Forschungsgemeinschaft Qualität e.V. und was tut sie? Lernen Sie den Forschungsbereich der DGQ kennen und erfahren Sie von Dr. Christian Kellermann-Langhagen, wissenschaftlicher Geschäftsführer der FQS, wie die FQS arbeitet, welche Themen beforscht werden und wie sich Unternehmen in der FQS beteiligen und von den eingesetzten Förderprogrammen profitieren können.

Vorstellung FQS-Partnerforschungseinrichtung: IPH – Institut für Integrierte Produktion Hannover gGmbH
In Zusammenarbeit mit bundesweit mehr als 20 Forschungseinrichtungen realisiert die FQS innovative und praxisnahe Projekte im Rahmen der Industriellen Gemeinschaftsforschung (IGF). Eines der Partnerforschungsinstitute der FQS ist das IPH – Institut für Integrierte Produktion Hannover gGmbH. Im Interview stellt Jens Kruse, Gruppenleiter Innovative Fertigungsverfahren am IPH, die Forschungsschwerpunkte des Instituts sowie laufende Forschungsprojekte im Bereich der additiven Fertigung vor.

FQS-Forschungsprojekt QualLa – Qualitätssicherung beim Laserstrahlschweißen additiv gefertigter Bauteile
Wie lassen sich Bauteile aus dem 3D-Drucker qualitätssicher mit dem Laser schweißen? Mit dieser Fragestellung beschäftigt sich das von der FQS geförderte Forschungsprojekt QualLa, das das IPH – Institut für Integrierte Produktion Hannover gGmbH gemeinsam mit dem Laser Zentrum Hannover e. V. durchführt. Gewinnen Sie in diesem Video einen Einblick in das entstehende Expertensystem, das insbesondere kleine und mittelständische Unternehmen darin unterstützt, additive Fertigungsprozesse im Hinblick auf das Schweißen von inhomogenen Kunststoffen zu optimieren. Fragen rund um das Projekt beantwortet Torben Mente, Projektingenieur am IPH, in diesem Video.

FQS-Forschungsprojekt SAViour – Qualitätssicherung für personalisierte Medizinprodukte aus dem 3D-Drucker
3D-Druck ermöglicht eine Produktion in Losgröße 1, was insbesondere für die Medizintechnik interessant ist. Eine große Herausforderung stellt jedoch die Qualitätssicherung dar. Im Fokus des FQS-Forschungsprojekts SAViour, an dem das IPH – Institut für Integrierte Produktion Hannover gGmbH sowie das Werkzeugmaschinenlabor WZL der RWTH Aachen beteiligt sind, steht die Entwicklung einer Sensorik- und App-basierten Qualitätskontrolle personalisierter Produkte aus dem 3D-Drucker. Wie das entstehende Qualitätsmodell funktioniert und wie Unternehmen von der entwickelten Lösung profitieren können, erklärt Anne Rathje, Projektingenieurin am IPH, im Interview.

FQS-Forschungsprojekt VorÜber – Predictive Maintenance in der Schmiedeindustrie
Wie lange hält das Schmiedewerkzeug? Die Lebensdauer von Schmiedegesenken wird in der Praxis meist auf Basis von Erfahrungswerten abgeschätzt. Im Rahmen des FQS-Forschungsprojekts VorÜber entwickelt das IPH – Institut für Integrierte Produktion Hannover gGmbH eine vorausschauende Prozessüberwachung, die es ermöglicht die Lebensdauer von Schmiedewerkzeugen nun auch exakt vorherzusagen. Erfahren Sie im Interview mit David Schellenberg, Projektingenieur am IPH, wie das Prognosemodell funktioniert und welche Einsparpotenziale sich dadurch für Unternehmen ergeben.

 

Als Forschungsbereich der DGQ begleitet die FQS industrienahe und anwendungsorientierte Forschungsprojekte im Rahmen der Industriellen Gemeinschaftsforschung (IGF), die durch das Bundesministerium für Wirtschaft und Klimaschutz (BMWK) gefördert werden. In der IGF können insbesondere kleine und mittelständisch geprägte Unternehmen gemeinsame Probleme durch gemeinsame Forschungsaktivitäten lösen und so strukturbedingte Nachteile auf dem Gebiet der Forschung ausgleichen. Unternehmen haben die Möglichkeit, sich an Vorhaben der FQS zu beteiligen, Anforderungen einzubringen und von neu entwickelten Methoden und Strategien zu profitieren.

Industriepartner für FQS-Forschungsvorhaben gesucht: Fuzzy Empfehlungsassistenten zur Fehlerbeseitigung in der Zuliefererkette

Im Verlauf der letzten Jahre haben die Spannungen zwischen Original Equipment Manufacturer (OEM) und kleinen und mittleren Unternehmen (KMU) in Zuliefererketten stark zugenommen. Die Beziehungen sind durch mangelhafte oder gänzlich fehlende Kooperation und Kommunikation, sowie ungleiche Machtgefüge geprägt. Dies führt zu Problemen in der Fehlerbewältigung. Tritt ein Fehler im Feld auf, wird dieser zwecks Ursachenidentifikation und Definition von Abstellmaßnahmen in die Zuliefererkette gegeben. Zumeist sucht jeder Zulieferer eigenverantwortlich nach den möglichen Fehlerursachen und Lösungsmaßnahmen. Die derzeitig verwendeten Methoden zur Dokumentation und Analyse von Fehlern sind der 8D-Report, das SCOR-Modell und der NTF-Prozess des Schadteilanalyseprozesses des Verbands der Automobilindustrie (VDA). Der Einsatz dieser Methoden ist jedoch zum einen mit einem hohen Zeit- bzw. Personalaufwand verbunden und zum anderen wird nicht geregelt, wie und an wen die Ergebnisse kommuniziert werden sollen. Die Kommunikation der Ergebnisse hat jedoch eine hohe Relevanz für einen effizienten Umgang mit aufgetretenen Fehlern in Zulieferketten. Im Rahmen des geplanten Forschungsprojekts FuFeZ soll dieser Handlungsbedarf mittels eines KI-basierten Referenzmodells gedeckt werden, welches eine zielgerichtete Kommunikation zwischen OEM und KMU ermöglicht.

Das Projektvorhaben FuFeZ

Ziel des avisierten Forschungsprojekts ist die Entwicklung eines Referenzmodells zum erleichterten Umgang mit Feld-Fehlern in Zuliefererketten, unterstützt durch zwei KI-basierte Empfehlungsassistenten. Während ein Assistent potenzielle Fehlerursachen vorschlägt, kommuniziert der zweite Assistent daraus resultierende konkrete Maßnahmen zur Fehlerbehebung. Unternehmen sollen in der Lage sein, das Referenzmodell und die Empfehlungsassistenten eigenständig anzuwenden.

Im Folgenden ist eine vorläufige Ideenskizze des Referenzmodells zu sehen (Abb. 1):

Abb. 1: Ideenskizze vom neuen Referenzmodell

Im ersten Schritt werden die Kundenreklamationen durch die Werkstätten oder den OEM selbst aufgenommen. Als Nächstes ist es die Aufgabe des OEMs die Fehlerbeschreibung durchzuführen, wobei eine Mindestanzahl an Daten vom OEM preisgegeben werden muss. Diese zwei Schritte sind erforderlich, damit die Fehlerklassifikation mittels einer zu entwickelnden Schablone (Klassifikations-Template) umgesetzt werden kann. Dadurch sind insbesondere KMU in der Lage zu ermitteln, ob für sie ein Handlungsbedarf besteht. Im Anschluss werden den Unternehmen potentielle Fehlerursachen mittels des Empfehlungsassistenten (Fuzzy-Neuro-System) vorgeschlagen. Durch einen zweiten Empfehlungsassistenten werden Maßnahmen zur Abstellung der ausgewählten Fehlerursache empfohlen. Diese allgemeinen Maßnahmen dienen als Ansatz zur Orientierung, sodass KMU Methoden zur Ursachen- und Maßnahmenbestimmung nicht mehr selbstständig durchführen müssen, wodurch sich Zeit und Personal einsparen lassen. Ergänzt werden sollen die Maßnahmen durch statische Empfehlungen. Hierbei wird zusätzlich die Information ausgegeben, welche Voraussetzungen vor der Durchführung der eigentlichen Maßnahme erfüllt sein müssen. Im Anschluss an die Durchführung der Maßnahmen wird ihre Wirksamkeit ermittelt.

Welche Vorteile hat FuFeZ für Unternehmen?

Durch die Anwendung des Referenzmodells und die vorgeschlagenen Fehlerursachen sowie Abstellmaßnahmen der Empfehlungsassistenten kann die Erkennungs- und Behebungszeit bei auftretenden Feld-Fehlern in Zuliefererketten deutlich gesenkt werden. Des Weiteren bietet FuFeZ mit seiner benutzerfreundlich gestalteten Software Unternehmen die Möglichkeit, die geeignetste Fehlerursache und (Abstell-)Maßnahme für die Fehlerbeschreibung mit geringem Aufwand aus dem vorgeschlagenen Katalog auszuwählen und gegebenenfalls. anzuwenden. Auf diese Weise können Unternehmen Fehlerkosten durch korrekte und schnelle Behandlung von Fehlerereignissen minimieren, nachhaltige Wettbewerbsvorteile erlangen und einen KI-basierten sowie digitalisierten Reifegrad erreichen. Weitere Ziele sind die Verringerung der Belastung und Beanspruchung von Mitarbeitenden im Fehlermanagementprozesses und der Aufbau einer positiven Fehlerkultur.

Diese Vorteile werden erreicht durch:

  1. Entwicklung eines neuen Referenzmodells, welches den aktuellen Forschungsstand abbildet, als auch den praktischen Bedarf der Unternehmen in Zuliefererketten widerspiegelt.
  2. Sicherstellung zur unternehmensübergreifenden Kommunikation durch KI-basierte Empfehlungen des Referenzmodells.
  3. Entwicklung eines Klassifikations-Templates zur konkreten Fehlerbeschreibung durch beziehungsweise für die Zulieferer.
  4. Entwicklung von Ursachen- und dazugehörigen Maßnahmenvorschlägen durch jeweils einen Empfehlungsassistenten, welcher durch Fuzzy-Neuro-Systeme determiniert und kontinuierlich gepflegt werden soll.

Bei Berücksichtigung dieser vier Punkte können die Unternehmen effizienter mit Feld-Fehlern in Zuliefererketten umgehen.

Wie können sich Unternehmen am Projektvorhaben beteiligen?

Das geplante Forschungsprojekt wird durch das Fachgebiet Qualitätswissenschaft der Technischen Universität Berlin initiiert und von der FQS Forschungsgemeinschaft Qualität e. V mit Mitteln des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK) gefördert.

Interessierte Unternehmen, insbesondere KMU, haben die Möglichkeit, sich als Mitglied des Projektbegleitenden Ausschusses zu beteiligen. Hierbei wirken sie bei der Steuerung des Projektes und bei der Beratung der Forschungseinrichtung mit und profitieren frühzeitig von den erzielten Ergebnissen. Hierzu kann auch eine prototypische Umsetzung im Unternehmen durch die Forschungseinrichtung gehören. Detailliertere Informationen zum Vorhaben und Beteiligungsmöglichkeiten finden sich im Projektsteckbrief.

 

Über den Autor: Turgut Refik Caglar

Als wissenschaftlicher Mitarbeiter und Doktorand am Fachgebiet Qualitätswissenschaft der TU Berlin erforscht Turgut Refik Caglar, wie sich KI-Algorithmen durch ständige Kommunikation mit Mitarbeitenden weiterentwickeln und zu kontinuierlichen Prozessverbesserungen beitragen können. Dazu zählen insbesondere Forschungsbereiche wie Empfehlungssysteme, KI-basiertes Shopfloor Management, Verarbeitung natürlicher Sprache (NLP) und kognitive Algorithmen.

Kontakt:
t.caglar@tu-berlin.de

Interview zum FQS-Forschungsvorhaben SAPEQ: Fit für Smart Data Analytics in der Produktentstehung

Insbesondere in der Produktentwicklung kann eine systematische Vorgehensweise im Umgang mit Daten und der gezielte Einsatz von Smart Data dabei unterstützen, Produkte schneller an den Markt zu bringen, Kundenwünsche besser zu adressieren, Fehlerkosten zu reduzieren und eine hohe Qualität sicherzustellen.

Wie Unternehmen vorliegende Daten effektiv für den Produktentstehungsprozess nutzen können, untersuchte das von der FQS Forschungsgemeinschaft Qualität e. V. geförderte Forschungsprojekt SAPEQ. In einem Zeitraum von zwei Jahren haben Wissenschaftler:innen der Technischen Universität Berlin in Kooperation mit der Hochschule Koblenz ein entsprechendes Assistenzsystem entwickelt Es befähigt insbesondere Mitarbeitende in KMU dazu, Smart Data systematisch und methodenbasiert im Produktentstehungsprozess anzuwenden. Im Interview stellen Prof. Dr. Roland Jochem, Leiter des Fachgebiets Qualitätswissenschaft am Institut für Werkzeugmaschinen und Fabrikbetrieb der TU Berlin, und Lena Feindler, Mitarbeiterin im Forschungsprojekt SAPEQ, die wichtigsten Ergebnisse vor. Sie zeigen, wie interessierte Unternehmen das entwickelte Assistenzsystem nutzen können.

Aus Sicht des SAPEQ-Projekts: Mit welchen Herausforderungen sind insbesondere kleine und mittlere Unternehmen (KMU) bei der Produktentwicklung konfrontiert?

Prof. Dr. Roland Jochem: “Die Herausforderungen sind vielseitig. Für das Projekt SAPEQ sehen wir als Herausforderungen von KMU in der Produktentwicklung zum einen die volatilen Märkte gepaart mit den stetig sinkenden Produkteinführungszeiten. Zum anderen laufen KMU Gefahr, den Anschluss bei der Digitalisierung zu verlieren. Zahlreiche Studien belegen, dass Smart Data nicht nur ein Trend ist, sondern ein brisantes Thema für Unternehmen jeder Größe darstellt. Die stetig anwachsende Datenmenge und die sinkenden finanziellen Anforderungen der technischen Umsetzung ermöglichen bereits heute die Nutzung von Smart Data Analytics auch in KMU. Dennoch werden die Potenziale von Smart Data in KMU nicht genutzt.”

Welche Potenziale ergeben sich durch eine effektive und effiziente Integration von Smart Data im Produktentstehungsprozess (PEP)?

Prof. Dr. Roland Jochem: “Der zielgerichtete Einsatz von Smart Data im PEP eröffnet die Möglichkeit, Fehlerkosten zu reduzieren, Kundenanforderungen besser zu erfassen und die Produkteinführungszeit zu verringern. Im Bereich der Forschung und Entwicklung kann dabei eine Verringerung der Kosten und der Time-to-Market von 20 bis 50 Prozent erreicht werden. Die Integration von Smart Data im PEP trägt außerdem zu einer Verbesserung der Entscheidungsqualität bei, da Entscheidungen auf Basis von Daten und Fakten getroffen werden können.”

Warum werden diese Potenziale in KMU häufig nicht genutzt?

Prof. Dr. Roland Jochem: “Eine Voraussetzung, um die Potenziale des Einsatzes von Smart Data erfolgreich nutzen zu können, bildet neben dem Datenzugang auch die zielgerichtete Auswertung. Zwar liegen mitunter (auch in KMU) große Datenmengen vor, doch zeigt sich dabei auch die Kehrseite von großen Datenmengen: Sie sind oftmals unstrukturiert und lassen sich somit schlecht analysieren. Auch ist in vielen KMU eine strukturierte Vorgehensweise gerade in den frühen Phasen der Produktentstehung nicht erkennbar. Die hohe Priorität des Tagesgeschäfts führt dazu, dass wenig Zeit für die strategische Systematisierung von Entwicklungsprozessen zur Verfügung gestellt wird.

Der Anteil der KMU, die bislang Smart Data nutzen, ist im Vergleich zu großen Unternehmen sehr gering. Ursachen dafür sind unter anderem die fehlende Kompetenz der Mitarbeitenden hinsichtlich Smart Data, die Unsicherheiten im Umgang mit Smart Data und die Angst vor hohen Investitionen.”

Welches Ziel wurde im Forschungsprojekt SAPEQ verfolgt?

Prof. Dr. Roland Jochem: “Das Ziel im Forschungsprojekt „SAPEQ – Smart Data Analytics in der Produktentstehung zur Sicherstellung der Qualität bei KMU“ ist die Befähigung der Mitarbeitenden in KMU hinsichtlich der bedarfsgerechten Anwendung von Smart Data in einem systematischen und methodenbasierten PEP. Das entwickelte IT-basierte Konzept qualifiziert KMU dazu, Smart-Data-Methoden situationsgerecht auszuwählen, anzuwenden und zu interpretieren. Dabei werden Smart-Data-Methoden nicht nur situationsgerecht empfohlen. Es erfolgt zusätzlich auch eine adressatengerechte Anleitung für die Anwendung der jeweiligen Methoden. Das IT-basierte Assistenzsystem ist hier als Hilfe zur Selbsthilfe für KMU angelegt. KMU müssen keine externen Schulungen erhalten und können dennoch einen notwendigen und wirtschaftlich sinnvollen Schritt in Richtung Data Science vollziehen.”

Können Sie die Funktionsweise des von Ihnen entwickelten Assistenzsystems genauer erläutern?

Lena Feindler: “Mithilfe des Chatbots namens EGON wird den Nutzer:innen eine passende Methode für ihr spezifisches Problem empfohlen. Innerhalb des Chatbots ist ein Entscheidungsbaum hinterlegt, mit dessen Hilfe EGON eine situative Empfehlung geben kann. Der Entscheidungsbaum wurde auf Basis der zuvor durch Experteninterviews und Literaturanalyse ermittelten KMU-spezifischen Herausforderungen aufgestellt. Durch gezielte Fragestellungen kann EGON so die situative Herausforderung des Nutzenden erkennen und ihm eine passende Empfehlung geben. Anwenderinnen gelangen durch EGON zu der passenden Methode, welche in einer SHINY Web App zur Verfügung gestellt wird. Hier wird die Methode erklärt sowie Hinweise und Tipps zur Durchführung dieser Methode gegeben. Diese Unterstützung des Users steht in multimedialer Form zur Verfügung. Die Anwenderinnen werden Schritt für Schritt von der Datenerhebung bis hin zur zielgerechten Verwertung der Daten geführt.”

Welche Möglichkeiten gibt es für interessierte Unternehmen, mit dem Assistenzsystem zu arbeiten und wie können sie auf das Assistenzsystem zugreifen?

Lena Feindler: “Das im Forschungsprojekt entwickelte Assistenzsystem ist für jeden frei zugänglich. Der Chatbot EGON ist über die Startseite des Projekts erreichbar. Je nach Problemstellung verweist EGON den Nutzer auf die entsprechende Stelle in der SHINY Web App. Unabhängig davon ist die SHINY Web App auch separat zu erreichen. Dort befinden sich sowohl eine Übersicht und Befähigung zu verschiedenen Vorgehensmodellen (Smart Data, Design Thinking und Design for Six Sigma) als auch zu den einzelnen Methodiken.”

Wie geht es nach Abschluss des Projektes weiter?

Prof. Dr. Roland Jochem: “Aufbauend auf den Ergebnissen von SAPEQ soll im Rahmen des geplanten Forschungsprojektes WILMA ein dialogfähiges Assistenzsystem zur Aggregation und Vermittlung von Wissen innerhalb des PEPs von KMU entwickelt werden. Dabei soll EGON in die Entwicklung mit eingebunden werden. Sollten keine Wissenselemente zu einem Thema hinterlegt sein, kann EGON weiterhelfen, das Problem methodisch zu lösen. Anschließend sollen die Ergebnisse in WILMA hinterlegt werden. Hier besteht die Möglichkeit sich als Unternehmen im Rahmen des projektbegleitenden Ausschusses zu beteiligen. Der projektbegleitende Ausschuss kann dabei die Forschungsarbeiten praxisorientiert begleiten und mögliche Ergebnisse bereits unternehmensintern zur Validierung testen.”

 

Über die Interviewpartner:
Prof. Dr.-Ing. Roland Jochem, Leiter Fachgebiet Qualitätswissenschaft am Institut für Werkzeugmaschinen und Fabrikbetrieb, Technische Universität Berlin

Lena Feindler, Fachgebiet Qualitätswissenschaft am Institut für Werkzeugmaschinen und Fabrikbetrieb, Technische Universität Berlin, Mitarbeiterin im Forschungsprojekt SAPEQ

Über das Forschungsprojekt:
Das IGF-Vorhaben 20889 N der FQS Forschungsgemeinschaft Qualität e.V. (FQS), August-Schanz-Straße 21A, 60433 Frankfurt am Main wurde über die AiF im Rahmen des Programms zur Förderung der Industriellen Gemeinschaftsforschung (IGF) vom Bundesministerium für Wirtschaft und Klimaschutz aufgrund eines Beschlusses des Deutschen Bundestages gefördert.

Weitere Informationen zu den Forschungsprojekten SAPEQ und WILMA sowie der zusammenfassende Schlussbericht zum Projekt SAPEQ können über die Geschäftsstelle der FQS Forschungsgemeinschaft Qualität e.V. per E-Mail unter infofqs@dgq.de angefordert werden.

Das SAPEQ Assistenzsystem ist unter den folgenden Links abrufbar:

 

 

KI in der Qualitätssicherung – Open Source Werkzeuge geben künftig den Takt vor

Qualitätssicherung und Qualitätskontrolle gehören vor allem in fertigenden Unternehmen zu den wichtigsten Schritten der Wertschöpfungskette. Hierfür stehen immer mehr Daten zur Verfügung, die es zu verarbeiten gilt. Eine immer größere Rolle spielen hierbei Open-Source-Anwendungen für Big Data Analytics und KI wie beispielsweise Python. Gemeinsam mit DATATRONIQ und der AdvancedAnalytics.Academy hat die DGQ ein Training entwickelt, das den Teilnehmern einen strukturierten Zugang zu dieser Programmiersprache ermöglicht.

Durch die zunehmende Digitalisierung der Produktionsprozesse, den Aufbau und Ausbau von Sensorik sowie die Fortschritte in der Messtechnik stehen künftig deutlich mehr qualitätsbeschreibende und weitaus hochauflösendere Daten zur Verfügung, um die Qualität von Bauteilen oder Prozessen bewerten zu können.

Stetig wachsende Datenvolumina erfordern neue Analysewerkzeuge

Um die großvolumigen Daten künftig effizient verarbeiten und analysieren zu können, werden Werkzeuge benötigt, die sich problemlos mit den wachsenden Datenmengen skalieren lassen. Sie müssen außerdem in der Lage sein, die Datenverarbeitung automatisiert und idealerweise inline durchzuführen. Unternehmen können somit manuelle und stichprobenbasierte Prüfprozesse durch automatisierte Inline-Kontrollen im Fertigungsprozess ersetzen. Neben der vollständigen Prüfabdeckung in Form einer 100-prozentigen Digitalprüfung führt dies auch zu einer weiteren Erhöhung der Wertschöpfung.

KI findet Auffälligkeiten im Prozess und liefert Erklärungen für Prozess-Anomalien

Herkömmliche Mess- und Analysemethoden überwachen in der Regel einzelne Messreihen hinsichtlich einer Verletzung von Toleranzgrenzen (sogenannte univariate Analysen). Algorithmen der Künstlichen Intelligenz (KI) sind dagegen in der Lage, ein Vielfaches an hochfrequenten Zeitreihen auf einmal zu analysieren (multivariate Analysen). Dadurch ist es möglich, auch Korrelationen zwischen einzelnen Messreihen zu analysieren und diese automatisiert nach Auffälligkeiten zu durchforsten. Dabei entdecken KI-Methoden nicht nur Anomalien, sondern liefern zusätzlich auch noch Erklärungskomponenten, um die Ursachen für eine aufgetretene Messanomalie zu deuten und schneller interpretieren zu können. Dadurch lässt sich die Fehlersuche bei Qualitätsproblemen deutlich beschleunigen.

Open-Source-Werkzeuge sind „Quasi-Standard“ für Big Data Analytics und KI

In den letzten zehn Jahren haben sich Open-Source-basierte Werkzeuge zu den Schlüsseltechnologien moderner Big-Data-Infrastrukturen entwickelt – mit Python als „Quasi-Standard“ für Data Analytics, Machine Learning und Künstliche Intelligenz. Dabei geben heute Open-Source-basierte Technologien wie Python, Spark oder Kafka den Takt für die Verarbeitung und die Analyse großer Datenmengen vor. Neue Statistik- und KI-Algorithmen werden in einer weltweiten Community quasi im Tagesrhythmus entwickelt und stehen zur Verwendung in Python bereit.

Bewährte SPC-Methoden werden durch KI-Algorithmen erweitert

Der Vorteil von Python besteht darin, dass alle bewährten und für SPC relevanten Statistik-Methoden verfügbar sind. Darüber hinaus stehen mächtige Visualisierungs- und Chart-Bibliotheken bereit, mit denen man sämtliche Methoden der statistischen Prozesskontrolle (SPC) wie Scatter Plots, Pareto Charts, Bar Charts, Regelkarten bis hin zu Gage RnR Charts abbilden kann. Erweitert werden die SPC Methoden durch mächtige multivariate KI-Algorithmen, welche die Verwendung von unüberwachten (Unsupervised Learning), halb-überwachten (Semi-supervised Learning) und überwachten Lernmethoden (Supervised Learning) ermöglichen. Eine weitere Stärke von Python stellt die Verarbeitung von nahezu allen gängigen Datenformaten dar, so dass beispielsweise auch die Verarbeitung von Audio-, Bild- und Video-Formaten im Rahmen von Qualitätskontrollen problemlos möglich ist.

Ein neues DGQ-Schulungsformat für die Nutzung von Python in der Qualitätskontrolle

Gemeinsam mit der Deutschen Gesellschaft für Qualität und der DATATRONiQ GmbH hat die AdvancedAnalytics.Academy ein innovatives Schulungskonzept entwickelt. Die Teilnehmer werden durch ein dreitägiges Training in die Lage versetzt, die Vorzüge von Python von der Pike auf kennenzulernen. Mit dem erlernten Know-how können sie mit den ersten praktischen Anwendungen in Sachen KI-basierter Qualitätskontrolle beginnen. Das E-Training „Qualitätsprozesse mit Python automatisiert analysieren“ startet zunächst mit einer Einführung in Python, um die Grundzüge der Programmiersprache kennenzulernen. Mit dem Erlernen der wesentlichen Datenverarbeitungsfunktionen, Statistikmethoden und Visualisierungstechniken wird die Grundlage für die Verwendung von Python im Rahmen der statistischen Prozesskontrolle (SPC) geschaffen. Hier werden im Six-Sigma-Kontext die etablierten Statistikmethoden vorgestellt, wie beispielsweise Berechnungen der Prozessfähigkeit, Verwendung von Regelkarten in Abhängigkeit der zugrundeliegenden Stichprobe, Gage RnR. Darüber hinaus behandelt das Training auch gängige Statistikmethoden, wie beispielsweise Pareto-Charts, Bar-Charts, Box-Plots, Violin Plots und Korrelations-Matrizen beziehungsweise -Heatmaps. Ein weiterer Schwerpunkt der Lehrveranstaltung liegt in der praktischen Anwendung von Methoden der Künstlichen Intelligenz im Rahmen der Qualitätskontrolle. Hier werden die theoretischen Grundlagen rund um notwendige Datenaufbereitungstechniken, die wichtigsten Algorithmen, das Trainieren von KI-Modellen, deren Interpretation sowie dem Deployment der Modelle in Rahmen einer Produktivsetzung behandelt. Um den Praxisbezug über die gesamte Schulung hinweg aufrecht zu erhalten, begleiten praktische Übungen alle theoretischen Inhalte. Sämtliche Datenbeispiele in den praktischen Übungen stellt DATATRONiQ in Form anonymisierter Realdaten aus Fertigungsprozessen bereit.

Eine moderne cloudbasierte KI Plattform als kollaborative Schulungsumgebung

Um den Anforderungen an eine reibungslose Durchführung des E-Trainings gerecht zu werden, wurde mit AltaSigma eine moderne cloudbasierte KI-Plattform bereitgestellt. Die Teilnehmer können ausschließlich über den Browser darauf zugreifen. Somit werden lokale Installationen auf den Rechnern der Teilnehmer vermieden. Es ist zudem sichergestellt, dass sie mit den identischen qualitätsgesicherten Python Bibliotheken arbeiten können. Über AltaSigma haben alle Teilnehmer Zugriff auf die Daten, Übungen und Lösungen, welche per Notebooks bereitgestellt werden. Im Rahmen der Bearbeitung der einzelnen Übungen erlernen die Teilnehmer neben der reinen Programmierung in Python zusätzlich das kollaborative Arbeiten in einer modernen cloudbasierten KI-Plattform.

Cloudbasierte KI Plattform als kollaborative Schulungsumgebung

 

Die nächsten Schulungstermine stehen bereits fest
Das E-Training „Qualitätsprozesse mit Python automatisiert analysieren“ geht im Oktober 2022 in die nächste Runde und findet in Form von fünf Nachmittagsveranstaltungen vom 19.10. – 28.10.2022 online statt. Ab sofort ist die Anmeldung zum Training im Online-Shop möglich.

Über den Autor

Stefan Weingärtner ist Gründer und Geschäftsführer der DATATRONiQ GmbH, einem innovativen AIoT Lösungsanbieter für das Industrielle Internet der Dinge (IIoT). Darüber hinaus ist er Gründer und Geschäftsführer der AltaSigma GmbH, einem Anbieter einer innovativen Enterprise AI Orchestration Plattform, mit der Unternehmen Künstliche Intelligenz in ihrem jeweiligen Geschäftsfeld in kürzester Zeit effizient nutzen können. Davor war er Gründer und Geschäftsführer der DYMATRIX. Mit über 25 Jahren Berufserfahrung im Data Science Consulting- und Applikations-Umfeld zählt er zu den erfahrensten und renommiertesten Experten in dieser Domäne in Deutschland. Er ist als Dozent an verschiedenen Hochschulen tätig, Autor zahlreicher Fachbeiträge zum Thema Machine Learning und Herausgeber der Buchreihe „Information Networking”.

1. Süddeutscher Qualitätstag am 1. Juli 2022 – melden Sie sich ab sofort an

Am 1. Juli 2022 feiert der Süddeutsche Qualitätstag seine Premiere in Stuttgart. Seien Sie live vor Ort dabei, um sich mit anderen Teilnehmerinnen und Teilnehmern fachlich fundiert über Neues und Bewährtes aus dem Qualitätsmanagement auszutauschen. Sie wollen wissen, was andere meinen und was es in Zukunft braucht, um das Richtige zu tun?

Im Fraunhofer IPA in Stuttgart erwartet Sie von 9.00 – 16.00 Uhr ein spannungsgeladenes Programm mit gemeinsamen Frühstück sowie einem Barbecue. Freuen Sie sich unter anderem auf folgende Highlights:

Was kommt?
Innerhalb kürzester Zeit haben sich verschiedene Formen der Zusammenarbeit etablieren müssen. Aber ist das schon agil? Was bedeutet diese Entwicklung für die Sicherheit und den Schutz unserer Daten? Wir wagen einen Blick voraus sowie eine kritische Analyse potenzieller Chancen und Risiken einer digitalen Transformation.

Was bleibt?
Was hat im Qualitätsmanagement Bestand? Wie steht es um ihre Audits? Wurde in letzter Zeit etwas vermisst? Welche Zertifizierungen haben Relevanz? Wieviel Akzeptanz bleibt für das Qualitätsmanagement übrig? Mit Berichten aus der Praxis versuchen wir eine Bestandsaufnahme.

Was braucht´s?
Globale Lieferketten erscheinen anfällig! Ist das jetzt die richtige Zeit für weitere Nachhaltigkeitsbestrebungen? Bleibt uns vielleicht gar nichts anderes, als auf Sicht zu fahren? Wie müssen wir neue Strategien gemeinsam mit Partnern in geeignete Prozesse gießen?

Das vollständige Programm wird in Kürze bekannt gegeben. Weitere Informationen finden Sie auf der Website zum Süddeutschen Qualitätstag 2022.

Veranstaltungspartner ist die Deutsche Gesellschaft für Qualität e.V. (DGQ) in Zusammenarbeit mit der Dr. Fritz Faulhaber GmbH & Co. KG, Adolf Föhl GmbH + Co KG und N5 GmbH sowie dem Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA und der Fachzeitschrift QZ Qualität und Zuverlässigkeit.

 

Wir freuen uns, Sie in Stuttgart zu sehen!

Wann: Freitag, 1. Juli 2022, von 09:00 Uhr bis 16:00 Uhr
Wo: Fraunhofer IPA, Nobelstraße 12, 70569 Stuttgart
Kosten: € 69,00 zzgl. MwSt. (€ 49,00 zzgl. MwSt. für DGQ-Mitglieder)

Zur Anmeldung

Bitte beachten: Die Veranstaltung ist auf maximal 150 Teilnehmerinnen und Teilnehmer begrenzt und wird unter Einhaltung eines Hygienekonzepts, das den gültigen coronabedingten Auflagen entspricht, durchgeführt.

Haben Sie Fragen? Nehmen Sie gern Kontakt mit uns in der DGQ-Geschäftsstelle Stuttgart auf! Einfach per E-Mail an stuttgart@dgq.de oder telefonisch unter 0711-95611-60.

Personalbemessung in der Pflege: Echte Verbesserung oder nur akademische Übung?

Die Diskussion über die Personalbemessung in der Langzeit-Pflege ist mindestens so alt wie die Pflegeversicherung. Auch in der Krankenversorgung wurde sie erörtert und schließlich 2018 mit der Pflegepersonaluntergrenzen-Verordnung (PpUgV) auf Gesetzesgrundlage festgelegt und seither weiterentwickelt. Das geschah nicht gerade lautlos. So wie nun in der stationären Altenhilfe, wo ab kommendem Sommer eine viel diskutierte Regelung nach §113c des elften Sozialgesetzbuches (Pflegeversicherung) gelten wird.

Grundlage für die neue Stellenberechnung ist eine Untersuchung, die nach dem Projektleiter und Professor an der Uni Bremen als „Rothgang-Studie“ bezeichnet wird. Darin wird ein Verfahren zur Personalbemessung in stationären Pflegeeinrichtungen vorgeschlagen, das mit dem Gesetz zur Weiterentwicklung der Gesundheitsversorgung (GVWG) nun Einzug in die Personalvorgaben für Heime hält. Die Ziele des Gesetzes sind eine gute, effiziente Pflege und eine sichere Versorgung pflegebedürftiger Menschen.

Die Umsetzung gestaltet sich holprig, der Nutzen wirft Fragen auf. Im Grunde geht es darum, welche Pflegeleistungen in Deutschland von Fachkräften mit welchem Ausbildungsniveau erbracht werden und wie viel Personal dafür von Pflegeeinrichtungen vorgehalten werden muss. Welche Kriterien in dem Projekt zur Entwicklung des Personalbemessungs-Verfahrens (PeBeM) eine Rolle gespielt haben und ob die Ergebnisse dem Praxistest standhalten werden, wird mit der Umsetzung noch einmal in den Fokus des öffentlichen Diskurses geraten.

Vor dem Hintergrund der dramatischen Personalsituation in der Pflege, die durch die SARS-CoV-2-Pandemie noch verstärkt wird, stellen sich aber weitere Fragen:

Führen Personalbemessungsvorgaben per se zu einem Zuwachs an Pflegekräften?

Seit nunmehr fast drei Jahrzehnten wird beklagt, dass die demographische Spirale die Pflege in allen Sektoren an ihre Grenzen bringt. Zudem herrscht seit langem Pflegenotstand. Es gibt also einen tatsächlichen Mangel an Pflegekräften. Der betrifft über die Pflegesektoren hinweg inzwischen alle beteiligten Qualifikationsniveaus von Pflegehilfskräften bis zur Fachpflege.

Wenn in dieser Situation Richtlinien zu einer Mindestausstattung an Pflegepersonal eingeführt werden, so scheint eines logisch: Ohne flankierende Maßnahmen führt das in den Kollaps. Denn wenn tatsächlich Pflegekräfte im System fehlen, schafft die Reglementierung selbst keine neuen Stellen. Vielmehr kann das sogar dazu führen, dass Einrichtungen nicht aufnehmen dürfen und behandeln können, wenn sie die Personalvorgaben nicht erfüllen. Dann müssen Pflegebedürftige abgewiesen oder Krankenbehandlungen verschoben werden, was im Übrigen bereits jetzt segmentübergreifend geschieht (Stüben, 2018; Reiners, 2019; Preiss, 2021).

Verbessern Personalbemessungs-Regelungen die Situation des Bestandspersonals?

Die Regelungen zur Personalbemessung nach §113c SGB XI sehen vor, dass Pflegeleistungen in Zukunft gestaffelt nach Qualifikationsniveaus erbracht werden. Das heißt in der Praxis, dass die Pflegekraft nicht mehr das sprichwörtliche Mädchen für alles ist, sondern nur die Tätigkeiten ausführt, die dem jeweiligen Kompetenzbereich entsprechen. Das wird in der Realität zu einer radikalen Änderung der Abläufe in Pflegeheimen führen und jahrelang geübte Prozesse aufwirbeln. Ob dies in der Summe und im Ergebnis durch Bestands-Pflegekräfte als Verbesserung wahrgenommen wird, ist fraglich.

Um eventuelle Effekte messbar zu machen, wurde in Schleswig-Holstein ein Vorhaben gemeinsam mit der Uni Bremen gestartet: StaVaCare 2.0 OE SH (Görres et al., 2021). Dabei soll herausgefunden werden, ob die Umsetzung der Personalbemessungs-Vorgaben nach dem PeBeM zu mehr Zufriedenheit beim Pflegepersonal führt und sich gesundheitsfördernd auswirkt (vdek, 2022). Ob sich die positiven Hinweise aus einer Vorstudie verdichten, bleibt abzuwarten.

Haben Personalbemessungsinstrumente eine Wirkung auf die Attraktivität der Pflegeberufe?

Gleichzeitig nimmt nicht nur der Bedarf an Pflegeleistungen zu, sondern die Anforderungen an die pflegerische Tätigkeit werden auch immer komplexer. Man denke nur an die altersbedingten Mehrfachleiden oder Veränderungen im Zusammenhang mit demenziellen Erkrankungen, die pflegefachliche Breitband-Kompetenzen auf hohem Niveau erforderlich machen. Der technische Fortschritt erweitert zusätzlich die Möglichkeiten in der Praxis. Außerdem führt der Zuwachs an Wissen durch die Pflegeforschung zu einer Veränderung der Möglichkeiten in der Pflegediagnostik und pflegerischer Interventionen.

Das mit dem oben genannten Gesetz eingeführte Personalbemessungsinstrument ist allerdings quasi rückwärtsgewandt. Es bezieht nur die Tätigkeiten eines bestehenden Handlungs- und Leistungskataloges ein und mit welcher Qualifikation diese nach jetzigem Stand der Ausbildungs-Curricula zu erbringen sind.

Dass die Attraktivität des Berufsfeldes auch etwas mit den Erwartungen von Bewerberinnen und Bewerbern zu tun hat, ist wohl unstrittig. Sofern die Personalbemessung aber nur den Status Quo berücksichtigt und absehbare technische und pflegefachliche Entwicklungen außen vor bleiben, ist kein Zugewinn durch das PeBeM zu erwarten. Um die Attraktivität der Pflegeberufe durch Personalbemessung zukunftssicher zu machen, müssten zunehmende Komplexität, Professionalisierung und Technisierung in die Stellenvorgaben einbezogen werden.

Als Argument für eine Attraktivitätsverbesserung bleibt daher nur die geplante Fokussierung auf die jeweils erworbenen Kompetenzen der Pflegekräfte und den damit einhergehenden neuen Zuschnitt der Stellenprofile. Der Gesetzgeber hat dazu im Pflegeberufegesetz (PflBG) sogenannte vorbehaltene Tätigkeiten benannt. Die legen übrigens auch die Qualität der Pflege in die Hände der Pflegefachkräfte.

Führen Personaluntergrenzen zu besseren Pflegeergebnissen?

Das ausgesprochene Ziel der Einführung von Personaluntergrenzen und entsprechender Bemessungsinstrumente ist die Sicherung der Qualität von Pflegeleistungen (BMG, 2021). Im klinischen Bereich wurde dieser Zusammenhang durch Studien belegt und diente damals als Argument für deren Einführung (ärzteblatt, 2017).

Auffällig ist, dass die gesetzlichen Regelungen für die Klinik vor allem das Patientenrisiko in den Mittelpunkt stellen. Das soll durch Mindestbesetzungen mit einem Qualifikationsmix begrenzt werden. Die Verringerung von Gefahren ist aber nicht per se gleichzusetzen mit Pflegequalität.

Aus fachlicher Sicht müsste sich die Personalbemessung vor allem an guten Pflegeergebnissen orientieren und nicht nur an der Abwendung von Gefahren. Das entspräche wohl auch eher dem Willen der Leistungsempfänger, nämlich Patientinnen und Patienten, Pflegebedürftigen, Angehörigen. Derartige Ergebnisse werden aber nicht mit der kleinsten zulässigen Zahl an Fachpersonal erreicht.

Fazit

Die akademische Leistung, ein Personalbemessungsinstrument erschaffen zu haben, ist erbracht. Aber weder wurden vor der jetzt gesetzlich festgelegten Einführung die Grundannahmen der Berechnung hinterfragt, noch gibt es im Ansatz ausreichend Personal, um die Vorgaben zu erfüllen. Es ist letztlich nicht erkennbar, dass es sich um ein zukunftsweisendes Instrument im Sinne des pflegefachlichen Fortschritts handelt.


Ärzteblatt (2017) Personalschlüssel in der Pflege: Andere Länder machen es vor, https://www.aerzteblatt.de/nachrichten/73008/Personalschluessel-in-der-Pflege-Andere-Laender-machen-es-vor

BMG (2021), https://www.bundesgesundheitsministerium.de/fileadmin/Dateien/3_Downloads/K/Konzertierte_Aktion_Pflege/Roadmap_zur_Einfuehrung_eines_Personalbemessungsverfahrens.pdf

Görres et al. (2021) Stabilität und Variationen des Care-Mix in Pflegeheimen unter Berücksichtigung von Case-Mix, Outcome und Organisationscharakteristika – Organisationsentwicklung in Schleswig-Holstein, https://www.ipp.uni-bremen.de/abteilungen/praevention-und-gesundheitsfoerderung/promotionsprojekte/laufende-promotionsprojekte?proj=847&page=1

Preiss, F. (2021) Mehr als 800 Intensivbetten in der Region können nicht genutzt werden, https://www.rbb24.de/panorama/beitrag/2021/12/berlin-brandenburg-intensivbetten-divi-personalmangel.html

Reiners, W. (2019) Personalnot gefährdet Gesundheit der Patienten, https://www.stuttgarter-nachrichten.de/inhalt.krankenhaeuser-alarmiert-personalnot-geht-auf-kosten-der-klinikpatienten.4e178e6b-4df2-402f-bfc0-0b6bc5f21f85.html

Stüben, H. (2018) Altenpflege: Personalnot bedrohlich groß, https://www.kn-online.de/Nachrichten/Schleswig-Holstein/Altenpflege-in-Schleswig-Holstein-Personalnot-ist-bedrohlich-gross

Vdek (2022).
https://www.vdek.com/LVen/SHS/Presse/Pressemitteilungen/2022/MOdellprojekt_zu_Organisationsentwicklung_und_betrieblicher_Gesundheitsfoerderung_in_stationaeren_Pflegeeinrichtungen/_jcr_content/par/download/file.res/20220125%20Gem%20PM%20Projekt%20StaVaCare.pdf

 


7. Norddeutscher Qualitätstag am 14. Juni 2022 – jetzt zur Online-Konferenz anmelden

Am 14.06.2022 geht der Norddeutsche Qualitätstag erneut mit einem spannenden Programm in seine siebte Ausgabe – melden Sie sich ab sofort dafür an.

Die Online-Konferenz bietet ungewöhnliche Einblicke und gleichzeitig praxisnahe Fachimpulse. Erfahren Sie beispielsweise, wie die Polizei Hamburg ihr neues Beschwerdemanagement organisiert. Mit mehr als 1.000 Vorfällen pro Jahr, meist hoch emotional, keine leichte Herausforderung. Der Praxisbericht gibt aber ganz sicher viele Anregungen für die Reklamationsbearbeitung im eigenen Betrieb.

Im zweiten Keynote-Vortrag spricht Eckhard Jann über den Umgang mit Fehlern. Er ist aktiver Flugkapitän einer renommierten deutschen Fluggesellschaft. Er weiß durch seinen verantwortungsvollen Job im Cockpit, warum es so entscheidend ist, Fehler schnell zu entdecken und zu kommunizieren. Dieses Know-how gibt Jann als Sicherheits- und Krisenmanager weiter. So beleuchtet er beim Norddeutschen Qualitätstag, was Unternehmen aus Fehlern lernen können, um resilienter und besser zu werden. Und was sich daraus für die Führung von Mitarbeitenden und die Organisation ableiten lässt.

Aus der Praxis für die Praxis

Die Teilnehmenden des 7. Norddeutschen Qualitätstags erwartet neben den zwei interessanten Vorträgen ein umfangreiches Workshop-Programm mit konkreten Beispielen aus der Praxis rund um das Prozess- und Qualitätsmanagement. Veranstaltungspartner sind die Deutsche Gesellschaft für Qualität e.V. (DGQ), die ConSense GmbH, die Deutsche Gesellschaft zur Zertifizierung von Managementsystemen (DQS) sowie die Fachzeitschrift QZ Qualität und Zuverlässigkeit.

Im Workshop-Angebot können sich die Teilnehmenden ein individuelles Programm zusammenstellen. Stets stehen dabei die praktische Umsetzung und der unmittelbare Austausch im Zentrum. Inhaltlich geht es zum einen um den ganzheitlichen Ansatz im Qualitätsmanagement – sei es über integrierte Managementsysteme oder das Zusammenspiel mit Wissensmanagement und betrieblichen Gesundheitsmanagement. Zum anderen werden aktuelle Trends aufgegriffen, wie nachhaltiges Wirtschaften oder agile Projektsteuerung. Daneben wird es Raum und Zeit zum Networking mit den Fachleuten und im Teilnehmendenkreis geben.

Das vollständige Programm steht als Download zur Verfügung.

 

Wir freuen uns, wenn Sie online dabei sind!

Wann: Dienstag , 14. Juni 2022, von 10:00 Uhr bis 15:00 Uhr
Kosten: € 49,00 zzgl. MwSt. (€ 29,00 zzgl. MwSt. für DGQ-Mitglieder)

Zur Anmeldung

 

Um reibungslos an der virtuellen Tagung, die über das Tool Zoom läuft, teilzunehmen, beachten Sie bitte die Hinweise zu den technischen Voraussetzungen >>>hier.

Haben Sie Fragen? Nehmen Sie gern Kontakt mit uns in der DGQ-Geschäftsstelle Hamburg auf! Einfach per E-Mail an hamburg@dgq.de oder telefonisch unter 040 85 33 78 60. Bei allen organisatorischen Fragen und Rückfragen zur Anmeldung hilft Ihnen auch unser Veranstaltungspartner ConSense GmbH (events@consense-gmbh.de , 0241 990 93 93 0) weiter.