Menü

Das Audit – kurz und kompakt erklärt

Audit, Leitfaden

Audit – was ist das?

Ein Audit im weiteren Sinne bedeutet, eine objektive Analyse zur Verbesserung der Betriebsorganisation systematisch durchzuführen. Mittels Interviews, Beobachtung und Einsichtnahme wird geprüft, ob ein Unternehmen geltende Vorschriften, Gesetze oder Bestimmungen einhält. Als Grundlage dienen zumeist ISO-Normen – zum Beispiel zu Managementsystemen für Qualität, Umwelt, Energie oder zu Branchenspezifika. Informationen aus dem Audit helfen Führungskräften und Abteilungsleitern, solide Entscheidung zu treffen. Dies bietet die Chance für kontinuierliche Verbesserungen der Betriebsorganisation und der Realisierung von Unternehmenszielen.

Warum braucht man ein Audit?

Zwischen einem Qualitätsziel und dem gewünschten Ergebnis steht eine eigene Ablauforganisation. Ein Unternehmen kann in diesem Fall die ISO 9001 für Qualitätsmanagementsysteme oder auch eigene Vorgaben anwenden. Ziel ist es, Betriebsblindheit im Sinne von „Das war schon immer so“ zu überwinden und Handlungsbedarf abzuleiten beziehungsweise den Sinn lange bestehender Vereinbarungen objektiv zu bestätigen oder zu hinterfragen. Gleichzeitig wird durch ein Audit die notwendige Kommunikation gefördert, um organisatorische Verbesserungen umsetzen zu können.

Dabei geht es nicht darum, sämtliche Arbeitsabläufe aus Prinzip regelmäßig zu verändern, sondern auch von bewährten und effizienten Arbeitsweisen zu lernen. Überflüssige Reibungsverluste, Risiken und Fehler können im Rahmen eines Audits erkannt und künftig vermieden werden. Auf der anderen Seite sollten Audits auch immer Stärken und Potenziale einer Organisation identifizieren. Somit erhalten Führungskräfte Informationen, um daraus solide Entscheidungen und Prozessgestaltungen abzuleiten.

Wertvolle Unterstützung zur Erreichung von Unternehmenszielen leisten Audits bei den folgenden Aufgaben:

  • Potenziale zur Optimierung von Prozessen und Arbeitsweisen ermitteln
  • Ein Managementsystem, zum Beispiel für Qualität, Umwelt, Energie, Informationssicherheit, Daten- oder Arbeitsschutz, nach international anerkannten ISO-Standards einführen und weiterentwickeln
  • Eine Einführung oder die Einhaltung einer neuen Vorgabe bewerten
  • Eine Änderung von Abläufen auf ihre Umsetzung in der Praxis prüfen
  • Chancen und Risiken ermitteln
  • Die Auswirkungen von Veränderungen bei Prozessen, Produkten, Standorten und Rahmenbedingungen auf die betriebliche Praxis verfolgen

Wo und wie werden Audits eingesetzt?

Audits können auf verschiedene Weise durchgeführt werden. Die Verbesserung interner Prozesse nennt sich „Internes Audit“ oder 1st party Audit. Hierbei wird die Betriebsorganisation unter die Lupe genommen und bestehende Abläufe hinterfragt. Im Fokus steht dabei, wie man erfolgreich zum Nutzen von Kunden und Unternehmen zusammenarbeiten kann. Ein internes Audit ist daher ein wichtiges Instrument, um interne Kommunikation zu fördern und Verbesserungspotenziale herauszuarbeiten.

Internes Audit

 

In einigen Branchen, wie zum Beispiel der Automobilindustrie, der chemischen Industrie oder der Herstellung von Medizinprodukten ist es üblich, dass B2B-Kunden ihre Lieferanten auditieren. Mithilfe von Lieferantenaudits, auch 2nd party Audits genannt, möchten sich die Abnehmer selbst von der Leistungsfähigkeit der Organisation ihres Lieferanten überzeugen. In einigen Wirtschaftszweigen werden auch nachgelagerte Kundenaudits durchgeführt, um deren Bedarf zu ermitteln.

Lieferantenaudit

 

Um in einer globalisierten und zunehmend schnelllebigen Welt Vertrauen zu schaffen, möchten viele Unternehmen in der Öffentlichkeit und auch den Kunden gegenüber ein Managementsystem nach internationalen Standards vorweisen. Sie lassen sich dazu von einem unabhängigen Zertifizierungsunternehmen prüfen. Das externe Audit oder auch 3rd party Audit ist eine stichproben-basierte Begutachtung. In der Regel wird die Erfüllung der Anforderungen bestimmter Normen, wie der ISO 9001 für das Qualitätsmanagement überprüft. Für die Auditierung dieser Standards existieren kompetente und seriöse Zertifizierungsunternehmen, die eigens dafür akkreditiert sind.

Externes Audit

Die Planung des einzelnen Audits

Auditziel – wozu trägt das Audit bei

Ein Auditziel strategischer Art kann sein, zu prüfen, ob ein neuer Kunde oder eine neue Branche mit den bestehenden Prozessen bedient werden kann.  Ein Auditziel auf der operativen Ebene kann sein, die tatsächliche Umsetzung eines neuen qualitätssichernden Arbeitsablaufs zu prüfen.

Auditkriterien – welche Vorgaben oder Wünsche sollen erfüllt werden?

Auditkriterien sind je nach Auditziel: ISO-Normen für Managementsysteme aller Art, interne Arbeitsanweisungen, Kundenanforderungen, Leistungsindikatoren, Projektauftrag, Gesetze und Vorschriften, Leitfäden oder andere Unternehmensziele und Perspektiven.

Auditart – welcher Bereich wird bei 1st, 2nd oder 3rd party betrachtet?

  • Beim Managementsystemaudit werden Stichproben zur Normerfüllung quer durch alle Prozesse und Organisationseinheiten genommen. Die Unternehmenszentrale ist immer dabei.
  • Das Prozessaudit nimmt Stichproben in einem oder mehreren Prozessen und in den jeweils zuständigen Organisationseinheiten.
  • Das Produktaudit beurteilt sowohl die erreichte Produktqualität als auch den Weg dorthin. Gleiches gilt für ein Dienstleistungsaudit.
  • Das Performance-Audit untersucht eine bestimmte Leistungserbringung.
  • Das Projekt-Audit hilft, Projektfortschritte und Meilensteine zu beurteilen.
  • Das Compliance-Audit prüft, ob rechtliche oder behördliche Vorschriften und ihre organisatorischen Handlungspflichten in den betroffenen Prozessen eingehalten werden.

Auditorganisation – wie erreicht das Audit am besten sein Ziel?

Zum richtigen Zeitpunkt am richtigen Ort zu sein gilt auch für Audits. Zeitlich muss zum Beispiel berücksichtigt werden, ab wann eine Veränderung in der Ablauforganisation in der Praxis sinnvoll geprüft werden kann. Je nachdem, wie sich eine aussagekräftige Stichprobe zum Auditziel gestaltet, sind Standorte, Bereiche und zu befragende Personen festzulegen.

Die Auditmethode beinhaltet zumeist einen Mix aus Dokumentensichtung, Ortsbegehung, Beobachtung und Befragung. Es können Umfragen initiiert werden, Einzel- oder Gruppengespräche stattfinden. Wichtig ist, die richtigen Personen zum Thema zu befragen und fragen zu lassen. Sie benötigen teils Fachwissen, teils den Überblick über den auditierten Bereich.

Die Kompetenz der Auditoren ist eine ebenso wichtige Voraussetzung für ein gelungenes Audit wie die Kooperation der daran Beteiligten.

Hybride Varianten des Audits

Neben der Durchführung von Audits in Präsenzform bietet die Digitalisierung eine Möglichkeit, Audits durchzuführen, ohne physisch anwesend zu sein. Auch hybride Varianten der Begutachtung von Prozessen werden in der Unternehmenspraxis immer relevanter. Es gibt unterschiedliche Möglichkeiten, diese Remote-Auditmethoden anzuwenden. Dank des heutigen Stands der Technik lassen sich alle Auditstufen auf diese Weise abbilden. Nachfolgend finden Sie eine kurze Erläuterung der möglichen Ausgestaltungen:

Fully Remote Audit

Alle Auditierenden sind nicht am Ort des Geschehens, sondern entweder im Homeoffice, arbeiten mobil oder sind in der Zentrale einer Organisation und auditieren einen anderen Standort. Geeignet sind vollständige Remote Audits grundsätzlich für Organisationen aller Größen in allen Wirtschaftssektoren. Die Einsparpotenziale bezüglich Reisekosten und -zeiten kommen in diesem Format vollständig und umfänglich zur Geltung.

Partly Remote Audit

Partly Remote beschreibt eine Mischform, bei dem das Audit nur teilweise vor Ort stattfindet und/oder beispielsweise Auditierender und Co-Auditierender von unterschiedlichen Orten aus auditieren.

Remote System Analysis, Remote Readiness Checks

Hierbei handelt es sich um Audits, die Ihren Schwerpunkt bei der Betrachtung, Analyse und Bewertung von Dokumenten haben. Dies sind Prozesse, Verfahren, Anweisungen, Leitlinien und Strategien – im weitesten Sinne also Vorgabedokumente.

Remote Follow-up

Ein weiteres, grundsätzlich gut als Remote Audit durchführbares Themenfeld sind Schließungen von Abweichungen aus zurückliegenden Audits beziehungsweise auch die darin eingebettete Bewertung der Wirksamkeit einer Maßnahme. Überall dort, wo keine persönliche Inaugenscheinnahme notwendig ist, kann dies als Fernbewertung absolviert werden.

Welche Eigenschaften braucht ein/e gute/r Auditor:in?

Im Rahmen eines Audits tauschen sich Menschen in Organisationen über ihre Arbeitsweise, Effektivität und Effizienz sowie Verbesserungsmöglichkeiten für Prozesse aus. Um diesen Austausch möglichst konstruktiv zu gestalten, ist es wichtig, professionell und mit Einfühlungsvermögen vorzugehen. Das betrifft nicht nur die Gesprächssituation selbst, sondern auch die Vor- und Nachbereitung sowie die Kommunikation über die Ergebnisse und die tatsächlich erreichten Verbesserungen. Um all diese Aufgaben erfolgreich zu meistern, benötigt ein/e Auditor:in eine Reihe von Kompetenzen:

  • Methodische Kompetenzen:
    Ein/e Auditor:in muss ziel- und ergebnisorientierte Gespräche gemäß dem spezifischen Auftrag führen können, die Normen rund um die ISO 19011, die ISO 9000er Familie beherrschen und gute Analysefähigkeiten auch bei komplexen Sachverhalten aufweisen. Dabei sollten Auditierende Nachweise stets objektiv bewerten, priorisieren und Ergebnisse dokumentieren beziehungsweise präsentieren können.
  • Soziale Kompetenz:
    Neben den klassischen sozialen Fähigkeiten wie Teamfähigkeit, Kommunikationsfähigkeit- und Moderationsfähigkeiten müssen Auditierende auch ein Gespür für die Meinung, Erfahrung und Ideen anderer Personen haben und diese moderieren können. In Gesprächen und Befragungen wertschätzend zu agieren, Empathie zu zeigen und kulturelle Unterschiede einzubinden, ist genauso essenziell, wie Feedback richtig vermitteln zu können. Andersherum ist es von zentraler Bedeutung, dass Auditierende überzeugend argumentieren sowie Konflikte aushalten und beilegen können.
  • Fachliche Kompetenzen:
    Kenntnisse über die Aufbau- und Ablauforganisation einer Organisation sind für ein gutes Audit unverzichtbar. Dies beinhaltet auch die Tätigkeiten, Struktur, Kultur und Führung eines Unternehmens zu kennen und zu verstehen. Zudem müssen Auditierende Normen, rechtliche Vorschriften sowie Vertragsbedingungen interpretieren können und ausreichende Kenntnisse über Branchen- und Technologie-Know-how besitzen. Interessierte Parteien einschätzen zu können und spezifische Rahmenbedingungen mit einzubeziehen, sind relevante Kompetenzen für jedes Audit.
  • Personale Kompetenz:
    Eine Prise Humor ist bei einem Audit genauso willkommen wie ein selbstsicheres und gut organisiertes Auftreten des Auditierenden. Der Umgang mit vielen verschiedenen Menschen während eines Audits erfordert ein integres und verantwortungsvolles Handeln, das neben Objektivität und Aufgeschlossenheit auch Zuverlässigkeit und eine schnelle Auffassungsgabe beinhaltet. Jede/r Auditor:in muss in der Lage sein, sich selbstständig zu organisieren, Recherchen durchzuführen und Zusammenhänge zu kombinieren.

Formale Voraussetzungen für die Auditoren-Tätigkeit in der Praxis

Für interne Auditoren gibt es zuerst einmal keine formalen Vorgaben. Selbstverständlich sollten interne Auditoren mit den auditierten Prozessen und den entsprechenden Auditkriterien vertraut sein und weitere Kompetenzen für ihre Tätigkeit mitbringen. Sobald sie ein bestimmtes Regelwerk auditieren, sollten sie prüfen, ob dort bestimmte Kompetenzen von den Auditoren gefordert werden.

Lautet der Auditauftrag, die Einhaltung von ISO 9001 zu ermitteln, müssen Auditor:innen selbstverständlich diese Norm gut kennen und auf die Unternehmenspraxis übertragen können. Nach ISO 9001 zertifizierte Unternehmen haben oft über einen Qualitätsmanagementbeauftragten – als Normenübersetzer – sichergestellt, dass die Anforderungen der Norm durch die Aufbau- und Ablauforganisation abgedeckt werden. Es sollte mindestens eine Person in der Lage sein, Managementsystemaudits nach ISO 9001 durchzuführen. Interne Auditor:innen benötigen mindestens Fachwissen über die Prozesse der Organisation sowie über die internen Vorgaben, die sie an den praktischen Abläufen spiegeln.

Es kommt immer noch vor, dass Zertifizierungsauditoren einen Schulungsnachweis von internen Auditoren fordern. Er ist aber nicht obligatorisch. Gemäß DIN EN ISO 9001:2015, Kapitel 7.2 „Kompetenz“, gilt für Auditor:innen wie auch für alle anderen Beschäftigten stattdessen:

  • Erforderliche Kompetenz bestimmen.
  • Sicherstellen und angemessen dokumentieren, dass die Beschäftigten auf Grundlage angemessener Ausbildung, Schulung oder Erfahrung kompetent sind.
  • Die Wirksamkeit von Maßnahmen zum Kompetenzaufbau bewerten.

Nichtsdestotrotz sind professionelle Schulungen, die erforderliche Kompetenzen vermitteln, durchaus empfehlenswert, um eine gute Auditpraxis zu etablieren.

Manche spezifische Kundenforderung oder Norm kann verpflichtend festlegen, dass interne oder Lieferantenauditoren weitere Kompetenzen vorweisen müssen. Beispielsweise fordert IATF 16949:2016 das Verständnis für den prozessorientierten Ansatz der Automobilindustrie, für kundenspezifische und normative Anforderungen, für relevante Qualitätsmethoden, den Auditprozess, das Produkt und gegebenenfalls für den technischen Produktionsprozess.

Für Zertifizierungsauditoren gelten Regularien der Deutschen Akkreditierungsstelle (DAkkS), die wiederum internationale Regelwerke des International Accreditation Forum (IAF) zugrunde legt. Das IAF hat das Zertifizierungsschema der International Personal Certification (IPC) anerkannt. Verpflichtend gelten aber nur ISO 17021-1 bis 3, welche festgelegte Kompetenzkriterien von den Zertifizierungsgesellschaften fordern und die benötigte Breite von Wissen und Fertigkeiten der Umwelt- und Qualitätsauditoren beschreiben. Die Zulassung für Regelwerke wie ISO 9001 oder IATF 16949 erteilt das beauftragende Zertifizierungsunternehmen, bei dem sich Auditoren bewerben können.

Zulassungsbedingungen und der vorhandene Bedarf entscheiden über die individuellen Einsatzmöglichkeiten und den Zeitraum, ab wann eine Person eigenständig als Auditleiter arbeiten kann. Die Berufung als Zertifizierungsauditor ist auf drei Jahre befristet. Die Zertifizierungsgesellschaft überprüft danach erneut die Erfüllung der Zulassungsbedingungen.

Für jemanden, der eine freiberufliche beratende Tätigkeit ansteuert, sind Zertifizierungsaudits eventuell ein wichtiges wirtschaftliches Standbein.

Fragen, die Auditierende stellen sollten

Fragen Sie als auditierende Person besser nicht, „warum“ das Gegenüber etwas so oder nicht anders bearbeitet. Das bringt Gesprächspartner:innen schnell in eine persönliche Rechtfertigungssituation. Beim Audit geht es grundsätzlich darum, auf sachlicher Ebene an der Entwicklung der Betriebsorganisation zu arbeiten. Das funktioniert auch bei weniger erfahrenen Auditierenden schon ganz gut mit den folgenden W-Fragen:

  • Wie erhalten Sie Ihren Arbeitsauftrag?
  • Was läuft richtig gut?
  • Wo sehen Sie Verbesserungspotenziale?
  • Woran erkennen Sie, ob Sie mit dem Ergebnis zufrieden sein können?
  • Wer weiß davon?
  • Wie geht es dann weiter?
  • Was ist der Dauerbrenner?
  • Welchen Bedarf äußert Ihr Kunde/Kollege/Chef?
  • Wie kann man das beim nächsten Mal besser regeln?
  • Welche Unterstützung benötigt eine Veränderung?
  • Wie würde die Konkurrenz vorgehen, um Ihre Kunden abzuwerben?

Da Auditoren zur Reflexion von Arbeitsprozessen eine Vorbildfunktion einnehmen, ist eine gute Abschlussfrage:

  • Was hat Ihnen das Audit heute gebracht?

 

Sie möchten mehr über das Thema Audit erfahren?

Die DGQ Themenseite Audit bietet Ihnen auf unserer Homepage Whitepaper, Blogposts und Fachbeiträge rund um das Thema Audit. Dort steht Ihnen auch unser Leitfaden „Willkommen in der Welt des Audits“ in Deutsch und Englisch als kostenloser Download zur Verfügung.

DGQ-Fachkreis-Veröffentlichung zu Remote Audits findet Eingang in internationale Normung

Die DGQ treibt das Thema Remote Audits auf internationaler Ebene voran: Ein kürzlich veröffentlichtes Impulspapier des DGQ-Fachkreises Audit und Assessment hat direkten Eingang in ein aktuelles Normungsvorhaben der Internationalen Organisation für Normung (ISO) gefunden. Das Papier mit dem Titel „Das Remote Audit als zukunftsweisende Methodik für risikobasierte Audits“, das einen fachlichen Überblick über die wichtigsten Rahmenbedingungen für erfolgreich durchgeführte „Audits aus der Ferne“ enthält, dient in englischer Sprache dem ISO-CASCO-Ausschuss bei dessen Normungsvorhaben ISO 17012 als Orientierung. Ziel ist ein Leitfaden für die Durchführung von Remote Audits.

Die DGQ ist gleich in mehrfacher Weise an der Entstehung der ISO 17012 beteiligt: Ihre Vertreter, Thomas Votsmeier, Leitung Normung bei der DGQ, sowie Matthias Wernicke, Leiter des DGQ-Fachkreises Audit und Assessment, wirken zudem sowohl im entsprechenden DIN-Normungsausschuss als auch direkt in der Arbeitsgruppe WG 61 mit.

Hintergrund: Methoden zur Fernbewertung

Fernmethoden werden bereits seit mehreren Jahren für die Auditierung virtueller Tätigkeiten eingesetzt, haben im Zuge der Corona-Pandemie jedoch an Bedeutung gewonnen. Neben dem Vorteil der ortsunabhängigen Bewertung bietet das Remote Audit auch das Potenzial, Ressourcen in Form von Personal- und Reisekosten einzusparen. Umgekehrt erfordert die Durchführung von Remote Audits auch eine umfassende Vorausplanung bezüglich Themen wie Vertraulichkeit, Datensicherheit, Infrastruktur oder der Verfügbarkeit technischer Ressourcen.

Das Normungsvorhaben ISO 17012 war im Herbst vergangenen Jahres gestartet. Interessierte finden das Impulspapier des Fachkreises hier.

 

8. Norddeutscher Qualitätstag thematisiert Rolle und Praxis des QM in Unternehmen

Norddeutscher Qualitätstag, NQT

Am 21. Juni 2023 lädt die DGQ wieder alle Qualitätsinteressierten zum Norddeutschen Qualitätstag nach Hamburg. Bei dieser Hybridveranstaltung ist eine Teilnahme sowohl in Präsenz als auch online möglich.

In einleitenden Keynotes thematisieren hochkarätige Referenten aus unterschiedlichen Perspektiven den Stellenwert des Qualitätsmanagements in Organisationen und die damit verbundene eigene Rolle. Stefanie Hirsch, President Quality & Regulatory Affairs bei der Drägerwerk AG in Lübeck, gibt praxisnahe Einblicke, wie Qualitätskommunikation im Unternehmen gelingen kann. Jens Portmann, Geschäftsführer der renommierten Hamburger Kommunikationsagentur „Zum goldenen Hirschen“, zeigt, wie Kreativität bei unternehmerischen Herausforderungen hilft – und ungewöhnliche, aber dadurch oft bessere Lösungen liefert.

Aus der Praxis für die Praxis

Neben den beiden spannenden Vorträgen erwartet die Teilnehmerinnen und Teilnehmer des 8. Norddeutschen Qualitätstages ein umfangreiches Workshop-Programm mit konkreten Beispielen aus der Praxis rund um das Prozess- und Qualitätsmanagement. Partner der Veranstaltung sind neben der Deutschen Gesellschaft für Qualität e.V. (DGQ) die ConSense GmbH, die Deutsche Gesellschaft zur Zertifizierung von Managementsystemen (DQS) sowie die Fachzeitschrift QZ Qualität und Zuverlässigkeit.

Die praktische Umsetzung und der direkte Austausch stehen im Mittelpunkt des Workshop-Angebots am Nachmittag. Suchen Sie sich das Thema aus, dass Sie am meisten interessiert:

Online und vor Ort

  • Warum das Qualitätsmanagement den entscheidenden Beitrag für Unternehmenserfolg leisten wird
    Sören Hagge und Dennis Larrabe von Robin Consulting
  • Lasst uns gemeinsam Prozesse neu denken
    Mirko Kloppenburg, Gründer, NewProcessLab.com

Ausschließlich vor Ort, nicht online

  • Liefersorgfaltspflichtengesetz: Lieferantenmanagement einführen
    Altan Dayankac, Global Program Manager EMS, OHS, EnMS & Sustainability Corporate Management System, DQS
  • Effiziente Managementreviews: Wie begeistern wir unsere Geschäftsleitung?
    Michael Weubel, Senior Consultant, ConSense GmbH
  • Agil auditieren
    Pasqual Jahns, Global Director Process Management, Symrise AG gemeinsam mit dem DGQ-Fachkreis Audit und Assessment (Marita Großer und Mike Voß)
  • Mit Introvision lösen Sie Ihre Stressprobleme
    Dr. Klaus Köpnick, Ingenieur, promovierter Arbeits- und Organisationspsychologe und Coach

Das vollständige Programm ist ebenfalls verfügbar zum Download »

 

Der 8. Norddeutsche Qualitätstag bietet damit eine einzigartige Möglichkeit zum Wissensaustausch und Networking für Fach- und Führungskräfte im Qualitätsmanagement.

Wir freuen uns, wenn Sie mit dabei sind!

 

Informationen zur Anmeldung

Wann: Mittwoch, 21. Juni 2023, von 10:00 Uhr bis 16:00 Uhr
Wo: FOM Hochschulzentrum, Schäferkampsallee 16a, 20357 Hamburg oder online
Kosten:
Online-Teilnahme: 49,- € zzgl. MwSt. (29,- € zzgl. MwSt. für DGQ-Mitglieder)
Präsenz-Teilnahme: 99,- € zzgl. MwSt. (69,- € zzgl. MwSt. für DGQ-Mitglieder)

Zur Anmeldung »

Zum Programm (PDF-Download) »

 

Als DGQ-Mitglied können Sie – sowohl online als auch in Präsenz – zum reduzierten Kostenbeitrag teilnehmen. Sie sind noch kein Mitglied? Dann nutzen Sie doch für die Anmeldung unsere beitragsfreie, dreimonatige Schnuppermitgliedschaft.

Haben Sie Fragen? Nehmen Sie gern Kontakt mit uns in der DGQ-Geschäftsstelle Hamburg auf! Einfach per E-Mail an hamburg@dgq.de oder telefonisch unter 040 28533531-452. Bei allen organisatorischen Fragen und Rückfragen zur Anmeldung hilft Ihnen auch unser Veranstaltungspartner ConSense GmbH (events@consense-gmbh.de, 0241 990 93 93 0) weiter.

2. Süddeutscher Qualitätstag am Fraunhofer IPA in Stuttgart

2. Süddeutscher Qualitätstag, SQT

Nach dem erfolgreichen Start des 1. Süddeutschen Qualitätstag am Fraunhofer IPA in Kooperation mit der DGQ im vergangenen Jahr wird das Format fortgesetzt. Der 2. Süddeutsche Qualitätstag am 30. Juni 2023 ist die perfekte Gelegenheit für alle, die ihre Kenntnisse im Bereich des Qualitätsmanagements erweitern möchten.

Erleben Sie spannende Vorträge von renommierten Experten und diskutieren Sie die neuesten Trends und Entwicklungen mit anderen Teilnehmern. Die Eröffnung des 2. Süddeutschen Qualitätstags erfolgt unter anderem durch Michael Burghartz-Widmann, Vorstandsmitglied der DGQ. Ein weiteres Highlight ist die Keynote von Peter Brandl. In seinem Vortrag „Remove Before Flight, Fehlerkultur und lernende Organisation“ zeigt er auf, wie Unternehmen den Wandel aktiv gestalten können. Erfahren Sie darüber hinaus in Vorträgen aus Forschung und Praxis, welche Trends sich im Qualitätsmanagement abzeichnen, welche Instrumente Firmen erfolgreich einsetzen und welche Standards neu betrachtet werden sollten.

Fachvorträge zu aktuellen Themen im Qualitätsmanagement

Nach der einleitenden Keynote erwartet die Teilnehmerinnen und Teilnehmer ein umfassendes Vortragsprogramm, mit aktuellen Themen und Trends aus dem Bereich Qualitätsmanagement. Freuen Sie sich auf den praktischen Austausch mit zahlreichen Expertinnen und Experten und profitieren Sie von den Erfahrungen.

Vortragsprogramm des 2. Süddeutschen Qualitätstags

  • Prozessgestaltung mit ChatGPT
    Jörg Nienaber, Geschäftsführer N5 GmbH
  • FMEA nachhaltig im Unternehmen verankern – Risikoanalysen bei der ANDREAS STIHL AG & Co. KG
    Jürgen Ruff, ANDREAS STIHL AG & Co. KG & Dr. Alexander Schloske, Fraunhofer-Institut für Produktionstechnik und Automatisierung, IPA
  • Basis-Werkzeuge des Qualitätsmanagements erfolgreich einsetzen (7 QM-Tools, 7 Management-Werkzeuge)
    Andreas Aichele, Fraunhofer-Institut für Produktionstechnik und Automatisierung, IPA
  • Zukunft nachhaltig gestalten, statt Krisen verwalten
    Dipl.-Kff. Gabriela Zimmermann, ipu – fit for success & Prof. Dr. jur. Josef Scherer, Technische Hochschule Deggendorf
  • Qualität kommt von Qualifizierung! Unser Unternehmen als starker Partner der Industrie
    Petar Racic & Klaus Stähle, Berufsförderungswerk Schömberg gGmbH
  • Managementsystem NEXT LEVEL – Ownership und Zertifikat als logische Konsequenz
    Jan Lauterbach & Tarik Erkan, Continental AG – Group Sector ContiTech MFS

 

Der 2. Süddeutsche Qualitätstag bietet damit eine einzigartige Möglichkeit zum Wissensaustausch und Networking für Fach- und Führungskräfte im Qualitätsmanagement.

Wir freuen uns, wenn Sie mit dabei sind!

 

Informationen zur Anmeldung

Wann: Freitag, 30. Juni 2023, von 10:00 Uhr bis 17:00 Uhr
Wo: Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA, Nobelstr. 12/13, 70569 Stuttgart
Kosten: Präsenz-Teilnahme: 99,- € zzgl. MwSt. (79,- € zzgl. MwSt. für DGQ-Mitglieder)

Zur Anmeldung

 

Als DGQ-Mitglied können Sie – sowohl online als auch in Präsenz – zum reduzierten Kostenbeitrag teilnehmen. Sie sind noch kein Mitglied? Dann nutzen Sie doch für die Anmeldung unsere beitragsfreie, dreimonatige Schnuppermitgliedschaft.

Haben Sie Fragen? Nehmen Sie gern Kontakt mit uns in der DGQ-Geschäftsstelle Stuttgart auf! Einfach per E-Mail an stuttgart@dgq.de oder telefonisch unter 0711- 95 611 61. Bei allen organisatorischen Fragen und Rückfragen zur Anmeldung hilft Ihnen auch unser Kooperationspartner des Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA (event@ipa.fraunhofer.de, 0711 970-1908) weiter.

Informationssicherheit und die Norm ISO/IEC 27001 – ein Blick auf die Normentwicklung und branchenspezifische Standards

Informationssicherheit, ISO/IEC 27001

Ein Blick zurück auf die Entwicklung der Informationssicherheit zeigt: Das Thema „Sicherheit“ im Sinne des Schutzes von Informationen oder Daten ist grundsätzlich nicht neu. Es ist jedoch traditionell stark mit dem Vorhandensein physischer Informationsträger – also technischer Geräte, Patente, Prototypen, Pläne, Aktenordner, Verträge – verbunden. Mit der Digitalisierung hat die Herausforderung dann eine neue Dimension erreicht. Im Fokus stehen damals wie heute die zentralen Schutzziele Verfügbarkeit, Vertraulichkeit und Integrität.

Bereits im vordigitalen Zeitalter bestand die Frage, was auf Basis der Schutzwürdigkeit (Abwägung des schutzwürdigen Werts gegenüber Sicherheitsrisiken) letztlich wie zu schützen ist. Vergitterte Türen, ein Schloss an einer Tür, massive Wände, abschließbare Aktenschränke, Zutrittskontrollen bis hin zu begehbaren Tresoren im Keller von Banken mit Schließfächern für Dokumente etc. waren die Folge des Schutzbedarfes.

Mit dem Aufkommen der Informationstechnik und dem Vorhandensein portabler Speichermedien boten sich für Kriminelle völlig neue Optionen, wichtige Informationen stehlen zu können. Nun konnten Wechselfestplatten, Floppy Disks etc. mit einem – im Vergleich zu papiergebundenen Ordnern – Vielfachen an Daten beschrieben sein und dennoch problemlos physisch aus den Unternehmen herausgetragen werden. Die nachfolgende Vernetzung ermöglichte Datenübertragungen und eröffnete wiederum neuen Spielraum. Noch kritischer wurde die Sicherheitslage im Zeitalter des Internets mit dessen weltweiten Verfügbarkeit, in dem alles mit allem vernetzt sein kann. Auch hier ergibt sich die Möglichkeit des „Einbruchs“ und Viren, Trojaner oder Ransomware finden Zugang über E-Mails. Zudem gibt es Smartphones, die per Mobilfunk Fotos und Filme in Sekundenschnelle ablichten und verteilen können. Tragbare kleine USB-Speicher mit Terabytes von Daten auf der Größe einer Streichholzschachtel ergänzen die Vielfalt an Optionen.

Von der Informationssicherheit zur Cybersicherheit

Natürlich wurde die Sicherheit in der Informationstechnik schon länger in der Forschung thematisiert, von Herstellern gefördert, an Hochschulen gelehrt und hat sich entsprechend weiterentwickelt. Gleichwohl ist die Entwicklung der Technologie so dynamisch, dass man den Eindruck hat, dass die Sicherheit immer ein bisschen hinterherläuft. Das gilt insbesondere, wenn bei neuen Features die Frage der Priorität gestellt wird: Was ist wichtiger, Funktion oder Sicherheit?

Wir dürfen nicht vergessen, dass das Internet sich von militärischen Wurzeln in den 1960er Jahren hin zu einer akademischen Welt mit Forschergeist und freiem Wissenstransfer bewegt hat. Die heutige Qualitäts- und Kommerzialisierungsstufe stellt einen Quantensprung gegenüber den Anfängen dar. Für manchen Regierungsvertreter war das Ganze dennoch im Jahr 2013 noch „Neuland“. Auch in den nationalen und internationalen Regulierungsstellen tat man sich angesichts der Dynamik schwer – oder versäumte es gar, für mehr Sicherheit zu sorgen.

Der Informationssicherheit in Form der klassischen „Sicherheit“ von physikalischen Aspekten gesellte sich die Cybersicherheit hinzu, die sich um den Schutz von digitalisierter Information kümmert und somit den Begriff erweitert hat. Allerdings sind die zentralen Schutzziele Verfügbarkeit, Vertraulichkeit und Integrität nach wie vor unverändert, unabhängig davon, ob es sich um papiergebundene Verträge, Daten auf einem Firmenserver im Rechenzentrum oder in der externen Cloud handelt. Der Zugriff auf diese sollte beschränkt und kontrolliert sein. Nur autorisierte Benutzer oder Programme dürfen auf die Information zugreifen, die Prinzipien des „need to know“ sind überall anzuwenden. Denn die Bedrohung kommt nicht nur von außen, auch der Schutz vor einem möglicherweise internen, kriminellen Kollegen ist zu bedenken.

Normentwicklung in der Informationssicherheit

Betrachtet man die Entwicklung gesamtheitlich anhand der Kondratieff-Zyklen, die einen wellenförmigen Verlauf der Wirtschaft beschreiben, befinden wir uns seit den 1950er Jahren im „fünften Kondratieff“. Seine Antriebsenergie kam aus der computerbasierten Informationstechnik. Mit ständig zunehmender Geschwindigkeit durchdrang die Informationstechnik sowohl Produkte als auch alle Bereiche der Gesellschaft und verwandelte die Welt in eine Informationsgesellschaft. Diese Technologie und deren Anwendung entwickelt sich weiter, wodurch auch eine Weiterentwicklung der Informationssicherheitsnorm ISO/IEC 27001 notwendig wurde.

Doch blicken wir erst einmal zurück: Der Vorläufer des Standards, in dem die heutigen Anforderungen an Informationssicherheitsmanagementsysteme geregelt sind, erschien Ende der 1980er Jahre in Großbritannien als Veröffentlichung des Departement of Trade and Industry. Er enthielt Bewertungsrahmen für Sicherheitsprodukte und ein darauf basierendes Evaluierungs- und Zertifizierungsschema, zudem eine „Code of good security practice“. Diese Publikation wurde weiterentwickelt und 1995 vom „British Standard Institute“ als nationale Norm BS 7799 veröffentlicht. Später ging diese in der internationalen ISO/IEC 17799:2000 auf, die einen Leitfaden für die Implementierung eines Informationssicherheitsmanagementsystems darstellt. Über weitere Verbesserungen, Harmonisierungen und Aktualisierungen gelangte die Norm schließlich in den Kanon der ISO/IEC 27000er Familie und ist heute als ISO/IEC 27001:2022 die wichtigste internationale, anerkannte und zertifizierbare Norm für Informationssicherheit. Im weitgehenden Konsens der Fachleute ist die ISO/IEC 27001 ein angemessener und umfassender Ansatz, um die Ziele der Sicherheit zu unterstützen und greifbarer zu machen.

Branchenspezifische Normen in der Informationssicherheit

Im Bereich der Informationssicherheit gibt es neben der ISO/IEC-27000er-Reihe auch branchenspezifische Normen, auf die im Rahmen einer Auswahl hier näher eingegangen werden soll. Hervorzuheben sei hier zudem die Verbindung zwischen Informationssicherheit und Cybersicherheit. Cybersicherheit dient konkret dem Schutz von digitalen Systemen, Netzwerken und Daten vor böswilligen Angriffen oder anderen Risiken. Informationssicherheit ist der Oberbegriff, da sowohl physische Informationen und Infrastruktur als auch digitalisierte Informationen betrachtet werden. Die Ziele der Cybersicherheit sind identisch mit denen in der Informationssicherheit (Verfügbarkeit, Vertraulichkeit, Integrität) und unabhängig davon, ob Daten auf privaten Devices wie Smartphone oder Laptop gespeichert oder in einer Cloud bzw. bei einem genutzten Service hinterlegt sind.

Automotive

Für die Automotive-Branche kann der „TISAX®“-Standard herangezogen werden. Er baut auf der ISO/IEC 27001 auf und ergänzt die Norm mit Branchenspezifika wie zum Beispiel den Aspekten Lieferketten und Prototypensicherheit.

Nicht unerwähnt bleiben sollte zudem die ISO/IEC/SAE 21434 „Road vehicles – Cybersecurity engineering“. Die Norm behandelt das Thema Cyber-Security in Kraftfahrzeugen und gilt für Komponenten (elektronische Bauteile und Software), sie umfasst die Phasen der Entwicklung, Produktion, Betrieb, Wartung und Recycling im Lebenszyklus eines Fahrzeuges. Aufgrund der zunehmenden Risiken durch Cyber-Angriffe auf Fahrzeuge soll die Norm Maßnahmen für die Entwicklung vorschlagen. Das wird unter anderem deshalb immer wichtiger, weil die digitale Infrastruktur im Hinblick auf Online-Updates von Fahrzeugen (OTA), das Flottenmanagement und die Kommunikation zwischen Fahrzeugen (Car2x/V2X) neue Angriffsflächen bietet. Die Anwendung der Norm ist wichtig im Rahmen der umfangreichen Zulassungsverfahren für Typgenehmigungen.

Medizin

Mit Blick auf die Medizin ist unter anderem die ISO 27799 relevant. Sie adressiert die Medizinische Informatik und spezifiziert die Anforderungen an ein Informationssicherheits-Managementsystem im Gesundheitswesen unter Anwendung der ISO/IEC 27002.

Kritische Infrastrukturen (Energieversorgung, Telekommunikation)

Für die Sicherheit Kritischer Infrastrukturen (KRITIS) wie Energie- und Wasserversorgung oder auch Telekommunikation kommen gesetzliche Rahmenwerke (z. B. IT-SiG 2.0, BSIG, BSI-KritisV) zum Einsatz. Sie definieren Anlagen, Betriebsstätten und weitere ortsfeste Einrichtungen sowie Maschinen, Geräte und sonstige ortsveränderliche Einrichtungen, außerdem Software und IT-Dienste, die für die Erbringung einer kritischen Dienstleistung notwendig sind. In Deutschland existiert mit dem IT-Sicherheitsgesetz bereits seit Juli 2015 ein einheitlicher Rechtsrahmen für die Zusammenarbeit von Staat und Unternehmen, um die Cyber-Sicherheit bei den Kritischen Infrastrukturen zu erhöhen. Dieser schreibt KRITIS-Betreibern vor, IT-Sicherheit nach dem „Stand der Technik“ umzusetzen. Weitere Dynamik bekommt das Thema aus der europäischen Richtlinie zur Netz- und Informationssicherheit (NIS-Richtlinie), die im August 2016 in Kraft getreten ist. Diese definiert Maßnahmen zur Gewährleistung eines hohen gemeinsamen Sicherheitsniveaus von Netz- und Informationssystemen in der europäischen Union.

Über dieses Ziel hinaus geht die neue EU-Richtlinie vom November 2022 mit der Bezeichnung „NIS 2“. Diese wird die derzeit geltende NIS-Richtlinie ersetzen und legt für Unternehmen ab einer definierten Größenordnung Berichtspflichten und Standards fest, beispielsweise zu getroffenen Cybersicherheitsmaßnahmen. Vor allem erweitert sie die zuvor engere Definition (z. B. Energie, Wasser) auf weitere Sektoren. So sind nunmehr 18 Zielbranchen genannt: Die Lebensmittelbranche, IT-Unternehmen, Hersteller von Chemikalien, Maschinen und Fahrzeugen sind dann ebenfalls betroffen. In Branchenkreisen wird das neue Gesetz auch als Quantensprung gesehen, da von bis zu 40.000 Unternehmen ausgegangen wird, die Cybersecurity-Maßnahmen ergreifen müssen, was als echter Fortschritt auf breiter Front zu sehen ist. Auch der Rahmen für Strafzahlungen wurde signifikant angehoben – auf das Niveau der europäischen Datenschutz-Regulierung EU-DSGVO. Bußgelder belaufen sich auf bis zu 10 Millionen Euro beziehungsweise 2 Prozent des globalen Jahresumsatzes.

Finanz- und Bankwesen

Als weiterer Branchenstandard können die im Finanzbereich üblichen „Bankaufsichtlichen Anforderungen an die IT“ (BAIT, analog VAIT, die versicherungsaufsichtlichen Anforderungen an die IT) der Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) gelten, die sich primär an die Finanzbranche richten. Sie sollen die Erwartungshaltung der Aufsicht in Bezug auf die IT-Sicherheit transparent machen. Speziell die große Finanzbranche mit Banken, Versicherungen, Maklern, Fondsgesellschaften usw. hat darüber hinaus noch eine weitere Neuerung umzusetzen: Die neue Verordnung der EU, der „Digital Operational Resilience Act“ (DORA), ist ein Gesetzesvorschlag, der darauf zielt, die Widerstandsfähigkeit im Finanzsektor gegen betriebliche Störungen auf der IT-Ebene zu verbessern. Dabei geht es sowohl um gezielte Angriffe als auch um eine Reihe anderer, nicht böswillig verursachter, schwerwiegender IT-Probleme. So müssen Unternehmen in Zukunft beispielsweise auch Risiken durch Leistungen von Drittanbietern in ihren Analysen berücksichtigen, etwa solche von Cloud-Dienstleistern.

 

In unserer Blogreihe befassen wir uns mit verschiedenen Aspekten der Informationssicherheit sowie der Zertifizierung nach der Norm ISO/IEC 27001. Verstehen Sie die Notwendigkeit der Normanpassung und den Weg hin zur Zertifizierung. Zur Blogreihe »

 

Weiterbildungsangebote rund um Informationssicherheit und zur ISO/IEC 27001:2022

Nutzen Sie unser Webinar-Angebot, um sich über die Änderungen zwischen der ISO 27001:2013 und ISO 27001:2022 umfassend zu informieren. Jetzt anmelden »

Ebenfalls bieten wir Ihnen eine Weiterbildung zum Informationssicherheitsbeauftragten Automotive an. Erlangen Sie im Training detaillierte Kenntnisse zu dem in der Automobilindustrie etablierten ISMS-Standard nach dem TISAX-Modell. Jetzt anmelden »

 

Über den Autor:
Klaus Kilvinger ist Geschäftsführender Gesellschafter der Opexa Advisory GmbH, einer auf die Themen Digitalisierung, Cyber- und Informationssicherheit, sowie deren Integration in Geschäftsprozesse spezialisiertes Beratungsunternehmen mit Hauptsitz in München. Er ist seit über 30 Jahren in der IT-Branche aktiv und verfügt über ein breites anwendungsbezogenes Erfahrungswissen, verfügt ferner über umfassende Kenntnisse und Erfahrungen im IT-Projektgeschäft sowie Fachwissen in der Software-Qualitätssicherung. Die Informationssicherheit im nationalen und internationalen Umfeld ist sein Zuhause. Als zertifizierter IT-Security Manager, IT-Security Beauftragter sowie Datenschutzbeauftragter verfügt er über breite Branchenkenntnisse, über die Fertigungs-, Automobilindustrie, den öffentlichen Sektor bis hin zur Wirtschaftsprüfung.

DGQ-Präsident Prof. Dr. Robert Schmitt verstärkt QI-Digital-Beirat

Die nationale Qualitätsinitiative QI-Digital hat DGQ-Präsident Prof. Dr. Robert Schmitt in ihren Beirat berufen. Damit setzt sich die DGQ gemeinsam mit weiteren namhaften Akteuren der deutschen Qualitätsinfrastruktur (QI) dafür ein, die QI in der digitalen Transformation aktiv weiterzuentwickeln. Aufgabe des Beirats ist es, die Initiative bei diesem Vorhaben zu beraten und zu unterstützen. Neben Expert:innen aus Unternehmen und Verbänden besteht das Gremium unter anderem aus Vertreter:innen aus Forschungseinrichtungen und Behörden.

2021 haben die Bundesanstalt für Materialforschung und -prüfung (BAM), die Deutsche Akkreditierungsstelle (DAkkS), das Deutsche Institut für Normung (DIN), die Deutsche Kommission Elektrotechnik Elektronik Informationstechnik (DKE) und die Physikalisch-Technische Bundesanstalt (PTB) das Kooperationsprojekt „Initiative QI-Digital“ ins Leben gerufen. Das Ziel: Gemeinsame Lösungen für eine moderne und digitale QI vorantreiben. Zudem unterstützt das Bundesministerium für Wirtschaft und Klimaschutz (BMWK) die Initiative, deren Aktivitäten einen wesentlichen Beitrag für den Wirtschaftsstandort Deutschland leisten.

Doppelte Wesentlichkeitsanalyse in der Nachhaltigkeitsberichterstattung

Corporate Social Responsibility, CSR Strategy

Die Corporate Sustainability Reporting Directive (CSRD) verlangt künftig eine doppelte Wesentlichkeitsanalyse bei der Bewertung der Themen, die die European Sustainability Reporting Standards (ESRS) vorgeben. Im Interview mit Franziska Patzwald, Produktmanagerin der DGQ-Weiterbildung, berichten Tobias Kirchhoff und Ann-Katrin Bimber von der DFGE – Institut für Energie, Ökologie und Ökonomie über die Bedeutung und Umsetzung der doppelten Wesentlichkeitsanalyse.

Was ist eine doppelte Wesentlichkeitsanalyse?

Ann-Katrin Bimber: Die Wesentlichkeitsanalyse dient dazu, die für ein Unternehmen und seine Anspruchsgruppen bedeutenden Nachhaltigkeitsthemen zu ermitteln. Ein Unternehmen soll sich beim Nachhaltigkeitsmanagement zunächst auf die Themen konzentrieren, die als wesentlich betrachtet werden. Bei der Frage, was ‚wesentlich‘ oder ‚material‘ bedeutet, müssen im Sinne der doppelten Wesentlichkeit zwei Perspektiven berücksichtigt werden. Man unterscheidet zwischen der Inside-Out Perspektive, auch Impact Materiality genannt, und der Outside-In Perspektive, auch finanzielle Wesentlichkeit genannt. Diese Blickwinkel bilden die Basis für die Ableitung der strategisch relevanten Nachhaltigkeitsthemen und der Berichtspflichten.

Die Outside-In-Perspektive betrachtet externe Einwirkungen von Nachhaltigkeitsthemen auf das Unternehmen und dessen Geschäftsmodell, die Strategie und den Umsatz. Externe Entwicklungen sind beispielsweise Anpassungskosten an den Klimawandel oder eine strengere Regulatorik. Bei der Inside-Out Perspektive müssen Unternehmen ihre tatsächlichen und potenziellen Auswirkungen der Geschäftstätigkeit auf Nachhaltigkeitsthemen darlegen. Relevante Themen können hier der Einfluss des Unternehmens auf Umweltverschmutzung und Biodiversität genauso sein wie die Frage, inwiefern die Strategie Korruption verhindert und entgegenwirkt.

Warum ist das im Nachhaltigkeitskontext gerade so relevant?

Tobias Kirchhoff: Viele Unternehmen werden in den nächsten Jahren durch die Regelungen der Corporate Sustainability Reporting Directive sowie der European Sustainability Reporting Standards als Berichtsstandard dazu verpflichtet über ihre Nachhaltigkeitsperformance zu berichten. Die CSRD liefert dabei die Vorgaben, die European Sustainability Reporting Standards definieren die Inhalte. Die doppelte Wesentlichkeit ist eine zentrale Perspektive in der Corporate Sustainability Reporting Directive.

Unter der Non-Financial Reporting Directive (NFRD), der aktuell noch geltenden Richtlinie zur Nachhaltigkeitsberichterstattung, ist ein Thema erst dann als wesentlich anzusehen, wenn es in beiden Dimensionen der Nachhaltigkeit wesentliche Auswirkungen verursacht. Um berichtspflichtig zu werden reicht hingegen künftig aus, wenn ein Thema in einer der beiden Dimensionen wesentliche Auswirkungen verursacht. Durch diese Änderung werden zukünftig mehr Themen als materiell eingestuft. Die Anzahl der berichtspflichtigen Inhalte und damit der Berichtsaufwand werden dadurch maßgeblich ausgeweitet.

Wie unterscheidet sich das zu den Anforderungen der Global Reporting Initiative?

Ann-Katrin Bimber: Die CSRD setzt auf bereits bestehende etablierte Berichtsstandards auf. Die Global Reporting Initiative (GRI) wird als Partner genannt, der sich in engem Austausch mit der European Financial Reporting Advisory Group (EFRAG) befindet, die für die Entwicklung der Standards zur CSRD verantwortlich ist. GRI hat einen exklusiven Fokus auf die Impact-Materialität, also auf potenzielle und faktische, positive wie negative Auswirkungen, die durch Geschäftstätigkeiten des Unternehmens direkt oder indirekt entstehen. Die ESRS mit der doppelten Wesentlichkeit rücken zusätzlich die finanziellen Risiken und Chancen stärker in den Fokus.

Aufgrund der großen Überschneidungen zwischen den GRI-Indikatoren und den ESRS-Datenpunkten und den Parallelen bei den Grundprinzipien der Wesentlichkeit, sind Unternehmen, die heute bereits nach GRI berichten, gut für die ESRS aufgestellt. Um Unternehmen bei der Vorbereitung auf die ESRS zu unterstützen, bietet die DFGE in Zusammenarbeit mit der DQS GmbH Schulungen zum Thema GRI an.

Was sind die ersten Schritte bei der Umsetzung einer doppelten Wesentlichkeitsanalyse?

Ann-Katrin Bimber: Bei der Durchführung einer Wesentlichkeitsanalyse ist eine gute Vorbereitung wichtig, die für die notwendige Transparenz über den Gesamtprozess sorgt. Es müssen die zur Umsetzung erforderlichen Ressourcen bereitgestellt werden und die notwendige Rückendeckung durch die Unternehmensleitung gegeben sein.

Zu Beginn der Analyse müssen Unternehmen sich die Frage stellen, welche Nachhaltigkeitsaspekte potenziell wesentlich sein können, also welche Themen innerhalb der Wesentlichkeitsanalyse bewertet werden sollen. Hierfür orientieren wir uns an den ESRS. Diese bieten für die Erstellung der Liste mit potenziell wesentlichen Themen einen guten Ausgangspunkt. Zusätzlich können Nachhaltigkeitsratings, international anerkannte Reportingstandards und Sektorprofile genutzt werden. Wichtig hierbei ist, dass die Liste der Themen in einer Wesentlichkeitsanalyse stets vollständig und überschneidungsfrei ist.

Wie können Stakeholder bei der Materialitätsanalyse miteinbezogen werden?

Tobias Kirchhoff: Wir durchlaufen mit unseren Kunden mehrere Schritte, um die Wesentlichkeit der Themen zu beurteilen und Stakeholder miteinzubeziehen. Hierzu gehören unter anderem eine Sektorenanalyse, eine Medienanalyse und ein Kunden- und Wettbewerberbenchmark. Zur Beurteilung der Financial Materiality involvieren wir außerdem das Risikomanagement des Unternehmens und führen Gespräche mit internen Expert:innen.

Eine Wesentlichkeitsanalyse sollte immer die Stakeholder eines Unternehmens miteinbeziehen. Hierfür nutzen wir eine Online-Umfrage, die von einer Vielzahl von Stakeholdern statistisch fundierte Aussagen darüber liefert, welche Themen von welchen Gruppen besonders favorisiert werden. Quantitative Modelle ergänzen die Befragung um eine wissenschaftliche Faktenbasis und erlauben eine meinungsunabhängige und zukunftsgerichtete Beurteilung der Wesentlichkeit.

Was sind die größten Herausforderungen bei ihren Kunden?

Ann-Katrin Bimber: Die Durchführung einer doppelten Wesentlichkeitsanalyse ist aufwendig. Oftmals wird die Komplexität unterschätzt, wodurch zu wenig Zeit und Ressourcen zur Verfügung gestellt werden. Herausfordernd kann auch die Festlegung der Interessensgruppen sein, die in die Analyse einbezogen werden sollen. Insbesondere bei der Beurteilung der Financial Materiality müssen die Stakeholder die Fähigkeit haben, ihre Meinung als Privatperson nicht mit der Unternehmenssicht zu verwechseln. Hier kann es hilfreich sein, Stakeholder zu befragen, die sich bereits mit den finanziellen Implikationen von Nachhaltigkeitsthemen für das Unternehmen beschäftigt haben.

Eine weitere Herausforderung ist die Betrachtung der Wesentlichkeit der Themen über die gesamte Wertschöpfungskette. Auswirkungen können beispielsweise durch eine Geschäftsbeziehung in der Lieferkette oder in der Nutzungsphase eines Produktes auftreten. Um fundierte Ergebnisse durch die Wesentlichkeitsanalyse zu erhalten, müssen all diese Auswirkungen betrachtet werden.

Die Umsetzung der doppelten Wesentlichkeitsanalyse ist ein Aspekt, der nicht trivial ist, aber wichtige Einsichten liefern kann, die zur Weiterentwicklung der Nachhaltigkeitsstrategie beitragen können und den Auftakt für einen langfristigen Stakeholderdialog bilden, der das Ziel hat, zukünftige Herausforderungen zu erkennen und gemeinsam zu meistern.

 

Über die Interviewpartner:

Tobias Kirchhoff leitet das Reporting Team der DFGE und unterstützt Kunden dabei, ihre Reporting-Anforderungen zu meistern.

Ann-Katrin Bimber ist Senior Project Specialist Corporate and Supply Chain Sustainability bei der DFGE und arbeitet schwerpunktmäßig an den Themen GRI, CSRD, CSR-Ratings und TCFD.

Über das DFGE – Institut für Energie, Ökologie und Ökonomie:

Gegründet im Jahre 1999 als Spin-Off der Technischen Universität München, bietet die DFGE – Institut für Energie, Ökologie und Ökonomie Beratungsleistungen im Bereich Nachhaltigkeit an. Unser Angebot „Sustainability Intelligence“ beinhaltet Berechnungs-Management, Reporting Lösungen sowie Strategie-Entwicklung und zielt darauf ab, den Aufwand für die Teilnahme an mehreren Nachhaltigkeits-/CSR-Standards und Rankings wie CDP (Carbon Disclosure Project), UNGC (United Nations Global Compact), DJSI (Dow Jones Sustainability Index), EcoVadis oder GRI (Global Reporting Initiative) zu bündeln und übergreifende Strategien wie eine Nachhaltigkeitsstrategie gemäß den SDGs zu entwickeln. Ferner betreut die DFGE ihre Kunden als einziger Partner des CDP (Carbon Disclosure Project) für SBTs (Science-based Targets) ganzheitlich beim Thema Klimastrategie und hilft ihnen auf Produktebene oder unternehmensweit klimaneutral zu wirtschaften. Für die KI-gestützte Zukunft des CSR-Managements setzt die DFGE auf den Big Data Ansatz und Machine Learning. Zu den Kunden zählen internationale Unternehmen (DAX und Fortune 500), aber auch mittelständische Betriebe und öffentliche Einrichtungen.

Zur Website: www.dfge.de

Sustainability Management-Lehrgang erfolgreich pilotiert

Der neu entwickelte DGQ-Lehrgang „Sustainability Management – Nachhaltigkeit integrieren und systematisch managen“ hat in der letzten Woche eine erfolgreiche Premiere gefeiert. 13 Teilnehmende haben gemeinsam mit zwei Trainerinnen die Bedeutung von Nachhaltigkeit in Unternehmen erarbeitet, die weit über den ökologischen Bereich hinausgeht. Der Lehrgang widmete sich  unter anderem den gesetzlichen Rahmenbedingungen, thematisierte den Zusammenhang von Nachhaltigkeit und Managementsystemen und erklärt, wie man Nachhaltigkeit in bestehende Managementsysteme integriert. Darüber hinaus erstellten die Teilnehmenden Stakeholder-Analysen ihrer eigenen Unternehmen. Dabei wendeten sie das neue Wissen unmittelbar und praktisch an und besprachen die Ergebnisse anschließend gemeinsam mit den Trainerinnen und den Kolleginnen.

Das Feedback der Teilnehmenden zum Inhalt der neuen Veranstaltung fiel ausgesprochen positiv aus. Insbesondere die intensiven Gruppenarbeitsphasen nahmen sie als progressiv und lehrreich wahr. Auch wurde der gesamtheitliche Ansatz, die Stakeholder-Thematik und die Prozessorientierung positiv bewertet.

Das nächste Online-Training findet am 14. Juni 2023 statt. Informationen und Anmeldemöglichkeiten finden Sie im DGQ-Shop: Jetzt informieren »

FQS-Forschungsprojekt: Das ISO GPS-System erfolgreich in die Praxis integrieren

Das System der Geometrischen Produktspezifikation und -verifikation (ISO GPS-System) bildet als größtes Normensystem der ISO im Maschinenbaubereich den Stand der Technik für die Spezifikation und Verifikation von Bauteilen ab. Das umfangreiche Normensystem zu durchschauen und umzusetzen, stellt für viele Unternehmen jedoch eine Herausforderung dar.

Im Rahmen des von der FQS Forschungsgemeinschaft Qualität e. V. geförderten Forschungsprojektes „GPSlife“ wurden in einem Zeitraum von zwei Jahren unter der Leitung der Professur Fertigungsmesstechnik an der TU Chemnitz gemeinsam mit Partnern aus Industrie und Weiterbildung neue und nachhaltige Umsetzungsstrategien für das komplexe ISO GPS-System entwickelt. Ziel des Projektes war es, durch eine reifegradbasierte Roadmap Methoden und Vorgehensweisen zur Integration der Geometrischen Produktspezifikation in der Praxis zu erarbeiten, welche insbesondere auf die Anforderungen von KMU abgestimmt sind, um somit flächendeckend ein gelebtes GPS-System zu erreichen. Im Interview stellen Prof. Dr. Sophie Gröger, Leiterin der Professur Fertigungsmesstechnik an der TU Chemnitz und Juliane Schuldt, wissenschaftliche Mitarbeiterin der Professur Fertigungsmesstechnik an der TU Chemnitz, die wichtigsten Ergebnisse vor.

Welche Relevanz hat das ISO GPS-System heute und welche konkreten Chancen ergeben sich durch die Nutzung des Normensystems?

Prof. Dr. Sophie Gröger: „Mit dem internationalen Normensystem der Geometrischen Produktspezifikation und -verifikation als umfassende non-verbale Sprache wird die einheitliche und vollständige Beschreibung der Geometrie von Produkten gewährleistet. Aus diesem Grund hält dieses System in immer weiteren Bereichen und Branchen, wie z. B. der Medizintechnik, Einzug. Vor allem in KMU ist bis heute unzureichend bekannt, welche Potentiale die betriebliche Einführung und eine konsequente Anwendung für die langfristige Wettbewerbssicherung mit sich bringt. Neben eindeutigen, vollständigen und rechtssicheren Spezifikationen, ergeben sich unter anderem Chancen durch die Reduzierung von Mehrdeutigkeiten, Rückführbarkeit von Messungen und Konformität zu QM Vorgaben. Außerdem ist die Anwendung des ISO GPS-Systems eine elementare Vorbereitung auf Zukunftsthemen, wie beispielsweise Digitaler Zwilling, Closed Loop Engineering, die Synchronisierung von Konstruktion, Fertigung und Qualitätssicherung sowie die Weiterentwicklung aktueller Simulationsmethoden (Montagesimulation etc.).“

Vor welchen Herausforderungen stehen Unternehmen, insbesondere kleine und mittelständische Unternehmen (KMU), bei der Anwendung des ISO GPS-Systems?

Prof. Dr. Sophie Gröger: „Das ISO GPS-System unterliegt seit Jahren einem starken normativen, regelgebundenen Wandel, wobei zahlreiche Abkürzungen, Symbole, Prinzipien und Regeln in neuen und überarbeiteten Normen veröffentlicht werden. Dabei existierten bis 1996 weniger als 40 Einzelnormen. Seitdem wurden zahlreiche Normen hinzugefügt, sodass es aktuell reichlich 150 gültige und weitere 20 in Überarbeitung befindliche Normen gibt. So wurde beispielsweise die zentrale Norm zur geometrischen Tolerierung, die ISO 1101, in den Jahren 2011, 2014 und bereits wieder 2017 überarbeitet und erweitert. Diese hohe Überarbeitungsgeschwindigkeit stellt nicht nur für KMU eine große Herausforderung dar. Das Gesamtsystem nahm in den letzten Jahren eine Komplexität und Dynamik an, die für Unternehmen schwer überschaubar ist.

Zudem sind in KMU oft nur geringe Personalkapazitäten für die Beschaffung und Integration neuer Normen vorhanden. Darüber hinaus fehlen Standards für die Aus- und Weiterbildung auf diesem Gebiet. Zum Integrationsvorgehen existierten vor dem Forschungsprojekt auch keine veröffentlichten und allgemeingültigen Empfehlungen. Die Folge dieser normativen Komplexität und der fehlenden Ausbildung ist ein differenzierter Umgang mit dieser Fachsprache, der mit zunehmenden Akzeptanz- und Anwendungsschwierigkeiten einhergeht.“

Was ist für ein gelebtes GPS-System notwendig?

Juliane Schuldt: „Die Einführung und nachhaltige Anwendung des ISO GPS-Systems muss als langfristiger Veränderungsprozess von den Unternehmen verstanden werden. Für die erfolgreiche Einführung, Verwirklichung, Aufrechterhaltung, Verbesserung und Weiterentwicklung des ISO GPS-Systems ist ein neues Aus- und Weiterbildungskonzept verbunden mit einer Integrationsstrategie und eines Bewertungsinstruments notwendig. Im Rahmen des Forschungsvorhabens wurde eine Roadmap erarbeitet, welche das Integrationsvorgehen Schritt für Schritt beschreibt und einen Methodenkasten zur Unterstützung der sechs Phasen enthält. Da die Einführung nicht ohne eine begleitende Schulung aller Fachkräfte, jedoch in unterschiedlicher Geschwindigkeit und Tiefe, ablaufen kann, entstand ein neues Aus- und Weiterbildungskonzept. Zur objektiven Bewertung des Integrationsvorgehens sowie des Weiterbildungsprozesses stellt ein kompetenzbasiertes GPS-Reifegradmodell, welches im Rahmen des Projektes entwickelt und teilweise bereits erprobt ist, eine ganz neue Dimension dar.“

Wie ist das im Forschungsprojekt erarbeitete GPS-Ausbildungskonzept aufgebaut?

Juliane Schuldt: „Herzstück des neuen GPS-Ausbildungskonzeptes ist eine Differenzierung aller GPS-Normeninhalte in fünf Schwierigkeitslevel. Im Rahmen des Projektes wurden die Level Anfänger/in, Fortgeschrittene/-r, Erfahrene/-r, Spezialist/in und Master/Coach ausgearbeitet und beschrieben. Im Level 1 „Anfänger/-in“ werden Grundlagen, Basiswissen, Prinzipien und Regeln zur Anwendung des ISO GPS-Systems vermittelt. Es werden Zusammenhänge zwischen Funktion, Spezifikation, Herstellung und Verifikation vermittelt. Im Level 2 und 3 wird das GPS-Verständnis vertieft und mittels Übungsszenarien anwendbares GPS-Wissen vermittelt. Ab dem Level 4 werden die GPS-Inhalte auf unternehmensspezifische Beispiele übertragen, Sonderfälle geschult und komplexe Sachverhalte integriert. Als Master im Level 5 ist man im Unternehmen zuständig für die interne Beratung und ggf. Schulung, praktische Integration neuer Normeninhalte und/oder Anpassen interner Regelungen, Templates usw. Diese Level-Struktur ermöglicht es, fachkräftespezifisch die GPS-Inhalte zu vermitteln, denn nicht jeder Mitarbeiter im Unternehmen benötigt GPS-Wissen in gleicher Menge und Tiefe.“

Was müssen Unternehmen bei der Einführung des GPS-Systems berücksichtigen?

Prof. Dr. Sophie Gröger: „Im Forschungsprojekt wurden einerseits verschiedene Unternehmen befragt, welche sich schon länger mit der Integration des GPS-Systems beschäftigen, anderseits wurden bewährte Konzepte aus der Einführung von QM-Systemen und ERP-Systemen recherchiert. Daraus wurde u.a. eine Successful Practice für die GPS-Integration abgeleitet. Diese beinhaltet den Entwurf eines Unternehmenskonzeptes im Vorfeld des Einführungsprozesses und die Bildung eines ISO GPS-Expertenteams für das Unternehmen sowie die Benennung eines GPS-Hauptverantwortlichen für die Projektleitung und langfristige Koordination. Anschließend folgt die Erstellung eines Schulungskonzeptes und die gestaffelte Ausbildung der Beschäftigten. Regelmäßige interne Spezifikations- und Verifikationsreviews unterstützen den Prozess. Es folgt die Übertragung auf unternehmensspezifische Inhalte und die Erstellung von Templates, Vorgehensweisen, Musterzeichnungen, Konstruktionszeichnungen für die nachhaltige Anwendung.“

GPSlife-Integrationsvorgehen

GPSlife – Integrationsvorgehen (TU Chemnitz)

Mit dem im Rahmen des Forschungsprojekts entwickelten Reifegradmodells lassen sich erstmals GPS-Kompetenzen objektiv bewerten. Welche Dimensionen werden abgebildet und wie können Unternehmen das Modell einsetzen?

Juliane Schuldt: „Für das Reifegradmodell wurde das gesamte GPS-System in 12 Dimensionen eingeteilt. Dazu zählen beispielsweise Allgemeintoleranzen, Form-, Richtungs-, Orts- und Lauftolerierungen und Rauheit. Aktuell existiert das Reifegradmodell als Excel-Programm. Zu allen Dimensionen wurden Indikatoren definiert, welche jeweils mit einer „klickbaren“ Checkliste untersetzt sind. Diese Checklisten können Mitarbeitende als Selbsteinschätzung nutzen oder Führungskräfte im Rahmen von Personalgesprächen bzw. zur Erhebung des Weiterbildungsbedarfs. Mit dem Reifegradmodell lassen sich aber auch anonym GPS-Kompetenzen von Organisationseinheiten erheben oder im Rahmen der Lieferantenbewertung ist eine Anwendung möglich. Die Auswertung aller Checklisten und damit die Bestimmung des Reifegrades erfolgt tabellarisch und zusätzlich grafisch als Sunburst-Diagramm. Für eine breite Anwendung wird derzeit eine webbasierte Version entwickelt, welches zukünftig über die Projektwebsite abgerufen werden kann.“

GPSlife-Reifegradmodell

GPSlife-Reifegradmodell als Sunburst-Diagramm (TU Chemnitz)

Welchen Nutzen haben die Forschungsergebnisse und wie können Unternehmen nach Projektabschluss von den erarbeiteten Lösungen profitieren?

Prof. Dr. Sophie Gröger: „Das beschriebene GPS-Integrationsvorgehen, GPS-Ausbildungskonzept und das entwickelte GPS-Reifegradmodell bieten die optimale Grundlage, das ISO GPS-System im Unternehmen nachhaltig einzuführen. Mit Hilfe der beschriebenen „Schritt für Schritt“- Integrationsstrategie wird eine Komplexitätsreduzierung erreicht, welche den Aufwand für die Einführung des GPS-Systems überschaubar macht. Durch die ganzheitliche Vorgehensweise mit lexikalischer Erarbeitung des Wissens und fortlaufender Reifgradbewertung werden die KMU befähigt, zukünftige Neuerungen im GPS-System selbstständig umzusetzen. Eng verzahnt mit dem Schulungskonzept ergänzt das vorgestellte Reifegradmodell den GPS-Einführungs- und Anwendungsprozess. Das GPS-Reifegradmodell steht in gekürzter Fassung als „Light“-Version demnächst über die Projekthomepage zur Verfügung. Im DIN-Normenausschuss NA 152-02-03 gibt es erste Bestrebungen die Anwendung des GPS-Systems mit einer Schritt-für-Schritt-Strategie zu beschreiben und als Leitfaden zusammenzustellen.“

 

Stimmen aus dem Projektbegleitenden Ausschuss:

Gemeinsam mit vier weiteren Industriepartnern waren die Hirschvogel Holding GmbH und DGQ Weiterbildung GmbH als Mitglieder des Projektbegleitenden Ausschusses „GPSlife“ an den Forschungsarbeiten beteiligt. Nach dem Ende des Projekts ziehen sie ein kurzes Fazit ihres Engagements:

 

Renate Kettner, Hirschvogel Umformtechnik GmbH
GPS ist ein sehr umfangreiches Thema, das in der Praxis bei laufenden Prozessen sehr schwierig einzuführen und umzusetzen ist. Da wir mit der Einführung bereits begonnen hatten und dabei einige Schwierigkeiten auftraten, war es für uns sehr interessant, unsere Erfahrungen einfließen zu lassen. Die Forschungseinrichtung hatte immer ein offenes Ohr für uns. Gemeinsam wurden unsere Praxisprobleme diskutiert, die daraufhin zum Teil als Input in das Projekt eingeflossen sind. Das Ergebnis stimmt uns positiv. Wir hoffen, dass daraus noch E-Learnings entstehen werden, die jedes Unternehmen verwenden kann, um Mitarbeiter, Zulieferer und Kunden zu schulen. Die gute Zusammenarbeit mit der TU Chemnitz hat uns in jeder Hinsicht geholfen. Durch die Gespräche und Abstimmungen konnte man verschiedene Sichtweisen besser verstehen und gemeinsame Lösungen erarbeiten. Die komplette Umsetzung ist immer noch ein weiter Weg, aber es wurden verschiedene Aktivitäten gestartet, die das Ganze leichter gestalten werden.

 

Dietmar Heuer, DGQ Weiterbildung GmbH
Die DGQ offeriert als Weiterbildungsmöglichkeit zwei Trainings, die Inhalte zum GPS-System vermitteln: Das Training „Geometrische Produktspezifikationen (GPS) – Form- und Lagetoleranzen“ sowie das Grundlagentraining „Geometrische Produktspezifikationen (GPS) für Entwickler und Konstrukteure“. Aus diesem Grund haben wir sofort zugesagt, als die FQS mit der Frage auf zukam, ob wir uns im Projektbegleitenden Ausschuss beteiligen wollen. In unseren Trainings erfahren wir von Teilnehmenden immer wieder aus erster Hand, wie relevant das Thema GPS ist, aber auch wie groß die damit verbundenen Herausforderungen sind. Durch das Projekt erhielten wir einerseits die Möglichkeit, diese Erfahrungen einzubringen. Andererseits lernten wir verschiedene Sichtweisen über die Anwendung des GPS-System in Unternehmen und die Anforderungen an die Weiterbildung kennen. Eine essentielle Erkenntnis für uns: GPS-Weiterbildung ist kein Einmalaufwand. Hohe Komplexität und stetige Weiterentwicklung des GPS-Systems erfordern eine immer wiederkehrende Auffrischung des Wissens bei allen Anwendern.

 

Über die Interviewpartner:

Prof. Dr. Sophie Gröger, Leiterin Professur Fertigungsmesstechnik an der TU Chemnitz

Juliane Schuldt, wissenschaftliche Mitarbeiterin Professur Fertigungsmesstechnik an der TU Chemnitz

Renate Kettner, Corporate Development, CAD Inhouse Consultant / Design Engineer, Hirschvogel Umformtechnik GmbH

Dietmar Heuer, DGQ-Produktmanager, DGQ Weiterbildung GmbH

 


Über das Forschungsprojekt:
Das IGF-Vorhaben 21491 BR der FQS – Forschungsgemeinschaft Qualität e. V., August-Schanz-Straße 21A, 60433 Frankfurt am Main wurde über die AiF im Rahmen des Programms zur Förderung der Industriellen Gemeinschaftsforschung (IGF) durch das Bundesministerium für Wirtschaft und Klimaschutz (BMWK) aufgrund eines Beschlusses des Deutschen Bundestages gefördert.

Das Forschungsvorhaben ist abgeschlossen. Der Schlussbericht steht der interessierten Öffentlichkeit zur Verfügung und kann entweder über die FQS – Forschungsgemeinschaft Qualität e. V. oder die Forschungseinrichtung (fmt@mb.tu-chemnitz.de) auf Anfrage bezogen werden.

Kontakt:
FQS – Forschungsgemeinschaft Qualität e. V.
August-Schanz-Straße 21A
60433 Frankfurt am Main
infofqs@dgq.de

Projektwebsite: https://www.fertigungsmesstechnik-chemnitz.de/forschung/gpslife/

Kontaktdaten für weitere Fragen, Umsetzung- und Anwendungsmöglichkeiten der Projektergebnisse sowie zum GPS-System allgemein:
Prof. Dr. Sophie Gröger, Leiterin Professur Fertigungsmesstechnik der TU Chemnitz unter www.fertigungsmesstechnik-chemnitz.de

Informationen zu den Trainings der DGQ Weiterbildung GmbH: https://shop.dgq.de/


DGQ-Forschung – Neue Videoreihe gibt Einblicke in aktuelle Projekte und Arbeit der FQS Forschungsgemeinschaft Qualität e.V.

Wer ist die FQS Forschungsgemeinschaft Qualität e.V. (FQS), wie arbeitet sie und welche Themen stehen aktuell im Fokus? Antworten auf diese und weitere Fragen rund um das Thema Forschung in der DGQ finden Innovations- und Forschungsinteressierte in einer neuen Videoreihe, in der aktuelle Forschungsprojekte der FQS vorgestellt werden. Neben einer allgemeinen Vorstellung der FQS und ihrer Arbeitsweise, stehen drei laufende FQS-Forschungsprojekte am Institut für Integrierte Produktion Hannover (IPH gGmbH) im Zentrum der neu veröffentlichten Videobeiträge. Schwerpunkte des Partnerforschungsinstituts der FQS liegen in den Bereichen Produktionsautomatisierung, Prozesstechnik und Logistik. Thematisch beschäftigen sich die Projekte mit Qualitätssicherung in Bereich 3D-Druck und Predictive Maintenance bei Schmiedeprozessen. In den Videobeiträgen geben Forschungspartner:innen des IPH einen Einblick in die laufende Projektarbeit, stellen Forschungsziele und -ergebnisse vor und berichten über die Zusammenarbeit mit den beteiligten Industriepartnern.

In den nachfolgenden Videos erhalten Sie Einblicke in die Forschungsarbeit der FQS sowie die derzeit laufenden Forschungsprojekte am Institut für Integrierte Produktion Hannover:

Vorstellung der FQS Forschungsgemeinschaft Qualität e.V. 
Wer ist die FQS Forschungsgemeinschaft Qualität e.V. und was tut sie? Lernen Sie den Forschungsbereich der DGQ kennen und erfahren Sie von Dr. Christian Kellermann-Langhagen, wissenschaftlicher Geschäftsführer der FQS, wie die FQS arbeitet, welche Themen beforscht werden und wie sich Unternehmen in der FQS beteiligen und von den eingesetzten Förderprogrammen profitieren können.

Vorstellung FQS-Partnerforschungseinrichtung: IPH – Institut für Integrierte Produktion Hannover gGmbH
In Zusammenarbeit mit bundesweit mehr als 20 Forschungseinrichtungen realisiert die FQS innovative und praxisnahe Projekte im Rahmen der Industriellen Gemeinschaftsforschung (IGF). Eines der Partnerforschungsinstitute der FQS ist das IPH – Institut für Integrierte Produktion Hannover gGmbH. Im Interview stellt Jens Kruse, Gruppenleiter Innovative Fertigungsverfahren am IPH, die Forschungsschwerpunkte des Instituts sowie laufende Forschungsprojekte im Bereich der additiven Fertigung vor.

FQS-Forschungsprojekt QualLa – Qualitätssicherung beim Laserstrahlschweißen additiv gefertigter Bauteile
Wie lassen sich Bauteile aus dem 3D-Drucker qualitätssicher mit dem Laser schweißen? Mit dieser Fragestellung beschäftigt sich das von der FQS geförderte Forschungsprojekt QualLa, das das IPH – Institut für Integrierte Produktion Hannover gGmbH gemeinsam mit dem Laser Zentrum Hannover e. V. durchführt. Gewinnen Sie in diesem Video einen Einblick in das entstehende Expertensystem, das insbesondere kleine und mittelständische Unternehmen darin unterstützt, additive Fertigungsprozesse im Hinblick auf das Schweißen von inhomogenen Kunststoffen zu optimieren. Fragen rund um das Projekt beantwortet Torben Mente, Projektingenieur am IPH, in diesem Video.

FQS-Forschungsprojekt SAViour – Qualitätssicherung für personalisierte Medizinprodukte aus dem 3D-Drucker
3D-Druck ermöglicht eine Produktion in Losgröße 1, was insbesondere für die Medizintechnik interessant ist. Eine große Herausforderung stellt jedoch die Qualitätssicherung dar. Im Fokus des FQS-Forschungsprojekts SAViour, an dem das IPH – Institut für Integrierte Produktion Hannover gGmbH sowie das Werkzeugmaschinenlabor WZL der RWTH Aachen beteiligt sind, steht die Entwicklung einer Sensorik- und App-basierten Qualitätskontrolle personalisierter Produkte aus dem 3D-Drucker. Wie das entstehende Qualitätsmodell funktioniert und wie Unternehmen von der entwickelten Lösung profitieren können, erklärt Anne Rathje, Projektingenieurin am IPH, im Interview.

FQS-Forschungsprojekt VorÜber – Predictive Maintenance in der Schmiedeindustrie
Wie lange hält das Schmiedewerkzeug? Die Lebensdauer von Schmiedegesenken wird in der Praxis meist auf Basis von Erfahrungswerten abgeschätzt. Im Rahmen des FQS-Forschungsprojekts VorÜber entwickelt das IPH – Institut für Integrierte Produktion Hannover gGmbH eine vorausschauende Prozessüberwachung, die es ermöglicht die Lebensdauer von Schmiedewerkzeugen nun auch exakt vorherzusagen. Erfahren Sie im Interview mit David Schellenberg, Projektingenieur am IPH, wie das Prognosemodell funktioniert und welche Einsparpotenziale sich dadurch für Unternehmen ergeben.

 

Als Forschungsbereich der DGQ begleitet die FQS industrienahe und anwendungsorientierte Forschungsprojekte im Rahmen der Industriellen Gemeinschaftsforschung (IGF), die durch das Bundesministerium für Wirtschaft und Klimaschutz (BMWK) gefördert werden. In der IGF können insbesondere kleine und mittelständisch geprägte Unternehmen gemeinsame Probleme durch gemeinsame Forschungsaktivitäten lösen und so strukturbedingte Nachteile auf dem Gebiet der Forschung ausgleichen. Unternehmen haben die Möglichkeit, sich an Vorhaben der FQS zu beteiligen, Anforderungen einzubringen und von neu entwickelten Methoden und Strategien zu profitieren.

Industriepartner für FQS-Forschungsvorhaben gesucht: Fuzzy Empfehlungsassistenten zur Fehlerbeseitigung in der Zuliefererkette

Im Verlauf der letzten Jahre haben die Spannungen zwischen Original Equipment Manufacturer (OEM) und kleinen und mittleren Unternehmen (KMU) in Zuliefererketten stark zugenommen. Die Beziehungen sind durch mangelhafte oder gänzlich fehlende Kooperation und Kommunikation, sowie ungleiche Machtgefüge geprägt. Dies führt zu Problemen in der Fehlerbewältigung. Tritt ein Fehler im Feld auf, wird dieser zwecks Ursachenidentifikation und Definition von Abstellmaßnahmen in die Zuliefererkette gegeben. Zumeist sucht jeder Zulieferer eigenverantwortlich nach den möglichen Fehlerursachen und Lösungsmaßnahmen. Die derzeitig verwendeten Methoden zur Dokumentation und Analyse von Fehlern sind der 8D-Report, das SCOR-Modell und der NTF-Prozess des Schadteilanalyseprozesses des Verbands der Automobilindustrie (VDA). Der Einsatz dieser Methoden ist jedoch zum einen mit einem hohen Zeit- bzw. Personalaufwand verbunden und zum anderen wird nicht geregelt, wie und an wen die Ergebnisse kommuniziert werden sollen. Die Kommunikation der Ergebnisse hat jedoch eine hohe Relevanz für einen effizienten Umgang mit aufgetretenen Fehlern in Zulieferketten. Im Rahmen des geplanten Forschungsprojekts FuFeZ soll dieser Handlungsbedarf mittels eines KI-basierten Referenzmodells gedeckt werden, welches eine zielgerichtete Kommunikation zwischen OEM und KMU ermöglicht.

Das Projektvorhaben FuFeZ

Ziel des avisierten Forschungsprojekts ist die Entwicklung eines Referenzmodells zum erleichterten Umgang mit Feld-Fehlern in Zuliefererketten, unterstützt durch zwei KI-basierte Empfehlungsassistenten. Während ein Assistent potenzielle Fehlerursachen vorschlägt, kommuniziert der zweite Assistent daraus resultierende konkrete Maßnahmen zur Fehlerbehebung. Unternehmen sollen in der Lage sein, das Referenzmodell und die Empfehlungsassistenten eigenständig anzuwenden.

Im Folgenden ist eine vorläufige Ideenskizze des Referenzmodells zu sehen (Abb. 1):

Abb. 1: Ideenskizze vom neuen Referenzmodell

Im ersten Schritt werden die Kundenreklamationen durch die Werkstätten oder den OEM selbst aufgenommen. Als Nächstes ist es die Aufgabe des OEMs die Fehlerbeschreibung durchzuführen, wobei eine Mindestanzahl an Daten vom OEM preisgegeben werden muss. Diese zwei Schritte sind erforderlich, damit die Fehlerklassifikation mittels einer zu entwickelnden Schablone (Klassifikations-Template) umgesetzt werden kann. Dadurch sind insbesondere KMU in der Lage zu ermitteln, ob für sie ein Handlungsbedarf besteht. Im Anschluss werden den Unternehmen potentielle Fehlerursachen mittels des Empfehlungsassistenten (Fuzzy-Neuro-System) vorgeschlagen. Durch einen zweiten Empfehlungsassistenten werden Maßnahmen zur Abstellung der ausgewählten Fehlerursache empfohlen. Diese allgemeinen Maßnahmen dienen als Ansatz zur Orientierung, sodass KMU Methoden zur Ursachen- und Maßnahmenbestimmung nicht mehr selbstständig durchführen müssen, wodurch sich Zeit und Personal einsparen lassen. Ergänzt werden sollen die Maßnahmen durch statische Empfehlungen. Hierbei wird zusätzlich die Information ausgegeben, welche Voraussetzungen vor der Durchführung der eigentlichen Maßnahme erfüllt sein müssen. Im Anschluss an die Durchführung der Maßnahmen wird ihre Wirksamkeit ermittelt.

Welche Vorteile hat FuFeZ für Unternehmen?

Durch die Anwendung des Referenzmodells und die vorgeschlagenen Fehlerursachen sowie Abstellmaßnahmen der Empfehlungsassistenten kann die Erkennungs- und Behebungszeit bei auftretenden Feld-Fehlern in Zuliefererketten deutlich gesenkt werden. Des Weiteren bietet FuFeZ mit seiner benutzerfreundlich gestalteten Software Unternehmen die Möglichkeit, die geeignetste Fehlerursache und (Abstell-)Maßnahme für die Fehlerbeschreibung mit geringem Aufwand aus dem vorgeschlagenen Katalog auszuwählen und gegebenenfalls. anzuwenden. Auf diese Weise können Unternehmen Fehlerkosten durch korrekte und schnelle Behandlung von Fehlerereignissen minimieren, nachhaltige Wettbewerbsvorteile erlangen und einen KI-basierten sowie digitalisierten Reifegrad erreichen. Weitere Ziele sind die Verringerung der Belastung und Beanspruchung von Mitarbeitenden im Fehlermanagementprozesses und der Aufbau einer positiven Fehlerkultur.

Diese Vorteile werden erreicht durch:

  1. Entwicklung eines neuen Referenzmodells, welches den aktuellen Forschungsstand abbildet, als auch den praktischen Bedarf der Unternehmen in Zuliefererketten widerspiegelt.
  2. Sicherstellung zur unternehmensübergreifenden Kommunikation durch KI-basierte Empfehlungen des Referenzmodells.
  3. Entwicklung eines Klassifikations-Templates zur konkreten Fehlerbeschreibung durch beziehungsweise für die Zulieferer.
  4. Entwicklung von Ursachen- und dazugehörigen Maßnahmenvorschlägen durch jeweils einen Empfehlungsassistenten, welcher durch Fuzzy-Neuro-Systeme determiniert und kontinuierlich gepflegt werden soll.

Bei Berücksichtigung dieser vier Punkte können die Unternehmen effizienter mit Feld-Fehlern in Zuliefererketten umgehen.

Wie können sich Unternehmen am Projektvorhaben beteiligen?

Das geplante Forschungsprojekt wird durch das Fachgebiet Qualitätswissenschaft der Technischen Universität Berlin initiiert und von der FQS Forschungsgemeinschaft Qualität e. V mit Mitteln des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK) gefördert.

Interessierte Unternehmen, insbesondere KMU, haben die Möglichkeit, sich als Mitglied des Projektbegleitenden Ausschusses zu beteiligen. Hierbei wirken sie bei der Steuerung des Projektes und bei der Beratung der Forschungseinrichtung mit und profitieren frühzeitig von den erzielten Ergebnissen. Hierzu kann auch eine prototypische Umsetzung im Unternehmen durch die Forschungseinrichtung gehören. Detailliertere Informationen zum Vorhaben und Beteiligungsmöglichkeiten finden sich im Projektsteckbrief.

 

Über den Autor: Turgut Refik Caglar

Als wissenschaftlicher Mitarbeiter und Doktorand am Fachgebiet Qualitätswissenschaft der TU Berlin erforscht Turgut Refik Caglar, wie sich KI-Algorithmen durch ständige Kommunikation mit Mitarbeitenden weiterentwickeln und zu kontinuierlichen Prozessverbesserungen beitragen können. Dazu zählen insbesondere Forschungsbereiche wie Empfehlungssysteme, KI-basiertes Shopfloor Management, Verarbeitung natürlicher Sprache (NLP) und kognitive Algorithmen.

Kontakt:
t.caglar@tu-berlin.de

Interview zum FQS-Forschungsvorhaben SAPEQ: Fit für Smart Data Analytics in der Produktentstehung

Insbesondere in der Produktentwicklung kann eine systematische Vorgehensweise im Umgang mit Daten und der gezielte Einsatz von Smart Data dabei unterstützen, Produkte schneller an den Markt zu bringen, Kundenwünsche besser zu adressieren, Fehlerkosten zu reduzieren und eine hohe Qualität sicherzustellen.

Wie Unternehmen vorliegende Daten effektiv für den Produktentstehungsprozess nutzen können, untersuchte das von der FQS Forschungsgemeinschaft Qualität e. V. geförderte Forschungsprojekt SAPEQ. In einem Zeitraum von zwei Jahren haben Wissenschaftler:innen der Technischen Universität Berlin in Kooperation mit der Hochschule Koblenz ein entsprechendes Assistenzsystem entwickelt Es befähigt insbesondere Mitarbeitende in KMU dazu, Smart Data systematisch und methodenbasiert im Produktentstehungsprozess anzuwenden. Im Interview stellen Prof. Dr. Roland Jochem, Leiter des Fachgebiets Qualitätswissenschaft am Institut für Werkzeugmaschinen und Fabrikbetrieb der TU Berlin, und Lena Feindler, Mitarbeiterin im Forschungsprojekt SAPEQ, die wichtigsten Ergebnisse vor. Sie zeigen, wie interessierte Unternehmen das entwickelte Assistenzsystem nutzen können.

Aus Sicht des SAPEQ-Projekts: Mit welchen Herausforderungen sind insbesondere kleine und mittlere Unternehmen (KMU) bei der Produktentwicklung konfrontiert?

Prof. Dr. Roland Jochem: „Die Herausforderungen sind vielseitig. Für das Projekt SAPEQ sehen wir als Herausforderungen von KMU in der Produktentwicklung zum einen die volatilen Märkte gepaart mit den stetig sinkenden Produkteinführungszeiten. Zum anderen laufen KMU Gefahr, den Anschluss bei der Digitalisierung zu verlieren. Zahlreiche Studien belegen, dass Smart Data nicht nur ein Trend ist, sondern ein brisantes Thema für Unternehmen jeder Größe darstellt. Die stetig anwachsende Datenmenge und die sinkenden finanziellen Anforderungen der technischen Umsetzung ermöglichen bereits heute die Nutzung von Smart Data Analytics auch in KMU. Dennoch werden die Potenziale von Smart Data in KMU nicht genutzt.“

Welche Potenziale ergeben sich durch eine effektive und effiziente Integration von Smart Data im Produktentstehungsprozess (PEP)?

Prof. Dr. Roland Jochem: „Der zielgerichtete Einsatz von Smart Data im PEP eröffnet die Möglichkeit, Fehlerkosten zu reduzieren, Kundenanforderungen besser zu erfassen und die Produkteinführungszeit zu verringern. Im Bereich der Forschung und Entwicklung kann dabei eine Verringerung der Kosten und der Time-to-Market von 20 bis 50 Prozent erreicht werden. Die Integration von Smart Data im PEP trägt außerdem zu einer Verbesserung der Entscheidungsqualität bei, da Entscheidungen auf Basis von Daten und Fakten getroffen werden können.“

Warum werden diese Potenziale in KMU häufig nicht genutzt?

Prof. Dr. Roland Jochem: „Eine Voraussetzung, um die Potenziale des Einsatzes von Smart Data erfolgreich nutzen zu können, bildet neben dem Datenzugang auch die zielgerichtete Auswertung. Zwar liegen mitunter (auch in KMU) große Datenmengen vor, doch zeigt sich dabei auch die Kehrseite von großen Datenmengen: Sie sind oftmals unstrukturiert und lassen sich somit schlecht analysieren. Auch ist in vielen KMU eine strukturierte Vorgehensweise gerade in den frühen Phasen der Produktentstehung nicht erkennbar. Die hohe Priorität des Tagesgeschäfts führt dazu, dass wenig Zeit für die strategische Systematisierung von Entwicklungsprozessen zur Verfügung gestellt wird.

Der Anteil der KMU, die bislang Smart Data nutzen, ist im Vergleich zu großen Unternehmen sehr gering. Ursachen dafür sind unter anderem die fehlende Kompetenz der Mitarbeitenden hinsichtlich Smart Data, die Unsicherheiten im Umgang mit Smart Data und die Angst vor hohen Investitionen.“

Welches Ziel wurde im Forschungsprojekt SAPEQ verfolgt?

Prof. Dr. Roland Jochem: „Das Ziel im Forschungsprojekt „SAPEQ – Smart Data Analytics in der Produktentstehung zur Sicherstellung der Qualität bei KMU“ ist die Befähigung der Mitarbeitenden in KMU hinsichtlich der bedarfsgerechten Anwendung von Smart Data in einem systematischen und methodenbasierten PEP. Das entwickelte IT-basierte Konzept qualifiziert KMU dazu, Smart-Data-Methoden situationsgerecht auszuwählen, anzuwenden und zu interpretieren. Dabei werden Smart-Data-Methoden nicht nur situationsgerecht empfohlen. Es erfolgt zusätzlich auch eine adressatengerechte Anleitung für die Anwendung der jeweiligen Methoden. Das IT-basierte Assistenzsystem ist hier als Hilfe zur Selbsthilfe für KMU angelegt. KMU müssen keine externen Schulungen erhalten und können dennoch einen notwendigen und wirtschaftlich sinnvollen Schritt in Richtung Data Science vollziehen.“

Können Sie die Funktionsweise des von Ihnen entwickelten Assistenzsystems genauer erläutern?

Lena Feindler: „Mithilfe des Chatbots namens EGON wird den Nutzer:innen eine passende Methode für ihr spezifisches Problem empfohlen. Innerhalb des Chatbots ist ein Entscheidungsbaum hinterlegt, mit dessen Hilfe EGON eine situative Empfehlung geben kann. Der Entscheidungsbaum wurde auf Basis der zuvor durch Experteninterviews und Literaturanalyse ermittelten KMU-spezifischen Herausforderungen aufgestellt. Durch gezielte Fragestellungen kann EGON so die situative Herausforderung des Nutzenden erkennen und ihm eine passende Empfehlung geben. Anwenderinnen gelangen durch EGON zu der passenden Methode, welche in einer SHINY Web App zur Verfügung gestellt wird. Hier wird die Methode erklärt sowie Hinweise und Tipps zur Durchführung dieser Methode gegeben. Diese Unterstützung des Users steht in multimedialer Form zur Verfügung. Die Anwenderinnen werden Schritt für Schritt von der Datenerhebung bis hin zur zielgerechten Verwertung der Daten geführt.“

Welche Möglichkeiten gibt es für interessierte Unternehmen, mit dem Assistenzsystem zu arbeiten und wie können sie auf das Assistenzsystem zugreifen?

Lena Feindler: „Das im Forschungsprojekt entwickelte Assistenzsystem ist für jeden frei zugänglich. Der Chatbot EGON ist über die Startseite des Projekts erreichbar. Je nach Problemstellung verweist EGON den Nutzer auf die entsprechende Stelle in der SHINY Web App. Unabhängig davon ist die SHINY Web App auch separat zu erreichen. Dort befinden sich sowohl eine Übersicht und Befähigung zu verschiedenen Vorgehensmodellen (Smart Data, Design Thinking und Design for Six Sigma) als auch zu den einzelnen Methodiken.“

Wie geht es nach Abschluss des Projektes weiter?

Prof. Dr. Roland Jochem: „Aufbauend auf den Ergebnissen von SAPEQ soll im Rahmen des geplanten Forschungsprojektes WILMA ein dialogfähiges Assistenzsystem zur Aggregation und Vermittlung von Wissen innerhalb des PEPs von KMU entwickelt werden. Dabei soll EGON in die Entwicklung mit eingebunden werden. Sollten keine Wissenselemente zu einem Thema hinterlegt sein, kann EGON weiterhelfen, das Problem methodisch zu lösen. Anschließend sollen die Ergebnisse in WILMA hinterlegt werden. Hier besteht die Möglichkeit sich als Unternehmen im Rahmen des projektbegleitenden Ausschusses zu beteiligen. Der projektbegleitende Ausschuss kann dabei die Forschungsarbeiten praxisorientiert begleiten und mögliche Ergebnisse bereits unternehmensintern zur Validierung testen.“

 

Über die Interviewpartner:
Prof. Dr.-Ing. Roland Jochem, Leiter Fachgebiet Qualitätswissenschaft am Institut für Werkzeugmaschinen und Fabrikbetrieb, Technische Universität Berlin

Lena Feindler, Fachgebiet Qualitätswissenschaft am Institut für Werkzeugmaschinen und Fabrikbetrieb, Technische Universität Berlin, Mitarbeiterin im Forschungsprojekt SAPEQ

Über das Forschungsprojekt:
Das IGF-Vorhaben 20889 N der FQS Forschungsgemeinschaft Qualität e.V. (FQS), August-Schanz-Straße 21A, 60433 Frankfurt am Main wurde über die AiF im Rahmen des Programms zur Förderung der Industriellen Gemeinschaftsforschung (IGF) vom Bundesministerium für Wirtschaft und Klimaschutz aufgrund eines Beschlusses des Deutschen Bundestages gefördert.

Weitere Informationen zu den Forschungsprojekten SAPEQ und WILMA sowie der zusammenfassende Schlussbericht zum Projekt SAPEQ können über die Geschäftsstelle der FQS Forschungsgemeinschaft Qualität e.V. per E-Mail unter infofqs@dgq.de angefordert werden.

Das SAPEQ Assistenzsystem ist unter den folgenden Links abrufbar:

 

 

KI in der Qualitätssicherung – Open Source Werkzeuge geben künftig den Takt vor

Qualitätssicherung und Qualitätskontrolle gehören vor allem in fertigenden Unternehmen zu den wichtigsten Schritten der Wertschöpfungskette. Hierfür stehen immer mehr Daten zur Verfügung, die es zu verarbeiten gilt. Eine immer größere Rolle spielen hierbei Open-Source-Anwendungen für Big Data Analytics und KI wie beispielsweise Python. Gemeinsam mit DATATRONIQ und der AdvancedAnalytics.Academy hat die DGQ ein Training entwickelt, das den Teilnehmern einen strukturierten Zugang zu dieser Programmiersprache ermöglicht.

Durch die zunehmende Digitalisierung der Produktionsprozesse, den Aufbau und Ausbau von Sensorik sowie die Fortschritte in der Messtechnik stehen künftig deutlich mehr qualitätsbeschreibende und weitaus hochauflösendere Daten zur Verfügung, um die Qualität von Bauteilen oder Prozessen bewerten zu können.

Stetig wachsende Datenvolumina erfordern neue Analysewerkzeuge

Um die großvolumigen Daten künftig effizient verarbeiten und analysieren zu können, werden Werkzeuge benötigt, die sich problemlos mit den wachsenden Datenmengen skalieren lassen. Sie müssen außerdem in der Lage sein, die Datenverarbeitung automatisiert und idealerweise inline durchzuführen. Unternehmen können somit manuelle und stichprobenbasierte Prüfprozesse durch automatisierte Inline-Kontrollen im Fertigungsprozess ersetzen. Neben der vollständigen Prüfabdeckung in Form einer 100-prozentigen Digitalprüfung führt dies auch zu einer weiteren Erhöhung der Wertschöpfung.

KI findet Auffälligkeiten im Prozess und liefert Erklärungen für Prozess-Anomalien

Herkömmliche Mess- und Analysemethoden überwachen in der Regel einzelne Messreihen hinsichtlich einer Verletzung von Toleranzgrenzen (sogenannte univariate Analysen). Algorithmen der Künstlichen Intelligenz (KI) sind dagegen in der Lage, ein Vielfaches an hochfrequenten Zeitreihen auf einmal zu analysieren (multivariate Analysen). Dadurch ist es möglich, auch Korrelationen zwischen einzelnen Messreihen zu analysieren und diese automatisiert nach Auffälligkeiten zu durchforsten. Dabei entdecken KI-Methoden nicht nur Anomalien, sondern liefern zusätzlich auch noch Erklärungskomponenten, um die Ursachen für eine aufgetretene Messanomalie zu deuten und schneller interpretieren zu können. Dadurch lässt sich die Fehlersuche bei Qualitätsproblemen deutlich beschleunigen.

Open-Source-Werkzeuge sind „Quasi-Standard“ für Big Data Analytics und KI

In den letzten zehn Jahren haben sich Open-Source-basierte Werkzeuge zu den Schlüsseltechnologien moderner Big-Data-Infrastrukturen entwickelt – mit Python als „Quasi-Standard“ für Data Analytics, Machine Learning und Künstliche Intelligenz. Dabei geben heute Open-Source-basierte Technologien wie Python, Spark oder Kafka den Takt für die Verarbeitung und die Analyse großer Datenmengen vor. Neue Statistik- und KI-Algorithmen werden in einer weltweiten Community quasi im Tagesrhythmus entwickelt und stehen zur Verwendung in Python bereit.

Bewährte SPC-Methoden werden durch KI-Algorithmen erweitert

Der Vorteil von Python besteht darin, dass alle bewährten und für SPC relevanten Statistik-Methoden verfügbar sind. Darüber hinaus stehen mächtige Visualisierungs- und Chart-Bibliotheken bereit, mit denen man sämtliche Methoden der statistischen Prozesskontrolle (SPC) wie Scatter Plots, Pareto Charts, Bar Charts, Regelkarten bis hin zu Gage RnR Charts abbilden kann. Erweitert werden die SPC Methoden durch mächtige multivariate KI-Algorithmen, welche die Verwendung von unüberwachten (Unsupervised Learning), halb-überwachten (Semi-supervised Learning) und überwachten Lernmethoden (Supervised Learning) ermöglichen. Eine weitere Stärke von Python stellt die Verarbeitung von nahezu allen gängigen Datenformaten dar, so dass beispielsweise auch die Verarbeitung von Audio-, Bild- und Video-Formaten im Rahmen von Qualitätskontrollen problemlos möglich ist.

Ein neues DGQ-Schulungsformat für die Nutzung von Python in der Qualitätskontrolle

Gemeinsam mit der Deutschen Gesellschaft für Qualität und der DATATRONiQ GmbH hat die AdvancedAnalytics.Academy ein innovatives Schulungskonzept entwickelt. Die Teilnehmer werden durch ein dreitägiges Training in die Lage versetzt, die Vorzüge von Python von der Pike auf kennenzulernen. Mit dem erlernten Know-how können sie mit den ersten praktischen Anwendungen in Sachen KI-basierter Qualitätskontrolle beginnen. Das E-Training „Qualitätsprozesse mit Python automatisiert analysieren“ startet zunächst mit einer Einführung in Python, um die Grundzüge der Programmiersprache kennenzulernen. Mit dem Erlernen der wesentlichen Datenverarbeitungsfunktionen, Statistikmethoden und Visualisierungstechniken wird die Grundlage für die Verwendung von Python im Rahmen der statistischen Prozesskontrolle (SPC) geschaffen. Hier werden im Six-Sigma-Kontext die etablierten Statistikmethoden vorgestellt, wie beispielsweise Berechnungen der Prozessfähigkeit, Verwendung von Regelkarten in Abhängigkeit der zugrundeliegenden Stichprobe, Gage RnR. Darüber hinaus behandelt das Training auch gängige Statistikmethoden, wie beispielsweise Pareto-Charts, Bar-Charts, Box-Plots, Violin Plots und Korrelations-Matrizen beziehungsweise -Heatmaps. Ein weiterer Schwerpunkt der Lehrveranstaltung liegt in der praktischen Anwendung von Methoden der Künstlichen Intelligenz im Rahmen der Qualitätskontrolle. Hier werden die theoretischen Grundlagen rund um notwendige Datenaufbereitungstechniken, die wichtigsten Algorithmen, das Trainieren von KI-Modellen, deren Interpretation sowie dem Deployment der Modelle in Rahmen einer Produktivsetzung behandelt. Um den Praxisbezug über die gesamte Schulung hinweg aufrecht zu erhalten, begleiten praktische Übungen alle theoretischen Inhalte. Sämtliche Datenbeispiele in den praktischen Übungen stellt DATATRONiQ in Form anonymisierter Realdaten aus Fertigungsprozessen bereit.

Eine moderne cloudbasierte KI Plattform als kollaborative Schulungsumgebung

Um den Anforderungen an eine reibungslose Durchführung des E-Trainings gerecht zu werden, wurde mit AltaSigma eine moderne cloudbasierte KI-Plattform bereitgestellt. Die Teilnehmer können ausschließlich über den Browser darauf zugreifen. Somit werden lokale Installationen auf den Rechnern der Teilnehmer vermieden. Es ist zudem sichergestellt, dass sie mit den identischen qualitätsgesicherten Python Bibliotheken arbeiten können. Über AltaSigma haben alle Teilnehmer Zugriff auf die Daten, Übungen und Lösungen, welche per Notebooks bereitgestellt werden. Im Rahmen der Bearbeitung der einzelnen Übungen erlernen die Teilnehmer neben der reinen Programmierung in Python zusätzlich das kollaborative Arbeiten in einer modernen cloudbasierten KI-Plattform.

Cloudbasierte KI Plattform als kollaborative Schulungsumgebung

 

Die nächsten Schulungstermine stehen bereits fest
Das E-Training „Qualitätsprozesse mit Python automatisiert analysieren“ geht im Oktober 2022 in die nächste Runde und findet in Form von fünf Nachmittagsveranstaltungen vom 19.10. – 28.10.2022 online statt. Ab sofort ist die Anmeldung zum Training im Online-Shop möglich.

Über den Autor

Stefan Weingärtner ist Gründer und Geschäftsführer der DATATRONiQ GmbH, einem innovativen AIoT Lösungsanbieter für das Industrielle Internet der Dinge (IIoT). Darüber hinaus ist er Gründer und Geschäftsführer der AltaSigma GmbH, einem Anbieter einer innovativen Enterprise AI Orchestration Plattform, mit der Unternehmen Künstliche Intelligenz in ihrem jeweiligen Geschäftsfeld in kürzester Zeit effizient nutzen können. Davor war er Gründer und Geschäftsführer der DYMATRIX. Mit über 25 Jahren Berufserfahrung im Data Science Consulting- und Applikations-Umfeld zählt er zu den erfahrensten und renommiertesten Experten in dieser Domäne in Deutschland. Er ist als Dozent an verschiedenen Hochschulen tätig, Autor zahlreicher Fachbeiträge zum Thema Machine Learning und Herausgeber der Buchreihe „Information Networking“.

1. Süddeutscher Qualitätstag am 1. Juli 2022 – melden Sie sich ab sofort an

Am 1. Juli 2022 feiert der Süddeutsche Qualitätstag seine Premiere in Stuttgart. Seien Sie live vor Ort dabei, um sich mit anderen Teilnehmerinnen und Teilnehmern fachlich fundiert über Neues und Bewährtes aus dem Qualitätsmanagement auszutauschen. Sie wollen wissen, was andere meinen und was es in Zukunft braucht, um das Richtige zu tun?

Im Fraunhofer IPA in Stuttgart erwartet Sie von 9.00 – 16.00 Uhr ein spannungsgeladenes Programm mit gemeinsamen Frühstück sowie einem Barbecue. Freuen Sie sich unter anderem auf folgende Highlights:

Was kommt?
Innerhalb kürzester Zeit haben sich verschiedene Formen der Zusammenarbeit etablieren müssen. Aber ist das schon agil? Was bedeutet diese Entwicklung für die Sicherheit und den Schutz unserer Daten? Wir wagen einen Blick voraus sowie eine kritische Analyse potenzieller Chancen und Risiken einer digitalen Transformation.

Was bleibt?
Was hat im Qualitätsmanagement Bestand? Wie steht es um ihre Audits? Wurde in letzter Zeit etwas vermisst? Welche Zertifizierungen haben Relevanz? Wieviel Akzeptanz bleibt für das Qualitätsmanagement übrig? Mit Berichten aus der Praxis versuchen wir eine Bestandsaufnahme.

Was braucht´s?
Globale Lieferketten erscheinen anfällig! Ist das jetzt die richtige Zeit für weitere Nachhaltigkeitsbestrebungen? Bleibt uns vielleicht gar nichts anderes, als auf Sicht zu fahren? Wie müssen wir neue Strategien gemeinsam mit Partnern in geeignete Prozesse gießen?

Das vollständige Programm wird in Kürze bekannt gegeben. Weitere Informationen finden Sie auf der Website zum Süddeutschen Qualitätstag 2022.

Veranstaltungspartner ist die Deutsche Gesellschaft für Qualität e.V. (DGQ) in Zusammenarbeit mit der Dr. Fritz Faulhaber GmbH & Co. KG, Adolf Föhl GmbH + Co KG und N5 GmbH sowie dem Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA und der Fachzeitschrift QZ Qualität und Zuverlässigkeit.

 

Wir freuen uns, Sie in Stuttgart zu sehen!

Wann: Freitag, 1. Juli 2022, von 09:00 Uhr bis 16:00 Uhr
Wo: Fraunhofer IPA, Nobelstraße 12, 70569 Stuttgart
Kosten: € 69,00 zzgl. MwSt. (€ 49,00 zzgl. MwSt. für DGQ-Mitglieder)

Zur Anmeldung

Bitte beachten: Die Veranstaltung ist auf maximal 150 Teilnehmerinnen und Teilnehmer begrenzt und wird unter Einhaltung eines Hygienekonzepts, das den gültigen coronabedingten Auflagen entspricht, durchgeführt.

Haben Sie Fragen? Nehmen Sie gern Kontakt mit uns in der DGQ-Geschäftsstelle Stuttgart auf! Einfach per E-Mail an stuttgart@dgq.de oder telefonisch unter 0711-95611-60.

Personalbemessung in der Pflege: Echte Verbesserung oder nur akademische Übung?

Die Diskussion über die Personalbemessung in der Langzeit-Pflege ist mindestens so alt wie die Pflegeversicherung. Auch in der Krankenversorgung wurde sie erörtert und schließlich 2018 mit der Pflegepersonaluntergrenzen-Verordnung (PpUgV) auf Gesetzesgrundlage festgelegt und seither weiterentwickelt. Das geschah nicht gerade lautlos. So wie nun in der stationären Altenhilfe, wo ab kommendem Sommer eine viel diskutierte Regelung nach §113c des elften Sozialgesetzbuches (Pflegeversicherung) gelten wird.

Grundlage für die neue Stellenberechnung ist eine Untersuchung, die nach dem Projektleiter und Professor an der Uni Bremen als „Rothgang-Studie“ bezeichnet wird. Darin wird ein Verfahren zur Personalbemessung in stationären Pflegeeinrichtungen vorgeschlagen, das mit dem Gesetz zur Weiterentwicklung der Gesundheitsversorgung (GVWG) nun Einzug in die Personalvorgaben für Heime hält. Die Ziele des Gesetzes sind eine gute, effiziente Pflege und eine sichere Versorgung pflegebedürftiger Menschen.

Die Umsetzung gestaltet sich holprig, der Nutzen wirft Fragen auf. Im Grunde geht es darum, welche Pflegeleistungen in Deutschland von Fachkräften mit welchem Ausbildungsniveau erbracht werden und wie viel Personal dafür von Pflegeeinrichtungen vorgehalten werden muss. Welche Kriterien in dem Projekt zur Entwicklung des Personalbemessungs-Verfahrens (PeBeM) eine Rolle gespielt haben und ob die Ergebnisse dem Praxistest standhalten werden, wird mit der Umsetzung noch einmal in den Fokus des öffentlichen Diskurses geraten.

Vor dem Hintergrund der dramatischen Personalsituation in der Pflege, die durch die SARS-CoV-2-Pandemie noch verstärkt wird, stellen sich aber weitere Fragen:

Führen Personalbemessungsvorgaben per se zu einem Zuwachs an Pflegekräften?

Seit nunmehr fast drei Jahrzehnten wird beklagt, dass die demographische Spirale die Pflege in allen Sektoren an ihre Grenzen bringt. Zudem herrscht seit langem Pflegenotstand. Es gibt also einen tatsächlichen Mangel an Pflegekräften. Der betrifft über die Pflegesektoren hinweg inzwischen alle beteiligten Qualifikationsniveaus von Pflegehilfskräften bis zur Fachpflege.

Wenn in dieser Situation Richtlinien zu einer Mindestausstattung an Pflegepersonal eingeführt werden, so scheint eines logisch: Ohne flankierende Maßnahmen führt das in den Kollaps. Denn wenn tatsächlich Pflegekräfte im System fehlen, schafft die Reglementierung selbst keine neuen Stellen. Vielmehr kann das sogar dazu führen, dass Einrichtungen nicht aufnehmen dürfen und behandeln können, wenn sie die Personalvorgaben nicht erfüllen. Dann müssen Pflegebedürftige abgewiesen oder Krankenbehandlungen verschoben werden, was im Übrigen bereits jetzt segmentübergreifend geschieht (Stüben, 2018; Reiners, 2019; Preiss, 2021).

Verbessern Personalbemessungs-Regelungen die Situation des Bestandspersonals?

Die Regelungen zur Personalbemessung nach §113c SGB XI sehen vor, dass Pflegeleistungen in Zukunft gestaffelt nach Qualifikationsniveaus erbracht werden. Das heißt in der Praxis, dass die Pflegekraft nicht mehr das sprichwörtliche Mädchen für alles ist, sondern nur die Tätigkeiten ausführt, die dem jeweiligen Kompetenzbereich entsprechen. Das wird in der Realität zu einer radikalen Änderung der Abläufe in Pflegeheimen führen und jahrelang geübte Prozesse aufwirbeln. Ob dies in der Summe und im Ergebnis durch Bestands-Pflegekräfte als Verbesserung wahrgenommen wird, ist fraglich.

Um eventuelle Effekte messbar zu machen, wurde in Schleswig-Holstein ein Vorhaben gemeinsam mit der Uni Bremen gestartet: StaVaCare 2.0 OE SH (Görres et al., 2021). Dabei soll herausgefunden werden, ob die Umsetzung der Personalbemessungs-Vorgaben nach dem PeBeM zu mehr Zufriedenheit beim Pflegepersonal führt und sich gesundheitsfördernd auswirkt (vdek, 2022). Ob sich die positiven Hinweise aus einer Vorstudie verdichten, bleibt abzuwarten.

Haben Personalbemessungsinstrumente eine Wirkung auf die Attraktivität der Pflegeberufe?

Gleichzeitig nimmt nicht nur der Bedarf an Pflegeleistungen zu, sondern die Anforderungen an die pflegerische Tätigkeit werden auch immer komplexer. Man denke nur an die altersbedingten Mehrfachleiden oder Veränderungen im Zusammenhang mit demenziellen Erkrankungen, die pflegefachliche Breitband-Kompetenzen auf hohem Niveau erforderlich machen. Der technische Fortschritt erweitert zusätzlich die Möglichkeiten in der Praxis. Außerdem führt der Zuwachs an Wissen durch die Pflegeforschung zu einer Veränderung der Möglichkeiten in der Pflegediagnostik und pflegerischer Interventionen.

Das mit dem oben genannten Gesetz eingeführte Personalbemessungsinstrument ist allerdings quasi rückwärtsgewandt. Es bezieht nur die Tätigkeiten eines bestehenden Handlungs- und Leistungskataloges ein und mit welcher Qualifikation diese nach jetzigem Stand der Ausbildungs-Curricula zu erbringen sind.

Dass die Attraktivität des Berufsfeldes auch etwas mit den Erwartungen von Bewerberinnen und Bewerbern zu tun hat, ist wohl unstrittig. Sofern die Personalbemessung aber nur den Status Quo berücksichtigt und absehbare technische und pflegefachliche Entwicklungen außen vor bleiben, ist kein Zugewinn durch das PeBeM zu erwarten. Um die Attraktivität der Pflegeberufe durch Personalbemessung zukunftssicher zu machen, müssten zunehmende Komplexität, Professionalisierung und Technisierung in die Stellenvorgaben einbezogen werden.

Als Argument für eine Attraktivitätsverbesserung bleibt daher nur die geplante Fokussierung auf die jeweils erworbenen Kompetenzen der Pflegekräfte und den damit einhergehenden neuen Zuschnitt der Stellenprofile. Der Gesetzgeber hat dazu im Pflegeberufegesetz (PflBG) sogenannte vorbehaltene Tätigkeiten benannt. Die legen übrigens auch die Qualität der Pflege in die Hände der Pflegefachkräfte.

Führen Personaluntergrenzen zu besseren Pflegeergebnissen?

Das ausgesprochene Ziel der Einführung von Personaluntergrenzen und entsprechender Bemessungsinstrumente ist die Sicherung der Qualität von Pflegeleistungen (BMG, 2021). Im klinischen Bereich wurde dieser Zusammenhang durch Studien belegt und diente damals als Argument für deren Einführung (ärzteblatt, 2017).

Auffällig ist, dass die gesetzlichen Regelungen für die Klinik vor allem das Patientenrisiko in den Mittelpunkt stellen. Das soll durch Mindestbesetzungen mit einem Qualifikationsmix begrenzt werden. Die Verringerung von Gefahren ist aber nicht per se gleichzusetzen mit Pflegequalität.

Aus fachlicher Sicht müsste sich die Personalbemessung vor allem an guten Pflegeergebnissen orientieren und nicht nur an der Abwendung von Gefahren. Das entspräche wohl auch eher dem Willen der Leistungsempfänger, nämlich Patientinnen und Patienten, Pflegebedürftigen, Angehörigen. Derartige Ergebnisse werden aber nicht mit der kleinsten zulässigen Zahl an Fachpersonal erreicht.

Fazit

Die akademische Leistung, ein Personalbemessungsinstrument erschaffen zu haben, ist erbracht. Aber weder wurden vor der jetzt gesetzlich festgelegten Einführung die Grundannahmen der Berechnung hinterfragt, noch gibt es im Ansatz ausreichend Personal, um die Vorgaben zu erfüllen. Es ist letztlich nicht erkennbar, dass es sich um ein zukunftsweisendes Instrument im Sinne des pflegefachlichen Fortschritts handelt.


Ärzteblatt (2017) Personalschlüssel in der Pflege: Andere Länder machen es vor, https://www.aerzteblatt.de/nachrichten/73008/Personalschluessel-in-der-Pflege-Andere-Laender-machen-es-vor

BMG (2021), https://www.bundesgesundheitsministerium.de/fileadmin/Dateien/3_Downloads/K/Konzertierte_Aktion_Pflege/Roadmap_zur_Einfuehrung_eines_Personalbemessungsverfahrens.pdf

Görres et al. (2021) Stabilität und Variationen des Care-Mix in Pflegeheimen unter Berücksichtigung von Case-Mix, Outcome und Organisationscharakteristika – Organisationsentwicklung in Schleswig-Holstein, https://www.ipp.uni-bremen.de/abteilungen/praevention-und-gesundheitsfoerderung/promotionsprojekte/laufende-promotionsprojekte?proj=847&page=1

Preiss, F. (2021) Mehr als 800 Intensivbetten in der Region können nicht genutzt werden, https://www.rbb24.de/panorama/beitrag/2021/12/berlin-brandenburg-intensivbetten-divi-personalmangel.html

Reiners, W. (2019) Personalnot gefährdet Gesundheit der Patienten, https://www.stuttgarter-nachrichten.de/inhalt.krankenhaeuser-alarmiert-personalnot-geht-auf-kosten-der-klinikpatienten.4e178e6b-4df2-402f-bfc0-0b6bc5f21f85.html

Stüben, H. (2018) Altenpflege: Personalnot bedrohlich groß, https://www.kn-online.de/Nachrichten/Schleswig-Holstein/Altenpflege-in-Schleswig-Holstein-Personalnot-ist-bedrohlich-gross

Vdek (2022).
https://www.vdek.com/LVen/SHS/Presse/Pressemitteilungen/2022/MOdellprojekt_zu_Organisationsentwicklung_und_betrieblicher_Gesundheitsfoerderung_in_stationaeren_Pflegeeinrichtungen/_jcr_content/par/download/file.res/20220125%20Gem%20PM%20Projekt%20StaVaCare.pdf

 


7. Norddeutscher Qualitätstag am 14. Juni 2022 – jetzt zur Online-Konferenz anmelden

Am 14.06.2022 geht der Norddeutsche Qualitätstag erneut mit einem spannenden Programm in seine siebte Ausgabe – melden Sie sich ab sofort dafür an.

Die Online-Konferenz bietet ungewöhnliche Einblicke und gleichzeitig praxisnahe Fachimpulse. Erfahren Sie beispielsweise, wie die Polizei Hamburg ihr neues Beschwerdemanagement organisiert. Mit mehr als 1.000 Vorfällen pro Jahr, meist hoch emotional, keine leichte Herausforderung. Der Praxisbericht gibt aber ganz sicher viele Anregungen für die Reklamationsbearbeitung im eigenen Betrieb.

Im zweiten Keynote-Vortrag spricht Eckhard Jann über den Umgang mit Fehlern. Er ist aktiver Flugkapitän einer renommierten deutschen Fluggesellschaft. Er weiß durch seinen verantwortungsvollen Job im Cockpit, warum es so entscheidend ist, Fehler schnell zu entdecken und zu kommunizieren. Dieses Know-how gibt Jann als Sicherheits- und Krisenmanager weiter. So beleuchtet er beim Norddeutschen Qualitätstag, was Unternehmen aus Fehlern lernen können, um resilienter und besser zu werden. Und was sich daraus für die Führung von Mitarbeitenden und die Organisation ableiten lässt.

Aus der Praxis für die Praxis

Die Teilnehmenden des 7. Norddeutschen Qualitätstags erwartet neben den zwei interessanten Vorträgen ein umfangreiches Workshop-Programm mit konkreten Beispielen aus der Praxis rund um das Prozess- und Qualitätsmanagement. Veranstaltungspartner sind die Deutsche Gesellschaft für Qualität e.V. (DGQ), die ConSense GmbH, die Deutsche Gesellschaft zur Zertifizierung von Managementsystemen (DQS) sowie die Fachzeitschrift QZ Qualität und Zuverlässigkeit.

Im Workshop-Angebot können sich die Teilnehmenden ein individuelles Programm zusammenstellen. Stets stehen dabei die praktische Umsetzung und der unmittelbare Austausch im Zentrum. Inhaltlich geht es zum einen um den ganzheitlichen Ansatz im Qualitätsmanagement – sei es über integrierte Managementsysteme oder das Zusammenspiel mit Wissensmanagement und betrieblichen Gesundheitsmanagement. Zum anderen werden aktuelle Trends aufgegriffen, wie nachhaltiges Wirtschaften oder agile Projektsteuerung. Daneben wird es Raum und Zeit zum Networking mit den Fachleuten und im Teilnehmendenkreis geben.

Das vollständige Programm steht als Download zur Verfügung.

 

Wir freuen uns, wenn Sie online dabei sind!

Wann: Dienstag , 14. Juni 2022, von 10:00 Uhr bis 15:00 Uhr
Kosten: € 49,00 zzgl. MwSt. (€ 29,00 zzgl. MwSt. für DGQ-Mitglieder)

Zur Anmeldung

 

Um reibungslos an der virtuellen Tagung, die über das Tool Zoom läuft, teilzunehmen, beachten Sie bitte die Hinweise zu den technischen Voraussetzungen >>>hier.

Haben Sie Fragen? Nehmen Sie gern Kontakt mit uns in der DGQ-Geschäftsstelle Hamburg auf! Einfach per E-Mail an hamburg@dgq.de oder telefonisch unter 040 85 33 78 60. Bei allen organisatorischen Fragen und Rückfragen zur Anmeldung hilft Ihnen auch unser Veranstaltungspartner ConSense GmbH (events@consense-gmbh.de , 0241 990 93 93 0) weiter.

Interview: QM und Künstliche Intelligenz – Wie lassen sich KI-Systeme qualifizieren?

KI-Technologien nehmen zunehmend Einzug in das industrielle Umfeld, inzwischen „klassischerweise“ im Rahmen von visuellen und bildbasierten Qualitätskontrollen. Dabei rücken datengetriebene Ansätze aus dem Bereich des Machine Learning (ML), einem Teilgebiet der Künstlichen Intelligenz, verstärkt in den Fokus. Auf ML basierende KI-Systeme werden häufig vollständig auf Daten trainiert, ohne dass explizite Regeln durch den Menschen vorgegeben werden müssen. Bedenken hinsichtlich Zuverlässigkeit oder Genauigkeit solcher Systeme verhindern jedoch bisher einen breiteren Einsatz in der Industrie. Wie lässt sich die Eignung und Qualifizierung solcher vollständig auf Daten trainierten Systeme bewerten und umsetzen?

Eine Fragestellung, mit der sich auch die sentin GmbH aus Bochum, ein Software-Anbieter für visuelle und bildbasierte Kontrolle von Werkstoffen und Produkten auf KI-Basis, beschäftigt. Im Interview erklärt Mitgründer und Geschäftsführer Christian Els, warum eine systematischere Gestaltung der Bewertung KI-basierter Systeme eine wichtige Voraussetzung für einen breiten industriellen Einsatz von KI ist, wie dazu ein Forschungsprojekt entstanden ist und welche Potenziale er in den Forschungsergebnissen sieht.

In dem geplanten FQS-Forschungsvorhaben „AIQualify – Framework zur Qualifizierung von KI-Systemen in der industriellen Qualitätsprüfung“ soll ein Vorgehensmodell mit Software-gestützten Methoden und Werkzeugen für ML-basierte KI-Systeme in der Qualitätsprüfung entwickelt werden. Es wird die Ermittlung und Formulierung von Prüf- und Bewertungskriterien erlauben. Ziel des gemeinsam mit dem Fraunhofer Institut für Produktionstechnik und Automatisierung (IPA) in Stuttgart durchgeführten Projekts ist es, eine Auditierung beziehungsweise Abnahme von KI-Systemen entlang dieser Kriterien möglich zu machen.

Warum brauchen Industrieunternehmen KI?

Unternehmen brauchen per se keine KI. Ich glaube an Lösungen für Probleme und eine Technologie, die maßgeblicher Bestandteil von Lösungen sein kann. Wir wissen heute durch viele positive Beispiele, dass wir durch KI in der Lage sind, Lösungen für Probleme zu entwickeln, die vorher als un- oder schlecht lösbar galten. Auf Basis dieses Wissens ist davon auszugehen, dass KI eine maßgebliche Rolle in der Industrie von morgen spielen wird und Know-How Aufbau in Form von Anwendungswissen essenziell sein wird.

Maschinelles Sehen als Kernfähigkeit von KI: Welche „klassischen“ Anwendungsfälle gibt es?

Die Technologien und Ansätze der Computer Vision sind ein sehr weit entwickelter Bereich der KI. Der wohl größte Treiber dieses Fortschritts ist die Entwicklung des autonomen Fahrens. Für die industrielle Anwendung bietet die visuelle/bildbasierte Qualitätskontrolle ein enormes Potenzial für Computer Vision Methoden. So finden in vielen Unternehmen nach wie vor Qualitätskontrollen analog und manuell statt. Um Produktions- und Industriekapazitäten in Hochlohnstandorten wie Deutschland zu halten, müssen Möglichkeiten der Effizienzgewinnung ausgeschöpft werden. Die Automatisierung der Qualitätskontrolle gehört bspw. dazu.

Was sind die größten Herausforderungen im Rahmen des Einsatzes von KI in Industrieunternehmen?

Ich denke, hier gibt es zwei zu nennende Punkte: Erstens die Datenverfügbarkeit. Industrieunternehmen sind in den meisten Fällen (noch) nicht so strukturiert, dass der Aufbau von qualitativ nutzbaren Datensätzen im Vordergrund steht. In den meisten Projekten gilt es daher zunächst eine gute Datenbasis aufzubauen, bevor man mit dem Modelltraining beginnen kann. Durch den Einzug von immer mehr Digitalisierungsvorhaben in der Industrie gehe ich davon aus, dass das Bewusstsein für Daten und Datenqualität in den Unternehmen sukzessive an Bedeutung gewinnen wird, was es für die Implementierung von KI-Technologie deutlich leichter macht. Zweitens fehlende Berührungspunkte bzw. die Neuartigkeit der Technologie. Industrieunternehmen haben in vielen Fällen eine lange Ingenieurstradition und beschäftigen sich meist erst seit relativ kurzer Zeit intensiv mit Themen der Data-Science. Data-Science und KI-Projekte sind im Verlauf grundlegend anders als z.B. die Projektierung einer Maschine. Entsprechend müssen häufig Prozesse und auch Kunden- und Lieferantenbeziehungen neu gedacht werden. Ein wichtiger Prozess in diesem Zusammenhang ist unter anderem die Qualifizierung von KI-Systemen, beispielsweise in der Qualitätskontrolle. Die Data-Science bietet verschiedene Validierungsmethoden an, die aber meist nicht „Fit-for-Purpose“ und damit passend für die Qualifizierung von KI-Systemen in der industriellen Applikation sind.

Welche Potenziale ergeben sich aus einer systematischeren Gestaltung der Bewertung und Qualifizierung von KI?

Die Entwicklung von Standards zur systematischen Bewertung von KI-Systemen in der Qualifizierung hätte das Potenzial, den Anwendern und Industrieunternehmen mehr Sicherheit in der Qualifizierungsphase zu geben und würde die Implementierungsprojekte von KI-Systemen deutlich verkürzen.

Wie kam es zu der Initiative, zum Thema KI-Qualifizierung ein Forschungsprojekt anzustoßen?

Als Anbieter von Lösungen für automatische visuelle Qualitätskontrollen erhielten wir in verschiedenen Projekten die Anfrage nach einem Qualifizierungsprozess, der nachweislich ein KI-System als funktionsfähig qualifizierte. Nach immer wieder individuellen Lösungen erkannten wir, dass es an dieser Stelle standardisierte Prozesse benötigt, die es Anwender und Anbieterunternehmen ermöglicht, diesen wichtigen Schritt zu beschleunigen.

Welchen Nutzen sehen Sie in der Beteiligung an dem geplanten Forschungsvorhaben?

Unsere Erwartung an das Forschungsprojekt ist die Entwicklung klarer Standards und Vorgehen für die Qualifikation von KI-Systemen in der Qualitätssicherung. Als Nutzen erhoffen wir uns zum einen die Beschleunigung von Kundenprojekten und eine schnelle Implementierung von KI-Systemen bei Anwenderunternehmen sowie eine steigende Akzeptanz in der Industrie für KI durch Transparenzschaffung und Standardverfahren.

Informationen rund um das Projekt

Die Projektlaufzeit ist ab Ende 2022 für zwei Jahre geplant. Für weitere Informationen zum geplanten Forschungsprojekt steht Prof. Dr.-Ing. Marco Huber (T: +49 711 970-1960 / marco.huber@ipa.fraunofer.de) und die Geschäftsstelle der FQS zur Verfügung (infofqs@dgq.de) zur Verfügung.

 

Werden Sie Mitglied im Projektbegleitenden Ausschuss
Interessierte Unternehmen haben die Möglichkeit, sich als Mitglied des Projektbegleitenden Ausschusses zu beteiligen. Hierbei bringen Sie Ihre Anforderungen aus der Praxis ein, gestalten das Forschungsvorhaben mit und profitieren frühzeitig von den erzielten Ergebnissen. Hierzu kann auch eine prototypische Umsetzung im Unternehmen durch die Forschungseinrichtung gehören. Für die Finanzierung des Projektmanagements erhält die FQS von den beteiligten Unternehmen einen Förderbeitrag von 2.000 Euro für KMU (Jahresumsatz nicht größer als 125 Mio. Euro) bzw. 4.000 Euro für Nicht-KMU. Start-ups innerhalb drei Jahre nach Gründung bleiben kostenfrei.

Mehr Details zum Projekt und Beteiligungsmöglichkeiten finden Sie auch in der Projektankündigung.

 

Über den Interviewpartner

Christian Els ist einer der Mitbegründer und Geschäftsführer der sentin GmbH. Ein Unternehmen, das sich auf die Automatisierung von Bildgebungsprozessen mit Hilfe von KI in der zerstörungsfreien Prüfung und Qualitätskontrolle konzentriert hat. Christian Els ist Maschinenbauingenieur und hat sentin mitbegründet, nachdem er jahrelang in der Bosch-Gruppe an der Realisierung datengetriebener Geschäftsmodelle in traditionellen Industrien arbeitete. Er ist stellvertretender Vorsitzender des Arbeitskreises KI der DGZFP (Deutsche Gesellschaft für zerstörungsfreie Prüfung) und regelmäßiger Referent bei der DGQ (Deutsche Gesellschaft für Qualität), sowie anderen internationalen Verbänden zu den Themen KI, Digitale Transformation und Entrepreneurship im industriellen Kontext.

Industriepartner für internationales FQS-Forschungsvorhaben gesucht: Entwicklung eines innovativen Messsystems im Werkzeug zur Steigerung der Produktionsqualität in Fertigungsprozessen

In der Kunststoffbranche hat die Relevanz einer 100 % Qualitätsprüfung durch stetig wachsende Ansprüche an Zuverlässigkeit und Lebensdauer sowie steigende regulatorische Anforderungen im Bereich der Medizintechnik in den vergangenen Jahren stark zugenommen. Insbesondere die Fertigung von Kunststoffbauteilen durch Spritzguss ist dafür nahezu unzugänglich und stellt Produzenten derartiger Bauteile vor große Herausforderungen. Eine eindeutige, bauteilspezifische Kennzeichnung, eine Nachverfolgung der Produktionsparameter sowie eine Information zum Werkzeugzustand sind derzeit nicht verfügbar.

In dem geplanten FQS-Forschungsvorhaben SmarTool soll ein autonomes System zur Überwachung von Spritzgusswerkzeugen entwickelt werden, das als externes System Bestandteil des Werkzeuges sein soll. Als innovatives Messsystem soll es Parameter wie Werkzeugtemperatur, Forminnendruck oder Produktionszeitpunkt und -ort erfassen und dokumentieren. Auf diese Weise sollen Anwender in die Lage versetzt werden, den Einsatz und die Produktionsbedingungen des Spritzgusswerkzeuges zu überwachen. Darüber hinaus ermöglicht die Verknüpfung mit einem Lasermarkiersystem eine eindeutige Kennzeichnung der Bauteile sowie die unveränderliche Verbindung der Produktionsparameter mit einem individuellen Bauteil. Dadurch lässt sich eine vollständige, bauteilindividuelle Dokumentation der Produktionsbedingungen realisieren. So können Bauteilchargen bei Beschädigungen beispielsweise nachträglich aus der Produktionsmenge ausgeschlossen werden.

Bei dem geplanten Forschungsvorhaben handelt es sich um ein deutsch-brasilianisches Kooperationsprojekt des internationalen Forschungsnetzwerks »CORNET – Collective Research Networking«, das durch das Bundesministerium für Wirtschaft und Klimaschutz (BMWK) gefördert wird. Es ermöglicht transnationale Vorhaben der Gemeinschaftsforschung, um internationale Forschungsprojekte zugunsten kleiner und mittelständischer Unternehmen zu fördern. Interessierte Unternehmen haben die Möglichkeit, sich als Mitglied des Projektbegleitenden Ausschusses zu beteiligen. Hierbei bringen Sie Ihre Anforderungen aus der Praxis ein, gestalten das Forschungsvorhaben mit und profitieren frühzeitig von den erzielten Ergebnissen. Hierzu kann auch eine prototypische Umsetzung im Unternehmen durch die Forschungseinrichtung gehören.

Die Projektlaufzeit ist ab Ende 2022 / Anfang 2023 für zwei Jahre geplant. Für weitere Informationen steht Ihnen Gustavo Reis de Ascencao (gustavo.reis.de.ascencao@ipk.fraunhofer.de) sowie die Geschäftsstelle der FQS (infofqs@dgq.de) zur Verfügung.

Zur Projektankündigung geht es hier.

Umfrage zum Thema „Wahrscheinlichkeit menschlicher Fehler in manuellen Montageprozessen besser vorhersagen können“ sucht noch Teilnehmende

Bei der Gestaltung effizienter, qualitätsfähiger manueller Montageprozesse liegt eine zentrale Herausforderung in der Kenntnis relevanter Einflussfaktoren auf die Entstehung von menschlichen Handlungs- bzw. Montagefehlern und der Prognose von deren Auftretenswahrscheinlichkeit. Der Fragestellung, wie eine bessere Vorhersage menschlicher Fehlerwahrscheinlichkeit in manuellen Montageprozessen erzielt werden kann, widmet sich eine aktuelle Dissertation am Institut für Arbeitswissenschaft und Prozessmanagement (IfA) der Universität Kassel.

Die laufende Forschungsarbeit beschäftigt sich dazu mit der Weiterentwicklung eines Montageplanungsverfahrens, das die genannten Aspekte berücksichtigt. Der Fokus liegt auf der Optimierung der Vorgehensweise zur Bewertung leistungsbeeinflussender Faktoren, die das Auftreten entsprechender Fehler beeinflussen. Hierzu ist der Doktorand auf Input aus der Praxis angewiesen.

Im Rahmen einer Online-Umfrage wird die Expertise und Erfahrung aus der Industrie gesammelt. Die Online-Umfrage richtet sich vor allem an Personen, die im Bereich der Qualitätsplanung bzw. -verbesserung, Arbeitsplanung oder in entsprechenden Schnittstellendisziplinen wie dem Industrial Engineering tätig sind. Die Ergebnisse der Befragung werden nach Abschluss der Dissertation (voraussichtlich 01/2023) nach Wunsch allen Interessenten zur Verfügung gestellt.

Die Umfrage ist unter dem nachfolgenden Link zu erreichen und dauert ca. 20 Minuten:
Zur Umfrage »

 

Weitere Fragen zum Dissertationsvorhaben können an Tim Trostmann, wissenschaftlicher Mitarbeiter am Institut für Arbeitswissenschaft und Prozessmanagement (IfA) der Universität Kassel (E-Mail: trostmann@uni-kassel.de) gestellt werden.