Menü

ISO-GPS: Oberflächenbeschaffenheit / Rauheit (ISO 21920)

Messtechnik/Koordinatenmesstechnik

Die DIN EN ISO 1302 für die Angaben der Oberflächenbeschaffenheit und die Normen zu den Begriffen, den Parametern und den Spezifikationsoperatoren wurden im Dezember 2022 durch die neue Normenreihe DIN EN ISO 21920 ff. ersetzt. Zurzeit stehen folgende Normen zur Verfügung:

  • DIN EN ISO 21920-1:2022-12
    GPS – Profile Teil 1: Angabe der Oberflächenbeschaffenheit
    (Ersatz für DIN EN ISO 1302:2002)
  • DIN EN ISO 21920-2:2022-12
    GPS – Profile Teil 2: Begriffe und Parameter für die Oberflächenbeschaffenheit
    (Ersatz für DIN EN ISO 4287, DIN EN ISO 13565-2, -3)
  • DIN EN ISO 21920-3:2022-12
    GPS – Profile Teil 3: Spezifikationsoperatoren
    (Ersatz für DIN EN ISO 4288)

Mit diesen Normen sind neue Angabemöglichkeiten und Regeln vorhanden:

  • Oberflächenmessverfahren (mechanische und elektromechanische Profile)
    und Messrichtung (Profilrichtung)
  • Filterung nach der Normenreihe DIN EN ISO 16610-21 und DIN EN ISO 16610-31.
  • Spezielle Mess- und Auswerteverfahren zur Beurteilung der Funktion einer Oberfläche.
  • Angaben und Auswertung von Materialanteil/Traganteil sind definiert.
  • Die Messparameter werden nicht mehr nach einer Vormessung bestimmt, sondern aus
    der Spezifikation (Zeichnungsangabe oder default nach Norm).
  • Keine Unterscheidung zwischen periodischen und nicht-periodischen Profilen bei der Filterung.

Da die ISO 21920 die ISO 1302 ersetzt, gilt bei Zeichnungsänderung automatisch die neue Norm. Wenn das nicht gewollt ist, muss hinter der alten Norm ISO 1302:2002 das Ausgabedatum ergänzt werden.

Die aktuellen Toleranzakzeptanzregeln sehen drei Spezifikatoren vor:

  • Tmax“ – Höchstwert-Toleranzakzeptanzregel ist anzuwenden
  • T16%“ – 16%-Toleranzakzeptanzregel ist anzuwenden
  • Tmed“ – Median- Toleranzakzeptanzregel ist anzuwenden (n ≥ 3)
    (Messwerte außerhalb der Spezifikation werden nicht berücksichtigt)

Die Höchstwert-Toleranzakzeptanzregel „Tmax“ stellt die Default-Definition dar. Sie gilt mit und ohne „Tmax“-Angabe. Tmax kann zur Eindeutigkeit an einer Spezifikation angegeben werden.

Übersicht der Toleranzakzeptanzregeln

Abb. 1: Übersicht der Toleranzakzeptanzregeln

 

Mögliche Zeichnungseintragungen nach DIN EN ISO 21920-1

Mögliche Zeichnungseintragungen nach DIN EN ISO 21920-1

Abb. 2: Mögliche Zeichnungseintragungen nach DIN EN ISO 21920-1

Angabe der Oberflächenrillen ohne einen Bezug

Abb. 3: Angabe der Oberflächenrillen ohne einen Bezug

Abb. 3: Angabe der Oberflächenrillen ohne einen Bezug

Angabe der Oberflächenrillen und der Richtung der Bearbeitungsspuren in Bezug zu einem Geometrieelement des Werkstücks

Abb. 4: Angabe der Oberflächenrillen und der Richtung der Bearbeitungsspuren in Bezug zu einem Geometrieelement des Werkstücks

Abb. 4: Angabe der Oberflächenrillen und der Richtung der Bearbeitungsspuren in Bezug zu einem Geometrieelement des Werkstücks

Mindestangabe von Kenngrößen mit und ohne festgelegte Defaults

Abb. 5: Mindestangabe von Kenngrößen mit und ohne festgelegte Defaults

Abb. 5: Mindestangabe von Kenngrößen mit und ohne festgelegte Defaults

Aktuelle Begrifflichkeiten zur Oberflächenbeschaffenheit nach DIN EN ISO 21920

Begrifflichkeit Definition
S-Filter (S – small) Filter zur Eliminierung kurzwelliger Anteile (Tiefpass-Filter)
-> (bisher λs) (Profil-Filtertypen der Normenreihe ISO 16610)
L-Filter (L – large) Filter zur Eliminierung langwelliger Anteile (Hochpass-Filter) -> (bisher λc)(Profil-Filtertypen der Normenreihe ISO 16610)
F-Operator Formentfernung (z.B. LS-Linie, LS-Radius, Polynom)
Nesting Index (Nis, Nic, Nif) Numerischer Wert für S-Filter, L-Filter oder Form-Operator (Grenzwellenlänge)
Profilpunktkenngröße (Auswertelängen-Kenngrößen) definiert über alle Messpunkte des Profils (gilt für die Mehrzahl der Parameter – alte, umbenannte und neue)
Merkmalkenngröße (Abschnittlängen-Kenngrößen) an ausgewählten topografischen Merkmalen definiert (gilt nur für wenige Parameter)
le – Auswertelänge (bisher Gesamtmessstrecke ln) / Auswertelängen-Kenngrößen
lsc – Abschnittslänge (bisher Einzelmessstrecke lr) / Abschnittslängen-Kenngrößen
nsc – Anzahl Abschnitte (bisher Anzahl Einzelmessstrecken)

Messbedingungen für Rz und Ra nach ISO 21920-3

Abb. 6: Messbedingungen für Rz und Ra nach ISO 21920-3

Abb. 6: Messbedingungen für Rz und Ra nach ISO 21920-3

 

Interpretation und Vergleich von Zeichnungsangaben

Interpretation und Vergleich von Zeichnungsangaben

Abb. 7: Interpretation und Vergleich von Zeichnungsangaben

Informieren Sie sich in weiteren Fachartikeln der ISO-GPS-Beitragsreihe

In der ISO-GPS-Beitragsreihe erhalten Sie einen kompakten Überblick über das ISO-GPS-System, den aktuellen Normungsstand, den Tolerierungsgrundsätze, dem GPS-Matrix-Modell und die Möglichkeiten zur Anwendung: 

Der Autor Manfred Weidemann ist DGQ-Trainer und Geschäftsführer von Quality Office. Quality Office betreut seit über 25 Jahren kleine und mittelständische Unternehmen in den Bereichen Qualitätsmanagement, Prozessoptimierung, Zeichnungsprüfung und Längenprüftechnik/Fertigungsmesstechnik.

ISO-GPS: Aktuelle Allgemeintoleranzen – ISO 22081

Messtechnik/Koordinatenmesstechnik

Wie schon im März 2017 vom Deutschen Institut für Normung (DIN) angekündigt, wurde die Norm mit den Angaben zu den Allgemeintoleranzen (ISO 2768-2) durch die neue ISO 22081 ersetzt. Die Gründe sind nicht eindeutige Vorgaben und große Lücken bezüglich der vollständigen und eindeutigen Tolerierungsmöglichkeiten.

Durch die Anwendung der bisherigen „Plus-Minus-Tolerierung“ (Zweipunkt-Messung) sind Produktspezifikationen nachweislich schon immer mehrdeutig. Dies kann aufgrund eines großen Interpretationsspielraums zu vertragsrechtlichen Problemen zwischen Herstellern und Abnehmern führen.

Dass die „Plus-Minus-Tolerierung“ dazu geeignet ist, die Geometrie eines Bauteils vollständig, eindeutig sowie funktions- und prüfgerecht zu spezifizieren, ist ein Irrtum, den viele Verantwortliche nicht wahrhaben wollen. Mit der Einführung der neuen ISO 22081 sollen die Produktspezifikationen und die Prüfungen mit den Konformitätsnachweisen vollständig und eindeutig werden.

Da die ISO 22081 die ISO 2768-2 ersetzt, gilt bei Zeichnungsänderung automatisch die neue Norm. Wenn das nicht gewollt ist, muss hinter der alten Norm ISO 2768 das Ausgabedatum ergänzt werden.

Beispiel: ISO 2768-2:1989

Genau genommen führt diese Ersatzbeziehung dazu, dass jede undatierte Angabe der ISO 2768-2 (zum Beispiel auf Produktzeichnungen vor der Veröffentlichung von ISO 22081:2021) auf ISO 22081 übergeht. Dies verursacht in einem Vertragsverhältnis möglicherweise erhebliche Risiken, wenn die entsprechenden Unterlagen nicht aufwändig überarbeitet werden:

  • In der ISO 22081 werden keine Toleranzwerte in Abhängigkeit von Nennmaßen vorgegeben.
  • Sie unterscheidet allgemeine geometrische Spezifikationen und allgemeine Maßspezifikationen.
  • Zur Tolerierung kommen allgemeine geometrische Spezifikationen (Flächenprofiltoleranz) und allgemeine Größenmaßspezifikationen zum Einsatz.
  • Der erforderliche Toleranzwert und ein vollständiges Bezugssystem müssen vom Konstrukteur festgelegt werden.
  • Die Regeln und Spezifikationen der ISO 22081 gelten ausschließlich für integrale Geometrieelemente (Größenmaßelemente, wirkliche Werkstückoberfläche).
  • Die Regeln und Spezifikationen der ISO 22081 gelten nicht für abgeleitete Geometrieelemente oder integrale Linien oder andere Maße (Stufenmaße, Bohrungsabstände …) als lineare Größenmaße oder Winkelgrößenmaße.

Beispiel zu möglichen Angaben am Schriftfeld:

Beispiel zu möglichen Angaben am Schriftfeld

Abb. 1: Beispiel zu möglichen Angaben am Schriftfeld der ISO 2768-2:1989 (Quelle: www.quality-office.de)

Die Toleranzwerte können direkt oder als Variable mit Toleranztabelle (zum Beispiel Werknorm, DIN 2769 …) angegeben werden!

Ergänzende Allgemeintoleranzen – DIN 2769

Die Norm DIN 2769 dient zur Ergänzung der Allgemeintoleranzen der DIN EN ISO 22081. Sie entstand auf Anregung der deutschen Industrie, um das etablierte Konzept mit festgelegten Toleranzwerten und Toleranzklassen ISO-GPS-konform fortzuführen.

  • Im Gegensatz zur ISO 2768-Reihe gibt es mehr Toleranzklassen und die Anwendung ist technologie- und materialunabhängig.
  • Die Konstruktion ist gefordert, die Grundsätze des ISO-GPS-Systems nach DIN EN ISO 8015 einzuhalten und alle Geometrieelemente, vollständig und eindeutig zu spezifizieren.

Beispiel zu möglichen Angaben am Schriftfeld:

Abb. 2: Beispiel zu möglichen Angaben am Schriftfeld der DIN EN ISO 22081 (Quelle: www.quality-office.de)

Die Flächenprofiltoleranz beträgt 1,6 mm. Die Toleranz für lineare Größenmaße ist abhängig vom jeweiligen Nennmaß. Beispiel: bei 35 mm beträgt die Toleranz ± 0,3 mm. Die Toleranz für Winkelgrößenmaße ist abhängig vom jeweiligen Nennwinkel. Beispiel: bei 40° beträgt die Toleranz ± 2°.

Beispiel zu möglichen Angaben an einer Welle:

Abb. 3: Beispiele zu möglichen Angaben an einer Welle (Quelle: www.quality-office.de)

Informieren Sie sich in weiteren Fachartikeln der ISO-GPS-Beitragsreihe

In der ISO-GPS-Beitragsreihe erhalten Sie einen kompakten Überblick über das ISO-GPS-System, den aktuellen Normungsstand, den Tolerierungsgrundsätze, dem GPS-Matrix-Modell und die Möglichkeiten zur Anwendung: 

Der Autor Manfred Weidemann ist DGQ-Trainer und Geschäftsführer von Quality Office. Quality Office betreut seit über 25 Jahren kleine und mittelständische Unternehmen in den Bereichen Qualitätsmanagement, Prozessoptimierung, Zeichnungsprüfung und Längenprüftechnik/Fertigungsmesstechnik.

FQS-Forschungsprojekt NaBeMi: Nachhaltige Betriebsmittelplanung für die manuelle und hybride Montage

FQS Forschungsprojekt NaBeMi

Nachhaltigkeit gewinnt zunehmend an Bedeutung für produzierende Unternehmen – nicht nur als gesellschaftliches Ziel, sondern auch als strategischer Wettbewerbsfaktor. Insbesondere in kleinen und mittleren Unternehmen (KMU) bestehen jedoch Hemmnisse bei der Umsetzung entsprechender Maßnahmen in der Produktionsplanung. Während ökologische, ökonomische und soziale Aspekte in der Produktentwicklung teilweise berücksichtigt werden, fehlt es in der Betriebsmittelplanung, speziell im Bereich der Montage, häufig an systematischen Ansätzen zur Integration dieser Zielgrößen.

Das über die FQS – Forschungsgemeinschaft Qualität geförderte Forschungsprojekt NaBeMi widmet sich im Rahmen einer zweijährigen Laufzeit der Entwicklung eines digitalen Assistenzsystems, das eine nachhaltigkeitsorientierte Planung von Betriebsmitteln in manuellen und hybriden Montagesystemen ermöglicht. Im Zentrum steht ein ganzheitliches Zielgrößensystem, das klassische Planungsziele wie Zeit, Kosten und Qualität mit den drei Nachhaltigkeitsdimensionen verbindet. Die methodische Grundlage bilden drei miteinander verknüpfte Qualitätsregelkreise zur systematischen Erfassung von Anforderungen, Zielgrößen und möglichen Lösungskonfigurationen (siehe Abb. 1).

Durch die Strukturierung des Planungsprozesses und die Bereitstellung einer IT-gestützten Lösung soll insbesondere KMU der Zugang zu nachhaltiger Betriebsmittelplanung erleichtert und die Planungsqualität langfristig erhöht werden.

Durchführende Forschungseinrichtungen sind das Bremer Institut für Produktion und Logistik (BIBA) sowie das Institut für Fabrikanlagen und Logistik (IFA). Begleitet wird das Projekt von sieben Unternehmen im Projektbegleitenden Ausschuss. Zudem unterstützen die Industrie- und Handelskammer Bremen sowie die Region Hannover das Vorhaben.

Im Interview gibt Dirk Schweers (BIBA) einen Ausblick auf das Projekt und erläutert, wie Unternehmen von den Forschungsergebnissen profitieren können.

Aus welcher Problemstellung heraus ist das Forschungsprojekt entstanden?

Schweers: Bei der Planung neuer beziehungsweise der Umstrukturierung bestehender Betriebsmittel werden die Anforderungen und Ziele in einem Lastenheft gebündelt, um Fremdfirmen mit der Erstellung zu beauftragen. Die Ausgestaltung stützt sich häufig auf bestehende Lösungen, persönliche Erfahrungen oder kurzfristige Wirtschaftlichkeitsaspekte. Die Vielfalt an Anforderungen, die sich aus variierenden Montageaufgaben, Automatisierungsgraden oder organisatorischen Rahmenbedingungen ergeben, werden kaum methodisch erfasst. Die Folge sind für Auftragnehmer schwer verständliche Lastenhefte und erhöhter Kommunikationsaufwand. Für die Auftraggeber entstehen nicht selten suboptimale Investitionen, zum Beispiel durch eingeschränkte Wiederverwendbarkeit von Betriebsmitteln oder verpasste Chancen zur Mitarbeitendenentlastung und Energieeinsparung. Soziale und ökologische Kriterien werden bislang nicht berücksichtigt.

Welches Know-how wird im Rahmen des Forschungsprojekts NaBeMi entwickelt und wie kann es zur Lösung der geschilderten Problemstellung beitragen?

Schweers: Im Projekt NaBeMi wird ein methodisches und technisches Wissen aufgebaut, das auf die Integration von Nachhaltigkeitsaspekten in die Betriebsmittelplanung ausgerichtet ist. Zentraler Bestandteil ist die Entwicklung eines ganzheitlichen Zielgrößensystems. Neben klassischen Kriterien wird es auch soziale, ökologische und ökonomische Wirkungen systematisch abbilden. Um die vielfältigen Zusammenhänge zwischen diesen Zielgrößen sichtbar zu machen, kommen Wirknetze zum Einsatz. Diese ermöglichen es, Abhängigkeiten, Wechselwirkungen und mögliche Zielkonflikte transparent darzustellen und in der Planung zu berücksichtigen.

Das System wird durch eine mehrstufige Methodik operationalisiert, die in Form digitaler Assistenzfunktionen umgesetzt wird. Dazu gehören die strukturierte Anforderungsanalyse, eine Zielgrößenbewertung unter Einbezug der Wirknetze sowie die Generierung und Bewertung von Lösungskonfigurationen für konkrete Betriebsmittelbedarfe. Ergänzt wird dieses methodische Know-how durch ein webbasiertes Software-Tool, das die Anwendung der entwickelten Methoden in der Praxis erleichtert.

Das entwickelte Wissen befähigt insbesondere KMU, fundierte Entscheidungen auf Basis nachvollziehbarer Kriterien zu treffen – unabhängig von individueller Erfahrung. Die Nutzung von Qualitätsregelkreisen trägt dazu bei, die Planungsgüte zu erhöhen und langfristige Wirkungen bereits in frühen Planungsphasen zu berücksichtigen.

Konzept von NaBeMi

Abb.1: Konzept von NaBeMi: Drei miteinander verknüpfte Qualitätsregelkreise zur systematischen Erfassung von Anforderungen, Zielgrößen und möglichen Lösungskonfigurationen.
(© Institut für Fabrikanlagen und Logistik (IFA), Maik Nuebel)

Wer soll von den Ergebnissen profitieren und welcher konkrete Nutzen ergibt sich für Unternehmen?

Schweers: Das Projekt richtet sich primär an kleine und mittlere Unternehmen mit einem hohen Anteil manueller oder hybrider Montagetätigkeiten. Diese Zielgruppe soll durch die entwickelten Methoden und das digitale Assistenzsystem in die Lage versetzt werden, Betriebsmittel systematisch und unter Berücksichtigung nachhaltiger Kriterien zu planen. Dabei profitieren insbesondere Unternehmen, die bisher wenig methodische Unterstützung oder digitale Werkzeuge in der Planung einsetzen konnten.

Der konkrete Nutzen liegt in einer verbesserten Planungsqualität, die über systematische Zielgrößenabwägung, strukturierte Anforderungsdefinition und transparente Entscheidungsgrundlagen erzielt wird. Unternehmen erhalten ein Tool, mit dem nicht nur klassische wirtschaftliche Zielgrößen, sondern auch ökologische und soziale Wirkungen – etwa Ergonomie, Energieverbrauch oder Wiederverwendbarkeit – in die Entscheidungsfindung einfließen können. Darüber hinaus trägt die Methodik zur Entkopplung der Planung von individueller Erfahrung einzelner Fachkräfte bei und ermöglicht eine nachvollziehbare, dokumentierte Ableitung von Investitionsentscheidungen. Neben Effizienzgewinnen und Ressourceneinsparungen können Unternehmen auch Wettbewerbsvorteile realisieren, etwa bei Ausschreibungen mit Nachhaltigkeitskriterien oder im Hinblick auf Arbeitgeberattraktivität durch mitarbeitendenzentrierte Arbeitsplatzgestaltung.

Ein erstes Meinungsbild aus dem Projektbegleitenden Ausschuss über die Potentiale des Assistenzsystems ist in Abb. 2 zu sehen.

Abb. 2: Potenziale des Assistenzsystems für die nachhaltige Planung von Betriebsmitteln
(© BIBA – Bremer Institut für Produktion und Logistik GmbH)

Wie sieht das weitere Vorgehen im Forschungsprojekt aus?

Schweers: Zunächst werden die inhaltlichen Grundlagen der drei Qualitätsregelkreise weiter ausdifferenziert, insbesondere im Hinblick auf funktionale Anforderungen, Zielgrößen und Bewertungsmaßstäbe. Wichtige Impulse hierzu liefern Workshops mit den beteiligten Unternehmen, in denen Anforderungen an Betriebsmittel, relevante Zielgrößen sowie die Gewichtung zentraler Key Performance Indicators (KPIs) diskutiert und abgestimmt werden.

Parallel dazu erfolgt die technische Konzeption des webbasierten Assistenzsystems, welches die entwickelten Methoden für die praktische Anwendung verfügbar macht. In enger Zusammenarbeit mit den Praxispartnern werden die Module des Systems prototypisch umgesetzt und in Anwendungsszenarien getestet. Dabei liegt der Fokus auf der Validierung in realitätsnahen Montagesettings – etwa in der IFA-Lernfabrik oder durch den Projektbegleitenden Ausschuss. Rückmeldungen aus der Praxis fließen systematisch in die Weiterentwicklung ein.

Abschließend erfolgt die vollständige Integration der Einzelkomponenten in das Gesamtsystem sowie eine abschließende Evaluierung hinsichtlich Anwendbarkeit, Nutzbarkeit und Planungsqualität. Ziel ist es, zum Projektende ein praxistaugliches Tool bereitzustellen, das in Unternehmen mit wenigen Anpassungen eingesetzt werden kann – ergänzt um Dokumentationen, Schulungsunterlagen und Handlungsempfehlungen für eine nachhaltigkeitsorientierte Betriebsmittelplanung.

 


Stimmen aus dem Projektbegleitenden Ausschuss:

Dr. Ing. Melvin Isken, Head of IT, cellumation GmbH:

Als junges, innovatives Start-up-Unternehmen aus dem Bereich der Intralogistik sind wir stets daran interessiert, unsere Prozesse nachhaltiger zu gestalten. Die Qualität der Prozesse und Produkte spielt gerade für den Eintritt in neue Märkte eine entscheidende Rolle. Mit unserem Produkt „celluveyor“ stellen wir ein weltweit einzigartiges, hochflexibles, modulares Förder- und Positioniersystem zur Verfügung, welches Unternehmen in einem sich wandelnden Produktionsumfeld die nötige Effizienz und Flexibilität bietet. Die Entwicklung und Montage der einzelnen Module und der Systeme, in denen diese zum Einsatz kommen, geschieht komplett bei uns vor Ort. Im Rahmen von NaBeMi wollen wir unsere Montageprozesse unter sozialen, ökologischen und ökonomischen Nachhaltigkeitskriterien qualitativ verbessern.

 

Über den Interviewpartner:

Dirk Schweers, Senior Research Associate, BIBA – Bremer Institut für Produktion und Logistik GmbH


Über das Forschungsprojekt: 
Das Projekt wird im Rahmen des Programms “Industrielle Gemeinschaftsforschung” durch das Bundesministerium für Wirtschaft und Klimaschutz aufgrund eines Beschlusses des Deutschen Bundestages gefördert (Förderkennzeichen: 01IF23363N; Forschungsvereinigung: FQS – Forschungsgemeinschaft Qualität e.V.)

Weitere Informationen zum Projekt und zu Beteiligungsmöglichkeiten können über die Geschäftsstelle der FQS bezogen werden. Eine Mitarbeit im Projekt ist auch nach Laufzeitbeginn noch möglich.

Über die FQS:
Die FQS – Forschungsgemeinschaft Qualität e. V. (FQS) unterstützt seit 1989 die anwendungsorientierte Forschung rund um das Thema Qualität in Deutschland. Sie versteht sich selbst als Forschungsbereich der Deutschen Gesellschaft für Qualität e. V. (DGQ) und wird von ihr getragen. Die FQS fördert innovative Forschungsideen über das Instrument der Industriellen Gemeinschaftsforschung (IGF) und des Forschungsnetzwerks CORNET des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK). Ziele der Förderung sind möglichst anwendungsnahe Forschungsideen, die einen unmittelbaren Nutzen für die Wirtschaft, insbesondere für kleine und mittelständische Unternehmen (KMU), erbringen.

Vorstellung der FQS Forschungsgemeinschaft Qualität e.V. 
Wer ist die FQS Forschungsgemeinschaft Qualität e.V. und was tut sie? Lernen Sie im Video den Forschungsbereich der DGQ kennen und erfahren Sie von Dr. Christian Kellermann-Langhagen, wissenschaftlicher Geschäftsführer der FQS, wie die FQS arbeitet, welche Themen beforscht werden und wie sich Unternehmen in der FQS beteiligen und von den eingesetzten Förderprogrammen profitieren können.

Kontakt:
FQS – Forschungsgemeinschaft Qualität e. V.
August-Schanz-Straße 21A
60433 Frankfurt am Main
infofqs@dgq.de


Fünf Schritte zum CO2-Fußabdruck

Schritte zum CO2-Fußabdruck

Die Kenntnis des CO2-Fußabdrucks ist für alle Unternehmen essenziell. Das gilt unabhängig von den aktuellen Diskussionen um das Ominbus Paket 1 der Europäischen Union sowie der Stop-the-Clock Richtlinie vom 14. April 2025 und den damit in Verbindung stehenden Regelwerken:

  • Corporate Sustainability Reporting Directive (CSRD),
  • European Sustainability Reporting Standards (ESRS),
  • Corporate Sustainability Due Diligence Directive (CSDDD, in Deutschland das
  • Lieferkettensorgfaltspflichtengesetz LkSG),
  • EU-Taxonomie-Verordnung
  • etc.

Eine andere häufig verwendete Bezeichnung für den CO2-Fußabdruck ist der Corporate Carbon Footprint (CCF) – nicht zu verwechseln mit dem Product Carbon Footprint (PCF). Der CCF beschreibt die direkten und indirekten Gesamtemissionen einer Organisation. Der PCF konzentriert sich auf ein Produkt oder eine Dienstleistung.

Um den anthropogenen, von Menschen gemachten, Klimawandel zu beschreiben, hat sich die Messgröße CO2-Äquivalent (CO2e) etabliert. Dazu wurden verschiedene Treibhausgase (THG), wie zum Beispiel Methan (CH4), Lachgas (N2O) und zahlreiche fluorierte Treibhausgase (F-Gase) über die entsprechende Äquivalentwerte auf das Kohlendioxid (CO2) normiert, um ihren Beitrag zur Erderwärmung zu bestimmen.

Trotz aller zu erwartenden regulatorischen Erleichterungen – Verschiebung der Berichtspflicht, Anhebung der Schwellenwerte, Reduktion der Berichtspflichten und Vereinfachung der Standards – ist für eine ganzheitliche Klimastrategie die Kenntnis des Fußabdrucks wichtig. Kenngrößen wie CO2e / EUR oder EUR / CO2e sind in vielen Organisationen bereits fest verankert.

Die Frage ist, wie ermittelt man den CO2-Fußabdruck seiner Organisation?

Die nachfolgenden fünf Schritte:

  • Management einbeziehen
  • Systemgrenzen festlegen
  • Daten und Informationen aufbereiten
  • Berechnungsmethode festlegen
  • Carbon Footprint ermitteln

liefern eine Antwort auf die Frage.

Beispielhaft wird für ein imaginäres Textilunternehmen exemplarisch die Ermittlung des CO2-Fußabdrucks erläutert. Bewusst wurden in dem Beispiel einige Vereinfachungen vorgenommen, um die Übersichtlichkeit zu wahren und die Komplexität nicht unnötig zu erhöhen. Für eine ausführliche Beschreibung der fünf Schritte wird auf das Fachbuch Nachhaltigkeit und Qualitätsmanagement verwiesen.

Folgende Annahmen wurden für das imaginäre Unternehmen getroffen:
Herr Tuch ist verantwortlich für das Qualitätsmanagement, Umweltmanagement und Energiemanagement in einem Textilunternehmen. Das Unternehmen, Textil-Green, ist nahe der Wupper im Städtedreieck Remscheid-Solingen-Wuppertal ansässig. Das Unternehmen hat sich auf die Herstellung von Tischtüchern spezialisiert.

Immer häufiger fragen externe Stakeholder (zum Beispiel Kunden, NGOs, Versicherungen, etc.) an, wie viel CO2-Emissionen bei der Herstellung eines Tischtuchs entstehen. Das gesellschaftliche Interesse ist ebenso sehr groß. Endkunden wollen wissen, wie groß der CO2-Fußabdruck eines Tischtuchs ist und wie viel Emissionen pro Jahr das Textilunternehmen verantwortet.

Schritt 1: Management einbeziehen

Der Geschäftsführer des Unternehmens spricht Herrn Tuch sein Vertrauen aus und beauftragt ihn mit der Erstellung des CO2-Fußabdrucks für das Unternehmen Textil-Green. Herr Tuch ist als Beauftragter des Integrierten Managementsystems sehr gut innerhalb des Unternehmens vernetzt. Er kennt die Geschäftsprozesse inkl. der Prozessbeschreibungen und er kennt sich mit Kennzahlen aus. Zu Beginn klären die beiden einige grundlegende Fragen.

Nachfolgend eine Auswahl der wichtigsten Fragen:

  • Wer wird in dem Projektteam benötigt (zum Beispiel Kolleg:innen aus dem Bereich Controlling, Produktion, Entwicklung, Logistik, Einkauf)?
  • Stehen die notwendigen Ressourcen zur Verfügung (aufgrund der hohen Priorisierung müssen die Bereiche die Ressourcen zur Verfügung stellen und ggf. Vertretungen organisieren)?
  • Wer ist im Steuerungskreis (das Top-Management stellt den Steuerkreis)?
  • An wen wird, wie oft und in welcher Form wird berichtet (an den Steuerkreis wird einmal im Monat mit Hilfe der etablieren Projektmanagementtools berichtet)?
  • Wie sieht das Eskalationsprozess aus (der Eskalationsprozess aus dem Projektmanagement wird übernommen, die 1. Eskalationsstufe sind das Projektteam und der Projektleiter, die 2. Eskalationsstufe sind die Vorgesetzten, die 3. Eskalationsstufe ist der Steuerkreis?)
  • Die Zielsetzung ist SMART beschrieben. Die Abnahmekriterien für das Projekt sind eindeutig definiert.

Um alle Beschäftigten über das Projekt zu informieren, verfasst der Geschäftsführer eine Information im Internet. Die Ermittlung des CO2-Fußabdrucks stellt er als ersten großen Meilensteine der bevorstehenden nachhaltigen Transformation dar und kündigt eine Nachhaltigkeitsstrategie für das Unternehmens an. Der Geschäftsführer lädt persönlich das Projektteam und alle Interessierten zum Kick-off Gespräch ein und hält im Kick-off Gespräch die Eröffnungsrede. Dabei geht er auf die Zielsetzung des Projekts ein, stellt die strategische Bedeutung des Projekts nochmals heraus und wünscht Herrn Tuch und seinem Projektteam viel Erfolg.

Schritt 2: Systemgrenzen festlegen

Für das erste Treffen im Projektteam hat sich Herr Tuch vorgenommen, die zeitlichen, operativen und organisatorischen Systemgrenzen zu klären. Die zeitliche Systemgrenze hatte Herr Tuch bereits mit dem Geschäftsführer abgestimmt. Der CO2-Fußabdruck soll für das vergangene Geschäftsjahr 2024, vom 1. Januar 2024 bis 31. Dezember 2024, bestimmt werden. Das Jahr 2024 soll auch als Referenzjahr für die zukünftigen Berechnungen und Vergleiche dienen. Als operative Systemgrenzen legt das Projektteam fest, dass die Scope-1-, -2- und -3-Emissionen berücksichtigt werden. In Abb. 1 sind die Scope-1-, -2- und -3-Emissionen dargestellt.

Erläuterung der Scope-1-, -2-, -3-Emissionen

Abb. 1: Erläuterung der Scope-1-, -2-, -3-Emissionen, ©Wilhelm Floer

Bei den Scope-3-Emissionen wird zwischen vor- und nachgelagerten Emissionen unterschieden. Diese Emissionen sind in 15 Kategorien eingeteilt. Die ersten acht Kategorien stehen für Emissionen in der vorgelagerten, die letzten sieben Kategorien für die Emissionen der nachgelagerten Wertschöpfungskette.

Die organisatorischen Systemgrenzen sind schnell ermittelt, da Textil-Green nur einen Standort hat. Bei mehreren Standorten hätte man entscheiden müssen ob alle Standorte zu Beginn berücksichtigt werden oder unter Umständen auch iterativ vorzugehen ist.

Schritt 3: Daten und Informationen aufbereiten

Die Datenherkunft und Datenqualität ist für die Aufbereitung der Daten und Informationen von hoher Bedeutung.

Für die Scope-1- und -2-Emissionen kann das Projektteam auf Primärdaten zugreifen. Diese „low hanging fruits” stehen Hr. Tuch durch das Energiemanagementsystem auf Knopfdruck zur Verfügung: Um die kontinuierliche Verbesserung der energetischen Leistung des Energiemanagementsystems zu dokumentieren, hat Herr Tuch den Gas- und Stromverbrauch der vergangenen Jahre festgehalten. Die Verbrauchswerte hat der Energieversorger mit der Jahresabrechnung bereitgestellt. Auf der Abrechnung sind auch die Verbrauchswerte in CO2-Emissionen umgerechnet aufgeführt. Somit entfällt das Bestimmen der Emissionsfaktoren und das Ausrechnen der Emissionen für den Gas- und Stromverbrauch.

Laut der Jahresabschlussrechnung liegen die Emissionen für den Gasverbrauch bei 18.139 kg CO2e für Scope 1 und für den Stromverbrauch bei 7.965 kg CO2e für Scope 2.

Den kompletten Fuhrpark hat das Unternehmen 2023 auf Elektroantrieb umgestellt. Dadurch fallen für Scope 1 keine weiteren Emissionen an.

In Summe ergeben sich damit für Scope 1 und 2 ca. 26.000 kg CO2e oder 26 t CO2e.

Die Scope-3-Emissionen müssen häufig mit Hilfe von Sekundärdaten abgeschätzt werden, da keine Verbrauchsdaten vorliegen. Ein erstes Screening kann hierbei sehr hilfreich sein, um herauszufinden, welche der Scope-3-Kategorien die größten THG-Emissionen verursacht.

Bzgl. der Datenqualität und Informationsaufbereitung gelten die Grundsätze der finanziellen Rechnungslegung:

  • Relevanz: der Treibhausgasemissionen
  • Konsistenz: hinsichtlich der Berechnungsmethode und Vergleichbarkeit
  • Genauigkeit: mit Verweis auf zuverlässige Informationsquellen
  • Transparenz: bezüglich der dokumentierten Informationen, Annahmen und Schätzungen
  • Vollständigkeit: Ausnahmen werden dokumentiert

Welche der 15 Kategorien für Textil-Green relevant sind, legt das Projektteam zusammen fest. Das Ergebnis der Bewertung und die Erläuterung der 15 Kategorien ist der Checkliste in Abb. 2 zu entnehmen.

Checkliste Treibhausgasemissionen Scope1, 2, 3

Abb. 2: Checkliste Treibhausgasemissionen Scope1, 2, 3, © Wilhelm Floer

Das Projektteam ist zu der Erkenntnis gekommen, dass die nachgelagerte Wert-schöpfungskette vernachlässigt werden kann. Für die vorgelagerte Wertschöpfungskette sind die Kategorien 3.1 und 3.4 relevant.

Schritt 4: Berechnungsmethode festlegen

Vorweg: Einen rechtlich verbindlichen Standard für die Berechnung des CO2 -Fußabdrucks gibt es nicht. Zur Erstellung einer CO2-Bilanzierung haben sich jedoch die folgenden drei Regelwerke etabliert:

Die drei Standards sind hier sehr detailliert erläutert und gegenübergestellt. Die am häufigsten verwendete Methode ist die Berechnung nach dem Greenhouse Gas Protokoll (GHG). Für die Berechnung der Treibhausgasemissionen werden Emissionsfaktoren benötigt. Diese findet man häufig auch im Internet. Nachstehend sind einige kostenlose Datenbanken für Emissionsfaktoren aufgeführt:

  1. Defra: Emissionsumrechnungsfaktoren, die von britischen und internationalen Organisationen verwendet werden
  2. GHG: Diverse Listen von Emissionsfaktoren
  3. IEA: Internationale Energieagentur, Indikatoren in Bezug auf Emissionen aus der Strom- und Wärmeerzeugung
  4. IZU: EXCEL-Template zu Berechnung der Scope 1und Scope 2 Emissionen, (Emissionsfaktoren sind hinterlegt)
  5. IPCC: umfangreiche Emissionsfaktoren des Intergovernmental Panel on Climate Change (IPCC)
  6. UBA: Sehr viele und umfangreiche Informationen über und Publikationen zu Emissionsfaktoren
  7. BAFA: Infoblatt zu den CO2-Faktoren der Bundesförderung für Energie- und Ressourceneffizienz in der Wirtschaft – Zuschuss

Sind die notwendigen Emissionsfaktoren bekannt, ist die Berechnung der CO2 Emissionen trivial. Die Aktivitätsdaten müssen dazu nur mit dem zugehörigen Emissionsfaktor multipliziert werden und als Ergebnis erhält man die Emissionslast in CO2e, wie nachfolgendes Beispiel zeigt:

Aktivitätsdaten x Emissionsfaktor = CO2e Emissionen
Stromverbrauch x CO2e Emissionsfaktor = CO2e Emissionen [kg pro Jahr]
1.000.000 kWh pro Jahr x 0,363kg CO2e/kWh = 363.000kg CO2e pro Jahr

Hier wurde der Emissionsfaktor gemäß deutschem Strommix für das Jahr 2024 angesetzt.

Herr Tuch und das Projektteam erfahren große Unterstützung durch ihre Lieferanten. Die Lieferanten notieren schon seit einiger Zeit die für die Herstellung ihrer Produkte anfallenden CO2-Emissionen auf den Lieferscheinen. Damit erleichtert sich die Situation um ein Vielfaches. Somit müssen nur alle Lieferscheine für 2024 gesichtet und die Emissionen addiert werden. Für die Herstellung der eingekauften Waren nach Scope 3 Kategorie 3.1 ergeben sich somit 75.364 kg CO2e Emissionen.

Um die Scope-3-Kategorie 3.4 für den Transport der eingekauften Waren zu ermitteln, müssen die Transportwege und Transportmittel analysiert werden. Die eingekauften Waren werden von Asien per Schiff nach Rotterdam transportiert. Von dort geht es dann weiter mit einem LKW zu Textil-Green.

In Summe wurden 1.690 l Diesel für den Transportweg eingesetzt, was 4512 kg CO2e THG entspricht.

Schritt 5: Carbon Footprint ermitteln

Sobald für alle Aktivitäten die CO2 Emissionen nach Scope 1, 2 und 3 vorliegen, kann durch Aufsummieren der CO2-Fußabdruck für die Organisation ermittelt werden.

In nachfolgender Tabelle sind die THG-Emissionen für Scope 1, 2 und 3 sowie die Summe der Emissionen für Textil-Green für das Jahr 2024 zusammengefasst:

Scope CO2e Emissionen [kg]
Scope 1 und 2 26.104
Scope 3, Kat. 3.1 75.364
Scope 3, Kat 3.4 4.512
Summe 105.980

Für die Herstellung von 50.000 m² Tischtuchware ergibt sich somit ein CO2-Fußabdruck von 105.980 kg CO₂e, gerundet 106 t CO₂e. Pro Tischtuch mit einer Fläche von 1 m² und einem angenommenen Gewicht von ca. 100 g entstehen also 2,1 kg CO₂e.

An dieser Stelle sei noch einmal darauf hingewiesen, dass sich für Textilunternehmen in der Praxis gänzlich andere Werte ergeben können.

In Abb. 3 ist der CO2-Fußabdruck und die Verteilung der Scope 1, 2, 3 Emissionen grafisch dargestellt. Es wird deutlich, dass die THG-Emissionen der Kategorie 3.1 mit ca. 71 Prozent am größten sind. Lediglich 25 Prozent der Emissionen sind Scope 1 und 2 zuzuschreiben.

CO2-Fußabdruck und die Verteilung der Scope1, 2, 3, Emissionen

Abb. 3: CO2-Fußabdruck und die Verteilung der Scope1, 2, 3, Emissionen, ©Wilhelm Floer

Zusammenfassung und Ausblick

Anhand eines imaginären Textilunternehmens wurde eine strukturierte Vorgehensweise zur Ermittlung des CO2-Fußabdrucks vorgestellt. Die eingangs genannten fünf Schritte haben sich mehrfach bewährt:

  1. das Management einbeziehen: Das Management stellt Ressourcen und Geld zur Verfügung und unterstreicht die Wichtigkeit des Themas.
  2. Systemgrenzen festlegen: Was will ich untersuchen, was nicht? Betrifft Standorte, Organisationseinheiten, Scope 1, 2 und/oder 3 etc.
  3. Daten und Informationen aufbereiten: Welche „low hanging fruits“ haben wir, zum Beispiel internes System, Energie- und Umweltmanagement? Was brauchen wir noch?
  4. Berechnungsmethode festlegen: GHG oder ISO 14064 oder PAS2060? (Kostenlose Software für Emissionsfaktoren verwenden).
  5. Carbon Footprint ermitteln: Emissionen für Scope 1, 2 und 3 summieren und darstellen, siehe Abb. 3.

Wie geht es danach weiter?

Ist der CO2-Fußabdruck bekannt, geht es darum eine Klimastrategie zu entwickeln und kontinuierlich die Emissionen im Fokus zu halten. Die Faustregel für die nächsten Schritte lautet:

  1. vermeiden
  2. reduzieren
  3. kompensieren

Bezogen auf Textil-Green würde das bedeuten, zunächst über Vermeidungsmaßnahmen nachzudenken. Hierzu gehört zum Beispiel der Einsatz regenerativer Energiequellen (zum Beispiel Sonnen- und Windenergie).

Um den Energieverbrauch und somit auch die THG-Emissionen zu reduzieren, bieten sich neue, hocheffiziente Technologien an, beispielsweise durch die Investition in eine neue Heizung, Umrüstung auf energetisch effiziente Maschinen und Anlagen oder den Austausch von ineffizienten Antrieben. Durch den Einsatz von recyceltem Garn könnte Textil-Green bei der Herstellung und Veredelung Emissionen reduzieren. Ebenso könnte sich durch die Bündelung der Lieferantentransporte der Kraftstoffverbrauch reduzieren.

Für die verbleibenden unvermeidbaren CO2-Emissionen könnten im letzten Schritt Kompensationsprojekte herangezogen werden. Hierfür müsste Textil-Green Emissions-Zertifikate erwerben.

Das Umweltbundesamt sieht die CO2-Kompensationen unter folgenden Bedingungen als sinnvoll an:

  • Gleichen Sie unvermeidbare Treibhausgasemissionen nach Möglichkeit durch freiwillige Kompensationszahlungen aus.
  • Achten Sie bei Kompensationszahlungen auf die Qualität von Anbieter und Angebot (Goldstandard).
  • Beachten Sie: „Klimaneutrale“ sind nicht automatisch auch umweltfreundliche Produkte.
  • Geben Sie der Vermeidung von Treibhausgasemissionen Vorrang vor deren Kompensation.

Warum sind „Qualitäter“ und Managementsystemverantwortliche gefordert?

Für einige Unternehmen ist schon jetzt das Nachhaltigkeitsmanagement das neue Qualitätsmanagement. Nachhaltigkeit ist Pflicht und Wettbewerbsvorteil zugleich und eine große Chance für Qualitätsmanager und Managementsystemverantwortliche. Organisationen müssen schneller auf neue Anforderungen in einem disruptiven Umfeld reagieren und gleichzeitig ihre Resilienz erhöhen. Hierbei können QMler und Managementsystemverantwortliche einige ihrer grund- und disziplinspezifischen Kompetenzen einbringen, wie zum Beispiel:

  • sehr gute Vernetzung innerhalb der Organisation,
  • ausgezeichnete Kenntnisse über Normen und Gesetze,
  • hohes Prozessverständnis,
  • umfangreiche Stakeholder- und Risikomanagementerfahrungen,
  • umfassende Kommunikation mit extenen Stakeholdern,
  • charakteristische Fähigkeiten zur Organisationsentwicklung,
  • ausgeprägte Affinität zu Kennzahlen
  • signifikantes Methoden- und Fachwissen

Wie groß ist der CO2-Fußabdruck Ihrer Organisation?

Der obenstehende Leitfaden, wenn auch sehr vereinfacht an einem imaginären Beispiel aus der Textilindustrie dargestellt, soll Orientierung geben und als Roadmap dienen, um den Fußabdruck in der eigenen Organisation zu ermitteln. Setzen Sie sich mit Geschäftsführung und Kolleg:innen zusammen. Gestalten Sie die nachhaltige Transformation proaktiv mit und warten Sie nicht, bis Stakeholder (zum Beispiel Kunden, Banken, Versicherer, etc.) danach fragen oder gesetzliche Vorgaben greifen. Extremwetterereignisse führen uns regelmäßig die Folgen des Klimawandels vor Augen. Die Hauptursache des anthropogenen Klimawandels ist der Ausstoß der Treibhausgase.

Bei Fragen können Sie Sich gerne an die Community des DGQ-Fachkreises Nachhaltigkeit wenden.

 

Die im Beitrag dargestellten Inhalte basieren auf der Erarbeitung einer Arbeitsgruppe, bestehend aus Wilhelm Floer, Greta Hansen, Joachim Heißner und Christian Tigmann, aus dem DGQ-Fachkreis Nachhaltigkeit.

 

Über den Fachkreis Nachhaltigkeit:
Der Fachkreis Nachhaltigkeit bietet eine entscheidende Plattform, über die wir Wissen teilen, gemeinsam lernen und Umsetzungsbeispiele für die Praxis erarbeiten und bereitstellen. Wir wollen damit einen Gestaltungsspielraum für engagierte Personen aus Organisationen bieten, die sich ihrer unternehmerischen Verantwortung gegenüber der Umwelt und der Gesellschaft, aber auch der eigenen Organisation bewusst sind. Dies gilt für die Gegenwart und die Zukunft. Somit vereinen wir Managementsysteme und Nachhaltigkeitsbestrebungen.

Über den Autor:
Dr. Wilhelm Floer hat als promovierter Maschinenbauingenieur und Qualitätsmanagement-Experte zahlreiche praktische Erfahrungen im Bereich QM, QS und Audits gesammelt. Er war über zehn Jahre im Bereich Automotive in den unterschiedlichsten Positionen bei verschiedenen Unternehmen (OEM und First Tier) tätig. Bei einem namhaften Haushaltsgerätehersteller hat er sich unter anderem für agiles QM und als Energie- und Umweltmanagementvertreter für Nachhaltigkeitsthemen eingesetzt sowie als Co-Autor bei der Erstellung der Nachhaltigkeitsberichte mitgewirkt. Als Dozent für die DGQ leitet er verschiedene Trainings und führt im Namen der DGQ-Beratungsprojekte durch. Er ist Gründungsmitglied und Mitglied des Leitungsteams des DGQ Fachkreis Nachhaltigkeit.

Interview zum FQS-Forschungsprojekt AIDpro: Datenvalidierung für Produktionsprozesse

Forschungsprojekt AIDpro, Visualisierung

Angesichts wachsender ökologischer und wirtschaftlicher Herausforderungen müssen nicht zuletzt kleine und mittelständische Unternehmen (KMU) ihre Produktionseffizienz absichern und idealerweise steigern, um wettbewerbsfähig zu bleiben. Durch die Digitalisierung und die Nutzung einer datenbasierten Wertschöpfung mittels künstlicher Intelligenz (KI) kann die Produktivität und Flexibilität der Fertigungsprozesse in Industrie-4.0-Umgebungen gesteigert werden. Allerdings stellen die Implementierung und das Training serienreifer KI-Lösungen sowie ihre sichere Anwendung eine komplexe Herausforderung dar.

Oft sind die Prozessdaten, die die KI-Modelle im laufenden Betrieb verarbeiten, nicht vollständig durch die zuvor verwendeten Trainingsdaten repräsentiert. So weisen Sensordaten im Betrieb häufig Abnormalitäten oder Fehler auf, die durch externe Störungen, Übertragungsfehler oder defekte Sensoren verursacht werden. Zudem können Faktoren wie Saisonalität, Verschleiß und Verschmutzung dazu führen, dass sich Prozessdaten im Laufe der Zeit dynamisch ändern. Folglich können eingesetzte KI-Modelle unvorhersehbare Entscheidungen treffen, wenn aktuelle Anwendungsdaten stark von den Trainingsdaten abweichen. Um zu verhindern, dass Datenfehler die Entscheidungsfindung beeinträchtigen, müssen diese Anomalien mit höchstmöglicher Zuverlässigkeit erkannt werden, damit entsprechend gegengesteuert werden kann.

Im Rahmen des über die FQS – Forschungsgemeinschaft Qualität e.V. geförderten Forschungsprojekts AIDpro entwickeln das Fraunhofer-Institut für Produktionstechnologie IPT und das Fraunhofer-Institut für Angewandte und Integrierte Sicherheit AISEC über einen Zeitraum von zwei Jahren ein System zur automatisierten Datenvalidierung und Überwachung der Anwendungsphase von KI-Lösungen. Die Forschungsarbeiten werden von acht Unternehmen im Projektbegleitenden Ausschuss unterstützt.

Im Interview geben Jana Hüls (Fraunhofer IPT) und Wei-Herng Choong (Fraunhofer AISEC) einen Ausblick auf das Projekt und erläutern, wie Unternehmen von den Forschungsergebnissen profitieren können.

Aus welcher Problemstellung heraus ist das Forschungsprojekt entstanden?

Hüls: Die Entwicklung von serienreifen KI-Lösungen gliedert sich in zwei Phasen: die Modellbildungsphase und die Anwendungsphase. In der Modellbildungsphase erfolgen die Datenauswahl, Datenvorverarbeitung, Algorithmenauswahl sowie das Training und die Validierung des Modells. Während diese Schritte traditionell von Expertinnen und Experten übernommen werden, ermöglichen neue Ansätze im Forschungsgebiet des Automated-Machine-Learning (AutoML) eine teilweise Automatisierung bestimmter Schritte. Dadurch können KI-Lösungen auch für KMU ohne spezifische Fachkenntnisse interessanter werden.

In den cyber-physischen Produktionssystemen der Fertigungsindustrie liegen die Herausforderungen neben der Modellbildung allerdings vor allem in der Anwendungsphase von KI-Modellen. Diese Herausforderungen resultieren aus geringer Datenqualität, verursacht durch Sensorfehler und zeitlich variierende Abweichungen, den hohen Effizienzansprüchen der Branche sowie wirtschaftlichen Risiken und komplexen, oft intransparenten Systemfunktionen von KI. Besonders relevant sind die Anfälligkeit für fehlerhafte sowie sich dynamisch ändernde Daten und die wirtschaftlichen Risiken, die mit KI-Fehlentscheidungen verbunden sind. Im Betrieb leiten KI-Modelle aus Prozessdaten Informationen ab, die entweder zur Entscheidungsunterstützung oder zur autonomen Befehlsausführung genutzt werden. Dabei errechnen sich die Modellausgaben aus den im Training identifizierten Modellparametern und den momentanen Eingangsdaten. Weicht die Eingabe an die KI signifikant von den prinzipiell erlernten Strukturen der Trainingsdaten ab, können unvorhergesehene Entscheidungen durch die KI getroffen werden.

Choong: Da KI-Systeme perspektivisch auch in KMU zum Einsatz kommen müssen, um den Effizienzanforderungen gerecht zu werden, ist es entscheidend, das Risiko unvorhersehbarer KI-Entscheidungen zu minimieren. KI-Entscheidungen, die auf unzuverlässigen Daten basieren, bergen erhebliche Risiken für Produkte, Maschinen und Mitarbeiter. Für viele produzierende KMU ist die fehlende Qualität ihrer Prozessdaten und das damit verbundene Risiko ein Hemmnis beim Einsatz von KI-Modellen. An dieser Stelle soll das Forschungsprojekt AIDpro ansetzen und durch automatisierte Datenvalidierung und Überwachung der Anwendungsphase der KI-Lösungen die Grundlage für den sicheren Einsatz von KI in der Produktion ermöglichen. Dies gilt es durch geeignete, automatisierte Ansätze zur Anomalieerkennung zu adressieren.

Welches Know-how wird im Rahmen des Forschungsprojekts AIDpro entwickelt und wie kann es zur Lösung der geschilderten Problemstellung beitragen?

Hüls: Das Ziel von AIDpro ist die Entwicklung eines Datenvalidierungssystems (DVS) für eine automatisierte Prüfung und Sicherstellung der Datenqualität und eine Überwachung der Anwendungsphase von KI-Lösungen. Dabei wird das System speziell für den Einsatz in produktionstechnischen Systemen anhand konkreter Anwendungsfälle aus dem Projektbegleitenden Ausschuss entwickelt. Das DVS soll keine bloße Software-Bibliothek darstellen, sondern ein umfassender praxisnaher Leitfaden samt anwendungsbezogenem Software-Demonstrator sein. Der Leitfaden wird dazu dienen, KMU zu befähigen, selbstständig erste Schritte im Bereich Machine Learning zu gehen, indem eine validierte Datengrundlage aufgebaut wird.

Darstellung des geplanten Datenvalidierungssystems (DVS)

Abb. 1: Darstellung des geplanten Datenvalidierungssystems (DVS) ©Fraunhofer IPT

Choong: Das DVS soll modular aufgebaut sein und eine direkte Schnittstelle zu den Daten aus den Produktionsprozessen haben. Zunächst werden Vollständigkeits- und Konfidenz-Checks durchgeführt, die regelbasiert überprüfen, ob alle Daten vollständig und innerhalb der von Experten vordefinierten Wertebereiche liegen. Ergänzend wird eine Erkennung von Ausreißern durchgeführt. Dafür werden insbesondere neuartige, KI-basierte Erkennungsmethoden verwendet. Des Weiteren wird das System zeitliche Veränderungen in den Daten, sogenannte Datendrifts, überprüfen. Diese Information kann Aufschluss über veränderte Produktionsbedingungen geben und dazu genutzt werden, das KI-Modell mit den veränderten Bedingungen neu zu trainieren.

Die validierten Daten inklusive der Metadaten werden anschließend gespeichert, um sie zum Beispiel für das Training von KI-Modellen für Einsätze wie intelligente Qualitätskontrolle zu nutzen. Daneben wird auch ein Data-Monitoring-Ansatz entwickelt, der die Datenvalidierung und die Daten überwacht. Das übergeordnete Ziel des DVS ist es demnach, Datenfehler, Anomalien und Datendrifts zu erkennen, zu visualisieren beziehungsweise zu alarmieren und diese – in Zusammenwirkung mit Anwendenden – zu handhaben.

Wer soll von den Ergebnissen profitieren und welcher konkrete Nutzen ergibt sich für Unternehmen?

Hüls: Von den Ergebnissen sollen insbesondere produzierende KMU profitieren. Die validierten Prozessdaten, die das DVS bereitstellt, schaffen die Voraussetzung für den industriellen Einsatz von KI. Die Überwachung der Daten während der Anwendungsphase von KI schützt zudem vor den Risiken von Fehlentscheidungen durch fehlerhafte Datenpunkte. Der praxisnahe Leitfaden unterstützt Unternehmen zusätzlich, um – aufbauend auf den validierten Daten – KI-Potenziale zu erschließen, die sich zum Beispiel in der Qualitätskontrolle, der intelligenten Wartung, oder der Identifizierung ressourceneffizienter Betriebspunkte und Qualitätsvorhersagen ergeben. Außerdem können die Unternehmen durch das DVS und das transparente Data Monitoring eine unternehmensinterne Datenkompetenz aufbauen.

Wie sieht das weitere Vorgehen im Forschungsprojekt aus?

Choong: Zunächst werden wir eng mit dem Projektbegleitenden Ausschuss zur Identifizierung und Definition relevanter Anwendungsfälle zusammenarbeiten. Unser Ziel ist es, eine vielfältige Sammlung von praxisnahen und relevanten Anwendungsfällen und Datensätzen zu erstellen, um ein allgemeines DVS entwickeln zu können. Basierend auf diesen Anwendungsfällen leiten wir die Spezifikationen und Anforderungen an das DVS ab, die uns bei der Entwicklung und Implementierung des Gesamtkonzepts leiten. Nach der erfolgreichen Implementierung des DVS führen wir mit den Industriepartnern die Validierung und Evaluierung des DVS in einer realen Fertigungsumgebung zusammen durch. Das Feedback der Unternehmen wird in eine weitere Entwicklungsiteration einfließen. Anschließend werden wir weiterführende Anwendungsszenarien für das DVS identifizieren und bewerten, wobei der Schwerpunkt auf Themen wie Predictive Maintenance und Qualitätssicherung liegt.

 


Stimmen aus dem Projektbegleitenden Ausschuss:

 

André Heinke, Leiter Vertrieb und Marketing, Bitmotec GmbH:

Als Partner im Projektbegleitenden Ausschuss des Forschungsprojekts AIDpro engagiert sich die Bitmotec GmbH für die Entwicklung standardisierter Methoden zur Sicherung der Datenqualität in Produktionsprozessen. Mit unserer Industriellen Datenplattform BITMOTECOsystem verbinden wir Maschinen und Sensoren in produzierenden Unternehmen, um beispielsweise OEE-Lösungen umzusetzen. Aus unserer langjährigen Erfahrung mit KI-Technologien in der Industrie wissen wir, dass die Qualität und Integrität der erfassten Daten eine zentrale Rolle spielen. Nur wenn Industrieunternehmen ihren Daten vertrauen, sind sie bereit, den Ergebnissen zukünftiger KI-Technologien zu glauben und diese gewinnbringend einzusetzen.

Durch die Teilnahme an AIDpro wollen wir innovative Ansätze zur kontinuierlichen Überwachung und Validierung von Prozessdaten erarbeiten. Die Identifikation von Ausreißern und Datendrifts – etwa durch Verschleiß oder Messfehler – ist essenziell, um verlässliche Entscheidungsgrundlagen für KI-gestützte Optimierungen zu schaffen. Die Erkenntnisse aus dem Forschungsprojekt helfen uns, unsere Lösungen für die digitale Produktion weiterzuentwickeln und unseren Kunden eine noch höhere Datenqualität sowie Prozesssicherheit zu bieten. So schaffen wir eine stabile Basis für den erfolgreichen Einsatz von KI in der industriellen Praxis.

Daniel Narberhaus, Research & Development, Aventus GmbH & Co. KG:

Unsere Motivation für die Teilnahme am Forschungsprojekt AIDpro ist klar: Wir wollen KI nicht nur anwenden, sondern verstehen – und vor allem auf einer qualitativ hochwertigen Datenbasis weiterentwickeln. Statt auf bloße Datenmengen zu setzen, legen wir den Fokus auf plausible, nachvollziehbare Daten. Nur so können wir KI-Lösungen schaffen, die nicht nur leistungsfähig, sondern auch vertrauenswürdig und praxisnah zum Nutzen unserer Kunden sind. Die im Projekt gewonnenen Erkenntnisse fließen direkt in die Neu- und Weiterentwicklung unserer digitalen AVENTUS-Produkte ein – mit dem Ziel, für unsere Kunden noch intelligentere und verlässlichere Lösungen für eine leistungsstarke Produktion zu entwickeln.

Über die Interviewpartner:

Jana Hüls, Wissenschaftliche Mitarbeiterin, Production Quality, Fraunhofer-Institut für Produktionstechnologie IPT

Wei Herng Choong, Department Cognitive Security Technologies, Fraunhofer-Institut für Angewandte und Integrierte Sicherheit AISEC

 


Über das Forschungsprojekt: 
Das Projekt wird im Rahmen des Programms „Industrielle Gemeinschaftsforschung” durch das Bundesministerium für Wirtschaft und Klimaschutz aufgrund eines Beschlusses des Deutschen Bundestages gefördert (Förderkennzeichen: 01IF23103N; Forschungsvereinigung: FQS – Forschungsgemeinschaft Qualität e.V.) Weitere Informationen zum Projekt und zu Beteiligungsmöglichkeiten können über die Geschäftsstelle der FQS bezogen werden. Eine Mitarbeit im Projekt ist auch nach Laufzeitbeginn noch möglich.

Weitere Informationen finden Sie auf der Website des Fraunhofer IPT »

Über die FQS:
Die FQS – Forschungsgemeinschaft Qualität e. V. (FQS) unterstützt seit 1989 die anwendungsorientierte Forschung rund um das Thema Qualität in Deutschland. Sie versteht sich selbst als Forschungsbereich der Deutschen Gesellschaft für Qualität e. V. (DGQ) und wird von ihr getragen. Die FQS fördert innovative Forschungsideen über das Instrument der Industriellen Gemeinschaftsforschung (IGF) und des Forschungsnetzwerks CORNET des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK). Ziele der Förderung sind möglichst anwendungsnahe Forschungsideen, die einen unmittelbaren Nutzen für die Wirtschaft, insbesondere für kleine und mittelständische Unternehmen (KMU), erbringen.

Vorstellung der FQS Forschungsgemeinschaft Qualität e.V. 
Wer ist die FQS Forschungsgemeinschaft Qualität e.V. und was tut sie? Lernen Sie im Video den Forschungsbereich der DGQ kennen und erfahren Sie von Dr. Christian Kellermann-Langhagen, wissenschaftlicher Geschäftsführer der FQS, wie die FQS arbeitet, welche Themen beforscht werden und wie sich Unternehmen in der FQS beteiligen und von den eingesetzten Förderprogrammen profitieren können.

Kontakt:
FQS – Forschungsgemeinschaft Qualität e. V.
August-Schanz-Straße 21A
60433 Frankfurt am Main
infofqs@dgq.de


Wer managt die Nachhaltigkeit? – Neue Themen, neue Zuständigkeiten

Nachhaltigkeitsmanagement, Zuständigkeiten, Meeting

In Unternehmen ist Nachhaltigkeit ein Thema, das Können und Zeit erfordert, Kompetenz und Ressource. Wachsende Verpflichtungen auf Basis neuer gesetzlicher Anforderungen und auch wachsende Einsicht in die Notwendigkeit der Zukunftssicherung begründen neue Funktionen: Nachhaltigkeitsmanager, -berater und -experten. Sie stellen aber vor allem kleine und mittelständische Unternehmen vor erhebliche Herausforderungen.

Welche neuen Rollen zeichnen sich ab, wie richten Unternehmen die Funktionen ein, welche Zuständigkeiten kristallisieren sich heraus? Wird das Thema Nachhaltigkeit eigens adressiert oder mit anderen, wie dem Qualitätsmanagement kombiniert? Die DGQ geht diesen Fragen nach und stützt sich dabei auf Recherchen, Diskussionen in ihrem Netzwerk sowie eine eigens durchgeführte, nicht repräsentative Kurzumfrage mit 100 Teilnehmenden.

Im Vergleich zum Qualitätsmanagement, das in vielen Unternehmen schon lange eingerichtet und mit eigenem Personal ausgestattet ist, sind Stellen für das Nachhaltigkeitsmanagement in weniger Unternehmen und erst seit einigen Jahren geschaffen worden, zumeist innerhalb der vergangenen fünf Jahre. 13 Prozent der Unternehmen in der DGQ-Kurzumfrage planen die Einrichtung einer Stelle für Nachhaltigkeit, 27 Prozent haben und planen zurzeit keine, siehe Abb. 1. Doch das kann sich ändern, wenn externer Druck und interne Notwendigkeit weiter anwachsen.

Vorhandensein der Funktionen Qualitätsmanagement und Nachhaltigkeitsmanagement

Abb. 1: Vorhandensein der Funktionen Qualitätsmanagement und Nachhaltigkeitsmanagement

Budget bei den Großen …

Je größer das Unternehmen, desto länger und zahlreicher sind neue Berufsbilder bereits im Einsatz, desto eher ist für Nachhaltigkeit ein eigener Bereich aufgebaut worden. Und gerade in den großen Unternehmen genießt die Nachhaltigkeit zurzeit große Aufmerksamkeit und direkte Anbindung an Vorstände und Geschäftsführungen. Das ist verständlich, ist deren gesetzliche Verpflichtung und persönliche Verantwortung doch besonders umfangreich und weitreichend und der Blick der globalen Öffentlichkeit auf ihre Nachhaltigkeitsaktivitäten und vor allem auch -unterlassungen fokussiert. Die Nachhaltigkeitsbereiche der Konzerne erfahren zurzeit eine Bedeutung, Wertschätzung und Budgetierung, auf die andere Stabs- und Expertenfunktionen durchaus sehnsüchtig und nicht selten ein wenig neidisch blicken.

Pragmatismus bei den Kleinen …

Im Mittelstand, vor allem in den zahlreichen kleinen Unternehmen, zeigt sich ein anderes Bild. Einige Unternehmen schlagen die recht neue Funktion Nachhaltigkeitsmanagement sehr pragmatisch einer bereits vorhandenen Stelle zu. Ein naheliegender Kandidat ist das Qualitätsmanagement, siehe Abb. 2.

Einzel- oder Doppelfunktion

Abb. 2: Einzel- oder Doppelfunktion

Zum einen herrscht gerade ein Engpass an Expertinnen und Experten für Nachhaltigkeit und die großen Unternehmen sowie Unternehmensberatungen grasen den ohnehin dünn besetzten Bewerbermarkt ab. Zum anderen schlägt der Aufbau dieser Personalressourcen umso stärker zu Buche, je kleiner das Unternehmen ist.

Kleine Unternehmen, insbesondere produzierende, haben zumeist eine Beauftragte oder einen Beauftragten für Qualitätsmanagement und bitten diese pragmatisch, das Thema Nachhaltigkeit mitzuverarbeiten. Dieser Impuls ist umso stärker, wenn Leitungen Nachhaltigkeit vor allem mit formaler Anforderungserfüllung und Berichtspflichten verbinden. Dann gibt es ausgeprägte Verwandtschaften zum und Synergien mit dem Qualitätsmanagement.

Dennoch erzeugt dieses „Job Enrichment“, diese Aufgabenanreicherung, zusätzliche Aufwände, ohne dass mehr Ressource verfügbar wäre. Sie verlangt von den Qualitätsbeauftragten, sich neue Kompetenzen anzueignen, was für sie den Initialaufwand für die Übernahme des Nachhaltigkeitsmanagements noch deutlich erhöht. So sind in der Praxis einzelne Qualitätsmanagerinnen und -manager nicht glücklich über den Themenzuwachs. Andere begrüßen, dass das Unternehmen hier aktiver wird, und haben durchaus selbst auch Motivation und Interesse, das Nachhaltigkeitsmanagement auszubauen oder weiterzuentwickeln.

Berufsbild Nachhaltigkeitsmanager

Die Themen Nachhaltigkeit und Klima­schutz gehören zu den Mega­trends unserer Zeit. Für Unter­nehmen wird es somit immer wichtiger, CSR-Maßnahmen um­zu­setzen und ihrer gesell­schaftlichen Verantwortung gerecht zu werden. Mit dem größeren Fokus auf Nachhaltigkeit haben sich in den letzten Jahren eine Vielzahl an grünen Jobs entwickelt, wie beispielsweise der Job als Nachhaltigkeitsmanager.
Antworten auf die wichtigsten Fragen finden Sie in unserem Berufsbild zum Nachhaltigkeitsmanager:

  • Welche Aufgaben betreuen Nachhaltigkeitsmanager?
  • Wie werde ich Nach­haltigkeits­beauf­tragter?
  • Welche Weiter­bildungs­möglich­keiten gibt es?
  • Was verdient ein Nach­haltigkeits­manager?
  • Welche Jobs gibt es im Nach­haltigkeits­manage­ment?

Zum Berufsbild Nachhhaltigkeitsmanager »

Risiken der Trennung und Chancen der Integration

Je größer ein Unternehmen, desto stimmiger ist eine Spezialisierung und damit einhergehende Differenzierung von Stabs- und Expertenbereichen. Doch ob organisatorisch getrennt oder nicht: Zusammenarbeit ist ein Schlüssel zur Wirksamkeit. Oder andersherum, fehlende Kooperation schafft Widersprüchlichkeiten, Dysfunktionalitäten, Verschwendung, Konflikte sowie die dadurch entstehenden zum Teil enormen Kosten und sie beschädigt die Effektivität sowie die Akzeptanz im Unternehmen.

Und wenn es schon eigene und unabhängige Funktionen und Bereiche für Nachhaltigkeit gibt und diese zumindest temporär hochrangig angebunden, exzellent ausgestattet und weitreichend befugt werden, ist es dennoch notwendig, sie zur Kooperation und Integration zu verpflichten. Besonders wichtig sind Kooperation und Integration auf Prozessebene, auf Managementsystemebene sowie bei Anforderungsmanagement, Wirkungsmessung und Reporting. Eine gute Integration bietet die Chancen einer effizienten Themenbearbeitung sowie auch der höheren Mitarbeitendenbeteiligung und -akzeptanz.

Die Mehrheit der Befragten der DGQ-Kurzumfrage favorisiert folgerichtig die Zusammenlegung der Funktionen, siehe Abb. 3.

Trennen oder Zusammenlegen der Qualitätsmanagement- und Nachhaltigkeitsfunktionen

Abb. 3: Trennen oder Zusammenlegen der Qualitätsmanagement- und Nachhaltigkeitsfunktionen

Im Mittelstand sind kombinierte Funktionen leichter anzulegen und können helfen, die zusätzliche erforderliche Ressource möglichst gering zu halten. Das kann aber nur gelingen, wenn Qualitäts-, Nachhaltigkeits- und zudem auch Arbeitssicherheitsmanagement, IT-Sicherheitsmanagement und weitere stark extern regulierte Thematiken besser miteinander kombiniert werden. All diese und weitere Themen sollten über ein System gemanagt werden, das System und seine einzelnen Prozesse, Spezifikationen sollten schlank angelegt und gut synchronisiert werden. Die Anwendbarkeit durch Mitarbeitende im Alltag und nicht Auditierungen und akribische Regelauslegung, die oft in die Überformalisierung führt, sollten dabei im Fokus stehen.

Viele etablierte klassische und nach wie vor sehr dokumentenlastige Managementsysteme leisten das nicht gut. Gerade weil externe Reglementierung eskaliert, muss interne Übersetzung in Prozesse und Spezifikationen so schlank und nutzerfreundlich wie möglich erfolgen. Dazu können immer bessere KI-basierte Assistenzsysteme eingesetzt werden. Statt in mehreren parallel gültigen Dokumenten mühsam die relevanten Vorgaben zu suchen oder sie riskant zu ignorieren, sollten diese Systeme im Workflow genau und nur das anzeigen, was jetzt zu tun und zu lassen ist, um gesetzliche, normative und vertragliche Verpflichtungen und Anforderungen einzuhalten.

Schlanke interne Formalisierung ist eine eigenverantwortliche Antwort auf eskalierende externe Bürokratisierung

Leitungen sollten von ihren bestehenden und neu eingesetzten Qualitäts- und Nachhaltigkeitsmanagerinnen und -manager Nutzerorientierung und einen Regelungsminimalismus einfordern. Wer externes Wachstum an Bürokratie nur beklagen, aber nicht beeinflussen kann, muss im eigenen Verantwortungsbereich gut gemeinte, aber oft übergriffige und in Summe dysfunktionale externe Vorgaben in gut gemachte interne Systeme und Regeln transformieren.

 

Über den Autor:
Benedikt Sommerhoff leitet bei der DGQ das Themenfeld Qualität & Innovation. Er beobachtet, analysiert und interpretiert die Paradigmenwechsel und Trends in Gesellschaft und Wirtschaft sowie ihre Wirkungen auf das Qualitätsmanagement. Seine zahlreichen Impulse in Form von Publikationen und inspirierenden Vorträgen geben Orientierung in Zeiten des Wandels. Sie ermutigen zur Neukonzeption des Qualitätsmanagements und der Qualitätssicherung. Gemeinsam mit Expertinnen und Experten des DGQ-Netzwerks aus Praxis und Wissenschaft arbeitet Sommerhoff in Think Tanks und Pionierprojekten an der Entwicklung, Pilotierung und Vermittlung innovativer Konzepte und Methoden.

Lean Management und Six Sigma: Prozessoptimierung in wirtschaftlich heraufordernden Zeiten

Logistik, Lagerbegehung

Steigende Kosten, volatile Lieferketten und hohe Kundenanforderungen machen es notwendig, Prozesse nicht nur zu verschlanken, sondern auch in ihrer Zuverlässigkeit und Vorhersagbarkeit zu optimieren. Durch die Kombination von Lean-Methoden und Six Sigma-Techniken können Unternehmen nachhaltig wettbewerbsfähiger werden. Besonders in unsicheren Zeiten profitieren Unternehmen von robusten, standardisierten Prozessen, die eine höhere Produktivität, geringere Kosten und eine verbesserte Kundenzufriedenheit ermöglichen.

Wo liegt der Unterschied zwischen Lean Management und Six Sigma?

Während Lean darauf abzielt, Prozesseffizienz durch Verschlankung und Standardisierung zu erreichen, konzentriert sich Six Sigma auf die Fehlerminimierung durch prozess- und datenbasierte Analyse und Prozesskontrolle. Six Sigma nutzt einen statistischen Ansatz, um Schwachstellen zu identifizieren und nachhaltig zu eliminieren.

Obwohl beide Methoden das Ziel verfolgen, Prozesse zu optimieren und Unternehmen wettbewerbsfähiger zu machen, gibt es wesentliche Unterschiede:

Aspekt Lean Management Six Sigma
Zielsetzung Eliminierung von Verschwendung und nicht-wertschöpfenden Tätigkeiten Reduzierung von Variabilität und Fehlern
Fokus Effizienzsteigerung und schnelle Durchlaufzeiten Qualitätsverbesserung und statistische Kontrolle
Methodik Visuelle Werkzeuge wie Wertstromanalyse, 5S, Kaizen Prozess- und datengetriebene Analyse mit DMAIC-Zyklus
Ansatz Ganzheitliche Optimierung der Wertschöpfungskette Detaillierte Prozessanalyse auf Basis statistischer Methoden
Typische Anwendung Produktionsoptimierung, Logistik, Supply Chain Qualitätsmanagement, Fehlerreduktion in Produktion und Dienstleistung

Six Sigma wurde ursprünglich von Motorola in den 1980er-Jahren entwickelt und setzt auf eine datengestützte Methodik zur Fehlerreduktion. Dabei folgt Six Sigma dem DMAIC-Zyklus:

  1. Define (Definieren): Klare Problemstellung und Zielsetzung.
  2. Measure (Messen): Erfassung und Analyse von Daten zur Bewertung des Ist-Zustands.
  3. Analyze (Analysieren): Identifikation von Fehlerquellen und deren Ursachen.
  4. Improve (Verbessern): Entwicklung und Implementierung von Lösungen zur Fehlerreduzierung.
  5. Control (Steuern): Langfristige Überwachung und Standardisierung der verbesserten Prozesse.

Lean Six Sigma – eine sinnvolle Ergänzung beider Methoden

Die Kombination von Lean-Methoden mit dem DMAIC-Zyklus ermöglicht eine ganzheitliche Prozessoptimierung, die sowohl Effizienzsteigerung (Lean) als auch Fehlerminimierung (Six Sigma) umfasst. Jede Phase des DMAIC-Zyklus kann durch Lean-Prinzipien und -Werkzeuge gezielt ergänzt werden, um den Nutzen zu maximieren.

DEFINE: Problemstellung und Ziele klar definieren

  • Wertstromanalyse (Value Stream Mapping, VSM): Visualisierung des gesamten Prozesses zur Identifikation von Engpässen und nicht-wertschöpfenden Aktivitäten.

MEASURE: Datenerhebung zur Ist-Analyse

  • 5S-Methode: Standardisierung und Organisation des Arbeitsplatzes, um Messungen unter stabilen Bedingungen durchzuführen.
  • Spaghetti-Diagramm: Analyse von Bewegungsabläufen zur Identifikation von ineffizienten Wegen.

ANALYZE: Identifikation der Hauptursachen für Probleme

  • Ishikawa-Diagramm (Ursache-Wirkungs-Diagramm): Systematische Untersuchung von Verschwendungsursachen.
  • Pareto-Analyse: Konzentration auf die wesentlichen Ursachen nach dem 80/20-Prinzip.

IMPROVE: Entwicklung und Implementierung von Lösungen

  • Kaizen (kontinuierliche Verbesserung): Iterative, kleine Verbesserungen im Prozess.
  • Pull-System (Kanban): Einführung einer bedarfsgerechten Steuerung, um Überproduktion zu vermeiden.

CONTROL: Nachhaltige Sicherstellung der Verbesserungen

  • Standardisierte Arbeitsanweisungen (SOPs): Dokumentation und Vereinheitlichung der optimierten Prozesse.
  • PDCA-Zyklus (Plan-Do-Check-Act): Sicherstellung einer kontinuierlichen Verbesserung nach der DMAIC-Umsetzung.

Praxisbeispiel 1: Lean Six Sigma in der Produktionslinie

Ein mittelständisches Unternehmen aus der Automobilzulieferindustrie litt unter hohen Ausschussraten in der Produktion, die zu steigenden Kosten und Verzögerungen in der Lieferkette führten. Um die Probleme zu lösen, wurde ein Lean Six Sigma-Projekt initiiert.

Analyse der Situation:

  • Die Produktionslinie produzierte 5 % Ausschuss, was jährliche Verluste von mehreren Hunderttausend Euro verursachte.
  • Durch eine Wertstromanalyse wurden unnötige Wartezeiten und ineffiziente Abläufe identifiziert.
  • Mit der Six Sigma-Methodik wurde festgestellt, dass ein bestimmter Maschinenprozess für 70 % der Fehler verantwortlich war.

Umsetzung mit Lean Six Sigma:

  • Anwendung der 5S-Methode zur besseren Arbeitsplatzorganisation.
  • Anpassung der Maschinenparameter durch eine statistische Versuchsplanung (Design of Experiments, DOE).
  • Schulung der Mitarbeiter auf Fehlervermeidungstechniken.

Ergebnis:

  • Reduzierung der Ausschussrate von 5 % auf 1,2 % innerhalb von sechs Monaten.
  • Einsparungen von über 500.000 Euro pro Jahr.
  • Höhere Kundenzufriedenheit durch pünktlichere Lieferungen und bessere Produktqualität.

Dieses Beispiel zeigt, dass Unternehmen durch die Kombination von Lean- und Six Sigma-Methoden nachhaltige Verbesserungen erzielen und langfristig wettbewerbsfähig bleiben können.

Praxisbeispiel 2: Lean Six Sigma in der Logistik

Ein großes Handelsunternehmen mit europaweiter Distribution stand vor erheblichen Herausforderungen in seiner Logistik.

Analyse der Situation:

  • Lieferverzögerungen von durchschnittlich 48 Stunden aufgrund ineffizienter Prozesse in der Lagerhaltung und Kommissionierung.
  • Hohe Fehlerrate von 7 % in der Auftragsabwicklung, was zu Rücksendungen, Nachlieferungen und steigenden Kosten führte.
  • Überfüllte Lagerbestände, die Kapitalbindung verursachten, während gleichzeitig Engpässe bei gefragten Produkten auftraten.

Umsetzung mit Lean Six Sigma

Anwendung von Lean-Methoden zur Effizienzsteigerung:

  • Eine Wertstromanalyse (Value Stream Mapping) deckte auf, dass es unnötige Transportwege im Lager gab, wodurch sich die Kommissionierzeiten verlängerten.
  • Die Einführung eines 5S-Systems optimierte die Lagerorganisation und reduzierte Suchzeiten für Artikel.
  • Durch die Umstellung auf ein Pull-System (Kanban) wurden Bestände dynamischer gesteuert, wodurch Engpässe und Überbestände minimiert wurden.

Anwendung von Six Sigma zur Qualitätsverbesserung:

  • Eine Fehlermöglichkeits- und Einflussanalyse (FMEA) identifizierte, dass die häufigste Fehlerquelle fehlerhafte Bestandsdaten im ERP-System war.
  • Durch den Einsatz statistischer Prozesskontrolle (SPC) wurden Unregelmäßigkeiten in der Bestandsführung frühzeitig erkannt.
  • Die Mitarbeiterschulung auf standardisierte Arbeitsanweisungen (SOPs) und die Einführung von modernen Barcode-Scannern führten zu einer deutlichen Senkung der Fehlerquote.

Ergebnis:

  • Reduzierung der Lieferverzögerungen um 60 % (von 48 Stunden auf 19 Stunden).
  • Fehlerrate in der Auftragsabwicklung von 7 % auf 1,5 % gesenkt.
  • Lagerbestand um 22 % reduziert, ohne Lieferengpässe zu verursachen.
  • Kosteneinsparungen von 750.000 € pro Jahr durch reduzierte Nachlieferungen und effizientere Lagerhaltung.

Dieses Beispiel zeigt, dass Lean Six Sigma in der Logistik nicht nur Prozesse effizienter gestaltet, sondern auch die Qualität der Auftragsabwicklung erheblich verbessert.

Fazit: Die Zukunft gehört integrierten Optimierungsstrategien

Lean als Basis zur Optimierung der Wertströme, Six Sigma zur datengetriebenen Verbesserung der Prozessqualität – gemeinsam führen sie zu maximaler Effizienz und Stabilität. In einer zunehmend komplexen und dynamischen Wirtschaftsumgebung sollten Organisationen beide Aspekte im Blick haben.

Lean Six Sigma bietet einen bewährten Rahmen, um Prozesse strategisch zu optimieren, Kosten zu senken und Qualitätsstandards nachhaltig zu steigern. Die methodische Verbindung beider Ansätze ermöglicht es Unternehmen, sich langfristig gegen Wettbewerber zu behaupten und auch in wirtschaftlich schwierigen Zeiten erfolgreich zu agieren.

Die erfolgreiche Umsetzung erfordert jedoch eine konsequente Verankerung der Lean Six Sigma-Philosophie im Unternehmen. Fach- und Führungskräfte müssen nicht nur die Methoden verstehen, sondern auch die Prinzipien von kontinuierlicher Verbesserung, datenbasierter Entscheidungsfindung und nachhaltiger Prozesskontrolle in ihrem Unternehmen implementieren. Nur so lässt sich der Grundgedanke von Lean Management und Six Sigma zu einem leistungsfähigen Gesamtmodell vereinen.

Mit den DGQ-Trainings zum „Lean Six Sigma Green Belt“ oder „Lean Six Sigma Black Belt“ erfahren die Teilnehmenden konkret, wie sie Lean-Methoden mit der DMAIC-Vorgehensweise nachhaltig für die Prozessverbesserung einsetzen können.

 

Über den Autor:
Oliver Schneider ist als Produktmanager seit 2015 bei der DGQ und verantwortet in der DGQ Weiterbildung das Trainingsportfolio zum Thema Qualitätsmanagement und Lean Six Sigma. Seine Qualifizierungen als Qualitätsmanager und Lean Six Sigma Green Belt ermöglichen es ihm, die Weiterentwicklung dieser Themen aktiv zu gestalten und Fachkräfte gezielt zu beraten.

Gamification im Qualitätsmanagement – innovatives Lernen durch digitale Team-Battles

Gamification, Mitarbeiter, Freude, Quiz Battle

Wie Festo durch spielerisches Lernen Teamgeist und Qualitäts-Know-how stärkt

Im Qualitätsmanagement der Festo SE & Co. KG, einem weltweit führenden Anbieter in der pneumatischen und elektrischen Automatisierungstechnik, herrscht eine ungewöhnliche Atmosphäre. QM-Mitarbeiter aus unterschiedlichen Unternehmensbereichen und Standorten diskutieren Qualitätsfragen und tippen um die Wette Antworten in ihre Smartphones und PCs. Der Grund: Ein innovatives Gamification-Projekt in Form eines Quiz-Gewinnspiels. Das Familienunternehmen mit Hauptsitz in Esslingen, das seit über 60 Jahren Impulsgeber in der Automatisierung ist und auf das weltweit 300.000 Kunden in der Fabrik- und Prozessautomation vertrauen, geht neue Wege in der Qualifizierung seiner Belegschaft. Als innovative Ergänzung zu klassischen Trainings treten die QM- Mitarbeiter in einem digitalen Quiz-Battle gegeneinander an und frischen dabei spielerisch ihr Fachwissen über das Qualitätsmanagement auf.

Learning by Gaming mit der DGQ-Lern-App

Manchmal entstehen die besten Ideen aus persönlicher Erfahrung. Wie Stefan Schwerdtle, Vice President Corporate Quality, berichtet, stand er als Quereinsteiger im Qualitätsmanagement vor einer typischen Herausforderung: „Wie komme ich schnell auf Augenhöhe mit erfahrenen QM-Experten?” Auf der Suche nach einer adäquaten Fachausbildung entschied er sich für die Lehrgangsreihe der DGQ Weiterbildung zum Qualitätsmanager, die ihm das nötige Grundhandwerkzeug für seine neue Rolle vermittelte.

Während des Trainings lernte er die Vorteile der DGQ-Lern-App kennen. „Abends im Tagungshotel habe ich viel lieber mit der App gelernt, als den auch zur Verfügung gestellten Papierordner durchzuarbeiten“, beschreibt Schwerdtle seine Erfahrung. Das didaktische Konzept, ein digitales Karteikastensystem mit intelligentem Wiederholalgorithmus, überzeugte ihn: „Wenn man eine Frage dreimal richtig beantwortet hatte und sie damit in der ”3x-Richtig-Box“ landete, war das Wissen für die Prüfung abrufbar.

Der Quiz-Aspekt kam per Zufall dazu, als ein Festo-Kollege aus demselben Kurs Schwerdtle abends zu einem Quiz-Battle herausforderte. „Das war der Moment, wo der Spaß am Lernen begann“, erinnert er sich. „Man hat sich in der Woche gegenseitig herausgefordert und schnell gemerkt, welche Kategorie man schon besser konnte als der andere und wo man noch nacharbeiten musste.” Auch nach der Zertifizierung setzen die Kollegen die Quiz-Runden fort. Dies inspirierte Schwerdtle, das DGQ-Quiz in größerem Rahmen für die Mitarbeiterqualifizierung zu nutzen. Im Sommer 2023 startete ein erster Durchlauf mit etwa 50 Mitarbeitern aus dem Bereich Corporate Quality – mit durchschlagendem Erfolg und einer Beteiligungsquote von nahezu 100 Prozent.

Ich war damals wirklich überwältigt, wie toll das angenommen wurde!“, berichtet Schwerdtle. „Das hat sich für niemanden anstrengend angefühlt.

Besonders positiv überraschte ihn die breite Wirkung des Quiz. Sowohl erfahrene QM-Experten als auch Mitarbeiter ohne QM-Hintergrund fanden Gefallen daran. „Es hat mich wirklich fasziniert, wie einfach es gehen kann, in zwei Wochen Grundlagenwissen an eine breite Mannschaft von 50 Personen zu bringen und gleichzeitig im Teamwettbewerb gegeneinander zu spielen und Spaß zu haben“, resümiert Schwerdtle.

Standortübergreifendes Community-Building

Die guten Erfahrungen führten zu einer zweiten, größeren Quiz-Runde, bei der von November bis Mitte Dezember 2024 rund 250 Mitarbeiter aus unterschiedlichen Standorten und QM-Bereichen teilnahmen. In dieser bereichsübergreifenden Struktur sieht Schwerdtle weitere Vorteile: „Das eine ist, dass man sich eine gemeinsame Wissensbasis erarbeitet. Jeder schärft sein Grundwissen nach, egal ob er in einem Produktionswerk ist, in einer Vertriebsgesellschaft oder im Headquarter bei der Produktentwicklung.” Teilnehmer Abdullah Sag, Leiter Qualitätsmanagement am Produktionsstandort Scharnhausen, bekräftigt: „Die wertvollsten Momente sind die fachlichen Diskussionen im Anschluss. Während manche Fragen für Qualitätsexperten Routine sind, entwickeln sich bei anderen intensive Gespräche, die zu einem echten Erkenntnisgewinn führen.” Die einheitliche Wissensbasis verbindet erfahrene Mitarbeiter und Neueinsteiger über alle Unternehmensbereiche hinweg.

Einen zusätzlichen Vorteil erkennt Schwerdtle in der abteilungs- und länderübergreifenden Vernetzung von QM-Teams, die im Arbeitsalltag wenig Berührungspunkte haben. Teilnehmer Florian Schuchart, der im Qualitätsmanagement kundenspezifischer Lösungen tätig ist, kann dies bestätigen: „Durch das Quiz kommen wir mit Kollegen ins Gespräch über Fachinhalte – und zwar auch mit denen, die wir sonst nur selten treffen.” Teilnehmer Oliver Walte, Leiter Qualitätsmanagement des Produktionsstandorts Pieterlen in der Schweiz, stimmt zu: „Wir hätten auch ein Quiz nur innerhalb einer Abteilung oder im Headquarter machen können. Aber diese globale Dimension fand ich sehr schön. Es motiviert unheimlich, wenn man gegen andere Abteilungen spielt. Der Teamgedanke über Ländergrenzen hinweg hat das Ganze noch verstärkt.

Das große Finale als Höhepunkt

Festo, Gamification, Quality Quiz Duell

Siegerehrung nach dem Finale: (v.l.n.r.) Matthias Merkle (Projektleiter), Florian Schuchart (Sieger des Quality Quiz Duells) und Philipp Schreiner (Quality Quiz Duell Kernteam). ©Festo SE & Co. KG

Den spannenden Schlusspunkt des Quality Quiz Duells setzte ein Live-Finale. Der Teamgedanke stand auch dabei wieder im Vordergrund: „Wir haben uns bewusst dazu entschieden, im Team zu spielen“, betont Mathias Merkle, der Projektleiter des Quality Quiz-Duells. „Daher haben wir einen Spielmodus entwickelt, bei dem am Ende das beste Team eines jeden Standorts ins Live-Finale kommt.“ Die insgesamt rund 130 Teilnehmer des Events waren mit vollem Einsatz bei der Sache – egal ob beim Public Viewing im Headquarter oder live zugeschaltet aus den Standorten. Den Gesamtsieg sicherte sich am Ende Team Saarland. Ausgezeichnet wurden auch die drei erfolgreichsten Einzelspieler.

Erfolgsfaktoren für die Umsetzung

Als Schlüssel zum Erfolg sehen Schwerdtle und Merkle eine sorgfältige Vorbereitung. Zentral ist dabei die Benennung eines Projektleiters, bei dem alle Informationen zusammenlaufen. „Ein gut funktionierendes Kernteam und erweiterte Teams in den Standorten sind außerdem die Basis für den Erfolg“, ergänzt Merkle.

Man sollte sich genau überlegen, wie das Quiz in der eigenen Organisation optimal genutzt werden kann, rät Schwerdtle. Dabei gilt es, grundlegende Fragen zu klären: Wird im Team oder einzeln gespielt? Wie lang sind die Spielrunden? Auch praktische Aspekte wie Ferienzeiten und die Einbindung des Betriebsrats müssen berücksichtigt werden. „Vor Spielstart sollte man einen Plan machen, bei dem jeder Meilenstein gesetzt ist“, betont Projektleiter Merkle. Gemessen an der Zahl der erreichten Mitarbeiter schätzt Schwerdtle den Gesamtaufwand für Vorbereitung und Durchführung jedoch als überschaubar ein.

Überraschend einfacher Einstieg

Entscheidend für den Erfolg sind zwei bis drei Personen in den Bereichen, die das Quiz kennen und die verstehen, was Quiz-Battle heißt“, meint er. Diese Mitarbeiter prägen durch ihre Erfahrungen den “Flurfunk” in der Kaffeeküche und wecken Neugier im Team. Diese Beobachtung bestätigt auch Teilnehmerin Lara Schneider, die als Qualitätsingenieurin im Logistikbereich arbeitet, und ergänzt: „Auch Kollegen, die nicht direkt am Quiz-Battle beteiligt waren, haben ständig nachgefragt: „Wie weit seid ihr jetzt? Auf welchem Platz steht ihr?“ Sie wollten sogar die Fragen sehen. Das Interesse im Büro war von allen Seiten wirklich sehr groß.” So entsteht eine Eigendynamik, die das Quiz nach kurzer Anlaufphase ohne aufwendige Anleitungen zum Selbstläufer macht.

Qualitätsstrategie und moderne Didaktik

Das Quiz-Projekt ist bei Festo nicht als isolierte Maßnahme konzipiert, sondern fügt sich in ein modernes, digitales Gesamtkonzept des Qualitätsmanagements ein. Neben dem Quiz setzt das Unternehmen auch andere innovative Formate ein, etwa eine Darstellung des Qualitätsmanagements in Comicform, bei der Avatare der Führungskräfte Sachverhalte erklären.

Schwerdtle ist überzeugt, dass moderne Mitarbeiterqualifizierung von einer durchdachten Herangehensweise lebt: „Über die Qualifizierungsformate sollte man sich sehr genau Gedanken machen, wenn man seine Mannschaft weltweit auf dem Stand halten will. Ich kann den besten Inhalt haben, wenn ich den aber in einem schlechten didaktischen Format vermittele, dann ist die Frage: Was bleibt wirklich hängen?

Sein Fazit zu den beiden Quiz-Gewinnspielen ist durchweg positiv. Er sieht darin die Möglichkeit Qualität und Qualitätsinhalte auf eine moderne, überraschende und positive Art und Weise für die Menschen greifbar zu machen.

Das Quality-Quiz-Duell bei Festo zeigt eindrucksvoll, wie Gamification Weiterbildung zu einem mitreißenden Lernerlebnis machen kann, das Menschen verbindet und inspiriert.

Was ist Gamification?
Gamification überträgt Spielelemente wie Wettbewerb, Punktesysteme und Belohnungen auf nicht-spielerische Bereiche. In der Weiterbildung werden Lerninhalte durch spielerische Elemente ansprechender und motivierender gestaltet.

So unterstützt Gamification den Lernerfolg
Gamifizierte Lernmethoden aktivieren das Belohnungszentrum im Gehirn, indem sie unmittelbares Feedback geben und wiederkehrende Erfolgserlebnisse schaffen. Der spielerische Wettkampf und die sichtbare Darstellung des eigenen Fortschritts steigern die intrinsische Motivation der Lernenden. Durch den spielerischen Zugang wird der typische Lernstress reduziert – stattdessen steht der Spaß am gemeinsamen Lernen im Vordergrund. Besonders wertvoll ist der soziale Aspekt: Gamification fördert die Interaktion zwischen den Teilnehmenden und stärkt den Teamgeist. Ein weiterer Vorteil liegt in der Flexibilität. Jeder Lernende kann in seinem individuellen Tempo voranschreiten und Inhalte selbstgesteuert wiederholen.

Möglichkeiten der DGQ-Lern-App:
Von Experten entwickelte Lernfragen zu verschiedenen QM-Themen
Digitale Karteikastenbox mit intelligentem Wiederholmanager
Spiele gegen BOTs in verschiedenen Schwierigkeitsgraden
Quiz-Battle und Gewinnspiel

Für weitere Informationen sprechen Sie uns gerne an!

Christiane Köngeter
Produktmanagement/E-Learning Development
Deutsche Gesellschaft für Qualität
DGQ Weiterbildung GmbH
christiane.koengeter@dgq.de
T +49 (0)69/ 954 24 – 219

Einladung zum 4. Süddeutschen Qualitätstag am 27. Juni 2025 am Fraunhofer IPA in Stuttgart

2. Süddeutscher Qualitätstag, SQT

Am 27. Juni 2025 ist es wieder soweit: Der 4. Süddeutsche Qualitätstag findet am Fraunhofer IPA, gemeinsam mit der DGQ in Stuttgart statt. Diese Veranstaltung bietet Fach- und Führungskräften aus dem Bereich Qualitätsmanagement eine Plattform für Wissenstransfer, Inspiration und Networking. Die Teilnehmenden können sich auf ein abwechslungsreiches Programm mit hochkarätigen Vorträgen freuen.

Ein zentrales Thema wird die künstliche Intelligenz in der Bildverarbeitung sein, die neue Möglichkeiten für die Qualitätssicherung und Prozessoptimierung eröffnet. Auch die Rolle von Social Media in der QM-Systemdokumentation beleuchtet der Süddeutsche Qualitätstag intensiv, um aufzuzeigen, wie sich digitale Plattformen zur effizienten Kommunikation und Dokumentation nutzen lassen. Ein weiterer Schwerpunkt liegt auf der Auditierung von QM-Systemen, wobei Best Practices und innovative Ansätze vorgestellt werden.

Fachvorträge zu aktuellen Themen im Qualitätsmanagement

Darüber hinaus präsentiert die Veranstaltung verschiedene Q-Werkzeuge und Q-Methoden, die Unternehmen dabei unterstützen, ihre Prozesse kontinuierlich zu verbessern. Technische Problemlösungsmethoden bieten den Teilnehmenden praxisnahe Einblicke in bewährte Verfahren zur Fehleranalyse und -vermeidung. Ein Augenmerk liegt zudem auf der Reinheitstechnik, die in zahlreichen Industrien eine entscheidende Rolle spielt. Die Themen Agilität, Cybersecurity und Datensicherheit werden ebenfalls behandelt und geben wertvolle Impulse für den Umgang mit den Herausforderungen der digitalen Transformation.

Ein besonderes Highlight wird der Eröffnungsvortrag von Cem Karakaya sein, einem Experten für Internetkriminalität, Autor und Gründer von Blackstone432. Unter dem Titel „Digitale Welten erfordern digitale Kompetenzen“ wird er spannende Einblicke in die Herausforderungen und Chancen der digitalen Transformation geben.

Zum Abschluss des Tages dürfen sich die Teilnehmenden auf einen inspirierenden Vortrag von Dr. Gerd Paulus freuen. Unter dem Motto „Humorvolle Resilienz für Qualitätsprofis“ wird er auf unterhaltsame Weise darlegen, wie Humor dabei helfen kann, Herausforderungen im Qualitätsmanagement erfolgreich zu meistern.

Vortragsprogramm des 4. Süddeutschen Qualitätstags

  • Keynote: Digitale Welten erfordern digitale Kompetenzen
    Cem Karakaya, Experte für Internetkriminalität & Autor, Gründer von Blackstone432
  • KI und Bildverarbeitung: Potentiale für die Qualitätssicherung
    Prof. Dr.-Ing. Marco Huber, Wissenschaftlicher Direktor für Digitalisierung und KI, Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA
  • Basis-Werkzeuge des Qualitätsmanagements und Digitalisierung: Notwendige Tools effektiv und effizient angewendet
    Andreas Aichele, M.Sc., Stellvertretender Forschungsteamleiter Nachhaltige Produkt- und Prozessentwicklung, Fraunhofer-Institut für Produktionstechnik und Automatisierung, IPA
  • Mit (mehr) Sicherheit (besser) zusammenarbeiten
    Susanne Petersen, Fachlich in Führung gehen, Beratung.Begleitung.Coaching
  • KI-powered Managementsysteme – spielerische 50% Effizienzsteigerung
    Dr. Carsten Behrens, Gründer und CEO der Modell Aachen GmbH
  • Technische Problemlösungsmethoden in der Praxis
    Bernd Hoffmann, Engineering Manager – Product & Process Reliability, IMS Gear SE & Co. KGaA
  • Unternehmenskultur 2030: was will die neue Generation?
    Arbeitskreis DGQ-QM-Youngsters
  • Audits sinnvoll gestalten – weg von der Abweichungserteilung hin zur Unterstützung des Unternehmens
    Michael Burghartz-Widmann, BWP-Consulting & Mitglied im Vorstand der Deutschen Gesellschaft für Qualität
  • Komplexe Probleme effizient lösen
    Dipl.-Ing. Jens Refflinghaus, Gründer und CEO Processfuse Consulting
  • Agile Werte feiern (Workshop)
    Jörg Rittker, Head of Quality Management, Dr. Fritz Faulhaber GmbH & Co. KG
  • Generative künstliche Intelligenz in der Auditpraxis
    Judith Magono, DQS Deutsche Gesellschaft zur Zertifizierung von Managementsystemen
  • Reinheitstechnik im Qualitätsmanagement – Miniaturisierung nur mit sauberen Produkten möglich
    Dr.-Ing. Markus Rochowicz, Forschungsteamleiter Reinheitstechnik, Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA
  • Bereit für den Ernstfall – das neue ALB FILS KLINIKUM
    Dr. Ingo Hüttner, Vorsitzender der Geschäftsführung der Alb-Fils-Kliniken GmbH & Mitglied im Vorstand der Deutschen Gesellschaft für Qualität
  • Abschlussvortrag: Humorvolle Resilienz für Qualitätsprofis
    Dr. Gerd Paulus, Geschäftsführer DiQualis GmbH

 

Neben den informativen Vorträgen bleibt ausreichend Zeit für den fachlichen Austausch und das Networking mit Kolleginnen und Kollegen aus der Branche. Die Veranstaltung bietet eine hervorragende Gelegenheit, neue Kontakte zu knüpfen und sich mit anderen Fachkräften über aktuelle Entwicklungen und Herausforderungen auszutauschen.

Wir freuen uns, wenn Sie mit dabei sind!

 

Informationen zur Anmeldung

Wann: Freitag, 27. Juni 2025, von 10:00 Uhr bis 17:00 Uhr
Wo: Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA, Nobelstr. 12/13, 70569 Stuttgart
Kosten: 119,- € zzgl. MwSt. (89,- € zzgl. MwSt. für DGQ-Mitglieder)

Zur Anmeldung »

 

Als DGQ-Mitglied können Sie zum reduzierten Kostenbeitrag teilnehmen. Sie sind noch kein Mitglied? Dann nutzen Sie doch für die Anmeldung unsere beitragsfreie, dreimonatige Schnuppermitgliedschaft.

Haben Sie Fragen? Nehmen Sie gern Kontakt mit uns in der DGQ-Geschäftsstelle Stuttgart auf! Einfach per E-Mail an stuttgart@dgq.de oder telefonisch unter 0711- 95 611 61. Bei allen organisatorischen Fragen und Rückfragen zur Anmeldung hilft Ihnen auch unser Kooperationspartner des Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA (event@ipa.fraunhofer.de, 0711 970-3540) weiter.

Revisionen von ISO 9001 und Co. im Fokus: Ein Überblick über das DGQ-Normungsjahr 2024

ISO, Standard, Computer

Normung und Standardisierung geben Gesellschaft und Wirtschaft einen regulatorischen Rahmen. Über die Entsendung haupt- und ehrenamtlicher Vertreter:innen wirkt die DGQ in zahlreichen nationalen und internationalen Normungsgremien mit. Auch 2024 stand die Revision maßgeblicher Qualitätsmanagementnormen wie der ISO 9001 im Fokus der Normungsarbeit. In diesem Beitrag erhalten Interessierte einen Überblick über die wesentlichen DGQ-Normungsaktivitäten des vergangenen Jahres.

Die aktive Teilnahme an der nationalen und internationalen Normungsarbeit zählt zu den Aufgabenschwerpunkten der DGQ. Als Fachgesellschaft nimmt sie Einfluss auf die fachlich-inhaltliche Normenentwicklung sowie strategische Entscheidungen und die thematische Schwerpunktsetzung in der nationalen und internationalen Normung. Durch die internationale Mitwirkung von DGQ-Expert:innen sowohl in Qualitätsmanagement- als auch Umweltmanagementgremien und zusätzlich national in Beiräten sowie ausgewählten Managementsystemnormen zu anderen Themenfeldern erhält die DGQ die Möglichkeit, Synergien zwischen den einzelnen Normenrevisionen zu erkennen und zu nutzen. Ziel ist, gemeinsam auf eine harmonisierte Weiterentwicklung im Sinne der Anwender:innen hinzuwirken.

Managementsystemnormen im Fokus

Von besonderem Interesse für die DGQ und ihre Mitglieder sind die Managementsystemnormen. Daher widmet sich die DGQ-Normungsarbeit der Mitwirkung an Entscheidungen über Bestätigungen und Revisionen sowie deren aktiver Begleitung in diesem Bereich. Das vergangene Jahr war durch eine intensive Begleitung der Arbeiten an den Normen ISO 9000 und 9001 sowie den Auditnormen ISO 19011 und ISO 17012 geprägt.

Für diese Normungsaktivitäten konnte die DGQ durch Nutzung sämtlicher Mitwirkungsoptionen – unter anderem über sogenannte Liaison Memberships bei der EOQ – mehrere Expert:innen aus dem Umfeld von DGQ, EOQ und DIN aktivieren und nominieren. Mit ihren unterschiedlichen Hintergründen und Funktionen begleiten sie intensiv die Weiterentwicklung insbesondere der TC-176-9000er-Normen – durch Mitwirkung zum einen in den Arbeitsgruppen, zum anderen in Steuerungsgremien.

Revision von ISO 9001: Aktualisierung des Zeitplans

In zehn virtuellen sowie einem Vor-Ort-Meeting in Southfield US hat die zuständige ISO-Arbeitsgruppe des ISO TC 176 vergangenes Jahr die Revision der ISO 9001 vorangetrieben. Nach interner Erstellung eines ersten Working Drafts (WD) wurde dieser im April 2024 von der ISO als Committee Draft (CD) verabschiedet und zur Kommentierung freigegeben. Die Vielzahl der Kommentare erforderte im Anschluss eine entsprechend hohe Anzahl an Gremiensitzungen zur Kommentarbehandlung. Im Nachgang fiel daher die Entscheidung, dass die ISO 9001 einen zusätzlichen Commitee Draft (CD2) durchlaufen wird, da der letzte Stand des Dokuments noch nicht reif für einen Draft International Standard (DIS) war.

Die Folge: Die Fertigstellung der überarbeiteten ISO 9001 verschiebt sich voraussichtlich auf Herbst 2026. Der CD2 wurde im Januar 2025 erstellt und wiederum zur Kommentierung freigegeben.

Revision von ISO 9000

Für die Revision von ISO 9000:2015 hat das ISO TC 176 Ende 2023 eine neue Arbeitsgruppe eingerichtet und eine Designspezifikation verabschiedet. In mehreren Meetings erstellten die Mitglieder der zuständigen Arbeitsgruppe im Laufe des Jahres 2024 einen CD, kommentierten es und bearbeiten die Kommentare, sodass Anfang 2025 der DIS fertiggestellt werden konnte. Auch Inhalte und Positionen von DGQ-Vertretern konnten in dem Gremium eingebracht und diskutiert werden.

Wie bei der Revision der ISO 9001 gilt: Der Anwendungsbereich und die Inhalte der Norm bleiben grundsätzlich erhalten. Ein Schwerpunkt der Überarbeitung gilt einer Harmonisierung der Begriffe mit dem aktuellen Annex SL und der Abstimmung zur Terminologie mit anderen ISO Technical Committees.

Parallel zur 9000er Revision wurden 2024 in der Arbeitsgruppe TC 176 TG 4 Entwicklungen und Trends mit Relevanz für das Qualitätsmanagement analysiert und Schlussfolgerungen für die Erarbeitung von Leitfäden oder Normänderungen abgeleitet. Hier arbeiten ebenfalls DGQ-Vertreter mit, so unter anderem im Themenfeld Qualitätsmanagement und Künstliche Intelligenz sowie Ethik und Integrität. Zwischen den ISO-Gremien und der DGQ-Facharbeit werden regelmäßig Meinungen und Fachbeiträge ausgetauscht.

Revision der Audit-Norm ISO 19011 und Erstellung der ISO 17012

Das ISO Technical Management Board (TMB) hat im September 2023 die Entscheidung gefällt, ISO 19011 – Leitfaden zur Auditierung von Managementsystemen – zu revidieren. 2024 fanden mehrere Meetings statt, wobei der Schwerpunkt der Revision auf der Erweiterung um Remote-Audit-Methoden sowie der Harmonisierung mit anderen Managementsystemnormen lag.

Mit der ISO 17012 hatte die ISO parallel einen Leitfaden für die Durchführung von „Audits aus der Ferne“ herausgebracht. Diese Arbeiten fanden primär in einer Arbeitsgruppe von ISO CASCO statt und mündeten in der Veröffentlichung der Remote-Audit-Norm ISO 17012:2024 im August 2024. Im nächsten Schritt nimmt sich das Deutsche Institut für Normung (DIN) unter Beteiligung von DGQ-Experten der Übersetzung der neuen Norm an, die eine Ergänzung zur ISO 19011 darstellt. Entsprechende Verweise wurden in der ISO 19011 hergestellt.

An der Erstellung der ISO 17012 war auch der DGQ-Fachkreis „Audit und Assessment“ beteiligt: Eine Anfang 2023 publizierte Fachkreis-Veröffentlichung diente in englischer Sprache dem zuständigen ISO-CASCO-Ausschuss zur Orientierung. Das DGQ-Impulspapier mit dem Titel „Das Remote Audit als zukunftsweisende Methodik für risikobasierte Audits“ gibt interessierten DGQ-Mitgliedern einen fachlichen Überblick über die wichtigsten Rahmenbedingungen für eine erfolgreich durchgeführte Fern-Auditierung.

Neben der Fachkreis-Veröffentlichung war die DGQ auch über die Entsendung zweier Vertreter an der Erstellung der Norm beteiligt, die im entsprechenden DIN-Normungsausschuss sowie direkt in der ISO-Arbeitsgruppe WG 61 mitwirkten.

DIN-Übersetzung der Harmonized Structure als technische Regel veröffentlicht

Das DIN hat die 2021 veröffentlichte Revision der Harmonized Structure (HS) vergangenes Jahr als technische Regel veröffentlicht. Zwei Vertreter der DGQ waren an der Erarbeitung und Übersetzung der DIN/TR 36601Harmonisierte Struktur für Managementsystemnormen mit Anleitung zur Anwendung und Terminologie-Anleitung“ beteiligt. Die von der ISO überarbeitete HS, die den Kerntext für alle zukünftigen Managementsystemnormen beinhaltet, war 2023 vom DIN-Normungsausschuss Organisationsprozesse (NAOrg) in ein DIN-Dokument übersetzt worden. Die Übersetzung wurde innerhalb des DIN sowie mit den Verantwortlichen aus der österreichischen und der schweizerischen Normungsarbeit abgestimmt. Die neue technische Regel stellt für Managementsystemverantwortliche eine interessante Einordnung zum Verständnis und zum Hintergrund der Überlegungen und gemeinsamen Anforderungen in den Managementsystemnormen dar. Die DGQ war über einen Repräsentanten an der Übersetzung der HS beteiligt.

Eine Aktualisierung beziehungsweise Ergänzung der HS um Aspekte des Klimaschutzes hat das ISO Technical Management Board (TMB) ebenfalls 2023 beschlossen und vergangenes Jahr umgesetzt.

Nachhaltigkeitsmanagement: Erarbeitung der SDG-Norm ISO 53001

Seit 2023 setzt die ISO auch die Realisierung der Nachhaltigkeitsziele der Vereinten Nationen in einen Managementsystemstandard um: Ein dafür eingerichtetes ISO-Projektkomittee arbeitet derzeit an ISO 53001 – „Management Systems for UN Sustainable Development Goals – Requirements“. Ziel der ISO ist, ein global anwendbares Instrument zu schaffen, mithilfe dessen Organisationen ausgewählte UN-Ziele („Sustainable Development Goals“, SDGs) umsetzen können. Eine DGQ-Expertin aus dem DGQ-Fachkreis „Nachhaltigkeit“ begleitete auch 2024 die Erarbeitung über das entsprechende DIN-Gremium.

Umweltmanagement: Update zur ISO 14001

Neben der Überarbeitung der maßgeblichen Qualitätsmanagementnormen hat die ISO, ebenfalls im Jahr 2023, auch eine Revision von ISO 14001 in Form eines „Amendmends“ angestoßen. Das Hauptaugenmerk der Überarbeitung liegt unter anderem auf der Einarbeitung geänderter Inhalte aus der Harmonized Structure der ISO Directives. Die Publikation ist für Anfang 2026 geplant. Auch im vergangenen Jahr begleitete ein DGQ-Experte die Revision und war in die Entscheidungen des TC 207 (Umweltmanagement) involviert.

Normungsprojekt mit Bezug zu Konformitätsbewertung

Im Rahmen der Revision von ISO 17024 („Konformitätsbewertung – Allgemeine Anforderungen an Stellen, die Personen zertifizieren“) waren DGQ-/EOQ-Experten vergangenes Jahr in der Arbeitsgruppe ISO CASCO WG 30 aktiv tätig. Die Zielsetzung der Überarbeitung besteht darin, die bewährten Strukturen und Anforderungen an Personenzertifizierungsstellen beizubehalten und aktuelle Entwicklungen insbesondere hinsichtlich der Durchführung von Remote-Prüfungen und der Nutzung von künstlicher Intelligenz zu berücksichtigen. Im Verlauf des Jahres 2024 hat die zuständige ISO-Arbeitsgruppe in mehreren Meetings einen CD erstellt und die eingegangenen Kommentare bearbeitet, sodass Anfang 2025 der DIS vorgelegt werden konnte.

Weitere Normungsprojekte mit Managementsystembezug

Auch im Normenausschuss Organisationsprozesse (NAORG) beim DIN sind Expert:innen der DGQ vertreten. Sie stellen sicher, dass sämtliche in Entwicklung oder Bearbeitung befindlichen Managementsystemnormen und zugehörigen Aktivitäten der DGQ bekannt sind, und nehmen, sofern notwendig, entsprechend Einfluss.

Die Stati der entsprechenden Normen sind aktuell einsehbar auf der Seite des DIN-Normenausschuss Organisationsprozesse.

 

Als DGQ-Mitglied an der nationalen und internationalen Normung mitwirken

Zahlreiche DGQ-Normungsexpert:innen sind in den relevanten Normungsgremien bei DIN, DKE, VDI und ISO tätig. Dort wirken sie an der Erarbeitung von Normen und Richtlinien mit, erarbeiten Stellungnahmen zu Normungsvorhaben, betätigen sich bei Interpretationsanfragen für die Normenanwendung, nehmen an Gremiensitzungen teil und verfassen Beiträge für die interne und externe Kommunikation.

Bei Interesse an einer Beteiligung an der DGQ-Normungsarbeit wenden Sie sich gerne an thomas.votsmeier@dgq.de

Aktuelle Informationen rund um das Thema Normung sowie aktuelle Revisionen finden Sie darüber hinaus auf der DGQ-Themenseite Normung.

 

Über den Autor:
Dipl. Ing. Thomas Votsmeier leitet das Themengebiet Normung bei der DGQ. Er engagiert sich in verschiedenen Fachgremien bei der European Organisation for Quality (EOQ), der International Personnel Certification Association (IPC), dem Deutschen Institut für Normung und International Standard Organisation (ISO). Unter anderem ist er fachlicher Leiter des DIN NA 147 – 00 – 01 AA Qualitätsmanagement und Mitglied bei ISO TC 176, TC 207 und ISO CASCO.

10 Jahre Norddeutscher Qualitätstag: Jubiläumsausgabe am 4. Juni 2025 in Hamburg

Norddeutscher Qualitätstag 2025

Am 4. Juni 2025 feiert der Norddeutsche Qualitätstag sein zehnjähriges Jubiläum. Die hybride Veranstaltung bietet auch in diesem Jahr die Möglichkeit, sowohl vor Ort in Hamburg als auch online teilzunehmen. Das hochkarätige Programm kombiniert praxisnahe Einblicke mit strategischen Perspektiven auf aktuelle Herausforderungen und Entwicklungen im Qualitätsmanagement.

Wie bleibt Qualitätsmanagement in einer Welt im Wandel relevant? Der 10. Norddeutsche Qualitätstag gibt Antworten und zeigt, wie Unternehmen durch eine starke Fehlerkultur, nachhaltige Strategien und agile Managementsysteme zukunftsfähig bleiben. Hochkarätige Referent:innen sprechen über Mindful Leadership, nachhaltiges Qualitätsmanagement und integriertes Risiko- und Chancenmanagement – praxisnah, visionär und direkt umsetzbar. Von der Transformation der Unternehmenskultur über die Herausforderungen der VUKA-Welt bis hin zur Frage, was die neue Generation wirklich will: Die Jubiläumsausgabe der Fachkonferenz bietet Impulse, Praxisbeispiele und Austausch auf höchstem Niveau.

Hochkarätige Referenten und praktische Einblicke

Ein besonderes Highlight der Veranstaltung ist die Podiumsdiskussion mit dem Titel „Qualitätskultur neu denken: Was macht Unternehmen zukunftsfähig?“. Namhafte Experten wie Stefanie Hirsch, Chief Sustainability & Quality Officer bei Dräger, und Dr. Paul Kübler, Vorstandsmitglied der DGQ, werden diskutieren, wie sich Unternehmen auf die veränderten Herausforderungen im Qualitätsmanagement einstellen können, ohne ihre Exzellenz zu gefährden.

Neben den fachlichen Impulsen spielt der persönliche Austausch eine zentrale Rolle. Das After-Show-Networking bietet ausreichend Gelegenheit, mit Gleichgesinnten ins Gespräch zu kommen, Kontakte zu knüpfen und sich direkt mit den Referentinnen und Referenten auszutauschen.

Ob vor Ort oder online – die Teilnehmenden erwartet ein abwechslungsreiches und inspirierendes Programm.

Online und vor Ort

  • Trusting Teams – Wie Mindful Leadership zu konstruktiver Fehlerkultur beiträgt
    Prof. Dr. Nikola Plohr, Hochschule Fresenius Hamburg
  • Unternehmenskultur ist das bessere Managementsystem
    Dr. Benedikt Sommerhoff, Deutsche Gesellschaft für Qualität e.V.
  • Empower Sustainable Quality: Qualitätsmanagement nachhaltig gedacht
    Guido Nilgen, Director Quality Management, Miele & Cie. KG
  • Das beste Kundenerlebnis als Maßstab: Prozesse für höchste Standards bei TUI Cruises
    Uta Glasneck, Quality Management, Audits & Certification, TUI Cruises
  • Qualitätskultur neu denken: Was macht Unternehmen zukunftsfähig
    Podiumsdiskussion mit Stefanie Hirsch, Chief Sustainability & Quality Officer bei Dräger, DGQ-Vorstandsmitglied Dr. Paul Kübler und Leadershipexperte Prof. Dr. Stefan Thode. Moderation: Torsten Laub, Leiter der DGQ-Geschäftsstelle Hamburg

Ausschließlich vor Ort, nicht online

  • Managementsysteme vereinen: Herausforderungen und Lösungen
    Kristin Kellner, Gruppenleitung Qualitätsmanagement, NVL B.V. & Co. KG
  • Flipchart-Gestaltung mit Wow-Effekt – Ein Design-Boost in 45 Minuten
    Stefanie Hofmann, Deutsche Gesellschaft für Qualität e.V.
  • Mit Integriertem Risiko- und Chancenmanagement die VUKA-Welt wuppen
    Prof. Dr. Patricia A. Adam, Hochschule Hannover
  • Nachhaltigkeit meistern: Ihr Wegweiser durch Regulierung und Transformation
    Altan Dayankac, Global Program Manager EMS, OHS, EnMS & Sustainability der DQS Holding GmbH
  • Unternehmenskultur 2030: Was will die neue Generation?
    Projektvorstellung und Austauschformat mit QM-Youngsters der DGQ
  • After-Show-Networking
    Gemeinsamer Ausklang mit Getränken und Snacks

Ausschließlich online

  • Die eigene KI-Abteilung?! Was ist dafür nötig und wie ändert sich die Firmenkultur dadurch?
    Jan Ruhnke, Director of AI / CAIO, Artificial Intelligence Center Hamburg (ARIC) e.V.

Partner der Veranstaltung sind neben der Deutschen Gesellschaft für Qualität e.V. (DGQ) die ConSense GmbH, die Deutsche Gesellschaft zur Zertifizierung von Managementsystemen (DQS) sowie die Fachzeitschrift QZ Qualität und Zuverlässigkeit.

 

Informationen zur Anmeldung

Wann:
Mittwoch, 4. Juni 2025, von 10:00 Uhr bis 16:00 Uhr (im Anschluss gemeinsames Networking bis 19:00 Uhr)

Wo:
FOM Hochschulzentrum, Schäferkampsallee 16a, 20357 Hamburg oder online

Kosten:
Online-Teilnahme: 49,- € zzgl. MwSt. (29,- € zzgl. MwSt. für DGQ-Mitglieder)
Präsenz-Teilnahme: 99,- € zzgl. MwSt. (69,- € zzgl. MwSt. für DGQ-Mitglieder)

Zur Anmeldung »

Zum Programm (PDF-Download) »

 

Als DGQ-Mitglied können Sie – sowohl online als auch in Präsenz – zum reduzierten Kostenbeitrag teilnehmen. Sie sind noch kein Mitglied? Dann nutzen Sie doch für die Anmeldung unsere beitragsfreie, dreimonatige Schnuppermitgliedschaft.

Haben Sie Fragen? Nehmen Sie gern Kontakt mit uns in der DGQ-Geschäftsstelle Hamburg auf! Einfach per E-Mail an hamburg@dgq.de oder telefonisch unter 040 28533531-452. Bei allen organisatorischen Fragen und Rückfragen zur Anmeldung hilft Ihnen auch unser Veranstaltungspartner ConSense GmbH (events@consense-gmbh.de, 0241 990 93 93 0) weiter.

Einsatz der Messmittelfähigkeit zur Absicherung von künstlicher Intelligenz

Messmittelfähigkeit, KI, Datenanalyse

Künstliche Intelligenz hat sich in rasender Geschwindigkeit in vielen Bereichen der Wirtschaft durchgesetzt. Insbesondere große Sprachmodelle werden dabei in immer mehr Anwendungen integriert. Die Frage, die sich dabei stellt, ist: Wie können diese Systeme sinnvoll abgesichert werden? In diesem Fachbeitrag soll gezeigt werden, dass etablierte Fähigkeitsanalysen, wie MSA oder VDA Band 5 auf ein breites Spektrum von KI-Systemen anwendbar sind.

Ein Blick in die KI-Verordnung aus dem Jahr 2024 zeigt, dass für KI-Systeme im Hochrisikobereich (zum Beispiel bei Sicherheitsbauteilen oder in der Bildung) ein Nachweis über die Genauigkeit vorgeschrieben ist (siehe Art. 15 (2) KI-Verordnung). Dabei wird explizit die Zusammenarbeit mit „Metrologischen Behörden“ seitens der EU-Kommission herausgestellt. Momentan ist noch unklar, wie genau diese Zusammenarbeit aussehen wird. Es kann davon ausgegangen werden, dass sich Behörden, wie die Deutsche Akkreditierungsstelle für eine einheitliche Begriffsdefinition mit bestehenden Normenwerken stark machen werden. Von zentraler Bedeutung ist dabei eine einheitliche Definition von Messunsicherheit und die Eignung eines KI-Systems für eine gegebene Anwendung.

Momentan liegt ein großer Teil der medialen Aufmerksamkeit auf Transformermodellen. Dies führt dazu, dass Transformermodelle wie gpt-4, die die Basis für Anwendungen wie ChatGPT bilden, häufig mit KI gleichgesetzt werden. Tatsächlich haben viele Mitarbeiter der Qualitätssicherung aber bereits jahrelange Erfahrung mit KI-Systemen in ihrer Produktion. Ein gutes Beispiel hierfür sind automatische Kamerasysteme zur Bildklassifikation.

In vielen Firmen werden automatische Kamerasysteme als Prüfmittel eingesetzt. Kamerasysteme können sowohl messende Prüfungen vornehmen als auch attributiv eingesetzt werden. Für beide Fälle existieren gut beschriebene und etablierte Verfahren wie MSA oder der VDA Band 5 mit seinen entsprechenden Erweiterungen um die Fähigkeit solcher Systeme nachzuweisen (s. Measurement systems analysis, 4th edition 06.2010 und VDA Band 5, 3. Auflage, Juli 2021). Das bedeutet, dass für solche KI-Systeme bereits eine direkte Anwendbarkeit der Begriffe „Eignungsnachweis“ und „Messunsicherheit“ gegeben ist.

Etwas weniger offensichtlich ist die Situation bei großen Sprachmodellen, wie gpt-4. Hierbei können unterschiedliche Fälle beantwortet werden. Im ersten Fall wird das Sprachmodell eingesetzt, um einen Text durch einen Zahlenwert zu bewerten. Ein einfaches Beispiel ist die automatische Bewertung von Kundenfeedback, bei dem ein Freitext einer Sternebewertung zugeordnet wird. Um das Beispiel zu verdeutlichen wurde folgender Prompt 50 mal mit unterschiedlichen Modellgenerationen von OpenAI, der Herstellerfirma von ChatGPT, getestet:

„Ich möchte, dass du Trainingsfeedbacks auf einer Skala von 1 bis 10 bewertest. Wie würdest du folgendes Feedback bewerten: “Schönes Training, sympathischer Trainer, das Essen war für mich sehr salzig.” Bitte antworte nur mit einer Zahl.

Abbildung 1 zeigt den Werteverlauf der Ergebnisse für drei unterschiedliche Modellgenerationen. Es fällt auf, dass das neuere Modell gpt-4o-mini im Vergleich zu den Vorgängermodellen gpt-3.5 und gpt-4 nicht mehr streut zur Übersetzung des folgenden Feedbacks in eine Punktebewertung.

Werteverlauf der Wiederholmessungen mit verschiedenen gpt-Modellen

Abb. 1: Werteverlauf der Wiederholungsmessungen mit verschiedenen gpt-Modellen

Die Werteverläufe wurden mittels einer Messystemanalyse nach MSA und nach VDA Band 5 ausgewertet. Die Cg und Cgk-Werte wurden gemäß der VDA-Empfehlung ermittelt. Tabelle 1 zeigt die Übersicht der Ergebnisse. gpt-4o-mini hätte in diesem Fall die Fähigkeit nach VDA erreicht, scheitert allerdings an der aufgabenbedingten Auflösungsgrenze von 5 Prozent der Toleranz.

gpt x ̅ s Cg Cgk Qms
gpt-3.5 7,34 0,59 0,84 0,80 26,3%
gpt-4 7,54 0,50 0,99 0,74 23,1%
gpt-4o-mini 7,00 0,00 11,5%

Tab. 1: Ergebnisse der Fähigkeitsuntersuchungen für unterschiedliche Modellgenerationen

Ein Bereich, in dem die Bewertung von Text durch KI-Systeme eine hohe Relevanz hat, ist die Bildung. Ein gutes Beispiel hierfür ist die Firma Fobizz, die Software zur Unterstützung von Lehrkräften anbietet. Die Software von Fobizz wurde von den Bundesländern Mecklenburg-Vorpommern und Berlin lizensiert und steht dort allen Lehrkräften zur Verfügung. Pilotversuche in Bayern, Hessen und Baden-Würtemberg laufen. Ein Feature dieser Software ist die automatische Bewertung von Klassenarbeiten.

Rainer Mühlhoff und Marte Henningsen konnten in ihrem Vortrag auf dem Chaos Communications Congress 2024 zeigen, dass die Software bei mehrfacher Eingabe identischer Klausuren zu unterschiedlichen Bewertungsergebnissen kommt. Dies ist nicht überraschend, da es sich laut Auskunft der Firma um ein Webfrontend für ein großes Sprachmodell handelt. Eine Eigenschaft von Sprachmodellen ist, dass die Ausgabe üblicherweise innerhalb gewisser Grenzen zufällig variiert wird. Dies führt zu einer zufälligen Streuung in den Bewertungsergebnissen, die sich auch in Abbildung 1 gezeigt hat. Die Wissenschaftler konnten zeigen, dass die Benotung von einem Durchlauf zum nächsten um mehrere Notenschritte abweichen kann.

Ein interessanter Aspekt, der jedoch nicht untersucht wurde, ist die Frage, ob echte Lehrkräfte bei so einem Versuch besser abschneiden würden als das KI-System. Eine Auswertung nach Methode 2 mit zwei echten Lehrkräften und einem KI-System würde dies deutlich zeigen. So wäre es möglich zu entscheiden, ob das KI-System weniger streut als menschliche Lehrkräfte und ob es statistisch signifikante Abweichungen in Form von Bias zwischen dem KI-System und den Lehrern gibt. Tatsächlich fordert die KI-Verordnung genau solche Biasbewertungen als Teil der Absicherung für Hochrisiko-KI-Systeme.

Fobizz ist vorerst nicht zur Umsetzung statistischer Tests verpflichtet, weil die KI-Verordnung im Falle von Hochrisiko KI-Systemen nicht rückwirkend gilt. Voraussetzung ist dabei, dass das betroffene KI-System vor dem 02.08.2026 in Verkehr gebracht wurden und danach nicht wesentlich verändert wurden.

Die beiden obigen Beispiele zeigen, dass Prüfmittelfähigkeitsuntersuchungen für alle KI-Systeme anwendbar sind, die zur Kategorisierung oder Messung eingesetzt werden. Dies gilt selbst, wenn eine messende Bewertung eines Texts vorgenommen wird. Etwas anspruchsvoller ist der Fall der Bewertung eines reinen Chatbots. Da bei einem Chatbot sowohl Ein- als auch Ausgabe unstrukturierter Text ist, sind die statistischen Methoden der Qualitätssicherung hier nicht direkt einsetzbar. Dies ist Gegenstand aktueller Forschung. Das einfachste Vorgehen ist es Menschen einzusetzen, die bewerten, ob der Chatbot richtig reagiert hat und so den attributiven Eignungsnachweis zu führen. Als Mustereingaben können Chatverläufe genutzt werden, die in der Vergangenheit zu Auffälligkeiten geführt haben. Das Vorgehen ist dabei ähnlich wie bei Grenzmustern mit bekanntem Gut-/Schlechtentscheid in der Kameraprüfung.

Da bei diesem Vorgehen die Unsicherheit der menschlichen Einschätzung und die zufällig streuende Antwortqualität der Maschine mathematisch nicht unterscheidbar sind, kann der Eignungsnachweis hier deutlich schwieriger sein. In jedem Fall sollten statistische Methoden eingesetzt werden, um ausreichend hohe Stichprobenumfänge mit einer aussagekräftigen Anzahl an Wiederholungen festzulegen.

Zusammenfassung

Es wurde gezeigt, dass Methoden, wie die Prüfmittelfähigkeit sich in vielen Fällen direkt auf die Eignung von KI-Systemen anwenden lassen. Dies gilt auch für viele andere statistische Verfahren der Qualitätssicherung, wie zum Beispiel F- und t-Tests oder Kreuztabellenbetrachtungen. Durch den Einsatz anerkannter Bewertungsverfahren steigt das Vertrauen in das KI-System und die Genauigkeit der Systeme kann in transparenter Weise ausgewiesen werden.

Die Bedeutung von Eignungsnachweisen für KI-Systeme wird durch die Anforderungen der KI-Verordnung deutlich steigen. Es muss jedoch betont werden, dass viele Normen, die die praktische Umsetzung der KI-Verordnung beschreiben, aktuell noch in Erstellung sind. Bereits jetzt steht allerdings fest, dass die Qualitätssicherung einen wertvollen Beitrag dazu leisten kann, präzise KI-Systeme zu entwickeln und zu betreiben. Mitarbeiter der Qualitätssicherung können auf diese Weise ihre einzigartigen Fähigkeiten nutzen und neue Werte für ihr Unternehmen schaffen.

 

Lesen Sie mehr zum Thema “Künstliche Intelligenz in der Qualität” in den folgenden Fachbeiträgen:

  • Teil 1: Künstliche Intelligenz in der Qualität – Bestehendes Know-how effektiv nutzen – zum Beitrag »
  • Teil 2: Künstliche Intelligenz in der Qualität – Welche Qualifikationen werden benötigt? – zum Beitrag »
  • Teil 3: Künstliche Intelligenz in der Qualität – Praktische Einführung durch iteratives Vorgehen – zum Beitrag »

 

Über den Autor:
Dr.-Ing. Stefan Prorok ist Geschäftsführer der Prophet Analytics GmbH und DGQ-Trainer für Qualitätssicherung und Künstliche Intelligenz. Prophet Analytics unterstützt Unternehmen in allen Phasen Ihrer KI-Umsetzung mit Trainings- und Beratungsangeboten. Kontakt: ki@prophet-analytics.de

Nachhaltigkeit als strategischer Erfolgsfaktor – was gilt es als Unternehmensleitung zu beachten?

ESG, Nachhaltigkeitsstrategie

Die Integration von Nachhaltigkeit in strategische Überlegungen der Unternehmensleitung erfordert einen systematischen und langfristigen Ansatz, damit dies zu einem Erfolgsfaktor werden kann. Nachhaltigkeit sollte dabei als strategische Chance verstanden werden, die sowohl ökologische und soziale Verantwortung als auch wirtschaftlichen Erfolg verbindet. In diesem Beitrag werden vier Schritte erläutert, wie eine erfolgreiche Umsetzung gelingen kann und was die Unternehmensleitung dabei beachten sollte. Dazu wird zunächst erläutert, was der Begriff „Nachhaltigkeitsstrategie“ grundsätzlich bedeutet.

Was versteht man unter einer „Nachhaltigkeitsstrategie“?

Eine Nachhaltigkeitsstrategie ist ein zielgerichteter, langfristiger Plan, der ökologische, soziale und ökonomische Aspekte im Unternehmen gleichermaßen berücksichtigt. Sie ist ein integraler Bestandteil der Geschäftsstrategie und legt fest, wie ein Unternehmen seine Wertschöpfungskette, Prozesse und Produkte so gestaltet, dass negative Auswirkungen auf Umwelt und Gesellschaft minimiert und positive Beiträge maximiert werden.

John Elkington hat bereits 1997 erkannt, dass Unternehmen neben dem Ziel der Gewinnmaximierung (Bottom Line) auch ökologische und soziale Ziele in ihre Unternehmensstrategie integrieren sollten, damit Unternehmen zu einer nachhaltigen Entwicklung der Wirtschaft beitragen. Das Ziel ist die sogenannte Triple Bottom Line (PDF). Für die Integration der Nachhaltigkeitsstrategie in eine Geschäftsstrategie werden die in Abbildung 1 dargestellten Schritte empfohlen.

Die vier Schritte einer Nachhaltigkeitsstrategie

Abb. 1: Die vier Schritte einer Nachhaltigkeitsstrategie (© eco2050 Institut für Nachhaltigkeit)

Dabei baut die Entwicklung einer nachhaltigen Unternehmensstrategie auf den sogenannten ESG-Kriterien (Abb. 2) beziehungsweise den 17 Nachhaltigkeitszielen der Vereinten Nationen (Sustainable Development Goals, SDGs) (Abb. 3) auf. Die ESG-Kriterien beschreiben die drei unternehmerischen Verantwortungsbereiche „E“ (Environment oder Umwelt), „S“ (Social oder gesellschaftliche Aspekte) und „G“ (Governance oder nachhaltige Unternehmensführung).

ESG-Kriterien

Abb. 2: ESG-Kriterien (In Anlehnung an: Schindler, Nachhaltige Kapitalanlagen, Frankfurt am Main 2018, S. 20)

Derzeit werden die SDGs für Unternehmen diskutiert. Die ISO-Norm 53001Management Systems for UN Sustainable Development Goals – Requirements“ soll 2025 kommen und eine Anleitung zur Umsetzung einer nachhaltigen Unternehmensstrategie auf der Basis der 17 UN-Nachhaltigkeitsziele bieten, mithilfe dessen Unternehmen ausgewählte Ziele umsetzen können. Im Fokus stehen dabei solche Ziele, die relevant für den jeweiligen Kontext sind, und nicht grundsätzlich alle 17 Nachhaltigkeitsziele.

Die Nachhaltigkeitsziele der Vereinten Nationen

Abb. 3: Die Nachhaltigkeitsziele der Vereinten Nationen (DGVN, 2024)

Im Folgenden werden die vier Schritte Umfeld- /Bestandsanalyse, Unternehmensanalyse, Nachhaltigkeitstransformation und Berichterstattung erläutert. Insbesondere die letzten beiden Schritte wiederholen sich in einem kontinuierlichen Verbesserungsprozess nach dem PDCA-Zyklus (Plan-Do-Check-Act).

Erster Schritt: Die Umfeld- beziehungsweise Bestandsanalyse

Folgende Fragestellungen dienen als Einstieg in eine nachhaltige Unternehmensstrategie:

  • Was ist bereits an nachhaltigen Strukturen im Unternehmen vorhanden?
  • Gibt es bereits eingeführte Managementsysteme (zum Beispiel ISO 14001, ISO 9001, ISO 45001, ISO 50001), auf die aufgebaut werden könnte?

Für den Bereich „Umwelt“ können beispielsweise die ISO 14001 oder ISO 50001 als Basis dienen, da durch diese Normen bereits entsprechende Prozesse zur Einführung eines Managementsystems im Unternehmen als Bestandteil der strategischen Führung vorhanden sind.

Zur Analyse des Unternehmens sind verschiedene Methoden denkbar. Zu Beginn sollte gefragt werden:

  • Wo stehen wir?
  • Wie sehen unsere Lieferkette und unsere Wertschöpfung aus?
  • An welchen Stellen beziehungsweise in welchen Funktionsbereichen haben wir eine Wirkung (positiv und negativ) auf die ESGs beziehungsweise SDGs?

Es kann auch eine Wettbewerbs- beziehungsweise Kundenanalyse durchgeführt werden, um zu sehen, wie etwaige Konkurrenten das Thema Nachhaltigkeit im Unternehmen integrieren.

Zweiter Schritt: Die Unternehmensanalyse

Im zweiten Schritt werden alle Prozesse im Unternehmen analysiert und hinterfragt: Passt das Geschäftsmodell noch? Wie umwelt- beziehungsweise sozialverträglich sind unsere Produkte und Dienstleistungen?

Um die Sicht der Anspruchsgruppen auf das Unternehmen abzubilden, erfolgt in dieser Phase die sogenannte Stakeholderanalyse. Dazu werden zunächst alle möglichen Stakeholder identifiziert und nach Wichtigkeit für das Unternehmen priorisiert. Danach geht das Unternehmen in den Dialog mit den verschiedenen relevanten Stakeholdergruppen.

Ein Kernelement der Unternehmensanalyse ist die Wesentlichkeitsanalyse, die ein Instrument darstellt, um die wesentlichen Nachhaltigkeitsthemen sowohl aus Sicht des Unternehmens als auch der Stakeholder zu identifizieren. Es werden zunächst alle möglichen für das Unternehmen relevanten Themen gesammelt. Dann werden (weitere) Themen, die aus Sicht der Stakeholder erkennbar sind, hinzugefügt und hinsichtlich ihrer Chancen und Risiken für das Unternehmen eingeordnet.

Das Fokusthema „Klima“ ist für jedes Unternehmen als wesentlich zu erachten. Um alle klimarelevanten Emissionen zu erfassen, wird eine Klimabilanzierung durchgeführt, worin das Unternehmen alle wichtigen Treibhausgase (CO2, CH4, N2O, F-Gase) ermittelt und in direkte und indirekte Emissionen sowie in Emissionen der vor- und nachgelagerten Lieferkette einteilt.

Das Ergebnis aus der Wesentlichkeitsanalyse und aus der Klimabilanz ist eine wichtige Grundlage für die Nachhaltigkeitstransformation im dritten Schritt. Die Klimabilanz zeigt auf, wo die meisten Klimagase im Unternehmen anfallen. Hier können Strategien zur Reduktion ansetzen. Die Wesentlichkeitsanalyse ermittelt die für das Unternehmen wesentlichen Themen, auf die in den nächsten zwei bis fünf Jahren fokussiert wird.

Dritter Schritt: Die Nachhaltigkeitstransformation

Eine Nachhaltigkeitstransformation ist der Wandel eines Unternehmens hin zu langfristiger Nachhaltigkeit. Das Ziel ist ein Gleichgewicht zwischen ökologischen, ökonomischen und sozialen Bedürfnissen, um die Zukunftsfähigkeit eines Unternehmens zu sichern. Im Ergebnis wird ein nachhaltiges Geschäftsmodell angestrebt, wobei ein Geschäftsmodell verstanden wird, das entlang der gesamten Wertschöpfungskette für alle seine Anspruchsgruppen (Stakeholder) Werte schafft, und die Effizienz der natürlichen Ressourcen steigert sowie die Umwelt und die menschliche Gesundheit schützt.

Erst in der Nachhaltigkeitstransformation entstehen Innovationen und neue Geschäftsmodelle, die auch möglicherweise das Unternehmen auf neuen Märkten positionieren können. Basierend auf den in Schritt 2 ermittelten Fokusthemen werden „smarteNachhaltigkeitsziele formuliert (spezifisch, messbar, ambitioniert, relevant, terminiert). Hier werden ebenfalls konkrete Maßnahmen beschlossen, die kurz-, mittel- und langfristig umgesetzt werden sollen.

Insofern kann eine Integration von Nachhaltigkeit als Treiber für Innovationen in Produkten, Dienstleistungen und Prozessen wirken. Die Schulung und Sensibilisierung von Mitarbeitenden ist ein weiterer Hebel für nachhaltiges Denken und Handeln im Unternehmen. Dabei sollten die Führungskräfte als Vorbilder agieren und nachhaltige Entscheidungen priorisieren. Außerdem stärkt eine glaubwürdige und transparente Kommunikation das Vertrauen bei Investoren, Kunden und der Öffentlichkeit.

Vierter Schritt: Berichterstattung

Unternehmen, die laut CSRD berichtspflichtig sind, müssen den von der EFRAG (European Financial Reporting Advisory Group) entwickelten Europäischen Standard ESRS (European Sustainability Reporting Standard) für ihre Berichterstattung berücksichtigen. Hier gibt es Angaben, welche verpflichtend sind. Hinsichtlich der Themen, die sich an ESG orientieren, gilt, dass nur über die wesentlichen Themen berichtet werden muss.

Für nicht berichtspflichtige Unternehmen kommen „einfachere“ Standards und Zertifikate in Frage. Hier gibt es eine Reihe von unterschiedlichen Möglichkeiten (s. Abb. 4).

Überblick Standards und Zertifikate für die Nachhaltigkeitsberichterstattung

Abb. 4: Überblick Standards und Zertifikate für die Nachhaltigkeitsberichterstattung (© eco2050 Institut für Nachhaltigkeit)

Unabhängig davon, nach welchem Standard ein Nachhaltigkeitsbericht geschrieben wird, sorgt der Bericht für Transparenz über die Nachhaltigkeitsanstrengungen des Unternehmens.

Die hier vorgeschlagenen vier Schritte können eine einfache Anleitung darstellen, um das Thema Nachhaltigkeit in die Geschäftsstrategie zu integrieren. Ob am Ende immer ein Nachhaltigkeitsbericht das Ergebnis sein wird, ist den Unternehmen überlassen, wobei CSRD-pflichtige Unternehmen dies nicht umgehen können.

Die Vorteile für nachhaltig transformierte Unternehmen sind eine höhere Widerstandsfähigkeit, weil diese versuchen, Risiken zu reduzieren, beispielsweise durch Minimierung der Abhängigkeit von knappen Rohstoffen oder durch Einführung von Kreislaufwirtschaftsstrategien. Der Fokus bei diesen Unternehmen liegt auf langfristiger Wertschöpfung statt auf kurzfristige Gewinnmaximierung.

Fazit

Um Nachhaltigkeit strategisch zu verankern, sollte die Unternehmensleitung sie als integralen Bestandteil der Wertschöpfung und der langfristigen Planung betrachten. Ein systematischer Ansatz, klare Ziele und eine wertebasierte Unternehmenskultur sind entscheidend. Nachhaltigkeit bietet dabei nicht nur eine Antwort auf gesellschaftliche und ökologische Herausforderungen, sondern stärkt die Wettbewerbsfähigkeit und sichert die Zukunftsfähigkeit des Unternehmens.

Die vierstufige Vorgehensweise zur Integration von Nachhaltigkeit in die Geschäftsstrategie besteht aus Umfeld-/Bestandsanalyse, Unternehmensanalyse, Nachhaltigkeitstransformation und Berichterstattung. Während die ersten beiden Schritte die Ausgangslage klären und wesentliche Themen identifizieren, leitet Schritt 3 konkrete Maßnahmen für langfristige Nachhaltigkeit ab. Innovationen, smarte Ziele und die Schulung der Mitarbeitenden stehen im Fokus, um ökologische, ökonomische und soziale Werte zu schaffen. Schritt 4 sorgt für Transparenz durch Berichterstattung, besonders für CSRD-pflichtige Unternehmen. Unternehmensleitungen in nachhaltigen Unternehmen profitieren langfristig von höherer Widerstandsfähigkeit, Risikominimierung und zukunftsfähiger Wertschöpfung.

 

Über die Autorin:
Dr. Dina Barbian ist Geschäftsführerin des eco2050 Institut für Nachhaltigkeit, einer Ausgründung der Universität Erlangen-Nürnberg. Sie ist als Beraterin für Unternehmen zu Themen wie Nachhaltigkeitsmanagement, CSR und Klimabilanzierung tätig sowie Autorin von Büchern und Fachartikeln. Als Lehrbeauftragte hält sie Vorlesungen in den Disziplinen Informatik, Ingenieurwesen und Nachhaltigkeit. Die Wirtschaftsingenieurin und promovierte Nachhaltigkeitsökonomin ist DGQ-Trainerin und -Prüferin.

Neue Norm für Oberflächenrauheit seit 2022

CNC-Maschine, Fräsmaschine, Oberflächenrauheit

Die geometrische Beschreibung von Bauteilen ist wesentlich, um die Funktion von Baugruppen und Produkten sicherzustellen. Dabei werden die Nenngeometrie und Toleranzen, mit denen die zulässigen Abweichungen begrenzt werden, unterschieden.

Als Makrogeometrie werden die Maße sowie Form- und Lageabweichungen bezeichnet. Die Mikrogeometrie entspricht der Oberflächenbeschaffenheit von Bauteilen und wird üblicherweise nur als Rauheit (gemeint ist damit die 2D-Rauheit an einem Profil) bezeichnet, obwohl noch viele andere Eigenschaften die Oberfläche charakterisieren. Funktionales Verhalten, zum Beispiel Gleiten oder Dichten, ist stark von der Beschaffenheit der Oberfläche abhängig. In geometrischen Produktspezifikationen, zum Beispiel technischen Zeichnungen, wird üblicherweise die Rauheit eingetragen, um zulässige Abweichungen der Oberfläche zu begrenzen.

Oberflächensymbol steht auf jeder Zeichnung

Das Oberflächensymbol hat jeder schon auf einer technischen Zeichnung gesehen, der mit technischen Zeichnungen in Kontakt kommt. Neben dem Symbol bestehend aus einem Dreieck verlängert mit einem Querstrich, sind eine Kenngröße und ein Toleranzwert die üblichen Angaben, wobei schätzungsweise 80 Prozent der Eintragungen in der Industrie mit den Kenngrößen Ra und Rz erfolgen. Das bedeutet nicht zwingend, dass die Oberflächen damit vollständig und eindeutig beschrieben sind, da sich die Kenngrößen nur auf die Höhe des damit in Verbindung stehenden Rauheitsprofils beziehen und eine Mittelung der Höhenwerte erfolgt. Das wird sich auch mit der neuen Rauheitsnorm nicht ändern. Aber es gibt eine große Anzahl weiterer Kenngrößen, die in Betracht gezogen werden können, um die Eigenschaften der Oberflächen eindeutiger zu beschreiben.

Zusammenführung und Anpassung bestehender Normen

Die bisherigen Normen wurden bereits vor 20 oder mehr Jahren veröffentlicht und mussten an den aktuellen Stand der Normung im Bereich der Geometrischen Produktspezifikation angepasst werden. Dieser Überarbeitungsprozess wurde gleichzeitig genutzt, um die verschiedenen Normen, zum Beispiel DIN EN ISO 1302, DIN EN ISO 4287 und DIN EN ISO 4288, zu einer neuen Normenreihe DIN EN ISO 21920 zusammenzufassen.

Zur Abgrenzung der bisherigen zu den neuen Festlegungen wurde als offensichtlicher Unterschied das Symbol mit einer Linie über dem Dreieck ergänzt. Zusätzlich sind zum Beispiel eine Veränderung der standardmäßigen Akzeptanzregel von 16 Prozent auf Max-Regel, Neuerungen zur Bezeichnung der Filter und Längen am Profil, Berechnung von Kenngrößen und neue zusätzliche Kenngrößen integriert.

Was bedeutet das für die Industrie?

Die Neuerungen in der Normenreihe DIN EN ISO 21920 führen auf Grund der Änderungen teilweise zu anderen Ergebnissen für die Oberflächenbewertung, selbst wenn Ra und Rz spezifiziert sind. Für die Auswertung der Kenngröße Rz ist beispielsweise eine neue Berechnung der Spitzen und Täler in der Abschnittlänge (bisher als Einzelmessstrecke bezeichnet) zu berücksichtigen. Das kann dazu führen, dass es in einer Abschnittlänge keinen Rp– oder Rv-Wert gibt, aus dem sich der Rz-Wert zusammensetzt. Damit kann sich der aus üblicherweise fünf Rz-Werten gemittelte Wert gegenüber dem bisherigen Rz-Wert verändern.

Kritisch ist zudem der gleitende (undatierte) Verweis zwischen der alten und der neuen Norm. Die Verwendung des alten Oberflächensymbols (ohne zusätzliche Linie über dem Dreieck) ruft eigentlich die DIN EN ISO 1302 auf. Diese wurde aber mit der DIN EN ISO 21920-1 ersetzt. Ohne die Eintragung der DIN EN ISO 1302 in Verbindung mit dem Datum der Norm, zum Beispiel DIN EN ISO 1302:2002, wird automatisch auf die neue Norm verwiesen. Zur Vermeidung von Diskussionen zwischen Kunden und Lieferanten, aber auch internen Produktfreigaben, ist eine Auseinandersetzung mit den Neuerungen in den Normen unumgänglich.

Rauheitssymbol

Abb. 1: Altes Rauheitssymbol (links) und neues Rauheitssymbol (rechts)

 

Über die Autorin:
Prof. Dr.-Ing. habil. Sophie Gröger leitet seit 2015 die Professur Fertigungsmesstechnik an der Technischen Universität Chemnitz. Darüber hinaus arbeitet sie im DIN-Normenausschuss Technische Grundlagen (NATG), NA 152-03 Arbeitsausschuss CEN/ISO Geometrische Produktspezifikation und -prüfung mit und unterstützt Unternehmen bei der Einführung und Anwendung der ISO GPS-Normen.

Trauer um Wegbereiter und Gefährten für die Qualität in der Pflege

Ende November verstarb Prof. Dr. Klaus Wingenfeld. Unter seiner Leitung setzte das Institut für Pflegewissenschaft an der Universität Bielefeld (IPW) maßgebliche Impulse für die Pflege in Deutschland. Mit seiner Forschung und dem weit über die Uni hinausgehenden gesellschaftspolitischen Engagement hatte er großen Einfluss auf die Entwicklung der Pflege hierzulande und darüber hinaus. Hervorzuheben ist seine fachpolitische Hinterlassenschaft, die Qualität in der Pflege in den Mittelpunkt stellte.

Diese Position vertrat er auch 2019 beim DGQ „Brennpunkt Pflege“ in Berlin. Damals stellte er das von ihm entwickelte Indikatorenmodell vor, das seither das Maß der Dinge in der Qualitätssicherung in der Langzeitpflege in Deutschland ist. Er verfolgte mit Interesse die Initiativen der DGQ im Themenfeld, unter anderem als Kandidat für die Mitgliedschaft im DGQ-Fachausschuss Pflege.

Zuletzt sorgte die Meldung für Wirbel, dass das von Wingenfeld gegründete IPW den Sparmaßnahmen im Landeshaushalt Nordrhein-Westfalen zum Opfer fallen soll und vor dem Aus steht. Damit verlieren wir nicht nur einen geschätzten Kollegen und Streiter für die Sache, sondern auch einen Teil seiner Hinterlassenschaft, nämlich dem Beitrag der Wissenschaft zum Empowerment der Pflege in Deutschland.

Zur offiziellen Meldung der Universität Bielefeld geht es hier.

DGQ-Qualitätstag: DGQ-Fachkreis „Qualität in der Pflege“ mit Nachhaltigkeits-Workshop präsent

Auch für die Pflegefachleute im DGQ-Netzwerk bot der 8. DGQ-Qualitätstag am 7. November 2024 die Gelegenheit, sich unter dem diesjährigen Motto “Next Generation Q” im abwechslungsreichen Programm zu präsentieren. Der erst kurz zuvor im Oktober gegründete DGQ-Fachkreis ”Qualität in der Pflege” veranstaltete einen Workshop unter der Überschrift “Branchenübergreifende Impulse zu Umwelt, Sozialem und Führung für die neue Generation Q in der Pflege“.

Damit wurde der Leitgedanke des DGQ-Qualitätstags in Verbindung mit dem allgegenwärtigen Thema Nachhaltigkeit gesetzt. Strukturen, Prozesse und Strategien in Pflegeeinrichtungen müssen in Bezug auf ökologische, soziale und unternehmensführende Kriterien hin überprüft, angepasst und dokumentiert werden. Wettbewerb und gesetzliche Vorgaben verlangen den Einrichtungen in den kommenden Jahren zu ESG (environmental, social, governance) viel ab. Dies betrifft insbesondere das Qualitätsmanagement, auf das Steuerungsarbeit zukommt.

Agile Methoden, starkes Outcome

Der Pflege-Workshop fand im agilen „World-Café“-Format statt. Das ermöglichte den Teilnehmenden auch einen vielseitigen Austausch. In Kleingruppen rotierten sie an drei Tischen, die jeweils ein Nachhaltigkeitsthema repräsentierten.

Es gab eine besinnliche und fantasievolle Einführung in das ‚Café‘ in Form einer Gedankenreise. Die Teilnehmenden sollten sich eine Pflegeeinrichtung der Zukunft vorstellen, in der es in allen drei Nachhaltigkeitsbereichen idealtypisch zugeht. Damit sollte die Konzentration der Arbeitsgruppen auf positive Aspekte von Nachhaltigkeit in der Pflege gelenkt werden.

Das hatte tatsächlich Einfluss auf die Ergebnisse des sehr kurzweiligen Treffens. Es entstanden drei Metaplanwände voller Handlungsstränge. Diese können sowohl zum Einstieg in das Thema in Pflege-Einrichtungen als auch als Strukturierungshilfe der künftig dort obligatorischen Nachhaltigkeitsberichte genutzt werden.

Fortsetzung folgt

Die Resultate des Workshops werden im DGQ-Fachkreis „Qualität in der Pflege“ weiterbearbeitet. Das nächste Treffen findet bereits Anfang Januar 2025 im Online-Format statt. Dazu sind alle am Qualitätsmanagement im Sozial- und Gesundheitswesen interessierten DGQ-Mitglieder herzlich eingeladen.

Termin: 9.1.2025, 13:30 bis 16:30 Uhr, Online via Teams

Bei Interesse zur Teilnahme am Fachkreis-Treffen wenden Sie sich gerne per E-Mail an Holger Dudel unter holger.dudel@dgq.de.

Trends in der Akkreditierungs- und Zertifizierungslandschaft: „Der Gesetzgeber ist ein immer größerer Fan der Akkreditierung geworden“

Trends in Akkreditierung und Zertifizierung

In der Praxis der Akkreditierung von Konformitätsbewertungsstellen in Deutschland sind seit einigen Jahren erhebliche Änderungen zu konstatieren. Zu diesen sowie ihren Auswirkungen auf Unternehmen, die Qualitätsinfrastruktur und letztlich auch den Standort Deutschland hat Dipl.-Ing. Thomas Votsmeier, der die DGQ in diesen Gremien bzw. Organisationen langjährig vertritt und die Entwicklungen begleitet, den Rechtsanwalt und Akkreditierungsexperten Prof. Dr. Joachim Bloehs im Interview befragt.

Herr Prof. Dr. Bloehs, Sie sind seit vielen Jahren als Rechtsanwalt und Experte im Umfeld von Konformitätsbewertung, Akkreditierung und Zertifizierung aktiv und vertreten speziell auch die Interessen von Konformitätsbewertungsstellen in Bezug auf Akkreditierungsfragen. In der „Szene“ der Konformitätsbewertungsstellen haben sich in den letzten Jahren deutliche Veränderungen ergeben. Wie charakterisieren Sie die Entwicklungen in der Akkreditierungs- und Zertifizierungslandschaft in den letzten Jahren?

Prof. Dr. Joachim Bloehs: Auch wenn ich seit dem Jahr 2010 mit dem Akkreditierungsrecht befasst bin, stelle ich erst seit 2019 fest, dass sich die Zertifizierungslandschaft in Deutschland stark verändert hat. Und das, obwohl die EU-weit harmonisierte Rechtslage seitdem nicht geändert wurde; das NLF – New Legislative Framework – mit der für uns hier zentralen sogenannten Akkreditierungsverordnung VO (EG) 765/2008 gilt insoweit nämlich seit 2010 unverändert. Ein valider Überblick über die EU-weite Entwicklung in den einzelnen Mitgliedsstaaten fehlt mir zwar.

Doch in Deutschland haben sich die Anforderungen der deutschen nationalen Akkreditierungsstelle in der Praxis sehr verändert: Normen werden nun sehr formalistisch und kleinteilig ausgelegt. Vieles, das seit Jahren und teils seit Jahrzehnten EU-weit gelebte Praxis war, gilt augenscheinlich heute in Deutschland nicht mehr. Das führt dazu, dass mir immer häufiger Mandanten mitteilen, diese „neuen“ Anforderungen führten dazu, dass sie erhebliche Wettbewerbsnachteile haben. Dies gilt gegenüber ihren Marktbegleitern aus dem Drittausland ebenso wie gegenüber denen aus den anderen EU- und EFTA-Staaten. In vielen Bereichen würde man bereits keine Angebote mehr unterbreiten, weil man zum Beispiel wegen der in der Praxis unterschiedlichen Auslegung der verschiedenen Akkreditierungsstellen bei der normativ geforderten Auditzeitkalkulation nicht mehr zum Zuge komme.

Ein weiteres Beispiel sind die Anforderungen an das Auditorenkompetenz-Management und an die Auditoren selbst, die oftmals zur Aberkennung von Scopes bei langjährig bewährten Auditoren führen. Dies wird häufig als überbordend empfunden.

Doch wenn man fair ist, muss man wohl das „Pendelprinzip“ in diesem Zusammenhang erkennen: Es war in der Praxis tatsächlich immer wieder in Einzelfällen kaum nachvollziehbar, wie ein Auditor für den konkreten Fall als qualifiziert und erfahren – also kompetent – eingestuft werden konnte. Dass die zuständige Akkreditierungsstelle hier kritisch hinsieht, liegt in ihrer Aufgabe. Doch das Pendel ist auch meiner Meinung nach nun zu weit in die andere Richtung ausgeschlagen und trifft alle Arten von Konformitätsbewertungsstellen. Dies führt dann zu nationalen Anforderungen, die in dieser Form nicht einheitlich und damit nicht wettbewerbsneutral in den verschiedenen Mitgliedsstaaten angewendet werden. Wegen der Dienstleistungsfreiheit, aber auch weil mehr und mehr in Deutschland gegründete und dort tätige Zertifizierungsstellen mit ausländischen Wurzeln unter einer ausländischen Akkreditierung arbeiten, halte ich das für eine Gefahr für die gesamte Branche in Deutschland.

Dies dürfte auch einer der wesentlichen Gründe für die Kleine Anfrage der CDU/CSU-Fraktion vom 30. September 2024 an die Bundesregierung zum deutschen Akkreditierungswesen und der Arbeit der DAkkS gewesen sein. Hitverdächtig war meiner Auffassung nach aber nur die Geschwindigkeit in der Beantwortung der Anfrage innerhalb von weniger als zwei Wochen, leider nicht deren Substanz.

Die anstehende Überarbeitung des NLF wirft nun ihre Schatten voraus. Wie zu hören ist, soll die Akkreditierung als zentrales Element der Europäischen Qualitätsinfrastruktur weiter gestärkt werden. Dies wohl nicht zuletzt auch vor dem Hintergrund der durch die europäischen Institutionen im vergangenen Jahr als erfolgreich wahrgenommenen Evaluation der Akkreditierungsverordnung. Aber auch hier gilt meiner Meinung nach, dass politisch weichgespülte Erfolgsstories geschrieben werden und keine Bereitschaft zu bestehen scheint, sich wirklich kritisch mit den Folgen unterschiedlicher Akkreditierungspraxis, -performance und fehlender Harmonisierung in der Normauslegung zu befassen: Während beispielsweise eine Konformitätsbewertungsstelle bei einer anderen europäischen nationalen Akkreditierungsstelle eine Erweiterung ihrer Akkreditierung innerhalb von drei Monaten erreicht, benötigt das deutsche Pendant allein für die Eingangsbestätigung des Antrags mitunter ebenfalls drei Monate.

Welche Änderungen in der konformitätsbewertungsrelevanten Regelungslandschaft – von EU-Verordnungen und -Richtlinien über Gesetze und Verordnungen in Deutschland bis hin zu ISO Normen – waren Ihres Erachtens maßgebend im Hinblick auf die Erfüllung von erweiterten Compliance-Anforderungen?

Prof. Dr. Joachim Bloehs: Hierfür müssen wir zunächst einmal die Frage beantworten, was wir eigentlich unter „Compliance-Anforderungen“ verstehen. Compliance ist die allgemeine Aussage der Befolgung oder Erfüllung von Anforderungen. Das heißt also, dass dieser im deutschen Sprachgebrauch erst seit rund zehn bis 15 Jahren gebräuchliche Begriff „alter Wein in neuen Schläuchen“ ist. „Compliance“ ist in den technischen Bereichen schon immer der Beurteilungsgegenstand der Konformitätsbewertung, der Zertifizierung, Inspektion und Laborprüfung gewesen. Aber auch im wirtschaftlichen Bereich – zum Beispiel der Jahresabschlussprüfung durch Wirtschaftsprüfer – geht es um Compliance, die Erfüllung von Anforderungen. Dies geht aber mittlerweile so weit, dass auch die Finanzverwaltung im Rahmen der Beurteilung steuer(ordnungs)rechtlicher Fragestellungen zunehmend auf das Vorliegen oder Nichtvorliegen eines TCMS Tax Compliance and Management Systems abstellt.

Meiner Wahrnehmung nach ist „DER“ Gesetzgeber ein immer größerer Fan der Akkreditierung geworden. Die zunehmende Neigung des Staates, sich aus der Qualitätssicherung und -überwachung zurückzuziehen – vordergründig um die Eigenverantwortung der Wirtschaft zu stärken, vermutlich aber vor allem auch deshalb, um den Aufwand und die Kosten in der öffentlichen Verwaltung einzusparen – führt dazu, dass er eine staatliche Überwachungsebene benötigt. Das ist in der EU außerhalb der Marktüberwachung die Akkreditierung durch nationale Akkreditierungsstellen. Diese Entwicklung ist nicht schlimm, sondern gerade das wirtschaftliche Betätigungsfeld der Konformitätsbewertungsstellen.

Was aber zu vermissen ist, ist eine effektive Harmonisierung und wettbewerbsneutrale Überwachung, die auf europäischer Ebene funktioniert. Die hierfür vorgesehene European Accreditation (EA) leistet dies in der heutigen Form meiner Auffassung nach nur unzureichend; der EU-Gesetzgeber müsste sich diesem Thema bei der Überarbeitung des NLF dezidiert annehmen, um die heute wahrgenommenen Ungleichheiten innerhalb des Binnenmarktes und in der Praxis der nationalen Akkreditierungsstellen tatsächlich und nicht nur auf dem Papier abzubauen.

Dies ist umso wichtiger, weil der EU-Gesetzgeber immer mehr Verordnungen und Richtlinien erlässt, die eine akkreditierte Zertifizierung der handelnden Akteure verlangen. Der deutsche Bundesgesetzgeber ist ebenfalls ein Fan der Akkreditierung und verlangt nicht nur immer häufiger in Gesetzen eine Kompetenzbestätigung durch akkreditierte Zertifizierungsstellen. Sondern er bzw. die jeweiligen Bundesministerien betätigen sich mittlerweile auch als Schöpfer und Inhaber von Konformitätsbewertungsprogrammen, wie wir es beim staatlichen Textilsiegel „Grüner Knopf“ oder auch bei der „Verordnung zum Schutz vor schädlichen Wirkungen nichtionisierender Strahlung bei der Anwendung am Menschen“ (NiSV) sehen. Selbst die Landesgesetzgeber reihen sich in den Reigen ein: Landes-Glücksspielgesetze verlangen für Betreiber von Glücksspielstätten die Zertifizierung durch akkreditierte Zertifizierungsstellen (zum Beispiel § 16a AG GlüStV NRW).

Grundlage dieser Zertifizierungen sind meist die EN-ISO-Normen, vor allem der 17000er Reihe, die ihrerseits die Anforderungen für die Akkreditierung der Konformitätsbewertungsstellen formulieren und im Konsensprinzip entstehen. Wer die Entstehungssystematik dieser ISO-Normen kennt, weiß, dass hier Fachleute aus dem jeweiligen Themenbereich in vielen Sitzungen und Kommentierungsrunden nach einem internationalen Kompromiss suchen. In aller Regel sind es nicht (Formal-)Juristen, was von den Akkreditierungsstellen in ihrer Praxis meines Erachtens allzu häufig außer Acht gelassen wird.

Die konformitätsbewertungsrelevante Regelungslandschaft ist also immer weiter gefasst worden. Dabei werden die Anforderungen der Materie immer komplexer, wenn wir uns nur die Informationssicherheit und die AI-Verordnung vorstellen. Deshalb ist es eine besondere Belastung, wenn der Eindruck besteht, dass diese Chancen und Herausforderungen in Deutschland in eine Zeit der veränderten nationalen Normanwendung fällt, die durch eine Loslösung von der Frage nach dem technischen/fachlichen Sinn und Zweck der Normen und einer Hinwendung zur formal-juristischen Deklination der normativen Anforderungen geprägt ist.

Welche Auswirkungen haben diese zusätzlichen Regelungen auf Konformitätsbewertungsstellen und auf zertifizierte Unternehmen?

Prof. Dr. Joachim Bloehs: Die zunehmende Verrechtlichung in der Begutachtungspraxis verlangt den Konformitätsbewertungsstellen immer mehr an Dokumentationen und theoretischen Abhandlungen ab, die häufig genug aus Sicht einer realistischen Risikobetrachtung überzogen wirken. Das ist aber nicht allein auf diese Ebene begrenzt, sondern „schwappt“ auf die Kundenbeziehung über. So lässt sich dem Kunden einer kleinen Zertifizierungsstelle eigentlich nicht vermitteln, weshalb er innerhalb von drei Jahren nun schon zum zweiten Mal bei seinem Audit ein Witness Audit der Akkreditierungsstelle akzeptieren soll. Die zertifizierten Unternehmen hinterfragen meiner Wahrnehmung nach immer häufiger, ob das „Lamento“ ihres Zertifizierers – „das ist eine neue Anforderung unseres Akkreditierers“ – auch wirklich stimmt und haben immer weniger Verständnis dafür. Letztlich stimmen die Kunden dann ganz schnell mit den Füßen ab. Das zeigte auch die Diskussion um die EN ISO 13485 (Qualitätsmanagement für Medizinprodukte). Und die Zertifizierer mit der „falschen“ Akkreditierung haben das Nachsehen.

Andere zertifizierte Unternehmen teilen ihren Zertifizierern schon einmal mit, dass sie auch genug von den angeblich oder tatsächlich neuen Anforderungen hätten, zumal der Zertifizierer aus dem Nachbar-EU-Land sogar 30 Prozent billiger sei. Wozu das dann führt? Einige meiner Mandanten haben sich aus der Akkreditierung bewusst verabschieden müssen und zertifizieren dort weiter, wo keine Akkreditierung gefordert ist. Dass das nicht im Sinne einer wohlverstandenen europäischen Qualitätsinfrastruktur ist, liegt auf der Hand. Doch wer das Gefühl hat – und dies kann ich in mehreren Fällen auch sehr gut nachvollziehen – durch die Akkreditierungskosten „totgeprüft zu werden“, der verlässt dieses System dann notgedrungen.

Inwieweit führen diese Regelungen zu verbesserter Compliance, Rechtssicherheit und Performance der beteiligten Organisationen?

Prof. Dr. Joachim Bloehs: Es ist eine Gratwanderung zwischen Überregulierung und zu viel Spielraum. Je mehr reguliert wird, desto mehr Rechtssicherheit gibt es. Doch dann bleibt die Einzelfallgerechtigkeit womöglich auf der Strecke. Ein Ermessen in der Beurteilung und Bewertung ist aber stets erforderlich. Das weiß jeder, der selbst mit Konformitätsbewertung zu tun hat. Und auch Akkreditierung ist nichts anderes als die Konformitätswertung auf anderer Ebene. Daher müssen Gesetze, Regeln und Normen flexibel genug bleiben, um im Einzelfall angemessen angewendet werden zu können. Von diesem Gedanken sind auch die EN-ISO-Normen geprägt. Das reduziert die Rechtssicherheit und verlangt eine besondere Kompetenz des Auditors/Begutachters, der mit eigener Sachkunde verhältnismäßige Anforderungen stellen muss. Dafür braucht er genügend Spielraum. Es steht und fällt also auch hier alles mit der fachlichen und sozialen Kompetenz der an der Konformitätsbewertung beteiligten Menschen.

In letzter Zeit lässt sich feststellen, dass die geänderte Anwendung von Interpretationsspielräumen seitens der Deutschen Akkreditierungsstelle in Akkreditierungsverfahren zu erhöhten Aufwendungen und Widerständen führt. Wo liegen hier die größten Herausforderungen und welche Änderungen wären notwendig, um die Performance des Systems Akkreditierung – Zertifizierung zu erhöhen?

Prof. Dr. Joachim Bloehs: Die deutsche Akkreditierungsstelle hat auf der Akkreditierungskonferenz 2023 ihr neues Regelwerk vorgestellt und dabei betont, dass die neuen Regeln einen Abbau der detaillierten Vorgaben zugunsten der Stärkung des Ermessens der Begutachter mit sich bringen soll. Die seither veröffentlichten Regeln und Merkblätter fühlen sich aber teilweise anders an. Enge Vorgaben, formalisierte Verfahren sind hier prägend. Zugleich ist von Begutachtern zu hören, sie hätten keinen Spielraum. Es werden teilweise vorformulierte Abweichungstexte verwendet.
Meiner Meinung nach müsste wieder vermehrt die Facharbeit und risikobewusste Begutachtung in den Fokus rücken. Die Entwicklung zu einer immer weiter gehenden „Dokumentiererei“ und „Häkchenmacherei“, die ich im Bereich der Wirtschaftsprüfung schon vor über 30 Jahren erlebt habe und nun bei der Zertifizierung sehe, sollte auf ein sinnvolles Maß zurückgeführt werden. Der Satz „substance over form“ kann hier als Leitbild dienen.

Die teilweise Verdreifachung der Kosten der Begutachtung ohne nachvollziehbaren Grund ist wirtschaftlich eine enorme Belastung. Es müsste also innerhalb der Prozesse der DAkkS nach Effizienzsteigerungen gesucht werden, ohne die Effektivität zu beeinträchtigen. Ist beispielsweise die Vorgabe, bei einer Wiederholungsbegutachtung auf Seiten der Begutachter das Vier-Augen-Prinzip zu verlangen, bei einer kleinen Konformitätsbewertungsstelle wirklich erforderlich und angemessen? Müssen wirklich bei einer sehr kleinen Zertifizierungsstelle bis zu acht Verfahrensmanager und sieben Teamassistenten eingesetzt werden, was naturgemäß zu Effizienzverlusten führen muss?

Meiner Wahrnehmung nach hat sich das Verhältnis zwischen Akkreditierungsstelle und Konformitätsbewertungsstelle gewandelt: Galt früher das Verifikationsprinzip, wurde also die Bestätigung der Kompetenz und der Ergebnisse vor einem Vertrauenshintergrund angestrebt, so hat man heute den Eindruck, der Akkreditierer handele stets nach dem Falsifikationsprinzip, denn der Konformitätsbewertungsstelle sei jederzeit “Böses zuzutrauen”. Ging man früher also von der Rechtschaffenheit der Konformitätsbewertungsstelle aus, so wird heute augenscheinlich das Gegenteil befürchtet; manch einer sagt „unterstellt“.

Welche Empfehlungen haben Sie in Richtung Politik, Verwaltung und Normung, um zukünftig effizienter und effektiver Konformitätsbewertungsverfahren zum Nutzen von Gesellschaft, Wirtschaft und Verbraucher:innen durchführen zu können?

Prof. Dr. Joachim Bloehs: Im Ausgangspunkt sind wir uns sicher alle einig: Konformitätsbewertung ist eine notwendige und unverzichtbare Anforderung. Der Staat kann all diese Aufgaben nicht allein erfüllen und muss sich vor dem Hintergrund der Bedeutung und der abstrakten Gefährdungslage der Konformitätsbewertungsgegenstände entscheiden, in welchem Umfang eine Privatisierung möglich ist.

Der deutsche Gesetzgeber hat sich für den Weg der Beleihung einer Gesellschaft mit beschränkter Haftung entschieden. Ich würde mir wünschen, dass die Rechtsaufsicht und die Fachaufsicht durch die zuständigen Ministerien intensiver gelebt wird als es in den letzten Jahren den Eindruck erweckt hat. Dabei sollte ein Mechanismus geschaffen werden, der es den Konformitätsbewertungsstellen ermöglicht, ihre Bedenken und Bedürfnisse, abweichende Auffassungen zu Regelauslegungen etc. auch anonymisiert artikulieren zu können. Denn ich erlebe häufig, dass sich selbst TIC-Konzerne nicht zu wehren trauen, weil sie Angst vor der Aussetzung der Akkreditierung haben oder vor einer Retourkutsche bei der nächsten Begutachtung.

Im Alltäglichen muss es gelingen, die Bearbeitungszeiten von der Antragstellung bis zur Akkreditierung zu reduzieren und die Kosten für die Akkreditierung wieder auf ein verträgliches Maß zurückzuführen. Dabei kann es sicher nicht schaden, den Blick über den Tellerrand hinaus auf die anderen nationalen Akkreditierungsstellen zu werfen, die dem Vernehmen nach schneller und günstiger akkreditieren können.

Herr Prof. Dr. Bloehs, vielen Dank für das Gespräch und Ihre detaillierten Ausführungen!

Status quo Pflege in Deutschland: Zahlen, Daten, Fakten

Pflege in Zahlen, Pflegeheim

Die Spitze des Eisberges zeigt sich bereits in vielen Medienbeiträgen. Danach entsteht der Eindruck, dass Pflege dauernd am Abgrund jongliert: Fachkräftemangel, unübersehbarer Pflegebedarfsanstieg, Kostenexplosion und gleichzeitig Insolvenzen von Kliniken und Pflegeeinrichtungen.

Und in der Tat: Die Versorgung ist gefährdet – und das mit Ansage. Denn zahllos sind seit langem die Berichte über vergebliche Pflegeplatz-Gesuche, Verringerung von Leistungen wegen der enormen Kostensteigerungen und die sogenannte „Rennpflege“, die nicht viel mit menschenwürdiger Pflege zu tun hat. Die Gefahr eines pflegerischen Kollaps‘ und in der Folge eines Zusammenbruchs des Gesundheits-Versorgungssystems wird immer konkreter. Entsprechende Mahnungen an die Politik sowie Vorschläge für eine Besserung gibt es zuhauf.

Vieles bei diesem Thema läuft bei der Frage der Finanzierung zusammen. Die Pflege ist Bestandteil des Sozialsystems und Pflegekosten betreffen die Allgemeinheit. Die Beitragssätze für die soziale Pflegeversicherung steigen. Das Bismarcksche System der Finanzierung über den Lohn gerät wegen der Umkehrung der Bevölkerungspyramide ins Wanken. Und wie sieht es mit der Qualität der Pflege aus, reißt die Ressourcenlücke sie mit in eine düstere Zukunft?

Änderung von Zahl und Beschaffenheit

In dieser Gemengelage kann es hilfreich sein, Fakten zu benennen. Zur Einordnung der Dimension, die Pflege für die Gesellschaft hat, helfen wichtige Parameter. Dazu gehört vor allem, wie viele Menschen Pflegeleistungen erhalten.

Die Sozialgesetze erlauben nur statistisch verlässliche Daten für die Langzeitpflege, weil dort direkt Pflegekosten anfallen. Demnach liegt die Zahl der nach dem Gesetz Pflegebedürftigen um 150 Prozent höher, als vor 25 Jahren, das sind mittlerweile über 5,6 Millionen Menschen (BMG, 2024). Die Zahl der Menschen, die in der Pflege arbeiten, ist in demselben Zeitraum aber nur um 100 Prozent gestiegen. Mit 1,75 Millionen Beschäftigten stellt die Pflege die größte Berufsgruppe im Gesundheitssektor.

Die Zahl der pflegebedürftigen Menschen mit Mehrfacherkrankungen und mit Demenz nimmt massiv zu. Damit ändert sich die Beschaffenheit des Pflegebedarfs. So gab es zum Beispiel einen Anstieg der Behandlungen von Alzheimer-Erkrankungen zwischen 2000 und 2020 um 138 Prozent (Destatis, 2022). Die pflegerische Betreuung dieser Menschen ist sehr aufwändig und erfordert vielfach besonderes Know-how. Das muss bei dem quantitativen Anstieg der Pflegebedürftigen stets berücksichtigt werden. Jede:r Pflegebedürftige mehr, potenziert in der alternden Gesellschaft den pflegerischen Aufwand.

Pflege in Zahlen - Aktuelle sektorenübergreifende Daten 2024

Abb. 1: Pflege in Zahlen – Aktuelle sektorenübergreifende Daten 2024 (© Deutsche Gesellschaft für Qualität)

Pflege an unterschiedlichen Orten

Die Zunahme der Fallzahlen in Krankenhäusern fällt nicht so dramatisch aus wie in der Langzeitpflege. 2022 waren es 16,8 Millionen Fälle (Destatis, 2023a). Die Straffung der Verweildauern auf Grund fortschrittlicherer Behandlungsmethoden führt sogar zu einer Verringerung der Kliniken auf derzeit knapp unter 2.000. Dieser Trend wird sich mit den geplanten Reformen des Gesundheitswesens fortsetzen.

Im Gegensatz dazu nimmt die Zahl der Langzeitpflegeeinrichtungen, insbesondere der ambulanten Pflegedienste, stetig zu. Momentan gibt es 11.680 Pflegeheime und 17.600 ambulante Dienste (pflegemarkt, 2024), insgesamt also gut 29.000 Einrichtungen der Langzeitpflege.

Pflegeleistungen werden auch an anderen Orten erbracht, unter anderem vor allem in bundesweit 1.090 Vorsorge- und Reha-Einrichtungen (Destatis, 2023b), aber auch in Tages- und Nachtpflegen, in pflegerisch betreuten Wohnsettings, bei niedergelassenen Ärzten und in Medizinischen Versorgungszentren sowie in 260 stationären und über 1.500 ambulanten Hospizen (DHPV, 2024). Hier täuscht die absolut hohe Zahl darüber hinweg, dass Deutschland im europäischen Vergleich nur im unteren Mittelfeld liegt (ckbm, 2024). Hierzulande wird nicht die in der Literatur lange als Standard angesehene Hospizdichte von 50 stationären Plätzen – das entspricht 5 bis 8 Hospizen – je eine Millionen Einwohner:innen erreicht.

84 Prozent der pflegebedürftigen Menschen werden zuhause versorgt. Das ist bei Weitem der größte Versorgungsort mit 4,7 Millionen Personen (Destatis, 2024). Davon wird wiederum der Großteil, über 3 Millionen Menschen, nur durch Angehörige pflegerisch betreut. Knapp unter einer Millionen Menschen erhalten Pflegeleistungen in stationären Einrichtungen, davon die Mehrheit (0,8 Millionen) in Pflegeheimen.

Wer will pflegen?

Mit den wachsenden Anforderungen an die pflegerische Versorgung ist gut ausgebildeter Nachwuchs wichtig. Es gibt in Deutschland eine leichte Zunahme der Pflegeschulen, zurzeit 1.200, die jedes Jahr circa 50.000 Ausbildungsverträge schließen, insgesamt also gut 150.000 Schüler:innen in der dreijährigen Pflegeausbildung. Damit ist Pflege der größte Ausbildungsberuf in Deutschland. Hinzu kommen mittlerweile über 80 Fachhochschulen und Universitäten, die Pflegestudiengänge anbieten. Allerdings liegt der Anteil der akademisch ausgebildeten Pflegekräfte nur bei 2,5 Prozent. Noch geringer fällt diese Quote in der Versorgungspraxis aus, wo weniger als ein Prozent der hochschulisch qualifizierten Pflegekräfte tätig sind (WR, 2024).

Der leichten Zunahme an Schulen, Auszubildenden und der Beschäftigten in der Pflege steht ein parabelförmig ansteigender Pflegebedarf gegenüber und es öffnet sich seit Langem eine Angebot-Nachfrage-Schere.

Woher stammt das Geld für die Pflege?

Eine Strukturreform ist folglich überfällig. In zurückliegenden Legislaturperioden wurde bis heute wenigstens eine Reform der Finanzierung der Pflege angekündigt, weil das System im gesellschaftlichen Wandel an Grenzen stößt. Die 1995 mit dem elften Sozialgesetzbuch (SGB XI) eingeführte Pflegeversicherung, bildet den Rahmen für die Teilfinanzierung von Pflegeleistungen im Bereich der Langzeitpflege. Wie eingangs dargelegt, nimmt im öffentlichen Diskurs zur Pflege die Finanzierung momentan den größten Platz ein. Diese kommt durch die demographische Entwicklung regelmäßig an ihre Grenzen und der Beitrag zur Pflegeversicherung steigt kontinuierlich. Auch die Eigenanteile, die Pflegebedürftige leisten müssen, brechen immer neue Rekorde. Der Eigenanteil für die stationäre Pflege betrug beispielsweise im Januar 2018 bundesweit noch 1.772 Euro und betrug am ersten Januar 2024 für das erste Jahr im Heim durchschnittlich 2.576 Euro, eine Steigerung von gut 45 Prozent innerhalb von sechs Jahren (vdek, 2024c).

Es gibt momentan 96 gesetzliche Pflegekassen, die jeweils ein Pendant in der Krankenversicherung haben. Außerdem kann das Pflegerisiko auch bei rund 50 privaten Kostenträgern abgesichert werden (Allianz, 2024).

Die Kosten für Pflegeleistungen, die im Krankenhaus, in der medizinischen Rehabilitation oder im Hospiz erbracht werden, übernimmt die Krankenkasse. Diese Unterteilung ist pflegefachlich nicht sinnvoll, aber historisch in der Rolle der Krankenpflege begründet. Die Ausgaben der sozialen Pflegeversicherung, in der knapp 90 Prozent der Deutschen versichert sind, lagen im Jahr 2022 bei 60 Milliarden Euro (vdek, 2024a). Die Ausgaben der gesetzlichen Krankenkassen beliefen sich 2022 auf 306,4 Milliarden Euro (vdek, 2024b). Welcher Anteil daran Pflegekosten sind, wird nicht ausgewiesen. Kosten für die Pflege werden auch über andere Sozialkassen finanziert. Dazu gehören die Unfallversicherung, die Kinder- und Jugendhilfe sowie die Sozialhilfe.

Zusammenfassung: Zahlen und Menschen

Die Pflege ist ein bedeutender Wirtschaftsfaktor, entscheidend bei der Aufrechterhaltung der Sozial- und Gesundheitsversorgung. Sie ist Garant für die Erhaltung von Lebensqualität bei Menschen in jeder Lebensphase und an vielen Orten, an denen Pflegeleistungen erbracht werden. Sie bildet die größte Berufsgruppe im Gesundheitswesen und den größten Ausbildungszweig in Deutschland. Ihr Stellenwert liest sich aber nicht nur an den gewaltigen Zahlen ab – wie den über fünf Millionen Pflegebedürftigen. Für einzelne Menschen kommt es auf die Qualität der Pflegeleistungen an. Die hängen von individuellen Bedürfnissen und den Pflegebedarfen ab, sei es im Krankenhaus, daheim oder im Hospiz. Aber auch von Qualifikation und Kompetenz der Pflegenden und dem Wert, den eine Gesellschaft bereit ist, für gute Leistungen zu zahlen. Gute Pflege wiederum ist nur möglich, wenn die Verzahnung von formaler Versorgung mit der Laienpflege, also den zahllosen An- und Zugehörigen, gut funktioniert.

 

Die Infografik Pflege in Zahlen – Aktuelle sektorenübergreifende Daten 2024 ist als Download erhältlich: Zum Download »

8. DGQ-Qualitätstag – Mit Kurs auf die „Next Generation Q“

Zum achten Mal lädt die Deutsche Gesellschaft für Qualität zum zentralen Branchentreff der Qualitätsmanagement-Community ein. Am 7. November 2024 erwartet die Teilnehmenden im House of Logistics and Mobility (HOLM) in Frankfurt am Main ein intensiver, interaktiver und kreativer Austausch und viel Raum zum Netzwerken.

Spannende Workshops und interaktive Vorträge

Die Geschwindigkeit von Veränderungen in Wirtschaft und Gesellschaft nimmt rasant zu, neue disruptive Technologien und künstliche Intelligenz erobern unsere Lebens- und Arbeitswelt. Globale Megatrends wie Nachhaltigkeit, Generationen Shift und New Work nehmen Einfluss auf Produktionsabläufe, Kundenwünsche und Unternehmenskulturen.

Was bedeuten diese Entwicklungen für das Q(M) von morgen und was können die Verantwortlichen konkret heute schon tun? Wo gilt es, neue Perspektiven einzunehmen, Altbewährtes über Bord zu werfen und ein neues Selbstverständnis zu entwickeln? Und wie lassen sich das Know-how- und Innovations-Potenzial junger Menschen in bestehende Strukturen, Teams, Kulturen und Methoden einbinden und bestehende Generationenkonflikte lösen?

Antworten auf diese Fragen finden die Teilnehmenden in spannenden Vorträgen und interaktiven Workshops. Hochkarätige Referenten vermitteln aktuelles Wissen, Best-Practice-Lösungen und zukunftsweisende Impulse. Das Programm können sich Teilnehmende ganz individuell zusammenstellen.

Zukunftsweisende Impulse für das Qualitätsmanagement

In seiner Keynote nimmt Jugendforscher und Arbeitgebercoach Simon Schnetzer Gemeinsamkeiten und Unterschiede der Generationen unter die Lupe. Dabei zeigt er die Erfolgsfaktoren der „Next Generation Q“ auf und erläutert, wie diese tickt und wofür sie sich begeistert. Schlussfolgerungen und Wege für eine strategiebasierte Reorganisation von Q-Abteilungen beleuchten wiederrum Benedikt Sommerhoff und Alexander Schäfer (beide DGQ). Sie geben Einblicke in die DGQ-Studie „Q-Organisation“, die mit über 400 Antworten aus einer Online-Umfrage und sieben ergänzenden Tiefeninterviews ein facettenreiches Bild über die Aufstellung der unternehmensinternen Q-Organisationen liefert. Weitere Vorträge und Workshops befassen sich mit dem praxisnahen Einsatz von generativer KI wie ChatGPT, erläutern die Besonderheiten, mit denen Startups im Qualitätsmanagement konfrontiert sind oder vermitteln den effektiven Umgang mit Rollenkonflikten im QM.

 

Informationen zur Anmeldung

Wann: Donnerstag, 7. November 2024, von 10:00 Uhr bis 18:00 Uhr
Wo: HOLM (House of Logistics and Mobility), Frankfurt am Main
Teilnahmekosten: 359,- € zzgl. MwSt. (319,- € zzgl. MwSt. für DGQ-Mitglieder)

Zur Anmeldung »

Zum Programm »

Als DGQ-Mitglied können Sie – sowohl online als auch in Präsenz – zum reduzierten Kostenbeitrag teilnehmen. Sie sind noch kein Mitglied? Dann nutzen Sie doch für die Anmeldung unsere beitragsfreie, dreimonatige Schnuppermitgliedschaft.

Interview zum FQS-Forschungsprojekt IDaP+: Prozessketten für die Herstellung und Bearbeitung von Gussbauteilen in der Automobilindustrie effizient gestalten und steuern

Die Herstellung von Leichtmetallgussprodukten, gefolgt von Wärmebehandlung und Bearbeitung, ist besonders für die Produktion von elektrischen Antrieben in der Automobilindustrie sowie in anderen Branchen von Bedeutung. Verschiedene Zulieferer, insbesondere kleine und mittlere Unternehmen (KMU), sind an diesen Prozessketten beteiligt. Dazu gehören die Herstellung von Gussformen, das Durchführen von Gießprozessen, die Wärmebehandlung der Rohteile, die Durchführung von Bearbeitungsprozessen als Auftragsfertiger sowie die Bereitstellung von Werkzeugen, Maschinen, Ausrüstung, Software und Dienstleistungen. Aktuell erzeugen all diese Prozesskettenteilnehmer Informationen, die für die Gesamtprozesskette relevant sein können, um einzelne Prozessschritte gezielter einzustellen.

Das über die FQS – Forschungsgemeinschaft Qualität und ASMET – Austrian Society for Metallurgy and Metals geförderte Forschungsprojekt „Integrated Data-based Process Chain Optimisation in Casting and Machining Production (IDaP+)“ untersucht das Potenzial einer durchgängigen Prozesskette und digitalen Vernetzung der betrachteten Bereiche. Durchführende Forschungseinrichtungen sind das utg der TU München (Gießen), das WWWT der TU Wien (Wärmebehandlung und Oberflächentechnik), das ISF der TU Dortmund (Tiefbohren und Gewinden), das IFT der TU Wien (Statorbohren mit sensorischer Spanntechnik) und das IfW der Universität Stuttgart (Statorbohren mit sensorischem Werkzeug). Rund 40 Unternehmen aus Deutschland und Österreich begleiten die Forschungsarbeiten als Industriepartner im Projektbegleitenden Ausschuss.

Im Interview gibt Tim Reeber, Mitarbeiter der Gruppe Prozessüberwachung und -regelung am IfW der Universität Stuttgart, einen Ausblick auf die Projektdurchführung und erklärt, was das Projekt so einzigartig macht.

Aus welcher Problemstellung heraus ist das Forschungsprojekt entstanden?

Tim Reeber: Die Abstimmung der einzelnen Arbeitsschritte bei der Herstellung von E-Mobility – Bauteilen ist derzeit praktisch nicht vorhanden. Dadurch gehen Potenziale in einer aufeinander abgestimmten Prozesskette verloren. Ein Beispiel: Stellen Sie sich vor, ein besonders dünnwandiges Bauteil wird gegossen, dann wärmebehandelt und spanend bearbeitet. Aufgrund des Gießprozesses und der Wärmebehandlung werden im Bauteil mechanische Eigenschaften wie zum Beispiel Eigenspannungen eingebracht. Diese können bei der Zerspanung freigesetzt werden, was sich in Verzug nach dem Ausspannen äußert. Sie können demnach die gesetzten Toleranzen nicht mehr erreichen und ein großer Teil der Wertschöpfung geht hiermit verloren.

Welches Know-how soll im Rahmen des Forschungsprojekts IDaP+ entstehen und wie kann es zur Lösung der geschilderten Problemstellung beitragen?

Tim Reeber: Im Projekt haben wir Experten aus allen Teilschritten sowie die Unterstützung eines breiten Projektausschusses aus der Industrie. Das Ziel ist, die Abhängigkeiten der sequenziellen Arbeitsschritte untereinander und Abstimmungspotenziale zu identifizieren. Dazu werden wir beispielsweise die noch getrennten Simulationsumgebungen aufeinander abstimmen, um aus den simulierten mechanischen Eigenschaften aus dem Guss- und der Wärmebehandlung eine Simulation des Zerspanungsprozesses durchzuführen. Damit sollen schon vor dem ersten Guss eines Bauteils Empfehlungen abgeleitet werden. Auch die im Prozess messbaren Prozessgrößen sowie deren digitalen Austauschmöglichkeiten werden betrachtet. Wenn wir diese Abhängigkeiten verstehen, können Empfehlungen an die Prozessführung bei Guss und Wärmebehandlung abgegeben werden. Aber auch die einzelnen Prozessschritte werden anhand unseres anspruchsvollen Analogiebauteils – ein Statorgehäuse für elektrische KfZ-Motoren – optimiert.

Zielstellung Forschungsprojekt IDaP+

Abb. 1: Zielstellung Forschungsprojekt IDaP+ (Quelle: IfW der Universität Stuttgart)

Analogiebauteil Forschungsprojekt IDaP+

Abb. 2: Analogiebauteil Forschungsprojekt IDaP+ (Quelle: utg der TU München)

Wer soll von den Ergebnissen profitieren und welcher konkrete Nutzen ergibt sich für Unternehmen?

Tim Reeber: Die Abstimmung dieser Prozesse ist bisher nicht erfolgt. Die Elektrifizierung des Antriebsstrangs und die daraus resultierenden Auswirkungen auf die Wertschöpfungskette nehmen deutlich Fahrt auf, insbesondere hinsichtlich der benötigten Prozesse und veränderten Anforderungen an Komponenten. Die kombinierte Betrachtung der Prozesse sowie ein geordneter Austausch von Daten bietet dabei Optimierungspotenziale, um die Produktivität weiter zu erhöhen und gezielte mechanische Eigenschaften zu erzeugen sowie um Hochlaufzeiten zu vermindern und Ausschuss zu vermeiden. Wir werden im Projekt die verschiedenen Akteure in den einzelnen Prozessen für die Möglichkeiten eines Austausches von relevanten Daten sensibilisieren und so neue Geschäftsmodelle und Dienstleistungsmöglichkeiten erschließen.

Profiteure sind demnach Firmen aus dem Bereich der Gieß-, Wärme- und Zerspanprozesse sowie Endanwender wie der Mobilitätssektor oder alle anderen Industriebereiche, in denen dünnwandige Gusskomponenten eingesetzt werden.

Wie sieht das weitere Vorgehen im Forschungsprojekt aus?

Tim Reeber: Wir finalisieren gerade die Analogiebauteilgeometrie und haben erste Simulationen zur Gießbarkeit und Porenfreiheit durchgeführt. Parallel bereiten wir die Simulationen und Experimente in der Wärmebehandlung und in der Zerspanung vor. Wir entwickeln sensorische Werkzeug- und Spannvorrichtungen sowie experimentelle Aufbauten zur Untersuchung des thermomechanischen Zustands während der spanenden Bearbeitung. Basierend auf einer ersten Gusscharge fangen wir an, unsere Simulationsmodelle zu kalibrieren und erste prozessübergreifende Regelungsmethodiken zu entwickeln.

 


Stimmen aus dem Projektbegleitenden Ausschuss:

 

Joshua Bissels, Leiter Innovation und Prozessentwicklung Pinter Guss:

Die konsequente Weiterentwicklung hin zu einer digitalen Gießerei wird bei uns im Unternehmen bereits seit einigen Jahren vorangetrieben. Auf Basis einer Betriebsdatenerfassung erfolgt derzeit die Umsetzung der Grundlagen für eine weitreichende Digitalisierung der Prozessdaten. Die Beteiligung am Projektbegleitenden Ausschuss des Projekts IDAP+ zielt darauf ab, sich frühzeitig mit den technologischen Möglichkeiten und Herausforderungen der prozessübergreifenden Verwendung von Produktionsdaten für Qualitätsverbesserung zu befassen. Das Projekt verspricht spannende Einblicke in die Zusammenhänge zwischen Schwankungen in den Prozessen der Gussteilherstellung und der Zerspanung. Im Rahmen des Forschungsprojektes streben wir eine aktive Beteiligung mit unserem Expertenwissen aus beiden Teilen der Produktionskette zur Herstellung fertig zerspanter Bauteile an.

Thomas Rumpf, Konstruktions- und Entwicklungsleitung Hermann Bilz Präzisionswerkzeuge:

Wir sind Hersteller von Präzisionswerkzeugen, die unter anderem auch in Elektromotorengehäusen zur Bearbeitung der großen Statorbohrung als auch der Befestigungsbohrungen eingesetzt werden. Als Mitglied des Projektbegleitenden Ausschusses IDaP+ sind wir an der systematischen Untersuchung der Zerspanungsprozesse und den sich daraus ergebenden Optimierungen unserer Werkzeuglösungen interessiert. Darüber hinaus wollen wir durch die Mitwirkung in diesem Forschungsprojekt unsere bestehenden Kontakte zu den beteiligten Hochschulinstituten pflegen und weiter ausbauen, um Forschungsthemen auch außerhalb dieses Projektes zu besprechen.

 

Über den Interviewpartner:
Tim Reeber, Mitarbeiter der Gruppe Prozessüberwachung und -regelung am Institut für Werkzeugmaschinen (IfW) der Universität Stuttgart
E-Mail: tim.reeber@ifw.uni-stuttgart.de

 


Über das Forschungsprojekt: 
Das IGF / CORNET-Vorhaben 369 EN der FQS – Forschungsgemeinschaft Qualität e.V. (FQS), August-Schanz-Straße 21A, 60433 Frankfurt am Main wurde im Rahmen des Programms zur Förderung der Industriellen Gemeinschaftsforschung (IGF) vom Bundesministerium für Wirtschaft und Klimaschutz (BMWK) aufgrund eines Beschlusses des Deutschen Bundestages gefördert.

Weitere Informationen finden Sie auf der Website des IfW der Universität Stuttgart »

Kontakt:
ASMET | The Austrian Society for Metallurgy and Materials
Franz-Josef-Straße 18
8700 Leoben, Austria
asmet@asmet.at

Über die FQS:
Die FQS – Forschungsgemeinschaft Qualität e. V. (FQS) unterstützt seit 1989 die anwendungsorientierte Forschung rund um das Thema Qualität in Deutschland. Sie versteht sich selbst als Forschungsbereich der Deutschen Gesellschaft für Qualität e. V. (DGQ) und wird von ihr getragen. Die FQS fördert innovative Forschungsideen über das Instrument der Industriellen Gemeinschaftsforschung (IGF) und des Forschungsnetzwerks CORNET des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK). Ziele der Förderung sind möglichst anwendungsnahe Forschungsideen, die einen unmittelbaren Nutzen für die Wirtschaft, insbesondere für kleine und mittelständische Unternehmen (KMU), erbringen.

Vorstellung der FQS Forschungsgemeinschaft Qualität e.V. 
Wer ist die FQS Forschungsgemeinschaft Qualität e.V. und was tut sie? Lernen Sie im Video den Forschungsbereich der DGQ kennen und erfahren Sie von Dr. Christian Kellermann-Langhagen, wissenschaftlicher Geschäftsführer der FQS, wie die FQS arbeitet, welche Themen beforscht werden und wie sich Unternehmen in der FQS beteiligen und von den eingesetzten Förderprogrammen profitieren können.

Kontakt:
FQS – Forschungsgemeinschaft Qualität e. V.
August-Schanz-Straße 21A
60433 Frankfurt am Main
infofqs@dgq.de


Revision der ISO 14001 – Comittee Draft der überarbeiteten Umweltmanagementsystemnorm in Arbeit

Nach der letzten Überarbeitung der ISO 14001 im Jahr 2015 arbeitet die Internationale Organisation für Normung (ISO) seit September 2023 erneut an einer Revision der Umweltmanagementsystemnorm. Im Juli fand in Bern ein einwöchiges Meeting zur Diskussion und Entscheidung über die zum Comittee Draft (CD) eingegangenen Kommentare statt.

Als ein Vertreter des DIN nahm Thomas Votsmeier, Leiter Normung DGQ, teil. „Es ist immer wieder eine Herausforderung, die große Anzahl und inhaltliche Vielfalt der Kommentare und das unterschiedliche Verständnis von Begriffen so zu handhaben, dass am Ende des Revjsionsprozesses das Verständnis und die Wirksamkeit der Normeninhalte verbessert werden, ohne große strukturelle Änderungen vorzunehmen.

Aktuell in Klärung befindlich ist die Behandlung folgender Themen basierend auf den eingereichten Kommentaren: Die Verbindung des Umweltmanagementsystems mit der Organisationsstrategie, mit den Geschäftsprozessen, einem integrierten Managementsystemansatz, dem Bereich Change Management und dem Organisationskontext sowie dem Themenkomplex Risiken und Chancen. Auch die Verknüpfung mit anderen Normanforderungen ist zu prüfen. Gleiches gilt für die Berücksichtigung von Lebenszyklusperspektive, Klimawandelanpassung und die Bedeutung von Treibhausgasen sowie weiterer Umweltbedingungen. Weitere Punkte umfassen technische Themen wie die Verbindung mit ISO 14002 – Klima, Abfall, Kreislaufwirtschaft, Chemikalienmanagement –, externer Berichterstattung, Umweltverantwortung, Kultur, Mitarbeiterengagement, ausgelagerte Prozesse und Lieferkette.

Die Aufnahme der geänderten oder ergänzten Inhalte erfolgt im Wesentlichen über Erläuterungen im Annex, zum Teil über Anpassungen von Formulierungen im Anforderungstext. Die überarbeitete Norm wird Ende 2025 erwartet.

Scope der Überarbeitung

Bei der Überarbeitung handelt es sich um eine „kleine“ Revision. Primär geht es um die Anpassung an die Vorgaben der „harmonized structure“. Neue Anforderungen soll die ISO 14001:2025 nicht enthalten. Stattdessen steht eine Auseinandersetzung mit den von der ISO-Arbeitsgruppe AHG 4 empfohlenen Schlüsselthemen und eine Verbesserung der Anleitung in Anhang A im Fokus. Das bedeutet entweder eine Umformulierung der aktuellen Anforderungen und eine Aufnahme von Anmerkungen oder die Verwendung anderer Methoden, um die Anforderungen klarer verständlich zu machen, ohne neue Anforderungen hinzuzufügen. Vorliegende Interpretationen zur ISO 14001:2015 werden im Hinblick auf eine Übernahme in den Anhang ausgewertet.

Hintergrund der Revision

Neben der formalen Anpassung der Norm waren für die Revisions-Entscheidung die vielen Veränderungen von Bedeutung, die sich in den vergangenen Jahren im Umweltbereich ergeben haben und im Rahmen laufender Analysen von der eingesetzten Arbeitsgruppe AHG4 ermittelt wurden. Dazu zählen der Klimawandel, die Ressourcen-Knappheit, die Anwendung erneuerbarer Energien und nicht zuletzt auch die Anforderungen, die sich aus dem Wandel hin zu einer funktionierenden Kreislaufwirtschaft (Circular Economy) ergeben. Weitere wichtige Themen, die bei der Revision als Input berücksichtigt werden sollen, sind die Sustainable Development Goals (SDGs) der UN und der Green Deal der EU.

Nächste Schritte

Bis September werden die Kommentare zum CD von der zuständigen Arbeitsgruppe bearbeitet und in einem neuen Entwurf konsolidiert. Dazu finden noch weitere Remote Meetings statt.

Eine Entscheidung über die Art der Veröffentlichung – ob in Form eines Amendments als ergänzendes Dokument zur aktuellen Version der Norm oder eines neuen vollständigen Dokuments mit Integration der Änderungen – steht noch aus. Hintergrund ist, dass der Umfang der Änderungen das Handling dreier Dokumente (14001:2015, AMD1 und AMD2) erschwert.

Bei Vorliegen eines „Draft International Standard” (DIS) voraussichtlich im Herbst / Winter 2024 folgt dann die nächste Kommentierungsrunde mit anschließender Kommentarbehandlung. Unabhängig von der Revision der ISO 14001 werden derzeit Hilfestellungen zur Berücksichtigung der Umweltaspekte in der Normenreihe ISO 14002-1 ff als „technical topics“ weiterentwickelt.

Darüber hinaus erhalten Interessierte im Rahmen eines aktuellen Interviews, das die Leitung der für die Revision der ISO 14001 verantwortlichen Arbeitsgruppe TC 207 SC1 WG 29 mit dem Gastgeber des Meetings bei der Schweizerischen Vereinigung für Qualitäts- und Management-Systeme (SQS) in Bern geführt hat, einige Insights der Revision.

Die aktuellen Stände aller Normen des für Qualitätsmanagement zuständigen Gremiums ISO TC 176 können Interessierte aktuell hier finden.

Remote-Audit-Norm ISO 17012:2024 ist veröffentlicht

Internationaler Standard für Remote Audits: Mit der ISO 17012 hat die Internationale Organisation für Normung (ISO) kürzlich einen Leitfaden für die Durchführung von „Audits aus der Ferne“ herausgebracht. Im nächsten Schritt wird das Deutsche Institut für Normung (DIN) sich der Übersetzung der neuen Norm annehmen.

An der Erstellung der ISO 17012 war auch der DGQ-Fachkreis „Audit und Assessment“ beteiligt: Eine Anfang 2023 publizierte Fachkreis-Veröffentlichung diente in englischer Sprache dem zuständigen ISO-CASCO-Ausschuss zur Orientierung. Das DGQ-Impulspapier mit dem Titel „Das Remote Audit als zukunftsweisende Methodik für risikobasierte Audits“ gibt Interessierten einen fachlichen Überblick über die wichtigsten Rahmenbedingungen für eine erfolgreich durchgeführte Fern-Auditierung.

Neben der Fachkreis-Veröffentlichung war die DGQ auch über die Entsendung zweier Vertreter an der Erstellung der Norm beteiligt: Sowohl Thomas Votsmeier, Leitung Normung bei der DGQ, als auch Mathias Wernicke, Mitglied im Leitungsteam des DGQ-Fachkreises Audit und Assessment, wirkten im entsprechenden DIN-Normungsausschuss sowie direkt in der ISO-Arbeitsgruppe WG 61 mit.

„Mit der neuen Norm ist sichergestellt, dass Audits mit Remote-Methoden künftig als etabliertes Mittel zur Gewinnung von Erkenntnissen der Wirksamkeit in der Prozessanwendung zeitnah und authentisch erfolgen können“, sagt Fachkreisleiter Wernicke. „Aus der Sicht des Fachkreises empfehlen wir, sich den Nutzen dieser Methode mittels Pilotanwendungen zu erschließen und freuen uns über Feedback.“

Hintergrund: Methoden zur Fernbewertung

Die Nutzung von Fernmethoden in der Auditierung hat im Zuge der Corona-Pandemie verstärkte Bedeutung erfahren – sowohl für interne Audits als auch für externe. Im Herbst 2022 hatte die ISO sich des Themas angenommen und das Normungsprojekt offiziell gestartet. Der neugeschaffene Standard stellt eine Ergänzung zur ISO 19011 dar, dem Leitfaden zur Auditierung von Managementsystemen.

Das Impulspapier des Fachkreises steht DGQ-Mitgliedern über DGQplus zum Download zur Verfügung.
Zum Impulspapier »

Der neue VDA 6.3:2023 Fragenkatalog – praktische Betrachtungsweise

VDA 6.3 Fragenkatalog, Automobilindustrie

In einer zunehmend globalisierten Welt ist die Effizienz und Zuverlässigkeit der Lieferkette für Unternehmen von entscheidender Bedeutung. Angesichts der wachsenden Unsicherheit und der Vielzahl von Risiken, denen das produzierende Gewerbe ausgesetzt ist, gewinnen Prozessaudits hauptsächlich in der Lieferantenentwicklung eine immer größere Bedeutung.

In diesem Artikel diskutieren wir über die Neuerungen und praktischen Erfahrungen des neuen VDA 6.3: 2023 Fragenkataloges für Prozessaudits, des VDA QMC, der als einer der wichtigsten Standards für die Auditierung von Prozessen in der Automobilindustrie gilt.

Hintergrund und aktuelle Situation

Mit dem neuen Fragenkatalog für Prozessauditoren hat es der VDA QMC geschafft, dass Prozessaudits den aktuellen Anforderungen und Entwicklungen in der Industrie gerecht werden. Durch die Berücksichtigung von Aspekten wie dem Stand der Technik in der Produktionstechnologie, der gestiegenen Softwareanforderungen in Produkten und Prozessen und der immer wichtiger werdenden Stabilität in der Lieferkette wird der Fragenkatalog relevanter und effektiver für Unternehmen aller Branchen.

Hauptunterschiede zum VDA 6.3:2016

Der neue Fragenkatalog zeichnet sich durch einige wesentliche Änderungen gegenüber der Version 2016 aus:

  • Stärkerer Fokus auf Risikomanagement:
    Der Katalog legt nun ein höheres Augenmerk auf die Implementierung eines effektiven Risikomanagementsystems.
  • Einbeziehung von Softwareaspekten:
    Software-bezogene Fragestellungen wurden in den Katalog integriert, um die Bedeutung von Software in der Automobilindustrie widerzuspiegeln.
  • Fokus auf Beschaffungsaktivitäten:
    Die Aktivitäten aus der Beschaffung finden jetzt einen erhöhten Fokus bereits in der Planungsphase des Projektes.
  • Anpassung der Bewertung der Potenzialanalyse:
    Die Bewertungssystematik der Potenzialanalyse wurde verschärft und die Fragen teilweise neu strukturiert, um eine klarere Bewertung der Verbesserungspotenziale zu ermöglichen.
  • Neuzuordnung der Stern-Fragen:
    Die Stern-Fragen (mit “*”, gekennzeichnet) wurden teilweise neu zugeordnet, um die Relevanz für verschiedene Unternehmensbereiche zu verbessern.

Auswirkungen auf die Auditpraxis

Die Einführung des neuen VDA 6.3:2023-Fragenkatalogs markiert einen bedeutenden Wendepunkt in der Auditpraxis, der sich in vielfältigen Veränderungen niederschlägt. Diejenigen, die täglich mit Audits zu tun haben, werden diese Veränderungen spüren.

Ein erhöhter Zeitaufwand für die Vorbereitung ist eine der ersten sichtbaren Auswirkungen. Auditoren sind nun gefordert, sich intensiv mit den neuen Inhalten und der veränderten Struktur des Katalogs auseinanderzusetzen. Eine gründliche Einarbeitung ist unerlässlich und führt zwangsläufig zu einem gesteigerten Zeitaufwand für die Vorbereitung auf ein Audit. Zumindest in der ersten Zeit der Anwendung des neuen Kataloges.

Die Anpassung der Auditmethoden ist eine weitere Herausforderung, der sich Auditoren stellen müssen. Die neuen Fragestellungen im Katalog erfordern teilweise eine Überarbeitung der bisherigen Methoden und Werkzeuge. Themen wie Risikomanagement und Softwareentwicklung rücken verstärkt in den Fokus und verlangen nach entsprechenden Anpassungen, um die geforderten Inhalte umfassend abdecken zu können.

Besonders hervorzuheben ist die Notwendigkeit tieferer Kenntnisse im Bereich Software. Der neue Katalog integriert nun auch softwarebezogene Fragestellungen, die von den Auditoren ein grundlegendes Verständnis von Softwareentwicklungsprozessen und -risiken erfordern. Dies stellt für einige Auditoren eine neue Herausforderung dar. Sie müssen sich in diesem Bereich weiterbilden, um die Fragen kompetent beantworten zu können.

Erste Erfahrungen mit dem neuen Katalog

Aus den ersten Erfahrungen, die mit dem neuen VDA 6.3 Katalog gemacht wurden, lassen sich folgende Beobachtungen festhalten:

Das Feedback der auditierten Unternehmen ist größtenteils positiv. Sie erkennen den Wert der vertieften Betrachtung der bereits erwähnten Themen im neuen Katalog. Diese Erweiterungen werden als bedeutender Schritt zur ganzheitlicheren Bewertung der Unternehmensprozesse wahrgenommen.

Allerdings gibt es auch Herausforderungen, insbesondere im Bereich der Software-Thematik. Für einige Unternehmen stellen die softwarebezogenen Fragen noch eine Hürde dar, da hier oft ein ausreichendes Know-how fehlt. Dies unterstreicht die Notwendigkeit, verstärkt in die Weiterbildung auf diesem Gebiet zu investieren, um den neuen Anforderungen gerecht zu werden.

Positive Rückmeldung erhielt ich zur verstärkten Betrachtungsweise im Bereich Beschaffung. Anstatt erst auf eingetretene Probleme zu reagieren, liegt der Fokus im Fragenkatalog beim proaktiven Risikomanagement auf der Identifizierung und Bewertung potenzieller Risiken bei Lieferanten und Unterlieferanten bereits in der Frühphase eines Projekts. Dies ermöglicht es, präventive Maßnahmen zu ergreifen und so die negativen Auswirkungen von Lieferkettenunterbrechungen, Verzögerungen oder Qualitätsmängeln zu minimieren.

Insgesamt spiegeln die ersten Erfahrungen mit dem neuen Katalog eine Mischung aus Anerkennung für die Weiterentwicklung und Bereitschaft zur Überwindung von Herausforderungen wider. Die Erkenntnisse aus diesen ersten Audits dienen als wichtige Grundlage für die Optimierung und Feinabstimmung des Katalogs in der Zukunft.

Fazit

Der neue VDA 6.3:2023 Fragenkatalog stellt eine sinnvolle Weiterentwicklung des bewährten Standards dar. Die stärkere Fokussierung auf Risikomanagement, die Einbeziehung von Softwareaspekten und Beschaffungsaktivitäten und die verschärfte Bewertungssystematik der Potenzialanalyse tragen zu einer umfassenderen und zielgerichteteren Bewertung von Unternehmensprozessen in der Gegenwart und Zukunft bei.

 

Über den Autor:
Stefan Peintner ist ein international erfahrener Berater und betreut weltweit strategisch relevante Start-Up-Projekte im Bereich der Elektromobilität. Darüber hinaus unterstützt er als Executive Coach mittelständische Organisationen in Organisationsentwicklungsprojekten und begleitet diese im nationalen und internationalen Standortaufbau.

Zusätzliche Arbeitsschritte erfordern neuen Zeitplan für die ISO 9001:2025/26

Die Revision der ISO 9001 verzögert sich: Im nächsten Schritt wird zunächst ein zusätzlicher Entwurf – ein sogenannter Commitee Draft 2 (CD2) – erstellt. Voraussichtlich kommt es dadurch erst 2026 zur Veröffentlichung der überarbeiteten Qualitätsmanagementsystemnorm anstatt, wie bisher geplant, Ende 2025. Das ist eines der Ergebnisse der letzten ISO-Meetings, die im Juli zum Teil in Detroit, zum Teil online stattfanden.

Bei den Treffen gingen die Mitglieder der für die Revision zuständigen Arbeitsgruppe des ISO TC 176 den aktuellen Commitee Draft (CD) durch und begannen damit, die Kommentare zu bewerten und einzuarbeiten. Im Nachgang fiel die Entscheidung, dass die ISO 9001 einen zusätzlichen Commitee Draft (CD2) durchlaufen wird.

„Der aktuelle Stand des Dokuments ist noch nicht reif für einen Draft International Standard (DIS)”, beurteilt Thomas Votsmeier, Leiter Normung DGQ und Mitglied des ISO-Gremiums sowie fachliche Leitung des entsprechenden Spiegelgremiums bei DIN, die Situation. „Aufgrund von einigen derzeit noch ungeklärten strukturellen Entscheidungen, einer großen Zahl von noch nicht bearbeiteten Kommentaren und dem Fehlen eines abgestimmten erläuternden Anhangs haben wir uns deutlich dafür stark gemacht, einen CD2 zu erstellen. Die Entscheidung der SC2 Leitung wird von uns positiv und zielführend bewertet.“

In Folgeterminen im September wird über noch nicht abschließend beurteilte Kommentare und die Struktur des überarbeiteten Anhangs entschieden. Ein aktualisierter Zeitplan mit Beschreibung der weiteren Vorgehensweise wird ebenfalls dann vorgelegt.

ISO TC 176 hatte die vorzeitige Revision der Qualitätsmanagementsystemnorm im August 2023 angekündigt. Mit der Überarbeitung werden primär die Struktur der Norm an die „harmonized structure“ für Managementsystemnormen angepasst sowie Erläuterungen zu erklärungsbedürftigen Anforderungen und Prinzipien erarbeitet. Nach derzeitigem Stand kommen auf Organisationen neue bzw. geänderte Anforderungen zu folgenden Themen zu: Ethik und Integrität, Vision, Mission und Werte, Qualitätskultur sowie Umgang mit Chancen und Risiken.

Einführung in den EU AI Act: Über die Regulierung für Künstliche Intelligenz

EU-AI-Act, Europäisches Parlament

In der heutigen digitalen Welt schreiten die Entwicklung und Nutzung von Künstlicher Intelligenz (KI) rasant voran. Um den Einsatz dieser Technologie zu regulieren und sicherzustellen, dass sie verantwortungsvoll und sicher genutzt wird, hat die Europäische Union den EU AI Act eingeführt.

Dieser Artikel gibt einen umfassenden Überblick über die wichtigsten Aspekte des EU AI Act und beleuchtet spezifisch die Definition von KI-Systemen, die Klassifizierung von allgemeinen KI-Modellen und hochriskanten KI-Systemen sowie deren Auswirkungen.

Definition und Merkmale von KI-Systemen

Ein KI-System ist ein maschinenbasiertes System, das auf algorithmischen Prozessen und Berechnungen beruht. Es kann mit unterschiedlichen Autonomiegraden arbeiten, von vollständig autonomen Systemen bis hin zu solchen, die menschliche Aufsicht erfordern. Ein entscheidendes Merkmal von KI-Systemen ist ihre Fähigkeit zur Anpassung nach der Bereitstellung, was bedeutet, dass sie aus neuen Daten oder Erfahrungen lernen und ihr Verhalten entsprechend anpassen können. KI-Systeme haben spezifische Ziele, die entweder explizit festgelegt oder implizit aus den Daten abgeleitet werden. Sie nehmen verschiedene Eingaben entgegen, ziehen Schlussfolgerungen daraus und generieren entsprechende Ausgaben, die sowohl physische als auch virtuelle Umgebungen beeinflussen können. Diese Systeme können Empfehlungen aussprechen, Inhalte generieren, Entscheidungen treffen und sogar physische Geräte steuern, wie beispielsweise Roboter oder Smart-Home-Systeme.

Generische KI-Modelle

Generische KI-Modelle zeichnen sich durch ihre breite Anwendbarkeit und Vielseitigkeit aus. Diese Modelle werden mit großen Datenmengen trainiert und nutzen selbstüberwachtes Lernen, um effektiv und autonom zu lernen. Sie sind in der Lage, eine Vielzahl von Aufgaben in unterschiedlichen Bereichen zu bewältigen und können in zahlreiche Anwendungen integriert werden. Ein generisches KI-Modell ist nicht auf eine spezifische Aufgabe spezialisiert, sondern kann verschiedene Aufgaben ausführen, von der Sprachverarbeitung über die Bilderkennung bis hin zu komplexen Entscheidungsprozessen. Diese Modelle sind unabhängig davon, wie sie auf dem Markt platziert werden, vielseitig einsetzbar. Generische KI-Modelle werden mit umfangreichen Datensätzen trainiert, um eine Vielzahl von Mustern und Strukturen zu lernen.

Modelle in der Forschungs- und Entwicklungsphase werden jedoch nicht als generische KI-Modelle betrachtet. Generische KI-Modelle finden in vielen Bereichen Anwendung. Ein bekanntes Beispiel ist die Sprachverarbeitung, bei der Modelle wie GPT (Generative Pre-trained Transformers) zur Erstellung von Texten verwendet werden. Diese Modelle können auch in der Bilderkennung eingesetzt werden, um Objekte in Bildern zu identifizieren, oder in der Entscheidungsfindung, um komplexe Probleme zu lösen.

Die EU AI Act legt spezifische Anforderungen an generische KI-Modelle fest, um deren Sicherheit, Transparenz und Verantwortlichkeit zu gewährleisten. Zu diesen Anforderungen gehören:

  • Technische Dokumentation:
    Anbieter müssen umfassende technische Dokumentationen erstellen, die Design-Spezifikationen, Trainings-, Test- und Validierungsprozesse, die verwendeten Daten sowie die Ressourcen und den Energieverbrauch beim Training umfassen.
  • Informationen für nachgelagerte Anbieter:
    Anbieter müssen Informationen und Dokumentationen an nachgelagerte Anbieter weitergeben, die das Modell in ihre Systeme integrieren. Dies hilft ihnen, die Fähigkeiten und Grenzen des Modells zu verstehen und regulatorischen Verpflichtungen nachzukommen.
  • Einhaltung des Urheberrechts:
    Es ist essenziell, das Urheberrecht zu respektieren und sicherzustellen, dass alle für Training und Entwicklung verwendeten Inhalte legal bezogen werden.
  • Zusammenfassung der Trainingsdaten:
    Anbieter sollten eine Zusammenfassung der für die Entwicklung des Modells verwendeten Trainingsdaten bereitstellen.

Für Modelle, die systemische Risiken bergen, gelten zusätzliche Anforderungen. Systemische Risiken beziehen sich auf die potenziellen weitreichenden und vernetzten Auswirkungen, die ein KI-Modell auf verschiedene Sektoren und gesellschaftliche Bereiche haben kann. Diese Risiken können sich durch die Interaktion und Abhängigkeit zwischen verschiedenen Systemen und Akteuren verstärken, was zu weitreichenden Störungen oder Schäden führen kann.

Zu den zusätzlichen Anforderungen gehören die Durchführung von Modellevaluierungen nach standardisierten Protokollen, die Bewertung und Minderung potenzieller systemischer Risiken, die Nachverfolgung und Meldung von ernsthaften Vorfällen sowie die Gewährleistung eines angemessenen Niveaus an Cybersicherheit. Zudem müssen Anbieter zusätzliche technische Informationen bereitstellen, einschließlich der Strategie und Ergebnisse der Risikoevaluation, “Red-Teaming”-Bemühungen und detaillierter Systemarchitektur.

Hochrisiko-KI-Systeme

Hochrisiko-KI-Systeme sind solche, die erhebliche Auswirkungen auf die Sicherheit oder die Grundrechte von Individuen haben können. Diese Systeme unterliegen strengen regulatorischen Anforderungen, um sicherzustellen, dass sie sicher, transparent und verantwortungsvoll betrieben werden. Zu den hochriskanten Anwendungen gehören KI-Systeme, die in kritischen Infrastrukturen, im Gesundheitswesen, in der öffentlichen Sicherheit und in der Verwaltung eingesetzt werden. Diese Systeme müssen umfangreiche Anforderungen erfüllen, darunter Risikomanagement, Datenqualität und -verwaltung, Transparenz und menschliche Aufsicht:

  • Kritische Infrastrukturen:
    Systeme, die in Bereichen wie Energieversorgung, Verkehr und Wasserwirtschaft eingesetzt werden.
  • Gesundheitswesen:
    KI-Systeme, die in der Diagnose, Behandlung und Überwachung von Patienten verwendet werden.
  • Öffentliche Sicherheit:
    Anwendungen in der Strafverfolgung, Überwachung und Notfallreaktion.
  • Verwaltung und Justiz:
    Systeme, die in der Verwaltung von öffentlichen Diensten und im Justizwesen eingesetzt werden.

Der EU AI Act legt fest, dass alle hochriskanten KI-Systeme vor ihrer Markteinführung und während ihres gesamten Lebenszyklus bewertet werden müssen. Nutzer haben das Recht, Beschwerden über diese Systeme bei den zuständigen nationalen Behörden einzureichen:

  • Risikomanagement:
    Identifizierung und Minderung potenzieller Risiken.
  • Datenqualität und -verwaltung:
    Verwendung von hochwertigen, genauen und unvoreingenommenen Daten.
  • Transparenz:
    Bereitstellung klarer Informationen über die Funktionsweise des Systems.
  • Menschliche Aufsicht:
    Implementierung von Mechanismen für menschliche Eingriffe und Überwachung.
  • Robustheit und Sicherheit:
    Sicherstellung der Widerstandsfähigkeit gegen Angriffe und zuverlässiger Betrieb unter verschiedenen Bedingungen.

Ziele und Meilensteine des EU AI Act

Der EU AI Act zielt darauf ab, einen einheitlichen Rechtsrahmen für KI-Systeme innerhalb der Europäischen Union zu schaffen. Die Hauptziele umfassen:

  • Verbesserung des Binnenmarkts:
    Durch einen einheitlichen Rechtsrahmen wird die Konsistenz und Klarheit für die Entwicklung und den Einsatz von KI-Systemen gewährleistet.
  • Förderung von Innovation:
    Der Act unterstützt die Entwicklung und Integration von KI in verschiedenen Sektoren, um technologische Fortschritte und wirtschaftliches Wachstum zu fördern.
  • Schutz von Gesundheit, Sicherheit und Grundrechten:
    Der Act stellt sicher, dass KI-Systeme in einer Weise entwickelt und genutzt werden, die die Menschenwürde und die Rechte respektiert und fördert.
  • Freier Verkehr von KI-basierten Waren und Dienstleistungen:
    Der Act verhindert unnötige Beschränkungen für die Entwicklung, Vermarktung und Nutzung von KI-Systemen in den Mitgliedstaaten.

Ein weiteres Ziel des EU AI Act ist die Verhinderung schädlicher Auswirkungen von KI-Systemen auf Gesundheit, Sicherheit und Grundrechte. Darüber hinaus unterstützt der Act die Schaffung eines Umfelds, in dem KI sicher in verschiedene Sektoren integriert werden kann. Ein weiteres zentrales Prinzip ist die Förderung des Vertrauens der Öffentlichkeit in die Nutzung von KI-Systemen durch transparente und verantwortungsvolle Praktiken.

Der EU AI Act wird in verschiedenen Phasen umgesetzt, wobei wichtige Termine und Anforderungen wie folgt festgelegt sind:

  • 6 Monate nach Inkrafttreten:
    Verbotene KI-Praktiken müssen adressiert werden, und es wird ein Fokus auf die Steigerung der KI-Kompetenz gelegt.
  • 12 Monate nach Inkrafttreten:
    Anforderungen für generische KI-Modelle müssen erfüllt werden.
  • 24 Monate nach Inkrafttreten:
    Anforderungen für hochriskante KI-Systeme für spezifische Anwendungen müssen erfüllt werden.
  • 36 Monate nach Inkrafttreten:
    Anforderungen für hochriskante KI-Systeme für weitere Anwendungen müssen erfüllt werden.

Rolle von Standards

Standards spielen eine zentrale Rolle im Rahmen des EU AI Act, indem sie klare und einheitliche Richtlinien für die Entwicklung, Implementierung und Nutzung von KI-Systemen festlegen. Diese Standards helfen dabei, die Sicherheit, Transparenz und Vertrauenswürdigkeit von KI-Anwendungen zu gewährleisten, indem sie Best Practices und technische Spezifikationen definieren.

Durch die Einhaltung international anerkannter Standards können Unternehmen sicherstellen, dass ihre KI-Systeme den regulatorischen Anforderungen entsprechen und gleichzeitig die Interoperabilität und Kompatibilität zwischen verschiedenen Systemen und Anwendungen fördern. Dies erleichtert nicht nur die Integration von KI-Technologien in verschiedene Sektoren, sondern trägt auch zur Vermeidung von Fragmentierung innerhalb des Binnenmarkts bei.

Harmonisierte Standards stellen den besten Ansatz zur Gewährleistung der Konformität mit dem EU AI Act dar. Diese technischen Spezifikationen werden von anerkannten Standardisierungsorganisationen entwickelt und sind darauf ausgelegt, die Anforderungen der Verordnung zu erfüllen. Die Einhaltung harmonisierter Standards bietet eine Vermutung der Konformität, wodurch die Belastung für Anbieter und Anwender von KI-Systemen reduziert wird. Durch die Einhaltung dieser Standards können KI-Entwickler sicherstellen, dass ihre Systeme sicher, zuverlässig und transparent sind, was das Vertrauen der Nutzer und Stakeholder fördert. Harmonisierte Standards fördern auch die Innovation, indem sie klare Richtlinien bieten und regulatorische Unsicherheiten verringern.

Schlussfolgerung

Der EU AI Act stellt einen bedeutenden Schritt in Richtung einer verantwortungsvollen und sicheren Nutzung von Künstlicher Intelligenz dar. Durch die Festlegung klarer Regeln und Anforderungen für die Entwicklung und den Einsatz von KI-Systemen soll sichergestellt werden, dass diese Technologien auf eine Weise genutzt werden, die sowohl für die Nutzer als auch für die Gesellschaft als Ganzes von Vorteil ist.

Der Act wird dazu beitragen, das Vertrauen in KI-Systeme zu stärken und die Akzeptanz von KI in der Gesellschaft zu fördern. Die umfangreichen Vorschriften und die detaillierte Klassifizierung von KI-Systemen und -Modellen bieten einen robusten Rahmen, der die Sicherheit und Transparenz von KI-Anwendungen gewährleistet. Dies ist besonders wichtig in einer Zeit, in der KI immer mehr in kritischen Bereichen eingesetzt wird und erhebliche Auswirkungen auf das tägliche Leben der Menschen haben kann.

Jedoch gibt es auch Herausforderungen: Die Entwicklung und Implementierung harmonisierter Standards erfordert kontinuierliche Zusammenarbeit und Konsensfindung unter einer Vielzahl von Stakeholdern. Zudem müssen Lücken geschlossen werden. Die Komplexität der Funktionalität und die Interaktionen von KI-Systemen mit ihrer Umwelt machen es erforderlich, dass alle relevanten Aspekte adäquat berücksichtigt werden. Trotz der bestehenden Herausforderungen ist der EU AI Act ein entscheidender Schritt, um ein harmonisiertes, sicheres und förderliches Umfeld für die Entwicklung und Nutzung von KI-Technologien zu schaffen. Durch die Einhaltung der im EU AI Act festgelegten Standards können Unternehmen sicherstellen, dass ihre KI-Systeme nicht nur innovativ, sondern auch sicher und ethisch vertretbar sind. Dies kann dazu beitragen, das Potenzial von KI voll auszuschöpfen und gleichzeitig die Risiken zu minimieren, die mit ihrer Nutzung verbunden sind.

 

Über den Autor:
Dr. Wilhelm Griga ist Senior Quality Manager bei der Siemens AG, Digital Industries mit dem Fokus Organisationsentwicklung, digitale Transformation, agiles Managementsystem, nachhaltiges Non-Conformance Management und modernes Audit Management. Er verfügt über funktionsübergreifende, internationale Personalführungserfahrung und ist Hochschuldozent für Business Excellence.

EU KI-Gesetz: Neue Regelungen für sichere und gesetzeskonforme KI-Produkte

Von Predictive Maintenance und Kameraprüfungen bis hin zu intelligenten Konsumgütern – KI spielt eine entscheidende Rolle in der modernen Industrie. Das kürzlich verabschiedete EU KI-Gesetz bringt neue Anforderungen und Regulierungen, die erhebliche Auswirkungen auf die Entwicklung und den Einsatz von KI in Europa haben werden.  Dieser Artikel erläutert grundsätzliche Begriffe der EU KI-Gesetzgebung und erklärt, worauf Unternehmen bei der Einführung neuer KI-Lösungen achten müssen.

Das KI-Gesetz definiert ein KI-System als „ein maschinengestütztes System, das für einen in unterschiedlichem Grade autonomen Betrieb ausgelegt ist und das nach seiner Betriebsaufnahme anpassungsfähig sein kann und das aus den erhaltenen Eingaben für explizite oder implizite Ziele ableitet, wie Ausgaben wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die physische oder virtuelle Umgebungen beeinflussen können.

Diese Definition von KI-Systemen ist deutlich breiter als der allgemeine Sprachgebrauch. Wenn heute von KI-Systemen die Rede ist, dann meist im Zusammenhang mit Chatbots wie ChatGPT oder Gemini. Tatsächlich sind in der Definition des KI-Gesetzes auch Systeme eingeschlossen, die heute bereits zum Alltag gehören, wie Empfehlungsalgorithmen bei YouTube oder Amazon. Auch Übersetzungsprogramme können in diese Kategorie fallen.

Das EU KI-Gesetz wurde entwickelt, um die sichere und ethische Nutzung von KI in Europa zu gewährleisten. Er schafft ein einheitliches Regelwerk, das Transparenz, Verantwortlichkeit und Sicherheit fördern soll. Ein gutes Beispiel für den Einsatz von KI-Systemen in der Industrie sind Predictive Maintenance-Anwendungen , zum Beispiel bei der Wartung von Windturbinen. Hierbei werden Maschinen und Anlagen kontinuierlich überwacht, um potenzielle Ausfälle frühzeitig zu erkennen und präventive Wartungsmaßnahmen durchzuführen. Diese prädiktiven Systeme nutzen große Mengen an Sensordaten und fortschrittliche Algorithmen, um Muster zu erkennen und Vorhersagen zu treffen.

Ein weiteres Beispiel sind automatische Kameraprüfungen. Klassische Kameraprüfungen arbeiten mit Helligkeits- oder Kantenerkennungen. Inzwischen setzen immer mehr Hersteller auf KI-Methoden, um Kameraprüfungen anhand von Beispielbildern zu trainieren. Auf diesem Weg lassen sich auch aufwändige Prüfungen realisieren, die ansonsten nur mit Hilfe von Werkern umsetzbar wären.

Das EU KI-Gesetz folgt einem risikobasierten Ansatz. Insbesondere wenn Sicherheitsaspekte oder die Interessen von natürlichen Personen berührt sind, müssen Anbieter von solchen KI-Systemen eine Vielzahl von Anforderungen einhalten. Solche Systeme fallen in der Regel in den Hochrisikobereich. In unserem letzten Artikel der Serie haben wir die grundsätzlichen Anforderungen an Hochrisiko-Systeme aufgelistet.

Prinzipien des KI-Gesetz zur Absicherung von KI-Systemen

Das KI-Gesetz folgt bei der Absicherung von KI-Systemen folgenden Prinzipien:

Transparenz:
KI-Systeme müssen so gestaltet sein, dass ihre Entscheidungen nachvollziehbar sind. Nutzer sollten erkennen, dass sie mit einem KI-System interagieren. Entscheidungen eines KI-Systems müssen im Zweifelsfall nachvollziehbar sein.

Sicherheit:
KI-Produkte müssen robuste Sicherheitsmaßnahmen enthalten, um Missbrauch und unerwünschte Auswirkungen zu verhindern.

Fairness und Datenschutz:
Der Schutz personenbezogener Daten muss gewährleistet sein. Entscheidungen und Empfehlungen müssen frei von ungerechtfertigter Diskriminierung sein. Diese Anforderungen sind bereits bei der Entwicklung des Systems zu berücksichtigen.

Überwachung und Verantwortlichkeit:
Es müssen Mechanismen zur kontinuierlichen Überwachung und Bewertung der KI-Systeme etabliert werden. Zudem ist klar festzulegen, wer die Verantwortung für das Funktionieren und die Entscheidungen der KI trägt.

Diese Prinzipen decken sich in großen Teilen mit denen vorangegangener Veröffentlichungen, wie dem KI-Prüfkatalog des Fraunhofer IAIS Instituts.

Herausforderungen bei der Absicherung von KI-Systemen

Eine Herausforderung bei der Absicherung von KI-Systemen besteht in der Tatsache, dass diese Systeme in der Regel lernfähig sind.

Traditionell produzierte Produkte durchlaufen in der Regel einen linearen Entwicklungsprozess: Design, Prototyping, Produktion, Qualitätskontrolle und schließlich Markteinführung. Diese traditionellen Produkte sind in ihrer Funktion festgelegt und ändern sich nicht wesentlich nach dem Verkauf. Auf lernfähige KI-Systeme trifft dies nicht zu. Sie können sich in ihrer Funktion durch das Erlernen neuer Informationen nach der Markteinführung noch verändern. Aus diesem Grund umfasst der Entwicklungsprozess von KI-Produkten nicht nur das ursprüngliche Design und die Produktion, sondern auch die Implementierung von Datenmanagementstrategien, die Entwicklung und das Training von Modellen sowie fortlaufende Überwachung und Updates nach der Markteinführung.

Für die praktische Umsetzung der gesetzlichen Vorgaben hat die EU der europäischen Normenorganisation Cen/Cenelec einen Normungsauftrag erteilt. In der Arbeitsgruppe JTC21 – Artificial Intelligence sind inzwischen 21 Normen und Richtlinen in Erstellung, die die unterschiedlichen Aspekte der EU KI-Gesetzgebung betreffen. Diese Normen regeln zum Beispiel das Qualitätsmodell für künstliche Intelligenz und beschreiben Methoden zur Vermeidung von ungewollten statistischen Verzerrungen (Bias) in Trainingsdatensätzen.

Unternehmen, die aktuell bereits KI in ihren Produkten einsetzen, sollten sich darauf einstellen, dass eine Vielzahl von Anforderungen in kurzer Zeit umgesetzt werden müssen. Ein Beispiel hierfür sind die Data Governance Anforderungen (CLC/TR 18115), die nach jetziger Planung am 29. August 2024 verabschiedet werden. Die zugehörigen gesetzlichen Anforderungen werden bereits im Mai 2025 verpflichtend für alle Systeme der mittleren und hohen Risikokategorie (siehe Abb. 1). Diese beiden Kategorien umfassen eine Vielzahl von Systemen von Chatbots über Empfehlungssysteme bis hin zu sicherheitskritischen Systemen (zum Beispiel in Medizin, Verkehr und Bildung).

Schritte zur Einführung von KI-Systemen gemäß EU-KI-Gesetzgebung

Das KI-Gesetz legt einen Großteil der Verantwortung für Absicherung zur Markteinführung und sicheren Betrieb in die Hände der Betreiber der KI-Systeme. Abbildung 1 zeigt die wichtigen Schritte zu Einführung von KI-Systemen gemäß EU KI-Gesetzgebung. Unternehmen, die KI einsetzen, müssen die eingesetzten KI-Systeme erfassen und die Risikokategorie selbstständig bestimmen. Unser KI-Selfassessment kann Sie bei dieser Aufgabe unterstützen. Eine nähere Beschreibung der Risikokategorien befindet sich im vorangegangenen Beitrag dieser Serie.

KI-Systeme, die in der EU zulässig sind, fallen in die Kategorien geringes Risiko (keine zusätzlichen gesetzlichen Anforderungen aus dem KI-Gesetz), mittleres Risiko (Transparenz- und Data-Governanceanforderungen) und Hochrisiko-Systeme.

Einführung von KI-Systemen nach EU KI-Gesetz

Abb. 1: Einführung von KI-Systemen nach EU KI-Gesetz

Systeme mit mittlerem und geringem Risiko werden von den Unternehmen in Eigenregie überwacht. Für Hochrisiko-Systeme existieren weitere Anforderungen aus dem KI-Gesetz. Diese Anforderungen treten ab Mai 2026 in Kraft und werden nach Abschluss einer 12-monatigen Übergangsfrist im Mai 2027 verpflichtend. Bevor diese Hochrisiko-KI-Systeme in der EU in Verkehr gebracht werden dürfen, muss ein unabhängiges 3rd Party-Assessment durchgeführt werden. Voraussetzung für ein erfolgreiches 3rd Party-Assessment sind ein bestehendes Managementsystem und ein dazugehöriges Risikomanagement. In diesem Zusammenhang wird auch die ISO 42001:2023 als Systemnorm für künstliche Intelligenz an Bedeutung gewinnen. Sie ist zwar nicht explizit im Gesetzestext benannt, bietet aber eine gute Basis für die Entwicklung moderner KI-Systeme.

Nach bestandenem 3rd Party-Assessment muss die Hochrisiko-Anwendung in einer zentralen EU-Datenbank registriert werden. Auf dieser Basis kann das Unternehmen im Anschluss eine CE-Kennzeichnung erstellen und das Produkt in den Umlauf bringen.

Ausblick

Zusammenfassend kann gesagt werden, dass das EU KI-Gesetz einen bedeutenden Schritt zur Regulierung und Sicherstellung sicherer und ethischer KI-Systeme darstellt. Für Unternehmen bedeutet dies, dass sie ihre KI-Prozesse und -Produkte genau prüfen und an die neuen Anforderungen anpassen müssen. Der erste Schritt besteht in einer Bewertung der Risikokategorie aller bestehenden KI-Anwendungen, die bereits im Unternehmen oder in Produkten im Einsatz sind. Die Definition von KI-Systemen aus dem KI-Gesetz legt fest welche Systeme hierbei betrachtet werden müssen. Im zweiten Schritt muss die Einhaltung der relevanten Anforderungen sichergestellt werden. Hierbei sind insbesondere die Meilensteine für die Einhaltung der Transparenz- und Data Governance-Anforderungen ab Mai 2025 und das Ende der Übergangsfrist für Hochrisiko-Systeme im Mai 2027 zu beachten.

 

Lesen Sie mehr zum Thema “Künstliche Intelligenz in der Qualität” in den folgenden Fachbeiträgen:

  • Teil 1: Künstliche Intelligenz in der Qualität – Bestehendes Know-how effektiv nutzen – zum Beitrag »
  • Teil 2: Künstliche Intelligenz in der Qualität – Welche Qualifikationen werden benötigt? – zum Beitrag »
  • Teil 3: Künstliche Intelligenz in der Qualität – Praktische Einführung durch iteratives Vorgehen – zum Beitrag »

 

Über die Autoren:

Dipl.-Ing. Waldemar Fahrenbruch ist Head of Q-Technology Division E-Mobility bei der ZF Friedrichshafen AG. Er ist verantwortlich für die Qualitätskostensenkung bei gleichzeitiger Optimierung von Qualitätskonzepten in den Werken der Division E (TCU, Power Electronics und E-Motoren Fertigung) durch Methodenkompetenz der Qualität, künstlicher Intelligenz und digitaler Transformation.

Dr.-Ing. Stefan Prorok ist Geschäftsführer der Prophet Analytics GmbH und DGQ-Trainer für Qualitätssicherung und Künstliche Intelligenz. Prophet Analytics unterstützt Unternehmen in allen Phasen Ihrer KI-Umsetzung mit Trainings- und Beratungsangeboten. Kontakt: ki@prophet-analytics.de

Das Lieferkettensorgfaltspflichtengesetz – mögliche Auswirkungen auf Qualität und Reputation

Lieferkettensorgfaltspflicht

Das Lieferkettensorgfaltspflichtengesetz (LkSG) schreibt Unternehmen seit dem 1. Januar 2024 ab 1.000 Beschäftigten bestimmte Sorgfaltspflichten vor, um Menschenrechtsverletzungen und Umweltschäden in ihren Lieferketten zu verhindern. Es regelt die unternehmerische Verantwortung für die Einhaltung von Menschenrechten in globalen Lieferketten, wie zum Beispiel der Schutz vor Kinderarbeit, das Recht auf faire Löhne und der Schutz der Umwelt.

Die Zielsetzung des LkSG ist eindeutig. Aber wirkt sich dieses Gesetz vielleicht positiv auf das Thema Qualität aus? Wenn Produkte und Dienstleistungen unter Einhaltung bestimmter Mindeststandards erbracht beziehungsweise produziert werden, könnte sich dies positiv auf deren Qualität auswirken. Dagegen spricht allerdings, dass der mit dem LkSG verbundene finanzielle und faktische Aufwand dazu führen kann, dass bei der Qualität eingespart wird. Insofern lässt sich die Frage an dieser Stelle nicht eindeutig beantworten. Wenn an der Qualität in der Lieferkette nicht gespart wird, stellt sich zudem die weitergehende Frage, wer den höheren Preis zahlt – die Lieferanten und/oder die Kunden?

Gesetzliche Anforderungen des Lieferkettensorgfaltspflichtengesetz

Betrachten wir einmal die beiden wesentlichen, gesetzlichen Anforderungen des LkSG:

Erstens die Risikoanalyse und zweitens die Berichte an Vorstand oder Geschäftsführung und an das Bundesamt für Wirtschaft und Ausfuhrkontrolle. Es wird deutlich, dass das Ergebnis neben höherer Transparenz der Lieferketten auch ein höherer qualitativer, aber insbesondere sicherer Standard ist. Der mit diesen LkSG-Kernmaßnahmen einhergehende finanzielle und faktische Aufwand ist zwar für jedes Unternehmen, abhängig von der jeweiligen Größe, unterschiedlich hoch. Aus neutraler und gesellschaftlicher Sicht ist es jedoch wichtig zu eruieren, unter welchen Bedingungen Dienstleistungen und Produkte erbracht und hergestellt werden, damit insbesondere Menschenrechte und Umweltbelange adäquat berücksichtigt und sichergestellt werden können.

In der Vergangenheit wurden in bestimmten Branchen oft aus kommerziellen Gründen die Augen geschlossen. Als Beispiele dienen etwa die Kinderarbeit beim Abbau bestimmter seltener Erden in Steinbrüchen oder bei der Ernte der Bohnen auf Kaffeeplantagen sowie die Näherinnen, die eingepfercht in Hochhäusern unter katastrophalen Arbeitsbedingungen billige Textilien für den europäischen Markt herstellten.

Positive Spin-off-Effekte durch das Lieferkettensorgfaltspflichtengesetz

Vor diesem Hintergrund beeinflusst das LkSG also durchaus positiv die Rahmenbedingungen, zu denen Dienstleistungen erbracht und Produkte hergestellt werden. Das Fairtrade-Siegel in Deutschland für Waren, wie zum Beispiel Kaffee, Kakao, Bananen oder Baumwolle, Saft, Tee, Reis, Honig, Zucker und Wein bis hin zu Schnittblumen und Gold ist hierfür der beste Beweis.

In diesem Kontext könnte ein positiver Spin-off-Effekt sein, dass Unternehmen in LkSG-kritischen Branchen, wie Textilindustrie, Gewinnung seltener Erden, Hersteller von Elektrobatterien, sich allmählich aus dem „Schmuddelmilleu“ herausentwickeln. So wird die Diskussion über deren Dienstleistungen oder Produkte versachlicht. Berichte über Kinderarbeit in Steinbrüchen oder unsägliche Arbeitsbedingungen dürften damit der Vergangenheit angehören, was ja begrüßenswert ist.

Fazit

Trotz der aufgezeigten Vorzüge rund um das LkSG, reißt die Diskussion über das Gesetz und die neue, beschlossene europäische EU-Lieferkettenrichtlinie nicht ab. Für die Zukunft wird weiter diskutiert werden, ob nicht eine differenziertere Betrachtung des LkSG erforderlich ist. Damit einher geht die Frage, für welche Unternehmen und welche Branchen dieses Gesetz überhaupt sinnvoll angewendet und eingegrenzt werden soll. Es erscheint nicht sinnvoll, einfach quantitative Grenzen anzusetzen, etwa bei einer Schwelle von „1000 Beschäftigten“. Zumal die am 24. April 2024 verabschiedete EU-Lieferkettenrichtlinie weitere Anforderungen für Unternehmen festschreibt, die allerdings erst nach der Umsetzungsfrist von zwei Jahren ab dem 24. April 2026 im nationalen Recht wirksam werden. Es sollte überlegt werden, für die Erzeugung von Produkten und Dienstleistungen ganz bestimmte (LkSG-kritische) Branchen festzulegen, die bereits in der Urproduktion Mindeststandards für Menschenrechte und Umweltschutz erfüllen müssen. So könnte zumindest der große Teil der LkSG-unkritischen Branchen von dem finanziellen und faktischen Aufwand entlastet werden.

 

Über den Autor:
Frank Dimmendaal ist (Syndikus-)Rechtsanwalt und als Leiter Risk-Management & Compliance im Bereich Sales & Service der Deutschen Telekom AG tätig. Als Compliance-, Operational Security Officer und LkSG-Beauftragter betreut er und sein Team vier Telekom-Tochtergesellschaften. Er ist seit rund 30 Jahren in verschiedenen Funktionen im Konzern Deutsche Telekom AG in Bonn tätig; seit mehreren Jahren bildet er zudem als Trainer bei der Deutschen Gesellschaft für Qualität GmbH in Frankfurt am Main Compliance Officer aus.

DGQ gründet Fachkreis Qualität in der Pflege

Dem Thema „Qualität in der Pflege“ widmet die Deutsche Gesellschaft für Qualität (DGQ) künftig einen eigenen Fachkreis. Pflege-Expert:innen aus dem Netzwerk der DGQ haben sich zum Ziel gesetzt, den Austausch von Wissen, Erfahrungen und Best Practices sektorenübergreifend zwischen Fachleuten aus der Pflege und angrenzender Disziplinen zu fördern. Damit soll auch das Engagement für innovative Ansätze, Technologien und Methoden gestärkt werden. Dies steigert die Effizienz und Wirksamkeit der Pflege und erfüllt damit besser die Bedürfnisse von Menschen, die pflegerische Leistungen erhalten und von Pflegenden. Sie sollen auch darin unterstützt werden, ihre Kompetenzen im Qualitätsmanagement und somit für die Qualität der Pflege zu erweitern.

Mit dem DGQ-Fachkreis ‚Qualität in der Pflege‘ bauen wir unser Angebot im Themenfeld ‚Pflege‘ weiter aus.“, erklärt Holger Dudel, Fachreferent Pflege bei der DGQ, „Damit schaffen wir eine weitere unabhängige Anlaufstelle und einen fachlichen Mehrwert in unserem Pflege-Netzwerk. Ich freue mich auf den Austausch und die gemeinsame Arbeit an Fragen rund um die Qualität in der Pflege.

Die DGQ besetzt das Themenfeld Pflege gezielt seit einigen Jahren und bietet hierfür eine unparteiliche Plattform. Gemeinsam mit ihren Mitgliedern schafft sie fachlichen Mehrwert und vertritt als wichtige Instanz im öffentlichen Diskurs die integrierte Sicht der Qualität, die neben der Optimierung von Prozessen und Organisationen auch ausdrücklich die Anforderungen der am Pflegeprozess beteiligten Personen einbezieht. Diese Perspektive fördert und verbessert nachhaltig erfolgreiches Entscheiden, Handeln und Haushalten.

Mit dann acht Fachkreisen bietet die DGQ ihren Mitgliedern die Möglichkeit zum themenbezogenen Austausch mit Praktiker:innen und Expert:innen aus Wissenschaft und Praxis. Sie lernen von- und miteinander, entwickeln neue Positionen, Methoden und QM-Ansätze und stellen ihre Ergebnisse allen DGQ-Mitgliedern und der Fach-Öffentlichkeit zur Verfügung.

Das erste Treffen des DGQ-Fachkreises Qualität in der Pflege findet am 2. Oktober 2024 statt. Die Mitgliederplattform DGQplus informiert laufend über die aktuellen Entwicklungen und Termine.

 

Nehmen Sie Kontakt zu uns auf und werden Sie DGQ-Mitglied

Bei Fragen zum Themenfeld Qualität in der Pflege wenden Sie sich gerne per E-Mail an Holger Dudel unter holger.dudel@dgq.de.

Bei Fragen zur Fachkreisarbeit bei der DGQ wenden Sie sich gerne per E-Mail an Natalie Rittgasser unter com@dgq.de.

Sie sind DGQ-Mitglied aber noch nicht auf dem Mitgliederportal DGQplus? Dann schreiben Sie uns einfach eine kurze E-Mail an support-dgqplus@dgq.de und wir ändern das sofort.

Sie sind (noch) kein DGQ-Mitglied und deshalb auch nicht auf dem Mitgliederportal DGQplus? Dann nutzen Sie doch einfach unsere kostenfreie Schnuppermitgliedschaft und lassen sich von den Vorteilen überzeugen.

Reklamationsmanagement – die richtige Mischung aus Prozess, Recht und Kulanz macht’s!

Reklamationsmanagement, Kundenzufriedenheit

Mit einem guten Reklamationsmanagement erreicht ein Unternehmen viele Ziele: Geordnete Abwicklung von – berechtigten und nicht berechtigten – Reklamationen, Verbesserung der Produkte, Minimierung von Haftungsrisiken, Compliance. All dies geschieht aus Interesse am Erfolg des eigenen Unternehmens und an der Zufriedenheit seiner Kunden und Mitarbeiter.

Der Begriff „Reklamationsmanagement“ wird meist bekannt sein. Qualitätsmanagement im Allgemeinen und zum Beispiel die ISO 10002 im Besonderen adressieren (auch) das Reklamationsmanagement, allerdings primär aus allgemeiner Prozesssicht. Doch was sich zunächst nach bloßer Prozessabwicklung anhört, entpuppt sich schnell als komplexe Aufgabe, die auch betriebswirtschaftliche und rechtliche Elemente berücksichtigen muss, um die gewünschten Ziele (s.o.) auch tatsächlich zu erreichen. Bei grenzüberschreitenden Kunden /Lieferbeziehungen ergeben sich insofern weitere Herausforderungen. Die konkrete Ausgestaltung des Reklamationsmanagements orientiert sich am Charakter des eigenen Unternehmens. Es versteht sich von selbst, dass beispielsweise ein Online-Händler von Massenware ein anderes Reklamationsmanagement hat beziehungsweise haben sollte als ein Hersteller individuell gefertigter Artikel.

Dieser Fachbeitrag möchte die für das Reklamationsmanagement wesentlichen rechtlichen Implikationen aufzeigen und sowohl praxistaugliche als auch möglichst rechtssichere Lösungsansätze skizzieren.

Ausgangslage: Kundenreklamation

Ausgangslage soll hier eine Kundenreklamation sein, das heißt die Reklamation eines Kunden gegenüber dem eigenen Unternehmen. Gegenstück ist eine Lieferantenreklamation, das heißt die eigene Reklamation gegenüber einem Lieferanten. Die wesentlichen Grundsätze sind aber „spiegelbildlich“ ähnlich und eine Kundenreklamation wird häufig auch eine Lieferantenreklamation oder zumindest die Prüfung einer solchen nach sich ziehen.

Vorfragen bei Eingang einer Kundenreklamation

Reklamationsmanagement im Ganzen ist Chefsache. Im Tagesgeschäft wird eine Kundenreklamation jedoch meist bei der Service- beziehungsweise (After-)Sales-Abteilung eingehen.

Hier stellen sich zunächst verschiedene Vorfragen:

  1. Prüfung von Sofortmaßnahmen bei „Gefahr im Verzug“.
    Bestehen durch die (behaupteten) Mängel Gefahren für Leib und Leben von Personen? Handelt es sich um einen Serienfehler? Um insofern Haftungsrisiken zu vermeiden sind gegebenenfalls – und dann sehr kurzfristig – Maßnahmen zu prüfen und zu ergreifen, womöglich bis hin zu einem Rückruf.
  2. Droht aus sonstigen Gründen ein besonderes Haftungsszenario?
    Zum Beispiel ein außergewöhnlicher Schadenumfang oder sollte die Reklamation berechtigt sein?
  3. Differenzierung in Abhängigkeit von der „Wichtigkeit“ des reklamierenden Kunden?
    Grundsätzlich wird man seine Kunden gleich behandeln wollen und müssen. Einem Unternehmen wird man es aus unternehmerischer Sicht jedoch nicht verübeln können, gegenüber einem besonders wichtigen Großkunden einen anderen, das heißt, kulanteren Maßstab anzulegen.

In diesem Zusammenhang wird man sich im Reklamationsfall auch die gesamte Kundenvertrags-/-Geschäftsbeziehung ansehen (Offene Rechnungen? Bisherige Reklamationsfälle mit diesem Kunden? Zukünftige Geschäftsaussichten mit diesem Kunden?). Abhängig von diesen Vorfragen kann die weitere Reklamationsabwicklung abweichende und ergänzende Sonderwege erforderlich machen.

Berufsbild Compliance Officer
Durch Digitalisierung, den Einsatz von neuen Technologien und unterschiedlichen Regelungen im nationalen und internationalen Umfeld wird das Thema Compliance für Unternehmen immer wichtiger. Aber auch Verbraucher und Investoren legen einen immer größeren Wert auf die Einhaltung von ethischen Standards. Mit Blick auf das steigende Bewusstsein gewinnt das Berufsbild des Compliance Officer zunehmend an Bedeutung. Antworten auf die wichtigsten Fragen finden Sie in unserem Berufsbild zum Compliance Officer:

  • Was ist ein Compliance Officer?
  • Welche Aufgaben betreuen Compliance Officer?
  • Wie werde ich Compliance Officer?
  • Welche Weiter­bildungs­möglich­keiten gibt es?
  • Wie viel verdient ein Compliance Officer?
  • Welche Karrieremöglichkeiten gibt es?

Zum Berufsbild Compliance Officer »

Aufgaben und Handlungspflichten/-optionen gegenüber dem Kunden

Im Übrigen beginnt die Reklamationsabwicklung mit der Aufnahme der Reklamation und erster Korrespondenz mit dem Kunden.

Unternehmensintern stehen dann die folgenden Hauptaufgaben im Vordergrund:

  • Liegt eine berechtigte oder eine unberechtigte Reklamation vor?
  • Welchen Pflichten beziehungsweise welcher Haftung bin ich als Unternehmen gegenüber dem Kunden ausgesetzt, sollte die Reklamation berechtigt sein?
  • Wie kommuniziere ich mit dem Kunden richtig, wenn die Reklamation (un)berechtigt war?

Die Prüfungen dieser Hauptaufgaben sind sowohl technischer als auch rechtlicher Art.

In technischer Hinsicht muss insbesondere geklärt werden, ob tatsächlich ein Fehler vorliegt und dieser bereits bei Übergabe vorlag. Hierzu wird meist eine Untersuchung des reklamierten Teils erforderlich sein. Typische Abnutzungen und Verschleiß sind keine Fehler, die einen rechtserheblichen Mangel darstellen. Liegen womöglich Anhaltspunkte für eine unsachgemäße Verwendung, Gewalteinwirkung etc. vor? Vorsorglich, für den Fall eines späteren Rechtsstreits, sind die Erkenntnisse beweismäßig zu sichern und zu dokumentieren. Die Beweislast für das Vorliegen eines Mangels liegt im Streitfall jedoch grundsätzlich beim Kunden.

Bei Vorhandensein eines Fehlers aus technischer Sicht muss sodann in rechtlicher Hinsicht unter Berücksichtigung des geltenden Rechtsrahmens (das heißt gemäß Gesetz, Vertrag, gegebenenfalls einbezogener Allgemeiner Geschäftsbedingungen, abgegebener Garantien und sonstiger Bestimmungen, zum Beispiel zur Verjährung) geprüft werden, ob der Fehler ein rechtsrelevanter Mangel ist und welche Rechtsfolgen, das heißt Einstandspflichten sich daraus für das Unternehmen ergeben. Liegt eine Lieferkette vor, sind insbesondere auch die Vorschriften zum Lieferantenregress zu beachten. Besonders praxisrelevant ist auch, ob der Kunde seiner Verpflichtungen aus § 377 HGB zur unverzüglichen Untersuchung und Rüge ordnungsgemäß nachgekommen ist. Ist dies nicht erfolgt, geht der Kunde grundsätzlich leer aus.

Liegt im Ergebnis eine berechtigte Reklamation, das heißt ein Mangel vor, für den das Unternehmen gegenüber dem Kunden einzustehen hat, kommen grundsätzlich mehrere/verschiedene Einstandspflichten in Betracht, wie im Einzelnen durch Gesetz, Vertrag, Garantie etc. bestimmt.

Ausgehend von der Anwendung deutschen Gesetzesrechts sind dies insbesondere (jeweils unter weiteren Voraussetzungen):

  1. Nacherfüllung, das heißt Ersatzlieferung oder Reparatur in Verbindung mit Kostenersatz
  2. Rücktritt oder Minderung
  3. Schaden- und/oder Aufwendungsersatz

Unter Berücksichtigung dessen, was der Kunde verlangt hat, sollte eine entsprechende Lösung gegenüber dem Kunden kommuniziert werden. Im Idealfall einigt man sich mit dem Kunden auf eine angemessene Kompromisslösung, ohne dass es zum Rechtsstreit kommt.

Bei einer im Ergebnis unberechtigten Reklamation sollten im Regelfall die vom Kunden geltend gemachten Ansprüche mit geeigneter Begründung zurückgewiesen werden. Im Einzelfall wird sich aus Gründen der Kundenzufriedenheit und zur Vermeidung eines Rechtsstreits die Frage nach einer Kulanzlösung stellen. Für angemessene Kulanzlösungen sollte grundsätzlich ein gewisser Spielraum bestehen, dies jedoch nicht im Regelfall aus Unsicherheit über die eigenen Verpflichtungen, sondern nur im Ausnahmefall bewusst unter Abwägung der eigenen Position und der Vor- und Nachteile der Kulanzlösung. Die Kommunikation einer Kulanzlösung gegenüber dem Kunden bedarf besonderer Sorgfalt, um keine ungewollten Rechtswirkungen wie zum Beispiel ein Anerkenntnis oder eine Verlängerung der Verjährungsfrist auszulösen.

Interne und externe Ressourcen sowie Werkzeuge für die Reklamationsabwicklung

Für die Durchführung der vorstehend skizzierten Schritte benötigt das Unternehmen geeignete Ressourcen und Werkzeuge.

An erster Stelle sind dies entsprechend ausgebildete und geschulte eigene Mitarbeiter der Reklamationsabteilung. Eine persönliche Haftung bei fehlerhaftem Handeln brauchen die Mitarbeiter regelmäßig nicht zu befürchten, denn es gelten die sogenannten Grundsätze der privilegierten Arbeitnehmerhaftung.

Da es im Ergebnis entscheidend auch auf rechtliche Beurteilungen ankommt, bedarf es zudem einer eigenen Rechtsabteilung oder einer spezialisierten externen Kanzlei, und zwar im Rahmen der erstmaligen Implementierung des Reklamationsmanagements sowie bei Bedarf im jeweiligen Einzelfall. Die nachstehend genannten Werkzeuge stellen jedoch eine weitgehend autonome Bearbeitung von typischen Reklamationsfällen durch das Unternehmen selbst sicher.

Für eine schnelle und zuverlässige Reklamationsbearbeitung kommen typischerweise folgende Werkzeuge zum Einsatz:

  • Leitfäden, Flussdiagramme, Checklisten
  • Zuständigkeitspläne
  • Musterschreiben
  • Schulungen und Beispielsfälle
  • Softwarelösungen

Weitere (interne) Konsequenzen einer Kundenreklamation

Im Rahmen einer Kundenreklamation sind vom Unternehmen weitere Aspekte zu prüfen, wie insbesondere:

  • Regressmöglichkeiten gegenüber Lieferanten fehlerhafter Teile unter Beachtung gesetzlicher und vertraglicher Bestimmungen, zum Beispiel § 377 HGB, Verjährung etc.
  • Maßnahmen gemäß Produkt-/Produzentenhaftung (Rückruf?)
  • Produktverbesserungen/-neuentwicklungen zur Vermeidung von Fehlern und Kundenreklamationen gleicher/ähnlicher Art und zur Verbesserung der Produktsicherheit
  • Korrektur oder Ergänzung von Bedienungsanleitungen im Hinblick auf eine bestimmte Handhabe des Produkts zur Fehlervermeidung
  • Berücksichtigung bei der Vertragsgestaltung, zum Beispiel Einschränkungen des Verwendungszwecks des betroffenen Produkts, sonstige Haftungsbeschränkungen
  • Anpassung von Garantiebedingungen
  • Versicherungsdeckung, Anpassung Versicherungsschutz

Auf den Punkt gebracht

Reklamationsmanagement ist komplex, aber mit der richtigen Vorbereitung und angemessenen Ressourcen erfolgreich zu bewerkstelligen.

Ein gutes Reklamationsmanagement versetzt das Unternehmen in die Lage,

  1. zwischen berechtigten und unberechtigten Reklamationen zu unterscheiden,
  2. im Falle einer berechtigten Reklamation die eigenen Einstandspflichten sowie Regressmöglichkeiten einzuschätzen und damit die eigene Haftung zu minimieren,
  3. bewusst zu entscheiden, in welchen Fällen Kulanzlösungen erfolgen,
  4. in allen Phasen der Reklamationsbearbeitung angemessen mit dem Kunden zu kommunizieren und
  5. die aus einer Reklamation gewonnenen Erkenntnisse zu verwerten, zum Beispiel im Rahmen von Produktverbesserungen und Produktneuentwicklungen.

Unternehmen mit einem solchen Reklamationsmanagement sichern sich die Zufriedenheit ihrer Kunden, reduzieren ihre Haftungsrisiken und sind damit langfristig erfolgreich.

 

Über den Autor:
Gunnar Helms ist Rechtsanwalt in Hamburg und Mitgründer der Kanzlei VON ILSEMANN | HELMS. Er berät vorrangig mittelständische Unternehmen im Handels- und Gesellschaftsrecht. Sein Schwerpunkt liegt dabei in der Beratung der Unternehmen in allen rechtlichen Belangen ihres operativen Geschäfts wie eine (ausgelagerte) Rechtsabteilung. Gunnar Helms ist regelmäßig als Referent tätig und u.a. Mitglied der Deutschen Gesellschaft für Qualität (DGQ) sowie im Internationalen Controller Verein (ICV), wo er zudem Leiter des Fachkreises „Compliance-Management & Controlling“ ist.

Kontakt: gh@vonilsemann-helms.de

 

3. Süddeutscher Qualitätstag zeigt aktuelle Trends und Entwicklungen für das Qualitätsmanagement von Morgen

Über 140 Teilnehmende haben sich am 28. Juni 2024 am Fraunhofer IPA in Stuttgart zum 3. Süddeutschen Qualitätstag zusammengefunden.

Auf dem Programm standen Vorträge verschiedener Experten sowie Diskussionen zu aktuellen Trends und Entwicklungen im Qualitätsmanagement. Das abwechslungsreiche Programm begann mit einem inspirierenden Vortrag von Buchautor Lars Vollmer. Eingeleitet durch eine Anekdote über das Fußballspiel Barbados gegen Grenada 1994, veranschaulichte er eindrucksvoll, wie der Kontext und die strukturellen Spielregeln das Verhalten einer Gruppe prägen können.

Süddeutscher Qualitätstag 2024

©Deutsche Gesellschaft für Qualität e.V.

Der weitere Verlauf des Tages war geprägt von vielen fachlichen Vorträgen und Workshops. Mit dabei waren auch einige DGQ-Firmenmitglieder. Dr. Ludwig Schares von der Porsche AG referierte über „Product Compliance System“. Dr. Dalibur Dudic von Daimler Truck AG griff das Thema „Der Weg zum lokal CO2 neutralen Transport“ auf. Christian Pflüger vom Logistikunternehmen Dachser SE gab Einblicke in die Logistikprozesse, die mit fachlicher Unterstützung der DGQ Weiterbildung und mit besonderem Fokus auf die Durchführung interner und externer Audits optimiert wurden.

Parallel dazu gab es viel Zeit für den persönlichen Austausch und interessante IPA-Forschungsführungen auf dem Fraunhofer-Gelände. Zu sehen und zu bestaunen waren unter anderem ein E-Truck der Daimler-Truck AG sowie ein Exoskelett der Firma Ottobock SE & Co. KG.

Süddeutscher Qualitätstag 2024

©Deutsche Gesellschaft für Qualität e.V.

Mit dem abschließenden Vortrag begeisterte Markus Reimer das gesamte Publikum zum Thema „Die Chancenchance: Managementsysteme der Zukunft“. Er verdeutlichte, wie wichtig es ist, dass die unternehmerische Qualitätspolitik mit den Unternehmenszielen und den dazugehörigen Prozessen in Einklang steht, damit das QMS nicht, wie häufig in Audits erlebt, zu einem formellen Ritual verkommt. Wenn Innovation und Chancen aufgrund ihrer Unvorhersehbarkeit außerhalb des PDCA-Zyklus des QMS ablaufen, stellt sich zu Recht die Frage nach der Sinnhaftigkeit und Nachhaltigkeit des QMS. Es läge ganz bei uns, ob wir als Q-Enthusiasten den Status quo verwalten oder durch unseren Einsatz das bestehende QMS verändern.

Die mehr als 140 Teilnehmenden auf dem in Kooperation mit dem Fraunhofer IPA veranstalteten Süddeutschen Qualitätstag zogen nach Abschluss ein durchweg positives Resümee. Auch in 2025 findet der Branchentreff für Qualitätsmanager wieder in Stuttgart statt. Ein genauer Termin steht noch nicht fest.

 

Kontakt:

Marco Gutöhrlein

Leitung Geschäftsstelle Stuttgart

marco.gutoehrlein@dgq.de

Biodiversitätsmanagement im unternehmerischen Kontext: Tipps für die Praxis

Biodiversitätsmanagement, Unternehmen

Biodiversität ist essenziell für das Leben auf unserem Planeten. Wissenschaftler warnen: Mit schlechtem Klima lässt sich überleben, ohne Biodiversität nicht. Das Erreichen planetarer Belastbarkeitsgrenzen ist ein alarmierendes Signal für Unternehmen, ihren Fokus auf dieses Thema zu legen. Sie sollten daher Biodiversitätsmanagement in ihr Nachhaltigkeitsmanagement integrieren.

Aktuelle Situation

Biodiversität umfasst die Vielfalt des Lebens auf der Erde, einschließlich der Gene, Arten und Ökosysteme, die für die Stabilität und Produktivität unserer natürlichen und wirtschaftlichen Systeme unverzichtbar ist. 50 Prozent aller Emissionen werden von der Natur absorbiert. Ohne diese Absorption würden sich die Emissionen in der Atmosphäre drastisch erhöhen, was zu schwerwiegenden Klimaveränderungen führen würde. 75 Prozent der weltweiten Nahrungsmittelproduktion hängt von Bestäubern wie Bienen ab. Ihr Verlust kann die Erträge verringern und die Kosten für Bestäubungsdienste in die Höhe treiben. Die „Hochzeitstorte“ (Abbildung 1) verdeutlicht die Beziehung zwischen den UN-Zielen für nachhaltige Entwicklung (Sustainable Development Goals, SDGs) und der hohen Bedeutung der Natur und Biodiversität.

Mehr als die Hälfte des globalen Bruttoinlandsprodukts, rund 44 Billionen US-Dollar, hängt von einer intakten Natur ab (WWF, 2023). Laut dem World Economic Forum (WEF) zählen der Verlust der Artenvielfalt und der Zusammenbruch ganzer Ökosysteme zu den größten Risiken für die Weltwirtschaft (WEF, 2023). Der Verlust der Biodiversität führt schon jetzt jährlich zu wirtschaftlichen Einbußen von über 30 Billionen US-Dollar (NABU, BCG 2020), besonders in den Sektoren Pharmazie, Landwirtschaft, Fischerei und Tourismus. Veränderungen in natürlichen Systemen verursachen Ressourcenknappheit und erhöhen die Produktionskosten in wasserintensiven Branchen wie Landwirtschaft, Textil- und Getränkeindustrie. Die Degradierung von Ökosystemen und klimatische Veränderungen können Lieferketten destabilisieren, Versorgungsengpässe und Preisschwankungen hervorrufen. Angesichts der Biodiversitätskrise und der anderen Multikrisen ist dies keine erfreuliche Nachricht für Unternehmen. Der Global Risk Report 2024 zeigt, dass der Biodiversitätsverlust in einem Zehnjahreshorizont als drittgrößtes Risiko für Unternehmen wahrgenommen wird

Beziehung der Ziele für nachhaltige Entwicklung – Biosphäre ist die Basis

Abb. 1: Beziehung der Ziele für nachhaltige Entwicklung – Biosphäre ist die Basis
(Quelle: Die Animation wurde von Azote für das Stockholm Resilience Centre erstellt; Lizenz: CC BY ND 3.0)

Biodiversität managen

Unternehmen nutzen die Leistungen der Natur und können Biodiversität durch verschiedene Maßnahmen managen, um negative Umweltauswirkungen zu minimieren und positive Beiträge zu leisten. Wichtige Strategien eines Biodiversitätsmanagements umfassen:

  • Integration von biodiversitätsbezogenen Themen in Umweltmanagementsysteme, wobei EMAS als besonders geeignet scheint, da es die biologische Vielfalt als Schlüsselbereich ausweist und konkrete Indikatoren und Maßnahmen fordert.
  • Systematische Erfassung und Bewertung der Auswirkungen des Unternehmens sowie seiner Lieferketten auf die lokale Flora und Fauna, einschließlich der Berechnung des eigenen Biodiversitätsfußabdrucks.
  • SMARTE Ziele und Maßnahmen für den Biodiversitätsschutz setzen, zum Beispiel Schaffung naturnaher Flächen, Förderung einheimischer Pflanzenarten und Reduktion von Pestiziden.
  • Schulungen und Sensibilisierungsprogramm für Beschäftigte und Anspruchsgruppen in der Wertschöpfungskette zur Schärfung des Bewusstseins für die Bedeutung der Biodiversität und zur Förderung umweltfreundlicher Praktiken.
  • Regelmäßige Überwachung und Berichterstattung im Rahmen der neuen Nachhaltigkeitsberichtsstandards, speziell ESRS E4 – Biodiversity and ecosystems , um Fortschritte im Biodiversitätsschutz zu messen und transparent darzustellen.
Berufsbild Klimaschutzmanager
Kommunen und Unternehmen werden sich zunehmend ihrer Verantwortung für und den Herausforderungen durch den Klimawandel bewusst. Sie suchen daher immer häufiger nach Fachexperten, die sie bei der Umsetzung von Klimaschutzstrategien unterstützen können. Durch ihre Tätigkeit tragen Klimaschutzmanager dazu bei, Treibhausgasemissionen der Unternehmen und Kommunen zu reduzieren. Antworten auf die wichtigsten Fragen finden Sie in unserem Berufsbild zum Klimaschutzmanager:

  • Was ist ein Klimaschutzmanager?
  • Welche Aufgaben betreuen Klimaschutzmanager?
  • Wie werde ich Klimaschutzmanager?
  • Welche Weiter­bildungs­möglich­keiten gibt es?
  • Wie viel verdient ein Klimaschutzmanager?
  • Welche Karrieremöglichkeiten gibt es?

Zum Berufsbild Klimaschutzmanager »

Konkret können Unternehmen …

Unternehmen können nachhaltige Beschaffungspraktiken einführen, um sicherzustellen, dass Rohstoffe und Produkte aus umweltfreundlichen Quellen stammen. Durch die Förderung der Biodiversität auf Firmengeländen (PDF), etwa durch naturnahe Flächen und den Verzicht auf Pestizide, tragen sie zum Erhalt der Artenvielfalt bei. Maßnahmen wie insektenfreundliche LED-Lampen und der Verzicht auf Versiegelung von Parkflächen sind ebenfalls sinnvoll. Unternehmen können in ihrer Lieferkette Risikobewertungen vornehmen, um Produkte mit hohem Risiko für den Verlust der Biodiversität, wie Holzprodukte, zu identifizieren. Die Umstellung auf nachhaltige Beschaffungspolitiken kann den Einsatz umweltschädlicher Produkte reduzieren, indem zertifizierte Produkte wie MSC-Fisch oder FSC/PEFC-Holzerzeugnisse bevorzugt werden.

Es ist wichtig, das Wirkungsnetz zu berücksichtigen, da Klimaschutzmaßnahmen manchmal in Konkurrenz zu anderen Nachhaltigkeitszielen stehen, etwa wenn erneuerbare Energieprojekte Lebensräume beeinträchtigen. Ein integrierter Ansatz, der alle Umweltauswirkungen einbezieht, ist unerlässlich, um langfristig nachhaltige Lösungen zu gewährleisten. Die Zusammenarbeit mit Interessengruppen wie NGOs, lokalen Gemeinschaften und wissenschaftlichen Einrichtungen kann Unternehmen dabei unterstützen, effektive Biodiversitätsstrategien zu entwickeln und umzusetzen. Unternehmen können Programme zur Biodiversitätskompensation unterstützen, um negative Auswirkungen ihrer Aktivitäten auszugleichen. Dabei gilt der Hierarchie-Grundsatz: Vermeiden, Reduzieren und dann erst Kompensieren, idealerweise lokal, um die gleichen Ökosysteme und Arten zu unterstützen.

Beitrag von Kreislaufwirtschaft zur Biodiversität

Die Entwicklung nachhaltiger Produkte und Dienstleistungen, die den gesamten Lebenszyklus berücksichtigen, ist wichtig für den Erhalt der Biodiversität. Die Kreislaufwirtschaft zielt darauf ab, die Lebensdauer von Produkten zu maximieren, die Wiederverwendung von Materialien zu fördern und den Abfall zu minimieren. Obwohl diese Prinzipien auf Ressourcenschonung abzielen, sind die Effekte des zirkulären Wirtschaftens auf die Biodiversität noch nicht vollständig untersucht. Offensichtlich ist jedoch der Zusammenhang des linearen Wirtschaftsmodells mit dem Verlust an Ökosystemen durch Landveränderung oder Deponien. Es lohnt sich, die Kreislaufwirtschaft als positiven Effektgeber zum Erhalt der Biodiversität zu betrachten. Eine Meta-Studie aus dem Jahr 2023 aus Finnland bewertete im Bau- und Immobiliengewerbe sowie der Waldwirtschaft verschiedene Circular-Economy-Maßnahmen. Die Ergebnisse zeigen, dass die kaskadierende Nutzung von Holz, die Verbesserung der Materialeffizienz, die Wiederverwendung von Baumaterialien und die Verlängerung der Lebensdauer von Gebäuden großes Potenzial haben, den Druck auf die Biodiversität zu mindern. Allerdings könnten Maßnahmen, die die Nutzung heimischer Wälder erhöhen, die Biodiversität beeinträchtigen, wenn keine biodiversitätsfördernden Waldmanagementpraktiken genutzt werden und die Abholzung zu hoch bleibt.

Es reicht also nicht aus, auf vermeintlich erneuerbare und kompostierbare Rohstoffe zu setzen, wenn dadurch Lebensraum vernichtet wird. Es muss bei jedem Produkt abgewogen werden, welche Circular-Economy-Maßnahme die Biodiversität schützt. Ökobilanzen können unterstützen, indem sie eine ganzheitliche Perspektive bieten.

Drei Stellhebel der Kreislaufwirtschaft wirken positiv auf die Biodiversität: nachhaltiger Materialeinsatz, nachhaltige Geschäftsmodelle und nachhaltiger Mindset.

  1. Nachhaltiger Materialeinsatz:
    Die Reduzierung der Ressourcenextraktion und die daraus resultierende Verringerung von Lebensraumzerstörung schützt natürliche Lebensräume und Arten.
  2. Nachhaltige Geschäftsmodelle:
    Durch die Reduzierung von Abfällen und das Schließen von Stoffkreisen wird die Umweltverschmutzung verringert. Sharing- und Streaming-Konzepte reduzieren CO2-Emissionen und schädliche Umwelteinflüsse wie Dürren, die die Biodiversität beeinträchtigen.
  3. Nachhaltiger Mindset:
    Die Circular Economy fördert ein Bewusstsein bei Konsumenten, die durch ihr Kaufverhalten die Umwelt schützen können. Dies stärkt regionale Ökonomien und führt zu einer höheren Akzeptanz für nachhaltige Produkte zu angemessenen Preisen – vorausgesetzt, diese werden nachhaltig und biodiversitätsfreundlich produziert.

 

Vernetzung

Der DGQ-Fachkreis Nachhaltigkeit vernetzt Interessierte und deren Kompetenzen durch verschiedene Aktivitäten. Arbeitsgruppen bearbeiten Themen wie Nachhaltigkeitskennzahlen, CO2-Fußabdruck, Nachhaltigkeitskompetenzen und Blockchain-Chancen. Eine Arbeitsgruppe zum Thema “Biodiversität in Unternehmen” ist ebenfalls denkbar. Interessierte können sich bei den Autorinnen des Blogbeitrags unter com@dgq.de melden.

 

Über die Autoren:
Prof. Dr. Linda Chalupová ist eine Nachhaltigkeitsexpertin, Autorin, Keynote-Speakerin und zertifizierte Aufsichtsrätin mit Kernkompetenzen im nachhaltigen Wirtschaften. Als Professorin für Nachhaltigkeitswissenschaften an der Hochschule Fulda strebt sie einen profitablen Transfer zwischen Wissenschaft und Praxis an, um schnellstmöglich effektive Lösungen für eine nachhaltige Entwicklung bereitzustellen. Sie engagiert sich als Vorständin und Beirätin in mehreren Berufsverbänden, Gremien und Arbeitskreisen und ist Unternehmensmentorin in den Bereichen ESG und Berichterstattung. Zu-dem ist sie Mitglied im Leitungsteam des DGQ-Fachkreises Nachhaltigkeit.

Prof. Dr. Irina Mazilu-Eyaz hat Materialwissenschaft an der Technischen Universität Darmstadt und am Imperial College London studiert. Während Ihrer 11-jährigen Berufstätigkeit bei einem internationalen Technologiekonzern sammelte sie Erfahrung im Qualitätsmanagement und wurde zur Methoden-Expertin für technische Problemlösung. Seit 2021 ist sie Professorin für Qualitätsmanagement und Werkstoffkunde an der Hochschule RheinMain und entwickelt auch neue Lehrveranstaltungen zum Thema Nachhaltigkeit. Im Mai 2023 wurde sie ins Leitungsteam des DGQ-Fachkreises Nachhaltigkeit gewählt.

 

 


Mit der nachfolgenden Linksammlung erhalten Interessierte kostenlosen Zugriff auf hilfreiche Informationen zum Thema Biodiversität:

Risikofilter der Biodiversität (WWF)

Biodiversität über den Tellerrand (Forschungsprojekt)

Vielfalt am Standort – Schritte zu nachhaltigem Biodiversitätsmanagement (Bayerisches Landesamt für Umwelt)

Leitfaden 2023 – Schutz der biologischen Vielfalt im Rahmen von Umweltmanagementsystemen (EMAS)

Wege zum naturnahen Firmengelände (Bundesamt für Naturschutz)


 

Nachhaltigkeit im Klinikbau – In Göppingen entsteht das erste „Green Hospital“ Baden-Württembergs

Nachhaltigkeit, Klinikneubau, Alb-Fils-Kliniken

Die Kliniken Deutschlands durchleben einen massiven Transformationsprozess. Viele Krankenhäuser befinden sich in einer finanziell prekären – teilweise existentiell bedrohlichen – Situation. In dem gesetzlich vorgegebenem Dualen Finanzierungssystem sollen die laufenden Kosten über Fallpauschalen und die notwendigen Investitionen über Fördermittel der Bundesländer gedeckt werden. Seit vielen Jahren kommen die Länder dieser gesetzlichen Vorgabe nicht ausreichend nach, so dass sich bundesweit ein Investitionsstau in der baulichen Struktur vieler Kliniken in Milliardenhöhe angesammelt hat. Die Kliniken sind oftmals gezwungen, notwendige Investitionen und Instandhaltungen aus den laufenden Vergütungen zu finanzieren. Das Defizit der Kliniken Baden-Württembergs summiert sich im forecast auf die Jahresabschlüsse 2024 laut Landkreistagspräsident Joachim Walter auf rund 900 Millionen Euro.

Das ALB FILS KLINIKUM, in hundertprozentig kommunaler Trägerschaft des Landkreises Göppingen, hat sich vor mehr als 10 Jahren gegen die umfassende Sanierung eines Klinikgebäudes zugunsten eines kompletten Neubaus entschieden. Neben essenziellen wirtschaftlichen Gründen standen hier insbesondere prozessuale Optimierungen, die Attraktivität als Arbeitgeber und umfassender Gesundheitsdienstleister sowie die zu erwartenden Neustrukturierungen in der Krankenhauslandschaft im Vordergrund. Das neue Klinikum befindet sich nun im „Endspurt“ der Fertigstellung und wird sich in Teilen über eine „Effizienzrendite“ im Abgleich zum Weiterbetrieb der mehr als 50 Jahre alten Bestandsklinik refinanzieren. Der Grund dafür liegt unter anderem in der strategischen Prämisse des nachhaltigen und hoch energieeffizienten Bauens. Die erwartete Energiepreisentwicklung der kommenden Wirtschaftsperioden wird diese Effizienzrendite des Neubaus weiter steigern.

Raum für modernste prozessoptimierte Medizin und Pflege

Neubau Alb-Fils-Klinik

Abb. 1: Neubau ALB FILS KLINIKUM, ©Max Radloff Photography

Derzeit entsteht mit dem Neubau des ALB FILS KLINIKUMs in Göppingen eine der modernsten Kliniken in Europa. Mit einem Investitionsvolumen von rund 360 Millionen Euro wird auf 43.000 qm Nutzfläche und sieben Vollgeschossen Raum für modernste prozessoptimierte Medizin und Pflege geschaffen. Mit Baubeginn im Jahr 2019 entstehen dort unter anderem zwölf OP-Säle, inklusive Hybrid OP, drei Herzkatheterlabore, vier Kreißsäle, zwei Intensiv- und eine IntermediateCare-Stationen und ein Hubschrauberlandeplatz. Mit 645 Normalstationsbetten, modernster medizinischer Ausstattung sowie hellen und modernen Räumlichkeiten ist der bauliche Grundstein für eine optimale Behandlungsqualität der Patienten gelegt und auch das Personal profitiert von einer positiven Arbeitsplatzgestaltung.

Von der DGNB mit dem Vorzertifikat in Gold ausgezeichnet

Die Deutsche Gesellschaft für Nachhaltiges Bauen (DGNB) bewertet die Nachhaltigkeit eines Gebäudes und hat den Neubau des ALB FILS KLINIKUMs mit dem DGNB-Vorzertifikat in Gold ausgezeichnet. Die DGNB bestätigt damit, dass eine besonders umweltfreundliche, wirtschaftliche, effiziente, ressourcensparende und optimale Gebäudeplanung für den Neubau verfolgt wurde. Das ALB FILS KLINIKUM ist somit das erste „Green Hospital“ in Baden-Württemberg. Das Klinikum hat, der Unternehmensstrategie folgend, bereits vor Baubeginn und zu einem sehr frühen Planungsstadium diesen Ansatz konsequent verfolgt. Ziel war eine nachhaltige Planung und Umsetzung des Neubaus. Der Antrieb bestand im Besonderen darin, die Wirtschaftlichkeit zu erhöhen und mehr Lebensqualität bei gleichzeitig geringeren Betriebskosten zu erreichen – immer mit dem Fokus auf Mensch und Mitwelt.

Nachhaltigkeitsgedanke im Planungsprozess von Anfang an berücksichtigt

Durch die frühe Einstiegsphase konnten bereits wesentliche Optimierungspotenziale in der Grobplanung des Großprojektes berücksichtigt werden. So konnte beispielsweise eine Reduzierung des Wärmebedarfs um circa 60 Prozent sowie die Umsetzung einer Wärmerückgewinnung mit einem Effizienzgrad von über 85 Prozent realisiert werden. Darüber hinaus wurden die Voraussetzungen für weitere Förderungen durch den Bund geschaffen, indem das Haus am Ende des Planungs- und Optimierungsprozesses den extrem hohen Anforderungen des KfW-55-Programms entsprach.

Die Herausforderungen waren groß, aber machbar

Neubau ALB FILS KLINIKUM

Abb. 2: Neubau ALB FILS KLINIKUM, ©Max Radloff Photography

Die größte Herausforderung bei der Berücksichtigung des nachhaltigen Ansatzes sind die höheren Kosten für nachhaltige Materialien. Beim Neubau des ALB FILS KLINIKUMs wurde insbesondere die Gebäudehülle nach KfW-55-Standard gebaut – dies war zu Baubeginn der höchste Standard unterhalb des Standards des Passivhauses. Verwirklicht wird außerdem eine komplexe Wärmerückgewinnung über Wärmetauscher. Ein gutes Raumklima wird durch eine „Betonkernaktivierung“ der Decken erreicht und durch die Auswahl besonders nachhaltiger Materialien mit positiven Eigenschaften, wie zum Beispiel geringe Ausdünstung, Langlebigkeit, Ursprung aus nachhaltigen Quellen und geringe Schadstoffbelastung. Ein weiterer wichtiger Baustein zur nachhaltigen Bauweise ist die PV-Anlage mit 425 kwh/p und einer hundertprozentigen Nutzung für den Eigenverbrauch. Grundsätzlich umfasst der Green-Hospital-Ansatz nach DGNB ökologisch-ökonomische, soziokulturelle, technische, prozessuale und standortbezogene Qualitäten und Kernbereiche.

Die positiven Effekte sind vielfältig

Durch die nachhaltige Bauweise erhofft sich das Klinikum, seine Attraktivität für Arbeitnehmer weiter zu steigern, denn die neuen Arbeitsplätze wurden mit viel Tageslicht und kurzen Wegen geplant und realisiert. Weiter sieht das Klinikum einen Wettbewerbsvorteil gegenüber anderen Kliniken bei der Patientengewinnung. Günstigere Bankkredite und Tilgungszuschüsse sind ebenso ein wesentlicher Aspekt, wie auch die Vorreiterrolle für andere Unternehmen. Ein positives Image in der Wahrnehmung der Öffentlichkeit ist bereits heute zu spüren.

Zudem stehen für diese nachhaltige Bauweise KFfW-55-Förderungmittel von der Bundesrepublik Deutschland zur Verfügung. Nach der Vorzertifizierung soll nun abschließend das DGNB-Zertifikat in Gold erreicht werden.

Bereits heute ist das ALB FILS KLINIKUM ein KLIMAWIN-Unternehmen des Umweltministeriums Baden-Württemberg und orientiert sich an den Sustainable Development Goals (SDGs) der Agenda 2030 der United Nation (UN). Die DGNB unterstützt ebenso diese Ziele. Um den Zusammenhang einer nachhaltigen Bauweise mit den SDGs herauszuarbeiten und transparent zu machen, sind sämtliche Kriterien zu den Zielen der UN überprüft. Als Ergebnis erhält jedes Projekt, das eine DGNB-Zertifizierung erfolgreich abschließt, künftig eine Aussage darüber, inwieweit es einen Beitrag zur Erreichung der SDG geleistet hat.

Nachhaltiges Bauen zahlt sich langfristig aus

Vor dem Hintergrund der Entwicklung der Nachhaltigkeit in den vergangenen Jahren und der weiteren Fokussierung der Gesellschaft auf dieses Thema war es in den Planungsjahren des Neubaus, 2014 bis 2018, völlig richtig, den Weg des „Green Hospital“ einzuschlagen. Bereits vor Bezug des Neubaus ist klar, dass das Gebäude in Sachen Nachhaltigkeit, Wirtschaftlichkeit und Flexibilität hohe Maßstäbe setzt – auch mit einem konsequenten Fokus auf biologische und nachhaltige Baustoffe. Hohe Wertstabilität sowie Transparenz bei den eingesparten Ressourcen und Emissionen sind gesetzt. Der Ansatz des nachhaltigen Bauens und der Wunsch, der eigenen Verantwortung gegenüber der Umwelt und ökologischen Werten nachzukommen, führten zu einem langen und manchmal schwierigen, Weg. Anderen Kliniken kann an dieser Stelle nur geraten werden, sich nicht entmutigen zu lassen. Bei der Planung von ähnlichen Bauprojekten rät das Klinikum, den CO2-Ausstoß bei den Entscheidungen mit „einzupreisen“ und in der Betrachtung über die reinen Baukosten hinauszugehen, denn das „Green Hospital“ muss in seinem gesamten Lebenszyklus der Immobilie gesehen werden – Langfristigkeit macht sich hier bezahlt.

Mehr Unterstützung würde helfen

Eine Anregung geht an die Politik auf Bundes- und Landesebene: Hier ist mehr Unterstützung wünschenswert. Bei den aktuellen finanziellen Problemen geht es vielen Kliniken rein ums Überleben. Ohne tiefgreifende Förderprogramme können sie Nachhaltigkeit nicht ausreichend berücksichtigen. Die Politik sollte das Engagement in Nachhaltigkeit und Zukunftsfähigkeit öffentlicher Infrastrukturen auch im Bereich „Green Hospital“ stärker fördern, zum Beispiel durch die Bereitstellung von Beratungs- und Zertifizierungspartnern über Bund und Länder. Dies würde auch längerfristige Transformationsprozesse hin zum „Green Hospital“ bei Bestandsimmobilien ermöglichen. So könnte das „Green Hospital“ zum Standard-Hospital werden – zumindest für Neubauten wäre es wünschenswert. Durch die aktuellen Rahmenbedingungen im Gesundheitswesen und den hohen Kostendruck im System wird es sich aber ohne weitere Anreiz- und Fördersysteme nur sehr langsam etablieren können. Der Fokus im Gesundheitssystem muss sich grundsätzlich aber auch an den Vorgaben und Klimazielen der UN und der EU orientieren. Auch die langfristige Unterstützung von öffentlicher Seite ist zwingend notwendig. Der öffentliche Gesundheitssektor wird diesen tiefgreifenden Transformationsprozess nur mit Unterstützung durch Bund und Länder leisten können. Ein gutes Beispiel könnten hier Vergleichsprojekte, wie beispielsweise die Digitalisierung mit der Förderung durch das KrankenhausZukunftsGesetz (KHZG) sein.

 

Über die Autoren:
Dr. Ingo Hüttner ist medizinischer Geschäftsführer sowie Vorsitzender der Geschäftsführung der ALB FILS KLINIKUM GmbH. Seit 2021 gehört Dr. Hüttner dem Vorstand der DGQ an.
Wolfgang Schmid ist Kaufmännischer Geschäftsführer der ALB FILS KLINIKUM GmbH.

Bildnachweis: ©Max Radloff Photography

Künstliche Intelligenz & Nachhaltigkeit – Was bedeutet das für die Weiterbildung?

KI, Weiterbildung, Lernen

Die Anfänge von Künstlicher Intelligenz (KI) gehen zurück bis in die 1950er-Jahren. Seitdem gab es vier Wellen der Künstlichen Intelligenz. Die Energie für die Verarbeitung von Daten wird zumeist fossil generiert und dies führt zu klimarelevanten Emissionen. KI-Algorithmen können zur gezielten Überwachung und Manipulation eingesetzt werden, was ethische Fragestellungen aufwirft. Überdies werden im Bildungswesen immer mehr KI-generierte Texte verwendet, was zudem die Frage aufwirft, wie zukünftig Lehr- und Lernformate sinnvoll gestaltet werden können, damit Lernende und Lehrende einen Mehrwert durch KI haben.

Die Begriffe – „Künstliche Intelligenz“ und „Nachhaltigkeit“

„Künstliche Intelligenz“ (KI) soll einen Computer dazu bringen, menschliches Verhalten zu imitieren. KI ist ein komplexes und umfangreiches Teilgebiet der Informatik. Bisher geht man von vier KI-Wellen aus. Die letzte, in der wir uns gerade befinden, gilt als sehr vielversprechend.

„Nachhaltigkeit“ bedeutet laut Weltkommission für Umwelt und Entwicklung, die Bedürfnisse eines Menschen zu befriedigen, ohne die Fähigkeit künftiger Generationen zu gefährden, ihren eigenen Bedürfnisse nachzugehen (vgl. WCED, 1987). Nachhaltigkeit beruht auf drei Säulen (sozial, wirtschaftlich, ökologisch) und stellt den Menschen in den Mittelpunkt. Zum Konzept gehören außerdem Umweltschutz, Gerechtigkeit, Ganzheitlichkeit und Langfristigkeit (siehe Abb. 1).

Konzept der Nachhaltigkeit

Abb. 1: Konzept der Nachhaltigkeit (Barbian, D., 2001)

Die vier Wellen der Künstlichen Intelligenz

Man unterscheidet vier Phasen der KI (vgl. Mertens, P., Barbian, D., Baier, S., 2017).  In der ersten Phase wurden dem Computer “allgemeine” Problemlösungsfähigkeiten („General Problem Solver“) zuerkannt. Damit gelangte man schnell an Grenzen. Es erfolgte ein Paradigmenwechsel und man setzte sich das Ziel, Experten auf ihrem Spezialgebiet zu unterstützen (“Expertensysteme” (XPS)). Die dritte Phase war kurz und betraf Semantische Netze. Damit wurden Beziehungen zwischen Begriffen modelliert, zum Beispiel die Beziehung einer Bildungseinrichtung zu Kursteilnehmenden, zu den Lehrformaten etc. Auch die dritte KI-Welle erfüllte nicht die Erwartungen. Derzeit befinden wir uns in der vierten Welle. Nach dem Prinzip von Nervenzellen (Neuronen) werden künstliche neuronale Netze eingesetzt (vgl. Matzka, S., 2021). Für das Trainieren dieser Art von KI wird jedoch viel Energie benötigt, womit gerade die vierte Welle einen enormen Einfluss auf das Erreichen der Klimaziele hat (Es gibt KI-Algorithmen, die zu ähnlich guten Ergebnissen wie das künstliche neuronale Netz führen. Dazu zählen u.a. die logarithmische Regression, der Bayes‘sche Algorithmus und Decision Tree.)

Bereits 2019 machte der CO2-Ausstoß des globalen Datenverkehrs laut Think Tank The Shift Project 4% aus.

Berufsbild Nachhaltigkeitsmanager

Die Themen Nachhaltigkeit und Klima­schutz gehören zu den Mega­trends unserer Zeit. Für Unter­nehmen wird es somit immer wichtiger, CSR-Maßnahmen um­zu­setzen und ihrer gesell­schaftlichen Verantwortung gerecht zu werden. Mit dem größeren Fokus auf Nachhaltigkeit haben sich in den letzten Jahren eine Vielzahl an grünen Jobs entwickelt, wie beispielsweise der Job als Nachhaltigkeitsmanager.
Antworten auf die wichtigsten Fragen finden Sie in unserem Berufsbild zum Nachhaltigkeitsmanager:

  • Welche Aufgaben betreuen Nachhaltigkeitsmanager?
  • Wie werde ich Nach­haltigkeits­beauf­tragter?
  • Welche Weiter­bildungs­möglich­keiten gibt es?
  • Was verdient ein Nach­haltigkeits­manager?
  • Welche Jobs gibt es im Nach­haltigkeits­manage­ment?

Zum Berufsbild Nachhhaltigkeitsmanager »

Einsatzszenarien von KI in der Weiterbildung – Vorteile und Herausforderungen

KI in der Weiterbildung kann Vorteile für Lernende und Lehrende bieten, jedoch sind auch die Herausforderungen nicht außer Acht zu lassen. Texte und Bilder mit KI zu generieren, ist durch den Einzug von ChatGPT einfacher denn je. Etwa 38 % der Schüler:innen in Deutschland nutzen dies laut Statista bereits. Überwiegend sind es jüngere Menschen, die von KI Gebrauch machen. Es ist daher angebracht, sich die Frage zu stellen, wie Lehr- und Lernformate zu gestalten sind.

Ein Vorteil durch den Einsatz von KI gestaltet sich für Menschen mit unterschiedlichen Lerntempos. Hier können KI-basierte Lernformate sich individuell an die Bedürfnisse anpassen sowie den Lernfortschritt verfolgen (adaptives Lernen). Weitere Vorteile für Weiterbildungsformate liegen in der Möglichkeit, Daten schnell zu analysieren. Damit können große Mengen an Lerndaten bewertet und Muster erkannt werden, die dann gezielt zur Unterstützung von Lehrenden und Lernenden genutzt werden können. Für die kontinuierliche Weiterbildung und berufliche Entwicklung bietet KI personalisierte Lernpfade etwa für berufstätige Personen, um sich gezielt weiter zu qualifizieren oder um Vorschläge zu Weiterbildungen zu erhalten. Bei der Bewertung von Prüfungen und Aufgaben bieten zudem automatisierte Systeme ein schnelles und sofort verfügbares Ergebnis. KI hat außerdem das Potenzial inklusiv zu sein, indem Lernmaterialien für Menschen mit Behinderungen zugänglicher gemacht werden.

Neben all diesen Vorteilen gibt es jedoch auch Herausforderungen. Zum einen hat KI einen erheblichen Einfluss auf das Klima und birgt ethische Gefahren bei der Nutzung.

KI-basierte Systeme sind sehr rechenintensiv. Sie müssen eine große Menge an Daten verarbeiten, was den Bedarf und die Abhängigkeit von Energie erhöht. Es ist nach wie vor schwierig, den genauen CO2-Ausstoß von KI zu quantifizieren. Einige wenige Organisationen versuchen, oftmals mit frei verfügbaren Tools die Umweltauswirkungen von KI zu ermitteln. Dazu gehören z. B. das Montreal Institute for Learning Algorithms mit dem Tool ML CO2 Impact , die Plattform CodeCarbon, und Climate Change AI.

Für eine nachhaltige KI (auch “Green AI” bzw. “Grüne Künstliche Intelligenz”) müsste neben der genauen Klimabilanz im Vorfeld ihres Einsatzes zunächst auch Transparenz zu den erhobenen Daten bestehen. Künstliche Intelligenz (KI) hat daher auch eine ethische Relevanz in der Weiterbildung. Dies betrifft den Datenschutz und die Sicherheit, da KI-Systeme große Mengen an persönlichen Daten sammeln können. Die Überwachung durch KI kann die Privatsphäre der Lernenden gefährden. Auch kann es zu einer Diskriminierung kommen, da KI bestehende Vorurteile verstärken und zu ungleichen Chancen führen kann. Die Qualität der Bildung könnte durch übermäßige Standardisierung und Abhängigkeit von der KI-Technologie leiden, was die Vielfalt und menschliche Interaktion mindert.

Mit besonders sensiblen Daten sollte auch aus Gründen der sozialen Nachhaltigkeit (s. Abb. 1) vorsichtig umgegangen werden. Unternehmen können durch eine Auswertung von Daten mehr über ihre Mitarbeitenden erfahren. Auch eine Manipulation und Überwachung ist möglich. Damit wirft der Einsatz von KI ethische Fragestellungen auf, was Sarah Spiekermann bereits 2019 in ihrem Buch über „Digitale Ethik“ thematisiert hat (Spiekermann, S., 2019). Das Sammeln von Daten durch Suchmaschinen erfolgt oft über sogenannte Tracking-Dienste. Dazu laufen im jeweiligen Tool entsprechende Dienste ab, die Daten z. B. zum Standort, den eingegebenen Suchwörtern, verwendeter Internet-Browser sammeln (Zuboff, S., 2018).

Bezug der KI zu den 17 Nachhaltigkeitszielen der Vereinten Nationen

KI spielt eine wichtige Rolle bei der Erreichung der 17 Ziele für eine nachhaltige Entwicklung (siehe Abb. 2) und hat das Potenzial, die globalen Bemühungen zur Gewährleistung einer Bildung für alle zu erreichen. Das UN-Nachhaltigkeitsziel Nr. 4 bezieht sich auf eine „Hochwertige Bildung“. Laut Definition soll eine inklusive, gleichberechtigte und hochwertige Bildung gewährleistet und Möglichkeiten lebenslangen Lernens für alle gefördert werden, unabhängig von Geschlecht, Herkunft oder Behinderung.

Die Nachhaltigkeitsziele der Vereinten Nationen

Abb. 2: Die Nachhaltigkeitsziele der Vereinten Nationen (DGVN, 2024)

Die Studie “The role of artificial intelligence in achieving the Sustainable Development Goals“ (Vinuesa, R. et al., 2020) untersucht den potenziellen Einfluss von KI auf die 17 Nachhaltigkeitsziele der Vereinten Nationen (siehe Abb. 3). Laut der Studie könnten 134 der 169 Unterziele (79%) von der KI profitieren. Auf der anderen Seite gibt es aber auch einen negativen Einfluss der KI auf die Nachhaltigkeit, denn 59 der 169 Unterziele (35%) werden verschlechtert. Insgesamt überwiegt aber der positive Einfluss, jedoch muss der Einsatz von KI und die Art des Einsatzes bereits im Vorfeld genau überlegt werden.

Positive und negative Auswirkungen von KI auf die Nachhaltigkeit

Abb. 3: Positive und negative Auswirkungen von KI auf die Nachhaltigkeit (Vinuesa, R. et al., 2020)

Auch für eine „Hochwertige Bildung“ (Ziel Nr. 4) gibt es laut Abbildung 3 eher Chancen durch den Einsatz von KI.

Fazit

Künstliche Intelligenz und Nachhaltigkeit bedingen sich gegenseitig. Der hohe Energieverbrauch durch KI und ethische Fragestellungen haben einen Einfluss auf die Nachhaltigkeit. Bisher spielen diese Faktoren noch keine übermäßige Rolle in der Weiterbildung. Allerdings darf der Gebrauch von ChatBots wie bspw. ChatGPT gerade unter der jüngeren Bevölkerung nicht unterschätzt werden. Dies wirft Fragen auf, wie in Zukunft Lehr- und Lernformate gestaltet werden sollen.

KI bietet zwar Chancen für die Weiterbildung durch personalisiertes Lernen, eine Effizienzsteigerung und datengetriebenes Lernen. Gleichzeitig birgt sie Gefahren wie Datenschutzprobleme, mögliche Diskriminierung und ethische Dilemmata.

Tendenziell überwiegen jedoch die Vorteile durch KI. KI hat das Potenzial, die Weiterbildung zu revolutionieren, aber es sind sorgfältige Maßnahmen notwendig, um die Risiken zu minimieren und die Vorteile fair und ethisch zu nutzen.

 

Über die Autorin:
Dr. Dina Barbian ist Geschäftsführerin des eco2050 Institut für Nachhaltigkeit, einer Ausgründung der Universität Erlangen-Nürnberg. Sie ist als Beraterin für Unternehmen zu Themen wie Nachhaltigkeitsmanagement, CSR und Klimabilanzierung tätig sowie Autorin von Büchern und Fachartikeln. Als Lehrbeauftragte hält sie Vorlesungen in den Disziplinen Informatik, Ingenieurwesen und Nachhaltigkeit. Die Wirtschaftsingenieurin und promovierte Nachhaltigkeitsökonomin ist DGQ-Trainerin und -Prüferin.

 


WCED – World Commission on Environment and Development (1987): Our Common Future, New York

Barbian, D. (2001) Ökonomie und Sustainable Development, Aachen, S. 64

Mertens, P., Barbian, D., Baier, S. (2017) Digitalisierung und Industrie 4.0 – eine Relativierung, Wiesbaden

Matzka, S. (2021) Künstliche Intelligenz in den Ingenieurwissenschaften, Wiesbaden

Spiekermann, S. (2019) Digitale Ethik: Ein Wertesystem für das 21. Jahrhundert, München

Zuboff, S. (2018) Das Zeitalter des Überwachungskapitalismus, Frankfurt am Main / New York

DGVN – Deutsche Gesellschaft für die Vereinten Nationen e.V. (2024), Ziele für Nachhaltige Entwicklung (https://dgvn.de/ziele-fuer-nachhaltige-entwicklung)

Vinuesa, R. et al. (2020): The role of artificial intelligence in achieving the Sustainable Development Goals. NATURE COMMUNICATIONS, S.1-2


 

Grüne Gesundheit: Nachhaltigkeit und Klimaschutz im Gesundheitswesen

Gesundheitswesen, Arzt, Nachhaltigkeit

In den letzten Jahren haben die Themen Nachhaltigkeit und Klimaschutz in nahezu allen Lebensbereichen an Bedeutung gewonnen. Besonders im Gesundheitswesen, einem der größten und ressourcenintensivsten Sektoren, ist die Notwendigkeit für Maßnahmen in Richtung nachhaltigeren Handelns evident. Der Klimawandel hat nicht nur für den Planeten drastische Folgen, sondern auch für die menschliche Gesundheit. Die klimatischen Veränderungen begünstigen die Zunahme von Allergien, Erkrankungen der Atemwege und des Herz-Kreislauf-Systems, sie führen zu steigenden Infektionszahlen und zur Zunahme von psychischen Erkrankungen wie Depressionen. Nachhaltigkeit und Klimaschutz anhaltend in den Fokus des Handelns im Gesundheitswesen zu rücken, ist somit von großer Relevanz.

Doch was bedeutet „Nachhaltigkeit“ und welche Ansätze gibt es, um Gesundheitseinrichtungen wie Krankenhäuser nachhaltiger und das Handeln im Einklang mit den Bemühungen um Klimaneutralität zu gestalten?

Die drei Dimensionen der Nachhaltigkeit

Das Bundesministerium für wirtschaftliche Zusammenarbeit und Entwicklung versteht den Begriff als ethisches Handlungsprinzip, das uns verpflichtet, „die Bedürfnisse der Gegenwart so zu befriedigen, dass die Möglichkeiten zukünftiger Generationen nicht eingeschränkt werden.“ Konkretisiert wird diese recht vage Definition durch das Drei-Säulen-Modell. Die drei Säulen bilden

  1. die Ökologie,
  2. die Ökonomie und
  3. das Soziale.

Der Parlamentarische Beirat für nachhaltige Entwicklung des Bundestages formuliert eine konkretere Handlungsmaxime: „Wir dürfen nicht heute auf Kosten von morgen leben! Wir sollen nicht mehr verbrauchen, als künftig wieder bereitgestellt werden kann.“ Angesichts der massiven Effekte des Klimawandels und den Auswirkungen für zukünftige Generationen liegt der Fokus der Diskussionen um Nachhaltigkeit und nachhaltiges Handeln auf der Säule „Ökologie“.

Nachhaltigkeit und Klimaschutz im Gesundheitswesen: Status Quo

Der Gesundheitssektor in Deutschland ist ein Wirtschaftszweig mit großer ökonomischer Bedeutung und spielt eine zentrale Rolle bei der Gesundheitsversorgung der Bevölkerung. Im Jahr 2022 betrugen die Gesundheitsausgaben in Deutschland 497,7 Milliarden Euro, was etwa 12,8 Prozent des Bruttoinlandsprodukts (BIP) ausmachte. Derzeit arbeiten rund 6 Millionen im Gesundheitswesen. Das entspricht etwa 17,7 Prozent der Gesamtbeschäftigung. Jeder achte Erwerbstätige in Deutschland ist somit in einer Einrichtung des Gesundheitswesens beschäftigt. Die Tendenz ist schon seit Jahren steigend.

Krankenhäuser und andere Gesundheitseinrichtungen verbrauchen global große Mengen an Energie und Wasser, erzeugen erhebliche Mengen an Abfall und emittieren eine Vielzahl von Schadstoffen. Die Bundesärztekammer berichtet mit Verweis auf den „Health care climate footprint report“, dass der Gesundheitssektor mit zwei Gigatonnen CO2 Äquivalent pro Jahr für 4,4 Prozent der globalen Nettoemissionen verantwortlich ist. Zur besseren Einordnung dieser Zahl bietet die Kammer einen anschaulichen Vergleich: „Wäre der globale Gesundheitssektor ein Land, wäre er der fünftgrößte Emittent von Klimagasen im weltweiten Ranking der Länder.“ Das Gesundheitswesen verursacht aktuell gar mehr Schadstoffemissionen als der Flugverkehr oder die Schifffahrt, zu dem Ergebnis kommt das von PwC veröffentlichte Healthcare-Barometer 2022. Mit rund 71 Prozent verursachen Medizinprodukte und die mit ihnen verbundenen Lieferketten den größten Anteil der Emissionen. Mit rund 5 Prozent des Gesamtrohstoffkonsums in Deutschland liegt das Gesundheitswesen auch in diesem Bereich weit vorne.

Die Aktivitäten des Gesundheitswesens tragen somit maßgeblich zur Belastung unseres Klimas und der Umwelt bei. Zugleich bedeutet dies, dass durch das Ergreifen geeigneter Maßnahmen ein signifikanter Beitrag für mehr Nachhaltigkeit und Klimaschutz beleistet werden kann.

Berufsbild Klimaschutzmanager
Kommunen und Unternehmen werden sich zunehmend ihrer Verantwortung für und den Herausforderungen durch den Klimawandel bewusst. Sie suchen daher immer häufiger nach Fachexperten, die sie bei der Umsetzung von Klimaschutzstrategien unterstützen können. Durch ihre Tätigkeit tragen Klimaschutzmanager dazu bei, Treibhausgasemissionen der Unternehmen und Kommunen zu reduzieren. Antworten auf die wichtigsten Fragen finden Sie in unserem Berufsbild zum Klimaschutzmanager:

  • Was ist ein Klimaschutzmanager?
  • Welche Aufgaben betreuen Klimaschutzmanager?
  • Wie werde ich Klimaschutzmanager?
  • Welche Weiter­bildungs­möglich­keiten gibt es?
  • Wie viel verdient ein Klimaschutzmanager?
  • Welche Karrieremöglichkeiten gibt es?

Zum Berufsbild Klimaschutzmanager »

Strategien und Maßnahmen zur Förderung der Nachhaltigkeit und des Klimaschutzes

Welche Maßnahmen sind nun geeignet, um Nachhaltigkeit und Klimaschutz im Gesundheitswesen anhaltend zu verankern? Es gibt eine Vielzahl von teilweise niedrigschwelligen Möglichkeiten und verschiedenen Ansatzpunkte. Um den Unternehmen den ersten Schritt in Richtung Handeln zu erleichtern, hat die Arbeitsgruppe „Klimawandel“ der Bundesärztekammer zehn Handlungsfelder identifiziert und für jedes Empfehlungen erarbeitet.

Die folgende Auflistung soll einen Eindruck vermitteln und einen Überblick geben:

  1. Unternehmensführung, bspw. Etablierung eines Berichtswesens zum CO2-Fußabdruck und zu den ergriffenen Maßnahmen, um den CO2-Ausstoß zu reduzieren.
  2. Energieverbrauch, bspw. Optimierung des Einsatzes von Energie zur Warmwassererzeugung durch Einsatz erneuerbarer Energien und durch Einsatz wassersparender Steuerungsmechanismen
  3. Gebäude und Gelände, bspw. Ausweitung von Grünanlagen inklusive Förderung der Biodiversität, klimaadaptierte Baumpflanzung
  4. Anästhesiegase / Inhaler / chemische Stoffe, bspw. Auffangen des freiwerdenden CO2 durch Filter, Reduktion von Inhalationssprays / Inhaler wo möglich durch Nutzung anderer Darreichungsformen der Medikamente
  5. Wasser, bspw. Minimierung des Wasserverbrauchs durch Sammeln von Regenwasser zur Bewässerung von Gartenanlagen
  6. Abfall, bspw. Reduktion der Verwendung von Einmalprodukten, Umstellung auf Recyclingpapier, Papiervermeidung durch Digitalisierung
  7. Transport, Vermeidung unnötiger Fahrten/Reisen durch Videokonferenzen und -sprechstunden, Teilnahme an Programmen zum Fahrradleasing
  8. Einkauf, bspw. Optimierung der Lieferketten
  9. Ernährung, bspw. vermehrte Nutzung lokaler und saisonaler Produkte für Patienten, Mitarbeiter und Besucher, vermehrt vegetarische Küche
  10. Büro / EDV, bspw. Nachhaltigkeit im Internet bei der Auswahl von Suchmaschinen und E-Mail-Diensten

Selbstredend dürfen die Maßnahmen die Einhaltung medizinischer Standards nicht gefährden. Das Patientenwohl ist nach wie vor das oberste Gut im Gesundheitswesen. In vielen Fällen sind die Maßnahmen zunächst mit Investitionen verbunden. Mittel- und langfristig können die Unternehmen jedoch anhaltend ihre Kosten reduzieren und möglicherweise ihre Prozesse effizienter gestalten.

Die Treiber für mehr Nachhaltigkeit und Klimaschutz im Gesundheitswesen

Die Einführung nachhaltiger Praktiken im Gesundheitswesen wird von einer Vielzahl von Faktoren und Treibern beeinflusst. Sie lassen sich in verschiedene Kategorien einteilen, die alle dazu beitragen, dass der Sektor ökologisch verantwortungsvoller wird.

  • Medizinischer und technologischer Fortschritt:
    Moderne Technologien wie energieeffiziente medizinische Geräte, digitale Gesundheitslösungen und telemedizinische Anwendungen haben nicht nur das Potential, die Qualität von und den Zugang zu Gesundheitsdienstleistungen zu steigern, sondern zugleich den Ressourcenverbrauch drastisch zu senken. Beispielsweise ermöglichen digitale Patientendaten eine effizientere Verwaltung bei verringertem Papierverbrauch.

 

  • Demografische Veränderungen und steigende Gesundheitskosten:
    Die alternde Bevölkerung in vielen Industrieländern führt zu einer erhöhten Nachfrage nach Gesundheitsdienstleistungen. Diese steigende Nachfrage übt Druck auf die Gesundheitssysteme aus und macht effiziente, nachhaltige und kostensensitivere Lösungen notwendig. Nachhaltige Praktiken, die beispielsweise den Energie- und Ressourcenverbrauch reduzieren und Abfall minimieren, tragen wesentlich dazu bei, die Betriebskosten der Einrichtungen zu senken.

 

  • Gesetzliche und regulatorische Anforderungen:
    Regierungen und internationale Organisationen arbeiten stetig an der Umsetzung neuer Vorschriften und Standards und stellen zunehmend strengere Anforderungen an die Einrichtungen des Gesundheitswesens. Die Richtlinie (EU) 2022/2464 zur Nachhaltigkeitsberichterstattung beispielsweise, die am 5. Januar 2023 in Kraft getreten und bis Mitte dieses Jahres in nationales Recht umzusetzen ist, bedeutet für die Unternehmen umfassende Änderungen der Anforderungen hinsichtlich der nichtfinanziellen Berichterstattung.

Die Hürden für mehr Nachhaltigkeit und Klimaschutz im Gesundheitswesen

Während der demografische Wandel, die zunehmende Digitalisierung und der technologische Fortschritt einerseits Treiber für mehr Nachhaltigkeit und Klimaschutz sein können, stellen sie Gesundheitseinrichtungen zugleich vor große Herausforderungen. Viele Häuser schaffen es angesichts der vielfältigen Anforderungen nicht, das in den Trends liegende Potenzial für ihre Organisation zu heben. Zugleich hemmen Entwicklungen wie der Fachkräftemangel die Verankerung von Nachhaltigkeit und Klimaschutz: Ein vom Bundesgesundheitsministerium in Auftrag gegebenes Gutachten nennt zudem die folgenden Faktoren als wesentliche Hemmnisse:

  • Fehlende Anreize und Informationen: Angesichts fehlender monetärer oder regulatorischer Anreize entscheiden sich Unternehmen oft, sich nicht mit der Umsetzung von Maßnahmen zu beschäftigen. Zugleich fehlen in vielen Fällen Informationen zur Finanzierung von Nachhaltigkeitsmaßnahmen.

 

  • Organisatorische Einschränkungen: Belange der Nachhaltigkeit werden in der Regel nicht im Management thematisiert und sind nur wenig in den Leitungsebenen der Unternehmen verankert.

 

  • Ressourcenmangel: Es mangelt den Einrichtungen an Zeit, Geld und Personal.

Fazit

Wenngleich es praxistaugliche und teils niedrigschwellige Ansatzpunkte gibt, wird im Gesundheitswesen aktuell zu wenig Gewicht auf nachhaltige Praktiken gelegt. Um Nachhaltigkeit dauerhaft in den Prozessen zu verankern, bedarf es weiterer Impulse und regulatorischer Vorgaben, sowie der Platzierung des Themas auf Leitungsebene. Die Effekte des Klimawandels werden zunehmend deutlich. Die Bedrohungen für Gesellschaft und Umwelt betreffen alle. Jeder Akteur steht in der Pflicht, einen Beitrag zu leisten. Diese Sicht teilt auch die Ärzteschaft. Der 125. Deutsche Ärztetag konstatierte die Notwendigkeit einer nationalen Strategie für eine klimafreundliche Gesundheitsversorgung und fordert Klimaneutralität bis 2030. An geeigneten Maßnahmen fehlt es nicht. Seitens der Politik bedarf es jedoch der Schaffung der notwendigen Rahmenbedingungen und seitens der Unternehmen des Umsetzungswillens. So oder so, die Effekte des Klimawandels werden sich auch in Zukunft zunehmend verschärfen und die Menschen begleiten.

 

Über die Autorin:
Nathalie Roskaritz ist Produktmanagerin und in der DGQ Weiterbildung für die Angebote im Bereich Qualitätsmanagement im Gesundheits- und Sozialwesen verantwortlich.

Änderung der Gesundheits-Versorgung ohne Pflegeperspektive

KHVG-Gesetz, Krankenhausreform, Versorgung

Das Gesetz zur Verbesserung der Versorgungsqualität im Krankenhaus und zur Reform der Vergütungsstrukturen (KHVVG) findet große öffentliche Aufmerksamkeit. Die Bundesregierung ist angetreten, mit dieser Initiative die Weichen für die Bewältigung massiver Herausforderungen im Gesundheitssystem zu stellen. Gleichzeitig soll die in Deutschland vergleichsweise hohe Qualität der Krankenhausversorgung erhalten bleiben. Dabei benennt das Gesetz auch den besonderen Stellenwert der Pflege.

Traditionelles Denkmodell

Nach der einleitenden Nennung der Pflege als wichtigem Garanten für die Qualität der Versorgung, fällt sie anschließend in Bezug auf die gesetzlichen Regelungen zurück. Es werden nur noch medizinische Verbesserungen aufgeführt, obwohl es dem Namen nach um die „medizinisch-pflegerische“ Versorgung geht.

Die Perspektive des Gesetzgebers ist vielmehr ausschließlich die der Medizin. Das macht unter anderem die neue Finanzierungssystematik deutlich. Denn die begrüßenswerte Einführung von Leistungsgruppen umfasst ausschließlich medizinische Behandlungen. Entsprechend müssten sie eigentlich medizinische Leistungsgruppen heißen. Die pflegerischen Leistungsprozesse werden – der Denk-Tradition einer überlagernden Disziplin Medizin folgend – in dem Finanzierungssystem quasi als Anhängsel ärztlicher Tätigkeit betrachtet und nicht angesprochen.

Die medizinische Sichtweise spiegelt sich in der Wortwahl. Zum Beispiel ist mit ambulanter Versorgung die medizinische Infrastruktur außerhalb des Krankenhauses gemeint – und nicht pflegerische Leistungen in der Häuslichkeit nach der Pflegeversicherung. Die engere Verzahnung der stationären und der ambulanten Versorgung ist in der Medizin den großen Herausforderungen an dieser Schnittstelle geschuldet und ein unausweichliches Gebot.

Qualität der Pflege nicht im Fokus

Das träfe in der Tat genauso für die Pflege zu, sowohl beim Übergang vom Krankenhaus zur ambulanten Pflege in der Häuslichkeit, als auch an der Schnittstelle zwischen häuslicher Pflege und Heim. Dass dies umgekehrt eine Wirkung auf die medizinische Leistungsqualität hat, belegen die Versorgungslücken mit Drehtüreffekt zwischen Krankenhaus und Langzeitpflege. Das Gesetz nimmt darauf auch Bezug, indem interdisziplinäre und interprofessionelle Chancen insbesondere im Entlassungsfall erwähnt werden.

Aber es gibt keine konkreten Anreize, diese Verzahnung zwischen Medizin und Pflege auf Augenhöhe zu fördern und die Verantwortung der Pflege an dieser Schnittstelle zu stärken. Zwar lässt der Gesetzgeber mit dem Vorschlag, bestimmte Krankenhäuser zu sogenannten sektorenübergreifenden Versorgungseinrichtungen zu entwickeln, auch die Leistungserbringung von Kliniken aus der Pflegeversicherung zu. Medizinisch-pflegerische Behandlung soll dort aber nach wie vor auf ärztliche Anordnung nur zum Ziele der Absicherung einer medizinischen Therapie stattfinden.

Auch an dieser Stelle zeigt sich, dass eine pflegerische Perspektive fehlt und der entsprechende fachliche Diskurs keine Berücksichtigung findet. Der konzentriert sich nämlich in den letzten Jahren pflegesektorenübergreifend auf die personenzentrierte Pflege. Die spielt auch im Krankenhaus eine wichtige Rolle, wenn Menschen nicht allein auf die somatischen Defizite reduziert werden, sondern pflegerisches Handeln soziale, psychische und körperliche Dimensionen gleichermaßen einbezieht.

Wichtige Bedarfe von Patient:innen und Pflegenden bleiben unberücksichtigt

Außerdem liegt das Augenmerk im KHVVG klar auf Struktur- und Prozess-Merkmalen. Die sind sehr wichtig, wenn es zum Beispiel um die personelle und technische Ausstattung von Kliniken geht, die komplexe Leistungen anbieten. Für Patient:innen wäre aber wohl eine transparente Darstellung der Ergebnisqualität wünschenswert. Denn nicht allein die Quantität der vorgehaltenen Ressourcen entscheidet über die Qualität der Leistungen. Vielmehr gibt es für Klient:innen und Patient:innen viele Kriterien, die in der Summe ein gutes Outcome liefern. Doch dieses Projekt mit der Darstellung medizinischer Behandlungsergebnisse ist bis auf weiteres verschoben.

Eine der Achillesfersen der Krankenhausfinanzierung ist die Auslastung, die wiederum Hand in Hand geht mit den Personalvorgaben im Pflegebereich. Hier ergibt sich keine wesentliche Änderung, die zu einer Steigerung der Attraktivität des Arbeitsplatzes Krankenhaus für Pflegekräfte führen würde und so dazu beitragen könnte, das Auslastungspotenzial zu verbessern.

Im Gegenteil kann nur gemutmaßt werden: Mit der Verringerung der Anzahl an Krankenhäusern durch das KHVVG sollen Kräfte freigesetzt werden, die den demografiebedingt größeren Pflegepersonalbedarf in den verbliebenen Kliniken decken sollen. Dazu wäre unter anderem zusätzlich eine Ausbildungsoffensive erforderlich, um die veränderten Qualifikations-Bedarfe durch die Konzentration von Leistungen an bestimmten Orten aufzufangen.

Kein Empowerment für die Qualität der Pflege

In der Summe ist das KHVVG aus Sicht der Qualität der pflegerischen Versorgung ernüchternd. Die Versorgungsperspektive ist medizinisch, Indikatoren für die Ergebnisqualität werden nicht neu geregelt, eine Förderung der disziplin- und sektorenübergreifenden Leistungserbringung unter besonderer Berücksichtigung der Pflege findet nicht statt. Hier werden Potenziale der Reform verschenkt. Für Pflegepersonal ergeben sich außerdem Standort- und Qualifikationsfragen, die eine veränderte Krankenhausstruktur mit weniger Kliniken und größerer Spezialisierung mit sich bringen. Entsprechende Entwicklungs-Anreize lässt das Gesetz vermissen.

 

Über den Autor:
Holger Dudel ist Fachreferent Pflege der DGQ. Er ist gelernter Krankenpfleger und studierter Pflegepädagoge und Pflegewissenschaftler. Er hat zuvor Leitungsfunktionen bei privaten, kommunalen und freigemeinnützigen Trägern der Langzeitpflege auf Bundesebene innegehabt. Qualität im Sozialwesen bedeutet für ihn, dass neben objektiver Evidenz auch das „Subjektive“, Haltung und Beziehung ihren Platz haben.

Automatisierte Oberflächeninspektion dank industrieller Bildverarbeitung – welche Möglichkeiten gibt es?

Ein feiner Riss, eine abgebrochene Ecke, eine verfärbte Stelle – und es winkt die kostspielige Reklamation. Oberflächen sind der erste Kontaktpunkt zwischen einem Produkt und einem Kunden. Bereits kleinste Makel stören das Gesamtbild und beeinträchtigen die Kundenzufriedenheit. Neben ästhetischen Aspekten wirken sich viele Fehler auf die Funktionalität eines Produktes aus und reduzieren dessen Lebensdauer. Die Inspektion von Oberflächen bildet daher einen unverzichtbaren Bestandteil der Qualitätsprüfung.

Warum die manuelle Oberflächeninspektion an ihre Grenzen stößt

Oberflächenfehler sind vielfältig. Verschmutzungen und Verfärbungen entstehen oft durch Kontaminationen während der Produktion. Beim Gießen von Kunststoff oder Beton führen Verdichtungsfehler zu Lunkern im Material. Kratzer entstehen durch Reibung mit Schmutzpartikeln, während Risse unter anderem durch Spannungskonzentrationen oder hohe Temperaturen auftreten.

Automatisierte Risserkennung auf Beton Automatisierte Risserkennung auf Beton
Abb. 1: Automatisierte Risserkennung auf Beton (© IDS Imaging Development Systems GmbH) Abb. 2: Automatisierte Risserkennung auf Beton (© IDS Imaging Development Systems GmbH)

 

Unterschiedliche Werkstoffe bringen zusätzliche Herausforderungen mit sich. Spiegelnde Materialien wie Metalle, Lack und Glas erzeugen je nach Lichteinfall unterschiedliche Reflexionen, die Oberflächenfehler leicht tarnen. Gekrümmte Objekte erschweren es, alle Winkel zuverlässig zu inspizieren.

Weitere Schwierigkeiten sind komplexe oder sehr kleine Fehler, die mit bloßem Auge kaum erkennbar sind. Hohe Stückzahlen pro Tag machen die Oberflächeninspektion zu einer monotonen Tätigkeit, bei der Konzentrationsschwächen auftreten können. All diese Aspekte gestalten eine manuelle Inspektion fehleranfällig.

Bildverarbeitungslösungen machen unsichtbare Fehler sichtbar

Ob hundert oder tausend Teile – eine maschinelle Prüfung führt Oberflächenprüfungen zuverlässig durch und erzielt reproduzierbare Ergebnisse. Dafür werden Industriekameras beispielsweise über Förderbändern installiert. Die Kameras erzeugen hochauflösende Bilder der Objekte, die im Anschluss von einer Bildverarbeitungssoftware analysiert werden. Klassische Bildverarbeitung arbeitet mit vordefinierten Regeln und Algorithmen. Auf dieser Basis untersuchen Kameras Objekte Pixel für Pixel. Die Bildverarbeitungssoftware extrahiert Merkmale aus den Bildern und analysiert, ob sie mit den festgelegten Regeln übereinstimmen. Im Gegensatz zum menschlichen Auge ermöglicht die Bildverarbeitung eine kontinuierliche Überwachung aus verschiedenen Blickwinkeln und erkennt selbst mikroskopisch kleine Abweichungen vom Soll-Zustand.

Noch flexibler dank künstlicher Intelligenz

Viele Bildverarbeitungslösungen nutzen heutzutage künstliche Intelligenz (KI). Diese lernt, ähnlich wie ein Mensch, anhand von Bildern und Merkmalen, wie der gewünschte Zustand der zu prüfenden Objekte aussieht. Nach der Trainingseinheit ist sie in der Lage, unter verschiedenen Bedingungen flexibel zu agieren und eigenständig Rückschlüsse zu ziehen.

Bei unterschiedlichem Lichteinfall nimmt die künstliche Intelligenz beispielsweise automatische Beleuchtungskorrekturen vor und passt sich an neue Reflexionsmuster an. Des Weiteren besitzt ein Bildverarbeitungssystem mit künstlicher Intelligenz Stärken bei der Analyse von organischem Material, das in Form, Farbe und Struktur variiert. Früchte, Pflanzen und Menschen sehen immer unterschiedlich aus, weshalb keine Regeln vorprogrammiert werden können. Eine KI kann hingegen auch verschieden große Eier analysieren oder Gesichter voneinander unterscheiden.

Prüfung des Zustands von Eiern im Karton Anomalieerkennung bei Pflanzen mit der IDS NXT
Abb. 3: Prüfung des Zustands von Eiern im Karton (© IDS Imaging Development Systems GmbH) Abb. 4: Anomalieerkennung bei Pflanzen mit der IDS NXT (© IDS Imaging Development Systems GmbH)

Von der Schweißnahtprüfung bis zur Reifegradbestimmung

Die Arbeitsweise der Bildverarbeitungslösungen kann überall eingesetzt werden, wo optische Qualitätskontrollen notwendig sind. Klassische Branchen und Beispiele sind:

  • Automobilindustrie:
    Lackkontrolle und Bauteilinspektion
  • Bauindustrie:
    Schweißnahtkontrolle, Lunkererkennung in Beton- und Metalloberflächen, Kratzer- und Risserkennung in Fassaden, Fenstern und Türen
  • Kunststoffindustrie:
    Kontrolle von Kunststoffteilen, Qualitätsprüfung von Spritzguss und Gusserzeugnissen
  • Elektroindustrie:
    Defekterkennung an Leiterplatten, elektronischen Bauteilen und Gehäusen
  • Pharmaindustrie:
    Inspektion von Tabletten sowie deren Verpackungen auf Beschädigungen oder Verunreinigungen, Etikettenkontrolle
  • Lebensmittelindustrie:
    Pflanzenkrankheiten erkennen, Reifegradbestimmung von Obst und Gemüse
Reifegradbestimmung von Erdbeeren mit der IDS NXT Kontrolle und Vermessung von Schweißnähten
Abb. 5: Reifegradbestimmung von Erdbeeren mit der IDS NXT (© IDS Imaging Development Systems GmbH) Abb. 6: Kontrolle und Vermessung von Schweißnähten (© IDS Imaging Development Systems GmbH)

 

Viele Industriekamerahersteller bieten heutzutage Bildverarbeitungslösungen für verschiedene Anwendungsfälle an. Des Weiteren hat sich der Marktplatz visionpier etabliert, auf dem sich über 120 Anwendungen befinden. Diese lassen sich in wenigen Schritten anfragen und auf individuelle Herausforderungen anpassen, ohne das eigene Kenntnisse in der industriellen Bildverarbeitung notwendig sind.

Zusammengefasst

Die automatisierte Oberflächeninspektion mithilfe industrieller Bildverarbeitung bietet präzise und zuverlässige Lösungen zur Erkennung selbst kleinster Fehler. Sie löst die Herausforderungen der manuellen Kontrolle und stellt sicher, dass Produkte höchste Qualitätsstandards erfüllen. Je nach Anwendungsfall kommt künstliche Intelligenz zum Einsatz, wodurch Anwendungen noch flexibler auf unterschiedliche Situationen reagieren können. Bildverarbeitungslösungen vereinen Hardware, Software und Integration, wodurch Unternehmen niederschwelligen Zugang zu zukunftsweisenden Technologien erhalten und wertvolle Entwicklungszeit sparen.

 

Über die Autorin:
Jacqueline Krauß arbeitet bei IDS Imaging Development Systems GmbH, einem langjährigen Mitglied der DGQ. IDS ist führender Industriekamerahersteller und Pionier in der industriellen Bildverarbeitung. Das Unternehmen mit Sitz in Obersulm, Baden-Württemberg, entwickelt 2D- und 3D-Kameras sowie Modelle mit künstlicher Intelligenz. Das nahezu unbegrenzte Anwendungsspektrum der Kameras erstreckt sich über verschiedenste nicht-industrielle sowie industrielle Branchen des Geräte , Anlagen- und Maschinenbaus. Mit dem Marktplatz visionpier bietet IDS Zugang zu über 120 Bildverarbeitungslösungen.

Die digitale Transformation in akkreditierten Laboren: Aktueller Stand, Herausforderungen und Chancen, Teil 1

Labor, Probe

Die Digitalisierung ist in aller Munde und macht auch vor den Laboren nicht Halt. Immer mehr Finanztöpfe werden für die digitale Transformation bereitgestellt, immer mehr Budgets freigegeben.

Aber wie ist der aktuelle Stand in den akkreditierten Laboren? Welche Hindernisse blockieren die digitale Transformation? Und welche Möglichkeiten eröffnen sich zum Beispiel durch generative KI? Gibt es das Labor 4.0 schon? Diese Fragen werden im Rahmen dieses Artikels und des zweiten Teils erörtert.

Das VUP-Konjunkturbarometer, welches vom VUP Deutscher Verband Unabhängiger Prüflaboratorien e.V. herausgegeben wird, vom November 2023 zeigt: Der Bereich IT und Digitalisierung hält mit 0,5 sein positives Niveau und trotzt der Krisensituation, obwohl in den akkreditierten Laboren in vielen Bereichen weniger investiert wird. Die Laborbranche investiert damit ganz gezielt in Zukunftstechnologien. Auch die QZ (Ausgabe 5/24) beschreibt in einem Artikel, dass die Investitionen für KI 2024 im Durchschnitt um 30 Prozent erhöht wurden. Die Labore richten hohe Erwartungen an die Digitalisierung hinsichtlich Effizienzsteigerung und Ausweitung der Geschäftsfelder. Doch laut einer aktuellen Horváth-Studie drohen diese Investitionen in vielen Unternehmen aufgrund fehlender Voraussetzungen ohne Mehrwert zu versickern.

Aktueller Stand in verschiedenen Laborarten

Der digitale Reifegrad in den verschiedenen akkreditierten Laboren ist sehr unterschiedlich und wird insbesondere bei der Betrachtung verschiedener Laborbereiche deutlich. In den technischen Laborsparten, beispielsweise im Automotive-Bereich, ist die Digitalisierung bereits wesentlich weiter fortgeschritten als in den medizinischen Laboren. Die Akkreditierungsanforderungen bezüglich der Informationssicherheit sind jedoch annähernd gleich. Viele Qualitätsmanagementsysteme (QMS) der medizinischen Labore sind noch sehr oder ausschließlich papierbasiert aufgebaut. Oft hört man die Aussage: „Weil wir das schon immer so gemacht haben.“ Dass diese Labore trotz ihres papierbasiertem QMS, das nicht mehr dem „Stand der Technik“ entspricht, ihre Akkreditierung erfolgreich bestehen, verstärkt diese Haltung zusätzlich. Warum das ganze Managementsystem ändern und hierfür viel Geld, Zeit und Ressourcen in die Hand nehmen, wenn die Akkreditierungsstellen dies nicht explizit fordern? Der Vorteil der digitalen Transformation ist für die Labore nicht deutlich genug. Zusätzlich ist der Gegenwind durch die Mitarbeitende für diesen ausgeprägten Change-Prozess häufig sehr hoch.

Labore, die beispielsweise als interne Qualitätssicherungslabore in innovativen und modernen Unternehmen verankert sind, etwa in der Werkstoff-, oder Materialprüfung, pflegen oft gleichfalls moderne und agile Prozesse. Die Mitarbeitenden sind an Veränderungen und Innovationen gewöhnt und gelten als resilienter und flexibler als Mitarbeitende in sehr konservativen Laborsparten.

Bei der Beurteilung der Automatisierung und Digitalisierung muss jedoch grundsätzlich zwischen dem Probendurchlauf, das heißt dem Laborprozess zur Probenbearbeitung und dem nach DIN EN ISO/IEC 17025 oder DIN EN ISO 15189 aufgebauten Managementsystem für die Aufrechterhaltung der Akkreditierung unterschieden werden.

Der Probenbearbeitungsprozess wird durch sogenannte Laborinformationsmanagementsysteme, abgekürzt LIMS, automatisiert und digitalisiert. Besonders bei sehr hohen Probenzahlen steigt der Automatisierungsgrad des Laborprozesses proportional und LIMS werden häufiger implementiert. Da medizinische Labore häufig hohe Probenzahlen untersuchen, nutzen medizinische Labore oft elektronische LIMS für die automatisierte Bearbeitung der Proben und die Anbindung der Geräte für die elektronische Ergebnisübertragung.

In den Prüf- und Kalibrierlaboren, die nach DIN EN ISO/IEC 17025 akkreditiert sind, werden regelmäßig weniger Proben getestet und LIMS sind seltener anzutreffen. Das heißt, speziell für den Laborprozess ist der digitale Automatisierungsreifegrad bei den Prüf- und Kalibrierlaboren und den technischen Laborsparten weniger ausgeprägt als bei den medizinischen Laboren.

Auf Ebene der Qualitätsmanagementsysteme nach DIN EN ISO/IEC 17025 und DIN EN ISO 15189 sehen wir ein gegenteiliges Bild. Medizinische Labore pflegen oft ein papierlastiges Managementsystem, wobei die Prüf- und Kalibrierlabore tendenziell stärker, zum Beispiel durch CAQ Systeme oder SharePoint digitalisiert sind. Ein Großteil der Labore unterhält momentan noch ein Hybridsystem aus Papierdokumenten und elektronischen Dokumenten.

Digitalisierung ist also nicht gleich Digitalisierung. Die Labore müssen sich fragen, welche Prozesse ihr „Nadelöhr“ sind, in welche Prozesse unverhältnismäßig viele Ressourcen und Kapazitäten fließen. In welchen Bereichen müssen sie effizienter, schneller und sicherer werden? Welchen Risiken unterliegen ihre Prozesse? Mancherorts werden etwa veraltete, nicht mehr unterstützte Systeme und MS Access Datenbanken genutzt, die nur von einer Person im Unternehmen verwaltet werden können. Was passiert mit diesen Prozessen, wenn diese Person ausfällt? Die Auswirkung für das Labor ist ähnlich einem Cyber-Angriff – der Stillstand aller Testungen und Prozesse.

Digitaler Umstellungsprozess in den akkreditierten Laboren

Die Umstellung von analogen zu digitalen Prozessen erfolgt in den Laboren in unterschiedlichen Stufen. Ausgedruckte Papierdokumente werden durch Excel- und Word-Dokumente ersetzt. Diese werden nicht mehr ausgedruckt, sondern digital gepflegt, gegebenenfalls mit elektronischen Unterschriften versehen und in den Audits und Begutachtungen digital präsentiert.

Der nächste Reifeschritt ist der Ersatz dieser Dokumente durch kommerzielle Softwaresysteme und Datenbanken oder -sätze, wie zum Beispiel CAQ, SharePoint für die Dokumentenlenkung, Pflege und Ablage.

Die Königsdisziplin ist eine kommerzielle Softwarelösung, auch „Software as a Service“ genannt (SaaS), die bereits bei der Auslieferung alle Akkreditierungsanforderungen erfüllt und schnell, also ohne großes Softwareimplementierungsprojekt, gestartet werden kann. Diese SaaS Lösungen, wie zum Beispiel 17025_SaaS von AUDITTRAILS Networks, sind seit wenigen Jahren für die Labore käuflich zu erwerben und bilden über Datensätze die kompletten Akkreditierungsanforderungen ab. Zum Aufbau eines Managementsystems muss auf diesem Wege nicht alles eigenständig erarbeitet werden. Die Labore können sich sicher sein, dass sie alle Akkreditierungsanforderungen erfüllen.

Selbsteinschätzung der Labore zum vorliegenden Digitalisierungsstand

Was sagen die Labore selbst über den Grad ihrer Digitalisierung? Welche Prozesse wurden bereits digitalisiert? Eine QI-FoKus-Studie von 2024, die in Zusammenarbeit mit der BAM erstellt wurde, befragte über 1.300 internationale Labore zu Digitalisierungsthemen.

Selbsteinschätzung des Digitalisierungsstandes der KBS in verschiedenen Bereichen

Abb. 1: Selbsteinschätzung des Digitalisierungsstandes der KBS in verschiedenen Bereichen. Quelle: QI-FoKus-Studie 2024 zur Digitalisierung in der Konformitätsbewertung: Ein internationaler Vergleich

Die Studie ergab, dass hauptsächlich die Übermittlung der Prüfergebnisse an die Kunden digital erfolgt.

Auch wurde festgestellt, dass Digitalisierung häufig erst in den letzten Jahren für die Labore relevant wurde. Jede zweite Konformitätsbewertungsstelle, unter anderem Labore, hat erst in den letzten 5 Jahren begonnen, sich mit der digitalen Transformation zu beschäftigen. Nur 20 Prozent haben dies bereits vor 10 Jahren getan.

Stand und Ausmaß der Digitalisierung in den KBS. Quelle: QI-FoKus-Studie 2024 zur Digitalisierung in der Konformitätsbewertung: Ein internationaler Vergleich Von der Digitalisierung betroffene Bereiche
Abb. 2: Stand und Ausmaß der Digitalisierung in den KBS. Quelle: QI-FoKus-Studie 2024 zur Digitalisierung in der Konformitätsbewertung: Ein internationaler Vergleich  Abb. 3: Von der Digitalisierung betroffene Bereiche. Quelle: QI-FoKus-Studie 2024 zur Digitalisierung in der Konformitätsbewertung: Ein internationaler Vergleich 

International haben nur 18 Prozent der Labore die Digitalisierung in das gesamte Labor integriert. Die meisten Digitalisierungsaktivitäten betreffen interne Prozesse, gefolgt von verbesserter Kommunikation. Nur in geringerem Ausmaß unterstützt die Digitalisierung jedoch die Erweiterung und Verbesserung der klassischen Labor-Tätigkeiten.

echnologien, die genutzt werden oder deren Nutzung geplant ist.

Abb. 3: Technologien, die genutzt werden oder deren Nutzung geplant ist. Quelle: QI-FoKus-Studie 2024 zur Digitalisierung in der Konformitätsbewertung: Ein internationaler Vergleich

Die neuesten digitalen Technologien, wie Blockchain, KI, Virtual Reality und Big Data Analytics werden nur in geringem Ausmaß in den akkreditierten Laboren eingesetzt. Regelmäßig zum Einsatz kommen bereits Mobile Technologien, Cloud-Computing-Technologien und eingebettete IT-Systeme. Auch Technologien und Anwendungen für Remote-Verfahren wie Videokonferenzsysteme und Chats sind fest im Alltagsgeschäft der Unternehmen verankert. Sie werden von 60 Prozent der befragten Unternehmen genutzt.

Technologien und Anwendungen für Remote-Verfahren

Abb. 4: Technologien und Anwendungen für Remote-Verfahren. Quelle: QI-FoKus-Studie 2024 zur Digitalisierung in der Konformitätsbewertung: Ein internationaler Vergleich

45 Prozent nutzen sie auch für ihre Audits. Als größte Hürden und Probleme bei den eingesetzten Remote-Methoden werden die mangelnde zwischenmenschliche Interaktion und Risiken bezüglich des Datenschutzes und der Informationssicherheit gesehen.

Mehr als die Hälfte der akkreditierten Routineprozesse wurden in 69 Prozent der internationalen Labore digitalisiert. 13 Prozent der Labore haben dagegen nicht einmal 10 Prozent ihrer Labortätigkeiten digitalisiert.

Zusammenfassung des aktuellen Standes der Digitalisierung in akkreditierten Laboren

In den letzten Jahren hat die Digitalisierung in diesen Laboren stark zugenommen. Die Fortschritte sind:

  • Laborinformationssysteme (LIMS):
    LIMS ermöglichen es, akkreditierten Laboren, die Probenbearbeitung und -verwaltung, die Datenverarbeitung sowie den gesamten Laborbetrieb automatisiert und digital abzubilden. Anfangs wurden diese Systeme häufig durch die eigene IT-Abteilung entwickelt. In den letzten Jahren wurden diese System wegen der gestiegenen Akkreditierungsanforderungen durch kommerzielle LIMS-Lösungen ersetzt.
  • Automatisierung von Prozessen:
    Fortschrittliche Analysegeräte und Sensoren automatisieren die Datenerfassung und -analyse, was zu einer erhöhten Effizienz und Genauigkeit führt. Dies ist besonders wichtig für akkreditierte Labore, da die Genauigkeit und Reproduzierbarkeit der Ergebnisse von entscheidender Bedeutung sind. Besonders die Anbindung der Geräte an die Server führen durch die automatisierte Rohdaten- und Ergebnisübertragung zu enormen Effizienzsteigerungen und Fehlerreduzierungen. Auch die digitale Übertragung der Prüfergebnisse und Prüfberichte an die Kunden führt zu einem enormen Effizienzgewinn.
  • Datenmanagement und -sicherheit:
    Die Nutzung von Cloud-Computing und Big-Data-Analyse ermöglicht es akkreditierten Laboren, große Datenmengen effizient und sicher zu speichern, zu verarbeiten und zu analysieren. Gleichzeitig wird die Sicherheit sensibler Daten gewährleistet. Diese Methodiken werden momentan in den internationalen Laboren noch nicht ausreichend genutzt.
  • Remote-Techniken:
    Seit 2020 setzen Labore vermehrt Remote-Techniken für die Tätigkeiten und Kommunikationsabläufe in den Laboren ein. Videokonferenzsysteme stellen das am häufigsten verwendete Tool für die Remote-Arbeit dar, gefolgt von digitaler Kommunikation (Chat).

 

Über die Autorin
Susanne Kolb ist Geschäftsführerin der Laborberatungsfirma LaborConsultingGenius GmbH und berät seit über 10 Jahren alle Branchen von Prüf-, Kalibrier- und medizinischen Laboren bei Akkreditierungsprojekten nach DIN EN ISO/IEC 17025 und DIN EN ISO 15189. Zusätzlich war sie fast 10 Jahre leitende DAkkS Systembegutachterin und Fachbegutachterin und ist seit Jahren Trainerin und Prüferin des DGQ-Zertifikats Labormanagement.


Koch, C., Ladu, L (2022). QI-FoKuS-Studie in Zusammenarbeit mit der BAM, Auswirkungen der Corona-Pandemie auf Konformitätsbewertung und Konformitätsbewertungsstellen in Deutschland (qi-digital.de)
Koch, C., Ladu, L (2024, März). QI-FoKuS-Studie in Zusammenarbeit mit der BAM (www.bam.de)
Frenzl, A. (2024, 26.März). Blogbeitrag: Moderne Managementsysteme – AUDITTRAILS Networks GmbH
Zeitschrift Laborpraxis 2024 : Dossier – Digitalisierung im Labor
VUP-Konjunkturbarometer, November 2023 (VUP – Verband unabhängiger Prüflabore)
Zeitschrift QZ 5/24, Seite 7, KI ist der Managementhype 2024 – und eine Investment-Falle, Hanser Verlag, Herausgeber DGQ
April 2024, DIALOGPROZESS „DIGITALE QI IN PRÜF- UND KALIBRIERLABOREN – VOM TREND ZUM TAGESGESCHÄFT“ Zentrale Erkenntnisse aus den Praxiswerkstätten #1 und #2


DGQ-Vortrag zu Digitalisierung: Zusammenspiel von Software, Hardware und Mensch im Blick

Qualitätsmanagement (QM) und Qualitätssicherung (QS) hinken derzeit digital noch hinterher: Das ist eine der Erkenntnisse aus dem Vortrag von Dr. Benedikt Sommerhoff, Leiter des Research Teams bei der DGQ, auf dem „Quality Day Software“ des Fachmagazins Quality Engineering. Unter dem Titel „Software, Hardware, Wetware – Alle(s) für die Qualität“ erörterte Sommerhoff als Keynote-Speaker unter anderem, worauf Unternehmen auf dem Weg in die Digitalisierung von Qualitätsmanagement (QM) und Qualitätssicherung (QS) achten sollten. Dabei stand insbesondere das Zusammenspiel von Software, Hardware und dem Menschen in Zeiten der beschleunigten Digitalisierung im Fokus.

Potenziale bewusst nutzen

In seinem Vortrag fokussierte sich Sommerhoff darauf, mit den Teilnehmerinnen und Teilnehmern ein gemeinsames Verständnis von Digitalisierung und ihres Potenzials zu erreichen sowie den unterschiedlichen Charakter von Soft- und Hardware zu vermitteln. Auch der Identifikation von Use Cases bei Software/Digitalisierung in und für QS und QM kam eine große Rolle zu sowie dem Ziel, Digitalisierung als Zusammenspiel von Software, Hardware und Mensch zu erkennen. Letzteres führte Sommerhoff zu der Fragestellung, wie dieses Zusammenspiel künftig die Rollen der Beteiligten verändern werde: Dabei sei mittlerweile insbesondere auch zu bedenken, wie Qualitätsverantwortliche in der Zukunft mit Künstlicher Intelligenz (KI) zusammenarbeiten werden. Sommerhoffs Appell: Organisationen sollten die Interaktion mit der KI bewusst und aktiv begleiten, und das auf Basis realistischer organisationsspezifischer Zielvorstellungen.

Interessierte können sich die Aufzeichnung des Vortrags hier anschauen:

Webinar Quality Days, Quality Engineering

© Quality Engineering/ Konradin-Verlag Robert Kohlhammer GmbH

Neue Anforderungen für KI in Unternehmen: Die EU-KI-Gesetzgebung und ihre Auswirkungen auf das Qualitätswesen

Künstliche Intelligenz (KI) durchdringt immer mehr Bereiche des täglichen Lebens und der Arbeit. Lange Zeit war künstliche Intelligenz nur für Entwicklungs- und Technologiebereiche interessant. In den letzten Monaten lässt sich beobachten, dass KI immer mehr auch zum Qualitätsthema wird. Überall dort, wo KI eingesetzt wird, um Kundenbedürfnisse zu erfüllen, wird sie auch Gegenstand des Qualitätsmanagements. Viele Unternehmen nutzen KI bereits in ihren Produkten, in ihren Herstellungsprozessen oder im Kundensupport. Auf diese Unternehmen kommen nun neue Anforderungen zu. Dieser Artikel ist Teil einer Serie. Der erste Teil möchte die Leser mit grundsätzlichen Qualitätsanforderungen an KI-Systeme in der aktuellen Rechtslage vertraut machen. Der Beitrag zeigt die großen Parallelen zwischen dem EU-KI-Gesetz und QM-Methoden. Folgende Artikel werden sich mit unterschiedlichen Aspekten wie KI-Absicherung und KI-Zertifizierung auseinandersetzen.

Die EU hat im Dezember 2023 das EU-KI-Gesetz verabschiedet, welches seit April 2024 in überarbeiteter Form vorliegt. Dieses Gesetz definiert Anforderungen für den Betrieb von KI-Systemen in der Europäischen Union und schafft einen einheitlichen gesetzlichen Rahmen für Hersteller und Betreiber. Die EU-KI-Gesetzgebung bewertet KI-Systeme nach einem risikobasierten Ansatz, der starke Ähnlichkeit mit bestehenden Management-Systemen wie ISO 9001 oder ISO 14001 aufweist.

KI-Anwendungen mit unzulässigen Risiken

Abbildung 1 zeigt die vier Risikokategorien für KI-Systeme gemäß EU-KI-Gesetz. Die Einstufung in eine Risikokategorie ergibt sich im Wesentlichen aus den möglichen Auswirkungen auf interessierte Parteien wie Nutzer, die Gesellschaft als Ganzes oder die Umwelt. Das KI-Gesetz verwendet den Ausdruck interessierte Partei dabei nicht. Die oberste Kategorie bezeichnet KI-Anwendungen mit unzulässigen Risiken. Beispiele hierfür sind Social-scoring-Systeme, die dazu gedacht sind, das Verhalten von Menschen zu beeinflussen. Der Betrieb solcher Systeme ist in der EU nach Ablauf einer sechsmonatigen Übergangsfrist untersagt.

Risikokategorien des EU-KI-Gesetzes mit Beispielen

Abb. 1: Risikokategorien des EU-KI-Gesetzes mit Beispielen

KI-Systeme mit hohem Risiko

Die zweithöchste Kategorie sind KI-Systeme mit hohem Risiko. Allgemein fallen in diese Kategorie Systeme, die funktionale Sicherheitsanforderungen haben (zum Beispiel in der medizinischen Diagnostik oder dem Straßenverkehr) oder die persönlichen und wirtschaftlichen Interessen von natürlichen Personen betreffen (zum Beispiel im Finanzwesen oder der Bildung). Annex III des EU-KI-Gesetzes enthält eine Auflistung von Hochrisiko-Bereichen. In der aktuellen Fassung des wurde ein neues Kapitel zu KI-Modellen mit allgemeinem Verwendungszweck aufgenommen. Für Hersteller dieser Modelle, zu denen auch große Sprachmodelle zählen, gelten besondere Anforderungen (zum Beispiel gpt4, das Modell hinter ChatGPT). Je nach Komplexität des Modells können die Anforderungen im Hochrisiko-Bereich oder sogar darüber liegen, wenn ein systemisches Risiko festgestellt wurde.

Hochrisiko-KI-Systeme müssen eine CE-Kennzeichnung aufweisen und durch eine unabhängige dritte Stelle zertifiziert werden. Alle Hochrisiko-KI-Systeme müssen in einer zentralen EU-Datenbank registriert werden. Wenn erwiesen ist, dass ein KI-System aus einem Annex III gelisteten Bereich keinen Einfluss auf Sicherheit oder Interessen natürlicher Personen hat, dann kann das System auch als System mit mittlerem oder niedrigem Risiko behandelt werden. Die Pflicht zur externen Zertifizierung entfällt in diesem Fall, aber das System muss trotzdem an die zentrale EU-Datenbank gemeldet werden. Die Erfassung in der EU-Datenbank und die Zertifizierung gelten für einzelne KI-Produkte, nicht für eine Organisation als Ganzes. Die Zertifizierung muss für alle größeren Eingriffe wiederholt werden.

Für Hochrisiko-KI-Systeme stellt das EU-KI-Gesetz eine Vielzahl von Anforderungen. Eine genauere Betrachtung der Anforderungen wird in einem separaten Artikel besprochen. An dieser Stelle sollen nur die wichtigsten Anforderungen genannt werden:

  • Einhaltung von Datenschutzvorschriften und Informationssicherheit
  • Vorhandensein eines Qualitätsmanagementsystems
  • Risikomanagement für vorhersehbare Fehler
  • Verpflichtung zu Test und Validierung des KI-Systems
  • Einhaltung der branchenspezifischen Vorschriften für funktionale Sicherheit

Die oben aufgeführten Stichpunkte zeigen den starken Überlapp zwischen der neuen EU-KI-Gesetzgebung und Methoden des klassischen Qualitätsmanagements. Aus diesem Grund gehen wir davon aus, dass das Qualitätsmanagement in Zukunft eine zentrale Rolle bei der Einführung und Überwachung von KI-Systemen einnehmen wird.

KI-Systeme mit mittlerem Risiko

Neben Hochrisiko-KI-Systemen gibt es noch Systeme mit mittlerem Risiko. In diese Kategorie fallen Systeme wie Chatbots für den Kundensupport. Diese Systeme haben nur unwesentliche persönliche und keine sicherheitsrelevanten Auswirkungen für Nutzer. Für diese Systeme gelten lediglich Transparenzanforderungen. Dies bedeutet, dass für Nutzer ersichtlich sein muss, wenn er mit einem KI-System interagiert. Der Nutzer muss ferner in Verständlicher Art und Weise über die Verarbeitung seiner Daten aufgeklärt werden. KI-generierte Inhalte sollten in maschinenlesbarer Art und Weise als solche gekennzeichnet sein (zum Beispiel durch Fingerprinting). Die EU arbeitet aktuell an einem Code of Conduct, der näher erklären soll, wie diese Anforderungen umzusetzen sind. Aktuell gibt es jedoch noch kein Veröffentlichungsdatum.

Es ist wichtig zu betonen, dass die Verantwortung für die Einhaltung von Transparenzregeln und Absicherung der korrekten Funktion hauptsächlich der Organisation zufällt, die das KI-System in Umlauf bringt. Dabei handelt es sich oft nicht um den Hersteller des KI-Modells. Insbesondere bei der Verwendung großer Sprachmodelle ist diese Unterscheidung wichtig. Chatbots sind in der Regel kundenspezifisch angepasst. Hersteller großer Sprachmodelle wie openAI agieren in diesem Fall als Lieferanten für Firmen, aber übernehmen in der Regel keine Haftung für firmenspezifische Anpassungen. Dieser Artikel beschreibt einige der Risiken, die dabei entstehen. Die Verantwortung für die Validierung der korrekten Funktion und die Einhaltung von Vorschriften obliegt der Firma, die das System für den Nutzer bereitstellt. Firmen werden somit selbst Prozesse zur Validierung ihrer KI -Lösungen implementieren müssen, wenn sie KI in ihren Produkten oder Prozessen nutzen möchten.

KI-Systeme mit vernachlässigbarem Risiko

Alle KI-Systeme, die nicht in die obersten drei Risikokategorien fallen, werden als Systeme mit vernachlässigbarem Risiko eingestuft. Für Anwendungen mit vernachlässigbarem Risiko stellt das KI-Gesetz neuen Anforderungen. Bestehende Anforderungen, zum Beispiel aus der Datenschutzgrundverordnung bleiben aber weiterhin bestehen. Wir stellen dazu ein kostenloses Self-Assessment bereit, mit dem die Risikoklasse einer KI-Anwendung bestimmt werden kann.

Abbildung 2 zeigt Umsetzungszeiten für die EU-KI-Gesetzgebung, wie sie zum 1. Mai 2024 bekannt waren. Das Verbot von Anwendungen mit unzulässigem Risiko wird bereits im November 2024 in Kraft treten. Die ersten Anforderungen, für Anwendungen mit mittlerem und hohem Risiko werden nach heutigem Kenntnisstand ab Mai 2025 in Kraft treten. Zu diesem Zeitpunkt greifen Verpflichtungen im Bezug auf Transparenz und Data Governance. Data Governance bedeutet, dass Trainings- und Testdatensätze alle für die Anwendung relevanten Kategorien oder Personengruppen abdecken müssen und dies auch nachvollziehbar zu dokumentieren ist.

Zeitschiene der Implementierung der EU-KI-Gesetzgebung

Abb. 2: Zeitschiene der Implementierung der EU-KI-Gesetzgebung

Die Verpflichtung zur Zertifizierung von Hochrisikosystemen wird voraussichtlich ab Mai 2026 in Kraft treten, gefolgt von einem Übergangszeitraum von 12 Monaten. Spätestens im Mai 2027 müssen dann alle Anforderungen des KI-Gesetzes vollständig umgesetzt sein.

Auf Firmen, die bereits jetzt KI in ihren Produkten oder Prozessen nutzen, kommen daher in den nächsten Monaten folgende Aufgaben zu:

  • Bewertung, in welche Risikokategorie die eingesetzten KI-Systeme fallen
  • Zusammenstellung aller bindenden Verpflichtungen und Normenanforderungen
    • Gesetze (mindestens Datenschutzgrundverordnung und KI-Gesetz)
    • Managementsysteme (zum Beispiel ISO 9001:2015)
    • Branchenstandards für funktionale Sicherheit (zum Beispiel ISO 26262 für Automotive)
  • Erstellung der notwendigen Dokumentation (zum Beispiel für Risikomanagement)
  • Test und Validierung der eingesetzten KI-Systeme

KI ist bereits heute in vielen Branchen eine zentrale Komponente der Wertschöpfungskette. Es ist davon auszugehen, dass KI-Assistenzsysteme mit mittlerem Risiko in den nächsten 24 Monaten branchenunabhängig in nahezu alle Bürotätigkeiten Einzug halten wird. Dabei werden KI-Systeme immer mehr Aufgaben übernehmen, die heute von Menschen erledigt werden. Das Qualitätsmanagement spielt eine entscheidende Rolle bei der Absicherung und gesetzeskonformen Umsetzung dieser Systeme. Es ist daher absehbar, dass in den nächsten Monaten ein erheblicher Trainingsbedarf im Bereich Qualitätsmanagement bestehen wird, um die Fachbereiche mit den neuen Anforderungen vertraut zu machen. Qualitätsverantwortliche sollten sich zeitnah mit den IT- und Rechtsbereichen ihrer Organisationen abstimmen um die Aufgabenverteilung, sowie die benötigten Ressourcen und die erforderlichen Qualifikationen zu bestimmen.

 

Lesen Sie mehr zum Thema “Künstliche Intelligenz in der Qualität” in den folgenden Fachbeiträgen:

  • Teil 1: Künstliche Intelligenz in der Qualität – Bestehendes Know-how effektiv nutzen – zum Beitrag »
  • Teil 2: Künstliche Intelligenz in der Qualität – Welche Qualifikationen werden benötigt? – zum Beitrag »
  • Teil 3: Künstliche Intelligenz in der Qualität – Praktische Einführung durch iteratives Vorgehen – zum Beitrag »

 

Über die Autoren:

Dipl.-Ing. Waldemar Fahrenbruch ist Head of Q-Technology Division E-Mobility bei der ZF Friedrichshafen AG. Er ist verantwortlich für die Qualitätskostensenkung bei gleichzeitiger Optimierung von Qualitätskonzepten in den Werken der Division E (TCU, Power Electronics und E-Motoren Fertigung) durch Methodenkompetenz der Qualität, künstlicher Intelligenz und digitaler Transformation.

Dr.-Ing. Stefan Prorok ist Geschäftsführer der Prophet Analytics GmbH und DGQ-Trainer für Qualitätssicherung und Künstliche Intelligenz. Prophet Analytics unterstützt Unternehmen in allen Phasen Ihrer KI-Umsetzung mit Trainings- und Beratungsangeboten. Kontakt: ki@prophet-analytics.de

Vertrauen stärken und Innovation ermöglichen: Eine digitale Qualitätsinfrastruktur für ein modernes Made-in-Germany

QI-Digital, Qualitätsinfrastruktur, Produktion

Produktion und Handel in immer komplexeren Wertschöpfungsnetzwerken, die fortschreitende digitale und grüne Transformation sowie technologische Innovationen sind in hohem Maße auf die verlässliche Sicherung und den effizienten Nachweis der Qualität, Sicherheit und Nachhaltigkeit von Waren, Dienstleistungen und Prozessen angewiesen. Unverzichtbar dafür ist eine moderne und leistungsfähige Qualitätsinfrastruktur (QI).

QI-Digital: Qualität smarter sichern

Im Rahmen der Initiative QI-Digital entwickeln die zentralen Akteure der Qualitätsinfrastruktur (QI) in Deutschland – die Bundesanstalt für Materialforschung und -prüfung (BAM), die Deutsche Akkreditierungsstelle (DAkkS), das Deutsche Institut für Normung (DIN), die Deutsche Kommission Elektrotechnik Elektronik Informationstechnik (DKE) und die Physikalisch-Technische Bundesanstalt (PTB) – gemeinsam mit Stakeholdern aus Wirtschaft und Forschung Lösungen für eine moderne Qualitätssicherung. Diese muss nicht nur den Anforderungen einer Wirtschaft gerecht werden, die zunehmend digital und vernetzt ist, sondern zudem nachhaltig und resilient sein.

Das Ziel: Qualität vertrauensvoll und effizient sichern und nachweisen. Gefördert wird die Initiative vom Bundesministerium für Wirtschaft und Klimaschutz (BMWK). Ein engagierter Beirat mit Mitgliedern aus Wirtschaft, Forschung und Verwaltung unterstützt bei der strategischen Ausrichtung, konkreten Umsetzung und der Vernetzung.

QI-Digital

Abb. 1: Die Bundesanstalt für Materialforschung und -prüfung (BAM), die deutsche Akkreditierungsstelle DAkkS, die Normungsinstitute DIN und DKE sowie die Physikalisch-Technische Bundesanstalt (PTB) haben sich zur Initiative QI-Digital zusammengeschlossen. Quelle: QI-Digital.

Von einer Dokumenten- hin zu einer Datenbasierten Qualitätssicherung

Durch das Zusammenspiel von Metrologie, Normung, Konformitätsbewertung, Akkreditierung und Marktüberwachung bildet die QI die Grundlage für funktionierenden internationalen Handel und das Qualitäts-Label “Made in Germany“. Die QI selbst ist ein komplexes System aus regulativen Rahmenbedingungen und verschiedenen Institutionen, Werkzeugen und Prozessen – ihre digitale Transformation ein entsprechend umfangreiches Vorhaben.

Das Zielbild einer digitalen QI umfasst dabei datenbasierte und automatisierte Verfahren für Qualitätssicherung und -nachweis sowie einen Werkzeugkasten unter anderem aus Smart Standards und maschinenlesbaren Konformitätsnachweisen mit digitalem Akkreditierungssymbol (eAttestation). Diese bilden zusammen ein digitales Ökosystem für die QI, das es Unternehmen und anderen privatwirtschaftlichen und hoheitlichen Akteuren in Wertschöpfungsnetzwerken ermöglicht, vertrauensvoll, souverän und effizient qualitätsrelevante Daten, Informationen und Dokumentationen bereitzustellen, zu nutzen und auszutauschen. Die bisher weitgehend dokumentenbasierte, analoge und statische Qualitätssicherung wird damit fundamental transformiert hin zu einem datenbasierten, smarten System, das auf nutzungsorientierten, vorausschauenden Ansätzen fußt, die den modernen Anforderungen der Industrie 4.0 gerecht werden und effizient für nachhaltiges Vertrauen und Transparenz sorgen.

Zielbild einer digitalen Qualitätsinfrastruktur

Abb. 2: Zielbild einer digitalen Qualitätsinfrastruktur: Digitale QI-Werkzeuge, -Verfahren und -Prozesse ermöglichen eine durchgängige Integration in Qualitätssicherungsprozesse der Industrie 4.0 sowie Transparenz und Vertrauen entlang der Wertschöpfungskette. Quelle: QI-Digital

Bürokratieaufwand reduzieren

Die Anforderungen an die Umsetzung regulatorischer Vorgaben steigen für Unternehmen stetig an. Die schon bald geforderte Implementierung des Digitalen Produktpasses in der EU im Rahmen der neuen Verordnung für nachhaltige Produkte (ESPR) ist nur ein Beispiel dafür. Digitale Innovationen in der QI sind hierbei ein Schlüssel, um diese bürokratischen Herausforderungen zu bewältigen, wie Dr. Gunter Kegel, Präsident des Verbands der Elektro- und Digitalindustrie ZVEI e.V., bei einem Austausch der Initiative QI-Digital mit Bundestagsabgeordneten zu Beginn des Jahres hervorhob. Voraussetzung ist es, von der analogen, dokumentenbasierten Qualitätssicherung hin zu einer datenbasierten Arbeitsweise zu kommen. Mithilfe digitaler Prozesse und Werkzeuge der QI lasse sich der personelle und administrative Aufwand für die Unternehmen wesentlich reduzieren und die Wettbewerbsfähigkeit der deutschen und europäischen Wirtschaft auch künftig sichern. Dies gilt nicht zuletzt vor dem Hintergrund des absehbar zunehmenden Fachkräftemangels.

Datenräume für die QI: Quality-X

Die Initiative QI-Digital entwickelt die nötigen digitalen Werkzeuge und Verfahren. Das wahre Potenzial der digitalen QI entfaltet sich erst, wenn ihre Akteure und Prozesse systemübergreifend und nahtlos in ein kohärentes digitales QI-Ökosystem integriert werden. Die jüngsten Entwicklungen hin zu industriellen internationalen Datenräumen ermöglichen ein solches Ökosystem.

Kernstück des angestrebten digitalen QI-Ökosystems ist Quality-X, eine föderierte Plattform zur Vernetzung von Institutionen und einfachen, sicheren Austausch qualitätsbezogener Daten und Informationen auf Basis internationaler Datenräume mit standardisierten Schnittstellen. Quality-X soll es Unternehmen erleichtern, Qualitätsnachweise zu erbringen und gleichzeitig Souveränität sichern, u.a. mit definierten Zugriffsberechtigungen. Basierend auf den Gaia-X-Grundsätzen, die Transparenz, Offenheit, Datenschutz und Sicherheit betonen, orientiert sich das Projekt an den technischen und rechtlichen Rahmenbedingungen bekannter Gaia-X-Leuchtturmprojekte wie Catena-X und Manufacturing-X. In einem Whitepaper hat die Initiative QI-Digital Konzept und Idee von Quality-X zusammengefasst.

Umsetzung anhand greifbarer, praxisrelevanter Pilotprojekte

Aufgrund der Komplexität der Prozesse, Verfahren und Werkzeuge der QI, werden die Lösungen entlang konkreter, praxisrelevanter Anwendungen der Qualitätssicherung in der modernen Produktion (Industrie 4.0) und dem Betrieb technischer Anlagen entwickelt, erprobt und demonstriert. Dazu dienen der Initiative praxisnahe Testumgebungen, die die Bundesanstalt für Materialforschung und -prüfung (BAM) im Rahmen der beiden Pilotprojekte „Additive Fertigung“ und „Verlässliche Wasserstofftankstelle“ bereitstellt. Neben Forschung und Entwicklung an modernen Prüfmethoden werden dort die digitalen Werkzeuge der QI erprobt und ihr Zusammenwirken demonstriert. So können integrierte Prozessketten dargestellt werden – vom Einlesen digital über Smart Standards bereitgestellter Normen-Anforderungen (siehe Initiative IDiS von DIN und DKE) über die prozessbegleitende Konformitätsbewertung mittels moderner (Prüf-)Verfahren hin zum automatisierten Erstellen von maschinenlesbaren Prüfberichten und anderer Konformitätsnachweise, eingebettet in das datenraumbasierte System Quality-X.

Dabei zeigt sich deutlich die zunehmende Bedeutung Künstlicher Intelligenz (KI) auch für die QI: Ganz neue Datenverfügbarkeit durch Sensortechnologien, thermographische Bildaufnahmen und andere moderne Ansätze eröffnet bisher ungekannte Möglichkeiten für die Qualitätssicherung. Entsprechende digitale, datenbasierte Prüfverfahren unter Nutzung von KI werden an der BAM entwickelt. Zudem wird das Potenzial des Federated Learning via Data Spaces erkundet. Umgekehrt ist auch die Frage der Vertrauenswürdigkeit von KI-Anwendungen ein zentrales Thema in QI-Digital. Damit der Einsatz qualitätsgesichert und vertrauensvoll erfolgen kann, werden bspw. an der PTB für den Gesundheitsbereich die Grundlagen messbarer Qualitätskriterien und Verfahren entwickelt.

Begleitforschungsaktivitäten und Stakeholder-Einbindung

Anwender und andere relevante Akteure über aktives Stakeholder-Engagement und umfassende Transferaktivtäten eng einzubeziehen, ist ein zentrales Anliegen der Initiative QI-Digital. Nicht nur ein engagierter Beirat steuert wertvolle Impulse bei. Auch ein stetig wachsendes Netzwerk liefert wichtige Informationen zu Anforderungen aus der Praxis, die in die Entwicklung der Lösungen einfließen.

Eine tragende Säule der QI sind Konformitätsbewertungsstellen. Um ihre Perspektiven und Erwartungen an eine digitale QI zu erfassen, hat die BAM in Kooperation mit der DAkkS und dem Verband Unabhängiger Prüflaboratorien (VUP) einen zielgerichteten, professionell begleiteten Dialogprozess für Prüf- und Kalibrierlabore mit ko-kreativen Online-Workshops aufgesetzt. Die gewonnenen Erkenntnisse aus diesen Praxiswerkstätten erlauben es, die Arbeit der Initiative noch stärker an den Praxis-Bedarfen auszurichten und weiterzuentwickeln.

Entsprechende konkrete Folgeprojekte mit interessierten Laboren bspw. zu Quality-X werden folgen. Weitere Begleitforschungsprojekte wie bspw. eine Trendstudie zur Zukunft der QI oder die internationale Vergleichsstudie der BAM zum Stand der Digitalisierung in der Konformitätsbewertung erlauben nicht nur vertiefte Erkenntnisse, sondern dienen auch der nachhaltigen Vernetzung.

Holistischer Ansatz: Technische Lösungen und geeignete Rahmenbedingungen

Ein solcher umfassender Stakeholderdialog ist auch deshalb wichtig, da neue digitale Lösungen in der QI, sowohl auf technischer als auch prozessualer Ebene zwischen Akteuren, Unternehmen (Hersteller/Inverkehrbringer/Betreiber) genauso wie Behörden/öffentliche Verwaltung (Genehmiger, Marktüberwacher, und andere), privatwirtschaftliche Konformitätsbewerter und andere Stakeholder betreffen. Die digitale Transformation der QI muss daher ganzheitlich auf verschiedenen Ebenen betrachtet werden. Sie bedeutet nicht nur technische Innovationen für Werkzeuge und Verfahren allein. Vielmehr erfordern digitale, transformative Lösungen die Gestaltung weitreichender Rahmenbedingungen an der Schnittstelle von Politik, Wirtschaft und Forschung.

Eine wesentliche Hürde können nötige Anpassungen des Rechtsrahmens sein, um innovative Lösungen tatsächlich in die Anwendung bringen zu können. Der bestehende Rechtsrahmen – von europäischen Richtlinien im Rahmen des New Legislative Frameworks über bundesdeutsche Gesetzgebung, technische Regeln bis hin zu kommunalen Verordnungen – kann mitunter so gestaltet sein, dass dieser die Einführung und Nutzung neuer, digitaler Lösungen behindert. Dies kann diverse Anwendungsbereiche betreffen – von Produktsicherheit über Umwelt- und Verbraucherschutz hin zu Handelsrecht. Es stellen sich daher die Fragen, inwiefern der bestehende Rechtsrahmen für eine digitale QI geeignet ist, bspw. welche Hürden, Hemmnisse (Stichwort Schriftformerfordernis), aber auch Potentiale sowie Anpassungsbedarfe und Gestaltungsoptionen bestehen. Im Rahmen einer von der BAM beauftragten juristischen Fachstudie werden daher gezielt alle Ebenen der Regelsetzung nach Lücken und Hindernissen für digitale Innovationen der QI untersucht. Entsprechende Analysen und abgeleitete Handlungsempfehlungen werden mit den zuständigen Akteuren, bspw. Gesetzgebern und Ministerien, aktiv geteilt und diskutiert.

Darüber hinaus ist die Initiative QI-Digital aktiv in relevanten Roadmapping-Prozessen und Normungsgremien (unter anderem bspw. zum Digitalen Produktpass) beteiligt.

QI-Digital Forum 2024

Das Jahr 2024 hält einige zentrale Entwicklungen für die QI bereit: Die EU verabschiedet den AI Act, der Digitale Produktpass nimmt Gestalt an und immer mehr europäische Datenraumkonzepte versprechen sichere digitale Ökosysteme. Diese Themen stehen daher auch im Fokus des 3. QI-Digital Forums, das am 9. und 10. Oktober an der BAM in Berlin stattfindet.

Unter dem Titel “AI Act, Data Spaces and Digital Product Passport – Setting the course for a green and digital transition“ erwarten die Besucher:innen spannende Keynotes, Paneldiskussionen und Fachvorträge sowie ein interaktiver Marktplatz mit Ausstellern und Exponaten rund um die Digitalisierung der QI. Außerdem werden Ergebnisse und Demonstratoren zu den Pilotprojekten und digitalen QI-Werkzeugen vorgestellt, die im Rahmen der Initiative QI-Digital entwickelt werden. Zudem bietet das QI-Digital Forum eine gute Gelegenheit, sich zu vernetzen und mit weiteren Stakeholdern aus der QI Herausforderungen und Chancen der Digitalisierung zu diskutieren. Mehr Informationen und die Anmeldung für eine Teilnahme vor Ort oder virtuell sind über die Website der Initiative unter www.qi-digital.de abrufbar.

QI-Digital Forum

Abb. 3: Das QI-Digital Forum 9. und 10. Oktober 2024 an der BAM bietet spannende Keynotes, Paneldiskussionen und Fachvorträge sowie einen interaktiven Marktplatz mit Ausstellern und Exponaten rund um die Digitalisierung der QI – und natürlich viel Gelegenheit zum Netzwerken. Quelle: QI-Digital

Einladung zur Beteiligung

Für die notwendige Weiterentwicklung der digitalen QI bedarf es des Engagements von Stakeholdern aus der QI, Wirtschaft, Politik, Verwaltung und Forschung – in Deutschland und darüber hinaus. Die Initiative QI-Digital begrüßt daher ausdrücklich die Beteiligung von Unternehmen und weiteren interessierten Akteuren.

Kontakt:
www.qi-digital.de
info@qi-digital.de

 

Über die Autoren:

Dr. Claudia Koch leitet das Referat Digitalisierung der Qualitätsinfrastruktur an der Bundesanstalt für Materialforschung und -prüfung (BAM) und ist Koordinatorin der BAM für die Initiative QI-Digital. Sie hat Betriebswirtschaftslehre und Internationales Wirtschaftsrecht studiert und in Innovationsökonomie an der TU Berlin promoviert.

Dr. Anna Maria Elert ist Koordinatorin der BAM für QI-Digital mit besonderem Schwerpunkt auf Themen rund um die Qualitätssicherung an technischen Anlagen. Sie hat im Fachgebiet Chemical Technology promoviert.

Lena Meyer koordiniert für die BAM QI-Digital-Aktivitäten mit Fokus auf Themen der modernen Produktion. Sie hat einen Masterabschluss in Produktionstechnik (Maschinenbau und Verfahrenstechnik).

Einfluss von ESG-Ratings auf die Nachhaltigkeit von Unternehmensprozessen, Teil 2

ESG, Environmental, Social, Governance

ESG-Ratings kommt bei der Bewertung der Nachhaltigkeit von Unternehmen eine hohe Bedeutung zu. In Teil 1 dieses Fachbeitrags standen grundlegende Aspekte von ESG-Ratings im Fokus. Teil 2 beleuchtet verschiedene Perspektiven auf mögliche ESG-Strategien von Unternehmen und die Aussagekraft von entsprechenden Ratings.

ESG-Ratings vermitteln ein übersichtliches und verständliches Bild davon, wie ein Unternehmen in den Bereichen Umwelt (E), Soziales (S) und Unternehmensführung (G) abschneidet. Diese Ratings haben sowohl für Shareholder als auch für Stakeholder Bedeutung, da diese vermehrt Geschäftsentscheidungen auf Grundlage ethischer Grundprinzipien treffen. Für Unternehmen gibt es eine Reihe von Vorteilen, die gute ESG-Ratings mit sich bringen. Hierzu zählt sowohl der Zugang zu günstigem Eigenkapital, da die eigenen Aktien stärker nachgefragt werden, als auch zu Fremdkapital, da Kreditinstitute bei nachhaltig ausgelegten Unternehmensführungsansätzen ein geringeres Ausfallrisiko sehen. Zusätzlich kann sich ein Unternehmen durch externe Bestätigungen der eigenen Nachhaltigkeit sehr gut am Markt positionieren und mit verbesserter Markenbekanntheit rechnen.

Bedeutung der EU-Taxonomie für ESG-Ratings

Hinsichtlich Selbstverständnis und Ziel von ESG-Ratings gibt es aktuell keine Einheitlichkeit, da die verschiedenen Ratingagenturen ihre Beurteilungen aus unterschiedlichen Perspektiven einbringen. Einige Ratings sind eher für kapitalmarktorientierte Unternehmen bestimmt und andere Ratings für die Geschäftspartner dieser Unternehmen. Die Ratings wiederum, die für die Zielgruppe der Shareholder ausgelegt sind, lassen sich ihrerseits wieder aus der Reputationsperspektive und der Risikosteuerungsperspektive betrachten. Da es so viele Unterschiede gibt, lässt sich auch nicht abschließend eine spezifische Ratingform ermitteln, die für alle Unternehmen gleich „richtig“ ist. Hier empfiehlt es sich, den Peer-Vergleich heranzuziehen.

Die Erwartungen an die Umsetzung der 2023 veröffentlichten Regulierungen im Rahmen der EU-Taxonomie sind vor diesem Hintergrund enorm. Experten aus dem Kreis der Unternehmensberatungen rechnen mit einer Revolution der „Ratingwelt“ sowie klaren Fortschritten bei der Erreichung der Klimaziele. Die erstmalige Definition von Nachhaltigkeit als Konzept sowie die Formulierung der wichtigsten Risiken kann bereits ein erster und dringend gebrauchter Schritt sein, um immer besser und sicherer, gemeinsam den Klimawandel zu bewältigen. Da jedoch viele der Regulierungen erst noch in Kraft treten, bleibt es abzuwarten und zu beobachten, wie der Markt auf die neuen Nachhaltigkeitsberichte reagiert, die im Rahmen der CSRD für zahlreiche Unternehmen verpflichtend werden. Wenn damit praktisch eine „zweite Säule“ neben der finanziellen Berichterstattung etabliert wird, können Share- und Stakeholder Unternehmen künftig deutlich besser einschätzen. Außerdem sollen einheitliche Daten veröffentlicht werden, ermittelt anhand einheitlicher Formeln, geprüft und bestätigt von unabhängigen Prüfern.

Die Prüfung der Nachhaltigkeitsberichte wird demnach künftig einer der essenziellen Blöcke sein, auf den Ratings sowie Informationen für Shareholder und Stakeholder aufbauen. Da in kurzer Zeit sehr viele Prüfungsaufträge entstehen werden, wenn in kommender Zeit viele Unternehmen ihre Nachhaltigkeitsberichte veröffentlichen müssen, könnte sogar ein ganzes Geschäftsfeld entstehen und ausgebaut werden.

In diesem Zusammenhang gewinnt die Green Asset Ratio an Bedeutung. Diese in Nachhaltigkeitsberichten anzugebende Kennzahl gibt wieder, zu welchem Anteil ein Unternehmen seine Prozesse mit 0-Emissionen betreibt. Da die Green Asset Ratio sehr vergleichbar ist, könnte sie ESG-Ratings sogar überflüssig machen – abhängig davon, wie der Markt sie annimmt.

Die ersten Nachhaltigkeitsberichte werden ab 2024, jeweils mit Stichtag 31. Dezember 2023, veröffentlicht. Da die EU-Taxonomie in so vielen Bereichen übersichtlicher, vergleichbarer und standardisierter als ESG-Ratings sein soll, stellt sich die Frage, ob ESG-Ratings überhaupt einen zusätzlichen Mehrwert bieten oder nur noch dazu sind, dass Anleger beim Investieren ein gutes Gewissen haben. Experten zufolge jedoch waren und sind ESG-Ratings ein Schritt in die richtige Richtung. Damit einhergehend können die neuen Regelungen seitens der EU einen großen Unterschied machen.

Berufsbild Nachhaltigkeitsmanager

Die Themen Nachhaltigkeit und Klima­schutz gehören zu den Mega­trends unserer Zeit. Für Unter­nehmen wird es somit immer wichtiger, CSR-Maßnahmen um­zu­setzen und ihrer gesell­schaftlichen Verantwortung gerecht zu werden. Mit dem größeren Fokus auf Nachhaltigkeit haben sich in den letzten Jahren eine Vielzahl an grünen Jobs entwickelt, wie beispielsweise der Job als Nachhaltigkeitsmanager.
Antworten auf die wichtigsten Fragen finden Sie in unserem Berufsbild zum Nachhaltigkeitsmanager:

  • Welche Aufgaben betreuen Nachhaltigkeitsmanager?
  • Wie werde ich Nach­haltigkeits­beauf­tragter?
  • Welche Weiter­bildungs­möglich­keiten gibt es?
  • Was verdient ein Nach­haltigkeits­manager?
  • Welche Jobs gibt es im Nach­haltigkeits­manage­ment?

Zum Berufsbild Nachhhaltigkeitsmanager »

Rating-Verbesserungen und Greenwashing-Gefahr

Die aktuellen ESG-Ratingmechanismen sind zum Teil noch sehr undurchsichtig. Ratingagenturen zeigen in ihrer Bewertungsstrategie keinerlei Transparenz, gleichzeitig aber verlangen sie sehr hohe Lizenzgebühren, die von Dritten nicht einsehbar sind. Bewertungen scheinen oft unfair und nicht nachvollziehbar oder gar widersprüchlich. Daher empfiehlt es sich nicht, Unternehmensprozesse für eine Ratingverbesserung zu ändern. Stattdessen empfehlen Experten, für eine Ratingverbesserung einfach mehr Informationen offenzulegen. Dabei ist grundsätzlich weniger wichtig, welche Informationen offengelegt werden, solange es insgesamt „mehr Informationen“ sind. Ratingagenturen verfügen über automatische Crawler, also Bots, die die veröffentlichten Informationen von Unternehmen herunterladen und auswerten. Jedoch haben die Agenturen nicht die Ressourcen, um die Informationen zu validieren oder gar qualitativ zu bewerten.

Als Folge könnten Unternehmen also bei der Definition der Ziele „einen Puffer einbauen“, um den eigenen CO2-Ausstoß bis 2030 weniger reduzieren zu müssen. Wenn für ein Unternehmen absehbar ist, dass der CO2-Ausstoß sich durch einen ohnehin anstehenden Lieferantenwechsel oder ähnliches verringert, könnte die Zielformulierung dementsprechend so ausfallen, dass das Ziel ohne Probleme erreicht wird. Je nach Auswirkung des beispielhaften Lieferantenwechsels wird das Ziel damit eventuell sogar unterschritten, sodass Mitarbeiter:innen zum Beispiel sogar mehr als zuvor mit dem Flugzeug reisen könnten, ohne dass die Zielerreichung gefährdet wird. Im Ergebnis kann es also vorkommen, dass ein Rating sich verbessert, obwohl ein Ziel nicht sehr ambitioniert gesetzt wurde – allein dadurch, dass neue Informationen veröffentlicht wurden. Aus diesem Grund ist eine Verbesserung der Ratings vergleichsweise simpel, was wiederum Anlass zu Greenwashing-Kritik gibt.

Argumente für ESG-Ratings

Es gibt viele gute Gründe, als Unternehmen ein sehr gutes ESG-Rating anzustreben. Ganz vorne liegen laut Experten insbesondere finanzielle Incentivierungen. Allerdings können bislang keine klaren statistischen Korrelationen zwischen Ratingverbesserungen und Kapitalkosten bewiesen werden. Jedoch sind finanzielle Anreize, als Unternehmen ein ESG-Rating zu erlangen, auch über die Gewinnung von lukrativen neuen Geschäften gegeben. So benötigen vor allem jene Unternehmen, die bereits Nachhaltigkeitsberichte schreiben, einen Nachweis über die Nachhaltigkeit ihrer Geschäftspartner.

Darüber hinaus wird immer wieder eine verbesserte Reputation als Anreiz angeführt: Wenn ein Unternehmen sich als besonders „grün“ positionieren möchte, darf ein gutes Rating nicht fehlen. Jedoch sind für eine solche Positionierung zwingend auch weitere „Commitments“ notwendig, die diese Behauptungen unterstreichen.

Wenn ein Unternehmen sein Rating verbessern möchte, scheint es aktuell allerdings entweder nicht genug oder überhaupt nicht wirkungsvoll, seine CO2-Werte zu reduzieren. Dies mag auf den ersten Blick widersprüchlich klingen. Was jedoch für die tatsächliche Erreichung von Klimazielen gebraucht wird, sind eine klare Strategie und ambitionierte selbstgesetzte Ziele. Ein gutes Rating sollte sich nicht darauf verlassen, wie viel CO2 das Unternehmen aktuell einspart, wenn keine Informationen darüber vorliegen, wie die Pläne des Unternehmens über die Beibehaltung dieser Umstellung sind. Stattdessen empfiehlt es sich, die langfristigen Ziele eines Unternehmens zu bewerten, auch bevor sie vollständig umgesetzt sind. Künftig sollen Ratings sinnvollerweise auch das abdecken und so interessierten Parteien ein umfassenderes und eindeutigeres Bild über die Nachhaltigkeitsaktivitäten eines Unternehmen geben.

Obwohl das zum Teil auch zu besseren Ratings auf Basis von leeren Versprechungen führen kann, stellen Unwahrheiten nicht die größte Herausforderung dar. Stattdessen greifen in diesem Fall die klassischen politischen Probleme: Definitionsfragen und lange Diskussionen über die Relevanz von Details. Dabei ist jedoch zu beachten, dass, wie oben erwähnt, Nachhaltigkeit zukünftig auch in Form von Mitgliedschaften, Initiativen und Verpflichtungen bei den Ratings berücksichtigt wird. Dass sich Unternehmen letztendlich dagegen entscheiden könnten, die geäußerten Verpflichtungen auch einzuhalten, wie es beispielsweise einzelne Länder bei der Erreichung der Klimaziele 2020 taten, ist in Ratings allerdings nicht berücksichtigt.

Fazit: Die richtigen Anreize für ESG-Ratings setzen

ESG-Ratings spielen eine zentrale Rolle bei der Bewertung der Nachhaltigkeit von Unternehmen, die sich sowohl an Shareholder als auch Stakeholder richtet. Die Auswahl einer geeigneten Ratingagentur durch ein Unternehmen gestaltet sich jedoch herausfordernd, da verschiedene Anbieter unterschiedliche Schwerpunkte und Kriterien haben, was zu widersprüchlichen Ergebnissen führen kann. Dieses Problem sollte jedoch durch das Inkrafttreten der EU-Taxonomie Regulierungen adressiert werden, da die meisten großen Unternehmen ab 2025/26 einmal jährlich einen standardisierten Nachhaltigkeitsbericht veröffentlichen müssen. Dazu zählen kleine und mittlere Unternehmen (KMU), die kapitalmarktorientiert sind, Drittstaatenunternehmen mit 150 Mio. Euro Umsatz in der EU oder Zweigniederlassungen, die mehr als 40 Mio. Euro Umsatz erreichen.

Die bisherigen Unterschiede in den Ansätzen der ESG-Ratings, insbesondere zwischen der Bewertung der Umweltauswirkungen und der Risiken durch ESG-Faktoren, sind allerdings als problematisch zu betrachten. Die Diversität der ESG-Ratings und die komplexe Thematik machen es für Leser des Ratings schwer, klare Schlussfolgerungen zur Nachhaltigkeit eines Unternehmens zu ziehen. Jedoch bleibt momentan auch bei gut funktionierenden ESG-Ratingsystemen und den genannten Vorteilen zum Teil noch fraglich, wofür Unternehmen ihr Rating verbessern sollten. Schließlich können viele der genannten Vorteile auch durch ein mittelmäßiges oder gutes Rating erzielt werden. Daher gilt es für die Zukunft, die Akzeptanz von ESG-Ratings im Allgemeinen in der Gesellschaft und Wirtschaft zu steigern und die Unabdingbarkeit von guten bis sehr guten Ratings gegenüber mittelguten Ratings zu festigen. Nur sehr gute Ratings sollten Unternehmen zum Vorteil gereichen, um dadurch den Anreiz zu steigern. Vor diesem Hintergrund müssen die Anreize für echte Änderungen offenbar weiterhin von der Politik durch gesetzliche Rahmenbedingungen getragen werden.

 

Lesen Sie auch Teil 1 der Fachbeitrags-Reihe: Einfluss von ESG-Ratings auf die Nachhaltigkeit von Unternehmensprozessen, Teil 1 »

Der Text wurde von Prof. Dr. Irina Mazilu-Eyaz und ihrer wissenschaftlichen Mitarbeiterin Simone Schwarz verfasst und beruht auf der von Prof. Dr. Irina Mazilu-Eyaz und Prof. Dr. Alexander Rühl betreuten Bachelorarbeit von Herrn Maximilian Krause an der Hochschule RheinMain.

 

Über die Autoren:

Prof. Dr.-Ing. Irina Mazilu-Eyaz hat Materialwissenschaft an der Technischen Universität Darmstadt und am Imperial College London studiert. Während Ihrer 11-jährigen Berufstätigkeit bei einem internationalen Technologiekonzern sammelte sie Erfahrung im Qualitätsmanagement und wurde zur Methoden-Expertin für technische Problemlösung. Seit 2021 ist sie Professorin für Qualitätsmanagement und Werkstoffkunde an der Hochschule RheinMain und entwickelt auch neue Lehrveranstaltungen zum Thema Nachhaltigkeit. Im Mai dieses Jahrs wurde sie ins Leitungsteam des DGQ-Fachkreises Nachhaltigkeit gewählt.

Kontakt: irina.mazilu-eyaz@hs-rm.de, www.hs-rm.de

Bis Ende 2023 war Simone Schwarz wissenschaftliche Mitarbeiterin an der Hochschule RheinMain und arbeitet jetzt beim GSI Helmholtzzentrum für Schwerionenforschung GmbH in Darmstadt. Sie forscht für ihr Promotionsvorhaben zum Thema Nachhaltigkeit und Circular Economy im Bereich Maschinenbau.

Kontakt: s.schwarz@gsi.de, www.gsi.de

Nachhaltigkeit messen – Wie kommen wir an Kennzahlen? Drei Bausteine zum Erfolg

Nachhaltigkeit, ESG, Kennzahlen

Ob Nachhaltigkeitsmanager, Umweltbeauftragter, Qualitätsmanager, Unternehmensentwickler oder Geschäftsführung: Jeder Themenverantwortliche in Organisationen hat bei der Messung von Nachhaltigkeit eine eigene Perspektive und unterschiedliche Fragestellungen zu beantworten. Bei der Vielzahl an Bearbeitungsmöglichkeiten, Regularien, Standards, Materialien, Quellen etc. stellt sich dabei die zentrale Einstiegsfrage: Womit kann ich bei der Kennzahlenentwicklung sinnvollerweise beginnen?

Baustein 1: Ziele müssen klar beschrieben sein, erst dann sind Kennzahlen sinnvoll

Im Internet erhalten Suchende über einschlägige Suchanfragen nach „ESG-Indikatoren“ u.a. eine Vielzahl von „Kennzahlenkatalogen (GRI, DNK)“ oder auch Jahresberichten von Konzernen (zum Beispiel von SAP, Siemens, Telekom). Aus Sicht des DGQ-Fachkreises Nachhaltigkeit liefern solche Betrachtungen jedoch keine systematisch verwertbaren Erkenntnisse. Häufig passen die gezeigten Kennzahlen nicht zur Strategie und Ausrichtung der jeweiligen Organisation. Gerade kleine und mittelgroße Unternehmen (KMU) bleiben bei der Zahlenflut oftmals ratlos zurück. Der Nutzen der Kennzahlen wird nicht klar, auch der Mix aus quantitativen und qualitativen Werten erschließt sich nicht sofort. Hinweise für die Entwicklung von Kennzahlen und deren Steuerungswirkungen können so nicht erzielt werden. Hierfür sind zunächst die jeweiligen Nachhaltigkeits- oder ESG-Ziele klar zu beschreiben und in der Unternehmensstrategie bzw. -ausrichtung zu verankern.

Dabei könnte zukünftig eine ISO-Norm helfen, die sich derzeit in der Entwicklung befindet: die ISO 53001 („Management systems for the UN Sustainable Development Goals – Requirements“), die derzeit im ISO-Gremium PC 343 erarbeitet wird.

Im ersten Schritt müssen die eingangs genannten Themenverantwortlichen anhand einiger Grundsatzüberlegungen und ausgehend vom bestehenden Reporting/Berichtswesen erst einmal verstehen, worum es bei der Nutzung von Kennzahlen eigentlich geht:

  • Was will ich erreichen? Was möchten meine Stakeholder? Welchen Nutzen will ich erreichen?
  • Wie kann ich das Gewünschte messen bzw. Veränderungen nachvollziehbar beobachten?
  • Was ist nicht vorhanden und wie kann es ermittelt werden?
  • Was sind die Grenzen meiner Ressourcen?

Erst wenn das Verständnis für diese Fragestellungen vorhanden ist, ist im zweiten Schritt ein fokussiertes Weiterkommen möglich. Über die Beantwortung dieser Fragen wird klarer, welche Kennzahlen für die eigene Organisation wichtig sind und helfen, die Unternehmenssteuerung unterstützen. Kennzahlen müssen dabei Nachweise dafür liefern, inwieweit ein Leistungsergebnis im Laufe der Zeit eintritt. Folgende Grundsätze sind für die Entwicklung von Kennzahlen zu berücksichtigen.

  1. Resultat“: Das gewünschte Ergebnis ist klar beschrieben
  2. Fokus“: Ein klarer Fokus ist vorhanden
  3. Prozess oder Aktivität“: Konkrete Prozesse oder Aktivitäten sind geplant, um das gewünschte Ergebnis zu erreichen
  4. Messung“: Es gibt eine oder mehrere Kennzahlen, anhand derer das Erreichen des Ergebnisses überprüft werden kann
  5. Zielwert und Zeitrahmen“: Zielwerte für Kennzahlen und Zeitrahmen, in denen erstere erreicht werden sollen, sind vorausschauend festgelegt.

Baustein 2: Starten statt Warten

Aktuell gibt es noch keine ESG-Checklisten, die einfach abzuarbeiten sind. Auch die Anforderungen an die Berichterstattung (CSRD usw.) bereiten noch vielen Probleme. Wie können dennoch “low hanging fruits“ geerntet werden?

Als Soforteinstieg bietet sich eine Statusbestimmung an, die auch bereits mit einer Stakeholderbetrachtung gemäß der künftig geforderten „Doppelten Wesentlichkeitsanalyse“ gekoppelt werden kann. Damit können Aufwände und Zeitdruck in der zwingenden Realisierungsphase reduziert werden.

Üblicherweise sind diverse Bereiche innerhalb einer Organisation in die Kennzahlenthematik zu involvieren. Nicht alle wissen dabei voneinander. Zudem ist oft nicht klar, was gegebenenfalls schon vorhanden ist (zum Beispiel Ergebnisse von Mitarbeiterbefragungen, Daten aus dem Controlling/Rechnungswesen). Vorhandene Managementsysteme bieten – sofern vorhanden – einen Einstieg in eine übergreifende, integrative Betrachtung. Zudem sind hieraus in der Regel bereits Messgrößen verfügbar.

Ein großes Hemmnis ist die Angst vor Zeitaufwand und Kosten. Die Ermittlung von Kennzahlen stellt häufig einen zusätzlichen Arbeitsaufwand dar. Zudem wird das Thema gerne auf der Zeitachse geschoben, da die Budgetverantwortlichen die unmittelbare Relevanz nicht erkennen. Dem sollten die Themenverantwortlichen schon in der Planungsphase nach Kräften entgegenwirken. Übergreifende Zusammenarbeit ist hier ein Erfolgsfaktor.

Gut zu wissen: Es gibt Fördermöglichkeiten. Wichtig dabei: Die Organisationen müssen selbst aktiv werden! Unterstützung bieten verfügbare Finanzförderungen, die auch als Mittel für die Kennzahlenthematik genutzt werden können. Zum Beispiel sind beim Bundesamt für Wirtschaft und Ausfuhrkontrolle (BAFA) auch weitere Fördermöglichkeiten mit folgenden Links zu finden:

Informationen zu Förderprogrammen

Baustein 3: Positiv gestimmte Unternehmenskultur ist sehr wichtig

Die Entwicklung von Kennzahlen ist stark von der Nutzenfrage bestimmt. Ein reines, von der Regulatorik, Banken und Versicherungen etc. gefordertes „Pflichtprojekt“ kann die gewünschten Effekte für die Unternehmenssteuerung nicht erzielen. Auch zu dieser Thematik ist die „Oberste Leitung“ gefordert, Gestaltungswillen zu zeigen, statt nur aus der Notwendigkeit und der regulatorischen Anforderung heraus Kennzahlen zu berichten. Im Idealfall lebt die oberste Leitung das Thema Nachhaltigkeit vor und bezieht es in den Strategieprozess ein. Erst dadurch kommt der Thematik die benötigte Wertschätzung zu.

Für die Umsetzung der Gesamtthematik reicht es nicht, die Aufgabe alleinig beim Qualitätsmanager oder Qualitätsmanagementbeauftragten (QMB) „abzuladen“. Tatsächlich ist dieser nur einer der benötigten Kandidaten in einem interdisziplinären Team. Vernetzung ist wichtig und bezieht in der Zusammenarbeit – je nach Aufstellung der Organisation – Controlling, Finanzbuchhaltung, Rechtsabteilung, Risikomanager, Logistik, Personal, Einkauf u.a. mit ein.

Sobald das angestrebte Ziel klar ist, gilt es , begleitende Ressourcen und Kommunikationsmöglichkeiten zur Verfügung zu stellen, um Kollegen:innen zum Mitmachen zu motivieren. Motivierte Kollegen:innen zu gewinnen ist zentral, um eine entsprechende Kultur der Kennzahlenorientierung zu schaffen. Dieser muss allerdings zunächst eine Kultur der Unterstützung von SDGs innerhalb der Organisation vorausgehen. Denn die besten Kennzahlen nützen nichts, wenn keine Nachhaltigkeitsziele eingehalten werden. Die Abfrage unter den Mitarbeitenden, wer beim Kennzahlenreporting mitmachen will, ist eine Möglichkeit. Weitere Möglichkeiten bieten zum Beispiel Foren mit Visualisierungen, Testräume, Communities, Schulungen, Trainings und Netzwerke. Solche internen Beteiligungsmöglichkeiten können dazu motivieren, Beiträge zu leisten, die Sichtbarkeit für die Thematik zu erhöhen, die Know-how Basis zu verbreitern und die Akzeptanz zu erhöhen.

Das Thema „Kennzahlen“ und deren sinnvolle Entwicklung innerhalb der Organisation ist unbestreitbar ein herausforderndes. Da dieses Thema dynamisch bleibt, ist der Fachkreis für ergänzende Impulse offen. Abschließend bleibt festzuhalten: Es gibt keine „One Size fits all Lösung“. Denn jede Organisation hat die Aufgabe, individuelle Kennzahlen-Settings zu erarbeiten.

 

Über die Autoren:
Die Verfasser Dirk Kohlenberg, Frank Gerhäuser, Jonas Hegewald, Henry Wehrenberg und Wilhelm Floer bilden die Arbeitsgruppe „Kennzahlen“ des DGQ-Fachkreises Nachhaltigkeit.

Der Fachkreis bietet eine entscheidende Plattform, über die wir Wissen teilen, gemeinsam lernen und Umsetzungsbeispiele für die Praxis erarbeiten und bereitstellen. Wir wollen damit einen Gestaltungsspielraum für engagierte Personen aus Organisationen bieten, die sich ihrer unternehmerischen Verantwortung gegenüber der Umwelt und der Gesellschaft, aber auch der eigenen Organisation bewusst sind. Dies gilt für die Gegenwart und die Zukunft. Somit vereinen wir Managementsysteme und Nachhaltigkeitsbestrebungen.

Empowerment in der Pflege und die Rolle der Organisation

Empowerment, Pflege, Fachkräfte, Magnetmodell

Die Pflege-Branche ist und das nicht erst seit der erhöhten Wahrnehmung durch die Corona-Pandemie, einer Vielzahl an Herausforderungen ausgesetzt. Hier sind allem voran der demografische Wandel, begrenzte finanzielle Mittel und natürlich auch der Fachkräftemangel zu nennen.

Der Fachkräftemangel ist auf vielschichtige Gründe zurückzuführen. Ein großer Punkt in diesem Zusammenhang ist mit Sicherheit das Rollenbild sowie das Image des Pflegeberufes, das zum einen aus der äußeren, aber auch der inneren Wahrnehmung resultiert. Dies sorgt für wenig Nachwuchs, da die eigentlich wertvollen Aspekte der Profession leider meist untergehen.

Ein Magnet für Fachkräfte

Dennoch gibt es Organisationen, die von der Personalproblematik weniger stark betroffen sind. Mit dieser grundlegenden Frage beschäftigt sich das Magnet-Konzept, welches weiterhin vor allem in den USA Umsetzung findet. Dieses Konzept liefert einige Erklärungsansätze im Kontext der Professionalisierung der Pflegepraxis.

Das Magnet-Konzept beschreibt Schlüsselkomponenten, die ausschlaggebend für den Erfolg oder Misserfolg einer Organisation im Hinblick auf ihre personellen Ressourcen sind. In den Magnet-Einrichtungen wird Fachpersonal, wie es der Name sagt beinahe „magnetisch“ angezogen, während in anderen Organisationen weiterhin akuter Personalmangel vorherrscht.

Strukturelles Empowerment stärkt

Die identifizierten Bestandteile der Magnet-Einrichtungen zeigen sich insbesondere im Empowerment der einzelnen Mitarbeitenden. In Organisationen des Gesundheitswesens wurde diesem Aspekt und den daraus resultierenden Möglichkeiten bisher jedoch nur wenig Aufmerksamkeit geschenkt. Unabhängig vom Magnet-Modell hat das Konzept des strukturellen Empowerments seinen Ursprung in Forschungsarbeiten, die untersuchen, wie Arbeit Menschen stärken kann, anstatt sie zu schwächen, und dabei dennoch eine hohe Effektivität gewährleistet (s. Weibler 2017). Im Zentrum steht die “Übertragung von Entscheidungsautorität und Verantwortung auf die jeweils nachgelagerte Hierarchieebene” (vgl. ebd.).

Ergänzung durch psychologisches Empowerment

Das klassische strukturelle Empowerment, wie es auch in den fünf Schlüsselkomponenten des Magnetmodells zu finden ist, wurde in der Forschung durch das Konzept des psychologischen Empowerments erweitert. Im Rahmen des psychologischen Empowerments werden neben Selbstbestimmung auch die Unterstützung bei der Entwicklung benötigter Kompetenzen sowie die sinnvolle Erfahrung der eigenen Tätigkeit betont. Interessant wird dieser Ansatz vor allem dann, wenn man sich mit der aktuellen Diskussion, um die Vorbehaltsaufgaben auseinandersetzt. Denn was bedeutet eine solche Veränderung der Aufgaben für die tägliche Pflegepraxis? Welche Kompetenzen und organisationalen Rahmenbedingungen werden benötigt?

Erhöhte Identifikation mit dem Arbeitgeber

Die Forschung zum Magnet-Konzept sowie die Diskussionen über New Work liefern bereits erste Erkenntnisse zu diesem Thema. Dies beinhaltet nicht nur Aspekte des Empowerments, sondern auch Anreize und die Motivation zu lebenslangem, beruflichen Lernen (s. Luzinski 2012, S. 3; Spence Laschinger et al. 2003, S. 411). In Organisationen, in denen Führungskräfte eine entsprechende Haltung auf die nachgeordnete Ebene übertragen, ist die Personalsituation deutlich weniger angespannt. Die Bindung und Identifikation mit dem Arbeitgeber sowie dem Pflegeberuf sind im Vergleich zu Referenzorganisationen signifikant gesteigert. Zu dem wird Wertschätzung stärker wahrgenommen und fachliche Know-How häufiger in die tägliche Praxis integriert (s. Gasda 2002, S. 340; Spence Laschinger et al. 2003, S. 419).

Gewährter Handlungsspielraum wird genutzt

Des Weiteren haben Mitarbeitende in Magnet-Einrichtungen mehr Handlungsspielraum in ihrer täglichen Praxis und nutzen diese auch entsprechend. Das hat wiederum Auswirkungen auf ihre eigene Arbeitsumgebung. Sie sind freier in der Abwicklung ihrer täglichen Abläufe und organisieren beispielsweise auch die Arbeitsbelastung autonomer, da hier Einflussmöglichkeiten vorliegen und die Arbeit nicht top-down organisiert wird (s. Spence Laschinger et al. 2003, S. 411, 420). In der Folge können die Pflegefachpersonen die positiven Seiten des Pflegeberufes viel stärker wahrnehmen. Der soziale Aspekt wird stärker in den Vordergrund gestellt und die eigene Arbeit viel wertvoller empfunden.

Vorbehaltsaufgaben treffen auf Führungskultur

Ganz entscheidend für den Erfolg der Umsetzung von Vorbehaltsaufgaben ist es daher, dass die Haltung und der entsprechende Führungsstil in Einrichtungen des Gesundheitswesens vorhanden sein müssen und dass diese Prozesse aus der Organisation heraus entwickelt werden.

Die Führungskraft muss Räume schaffen, um Pflegekräfte im Alltag zu stärken, indem sie diesen die Möglichkeit gibt, eigenständig zu handeln und zu gestalten. Dadurch entsteht professionelles Handeln und Stolz. Diese Professionalität wirkt über die Grenzen der Organisation hinaus. Die Mitarbeitenden können sich an ihrem Arbeitsplatz wohl fühlen, sich entfalten, haben einen echten Einfluss auf ihre Arbeit und tragen das auch weiter.

Erfolgsfaktor Weiterbildung

Ein zusätzlicher Aspekt neben Empowerment und Mitarbeiterautonomie ist das Thema Weiterbildung. Um Pflegekräfte langfristig zu motivieren, ist Weiterbildung unerlässlich. Sie führt nachweislich zu einem gesteigerten Selbstbewusstsein und idealerweise zu einem besseren Verständnis für die eigene Berufstätigkeit oder Profession. Weiterbildungen regen dazu an, Fragen zu stellen und über bestehendes Wissen nachzudenken. Durch strategische Partnerschaften mit Pflegeschulen und pflegewissenschaftlichen Hochschulen kann die Haltung und professionelle Arbeitsweise einer Organisation von Anfang an gefördert werden, um eine nachhaltig positive Sozialisierung im Pflegeberuf zu gewährleisten. Gleichzeitig kann die Entwicklung von Führungskräften sowie anderen wichtigen Schlüsselakteuren wie Fachpflegekräften (z. B. in der Diabetologie oder Gerontologie) im Einklang mit der Organisationsphilosophie erfolgen.

Transformation am besten aus der Organisation heraus

In Summe führen die einzelnen Teile von Magnet, New Work und anderen Organisationsdesigns immer wieder dazu, dass Prozesse, Aufgaben und auch Rollenbilder aus der Organisation heraus entwickelt werden müssen und nicht nur rein durch Top-down-Ansätze bewirkt werden können. Dabei spielt es keine Rolle, ob die Top-down-Veränderungen aus dem Management oder über politische Entscheidungen angestoßen werden. Es ist unerlässlich, dass vor Ort in den Einrichtungen die entsprechenden Weichen durch eine entsprechende Kultur gestellt werden. So kann die Transformation gelingen und nachhaltig Veränderung im Inneren und Äußeren erreicht werden. Das Zusammenspiel externer Wahrnehmung, dem Selbstbild der Pflegekräfte, den Möglichkeiten der Selbstorganisation und das daraus entstehende Wirksamkeitserleben führt zum einen zu einer deutlich höheren Zufriedenheit der professionell Pflegenden, zum anderen steigt damit aber auch die Attraktivität des Pflegeberufes (s. Schiller et al. 2020; Weibler 2017).

 

Über die Autorin:
Louise Enz ist examinierte Gesundheits- und Krankenpflegerin und hat sich schon während ihrer Masterthesis mit den Attraktoren von Magnetkrankenhäusern in Zusammenhang mit der stationären Langzeitpflege befasst. Derzeit arbeitet sie als Vorstandsreferentin beim Paul-Gerhardt-Werk e.V. in Offenburg.

 

Lesetipps
Boschert, S. (2020): Wohngruppen in der Altenpflege. Ein Baustein im Quartier: praktische Ideen für Gestaltung und Organisation. Hannover: Schlütersche (Pflegemanagement).
Dignan, A. (2019): Brave new work. Are you ready to reinvent your organization? London: Penguin Business.
Laloux, F. (2017): Reinventing Organizations visuell. Ein illustrierter Leitfaden sinnstiftender Formen der Zusammenarbeit. München: Verlag Franz Vahlen.
Masterarbeit Enz, L. (2022): Die Attraktoren von Magnetkrankenhäusern im Zusammenhang mit der stationären Altenhilfe – Scoping-Review
Merke, P. (2022): New Work in Healthcare. Die neue und andere Arbeitskultur im Gesundheitswesen. Berlin: Medizinisch Wissenschaftliche Verlagsgesellschaft.


Gasda, Kimberly A. (2002): The Magnetic pull. In: Nursing management 33 (7)
Luzinski, Craig (2012): An innovative environment where empowered nurses flourish. In: The Journal of nursing administration 42 (1), S. 3–4. DOI: 10.1097/NNA.0b013e31823c16fc.
Schiller, Marie-Sophie; Rollow, Bettina; Breidenbach, Joanna (2020): Pflegenotstand – Ist New Work die Lösung? Wie geht New Work in der Pflege? (Ist New Work die Lösung?), 26.08.2020.
Spence Laschinger, Heather K.; Almost, Joan; Tuer-Hodes, Donnalene (2003): Workplace Empowerment and Magnet Hospital Characteristics: Making the Link. In: JONA: The Journal of Nursing Administration 33 (7/8).
Weibler, Jürgen (2017): Empowerment. Mitarbeiter mobilisieren und binden. Hg. v. Leadership Insiders (Führung im Fokus). Online verfügbar unter https://www.leadership-insiders.de/empowerment-mitarbeiter-mobilisieren-und-binden/print/.


3. Süddeutscher Qualitätstag am 28. Juni 2024 am Fraunhofer IPA in Stuttgart

2. Süddeutscher Qualitätstag, SQT

Der 3. Süddeutsche Qualitätstag am 28. Juni 2024 ist die perfekte Gelegenheit für alle, die ihre Kenntnisse im Bereich des Qualitätsmanagements erweitern möchten. Erleben Sie spannende Vorträge von renommierten Experten und diskutieren Sie die neuesten Trends und Entwicklungen mit anderen Teilnehmerinnen und Teilnehmern.

Die Eröffnung des 3. Süddeutschen Qualitätstags erfolgt unter anderem durch Michael Burghartz-Widmann, Vorstandsmitglied der DGQ. Ein weiteres Highlight ist die Keynote von Dr. Lars Vollmer. In seinem Vortrag “Zurück an die Arbeit – Wie aus Business-Theatern wieder echte Unternehmen werden” analysiert er, was in den Unternehmen falsch läuft, und zeigt, wie diese wieder zurückfinden zu echter Arbeit, die Freude macht, Sinn ergibt und sich nachhaltig lohnt.

Fachvorträge zu aktuellen Themen im Qualitätsmanagement

In zahlreichen Vorträgen aus Forschung und Praxis erfahren Sie, welche Trends sich im Qualitätsmanagement abzeichnen, welche Instrumente Firmen erfolgreich einsetzen und welche Standards neu betrachtet werden sollten. Freuen Sie sich auf den praktischen Austausch mit zahlreichen Expertinnen und Experten und profitieren Sie von den Erfahrungen.

Vortragsprogramm des 3. Süddeutschen Qualitätstags

  • Product Compliance System
    Dr. Ludwig Schares, Dr. Ing. h.c. F. Porsche Aktiengesellschaft
  • Reform nach fast 40 Jahren – Welche Auswirkungen hat die neue EU-Produkthaftungsrichtlinie für Unternehmen?
    Dr. Gerald Gräfe, Rechtsanwalt und Partner, CMS Hache Sigle
  • Industrielle Exoskelette – Status, Funktion, Ausblick
    Dr.-med. Urs Schneider, Abteilungsleiter Biomechatronische Systeme, Fraunhofer-Institut für Produktionstechnik und Automatisierung, IPA
  • Material Compliance – Zunehmende Heraus- und Anforderung für Unternehmen
    Berit Guse, Umweltmanagement, Dr. Fritz Faulhaber GmbH & Co. KG & Anne-Kathrin Nuffer, Gruppenleiterin Sustainability and Material Compliance Management, Fraunhofer-Institut für Produktionstechnik und Automatisierung, IPA
  • Holistisches Risikomanagement
    Alexander Schloske, Senior Expert Quality, Fraunhofer-Institut für Produktionstechnik und Automatisierung, IPA
  • Vom Lager zum Löffel
    Christian Pflüger, DACHSER SE
  • Industrie im Wandel – Der Weg zum lokal CO2 neutralen Transport aus der Sicht eines Nutzfahrzeugherstellers
    Dr. Dalibur Dudic, Daimler Truck AG
  • Risikomanagement für Medizinprodukte
    Dr. Thomas Schmitz, Consulting | Project Management PLATO GmbH | a PeakAvenue Company
  • Fehler ansprechen – verschweigen – ansprechen – verschweigen
    Thomas Dörr, DFS Deutsche Flugsicherung GmbH / Jörg Rittker, Dr. Fritz Faulhaber GmbH & Co. KG / Hildegard Schuller, Mitglied im Fachkreis Qualität und Projekte / Gabriella Zimmermann, Ipu fit for success
  • Schwäbische Kehrwoche im Managementsystem
    Jörg Nienaber, N5 GmbH
  • Prozessfähigkeitsuntersuchungen und Besondere Merkmale oder wie weise ich einen robusten Prozess nach
    Dr. Dirk Jödicke, Six Sigma Master Black Belt, Coaching & Prozessoptimierungen
  • Performance under Pressure! Was Führungskräfte von Spitzensportlern lernen können!
    Dunja Lang, Dunja Lang Consulting
  • Die Chancenchance: Managementsysteme der Zukunft
    Dr. Markus Reimer

 

Der 3. Süddeutsche Qualitätstag bietet damit eine einzigartige Möglichkeit zum Wissensaustausch und Networking für Fach- und Führungskräfte im Qualitätsmanagement.

Wir freuen uns, wenn Sie mit dabei sind!

 

Informationen zur Anmeldung

Wann: Freitag, 28. Juni 2024, von 10:00 Uhr bis 17:00 Uhr
Wo: Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA, Nobelstr. 12/13, 70569 Stuttgart
Kosten: 99,- € zzgl. MwSt. (79,- € zzgl. MwSt. für DGQ-Mitglieder)

Zur Anmeldung »

 

Als DGQ-Mitglied können Sie zum reduzierten Kostenbeitrag teilnehmen. Sie sind noch kein Mitglied? Dann nutzen Sie doch für die Anmeldung unsere beitragsfreie, dreimonatige Schnuppermitgliedschaft.

Haben Sie Fragen? Nehmen Sie gern Kontakt mit uns in der DGQ-Geschäftsstelle Stuttgart auf! Einfach per E-Mail an stuttgart@dgq.de oder telefonisch unter 0711- 95 611 61. Bei allen organisatorischen Fragen und Rückfragen zur Anmeldung hilft Ihnen auch unser Kooperationspartner des Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA (event@ipa.fraunhofer.de, 0711 970-3540) weiter.

Kontinuierliche Eignung von Prüfprozessen nach VDA Band 5 – Hintergrund und praktische Umsetzung

Prüfprozesse, VDA 5

Die Neuauflage des VDA Band 5 aus dem Jahr 2021 enthält eine Vielzahl von Neuerungen, die für Unternehmen im Automobilbereich in Zukunft wichtig werden. Eine der wichtigsten Neuerungen stellt die Forderung eines fortlaufenden Eignungsnachweises für kritische Prüfprozesse dar. Dieser Fachbeitrag erklärt die technischen und normativen Hintergründe der Anforderung und stellt konkrete Umsetzungsmöglichkeiten dar.

Die ISO 9001:2015 definiert Begriffe für die korrekte Funktion von Prüfmitteln. Grundsätzlich müssen im Kontext der ISO 9001:2015 zu jedem Zeitpunkt Eignung und Rückführbarkeit von Prüfmitteln sichergestellt sein. Diese beiden Anforderungen finden sich in vergleichbarer Form in Automobilspezifischen Normen wie der IATF 16949 oder dem VDA Band 5 wieder. Der VDA Band 5 beschreibt unter anderem, wie Eignung und Rückführbarkeit statistisch nachgewiesen werden können. Die Nachweispflicht gilt für alle Sensoren, Messgeräte und sonstige Hilfsmittel, bei denen eine Kundenspezifikation abgeprüft wird.

Um zu verstehen, was der VDA Band 5 unter einem fortlaufenden Eignungsnachweis versteht, ist es hilfreich zu veranschaulichen was die beiden Begriffe Rückführbarkeit und Eignung bedeuten:

Begriffsdefinition Rückführbarkeit
Rückführbarkeit stellt sicher, dass Messungen verschiedener Messmittel untereinander vergleichbar sind. So ist z.B. sichergestellt, dass Kunden und Lieferanten bei Messungen an Produkten zu gleichen Ergebnissen kommen. Die Vergleichbarkeit wird durch regelmäßige Kalibrierung sichergestellt. Das Kalibrierergebnis setzt sich aus Kalibrierabweichung und Kalibrierunsicherheit zusammen. Aus dem Kalibrierergebnis lässt sich eine Obergrenze für den systematischen Messfehler ableiten. Kalibrierung findet in regelmäßigen Intervallen und unter kontrollierten Bedingungen außerhalb des laufenden Produktionsprozesses statt.
Begriffsdefinition Eignung
Eignung beschreibt die Unsicherheit einer Messung im Verhältnis zu einer gegebenen Toleranz (z.B. ein Zeichnungsmaß). Je kleiner die Unsicherheit einer Messung im Verhältnis zur Toleranz, desto höher ist die Eignung eines Messmittels für eine gegebene Prüfaufgabe. Abbildung 1 stellt den Sachverhalt grafisch dar. Wichtig ist, dass ein Eignungsnachweis immer unter Berücksichtigung der realen Anwendungsbedingungen geführt werden muss. Alle Einflussfaktoren, die im Serienprüfprozess wirksam sind, müssen auch im Eignungsnachweis berücksichtigt werden. Der systematische Messfehler aus der Kalibrierung ist somit einer von mehreren Einflussfaktoren, die zur Messunsicherheit beitragen.
Schematische Darstellung von Eignung nach VDA Band 5

Abb. 1: Schematische Darstellung von Eignung nach VDA Band 5. Der gelb hinterlegte Bereich stellt den Unsicherheitsbereich der Messung dar.

Sicherstellung der fortlaufenden Eignung eines Prüfsystems

Bisher war es in vielen Firmen gelebte Praxis, den Eignungsnachweis einmalig bei der Inbetriebnahme oder nach größeren Änderungen durchzuführen. Die korrekte Funktion des Prüfmittels wurde lediglich über die regelmäßige Kalibrierung abgesichert. Dahinter steckt die Annahme, dass sich die Messunsicherheit eines Prüfmittels während des Betriebes nicht nennenswert verändert. Aus technischer Sicht ist dies jedoch eine gewagte Annahme. In vielen Messprozessen wird die Unsicherheit stark von äußeren Einflüssen bestimmt. Maschinen und Messaufnahmen und elektrische Kontaktierungen unterliegen beispielsweise dem Verschleiß, der über die Zeit hinweg zu einer höheren Messunsicherheit führen kann. Viele dieser äußeren Einflüsse auf die Messunsicherheit bleiben bei der regelmäßigen Kalibrierung jedoch unsichtbar.

An dieser Stelle setzt der neue VDA Band 5 an. In Kapitel 10 über die fortlaufende Eignung steht geschrieben: “Die Beurteilung der fortlaufenden Eignung, bislang oft auch als Stabilitätsüberwachung oder Messbeständigkeit genannt, hat aufgrund der Normenanforderung in der ISO 9001 an Bedeutung gewonnen.” Und weiter: “Die regelmäßige Kalibrierung der Messmittel ist im Rahmen der Prozesse zur Prüfmittelüberwachung unumgänglich (siehe Kapitel 4.5.2), reicht aber in vielen Fällen für eine umfassende Stabilitätsüberwachung nicht aus, da die Kalibrierung nicht unter tatsächlichen Einsatzgegebenheiten durchgeführt wird.

Der VDA Band 5 stellt somit deutlich heraus, dass nicht alle Einflussfaktoren auf die Messunsicherheit durch Kalibrierung abgesichert werden können. Aus diesem Grund reicht die regemäßige Kalibrierung allein nicht aus, um fortlaufende Eignung eines Prüfsystems nachzuweisen.

Da Eignungsnachweise in der Regel mit erheblichem Aufwand verbunden sind, stellt sich die Frage, für welche Prüfprozesse ein fortlaufender Eignungsnachweis erforderlich ist. Der VDA Band 5 fordert insbesondere für sicherheitskritische und zulassungskritische Merkmale Absicherungsmaßnahmen, um die fortlaufende Eignung von Prüfprozessen sicherzustellen. In verringertem Umfang gilt diese Anforderung auch für Prüfungen von funktionswichtigen Merkmalen und Messungen, die direkten Einfluss auf die Produktqualität haben.

Praktische Umsetzung des kontinuierlichen Eignungsnachweises

Neben der Frage, für welche Prüfprozesse fortlaufende Eignung gefordert ist, ist die praktische Umsetzung eines solchen kontinuierlichen Eignungsnachweises besonders wichtig. Der zusätzliche Aufwand, der durch den kontinuierlichen Eignungsnachweis entsteht, sollte dabei so gering wie möglich ausfallen. Der VDA Band 5 schlägt zur praktischen Umsetzung einer fortlaufenden Eignungsprüfung den Einsatz von Regelkarten vor. Um die Daten für die Regelkarte zu erheben, werden regelmäßig ein oder mehrere Meisterteile geprüft und die Messwerte erfasst. Die Meisterteile sollten in sich stabil sein und ihre Messwerte über die Zeit hinweg möglichst wenig ändern. Auf diesem Weg kann die Stabilität eines Messprozesses in Bezug auf Lage und Streuung überwacht werden. Häufigkeit und Umfang der Prüfung werden auf Basis des Risikos festgelegt. Im VDA Band 5 werden als Beispiel klassische x ̅-s Karten mit einer Eingriffsgrenze von drei Standardabweichungen (99,73% Vertrauensniveau) oder gleitende Mittelwertkarten vorgeschlagen.

Abbildung 2 zeigt eine Regelkarte mit x ̅- und s-Spur, die zur Stabilitätsüberwachung eingesetzt werden kann. Der Nachteil der Regelkartentechnik besteht im beträchtlichen zeitlichen Aufwand. Prüfstände für komplexe Produkte wie Steuergeräte oder Getriebe haben hunderte von Prüfungen. Selbst wenn nur ein Teil der Messungen für die fortlaufende Eignung ausgewählt wird, kommen auf diese Art schnell dutzende Regelkarten zusammen.

Zweispurige Stabilitätskarte zur Überwachung von Lage und Streuung eines Messprozesses

Abb. 2: Zweispurige Stabilitätskarte zur Überwachung von Lage und Streuung eines Messprozesses. Die Eingriffsgrenzen sind rot gekennzeichnet. Zur besseren Orientierung wurden zusätzlich auch die Warngrenzen in Gelb dargestellt.

Automatische Überwachung von Prüfprozessen mittels Softwarelösung

Eine digitale Auswertung von Messdaten kann den zeitlichen Aufwand für den kontinuierlichen Eignungsnachweis erheblich reduzieren. Prophet Analytics bietet eine Softwarelösung, die Prüfprozesse automatisch überwacht und bei Abweichungen Benachrichtigungen erzeugt. So ist es nicht länger notwendig, jede Regelkarte manuell zu führen und zu bewerten. Verletzungen von Eingriffs- und Warngrenzen können über automatische Benachrichtigungen gelenkt werden.

Obwohl die Regelkartentechnik das Risiko fehlerhafter Messungen deutlich verringert, erlaubt dieser Ansatz streng genommen keine fortlaufende Eignungsprüfung. Regelkarten basieren grundsätzlich auf Stichprobenprüfungen und geben somit immer nur eine Momentaufnahme wieder. Einflussfaktoren, die nur sporadisch wirksam sind, können durch Regelkarten nicht zuverlässig überwacht werden. Ein zweiter Nachteil der Regelkartentechnik ist die Tatsache, dass das Einlegen der Meisterteile in der Regel einen Eingriff in den normalen Produktionsprozess bedeutet. In Produktionsanlagen und Maschinen, die auf eine kontinuierliche Fertigung ausgelegt sind, ist so ein Eingriff nicht möglich. Beispiele hierfür sind chemische Prozesse oder die Herstellung von Blechen oder Folien.

Prophet Analytics bietet auch eine Lösung zur Stabilitätsüberwachung für Maschinen, bei denen keine Meisterteile verwendet werden können. Eine Überwachung von einzelnen Prüfmitteln ist dann möglich, wenn weitere Daten aus unterschiedlichen Quellen verfügbar sind. Abbildung 3 zeigt eine schematische Darstellung des Verfahrens. Das Verfahren nutzt Daten aus Messungen, die von anderen Prüfeinrichtungen erhoben wurden und mit dem zu überwachenden Prüfmittel korreliert sind.

Schematische Darstellung des Korrelationsverfahrens zur Stabilitätsüberwachung von Messprozessen

Abb. 3: Schematische Darstellung des Korrelationsverfahrens zur Stabilitätsüberwachung von Messprozessen.

Anwendung des Korrelationsverfahren in der Automobilindustrie

Ein Anwendungsbeispiel für das Korrelationsverfahren ist die Fertigung von Steuergeräten in der Automobilindustrie. Steuergeräte werden häufig mehrfach bei unterschiedlichen Temperaturen geprüft. Die Messwerte an den unterschiedlichen Prüfstationen sind korreliert. Durch Vergleich der Messwerte an den unterschiedlichen Prüfstationen kann eine Prognose für den erwarteten Messwert und ein plausibler Streubereich ermittelt werden. Abbildung 4 zeigt Messungen eines Prüfprozesses und den Zufallsstreubereich der Messung, der mit Hilfe des Korrelationsverfahrens ermittelt wurde. Messwerte außerhalb des blauen Zufallsstreubereichs würden auf eine Fehlfunktion des Messgeräts hindeuten.

Daten eines Messgeräts (Punkte)

Abb. 4: Daten eines Messgeräts (Punkte). Die blau hinterlegte Fläche zeigt Zufallsstreubereich an.

Das Korrelations-Verfahren hat zwei entscheidende Vorteile gegenüber der Regelkartentechnik: Es basiert nicht auf Stichproben und ermöglicht daher je nach Anlagenaufbau bis zu 100 Prozent Überwachung. Außerdem ist das Korrelationsverfahren aufwandsneutral, weil bestehende Daten aus dem laufenden Prozess verwendet werden und kein händischer Prozesseingriff mehr erforderlich ist. Das Korrelationsverfahren und das Regelkartenverfahren lassen sich unabhängig voneinander oder in Kombination anwenden (siehe Beispielanwendung einer Stabilitätsüberwachung).

Fazit

Auf den ersten Blick bedeutet ein kontinuierlicher Eignungsnachweis für Unternehmen mehr Aufwand und mehr Kosten. Diesem Aufwand stehen aber auch Einsparungen gegenüber. Die bessere Absicherung der Prüfprozesse beugt Reklamationen vor. Da die Lage und Streuung von Prüfprozessen mit kontinuierlichem Eignungsnachweis bekannt sind, besteht auch die Möglichkeit Kalibrierintervalle neu zu bewerten und gegebenenfalls zu verlängern. Viele Unternehmen nutzen heute schon eine Kombination aus Stabilitätsüberwachung und Kalibrierung, um Kosten bei der Kalibrierung einzusparen und gleichzeitig ein hohes Maß an Absicherung zu erreichen.

Zusammenfassend kann gesagt werden, dass die Anforderung nach einem kontinuierlichen Eignungsnachweis im neuen VDA Band 5 technisch sinnvoll ist. Die Forderung kann auf grundlegende Anforderungen der ISO 9001:2015 zurückgeführt werden und verbessert die Absicherung von kritischen Prüfprozessen. Der Einsatz moderner Softwarelösungen kann helfen, ein hohes Maß an Absicherung zu erreichen, ohne unnötige händische Eingriffe in den Produktionsprozess vornehmen zu müssen. Der kontinuierliche Eignungsnachweis kann auf diesem Wege nahezu aufwandsneutral gestaltet werden.

 

Über den Autor:
Dr.-Ing. Stefan Prorok ist Geschäftsführer der Prophet Analytics GmbH und DGQ-Trainer für Qualitätssicherung und Prüfmittel. Prophet Analytics unterstützt Unternehmen in allen Phasen Ihrer KI-Umsetzung mit Trainings- und Beratungsangeboten.

Lean Management ist mehr als Aufräumen – die Bedeutung und Prinzipien

Lean Management, Logistik, Lager

Lean Management hat in den letzten Jahrzehnten einen bemerkenswerten Aufschwung erlebt und ist zu einem integralen Bestandteil zahlreicher Unternehmensstrategien geworden. Doch oft wird Lean Management fälschlicherweise auf die schlichte Organisation und Sauberkeit am Arbeitsplatz reduziert. In Wahrheit ist Lean weit mehr als nur das.

Lean Management ist ein ganzheitlicher Ansatz zur Steigerung der Effizienz und Wertschöpfung in Unternehmen. Es geht dabei nicht nur um die Reduzierung von Verschwendung und die Schaffung von Ordnung am Arbeitsplatz, sondern um eine tiefgreifende Transformation der Unternehmenskultur und -prozesse.

Die Lean Prinzipien: Grundlagen einer schlanken Organisation

Die Prinzipien des Lean Management bilden das Fundament für eine effektive Umsetzung. Die Kernprinzipien lauten:

  1. Wertschöpfung aus Sicht des Kunden:
    Das Hauptaugenmerk liegt darauf, den Wert aus Sicht des Kunden zu definieren und alle Aktivitäten darauf auszurichten, diesen Wert zu maximieren und Verschwendung zu minimieren.
  2. Identifikation und Eliminierung von Verschwendung:
    Wertstrom identifizieren. Der Ansatz zielt darauf ab, alle Arten von Verschwendung zu erkennen und zu beseitigen, sei es in Form von Überproduktion, Wartezeiten, unnötigen Bewegungen, Lagerbeständen oder Fehlern.
  3. Schaffung von Fluss:
    Die reibungslose Durchführung von Prozessen wird durch die Schaffung eines kontinuierlichen Flusses von Materialien, Informationen und Aktivitäten angestrebt, um Verzögerungen und Engpässe zu minimieren.
  4. Pull-Prinzip:
    Die Produktion wird durch die tatsächliche Nachfrage gesteuert, wodurch Überproduktion vermieden und eine Just-in-Time-Produktion ermöglicht wird.
  5. Streben nach Perfektion:
    Lean Management ist ein kontinuierlicher Verbesserungsprozess, bei dem ständig nach Möglichkeiten gesucht wird, Prozesse effizienter zu gestalten und die Qualität zu verbessern.

Sieben Arten der Verschwendung

Die sieben Arten der Verschwendung (Akronym TIMWOOD), auch bekannt als die “7 Muda” im Lean Management, sind grundlegende Kategorien von nicht-wertschöpfenden Aktivitäten oder Ressourcen, die die Effizienz von Prozessen verringern. Diese Konzepte wurden von Taiichi Ohno, einem Pionier des Toyota Production Systems, entwickelt.

Die sieben Arten der Verschwendung lassen sie wie folgt beschreiben:

  1. Überflüssige Transporte (Transportation):
    Überflüssige Transporte beziehen sich auf unnötige Bewegungen von Materialien oder Produkten innerhalb eines Produktionsprozesses oder zwischen verschiedenen Standorten. Dies kann zu zusätzlichen Kosten, Zeitverlusten und Beschädigungen führen.
  2. Bestände (Inventory):
    Bestände entstehen, wenn mehr Materialien oder Produkte vorhanden sind als unmittelbar benötigt werden. Dies führt zu erhöhten Lagerkosten, versteckten Qualitätsproblemen und einem erhöhten Risiko für Überproduktion und Verschwendung.
  3. Bewegung (Motion):
    Verschwendung tritt auf, wenn Mitarbeitende unnötige Bewegungen ausführen, um eine Aufgabe abzuschließen, zum Beispiel längere Laufwege, unergonomische Arbeitsplatzgestaltung oder unnötige Auspack- oder Umräumvorgänge. Dies kann zu Ermüdung, Verletzungen und einer Verringerung der Effizienz führen.
  4. Wartezeiten (Waiting):
    Wartezeiten entstehen, wenn Produkte oder Mitarbeitende auf den Beginn einer nächsten Aktivität warten müssen. Dies kann durch ineffiziente Prozesse, unzureichende Ressourcenauslastung oder Engpässe in der Produktion verursacht werden.
  5. Überproduktion (Overproduction):
    Überproduktion tritt auf, wenn mehr produziert wird, als tatsächlich benötigt wird. Dies führt zu unnötigen Lagerbeständen, erhöhten Lagerkosten und verdeckt oft andere Probleme in der Produktion, wie Engpässe und Qualitätsprobleme. Zudem sind Überproduktionen die Ursache für zwei bereits genannte Lean Verschwendungsarten, nämlich Transport und Bestände.
  6. Überbearbeitung (Overprocessing):
    Overprocessing oder auch overengineering bezieht sich auf unnötige oder übermäßige Arbeitsschritte oder Aktivitäten, die über die Anforderungen des Kunden hinausgehen oder keinen zusätzlichen Wert für das Endprodukt oder die Dienstleistung bieten. Dies führt zu einer ineffizienten Nutzung von Ressourcen und erhöhten Kosten, ohne einen entsprechenden Nutzen zu erzielen.
  7. Defekte (Defects):
    Defekte oder Ausschuss bezieht sich auf fehlerhafte Produkte oder Dienstleistungen, die nicht den Qualitätsstandards entsprechen und daher nachgearbeitet oder aussortiert werden müssen.

Ergänzend wird häufig noch das ungenutzte Talent beziehungsweise die ungenutzte Kreativität der Mitarbeiter sowie das Ungleichgewicht („Mura“) und die Überbeanspruchung („Muri“) aufgenommen. Diese beiden Begriffen lassen sich wie folgt beschreiben:

Begriffsdefinition Muri 
Muri bezeichnet Überlastung oder Überbeanspruchung. Es tritt auf, wenn Mitarbeiter, Maschinen oder Prozesse über ihre Kapazitätsgrenzen hinaus belastet werden. Dies kann zu übermäßiger Anstrengung, Erschöpfung, Qualitätsproblemen und ineffizienten Abläufen führen. Beispiele für Muri sind übermäßige Arbeitsbelastung für Mitarbeiter, unzureichende Kapazität von Maschinen oder unnötig komplexe Arbeitsabläufe.
Begriffsdefinition Mura
Mura bezeichnet Ungleichgewicht oder Unausgeglichenheit. Es tritt auf, wenn es Unregelmäßigkeiten oder Schwankungen in einem Prozess gibt, die zu Instabilität und Ineffizienz führen. Dies kann zu Engpässen, Wartezeiten, Überproduktion oder unvorhersehbaren Ergebnissen führen. Beispiele für Mura sind ungleichmäßige Arbeitsbelastung, unregelmäßige Produktionsplanung oder unvorhersehbare Schwankungen in der Nachfrage.

 

In einem Lean-Produktionssystem strebt man danach, Muri und Mura zu reduzieren oder zu beseitigen, um einen gleichmäßigen, stabilen und effizienten Produktionsfluss zu erreichen. Durch die Eliminierung von Muri und Mura kann die Produktivität gesteigert, die Qualität verbessert und die Verschwendung reduziert werden.

Die sieben Verschwendungsarten werden besonders interessant, wenn man sie genauer analysiert und dabei möglicherweise feststellt, dass eine Verschwendung nur durch eine andere vermieden werden kann. Dadurch entwickeln sich die sieben Muda, insbesondere im Zusammenspiel mit Mura und Muri, zu einem umfassenden Denkmodell, das bei der Gestaltung von Organisationen, der Prozessoptimierung und der Digitalisierung äußerst nützlich ist.

Grundlegende Philosophie für mehr Wettbewerbsfähigkeit

Die Prinzipien des Lean, wenn sie konsequent angewendet werden, führen zu einer schlanken Organisation, die in der Lage ist, sich schnell an Veränderungen anzupassen, Verschwendung zu minimieren und höchste Qualität zu liefern. Es ist eine Philosophie, die die gesamte Organisation durchdringt und einen nachhaltigen Wettbewerbsvorteil schafft.

In der heutigen schnelllebigen Geschäftswelt ist es entscheidend, dass Unternehmen über die traditionellen Grenzen des Lean Managements hinausblicken und die tieferen Prinzipien verstehen, um ihre Wettbewerbsfähigkeit zu erhalten und zu verbessern. Lean Management zielt auf eine grundlegende Veränderung der Art und Weise ab, wie Unternehmen betrieben werden.

Mehr Prozesseffizienz durch Lean-Management-Methoden

Lean Management-Methoden können im Qualitätsmanagement dazu beitragen, Prozesse effizienter zu gestalten, indem sie Verschwendung reduzieren, kontinuierliche Verbesserungen fördern und eine stärkere Kundenorientierung ermöglichen. Hier sind einige Beispiele aus der Praxis:

Identifizierung und Eliminierung von Verschwendung:

Lean-Methoden wie Value Stream Mapping helfen dabei, den Fluss von Materialien und Informationen durch den gesamten Produktions- oder Dienstleistungsprozess zu visualisieren. Durch die Analyse dieses Flusses können Unternehmen nicht wertschöpfende Aktivitäten identifizieren und eliminieren, die die Qualität beeinträchtigen könnten.

Kontinuierliche Verbesserung:

Durch die Einführung von Methoden wie Kaizen-Veranstaltungen oder PDCA-Zyklen (Plan-Do-Check-Act) können Organisationen kontinuierlich nach Möglichkeiten zur Verbesserung ihrer Qualitätsprozesse suchen. Zum Beispiel könnte ein Unternehmen regelmäßige Kaizen-Veranstaltungen durchführen, um potenzielle Qualitätsprobleme zu identifizieren und zu lösen, bevor sie sich auf die Endprodukte auswirken.

Kundenorientierung:

Durch die Anwendung von Methoden wie Kundenfeedback-Analysen oder Voice of Customer (VOC)-Studien können Unternehmen ein besseres Verständnis für die Anforderungen ihrer Kunden entwickeln und sicherstellen, dass ihre Qualitätsprozesse diese Anforderungen erfüllen. Zum Beispiel könnte ein Unternehmen VOC-Studien verwenden, um direktes Feedback von Kunden über die Qualität seiner Produkte oder Dienstleistungen zu erhalten und Verbesserungen vorzunehmen, um ihre Zufriedenheit zu steigern.

Just-in-Time-Produktion:

Durch die Implementierung von Just-in-Time-Prinzipien können Unternehmen die Effizienz ihrer Produktionsprozesse steigern und gleichzeitig die Qualität verbessern. Indem Materialien und Ressourcen nur dann bereitgestellt werden, wenn sie benötigt werden, können Unternehmen Überproduktion und Lagerbestände reduzieren, die die Qualität beeinträchtigen könnten. Zum Beispiel könnte ein Unternehmen Kanban-Systeme verwenden, um den Materialfluss zu steuern und sicherzustellen, dass Materialien nur dann nachgeliefert werden, wenn sie tatsächlich benötigt werden.

 

Auch wenn der Ursprung aus dem produzierenden Umfeld stammt, ist die die Anwendung von Lean Management auch bei Dienstleistungen problemlos möglich:
Ein Callcenter analysiert beispielsweise gezielt Kundenfeedback, um die wichtigsten Bedürfnisse und Erwartungen der Kunden zu identifizieren. Dabei stellt sich heraus, dass die Kunden vor allem schnelle und präzise Antworten auf ihre Fragen erwarten und keinen Wechsel der Ansprechpersonen wünschen.

Durch die Anwendung von Lean-Tools wie Value Stream Mapping wird der Kundenserviceprozess visualisiert, von der Annahme des Anrufs bis zur Lösung des Kundenproblems. Dabei werden nicht-wertschöpfende Aktivitäten wie unnötige Übertragungen zwischen Abteilungen oder wiederholte Dateneingaben identifiziert und beseitigt.

 

Über den Autor:
Oliver Schneider studierte Ernährungswissenschaften (M.Sc.) in Gießen und war danach als wissenschaftlicher Mitarbeiter und Projektassistent tätig. Seit 2015 ist er als Produktmanager bei der DGQ und verantwortet aktuell das Weiterbildungsportfolio zum Thema Qualitätsmanagement und Lean Six Sigma. Seine Qualifizierungen zum Qualitätsmanager und Lean Six Sigma Green Belt helfen ihm bei der Weiterentwicklung und Beratung seiner Themenbereiche.

Künstliche Intelligenz in der Qualität – Praktische Einführung durch iteratives Vorgehen

In den vergangenen Jahren sind eine Reihe von einfach zu bedienenden künstliche Intelligenz (KI) Werkzeugen entstanden, die sich problemlos in bestehende Arbeitsabläufe integrieren lassen. Chatbots wie ChatGPT und Low-Code/No-Code- Lösungen sind Beispiele hierfür. Diese Entwicklung hat die Einstiegsschwelle für Mitarbeiter, die mit KI arbeiten möchten, deutlich reduziert. Im zweiten Teil der Fachbeitragsreihe haben wir die notwendigen Qualifikationen behandelt, die Mitarbeiter in Zukunft mitbringen sollten. In diesem Fachbeitrag wird anhand eines konkreten Beispiels gezeigt, wie eine Einbindung von einfachen KI-Werkzeugen einen Mehrwert im Unternehmen schaffen kann.

Die Anwendungsfälle für KI entstehen im besten Fall aus der Kreativität der Mitarbeiter und nicht aus einer übergeordneten Firmenstrategie. Das bedeutet: Reale Probleme lösen und nicht Probleme für bestehende (IT-)Lösungen suchen. Der Vorteil hierbei ist, dass zum frühestmöglichen Zeitpunkt ein Mehrwert für das Unternehmen entsteht, ohne dass große Projektbudgets ausgelobt werden müssen.

Einsatz von Methoden aus dem agilen Projektmanagement

Insbesondere durch den Einsatz der Methoden des agilen Projektmanagements (SCRUM, KANBAN) lassen sich Projekte in eigenständige Teillösungen, sogenannte Minimal Viable Products (MVP) planen. Dies hat zur Folge, dass man Produkte beziehungsweise Lösungen in einem Baukastensystem aufbaut und immer wieder verbessert und erweitert. Gleichzeitig lässt sich die hergestellte Teillösung nutzen, ohne das Gesamtergebnis abwarten zu müssen. Dieser Ansatz fügt sich nahtlos in bestehende Programme zur kontinuierlichen Verbesserung (zum Beispiel Kaizen) ein.

Hierfür ein Beispiel: In einer Produktionslinie werden Produkte durch das Prüfgerät fälschlicherweise als nicht in Ordnung (n.i.O.) eingestuft. Nach einer manuellen Analyse und dem Erstellen eines Analyseberichts des Mitarbeiters, wird das Produkt erneut getestet und durch das Prüfergebnis als in Ordnung (i.O.) eingestuft (siehe Abbildungen 1 und 2). Diese Fehlentscheidungen führen zu Verschwendungsformen wie: Fehlerkorrekturen, Lagerbestände, Wartezeiten und nicht genutztes Mitarbeiterpotential (s. sieben Arten der Verschwendung des Toyota Produktionssystems).

Abb. 1: Ablauf einer Prüfausfallanalyse mit manuellem Prozess

Abb. 1: Ablauf einer Prüfausfallanalyse mit manuellem Prozess

Abb. 12 Ablauf einer Prüfausfallanalyse mit maschinengestütztem Prozess

In der klassischen Qualitätssicherung ergreift man in erster Linie Maßnahmen, um das Prüfgerät und den Prüfprozess zu optimieren, zum Beispiel durch die klassische Six-Sigma-DMAIC-Methode. Gerade bei technisch anspruchsvollen Prüfungen muss jedoch häufig ein Kompromiss zwischen Fehlalarmen und der Gefahr eines Durchschlupfes gefunden werden, der sich mit klassischen Statistikwerkzeugen nur schwer auflösen lässt.

Machine-Learning-Methoden (ML) wie supervised learning können die bereits vorhandene Expertise des Mitarbeiters in Form eines Modells nachbilden und so offensichtliche Fehlalarme von vornherein zur Nachprüfung vorsehen. Das Modell wird dabei auf Basis bereits vorhandener Analyseberichte der Mitarbeiter trainiert.

Das Ergebnis des Pilotprojekts könnte wie folgt aussehen: Der Mitarbeiter liest die Prüfberichte des Prüfgeräts im erstellten ML-Programm ein. Algorithmen wie lineare Regression oder Entscheidungsbäume erlauben es mit wenig Aufwand die Wahrscheinlichkeit für eine Fehlmessung des Prüfgeräts zu ermitteln. Abbildung 3 zeigt ein Visualisierungsbeispiel. Der Mitarbeiter kann nun alle offensichtlichen Fehlentscheide einer Wiederholungsprüfung unterziehen, ohne diese vorher im Detail zu analysieren. Alle weiteren Prüfstandsausfälle, die nicht als klare Fehlmessung klassifiziert wurden, werden zur internen Analyse weitergeleitet.

Abb. 3: Beispielhafte Darstellung einer Messdatenbewertung mit Hilfe von Machine Learning. Werte außerhalb des blauen Stabilitätsbereichs sind mit hoher Wahrscheinlichkeit auf eine Fehlfunktion am Prüfgerät zurückzuführen. ©Prophet Analytics GmbH

Durch dieses Pilotprojekt lassen sich nicht wertschöpfende Aufgaben des Mitarbeiters reduzieren und der Fokus liegt auf den tatsächlich fehlerhaften Produkten. Nun hat man einen MVP, der sofort einsatzfähig ist. Allerdings muss dieser MVP offline am (Prüf-) Rechner des Mitarbeiters bedient werden. Nicht alle Verschwendungsarten lassen sich so vollständig eliminieren.

Integration von Machine Learning basierten Lösungen in den Produktionsprozess

Eine weitere Reduzierung von Verschwendung ist möglich, wenn das Machine-Learning-Modell in die Maschinensteuerung integriert wird. So können beispielsweise Transportkosten eliminiert und die Linienauslastung verbessert werden. Für eine Linienintegration benötigt man in der Regel weitere Ressourcen, zum Beispiel aus der IT -und Prozessplanungsabteilung. Diese würde man im Rahmen der weiteren Projektarbeit und weitere MVPs planen. Der erste MVP bleibt über die gesamte Projektdauer nutzbar und erzielt Einsparungen. Wichtig ist auch, dass das Projekt erst aufgesetzt wird, wenn die technische Umsetzbarkeit der Lösung schon nachgewiesen ist und Projektrisiken so auf ein Minimum reduziert werden.

Die Firma Prophet Analytics hat diesen Ansatz zur Reduzierung von Prüfstandsfehlern noch weiter ausgebaut. Die Machine Learning basierte Lösung erkennt und lokalisiert Ursachen für Prüfstandsfehler im laufenden Betrieb (siehe Abbildung 4). Die Überwachung von Messprozessen auf Basis von Daten eliminiert unnötige Eingriffe in den Produktionsprozess. Im Gegensatz zu Stichprobenverfahren wie der statistischen Prozesskontrolle (SPC) werden die Prüfprozesse durchgehend überwacht. Verschwendung durch Fehlentscheide können so von Vornherein vermieden werden und die Gefahr von Durchschlupf und Kundenreklamationen wird gebannt.

Abb. 4: Darstellung einer automatischen Überwachung von Messprozessen mit Hilfe von Machine Learning

Das Beispiel soll zeigen, wie die einzelnen Teilprojekte logisch auf einander aufbauen. Jeder weitere MVP hebt für zusätzliche Einsparpotentiale, aber erfordert auch mehr technisches Verständnis und eine höhere Qualifikation der Mitarbeiter.

Entwicklung neuer Berufsqualifikationen

Das bemerkenswerte an dem vorgestellten Ansatz für die Einführung von KI ist, dass interessierte Mitarbeiter automatisch höhere Qualifikationen erwerben, während sie an ihren eigenen Lösungen arbeiten. Das Ergebnis der Projekte kommt direkt ihrer eigenen täglichen Arbeit zugute und es werden nur Fähigkeiten aufgebaut, die relevant und zielführend sind. Mitarbeiter, die auf diesem Wege ein hohes Qualifikationsniveau erreicht haben, werden in der Fachwelt auch Citizen Data Scientists genannt. Diese Mitarbeiter wenden regelmäßig Methoden der KI und des Machine Learning zur Unterstützung ihrer eigentlichen Tätigkeit an, sind aber keine hauptberuflichen Data Science Experten.

Zusammenfassend kann gesagt werden, dass der Fokus auf einfache Anwendungsfälle für KI sich direkt aus dem kontinuierlichen Verbesserungsgedanken ergibt. Das Beispiel hat gezeigt, wie sich selbst bei einfachen KI Anwendungsfällen durch mehrfache Erweiterung immer höhere Einsparpotentiale heben lassen. Das iterative Vorgehen stellt dabei sicher, dass Einsparungen zeitnah wirksam werden und Finanzierungskosten für Projekte gering bleiben. Die Qualifikation der Mitarbeiter wächst parallel zur Umsetzung mit jedem KI-Anwendungsfall. Das natürliche Ende dieses iterativen Aufbaus von Qualifikationen ist der Citizen Data Scientist. Der Citizen Data Scientist kann KI-Methoden einsetzen und bringt ein hohes Maß an anwendungsspezifischen Kenntnissen mit.

 

Lesen Sie auch die ersten beiden Teile der Reihe “Künstliche Intelligenz in der Qualität“:

  • Teil 1: Künstliche Intelligenz in der Qualität – Bestehendes Know-how effektiv nutzen – zum Beitrag »
  • Teil 2: Künstliche Intelligenz in der Qualität – Welche Qualifikationen werden benötigt? – zum Beitrag »

 

Über die Autoren:

Dipl.-Ing. Waldemar Fahrenbruch ist Head of Q-Technology Division E-Mobility bei der ZF Friedrichshafen AG. Er ist verantwortlich für die Qualitätskostensenkung bei gleichzeitiger Optimierung von Qualitätskonzepten in den Werken der Division E (TCU, Power Electronics und E-Motoren Fertigung) durch Methodenkompetenz der Qualität, künstlicher Intelligenz und digitaler Transformation.

Dr.-Ing. Stefan Prorok ist Geschäftsführer der Prophet Analytics GmbH und DGQ-Trainer für Qualitätssicherung und Künstliche Intelligenz. Prophet Analytics unterstützt Unternehmen in allen Phasen Ihrer KI-Umsetzung mit Trainings- und Beratungsangeboten. Kontakt: ki@prophet-analytics.de

9. Norddeutscher Qualitätstag am 12. Juni 2024 in Hamburg: Qualität leben und nachhaltig gestalten

Norddeutscher Qualitätstag 2024

Am 12. Juni 2024 ist es wieder soweit: Der Norddeutsche Qualitätstag lädt Fach- und Führungskräfte aus dem Qualitätsmanagement zu einer inspirierenden und informativen Veranstaltung nach Hamburg ein. Auch in diesem Jahr läuft das ganztägige Praxisforum als Hybridveranstaltung, so dass eine Teilnahme entweder persönlich vor Ort oder bequem online möglich ist.

Die neunte Auflage des beliebten Branchentreffs startet mit hochkarätigen Keynotes, die die Bedeutung des Qualitätsmanagements in Unternehmen aus unterschiedlichen Blickwinkeln beleuchten. So wird die Leitende Polizeidirektorin Indra Loose-Sommer Einblicke in die Herausforderungen von Qualität und Nachhaltigkeit bei der Bundespolizei geben.

Dr. Benedikt Sommerhoff, Leiter des Themenfeldes Qualität & Innovation bei der Deutschen Gesellschaft für Qualität e.V., zeigt auf unterhaltsame Weise, wie man sein eigenes Q-Profil entwickelt und damit auf die Erfolgsspur kommt. Begleitet von den Ergebnissen der aktuellen DGQ-Studie Q-Organisation können die Teilnehmenden ihre eigene Standortbestimmung vornehmen und wertvolle Impulse für ihre tägliche Arbeit erhalten.

Praxisnahe Einblicke erhalten sie auch dieses Jahr wieder in Workshops mit konkreten Beispielen aus dem Prozess- und Qualitätsmanagement. Ob vor Ort oder online, es erwartet die Teilnehmenden ein vielfältiges Programm:

Online und vor Ort

  • QM nach Udo Lindenberg – Mach’ Dein Ding, egal, was die ander’n sagen…
    Dr. Benedikt Sommerhoff, Leitung Themenfeld Qualität & Innovation, Deutsche Gesellschaft für Qualität e.V.
  • Nachhaltigkeit und Qualität in Uniform: Wie die Bundespolizei Umwelt- und Qualitätsmanagement umsetzt
    Indra Loose-Sommer, Leitende Polizeidirektorin im Bundespolizeipräsidium
  • Was bedeutet der KI Hype für die Industrie und wie kann „serious AI“ wirklich helfen?
    Jan Ruhnke, Director AI, Artificial Intelligence Center Hamburg (ARIC) e.V.
  • Storytelling im QM: Einfach erklären, Verständnis fördern und verbessern
    Jakob Scheitza, Head of Industrial Storytelling, Facts and Stories GmbH

Ausschließlich vor Ort, nicht online

  • Best Practice Transfer in der Otto Group: it’s a peoples business
    Juliane Dieckmann, Head of Knowledge Management, Digital & Consulting der Otto Group
  • Praktische Lösungen für KMU und ihre Nachhaltigkeitsstrategie
    Eric Schlichter, Schlichter Consulting und K. Henry Wehrenberg, Blueberries & Friends GmbH
  • Expertenrat und Umsetzungstipps für Managementsysteme und Nachhaltigkeit
    Altan Dayankac, Global Program Manager EMS, OHS, EnMS & Sustainability der DQS Holding GmbH
  • Erfolgsfaktor Mensch – wie Qualität durch gute Führungskräfte gelingt
    Arne Salig, CEO espressoul GmbH, Consultraining

 

Partner der Veranstaltung sind neben der Deutschen Gesellschaft für Qualität e.V. (DGQ) die ConSense GmbH, die Deutsche Gesellschaft zur Zertifizierung von Managementsystemen (DQS) sowie die Fachzeitschrift QZ Qualität und Zuverlässigkeit.

 

Informationen zur Anmeldung

Wann: Mittwoch, 12. Juni 2024, von 10:00 Uhr bis 16:00 Uhr
Wo: FOM Hochschulzentrum, Schäferkampsallee 16a, 20357 Hamburg oder online
Kosten:
Online-Teilnahme: 49,- € zzgl. MwSt. (29,- € zzgl. MwSt. für DGQ-Mitglieder)
Präsenz-Teilnahme: 99,- € zzgl. MwSt. (69,- € zzgl. MwSt. für DGQ-Mitglieder)

Zur Anmeldung »

Zum Programm (PDF-Download) »

 

Als DGQ-Mitglied können Sie – sowohl online als auch in Präsenz – zum reduzierten Kostenbeitrag teilnehmen. Sie sind noch kein Mitglied? Dann nutzen Sie doch für die Anmeldung unsere beitragsfreie, dreimonatige Schnuppermitgliedschaft.

Haben Sie Fragen? Nehmen Sie gern Kontakt mit uns in der DGQ-Geschäftsstelle Hamburg auf! Einfach per E-Mail an hamburg@dgq.de oder telefonisch unter 040 28533531-452. Bei allen organisatorischen Fragen und Rückfragen zur Anmeldung hilft Ihnen auch unser Veranstaltungspartner ConSense GmbH (events@consense-gmbh.de, 0241 990 93 93 0) weiter.

Nachvollziehbare und verlässliche Ergebnisse durch Computer System Validierung

Röntgen, Röntgengerät, Medizintechnik

Frederik Janas ist DGQ-Trainer des neuen E-Trainings „Computer System Validierung (CSV)“ für die Medizinprodukteindustrie und Experte für Medizinproduktesicherheit bei CRConsultants. Im Interview erläutert er, warum das Thema „Computer System Validierung“ im Kontext der Herstellung von sicheren Medizinprodukten so wichtig ist. 

Herr Janas, der Begriff „Computer System Validierung“ ist sicher nicht jedem geläufig. Könnten Sie uns erklären, was er bedeutet?

Frederik Janas: Computer System Validierung bezeichnet die Prüfung und den dokumentierten Nachweis, dass ein Computersystem oder eine eigenständige Software spezifische Anforderungen erfüllt. Initial werden Spezifikationen definiert, die sowohl allgemeine Anforderungen als auch spezifische Benutzerfälle darstellen. Im weiteren Verlauf der CSV werden Nachweise in Form von Tests geplant, durchgeführt und dokumentiert. Anders ausgedrückt, vorab wird definiert, wie ein Computersystem oder eine Software funktionieren soll und im Rahmen der Validierung wird geprüft, ob diese Funktion verlässlich und korrekt erfüllt wird.

Welche Arten von Software oder Computersystemen gibt es im Kontext der Medizinprodukteherstellung und müssen sie alle validiert werden?

Frederik Janas: Es können zwei verschiedene Arten von Computer Systemen beziehungsweise Software unterschieden werden. Erstens solche, die in der Produktion von Medizinprodukten oder Dienstleistungserbringung und für das Qualitätsmanagementsystem zum Einsatz kommen, Datenanalysesoftware zum Beispiel. Diese sind gemäß den Anforderungen der ISO 13485 zu validieren.

Zweitens solche, die selbst eigenständige Medizinprodukte – Software as a Medical Device (kurz SaMD) – oder Teil eines Medizinprodukts sind. Zum Beispiel könnte das Software sein, die für Überwachungs- oder Diagnosesysteme benötigt wird. Diese Software muss gemäß der ISO 62304 beziehungsweise ISO 82304 validiert werden.

Software- und Computersysteme im Kontext der Medizinprodukteherstellung

Abb. 1: Software- und Computersysteme im Kontext der Medizinprodukteherstellung

Warum ist die Validierung von Computersystemen so wichtig?

Frederik Janas: Zum einen müssen regulatorische Anforderungen eingehalten werden, der risikobasierte Ansatz der CSV ist beispielsweise normativ durch die ISO 13485 gefordert, die unter anderem bei Audits durch Benannte Stellen überprüft werden. Wir konnten feststellen, dass die CSV in den letzten Jahren verstärkt in den Fokus der Auditor:innen gerückt ist. Außerdem trägt die CSV zur Sicherheit und Einhaltung der Qualität von Medizinprodukten im Zusammenhang mit der Anwendung von Softwaresystemen bei. Da die Funktionen von heutigen Softwaresystemen immer komplexer werden, wird es immer schwieriger, nachvollziehbare Ergebnisse zu erzielen. Eine CSV hilft durch strukturierte Verfahren, die Validität der Ergebnisse zu beweisen.

Könnten Sie uns einen Überblick darüber geben, welche verschiedenen Arten der Validierung es gibt?

Frederik Janas: Neben der Computer System- beziehungsweise Softwarevalidierung werden Validierungen auch für Testmethoden, Umgebungsbedingungen sowie Prozesse und Ausrüstungen durchgeführt. Auch hier geht es immer darum sicherzustellen, dass die definierten Anforderungen verlässlich erfüllt werden. Beispielsweise zielt die Prozessvalidierung darauf ab, die Wirksamkeit der Prozesse, die gegebenenfalls im Zusammenhang mit der Softwareentwicklung- und -anwendung stehen, zu überprüfen. Im Rahmen der Digitalisierung ist Software ein häufiger Bestandteil in der Produktion oder bei der Überwachung von Anforderungen. Somit kann es bei allen Arten der Validierungen Schnittstellen zur Computer System Validierung geben.

Welche Konsequenzen können auftreten, wenn eine angemessene Computer System Validierung nicht durchgeführt wird?

Frederik Janas: Regulatorisch kann dies Konsequenzen in Form von Abweichungen bei Audits nach sich ziehen. Zudem kann durch fehlerhafte Funktionen die Produktqualität und Patientensicherheit beeinträchtigt werden. Mögliche Auswirkungen aufgrund nicht valider Computersysteme können falsche Parameter in der Produktion, falsche Angaben auf Produkten, falsche Ergebnisse in der Überwachung von Medizinprodukten oder mangelnde Rückverfolgbarkeit im Qualitätsmanagementsystem sein.

Lassen Sie uns die Praxis gemeinsam beleuchten. Welche Schritte umfasst der Validierungsprozess konkret?

Frederik Janas: Allgemein sind die Schritte der Validierung gemäß V-Modell in das Definieren von Anforderungen, das Testen von Funktionen und das Dokumentieren der Kriterien und Ergebnisse unterteilt. Der Umfang ist stark abhängig von der Komplexität der Anwendung sowie dem Risiko. Hier liefert die Software-Kategorisierung gemäß GAMP 5 (Good Automated Manufacturing Practice) eine gute Richtlinie, in der Software abhängig von der Standardisierung und Konfiguration eingestuft wird. Das bedeutet, dass in der Praxis die Schritte individuell definiert werden. Für eine einfache Software wie beispielsweise ein Excel-Sheet umfasst der Validierungsprozess gegebenenfalls nur einen Prüfplan, in dem die Beschreibung, Anforderung, Methodik und das Risiko beschrieben sind, sowie einen Prüfbericht, der die Ergebnisse darstellt. Für eine komplexe Software mit hohem Risiko sind mehr Schritte notwendig. Hierbei kann initial eine Risikobewertung durchgeführt und die Anforderungen in verschiedenen Detaillierungsstufen definiert werden. Daraus resultieren häufig mehrere Prüfpläne und -berichte.

Und zu guter Letzt, welche Werkzeuge und Methoden werden für die Validierung von Computersystemen eingesetzt?

Frederik Janas: Das wichtigste Werkzeug ist eine Softwaremasterliste sowohl aus interner Sicht als auch aus Sicht eines externen Auditors. Diese schafft eine Übersicht aller verwendeten Computersysteme inklusive weiterer Angaben unter anderem zur Validierungspflicht. Weiterhin ist die Risikobewertung in Form einer initialen Bewertung oder FMEA ein wichtiges Werkzeug, um die Validierungstätigkeiten risikobasiert zu priorisieren. Während der Validierung werden verschiedene Testmethoden herangezogen. So zum Beispiel Positiv-, Wiederholungs- und Regressionstests. Diese werden spezifisch für den Test ausgewählt und sollen einen geeigneten Nachweis zur Erfüllung der Anforderungen erbringen.

“DGQ-Zertifikate sind fast schon ein eigener Standard“

Personenzertifizierung, Zertifikat

Die DGQ verfügt auch über eine unabhängige Personenzertifizierungsstelle (PZ). Doch warum ist es insbesondere für Qualitätsfachleute wichtig, eine Weiterbildung mit einem DGQ-Zertifikat abzuschließen? Welche Rolle spielt die Akkreditierung durch die DAkkS, welche Rolle spielen Zertifizierungen für das Berufsbild der Auditor:innen und welche hilfreichen Tipps hält die PZ für Berufs- und Quereinsteiger bereit? Diese und weitere Fragen beantworten Karin Weltring, Leitung der DGQ-Personenzertifizierungsstelle, und Michael Sturm, Produktmanager bei der DGQ-Personenzertifizierungsstelle.

Es gibt zahlreiche Weiterbildungen mit oder auch ohne Prüfung, aber wie wichtig ist ein DGQ-Zertifikat? Und was sagt es genau aus?

Karin Weltring: Unternehmen setzen bei ihren Mitarbeitern häufig Fachwissen im Qualitätsmanagement voraus. Entsprechende Vorkenntnisse und Zertifikate werden für die berufliche Karriere immer wichtiger. Die Zertifikate der DGQ genießen in Industrie und Wirtschaft einen sehr guten Ruf als objektiver Kompetenznachweis. Viele Arbeitgeber sehen diese fast schon als einen eigenen Standard. DGQ-Zertifikate bergen vielseitige Chancen für die Karriere – national und international. Zertifikate werden in den Unternehmen oft als Mitarbeitermotivation genutzt, da mit einem sicheren Wissen und der kompetenzbasierten Umsetzung die Qualitätsstandards im Unternehmen verstanden und unterstützt werden können.

Michael Sturm: Wir arbeiten auf Basis von DIN EN ISO/IEC 17024, so dass unsere Zertifikate Ihre persönlichen Kenntnisse und Kompetenzen in Bezug auf einen Scope objektiv und neutral bewerten und bescheinigen. Für einen „DGQ-Auditor Qualität“ enthalten die DGQ-Zertifikate beispielsweise den Nachweis, dass sie Auditprogramme festlegen, umsetzen, überwachen, überprüfen und verbessern, Managementsystemaudits (First-, Second-Party), Prozessaudits, Compliance-Audits veranlassen, planen und durchführen, Qualitätsmanagementsysteme bewerten sowie Kommunikationstechniken zielgerichtet im Sinne des Auditzieles einsetzen können.

Die Personenzertifizierungsstelle ist von der Deutschen Akkreditierungsstelle (DAkkS) akkreditiert. Was bedeutet das und inwiefern profitieren die Absolventen davon?

Karin Weltring: Die Deutsche Akkreditierungsstelle (DAkkS) ist die nationale Akkreditierungsstelle in Deutschland. Wenn eine Personenzertifizierungsstelle von der DAkkS akkreditiert ist, bedeutet dies, dass diese von der DAkkS als kompetent anerkannt wurde, die Anforderungen der DIN EN ISO/IEC 17024 zu erfüllen. Dies schafft Vertrauen in die Zuverlässigkeit und Glaubwürdigkeit unserer Zertifizierungsprozesse. Die DGQ-Personenzertifizierungsstelle erfüllt diese Anforderungen. Die Überwachung durch die DAkkS erfolgt jährlich und bescheinigt somit die Einhaltung der notwendigen Anforderungen als unabhängige Zertifizierungsstelle. Die Aufrechterhaltung der Akkreditierungsanforderungen kommt den Kunden der DGQ zugute. In Deutschland gibt es derzeit „nur“ 12 akkreditierte Personenzertifizierungsstellen für QM-Fachpersonal. Der DGQ ist die Akkreditierung wichtig, da diese unabhängige Überwachung den Qualitätsstandard der Zertifizierungsverfahren sichert.

Michael Sturm: Als Kunde profitieren Sie davon, dass Arbeitgeber Ihr Zertifikat als vertrauenswürdig anerkennen, da es von einer anerkannten und unabhängigen Zertifizierungsstelle ausgestellt wurde. Sie können dies als objektiven Nachweis für ihre Kenntnisse, Fähigkeiten und Kompetenzen nutzen. Gerade in Branchen, in denen Zertifizierungen wichtig sind, können die DGQ-Zertifikate einen Vorteil für die weitere Karriere verschaffen. Durch die Rezertifizierung garantieren unsere Zertifikate stets eine Aktualität der bescheinigten Kompetenzen durch aktuelle Weiterbildungen und der nachgewiesene Berufspraxis, zum Beispiel durch Auditnachweise.

Greifen wir Ihr Beispiel „Audit“ einmal auf. Welches Know-how beziehungsweise welche Kompetenzen weisen Zertifizierte nach?

Karin Weltring: Im Rahmen des Zertifizierungsprozesses müssen die Antragsteller einen vorhandenen Berufsabschluss, Berufserfahrung sowie Auditerfahrung nachweisen.
Für den „DGQ-Auditor für interne und Lieferantenaudits nach ISO 19011“ gelten beispielsweise die folgenden Anforderungen:

  • Vier Jahre Berufserfahrung (bei Hochschulabschluss) beziehungsweise fünf Jahre Berufserfahrung (bei Berufsausbildung) in einer Vollzeittätigkeit
  • Tätigkeit als interner Auditor mit zwei vollumfänglichen internen Audits innerhalb der letzten zwei Jahre mit zehn Audittagen, davon sechs Tage vor Ort

Michael Sturm: Die Prüfung überprüft Wissen, Fertigkeiten und Kompetenzen im Bezug auf Auditgrundlagen, die Vorbereitung, Durchführung und Nachbereitung von Audits sowie Gesprächstechniken. Außerdem spielt das Thema Auditprogramm eine Rolle und regelwerksbezogene Auditoren müssen Managementsysteme der zu Grunde liegenden Norm (z.B. DIN EN ISO 9001) bewerten.

Was sind die wichtigsten Audit-Zertifikate der DGQ und was zeichnet diese aus?

Karin Weltring: Unsere wichtigsten Zertifikate – wenn man die Anzahl betrachtet – sind „DGQ-Auditor für interne und Lieferantenaudits nach 19011“ und „DGQ-Auditor Qualität“. Beide sind gedacht für 1st- und 2nd-party Auditoren. Das erstgenannte bietet einen guten Einstieg in die Arbeit als Auditor und ist regelwerksneutral, das heißt Kompetenzen bezüglich DIN EN ISO 19011 sind die Basis, aber weitere Vorgaben spielen keine Rolle. DIN EN ISO 19011 ist natürlich ebenfalls Basis für den „DGQ-Auditor Qualität“. Dieser ist aber klar auf Audits von Systemen nach DIN EN ISO 9001 ausgerichtet. Das Zertifikat „DGQ-Qualitätsmanagementbeauftragter“ ist deshalb eine Voraussetzung, um dieses Zertifikat erhalten zu können. Außerdem ist der „DGQ-Auditor Qualität“ durch die DAkkS akkreditiert und die Kunden erhalten gleichzeitig das gleichwertige EOQ-Zertifikat.

Als abschließende Zertifizierung der Weiterbildungsreihe im Qualitätsmanagement ist außerdem der „DGQ-Lead Auditor Qualität“ zu nennen. Voraussetzung dafür ist das Zertifikat „DGQ-Qualitätsmanager“. Dieser befähigt auf Basis DIN EN ISO/IEC 17021-1 zudem 3rd-party Audits durchführen zu können und ein Team aus mehreren Auditoren in einem Audit zu führen. Auch dieses ist durch die DAkkS akkreditiert und es gibt ein gleichwertiges EOQ/IPC-Zertifikat.

Außerdem bieten wir Zertifizierungen für Auditoren nach DIN EN ISO 13485, DIN EN ISO 40001, DIN EN ISO 45001, DIN EN ISO 50001 an.

Nicht unerwähnt bleiben sollte, dass wir einer der größten Lizenznehmer des VDA QMC (Qualitätsmanagement Center im Verband der Automobilindustrie) sind und auch Prüfungen für VDA QMC-Auditoren (z.B. IATF 16949 – 1st/2nd party Auditor, VDA 6.3 – Prozess-Auditor) organisieren und abnehmen. Diese sind in der Automotive-Branche nicht wegzudenken. Die Zertifikate stellt VDA QMC aus.

Berufsbild Auditor

Für die Integrität und Zuverlässigkeit von Unternehmen ist das Einhalten von gesetzlichen, behördlichen und normativen Vorgaben und Anforderungen essenziell. Neben dem Feststellen der Konformität können im Rahmen eines Audits unter anderem bewährte Praktiken erkannt, Lücken identifiziert und Optimierungspotenziale aufgedeckt werden. Auditoren können so einen entscheidenden Beitrag für das Unternehmen leisten und haben gute Karriereaussichten in den verschiedensten Branchen.
Antworten auf die wichtigsten Fragen finden Sie in unserem Berufsbild zum Auditor:

  • Welche Aufgaben betreuen Auditoren?
  • Wie werde ich Auditor?
  • Welche Weiterbildungsmöglichkeiten gibt es?
  • Was verdient ein Auditor?
  • Welche Karrieremöglichkeiten gibt es als Auditor?

Zum Berufsbild Auditor »

Auditor:innen haben es im Unternehmen nicht immer einfach, die auditierten Bereiche vom Nutzen eines Audits zu überzeugen. Welche Tipps haben Sie?

Michael Sturm: Bei internen Audits können Sie durch eine – in Bezug auf die Auditierten – „nutzer-freundlichen“ Wahl der Auditmethoden – zum Beispiel Interview, Beobachtung der durchgeführten Arbeiten – und einer der jeweiligen „Zielgruppe“ angemessenen Sprache eine positive und aufgeschlossene Atmosphäre auf Augenhöhe schaffen. Im Auditbericht sollten Sie die Ergebnisse des Audits so darstellen, dass sie praxistauglich und verständlich sind. So kann der Nutzen für die Organisation oder die einzelnen Prozesse besser erkannt werden.

Die DGQ ist nationaler Partner der European Organization for Quality. Welchen Nutzen haben die Kunden der DGQ?

Karin Weltring: Die European Organization for Quality (EOQ) ist das Netzwerk in Europa, dessen wesentliches Ziel die Harmonisierung der Anforderungen an Qualitäts- und Managementfachpersonal in Europa ist. Dafür erstellt sie – unter Mitwirkung der nationalen Partner – Zertifizierungsprogramme, die als Basis für die Weiterbildung und Personenzertifizierung nach europaweit einheitlichen Kriterien dienen.

Als Kunde der DGQ-Personenzertifizierungsstelle bekommen Sie in vielen Fällen mit Ihrem DGQ-Zertifikat das entsprechende Zertifikat der EOQ. Dieses ist aufgrund der harmonisierten Weiterbildungs- und Zertifizierungsvoraussetzungen möglich, so dass Sie als Kunde direkt ein international anerkanntes englischsprachiges Zertifikat bekommen. Gerade in Unternehmen, die international tätig sind und deren Managementsysteme auch international überwacht werden, ist das hilfreich. In Deutschland ist die DGQ die einzige Stelle, die diese Zertifikate vergeben darf.

Was raten Sie Berufs- oder Quereinsteigern, die neu in eines der Aufgabenfelder rund um Qualitätsmanagement einsteigen?

Karin Weltring: Nehmen Sie sich Zeit, Grundprinzipien und den zugrundeliegenden Qualitätsmanagement-Standard (oft DIN EN ISO 9001) zu verstehen. Für Qualitätsauditoren ist außerdem die DIN EN ISO 19011 obligatorisch. Die Teilnahme an einer Weiterbildung wird Ihnen helfen, Ihr Wissen zu vertiefen und Kompetenzen aufzubauen. Sammeln Sie erste Praxiserfahrungen und lernen Sie von erfahrenen Kollegen.

Knüpfen Sie unbedingt Kontakte zu Fachleuten auch außerhalb Ihres Unternehmens. Dies bietet Ihnen die Möglichkeit von anderen zu lernen. Darüber hinaus können Sie durch den Austausch mit Qualitätsfachleuten aus anderen Unternehmen und Branchen einen erweiterten Blick auf die Welt des Qualitätsmanagements erhalten. Hier bietet die DGQ vielfältige Möglichkeiten im Rahmen von Regionalkreisen, Fachkreisen oder – speziell für junge Berufseinsteiger – bei den „QM-Youngsters“. Aber auch im Bereich Hochschule bieten sich hierfür Einsteigermöglichkeiten.

Michael Sturm: Ein Zertifikat der DGQ-Personenzertifizierungsstelle kann abschließend einen objektiven Nachweis Ihrer dann vorhandenen Kompetenzen bescheinigen. Wichtig ist das Gleichbehandlungsprinzip. Das bedeutet, es werden auch Ausbildungsnachweise anderer Aus- und Weiterbildungen anerkannt, sofern diese die Anforderungen des Zertifizierungsprogramms erfüllen. Auch bedeutet es, dass jeder Antragsteller einer Zertifizierung gleiche Prüfungsprozesse erfährt und durch unabhängige Prüfer:innen einen gleichwertigen gesicherten Standard erhalten.

Sie kooperieren auch mit Hochschulen. Wie sieht das Modell der Zusammenarbeit aus?

Karin Weltring: Die DGQ bietet das Qualifizierungsmodell zum „DGQ-Manager Qualität Junior“ seit 1997 und in Kooperation mit mittlerweile bundesweit 22 Hochschulen an. Seit Beginn dieses Programms haben sich bereits rund 4.000 Studierende für ein solches Zertifikat entschieden und sich somit einen Vorsprung für Ihren Berufseinstieg gesichert. Die Inhalte der Ausbildung zum DGQ-Manager Qualität Junior stimmen mit den Forderungen des harmonisierten Ausbildungsschemas der EOQ für die Zertifizierung von Qualitätsfachpersonal überein. Wir überprüfen dabei die Lehrinhalte der Hochschulen auf die Übereinstimmung mit diesem Programm. Der Erwerb des Zertifikates läuft über ein Antragsverfahren der zugelassenen Hochschule. Die Hochschule weist durch ihr Curriculum die Gleichwertigkeit der Inhalte und anderer Rahmenbedingungen nach und wird für das Modell anerkannt. Das Zertifikat kann als Einstieg in die Berufswelt im Bereich Qualitätsmanagement und Audit ein Türöffner sein.

 

Über die Autoren:

Karin Weltring leitet die Personenzertifizierungsstelle der DGQ.

Michael Sturm ist Produktmanager bei der Personenzertifizierungsstelle der DGQ.

Deutsche Gesellschaft für Qualität 408 Bewertungen auf ProvenExpert.com