Menü

Biodiversitätsmanagement im unternehmerischen Kontext: Tipps für die Praxis

Biodiversitätsmanagement, Unternehmen

Biodiversität ist essenziell für das Leben auf unserem Planeten. Wissenschaftler warnen: Mit schlechtem Klima lässt sich überleben, ohne Biodiversität nicht. Das Erreichen planetarer Belastbarkeitsgrenzen ist ein alarmierendes Signal für Unternehmen, ihren Fokus auf dieses Thema zu legen. Sie sollten daher Biodiversitätsmanagement in ihr Nachhaltigkeitsmanagement integrieren.

Aktuelle Situation

Biodiversität umfasst die Vielfalt des Lebens auf der Erde, einschließlich der Gene, Arten und Ökosysteme, die für die Stabilität und Produktivität unserer natürlichen und wirtschaftlichen Systeme unverzichtbar ist. 50 Prozent aller Emissionen werden von der Natur absorbiert. Ohne diese Absorption würden sich die Emissionen in der Atmosphäre drastisch erhöhen, was zu schwerwiegenden Klimaveränderungen führen würde. 75 Prozent der weltweiten Nahrungsmittelproduktion hängt von Bestäubern wie Bienen ab. Ihr Verlust kann die Erträge verringern und die Kosten für Bestäubungsdienste in die Höhe treiben. Die „Hochzeitstorte“ (Abbildung 1) verdeutlicht die Beziehung zwischen den UN-Zielen für nachhaltige Entwicklung (Sustainable Development Goals, SDGs) und der hohen Bedeutung der Natur und Biodiversität.

Mehr als die Hälfte des globalen Bruttoinlandsprodukts, rund 44 Billionen US-Dollar, hängt von einer intakten Natur ab (WWF, 2023). Laut dem World Economic Forum (WEF) zählen der Verlust der Artenvielfalt und der Zusammenbruch ganzer Ökosysteme zu den größten Risiken für die Weltwirtschaft (WEF, 2023). Der Verlust der Biodiversität führt schon jetzt jährlich zu wirtschaftlichen Einbußen von über 30 Billionen US-Dollar (NABU, BCG 2020), besonders in den Sektoren Pharmazie, Landwirtschaft, Fischerei und Tourismus. Veränderungen in natürlichen Systemen verursachen Ressourcenknappheit und erhöhen die Produktionskosten in wasserintensiven Branchen wie Landwirtschaft, Textil- und Getränkeindustrie. Die Degradierung von Ökosystemen und klimatische Veränderungen können Lieferketten destabilisieren, Versorgungsengpässe und Preisschwankungen hervorrufen. Angesichts der Biodiversitätskrise und der anderen Multikrisen ist dies keine erfreuliche Nachricht für Unternehmen. Der Global Risk Report 2024 zeigt, dass der Biodiversitätsverlust in einem Zehnjahreshorizont als drittgrößtes Risiko für Unternehmen wahrgenommen wird

Beziehung der Ziele für nachhaltige Entwicklung – Biosphäre ist die Basis

Abb. 1: Beziehung der Ziele für nachhaltige Entwicklung – Biosphäre ist die Basis
(Quelle: Die Animation wurde von Azote für das Stockholm Resilience Centre erstellt; Lizenz: CC BY ND 3.0)

Biodiversität managen

Unternehmen nutzen die Leistungen der Natur und können Biodiversität durch verschiedene Maßnahmen managen, um negative Umweltauswirkungen zu minimieren und positive Beiträge zu leisten. Wichtige Strategien eines Biodiversitätsmanagements umfassen:

  • Integration von biodiversitätsbezogenen Themen in Umweltmanagementsysteme, wobei EMAS als besonders geeignet scheint, da es die biologische Vielfalt als Schlüsselbereich ausweist und konkrete Indikatoren und Maßnahmen fordert.
  • Systematische Erfassung und Bewertung der Auswirkungen des Unternehmens sowie seiner Lieferketten auf die lokale Flora und Fauna, einschließlich der Berechnung des eigenen Biodiversitätsfußabdrucks.
  • SMARTE Ziele und Maßnahmen für den Biodiversitätsschutz setzen, zum Beispiel Schaffung naturnaher Flächen, Förderung einheimischer Pflanzenarten und Reduktion von Pestiziden.
  • Schulungen und Sensibilisierungsprogramm für Beschäftigte und Anspruchsgruppen in der Wertschöpfungskette zur Schärfung des Bewusstseins für die Bedeutung der Biodiversität und zur Förderung umweltfreundlicher Praktiken.
  • Regelmäßige Überwachung und Berichterstattung im Rahmen der neuen Nachhaltigkeitsberichtsstandards, speziell ESRS E4 – Biodiversity and ecosystems , um Fortschritte im Biodiversitätsschutz zu messen und transparent darzustellen.
Berufsbild Klimaschutzmanager
Kommunen und Unternehmen werden sich zunehmend ihrer Verantwortung für und den Herausforderungen durch den Klimawandel bewusst. Sie suchen daher immer häufiger nach Fachexperten, die sie bei der Umsetzung von Klimaschutzstrategien unterstützen können. Durch ihre Tätigkeit tragen Klimaschutzmanager dazu bei, Treibhausgasemissionen der Unternehmen und Kommunen zu reduzieren. Antworten auf die wichtigsten Fragen finden Sie in unserem Berufsbild zum Klimaschutzmanager:

  • Was ist ein Klimaschutzmanager?
  • Welche Aufgaben betreuen Klimaschutzmanager?
  • Wie werde ich Klimaschutzmanager?
  • Welche Weiter­bildungs­möglich­keiten gibt es?
  • Wie viel verdient ein Klimaschutzmanager?
  • Welche Karrieremöglichkeiten gibt es?

Zum Berufsbild Klimaschutzmanager »

Konkret können Unternehmen …

Unternehmen können nachhaltige Beschaffungspraktiken einführen, um sicherzustellen, dass Rohstoffe und Produkte aus umweltfreundlichen Quellen stammen. Durch die Förderung der Biodiversität auf Firmengeländen (PDF), etwa durch naturnahe Flächen und den Verzicht auf Pestizide, tragen sie zum Erhalt der Artenvielfalt bei. Maßnahmen wie insektenfreundliche LED-Lampen und der Verzicht auf Versiegelung von Parkflächen sind ebenfalls sinnvoll. Unternehmen können in ihrer Lieferkette Risikobewertungen vornehmen, um Produkte mit hohem Risiko für den Verlust der Biodiversität, wie Holzprodukte, zu identifizieren. Die Umstellung auf nachhaltige Beschaffungspolitiken kann den Einsatz umweltschädlicher Produkte reduzieren, indem zertifizierte Produkte wie MSC-Fisch oder FSC/PEFC-Holzerzeugnisse bevorzugt werden.

Es ist wichtig, das Wirkungsnetz zu berücksichtigen, da Klimaschutzmaßnahmen manchmal in Konkurrenz zu anderen Nachhaltigkeitszielen stehen, etwa wenn erneuerbare Energieprojekte Lebensräume beeinträchtigen. Ein integrierter Ansatz, der alle Umweltauswirkungen einbezieht, ist unerlässlich, um langfristig nachhaltige Lösungen zu gewährleisten. Die Zusammenarbeit mit Interessengruppen wie NGOs, lokalen Gemeinschaften und wissenschaftlichen Einrichtungen kann Unternehmen dabei unterstützen, effektive Biodiversitätsstrategien zu entwickeln und umzusetzen. Unternehmen können Programme zur Biodiversitätskompensation unterstützen, um negative Auswirkungen ihrer Aktivitäten auszugleichen. Dabei gilt der Hierarchie-Grundsatz: Vermeiden, Reduzieren und dann erst Kompensieren, idealerweise lokal, um die gleichen Ökosysteme und Arten zu unterstützen.

Beitrag von Kreislaufwirtschaft zur Biodiversität

Die Entwicklung nachhaltiger Produkte und Dienstleistungen, die den gesamten Lebenszyklus berücksichtigen, ist wichtig für den Erhalt der Biodiversität. Die Kreislaufwirtschaft zielt darauf ab, die Lebensdauer von Produkten zu maximieren, die Wiederverwendung von Materialien zu fördern und den Abfall zu minimieren. Obwohl diese Prinzipien auf Ressourcenschonung abzielen, sind die Effekte des zirkulären Wirtschaftens auf die Biodiversität noch nicht vollständig untersucht. Offensichtlich ist jedoch der Zusammenhang des linearen Wirtschaftsmodells mit dem Verlust an Ökosystemen durch Landveränderung oder Deponien. Es lohnt sich, die Kreislaufwirtschaft als positiven Effektgeber zum Erhalt der Biodiversität zu betrachten. Eine Meta-Studie aus dem Jahr 2023 aus Finnland bewertete im Bau- und Immobiliengewerbe sowie der Waldwirtschaft verschiedene Circular-Economy-Maßnahmen. Die Ergebnisse zeigen, dass die kaskadierende Nutzung von Holz, die Verbesserung der Materialeffizienz, die Wiederverwendung von Baumaterialien und die Verlängerung der Lebensdauer von Gebäuden großes Potenzial haben, den Druck auf die Biodiversität zu mindern. Allerdings könnten Maßnahmen, die die Nutzung heimischer Wälder erhöhen, die Biodiversität beeinträchtigen, wenn keine biodiversitätsfördernden Waldmanagementpraktiken genutzt werden und die Abholzung zu hoch bleibt.

Es reicht also nicht aus, auf vermeintlich erneuerbare und kompostierbare Rohstoffe zu setzen, wenn dadurch Lebensraum vernichtet wird. Es muss bei jedem Produkt abgewogen werden, welche Circular-Economy-Maßnahme die Biodiversität schützt. Ökobilanzen können unterstützen, indem sie eine ganzheitliche Perspektive bieten.

Drei Stellhebel der Kreislaufwirtschaft wirken positiv auf die Biodiversität: nachhaltiger Materialeinsatz, nachhaltige Geschäftsmodelle und nachhaltiger Mindset.

  1. Nachhaltiger Materialeinsatz:
    Die Reduzierung der Ressourcenextraktion und die daraus resultierende Verringerung von Lebensraumzerstörung schützt natürliche Lebensräume und Arten.
  2. Nachhaltige Geschäftsmodelle:
    Durch die Reduzierung von Abfällen und das Schließen von Stoffkreisen wird die Umweltverschmutzung verringert. Sharing- und Streaming-Konzepte reduzieren CO2-Emissionen und schädliche Umwelteinflüsse wie Dürren, die die Biodiversität beeinträchtigen.
  3. Nachhaltiger Mindset:
    Die Circular Economy fördert ein Bewusstsein bei Konsumenten, die durch ihr Kaufverhalten die Umwelt schützen können. Dies stärkt regionale Ökonomien und führt zu einer höheren Akzeptanz für nachhaltige Produkte zu angemessenen Preisen – vorausgesetzt, diese werden nachhaltig und biodiversitätsfreundlich produziert.
Next Level Nachhaltigkeit: Ihre Online-Konferenz für Berichterstattung, Qualität & ESG

Die Integration von Nachhaltigkeit in bestehende Managementsysteme bietet eine wertvolle Chance, denn viele Unternehmen verfügen bereits über etablierte Strukturen und Daten, die es ermöglichen, Nachhaltigkeitsanforderungen systematisch zu managen und zu erfüllen.
Mit unserer Online-Konferenz am 23. September 2025 bieten die Deutsche Gesellschaft für Qualität und das Kunststoff-Zentrum SKZ Unternehmen genau die Unterstützung, die Sie brauchen, um die aktuell bestehenden Herausforderungen erfolgreich zu meistern. Mit der Omnibus-Verordnung als neuem Rahmen gilt es für zukunftsorientierte Unternehmen jetzt mehr denn je, Nachhaltigkeit strategisch zu verankern und Wettbewerbsvorteile zu sichern – denn nachhaltige Unternehmensführung geht weit über eine bloße Berichtspflicht hinaus. Jetzt informieren und anmelden »

Vernetzung

Der DGQ-Fachkreis Nachhaltigkeit vernetzt Interessierte und deren Kompetenzen durch verschiedene Aktivitäten. Arbeitsgruppen bearbeiten Themen wie Nachhaltigkeitskennzahlen, CO2-Fußabdruck, Nachhaltigkeitskompetenzen und Blockchain-Chancen. Eine Arbeitsgruppe zum Thema “Biodiversität in Unternehmen” ist ebenfalls denkbar. Interessierte können sich bei den Autorinnen des Blogbeitrags unter com@dgq.de melden.

 

Über die Autoren:
Prof. Dr. Linda Chalupová ist eine Nachhaltigkeitsexpertin, Autorin, Keynote-Speakerin und zertifizierte Aufsichtsrätin mit Kernkompetenzen im nachhaltigen Wirtschaften. Als Professorin für Nachhaltigkeitswissenschaften an der Hochschule Fulda strebt sie einen profitablen Transfer zwischen Wissenschaft und Praxis an, um schnellstmöglich effektive Lösungen für eine nachhaltige Entwicklung bereitzustellen. Sie engagiert sich als Vorständin und Beirätin in mehreren Berufsverbänden, Gremien und Arbeitskreisen und ist Unternehmensmentorin in den Bereichen ESG und Berichterstattung. Zu-dem ist sie Mitglied im Leitungsteam des DGQ-Fachkreises Nachhaltigkeit.

Prof. Dr. Irina Mazilu-Eyaz hat Materialwissenschaft an der Technischen Universität Darmstadt und am Imperial College London studiert. Während Ihrer 11-jährigen Berufstätigkeit bei einem internationalen Technologiekonzern sammelte sie Erfahrung im Qualitätsmanagement und wurde zur Methoden-Expertin für technische Problemlösung. Seit 2021 ist sie Professorin für Qualitätsmanagement und Werkstoffkunde an der Hochschule RheinMain und entwickelt auch neue Lehrveranstaltungen zum Thema Nachhaltigkeit. Im Mai 2023 wurde sie ins Leitungsteam des DGQ-Fachkreises Nachhaltigkeit gewählt.

 

 


Weiterführende Informationen

Mit der nachfolgenden Linksammlung erhalten Interessierte kostenlosen Zugriff auf hilfreiche Informationen zum Thema Biodiversität:

Risikofilter der Biodiversität (WWF)

Biodiversität über den Tellerrand (Forschungsprojekt)

Vielfalt am Standort – Schritte zu nachhaltigem Biodiversitätsmanagement (Bayerisches Landesamt für Umwelt)

Leitfaden 2023 – Schutz der biologischen Vielfalt im Rahmen von Umweltmanagementsystemen (EMAS)

Wege zum naturnahen Firmengelände (Bundesamt für Naturschutz)


 

Nachhaltigkeit im Klinikbau – In Göppingen entsteht das erste „Green Hospital“ Baden-Württembergs

Nachhaltigkeit, Klinikneubau, Alb-Fils-Kliniken

Die Kliniken Deutschlands durchleben einen massiven Transformationsprozess. Viele Krankenhäuser befinden sich in einer finanziell prekären – teilweise existentiell bedrohlichen – Situation. In dem gesetzlich vorgegebenem Dualen Finanzierungssystem sollen die laufenden Kosten über Fallpauschalen und die notwendigen Investitionen über Fördermittel der Bundesländer gedeckt werden. Seit vielen Jahren kommen die Länder dieser gesetzlichen Vorgabe nicht ausreichend nach, so dass sich bundesweit ein Investitionsstau in der baulichen Struktur vieler Kliniken in Milliardenhöhe angesammelt hat. Die Kliniken sind oftmals gezwungen, notwendige Investitionen und Instandhaltungen aus den laufenden Vergütungen zu finanzieren. Das Defizit der Kliniken Baden-Württembergs summiert sich im forecast auf die Jahresabschlüsse 2024 laut Landkreistagspräsident Joachim Walter auf rund 900 Millionen Euro.

Das ALB FILS KLINIKUM, in hundertprozentig kommunaler Trägerschaft des Landkreises Göppingen, hat sich vor mehr als 10 Jahren gegen die umfassende Sanierung eines Klinikgebäudes zugunsten eines kompletten Neubaus entschieden. Neben essenziellen wirtschaftlichen Gründen standen hier insbesondere prozessuale Optimierungen, die Attraktivität als Arbeitgeber und umfassender Gesundheitsdienstleister sowie die zu erwartenden Neustrukturierungen in der Krankenhauslandschaft im Vordergrund. Das neue Klinikum befindet sich nun im „Endspurt“ der Fertigstellung und wird sich in Teilen über eine „Effizienzrendite“ im Abgleich zum Weiterbetrieb der mehr als 50 Jahre alten Bestandsklinik refinanzieren. Der Grund dafür liegt unter anderem in der strategischen Prämisse des nachhaltigen und hoch energieeffizienten Bauens. Die erwartete Energiepreisentwicklung der kommenden Wirtschaftsperioden wird diese Effizienzrendite des Neubaus weiter steigern.

Raum für modernste prozessoptimierte Medizin und Pflege

Neubau Alb-Fils-Klinik

Abb. 1: Neubau ALB FILS KLINIKUM, ©Max Radloff Photography

Derzeit entsteht mit dem Neubau des ALB FILS KLINIKUMs in Göppingen eine der modernsten Kliniken in Europa. Mit einem Investitionsvolumen von rund 360 Millionen Euro wird auf 43.000 qm Nutzfläche und sieben Vollgeschossen Raum für modernste prozessoptimierte Medizin und Pflege geschaffen. Mit Baubeginn im Jahr 2019 entstehen dort unter anderem zwölf OP-Säle, inklusive Hybrid OP, drei Herzkatheterlabore, vier Kreißsäle, zwei Intensiv- und eine IntermediateCare-Stationen und ein Hubschrauberlandeplatz. Mit 645 Normalstationsbetten, modernster medizinischer Ausstattung sowie hellen und modernen Räumlichkeiten ist der bauliche Grundstein für eine optimale Behandlungsqualität der Patienten gelegt und auch das Personal profitiert von einer positiven Arbeitsplatzgestaltung.

Von der DGNB mit dem Vorzertifikat in Gold ausgezeichnet

Die Deutsche Gesellschaft für Nachhaltiges Bauen (DGNB) bewertet die Nachhaltigkeit eines Gebäudes und hat den Neubau des ALB FILS KLINIKUMs mit dem DGNB-Vorzertifikat in Gold ausgezeichnet. Die DGNB bestätigt damit, dass eine besonders umweltfreundliche, wirtschaftliche, effiziente, ressourcensparende und optimale Gebäudeplanung für den Neubau verfolgt wurde. Das ALB FILS KLINIKUM ist somit das erste „Green Hospital“ in Baden-Württemberg. Das Klinikum hat, der Unternehmensstrategie folgend, bereits vor Baubeginn und zu einem sehr frühen Planungsstadium diesen Ansatz konsequent verfolgt. Ziel war eine nachhaltige Planung und Umsetzung des Neubaus. Der Antrieb bestand im Besonderen darin, die Wirtschaftlichkeit zu erhöhen und mehr Lebensqualität bei gleichzeitig geringeren Betriebskosten zu erreichen – immer mit dem Fokus auf Mensch und Mitwelt.

Nachhaltigkeitsgedanke im Planungsprozess von Anfang an berücksichtigt

Durch die frühe Einstiegsphase konnten bereits wesentliche Optimierungspotenziale in der Grobplanung des Großprojektes berücksichtigt werden. So konnte beispielsweise eine Reduzierung des Wärmebedarfs um circa 60 Prozent sowie die Umsetzung einer Wärmerückgewinnung mit einem Effizienzgrad von über 85 Prozent realisiert werden. Darüber hinaus wurden die Voraussetzungen für weitere Förderungen durch den Bund geschaffen, indem das Haus am Ende des Planungs- und Optimierungsprozesses den extrem hohen Anforderungen des KfW-55-Programms entsprach.

Die Herausforderungen waren groß, aber machbar

Neubau ALB FILS KLINIKUM

Abb. 2: Neubau ALB FILS KLINIKUM, ©Max Radloff Photography

Die größte Herausforderung bei der Berücksichtigung des nachhaltigen Ansatzes sind die höheren Kosten für nachhaltige Materialien. Beim Neubau des ALB FILS KLINIKUMs wurde insbesondere die Gebäudehülle nach KfW-55-Standard gebaut – dies war zu Baubeginn der höchste Standard unterhalb des Standards des Passivhauses. Verwirklicht wird außerdem eine komplexe Wärmerückgewinnung über Wärmetauscher. Ein gutes Raumklima wird durch eine „Betonkernaktivierung“ der Decken erreicht und durch die Auswahl besonders nachhaltiger Materialien mit positiven Eigenschaften, wie zum Beispiel geringe Ausdünstung, Langlebigkeit, Ursprung aus nachhaltigen Quellen und geringe Schadstoffbelastung. Ein weiterer wichtiger Baustein zur nachhaltigen Bauweise ist die PV-Anlage mit 425 kwh/p und einer hundertprozentigen Nutzung für den Eigenverbrauch. Grundsätzlich umfasst der Green-Hospital-Ansatz nach DGNB ökologisch-ökonomische, soziokulturelle, technische, prozessuale und standortbezogene Qualitäten und Kernbereiche.

Die positiven Effekte sind vielfältig

Durch die nachhaltige Bauweise erhofft sich das Klinikum, seine Attraktivität für Arbeitnehmer weiter zu steigern, denn die neuen Arbeitsplätze wurden mit viel Tageslicht und kurzen Wegen geplant und realisiert. Weiter sieht das Klinikum einen Wettbewerbsvorteil gegenüber anderen Kliniken bei der Patientengewinnung. Günstigere Bankkredite und Tilgungszuschüsse sind ebenso ein wesentlicher Aspekt, wie auch die Vorreiterrolle für andere Unternehmen. Ein positives Image in der Wahrnehmung der Öffentlichkeit ist bereits heute zu spüren.

Zudem stehen für diese nachhaltige Bauweise KFfW-55-Förderungmittel von der Bundesrepublik Deutschland zur Verfügung. Nach der Vorzertifizierung soll nun abschließend das DGNB-Zertifikat in Gold erreicht werden.

Bereits heute ist das ALB FILS KLINIKUM ein KLIMAWIN-Unternehmen des Umweltministeriums Baden-Württemberg und orientiert sich an den Sustainable Development Goals (SDGs) der Agenda 2030 der United Nation (UN). Die DGNB unterstützt ebenso diese Ziele. Um den Zusammenhang einer nachhaltigen Bauweise mit den SDGs herauszuarbeiten und transparent zu machen, sind sämtliche Kriterien zu den Zielen der UN überprüft. Als Ergebnis erhält jedes Projekt, das eine DGNB-Zertifizierung erfolgreich abschließt, künftig eine Aussage darüber, inwieweit es einen Beitrag zur Erreichung der SDG geleistet hat.

Nachhaltiges Bauen zahlt sich langfristig aus

Vor dem Hintergrund der Entwicklung der Nachhaltigkeit in den vergangenen Jahren und der weiteren Fokussierung der Gesellschaft auf dieses Thema war es in den Planungsjahren des Neubaus, 2014 bis 2018, völlig richtig, den Weg des „Green Hospital“ einzuschlagen. Bereits vor Bezug des Neubaus ist klar, dass das Gebäude in Sachen Nachhaltigkeit, Wirtschaftlichkeit und Flexibilität hohe Maßstäbe setzt – auch mit einem konsequenten Fokus auf biologische und nachhaltige Baustoffe. Hohe Wertstabilität sowie Transparenz bei den eingesparten Ressourcen und Emissionen sind gesetzt. Der Ansatz des nachhaltigen Bauens und der Wunsch, der eigenen Verantwortung gegenüber der Umwelt und ökologischen Werten nachzukommen, führten zu einem langen und manchmal schwierigen, Weg. Anderen Kliniken kann an dieser Stelle nur geraten werden, sich nicht entmutigen zu lassen. Bei der Planung von ähnlichen Bauprojekten rät das Klinikum, den CO2-Ausstoß bei den Entscheidungen mit „einzupreisen“ und in der Betrachtung über die reinen Baukosten hinauszugehen, denn das „Green Hospital“ muss in seinem gesamten Lebenszyklus der Immobilie gesehen werden – Langfristigkeit macht sich hier bezahlt.

Mehr Unterstützung würde helfen

Eine Anregung geht an die Politik auf Bundes- und Landesebene: Hier ist mehr Unterstützung wünschenswert. Bei den aktuellen finanziellen Problemen geht es vielen Kliniken rein ums Überleben. Ohne tiefgreifende Förderprogramme können sie Nachhaltigkeit nicht ausreichend berücksichtigen. Die Politik sollte das Engagement in Nachhaltigkeit und Zukunftsfähigkeit öffentlicher Infrastrukturen auch im Bereich „Green Hospital“ stärker fördern, zum Beispiel durch die Bereitstellung von Beratungs- und Zertifizierungspartnern über Bund und Länder. Dies würde auch längerfristige Transformationsprozesse hin zum „Green Hospital“ bei Bestandsimmobilien ermöglichen. So könnte das „Green Hospital“ zum Standard-Hospital werden – zumindest für Neubauten wäre es wünschenswert. Durch die aktuellen Rahmenbedingungen im Gesundheitswesen und den hohen Kostendruck im System wird es sich aber ohne weitere Anreiz- und Fördersysteme nur sehr langsam etablieren können. Der Fokus im Gesundheitssystem muss sich grundsätzlich aber auch an den Vorgaben und Klimazielen der UN und der EU orientieren. Auch die langfristige Unterstützung von öffentlicher Seite ist zwingend notwendig. Der öffentliche Gesundheitssektor wird diesen tiefgreifenden Transformationsprozess nur mit Unterstützung durch Bund und Länder leisten können. Ein gutes Beispiel könnten hier Vergleichsprojekte, wie beispielsweise die Digitalisierung mit der Förderung durch das KrankenhausZukunftsGesetz (KHZG) sein.

 

Über die Autoren:
Dr. Ingo Hüttner ist medizinischer Geschäftsführer sowie Vorsitzender der Geschäftsführung der ALB FILS KLINIKUM GmbH. Seit 2021 gehört Dr. Hüttner dem Vorstand der DGQ an.
Wolfgang Schmid ist Kaufmännischer Geschäftsführer der ALB FILS KLINIKUM GmbH.

Bildnachweis: ©Max Radloff Photography

Künstliche Intelligenz & Nachhaltigkeit – Was bedeutet das für die Weiterbildung?

KI, Weiterbildung, Lernen

Die Anfänge von Künstlicher Intelligenz (KI) gehen zurück bis in die 1950er-Jahren. Seitdem gab es vier Wellen der Künstlichen Intelligenz. Die Energie für die Verarbeitung von Daten wird zumeist fossil generiert und dies führt zu klimarelevanten Emissionen. KI-Algorithmen können zur gezielten Überwachung und Manipulation eingesetzt werden, was ethische Fragestellungen aufwirft. Überdies werden im Bildungswesen immer mehr KI-generierte Texte verwendet, was zudem die Frage aufwirft, wie zukünftig Lehr- und Lernformate sinnvoll gestaltet werden können, damit Lernende und Lehrende einen Mehrwert durch KI haben.

Die Begriffe – „Künstliche Intelligenz“ und „Nachhaltigkeit“

„Künstliche Intelligenz“ (KI) soll einen Computer dazu bringen, menschliches Verhalten zu imitieren. KI ist ein komplexes und umfangreiches Teilgebiet der Informatik. Bisher geht man von vier KI-Wellen aus. Die letzte, in der wir uns gerade befinden, gilt als sehr vielversprechend.

„Nachhaltigkeit“ bedeutet laut Weltkommission für Umwelt und Entwicklung, die Bedürfnisse eines Menschen zu befriedigen, ohne die Fähigkeit künftiger Generationen zu gefährden, ihren eigenen Bedürfnisse nachzugehen (vgl. WCED, 1987). Nachhaltigkeit beruht auf drei Säulen (sozial, wirtschaftlich, ökologisch) und stellt den Menschen in den Mittelpunkt. Zum Konzept gehören außerdem Umweltschutz, Gerechtigkeit, Ganzheitlichkeit und Langfristigkeit (siehe Abb. 1).

Konzept der Nachhaltigkeit

Abb. 1: Konzept der Nachhaltigkeit (Barbian, D., 2001)

Die vier Wellen der Künstlichen Intelligenz

Man unterscheidet vier Phasen der KI (vgl. Mertens, P., Barbian, D., Baier, S., 2017).  In der ersten Phase wurden dem Computer “allgemeine” Problemlösungsfähigkeiten („General Problem Solver“) zuerkannt. Damit gelangte man schnell an Grenzen. Es erfolgte ein Paradigmenwechsel und man setzte sich das Ziel, Experten auf ihrem Spezialgebiet zu unterstützen (“Expertensysteme” (XPS)). Die dritte Phase war kurz und betraf Semantische Netze. Damit wurden Beziehungen zwischen Begriffen modelliert, zum Beispiel die Beziehung einer Bildungseinrichtung zu Kursteilnehmenden, zu den Lehrformaten etc. Auch die dritte KI-Welle erfüllte nicht die Erwartungen. Derzeit befinden wir uns in der vierten Welle. Nach dem Prinzip von Nervenzellen (Neuronen) werden künstliche neuronale Netze eingesetzt (vgl. Matzka, S., 2021). Für das Trainieren dieser Art von KI wird jedoch viel Energie benötigt, womit gerade die vierte Welle einen enormen Einfluss auf das Erreichen der Klimaziele hat (Es gibt KI-Algorithmen, die zu ähnlich guten Ergebnissen wie das künstliche neuronale Netz führen. Dazu zählen u.a. die logarithmische Regression, der Bayes‘sche Algorithmus und Decision Tree.)

Bereits 2019 machte der CO2-Ausstoß des globalen Datenverkehrs laut Think Tank The Shift Project 4% aus.

Berufsbild Nachhaltigkeitsmanager

Die Themen Nachhaltigkeit und Klima­schutz gehören zu den Mega­trends unserer Zeit. Für Unter­nehmen wird es somit immer wichtiger, CSR-Maßnahmen um­zu­setzen und ihrer gesell­schaftlichen Verantwortung gerecht zu werden. Mit dem größeren Fokus auf Nachhaltigkeit haben sich in den letzten Jahren eine Vielzahl an grünen Jobs entwickelt, wie beispielsweise der Job als Nachhaltigkeitsmanager.
Antworten auf die wichtigsten Fragen finden Sie in unserem Berufsbild zum Nachhaltigkeitsmanager:

  • Welche Aufgaben betreuen Nachhaltigkeitsmanager?
  • Wie werde ich Nach­haltigkeits­beauf­tragter?
  • Welche Weiter­bildungs­möglich­keiten gibt es?
  • Was verdient ein Nach­haltigkeits­manager?
  • Welche Jobs gibt es im Nach­haltigkeits­manage­ment?

Zum Berufsbild Nachhhaltigkeitsmanager »

Einsatzszenarien von KI in der Weiterbildung – Vorteile und Herausforderungen

KI in der Weiterbildung kann Vorteile für Lernende und Lehrende bieten, jedoch sind auch die Herausforderungen nicht außer Acht zu lassen. Texte und Bilder mit KI zu generieren, ist durch den Einzug von ChatGPT einfacher denn je. Etwa 38 % der Schüler:innen in Deutschland nutzen dies laut Statista bereits. Überwiegend sind es jüngere Menschen, die von KI Gebrauch machen. Es ist daher angebracht, sich die Frage zu stellen, wie Lehr- und Lernformate zu gestalten sind.

Ein Vorteil durch den Einsatz von KI gestaltet sich für Menschen mit unterschiedlichen Lerntempos. Hier können KI-basierte Lernformate sich individuell an die Bedürfnisse anpassen sowie den Lernfortschritt verfolgen (adaptives Lernen). Weitere Vorteile für Weiterbildungsformate liegen in der Möglichkeit, Daten schnell zu analysieren. Damit können große Mengen an Lerndaten bewertet und Muster erkannt werden, die dann gezielt zur Unterstützung von Lehrenden und Lernenden genutzt werden können. Für die kontinuierliche Weiterbildung und berufliche Entwicklung bietet KI personalisierte Lernpfade etwa für berufstätige Personen, um sich gezielt weiter zu qualifizieren oder um Vorschläge zu Weiterbildungen zu erhalten. Bei der Bewertung von Prüfungen und Aufgaben bieten zudem automatisierte Systeme ein schnelles und sofort verfügbares Ergebnis. KI hat außerdem das Potenzial inklusiv zu sein, indem Lernmaterialien für Menschen mit Behinderungen zugänglicher gemacht werden.

Neben all diesen Vorteilen gibt es jedoch auch Herausforderungen. Zum einen hat KI einen erheblichen Einfluss auf das Klima und birgt ethische Gefahren bei der Nutzung.

KI-basierte Systeme sind sehr rechenintensiv. Sie müssen eine große Menge an Daten verarbeiten, was den Bedarf und die Abhängigkeit von Energie erhöht. Es ist nach wie vor schwierig, den genauen CO2-Ausstoß von KI zu quantifizieren. Einige wenige Organisationen versuchen, oftmals mit frei verfügbaren Tools die Umweltauswirkungen von KI zu ermitteln. Dazu gehören z. B. das Montreal Institute for Learning Algorithms mit dem Tool ML CO2 Impact , die Plattform CodeCarbon, und Climate Change AI.

Für eine nachhaltige KI (auch “Green AI” bzw. “Grüne Künstliche Intelligenz”) müsste neben der genauen Klimabilanz im Vorfeld ihres Einsatzes zunächst auch Transparenz zu den erhobenen Daten bestehen. Künstliche Intelligenz (KI) hat daher auch eine ethische Relevanz in der Weiterbildung. Dies betrifft den Datenschutz und die Sicherheit, da KI-Systeme große Mengen an persönlichen Daten sammeln können. Die Überwachung durch KI kann die Privatsphäre der Lernenden gefährden. Auch kann es zu einer Diskriminierung kommen, da KI bestehende Vorurteile verstärken und zu ungleichen Chancen führen kann. Die Qualität der Bildung könnte durch übermäßige Standardisierung und Abhängigkeit von der KI-Technologie leiden, was die Vielfalt und menschliche Interaktion mindert.

Mit besonders sensiblen Daten sollte auch aus Gründen der sozialen Nachhaltigkeit (s. Abb. 1) vorsichtig umgegangen werden. Unternehmen können durch eine Auswertung von Daten mehr über ihre Mitarbeitenden erfahren. Auch eine Manipulation und Überwachung ist möglich. Damit wirft der Einsatz von KI ethische Fragestellungen auf, was Sarah Spiekermann bereits 2019 in ihrem Buch über „Digitale Ethik“ thematisiert hat (Spiekermann, S., 2019). Das Sammeln von Daten durch Suchmaschinen erfolgt oft über sogenannte Tracking-Dienste. Dazu laufen im jeweiligen Tool entsprechende Dienste ab, die Daten z. B. zum Standort, den eingegebenen Suchwörtern, verwendeter Internet-Browser sammeln (Zuboff, S., 2018).

Bezug der KI zu den 17 Nachhaltigkeitszielen der Vereinten Nationen

KI spielt eine wichtige Rolle bei der Erreichung der 17 Ziele für eine nachhaltige Entwicklung (siehe Abb. 2) und hat das Potenzial, die globalen Bemühungen zur Gewährleistung einer Bildung für alle zu erreichen. Das UN-Nachhaltigkeitsziel Nr. 4 bezieht sich auf eine „Hochwertige Bildung“. Laut Definition soll eine inklusive, gleichberechtigte und hochwertige Bildung gewährleistet und Möglichkeiten lebenslangen Lernens für alle gefördert werden, unabhängig von Geschlecht, Herkunft oder Behinderung.

Die Nachhaltigkeitsziele der Vereinten Nationen

Abb. 2: Die Nachhaltigkeitsziele der Vereinten Nationen (DGVN, 2024)

Die Studie “The role of artificial intelligence in achieving the Sustainable Development Goals“ (Vinuesa, R. et al., 2020) untersucht den potenziellen Einfluss von KI auf die 17 Nachhaltigkeitsziele der Vereinten Nationen (siehe Abb. 3). Laut der Studie könnten 134 der 169 Unterziele (79%) von der KI profitieren. Auf der anderen Seite gibt es aber auch einen negativen Einfluss der KI auf die Nachhaltigkeit, denn 59 der 169 Unterziele (35%) werden verschlechtert. Insgesamt überwiegt aber der positive Einfluss, jedoch muss der Einsatz von KI und die Art des Einsatzes bereits im Vorfeld genau überlegt werden.

Positive und negative Auswirkungen von KI auf die Nachhaltigkeit

Abb. 3: Positive und negative Auswirkungen von KI auf die Nachhaltigkeit (Vinuesa, R. et al., 2020)

Auch für eine „Hochwertige Bildung“ (Ziel Nr. 4) gibt es laut Abbildung 3 eher Chancen durch den Einsatz von KI.

Fazit

Künstliche Intelligenz und Nachhaltigkeit bedingen sich gegenseitig. Der hohe Energieverbrauch durch KI und ethische Fragestellungen haben einen Einfluss auf die Nachhaltigkeit. Bisher spielen diese Faktoren noch keine übermäßige Rolle in der Weiterbildung. Allerdings darf der Gebrauch von ChatBots wie bspw. ChatGPT gerade unter der jüngeren Bevölkerung nicht unterschätzt werden. Dies wirft Fragen auf, wie in Zukunft Lehr- und Lernformate gestaltet werden sollen.

KI bietet zwar Chancen für die Weiterbildung durch personalisiertes Lernen, eine Effizienzsteigerung und datengetriebenes Lernen. Gleichzeitig birgt sie Gefahren wie Datenschutzprobleme, mögliche Diskriminierung und ethische Dilemmata.

Tendenziell überwiegen jedoch die Vorteile durch KI. KI hat das Potenzial, die Weiterbildung zu revolutionieren, aber es sind sorgfältige Maßnahmen notwendig, um die Risiken zu minimieren und die Vorteile fair und ethisch zu nutzen.

 

Über die Autorin:
Dr. Dina Barbian ist Geschäftsführerin des eco2050 Institut für Nachhaltigkeit, einer Ausgründung der Universität Erlangen-Nürnberg. Sie ist als Beraterin für Unternehmen zu Themen wie Nachhaltigkeitsmanagement, CSR und Klimabilanzierung tätig sowie Autorin von Büchern und Fachartikeln. Als Lehrbeauftragte hält sie Vorlesungen in den Disziplinen Informatik, Ingenieurwesen und Nachhaltigkeit. Die Wirtschaftsingenieurin und promovierte Nachhaltigkeitsökonomin ist DGQ-Trainerin und -Prüferin.

 


Literaturverzeichnis

WCED – World Commission on Environment and Development (1987): Our Common Future, New York

Barbian, D. (2001) Ökonomie und Sustainable Development, Aachen, S. 64

Mertens, P., Barbian, D., Baier, S. (2017) Digitalisierung und Industrie 4.0 – eine Relativierung, Wiesbaden

Matzka, S. (2021) Künstliche Intelligenz in den Ingenieurwissenschaften, Wiesbaden

Spiekermann, S. (2019) Digitale Ethik: Ein Wertesystem für das 21. Jahrhundert, München

Zuboff, S. (2018) Das Zeitalter des Überwachungskapitalismus, Frankfurt am Main / New York

DGVN – Deutsche Gesellschaft für die Vereinten Nationen e.V. (2024), Ziele für Nachhaltige Entwicklung (https://dgvn.de/ziele-fuer-nachhaltige-entwicklung)

Vinuesa, R. et al. (2020): The role of artificial intelligence in achieving the Sustainable Development Goals. NATURE COMMUNICATIONS, S.1-2


 

Grüne Gesundheit: Nachhaltigkeit und Klimaschutz im Gesundheitswesen

Gesundheitswesen, Arzt, Nachhaltigkeit

In den letzten Jahren haben die Themen Nachhaltigkeit und Klimaschutz in nahezu allen Lebensbereichen an Bedeutung gewonnen. Besonders im Gesundheitswesen, einem der größten und ressourcenintensivsten Sektoren, ist die Notwendigkeit für Maßnahmen in Richtung nachhaltigeren Handelns evident. Der Klimawandel hat nicht nur für den Planeten drastische Folgen, sondern auch für die menschliche Gesundheit. Die klimatischen Veränderungen begünstigen die Zunahme von Allergien, Erkrankungen der Atemwege und des Herz-Kreislauf-Systems, sie führen zu steigenden Infektionszahlen und zur Zunahme von psychischen Erkrankungen wie Depressionen. Nachhaltigkeit und Klimaschutz anhaltend in den Fokus des Handelns im Gesundheitswesen zu rücken, ist somit von großer Relevanz.

Doch was bedeutet „Nachhaltigkeit“ und welche Ansätze gibt es, um Gesundheitseinrichtungen wie Krankenhäuser nachhaltiger und das Handeln im Einklang mit den Bemühungen um Klimaneutralität zu gestalten?

Die drei Dimensionen der Nachhaltigkeit

Das Bundesministerium für wirtschaftliche Zusammenarbeit und Entwicklung versteht den Begriff als ethisches Handlungsprinzip, das uns verpflichtet, „die Bedürfnisse der Gegenwart so zu befriedigen, dass die Möglichkeiten zukünftiger Generationen nicht eingeschränkt werden.“ Konkretisiert wird diese recht vage Definition durch das Drei-Säulen-Modell. Die drei Säulen bilden

  1. die Ökologie,
  2. die Ökonomie und
  3. das Soziale.

Der Parlamentarische Beirat für nachhaltige Entwicklung des Bundestages formuliert eine konkretere Handlungsmaxime: „Wir dürfen nicht heute auf Kosten von morgen leben! Wir sollen nicht mehr verbrauchen, als künftig wieder bereitgestellt werden kann.“ Angesichts der massiven Effekte des Klimawandels und den Auswirkungen für zukünftige Generationen liegt der Fokus der Diskussionen um Nachhaltigkeit und nachhaltiges Handeln auf der Säule „Ökologie“.

Nachhaltigkeit und Klimaschutz im Gesundheitswesen: Status Quo

Der Gesundheitssektor in Deutschland ist ein Wirtschaftszweig mit großer ökonomischer Bedeutung und spielt eine zentrale Rolle bei der Gesundheitsversorgung der Bevölkerung. Im Jahr 2022 betrugen die Gesundheitsausgaben in Deutschland 497,7 Milliarden Euro, was etwa 12,8 Prozent des Bruttoinlandsprodukts (BIP) ausmachte. Derzeit arbeiten rund 6 Millionen im Gesundheitswesen. Das entspricht etwa 17,7 Prozent der Gesamtbeschäftigung. Jeder achte Erwerbstätige in Deutschland ist somit in einer Einrichtung des Gesundheitswesens beschäftigt. Die Tendenz ist schon seit Jahren steigend.

Krankenhäuser und andere Gesundheitseinrichtungen verbrauchen global große Mengen an Energie und Wasser, erzeugen erhebliche Mengen an Abfall und emittieren eine Vielzahl von Schadstoffen. Die Bundesärztekammer berichtet mit Verweis auf den „Health care climate footprint report“, dass der Gesundheitssektor mit zwei Gigatonnen CO2 Äquivalent pro Jahr für 4,4 Prozent der globalen Nettoemissionen verantwortlich ist. Zur besseren Einordnung dieser Zahl bietet die Kammer einen anschaulichen Vergleich: „Wäre der globale Gesundheitssektor ein Land, wäre er der fünftgrößte Emittent von Klimagasen im weltweiten Ranking der Länder.“ Das Gesundheitswesen verursacht aktuell gar mehr Schadstoffemissionen als der Flugverkehr oder die Schifffahrt, zu dem Ergebnis kommt das von PwC veröffentlichte Healthcare-Barometer 2022. Mit rund 71 Prozent verursachen Medizinprodukte und die mit ihnen verbundenen Lieferketten den größten Anteil der Emissionen. Mit rund 5 Prozent des Gesamtrohstoffkonsums in Deutschland liegt das Gesundheitswesen auch in diesem Bereich weit vorne.

Die Aktivitäten des Gesundheitswesens tragen somit maßgeblich zur Belastung unseres Klimas und der Umwelt bei. Zugleich bedeutet dies, dass durch das Ergreifen geeigneter Maßnahmen ein signifikanter Beitrag für mehr Nachhaltigkeit und Klimaschutz beleistet werden kann.

Berufsbild Klimaschutzmanager
Kommunen und Unternehmen werden sich zunehmend ihrer Verantwortung für und den Herausforderungen durch den Klimawandel bewusst. Sie suchen daher immer häufiger nach Fachexperten, die sie bei der Umsetzung von Klimaschutzstrategien unterstützen können. Durch ihre Tätigkeit tragen Klimaschutzmanager dazu bei, Treibhausgasemissionen der Unternehmen und Kommunen zu reduzieren. Antworten auf die wichtigsten Fragen finden Sie in unserem Berufsbild zum Klimaschutzmanager:

  • Was ist ein Klimaschutzmanager?
  • Welche Aufgaben betreuen Klimaschutzmanager?
  • Wie werde ich Klimaschutzmanager?
  • Welche Weiter­bildungs­möglich­keiten gibt es?
  • Wie viel verdient ein Klimaschutzmanager?
  • Welche Karrieremöglichkeiten gibt es?

Zum Berufsbild Klimaschutzmanager »

Strategien und Maßnahmen zur Förderung der Nachhaltigkeit und des Klimaschutzes

Welche Maßnahmen sind nun geeignet, um Nachhaltigkeit und Klimaschutz im Gesundheitswesen anhaltend zu verankern? Es gibt eine Vielzahl von teilweise niedrigschwelligen Möglichkeiten und verschiedenen Ansatzpunkte. Um den Unternehmen den ersten Schritt in Richtung Handeln zu erleichtern, hat die Arbeitsgruppe „Klimawandel“ der Bundesärztekammer zehn Handlungsfelder identifiziert und für jedes Empfehlungen erarbeitet.

Die folgende Auflistung soll einen Eindruck vermitteln und einen Überblick geben:

  1. Unternehmensführung, bspw. Etablierung eines Berichtswesens zum CO2-Fußabdruck und zu den ergriffenen Maßnahmen, um den CO2-Ausstoß zu reduzieren.
  2. Energieverbrauch, bspw. Optimierung des Einsatzes von Energie zur Warmwassererzeugung durch Einsatz erneuerbarer Energien und durch Einsatz wassersparender Steuerungsmechanismen
  3. Gebäude und Gelände, bspw. Ausweitung von Grünanlagen inklusive Förderung der Biodiversität, klimaadaptierte Baumpflanzung
  4. Anästhesiegase / Inhaler / chemische Stoffe, bspw. Auffangen des freiwerdenden CO2 durch Filter, Reduktion von Inhalationssprays / Inhaler wo möglich durch Nutzung anderer Darreichungsformen der Medikamente
  5. Wasser, bspw. Minimierung des Wasserverbrauchs durch Sammeln von Regenwasser zur Bewässerung von Gartenanlagen
  6. Abfall, bspw. Reduktion der Verwendung von Einmalprodukten, Umstellung auf Recyclingpapier, Papiervermeidung durch Digitalisierung
  7. Transport, Vermeidung unnötiger Fahrten/Reisen durch Videokonferenzen und -sprechstunden, Teilnahme an Programmen zum Fahrradleasing
  8. Einkauf, bspw. Optimierung der Lieferketten
  9. Ernährung, bspw. vermehrte Nutzung lokaler und saisonaler Produkte für Patienten, Mitarbeiter und Besucher, vermehrt vegetarische Küche
  10. Büro / EDV, bspw. Nachhaltigkeit im Internet bei der Auswahl von Suchmaschinen und E-Mail-Diensten

Selbstredend dürfen die Maßnahmen die Einhaltung medizinischer Standards nicht gefährden. Das Patientenwohl ist nach wie vor das oberste Gut im Gesundheitswesen. In vielen Fällen sind die Maßnahmen zunächst mit Investitionen verbunden. Mittel- und langfristig können die Unternehmen jedoch anhaltend ihre Kosten reduzieren und möglicherweise ihre Prozesse effizienter gestalten.

Die Treiber für mehr Nachhaltigkeit und Klimaschutz im Gesundheitswesen

Die Einführung nachhaltiger Praktiken im Gesundheitswesen wird von einer Vielzahl von Faktoren und Treibern beeinflusst. Sie lassen sich in verschiedene Kategorien einteilen, die alle dazu beitragen, dass der Sektor ökologisch verantwortungsvoller wird.

  • Medizinischer und technologischer Fortschritt:
    Moderne Technologien wie energieeffiziente medizinische Geräte, digitale Gesundheitslösungen und telemedizinische Anwendungen haben nicht nur das Potential, die Qualität von und den Zugang zu Gesundheitsdienstleistungen zu steigern, sondern zugleich den Ressourcenverbrauch drastisch zu senken. Beispielsweise ermöglichen digitale Patientendaten eine effizientere Verwaltung bei verringertem Papierverbrauch.

 

  • Demografische Veränderungen und steigende Gesundheitskosten:
    Die alternde Bevölkerung in vielen Industrieländern führt zu einer erhöhten Nachfrage nach Gesundheitsdienstleistungen. Diese steigende Nachfrage übt Druck auf die Gesundheitssysteme aus und macht effiziente, nachhaltige und kostensensitivere Lösungen notwendig. Nachhaltige Praktiken, die beispielsweise den Energie- und Ressourcenverbrauch reduzieren und Abfall minimieren, tragen wesentlich dazu bei, die Betriebskosten der Einrichtungen zu senken.

 

  • Gesetzliche und regulatorische Anforderungen:
    Regierungen und internationale Organisationen arbeiten stetig an der Umsetzung neuer Vorschriften und Standards und stellen zunehmend strengere Anforderungen an die Einrichtungen des Gesundheitswesens. Die Richtlinie (EU) 2022/2464 zur Nachhaltigkeitsberichterstattung beispielsweise, die am 5. Januar 2023 in Kraft getreten und bis Mitte dieses Jahres in nationales Recht umzusetzen ist, bedeutet für die Unternehmen umfassende Änderungen der Anforderungen hinsichtlich der nichtfinanziellen Berichterstattung.

Die Hürden für mehr Nachhaltigkeit und Klimaschutz im Gesundheitswesen

Während der demografische Wandel, die zunehmende Digitalisierung und der technologische Fortschritt einerseits Treiber für mehr Nachhaltigkeit und Klimaschutz sein können, stellen sie Gesundheitseinrichtungen zugleich vor große Herausforderungen. Viele Häuser schaffen es angesichts der vielfältigen Anforderungen nicht, das in den Trends liegende Potenzial für ihre Organisation zu heben. Zugleich hemmen Entwicklungen wie der Fachkräftemangel die Verankerung von Nachhaltigkeit und Klimaschutz: Ein vom Bundesgesundheitsministerium in Auftrag gegebenes Gutachten nennt zudem die folgenden Faktoren als wesentliche Hemmnisse:

  • Fehlende Anreize und Informationen: Angesichts fehlender monetärer oder regulatorischer Anreize entscheiden sich Unternehmen oft, sich nicht mit der Umsetzung von Maßnahmen zu beschäftigen. Zugleich fehlen in vielen Fällen Informationen zur Finanzierung von Nachhaltigkeitsmaßnahmen.

 

  • Organisatorische Einschränkungen: Belange der Nachhaltigkeit werden in der Regel nicht im Management thematisiert und sind nur wenig in den Leitungsebenen der Unternehmen verankert.

 

  • Ressourcenmangel: Es mangelt den Einrichtungen an Zeit, Geld und Personal.

Fazit

Wenngleich es praxistaugliche und teils niedrigschwellige Ansatzpunkte gibt, wird im Gesundheitswesen aktuell zu wenig Gewicht auf nachhaltige Praktiken gelegt. Um Nachhaltigkeit dauerhaft in den Prozessen zu verankern, bedarf es weiterer Impulse und regulatorischer Vorgaben, sowie der Platzierung des Themas auf Leitungsebene. Die Effekte des Klimawandels werden zunehmend deutlich. Die Bedrohungen für Gesellschaft und Umwelt betreffen alle. Jeder Akteur steht in der Pflicht, einen Beitrag zu leisten. Diese Sicht teilt auch die Ärzteschaft. Der 125. Deutsche Ärztetag konstatierte die Notwendigkeit einer nationalen Strategie für eine klimafreundliche Gesundheitsversorgung und fordert Klimaneutralität bis 2030. An geeigneten Maßnahmen fehlt es nicht. Seitens der Politik bedarf es jedoch der Schaffung der notwendigen Rahmenbedingungen und seitens der Unternehmen des Umsetzungswillens. So oder so, die Effekte des Klimawandels werden sich auch in Zukunft zunehmend verschärfen und die Menschen begleiten.

 

Über die Autorin:
Nathalie Roskaritz ist Produktmanagerin und in der DGQ Weiterbildung für die Angebote im Bereich Qualitätsmanagement im Gesundheits- und Sozialwesen verantwortlich.

Änderung der Gesundheits-Versorgung ohne Pflegeperspektive

KHVG-Gesetz, Krankenhausreform, Versorgung

Das Gesetz zur Verbesserung der Versorgungsqualität im Krankenhaus und zur Reform der Vergütungsstrukturen (KHVVG) findet große öffentliche Aufmerksamkeit. Die Bundesregierung ist angetreten, mit dieser Initiative die Weichen für die Bewältigung massiver Herausforderungen im Gesundheitssystem zu stellen. Gleichzeitig soll die in Deutschland vergleichsweise hohe Qualität der Krankenhausversorgung erhalten bleiben. Dabei benennt das Gesetz auch den besonderen Stellenwert der Pflege.

Traditionelles Denkmodell

Nach der einleitenden Nennung der Pflege als wichtigem Garanten für die Qualität der Versorgung, fällt sie anschließend in Bezug auf die gesetzlichen Regelungen zurück. Es werden nur noch medizinische Verbesserungen aufgeführt, obwohl es dem Namen nach um die „medizinisch-pflegerische“ Versorgung geht.

Die Perspektive des Gesetzgebers ist vielmehr ausschließlich die der Medizin. Das macht unter anderem die neue Finanzierungssystematik deutlich. Denn die begrüßenswerte Einführung von Leistungsgruppen umfasst ausschließlich medizinische Behandlungen. Entsprechend müssten sie eigentlich medizinische Leistungsgruppen heißen. Die pflegerischen Leistungsprozesse werden – der Denk-Tradition einer überlagernden Disziplin Medizin folgend – in dem Finanzierungssystem quasi als Anhängsel ärztlicher Tätigkeit betrachtet und nicht angesprochen.

Die medizinische Sichtweise spiegelt sich in der Wortwahl. Zum Beispiel ist mit ambulanter Versorgung die medizinische Infrastruktur außerhalb des Krankenhauses gemeint – und nicht pflegerische Leistungen in der Häuslichkeit nach der Pflegeversicherung. Die engere Verzahnung der stationären und der ambulanten Versorgung ist in der Medizin den großen Herausforderungen an dieser Schnittstelle geschuldet und ein unausweichliches Gebot.

Qualität der Pflege nicht im Fokus

Das träfe in der Tat genauso für die Pflege zu, sowohl beim Übergang vom Krankenhaus zur ambulanten Pflege in der Häuslichkeit, als auch an der Schnittstelle zwischen häuslicher Pflege und Heim. Dass dies umgekehrt eine Wirkung auf die medizinische Leistungsqualität hat, belegen die Versorgungslücken mit Drehtüreffekt zwischen Krankenhaus und Langzeitpflege. Das Gesetz nimmt darauf auch Bezug, indem interdisziplinäre und interprofessionelle Chancen insbesondere im Entlassungsfall erwähnt werden.

Aber es gibt keine konkreten Anreize, diese Verzahnung zwischen Medizin und Pflege auf Augenhöhe zu fördern und die Verantwortung der Pflege an dieser Schnittstelle zu stärken. Zwar lässt der Gesetzgeber mit dem Vorschlag, bestimmte Krankenhäuser zu sogenannten sektorenübergreifenden Versorgungseinrichtungen zu entwickeln, auch die Leistungserbringung von Kliniken aus der Pflegeversicherung zu. Medizinisch-pflegerische Behandlung soll dort aber nach wie vor auf ärztliche Anordnung nur zum Ziele der Absicherung einer medizinischen Therapie stattfinden.

Auch an dieser Stelle zeigt sich, dass eine pflegerische Perspektive fehlt und der entsprechende fachliche Diskurs keine Berücksichtigung findet. Der konzentriert sich nämlich in den letzten Jahren pflegesektorenübergreifend auf die personenzentrierte Pflege. Die spielt auch im Krankenhaus eine wichtige Rolle, wenn Menschen nicht allein auf die somatischen Defizite reduziert werden, sondern pflegerisches Handeln soziale, psychische und körperliche Dimensionen gleichermaßen einbezieht.

Wichtige Bedarfe von Patient:innen und Pflegenden bleiben unberücksichtigt

Außerdem liegt das Augenmerk im KHVVG klar auf Struktur- und Prozess-Merkmalen. Die sind sehr wichtig, wenn es zum Beispiel um die personelle und technische Ausstattung von Kliniken geht, die komplexe Leistungen anbieten. Für Patient:innen wäre aber wohl eine transparente Darstellung der Ergebnisqualität wünschenswert. Denn nicht allein die Quantität der vorgehaltenen Ressourcen entscheidet über die Qualität der Leistungen. Vielmehr gibt es für Klient:innen und Patient:innen viele Kriterien, die in der Summe ein gutes Outcome liefern. Doch dieses Projekt mit der Darstellung medizinischer Behandlungsergebnisse ist bis auf weiteres verschoben.

Eine der Achillesfersen der Krankenhausfinanzierung ist die Auslastung, die wiederum Hand in Hand geht mit den Personalvorgaben im Pflegebereich. Hier ergibt sich keine wesentliche Änderung, die zu einer Steigerung der Attraktivität des Arbeitsplatzes Krankenhaus für Pflegekräfte führen würde und so dazu beitragen könnte, das Auslastungspotenzial zu verbessern.

Im Gegenteil kann nur gemutmaßt werden: Mit der Verringerung der Anzahl an Krankenhäusern durch das KHVVG sollen Kräfte freigesetzt werden, die den demografiebedingt größeren Pflegepersonalbedarf in den verbliebenen Kliniken decken sollen. Dazu wäre unter anderem zusätzlich eine Ausbildungsoffensive erforderlich, um die veränderten Qualifikations-Bedarfe durch die Konzentration von Leistungen an bestimmten Orten aufzufangen.

Kein Empowerment für die Qualität der Pflege

In der Summe ist das KHVVG aus Sicht der Qualität der pflegerischen Versorgung ernüchternd. Die Versorgungsperspektive ist medizinisch, Indikatoren für die Ergebnisqualität werden nicht neu geregelt, eine Förderung der disziplin- und sektorenübergreifenden Leistungserbringung unter besonderer Berücksichtigung der Pflege findet nicht statt. Hier werden Potenziale der Reform verschenkt. Für Pflegepersonal ergeben sich außerdem Standort- und Qualifikationsfragen, die eine veränderte Krankenhausstruktur mit weniger Kliniken und größerer Spezialisierung mit sich bringen. Entsprechende Entwicklungs-Anreize lässt das Gesetz vermissen.

 

Über den Autor:
Holger Dudel ist Fachreferent Pflege der DGQ. Er ist gelernter Krankenpfleger und studierter Pflegepädagoge und Pflegewissenschaftler. Er hat zuvor Leitungsfunktionen bei privaten, kommunalen und freigemeinnützigen Trägern der Langzeitpflege auf Bundesebene innegehabt. Qualität im Sozialwesen bedeutet für ihn, dass neben objektiver Evidenz auch das „Subjektive“, Haltung und Beziehung ihren Platz haben.

Automatisierte Oberflächeninspektion dank industrieller Bildverarbeitung – welche Möglichkeiten gibt es?

Eine Person kontrolliert Medikamentflaschen auf einem Rollband.

Ein feiner Riss, eine abgebrochene Ecke, eine verfärbte Stelle – und es winkt die kostspielige Reklamation. Oberflächen sind der erste Kontaktpunkt zwischen einem Produkt und einem Kunden. Bereits kleinste Makel stören das Gesamtbild und beeinträchtigen die Kundenzufriedenheit. Neben ästhetischen Aspekten wirken sich viele Fehler auf die Funktionalität eines Produktes aus und reduzieren dessen Lebensdauer. Die Inspektion von Oberflächen bildet daher einen unverzichtbaren Bestandteil der Qualitätsprüfung.

Warum die manuelle Oberflächeninspektion an ihre Grenzen stößt

Oberflächenfehler sind vielfältig. Verschmutzungen und Verfärbungen entstehen oft durch Kontaminationen während der Produktion. Beim Gießen von Kunststoff oder Beton führen Verdichtungsfehler zu Lunkern im Material. Kratzer entstehen durch Reibung mit Schmutzpartikeln, während Risse unter anderem durch Spannungskonzentrationen oder hohe Temperaturen auftreten.

Automatisierte Risserkennung auf Beton Automatisierte Risserkennung auf Beton
Abb. 1: Automatisierte Risserkennung auf Beton (© IDS Imaging Development Systems GmbH) Abb. 2: Automatisierte Risserkennung auf Beton (© IDS Imaging Development Systems GmbH)

 

Unterschiedliche Werkstoffe bringen zusätzliche Herausforderungen mit sich. Spiegelnde Materialien wie Metalle, Lack und Glas erzeugen je nach Lichteinfall unterschiedliche Reflexionen, die Oberflächenfehler leicht tarnen. Gekrümmte Objekte erschweren es, alle Winkel zuverlässig zu inspizieren.

Weitere Schwierigkeiten sind komplexe oder sehr kleine Fehler, die mit bloßem Auge kaum erkennbar sind. Hohe Stückzahlen pro Tag machen die Oberflächeninspektion zu einer monotonen Tätigkeit, bei der Konzentrationsschwächen auftreten können. All diese Aspekte gestalten eine manuelle Inspektion fehleranfällig.

Bildverarbeitungslösungen machen unsichtbare Fehler sichtbar

Ob hundert oder tausend Teile – eine maschinelle Prüfung führt Oberflächenprüfungen zuverlässig durch und erzielt reproduzierbare Ergebnisse. Dafür werden Industriekameras beispielsweise über Förderbändern installiert. Die Kameras erzeugen hochauflösende Bilder der Objekte, die im Anschluss von einer Bildverarbeitungssoftware analysiert werden. Klassische Bildverarbeitung arbeitet mit vordefinierten Regeln und Algorithmen. Auf dieser Basis untersuchen Kameras Objekte Pixel für Pixel. Die Bildverarbeitungssoftware extrahiert Merkmale aus den Bildern und analysiert, ob sie mit den festgelegten Regeln übereinstimmen. Im Gegensatz zum menschlichen Auge ermöglicht die Bildverarbeitung eine kontinuierliche Überwachung aus verschiedenen Blickwinkeln und erkennt selbst mikroskopisch kleine Abweichungen vom Soll-Zustand.

Noch flexibler dank künstlicher Intelligenz

Viele Bildverarbeitungslösungen nutzen heutzutage künstliche Intelligenz (KI). Diese lernt, ähnlich wie ein Mensch, anhand von Bildern und Merkmalen, wie der gewünschte Zustand der zu prüfenden Objekte aussieht. Nach der Trainingseinheit ist sie in der Lage, unter verschiedenen Bedingungen flexibel zu agieren und eigenständig Rückschlüsse zu ziehen.

Bei unterschiedlichem Lichteinfall nimmt die künstliche Intelligenz beispielsweise automatische Beleuchtungskorrekturen vor und passt sich an neue Reflexionsmuster an. Des Weiteren besitzt ein Bildverarbeitungssystem mit künstlicher Intelligenz Stärken bei der Analyse von organischem Material, das in Form, Farbe und Struktur variiert. Früchte, Pflanzen und Menschen sehen immer unterschiedlich aus, weshalb keine Regeln vorprogrammiert werden können. Eine KI kann hingegen auch verschieden große Eier analysieren oder Gesichter voneinander unterscheiden.

Prüfung des Zustands von Eiern im Karton Anomalieerkennung bei Pflanzen mit der IDS NXT
Abb. 3: Prüfung des Zustands von Eiern im Karton (© IDS Imaging Development Systems GmbH) Abb. 4: Anomalieerkennung bei Pflanzen mit der IDS NXT (© IDS Imaging Development Systems GmbH)

Von der Schweißnahtprüfung bis zur Reifegradbestimmung

Die Arbeitsweise der Bildverarbeitungslösungen kann überall eingesetzt werden, wo optische Qualitätskontrollen notwendig sind. Klassische Branchen und Beispiele sind:

  • Automobilindustrie:
    Lackkontrolle und Bauteilinspektion
  • Bauindustrie:
    Schweißnahtkontrolle, Lunkererkennung in Beton- und Metalloberflächen, Kratzer- und Risserkennung in Fassaden, Fenstern und Türen
  • Kunststoffindustrie:
    Kontrolle von Kunststoffteilen, Qualitätsprüfung von Spritzguss und Gusserzeugnissen
  • Elektroindustrie:
    Defekterkennung an Leiterplatten, elektronischen Bauteilen und Gehäusen
  • Pharmaindustrie:
    Inspektion von Tabletten sowie deren Verpackungen auf Beschädigungen oder Verunreinigungen, Etikettenkontrolle
  • Lebensmittelindustrie:
    Pflanzenkrankheiten erkennen, Reifegradbestimmung von Obst und Gemüse
Reifegradbestimmung von Erdbeeren mit der IDS NXT Kontrolle und Vermessung von Schweißnähten
Abb. 5: Reifegradbestimmung von Erdbeeren mit der IDS NXT (© IDS Imaging Development Systems GmbH) Abb. 6: Kontrolle und Vermessung von Schweißnähten (© IDS Imaging Development Systems GmbH)

 

Viele Industriekamerahersteller bieten heutzutage Bildverarbeitungslösungen für verschiedene Anwendungsfälle an. Des Weiteren hat sich der Marktplatz visionpier etabliert, auf dem sich über 120 Anwendungen befinden. Diese lassen sich in wenigen Schritten anfragen und auf individuelle Herausforderungen anpassen, ohne das eigene Kenntnisse in der industriellen Bildverarbeitung notwendig sind.

Zusammengefasst

Die automatisierte Oberflächeninspektion mithilfe industrieller Bildverarbeitung bietet präzise und zuverlässige Lösungen zur Erkennung selbst kleinster Fehler. Sie löst die Herausforderungen der manuellen Kontrolle und stellt sicher, dass Produkte höchste Qualitätsstandards erfüllen. Je nach Anwendungsfall kommt künstliche Intelligenz zum Einsatz, wodurch Anwendungen noch flexibler auf unterschiedliche Situationen reagieren können. Bildverarbeitungslösungen vereinen Hardware, Software und Integration, wodurch Unternehmen niederschwelligen Zugang zu zukunftsweisenden Technologien erhalten und wertvolle Entwicklungszeit sparen.

 

Über die Autorin:
Jacqueline Krauß arbeitet bei IDS Imaging Development Systems GmbH, einem langjährigen Mitglied der DGQ. IDS ist führender Industriekamerahersteller und Pionier in der industriellen Bildverarbeitung. Das Unternehmen mit Sitz in Obersulm, Baden-Württemberg, entwickelt 2D- und 3D-Kameras sowie Modelle mit künstlicher Intelligenz. Das nahezu unbegrenzte Anwendungsspektrum der Kameras erstreckt sich über verschiedenste nicht-industrielle sowie industrielle Branchen des Geräte , Anlagen- und Maschinenbaus. Mit dem Marktplatz visionpier bietet IDS Zugang zu über 120 Bildverarbeitungslösungen.

Die digitale Transformation in akkreditierten Laboren: Aktueller Stand, Herausforderungen und Chancen, Teil 1

Labor, Probe

Die Digitalisierung ist in aller Munde und macht auch vor den Laboren nicht Halt. Immer mehr Finanztöpfe werden für die digitale Transformation bereitgestellt, immer mehr Budgets freigegeben.

Aber wie ist der aktuelle Stand in den akkreditierten Laboren? Welche Hindernisse blockieren die digitale Transformation? Und welche Möglichkeiten eröffnen sich zum Beispiel durch generative KI? Gibt es das Labor 4.0 schon? Diese Fragen werden im Rahmen dieses Artikels und des zweiten Teils erörtert.

Das VUP-Konjunkturbarometer, welches vom VUP Deutscher Verband Unabhängiger Prüflaboratorien e.V. herausgegeben wird, vom November 2023 zeigt: Der Bereich IT und Digitalisierung hält mit 0,5 sein positives Niveau und trotzt der Krisensituation, obwohl in den akkreditierten Laboren in vielen Bereichen weniger investiert wird. Die Laborbranche investiert damit ganz gezielt in Zukunftstechnologien. Auch die QZ (Ausgabe 5/24) beschreibt in einem Artikel, dass die Investitionen für KI 2024 im Durchschnitt um 30 Prozent erhöht wurden. Die Labore richten hohe Erwartungen an die Digitalisierung hinsichtlich Effizienzsteigerung und Ausweitung der Geschäftsfelder. Doch laut einer aktuellen Horváth-Studie drohen diese Investitionen in vielen Unternehmen aufgrund fehlender Voraussetzungen ohne Mehrwert zu versickern.

Aktueller Stand in verschiedenen Laborarten

Der digitale Reifegrad in den verschiedenen akkreditierten Laboren ist sehr unterschiedlich und wird insbesondere bei der Betrachtung verschiedener Laborbereiche deutlich. In den technischen Laborsparten, beispielsweise im Automotive-Bereich, ist die Digitalisierung bereits wesentlich weiter fortgeschritten als in den medizinischen Laboren. Die Akkreditierungsanforderungen bezüglich der Informationssicherheit sind jedoch annähernd gleich. Viele Qualitätsmanagementsysteme (QMS) der medizinischen Labore sind noch sehr oder ausschließlich papierbasiert aufgebaut. Oft hört man die Aussage: „Weil wir das schon immer so gemacht haben.“ Dass diese Labore trotz ihres papierbasiertem QMS, das nicht mehr dem „Stand der Technik“ entspricht, ihre Akkreditierung erfolgreich bestehen, verstärkt diese Haltung zusätzlich. Warum das ganze Managementsystem ändern und hierfür viel Geld, Zeit und Ressourcen in die Hand nehmen, wenn die Akkreditierungsstellen dies nicht explizit fordern? Der Vorteil der digitalen Transformation ist für die Labore nicht deutlich genug. Zusätzlich ist der Gegenwind durch die Mitarbeitende für diesen ausgeprägten Change-Prozess häufig sehr hoch.

Labore, die beispielsweise als interne Qualitätssicherungslabore in innovativen und modernen Unternehmen verankert sind, etwa in der Werkstoff-, oder Materialprüfung, pflegen oft gleichfalls moderne und agile Prozesse. Die Mitarbeitenden sind an Veränderungen und Innovationen gewöhnt und gelten als resilienter und flexibler als Mitarbeitende in sehr konservativen Laborsparten.

Bei der Beurteilung der Automatisierung und Digitalisierung muss jedoch grundsätzlich zwischen dem Probendurchlauf, das heißt dem Laborprozess zur Probenbearbeitung und dem nach DIN EN ISO/IEC 17025 oder DIN EN ISO 15189 aufgebauten Managementsystem für die Aufrechterhaltung der Akkreditierung unterschieden werden.

Der Probenbearbeitungsprozess wird durch sogenannte Laborinformationsmanagementsysteme, abgekürzt LIMS, automatisiert und digitalisiert. Besonders bei sehr hohen Probenzahlen steigt der Automatisierungsgrad des Laborprozesses proportional und LIMS werden häufiger implementiert. Da medizinische Labore häufig hohe Probenzahlen untersuchen, nutzen medizinische Labore oft elektronische LIMS für die automatisierte Bearbeitung der Proben und die Anbindung der Geräte für die elektronische Ergebnisübertragung.

In den Prüf- und Kalibrierlaboren, die nach DIN EN ISO/IEC 17025 akkreditiert sind, werden regelmäßig weniger Proben getestet und LIMS sind seltener anzutreffen. Das heißt, speziell für den Laborprozess ist der digitale Automatisierungsreifegrad bei den Prüf- und Kalibrierlaboren und den technischen Laborsparten weniger ausgeprägt als bei den medizinischen Laboren.

Auf Ebene der Qualitätsmanagementsysteme nach DIN EN ISO/IEC 17025 und DIN EN ISO 15189 sehen wir ein gegenteiliges Bild. Medizinische Labore pflegen oft ein papierlastiges Managementsystem, wobei die Prüf- und Kalibrierlabore tendenziell stärker, zum Beispiel durch CAQ Systeme oder SharePoint digitalisiert sind. Ein Großteil der Labore unterhält momentan noch ein Hybridsystem aus Papierdokumenten und elektronischen Dokumenten.

Digitalisierung ist also nicht gleich Digitalisierung. Die Labore müssen sich fragen, welche Prozesse ihr „Nadelöhr“ sind, in welche Prozesse unverhältnismäßig viele Ressourcen und Kapazitäten fließen. In welchen Bereichen müssen sie effizienter, schneller und sicherer werden? Welchen Risiken unterliegen ihre Prozesse? Mancherorts werden etwa veraltete, nicht mehr unterstützte Systeme und MS Access Datenbanken genutzt, die nur von einer Person im Unternehmen verwaltet werden können. Was passiert mit diesen Prozessen, wenn diese Person ausfällt? Die Auswirkung für das Labor ist ähnlich einem Cyber-Angriff – der Stillstand aller Testungen und Prozesse.

Digitaler Umstellungsprozess in den akkreditierten Laboren

Die Umstellung von analogen zu digitalen Prozessen erfolgt in den Laboren in unterschiedlichen Stufen. Ausgedruckte Papierdokumente werden durch Excel- und Word-Dokumente ersetzt. Diese werden nicht mehr ausgedruckt, sondern digital gepflegt, gegebenenfalls mit elektronischen Unterschriften versehen und in den Audits und Begutachtungen digital präsentiert.

Der nächste Reifeschritt ist der Ersatz dieser Dokumente durch kommerzielle Softwaresysteme und Datenbanken oder -sätze, wie zum Beispiel CAQ, SharePoint für die Dokumentenlenkung, Pflege und Ablage.

Die Königsdisziplin ist eine kommerzielle Softwarelösung, auch „Software as a Service“ genannt (SaaS), die bereits bei der Auslieferung alle Akkreditierungsanforderungen erfüllt und schnell, also ohne großes Softwareimplementierungsprojekt, gestartet werden kann. Diese SaaS Lösungen, wie zum Beispiel 17025_SaaS von AUDITTRAILS Networks, sind seit wenigen Jahren für die Labore käuflich zu erwerben und bilden über Datensätze die kompletten Akkreditierungsanforderungen ab. Zum Aufbau eines Managementsystems muss auf diesem Wege nicht alles eigenständig erarbeitet werden. Die Labore können sich sicher sein, dass sie alle Akkreditierungsanforderungen erfüllen.

Selbsteinschätzung der Labore zum vorliegenden Digitalisierungsstand

Was sagen die Labore selbst über den Grad ihrer Digitalisierung? Welche Prozesse wurden bereits digitalisiert? Eine QI-FoKus-Studie von 2024, die in Zusammenarbeit mit der BAM erstellt wurde, befragte über 1.300 internationale Labore zu Digitalisierungsthemen.

Selbsteinschätzung des Digitalisierungsstandes der KBS in verschiedenen Bereichen

Abb. 1: Selbsteinschätzung des Digitalisierungsstandes der KBS in verschiedenen Bereichen. Quelle: QI-FoKus-Studie 2024 zur Digitalisierung in der Konformitätsbewertung: Ein internationaler Vergleich

Die Studie ergab, dass hauptsächlich die Übermittlung der Prüfergebnisse an die Kunden digital erfolgt.

Auch wurde festgestellt, dass Digitalisierung häufig erst in den letzten Jahren für die Labore relevant wurde. Jede zweite Konformitätsbewertungsstelle, unter anderem Labore, hat erst in den letzten 5 Jahren begonnen, sich mit der digitalen Transformation zu beschäftigen. Nur 20 Prozent haben dies bereits vor 10 Jahren getan.

Stand und Ausmaß der Digitalisierung in den KBS. Quelle: QI-FoKus-Studie 2024 zur Digitalisierung in der Konformitätsbewertung: Ein internationaler Vergleich Von der Digitalisierung betroffene Bereiche
Abb. 2: Stand und Ausmaß der Digitalisierung in den KBS. Quelle: QI-FoKus-Studie 2024 zur Digitalisierung in der Konformitätsbewertung: Ein internationaler Vergleich  Abb. 3: Von der Digitalisierung betroffene Bereiche. Quelle: QI-FoKus-Studie 2024 zur Digitalisierung in der Konformitätsbewertung: Ein internationaler Vergleich 

International haben nur 18 Prozent der Labore die Digitalisierung in das gesamte Labor integriert. Die meisten Digitalisierungsaktivitäten betreffen interne Prozesse, gefolgt von verbesserter Kommunikation. Nur in geringerem Ausmaß unterstützt die Digitalisierung jedoch die Erweiterung und Verbesserung der klassischen Labor-Tätigkeiten.

echnologien, die genutzt werden oder deren Nutzung geplant ist.

Abb. 3: Technologien, die genutzt werden oder deren Nutzung geplant ist. Quelle: QI-FoKus-Studie 2024 zur Digitalisierung in der Konformitätsbewertung: Ein internationaler Vergleich

Die neuesten digitalen Technologien, wie Blockchain, KI, Virtual Reality und Big Data Analytics werden nur in geringem Ausmaß in den akkreditierten Laboren eingesetzt. Regelmäßig zum Einsatz kommen bereits Mobile Technologien, Cloud-Computing-Technologien und eingebettete IT-Systeme. Auch Technologien und Anwendungen für Remote-Verfahren wie Videokonferenzsysteme und Chats sind fest im Alltagsgeschäft der Unternehmen verankert. Sie werden von 60 Prozent der befragten Unternehmen genutzt.

Technologien und Anwendungen für Remote-Verfahren

Abb. 4: Technologien und Anwendungen für Remote-Verfahren. Quelle: QI-FoKus-Studie 2024 zur Digitalisierung in der Konformitätsbewertung: Ein internationaler Vergleich

45 Prozent nutzen sie auch für ihre Audits. Als größte Hürden und Probleme bei den eingesetzten Remote-Methoden werden die mangelnde zwischenmenschliche Interaktion und Risiken bezüglich des Datenschutzes und der Informationssicherheit gesehen.

Mehr als die Hälfte der akkreditierten Routineprozesse wurden in 69 Prozent der internationalen Labore digitalisiert. 13 Prozent der Labore haben dagegen nicht einmal 10 Prozent ihrer Labortätigkeiten digitalisiert.

Zusammenfassung des aktuellen Standes der Digitalisierung in akkreditierten Laboren

In den letzten Jahren hat die Digitalisierung in diesen Laboren stark zugenommen. Die Fortschritte sind:

  • Laborinformationssysteme (LIMS):
    LIMS ermöglichen es, akkreditierten Laboren, die Probenbearbeitung und -verwaltung, die Datenverarbeitung sowie den gesamten Laborbetrieb automatisiert und digital abzubilden. Anfangs wurden diese Systeme häufig durch die eigene IT-Abteilung entwickelt. In den letzten Jahren wurden diese System wegen der gestiegenen Akkreditierungsanforderungen durch kommerzielle LIMS-Lösungen ersetzt.
  • Automatisierung von Prozessen:
    Fortschrittliche Analysegeräte und Sensoren automatisieren die Datenerfassung und -analyse, was zu einer erhöhten Effizienz und Genauigkeit führt. Dies ist besonders wichtig für akkreditierte Labore, da die Genauigkeit und Reproduzierbarkeit der Ergebnisse von entscheidender Bedeutung sind. Besonders die Anbindung der Geräte an die Server führen durch die automatisierte Rohdaten- und Ergebnisübertragung zu enormen Effizienzsteigerungen und Fehlerreduzierungen. Auch die digitale Übertragung der Prüfergebnisse und Prüfberichte an die Kunden führt zu einem enormen Effizienzgewinn.
  • Datenmanagement und -sicherheit:
    Die Nutzung von Cloud-Computing und Big-Data-Analyse ermöglicht es akkreditierten Laboren, große Datenmengen effizient und sicher zu speichern, zu verarbeiten und zu analysieren. Gleichzeitig wird die Sicherheit sensibler Daten gewährleistet. Diese Methodiken werden momentan in den internationalen Laboren noch nicht ausreichend genutzt.
  • Remote-Techniken:
    Seit 2020 setzen Labore vermehrt Remote-Techniken für die Tätigkeiten und Kommunikationsabläufe in den Laboren ein. Videokonferenzsysteme stellen das am häufigsten verwendete Tool für die Remote-Arbeit dar, gefolgt von digitaler Kommunikation (Chat).

 

Über die Autorin
Susanne Kolb ist Geschäftsführerin der Laborberatungsfirma LaborConsultingGenius GmbH und berät seit über 10 Jahren alle Branchen von Prüf-, Kalibrier- und medizinischen Laboren bei Akkreditierungsprojekten nach DIN EN ISO/IEC 17025 und DIN EN ISO 15189. Zusätzlich war sie fast 10 Jahre leitende DAkkS Systembegutachterin und Fachbegutachterin und ist seit Jahren Trainerin und Prüferin des DGQ-Zertifikats Labormanagement.


Literaturverzeichnis

Koch, C., Ladu, L (2022). QI-FoKuS-Studie in Zusammenarbeit mit der BAM, Auswirkungen der Corona-Pandemie auf Konformitätsbewertung und Konformitätsbewertungsstellen in Deutschland (qi-digital.de)
Koch, C., Ladu, L (2024, März). QI-FoKuS-Studie in Zusammenarbeit mit der BAM (www.bam.de)
Frenzl, A. (2024, 26.März). Blogbeitrag: Moderne Managementsysteme – AUDITTRAILS Networks GmbH
Zeitschrift Laborpraxis 2024 : Dossier – Digitalisierung im Labor
VUP-Konjunkturbarometer, November 2023 (VUP – Verband unabhängiger Prüflabore)
Zeitschrift QZ 5/24, Seite 7, KI ist der Managementhype 2024 – und eine Investment-Falle, Hanser Verlag, Herausgeber DGQ
April 2024, DIALOGPROZESS „DIGITALE QI IN PRÜF- UND KALIBRIERLABOREN – VOM TREND ZUM TAGESGESCHÄFT“ Zentrale Erkenntnisse aus den Praxiswerkstätten #1 und #2


DGQ-Vortrag zu Digitalisierung: Zusammenspiel von Software, Hardware und Mensch im Blick

Qualitätsmanagement (QM) und Qualitätssicherung (QS) hinken derzeit digital noch hinterher: Das ist eine der Erkenntnisse aus dem Vortrag von Dr. Benedikt Sommerhoff, Leiter des Research Teams bei der DGQ, auf dem „Quality Day Software“ des Fachmagazins Quality Engineering. Unter dem Titel „Software, Hardware, Wetware – Alle(s) für die Qualität“ erörterte Sommerhoff als Keynote-Speaker unter anderem, worauf Unternehmen auf dem Weg in die Digitalisierung von Qualitätsmanagement (QM) und Qualitätssicherung (QS) achten sollten. Dabei stand insbesondere das Zusammenspiel von Software, Hardware und dem Menschen in Zeiten der beschleunigten Digitalisierung im Fokus.

Potenziale bewusst nutzen

In seinem Vortrag fokussierte sich Sommerhoff darauf, mit den Teilnehmerinnen und Teilnehmern ein gemeinsames Verständnis von Digitalisierung und ihres Potenzials zu erreichen sowie den unterschiedlichen Charakter von Soft- und Hardware zu vermitteln. Auch der Identifikation von Use Cases bei Software/Digitalisierung in und für QS und QM kam eine große Rolle zu sowie dem Ziel, Digitalisierung als Zusammenspiel von Software, Hardware und Mensch zu erkennen. Letzteres führte Sommerhoff zu der Fragestellung, wie dieses Zusammenspiel künftig die Rollen der Beteiligten verändern werde: Dabei sei mittlerweile insbesondere auch zu bedenken, wie Qualitätsverantwortliche in der Zukunft mit Künstlicher Intelligenz (KI) zusammenarbeiten werden. Sommerhoffs Appell: Organisationen sollten die Interaktion mit der KI bewusst und aktiv begleiten, und das auf Basis realistischer organisationsspezifischer Zielvorstellungen.

Interessierte können sich die Aufzeichnung des Vortrags hier anschauen:

Webinar Quality Days, Quality Engineering

© Quality Engineering/ Konradin-Verlag Robert Kohlhammer GmbH

Neue Anforderungen für KI in Unternehmen: Die EU-KI-Gesetzgebung und ihre Auswirkungen auf das Qualitätswesen

QM und die künstliche Intelligenz

Künstliche Intelligenz (KI) durchdringt immer mehr Bereiche des täglichen Lebens und der Arbeit. Lange Zeit war künstliche Intelligenz nur für Entwicklungs- und Technologiebereiche interessant. In den letzten Monaten lässt sich beobachten, dass KI immer mehr auch zum Qualitätsthema wird. Überall dort, wo KI eingesetzt wird, um Kundenbedürfnisse zu erfüllen, wird sie auch Gegenstand des Qualitätsmanagements. Viele Unternehmen nutzen KI bereits in ihren Produkten, in ihren Herstellungsprozessen oder im Kundensupport. Auf diese Unternehmen kommen nun neue Anforderungen zu. Dieser Artikel ist Teil einer Serie. Der erste Teil möchte die Leser mit grundsätzlichen Qualitätsanforderungen an KI-Systeme in der aktuellen Rechtslage vertraut machen. Der Beitrag zeigt die großen Parallelen zwischen dem EU-KI-Gesetz und QM-Methoden. Folgende Artikel werden sich mit unterschiedlichen Aspekten wie KI-Absicherung und KI-Zertifizierung auseinandersetzen.

Die EU hat im Dezember 2023 das EU-KI-Gesetz verabschiedet, welches seit April 2024 in überarbeiteter Form vorliegt. Dieses Gesetz definiert Anforderungen für den Betrieb von KI-Systemen in der Europäischen Union und schafft einen einheitlichen gesetzlichen Rahmen für Hersteller und Betreiber. Die EU-KI-Gesetzgebung bewertet KI-Systeme nach einem risikobasierten Ansatz, der starke Ähnlichkeit mit bestehenden Management-Systemen wie ISO 9001 oder ISO 14001 aufweist.

KI-Anwendungen mit unzulässigen Risiken

Abbildung 1 zeigt die vier Risikokategorien für KI-Systeme gemäß EU-KI-Gesetz. Die Einstufung in eine Risikokategorie ergibt sich im Wesentlichen aus den möglichen Auswirkungen auf interessierte Parteien wie Nutzer, die Gesellschaft als Ganzes oder die Umwelt. Das KI-Gesetz verwendet den Ausdruck interessierte Partei dabei nicht. Die oberste Kategorie bezeichnet KI-Anwendungen mit unzulässigen Risiken. Beispiele hierfür sind Social-scoring-Systeme, die dazu gedacht sind, das Verhalten von Menschen zu beeinflussen. Der Betrieb solcher Systeme ist in der EU nach Ablauf einer sechsmonatigen Übergangsfrist untersagt.

Risikokategorien des EU-KI-Gesetzes mit Beispielen

Abb. 1: Risikokategorien des EU-KI-Gesetzes mit Beispielen

KI-Systeme mit hohem Risiko

Die zweithöchste Kategorie sind KI-Systeme mit hohem Risiko. Allgemein fallen in diese Kategorie Systeme, die funktionale Sicherheitsanforderungen haben (zum Beispiel in der medizinischen Diagnostik oder dem Straßenverkehr) oder die persönlichen und wirtschaftlichen Interessen von natürlichen Personen betreffen (zum Beispiel im Finanzwesen oder der Bildung). Annex III des EU-KI-Gesetzes enthält eine Auflistung von Hochrisiko-Bereichen. In der aktuellen Fassung des wurde ein neues Kapitel zu KI-Modellen mit allgemeinem Verwendungszweck aufgenommen. Für Hersteller dieser Modelle, zu denen auch große Sprachmodelle zählen, gelten besondere Anforderungen (zum Beispiel gpt4, das Modell hinter ChatGPT). Je nach Komplexität des Modells können die Anforderungen im Hochrisiko-Bereich oder sogar darüber liegen, wenn ein systemisches Risiko festgestellt wurde.

Hochrisiko-KI-Systeme müssen eine CE-Kennzeichnung aufweisen und durch eine unabhängige dritte Stelle zertifiziert werden. Alle Hochrisiko-KI-Systeme müssen in einer zentralen EU-Datenbank registriert werden. Wenn erwiesen ist, dass ein KI-System aus einem Annex III gelisteten Bereich keinen Einfluss auf Sicherheit oder Interessen natürlicher Personen hat, dann kann das System auch als System mit mittlerem oder niedrigem Risiko behandelt werden. Die Pflicht zur externen Zertifizierung entfällt in diesem Fall, aber das System muss trotzdem an die zentrale EU-Datenbank gemeldet werden. Die Erfassung in der EU-Datenbank und die Zertifizierung gelten für einzelne KI-Produkte, nicht für eine Organisation als Ganzes. Die Zertifizierung muss für alle größeren Eingriffe wiederholt werden.

Für Hochrisiko-KI-Systeme stellt das EU-KI-Gesetz eine Vielzahl von Anforderungen. Eine genauere Betrachtung der Anforderungen wird in einem separaten Artikel besprochen. An dieser Stelle sollen nur die wichtigsten Anforderungen genannt werden:

  • Einhaltung von Datenschutzvorschriften und Informationssicherheit
  • Vorhandensein eines Qualitätsmanagementsystems
  • Risikomanagement für vorhersehbare Fehler
  • Verpflichtung zu Test und Validierung des KI-Systems
  • Einhaltung der branchenspezifischen Vorschriften für funktionale Sicherheit

Die oben aufgeführten Stichpunkte zeigen den starken Überlapp zwischen der neuen EU-KI-Gesetzgebung und Methoden des klassischen Qualitätsmanagements. Aus diesem Grund gehen wir davon aus, dass das Qualitätsmanagement in Zukunft eine zentrale Rolle bei der Einführung und Überwachung von KI-Systemen einnehmen wird.

KI-Systeme mit mittlerem Risiko

Neben Hochrisiko-KI-Systemen gibt es noch Systeme mit mittlerem Risiko. In diese Kategorie fallen Systeme wie Chatbots für den Kundensupport. Diese Systeme haben nur unwesentliche persönliche und keine sicherheitsrelevanten Auswirkungen für Nutzer. Für diese Systeme gelten lediglich Transparenzanforderungen. Dies bedeutet, dass für Nutzer ersichtlich sein muss, wenn er mit einem KI-System interagiert. Der Nutzer muss ferner in Verständlicher Art und Weise über die Verarbeitung seiner Daten aufgeklärt werden. KI-generierte Inhalte sollten in maschinenlesbarer Art und Weise als solche gekennzeichnet sein (zum Beispiel durch Fingerprinting). Die EU arbeitet aktuell an einem Code of Conduct, der näher erklären soll, wie diese Anforderungen umzusetzen sind. Aktuell gibt es jedoch noch kein Veröffentlichungsdatum.

Es ist wichtig zu betonen, dass die Verantwortung für die Einhaltung von Transparenzregeln und Absicherung der korrekten Funktion hauptsächlich der Organisation zufällt, die das KI-System in Umlauf bringt. Dabei handelt es sich oft nicht um den Hersteller des KI-Modells. Insbesondere bei der Verwendung großer Sprachmodelle ist diese Unterscheidung wichtig. Chatbots sind in der Regel kundenspezifisch angepasst. Hersteller großer Sprachmodelle wie openAI agieren in diesem Fall als Lieferanten für Firmen, aber übernehmen in der Regel keine Haftung für firmenspezifische Anpassungen. Dieser Artikel beschreibt einige der Risiken, die dabei entstehen. Die Verantwortung für die Validierung der korrekten Funktion und die Einhaltung von Vorschriften obliegt der Firma, die das System für den Nutzer bereitstellt. Firmen werden somit selbst Prozesse zur Validierung ihrer KI -Lösungen implementieren müssen, wenn sie KI in ihren Produkten oder Prozessen nutzen möchten.

KI-Systeme mit vernachlässigbarem Risiko

Alle KI-Systeme, die nicht in die obersten drei Risikokategorien fallen, werden als Systeme mit vernachlässigbarem Risiko eingestuft. Für Anwendungen mit vernachlässigbarem Risiko stellt das KI-Gesetz neuen Anforderungen. Bestehende Anforderungen, zum Beispiel aus der Datenschutzgrundverordnung bleiben aber weiterhin bestehen. Wir stellen dazu ein kostenloses Self-Assessment bereit, mit dem die Risikoklasse einer KI-Anwendung bestimmt werden kann.

Abbildung 2 zeigt Umsetzungszeiten für die EU-KI-Gesetzgebung, wie sie zum 1. Mai 2024 bekannt waren. Das Verbot von Anwendungen mit unzulässigem Risiko wird bereits im November 2024 in Kraft treten. Die ersten Anforderungen, für Anwendungen mit mittlerem und hohem Risiko werden nach heutigem Kenntnisstand ab Mai 2025 in Kraft treten. Zu diesem Zeitpunkt greifen Verpflichtungen im Bezug auf Transparenz und Data Governance. Data Governance bedeutet, dass Trainings- und Testdatensätze alle für die Anwendung relevanten Kategorien oder Personengruppen abdecken müssen und dies auch nachvollziehbar zu dokumentieren ist.

Zeitschiene der Implementierung der EU-KI-Gesetzgebung

Abb. 2: Zeitschiene der Implementierung der EU-KI-Gesetzgebung

Die Verpflichtung zur Zertifizierung von Hochrisikosystemen wird voraussichtlich ab Mai 2026 in Kraft treten, gefolgt von einem Übergangszeitraum von 12 Monaten. Spätestens im Mai 2027 müssen dann alle Anforderungen des KI-Gesetzes vollständig umgesetzt sein.

Auf Firmen, die bereits jetzt KI in ihren Produkten oder Prozessen nutzen, kommen daher in den nächsten Monaten folgende Aufgaben zu:

  • Bewertung, in welche Risikokategorie die eingesetzten KI-Systeme fallen
  • Zusammenstellung aller bindenden Verpflichtungen und Normenanforderungen
    • Gesetze (mindestens Datenschutzgrundverordnung und KI-Gesetz)
    • Managementsysteme (zum Beispiel ISO 9001:2015)
    • Branchenstandards für funktionale Sicherheit (zum Beispiel ISO 26262 für Automotive)
  • Erstellung der notwendigen Dokumentation (zum Beispiel für Risikomanagement)
  • Test und Validierung der eingesetzten KI-Systeme

KI ist bereits heute in vielen Branchen eine zentrale Komponente der Wertschöpfungskette. Es ist davon auszugehen, dass KI-Assistenzsysteme mit mittlerem Risiko in den nächsten 24 Monaten branchenunabhängig in nahezu alle Bürotätigkeiten Einzug halten wird. Dabei werden KI-Systeme immer mehr Aufgaben übernehmen, die heute von Menschen erledigt werden. Das Qualitätsmanagement spielt eine entscheidende Rolle bei der Absicherung und gesetzeskonformen Umsetzung dieser Systeme. Es ist daher absehbar, dass in den nächsten Monaten ein erheblicher Trainingsbedarf im Bereich Qualitätsmanagement bestehen wird, um die Fachbereiche mit den neuen Anforderungen vertraut zu machen. Qualitätsverantwortliche sollten sich zeitnah mit den IT- und Rechtsbereichen ihrer Organisationen abstimmen um die Aufgabenverteilung, sowie die benötigten Ressourcen und die erforderlichen Qualifikationen zu bestimmen.

 

Lesen Sie mehr zum Thema “Künstliche Intelligenz in der Qualität” in den folgenden Fachbeiträgen:

  • Teil 1: Künstliche Intelligenz in der Qualität – Bestehendes Know-how effektiv nutzen – zum Beitrag »
  • Teil 2: Künstliche Intelligenz in der Qualität – Welche Qualifikationen werden benötigt? – zum Beitrag »
  • Teil 3: Künstliche Intelligenz in der Qualität – Praktische Einführung durch iteratives Vorgehen – zum Beitrag »

 

Über die Autoren:

Dipl.-Ing. Waldemar Fahrenbruch ist Head of Q-Technology Division E-Mobility bei der ZF Friedrichshafen AG. Er ist verantwortlich für die Qualitätskostensenkung bei gleichzeitiger Optimierung von Qualitätskonzepten in den Werken der Division E (TCU, Power Electronics und E-Motoren Fertigung) durch Methodenkompetenz der Qualität, künstlicher Intelligenz und digitaler Transformation.

Dr.-Ing. Stefan Prorok ist Geschäftsführer der Prophet Analytics GmbH und DGQ-Trainer für Qualitätssicherung und Künstliche Intelligenz. Prophet Analytics unterstützt Unternehmen in allen Phasen Ihrer KI-Umsetzung mit Trainings- und Beratungsangeboten. Kontakt: ki@prophet-analytics.de

Vertrauen stärken und Innovation ermöglichen: Eine digitale Qualitätsinfrastruktur für ein modernes Made-in-Germany

QI-Digital, Qualitätsinfrastruktur, Produktion

Produktion und Handel in immer komplexeren Wertschöpfungsnetzwerken, die fortschreitende digitale und grüne Transformation sowie technologische Innovationen sind in hohem Maße auf die verlässliche Sicherung und den effizienten Nachweis der Qualität, Sicherheit und Nachhaltigkeit von Waren, Dienstleistungen und Prozessen angewiesen. Unverzichtbar dafür ist eine moderne und leistungsfähige Qualitätsinfrastruktur (QI).

QI-Digital: Qualität smarter sichern

Im Rahmen der Initiative QI-Digital entwickeln die zentralen Akteure der Qualitätsinfrastruktur (QI) in Deutschland – die Bundesanstalt für Materialforschung und -prüfung (BAM), die Deutsche Akkreditierungsstelle (DAkkS), das Deutsche Institut für Normung (DIN), die Deutsche Kommission Elektrotechnik Elektronik Informationstechnik (DKE) und die Physikalisch-Technische Bundesanstalt (PTB) – gemeinsam mit Stakeholdern aus Wirtschaft und Forschung Lösungen für eine moderne Qualitätssicherung. Diese muss nicht nur den Anforderungen einer Wirtschaft gerecht werden, die zunehmend digital und vernetzt ist, sondern zudem nachhaltig und resilient sein.

Das Ziel: Qualität vertrauensvoll und effizient sichern und nachweisen. Gefördert wird die Initiative vom Bundesministerium für Wirtschaft und Klimaschutz (BMWK). Ein engagierter Beirat mit Mitgliedern aus Wirtschaft, Forschung und Verwaltung unterstützt bei der strategischen Ausrichtung, konkreten Umsetzung und der Vernetzung.

QI-Digital

Abb. 1: Die Bundesanstalt für Materialforschung und -prüfung (BAM), die deutsche Akkreditierungsstelle DAkkS, die Normungsinstitute DIN und DKE sowie die Physikalisch-Technische Bundesanstalt (PTB) haben sich zur Initiative QI-Digital zusammengeschlossen. Quelle: QI-Digital.

Von einer Dokumenten- hin zu einer Datenbasierten Qualitätssicherung

Durch das Zusammenspiel von Metrologie, Normung, Konformitätsbewertung, Akkreditierung und Marktüberwachung bildet die QI die Grundlage für funktionierenden internationalen Handel und das Qualitäts-Label “Made in Germany“. Die QI selbst ist ein komplexes System aus regulativen Rahmenbedingungen und verschiedenen Institutionen, Werkzeugen und Prozessen – ihre digitale Transformation ein entsprechend umfangreiches Vorhaben.

Das Zielbild einer digitalen QI umfasst dabei datenbasierte und automatisierte Verfahren für Qualitätssicherung und -nachweis sowie einen Werkzeugkasten unter anderem aus Smart Standards und maschinenlesbaren Konformitätsnachweisen mit digitalem Akkreditierungssymbol (eAttestation). Diese bilden zusammen ein digitales Ökosystem für die QI, das es Unternehmen und anderen privatwirtschaftlichen und hoheitlichen Akteuren in Wertschöpfungsnetzwerken ermöglicht, vertrauensvoll, souverän und effizient qualitätsrelevante Daten, Informationen und Dokumentationen bereitzustellen, zu nutzen und auszutauschen. Die bisher weitgehend dokumentenbasierte, analoge und statische Qualitätssicherung wird damit fundamental transformiert hin zu einem datenbasierten, smarten System, das auf nutzungsorientierten, vorausschauenden Ansätzen fußt, die den modernen Anforderungen der Industrie 4.0 gerecht werden und effizient für nachhaltiges Vertrauen und Transparenz sorgen.

Zielbild einer digitalen Qualitätsinfrastruktur

Abb. 2: Zielbild einer digitalen Qualitätsinfrastruktur: Digitale QI-Werkzeuge, -Verfahren und -Prozesse ermöglichen eine durchgängige Integration in Qualitätssicherungsprozesse der Industrie 4.0 sowie Transparenz und Vertrauen entlang der Wertschöpfungskette. Quelle: QI-Digital

Bürokratieaufwand reduzieren

Die Anforderungen an die Umsetzung regulatorischer Vorgaben steigen für Unternehmen stetig an. Die schon bald geforderte Implementierung des Digitalen Produktpasses in der EU im Rahmen der neuen Verordnung für nachhaltige Produkte (ESPR) ist nur ein Beispiel dafür. Digitale Innovationen in der QI sind hierbei ein Schlüssel, um diese bürokratischen Herausforderungen zu bewältigen, wie Dr. Gunter Kegel, Präsident des Verbands der Elektro- und Digitalindustrie ZVEI e.V., bei einem Austausch der Initiative QI-Digital mit Bundestagsabgeordneten zu Beginn des Jahres hervorhob. Voraussetzung ist es, von der analogen, dokumentenbasierten Qualitätssicherung hin zu einer datenbasierten Arbeitsweise zu kommen. Mithilfe digitaler Prozesse und Werkzeuge der QI lasse sich der personelle und administrative Aufwand für die Unternehmen wesentlich reduzieren und die Wettbewerbsfähigkeit der deutschen und europäischen Wirtschaft auch künftig sichern. Dies gilt nicht zuletzt vor dem Hintergrund des absehbar zunehmenden Fachkräftemangels.

Datenräume für die QI: Quality-X

Die Initiative QI-Digital entwickelt die nötigen digitalen Werkzeuge und Verfahren. Das wahre Potenzial der digitalen QI entfaltet sich erst, wenn ihre Akteure und Prozesse systemübergreifend und nahtlos in ein kohärentes digitales QI-Ökosystem integriert werden. Die jüngsten Entwicklungen hin zu industriellen internationalen Datenräumen ermöglichen ein solches Ökosystem.

Kernstück des angestrebten digitalen QI-Ökosystems ist Quality-X, eine föderierte Plattform zur Vernetzung von Institutionen und einfachen, sicheren Austausch qualitätsbezogener Daten und Informationen auf Basis internationaler Datenräume mit standardisierten Schnittstellen. Quality-X soll es Unternehmen erleichtern, Qualitätsnachweise zu erbringen und gleichzeitig Souveränität sichern, u.a. mit definierten Zugriffsberechtigungen. Basierend auf den Gaia-X-Grundsätzen, die Transparenz, Offenheit, Datenschutz und Sicherheit betonen, orientiert sich das Projekt an den technischen und rechtlichen Rahmenbedingungen bekannter Gaia-X-Leuchtturmprojekte wie Catena-X und Manufacturing-X. In einem Whitepaper hat die Initiative QI-Digital Konzept und Idee von Quality-X zusammengefasst.

Umsetzung anhand greifbarer, praxisrelevanter Pilotprojekte

Aufgrund der Komplexität der Prozesse, Verfahren und Werkzeuge der QI, werden die Lösungen entlang konkreter, praxisrelevanter Anwendungen der Qualitätssicherung in der modernen Produktion (Industrie 4.0) und dem Betrieb technischer Anlagen entwickelt, erprobt und demonstriert. Dazu dienen der Initiative praxisnahe Testumgebungen, die die Bundesanstalt für Materialforschung und -prüfung (BAM) im Rahmen der beiden Pilotprojekte „Additive Fertigung“ und „Verlässliche Wasserstofftankstelle“ bereitstellt. Neben Forschung und Entwicklung an modernen Prüfmethoden werden dort die digitalen Werkzeuge der QI erprobt und ihr Zusammenwirken demonstriert. So können integrierte Prozessketten dargestellt werden – vom Einlesen digital über Smart Standards bereitgestellter Normen-Anforderungen (siehe Initiative IDiS von DIN und DKE) über die prozessbegleitende Konformitätsbewertung mittels moderner (Prüf-)Verfahren hin zum automatisierten Erstellen von maschinenlesbaren Prüfberichten und anderer Konformitätsnachweise, eingebettet in das datenraumbasierte System Quality-X.

Dabei zeigt sich deutlich die zunehmende Bedeutung Künstlicher Intelligenz (KI) auch für die QI: Ganz neue Datenverfügbarkeit durch Sensortechnologien, thermographische Bildaufnahmen und andere moderne Ansätze eröffnet bisher ungekannte Möglichkeiten für die Qualitätssicherung. Entsprechende digitale, datenbasierte Prüfverfahren unter Nutzung von KI werden an der BAM entwickelt. Zudem wird das Potenzial des Federated Learning via Data Spaces erkundet. Umgekehrt ist auch die Frage der Vertrauenswürdigkeit von KI-Anwendungen ein zentrales Thema in QI-Digital. Damit der Einsatz qualitätsgesichert und vertrauensvoll erfolgen kann, werden bspw. an der PTB für den Gesundheitsbereich die Grundlagen messbarer Qualitätskriterien und Verfahren entwickelt.

Begleitforschungsaktivitäten und Stakeholder-Einbindung

Anwender und andere relevante Akteure über aktives Stakeholder-Engagement und umfassende Transferaktivtäten eng einzubeziehen, ist ein zentrales Anliegen der Initiative QI-Digital. Nicht nur ein engagierter Beirat steuert wertvolle Impulse bei. Auch ein stetig wachsendes Netzwerk liefert wichtige Informationen zu Anforderungen aus der Praxis, die in die Entwicklung der Lösungen einfließen.

Eine tragende Säule der QI sind Konformitätsbewertungsstellen. Um ihre Perspektiven und Erwartungen an eine digitale QI zu erfassen, hat die BAM in Kooperation mit der DAkkS und dem Verband Unabhängiger Prüflaboratorien (VUP) einen zielgerichteten, professionell begleiteten Dialogprozess für Prüf- und Kalibrierlabore mit ko-kreativen Online-Workshops aufgesetzt. Die gewonnenen Erkenntnisse aus diesen Praxiswerkstätten erlauben es, die Arbeit der Initiative noch stärker an den Praxis-Bedarfen auszurichten und weiterzuentwickeln.

Entsprechende konkrete Folgeprojekte mit interessierten Laboren bspw. zu Quality-X werden folgen. Weitere Begleitforschungsprojekte wie bspw. eine Trendstudie zur Zukunft der QI oder die internationale Vergleichsstudie der BAM zum Stand der Digitalisierung in der Konformitätsbewertung erlauben nicht nur vertiefte Erkenntnisse, sondern dienen auch der nachhaltigen Vernetzung.

Holistischer Ansatz: Technische Lösungen und geeignete Rahmenbedingungen

Ein solcher umfassender Stakeholderdialog ist auch deshalb wichtig, da neue digitale Lösungen in der QI, sowohl auf technischer als auch prozessualer Ebene zwischen Akteuren, Unternehmen (Hersteller/Inverkehrbringer/Betreiber) genauso wie Behörden/öffentliche Verwaltung (Genehmiger, Marktüberwacher, und andere), privatwirtschaftliche Konformitätsbewerter und andere Stakeholder betreffen. Die digitale Transformation der QI muss daher ganzheitlich auf verschiedenen Ebenen betrachtet werden. Sie bedeutet nicht nur technische Innovationen für Werkzeuge und Verfahren allein. Vielmehr erfordern digitale, transformative Lösungen die Gestaltung weitreichender Rahmenbedingungen an der Schnittstelle von Politik, Wirtschaft und Forschung.

Eine wesentliche Hürde können nötige Anpassungen des Rechtsrahmens sein, um innovative Lösungen tatsächlich in die Anwendung bringen zu können. Der bestehende Rechtsrahmen – von europäischen Richtlinien im Rahmen des New Legislative Frameworks über bundesdeutsche Gesetzgebung, technische Regeln bis hin zu kommunalen Verordnungen – kann mitunter so gestaltet sein, dass dieser die Einführung und Nutzung neuer, digitaler Lösungen behindert. Dies kann diverse Anwendungsbereiche betreffen – von Produktsicherheit über Umwelt- und Verbraucherschutz hin zu Handelsrecht. Es stellen sich daher die Fragen, inwiefern der bestehende Rechtsrahmen für eine digitale QI geeignet ist, bspw. welche Hürden, Hemmnisse (Stichwort Schriftformerfordernis), aber auch Potentiale sowie Anpassungsbedarfe und Gestaltungsoptionen bestehen. Im Rahmen einer von der BAM beauftragten juristischen Fachstudie werden daher gezielt alle Ebenen der Regelsetzung nach Lücken und Hindernissen für digitale Innovationen der QI untersucht. Entsprechende Analysen und abgeleitete Handlungsempfehlungen werden mit den zuständigen Akteuren, bspw. Gesetzgebern und Ministerien, aktiv geteilt und diskutiert.

Darüber hinaus ist die Initiative QI-Digital aktiv in relevanten Roadmapping-Prozessen und Normungsgremien (unter anderem bspw. zum Digitalen Produktpass) beteiligt.

QI-Digital Forum 2024

Das Jahr 2024 hält einige zentrale Entwicklungen für die QI bereit: Die EU verabschiedet den AI Act, der Digitale Produktpass nimmt Gestalt an und immer mehr europäische Datenraumkonzepte versprechen sichere digitale Ökosysteme. Diese Themen stehen daher auch im Fokus des 3. QI-Digital Forums, das am 9. und 10. Oktober an der BAM in Berlin stattfindet.

Unter dem Titel “AI Act, Data Spaces and Digital Product Passport – Setting the course for a green and digital transition“ erwarten die Besucher:innen spannende Keynotes, Paneldiskussionen und Fachvorträge sowie ein interaktiver Marktplatz mit Ausstellern und Exponaten rund um die Digitalisierung der QI. Außerdem werden Ergebnisse und Demonstratoren zu den Pilotprojekten und digitalen QI-Werkzeugen vorgestellt, die im Rahmen der Initiative QI-Digital entwickelt werden. Zudem bietet das QI-Digital Forum eine gute Gelegenheit, sich zu vernetzen und mit weiteren Stakeholdern aus der QI Herausforderungen und Chancen der Digitalisierung zu diskutieren. Mehr Informationen und die Anmeldung für eine Teilnahme vor Ort oder virtuell sind über die Website der Initiative unter www.qi-digital.de abrufbar.

QI-Digital Forum

Abb. 3: Das QI-Digital Forum 9. und 10. Oktober 2024 an der BAM bietet spannende Keynotes, Paneldiskussionen und Fachvorträge sowie einen interaktiven Marktplatz mit Ausstellern und Exponaten rund um die Digitalisierung der QI – und natürlich viel Gelegenheit zum Netzwerken. Quelle: QI-Digital

Einladung zur Beteiligung

Für die notwendige Weiterentwicklung der digitalen QI bedarf es des Engagements von Stakeholdern aus der QI, Wirtschaft, Politik, Verwaltung und Forschung – in Deutschland und darüber hinaus. Die Initiative QI-Digital begrüßt daher ausdrücklich die Beteiligung von Unternehmen und weiteren interessierten Akteuren.

Kontakt:
www.qi-digital.de
info@qi-digital.de

 

Über die Autoren:

Dr. Claudia Koch leitet das Referat Digitalisierung der Qualitätsinfrastruktur an der Bundesanstalt für Materialforschung und -prüfung (BAM) und ist Koordinatorin der BAM für die Initiative QI-Digital. Sie hat Betriebswirtschaftslehre und Internationales Wirtschaftsrecht studiert und in Innovationsökonomie an der TU Berlin promoviert.

Dr. Anna Maria Elert ist Koordinatorin der BAM für QI-Digital mit besonderem Schwerpunkt auf Themen rund um die Qualitätssicherung an technischen Anlagen. Sie hat im Fachgebiet Chemical Technology promoviert.

Lena Meyer koordiniert für die BAM QI-Digital-Aktivitäten mit Fokus auf Themen der modernen Produktion. Sie hat einen Masterabschluss in Produktionstechnik (Maschinenbau und Verfahrenstechnik).

Einfluss von ESG-Ratings auf die Nachhaltigkeit von Unternehmensprozessen, Teil 2

ESG, Environmental, Social, Governance

ESG-Ratings kommt bei der Bewertung der Nachhaltigkeit von Unternehmen eine hohe Bedeutung zu. In Teil 1 dieses Fachbeitrags standen grundlegende Aspekte von ESG-Ratings im Fokus. Teil 2 beleuchtet verschiedene Perspektiven auf mögliche ESG-Strategien von Unternehmen und die Aussagekraft von entsprechenden Ratings.

ESG-Ratings vermitteln ein übersichtliches und verständliches Bild davon, wie ein Unternehmen in den Bereichen Umwelt (E), Soziales (S) und Unternehmensführung (G) abschneidet. Diese Ratings haben sowohl für Shareholder als auch für Stakeholder Bedeutung, da diese vermehrt Geschäftsentscheidungen auf Grundlage ethischer Grundprinzipien treffen. Für Unternehmen gibt es eine Reihe von Vorteilen, die gute ESG-Ratings mit sich bringen. Hierzu zählt sowohl der Zugang zu günstigem Eigenkapital, da die eigenen Aktien stärker nachgefragt werden, als auch zu Fremdkapital, da Kreditinstitute bei nachhaltig ausgelegten Unternehmensführungsansätzen ein geringeres Ausfallrisiko sehen. Zusätzlich kann sich ein Unternehmen durch externe Bestätigungen der eigenen Nachhaltigkeit sehr gut am Markt positionieren und mit verbesserter Markenbekanntheit rechnen.

Bedeutung der EU-Taxonomie für ESG-Ratings

Hinsichtlich Selbstverständnis und Ziel von ESG-Ratings gibt es aktuell keine Einheitlichkeit, da die verschiedenen Ratingagenturen ihre Beurteilungen aus unterschiedlichen Perspektiven einbringen. Einige Ratings sind eher für kapitalmarktorientierte Unternehmen bestimmt und andere Ratings für die Geschäftspartner dieser Unternehmen. Die Ratings wiederum, die für die Zielgruppe der Shareholder ausgelegt sind, lassen sich ihrerseits wieder aus der Reputationsperspektive und der Risikosteuerungsperspektive betrachten. Da es so viele Unterschiede gibt, lässt sich auch nicht abschließend eine spezifische Ratingform ermitteln, die für alle Unternehmen gleich „richtig“ ist. Hier empfiehlt es sich, den Peer-Vergleich heranzuziehen.

Die Erwartungen an die Umsetzung der 2023 veröffentlichten Regulierungen im Rahmen der EU-Taxonomie sind vor diesem Hintergrund enorm. Experten aus dem Kreis der Unternehmensberatungen rechnen mit einer Revolution der „Ratingwelt“ sowie klaren Fortschritten bei der Erreichung der Klimaziele. Die erstmalige Definition von Nachhaltigkeit als Konzept sowie die Formulierung der wichtigsten Risiken kann bereits ein erster und dringend gebrauchter Schritt sein, um immer besser und sicherer, gemeinsam den Klimawandel zu bewältigen. Da jedoch viele der Regulierungen erst noch in Kraft treten, bleibt es abzuwarten und zu beobachten, wie der Markt auf die neuen Nachhaltigkeitsberichte reagiert, die im Rahmen der CSRD für zahlreiche Unternehmen verpflichtend werden. Wenn damit praktisch eine „zweite Säule“ neben der finanziellen Berichterstattung etabliert wird, können Share- und Stakeholder Unternehmen künftig deutlich besser einschätzen. Außerdem sollen einheitliche Daten veröffentlicht werden, ermittelt anhand einheitlicher Formeln, geprüft und bestätigt von unabhängigen Prüfern.

Die Prüfung der Nachhaltigkeitsberichte wird demnach künftig einer der essenziellen Blöcke sein, auf den Ratings sowie Informationen für Shareholder und Stakeholder aufbauen. Da in kurzer Zeit sehr viele Prüfungsaufträge entstehen werden, wenn in kommender Zeit viele Unternehmen ihre Nachhaltigkeitsberichte veröffentlichen müssen, könnte sogar ein ganzes Geschäftsfeld entstehen und ausgebaut werden.

In diesem Zusammenhang gewinnt die Green Asset Ratio an Bedeutung. Diese in Nachhaltigkeitsberichten anzugebende Kennzahl gibt wieder, zu welchem Anteil ein Unternehmen seine Prozesse mit 0-Emissionen betreibt. Da die Green Asset Ratio sehr vergleichbar ist, könnte sie ESG-Ratings sogar überflüssig machen – abhängig davon, wie der Markt sie annimmt.

Die ersten Nachhaltigkeitsberichte werden ab 2024, jeweils mit Stichtag 31. Dezember 2023, veröffentlicht. Da die EU-Taxonomie in so vielen Bereichen übersichtlicher, vergleichbarer und standardisierter als ESG-Ratings sein soll, stellt sich die Frage, ob ESG-Ratings überhaupt einen zusätzlichen Mehrwert bieten oder nur noch dazu sind, dass Anleger beim Investieren ein gutes Gewissen haben. Experten zufolge jedoch waren und sind ESG-Ratings ein Schritt in die richtige Richtung. Damit einhergehend können die neuen Regelungen seitens der EU einen großen Unterschied machen.

Berufsbild Nachhaltigkeitsmanager

Die Themen Nachhaltigkeit und Klima­schutz gehören zu den Mega­trends unserer Zeit. Für Unter­nehmen wird es somit immer wichtiger, CSR-Maßnahmen um­zu­setzen und ihrer gesell­schaftlichen Verantwortung gerecht zu werden. Mit dem größeren Fokus auf Nachhaltigkeit haben sich in den letzten Jahren eine Vielzahl an grünen Jobs entwickelt, wie beispielsweise der Job als Nachhaltigkeitsmanager.
Antworten auf die wichtigsten Fragen finden Sie in unserem Berufsbild zum Nachhaltigkeitsmanager:

  • Welche Aufgaben betreuen Nachhaltigkeitsmanager?
  • Wie werde ich Nach­haltigkeits­beauf­tragter?
  • Welche Weiter­bildungs­möglich­keiten gibt es?
  • Was verdient ein Nach­haltigkeits­manager?
  • Welche Jobs gibt es im Nach­haltigkeits­manage­ment?

Zum Berufsbild Nachhhaltigkeitsmanager »

Rating-Verbesserungen und Greenwashing-Gefahr

Die aktuellen ESG-Ratingmechanismen sind zum Teil noch sehr undurchsichtig. Ratingagenturen zeigen in ihrer Bewertungsstrategie keinerlei Transparenz, gleichzeitig aber verlangen sie sehr hohe Lizenzgebühren, die von Dritten nicht einsehbar sind. Bewertungen scheinen oft unfair und nicht nachvollziehbar oder gar widersprüchlich. Daher empfiehlt es sich nicht, Unternehmensprozesse für eine Ratingverbesserung zu ändern. Stattdessen empfehlen Experten, für eine Ratingverbesserung einfach mehr Informationen offenzulegen. Dabei ist grundsätzlich weniger wichtig, welche Informationen offengelegt werden, solange es insgesamt „mehr Informationen“ sind. Ratingagenturen verfügen über automatische Crawler, also Bots, die die veröffentlichten Informationen von Unternehmen herunterladen und auswerten. Jedoch haben die Agenturen nicht die Ressourcen, um die Informationen zu validieren oder gar qualitativ zu bewerten.

Als Folge könnten Unternehmen also bei der Definition der Ziele „einen Puffer einbauen“, um den eigenen CO2-Ausstoß bis 2030 weniger reduzieren zu müssen. Wenn für ein Unternehmen absehbar ist, dass der CO2-Ausstoß sich durch einen ohnehin anstehenden Lieferantenwechsel oder ähnliches verringert, könnte die Zielformulierung dementsprechend so ausfallen, dass das Ziel ohne Probleme erreicht wird. Je nach Auswirkung des beispielhaften Lieferantenwechsels wird das Ziel damit eventuell sogar unterschritten, sodass Mitarbeiter:innen zum Beispiel sogar mehr als zuvor mit dem Flugzeug reisen könnten, ohne dass die Zielerreichung gefährdet wird. Im Ergebnis kann es also vorkommen, dass ein Rating sich verbessert, obwohl ein Ziel nicht sehr ambitioniert gesetzt wurde – allein dadurch, dass neue Informationen veröffentlicht wurden. Aus diesem Grund ist eine Verbesserung der Ratings vergleichsweise simpel, was wiederum Anlass zu Greenwashing-Kritik gibt.

Argumente für ESG-Ratings

Es gibt viele gute Gründe, als Unternehmen ein sehr gutes ESG-Rating anzustreben. Ganz vorne liegen laut Experten insbesondere finanzielle Incentivierungen. Allerdings können bislang keine klaren statistischen Korrelationen zwischen Ratingverbesserungen und Kapitalkosten bewiesen werden. Jedoch sind finanzielle Anreize, als Unternehmen ein ESG-Rating zu erlangen, auch über die Gewinnung von lukrativen neuen Geschäften gegeben. So benötigen vor allem jene Unternehmen, die bereits Nachhaltigkeitsberichte schreiben, einen Nachweis über die Nachhaltigkeit ihrer Geschäftspartner.

Darüber hinaus wird immer wieder eine verbesserte Reputation als Anreiz angeführt: Wenn ein Unternehmen sich als besonders „grün“ positionieren möchte, darf ein gutes Rating nicht fehlen. Jedoch sind für eine solche Positionierung zwingend auch weitere „Commitments“ notwendig, die diese Behauptungen unterstreichen.

Wenn ein Unternehmen sein Rating verbessern möchte, scheint es aktuell allerdings entweder nicht genug oder überhaupt nicht wirkungsvoll, seine CO2-Werte zu reduzieren. Dies mag auf den ersten Blick widersprüchlich klingen. Was jedoch für die tatsächliche Erreichung von Klimazielen gebraucht wird, sind eine klare Strategie und ambitionierte selbstgesetzte Ziele. Ein gutes Rating sollte sich nicht darauf verlassen, wie viel CO2 das Unternehmen aktuell einspart, wenn keine Informationen darüber vorliegen, wie die Pläne des Unternehmens über die Beibehaltung dieser Umstellung sind. Stattdessen empfiehlt es sich, die langfristigen Ziele eines Unternehmens zu bewerten, auch bevor sie vollständig umgesetzt sind. Künftig sollen Ratings sinnvollerweise auch das abdecken und so interessierten Parteien ein umfassenderes und eindeutigeres Bild über die Nachhaltigkeitsaktivitäten eines Unternehmen geben.

Obwohl das zum Teil auch zu besseren Ratings auf Basis von leeren Versprechungen führen kann, stellen Unwahrheiten nicht die größte Herausforderung dar. Stattdessen greifen in diesem Fall die klassischen politischen Probleme: Definitionsfragen und lange Diskussionen über die Relevanz von Details. Dabei ist jedoch zu beachten, dass, wie oben erwähnt, Nachhaltigkeit zukünftig auch in Form von Mitgliedschaften, Initiativen und Verpflichtungen bei den Ratings berücksichtigt wird. Dass sich Unternehmen letztendlich dagegen entscheiden könnten, die geäußerten Verpflichtungen auch einzuhalten, wie es beispielsweise einzelne Länder bei der Erreichung der Klimaziele 2020 taten, ist in Ratings allerdings nicht berücksichtigt.

Fazit: Die richtigen Anreize für ESG-Ratings setzen

ESG-Ratings spielen eine zentrale Rolle bei der Bewertung der Nachhaltigkeit von Unternehmen, die sich sowohl an Shareholder als auch Stakeholder richtet. Die Auswahl einer geeigneten Ratingagentur durch ein Unternehmen gestaltet sich jedoch herausfordernd, da verschiedene Anbieter unterschiedliche Schwerpunkte und Kriterien haben, was zu widersprüchlichen Ergebnissen führen kann. Dieses Problem sollte jedoch durch das Inkrafttreten der EU-Taxonomie Regulierungen adressiert werden, da die meisten großen Unternehmen ab 2025/26 einmal jährlich einen standardisierten Nachhaltigkeitsbericht veröffentlichen müssen. Dazu zählen kleine und mittlere Unternehmen (KMU), die kapitalmarktorientiert sind, Drittstaatenunternehmen mit 150 Mio. Euro Umsatz in der EU oder Zweigniederlassungen, die mehr als 40 Mio. Euro Umsatz erreichen.

Die bisherigen Unterschiede in den Ansätzen der ESG-Ratings, insbesondere zwischen der Bewertung der Umweltauswirkungen und der Risiken durch ESG-Faktoren, sind allerdings als problematisch zu betrachten. Die Diversität der ESG-Ratings und die komplexe Thematik machen es für Leser des Ratings schwer, klare Schlussfolgerungen zur Nachhaltigkeit eines Unternehmens zu ziehen. Jedoch bleibt momentan auch bei gut funktionierenden ESG-Ratingsystemen und den genannten Vorteilen zum Teil noch fraglich, wofür Unternehmen ihr Rating verbessern sollten. Schließlich können viele der genannten Vorteile auch durch ein mittelmäßiges oder gutes Rating erzielt werden. Daher gilt es für die Zukunft, die Akzeptanz von ESG-Ratings im Allgemeinen in der Gesellschaft und Wirtschaft zu steigern und die Unabdingbarkeit von guten bis sehr guten Ratings gegenüber mittelguten Ratings zu festigen. Nur sehr gute Ratings sollten Unternehmen zum Vorteil gereichen, um dadurch den Anreiz zu steigern. Vor diesem Hintergrund müssen die Anreize für echte Änderungen offenbar weiterhin von der Politik durch gesetzliche Rahmenbedingungen getragen werden.

 

Lesen Sie auch Teil 1 der Fachbeitrags-Reihe: Einfluss von ESG-Ratings auf die Nachhaltigkeit von Unternehmensprozessen, Teil 1 »

Der Text wurde von Prof. Dr. Irina Mazilu-Eyaz und ihrer wissenschaftlichen Mitarbeiterin Simone Schwarz verfasst und beruht auf der von Prof. Dr. Irina Mazilu-Eyaz und Prof. Dr. Alexander Rühl betreuten Bachelorarbeit von Herrn Maximilian Krause an der Hochschule RheinMain.

 

Über die Autoren:

Prof. Dr.-Ing. Irina Mazilu-Eyaz hat Materialwissenschaft an der Technischen Universität Darmstadt und am Imperial College London studiert. Während Ihrer 11-jährigen Berufstätigkeit bei einem internationalen Technologiekonzern sammelte sie Erfahrung im Qualitätsmanagement und wurde zur Methoden-Expertin für technische Problemlösung. Seit 2021 ist sie Professorin für Qualitätsmanagement und Werkstoffkunde an der Hochschule RheinMain und entwickelt auch neue Lehrveranstaltungen zum Thema Nachhaltigkeit. Im Mai dieses Jahrs wurde sie ins Leitungsteam des DGQ-Fachkreises Nachhaltigkeit gewählt.

Kontakt: irina.mazilu-eyaz@hs-rm.de, www.hs-rm.de

Bis Ende 2023 war Simone Schwarz wissenschaftliche Mitarbeiterin an der Hochschule RheinMain und arbeitet jetzt beim GSI Helmholtzzentrum für Schwerionenforschung GmbH in Darmstadt. Sie forscht für ihr Promotionsvorhaben zum Thema Nachhaltigkeit und Circular Economy im Bereich Maschinenbau.

Kontakt: s.schwarz@gsi.de, www.gsi.de

Nachhaltigkeit messen – Wie kommen wir an Kennzahlen? Drei Bausteine zum Erfolg

Nachhaltigkeit, ESG, Kennzahlen

Ob Nachhaltigkeitsmanager, Umweltbeauftragter, Qualitätsmanager, Unternehmensentwickler oder Geschäftsführung: Jeder Themenverantwortliche in Organisationen hat bei der Messung von Nachhaltigkeit eine eigene Perspektive und unterschiedliche Fragestellungen zu beantworten. Bei der Vielzahl an Bearbeitungsmöglichkeiten, Regularien, Standards, Materialien, Quellen etc. stellt sich dabei die zentrale Einstiegsfrage: Womit kann ich bei der Kennzahlenentwicklung sinnvollerweise beginnen?

Baustein 1: Ziele müssen klar beschrieben sein, erst dann sind Kennzahlen sinnvoll

Im Internet erhalten Suchende über einschlägige Suchanfragen nach „ESG-Indikatoren“ u.a. eine Vielzahl von „Kennzahlenkatalogen (GRI, DNK)“ oder auch Jahresberichten von Konzernen (zum Beispiel von SAP, Siemens, Telekom). Aus Sicht des DGQ-Fachkreises Nachhaltigkeit liefern solche Betrachtungen jedoch keine systematisch verwertbaren Erkenntnisse. Häufig passen die gezeigten Kennzahlen nicht zur Strategie und Ausrichtung der jeweiligen Organisation. Gerade kleine und mittelgroße Unternehmen (KMU) bleiben bei der Zahlenflut oftmals ratlos zurück. Der Nutzen der Kennzahlen wird nicht klar, auch der Mix aus quantitativen und qualitativen Werten erschließt sich nicht sofort. Hinweise für die Entwicklung von Kennzahlen und deren Steuerungswirkungen können so nicht erzielt werden. Hierfür sind zunächst die jeweiligen Nachhaltigkeits- oder ESG-Ziele klar zu beschreiben und in der Unternehmensstrategie bzw. -ausrichtung zu verankern.

Dabei könnte zukünftig eine ISO-Norm helfen, die sich derzeit in der Entwicklung befindet: die ISO 53001 („Management systems for the UN Sustainable Development Goals – Requirements“), die derzeit im ISO-Gremium PC 343 erarbeitet wird.

Im ersten Schritt müssen die eingangs genannten Themenverantwortlichen anhand einiger Grundsatzüberlegungen und ausgehend vom bestehenden Reporting/Berichtswesen erst einmal verstehen, worum es bei der Nutzung von Kennzahlen eigentlich geht:

  • Was will ich erreichen? Was möchten meine Stakeholder? Welchen Nutzen will ich erreichen?
  • Wie kann ich das Gewünschte messen bzw. Veränderungen nachvollziehbar beobachten?
  • Was ist nicht vorhanden und wie kann es ermittelt werden?
  • Was sind die Grenzen meiner Ressourcen?

Erst wenn das Verständnis für diese Fragestellungen vorhanden ist, ist im zweiten Schritt ein fokussiertes Weiterkommen möglich. Über die Beantwortung dieser Fragen wird klarer, welche Kennzahlen für die eigene Organisation wichtig sind und helfen, die Unternehmenssteuerung unterstützen. Kennzahlen müssen dabei Nachweise dafür liefern, inwieweit ein Leistungsergebnis im Laufe der Zeit eintritt. Folgende Grundsätze sind für die Entwicklung von Kennzahlen zu berücksichtigen.

  1. Resultat“: Das gewünschte Ergebnis ist klar beschrieben
  2. Fokus“: Ein klarer Fokus ist vorhanden
  3. Prozess oder Aktivität“: Konkrete Prozesse oder Aktivitäten sind geplant, um das gewünschte Ergebnis zu erreichen
  4. Messung“: Es gibt eine oder mehrere Kennzahlen, anhand derer das Erreichen des Ergebnisses überprüft werden kann
  5. Zielwert und Zeitrahmen“: Zielwerte für Kennzahlen und Zeitrahmen, in denen erstere erreicht werden sollen, sind vorausschauend festgelegt.

Baustein 2: Starten statt Warten

Aktuell gibt es noch keine ESG-Checklisten, die einfach abzuarbeiten sind. Auch die Anforderungen an die Berichterstattung (CSRD usw.) bereiten noch vielen Probleme. Wie können dennoch “low hanging fruits“ geerntet werden?

Als Soforteinstieg bietet sich eine Statusbestimmung an, die auch bereits mit einer Stakeholderbetrachtung gemäß der künftig geforderten „Doppelten Wesentlichkeitsanalyse“ gekoppelt werden kann. Damit können Aufwände und Zeitdruck in der zwingenden Realisierungsphase reduziert werden.

Üblicherweise sind diverse Bereiche innerhalb einer Organisation in die Kennzahlenthematik zu involvieren. Nicht alle wissen dabei voneinander. Zudem ist oft nicht klar, was gegebenenfalls schon vorhanden ist (zum Beispiel Ergebnisse von Mitarbeiterbefragungen, Daten aus dem Controlling/Rechnungswesen). Vorhandene Managementsysteme bieten – sofern vorhanden – einen Einstieg in eine übergreifende, integrative Betrachtung. Zudem sind hieraus in der Regel bereits Messgrößen verfügbar.

Ein großes Hemmnis ist die Angst vor Zeitaufwand und Kosten. Die Ermittlung von Kennzahlen stellt häufig einen zusätzlichen Arbeitsaufwand dar. Zudem wird das Thema gerne auf der Zeitachse geschoben, da die Budgetverantwortlichen die unmittelbare Relevanz nicht erkennen. Dem sollten die Themenverantwortlichen schon in der Planungsphase nach Kräften entgegenwirken. Übergreifende Zusammenarbeit ist hier ein Erfolgsfaktor.

Gut zu wissen: Es gibt Fördermöglichkeiten. Wichtig dabei: Die Organisationen müssen selbst aktiv werden! Unterstützung bieten verfügbare Finanzförderungen, die auch als Mittel für die Kennzahlenthematik genutzt werden können. Zum Beispiel sind beim Bundesamt für Wirtschaft und Ausfuhrkontrolle (BAFA) auch weitere Fördermöglichkeiten mit folgenden Links zu finden:

Informationen zu Förderprogrammen

Baustein 3: Positiv gestimmte Unternehmenskultur ist sehr wichtig

Die Entwicklung von Kennzahlen ist stark von der Nutzenfrage bestimmt. Ein reines, von der Regulatorik, Banken und Versicherungen etc. gefordertes „Pflichtprojekt“ kann die gewünschten Effekte für die Unternehmenssteuerung nicht erzielen. Auch zu dieser Thematik ist die „Oberste Leitung“ gefordert, Gestaltungswillen zu zeigen, statt nur aus der Notwendigkeit und der regulatorischen Anforderung heraus Kennzahlen zu berichten. Im Idealfall lebt die oberste Leitung das Thema Nachhaltigkeit vor und bezieht es in den Strategieprozess ein. Erst dadurch kommt der Thematik die benötigte Wertschätzung zu.

Für die Umsetzung der Gesamtthematik reicht es nicht, die Aufgabe alleinig beim Qualitätsmanager oder Qualitätsmanagementbeauftragten (QMB) „abzuladen“. Tatsächlich ist dieser nur einer der benötigten Kandidaten in einem interdisziplinären Team. Vernetzung ist wichtig und bezieht in der Zusammenarbeit – je nach Aufstellung der Organisation – Controlling, Finanzbuchhaltung, Rechtsabteilung, Risikomanager, Logistik, Personal, Einkauf u.a. mit ein.

Sobald das angestrebte Ziel klar ist, gilt es , begleitende Ressourcen und Kommunikationsmöglichkeiten zur Verfügung zu stellen, um Kollegen:innen zum Mitmachen zu motivieren. Motivierte Kollegen:innen zu gewinnen ist zentral, um eine entsprechende Kultur der Kennzahlenorientierung zu schaffen. Dieser muss allerdings zunächst eine Kultur der Unterstützung von SDGs innerhalb der Organisation vorausgehen. Denn die besten Kennzahlen nützen nichts, wenn keine Nachhaltigkeitsziele eingehalten werden. Die Abfrage unter den Mitarbeitenden, wer beim Kennzahlenreporting mitmachen will, ist eine Möglichkeit. Weitere Möglichkeiten bieten zum Beispiel Foren mit Visualisierungen, Testräume, Communities, Schulungen, Trainings und Netzwerke. Solche internen Beteiligungsmöglichkeiten können dazu motivieren, Beiträge zu leisten, die Sichtbarkeit für die Thematik zu erhöhen, die Know-how Basis zu verbreitern und die Akzeptanz zu erhöhen.

Das Thema „Kennzahlen“ und deren sinnvolle Entwicklung innerhalb der Organisation ist unbestreitbar ein herausforderndes. Da dieses Thema dynamisch bleibt, ist der Fachkreis für ergänzende Impulse offen. Abschließend bleibt festzuhalten: Es gibt keine „One Size fits all Lösung“. Denn jede Organisation hat die Aufgabe, individuelle Kennzahlen-Settings zu erarbeiten.

 

Über die Autoren:
Die Verfasser Dirk Kohlenberg, Frank Gerhäuser, Jonas Hegewald, Henry Wehrenberg und Wilhelm Floer bilden die Arbeitsgruppe „Kennzahlen“ des DGQ-Fachkreises Nachhaltigkeit.

Der Fachkreis bietet eine entscheidende Plattform, über die wir Wissen teilen, gemeinsam lernen und Umsetzungsbeispiele für die Praxis erarbeiten und bereitstellen. Wir wollen damit einen Gestaltungsspielraum für engagierte Personen aus Organisationen bieten, die sich ihrer unternehmerischen Verantwortung gegenüber der Umwelt und der Gesellschaft, aber auch der eigenen Organisation bewusst sind. Dies gilt für die Gegenwart und die Zukunft. Somit vereinen wir Managementsysteme und Nachhaltigkeitsbestrebungen.

Empowerment in der Pflege und die Rolle der Organisation

Empowerment, Pflege, Fachkräfte, Magnetmodell

Die Pflege-Branche ist und das nicht erst seit der erhöhten Wahrnehmung durch die Corona-Pandemie, einer Vielzahl an Herausforderungen ausgesetzt. Hier sind allem voran der demografische Wandel, begrenzte finanzielle Mittel und natürlich auch der Fachkräftemangel zu nennen.

Der Fachkräftemangel ist auf vielschichtige Gründe zurückzuführen. Ein großer Punkt in diesem Zusammenhang ist mit Sicherheit das Rollenbild sowie das Image des Pflegeberufes, das zum einen aus der äußeren, aber auch der inneren Wahrnehmung resultiert. Dies sorgt für wenig Nachwuchs, da die eigentlich wertvollen Aspekte der Profession leider meist untergehen.

Ein Magnet für Fachkräfte

Dennoch gibt es Organisationen, die von der Personalproblematik weniger stark betroffen sind. Mit dieser grundlegenden Frage beschäftigt sich das Magnet-Konzept, welches weiterhin vor allem in den USA Umsetzung findet. Dieses Konzept liefert einige Erklärungsansätze im Kontext der Professionalisierung der Pflegepraxis.

Das Magnet-Konzept beschreibt Schlüsselkomponenten, die ausschlaggebend für den Erfolg oder Misserfolg einer Organisation im Hinblick auf ihre personellen Ressourcen sind. In den Magnet-Einrichtungen wird Fachpersonal, wie es der Name sagt beinahe „magnetisch“ angezogen, während in anderen Organisationen weiterhin akuter Personalmangel vorherrscht.

Strukturelles Empowerment stärkt

Die identifizierten Bestandteile der Magnet-Einrichtungen zeigen sich insbesondere im Empowerment der einzelnen Mitarbeitenden. In Organisationen des Gesundheitswesens wurde diesem Aspekt und den daraus resultierenden Möglichkeiten bisher jedoch nur wenig Aufmerksamkeit geschenkt. Unabhängig vom Magnet-Modell hat das Konzept des strukturellen Empowerments seinen Ursprung in Forschungsarbeiten, die untersuchen, wie Arbeit Menschen stärken kann, anstatt sie zu schwächen, und dabei dennoch eine hohe Effektivität gewährleistet (s. Weibler 2017). Im Zentrum steht die “Übertragung von Entscheidungsautorität und Verantwortung auf die jeweils nachgelagerte Hierarchieebene” (vgl. ebd.).

Ergänzung durch psychologisches Empowerment

Das klassische strukturelle Empowerment, wie es auch in den fünf Schlüsselkomponenten des Magnetmodells zu finden ist, wurde in der Forschung durch das Konzept des psychologischen Empowerments erweitert. Im Rahmen des psychologischen Empowerments werden neben Selbstbestimmung auch die Unterstützung bei der Entwicklung benötigter Kompetenzen sowie die sinnvolle Erfahrung der eigenen Tätigkeit betont. Interessant wird dieser Ansatz vor allem dann, wenn man sich mit der aktuellen Diskussion, um die Vorbehaltsaufgaben auseinandersetzt. Denn was bedeutet eine solche Veränderung der Aufgaben für die tägliche Pflegepraxis? Welche Kompetenzen und organisationalen Rahmenbedingungen werden benötigt?

Erhöhte Identifikation mit dem Arbeitgeber

Die Forschung zum Magnet-Konzept sowie die Diskussionen über New Work liefern bereits erste Erkenntnisse zu diesem Thema. Dies beinhaltet nicht nur Aspekte des Empowerments, sondern auch Anreize und die Motivation zu lebenslangem, beruflichen Lernen (s. Luzinski 2012, S. 3; Spence Laschinger et al. 2003, S. 411). In Organisationen, in denen Führungskräfte eine entsprechende Haltung auf die nachgeordnete Ebene übertragen, ist die Personalsituation deutlich weniger angespannt. Die Bindung und Identifikation mit dem Arbeitgeber sowie dem Pflegeberuf sind im Vergleich zu Referenzorganisationen signifikant gesteigert. Zu dem wird Wertschätzung stärker wahrgenommen und fachliche Know-How häufiger in die tägliche Praxis integriert (s. Gasda 2002, S. 340; Spence Laschinger et al. 2003, S. 419).

Gewährter Handlungsspielraum wird genutzt

Des Weiteren haben Mitarbeitende in Magnet-Einrichtungen mehr Handlungsspielraum in ihrer täglichen Praxis und nutzen diese auch entsprechend. Das hat wiederum Auswirkungen auf ihre eigene Arbeitsumgebung. Sie sind freier in der Abwicklung ihrer täglichen Abläufe und organisieren beispielsweise auch die Arbeitsbelastung autonomer, da hier Einflussmöglichkeiten vorliegen und die Arbeit nicht top-down organisiert wird (s. Spence Laschinger et al. 2003, S. 411, 420). In der Folge können die Pflegefachpersonen die positiven Seiten des Pflegeberufes viel stärker wahrnehmen. Der soziale Aspekt wird stärker in den Vordergrund gestellt und die eigene Arbeit viel wertvoller empfunden.

Vorbehaltsaufgaben treffen auf Führungskultur

Ganz entscheidend für den Erfolg der Umsetzung von Vorbehaltsaufgaben ist es daher, dass die Haltung und der entsprechende Führungsstil in Einrichtungen des Gesundheitswesens vorhanden sein müssen und dass diese Prozesse aus der Organisation heraus entwickelt werden.

Die Führungskraft muss Räume schaffen, um Pflegekräfte im Alltag zu stärken, indem sie diesen die Möglichkeit gibt, eigenständig zu handeln und zu gestalten. Dadurch entsteht professionelles Handeln und Stolz. Diese Professionalität wirkt über die Grenzen der Organisation hinaus. Die Mitarbeitenden können sich an ihrem Arbeitsplatz wohl fühlen, sich entfalten, haben einen echten Einfluss auf ihre Arbeit und tragen das auch weiter.

Erfolgsfaktor Weiterbildung

Ein zusätzlicher Aspekt neben Empowerment und Mitarbeiterautonomie ist das Thema Weiterbildung. Um Pflegekräfte langfristig zu motivieren, ist Weiterbildung unerlässlich. Sie führt nachweislich zu einem gesteigerten Selbstbewusstsein und idealerweise zu einem besseren Verständnis für die eigene Berufstätigkeit oder Profession. Weiterbildungen regen dazu an, Fragen zu stellen und über bestehendes Wissen nachzudenken. Durch strategische Partnerschaften mit Pflegeschulen und pflegewissenschaftlichen Hochschulen kann die Haltung und professionelle Arbeitsweise einer Organisation von Anfang an gefördert werden, um eine nachhaltig positive Sozialisierung im Pflegeberuf zu gewährleisten. Gleichzeitig kann die Entwicklung von Führungskräften sowie anderen wichtigen Schlüsselakteuren wie Fachpflegekräften (z. B. in der Diabetologie oder Gerontologie) im Einklang mit der Organisationsphilosophie erfolgen.

Transformation am besten aus der Organisation heraus

In Summe führen die einzelnen Teile von Magnet, New Work und anderen Organisationsdesigns immer wieder dazu, dass Prozesse, Aufgaben und auch Rollenbilder aus der Organisation heraus entwickelt werden müssen und nicht nur rein durch Top-down-Ansätze bewirkt werden können. Dabei spielt es keine Rolle, ob die Top-down-Veränderungen aus dem Management oder über politische Entscheidungen angestoßen werden. Es ist unerlässlich, dass vor Ort in den Einrichtungen die entsprechenden Weichen durch eine entsprechende Kultur gestellt werden. So kann die Transformation gelingen und nachhaltig Veränderung im Inneren und Äußeren erreicht werden. Das Zusammenspiel externer Wahrnehmung, dem Selbstbild der Pflegekräfte, den Möglichkeiten der Selbstorganisation und das daraus entstehende Wirksamkeitserleben führt zum einen zu einer deutlich höheren Zufriedenheit der professionell Pflegenden, zum anderen steigt damit aber auch die Attraktivität des Pflegeberufes (s. Schiller et al. 2020; Weibler 2017).

 

Über die Autorin:
Louise Enz ist examinierte Gesundheits- und Krankenpflegerin und hat sich schon während ihrer Masterthesis mit den Attraktoren von Magnetkrankenhäusern in Zusammenhang mit der stationären Langzeitpflege befasst. Derzeit arbeitet sie als Vorstandsreferentin beim Paul-Gerhardt-Werk e.V. in Offenburg.

 

Lesetipps
Boschert, S. (2020): Wohngruppen in der Altenpflege. Ein Baustein im Quartier: praktische Ideen für Gestaltung und Organisation. Hannover: Schlütersche (Pflegemanagement).
Dignan, A. (2019): Brave new work. Are you ready to reinvent your organization? London: Penguin Business.
Laloux, F. (2017): Reinventing Organizations visuell. Ein illustrierter Leitfaden sinnstiftender Formen der Zusammenarbeit. München: Verlag Franz Vahlen.
Masterarbeit Enz, L. (2022): Die Attraktoren von Magnetkrankenhäusern im Zusammenhang mit der stationären Altenhilfe – Scoping-Review
Merke, P. (2022): New Work in Healthcare. Die neue und andere Arbeitskultur im Gesundheitswesen. Berlin: Medizinisch Wissenschaftliche Verlagsgesellschaft.


Literaturverzeichnis

Gasda, Kimberly A. (2002): The Magnetic pull. In: Nursing management 33 (7)
Luzinski, Craig (2012): An innovative environment where empowered nurses flourish. In: The Journal of nursing administration 42 (1), S. 3–4. DOI: 10.1097/NNA.0b013e31823c16fc.
Schiller, Marie-Sophie; Rollow, Bettina; Breidenbach, Joanna (2020): Pflegenotstand – Ist New Work die Lösung? Wie geht New Work in der Pflege? (Ist New Work die Lösung?), 26.08.2020.
Spence Laschinger, Heather K.; Almost, Joan; Tuer-Hodes, Donnalene (2003): Workplace Empowerment and Magnet Hospital Characteristics: Making the Link. In: JONA: The Journal of Nursing Administration 33 (7/8).
Weibler, Jürgen (2017): Empowerment. Mitarbeiter mobilisieren und binden. Hg. v. Leadership Insiders (Führung im Fokus). Online verfügbar unter https://www.leadership-insiders.de/empowerment-mitarbeiter-mobilisieren-und-binden/print/.


3. Süddeutscher Qualitätstag am 28. Juni 2024 am Fraunhofer IPA in Stuttgart

2. Süddeutscher Qualitätstag, SQT

Der 3. Süddeutsche Qualitätstag am 28. Juni 2024 ist die perfekte Gelegenheit für alle, die ihre Kenntnisse im Bereich des Qualitätsmanagements erweitern möchten. Erleben Sie spannende Vorträge von renommierten Experten und diskutieren Sie die neuesten Trends und Entwicklungen mit anderen Teilnehmerinnen und Teilnehmern.

Die Eröffnung des 3. Süddeutschen Qualitätstags erfolgt unter anderem durch Michael Burghartz-Widmann, Vorstandsmitglied der DGQ. Ein weiteres Highlight ist die Keynote von Dr. Lars Vollmer. In seinem Vortrag “Zurück an die Arbeit – Wie aus Business-Theatern wieder echte Unternehmen werden” analysiert er, was in den Unternehmen falsch läuft, und zeigt, wie diese wieder zurückfinden zu echter Arbeit, die Freude macht, Sinn ergibt und sich nachhaltig lohnt.

Fachvorträge zu aktuellen Themen im Qualitätsmanagement

In zahlreichen Vorträgen aus Forschung und Praxis erfahren Sie, welche Trends sich im Qualitätsmanagement abzeichnen, welche Instrumente Firmen erfolgreich einsetzen und welche Standards neu betrachtet werden sollten. Freuen Sie sich auf den praktischen Austausch mit zahlreichen Expertinnen und Experten und profitieren Sie von den Erfahrungen.

Vortragsprogramm des 3. Süddeutschen Qualitätstags

  • Product Compliance System
    Dr. Ludwig Schares, Dr. Ing. h.c. F. Porsche Aktiengesellschaft
  • Reform nach fast 40 Jahren – Welche Auswirkungen hat die neue EU-Produkthaftungsrichtlinie für Unternehmen?
    Dr. Gerald Gräfe, Rechtsanwalt und Partner, CMS Hache Sigle
  • Industrielle Exoskelette – Status, Funktion, Ausblick
    Dr.-med. Urs Schneider, Abteilungsleiter Biomechatronische Systeme, Fraunhofer-Institut für Produktionstechnik und Automatisierung, IPA
  • Material Compliance – Zunehmende Heraus- und Anforderung für Unternehmen
    Berit Guse, Umweltmanagement, Dr. Fritz Faulhaber GmbH & Co. KG & Anne-Kathrin Nuffer, Gruppenleiterin Sustainability and Material Compliance Management, Fraunhofer-Institut für Produktionstechnik und Automatisierung, IPA
  • Holistisches Risikomanagement
    Alexander Schloske, Senior Expert Quality, Fraunhofer-Institut für Produktionstechnik und Automatisierung, IPA
  • Vom Lager zum Löffel
    Christian Pflüger, DACHSER SE
  • Industrie im Wandel – Der Weg zum lokal CO2 neutralen Transport aus der Sicht eines Nutzfahrzeugherstellers
    Dr. Dalibur Dudic, Daimler Truck AG
  • Risikomanagement für Medizinprodukte
    Dr. Thomas Schmitz, Consulting | Project Management PLATO GmbH | a PeakAvenue Company
  • Fehler ansprechen – verschweigen – ansprechen – verschweigen
    Thomas Dörr, DFS Deutsche Flugsicherung GmbH / Jörg Rittker, Dr. Fritz Faulhaber GmbH & Co. KG / Hildegard Schuller, Mitglied im Fachkreis Qualität und Projekte / Gabriella Zimmermann, Ipu fit for success
  • Schwäbische Kehrwoche im Managementsystem
    Jörg Nienaber, N5 GmbH
  • Prozessfähigkeitsuntersuchungen und Besondere Merkmale oder wie weise ich einen robusten Prozess nach
    Dr. Dirk Jödicke, Six Sigma Master Black Belt, Coaching & Prozessoptimierungen
  • Performance under Pressure! Was Führungskräfte von Spitzensportlern lernen können!
    Dunja Lang, Dunja Lang Consulting
  • Die Chancenchance: Managementsysteme der Zukunft
    Dr. Markus Reimer

 

Der 3. Süddeutsche Qualitätstag bietet damit eine einzigartige Möglichkeit zum Wissensaustausch und Networking für Fach- und Führungskräfte im Qualitätsmanagement.

Wir freuen uns, wenn Sie mit dabei sind!

 

Informationen zur Anmeldung

Wann: Freitag, 28. Juni 2024, von 10:00 Uhr bis 17:00 Uhr
Wo: Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA, Nobelstr. 12/13, 70569 Stuttgart
Kosten: 99,- € zzgl. MwSt. (79,- € zzgl. MwSt. für DGQ-Mitglieder)

Zur Anmeldung »

 

Als DGQ-Mitglied können Sie zum reduzierten Kostenbeitrag teilnehmen. Sie sind noch kein Mitglied? Dann nutzen Sie doch für die Anmeldung unsere beitragsfreie, dreimonatige Schnuppermitgliedschaft.

Haben Sie Fragen? Nehmen Sie gern Kontakt mit uns in der DGQ-Geschäftsstelle Stuttgart auf! Einfach per E-Mail an stuttgart@dgq.de oder telefonisch unter 0711- 95 611 61. Bei allen organisatorischen Fragen und Rückfragen zur Anmeldung hilft Ihnen auch unser Kooperationspartner des Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA (event@ipa.fraunhofer.de, 0711 970-3540) weiter.

Kontinuierliche Eignung von Prüfprozessen nach VDA Band 5 – Hintergrund und praktische Umsetzung

Prüfprozesse, VDA 5

Die Neuauflage des VDA Band 5 aus dem Jahr 2021 enthält eine Vielzahl von Neuerungen, die für Unternehmen im Automobilbereich in Zukunft wichtig werden. Eine der wichtigsten Neuerungen stellt die Forderung eines fortlaufenden Eignungsnachweises für kritische Prüfprozesse dar. Dieser Fachbeitrag erklärt die technischen und normativen Hintergründe der Anforderung und stellt konkrete Umsetzungsmöglichkeiten dar.

Die ISO 9001:2015 definiert Begriffe für die korrekte Funktion von Prüfmitteln. Grundsätzlich müssen im Kontext der ISO 9001:2015 zu jedem Zeitpunkt Eignung und Rückführbarkeit von Prüfmitteln sichergestellt sein. Diese beiden Anforderungen finden sich in vergleichbarer Form in Automobilspezifischen Normen wie der IATF 16949 oder dem VDA Band 5 wieder. Der VDA Band 5 beschreibt unter anderem, wie Eignung und Rückführbarkeit statistisch nachgewiesen werden können. Die Nachweispflicht gilt für alle Sensoren, Messgeräte und sonstige Hilfsmittel, bei denen eine Kundenspezifikation abgeprüft wird.

Um zu verstehen, was der VDA Band 5 unter einem fortlaufenden Eignungsnachweis versteht, ist es hilfreich zu veranschaulichen was die beiden Begriffe Rückführbarkeit und Eignung bedeuten:

Begriffsdefinition Rückführbarkeit
Rückführbarkeit stellt sicher, dass Messungen verschiedener Messmittel untereinander vergleichbar sind. So ist z.B. sichergestellt, dass Kunden und Lieferanten bei Messungen an Produkten zu gleichen Ergebnissen kommen. Die Vergleichbarkeit wird durch regelmäßige Kalibrierung sichergestellt. Das Kalibrierergebnis setzt sich aus Kalibrierabweichung und Kalibrierunsicherheit zusammen. Aus dem Kalibrierergebnis lässt sich eine Obergrenze für den systematischen Messfehler ableiten. Kalibrierung findet in regelmäßigen Intervallen und unter kontrollierten Bedingungen außerhalb des laufenden Produktionsprozesses statt.
Begriffsdefinition Eignung
Eignung beschreibt die Unsicherheit einer Messung im Verhältnis zu einer gegebenen Toleranz (z.B. ein Zeichnungsmaß). Je kleiner die Unsicherheit einer Messung im Verhältnis zur Toleranz, desto höher ist die Eignung eines Messmittels für eine gegebene Prüfaufgabe. Abbildung 1 stellt den Sachverhalt grafisch dar. Wichtig ist, dass ein Eignungsnachweis immer unter Berücksichtigung der realen Anwendungsbedingungen geführt werden muss. Alle Einflussfaktoren, die im Serienprüfprozess wirksam sind, müssen auch im Eignungsnachweis berücksichtigt werden. Der systematische Messfehler aus der Kalibrierung ist somit einer von mehreren Einflussfaktoren, die zur Messunsicherheit beitragen.
Schematische Darstellung von Eignung nach VDA Band 5

Abb. 1: Schematische Darstellung von Eignung nach VDA Band 5. Der gelb hinterlegte Bereich stellt den Unsicherheitsbereich der Messung dar.

Sicherstellung der fortlaufenden Eignung eines Prüfsystems

Bisher war es in vielen Firmen gelebte Praxis, den Eignungsnachweis einmalig bei der Inbetriebnahme oder nach größeren Änderungen durchzuführen. Die korrekte Funktion des Prüfmittels wurde lediglich über die regelmäßige Kalibrierung abgesichert. Dahinter steckt die Annahme, dass sich die Messunsicherheit eines Prüfmittels während des Betriebes nicht nennenswert verändert. Aus technischer Sicht ist dies jedoch eine gewagte Annahme. In vielen Messprozessen wird die Unsicherheit stark von äußeren Einflüssen bestimmt. Maschinen und Messaufnahmen und elektrische Kontaktierungen unterliegen beispielsweise dem Verschleiß, der über die Zeit hinweg zu einer höheren Messunsicherheit führen kann. Viele dieser äußeren Einflüsse auf die Messunsicherheit bleiben bei der regelmäßigen Kalibrierung jedoch unsichtbar.

An dieser Stelle setzt der neue VDA Band 5 an. In Kapitel 10 über die fortlaufende Eignung steht geschrieben: “Die Beurteilung der fortlaufenden Eignung, bislang oft auch als Stabilitätsüberwachung oder Messbeständigkeit genannt, hat aufgrund der Normenanforderung in der ISO 9001 an Bedeutung gewonnen.” Und weiter: “Die regelmäßige Kalibrierung der Messmittel ist im Rahmen der Prozesse zur Prüfmittelüberwachung unumgänglich (siehe Kapitel 4.5.2), reicht aber in vielen Fällen für eine umfassende Stabilitätsüberwachung nicht aus, da die Kalibrierung nicht unter tatsächlichen Einsatzgegebenheiten durchgeführt wird.

Der VDA Band 5 stellt somit deutlich heraus, dass nicht alle Einflussfaktoren auf die Messunsicherheit durch Kalibrierung abgesichert werden können. Aus diesem Grund reicht die regemäßige Kalibrierung allein nicht aus, um fortlaufende Eignung eines Prüfsystems nachzuweisen.

Da Eignungsnachweise in der Regel mit erheblichem Aufwand verbunden sind, stellt sich die Frage, für welche Prüfprozesse ein fortlaufender Eignungsnachweis erforderlich ist. Der VDA Band 5 fordert insbesondere für sicherheitskritische und zulassungskritische Merkmale Absicherungsmaßnahmen, um die fortlaufende Eignung von Prüfprozessen sicherzustellen. In verringertem Umfang gilt diese Anforderung auch für Prüfungen von funktionswichtigen Merkmalen und Messungen, die direkten Einfluss auf die Produktqualität haben.

Praktische Umsetzung des kontinuierlichen Eignungsnachweises

Neben der Frage, für welche Prüfprozesse fortlaufende Eignung gefordert ist, ist die praktische Umsetzung eines solchen kontinuierlichen Eignungsnachweises besonders wichtig. Der zusätzliche Aufwand, der durch den kontinuierlichen Eignungsnachweis entsteht, sollte dabei so gering wie möglich ausfallen. Der VDA Band 5 schlägt zur praktischen Umsetzung einer fortlaufenden Eignungsprüfung den Einsatz von Regelkarten vor. Um die Daten für die Regelkarte zu erheben, werden regelmäßig ein oder mehrere Meisterteile geprüft und die Messwerte erfasst. Die Meisterteile sollten in sich stabil sein und ihre Messwerte über die Zeit hinweg möglichst wenig ändern. Auf diesem Weg kann die Stabilität eines Messprozesses in Bezug auf Lage und Streuung überwacht werden. Häufigkeit und Umfang der Prüfung werden auf Basis des Risikos festgelegt. Im VDA Band 5 werden als Beispiel klassische x ̅-s Karten mit einer Eingriffsgrenze von drei Standardabweichungen (99,73% Vertrauensniveau) oder gleitende Mittelwertkarten vorgeschlagen.

Abbildung 2 zeigt eine Regelkarte mit x ̅- und s-Spur, die zur Stabilitätsüberwachung eingesetzt werden kann. Der Nachteil der Regelkartentechnik besteht im beträchtlichen zeitlichen Aufwand. Prüfstände für komplexe Produkte wie Steuergeräte oder Getriebe haben hunderte von Prüfungen. Selbst wenn nur ein Teil der Messungen für die fortlaufende Eignung ausgewählt wird, kommen auf diese Art schnell dutzende Regelkarten zusammen.

Zweispurige Stabilitätskarte zur Überwachung von Lage und Streuung eines Messprozesses

Abb. 2: Zweispurige Stabilitätskarte zur Überwachung von Lage und Streuung eines Messprozesses. Die Eingriffsgrenzen sind rot gekennzeichnet. Zur besseren Orientierung wurden zusätzlich auch die Warngrenzen in Gelb dargestellt.

Automatische Überwachung von Prüfprozessen mittels Softwarelösung

Eine digitale Auswertung von Messdaten kann den zeitlichen Aufwand für den kontinuierlichen Eignungsnachweis erheblich reduzieren. Prophet Analytics bietet eine Softwarelösung, die Prüfprozesse automatisch überwacht und bei Abweichungen Benachrichtigungen erzeugt. So ist es nicht länger notwendig, jede Regelkarte manuell zu führen und zu bewerten. Verletzungen von Eingriffs- und Warngrenzen können über automatische Benachrichtigungen gelenkt werden.

Obwohl die Regelkartentechnik das Risiko fehlerhafter Messungen deutlich verringert, erlaubt dieser Ansatz streng genommen keine fortlaufende Eignungsprüfung. Regelkarten basieren grundsätzlich auf Stichprobenprüfungen und geben somit immer nur eine Momentaufnahme wieder. Einflussfaktoren, die nur sporadisch wirksam sind, können durch Regelkarten nicht zuverlässig überwacht werden. Ein zweiter Nachteil der Regelkartentechnik ist die Tatsache, dass das Einlegen der Meisterteile in der Regel einen Eingriff in den normalen Produktionsprozess bedeutet. In Produktionsanlagen und Maschinen, die auf eine kontinuierliche Fertigung ausgelegt sind, ist so ein Eingriff nicht möglich. Beispiele hierfür sind chemische Prozesse oder die Herstellung von Blechen oder Folien.

Prophet Analytics bietet auch eine Lösung zur Stabilitätsüberwachung für Maschinen, bei denen keine Meisterteile verwendet werden können. Eine Überwachung von einzelnen Prüfmitteln ist dann möglich, wenn weitere Daten aus unterschiedlichen Quellen verfügbar sind. Abbildung 3 zeigt eine schematische Darstellung des Verfahrens. Das Verfahren nutzt Daten aus Messungen, die von anderen Prüfeinrichtungen erhoben wurden und mit dem zu überwachenden Prüfmittel korreliert sind.

Schematische Darstellung des Korrelationsverfahrens zur Stabilitätsüberwachung von Messprozessen

Abb. 3: Schematische Darstellung des Korrelationsverfahrens zur Stabilitätsüberwachung von Messprozessen.

Anwendung des Korrelationsverfahren in der Automobilindustrie

Ein Anwendungsbeispiel für das Korrelationsverfahren ist die Fertigung von Steuergeräten in der Automobilindustrie. Steuergeräte werden häufig mehrfach bei unterschiedlichen Temperaturen geprüft. Die Messwerte an den unterschiedlichen Prüfstationen sind korreliert. Durch Vergleich der Messwerte an den unterschiedlichen Prüfstationen kann eine Prognose für den erwarteten Messwert und ein plausibler Streubereich ermittelt werden. Abbildung 4 zeigt Messungen eines Prüfprozesses und den Zufallsstreubereich der Messung, der mit Hilfe des Korrelationsverfahrens ermittelt wurde. Messwerte außerhalb des blauen Zufallsstreubereichs würden auf eine Fehlfunktion des Messgeräts hindeuten.

Daten eines Messgeräts (Punkte)

Abb. 4: Daten eines Messgeräts (Punkte). Die blau hinterlegte Fläche zeigt Zufallsstreubereich an.

Das Korrelations-Verfahren hat zwei entscheidende Vorteile gegenüber der Regelkartentechnik: Es basiert nicht auf Stichproben und ermöglicht daher je nach Anlagenaufbau bis zu 100 Prozent Überwachung. Außerdem ist das Korrelationsverfahren aufwandsneutral, weil bestehende Daten aus dem laufenden Prozess verwendet werden und kein händischer Prozesseingriff mehr erforderlich ist. Das Korrelationsverfahren und das Regelkartenverfahren lassen sich unabhängig voneinander oder in Kombination anwenden (siehe Beispielanwendung einer Stabilitätsüberwachung).

Fazit

Auf den ersten Blick bedeutet ein kontinuierlicher Eignungsnachweis für Unternehmen mehr Aufwand und mehr Kosten. Diesem Aufwand stehen aber auch Einsparungen gegenüber. Die bessere Absicherung der Prüfprozesse beugt Reklamationen vor. Da die Lage und Streuung von Prüfprozessen mit kontinuierlichem Eignungsnachweis bekannt sind, besteht auch die Möglichkeit Kalibrierintervalle neu zu bewerten und gegebenenfalls zu verlängern. Viele Unternehmen nutzen heute schon eine Kombination aus Stabilitätsüberwachung und Kalibrierung, um Kosten bei der Kalibrierung einzusparen und gleichzeitig ein hohes Maß an Absicherung zu erreichen.

Zusammenfassend kann gesagt werden, dass die Anforderung nach einem kontinuierlichen Eignungsnachweis im neuen VDA Band 5 technisch sinnvoll ist. Die Forderung kann auf grundlegende Anforderungen der ISO 9001:2015 zurückgeführt werden und verbessert die Absicherung von kritischen Prüfprozessen. Der Einsatz moderner Softwarelösungen kann helfen, ein hohes Maß an Absicherung zu erreichen, ohne unnötige händische Eingriffe in den Produktionsprozess vornehmen zu müssen. Der kontinuierliche Eignungsnachweis kann auf diesem Wege nahezu aufwandsneutral gestaltet werden.

 

Über den Autor:
Dr.-Ing. Stefan Prorok ist Geschäftsführer der Prophet Analytics GmbH und DGQ-Trainer für Qualitätssicherung und Prüfmittel. Prophet Analytics unterstützt Unternehmen in allen Phasen Ihrer KI-Umsetzung mit Trainings- und Beratungsangeboten.

Lean Management ist mehr als Aufräumen – die Bedeutung und Prinzipien

Lean Management, Logistik, Lager

Lean Management hat in den letzten Jahrzehnten einen bemerkenswerten Aufschwung erlebt und ist zu einem integralen Bestandteil zahlreicher Unternehmensstrategien geworden. Doch oft wird Lean Management fälschlicherweise auf die schlichte Organisation und Sauberkeit am Arbeitsplatz reduziert. In Wahrheit ist Lean weit mehr als nur das.

Lean Management ist ein ganzheitlicher Ansatz zur Steigerung der Effizienz und Wertschöpfung in Unternehmen. Es geht dabei nicht nur um die Reduzierung von Verschwendung und die Schaffung von Ordnung am Arbeitsplatz, sondern um eine tiefgreifende Transformation der Unternehmenskultur und -prozesse.

Die Lean Prinzipien: Grundlagen einer schlanken Organisation

Die Prinzipien des Lean Management bilden das Fundament für eine effektive Umsetzung. Die Kernprinzipien lauten:

  1. Wertschöpfung aus Sicht des Kunden:
    Das Hauptaugenmerk liegt darauf, den Wert aus Sicht des Kunden zu definieren und alle Aktivitäten darauf auszurichten, diesen Wert zu maximieren und Verschwendung zu minimieren.
  2. Identifikation und Eliminierung von Verschwendung:
    Wertstrom identifizieren. Der Ansatz zielt darauf ab, alle Arten von Verschwendung zu erkennen und zu beseitigen, sei es in Form von Überproduktion, Wartezeiten, unnötigen Bewegungen, Lagerbeständen oder Fehlern.
  3. Schaffung von Fluss:
    Die reibungslose Durchführung von Prozessen wird durch die Schaffung eines kontinuierlichen Flusses von Materialien, Informationen und Aktivitäten angestrebt, um Verzögerungen und Engpässe zu minimieren.
  4. Pull-Prinzip:
    Die Produktion wird durch die tatsächliche Nachfrage gesteuert, wodurch Überproduktion vermieden und eine Just-in-Time-Produktion ermöglicht wird.
  5. Streben nach Perfektion:
    Lean Management ist ein kontinuierlicher Verbesserungsprozess, bei dem ständig nach Möglichkeiten gesucht wird, Prozesse effizienter zu gestalten und die Qualität zu verbessern.

Sieben Arten der Verschwendung

Die sieben Arten der Verschwendung (Akronym TIMWOOD), auch bekannt als die “7 Muda” im Lean Management, sind grundlegende Kategorien von nicht-wertschöpfenden Aktivitäten oder Ressourcen, die die Effizienz von Prozessen verringern. Diese Konzepte wurden von Taiichi Ohno, einem Pionier des Toyota Production Systems, entwickelt.

Die sieben Arten der Verschwendung lassen sie wie folgt beschreiben:

  1. Überflüssige Transporte (Transportation):
    Überflüssige Transporte beziehen sich auf unnötige Bewegungen von Materialien oder Produkten innerhalb eines Produktionsprozesses oder zwischen verschiedenen Standorten. Dies kann zu zusätzlichen Kosten, Zeitverlusten und Beschädigungen führen.
  2. Bestände (Inventory):
    Bestände entstehen, wenn mehr Materialien oder Produkte vorhanden sind als unmittelbar benötigt werden. Dies führt zu erhöhten Lagerkosten, versteckten Qualitätsproblemen und einem erhöhten Risiko für Überproduktion und Verschwendung.
  3. Bewegung (Motion):
    Verschwendung tritt auf, wenn Mitarbeitende unnötige Bewegungen ausführen, um eine Aufgabe abzuschließen, zum Beispiel längere Laufwege, unergonomische Arbeitsplatzgestaltung oder unnötige Auspack- oder Umräumvorgänge. Dies kann zu Ermüdung, Verletzungen und einer Verringerung der Effizienz führen.
  4. Wartezeiten (Waiting):
    Wartezeiten entstehen, wenn Produkte oder Mitarbeitende auf den Beginn einer nächsten Aktivität warten müssen. Dies kann durch ineffiziente Prozesse, unzureichende Ressourcenauslastung oder Engpässe in der Produktion verursacht werden.
  5. Überproduktion (Overproduction):
    Überproduktion tritt auf, wenn mehr produziert wird, als tatsächlich benötigt wird. Dies führt zu unnötigen Lagerbeständen, erhöhten Lagerkosten und verdeckt oft andere Probleme in der Produktion, wie Engpässe und Qualitätsprobleme. Zudem sind Überproduktionen die Ursache für zwei bereits genannte Lean Verschwendungsarten, nämlich Transport und Bestände.
  6. Überbearbeitung (Overprocessing):
    Overprocessing oder auch overengineering bezieht sich auf unnötige oder übermäßige Arbeitsschritte oder Aktivitäten, die über die Anforderungen des Kunden hinausgehen oder keinen zusätzlichen Wert für das Endprodukt oder die Dienstleistung bieten. Dies führt zu einer ineffizienten Nutzung von Ressourcen und erhöhten Kosten, ohne einen entsprechenden Nutzen zu erzielen.
  7. Defekte (Defects):
    Defekte oder Ausschuss bezieht sich auf fehlerhafte Produkte oder Dienstleistungen, die nicht den Qualitätsstandards entsprechen und daher nachgearbeitet oder aussortiert werden müssen.

Ergänzend wird häufig noch das ungenutzte Talent beziehungsweise die ungenutzte Kreativität der Mitarbeiter sowie das Ungleichgewicht („Mura“) und die Überbeanspruchung („Muri“) aufgenommen. Diese beiden Begriffen lassen sich wie folgt beschreiben:

Begriffsdefinition Muri 
Muri bezeichnet Überlastung oder Überbeanspruchung. Es tritt auf, wenn Mitarbeiter, Maschinen oder Prozesse über ihre Kapazitätsgrenzen hinaus belastet werden. Dies kann zu übermäßiger Anstrengung, Erschöpfung, Qualitätsproblemen und ineffizienten Abläufen führen. Beispiele für Muri sind übermäßige Arbeitsbelastung für Mitarbeiter, unzureichende Kapazität von Maschinen oder unnötig komplexe Arbeitsabläufe.
Begriffsdefinition Mura
Mura bezeichnet Ungleichgewicht oder Unausgeglichenheit. Es tritt auf, wenn es Unregelmäßigkeiten oder Schwankungen in einem Prozess gibt, die zu Instabilität und Ineffizienz führen. Dies kann zu Engpässen, Wartezeiten, Überproduktion oder unvorhersehbaren Ergebnissen führen. Beispiele für Mura sind ungleichmäßige Arbeitsbelastung, unregelmäßige Produktionsplanung oder unvorhersehbare Schwankungen in der Nachfrage.

 

In einem Lean-Produktionssystem strebt man danach, Muri und Mura zu reduzieren oder zu beseitigen, um einen gleichmäßigen, stabilen und effizienten Produktionsfluss zu erreichen. Durch die Eliminierung von Muri und Mura kann die Produktivität gesteigert, die Qualität verbessert und die Verschwendung reduziert werden.

Die sieben Verschwendungsarten werden besonders interessant, wenn man sie genauer analysiert und dabei möglicherweise feststellt, dass eine Verschwendung nur durch eine andere vermieden werden kann. Dadurch entwickeln sich die sieben Muda, insbesondere im Zusammenspiel mit Mura und Muri, zu einem umfassenden Denkmodell, das bei der Gestaltung von Organisationen, der Prozessoptimierung und der Digitalisierung äußerst nützlich ist.

Grundlegende Philosophie für mehr Wettbewerbsfähigkeit

Die Prinzipien des Lean, wenn sie konsequent angewendet werden, führen zu einer schlanken Organisation, die in der Lage ist, sich schnell an Veränderungen anzupassen, Verschwendung zu minimieren und höchste Qualität zu liefern. Es ist eine Philosophie, die die gesamte Organisation durchdringt und einen nachhaltigen Wettbewerbsvorteil schafft.

In der heutigen schnelllebigen Geschäftswelt ist es entscheidend, dass Unternehmen über die traditionellen Grenzen des Lean Managements hinausblicken und die tieferen Prinzipien verstehen, um ihre Wettbewerbsfähigkeit zu erhalten und zu verbessern. Lean Management zielt auf eine grundlegende Veränderung der Art und Weise ab, wie Unternehmen betrieben werden.

Mehr Prozesseffizienz durch Lean-Management-Methoden

Lean Management-Methoden können im Qualitätsmanagement dazu beitragen, Prozesse effizienter zu gestalten, indem sie Verschwendung reduzieren, kontinuierliche Verbesserungen fördern und eine stärkere Kundenorientierung ermöglichen. Hier sind einige Beispiele aus der Praxis:

Identifizierung und Eliminierung von Verschwendung:

Lean-Methoden wie Value Stream Mapping helfen dabei, den Fluss von Materialien und Informationen durch den gesamten Produktions- oder Dienstleistungsprozess zu visualisieren. Durch die Analyse dieses Flusses können Unternehmen nicht wertschöpfende Aktivitäten identifizieren und eliminieren, die die Qualität beeinträchtigen könnten.

Kontinuierliche Verbesserung:

Durch die Einführung von Methoden wie Kaizen-Veranstaltungen oder PDCA-Zyklen (Plan-Do-Check-Act) können Organisationen kontinuierlich nach Möglichkeiten zur Verbesserung ihrer Qualitätsprozesse suchen. Zum Beispiel könnte ein Unternehmen regelmäßige Kaizen-Veranstaltungen durchführen, um potenzielle Qualitätsprobleme zu identifizieren und zu lösen, bevor sie sich auf die Endprodukte auswirken.

Kundenorientierung:

Durch die Anwendung von Methoden wie Kundenfeedback-Analysen oder Voice of Customer (VOC)-Studien können Unternehmen ein besseres Verständnis für die Anforderungen ihrer Kunden entwickeln und sicherstellen, dass ihre Qualitätsprozesse diese Anforderungen erfüllen. Zum Beispiel könnte ein Unternehmen VOC-Studien verwenden, um direktes Feedback von Kunden über die Qualität seiner Produkte oder Dienstleistungen zu erhalten und Verbesserungen vorzunehmen, um ihre Zufriedenheit zu steigern.

Just-in-Time-Produktion:

Durch die Implementierung von Just-in-Time-Prinzipien können Unternehmen die Effizienz ihrer Produktionsprozesse steigern und gleichzeitig die Qualität verbessern. Indem Materialien und Ressourcen nur dann bereitgestellt werden, wenn sie benötigt werden, können Unternehmen Überproduktion und Lagerbestände reduzieren, die die Qualität beeinträchtigen könnten. Zum Beispiel könnte ein Unternehmen Kanban-Systeme verwenden, um den Materialfluss zu steuern und sicherzustellen, dass Materialien nur dann nachgeliefert werden, wenn sie tatsächlich benötigt werden.

 

Auch wenn der Ursprung aus dem produzierenden Umfeld stammt, ist die die Anwendung von Lean Management auch bei Dienstleistungen problemlos möglich:
Ein Callcenter analysiert beispielsweise gezielt Kundenfeedback, um die wichtigsten Bedürfnisse und Erwartungen der Kunden zu identifizieren. Dabei stellt sich heraus, dass die Kunden vor allem schnelle und präzise Antworten auf ihre Fragen erwarten und keinen Wechsel der Ansprechpersonen wünschen.

Durch die Anwendung von Lean-Tools wie Value Stream Mapping wird der Kundenserviceprozess visualisiert, von der Annahme des Anrufs bis zur Lösung des Kundenproblems. Dabei werden nicht-wertschöpfende Aktivitäten wie unnötige Übertragungen zwischen Abteilungen oder wiederholte Dateneingaben identifiziert und beseitigt.

 

Über den Autor:
Oliver Schneider studierte Ernährungswissenschaften (M.Sc.) in Gießen und war danach als wissenschaftlicher Mitarbeiter und Projektassistent tätig. Seit 2015 ist er als Produktmanager bei der DGQ und verantwortet aktuell das Weiterbildungsportfolio zum Thema Qualitätsmanagement und Lean Six Sigma. Seine Qualifizierungen zum Qualitätsmanager und Lean Six Sigma Green Belt helfen ihm bei der Weiterentwicklung und Beratung seiner Themenbereiche.

Künstliche Intelligenz in der Qualität – Praktische Einführung durch iteratives Vorgehen

QM und die künstliche Intelligenz

In den vergangenen Jahren sind eine Reihe von einfach zu bedienenden künstliche Intelligenz (KI) Werkzeugen entstanden, die sich problemlos in bestehende Arbeitsabläufe integrieren lassen. Chatbots wie ChatGPT und Low-Code/No-Code- Lösungen sind Beispiele hierfür. Diese Entwicklung hat die Einstiegsschwelle für Mitarbeiter, die mit KI arbeiten möchten, deutlich reduziert. Im zweiten Teil der Fachbeitragsreihe haben wir die notwendigen Qualifikationen behandelt, die Mitarbeiter in Zukunft mitbringen sollten. In diesem Fachbeitrag wird anhand eines konkreten Beispiels gezeigt, wie eine Einbindung von einfachen KI-Werkzeugen einen Mehrwert im Unternehmen schaffen kann.

Die Anwendungsfälle für KI entstehen im besten Fall aus der Kreativität der Mitarbeiter und nicht aus einer übergeordneten Firmenstrategie. Das bedeutet: Reale Probleme lösen und nicht Probleme für bestehende (IT-)Lösungen suchen. Der Vorteil hierbei ist, dass zum frühestmöglichen Zeitpunkt ein Mehrwert für das Unternehmen entsteht, ohne dass große Projektbudgets ausgelobt werden müssen.

Einsatz von Methoden aus dem agilen Projektmanagement

Insbesondere durch den Einsatz der Methoden des agilen Projektmanagements (SCRUM, KANBAN) lassen sich Projekte in eigenständige Teillösungen, sogenannte Minimal Viable Products (MVP) planen. Dies hat zur Folge, dass man Produkte beziehungsweise Lösungen in einem Baukastensystem aufbaut und immer wieder verbessert und erweitert. Gleichzeitig lässt sich die hergestellte Teillösung nutzen, ohne das Gesamtergebnis abwarten zu müssen. Dieser Ansatz fügt sich nahtlos in bestehende Programme zur kontinuierlichen Verbesserung (zum Beispiel Kaizen) ein.

Hierfür ein Beispiel: In einer Produktionslinie werden Produkte durch das Prüfgerät fälschlicherweise als nicht in Ordnung (n.i.O.) eingestuft. Nach einer manuellen Analyse und dem Erstellen eines Analyseberichts des Mitarbeiters, wird das Produkt erneut getestet und durch das Prüfergebnis als in Ordnung (i.O.) eingestuft (siehe Abbildungen 1 und 2). Diese Fehlentscheidungen führen zu Verschwendungsformen wie: Fehlerkorrekturen, Lagerbestände, Wartezeiten und nicht genutztes Mitarbeiterpotential (s. sieben Arten der Verschwendung des Toyota Produktionssystems).

Abb. 1: Ablauf einer Prüfausfallanalyse mit manuellem Prozess

Abb. 1: Ablauf einer Prüfausfallanalyse mit manuellem Prozess

Abb. 12 Ablauf einer Prüfausfallanalyse mit maschinengestütztem Prozess

In der klassischen Qualitätssicherung ergreift man in erster Linie Maßnahmen, um das Prüfgerät und den Prüfprozess zu optimieren, zum Beispiel durch die klassische Six-Sigma-DMAIC-Methode. Gerade bei technisch anspruchsvollen Prüfungen muss jedoch häufig ein Kompromiss zwischen Fehlalarmen und der Gefahr eines Durchschlupfes gefunden werden, der sich mit klassischen Statistikwerkzeugen nur schwer auflösen lässt.

Machine-Learning-Methoden (ML) wie supervised learning können die bereits vorhandene Expertise des Mitarbeiters in Form eines Modells nachbilden und so offensichtliche Fehlalarme von vornherein zur Nachprüfung vorsehen. Das Modell wird dabei auf Basis bereits vorhandener Analyseberichte der Mitarbeiter trainiert.

Das Ergebnis des Pilotprojekts könnte wie folgt aussehen: Der Mitarbeiter liest die Prüfberichte des Prüfgeräts im erstellten ML-Programm ein. Algorithmen wie lineare Regression oder Entscheidungsbäume erlauben es mit wenig Aufwand die Wahrscheinlichkeit für eine Fehlmessung des Prüfgeräts zu ermitteln. Abbildung 3 zeigt ein Visualisierungsbeispiel. Der Mitarbeiter kann nun alle offensichtlichen Fehlentscheide einer Wiederholungsprüfung unterziehen, ohne diese vorher im Detail zu analysieren. Alle weiteren Prüfstandsausfälle, die nicht als klare Fehlmessung klassifiziert wurden, werden zur internen Analyse weitergeleitet.

Abb. 3: Beispielhafte Darstellung einer Messdatenbewertung mit Hilfe von Machine Learning. Werte außerhalb des blauen Stabilitätsbereichs sind mit hoher Wahrscheinlichkeit auf eine Fehlfunktion am Prüfgerät zurückzuführen. ©Prophet Analytics GmbH

Durch dieses Pilotprojekt lassen sich nicht wertschöpfende Aufgaben des Mitarbeiters reduzieren und der Fokus liegt auf den tatsächlich fehlerhaften Produkten. Nun hat man einen MVP, der sofort einsatzfähig ist. Allerdings muss dieser MVP offline am (Prüf-) Rechner des Mitarbeiters bedient werden. Nicht alle Verschwendungsarten lassen sich so vollständig eliminieren.

Integration von Machine Learning basierten Lösungen in den Produktionsprozess

Eine weitere Reduzierung von Verschwendung ist möglich, wenn das Machine-Learning-Modell in die Maschinensteuerung integriert wird. So können beispielsweise Transportkosten eliminiert und die Linienauslastung verbessert werden. Für eine Linienintegration benötigt man in der Regel weitere Ressourcen, zum Beispiel aus der IT -und Prozessplanungsabteilung. Diese würde man im Rahmen der weiteren Projektarbeit und weitere MVPs planen. Der erste MVP bleibt über die gesamte Projektdauer nutzbar und erzielt Einsparungen. Wichtig ist auch, dass das Projekt erst aufgesetzt wird, wenn die technische Umsetzbarkeit der Lösung schon nachgewiesen ist und Projektrisiken so auf ein Minimum reduziert werden.

Die Firma Prophet Analytics hat diesen Ansatz zur Reduzierung von Prüfstandsfehlern noch weiter ausgebaut. Die Machine Learning basierte Lösung erkennt und lokalisiert Ursachen für Prüfstandsfehler im laufenden Betrieb (siehe Abbildung 4). Die Überwachung von Messprozessen auf Basis von Daten eliminiert unnötige Eingriffe in den Produktionsprozess. Im Gegensatz zu Stichprobenverfahren wie der statistischen Prozesskontrolle (SPC) werden die Prüfprozesse durchgehend überwacht. Verschwendung durch Fehlentscheide können so von Vornherein vermieden werden und die Gefahr von Durchschlupf und Kundenreklamationen wird gebannt.

Abb. 4: Darstellung einer automatischen Überwachung von Messprozessen mit Hilfe von Machine Learning

Das Beispiel soll zeigen, wie die einzelnen Teilprojekte logisch auf einander aufbauen. Jeder weitere MVP hebt für zusätzliche Einsparpotentiale, aber erfordert auch mehr technisches Verständnis und eine höhere Qualifikation der Mitarbeiter.

Entwicklung neuer Berufsqualifikationen

Das bemerkenswerte an dem vorgestellten Ansatz für die Einführung von KI ist, dass interessierte Mitarbeiter automatisch höhere Qualifikationen erwerben, während sie an ihren eigenen Lösungen arbeiten. Das Ergebnis der Projekte kommt direkt ihrer eigenen täglichen Arbeit zugute und es werden nur Fähigkeiten aufgebaut, die relevant und zielführend sind. Mitarbeiter, die auf diesem Wege ein hohes Qualifikationsniveau erreicht haben, werden in der Fachwelt auch Citizen Data Scientists genannt. Diese Mitarbeiter wenden regelmäßig Methoden der KI und des Machine Learning zur Unterstützung ihrer eigentlichen Tätigkeit an, sind aber keine hauptberuflichen Data Science Experten.

Zusammenfassend kann gesagt werden, dass der Fokus auf einfache Anwendungsfälle für KI sich direkt aus dem kontinuierlichen Verbesserungsgedanken ergibt. Das Beispiel hat gezeigt, wie sich selbst bei einfachen KI Anwendungsfällen durch mehrfache Erweiterung immer höhere Einsparpotentiale heben lassen. Das iterative Vorgehen stellt dabei sicher, dass Einsparungen zeitnah wirksam werden und Finanzierungskosten für Projekte gering bleiben. Die Qualifikation der Mitarbeiter wächst parallel zur Umsetzung mit jedem KI-Anwendungsfall. Das natürliche Ende dieses iterativen Aufbaus von Qualifikationen ist der Citizen Data Scientist. Der Citizen Data Scientist kann KI-Methoden einsetzen und bringt ein hohes Maß an anwendungsspezifischen Kenntnissen mit.

 

Lesen Sie auch die ersten beiden Teile der Reihe “Künstliche Intelligenz in der Qualität“:

  • Teil 1: Künstliche Intelligenz in der Qualität – Bestehendes Know-how effektiv nutzen – zum Beitrag »
  • Teil 2: Künstliche Intelligenz in der Qualität – Welche Qualifikationen werden benötigt? – zum Beitrag »

 

Über die Autoren:

Dipl.-Ing. Waldemar Fahrenbruch ist Head of Q-Technology Division E-Mobility bei der ZF Friedrichshafen AG. Er ist verantwortlich für die Qualitätskostensenkung bei gleichzeitiger Optimierung von Qualitätskonzepten in den Werken der Division E (TCU, Power Electronics und E-Motoren Fertigung) durch Methodenkompetenz der Qualität, künstlicher Intelligenz und digitaler Transformation.

Dr.-Ing. Stefan Prorok ist Geschäftsführer der Prophet Analytics GmbH und DGQ-Trainer für Qualitätssicherung und Künstliche Intelligenz. Prophet Analytics unterstützt Unternehmen in allen Phasen Ihrer KI-Umsetzung mit Trainings- und Beratungsangeboten. Kontakt: ki@prophet-analytics.de

9. Norddeutscher Qualitätstag am 12. Juni 2024 in Hamburg: Qualität leben und nachhaltig gestalten

Norddeutscher Qualitätstag 2024

Am 12. Juni 2024 ist es wieder soweit: Der Norddeutsche Qualitätstag lädt Fach- und Führungskräfte aus dem Qualitätsmanagement zu einer inspirierenden und informativen Veranstaltung nach Hamburg ein. Auch in diesem Jahr läuft das ganztägige Praxisforum als Hybridveranstaltung, so dass eine Teilnahme entweder persönlich vor Ort oder bequem online möglich ist.

Die neunte Auflage des beliebten Branchentreffs startet mit hochkarätigen Keynotes, die die Bedeutung des Qualitätsmanagements in Unternehmen aus unterschiedlichen Blickwinkeln beleuchten. So wird die Leitende Polizeidirektorin Indra Loose-Sommer Einblicke in die Herausforderungen von Qualität und Nachhaltigkeit bei der Bundespolizei geben.

Dr. Benedikt Sommerhoff, Leiter des Themenfeldes Qualität & Innovation bei der Deutschen Gesellschaft für Qualität e.V., zeigt auf unterhaltsame Weise, wie man sein eigenes Q-Profil entwickelt und damit auf die Erfolgsspur kommt. Begleitet von den Ergebnissen der aktuellen DGQ-Studie Q-Organisation können die Teilnehmenden ihre eigene Standortbestimmung vornehmen und wertvolle Impulse für ihre tägliche Arbeit erhalten.

Praxisnahe Einblicke erhalten sie auch dieses Jahr wieder in Workshops mit konkreten Beispielen aus dem Prozess- und Qualitätsmanagement. Ob vor Ort oder online, es erwartet die Teilnehmenden ein vielfältiges Programm:

Online und vor Ort

  • QM nach Udo Lindenberg – Mach’ Dein Ding, egal, was die ander’n sagen…
    Dr. Benedikt Sommerhoff, Leitung Themenfeld Qualität & Innovation, Deutsche Gesellschaft für Qualität e.V.
  • Nachhaltigkeit und Qualität in Uniform: Wie die Bundespolizei Umwelt- und Qualitätsmanagement umsetzt
    Indra Loose-Sommer, Leitende Polizeidirektorin im Bundespolizeipräsidium
  • Was bedeutet der KI Hype für die Industrie und wie kann „serious AI“ wirklich helfen?
    Jan Ruhnke, Director AI, Artificial Intelligence Center Hamburg (ARIC) e.V.
  • Storytelling im QM: Einfach erklären, Verständnis fördern und verbessern
    Jakob Scheitza, Head of Industrial Storytelling, Facts and Stories GmbH

Ausschließlich vor Ort, nicht online

  • Best Practice Transfer in der Otto Group: it’s a peoples business
    Juliane Dieckmann, Head of Knowledge Management, Digital & Consulting der Otto Group
  • Praktische Lösungen für KMU und ihre Nachhaltigkeitsstrategie
    Eric Schlichter, Schlichter Consulting und K. Henry Wehrenberg, Blueberries & Friends GmbH
  • Expertenrat und Umsetzungstipps für Managementsysteme und Nachhaltigkeit
    Altan Dayankac, Global Program Manager EMS, OHS, EnMS & Sustainability der DQS Holding GmbH
  • Erfolgsfaktor Mensch – wie Qualität durch gute Führungskräfte gelingt
    Arne Salig, CEO espressoul GmbH, Consultraining

 

Partner der Veranstaltung sind neben der Deutschen Gesellschaft für Qualität e.V. (DGQ) die ConSense GmbH, die Deutsche Gesellschaft zur Zertifizierung von Managementsystemen (DQS) sowie die Fachzeitschrift QZ Qualität und Zuverlässigkeit.

 

Informationen zur Anmeldung

Wann: Mittwoch, 12. Juni 2024, von 10:00 Uhr bis 16:00 Uhr
Wo: FOM Hochschulzentrum, Schäferkampsallee 16a, 20357 Hamburg oder online
Kosten:
Online-Teilnahme: 49,- € zzgl. MwSt. (29,- € zzgl. MwSt. für DGQ-Mitglieder)
Präsenz-Teilnahme: 99,- € zzgl. MwSt. (69,- € zzgl. MwSt. für DGQ-Mitglieder)

Zur Anmeldung »

Zum Programm (PDF-Download) »

 

Als DGQ-Mitglied können Sie – sowohl online als auch in Präsenz – zum reduzierten Kostenbeitrag teilnehmen. Sie sind noch kein Mitglied? Dann nutzen Sie doch für die Anmeldung unsere beitragsfreie, dreimonatige Schnuppermitgliedschaft.

Haben Sie Fragen? Nehmen Sie gern Kontakt mit uns in der DGQ-Geschäftsstelle Hamburg auf! Einfach per E-Mail an hamburg@dgq.de oder telefonisch unter 040 28533531-452. Bei allen organisatorischen Fragen und Rückfragen zur Anmeldung hilft Ihnen auch unser Veranstaltungspartner ConSense GmbH (events@consense-gmbh.de, 0241 990 93 93 0) weiter.

Nachvollziehbare und verlässliche Ergebnisse durch Computer System Validierung

Röntgen, Röntgengerät, Medizintechnik

Frederik Janas ist DGQ-Trainer des neuen E-Trainings „Computer System Validierung (CSV)“ für die Medizinprodukteindustrie und Experte für Medizinproduktesicherheit bei CRConsultants. Im Interview erläutert er, warum das Thema „Computer System Validierung“ im Kontext der Herstellung von sicheren Medizinprodukten so wichtig ist. 

Herr Janas, der Begriff „Computer System Validierung“ ist sicher nicht jedem geläufig. Könnten Sie uns erklären, was er bedeutet?

Frederik Janas: Computer System Validierung bezeichnet die Prüfung und den dokumentierten Nachweis, dass ein Computersystem oder eine eigenständige Software spezifische Anforderungen erfüllt. Initial werden Spezifikationen definiert, die sowohl allgemeine Anforderungen als auch spezifische Benutzerfälle darstellen. Im weiteren Verlauf der CSV werden Nachweise in Form von Tests geplant, durchgeführt und dokumentiert. Anders ausgedrückt, vorab wird definiert, wie ein Computersystem oder eine Software funktionieren soll und im Rahmen der Validierung wird geprüft, ob diese Funktion verlässlich und korrekt erfüllt wird.

Welche Arten von Software oder Computersystemen gibt es im Kontext der Medizinprodukteherstellung und müssen sie alle validiert werden?

Frederik Janas: Es können zwei verschiedene Arten von Computer Systemen beziehungsweise Software unterschieden werden. Erstens solche, die in der Produktion von Medizinprodukten oder Dienstleistungserbringung und für das Qualitätsmanagementsystem zum Einsatz kommen, Datenanalysesoftware zum Beispiel. Diese sind gemäß den Anforderungen der ISO 13485 zu validieren.

Zweitens solche, die selbst eigenständige Medizinprodukte – Software as a Medical Device (kurz SaMD) – oder Teil eines Medizinprodukts sind. Zum Beispiel könnte das Software sein, die für Überwachungs- oder Diagnosesysteme benötigt wird. Diese Software muss gemäß der ISO 62304 beziehungsweise ISO 82304 validiert werden.

Software- und Computersysteme im Kontext der Medizinprodukteherstellung

Abb. 1: Software- und Computersysteme im Kontext der Medizinprodukteherstellung

Warum ist die Validierung von Computersystemen so wichtig?

Frederik Janas: Zum einen müssen regulatorische Anforderungen eingehalten werden, der risikobasierte Ansatz der CSV ist beispielsweise normativ durch die ISO 13485 gefordert, die unter anderem bei Audits durch Benannte Stellen überprüft werden. Wir konnten feststellen, dass die CSV in den letzten Jahren verstärkt in den Fokus der Auditor:innen gerückt ist. Außerdem trägt die CSV zur Sicherheit und Einhaltung der Qualität von Medizinprodukten im Zusammenhang mit der Anwendung von Softwaresystemen bei. Da die Funktionen von heutigen Softwaresystemen immer komplexer werden, wird es immer schwieriger, nachvollziehbare Ergebnisse zu erzielen. Eine CSV hilft durch strukturierte Verfahren, die Validität der Ergebnisse zu beweisen.

Könnten Sie uns einen Überblick darüber geben, welche verschiedenen Arten der Validierung es gibt?

Frederik Janas: Neben der Computer System- beziehungsweise Softwarevalidierung werden Validierungen auch für Testmethoden, Umgebungsbedingungen sowie Prozesse und Ausrüstungen durchgeführt. Auch hier geht es immer darum sicherzustellen, dass die definierten Anforderungen verlässlich erfüllt werden. Beispielsweise zielt die Prozessvalidierung darauf ab, die Wirksamkeit der Prozesse, die gegebenenfalls im Zusammenhang mit der Softwareentwicklung- und -anwendung stehen, zu überprüfen. Im Rahmen der Digitalisierung ist Software ein häufiger Bestandteil in der Produktion oder bei der Überwachung von Anforderungen. Somit kann es bei allen Arten der Validierungen Schnittstellen zur Computer System Validierung geben.

Welche Konsequenzen können auftreten, wenn eine angemessene Computer System Validierung nicht durchgeführt wird?

Frederik Janas: Regulatorisch kann dies Konsequenzen in Form von Abweichungen bei Audits nach sich ziehen. Zudem kann durch fehlerhafte Funktionen die Produktqualität und Patientensicherheit beeinträchtigt werden. Mögliche Auswirkungen aufgrund nicht valider Computersysteme können falsche Parameter in der Produktion, falsche Angaben auf Produkten, falsche Ergebnisse in der Überwachung von Medizinprodukten oder mangelnde Rückverfolgbarkeit im Qualitätsmanagementsystem sein.

Lassen Sie uns die Praxis gemeinsam beleuchten. Welche Schritte umfasst der Validierungsprozess konkret?

Frederik Janas: Allgemein sind die Schritte der Validierung gemäß V-Modell in das Definieren von Anforderungen, das Testen von Funktionen und das Dokumentieren der Kriterien und Ergebnisse unterteilt. Der Umfang ist stark abhängig von der Komplexität der Anwendung sowie dem Risiko. Hier liefert die Software-Kategorisierung gemäß GAMP 5 (Good Automated Manufacturing Practice) eine gute Richtlinie, in der Software abhängig von der Standardisierung und Konfiguration eingestuft wird. Das bedeutet, dass in der Praxis die Schritte individuell definiert werden. Für eine einfache Software wie beispielsweise ein Excel-Sheet umfasst der Validierungsprozess gegebenenfalls nur einen Prüfplan, in dem die Beschreibung, Anforderung, Methodik und das Risiko beschrieben sind, sowie einen Prüfbericht, der die Ergebnisse darstellt. Für eine komplexe Software mit hohem Risiko sind mehr Schritte notwendig. Hierbei kann initial eine Risikobewertung durchgeführt und die Anforderungen in verschiedenen Detaillierungsstufen definiert werden. Daraus resultieren häufig mehrere Prüfpläne und -berichte.

Und zu guter Letzt, welche Werkzeuge und Methoden werden für die Validierung von Computersystemen eingesetzt?

Frederik Janas: Das wichtigste Werkzeug ist eine Softwaremasterliste sowohl aus interner Sicht als auch aus Sicht eines externen Auditors. Diese schafft eine Übersicht aller verwendeten Computersysteme inklusive weiterer Angaben unter anderem zur Validierungspflicht. Weiterhin ist die Risikobewertung in Form einer initialen Bewertung oder FMEA ein wichtiges Werkzeug, um die Validierungstätigkeiten risikobasiert zu priorisieren. Während der Validierung werden verschiedene Testmethoden herangezogen. So zum Beispiel Positiv-, Wiederholungs- und Regressionstests. Diese werden spezifisch für den Test ausgewählt und sollen einen geeigneten Nachweis zur Erfüllung der Anforderungen erbringen.

“DGQ-Zertifikate sind fast schon ein eigener Standard“

Personenzertifizierung, Zertifikat

Die DGQ verfügt auch über eine unabhängige Personenzertifizierungsstelle (PZ). Doch warum ist es insbesondere für Qualitätsfachleute wichtig, eine Weiterbildung mit einem DGQ-Zertifikat abzuschließen? Welche Rolle spielt die Akkreditierung durch die DAkkS, welche Rolle spielen Zertifizierungen für das Berufsbild der Auditor:innen und welche hilfreichen Tipps hält die PZ für Berufs- und Quereinsteiger bereit? Diese und weitere Fragen beantworten Karin Weltring, Leitung der DGQ-Personenzertifizierungsstelle, und Michael Sturm, Produktmanager bei der DGQ-Personenzertifizierungsstelle.

Es gibt zahlreiche Weiterbildungen mit oder auch ohne Prüfung, aber wie wichtig ist ein DGQ-Zertifikat? Und was sagt es genau aus?

Karin Weltring: Unternehmen setzen bei ihren Mitarbeitern häufig Fachwissen im Qualitätsmanagement voraus. Entsprechende Vorkenntnisse und Zertifikate werden für die berufliche Karriere immer wichtiger. Die Zertifikate der DGQ genießen in Industrie und Wirtschaft einen sehr guten Ruf als objektiver Kompetenznachweis. Viele Arbeitgeber sehen diese fast schon als einen eigenen Standard. DGQ-Zertifikate bergen vielseitige Chancen für die Karriere – national und international. Zertifikate werden in den Unternehmen oft als Mitarbeitermotivation genutzt, da mit einem sicheren Wissen und der kompetenzbasierten Umsetzung die Qualitätsstandards im Unternehmen verstanden und unterstützt werden können.

Michael Sturm: Wir arbeiten auf Basis von DIN EN ISO/IEC 17024, so dass unsere Zertifikate Ihre persönlichen Kenntnisse und Kompetenzen in Bezug auf einen Scope objektiv und neutral bewerten und bescheinigen. Für einen „DGQ-Auditor Qualität“ enthalten die DGQ-Zertifikate beispielsweise den Nachweis, dass sie Auditprogramme festlegen, umsetzen, überwachen, überprüfen und verbessern, Managementsystemaudits (First-, Second-Party), Prozessaudits, Compliance-Audits veranlassen, planen und durchführen, Qualitätsmanagementsysteme bewerten sowie Kommunikationstechniken zielgerichtet im Sinne des Auditzieles einsetzen können.

Die Personenzertifizierungsstelle ist von der Deutschen Akkreditierungsstelle (DAkkS) akkreditiert. Was bedeutet das und inwiefern profitieren die Absolventen davon?

Karin Weltring: Die Deutsche Akkreditierungsstelle (DAkkS) ist die nationale Akkreditierungsstelle in Deutschland. Wenn eine Personenzertifizierungsstelle von der DAkkS akkreditiert ist, bedeutet dies, dass diese von der DAkkS als kompetent anerkannt wurde, die Anforderungen der DIN EN ISO/IEC 17024 zu erfüllen. Dies schafft Vertrauen in die Zuverlässigkeit und Glaubwürdigkeit unserer Zertifizierungsprozesse. Die DGQ-Personenzertifizierungsstelle erfüllt diese Anforderungen. Die Überwachung durch die DAkkS erfolgt jährlich und bescheinigt somit die Einhaltung der notwendigen Anforderungen als unabhängige Zertifizierungsstelle. Die Aufrechterhaltung der Akkreditierungsanforderungen kommt den Kunden der DGQ zugute. In Deutschland gibt es derzeit „nur“ 12 akkreditierte Personenzertifizierungsstellen für QM-Fachpersonal. Der DGQ ist die Akkreditierung wichtig, da diese unabhängige Überwachung den Qualitätsstandard der Zertifizierungsverfahren sichert.

Michael Sturm: Als Kunde profitieren Sie davon, dass Arbeitgeber Ihr Zertifikat als vertrauenswürdig anerkennen, da es von einer anerkannten und unabhängigen Zertifizierungsstelle ausgestellt wurde. Sie können dies als objektiven Nachweis für ihre Kenntnisse, Fähigkeiten und Kompetenzen nutzen. Gerade in Branchen, in denen Zertifizierungen wichtig sind, können die DGQ-Zertifikate einen Vorteil für die weitere Karriere verschaffen. Durch die Rezertifizierung garantieren unsere Zertifikate stets eine Aktualität der bescheinigten Kompetenzen durch aktuelle Weiterbildungen und der nachgewiesene Berufspraxis, zum Beispiel durch Auditnachweise.

Greifen wir Ihr Beispiel „Audit“ einmal auf. Welches Know-how beziehungsweise welche Kompetenzen weisen Zertifizierte nach?

Karin Weltring: Im Rahmen des Zertifizierungsprozesses müssen die Antragsteller einen vorhandenen Berufsabschluss, Berufserfahrung sowie Auditerfahrung nachweisen.
Für den „DGQ-Auditor für interne und Lieferantenaudits nach ISO 19011“ gelten beispielsweise die folgenden Anforderungen:

  • Vier Jahre Berufserfahrung (bei Hochschulabschluss) beziehungsweise fünf Jahre Berufserfahrung (bei Berufsausbildung) in einer Vollzeittätigkeit
  • Tätigkeit als interner Auditor mit zwei vollumfänglichen internen Audits innerhalb der letzten zwei Jahre mit zehn Audittagen, davon sechs Tage vor Ort

Michael Sturm: Die Prüfung überprüft Wissen, Fertigkeiten und Kompetenzen im Bezug auf Auditgrundlagen, die Vorbereitung, Durchführung und Nachbereitung von Audits sowie Gesprächstechniken. Außerdem spielt das Thema Auditprogramm eine Rolle und regelwerksbezogene Auditoren müssen Managementsysteme der zu Grunde liegenden Norm (z.B. DIN EN ISO 9001) bewerten.

Was sind die wichtigsten Audit-Zertifikate der DGQ und was zeichnet diese aus?

Karin Weltring: Unsere wichtigsten Zertifikate – wenn man die Anzahl betrachtet – sind „DGQ-Auditor für interne und Lieferantenaudits nach 19011“ und „DGQ-Auditor Qualität“. Beide sind gedacht für 1st- und 2nd-party Auditoren. Das erstgenannte bietet einen guten Einstieg in die Arbeit als Auditor und ist regelwerksneutral, das heißt Kompetenzen bezüglich DIN EN ISO 19011 sind die Basis, aber weitere Vorgaben spielen keine Rolle. DIN EN ISO 19011 ist natürlich ebenfalls Basis für den „DGQ-Auditor Qualität“. Dieser ist aber klar auf Audits von Systemen nach DIN EN ISO 9001 ausgerichtet. Das Zertifikat „DGQ-Qualitätsmanagementbeauftragter“ ist deshalb eine Voraussetzung, um dieses Zertifikat erhalten zu können. Außerdem ist der „DGQ-Auditor Qualität“ durch die DAkkS akkreditiert und die Kunden erhalten gleichzeitig das gleichwertige EOQ-Zertifikat.

Als abschließende Zertifizierung der Weiterbildungsreihe im Qualitätsmanagement ist außerdem der „DGQ-Lead Auditor Qualität“ zu nennen. Voraussetzung dafür ist das Zertifikat „DGQ-Qualitätsmanager“. Dieser befähigt auf Basis DIN EN ISO/IEC 17021-1 zudem 3rd-party Audits durchführen zu können und ein Team aus mehreren Auditoren in einem Audit zu führen. Auch dieses ist durch die DAkkS akkreditiert und es gibt ein gleichwertiges EOQ/IPC-Zertifikat.

Außerdem bieten wir Zertifizierungen für Auditoren nach DIN EN ISO 13485, DIN EN ISO 40001, DIN EN ISO 45001, DIN EN ISO 50001 an.

Nicht unerwähnt bleiben sollte, dass wir einer der größten Lizenznehmer des VDA QMC (Qualitätsmanagement Center im Verband der Automobilindustrie) sind und auch Prüfungen für VDA QMC-Auditoren (z.B. IATF 16949 – 1st/2nd party Auditor, VDA 6.3 – Prozess-Auditor) organisieren und abnehmen. Diese sind in der Automotive-Branche nicht wegzudenken. Die Zertifikate stellt VDA QMC aus.

Berufsbild Auditor

Für die Integrität und Zuverlässigkeit von Unternehmen ist das Einhalten von gesetzlichen, behördlichen und normativen Vorgaben und Anforderungen essenziell. Neben dem Feststellen der Konformität können im Rahmen eines Audits unter anderem bewährte Praktiken erkannt, Lücken identifiziert und Optimierungspotenziale aufgedeckt werden. Auditoren können so einen entscheidenden Beitrag für das Unternehmen leisten und haben gute Karriereaussichten in den verschiedensten Branchen.
Antworten auf die wichtigsten Fragen finden Sie in unserem Berufsbild zum Auditor:

  • Welche Aufgaben betreuen Auditoren?
  • Wie werde ich Auditor?
  • Welche Weiterbildungsmöglichkeiten gibt es?
  • Was verdient ein Auditor?
  • Welche Karrieremöglichkeiten gibt es als Auditor?

Zum Berufsbild Auditor »

Auditor:innen haben es im Unternehmen nicht immer einfach, die auditierten Bereiche vom Nutzen eines Audits zu überzeugen. Welche Tipps haben Sie?

Michael Sturm: Bei internen Audits können Sie durch eine – in Bezug auf die Auditierten – „nutzer-freundlichen“ Wahl der Auditmethoden – zum Beispiel Interview, Beobachtung der durchgeführten Arbeiten – und einer der jeweiligen „Zielgruppe“ angemessenen Sprache eine positive und aufgeschlossene Atmosphäre auf Augenhöhe schaffen. Im Auditbericht sollten Sie die Ergebnisse des Audits so darstellen, dass sie praxistauglich und verständlich sind. So kann der Nutzen für die Organisation oder die einzelnen Prozesse besser erkannt werden.

Die DGQ ist nationaler Partner der European Organization for Quality. Welchen Nutzen haben die Kunden der DGQ?

Karin Weltring: Die European Organization for Quality (EOQ) ist das Netzwerk in Europa, dessen wesentliches Ziel die Harmonisierung der Anforderungen an Qualitäts- und Managementfachpersonal in Europa ist. Dafür erstellt sie – unter Mitwirkung der nationalen Partner – Zertifizierungsprogramme, die als Basis für die Weiterbildung und Personenzertifizierung nach europaweit einheitlichen Kriterien dienen.

Als Kunde der DGQ-Personenzertifizierungsstelle bekommen Sie in vielen Fällen mit Ihrem DGQ-Zertifikat das entsprechende Zertifikat der EOQ. Dieses ist aufgrund der harmonisierten Weiterbildungs- und Zertifizierungsvoraussetzungen möglich, so dass Sie als Kunde direkt ein international anerkanntes englischsprachiges Zertifikat bekommen. Gerade in Unternehmen, die international tätig sind und deren Managementsysteme auch international überwacht werden, ist das hilfreich. In Deutschland ist die DGQ die einzige Stelle, die diese Zertifikate vergeben darf.

Was raten Sie Berufs- oder Quereinsteigern, die neu in eines der Aufgabenfelder rund um Qualitätsmanagement einsteigen?

Karin Weltring: Nehmen Sie sich Zeit, Grundprinzipien und den zugrundeliegenden Qualitätsmanagement-Standard (oft DIN EN ISO 9001) zu verstehen. Für Qualitätsauditoren ist außerdem die DIN EN ISO 19011 obligatorisch. Die Teilnahme an einer Weiterbildung wird Ihnen helfen, Ihr Wissen zu vertiefen und Kompetenzen aufzubauen. Sammeln Sie erste Praxiserfahrungen und lernen Sie von erfahrenen Kollegen.

Knüpfen Sie unbedingt Kontakte zu Fachleuten auch außerhalb Ihres Unternehmens. Dies bietet Ihnen die Möglichkeit von anderen zu lernen. Darüber hinaus können Sie durch den Austausch mit Qualitätsfachleuten aus anderen Unternehmen und Branchen einen erweiterten Blick auf die Welt des Qualitätsmanagements erhalten. Hier bietet die DGQ vielfältige Möglichkeiten im Rahmen von Regionalkreisen, Fachkreisen oder – speziell für junge Berufseinsteiger – bei den „QM-Youngsters“. Aber auch im Bereich Hochschule bieten sich hierfür Einsteigermöglichkeiten.

Michael Sturm: Ein Zertifikat der DGQ-Personenzertifizierungsstelle kann abschließend einen objektiven Nachweis Ihrer dann vorhandenen Kompetenzen bescheinigen. Wichtig ist das Gleichbehandlungsprinzip. Das bedeutet, es werden auch Ausbildungsnachweise anderer Aus- und Weiterbildungen anerkannt, sofern diese die Anforderungen des Zertifizierungsprogramms erfüllen. Auch bedeutet es, dass jeder Antragsteller einer Zertifizierung gleiche Prüfungsprozesse erfährt und durch unabhängige Prüfer:innen einen gleichwertigen gesicherten Standard erhalten.

Sie kooperieren auch mit Hochschulen. Wie sieht das Modell der Zusammenarbeit aus?

Karin Weltring: Die DGQ bietet das Qualifizierungsmodell zum „DGQ-Manager Qualität Junior“ seit 1997 und in Kooperation mit mittlerweile bundesweit 22 Hochschulen an. Seit Beginn dieses Programms haben sich bereits rund 4.000 Studierende für ein solches Zertifikat entschieden und sich somit einen Vorsprung für Ihren Berufseinstieg gesichert. Die Inhalte der Ausbildung zum DGQ-Manager Qualität Junior stimmen mit den Forderungen des harmonisierten Ausbildungsschemas der EOQ für die Zertifizierung von Qualitätsfachpersonal überein. Wir überprüfen dabei die Lehrinhalte der Hochschulen auf die Übereinstimmung mit diesem Programm. Der Erwerb des Zertifikates läuft über ein Antragsverfahren der zugelassenen Hochschule. Die Hochschule weist durch ihr Curriculum die Gleichwertigkeit der Inhalte und anderer Rahmenbedingungen nach und wird für das Modell anerkannt. Das Zertifikat kann als Einstieg in die Berufswelt im Bereich Qualitätsmanagement und Audit ein Türöffner sein.

 

Über die Autoren:

Karin Weltring leitet die Personenzertifizierungsstelle der DGQ.

Michael Sturm ist Produktmanager bei der Personenzertifizierungsstelle der DGQ.

“Es geht nicht nur darum, Waren von A nach B zu transportieren“

Lieferkette, Osterhase, Produktion

Wie kommt der Schokohase frisch und pünktlich zu den Verbraucher:innen? Die Antwort auf diese Frage ist gar nicht so trivial. Denn es gibt zahlreiche Aspekte zu beachten, damit die Qualität der Ware sichergestellt werden kann. Im Interview mit der DGQ gibt Christian Pflüger, Head of Quality Management Food Logistics bei Dachser einen Einblick in die Anforderungen an die Lieferkette und erklärt dabei, welche Rolle interne und extern Audits spielen.

Der Schokohase und weitere Leckereien frisch und pünktlich zur Osterzeit auf den Tisch – da denken doch alle Verbraucher:innen, das kann doch nicht so schwer sein. Und, haben sie damit recht?

Christian Pflüger: Nein, ganz so simpel ist es dann doch nicht. Schoko-Osterhasen und viele weitere Leckereien für das Osterfest sind bereits weit vor Ostern in den Supermärkten zu finden und müssen bis zu den Feiertagen ständig nachbestückt werden. Dabei gibt es, gerade aus Sicht der Qualitätssicherung, viel zu beachten.

Neben den lebensmittelrechtlichen Bestimmungen sind vier der wichtigsten Anforderungen, welche Dachser für alle Lebensmittel stets im Fokus hat, die Temperaturkontrolle, die Beachtung der Hygienestandards, die Rückverfolgbarkeit sowie die präventive Vermeidung von Beschädigungen, zum Beispiel eingedrückte Schoko-Osterhasen durch falsche Transportsicherung. Die Einhaltung dieser Anforderungen trägt dazu bei, dass die Schokolade in bestem Zustand zum Verbraucher kommt und Qualität, Textur und Geschmack bewahrt bleiben.

Was sind die größten Hürden auf dem Weg des Schokohasen?

Christian Pflüger: Alles, was wir tun, muss der Lebensmittelsicherheit dienen. Der Qualitätskreislauf beginnt bereits bei der Übernahme der Waren und durchläuft während des gesamten Transport- und Lagerungsablaufs weitere wichtige Schnittstellen. Der Ablauf sieht folgendermaßen aus:

Bei der Übernahme der Ware beim Kunden wird bereits eine erste Schnittstellenkontrolle auf Unversehrtheit, gegebenenfalls korrekte Übernahmetemperaturen, Manipulation oder Schädlingsbefall durchgeführt. Aber auch unsere Kunden sind in der Verantwortung. Sie müssen die Ware transportsicher übergeben sowie stabile Verpackungslösungen schaffen. So gehen die Lebensmittel schon mit hoher Qualität in den Transport. Denn von der Abholung beim Kunden bis zur Zustellung muss ein lückenloser Transport unter Einhaltung der Kühlkette sichergestellt sein. Diesen Prozess überwacht Dachser mit einem durchgehenden Temperaturmonitoring. Alle Kühlhallen und -fahrzeuge von Dachser sind mit Temperaturloggern ausgestattet, die die aktuelle Temperatur stetig online übertragen. Auch die Türöffnungszeiten der Fahrzeuge oder die Toröffnungen im Lager werden so gering wie möglich gehalten. Das hört sich zwar banal an, aber Sie lassen zu Hause den Kühlschrank ja auch nicht unnötig lange offenstehen. Das verschwendet Energie und ist schlecht für die Umwelt.

Auch beim Transport wirken hohe Kräfte, zum Beispiel beim Beschleunigen, Bremsen oder in den Kurven. Eine unzureichend verpackte Ware kann deshalb beschädigt werden, selbst wenn sie im Lkw ausreichend gesichert ist.

Im Lager geht es weiter. Hier müssen die Waren entsprechend sorgfältig gehandhabt werden. Beispielsweise darf es zu keiner Kontamination durch andere Lebensmittel kommen. Auch dürfen Waren oft nicht gestapelt werden. Dazu kommen weitere produktspezifische Vorgaben, die unbedingt eingehalten werden müssen: Schokolade wird bei einer anderen Temperatur gelagert als Milchprodukte.

Bevor der Schoko-Osterhase dann auf die Reise in den Handel geht, muss darauf geachtet werden, dass die richtige Ware mit der richtigen Charge und dem richtigen Mindesthaltbarkeitsdatum verladen wird. Vor Beladung werden die Fahrzeuge geprüft, ob diese sauber, geruchsfrei und gegebenenfalls vorgekühlt sind. An jeder Schnittstelle werden die Paletten gescannt, sodass wir immer wissen, wo sich die Ware gerade befindet.

Bei der Zustellung erfolgt gemeinsam mit dem Empfänger nochmals eine Schnittstellenkontrolle. Damit stellen wir sicher, dass jeder Verbraucher einen unversehrten und nicht geschmolzenen Schoko-Osterhasen im Handel findet.

Da kann also eine Menge schiefgehen. Wie kann das Qualitätsmanagement beziehungsweise der strukturelle Aufbau des QM dazu beitragen, diese Risiken zu minimieren?

Christian Pflüger: Ein gut strukturierter Aufbau des Qualitätsmanagements (QM) und eine systematische Implementierung von Qualitätsmanagementsystemen sind hier entscheidend. Durch klare Prozesse schaffen wir Transparenz und entsprechende Key Performance Indicators (KPI) helfen uns dabei, eine bewertbare Beurteilung auszuarbeiten.

Des Weiteren überwachen wir die Qualität unserer Leistung sehr intensiv. Dafür erstellen wir monatliche Qualitätsreportings, die wir der kompletten Organisation zur Verfügung stellen. So kann in jeder einzelnen Niederlassung schnellstmöglich reagiert und die Qualität jederzeit auf höchstem Level gehalten werden.

Ein gut strukturiertes Qualitätsmanagement bietet nicht nur eine effektive Kontrolle über die Produkt- und Prozessqualität, sondern dient auch als präventives Instrument zur Identifikation, Bewertung und Minimierung von Risiken in einem Unternehmen. Nicht zuletzt spiegeln sich diese Aspekte auch in einer hohen Kundenzufriedenheit bei Produktanbietern und Endverbrauchern wider.

Welche Rolle spielt der Faktor Mensch?

Christian Pflüger: Gerade im Umgang mit sensiblen Produkten wie Lebensmitteln spielt der Mensch eine zentrale Rolle, denn die Beteiligung und das Engagement der Mitarbeitenden eines Unternehmens sind wesentliche Faktoren für den Erfolg eines Qualitätsmanagementsystems (QMS). Dachser fördert eine enge Zusammenarbeit der einzelnen Mitarbeiterinnen und Mitarbeiter, um sie maßgeblich in die Prozessgestaltung und Weiterentwicklung der Qualitätssicherung einzubinden. Hierzu gehören Schulungen und Qualifikationen, aber auch die Hinterfragung und ständige Überprüfung einzelner Prozesse, um eine zukunftsorientierte Logistik auszubauen und neue Schritte in die Wege leiten zu können.

Ein starkes Qualitätsbewusstsein auf allen Ebenen der Organisation trägt dazu bei, die Kundenzufriedenheit zu steigern und das Vertrauen in die Produkte oder Dienstleistungen zu stärken.

Welche übergreifenden Kompetenzen benötigt das Personal?

Christian Pflüger: Dies ist natürlich stark abhängig vom Aufgabengebiet des einzelnen Mitarbeiters. Neben der fachlichen Qualifikation stehen Kommunikationsfähigkeiten und kundenorientiertes Handeln im Vordergrund. Diese und weitere Kompetenzen sind ausschlaggebend für eine durchdringende Qualitätsstruktur im ganzen Unternehmen.

Welche Anforderungen an die Gesamt-Organisation braucht es, um dies gewährleisten zu können? Und wie stellen Sie das sicher?

Christian Pflüger: Das Dachser-Netzwerk wird von unserer Mission, unseren gemeinsamen Werten und einer klaren Strategie geleitet. Weiterhin ist Agilität eine wesentliche Anforderung, um Stabilität und Anpassungsfähigkeit zu bieten. Das ist die Grundlage für eine nachhaltige Entwicklung, welche sich auch auf das QM überträgt. Für das QM hat Dachser klare Qualitätsziele und eine klare Qualitätspolitik.

So kann ein stabiles und gelebtes Qualitätsmanagement bereitgestellt werden, um die Umsetzung effektiver Maßnahmen zu ermöglichen. Um potenzielle Gefahren für die Qualität frühzeitig zu erkennen beziehungsweise zu minimieren, wurde bei Dachser ein systematisches Risikomanagement implementiert. Außerdem existieren klare Verantwortlichkeiten für die Qualitätssicherung, damit jeder Beteiligte seine Rolle und Verantwortlichkeit versteht.

Die Integration all dieser Punkte in die Unternehmenskultur trägt dazu bei, eine Organisation zu schaffen, die sich auf kontinuierliche Verbesserung und Kundenzufriedenheit konzentriert.

Ihre Organisation haben Sie gut im Griff. Aber wie meistern Sie die Schnittstellen über die gesamte Lieferkette hinweg?

Christian Pflüger: Die Sicherstellung von Qualitätsmanagementstandards an den Schnittstellen über die gesamte Lieferkette erfordert eine sorgfältige Planung, klare Kommunikation und eine enge Zusammenarbeit mit allen beteiligten Parteien. Dies ist entscheidend, damit die Qualität von Produkten und Dienstleistungen konsistent ist und den Erwartungen der Kunden entspricht.

Deshalb legt Dachser einheitliche Standards entlang der gesamten Lieferkette fest, die für alle beteiligten Parteien verbindlich sind. Lieferantenqualifizierungen sowie Vereinbarungen mit Lieferanten und Dienstleistern helfen, die Erwartungen in Bezug auf Produktqualität, Lieferzeiten, Dokumentation und weitere relevante Kriterien zu erfüllen. Gleichzeitig bietet Dachser flächendeckend Schulungen an, damit alle Parteien die Anforderungen verstehen und erfüllen können. Ein robustes Überwachungs- und Auditierungssystem stellt sicher, dass die Qualitätsstandards entlang der gesamten Lieferkette eingehalten werden. Mit internen und externen Audits werden die Leistungen von Lieferanten systematisch bewertet, um potenzielle Gefahren für die Qualität zu identifizieren und zu minimieren. Durch dieses kontinuierliche Überprüfungs- und Verbesserungsverfahren wird die Integrität und Wirksamkeit des QMS aufrechterhalten.

Wie überprüfen Sie die Funktionsfähigkeit Ihres QMS? Welche Rolle spielen Audits?

Christian Pflüger: Regelmäßige interne Audits sind ein Schlüsselelement zur Überprüfung der Funktionsfähigkeit des QMS. Unsere internen Auditoren aus dem Regional Head Office und den Niederlassungen prüfen die Dokumentation, Prozesse und Verfahren, um sicherzustellen, dass sie den Standards entsprechen und effektiv implementiert sind. Audits dienen dabei als Instrument zur Identifizierung von Chancen zur Effizienzsteigerung und Qualitätsverbesserung.

Uns ist bewusst, dass menschliche Fehler passieren können. Deshalb spielt der richtige Umgang damit für Dachser eine entscheidende Rolle. Wir müssen den Fehler erkennen, bewerten und im Anschluss die entsprechenden Maßnahmen daraus ableiten. Dabei hilft eine offene Fehlerkultur.

Berufsbild Auditor

Für die Integrität und Zuverlässigkeit von Unternehmen ist das Einhalten von gesetzlichen, behördlichen und normativen Vorgaben und Anforderungen essenziell. Neben dem Feststellen der Konformität können im Rahmen eines Audits unter anderem bewährte Praktiken erkannt, Lücken identifiziert und Optimierungspotenziale aufgedeckt werden. Auditoren können so einen entscheidenden Beitrag für das Unternehmen leisten und haben gute Karriereaussichten in den verschiedensten Branchen.
Antworten auf die wichtigsten Fragen finden Sie in unserem Berufsbild zum Auditor:

  • Welche Aufgaben betreuen Auditoren?
  • Wie werde ich Auditor?
  • Welche Weiterbildungsmöglichkeiten gibt es?
  • Was verdient ein Auditor?
  • Welche Karrieremöglichkeiten gibt es als Auditor?

Zum Berufsbild Auditor »

Wie haben Sie Ihre Auditoren für die internen Audits vorbereitet?

Christian Pflüger: Wichtig ist aus unserer Sicht, dass Auditoren einen Mehrwert bringen und nicht nur das System befriedigen. Nur umfassend vorbereitete Auditoren können dazu beitragen, die Effektivität des Qualitätsmanagementsystems und die Erreichung der Qualitätsziele zu gewährleisten.

Diese Vorbereitung bei Dachser beinhaltet wie oben schon genannt umfangreiche Schulungen. Dazu kommen das Verständnis des QMS, das Erlernen der richtigen Auditprinzipien und -methoden sowie risikobasiertes Denken und Kommunikationsfähigkeiten. Grundlegend sollte ein Auditor dabei unabhängig und objektiv sein und souverän mit Konflikten umgeben können. Aus einem guten Feedback eines Auditors kann das Unternehmen kontinuierlich lernen und Verbesserungsmöglichkeiten schaffen.

Hat die Corona-Pandemie die Art der Audits verändert?

Christian Pflüger: Ja, natürlich waren auch das Qualitätsmanagement und damit die Audits von der Corona-Pandemie betroffen. Der gesamte Auditprozess wurde durch diese Situation umgekrempelt und neu strukturiert. Zum Beispiel wurden Remote-Audits durchgeführt, damit sie überhaupt stattfinden konnten. Die Corona-Pandemie hat aber auch gezeigt, wie wichtig es für uns ist, immer dranzubleiben und das Qualitätsmanagement vor Ort und in Präsenz zu leben.

Was ist davon nach Corona geblieben?

Christian Pflüger: Meetings und die Audits, die es zulassen, werden immer noch remote durchgeführt, um Zeit zu sparen und effizienter arbeiten zu können. Des Weiteren hat die Pandemie die Digitalisierung deutlich beschleunigt. Diese Tools und Möglichkeiten helfen uns, heute schneller und unkomplizierter miteinander in den Austausch zu gehen.

Stellt dies besondere Anforderungen an die Auditoren? Welche Qualifikationen müssen Sie mitbringen?

Christian Pflüger: Die Prozesse in einem Logistikunternehmen sind vielschichtig und komplex. Es geht nicht nur darum, Waren in einen LKW zu laden und von A nach B zu transportieren oder Waren im Hochregal zu lagern. Gerade in einem sensiblen und stark regulierten Umfeld wie der Lebensmittellogistik sind viele Anforderungen zu kennen und regelmäßig zu überprüfen.

Welcher Schwerpunkt lag auf den DGQ-Schulungen für Ihre Auditoren?

Christian Pflüger: Uns war es wichtig, gemeinsam mit der DGQ ein Inhouse-Training auf die Beine zu stellen, was uns ermöglicht, gezielt auf den Dienstleistungs- und im speziellen auf den Logistikbereich eingehen zu können. Dabei steht für uns im Vordergrund, dass die Norm verstanden werden muss, aber praktikabel und gelebt umgesetzt und somit auch auditiert werden kann. Hilfreich waren hier die gezeigten Tools aus der Praxis und die gemeinsame Erarbeitung eines möglichen Einsatzes in unserem Unternehmen.

Heilloses Durcheinander bei digitalen Pflegehilfsmitteln

Pflegehilfsmittel

Pflegehilfsmittel sind Produkte, die den Pflegeprozess unterstützen. Es kann sich um Verbrauchsmaterial handeln wie Einmalhandschuhe oder um Produkte, die zur Vermeidung von Schäden bei den Klient:innen dienen wie Betteinlagen. Die Pflegehilfsmittel können aber auch dem Erhalt von Kompetenzen bei hilfsbedürftigen Menschen dienen, indem sie Aktivität und Mobilität fördern und die selbstständige Lebensführung unterstützen. Dazu gehören technische und digitale Produkte wie Notrufsysteme, vernetzte Sensoren-Technologien und bestimmte Pflege-Apps.

Eine besondere Rolle spielen diese technischen und digitalen Pflegehilfsmittel in der Versorgung von Menschen daheim – der ambulanten Pflege. Dort sollen sie die Abhängigkeit von Pflege verringern und Selbstversorgungsdefizite eindämmen. Ein Rollator kann zum Beispiel die Einschränkung der Mobilität ausgleichen oder lindern und setzt dabei auf noch vorhandene Kompetenzen bei den Nutzenden. Damit verringert das Hilfsmittel auch den Einsatz von Personal und erfüllt eine weitere Funktion: Es schont Ressourcen, während gleichzeitig die Qualität der Versorgung steigt. Denn es wird keine helfende Hand benötigt, um das Mobilitäts-Bedürfnis zu erfüllen. Dies sichert Lebensqualität, weil so der Verbleib in der eigenen Häuslichkeit ermöglicht wird. Gleichzeitig steigt die Versorgungssicherheit, wenn die Sturzgefahr durch den Rollator verringert wird. Dieses Beispiel lässt sich auf digitale Hilfsmittel übertragen.

Wenn Sinn und Zweck von Hilfsmitteln für die Pflege leicht verständlich erscheinen, so sind die gesetzlichen Regelungen dazu doch komplex. Diese geben Kostenträgern, Dienstleistern und Pflegebedürftigen einen Rahmen, was nach bestimmten Kriterien als sinnvoll für die Pflege erachtet und welche Kosten für Hilfsmittel von den gesetzlichen Kassen übernommen werden. Sie sind in einem Katalog zusammengefasst, der in Abständen angepasst wird. Bei der aktuellen Überarbeitung stoßen die für die Erstellung verantwortlichen Kassen nun an Grenzen.

Denn bei der Kategorisierung sind unterschiedliche Maßstäbe und Perspektiven für die Kategorisierung in dem Hilfsmittelkatalog zu berücksichtigen. Diese Komplexität ist ein Spiegel des Themenfeldes Pflege in Deutschland. Sie zeigt den extremen und dringenden Reformbedarf, insbesondere im Bereich Digitalisierung und technische Vernetzung.

Das Perspektiven-Wirrwarr

  1. Aus Sicht des Gesetzgebers gelten nur solche Produkte als Pflegehilfsmittel, die zuhause eingesetzt werden. Nur dann werden auch die Kosten von der Pflegekasse übernommen. Werden Pflegehilfsmittel jedoch im Heim oder im Krankenhaus eingesetzt, dann sind die jeweiligen Einrichtungen dafür verantwortlich und die Kostenerstattung läuft über die Krankenkassen. Hier wird also eine Unterscheidung nach dem Ort der Versorgung gemacht, die Perspektive ist: Ort der Anwendung.
  2. Medizinische und pflegerische Hilfsmittel sind in einem gemeinsamen Katalog aufgeführt, der von den Kassen erstellt wird. Darin sind Produkte gelistet wie zum Beispiel medizinische Absaug- oder Bestrahlungsgeräte und Pflegehilfsmittel zur Erleichterung der Pflege wie Pflegebetten. Die Perspektive dieses sogenannten Hilfsmittelverzeichnisses ist produktbezogen.
  3. Obwohl die gesetzliche Grundlage für das Hilfsmittelverzeichnis das fünfte Sozialgesetzbuch (SGB V) – die Krankenversicherung – ist, so werden Pflegehilfsmittel aus der Pflegekasse (SGB XI) vergütet. Die Perspektive dabei ist der Kostenträger.
  4. Für digitale Pflegehilfsmittel gilt darüber hinaus eine besondere Regelung. Diese sogenannten „digitalen Pflege-Anwendungen“ (DiPAs) werden nicht vom Spitzenverband der Krankenkassen, sondern durch das Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) zugelassen und gelistet. Digitale Pflegehilfsmittel wie intelligente, sensorgestützte Notrufsysteme werden hingegen in dem zuvor genannten Hilfsmittelkatalog aufgeführt. Diesen Katalog erstellt der Spitzenverband der Krankenkassen (GKV-Spitzenverband). In Bezug auf digitale Hilfsmittel wird nach Hard- und Software, also nach Wirtschaftsgütern unterschieden und die Perspektive ist hoheitsgetrieben, weil unterschiedliche Institutionen deren Zulassung regeln.
  5. Zuletzt ist auch noch eine leistungsrechtliche Perspektive eingeführt worden. Damit wollte man vor allem der Neuregelung des Pflegebedürftigkeitsbegriffes Rechnung tragen. Die Kriterien für die Pflegebedürftigkeit sind seit 2017 in sechs Module gegliedert, die nach pflegebezogenen Kompetenzen der Klient:innen aufgeteilt sind:
    • Mobilität
    • Kognitive und kommunikative Fähigkeiten
    • Verhaltensweisen und psychische Problemlagen
    • Selbstversorgung
    • Umgang mit krankheitsspezifischen/therapiebedingten Anforderungen
    • Gestaltung des Alltagslebens und sozialer Kontakte

Diese Perspektive ist leistungsbezogen: Das Pflegehilfsmittel unterstützt die verbliebenen Kompetenzen in dem jeweiligen Modul, dadurch verringert sich dort der Pflege-Leistungsbedarf.

Das Hilfsmittelverzeichnis wird regelmäßig überarbeitet. Produkte werden hinzugefügt oder gelöscht. Die aktuelle Überarbeitung ist derzeit im Gange. Doch mittlerweile kommt das System bei der Einteilung und Zuordnung an seine Grenzen. Denn die unterschiedlichen Perspektiven führen zu einer Reihe von Dilemmata:

Ort der Anwendung

Der Ort der Anwendung ist für die pflegerische Intervention unerheblich. Ob eine Bettvorlage in der Klinik, im Heim oder in der eigenen Wohnung der Klient:in eingesetzt wird, hängt vom Bedarf ab. Da die Finanzierung aber über unterschiedliche Kostenträger erfolgt und es für die Kostenübernahmen unterschiedliche Voraussetzungen gibt, spielen pflegefachliche Kriterien eine nachgeordnete Rolle. Die Bewilligung eines Hausnotrufgerätes als Pflegehilfsmittel in einem Pflegeheim kommt aus diesem Grund nicht in Frage, weil per Definition die Pflegehilfsmittel nur für die Pflege in der Häuslichkeit vorgesehen sind. Dass aber ein Notrufsystem auch in einer Pflegeeinrichtung nützlich sein kann, wo Menschen häufig über lange Zeit allein in ihrer Wohnung oder ihrem Zimmer zubringen, liegt auf der Hand.

Produktperspektive

Bei der pflegerischen Versorgung kommt es vor allem auf die bei den Klient:innen – noch – vorhandenen Kompetenzen an. Der Zweck des Einsatzes von Pflegehilfsmitteln im Pflegeprozess ist oben erläutert. Die Produktgruppe oder -art ist dabei für das Erreichen der jeweiligen Pflegeziele unerheblich. Die Produktgruppenperspektive kann vielmehr sogar zu einer Schwächung der Pflege-Ziele führen. Es könnte nämlich der Fall eintreten, dass Hilfsmittel bei einem Individuum nur deshalb eingesetzt werden, weil sie in dem Produkt-Verzeichnis aufgeführt und finanziert werden, ohne dass in der individuellen Situation ein pflegerischer Nutzen entsteht.

Kostenträgerperspektive

Die Vermengung von medizinisch mit pflegerisch notwendigen Maßnahmen und Unterstützungsmöglichkeiten führt zu Herausforderungen: Solange kein Pflegegrad vorliegt, also eine gesetzlich festgestellte Pflegebedürftigkeit besteht, muss es eine medizinische Notwendigkeit für den Einsatz der Pflegehilfsmittel geben. Dann wird das Hilfsmittel vom Arzt verordnet und von der Krankenkasse bezahlt. Sobald der Bedarf über den Zeitraum von sechs Monaten hinaus besteht, ändert sich der Kostenträger und die Pflegekasse übernimmt. Solange der zuständige Kostenträger aber nicht geklärt ist, müssen Hilfsmittel eventuell privat ausgelegt werden. Da das nicht immer in ausreichendem Maße möglich ist, kann das die durchgängige Versorgung gefährden.

Hoheitsperspektive

Die Entscheidung über die Verordnung pflegerisch erforderlicher Hilfsmittel liegt in der Regel bei Ärzt:innen. Zwar hat der Gesetzgeber mittlerweile zugelassen, dass im Falle des Vorliegens einer Pflegebedürftigkeit auch Pflegefachkräfte die Verordnung vornehmen können. Von dieser Möglichkeit wird jedoch wenig Gebrauch gemacht, weil sie ohne Gegenfinanzierung bei der Pflege für hohen zusätzlichen administrativen Aufwand sorgt.

Neben dieser berufshoheitlichen Perspektive werden Pflegehilfsmittel auch noch durch zwei verschiedene Institutionen „verwaltet“. Digitale Software-Hilfsmittel werden vom BfArM geprüft, zugelassen und gelistet, während alle anderen Pflegehilfsmittel vom GKV-Spitzenverband verwaltet werden. Die Zulassungskriterien sind zwischen den Institutionen nicht abgestimmt. Im einen Fall ist ein Produktkatalog entstanden (GKV), auf der anderen Seite spielen leistungsrechtliche und fachliche Aspekte eine stärkere Rolle (BfArM).

Leistungsperspektive

Diese Sichtweise bietet für den Pflegeprozess die größten Chancen. Denn Hilfsmittel sollen Defizite ausgleichen und Kompetenzen schützen. Grundlage für die Einschätzung der entsprechenden Bedarfe ist die individuelle pflegefachliche Beurteilung: Mit welchem Hilfsmittel wird der größtmögliche Nutzen für die pflegerischen Ziele erreicht? Diese Ziele stehen in direktem Zusammenhang mit den pflegerischen Interventionen, die in Deutschland in sechs Leistungsmodulen zusammengefasst sind. Ein Pflegehilfsmittel, das für den Erhalt der kognitiven und kommunikativen Fähigkeiten (Modul 2) eingesetzt wird, passt momentan aber nicht logisch in die Kategorisierung nach Produktgruppen, die vor allem nach Hilfsmitteln für die Erleichterung der Pflegetätigkeiten, nach Verbrauchsmaterialien und Hilfsmittel zur selbstständigen Lebensführung unterscheiden (vor allem Hausnotruf).

Kernfragen und Forderungen

  1. Dient das jeweilige Pflegehilfsmittel den gemeinsam im Pflegeprozess zwischen Pflegenden und Klient:innen ausgehandelten Zielen?
    Hilfsmittel nach fachlichen Kriterien kategorisieren, Pflegemodule einbeziehen
  2. Welche Kompetenzen bei Patient:innen und Klient:innen werden gefördert, gestärkt, welche Defizite gelindert?
    Klient:innen-Perspektive bei der Nutzenbewertung einnehmen
  3. Wie kann der pflegefachlichen Verantwortung für das Erreichen der Pflegeziele am besten Rechnung getragen werden?
    Verordnung der Pflegehilfsmittel sektorenübergreifend – unabhängig vom Ort der Anwendung – an die entsprechend qualifizierten Pflegefachkräfte übergeben und aufwandsentsprechend vergüten
  4. Ist die Splittung in zwei Katalogen für die Administration hilfreich?
    Kataloge harmonisieren, doppelte Zuständigkeit auflösen, in echtem Pflegehilfsmittelverzeichnis integrieren

Mehr digitale Resilienz dank NIS-2-Richtlinie der EU

NIS2-Richtlinie, Switch

Die Richtlinie hat das Ziel, das Cybersicherheitsniveau innerhalb der EU zu vereinheitlichen und zu erhöhen. Sie ist im Januar 2023 in Kraft getreten und muss bis Oktober 2024 von den Mitgliedstaaten in nationales Recht umgesetzt werden. Aber dies geht nicht ohne gewissen Aufwand. Die Richtlinie sieht diverse Maßnahmen auf staatlicher Seite sowie für Unternehmen vor. Sie gilt in Deutschland für circa 40.000 Unternehmen in 18 Branchen ab 50 Mitarbeiter.

Die NIS-2-Richtlinie zielt darauf ab, die Sicherheit von Netzwerken und Informationssystemen in der EU zu stärken und die Resilienz- und Reaktionskapazitäten öffentlicher und privater Stellen, der zuständigen Behörden und der EU insgesamt weiter zu verbessern. Dies ist in Zeiten der wachsenden Digitalisierung und anhand der fast täglichen Meldungen im Bereich Cyberkriminalität zu begrüßen.

Solche Anforderungen stoßen aber in diesen unruhigen Zeiten aufgrund von Fachkräftemangel, Zeitnot und der für viele Organisationen engen finanziellen Spielräume auch auf Widerstände. Viele davon sind vermutlich auf eine Mischung aus Ignoranz, Hoffnung („Bei uns passiert schon nichts.“), Unwissenheit („Was ist NIS-2?“) und Fehleinschätzungen („Wir sind kein Ziel, bei uns ist nichts zu holen.“) zurückzuführen. Teilweise sind Widerstände auch der brutalen Erkenntnis geschuldet, angesichts der Bedrohungen bisher zu wenig getan zu haben. Gar mancher scheint das Ohnmachtsgefühl zu haben, sich ohnehin nicht wehren zu können.

Andererseits geht die Digitalisierung ohne Pause weiter. Neue Trends wie die KI bringen neue Herausforderungen, aber auch Möglichkeiten. Also wann will man mehr für die Sicherheit tun, wenn nicht jetzt? Und ist „Nichtstun“ wirklich eine Option?

Vorbereitung der Mitgliedsstaaten auf den Ernstfall

Die genannten staatlichen Maßnahmen dienen der Vorbereitung der Mitgliedstaaten. Sie verlangen, dass sie eine Organisation hierfür aufbauen und angemessen ausgerüstet sind. Zum Beispiel soll ein Computer Security Incident Response Team (CSIRT) und eine zuständige nationale Behörde für Netzwerk- und Informationssysteme (NIS) geschaffen werden. Dies wird in Deutschland in weiten Teilen vom Bundesamt für Sicherheit in der Informationstechnik sowie anderen Stellen abgedeckt. So unterhält die Polizei in den Ländern spezielle Stellen für diese Themen, die sogenannten ZAC, die Zentrale Ansprechstelle Cybercrime. Dort sind auf das Thema spezialisierte Juristen, IT-Fachleute und Polizei im Verbund aktiv.

Auch gilt es, die Zusammenarbeit zwischen allen Mitgliedstaaten durch Einsetzung einer Kooperationsgruppe zur Unterstützung und Erleichterung der strategischen Zusammenarbeit und des Informationsaustauschs zu organisieren und schrittweise zu verbessern.

Für staatliche Stellen und die Privatwirtschaft in allen Sektoren, die für unsere Wirtschaft und Gesellschaft von entscheidender Bedeutung und stark auf IKT angewiesen sind, müssen Maßnahmen ergriffen werden. Dies sind zum Beispiel Energie, Verkehr, Wasser, Banken, Finanzmarktinfrastrukturen, Gesundheitsversorgung und digitale Infrastruktur. Wichtige Anbieter digitaler Dienste wie Suchmaschinen, Cloud-Computing-Dienste und Online-Marktplätze müssen die Sicherheits- und Benachrichtigungsanforderungen der Richtlinie erfüllen. Besonders hervorzuheben ist die Geltung in großen Sektoren wie dem Maschinen- und Fahrzeugbau sowie der Chemie- und Lebensmittelindustrie.

Besonders relevant ist das Thema Haftung, denn Geschäftsführer sollen teilweise persönlich(!) für die Umsetzung (und Billigung) der Sicherheitsmaßnahmen in ihrer Einrichtung haften. In Verbindung mit Durchsetzungsregeln (Kontrollbesuche, Überprüfungen etc.) und einem verschärften Bußgeld- und Berichtswesen ist die NIS-2-Richtlinie ein wichtiger Schritt in Richtung einer einheitlichen und verbesserten Cybersicherheit in der EU.

Berufsbild Informationssicherheitsbeauftragter

Informationen und Daten haben einen sehr großen Wert und bilden die Grundlage für Unternehmen und deren Geschäftsprozesse. Umso wichtiger ist es, diese vor Diebstahl, Missbrauch oder Verlust zu schützen. Informationssicherheit und der Job als Informationssicherheitsbeauftragter spielen dabei eine wesentliche Rolle. Sie wollen Unternehmen bei dem Schutz ihrer Daten unterstützen und finden einen Job als Informationssicherheitsbeauftragter spannend?
Antworten auf die wichtigsten Fragen finden Sie in unserem Berufsbild zum Informationssicherheitsbeauftragten:

  • Was ist Informationssicherheit?
  • Welche Aufgaben übernimmt ein Informationssicherheitsbeauftragter?
  • Wie wird man Informationssicherheitsbeauftragter?
  • Welche Weiterbildungsmöglichkeiten für Informationssicherheitsbeauftragte gibt es bei der DGQ?
  • Was verdient man als Informationssicherheitsbeauftragter?
  • Welche Rollen gibt es in der Informationssicherheit?

Zum Berufsbild Informationssicherheitsbeauftragter »

Maßnahmenbündel zum Schutz vor Sicherheitsheitsvorfällen

Die konkret genannten Maßnahmen müssen auf einem umfassenden gefahrenübergreifenden Ansatz beruhen, der darauf abzielt, die Netz- und Informationssysteme und die physische Umwelt dieser Systeme vor Sicherheitsvorfällen zu schützen. Ein paar Beispiele für den Themenkreis der Anforderungen sind:

  • Risikoanalyse
  • Bewältigung von Sicherheitsvorfällen
  • Aufrechterhaltung des Betriebes
  • Sicherheit der Lieferkette
  • Sicherheit bei Entwicklung und Wartung
  • Bewertung von Risikomanagementmaßnahmen
  • Schulungen im Bereich der Cybersicherheit
  • Kryptografie und Verschlüsselung
  • Sicherheit des Personals und Konzepte für die Zugriffskontrolle
  • Sichere (Notfall-)Kommunikation
  • Awareness-Schulungen für Mitarbeiter und Führungskräfte

Positiv zu werten ist, dass die genannten Themen in der Praxis heute bereits im Rahmen von ausgereiften Informationssicherheitsmanagementsystemen (ISMS) unter anderem im Bereich Automotive durch TISAX® adressiert werden und im Business Continuity Management System (BCMS) Thema sind.

Die Umsetzung der Richtlinie erfolgt im Rahmen eines NIS-2-Umsetzungs- und Cybersicherheitsstärkungsgesetz (NIS2UmsuCG). Das Gesetzgebungsverfahren ist bereits im Gange, da verschiedene bestehende Gesetze (zum Beispiel BSIG; Kritis-Gesetze) miteinander im Sinne der NIS-2-Richtlinie zu harmonisieren sind. Aufgrund der vorhandenen Behörden und der gesetzlichen Vorarbeiten ist Deutschland hier schon relativ gut aufgestellt und muss wenig „Neues“ schaffen. Vielmehr geht es hierzulande darum zu integrieren, zu strukturieren und zu konkretisieren sowie schneller und besser zu werden.

Nach ISO/IEC 27001 zertifizierte Unternehmen sind im Vorteil

Erfreulich ist zudem, dass in den Erwägungsgründen der Richtlinie ausdrücklich die Normenreihe ISO/IEC 27000 (die 27001er ist ein Teil davon und zertifizierbar) als Bezugsrahmen für den Nachweis der Einhaltung der gesetzlichen Anforderungen zugelassen ist. Wohl dem, der bereits ein ISMS auf Basis ISO/IEC 27001 beziehungsweise TISAX® und BCMS (zum Beispiel auf Basis BIS-IT Grundschutz 200-4 oder ISO/IEC 22301) hat. Denn für diese Organisation wird wenig Mehraufwand wegen NIS-2 anfallen.

 

Über den Autor:
Klaus Kilvinger ist Geschäftsführender Gesellschafter der Opexa Advisory GmbH, einer auf die Themen Digitalisierung, Cyber- und Informationssicherheit, sowie deren Integration in Geschäftsprozesse spezialisiertes Beratungsunternehmen mit Hauptsitz in München. Er ist seit über 30 Jahren in der IT-Branche aktiv und verfügt über ein breites anwendungsbezogenes Erfahrungswissen, verfügt ferner über umfassende Kenntnisse und Erfahrungen im IT-Projektgeschäft sowie Fachwissen in der Software-Qualitätssicherung. Die Informationssicherheit im nationalen und internationalen Umfeld ist sein Zuhause. Als zertifizierter IT-Security Manager, IT-Security Beauftragter sowie Datenschutzbeauftragter verfügt er über breite Branchenkenntnisse, über die Fertigungs-, Automobilindustrie, den öffentlichen Sektor bis hin zur Wirtschaftsprüfung.

Qualitätsmanagement für Startups und Kleinstunternehmen agil aufbauen: Neues Projektvideo zeigt Ergebnisse des FQS-Forschungsprojekts „Startups“

Etablierte Konzepte und Ansätze zur Einführung eines Qualitätsmanagements und die formelle Anwendung der DIN EN ISO 9001 sind für Startups und Kleinstunternehmen meist wenig geeignet: Prozesse sind oftmals noch nicht ausreichend definiert und dokumentiert, Anforderungen können sich schnell ändern oder neu hinzukommen. Vielmehr ist ein agiles Vorgehen sinnvoll, bei dem die Beteiligten flexibel und iterativ agieren können und bei dem der Nutzen für das Unternehmen im Vordergrund steht. Im Rahmen des FQS-ForschungsprojektsStartups“ haben sich Wissenschaftler:innen des RIF – Institut für Forschung und Transfer e.V. mit der Nutzung von agilen Methoden zum Aufbau eines Qualitätsmanagementsystems beschäftigt.

In einem Zeitraum von zwei Jahren ist ein Vorgehensmodell entstanden, das Startups und Kleinstunternehmen darin unterstützt, modular ein bedarfsgerechtes Qualitätsmanagement aufzubauen. Das in einem IT-Tool umgesetzte Konzept sieht unter anderem die Definition von User Stories zur Erhebung von Anforderungen vor, die über Sprints umgesetzt werden. Durch einen Auswahlassistenten können anschließend passende Softwarelösungen identifiziert werden, die das agile Arbeiten unterstützen.

In einem neu veröffentlichten Projektvideo aus der FQS-Videoreihe stellen die Forschungspartner des RIF e.V. die Projektarbeiten vor und zeigen, wie Unternehmen von den vorgestellten Lösungen profitieren können. Ergänzt werden die Einblicke durch eine Praxisstimme des am Projekt beteiligten Startups IPS Engineers GmbH:

Forschungsprojekt Startups, FQS

 

Videoreihe der FQS – Forschungsgemeinschaft Qualität e. V.
Das Projektvideo „Startups“ ist Teil einer neuen Videoreihe der FQS – Forschungsgemeinschaft Qualität e.V., die die Arbeit und Themen der FQS als Forschungsarm der DGQ vorstellt und Einblicke in aktuelle Forschungsprojekte gibt. Zur Videoreihe »

 

Weitere Informationen zum Projekt und Kontakt:

Projektwebsite „Startups“ »

FQS – Forschungsgemeinschaft Qualität e. V.
August-Schanz-Straße 21A
60433 Frankfurt am Main
infofqs@dgq.de

Über die FQS:
Die FQS – Forschungsgemeinschaft Qualität e. V. (FQS) unterstützt seit 1989 die anwendungsorientierte Forschung rund um das Thema Qualität in Deutschland. Sie versteht sich selbst als Forschungsbereich der Deutschen Gesellschaft für Qualität e. V. (DGQ) und wird von ihr getragen. Die FQS fördert innovative Forschungsideen über das Instrument der Industriellen Gemeinschaftsforschung (IGF) und des Forschungsnetzwerks CORNET des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK). Ziele der Förderung sind möglichst anwendungsnahe Forschungsideen, die einen unmittelbaren Nutzen für die Wirtschaft, insbesondere für kleine und mittelständische Unternehmen (KMU), erbringen.

Ein Video mit weiteren Informationen über die FQS – Forschungsgemeinschaft Qualität e.V. findet sich hier.

FQS – Forschungsgemeinschaft Qualität e. V.
August-Schanz-Straße 21A
60433 Frankfurt am Main
infofqs@dgq.de

Digitale Prozessautomatisierung für Qualitätsmanager

Digitale Prozessoptimierung, Post-It, Prozesse

Organisationen fordern zunehmend standardisierte und automatisierte Prozesse. Lohnkosten, der demografische Wandel und die zunehmende Prozesskomplexität in allen Abteilungen und Organisationen erhöhen den Druck zur Standardisierung und Automatisierung. Die bisherige Herausforderung: Das Problem ist komplex und der Mangel an Fachkräften stellt zunehmend einen Engpass dar, doch die modellgesteuerte Prozessautomatisierung bietet an dieser Stelle eine Alternative.

Effiziente Prozessgestaltung und technische Ausführung von Prozessen leicht gemacht!

Bisher lagen die Verantwortung und Aufgaben wie die Automatisierung und Digitalisierung von Prozessen in den Händen von IT-Fachkräften oder Software-Entwickler:innen, die über die hierzu notwendigen technischen Fähigkeiten verfügten. Doch das verändert sich derzeit. Technologische Entwicklungen ermöglichen intuitivere Instrumente, die auch Qualitätsmanager:innen den Zugang zu diesen Themenbereichen eröffnen.

Am Beispiel der standardisierten Modellierungssprache „Business Process Model and Notation 2.0 (BPMN 2.0)“ ist das gut nachzuvollziehen. Qualitätsmanager:innen können dank dieser Notation fachliche Inhalte einfach visuell beschreiben und damit ganz ohne Programmierwissen oder spezielles Software-Knowhow Ausführungsanweisungen implementieren.

Was ist Prozessautomatisierung?

Wenn Unternehmen schnittstellenübergreifend digitalisieren und (mittlerweile häufig) automatisieren, spricht man von Prozessautomatisierung oder Workflow-Automatisierung. Ein funktionierendes Prozessmanagement ist ohne den Einsatz von Automatisierungstechnologien heute kaum noch vorstellbar. Die Komplexität steigt durch die Anzahl der für einen Prozess erforderlichen analogen und digitalen Ressourcen (Menschen, Systeme, Dienste, Maschinen, IoT-Geräte etc.) und deren Schnittstellen. Durch das abteilungs- und oft auch kompetenzübergreifende Verständnis von Prozessen können Qualitätsmanager:innen Synergien nutzen.

Häufige Herausforderung: Qualitätsmanager:innen sind selten IT-Expert:innen, müssen jedoch über verschiedene Fachabteilungen hinweg und im Austausch mit diesen die Leistungsfähigkeit der Prozesse auch durch Software ständig erhöhen. Eine gute Kommunikation und ein gemeinsames Verständnis des Prozesses zwischen Ingenieur:innen, IT-Techniker:innen und Nicht-Techniker:innen sind hier Basis für den Erfolg.

Modellgetriebene Automatisierung ist visualisierbar und verständlich

Die Modellierungssprache BPMN 2.0 wird zur Prozessmodellierung, also der Visualisierung und Beschreibung von Prozessen genutzt. Das Besondere: Die in Symbolen notierten Modelle sind gleichermaßen für Menschen wie auch für Software (Workflow Engines) lesbar. Die BPMN eignet sich daher gut, um auch komplexe Sachverhalte im Detail zu beschreiben und weiterhin abstrakt Inhalte vermitteln zu können. Technisch-orientierte und fachlich-orientierte Beteiligte können hiermit eine gemeinsame Sprache verwenden. Nicht nur gelingen mit der Notation der Entwurf und die bildhafte Darstellung von Prozessen, sondern diese können im selben Zuge durch Software gelesen und technisch ausgeführt werden. Die beiden Komponenten, Modelle und Workflow Engines, bilden die Grundlage moderner, modellgetriebener Automatisierung im Prozessmanagement.

Prozessmodelle orchestrieren so verschiedene Ressourcen. Zur Einbindung menschlicher Ressourcen, können BPMN-Prozesssmodelle den Aufruf von Benutzeroberflächen ermöglichen. Diese stellen die Schnittstelle zum Anwender dar (User Interface). Andere Ressourcen (z.B. ein ERP-System, oder ein Roboter) können durch den Aufruf technischer Schnittstellen (wie RestAPIs, OPC UA, u.a.) integriert werden. Durch Oberflächen und Schnittstellenaufrufe ergänzt, entsteht so auf Basis einer Workflow Engine eine Prozess-Applikation, die medienbruchfrei alle beteiligten Systeme integriert und von allen Mitarbeiter:innen der Organisation genutzt werden kann.

Berufsbild Prozessmanager

Wir leben in einer Zeit geprägt von Digitalisierung und Schnelllebigkeit. Umso wichtiger ist es, dass Unternehmen anpassungsfähig sind und auf veränderte Marktbedingungen eingehen können. Eine kontinuierliche Analyse und Optimierung von bestehenden Geschäftsprozessen ist sowohl für die Kosteneffizienz und Wirtschaftlichkeit, aber auch für die Kundenzufriedenheit von zentraler Bedeutung. Prozessmanager sind also gefragte Arbeitskräfte mit guten Zukunftsaussichten.
Antworten auf die wichtigsten Fragen finden Sie in unserem Berufsbild zum Prozessmanager:

  • Welche Aufgaben betreuen Prozessmanager?
  • Wie werde ich Prozessmanager?
  • Welche Weiterbildungsmöglichkeiten gibt es?
  • Was verdient ein Prozessmanager?
  • Welche Rollen gibt es im Prozessmanagement?

Zum Berufsbild Prozessmanager »

 

BPMN 2.0 ist demnach eine Low-Code/No-Code Methode, weil Modelle und Software-Anwendungen ganz ohne die klassischen Programmier-Codes, sondern anhand von grafischen Symbolen erstellt werden können. Nicht-Techniker:innen entwickeln aus der Expertise ihrer Fachabteilung heraus, unabhängig von Software-Expert:innen, automatisierte Lösungen – ein wichtiger Schritt für Unternehmen, um unter anderem dem Fachkräftemangel entgegenzuwirken.

Neben der technischen Ausführung des Prozesses übernimmt die Workflow-Engine auch die Steuerung und Überwachung der Prozessleistung. Die Prozesse-Applikation zeigt alle laufenden Prozesse zum besseren Verständnis an. Dadurch ist eine optimale Transparenz über alle laufenden Prozesse gewährleistet. Ressourcennutzung und -verbrauch sowie Prozessschwächen sind sofort erkennbar und gleichermaßen zugänglich, sodass Fachabteilungen Echtzeitinformationen nutzen können, um Prozesse zu optimieren und nahtlos in den Prozess-Kreislauf der Organisation zurückzugeben.

Eine Workflow Engine bietet im laufenden Betrieb die visuelle Form des Modells. Jeder Fachbereich erkennt und versteht leicht die eigene Verortung im Gesamtsystem, ebenso wie Querbezüge und Abhängigkeiten. Ein solcher Übergang wäre ohne BPMN nicht denkbar.

Vorteile von BPMN 2.0

Ist die Rede von Prozessautomatisierung, wird meist implizit von der Modellierungssprache „Business Process Model and Notation 2.0 (BPMN 2.0)“ gesprochen. Inzwischen gilt die Modellierungssprache BPMN 2.0 als der absolute Standard für Prozessmodellierung. Seit 2013 auch als ISO-Standard ISO19510 veröffentlicht, hilft er bei der Interaktion, vereinfacht die Transparenz, macht Workflows verständlicher und das Arbeiten angenehmer. Und nicht nur das: die visuelle Darstellung technischer Inhalte ist mit Hilfe von BPMN 2.0 ganz ohne IT-Fachwissen möglich.

Das System hinter solch schlicht gestalteten Symbolen ist leicht anzuwenden: Viele verschiedene Business-Szenarien können als Modell abgebildet werden. Selbst komplexe (Ende-zu-Ende-)Prozesse können auf diese einfache Weise dargestellt und auch fachfremden Kolleg:innen im Unternehmen zugänglich und verständlich gemacht werden. Modellierungssprachen bilden somit das gemeinsame Vokabular im automatisierten Prozessmanagement und sind unverzichtbares Kommunikationsmittel über die gesamte Organisation hinweg.

Zusammengefasst stechen folgende Vorteile heraus:

  1. Modell als Kommunikationsmittel
    Es heißt, ein Bild sagt mehr als tausend Worte. So verhält es sich auch bei der modellgetriebenen Automatisierung. Beteiligte Kolleg:innen aus unterschiedlichen Fachbereichen und Hintergründen können Prozesse dadurch besser verstehen und miteinander kommunizieren.
  2. Simpel und ausdrucksstark
    Der große Symbolumfang der Modellierungssprache BPMN 2.0 ermöglicht eine präzise und einfache Darstellung unterschiedlicher Einsatzszenarien.
  3. Prozessmodellierung ist keine Verschwendung
    In der Vergangenheit wurden Unternehmensprozessmodelle zwar oft erstellt, diese waren aber für Software nicht lesbar und „versauerten“ dann leider meist im Schrank. Die heutigen BPMN-Modelle sind direkt ausführbar, werden daher nicht mehr ausschließlich von Auditor:innen genutzt, sondern sind integraler Teil der Prozessleistung.
  4. Modell als Analyse-Instrument
    Die Präzision der Modellierungssprache offenbart bei der Dokumentation Unklarheiten. Sie eignet sich also gut, um Schnittstellen zwischen Prozessen abzustimmen und Anforderungen an IT-Systeme aufzudecken.
  5. Passgenau und zielgerichtet
    Auf Basis der erstellten formalen Modelle orchestrieren Workflow-Engines den Ressourcen-Einsatz der Organisation und können genau auf die Unternehmensziele ausgerichtet werden.

Fazit

Prozessautomatisierung wird leichter denn je. Qualitätsmanager:innen haben aufgrund ihrer bisherigen Prozessbetrachtungen hier häufig bereits die ersten Grundlagen gelernt, auf denen nun aufgebaut werden kann. Da das Qualitätsmanagement über zahlreiche Methoden verfügt, um Prozesse zu analysieren und zu verbessern, steht es in exponierter Stellung, um sicherzustellen, dass nur optimierten und reifen Prozessen eine Automatisierung erfahren.

 

Über den Autor:
Björn Richerzhagen ist Trainer und Berater bei MINAUTICS GmbH sowie DGQ-Trainer für Prozessmanagement und arbeitet an der Schnittstelle zwischen IT und Business. Sein schwerpunktmäßiges Tätigkeitsfeld ist das modellgetriebene Prozessmanagement. Als Kaufmann und ITler pflegt er den transdisziplinären Ansatz im BPM.

Von der Linearen Wirtschaft zur Kreislaufwirtschaft (Circular Economy), Teil 2 – Hinweise für die Umstellung

Circular Economy

Der Circularity Gap Report 2021 titelt „Wir alle lassen die Menschen und den Planeten im Stich… damit unsere Welt lebenswert bleibt und blüht, müssen wir die globale Kreislaufwirtschaft von 8,6 Prozent auf 17 Prozent verdoppeln“ (englische Fassung übersetzt). Zweifelsfrei besteht dringender Handlungsbedarf. Was jedoch hindert Organisationen daran, die Transformation zu einer „Circular Economy“ voranzutreiben? Einige Organisationen können offensichtlich die Vorteile der Kreislaufwirtschaft „noch“ nicht erkennen. Gründe könnten sein: fehlende Zahlen, Daten, Fakten, fehlendes Wissen und/oder fehlende Ressourcen zur erfolgreichen Umsetzung.

Dem gegenüber stehen Erfolgsmeldungen von Unternehmen, die frühzeitig die Chancen erkannt haben. Im Mai 2022 veröffentlichte das Institut der deutschen Wirtschaft (IW) eine Studie, aus der hervorgeht, dass Unternehmen mit zirkulären Geschäftsmodellen wirtschaftlich erfolgreicher sind. Die Kreislaufwirtschaft gilt daher als das Wirtschaftsmodell der Zukunft.

Wirtschaftliche Vorteile

Organisationen können durch eine zirkuläre Unternehmensstrategie wirtschaftliche Vorteile erzielen. Vom Rohstoffeinkauf und -einsatz über das Design als auch die Herstellung, den Vertrieb, die Verwendung, die Wiederverwertung und Reparatur sowie das Recycling bieten sich zahlreiche Möglichkeiten, neue, innovative und insbesondere nachhaltige Lösungen zu entwickeln.

Ein funktionierendes Netzwerk mit Blick auf die vor- und nachgelagerten Prozesse der Wertschöpfungskette ist hierzu ebenso notwendig. Zulieferer und externe Dienstleister sind wichtige Partner. Viele Daten werden benötigt, um die neuen zirkulären Abläufe zu bewerten und, sofern notwendig, nachzubessern. Eine wesentliche Voraussetzung zur erfolgreichen Umsetzung ist ein hoher Digitalisierungsgrad.

Zweifellos ist zu beobachten, dass auf nationaler, europäischer und internationaler Ebene die regulatorischen Vorgaben für die Transformation in Richtung einer Kreislaufwirtschaft zunehmen – soll heißen: Die Abkehr von einer linearen Wirtschaft ist alternativlos. Es lohnt sich für Organisationen, frühzeitig Kreislaufstrategien zu entwickeln und in Kreisläufen zu wirtschaften.

Dass kleine und mittlere Unternehmen (KMU) sich hier schwertun, ist verständlich. Oftmals fehlt es an Ressourcen und/oder Unterstützung durch Experten. Nachfolgend eine kleine, nicht vollständige, Linksammlung zu Förderprogrammen. Hier finden Organisationen sowohl Anregungen zur Umsetzung der Kreislaufwirtschaft als auch Fördermöglichkeiten auf europäischer, bundesweiter und landesweiter Ebene:

Informationen zu Förderprogrammen und zur Umsetzung der Kreislaufwirtschaft 

Europäische Ebene

  • InvestEU-Programm: Das InvestEU-Programm stellt langfristige Finanzmittel für Projekte und Unternehmen bereit, mit denen die Kreislaufwirtschaft umgesetzt wird.
  • EU-LIFE-Programm: LIFE steht für „L’Instrument Financier pour l’Environnement“ und ist ein Förderinstrument der Europäischen Kommission in den Bereichen Umwelt-, Klima- und Naturschutz sowie Energiewende.

Bundesweite Ebene

Landesweite Ebene

  • IHK Darmstadt: Fördermittel für die Kreislaufwirtschaft, für Forschung und Innovation, für Investitionen und Umsetzungsprojekte, für Beratungsleistungen zum Thema „Zirkuläre nachhaltige Textilien“
  • Land Niedersachsen: Das Land Niedersachsen unterstützt KMU mit Mitteln des Europäischen Fonds für regionale Entwicklung (EFRE) bei Vorhaben zur Steigerung der betrieblichen Ressourceneffizienz und zur Förderung der Kreislaufwirtschaft.

 

Beispiele für erfolgreich umgesetzte Kreislaufwirtschaft

Mit Blick auf die teils komplexen Anforderungen, welche mit der Transformation zur Kreislaufwirtschaft einhergehen, gibt es mittlerweile zahlreiche Beispiele, welche sehr gut zur Orientierung dienen können. Nachfolgend sind nur einige wenige exemplarisch aufgeführt.

  • Recup, Recircle und Vytal: Diese Unternehmen bieten Lösungen für die Gastronomie an. Speisen und Getränke lassen sich gegen Pfand in Mehrwegbehältern verpacken. Damit werden Einwegverpackungen komplett verzichtbar.
  • Patagonia: Das Unternehmen hat sich zum Ziel gesetzt, hochwertige Kleidung herzustellen, welche möglichst lange hält. Darüber hinaus wird die Kleidung so gefertigt, dass sie einfach repariert werden kann. Falls mal etwas repariert werden muss, bietet das Unternehmen in einigen Stores Reparaturdienstleistungen für seine Produkte an. Hier können Kunden ihre Kleidung an sogenannten Repair-Stationen kostenfrei reparieren lassen.
  • Ikea: Für Ikea ist die Wiederverwendung der Produkte wichtig. Der Ikea-Service bietet seinen Kunden eine „Zweite Chance“ für Produkte an. Jene Produkte, für welche die Kunden keine Verwendung mehr haben, werden von Ikea aufgekauft und finden in den Ikea-„Fundgruben“ neue Besitzer.
  • BMW: Für BMW ist Zirkularität ein strategisch wichtiges Thema und die Organisation sieht darin vielfältige Chancen. Unter anderem reduziert die Wiederverwendung wertvoller Ressourcen die kritische Abhängigkeit von kostspieligen Primärrohstoffen.
  • Stadt Amsterdam: Die Stadt will bis 2030 ihren Rohstoffverbrauch um 50 Prozent verringern und bis 2050 vollständig auf Kreislaufwirtschaft umstellen. Das bedeutet, sich von den klassischen ökonomischen Ansätzen zu lösen, um das gesteckte Ziel zu erreichen.

Diese Aufstellung ließe sich beliebig fortführen. Aus allen Branchen und Bereichen, national und international, gibt es viele positive Beispiele. Sofern noch nicht geschehen, ist es an der Zeit, sich mit dem Thema intensiv auseinanderzusetzen. Der DGQ-Fachkreis Nachhaltigkeit steht als Netzwerkpartner gerne jederzeit für Fragen zur Verfügung.

 

Lesen Sie mehr zum Thema Circular Economy im ersten Teil der Beitragsreihe: Von der Linearen Wirtschaft zur Kreislaufwirtschaft (Circular Economy), Teil 1 – ein Überblick »

 

Über die Autoren:

Prof. Dr.-Ing. Irina Mazilu-Eyaz hat Materialwissenschaft an der Technischen Universität Darmstadt und am Imperial College London studiert. Während Ihrer 11-jährigen Berufstätigkeit bei einem internationalen Technologiekonzern sammelte sie Erfahrung im Qualitätsmanagement und wurde zur Methoden-Expertin für technische Problemlösung. Seit 2021 ist sie Professorin für Qualitätsmanagement und Werkstoffkunde an der Hochschule RheinMain und entwickelt auch neue Lehrveranstaltungen zum Thema Nachhaltigkeit. Im Mai dieses Jahrs wurde sie ins Leitungsteam des DGQ-Fachkreises Nachhaltigkeit gewählt.

Dr. Wilhelm Floer hat als promovierter Maschinenbauingenieur und Qualitätsmanagement-Experte zahlreiche praktische Erfahrungen im Rahmen von Audits gesammelt. Er war über zehn Jahre im QM-Bereich Automotive in den unterschiedlichsten Positionen bei verschiedenen Unternehmen (OEM und First Tier) tätig. Bei einem namhaften Haushaltsgerätehersteller hat er sich unter anderem für agiles QM und als Energie- und Umweltmanagementvertreter für Nachhaltigkeitsthemen eingesetzt sowie als Co-Autor bei der Erstellung der Nachhaltigkeitsberichte mitgewirkt. Als Dozent für die DGQ leitet Dr. Wilhelm Floer seit 2019 verschiedene Trainings. Derzeit arbeitet er als Digitaler Nomade und steht als Freelancer, Coach und Consultant für VDA-, QM-, UM-, EM- und Nachhaltigkeits-Themen zur Verfügung. Wilhelm Floer ist Mitglied des Leitungsteams des Fachkreis Nachhaltigkeit.

Von der Linearen Wirtschaft zur Kreislaufwirtschaft (Circular Economy), Teil 1 – ein Überblick

Circular Economy

Die sogenannte „Circular Material Use Rate“ entspricht dem Anteil der Ressourcen, die in einer Volkswirtschaft genutzt werden und aus recycelten Produkten oder wiedergewonnen Materialien stammen. Während die Recyclingquote stetig zunimmt und europaweit im Jahr 2020 bei ca. 47,8 Prozent lag, nahm erstere hingegen von 2019 auf 2021 ab und lag zuletzt auf einem niedrigen Niveau von 11,7 Prozent. Angesicht der Tatsache, dass der Abbau und die Verarbeitung von Primärrohstoffen mit hohen umweltschädlichen Emissionen und steigenden Beschaffungspreisen verbunden sind, wird die Notwendigkeit im Umdenken der Unternehmen allerdings nicht nur von neuen Gesetzen, sondern tatsächlich auch von ökonomischen Überlegungen getrieben. Das verdeutlicht, welchen großen Impact die Transformation der linearen Wirtschaft zur zirkulären Wirtschaft (Kreislaufwirtschaft/„Circular Economy“) hat. Zu Recht stellt dies den größten wirtschaftlichen Wandel seit der Industriellen Revolution dar.

Was bedeutet Circular Economy?

Bei der Circular Economy handelt es sich um eine Erweiterung des häufig verwendeten Begriffs der Kreislaufwirtschaft auf ein übergreifendes Konzept, das zirkuläre Wirtschaften. Dabei geht es um die Umstellung von einer linearen Wirtschaft, die grob durch das Prinzip „take-make-waste“ gekennzeichnet ist, auf ein zirkuläres Wirtschaftsmodell, bei dem nach Möglichkeit endliche Ressourcen, also nicht-erneuerbare Rohstoffe, im Kreis geführt und wiederverwertet werden. Ähnlich zum „Biologischen Kreislauf“ der Natur, bei dem keine Abfälle, sondern nur neue Wertstoffe entstehen, sollen endliche Ressourcen in einem “Technischen Kreislauf” geführt und wieder zum Einsatz kommen. Im optimalen Fall bedeutet dies, dass endliche Ressourcen als Werkstoffe „unendlich“ in der Technosphäre innerhalb Produkten Verwendung finden. Im weiteren Abschnitt wird vor allem auf die Funktionsweise von Circular Economy im Technischen Kreislauf – also mit Blick auf die endlichen Ressourcen im zirkulären Wirtschaftsmodell – eingegangen.

Circular Economy

Abb. 1: Circular Economy, Endliche Ressourcen in der Technosphäre (eigene Darstellung © I. Mazilu-Eyaz)

Wie funktioniert Circular Economy in der Praxis?

Das zirkuläre Wirtschaften folgt drei Grundprinzipien:

  1. Der höchste Grad (High-Level) an Zirkularität wird durch eine intelligente Produktnutzung erreicht, die den Verbrauch von Materialen per se reduziert.
  2. Durch eine Erhöhung der Produktlebensdauer wird der Materialverbrauch insgesamt verlangsamt.
  3. Der niedrigste Grad (Low-Level) an zirkulärer Wertschöpfung kommt bei der für uns aus der klassischen Kreislaufwirtschaft bekannten Wiederverwertbarkeit von Materialien zum Tragen.

Umgesetzt werden die Prinzipien anhand der sogenannten 10 R-Strategien.

Circular Economy, 10 R-Strategien

Abb. 2: Circular Economy, 10 R-Strategien (eigene Darstellung © W. Floer)

Bei der intelligenten Produktnutzung (1) wird unter „Refuse, Rethink, Reduce” der Ersatz bisheriger Produkte durch neue Geschäftsideen verstanden. So verbirgt sich etwa hinter dem Car-Sharing das Konzept „Product as a Service”, hinter den Unterhaltungs-Streaming-Diensten das Konzept des „Entmaterialisierens“, durch welchen zum Beispiel der Besitz von CDs und DVDs obsolet wird. Natürlich kann der Materialverbrauch auch durch die Erhöhung der Materialeffizienz (zum Beispiel beim Leichtbau) erreicht werden. Hier gilt es aber auch immer, die Nachhaltigkeitsaspekte des effizienteren Werkstoffes entlang der ganzen Lebensdauer zu betrachten, was wieder die Relevanz der internationalen Umweltmanagementnorm ISO 14001 unterstreicht.

Mit Blick auf die Erhöhung der Produktlebensdauer (2) folgen fünf weitere R-Strategien: „Reuse, Repair, Refurbish, Remanufacture, Repurpose”. Während die ersten beiden beispielsweise durch Secondhand-Verkaufsbörsen oder Repair-Cafés hinlänglich bekannt sind, handelt es sich bei den darauffolgenden drei Strategien um weitreichende Vorgänge wie die Aufarbeitung von defekten Produkten mit beispielsweise Software-Updates zur Weiternutzung. Zum „Remanufacturing“ zählt darüber hinaus sogar die Nutzung komplexer technischer Komponenten nach Veränderung einzelner Bauteile als verbesserte Komponente mit gleicher Funktion und – ganz wichtig – bei erneuerten Qualitätsversprechen! Werden hingegen aus den nicht mehr für ihren angedachten Nutzen funktionstüchtigen Produkten neue Produkte mit geänderter Funktion hergestellt, dann spricht man von „Repurpose“. Ein Beispiel dafür ist der „Secondlife“-Einsatz für E-Batterien aus Autos im stationären Bereich.

Mit dem niedrigsten Grad an Zirkularität (3) folgen die Strategien „Recycle”, welche als Ergebnis der Wiederverwertung Materialien mit gleichbleibender oder niedrigerer Qualität als das Ursprungsmaterial liefert, und „Recover”, also die thermische Verwertung von Werkstoffen zur Gewinnung von Energie.

Neben der Herausforderung, Circular-Economy-fähige Produkte zu entwickeln, steht am Anfang für Organisationen die Frage: Welche Strategie kommt für welches Produkt in Frage? Das ist eine mehrdimensionale Problemstellung, die zum einen von der Komplexität des Produktes abhängt und zum anderen mit der Verfügbarkeit des Produktes nach der Nutzung durch den Kunden, was auch zum Beispiel den Aufbau eines Retourenmanagement (Reverse Logistik) benötigt.

Berufsbild Nachhaltigkeitsmanager

Die Themen Nachhaltigkeit und Klima­schutz gehören zu den Mega­trends unserer Zeit. Für Unter­nehmen wird es somit immer wichtiger, CSR-Maßnahmen um­zu­setzen und ihrer gesell­schaftlichen Verantwortung gerecht zu werden. Mit dem größeren Fokus auf Nachhaltigkeit haben sich in den letzten Jahren eine Vielzahl an grünen Jobs entwickelt, wie beispielsweise der Job als Nachhaltigkeitsmanager.
Antworten auf die wichtigsten Fragen finden Sie in unserem Berufsbild zum Nachhaltigkeitsmanager:

  • Welche Aufgaben betreuen Nachhaltigkeitsmanager?
  • Wie werde ich Nach­haltigkeits­beauf­tragter?
  • Welche Weiter­bildungs­möglich­keiten gibt es?
  • Was verdient ein Nach­haltigkeits­manager?
  • Welche Jobs gibt es im Nach­haltigkeits­manage­ment?

Zum Berufsbild Nachhhaltigkeitsmanager »

Unterstützung durch ein Managementsystem nach der DIN EN ISO 14001

Im DGQ-Blogbeitrag „Nachhaltigkeitsmanagement: Tipps für KMU” hat der DGQ-Fachkreis Nachhaltigkeit bereits darauf hingewiesen, dass Managementsysteme bei der Umsetzung von Nachhaltigkeitsaktivitäten hilfreich sein können. Insbesondere Unternehmen mit einem Umweltmanagementsystem nach der DIN EN ISO 14001 (kurz ISO 14001) fällt die Transformation hin zu einer Kreislaufwirtschaft wesentlich leichter.

Nachfolgend sind die wesentlichen Vorteile aufgelistet:

  • Rechtskonformität (bindende Verpflichtungen) ist Bestandteil der weltweit anerkannten Zertifizierung nach ISO 14001
  • Die Umsetzung der normativen Anforderungen wird jährlich von externen Zertifizierungsgesellschaften bzw. deren Auditoren geprüft
  • Mindestens einmal im Jahr wird im Management Review die Rechtskonformität bestätigt
  • Die hohe internationale Akzeptanz der Zertifizierung schafft Vertrauen bei internen und besonders bei externen Stakeholdern (Kunden, Lieferanten, Behörden, Geldgebern, etc.)
  • Erhöhtes Umweltbewusstsein aller Mitarbeiter zeichnet die Organisationskultur aus
  • Umweltschutz und Umweltmanagement, auch auf operativer Ebene, sind Teil der Unternehmenspolitik und Unternehmensstrategie
  • Das Abfallmanagement geht über in ein Wertstoffmanagement und regelmäßig erhobene Daten informieren sowohl über die eingesetzten sowie die rückgeführten Materialmengen als auch das erzielte jährliche Erlösen und Kosten
  • Die Umweltaspekte-Bewertung trägt unter anderem dazu bei, kontinuierlich den Einsatz von umweltbelastenden Stoffen wie beispielsweise Abfällen, Abwässern, Emissionen etc. zu reduzieren
  • Neue, auch gesetzliche, Umweltschutzauflagen auf internationaler Ebene und deren Änderungen werden schnell und effektiv umgesetzt
  • Regelmäßig wird eine umweltbezogene Chancen- und Risikobeurteilung vorgenommen entsprechend der im Unternehmen implementierten Prozesse
  • Um Schwachstellen unverzüglich zu identifizieren, sind standardisierte Prozesse mit Kontroll- und Steuerungsmechanismen vorhanden
  • Die Produktlebenszyklusbetrachtung, wenn auch nicht explizit gefordert, ist Teil der ISO 14001
  • Durch die Harmonized Structure der ISO 14001 ist mit geringem Aufwand eine Erweiterung zu einem Integrierten Managementsystem möglich

Unternehmen, welche nach der ISO 14001 zertifiziert sind, lehnen sich darüber hinaus häufig an die DIN EN ISO 14040 (Umweltmanagement – Ökobilanz – Grundsätze und Rahmenbedingungen) und DIN EN ISO 14044 (Umweltmanagement – Ökobilanz – Anforderungen und Anleitungen) an.

Ökobilanzen (ein anderer häufig verwendeter Begriff lautet Lebenszyklusbetrachtung, engl. Life Cycle Assessments, LCA) analysieren und bewerten die Umweltauswirkungen von Produkten und Dienstleistungen über deren gesamten Lebensweg. In erster Linie geht es hierbei um die Material- und Energieflüsse und die daraus resultierenden Auswirkungen für die Umwelt.

 

Zusammengefasst: Mit einem zertifizierten Managementsystem nach ISO 14001 werden beste Voraussetzungen geschaffen, sowohl für eine kontinuierliche Verbesserung der Umweltleistung als auch für ein verantwortungsvolles und nachhaltiges Wirtschaften innerhalb einer Organisation. Das europäische Umweltmanagementsystem EMAS (Eco-Management and Audit Scheme) basiert auf dem standardisierten Umweltmanagementsystem der ISO 14001. EMAS geht jedoch sogar noch über die Normanforderungen hinaus: Es fordert explizit einen Nachweis zur Verbesserung der Umweltleistung und die Einhaltung der Rechtsvorschriften in Form eines Umweltberichts oder einer Umwelterklärung.

 

Konkrete Hinweise für die Umstellung einer Organisation zu einer Kreislaufwirtschaft (Circular Economy) erhalten Sie im zweiten Teil der Beitragsreihe: Von der Linearen Wirtschaft zur Kreislaufwirtschaft (Circular Economy), Teil 2 – Hinweise für die Umstellung »

 

Über die Autoren:

Prof. Dr.-Ing. Irina Mazilu-Eyaz hat Materialwissenschaft an der Technischen Universität Darmstadt und am Imperial College London studiert. Während Ihrer 11-jährigen Berufstätigkeit bei einem internationalen Technologiekonzern sammelte sie Erfahrung im Qualitätsmanagement und wurde zur Methoden-Expertin für technische Problemlösung. Seit 2021 ist sie Professorin für Qualitätsmanagement und Werkstoffkunde an der Hochschule RheinMain und entwickelt auch neue Lehrveranstaltungen zum Thema Nachhaltigkeit. Im Mai dieses Jahrs wurde sie ins Leitungsteam des DGQ-Fachkreises Nachhaltigkeit gewählt.

Dr. Wilhelm Floer hat als promovierter Maschinenbauingenieur und Qualitätsmanagement-Experte zahlreiche praktische Erfahrungen im Rahmen von Audits gesammelt. Er war über zehn Jahre im QM-Bereich Automotive in den unterschiedlichsten Positionen bei verschiedenen Unternehmen (OEM und First Tier) tätig. Bei einem namhaften Haushaltsgerätehersteller hat er sich unter anderem für agiles QM und als Energie- und Umweltmanagementvertreter für Nachhaltigkeitsthemen eingesetzt sowie als Co-Autor bei der Erstellung der Nachhaltigkeitsberichte mitgewirkt. Als Dozent für die DGQ leitet Dr. Wilhelm Floer seit 2019 verschiedene Trainings. Derzeit arbeitet er als Digitaler Nomade und steht als Freelancer, Coach und Consultant für VDA-, QM-, UM-, EM- und Nachhaltigkeits-Themen zur Verfügung. Wilhelm Floer ist Mitglied des Leitungsteams des Fachkreis Nachhaltigkeit.

Einfluss von ESG-Ratings auf die Nachhaltigkeit von Unternehmensprozessen, Teil 1

ESG, Environmental, Social, Governance

Gute ESG-Ratings können Unternehmen Zugang zu kostengünstigem Eigen- und Fremdkapital verschaffen, ihre Marktpräsenz stärken und die Markenbekanntheit verbessern. Aber inwiefern wirken sich derartige Ratings auch auf die Gestaltung unternehmensinterner Prozesse aus?

Wer sich in den vergangenen Jahren mit dem Thema Nachhaltigkeit in Unternehmen beschäftigt hat, ist um folgende drei Buchstaben nicht herumgekommen: „ESG“. Das Akronym beschreibt die drei großen Bereiche, in denen Nachhaltigkeit (in der Wirtschaft) angestrebt wird: Umwelt („Environment“), Soziales („Social“) und Unternehmensführung („(Corporate-) Governance“). Viele Unternehmen veröffentlichen Informationen darüber, wie und in welchen Bereichen sie sich für Nachhaltigkeit engagieren. Um diese Informationen kurz und übersichtlich zusammenzufassen und Investoren eine qualitative Bewertung zur Verfügung zu stellen, gibt es ESG-Ratings.

Vorgehensweise der Ratingagenturen

Die Ratingagenturen, die jene Ratings erstellen, bewerten die Unternehmen häufig aufgrund von öffentlich verfügbaren oder individuell zur Verfügung gestellten Daten kurz und prägnant auf einer intuitiven Skala, wie zum Beispiel von 0 bis 100 oder auch von CCC bis AAA. Im vergangenen Jahrzehnt ist die Nachfrage von Investoren, in nachhaltige Unternehmen zu investieren, geradezu explodiert (Larcker et al/Stanford, 2022) und die verschiedenen Indizes oder Fonds, in denen die bestbewerteten Unternehmen gelistet sind, haben im Wert um viele Milliarden oder sogar Billionen US-Dollar zugelegt (C. Simpson / Bloomberg, 2021). Dies gibt Anlass zur Vermutung, dass ein gutes ESG-Rating für ein Unternehmen von großem wirtschaftlichem Vorteil sein kann. Wie groß der Ansporn für Unternehmen wirklich ist und inwiefern Unternehmen dafür tatsächlich nachhaltiger werden müssen, ist jedoch weitgehend unerforscht.

Um herauszufinden, ob ESG-Ratings einen positiven Einfluss auf die Nachhaltigkeit von Unternehmensprozessen haben, müssen mehrere Komponenten betrachtet werden. Daher soll es in diesem Beitrag einerseits darum gehen, alle Vorteile zu sammeln, die ein Unternehmen durch ein positives ESG-Rating gewinnt. Interessierte sollen verstehen, welchen Anreiz ein gutes Rating liefern kann, da bei Unternehmen der Profit an erster Stelle steht. Entscheidende Umstrukturierungen müssen also immer durch einen finanziellen Anreiz initiiert werden. Andererseits werden in diesem Beitrag die Schritte herausgearbeitet, die ein Unternehmen gehen muss, um ein positives Rating zu erhalten. Dabei wird hinterfragt, wie herausfordernd einige dieser Veränderungen sind oder ob vergleichsweise geringe Veränderungen bereits wesentliche Verbesserungen in den Ratings erzielen können.

Vorteile eines guten ESG-Rating

Zunächst einmal zeigt ein gutes ESG-Rating, dass das Unternehmen seine Verantwortung gegenüber der Gesellschaft und der Umwelt ernstnimmt und nachhaltig agiert. In einer Welt, in der Nachhaltigkeit immer wichtiger wird, werden Unternehmen, die sich um die Umwelt und die Gesellschaft kümmern, von vielen Menschen bevorzugt. Positive ESG-Ratings können dazu beitragen, das Vertrauen von Kunden, Investoren und anderen Stakeholdern zu gewinnen und zu stärken (J. Mandorfer, 2022). Die Markenbekanntheit wird gesteigert und neue Kunden werden noch einfacher generiert. Darüber hinaus kann ein gutes ESG-Rating dazu beitragen, dass Regierungen und andere Institutionen das Unternehmen bevorzugen. Viele öffentliche Auftraggeber setzen bei der Vergabe von Aufträgen auf Unternehmen, die sich für Nachhaltigkeit und Verantwortung engagieren.

Berufsbild Nachhaltigkeitsmanager

Die Themen Nachhaltigkeit und Klima­schutz gehören zu den Mega­trends unserer Zeit. Für Unter­nehmen wird es somit immer wichtiger, CSR-Maßnahmen um­zu­setzen und ihrer gesell­schaftlichen Verantwortung gerecht zu werden. Mit dem größeren Fokus auf Nachhaltigkeit haben sich in den letzten Jahren eine Vielzahl an grünen Jobs entwickelt, wie beispielsweise der Job als Nachhaltigkeitsmanager.
Antworten auf die wichtigsten Fragen finden Sie in unserem Berufsbild zum Nachhaltigkeitsmanager:

  • Welche Aufgaben betreuen Nachhaltigkeitsmanager?
  • Wie werde ich Nach­haltigkeits­beauf­tragter?
  • Welche Weiter­bildungs­möglich­keiten gibt es?
  • Was verdient ein Nach­haltigkeits­manager?
  • Welche Jobs gibt es im Nach­haltigkeits­manage­ment?

Zum Berufsbild Nachhhaltigkeitsmanager »

Schritte zur Verbesserung des eigenen Rankings

Eine wichtige Maßnahme für die Verbesserung des eigenen Ratings ist die Offenlegung von Informationen. Obwohl unklar ist, wie die Gewichtung von Informationen für ein gutes ESG-Rating genau ist, scheinen sich viele Experten einig darüber zu sein, dass primär der Akt, Informationen offenzulegen, zu verbesserten Ratings führt (S. Drempetic et al., 2020). Dazu gehört etwa die Veröffentlichung von Nachhaltigkeitsberichten, in denen das Unternehmen detailliert über seine Leistungen sowie Ambitionen in den Bereichen Umwelt, Soziales und Unternehmensführung informiert. Ein weiteres wichtiges Element ist die Implementierung interner Prozesse und Strukturen, die es dem Unternehmen ermöglichen, seine ESG-Leistung kontinuierlich zu überwachen und zu verbessern. Unter anderem wäre das die Einführung von Umwelt- und Sozialmanagementsystemen sowie die Schaffung von Rollen und Verantwortungsbereichen innerhalb des Unternehmens, die sich speziell mit ESG-Themen beschäftigen.

Ein weiterer wichtiger Schritt ist die Einbindung von ESG-Aspekten in die Geschäftsstrategie und die Unternehmensführung. Zu nennen wäre hier die Berücksichtigung von ESG-Faktoren bei Investitionsentscheidungen und die Berücksichtigung von ESG-Aspekten bei der Lieferantenauswahl (Verordnung (EU) 2020/852 des Europäischen Parlaments und des Rates Ziffer 34).

Relevanz im Kontext des Pariser Klimaabkommens

2015 haben 195 Länder das Pariser Klimaabkommen unterschrieben. Dieses verpflichtet die teilnehmenden Nationen dazu, jede Anstrengung zu unternehmen, die Erderwärmung bis 2030 auf maximal 2,0°C, besser sogar 1,5°C zu begrenzen (Übereinkommen von Paris (2015), Artikel 1). Es sieht vor, dass alle Teilnehmernationen eigene „ambitionierte“ Ziele setzen und diese anhand von zum Beispiel Gesetzen um- und durchsetzen. In dem Zuge wurden von der EU diverse Gesetze erlassen, die dabei helfen sollen, die selbstgesetzten Ziele der jeweiligen Länder zu erreichen. Die EU legte so als erster Gesetzgeber genau fest, was unter dem Begriff „Nachhaltigkeit“ zu verstehen sein soll, um Missverständnisse sowie Beschönigungen zu verhindern (Deutscher Bundestag (2022)).

Des Weiteren setzte die EU die Corporate Sustainability Reporting Directive (CSRD) in Kraft, die vor allem die größten Unternehmen dazu verpflichtet, Nachhaltigkeitsberichte zu veröffentlichen. Viele weitere Unternehmen wie zum Beispiel Unternehmen von öffentlichem Interesse mit mehr als 500 Mitarbeitenden oder kapitalmarkt­orientierte kleine und mittlere Unternehmen (KMU) sollen in den nächsten Jahren folgen, sodass bis 2025/2026 die Nachhaltigkeitsberichte von ca. 70% aller großen Unternehmen vorliegen (Richtlinie (EU) 2022/2464 des Europäischen Parlaments und des Rates). Diese nicht-finanzielle Berichterstattung ist in der EU-Taxonomie geregelt. Teil der Nachhaltigkeitsberichterstattung ist auch eine konkrete Zielsetzung, wie das berichtende Unternehmen zu den Klimazielen 2030 beitragen wird. So soll nicht nur ein CO2-Ausstoßziel gesetzt werden, sondern auch eine konkrete Strategie, um dieses zu erreichen. Diese gesetzliche Vorschrift, die realistische und ambitionierte selbstgesetzte Ziele von den Unternehmen fordert, ist einer der wichtigsten Schritte dabei, die angestrebten Klimaziele tatsächlich zu erreichen. Die Ziele der Unternehmen, der Regierung und der Bevölkerung werden auf diese Weise vereint. Sobald genau festgelegt ist, nach welchen Definitionen und Regularien ein Nachhaltigkeitsbericht geschrieben werden muss, werden Unternehmen ihren Konkurrenten gegenüber, ähnlich wie bei einer klassischen finanziellen Berichterstattung, deutlich transparenter und vergleichbarer. So ist es Shareholdern und Stakeholdern besser möglich, die aktuelle Lage einzuschätzen, und auch die Ratingersteller haben konkrete und genormte Zahlen und Begriffe, die in die Bewertungen einfließen können. Potenziell können dadurch also einheitlichere Ratings innerhalb einer Ratingagentur zu erwarten sein.

Arten und Zweck von Ratings

ESG-Ratings sollen ein übersichtliches, verständliches Bild davon abgeben, wie ein Unternehmen in den jeweiligen ESG-Bereichen abschneidet. Sie haben, ähnlich wie die Jahresabschlüsse, zwei wichtige Interessensparteien:

  1. Shareholder (Anteilseigner eines Unternehmens, zum Beispiel Aktionäre) und
  2. Stakeholder (andere vom Fortbestand des Unternehmens Profitierende, zum Beispiel Lieferanten oder Mitarbeiter)

Stakeholder verlangen Informationen über die Implementation von ESG hauptsächlich, um ihre weitere Zusammenarbeit einzuschätzen. Durch ihre Involvierung unterstützen sie die Tätigkeiten des Unternehmens und geben somit indirekt ihre Zustimmung zu der Unternehmensführung preis. Shareholder haben darüber hinaus zusätzlich die Perspektive, dass ihre Investition im Wert wachsen soll. Beide treffen ihre Geschäftsentscheidungen vermehrt auf Grundlage ethischer Grundprinzipien, weshalb es wichtig ist, die Vor- und Nachteile, Probleme und Chancen aus beiden Perspektiven zu betrachten.

Beispiel für die Veränderung des ESG-Ratings

Wird zum Beispiel ein neues Gesetz erlassen, das den CO2-Ausstoß stärker besteuert, bedeutet das ein gestiegenes (ESG-)Risiko für die Unternehmen, die nur schwer CO2 einsparen können. Folglich wird das Rating dieses Unternehmens schlechter. Dabei macht das schlechtere Rating den Eindruck, als hätte sich an der Unternehmenspraktik etwas geändert. Stellt das Unternehmen daraufhin auf Elektrofahrzeuge um oder entscheidet sich anderweitig CO2-Ausstoß zu senken, verbessert sich das Rating wieder, da das Risiko für Strafen oder größere Belastungen durch die CO2-Steuer gesunken ist. Dabei entsteht der Eindruck, dass das Rating sich aus dem Grund verbessert hat, weil weniger CO2-Ausstoß eine geringere Umweltbelastung bedeutet (N. Leeb, 2021). Diese Perspektive darf also nie außer Acht gelassen werden, wenn Unternehmensratings verglichen werden. Ein gutes Rating bedeutet in vielen Fällen, dass aktuell kein besonders hohes ESG-Risiko besteht, und nicht, dass das Unternehmen tatsächlich einwandfreie Umweltpolitik betreibt.

Die Autor:innen haben zu diesem Thema eine Expertenbefragung durchgeführt, deren Ergebnisse Sie im demnächst erscheinenden Teil 2 dieses Fachartikels lesen.

 

Der Text wurde von Prof. Dr. Irina Mazilu-Eyaz und ihrer wissenschaftlichen Mitarbeiterin Simone Schwarz verfasst und beruht auf der von Prof. Dr. Irina Mazilu-Eyaz und Prof. Dr. Alexander Rühl betreuten Bachelorarbeit von Herrn Maximilian Krause an der Hochschule RheinMain.

 

Über die Autoren:

Prof. Dr.-Ing. Irina Mazilu-Eyaz hat Materialwissenschaft an der Technischen Universität Darmstadt und am Imperial College London studiert. Während Ihrer 11-jährigen Berufstätigkeit bei einem internationalen Technologiekonzern sammelte sie Erfahrung im Qualitätsmanagement und wurde zur Methoden-Expertin für technische Problemlösung. Seit 2021 ist sie Professorin für Qualitätsmanagement und Werkstoffkunde an der Hochschule RheinMain und entwickelt auch neue Lehrveranstaltungen zum Thema Nachhaltigkeit. Im Mai dieses Jahrs wurde sie ins Leitungsteam des DGQ-Fachkreises Nachhaltigkeit gewählt.

Kontakt: irina.mazilu-eyaz@hs-rm.de, www.hs-rm.de

Bis Ende 2023 war Simone Schwarz wissenschaftliche Mitarbeiterin an der Hochschule RheinMain und arbeitet jetzt beim GSI Helmholtzzentrum für Schwerionenforschung GmbH in Darmstadt. Sie forscht für ihr Promotionsvorhaben zum Thema Nachhaltigkeit und Circular Economy im Bereich Maschinenbau.

Kontakt: s.schwarz@gsi.de, www.gsi.de


Literaturverzeichnis

Larcker et al/Stanford (2022), ESG-Ratings – A Compass Without Direction, S. 11.

C. Simpson / Bloomberg (2021), Where ESG’s $35 Trillion Explosion Really Came From.

J. Mandorfer (2022), Nachhaltigkeitsberichterstattung i. d. Österreichischen Vers.-wirtschaft, S. 12.

S. Drempetic et al. (2020), The Influence of Firm Size on the ESG Score: Corporate Sustainability Ratings Under Review, S. 348 ff.

Verordnung (EU) 2020/852 des Europäischen Parlaments und des Rates Ziffer 34.

Übereinkommen von Paris (2015), Artikel 1.

Deutscher Bundestag (2022), Die EU-Taxonomie nachhaltiger Aktivitäten, Nr. 05/22, S. 1.

Richtlinie (EU) 2022/2464 des Europäischen Parlaments und des Rates.

N. Leeb (2021), ESG-Ratings und ESG Indizes – Eine Vergleichende Analyse, S. 23.


Künstliche Intelligenz in der Qualität – Welche Qualifikationen werden benötigt?

QM und die künstliche Intelligenz

Künstliche Intelligenz (KI) in ihrer aktuellen Form hat eine hohe Aufmerksamkeit auf sich gezogen. Viele Firmen stellen sich die Frage, wie sie sich am besten auf die neuen Entwicklungen vorbereiten können. Einer der wichtigsten Erfolgsfaktoren ist dabei die Qualifikation der Mitarbeiter. Im ersten Teil dieser Serie wurde gezeigt, dass das Qualitätswesen eine vergleichsweise kleine Einstiegsschwelle in diese neuen KI-Technologien hat. Die Aufgabe des Qualitätswesens war es seit jeher, mit Hilfe von Daten und Statistik Transparenz zu schaffen und Verbesserungspotentiale zu heben. KI stellt somit in vielerlei Hinsicht eine Erweiterung des bestehenden Methodenkoffers dar. Auch für das Qualitätswesen stellt sich jedoch die Frage, wie Mitarbeiter am besten für den Einsatz neuer Methoden qualifiziert werden können.

In diesem Beitrag beschreiben wir drei Stufen der Qualifikation mit Mindestanforderungen. Die niedrigste Qualifikationsstufe ist dabei in der Regel für alle Qualitätsmitarbeiter ohne erweiterte Trainingsmaßnahmen erreichbar. Es wird gezeigt, dass sich mit jeder Qualifikationsstufe neue Anwendungsfälle erschließen lassen, die weitere Einsparpotenziale bieten. Welche Methoden für den einzelnen Mitarbeiter relevant sind, hängt vom Einsatzbereich innerhalb der Qualität ab. Es wird daher gezeigt, in welchem Bereich welche Technologie am besten einsetzbar ist und wie hoch die Einsparpotenziale typischerweise sind.

Methoden der künstlichen Intelligenz und ihre Anwendungsgebiete innerhalb des Qualitätswesens

Tabelle 1 zeigt eine Übersicht, welche Methoden für das Qualitätsmanagement und die Qualitätssicherung relevant sind. Die Methoden fallen in zwei große Bereiche der künstlichen Intelligenz: Machine Learning und generative KI. Machine Learning beinhaltet sowohl erweiterte statistische Verfahren als auch Bilderkennung. Generative KI wurde durch den Chatbot ChatGPT und die Bildverarbeitungsmodelle Midjourney und Stable Diffusion bekannt. Chatbots eignen sich zur Verarbeitung großer Textmengen (z.B. Normentexten oder Kundenanforderungen). Bildverarbeitungsmodelle sind im Qualitätsbereich weniger von Interesse.

Eine weniger bekannte Anwendung generativer KI ist die Einbettung (embedding). Einbettung erlaubt Texte zu gruppieren oder auf Ähnlichkeit zu prüfen. So können beispielsweise Kundenbewertungen zusammengefasst werden oder 8D Berichte nach ähnlichen Fehlerbildern durchsucht werden. Einbettung kann als eine Art erweiterte Schlagwortsuche verstanden werden, bei der nicht mehr nach exakten Übereinstimmungen, sondern nach ähnlichen Sinnzusammenhängen gesucht wird.

Eine weitere wichtige Disziplin stellt die Visualisierung von Daten dar. Visualisierung ist kein Teilgebiet der künstlichen Intelligenz, aber sie spielt eine wichtige Rolle in der Vermittlung von Ergebnissen. Insbesondere bei komplexeren Methoden des Machine Learnings ist eine gute Visualisierung unabdingbar.

Methoden der künstlichen Intelligenz und ihre Anwendungsgebiete innerhalb des Qualitätswesens

Tab. 1: Methoden der künstlichen Intelligenz und ihre Anwendungsgebiete innerhalb des Qualitätswesens.

Tabelle 1 kann in drei Anwendungsgruppen unterteilt werden. Visualisierung spielt überall dort eine große Rolle, wo aus Daten Korrekturmaßnahmen abgeleitet werden. Dies ist in der Problemlösung und Prozessverbesserung (KVP/Kaizen) der Fall. Auch in der Fertigung findet man solche Anwendungsfälle (z.B. Shopfloorvisualisierungen). Diese Anwendungsfälle lassen sich häufig mit geringem Aufwand und No-Code-Werkzeugen umsetzen.

Die zweite Anwendungsgruppe Generative KI beinhaltet Anwendungsfälle, bei denen große Mengen an Text analysiert und verarbeitet werden müssen. Das Qualitätsmanagement hat einen starken Bezug zu Normen, Richtlinien und Kundenvorgaben. Generative KI können in Form von Chat Bots viele Aufgaben vereinfachen (z.B. der Vergleich unterschiedlicher Normen oder das Erstellen von Gap-Listen bei Normänderungen). Außerdem können Chatbots mit geeigneten Prompts Problemlösungsprozesse unterstützen.

Die dritte Anwendungsgruppe umfasst das Machine Learning. Machine Learning hat eine große Überschneidung mit klassischer Statistik. Statistikwerkzeuge sind in der Qualitätssicherung weit verbreitet. Machine Learning bietet Methoden zum Klassifizieren und Clustern von Daten. Es können auch Modelle und Prognosen über zukünftige Verläufe erstellt werden. Diese Methoden eignen sich auch hervorragend zur Analyse großer Datensätze, die in modernen Produktionsprozessen entstehen.

Die Frage, die sich Mitarbeitern und Führungskräften gleichermaßen stellt ist: Welche Anwendungsfälle können mit den zur Verfügung stehenden Zeitressourcen bearbeitet werden und wie hoch sind die zu erwartenden Einsparungen. Tabelle 2 soll hierzu eine Hilfestellung geben. Auf der horizontalen Achse sind die zu erwartenden Einsparsummen und auf der vertikalen Achse sind die benötigten Ressourcen abgetragen. Es zeigt sich, dass mit höheren Qualifikationen und größerem Zeiteinsatz auch Anwendungen erschlossen werden können, die größere Einsparungen hervorbringen. Mit Hilfe der Tabelle können Qualifikationsmaßnahmen und Einsparziele zu einer Strategie mit Zielvorgaben verzahnt werden. Es ist wichtig zu betonen, dass es sich bei der Einteilung um Erfahrungswerte handelt, die je nach Anwendung abweichen können.

Gegenüberstellung von typischen Einsparpotenzialen und notwendiger Qualifikation für typische Anwendungsfälle

Tab. 2: Gegenüberstellung von typischen Einsparpotenzialen und notwendiger Qualifikation für typische Anwendungsfälle.

Als Pilotprojekte für künstliche Intelligenz eignen sich Anwendungsfälle der einfachen Kategorie. Diese Projekte können in der Regel ohne Einsatz von Programmierung erstellt werden und nutzen entweder vorgefertigte Lösungen wie ChatGPT oder Low-code-/No-Code-Software wie PowerBI oder KNIME. Das Ergebnis solcher Projekte sind häufig Dashboard-Lösungen oder kleine Werkzeuge. Sie können elegant in bestehende Prozesse eingebunden werden und reduzieren den Arbeitsaufwand bei wiederkehrenden Tätigkeiten. Der Fokus auf einfache Pilotprojekte erzeugt schnellen Mehrwert und Motivation.

Es ist nicht ungewöhnlich, dass einfache Projekte, wenn sie erfolgreich sind, immer wieder erweitert werden und von der einfachen auf die fortgeschrittene oder sogar anspruchsvolle Stufe gelangen. Ähnlich wie beim agilen Projektmanagement entsteht auf jeder Stufe neuer Mehrwert.

Typische Anforderungsprofile für Mitarbeiter der unterschiedlichen Qualifikationsniveaus

Ein Beispiel soll dies verdeutlichen: Viele Firmen nutzen automatische Prüfsysteme. Bei schwierigen Prüfaufgaben muss oft ein gewisses Maß an Fehlentscheidungen in Kauf genommen werden. Die Fehlerteile müssen dann händisch nachkontrolliert und gegebenenfalls nachgeprüft werden. Die Nachprüfentscheidung basiert oft auf einfachen Regeln. Diese Regeln lassen sich leicht mit Hilfe von Machine Learning auf Software übertragen, wenn eine ausreichende Anzahl von Beispielen vorhanden sind.

Das Ergebnis eines einfachen Pilotprojekts könnte wie folgt aussehen: Der Mitarbeiter liest die n.i.O.-Prüfberichte im erstellten ML-Programm ein. Das Programm gibt als Ergebnis alle Fehlentscheide mit einem zugehörigen Vertrauensniveau aus. Der Mitarbeiter kann alle offensichtlichen Fehlentscheide einer Wiederholungsprüfung unterziehen, ohne die Ausfälle im Detail zu analysieren. Durch das Pilotprojekt lassen sich repetitiven Aufgaben des Mitarbeiters reduzieren und er kann seinen Fokus den Echtfehlern widmen.

Das Pilotprojekt lässt sich in die fortgeschrittene Stufe erweitern, wenn die Software in die Produktionslinie integriert wird. Die benötigten Ressourcen steigen und es werden mehr Kenntnisse aus der IT und den technischen Abteilungen benötigt, aber die Einsparung ist ungleich größer. Da die Entscheidung nun innerhalb der Produktionsmaschine erfolgt, fallen Transportschritte und händische Teileerfassung in der Analyse weg. Dieses iterative Vorgehen minimiert Umsetzungsrisiken und erzeugt zählbaren Mehrwert bei jeder Erweiterung.

Die fortgeschrittene Aufwandskategorie benötigt bereits Grundkenntnisse in der Programmierung. R und Python sind hier die am weitesten verbreiteten Programmiersprachen [5]. Diese Programmiersprachen sind in vielen anderen Werkzeugen integriert, so dass beispielsweise ein Knime- oder PowerBI-Dashboard verwendet werden kann, um die Ergebnisse zu visualisieren, die mit einem Python Skript berechnet wurden. Mitarbeiter mit fortgeschrittener Qualifikation können Projekte mit erheblichen Einsparpotentialen umsetzen. Gleichzeitig sind die Projekte meist noch klein genug, um als Abschlussarbeit oder als Sonderaufgabe neben dem Tagesgeschäft bearbeitet zu werden.

In die anspruchsvolle Kategorie fallen Projekte, die von hochqualifizierten Mitarbeitern bearbeitet werden müssen. Die Einsparpotenziale sind hier nach oben offen, aber in der Regel sind diese Projekte so groß und komplex, dass Mitarbeiter mehrer Fachabteilungen zusammenarbeiten müssen. Oft werden bei solchen Projekten auch externe Experten hinzugezogen, um Qualifikationslücken innerhalb des Teams zu kompensieren. Anspruchsvolle Projekte zielen oft darauf ab, komplette Arbeitsabläufe zu komplett zu automatisieren. Ein Anwendungsbeispiel hierfür ist die Automatisierung der Überwachung von Prüfmitteln, die heute in der Regel händisch und unter hohem Aufwand erfolgt.

Mitarbeiter, die das höchste Qualifikationsniveau erreichen, sind Spezialisten. Im letzten Beitrag wurde die große Ähnlichkeit zwischen dem IBM Data Science Modell und Six Sigma dargestellt. Ähnlich wie ein Six Sigma Black Belt haben diese Spezialisten oft die Aufgabe, weniger qualifizierte Mitarbeiter anzuleiten und zu unterstützen.

Tabelle 3 zeigt Mindestqualifikationen für die Aufgabenkategorien aus Tabelle 2. Die erforderlichen Qualifikationen fallen in zwei Kategorien: Statistikkenntnisse, die benötigt werden, um die Korrektheit der Auswertungen bewerten zu können und Programmierkenntnisse, die für anspruchsvolle Anwendungen erforderlich sind. Auch hier handelt es sich um Erfahrungswerte. Im Einzelfall können die notwendigen Qualifikationen abweichen.

ypische Anforderungsprofile für Mitarbeiter der unterschiedlichen Qualifikationsniveaus

Tab. 3: Typische Anforderungsprofile für Mitarbeiter der unterschiedlichen Qualifikationsniveaus.

Die Tabelle 3 soll eine Richtschnur darstellen, was Mitarbeiter üblicherweise benötigen, um KI Aufgabenstellungen zu bearbeiten. Die Richtschnur ermöglicht Führungskräften, ihre Qualifikationsmaßnahmen auf ihre eigenen Anwendungen abzustimmen. Sie stellt außerdem sicher, dass Mitarbeiter mit Aufgaben betraut werden, die zu ihrem Qualifikationsprofil passen und so weder über- noch unterfordert sind. Wenn die Möglichkeit besteht, ist interne Qualifikation externer Unterstützung vorzuziehen. Der entscheidende Vorteil liegt darin, dass die Mitarbeiter aus der eigenen Domäne die Daten, Prozesse und Produkte des Unternehmens bereits kennen. Externe Experten müssen sich dieses Wissen erst erarbeiten.

Zusammenfassend kann gesagt werden, dass die Qualifikation der Mitarbeiter eine Schlüsselrolle bei der Einführung von KI im Qualiätsbereich darstellt. Die Qualifikation der Mitarbeiter bestimmt die Anwendungsfälle, die bearbeitet werden können. Aus diesem Grund müssen Qualifikationsmaßnahmen und die Projektplanung für den Einsatz von KI auf einander abgestimmt sein. Die beigestellten Tabellen liefern Richtwerte für gängige Anwendungsfälle und erlauben es Führungskräften, die richtigen Prioritäten bei der Einführung von KI zu setzen.

 

Lesen Sie auch die beiden anderen Teile der Reihe “Künstliche Intelligenz in der Qualität“:

  • Teil 1: Künstliche Intelligenz in der Qualität – Bestehendes Know-how effektiv nutzen – zum Beitrag »
  • Teil 3: Künstliche Intelligenz in der Qualität – Praktische Einführung durch iteratives Vorgehen – zum Beitrag »

 

Über die Autoren:

Dr.-Ing. Stefan Prorok ist Geschäftsführer der Prophet Analytics GmbH und DGQ-Trainer für Qualitätssicherung und Künstliche Intelligenz. Prophet Analytics unterstützt Unternehmen in allen Phasen Ihrer KI-Umsetzung mit Trainings- und Beratungsangeboten. Kontakt: ki@prophet-analytics.de

Dipl.-Ing. Waldemar Fahrenbruch ist Head of Q-Technology Division E-Mobility bei der ZF Friedrichshafen AG. Er ist verantwortlich für die Qualitätskostensenkung bei gleichzeitiger Optimierung von Qualitätskonzepten in den Werken der Division E (TCU, Power Electronics und E-Motoren Fertigung) durch Methodenkompetenz der Qualität, künstlicher Intelligenz und digitaler Transformation.


Literaturverzeichnis

Fahrenbruch, Waldemar, Prorok Stefan. „Künstliche Intelligenz in der Qualität – Bestehendes Know-how effektiv nutzen“ https://www.dgq.de/fachbeitraege/kuenstliche-intelligenz-in-der-qualitaet-bestehendes-know-how-effektiv-nutzen/
Mumtarin, Maroa, Md Samiullah Chowdhury, and Jonathan Wood. “Large Language Models in Analyzing Crash Narratives–A Comparative Study of ChatGPT, BARD and GPT-4.” arXiv preprint arXiv:2308.13563 (2023).
Zhang, Yongfeng, et al. “Learning over knowledge-base embeddings for recommendation.” arXiv preprint arXiv:1803.06540 (2018).
Bach, Benjamin, et al. “Challenges and opportunities in data visualization education: A call to action.” IEEE Transactions on visualization and computer graphics (2023).
Agresti, Alan, and Maria Kateri. Foundations of statistics for data scientists: with R and Python. CRC Press, 2021.
Prorok, Stefan „Machine Learning in der Produktion – Warum die digitale Revolution anders aussieht, als gedacht.“ https://prophet-analytics.de/whitepapers/stat_models.pdf


Künstliche Intelligenz in der Qualität – Bestehendes Know-how effektiv nutzen

QM und die künstliche Intelligenz

Viele Branchen sind heute mit stetig steigenden Qualitätsanforderungen konfrontiert. Zusätzlich erfordern komplexere Produkte erweiterte Absicherungen im Herstellungsprozess. Gleichzeitig stehen viele Hersteller vor der Herausforderung, Kostenoptimierungen umzusetzen, um langfristig wirtschaftlich zu bleiben. Wie kann Qualität diesen Spagat schaffen?

Neue Methoden im Bereich der künstlichen Intelligenz (KI), insbesondere des Machine Learnings bieten Möglichkeiten, um Verbesserungspotenziale auf Basis bestehender Daten zu heben. Besonders bei komplexen Produktionsabläufen kann Machine Learning zu neuen Erkenntnissen führen. Für Praktiker stellt sich allerdings die Frage, wie sich neue Methoden sinnvoll in bestehende Arbeitsabläufe integrieren lassen.

Dieser Beitrag zeigt auf, dass es große Überschneidungen zwischen klassischen Q-Werkzeugen und modernen KI Methoden gibt. Machine Learning, als Unterdisziplin der KI, wird den Methodenkoffer der Qualität langfristig erweitern. Der Beitrag nennt darüber hinaus Erfolgsfaktoren für Mitarbeiter und Führungskräfte, die Machine Learning in ihrer Firma einsetzen wollen, um ihre Prozesse effizienter zu gestalten.

Machine Learning als Prozess und Methode

Der Einstieg in den Bereich des Machine Learnings gestaltet sich in der Qualität wesentlich einfacher als in anderen Ressorts. In Abbildung 1 ist ein Vergleich der Methoden des PDCA-Zyklus, der Six Sigma DMAIC Methode und der IBM Data Science Methode dargestellt. Die Abbildung zeigt die Parallelen der Ansätze.

Alle drei Methoden verfolgen das gleiche Ziel: Nachhaltige Lösung eines bestimmten Problems.

PDCA, Six Sigma DMAIC, IBM Data Science Methode

Abb. 1: Vergleich zwischen PDCA, Six Sigma DMAIC und IBM Data Science Methode

Machine Learning und klassische Qualitätswerkzeuge basieren grundsätzlich auf Methoden der Statistik (induktive, deskriptive und explorative Statistik). Hier zeigen sich ebenfalls große Überschneidungen zwischen den beiden Ansätzen. Somit ist das Grundwissen für Machine Learning in vielen Qualitätsbereichen bereits vorhanden.

Auch prozessseitig gibt es große Parallelen zwischen KI-Projekten und dem klassischen Qualitätswesen. KI-Anwendungen lassen sich durch das Turtle Modell beschreiben (vergleiche Abbildung 2). In diesem Fall liegt der Fokus auf Dateneingabe, Verarbeitung mit Generierung der wertschöpfenden Informationen und Datenausgabe. Der Ansatz ist jedoch gleich.

Turtle-Modell, VDA 6.3

Abb. 2: Turtle-Modell nach VDA 6.3 (2023)

Was bleibt ist die Frage, wie eine gute Umsetzungsstrategie aussehen kann, um die neuen Machine Learning Werkzeuge im Unternehmen einzuführen. Eine der größten Hürden bei der Nutzung von Machine Learning besteht darin, Daten in geeigneter Art und Weise für die Mitarbeiter bereitzustellen. Hierbei kommt den Führungskräften eine Schlüsselrolle zu.

Datenverfügbarkeit und Dokumentation

Führungskräfte haben großen Einfluss darauf, wie und in welcher Form Daten abgelegt werden. Es gilt darauf achten, dass von vornherein möglichst nur maschinenlesbare Daten erzeugt werden.

Folgende Prinzipien helfen dabei, dieses Ziel zu erreichen:

  • Standardisierung der Daten mit einem einheitlichen Datenmodell
  • Nutzung von Datenbanken als Datenablage
  • Wenn keine Datenbank verwendet werden, sind einfach interpretierbare Dateiformate (z.B. csv oder xml) sinnvoll
  • Für Prozessdokumentation sollten feste Formulare mit möglichst wenig Freitext gewählt werden.

Die zweite Aufgabe für Führungskräfte besteht darin die Daten verfügbar zu machen. Es müssen Schnittstellen geschaffen werden, über die die Mitarbeiter sicher auf Daten zugreifen können. Dabei muss sichergestellt sein, dass eine fehlerhafte Abfrage nicht zu ungewolltem Datenverlust führen kann. Dies ermöglicht einen spielerischen Umgang mit Daten ohne Risiko. Anschließend sind die Mitarbeiter an der Reihe diese Daten gewinnbringend zu nutzen.

Auswahl geeigneter Anwendungen

Eine wichtige Aufgabe der Qualität war es seit jeher Transparenz zu schaffen und Optimierungspotenziale aufzudecken. Diese Aufgabe wird im Datenzeitalter noch wichtiger. Der Umgang mit Daten wird in Zukunft eine grundlegende Anforderung an Mitarbeiter im Qualitätswesen sein. Es ist jedoch nicht realistisch, alle Qualitätsmitarbeiter auf das Qualifikationsniveau von Datenspezialisten zu heben. Dies ist aber auch nicht nötig. Der Schlüssel zum Erfolg liegt in einer geeigneten Auswahl von Softwarewerkzeugen.

No-Code/Low-Code Lösungen, wie KNIME oder Tableau, bieten einfache Möglichkeiten, die Einstiegsschwelle für Mitarbeiter zu senken und schnellen Mehrwert zu schaffen. Grafische Visualisierungen und Dashboards stellen dabei einen guten Einstieg in die Welt des Machine Learnings dar. Dashboards können beispielswese gleichzeitig Auskunft über verschiedene Kennzahlen (z.B. Stillstandszeiten, OEE oder Ausschuss) geben und lassen sich gut in tägliche Shopfloormeetings einbinden. Es werden keine Programmierkenntnisse benötigt, um einfache Dashboards zu erstellen. Die Anleitungen sind meist frei im Internet verfügbar und viele Werkzeuge können kostenlos verwendet werden. Entscheidend für den erfolgreichen Einsatz von Dashboards ist, dass die Daten nicht mehr von Hand eingepflegt werden. So können die Mitarbeiter sich auf die Lösung der Probleme konzentrieren. Dies erhöht die Akzeptanz und motiviert die Mitarbeiter nach weiteren Anwendungen zu suchen. Der Übergang zum tatsächlichen Machine Learning (zum Beispiel durch Erweiterung von Dashboards für Klassifikation und Prognosen) ist fließend.

Ein weiteres Themenfeld für einen einfachen Einstieg sind Sprachmodelle. KI-Werkzeuge wie ChatGPT können Daten und Texte schnell zusammenfassen oder Fragen zu den Eingangsdaten beantworten. Sprachmodelle benötigen ebenfalls keine Programmiererfahrung und eignen sich hervorragend für Einsteiger. Interessant sind Sprachmodelle auch deshalb, weil sie sich einfach anpassen und mit anderen Systemen verknüpfen lassen (zum Beispiel automatische Terminbuchungen im Kalender oder Erfassung von Kundenreklamationen). Folgender Link zeigt ein angepasstes Sprachmodell, welches Fragen zu ISO 9001 oder IATF 16949 beantwortet. Sprachmodelle und Datenverarbeitung werden in den nächsten Jahren noch sehr viel enger zusammenwachsen. Beispiele hierfür sind Copilotfunktionen, die den Benutzer bei seiner Arbeit unterstützen und für Microsoft Windows und Office bereits erprobt werden.

Was die Zukunft bringt

Wir gehen davon aus, dass Programmierkenntnisse durch weitere Verbreitung von Copiloten und Low-Code/No-Code Werkzeugen an Bedeutung verlieren werden. Machine Learning wird damit für mehr Mitarbeiter ohne Programmierkenntnisse einsetzbar.

Im Zuge dieser Entwicklung werden immer mehr Methoden des Machine Learnings (Clustern, Klassifikation, Regression oder Prognosen auf Basis von Modellen) in den Methodenkoffer des Qualitätswesens integriert werden. Die grundlegende Arbeitsweise des Qualiätswesens nach PDCA und DMAIC bleibt dabei erhalten. Die neuen Werkzeuge aus dem Bereich Machine Learning versprechen schnellere Problemlösung und hohe Transparenz. Mitarbeiter, die heute noch händisch Daten erfassen und verarbeiten, werden entlastet und können so weitere Verbesserungen für das Unternehmen erzielen.

Unternehmen können diese Entwicklung aktiv fördern, indem sie die Datenqualität und Datenverfügbarkeit verbessern (siehe Abbildung 3). Mitarbeiter sollten spielerisch an Datenverarbeitung und Machine Learning herangeführt werden und ihre intrinsische Motivation sollte durch geeignete Schulungen aktiv unterstützt werden. Der Fokus für Qualifikation sollte dabei darauf liegen die Methoden des Machine Learnings zu kennen und diese Methoden mittels Low Code / No Code Lösungen im Unternehmenskontext einzusetzen.

Erfolgsfaktoren, Datenverfügbarkeit, Werkzeuge, Qualitätskultur

Abb. 3: Übersicht der Erfolgsfaktoren für moderne Qualitätsarbeit

 

Lesen Sie auch die beiden anderen Teile der Reihe “Künstliche Intelligenz in der Qualität“:

  • Teil 2: Künstliche Intelligenz in der Qualität – Welche Qualifikationen werden benötigt? – zum Beitrag »
  • Teil 3: Künstliche Intelligenz in der Qualität – Praktische Einführung durch iteratives Vorgehen – zum Beitrag »

 

Über die Autoren:

Dipl.-Ing. Waldemar Fahrenbruch ist Head of Q-Technology Division E-Mobility bei der ZF Friedrichshafen AG. Er ist verantwortlich für die Qualitätskostensenkung bei gleichzeitiger Optimierung von Qualitätskonzepten in den Werken der Division E (TCU, Power Electronics und E-Motoren Fertigung) durch Methodenkompetenz der Qualität, künstlicher Intelligenz und digitaler Transformation.

Dr.-Ing. Stefan Prorok ist Geschäftsführer der Prophet Analytics GmbH und DGQ-Trainer für Qualitätssicherung und Künstliche Intelligenz. Prophet Analytics unterstützt Unternehmen in allen Phasen Ihrer KI-Umsetzung mit Trainings- und Beratungsangeboten. Kontakt: ki@prophet-analytics.de


Literaturverzeichnis

Rollins, John. “Why we need a methodology for data science.”, IBM Analytics Whitepaper (2015). https://tdwi.org/~/media/64511A895D86457E964174EDC5C4C7B1.PDF 
Al-Sai, Zaher Ali, Rosni Abdullah, and Mohd Heikal Husin. “Critical success factors for big data: a systematic literature review.” IEEE Access 8 (2020): 118940-118956.
Ahmad, Norita, and Areeba Hamid. “Will Data Science Outrun the Data Scientist?.” Computer 56.2 (2023): 121-128.
https://www.knime.com/blog/anomaly-detection-predictive-maintenance-control-chart
https://prophet-analytics.de/norma_ai/


Überarbeitete ISO 9001 kommt 2025 – weitere Revisionen angekündigt

Der Zeitplan für die Revision der ISO 9001 steht: Im Dezember 2025 soll voraussichtlich die revidierte Fassung der Qualitätsmanagementsystemnorm veröffentlicht werden. Das ist ein Ergebnis des Jahresmeetings des für Qualitätsmanagement zuständigen Technical Committee 176 der Internationalen Organisation für Normung (ISO). Die verantwortliche Arbeitsgruppe wird im Dezember 2023 erstmals zusammenfinden. Darüber hinaus fiel im Oktober die Entscheidung, dass auch die internationale Qualitätsmanagementnorm ISO 9000 sowie die ISO 19011 überarbeitet werden. Im August hatte die ISO bekanntgegeben, dass die ISO 9001 in Revision gehen wird.

Die Normen ISO 9004 und 9002 ebenso wie die ISO 10005 und 10006 wurden in ihrer bestehenden Form bestätigt.

Orientierungshilfen im Fokus

Bei der Revision der ISO 9001:2015 liegt ein Fokus auf der Erarbeitung ergänzender Orientierungshilfen; die Struktur und der Anwendungsbereich des Standards sollen erhalten bleiben. Eine entsprechende Design-Spezifikation, welche aktuelle Auswirkungen der globalen Veränderungen sowie Veränderungen in der QM-Anwendung und durch den Einsatz neuer Technologien berücksichtigt, befindet sich derzeit in Abstimmung durch die zuständige Arbeitsgruppe. Auch ESG-Aspekte sollen bei der Normenentwicklung strukturell berücksichtigt werden. Parallel werden laut einem Beschluss des TC 176 auch die sieben QM-Grundsätze einem Review unterzogen, die für die Umsetzung der ISO 9001 wichtig und in der ISO 9000 manifestiert sind.

„Durch Nutzung aller Mitwirkungsoptionen, unter anderem über Liaison Memberships bei der EOQ und der International Personnel Certification Association (IPC), konnten wir fünf Experten aus dem Umfeld von DGQ, EOQ und DIN für die Revisionen aktivieren und nominieren“, berichtet Thomas Votsmeier, Leiter Normung bei der DGQ und fachliche Leitung des DIN-Gremiums NA 147 00 01 AA Qualitätsmanagement. „Diese können nun die Weiterentwicklung der TC 176 9000er Normen mit ihren unterschiedlichen Hintergründen und Funktionen intensiv begleiten – zum einen durch Mitwirkung in den Arbeitsgruppen, zum anderen in Steuerungsgremien.“

Revision der ISO 9000

Auch für die Revision der ISO 9000:2015 entsteht aktuell eine neue Arbeitsgruppe. Eine Design-Spezifikation ist in Arbeit. Auch hier gilt: Der Anwendungsbereich und die Inhalte der Norm bleiben grundsätzlich erhalten. Unter anderem im Fokus steht eine Harmonisierung der Begriffe mit dem aktuellen Annex SL und die Abstimmung zur Terminologie mit anderen ISO Technical Committees. Thomas Votsmeier koordiniert die Beteiligung der Experten, die für dieses Gremium nominiert werden, wodurch auch hier eine intensive Mitwirkung sichergestellt wird.

Als ein Input sowohl bei der Revision der ISO 9000 als auch der ISO 9001 soll zudem ein neues Diskussionspapier namens „Risk concept paper“ dienen, das die Arbeitsgruppe TC 176 TG4 im Rahmen der Diskussionen um das Verständnis und Konzept von „Risiko“ bzw. des „risikobasierten Ansatzes“ vorgestellt hat. Bei der inhaltlichen Ausgestaltung war eine DGQ-/EOQ-Vertreterin maßgeblich mitbeteiligt. Inhaltliche Punkte betreffen unter anderem die historische Entwicklung des Risikokonzepts und seine Einbindung in die ISO 9001, die Entkopplung der Konzepte von Risiko und Chance sowie eine Anleitung zur Anwendung des risikobasierten Modells zur Risikobewältigung.

Das ISO Technical Management Board (TMB) hat derweil beschlossen, dass die Technical Comittees bei der Nutzung von Definitionen bezüglich Risiko eine gewisse Flexibilität besitzen, also nicht zwangsläufig in allen Managementsystemnormen eine identische Definition vorhanden sein muss.

Revision der ISO 19011

Des Weiteren hat das ISO Technical Management Board (TMB) im September entschieden, die ISO 19011 – Leitfaden zur Auditierung von Managementsystemen – zu revidieren, und ein neues Gremium eingerichtet. Eine Zeitplanung dazu ist in Vorbereitung. Noch zu klären ist in diesem Zusammenhang, wie die Relation zur in Erarbeitung befindlichen ISO 17012 Remote Audit Methods aussehen wird. In beiden Gremien ist eine direkte Beteiligung durch DGQ/EOQ sichergestellt. Die seitens DGQ in die ISO 17012 eingebrachten Inhalte aus dem Fachkreis Audit und Assessment wurden zu einem großen Teil in den entsprechenden Normentwurf integriert.

DQS feiert 30 Jahre DGQ-Firmenmitgliedschaft

Die DQS GmbH (Deutsche Gesellschaft zur Zertifizierung von Managementsystemen) feiert in diesem Jahr ihre 30-jährige Firmenmitgliedschaft bei DGQ. Zur Ehrung waren Claudia Welker, Geschäftsführerin der DGQ und Jürgen Freund, Leiter der DGQ-Geschäftsstelle Frankfurt, zu Gast. Die Ehren-Urkunde nahmen Ingo Rübenach, Geschäftsführer DQS Holding GmbH, Christian Gerling, Geschäftsführer DQS GmbH und Christiana Rambow-Krummeck, Leiterin Qualitäts- und Produktmanagement DQS GmbH, entgegen.

Im Rahmen einer kleinen Feierstunde überreichten die Verantwortlichen der DGQ die Urkunde und dankten der DQS für die aktive Mitarbeit seit 30 Jahren.

DQS, Firmenmitgliedschaft, Jubiläum

(v.l.n.r.) Jürgen Freund, Leiter DGQ-Geschäftsstelle Frankfurt, Christian Gerling Geschäftsführer DQS GmbH, Claudia Welker, Geschäftsführerin DGQ, Christiana Rambow-Krummeck, Leiterin Qualitäts- und Produktmanagement DQS GmbH, Ingo Rübenach, Geschäftsführer DQS Holding GmbH ©DQS GmbH

„Die Anforderungen, die Märkte und Kunden an uns stellen, sind komplex und mitunter sehr spezifisch. Um diesen gerecht zu werden, braucht es auch Impulse zur Innovation von außen. Mit unserer Mitarbeit in Fachkreisen und Netzwerken in der DGQ sowie auf gemeinsamen Veranstaltungen entwickeln wir den Qualitätsgedanken ständig weiter“, erläutert Christian Gerling, „Wir beschäftigen uns mit Zukunftsthemen wie Künstliche Intelligenz, Digitalisierung und Informations- und Datensicherheit, die auch in der Auditierung von Managementsystemen und in der Ausbildung von Auditoren eine immer größere Rolle spielen. Dieser Austausch mit Qualitätsverantwortlichen aus den unterschiedlichen Branchen über Best-Practice-Ansätze und Herangehensweisen ist unendlich wertvoll“, unterstreicht Gerling die Vorteile der DGQ-Mitgliedschaft.

Personalmaß in der Pflege – Chance oder Bürde?

Personalbemessung, Pflege, PeBeM

Es ist schon ein sperriges Wort: Personalbemessungsverfahren. Es wird im Pflegejargon mit „PeBeM“ abgekürzt und führt in der Branche wegen seiner weitreichenden Folgen zu vielen Diskussionen. Doch was ist das „PeBeM“, wird es gebraucht und kann es die Qualität der Pflegeleistungen verbessern?

Abwärts-Spirale

Hintergrund: Seit langem leidet die Pflege unter einem zunehmenden Mangel an Personal, mittlerweile auch im Bereich der weniger gut Qualifizierten. Gründe dafür sind die Arbeitsbedingungen bei vergleichsweise bescheidenen Karrierechancen und der rasante Anstieg des Pflegeleistungs-Bedarfs wegen der alternden Gesellschaft.

Die Folge ist ein Teufelskreis: Wo eigentlich immer mehr Pflegepersonal gebraucht wird, macht der Mangel den Beruf zusätzlich immer unattraktiver. Die körperlich und seelisch anstrengende Arbeit findet nicht genug neue Interessent:innen, um den wachsenden Bedarf zu decken. Der Krankenstand ist hoch, insbesondere Fachpersonal steigt aus.

Vorschläge und Lösungsversuche, um die sich drehende Spirale aus steigendem Bedarf und schlechter werdenden Bedingungen zu durchbrechen, gibt es zu Hauf. Bereits in den 90er Jahren des letzten Jahrhunderts wurde für Krankenhäuser eine Pflegepersonalregelung (PPR) eingeführt, die eine Mindestausstattung an Krankenpflege-Fachkräften abhängig vom Bedarf vorsah.

PPR offenbarte Personalmangel in Kliniken

Die Bestandsaufnahme bei der Einführung der PPR zeigte, dass bereits damals eine große Personal-Lücke in Kliniken klaffte. Der berechnete Bedarf lag weit über dem Bestand. Im Zuge einer Reform der Krankenhausfinanzierung wurde die Regelung dann aber kurzerhand wieder abgeschafft – mit dramatischen Folgen bis heute.

Denn die Pflegepersonalausstattung in Kliniken richtete sich fortan nicht mehr nach pflegerischem Bedarf und Aufwand, sondern nach den entstehenden Kosten. Um die zu drücken, wurde dort Pflegepersonal sukzessive verringert. Jetzt häufen sich Fälle, in denen Aufnahmestopps verhängt werden oder sogar Krankenhaus-Stationen vorübergehend geschlossen werden, weil das Pflegepersonal fehlt.

Genauso ist die derzeitige Situation in der Langzeitpflege. Heime haben lange Wartelisten, ambulante Pflegestationen verhängen Aufnahmestopps. Allerdings gab es bisher in der Langzeitpflege keine vergleichbare Grundlage für die Berechnung des vorzuhaltenden Personals und deren Qualifikation wie einst für Kliniken. Als Anhaltspunkt diente nur die sogenannte Fachkraftquote. Sie ist historischen Ursprungs und legt willkürlich den Anteil der Fachkräfte am eingesetzten Personal in Pflegeheimen auf mindestens 50 Prozent fest. Diese starre Quote wird den unterschiedlichen Anforderungen der Praxis nicht gerecht.

Neustart für die Langzeitpflege

Die Fachkraftquote stand deshalb zunehmend in der Kritik. Sie bildet nicht den tatsächlichen Bedarf an Pflegekräften und deren Qualifikation ab. Zudem mangelt es vielerorts schlicht an Fachpersonal, um die Quote ständig zu erreichen. Wo das nicht geschieht, verhängen die mit der Kontrolle beauftragten Heimaufsichten bis dato Aufnahme- und Belegungsstopps. Das führt nicht selten zu finanziellen Schieflagen der betroffenen Pflegeheime, weil dann Einnahmen fehlen.

Der Gesetzgeber hat 2017 mit dem zweiten Pflegestärkungsgesetz die Selbstverwaltung im Gesundheitswesen damit beauftragt, ein Verfahren zur Ermittlung des Personalbedarfs in Pflegeeinrichtungen zu ermitteln. Die Universität Bremen wurde daraufhin mit einer wissenschaftlichen Studie beauftragt, um nach pflegefachlichen Kriterien eine Methode zu entwickeln, die den Bedarf an Pflegepersonal in Pflegeeinrichtungen bestimmt.

Das Ergebnis ist das Personalbemessungsinstrument, mit dem der Bedarf an Pflegekräften für eine gute Pflege ermittelt werden kann. Die liegt nach dem Gesetz vor, wenn sie „nach qualitativen und quantitativen Maßstäben“ ausreichend ist.

Das Personalmaß für Heime…

Dieses Instrument ist die Grundlage für die seit Juli 2023 geltende Personalberechnung in der Langzeitpflege, kurz „PeBeM“. Es berücksichtigt die in Deutschland geltende Einteilung des Pflegebedarfs nach Pflegegraden. Je höher dieser ist, desto mehr Fachexpertise wird benötigt. Folglich müssen Einrichtungen mehr Fachpersonal vorhalten, in denen mehr Menschen mit einem höheren Pflegebedarf versorgt werden.

Da sich im Zuge der Studie herausstellte, dass die Berechnungssystematik nicht auf den ambulanten Sektor zu übertragen ist, gilt das Verfahren nur für Pflegeheime. „PeBeM“ ist also ein Qualitätsinstrument, mit dem die gesetzlichen Personal-Anforderungen für gute Pflege in Heimen umgesetzt werden sollen. Es gilt eine Übergangsfrist bis 2025. So lange haben die Heimbetreibenden Zeit, ihren Personalstamm an die Regelungen anzupassen. Und diese Anpassungen haben es in sich!

Denn die Studie der Universität Bremen brachte ans Licht, dass der Tätigkeitsmix in Heimen häufig an den fachlichen Erfordernissen vorbeigeht. Insbesondere Pflegefachkräfte übernehmen Aufgaben, für die sie eigentlich überqualifiziert sind. Diese könnten – als ein Ergebnis der Studie – von weniger qualifiziertem Personal, sogenannten Assistenzkräften, übernommen werden.

…wälzt Strukturen in den Einrichtungen um

Das bedeutet in der Praxis, dass bestehende Arbeitsabläufe geändert werden müssen und die jeweiligen Gruppen sich auf die Tätigkeiten konzentrieren, die ihrer Qualifikation entsprechen. Dies gilt insbesondere für Aufgaben, für die es fachliche und rechtliche Vorbehalte gibt:

  • Pflegefachkräfte führen die entsprechenden Vorbehaltsaufgaben der Fachpflege aus und leiten den Pflegeprozess.
  • Unterstützungsaufgaben werden drei Qualifikationsniveaus zugeordnet, je nach Dauer der Ausbildung: zweijährig, einjährig ausgebildete und angelernte Assistenzkräfte.

Das Vorhaben erfordert massive Umstrukturierungen in den Einrichtungen und stellt nach der Meinung vieler Expert:innen eine organisatorische Revolution in der stationären Pflege dar.

Aber keine Mahlzeit ohne Essen…

Hinzu kommt der allgemeine Personalmangel. Denn die Studie konstatiert auch, dass in allen Qualifikationsniveaus ein Defizit herrscht, von durchschnittlich 3,5 % bei Fachpersonal bis zu 69 % bei Assistenzkräften. Das heißt, selbst wenn Pflegefachkräfte nur die ihnen vorbehaltenen Aufgaben übernehmen würden, sind es absolut dennoch zu wenige.

Das bedeutet gleichzeitig, dass mit der Einführung des PeBeM die quantitativen Anforderungen an gute Pflege nicht erfüllt sind. Zu beobachten sein wird, ob der Qualifikationsmix flächendeckend in der Praxis funktioniert. Schließlich handelt es sich um eine grundlegende Umstrukturierung im laufenden Betrieb bei gleichzeitig sehr angespannter Personalsituation.

…und das kostet Geld

Inhaltlich wird spannend, wie die Rollen der Pflegedienst- und Pflegebereichsleitungen in den Einrichtungen neu definiert werden. Denn sie übernehmen momentan häufig die steuernden Aufgaben im Pflegeprozess. Die sollen im Zuge der Reform von den Pflegefachfrauen und -männern in der direkten Pflege wahrgenommen werden.

Eine Herausforderung wird auch die Finanzierung sein. Denn ein Mehr an Personal kostet Geld. Der Anstieg schlägt bei Pflegekassen, Heimbewohnern über die zu leistenden Eigenanteile und auch den Kommunen zu Buche, die den mit jeder Kostenerhöhung wachsenden Anteil an Sozialhilfeempfangenden stemmen müssen. Vor allem in den Verhandlungen mit den Kassen zeichnet sich ab, dass es ein zähes Ringen geben wird.

Fazit

Seit der Studie zur Personalbemessung, die dem PeBeM zugrunde liegt, ist nun mit Fakten belegt, dass es zu wenig Pflegepersonal jedweder Qualifikation gibt. Dass ein Mangel an ausreichend qualifiziertem Personal die Qualität der Leistungen verschlechtert, ist eine Binsenweisheit. Mit der Reform ist aber noch keine Pflegekraft gewonnen. Als Methode für die Sicherung der Pflegequalität kommt das PeBeM also an seine Grenzen.

Bisher wusste aber niemand genau, wie viel Personal für gute Pflege erforderlich ist. Das PeBeM beinhaltet eine nachvollziehbare Bestimmung dieses Personalbedarfs für Heime. In der Dauerdebatte über Personalquoten kann diese Methode dazu dienen, den emotional geführten Diskurs zu versachlichen. Das gilt auch, obwohl einige Kriterien bei der Bestimmung des Personalbedarfes und die Zuordnung der Tätigkeiten zu Qualifikationsniveaus wissenschaftlich vereinzelt angreifbar sind.

Gebraucht wird die Reform also. Denn nun kann der Personalmangel in der stationären Pflege auf Basis von definierten und vergleichbaren Messgrößen quantifiziert werden. Übrigens erlebt die Personalberechnung für die Pflege in der Klinik gerade mit der PPR 2.0 eine Renaissance. Das birgt Chancen für eine Neuauflage des öffentlichen Diskurses zur Steigerung der Attraktivität des Berufsfeldes Pflege insgesamt.

Dies sollte auch der ambulanten Pflege zu Gute kommen. Das ist der größte Bereich in der Pflege, wenn es um den Bedarf, die Menge der Leistungen und die Anzahl der pflegenden Hände geht. Bezogen auf die Masse der versorgten Menschen läge dort das größte Potential. Aber hier gelten weder PPR noch PeBeM und über die Qualität der Leistungen entscheidet häufig der private Geldbeutel.

Es muss viel geschehen, damit der Druck der Straße nicht durchschlägt und das ganze Vorhaben zunichtemacht. Denn der erwartete weitere ungeheure Anstieg an pflegebedürftigen Menschen droht das Vorhaben vor die Wand zu fahren. Dies würde neben dem Pflegenotstand auch ein dauerhaftes Qualitätsloch in der Pflege bedeuten.

 

Über den Autor:
Holger Dudel ist Fachreferent Pflege der DGQ. Er ist gelernter Krankenpfleger und studierter Pflegepädagoge und Pflegewissenschaftler. Er hat zuvor Leitungsfunktionen bei privaten, kommunalen und freigemeinnützigen Trägern der Langzeitpflege auf Bundesebene innegehabt. Qualität im Sozialwesen bedeutet für ihn, dass neben objektiver Evidenz auch das „Subjektive“, Haltung und Beziehung ihren Platz haben.

Die deutsche Medizinprodukte-Branche: vom Mittelstand geprägt, von Innovation getragen

MRT-Gerät

Die Medizinprodukte-Branche nimmt als Akteur der industriellen Gesundheitswirtschaft eine wichtige Rolle ein. Sie ist zudem beispielhaft für die hohe Bedeutung des Mittelstands in der deutschen Wirtschaft. Neben dem Beitrag, den sie für die Sicherstellung und Weiterentwicklung qualitativ hochwertiger Patientenversorgung leistet, bietet sie großes wirtschaftliches Potenzial. Doch Lieferschwierigkeiten, politische Unwägbarkeiten und andere Herausforderungen ziehen auch an der mittelständisch geprägten Medizinprodukte-Branche nicht folgenlos vorbei. Auch branchenspezifische Entwicklungen, wie die Änderungen in der EU-Medizinprodukte-Verordnung (MDR), setzen insbesondere die kleinen und mittelständischen Unternehmen weiterhin unter Druck.

International als verlässlicher Zulieferer bekannt

Technologische Durchbrüche, die Zunahme von Zivilisationskrankheiten wie Diabetes, der demografische Wandel und der mit diesen Entwicklungen einhergehende stetig wachsende klinische Versorgungsbedarf – die Faktoren die dazu führen, dass Medizinprodukte zunehmend an Bedeutung gewinnen, sind vielfältig. Die große Bandbreite der Medizinprodukte umfasst Verfahren und Lösungen für Diagnostik und Therapie. Sie leisten in vielerlei Hinsicht einen wichtigen Beitrag: Zum einen tragen sie maßgeblich zur Leistungsfähigkeit des deutschen Gesundheitssystems und zur Patient:innenversorgung bei. Ob Lesebrille, Katheter, Implantate oder Röntgengerät – für Patient:innen bedeuten die verschiedenen Produkte konkret gesteigerte Lebensqualität, in vielen Fällen sogar lebensrettende Therapie. Zum anderen ist die die deutsche Medizinprodukte-Branche mit über 400.000 verschiedenen Produkten und einem Gesamtumsatz von 38,4 Milliarden Euro im Jahr 2022 ein wachstumsstarker und heterogener Wirtschaftszweig. Angesichts der über 250.000 Beschäftigten ist sie zudem aus beschäftigungspolitischer Perspektive von großem Interesse. Doch nicht nur national, auch international erfreuen sich deutsche Medizinprodukte großer Beliebtheit. Mit einer Exportquote von 67 Prozent im Jahr 2022 sind die deutschen Unternehmen auf dem internationalen Markt als verlässliche Zulieferer von qualitativ hochwertigen Produkten bekannt. Die im internationalen Vergleich starke Stellung zeugt davon, dass Deutschland als guter Standort für Innovation und Produktion geschätzt wird.

Hohe Relevanz kleiner und mittlerer Unternehmen

Die Branche ist stark mittelständisch geprägt. Die Betrachtung der Betriebsverteilung nach Beschäftigtengrößenklassen zeigt, dass rund 93 Prozent der Unternehmen, rund 1.300 Betriebe, weniger als 250 Mitarbeiter:innen beschäftigen und somit zur Kategorie der kleinen und mittleren Unternehmen (KMU) zählen. Der Anteil der Unternehmen mit mehr als 250 Mitarbeiter:innen beläuft sich indes auf nur 7 Prozent. 4 Prozent davon sind Unternehmen mit 250 bis 499 Mitarbeiter:innen, 3 Prozent mit 500 und mehr.

Doch ist der Mittelstand nicht nur aufgrund seiner Betriebsstärke von entscheidender Bedeutung für die Medizinprodukte-Branche:

  • Agilität und Flexibilität: KMU sind in ihrem Handeln oftmals agiler und flexibler als große Konzerne. Sie können schneller auf neue Marktanforderungen und technologische Entwicklungen reagieren und tragen so zu einem dynamischen Markt bei.
  • Nähe zum Markt: KMU sind oft in engerem Kontakt mit dem Markt, als größere Unternehmen und sind daher besser vertraut mit den Schmerzpunkten und Bedürfnissen ihrer Kunden. So können sie effektiver auf spezifische Anforderungen reagieren und Produkte entwickeln, die präzise auf diese Bedürfnisse zugeschnitten sind.
  • Spezialisierung: Viele KMU in der Medizinprodukte-Branche haben ein feines Gespür für Nischenmärkte. Dies ermöglicht es ihnen, hochspezialisierte Lösungen zu entwickeln, die von größeren Unternehmen möglicherweise nicht verfolgt werden.

KMU sind insofern maßgeblich für die Vielfalt verantwortlich, für die die deutsche Medizinprodukte-Branche bekannt ist. Sie sind zudem von einer starken Innovationskultur geprägt und fördern Kreativität und Austausch.

Anspruchsvolles Innovationsumfeld

Die deutsche Medizinprodukte-Branche ist hoch innovativ und von kurzen Produktzyklen geprägt: Rund ein Drittel des Umsatzes wird in der Medizinprodukte-Branche mit Produkten erzielt, die weniger als drei Jahre alt sind. Im Durchschnitt investieren die Unternehmen rund 9 Prozent ihres Umsatzes in Forschung und Entwicklung. Und das, obwohl Innovation in der Medizinprodukte-Branche deutlich anspruchsvoller ist, als in manch anderer Branche:

  • Strenge Regulierung: Die Branche unterliegt strengen regulatorischen und normativen Anforderungen. Für die Entwicklung und Markteinführung neuer Produkte müssen zahlreiche Gesetze und Normen berücksichtigt werden, die beispielsweise hohe Ansprüche an die klinische Erprobung und Dokumentation definieren und so die Sicherheit der Produkte sicherstellen.
  • Langwierige Entwicklungszyklen und hohe Kosten: Die Entwicklung neuer Medizinprodukte kann viele Jahre in Anspruch nehmen und ist ausgesprochen kostenintensiv. Dies liegt unter anderem an den umfangreichen formalen Anforderungen an die Entwicklung und Voraussetzungen für die Zertifizierung.
  • Komplexe Technologie: Medizinprodukte nutzen oft hochkomplexe Technologien, die spezialisiertes Fachwissen erfordern. Die Integration von Elektronik, Software und Mechanik setzt ein tiefes Verständnis verschiedener Fachgebiete voraus.

Alles in allem erfordert die Innovation in der Medizinproduktebranche ein hohes Maß an Fachwissen, Ressourcen und Zeit.

Chancen und Herausforderungen

Die Branche sieht sich aktuell vielfältigen Herausforderungen gegenüber. Zum einen wirken Trends und Entwicklungen wie die digitale Transformation, Fachkräftemangel und Lieferkettenunsicherheiten sowie die in Folge der Corona-Pandemie gestiegenen Kosten belastend auf die Unternehmen. Zum anderen bedeutet die Änderung in der EU-Medizinprodukte-Verordnung (MDR), etwa die verschärften Anforderungen an die klinische Bewertung, einen wesentlichen Mehraufwand. Diesen können insbesondere die KMU, aber auch die mit der Zulassung betrauten „Benannten Stellen“ in vielen Fällen nicht leisten. Lassen sich hierfür keine pragmatischen Antworten finden, ist zu befürchten, dass die Hersteller ihr Produktportfolio reduzieren. In der Folge wären dringend benötigte Medizinprodukte nicht mehr verfügbar.

Fazit

Deutschland braucht einen zukunftsfähigen Markt und einen starken Mittelstand. KMU sind in der Medizinproduktebranche von zentraler Bedeutung, da sie nicht nur Innovationen vorantreiben, sondern auch zur Vielfalt und vor allem zur Lösung gesundheitlicher Herausforderungen beitragen. Ihre Fähigkeit, schnell zu handeln und auf lokale und globale Bedürfnisse zu reagieren, macht sie zu einem unverzichtbaren Teil der deutschen Wirtschaft.

 

Über den Autor:
Nathalie Roskaritz ist als Produktmanagerin in der DGQ Weiterbildung für die Angebote im Bereich Medizinprodukte verantwortlich.

Interview zum FQS-Forschungsprojekt „METIS“: Effektive Bewertung von IT-Werkzeugen für die kollaborative Produktentwicklung

FQS, Forschung, METIS

In der Industrie 4.0 ist die Zusammenarbeit in und von Unternehmen mehr denn je entscheidend für den Unternehmenserfolg. Sie umfasst gemeinsame Aktivitäten, Prozesse und Entscheidungen, die intensive Koordination und Datenaustausch erfordern, insbesondere für kleine und mittlere Unternehmen (KMU). Die Konfiguration und Optimierung der IT-Infrastruktur und -Tools sind daher entscheidend für effiziente Zusammenarbeit. Dies stellt jedoch für viele KMU eine bedeutende Herausforderung dar.

Im FQS-Forschungsprojekt „METIS – Methodische Konfiguration von Informationstechnik zur Steigerung der Kollaborationsfähigkeit von KMU in der verteilten Produktentstehung“ arbeiten die Wissenschaftler:innen Can Çağıncan (Fachgebiet Qualitätswissenschaft) und Juliane Balder (Fachgebiet Industrielle Informationstechnik) der TU Berlin gemeinsam daran, diese Herausforderungen zu lösen.

Im Interview gewährt Can Çağıncan einen Einblick in die Projektarbeit und zeigt auf, welche Lösungen das Projekt für KMU bereithält.

 

Was ist das Forschungsprojekt METIS und worum geht es in Ihrem Projekt?

Can Çağıncan: Das Forschungsprojekt METIS hat das Ziel, Unternehmen eine Methode zur Analyse, Bewertung und Konfiguration von IT-Tool-Stacks für die kollaborative Produktentwicklung an die Hand zu geben. Ein IT-Tool-Stack ist die Summe aller informationstechnischen Anwendungen eines Bereichs. Wir konzentrieren uns dabei auf KMU und nutzen Software-as-a-Service (SaaS)-Technologien, um maßgeschneiderte IT-Lösungen für eine effektive Zusammenarbeit zu ermöglichen.

Was hat Sie zu der Entwicklung dieser Methode motiviert? Welche Problemstellung liegt dem Forschungsprojekt zugrunde?

Can Çağıncan: Unsere Motivation entstand aus den Herausforderungen, denen Unternehmen in der Kollaboration in der Industrie 4.0 gegenüberstehen. Aus den Ergebnissen des vorausgegangenen FQS-Forschungsprojektes DIP – Dynamisches Referenzmodell der IT- und Prozessqualität in der digitalen vernetzten Produktentwicklung hat sich gezeigt, dass die zunehmende Digitalisierung und steigende Komplexität von Produkten eine flexible Anpassung der IT-Tool-Stacks erfordern, um erfolgreich mit anderen Unternehmen zusammenzuarbeiten. Dabei spielen SaaS-Technologien eine wichtige Rolle, da sie eine schnelle und kosteneffiziente Anpassung der IT-Systeme und neue Arbeitsweisen in der Produktentwicklung ermöglichen.

Welche Lösung wird im Forschungsprojekt METIS entwickelt, um die genannten Herausforderungen zu bewältigen?

Can Çağıncan: Im Rahmen des Projektes entwickeln wir eine systematische Methode zur kontextabhängigen Analyse, Bewertung und Konfiguration von IT-Tool-Stacks für die kollaborative Produktentstehung. Unsere Methode soll auf einem heuristischen Bewertungsmodell basieren, das Unternehmen eine Bewertung der notwendigen IT-Tool-Stacks ermöglicht.

Welche Zielgruppe soll von den Ergebnissen des Projekts profitieren und welcher konkrete Nutzen ergibt sich für Unternehmen?

Can Çağıncan: Die Ergebnisse werden sowohl den beteiligten Unternehmen als auch KMU zugutekommen. Insbesondere für KMU ergeben sich konkrete Vorteile, da sie durch maßgeschneiderte IT-Lösungen ihre Kollaborationsfähigkeit steigern können, ohne ein eigenes kollaboratives System aufbauen zu müssen.

Können Sie uns einen Einblick in das weitere Vorgehen im Projekt geben?

Can Çağıncan: Das Projekt wird zunächst die gegenwärtige Situation der IT-Tool-Stacks und die maßgebenden Gestaltungstreiber, die zu typischen Projektarchetypen führen, untersuchen. Anschließend werden wir die spezifischen Einflüsse dieser IT-Tool-Stacks sowie möglicher SaaS-Technologien auf die Kollaborationsfähigkeit von KMU analysieren. Das Projekt entwickelt eine Bewertungsheuristik, die auf maschinellem Lernen basiert. Diese Methode wird in Form eines Assistenzsystems als Dashboard implementiert, um den Unternehmen einen niederschwelligen Zugang zu bieten.

Wir laden alle KMU ein, uns in den sozialen Medien zu folgen und an unserer bevorstehenden Umfrage teilzunehmen. Auf diese Weise können KMU maßgeschneiderte Lösungen für sich selbst erhalten und das Projekt unterstützen.

 

 

Über den Interviewpartner:
Can Çağıncan, wissenschaftlicher Mitarbeiter am Fachgebiet Qualitätswissenschaft der TU Berlin, Ansprechpartner Forschungsprojekt METIS

 


Informationen zum Forschungsprojekt und Kontaktdaten

Über das Forschungsprojekt:
Das IGF-Vorhaben 22534 N der FQS – Forschungsgemeinschaft Qualität e.V. (FQS), August-Schanz-Straße 21A, 60433 Frankfurt am Main wurde über die AiF im Rahmen des Programms zur Förderung der Industriellen Gemeinschaftsforschung (IGF) vom Bundesministerium für Wirtschaft und Klimaschutz (BMWK) aufgrund eines Beschlusses des Deutschen Bundestages gefördert.

Weitere Informationen finden Sie auf der Projektwebsite der TU Berlin und auf LinkedIn »

Kontakt:
Can Çağıncan
Technische Universität Berlin
Institut für Werkzeugmaschinen und Fabrikbetrieb
Fachgebiet Qualitätswissenschaft
Pascalstr. 8-9 – 10587 Berlin
E-Mail: cagincan@tu-berlin.de

Über die FQS:
Die FQS – Forschungsgemeinschaft Qualität e. V. (FQS) unterstützt seit 1989 die anwendungsorientierte Forschung rund um das Thema Qualität in Deutschland. Sie versteht sich selbst als Forschungsbereich der Deutschen Gesellschaft für Qualität e. V. (DGQ) und wird von ihr getragen. Die FQS fördert innovative Forschungsideen über das Instrument der Industriellen Gemeinschaftsforschung (IGF) und des Forschungsnetzwerks CORNET des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK). Ziele der Förderung sind möglichst anwendungsnahe Forschungsideen, die einen unmittelbaren Nutzen für die Wirtschaft, insbesondere für kleine und mittelständische Unternehmen (KMU), erbringen.

 

Vorstellung der FQS Forschungsgemeinschaft Qualität e.V. 
Wer ist die FQS Forschungsgemeinschaft Qualität e.V. und was tut sie? Lernen Sie im Video den Forschungsbereich der DGQ kennen und erfahren Sie von Dr. Christian Kellermann-Langhagen, wissenschaftlicher Geschäftsführer der FQS, wie die FQS arbeitet, welche Themen beforscht werden und wie sich Unternehmen in der FQS beteiligen und von den eingesetzten Förderprogrammen profitieren können.

Kontakt:
FQS – Forschungsgemeinschaft Qualität e. V.
August-Schanz-Straße 21A
60433 Frankfurt am Main
infofqs@dgq.de


 

Die „Frauen im QM“ begrüßen ihr 500. Mitglied auf DGQplus

Die DGQ-Netzwerkgruppe „Frauen im QM“ hat die 500er Marke geknackt: Seit dem Frühjahr 2022 hat sich die Mitgliederzahl der Netzwerkgruppe, die sich speziell an weibliche DGQ-Mitglieder richtet, auf der DGQ-Netzwerkplattform DGQplus verdoppelt. Das zeigt, dass das Angebot innerhalb des DGQ-Netzwerks auf breites Interesse stößt.

Bei den „Frauen im QM“ treffen sich seit 2015 regelmäßig Expertinnen aus dem breiten Feld des Qualitätsmanagements zum Austausch. Ob Vorträge, Workshops oder einfach der entspannte Dialog auf Augenhöhe: Im Fokus stehen sowohl fachliche (QM-)Themen als auch solche, welche die persönliche Weiterentwicklung in den Fokus stellen. Mitglieder können zudem aktuelle Herausforderungen aus dem eigenen Arbeitsalltag mitbringen und erhalten bei den „Frauen im QM“ praxisorientierte Hilfestellung.

 

Entdecken Sie das Mehr im Verein

Entdecken Sie das Mehr im Verein – und testen Sie die DGQ-Mitgliedschaft drei Monate beitragsfrei. Damit erhalten Sie auch die Möglichkeit, die Netzwerkgruppe “Frauen im QM” und deren Angebote kennenzulernen. Mehr Informationen zur DGQ-Mitgliedschaft finden Sie hier.

Interview zum FQS-Forschungsprojekt “MIQFEM”: Mitarbeiterorientierte Qualitätsregelkreise in der Produktion zum smarten Fehlermanagement

FQS, MIQFEM

Um in einem immer intensiveren Wettbewerbsumfeld bestehen zu können, ist es für Unternehmen essenziell, ihre Produkte schneller, kostengünstiger und in höherer Qualität herzustellen als ihre Konkurrenten. Dabei stellen auftretende Fehler in der Produktion ein signifikantes Hindernis dar, da sie sowohl Kosten als auch Zeitaufwand verursachen und im Falle der Fehlertolerierung zur Qualitätssenkung führen. Dementsprechend ist ein wichtiger Wettbewerbsfaktor zwischen erfolgreichen Unternehmen und weniger erfolgreichen Unternehmen, wie sie mit dem Fehlerwissen umgehen. In vielen kleinen und mittleren Unternehmen (KMU) ist dieses Wissen jedoch ein Tabuthema.

Im Rahmen des über die FQS – Forschungsgemeinschaft Qualität e. V. geförderten Forschungsprojektes „MIQFEM – Mitarbeiterorientierte Qualitätsregelkreise in der Produktion zum smarten Fehlermanagement“ wird unter der Leitung des Fachgebiets Qualitätswissenschaft an der TU Berlin gemeinsam mit Partnern aus Industrie ein smartes Fehlermanagementsystem entwickelt, welches die systematische Nutzung des Fehlerwissens ermöglicht und sich durch die Interaktion mit den Mitarbeitenden in einem ständigen Lernprozess befindet. Über eine KI-basierte Fehlerwissensbasis soll das System zukünftige Fehlerereignisse vorhersagen, Fehlerzusammenhänge in der Produktion frühzeitig erkennen, mögliche Problemursachen identifizieren und daraus Maßnahmen ableiten.

Im Interview gibt Turgut Refik Caglar, Wissenschaftlicher Mitarbeiter und Oberingenieur am Fachgebiet Qualitätswissenschaft der TU Berlin, einen Ausblick auf das Projekt und erklärt, wie Unternehmen von den Forschungsergebnissen profitieren können.

 

Aus welcher Problemstellung heraus ist das Forschungsprojekt entstanden?

Turgut Refik Caglar: Die systematische und wertsteigernde Auswertung von produktbezogenen Daten wird im Markt nicht konsequent verfolgt und kommt bei KMU gewöhnlich nicht zum Einsatz. Nur wenn Fehler am Entstehungsort (Arbeitsplätze) behandelt werden, ist es möglich, Zeitverluste zu senken und die Reaktionsgeschwindigkeit für auftretende Probleme zu erhöhen. KMU erfassen Fehler oft in manuell erstellten Listen oder in lokal gespeicherten Dateien wie Microsoft Excel. Dies erschwert den Aufbau einer soliden Fehlerwissensbasis, die datenbasierte Fehleranalyse sowie den nachhaltigen Umgang mit Fehlern, obwohl eine gut gepflegte Wissensbasis den Kern des smarten Fehlermanagementsystems bildet.

Vor diesem Hintergrund ist der Aufbau eines smarten Fehlermanagementsystems von eminenter Bedeutung für produzierende Gewerbe, um die Qualitäts-, Fehler- und Herstellkosten zu senken.

Welche Lösung wird im Forschungsprojekt MIQFEM entwickelt?

Turgut Refik Caglar: Das Hauptaugenmerk von MIQFEM liegt auf der Entwicklung eines intelligenten Fehlermanagementsystems. Dieses System ermöglicht die systematische Nutzung von Wissen über Fehler und lernt kontinuierlich durch Interaktion mit Mitarbeitenden. Es soll in der Lage sein, zukünftige Fehler vorherzusagen, Fehlerzusammenhänge frühzeitig zu identifizieren, mögliche Ursachen zu erkennen und daraus Handlungsstrategien abzuleiten.

Ein wichtiger Bestandteil dieses Systems ist die Wissensbasis zur Problemlösung. Diese wird im sogenannten „Berliner-Problemlösungskreis“ integriert sein, der Methoden und Werkzeuge der Qualitätswissenschaft und des Data Mining in einem wissensbasierten Expertensystem kombiniert, um einen systematischen Problemlösungsprozess im Falle eines unbekannten Fehlerereignisses zu ermöglichen. Wenn bestimmte Fehler, ihre Ursachen oder Maßnahmen unbekannt sind, kann das System mithilfe dieser Wissensbasis eine computergestützte, dialogorientierte Auswahl und Implementierung von Lösungsstrategien vorschlagen. Ziel ist, Mitarbeitende bei der Methodenauswahl und -durchführung sowie der Ergebnisinterpretation digitalisiert und dialogbasiert zu unterstützen. Ein Novum ist die Integration von Transfer Learning (TL) und Natural Language Processing (NLP) in das Fehlermanagementsystem.

Wer soll von den Ergebnissen profitieren und welcher konkrete Nutzen ergibt sich für Unternehmen?

Turgut Refik Caglar: Aus Gesprächen mit produzierenden KMU wurde ein großes Interesse an der Anwendung eines smarten Fehlermanagementsystems und systematischen Problemlösungsprozess im Shopfloor deutlich. Genau dafür entwickeln wir MIQFEM. Durch die Interaktion mit den Mitarbeitenden befindet sich das System in einem ständigen Lernprozess, wodurch es kognitive Problemlösungsfähigkeiten der Mitarbeitenden erlernt und nachahmt. Das System kann kausale problemlösungsrelevante Zusammenhänge im Shopfloor entdecken und erklären. Auf diese Weise können Fehlerereignisse frühzeitig prognostiziert und einschlägige Maßnahmen ergriffen werden.

Wie sehen diese aus?

Turgut Refik Caglar: Die Integration des Berliner-Problemlösungskreises in das Fehlermanagementsystem ermöglicht die computergestützte und dialogbasierte Auswahl sowie Durchführung von Problemlösungsmethoden im Rahmen eines systematischen Prozesses. Der Nutzen dieses Konzepts besteht darin, die Mitarbeitenden bei der Auswahl der passenden Methoden im Umgang mit Fehlern zu unterstützen und den Komplexitätsgrad des Entscheidungstreffens zu senken. Der Einsatz verschiedener Qualitäts- und Data Mining-Methoden sowie die systematische Nutzung des historischen Fehlerwissens erlauben komplexe Zusammenhänge zwischen Prozessparametern/Einflussgrößen und Qualitätsmerkmalen zu erklären. Darüber hinaus tragen diese zur ganzheitlichen Prozessverbesserung bei: Die Qualitäts-, Fehler- und Herstellkosten können gesenkt werden. Außerdem kann die Integration einer Problemlösungswissensbasis dazu verhelfen, die Komplexität bei der Identifizierung und Lösung von Fehlern zu reduzieren und die Effizienz der Problemlösungsprozesse zu verbessern. Die Nutzung von Transfer Learning (TL) und Natural Language Processing (NLP) optimiert zudem die Qualität und Genauigkeit der Ergebnisse.

Welche zusätzlichen Ziele haben Sie sich im Rahmen des Forschungsprojektes gesetzt?

Turgut Refik Caglar: Das Projektvorhaben beinhaltet eine digitale Learning Plattform, über die Mitarbeitende Problemlösungskompetenzen spielerisch erwerben können. Der Aufbau der eLearning-Plattform dient auch der Ersparnis der direkten und indirekten Weiterbildungskosten, wie beispielsweise Reisekosten, Teilnahmegebühren und ähnlichem. Unter diesem Aspekt stellt die Qualifizierung von Mitarbeitenden hinsichtlich problemorientierter Methoden auf einer solchen Plattform ein weiteres Optimierungspotenzial bei KMU dar.

Insgesamt ist das MIQFEM-Fehlermanagementsystem ein vielversprechender Ansatz, um Unternehmen bei der Verbesserung ihrer Produktqualität und der Reduzierung von Fehlerkosten zu unterstützen. Neben den eingesparten Kosten, welche sich aus den Ergebnissen dieses Projekts ergeben, sind zudem Einsparungen in Form von Zeit, Aufwand und Mitarbeiterausfall wegen der Beschäftigung mit Fehlerbeseitigung, die Verringerung der Belastung und Beanspruchung von Mitarbeitenden im Fehlermanagementprozesses und der Aufbau einer positiven Fehlerkultur bei KMU die Ziele.

 

 

Über den Interviewpartner:
Turgut Refik Caglar, Wissenschaftlicher Mitarbeiter und Oberingenieur am Fachgebiet Qualitätswissenschaft der TU Berlin, Ansprechpartner Forschungsprojekt MIQFEM

 


Informationen zum Forschungsprojekt und Kontaktdaten

Über das Forschungsprojekt:
Das IGF-Vorhaben 22530 N der FQS – Forschungsgemeinschaft Qualität e. V., August-Schanz-Straße 21A, 60433 Frankfurt am Main wurde über die AiF im Rahmen des Programms zur Förderung der Industriellen Gemeinschaftsforschung (IGF) durch das Bundesministerium für Wirtschaft und Klimaschutz (BMWK) aufgrund eines Beschlusses des Deutschen Bundestages gefördert.

Weitere Informationen finden Sie auf der Projektwebsite der TU Berlin »

Kontakt:
Turgut Refik Caglar, M. Sc.
Technische Universität Berlin
Institut für Werkzeugmaschinen und Fabrikbetrieb
Fachgebiet Qualitätswissenschaft
Pascalstr. 8-9 – 10587 Berlin
E-Mail: t.caglar@tu-berlin.de

 

Über die FQS:
Die FQS – Forschungsgemeinschaft Qualität e. V. (FQS) unterstützt seit 1989 die anwendungsorientierte Forschung rund um das Thema Qualität in Deutschland. Sie versteht sich selbst als Forschungsbereich der Deutschen Gesellschaft für Qualität e. V. (DGQ) und wird von ihr getragen. Die FQS fördert innovative Forschungsideen über das Instrument der Industriellen Gemeinschaftsforschung (IGF) und des Forschungsnetzwerks CORNET des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK). Ziele der Förderung sind möglichst anwendungsnahe Forschungsideen, die einen unmittelbaren Nutzen für die Wirtschaft, insbesondere für kleine und mittelständische Unternehmen (KMU), erbringen.

 

Vorstellung der FQS Forschungsgemeinschaft Qualität e.V. 
Wer ist die FQS Forschungsgemeinschaft Qualität e.V. und was tut sie? Lernen Sie im Video den Forschungsbereich der DGQ kennen und erfahren Sie von Dr. Christian Kellermann-Langhagen, wissenschaftlicher Geschäftsführer der FQS, wie die FQS arbeitet, welche Themen beforscht werden und wie sich Unternehmen in der FQS beteiligen und von den eingesetzten Förderprogrammen profitieren können.

Kontakt:
FQS – Forschungsgemeinschaft Qualität e. V.
August-Schanz-Straße 21A
60433 Frankfurt am Main
infofqs@dgq.de


Interview zum FQS-Forschungsprojekt “AIQualify”: Framework zur Qualifizierung von KI-Systemen in der industriellen Qualitätsprüfung

AIQualify

Die produzierende Industrie und deren Endkunden stellen immer höhere Qualitätsansprüche. Anstelle von manchmal ineffizienten und fehleranfälligen manuellen Qualitätskontrollen setzen Unternehmen zunehmend auf automatisierte Prüfungen, wie zum Beispiel optische Prüfsysteme mit anschließender Bildverarbeitung (siehe Abb. 1). Die klassische Bildverarbeitung stößt jedoch oft an ihre Grenzen, vor allem dann, wenn es eine hohe Variabilität bei Fehlern oder Bauteilen gibt. So können beispielsweise Oberflächenkratzer in Form, Farbe und Lage variieren. Diese Defekte sind jedoch oft schwer analytisch zu beschreiben. Mit Methoden des maschinellen Lernens (ML), einem Teilgebiet der Künstlichen Intelligenz, können diese Einschränkungen zunehmend überwunden werden. Bedenken hinsichtlich der Zuverlässigkeit oder Genauigkeit von ML-Verfahren verhindern jedoch bisher ihren weit verbreiteten industriellen Einsatz. Gerade der Unterschied zu klassischen Algorithmen erschwert die Qualifizierung von ML-basierten Qualitätsprüfungssystemen. Die Qualifizierung solcher Systeme zu erleichtern, stellt das zentrale Forschungsziel des über die FQS – Forschungsgemeinschaft Qualität e. V. geförderten Projekts AIQualify dar.

 Optische Prüfung von Platine

Abb. 1: Optische Prüfung von Platinen. Quelle: Rainer Bez, Fraunhofer IPA

Das Konsortium von AIQualify besteht aus dem Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA sowie dem Institut für Industrielle Fertigung und Fabrikbetrieb IFF der Universität Stuttgart. Begleitet wird das Projekt von zahlreichen Unternehmen: 36ZERO Vision, AUDI, Babtec Informationssysteme, Bosch, EVT, Festool, Maddox AI, preML, scitis.io, sentin und WICKON Hightech. Zudem unterstützen die Allianz Industrie 4.0 der Bitkom und die Universität Speyer das Vorhaben. Das Projekt startete am 1. Mai 2023 und hat eine Laufzeit von zwei Jahren.

Im Interview gibt Prof. Dr.-Ing. Marco Huber (Fraunhofer IPA / IFF der Universität Stuttgart) einen Ausblick auf das Projekt und erläutert, wie Unternehmen von den Forschungsergebnissen profitieren können.

 

Aus welcher Problemstellung heraus ist das Forschungsprojekt entstanden?

Prof. Dr.-Ing. Marco Huber: Bei der klassischen Bildverarbeitung geben Menschen analytische Kriterien oder explizite Regeln vor, etwa bei der Defekterkennung. Folglich wird das Computerprogramm zur Qualitätsprüfung in der Regel manuell erstellt und besteht aus einer Folge von prüfbaren und nachvollziehbaren Anweisungen. Beim ML hingegen wird das auszuführende Computerprogramm automatisiert auf der Grundlage eines Datensatzes erstellt. Die Daten stellen gewissermaßen die Spezifikation des Programms dar. Dies hat zur Folge, dass bei maschinell erlernten Programmen – die in dem Kontext gerne als ML-Modell bezeichnet werden – eine begrenzte Nachvollziehbarkeit der Entscheidungsfindung oder eine unzureichende Robustheit gegenüber geringfügigen Änderungen der Eingabedaten vorliegt. Auch fehlen aussagekräftige Kriterien, die für einen Nachweis der Eignung herangezogen werden können. Dies alles erschwert die Qualifizierung von ML-basierten Qualitätsprüfungssystemen und mindert auch häufig die Akzeptanz in der Industrie.

Welche Lösung wird im Forschungsprojekt AIQualify entwickelt?

Prof. Dr.-Ing. Marco Huber: Die Entwicklung von ML-Systemen durchläuft üblicherweise die in Abb. 2 dargestellten Phasen. In jeder Entwicklungsphase stehen qualifizierte Entscheidungen an, die einen wesentlichen Einfluss auf das fertige System haben können. Folglich ist es zwingend erforderlich, nicht nur das fertige System zu betrachten, sondern jede Phase dessen Entwurfs bzw. Entwicklung. Dadurch wird sichergestellt, dass bereits frühzeitig qualifizierte Entscheidungen hinsichtlich Datenauswahl, Vorverarbeitung, Gütekriterien, Modellauswahl usw. getroffen und dokumentiert werden.

Phasen der Entwicklung eines ML-Systems

Abb. 2: Phasen der Entwicklung eines ML-Systems. Quelle: Fraunhofer IPA

 

Neben der Ganzheitlichkeit der Betrachtung der gesamten Entwicklungskette liegt die Innovation von AIQualify zudem in der assistierten Ermittlung und Bündelung von Prüf- und Bewertungskriterien und der assistierten Qualifizierung des ML-Systems entlang der formalisierten Kriterien. Hierzu entwickeln wir ein Software-Framework samt Vorgehensmodell und Software-gestützter Prüfmodule, welches die Ermittlung und Formulierung von Prüf- und Bewertungskriterien sowie die Abnahme des ML-Systems entlang dieser Kriterien erlaubt. Das Framework soll modular gestaltet sein, sodass eine einfache Integration und Erweiterung von Prüfmodulen möglich werden.

Wer soll von den Ergebnissen profitieren und welcher konkrete Nutzen ergibt sich für Unternehmen?

Prof. Dr.-Ing. Marco Huber: Angelehnt an die Norm ISO 19011 lassen sich drei Arten der Qualifizierung unterscheiden: Qualifizierung (1) durch die Organisation selbst, was einer Selbstauskunft entspricht, (2) durch einen Kunden, Lieferanten oder Partner oder (3) durch eine unabhängige dritte Stelle, z.B. Zertifizierung. Daraus ergeben sich drei potentielle Nutzerkreise für die Forschungsergebnisse:

  1. Dienstleister für (ML-basierte) Qualitätsprüfung und -management
  2. Produzierende Unternehmen
  3. Dienstleister für Konformitätsprüfungen und Auditierungen

Die Dienstleister können die Forschungsergebnisse für eine systematische und vollumfängliche Prüfung der Konformität eines entwickelten ML-Systems nutzen. Dies kann sowohl kontinuierlich im Entwicklungsprozess der Lösung als auch vor der Auslieferung an Kunden erfolgen. Produzierende Unternehmen erwarten ein Werkzeug, um fremdbezogene ML-Systeme zu qualifizieren, um so sicherstellen zu können, dass die gestellten Anforderungen an das System prüfbar erfüllt sind. Dienstleister für Konformitätsprüfungen und Auditierungen erhalten mit den Forschungsergebnissen ein Werkzeug, mit welchem sie ihre originären Prüfaufgaben auch auf ML-Systeme ausweiten können.

Wie sieht das weitere Vorgehen aus?

Prof. Dr.-Ing. Marco Huber: Zur Evaluierung der Projektergebnisse haben wir einen ersten Anwendungsfall im Bereich der kamerabasierten Defekterkennung von Lochscheiben definiert. Die Besonderheit bei diesem Anwendungsfall ist, dass neben echten Kamerabildern auch synthetische Bilder mit Defekten erzeugt werden können. Dies erlaubt es, unterschiedliche Schweregrade der Prüfaufgabe zu betrachten, um die Eignung von ML-Systemen bewerten zu können.

Die nächsten Schritte sehen vor, dass die unterschiedlichen allgemeinen Anforderungen und Kriterien an ML-Systeme in der Qualitätsprüfung bestimmt werden. Dies mündet dann in ein Konzept zur systematischen Ermittlung konkreter Anforderungen und Kriterien für spezifische Prüfsysteme. Zudem werden wir wird einen weiteren industrienahen Anwendungsfall zusammen mit einigen der beteiligen Unternehmen ausarbeiten.

 

 

Über den Interviewpartner:
Prof. Dr.-Ing. Marco Huber, Institut für Industrielle Fertigung und Fabrikbetrieb IFF, Universität Stuttgart und Leiter der Abteilung Bild- und Signalverarbeitung sowie Leiter der Abteilung Cyber Cognitive Intelligence (CCI) am Fraunhofer IPA, Stuttgart

 


Informationen zum Forschungsprojekt und Kontaktdaten

Über das Forschungsprojekt:
Das IGF-Vorhaben 22929 BG der FQS – Forschungsgemeinschaft Qualität e. V., August-Schanz-Straße 21A, 60433 Frankfurt am Main wird über die AiF im Rahmen des Programms zur Förderung der Industriellen Gemeinschaftsforschung (IGF) durch das Bundesministerium für Wirtschaft und Klimaschutz (BMWK) aufgrund eines Beschlusses des Deutschen Bundestages gefördert.

Kontakt:
marco.huber@ipa.fraunhofer.de

 

Über die FQS:
Die FQS – Forschungsgemeinschaft Qualität e. V. (FQS) unterstützt seit 1989 die anwendungsorientierte Forschung rund um das Thema Qualität in Deutschland. Sie versteht sich selbst als Forschungsbereich der Deutschen Gesellschaft für Qualität e. V. (DGQ) und wird von ihr getragen. Die FQS fördert innovative Forschungsideen über das Instrument der Industriellen Gemeinschaftsforschung (IGF) und des Forschungsnetzwerks CORNET des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK). Ziele der Förderung sind möglichst anwendungsnahe Forschungsideen, die einen unmittelbaren Nutzen für die Wirtschaft, insbesondere für kleine und mittelständische Unternehmen (KMU), erbringen.

Vorstellung der FQS Forschungsgemeinschaft Qualität e.V. 
Wer ist die FQS Forschungsgemeinschaft Qualität e.V. und was tut sie? Lernen Sie im Video den Forschungsbereich der DGQ kennen und erfahren Sie von Dr. Christian Kellermann-Langhagen, wissenschaftlicher Geschäftsführer der FQS, wie die FQS arbeitet, welche Themen beforscht werden und wie sich Unternehmen in der FQS beteiligen und von den eingesetzten Förderprogrammen profitieren können.


 

FQS-Forschungsprojekt “VorÜber”: Vorausschauende Prozessüberwachung in der Schmiedeindustrie

FQS-Forschungsprojekt VoRüber
Optische Vermessung eines Gesenk

Optische Vermessung eines Gesenks (Quelle: IPH gGmbH)

In der Schmiedeindustrie wird die Lebensdauer von Schmiedegesenken meist auf Basis von Erfahrungswerten und subjektiven Entscheidungen bestimmt. Im Rahmen des vor Kurzem abgeschlossenen FQS-Forschungsprojekts VorÜber haben Wissenschaftler:innen des IPH – Institut für Integrierte Produktion Hannover gGmbH eine Methode entwickelt, die eine Prognose der Restlebensdauer des Schmiedegesenks auf Basis von Bilddaten und Kraftmessungen während der Umformung ausgibt. Durch diese datenbasierte Prognose lässt sich die Restlebensdauer genauer abschätzen und die Produktion von Fehlteilen sowie Stillstandzeiten, aufgrund von Gesenkversagen, vermeiden. Schätzen Mitarbeitende die Lebensdauer von Schmiedegesenken geringer ein als sie wirklich ist, bedeutet dies eine Verschwendung der noch bestehenden Standmenge [1]. Wird die Standmenge zu hoch eingeschätzt, kann es bei unvorhergesehen hohem Verschleiß zur Produktion von fehlerhaften Teilen kommen [2]. In der Praxis wird die verbleibende Standmenge häufig um ein Vielfaches geringer als die tatsächliche verbleibende Standmenge festgelegt, um das Risiko eines Werkzeugversagens gering zu halten [1].

Um die verbleibende Standmenge auszunutzen, aber gleichzeitig das Risiko eines Werkzeugversagens zu vermeiden, kombinierten die Forscher:innen zwei Verfahrensweisen: Eine optische Überwachung des Schmiedegesenks mit einer Kraftmessung. Die erfassten Daten lassen eine objektive Berechnung der verbleibenden Standmenge zu.

 

 

Verschleißermittlung mittels optischer Überwachung

Für die optische Überwachung wurde ein Laserscanner ausgewählt, durch den die Gesenke optisch gemessen und Geometrieveränderungen detektiert werden können. Um die verbleibende Standmenge eines Schmiedegesenks bestimmen zu können, verglichen die Wissenschaftler:innen den Zustand eines verschlissenen Gesenks mit der Geometrie eines Gesenks im unverschlissenen Zustand. Dafür wurden die aus den aufgenommenen Daten entstehenden Punktwolken mittels Anwendung des iterative-closest point-Algorithmus (icp-Algorithmus) übereinandergelegt (Abb. 1).

Orientierung der Punktewolken durch icp-Algorithmus

Abb. 1: Orientierung der Punktewolken durch icp-Algorithmus (Quelle: IPH gGmbH)

Der Vergleich der beiden Oberflächen zeigt, wie stark das benutzte Gesenk verschlissen ist. Der Verschleiß innerhalb eines Schmiedegesenks kann allerdings variieren, da die Belastungen beim Schmieden lokal unterschiedlich sind und Flächen mit unterschiedlichen Toleranzwerten existieren können. Um unterschiedliche Bereiche des Schmiedegesenks gesondert betrachten zu können, segmentierten die Forscher:innen die Punktwolken. Nach der Segmentierung konnten sie innerhalb der gesondert gespeicherten Datei einen Vergleich mit dem entsprechenden Bereich des unverschlissenen Gesenks anstellen. Durch einen Abgleich der Verschleißhöhe mit den Toleranzangaben des jeweiligen Bereichs kann so festgestellt werden, ob das Schmiedegesenk die Toleranzen erfüllt.

Auf Basis der erhobenen Daten (Verschleißhöhe und Anzahl bisher geschmiedeter Teile) berechneten die Wissenschaftler:innen anschließend, wie viele Schmiedeteile noch innerhalb der Toleranzen produziert werden können.

Verschleißermittlung mithilfe von Kraftmessungen

Für die Ermittlung von Verschleiß mithilfe von Kraftmessungen mussten die Forscher:innen zunächst Referenzwerte erfassen. Hierfür wurden Kraftmessungen mit unverschlissenem Gesenk durchgeführt. Diese Referenzwerte konnten dann genutzt werden, um Kraftveränderungen zu detektieren und entsprechend Verschleiß festzustellen. Für die Positionierung der Kraftaufnehmer wählten die Verantwortlichen Bereiche aus, in denen es zu deutlichen Spannungsänderungen aufgrund des Verschleißes kommt [3]. Um zu identifizieren, welche Ausprägung der Kraftmessungs-Verschleiß anzeigt, wurden mit Hilfe von vorab durchgeführten Simulationen Grenzen ausgewählt.

Die Auswertung der Kraftmessungen führten die Wissenschaftler:innen anhand der Mittelwerte der Schmiedungen mit den von Störgrößen bereinigten Krafteinflüssen durch. Dabei ist deutlich zu erkennen: Mit zunehmendem Verschleiß sinken die aufgenommenen Kraftwerte. Jedoch können diese Tendenzen nicht während der gesamten Umformung entdeckt werden. Konkret eignen sich dafür insbesondere signifikante Punkte der Umformung, wie der erste Berührpunkt, die Erreichung der Formfüllung und die Ausbildung des Grats. Die höchste Aussagekraft hatte innerhalb dieser Untersuchung die Auswertung der Kraftergebnisse am Berührpunkt.

Auf Basis der Messergebnisse bestimmten die beteiligten Forscher:innen anschließend eine Ausgleichsfunktion, anhand derer die verbleibende Standmenge ermittelt werden kann. Die Berechnung der verbleibenden Standmenge anhand der Kraftmessung lieferte ähnliche Werte wie die Berechnung der verbleibenden Standmenge anhand der optischen Messung.

Kombination beider Vorhersagemodelle und Nutzen der Prognose

Die Ergebnisse, die mit der optischen Messung und die Ergebnisse, die mit der Kraftmessung erzielt wurden, führten die Wissenschaftler:innen im Rahmen des Projekts zusammen (Abb. 2). So kann eine Prognose zur noch verbleibenden Standmenge getroffen werden, die sowohl die Ergebnisse der optischen Verschleißmessung als auch der Kraftmessung berücksichtigt.

Die Prognosegenauigkeit steigt mit der Anzahl der Messungen. Durch diese datenbasierte Voraussage können Mitarbeitende in Unternehmen künftig objektiv entscheiden, wann ein Werkzeug ausgetauscht werden sollte. Ein zu frühes und ein zu spätes Austauschen wird vermieden und so Verschwendung und Stillstandzeiten minimiert.

Übersicht der einzelnen Schritte der Methode

Abb. 2: Übersicht der einzelnen Schritte der Methode (Quelle: IPH gGmbH)

 

Quellen:
[1] Bach, F.-W.: Prozesskette Präzisionsschmieden, Springer Verlag, Garbsen, 2014
[2] Reim, J.: Erfolgsrechnung – Wertsteigerung durch Wertschöpfung. Grundlagen, Konzeption, Instrumente. Springer Fachmedien, Wiesbaden 2015.
[3] Schellenberg, D. et al..: Reststandmenge von Schmiedewerkzeugen punktgenau prognostizieren. In: stahl + eisen, Maenken Kommunikation GmbH (2021), H. 8, S. 50-51. ISSN: 0340-4803.

Autoren:
Dipl.-Ing. Mareile Kriwall, 1985, Abteilungsleiterin Prozesstechnik, IPH gGmbH, kriwall@iph-hannover.de, Tel.: 0511 27076 330
David Schellenberg, M.Sc., 1993, ehemaliger Projektingenieur der Abteilung Prozesstechnik, IPH gGmbH
Dr.-Ing. Malte Stonis, 1979, Koordinierender Geschäftsführer, IPH gGmbH
Prof. Dr.-Ing. Bernd-Arno Behrens, 1964, Geschäftsführender Gesellschafter, IPH gGmbH und Institutsleitung des Instituts für Umformtechnik und Umformmaschinen

 


Informationen zum Forschungsprojekt und Kontaktdaten

Über das Forschungsprojekt:
Das IGF-Vorhaben 21676 N der FQS – Forschungsgemeinschaft Qualität e. V., August-Schanz-Straße 21A, 60433 Frankfurt am Main wurde über die AiF im Rahmen des Programms zur Förderung der Industriellen Gemeinschaftsforschung (IGF) durch das Bundesministerium für Wirtschaft und Klimaschutz (BMWK) aufgrund eines Beschlusses des Deutschen Bundestages gefördert.

Das Forschungsvorhaben ist abgeschlossen. Der Schlussbericht steht der interessierten Öffentlichkeit in Kürze zur Verfügung und kann entweder über die FQS – Forschungsgemeinschaft Qualität e. V. oder die Forschungseinrichtung auf Anfrage bezogen werden.

Projektwebsite: https://www.iph-hannover.de/de/forschung/forschungsprojekte/?we_objectID=5878 

Projektvideo: https://youtu.be/K1sSqYiohmk?feature=shared

 

Über die FQS:
Die FQS – Forschungsgemeinschaft Qualität e. V. (FQS) unterstützt seit 1989 die anwendungsorientierte Forschung rund um das Thema Qualität in Deutschland. Sie versteht sich selbst als Forschungsbereich der Deutschen Gesellschaft für Qualität e. V. (DGQ) und wird von ihr getragen. Die FQS fördert innovative Forschungsideen über das Instrument der Industriellen Gemeinschaftsforschung (IGF) und des Forschungsnetzwerks CORNET des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK). Ziele der Förderung sind möglichst anwendungsnahe Forschungsideen, die einen unmittelbaren Nutzen für die Wirtschaft, insbesondere für kleine und mittelständische Unternehmen (KMU), erbringen.

Vorstellung der FQS Forschungsgemeinschaft Qualität e.V. 
Wer ist die FQS Forschungsgemeinschaft Qualität e.V. und was tut sie? Lernen Sie den Forschungsbereich der DGQ kennen und erfahren Sie von Dr. Christian Kellermann-Langhagen, wissenschaftlicher Geschäftsführer der FQS, wie die FQS arbeitet, welche Themen beforscht werden und wie sich Unternehmen in der FQS beteiligen und von den eingesetzten Förderprogrammen profitieren können.

Kontakt:
FQS – Forschungsgemeinschaft Qualität e. V.
August-Schanz-Straße 21A
60433 Frankfurt am Main
infofqs@dgq.de


Data Analytics – Von der Datenerfassung zur Entscheidungsunterstützung

Big Data mit explorativen Methoden analysieren

Wenn wir uns die vergangenen Jahrzehnte anschauen, wird eines ziemlich klar: Daten haben enormen Einfluss, egal ob es sich um kleine Mengen an Daten, Big Data, klassische oder moderne Statistik, Analytik oder gar künstliche Intelligenz handelt – und das betrifft Mitarbeiter:innen auf allen Unternehmensebenen. Daten helfen auf vielfältige Art und Weise, die Unternehmensleistung zu verbessern.

Auf der einen Seite haben wir künstliche Intelligenz, von der wir uns versprechen, Geschäftsmodelle komplett zu verändern und die deshalb die meiste Aufmerksamkeit bekommt. Auf der anderen Seite sind schon einfache Analysen mit wenigen Daten äußerst wirkungsvoll, wenn es darum geht, Unternehmen dabei zu unterstützen, bessere Entscheidungen zu treffen, Geschäftsabläufe zu steuern und zu optimieren, ein besseres Verständnis für Kunden zu bekommen und Produkte sowie Dienstleistungen zu verbessern.

Die Nutzung von Daten zur Informationsgewinnung und Entscheidungsunterstützung hat sich zu einer zentralen Säule in vielen Unternehmen entwickelt. Data Analytics bietet die Möglichkeit, aus Daten wertvolle Erkenntnisse zu gewinnen, Geschäftsprozesse zu optimieren und fundierte Entscheidungen zu treffen. In diesem Beitrag stelle ich Ihnen die vier Analytics-Reifegradstufen nach Gartner vor und wie das Vorgehensmodell des CRISP-DM (Cross-Industry Standard Process for Data Mining) einen strukturierten Rahmen bieten kann, um den größtmöglichen Nutzen aus Daten zu ziehen. 

Analytics-Reifegradstufen nach Gartner

Die Unternehmensberatung Gartner Inc. hat im Jahr 2012 Forschungsergebnisse vorgestellt, die es bis heute anschaulich ermöglichen, Data Analytics in vier Reifegradstufen zu unterteilen. Hierzu zählen:

  1. Deskriptive Analytics
    Deskriptive Analytics ist der Ausgangspunkt jeder Datenanalyse und beschreibt vergangene Ereignisse. Hierbei sammeln die Beteiligten historische Daten und nutzen diese, um überhaupt erst einmal zu verstehen, „Was ist passiert?“. Diese Phase legt den Grundstein für das Verständnis der eigenen Datenlandschaft und ermöglicht erste Einblicke in vergangene Entwicklungen.
  2. Diagnostic Analytics
    In der zweiten Reifegradstufe beschreibt Diagnostic Analytics die Identifizierung von Mustern und Trends in den Daten. Wenn diese erkannt wurden, geht es darum, die Gründe hinter den Ereignissen zu verstehen. Basierend auf der Frage „Warum ist es passiert?“ analysieren die Verantwortlichen Zusammenhänge und Kausalitäten, um beispielsweise Ursachen für Qualitätsprobleme oder Engpässe in Geschäftsprozessen aufzudecken.
  3. Predictive Analytics
    Predictive Analytics ist die erste in die Zukunft gerichtete Stufe. Es werden historische Daten genutzt, um zukünftige Entwicklungen vorherzusagen. Statistische Modelle und Machine-Learning-Algorithmen ermöglichen Prognosen, die als Grundlage für vorausschauende Entscheidungen dienen und der Frage nachgehen „Was wird passieren?“.
  4. Prescriptive Analytics
    Stufe vier ist die höchste Stufe der Data Analytics: Prescriptive Analytics geht über die Vorhersage hinaus und empfiehlt konkrete Handlungsschritte, indem sie fragt, „Was muss geschehen?“. Basierend auf den Erkenntnissen der vorherigen Stufen schlägt sie Maßnahmen vor, um gewünschte Ziele zu erreichen.
Vier Stufen nach Gartner

Maoz, Michael: How IT Should Deepen Big Data Analysis to Support Customer-Centricity. Gartner Research 2013.

Die Einteilung in die vier Stufen und ihre Leitfragen helfen Mitarbeiter:innen in Unternehmen insbesondere in der Praxis dabei, eine klare Struktur zu schaffen, um ihre Datenanalysestrategien zu gestalten und zu verbessern. Dies ermöglicht eine schrittweise Entwicklung von der reinen Datenerfassung bis hin zur datengestützten Entscheidungsfindung.

Durch diese Einteilung können Unternehmen gezielt in die jeweiligen Stufen investieren, um die Leistung ihrer Geschäftsprozesse zu steigern. Die Vorteile liegen in der schrittweisen Steigerung der Analysekomplexität, von retrospektiven Einblicken bis hin zu proaktiven Handlungsempfehlungen. Dadurch können sie nicht nur Vergangenes besser verstehen lernen, sondern auch zukünftige Trends vorhersagen und schließlich fundierte Maßnahmen ableiten, um ihre Ziele effizient zu erreichen und ihre Wettbewerbsfähigkeit zu stärken.

Der CRISP-DM-Prozess in der Data Analytics

Das CRISP-DM-Vorgehensmodell (CRoss Industry Standard Process for Data Mining) bietet einen bewährten Rahmen für den Datenanalyseprozess in Unternehmen. Es ist in folgende sechs Phasen unterteilt:

  1. Business Understanding
    Die Phase des Business Understanding dient dazu, zu Beginn klare Geschäftsziele und Anforderungen festzulegen. Dabei definieren die Beteiligten die grundlegenden Fragen, die durch die Datenanalyse beantwortet werden sollen. Hierbei steht im Fokus, wie die Daten zur Erreichung der Unternehmensziele beitragen können.
  2. Data Understanding
    In der Phase des Data Understanding geht es darum, verfügbare Datenquellen zu analysieren und zu verstehen. Die Untersuchung der Datenqualität und deren Zusammenhänge sind zentrale Aufgaben und Ziele in dieser Phase.
  3. Data Preparation
    Anschließend erfolgt die Data Preparation: Daten werden bereinigt, transformiert und aggregiert, um sie für die Modellbildung vorzubereiten.
  4. Modeling
    Während des Modeling erfolgt die Anwendung geeigneter Data-Analytics-Verfahren. Hierbei können verschiedene Modelle auch parallel entwickelt und erprobt werden, um Muster und Zusammenhänge in den Daten zu identifizieren.
  5. Evaluation
    Die Evaluation dient dazu, die erstellten Modelle auf ihre Leistung und Ergebnisse zu überprüfen und zu vergleichen. Als Ergebnis soll eine Auswahl des finalen Modells erfolgen. Hierbei ist es wichtig zu erwähnen, dass es zu einem Closed-Loop kommt, in dem die Ergebnisse mit den Zielen und Anforderungen des Business Understanding abgeglichen werden. Bei Abweichungen, die durchaus auch positive Erkenntnisse und Verbesserungen sein können, erfolgen die weiteren Phasen iterativ.
  6. Deployment
    In der letzten Phase des Deployment steht im Fokus, die am besten geeigneten Modelle zu implementieren und in die Geschäftsprozesse zu integrieren. Die implementierten Modelle sollten kontinuierlich überwacht werden, um sicherzustellen, dass sie effektiv arbeiten.
CRISP-DM

Chapman, Pete et al.: CRISP-DM 1.0: Step-by-step data mining guide. SPSS Inc. 2000.

 

Die Verknüpfung der vier Reifegradstufen nach Gartner mit den Phasen des CRISP-DM schafft einen leistungsstarken Rahmen für den effektiven Einsatz von Data Analytics. Von der explorativen Analyse der Vergangenheit bis zur präskriptiven Handlungsempfehlung für die Zukunft bietet dieser Ansatz ein umfassendes Vorgehensmodell, um Daten in konkrete und strategische Entscheidungen umzuwandeln.

Fazit

Data Analytics ist heute mehr denn je ein entscheidender Faktor für den Geschäftserfolg. Die systematische Orientierung an den oben genannten Reifegradstufen und die strukturierte Anwendung des CRISP-DM als Vorgehensmodell ermöglichen es Unternehmen, von der Datenerfassung zur wirkungsvollen Handlungsempfehlung zu gelangen. Egal, ob es um die Optimierung der Produktqualität, Prozesseffizienz oder die Vorhersage von Kundentrends geht – Data Analytics bietet eine reichhaltig wachsende Quelle für fundierte Entscheidungen und Innovationspotenzial.

Wie weit sind Sie in Ihrem Unternehmen mit der Anwendung von Data Analytics fortgeschritten? Teilen Sie uns Ihre Erfahrungen mit!

 

Autor:
Sebastian Beckschulte ist wissenschaftlicher Mitarbeiter am Lehrstuhl für Fertigungsmesstechnik und Qualitätsmanagement am WZL der RWTH Aachen. In der Abteilung Quality Intelligence entwickeln er und seine Kolleg:innen in den Bereichen der Produkt- und Prozessqualität bestehende Ansätze weiter und beantworten bekannte, unternehmerische Problemstellungen mit neuen Methoden und Technologien. Nach seinem Studium zum Wirtschaftsingenieur an der Universität Duisburg-Essen schlug Sebastian Beckschulte am Lehrstuhl eine wissenschaftliche Laufbahn ein. Als wissenschaftlicher Mitarbeiter setzt er sich dabei intensiv mit den Themen der datenbasierten Entscheidungsunterstützung in Fehlermanagement- und Produktionsprozessen auseinander.

Wertstromanalyse: Ein effizientes Instrument zur Prozessoptimierung

Wertstromanalyse, Automobilindustrie, Produktion

Die Wertstromanalyse, ein beeindruckendes Werkzeug aus dem Repertoire des Lean Managements, hat ihre Wurzeln in der Automobilindustrie. Ihr Hauptzweck besteht darin, Material- und Informationsflüsse in komplexen Produktionsprozessen sichtbar und begreiflich zu machen.

Das Potenzial der Wertstromanalyse reicht jedoch weit darüber hinaus. Sie visualisiert die einzelnen Phasen eines Produktionsprozesses und verdeutlicht somit Interaktionen, Abhängigkeiten und Flussdynamiken. Dadurch können Anwender Verschwendung, Engpässe und ineffiziente Abläufe aufspüren. Durch die konsequente Ausrichtung auf Verschwendungsminimierung, einen Grundpfeiler des Lean Managements, ermöglicht sie eine systematische und datengetriebene Basis für fortlaufende Verbesserungen und Effizienzsteigerungen. Daher kann die Wertstromanalyse dazu beitragen, die Leistung zu erhöhen, Kosten zu reduzieren und die Zufriedenheit von Kunden und Mitarbeitern zu verbessern.

Dieser Fachbeitrag soll das Verständnis von dieser Methode vertiefen. Er beleuchtet die Anwendung und Vorteile der Wertstromanalyse und gibt wertvolle Hinweise für ihren Einsatz. Ziel ist es, aufzuzeigen, wie Qualitätsmanager und Co. dieses Werkzeug nutzen können, um ihre Prozesseffizienz zu erhöhen.

 

Wie läuft eine Wertstromanalyse ab?

Die Wertstromanalyse ist ein hilfreiches Mittel, um den komplexen Produktionsprozess innerhalb eines Unternehmens umfassend darzustellen. Sie verfolgt Material und Informationen auf ihrem Weg durch den Produktionsprozess und visualisiert dabei alle Aktivitäten – wertschöpfende und nicht-wertschöpfende. Dabei wird der ‘Wertstrom’ auf zwei Ebenen betrachtet: der steuernde Informationsfluss und der Materialfluss selbst.

Kernkonzepte und verwendete Symbole
Zu den Hauptelementen der Wertstromanalyse gehören die Erkennung wertschöpfender und nicht-wertschöpfender Aktivitäten, die Analyse der Durchlaufzeit und die Identifizierung von Produktionsengpässen.

Wie vorgehen?
Die Durchführung der Wertstromanalyse folgt mehreren hilfreichen Schritten. Diese Schritte unterstützen das Verständnis der Prozesse und Produktion und helfen bei der Identifizierung von Verbesserungsmöglichkeiten. Hier sind die grundlegenden Schritte:

  • Auswahl des Produkts oder der Produktfamilie:
    Die Wertstromanalyse konzentriert sich oft auf eine spezifische Produktfamilie oder einen Prozess.
  • Bestimmung des Anfangs- und Endpunkts des Wertstroms:
    Dies könnte etwa den gesamten Prozess von der Materialbeschaffung bis zum Versand des Endprodukts umfassen.
  • Erstellung des Ist-Zustands:
    Dokumentieren Sie den aktuellen Prozess mit allen relevanten Aktivitäten, Durchlaufzeiten, Wartezeiten und Lagerbeständen.
  • Identifizierung von Verschwendung:
    Suchen Sie nach Aktivitäten, die keinen Wert hinzufügen, zum Beispiel Wartezeiten, Überproduktion, übermäßige Bewegungen usw.
  • Entwicklung des Soll-Zustands:
    Entwerfen Sie einen idealen Zustand, in dem Verschwendung minimiert wird.
  • Erstellung eines Maßnahmenplans:
    Bestimmen Sie die Schritte, die notwendig sind, um vom Ist- zum Soll-Zustand zu gelangen.

Welche Vor- und Nachteile bietet die Wertstromanalyse?

Vorteile:

  • Transparenz:
    Die Wertstromanalyse visualisiert den Material- und Informationsfluss und schafft damit Transparenz in den Prozessen.
  • Identifizierung von Verschwendung:
    Durch die transparente Darstellung werden Engpässe, Verschwendung und Ineffizienzen sichtbar und können gezielt angegangen werden.
  • Strukturierte Herangehensweise:
    Die Methode bietet einen systematischen Ansatz zur Prozessverbesserung, der von der Identifikation des Ist-Zustands über die Entwicklung des Soll-Zustands bis zur Umsetzung reicht.
  • Steigerung der Produktivität:
    Die Identifikation und Reduzierung von Verschwendung führt zu einer erhöhten Produktivität.
  • Kostenreduktion:
    Durch die Optimierung der Prozesse können Kosten gesenkt werden.
  • Verkürzung der Durchlaufzeiten:
    Effizientere Prozesse führen in der Regel zu kürzeren Durchlaufzeiten.

Nachteile:

  • Komplexität:
    Komplexe Prozesse mit vielen Abhängigkeiten können schwer darzustellen und zu analysieren sein.
  • Zeitaufwändig:
    Eine gründliche Wertstromanalyse erfordert Zeit und Ressourcen, was in einigen Organisationen schwierig umzusetzen sein könnte.
  • Qualifiziertes Personal:
    Es ist notwendig, Mitarbeiter zu haben, die in der Anwendung der Wertstromanalyse geschult sind.
  • Fehlerhafte Daten:
    Die Qualität der Wertstromanalyse ist stark abhängig von der Genauigkeit der verwendeten Daten.
  • Fehlende Einbindung:
    Ohne die aktive Beteiligung aller beteiligten Mitarbeiter kann die Umsetzung der Erkenntnisse aus der Wertstromanalyse schwierig sein.
  • Fokussiert auf physische Produktion:
    Ursprünglich wurde die Methode für die Anwendung in der Fertigung entwickelt. In Bereichen wie der Dienstleistung oder der Softwareentwicklung können Anpassungen notwendig sein.
  • Gefahr von Oberflächlichkeit:
    Ohne ausreichende Tiefe bei der Untersuchung können grundlegende Probleme übersehen werden.

Gibt es praktische Tipps zur Durchführung?

Erfolgreiche Wertstromanalysen hängen nicht nur vom theoretischen Verständnis ab, sondern auch von der Anwendung bewährter Praktiken und Tools. Hier sind einige hilfreiche Tipps:

  • Teamarbeit ist entscheidend:
    Eine Wertstromanalyse ist eine teambasierte Aufgabe. Die Einbeziehung aller Stakeholder, einschließlich der direkt involvierten Mitarbeiter, ist für den Erfolg unabdingbar.
  • Fokus auf den Kunden:
    Bewahren Sie stets das Ziel der Wertschöpfung für den Kunden im Blick. Jeder Prozessschritt sollte daraufhin geprüft werden, ob er Kundennutzen schafft.
  • Nicht nur offensichtliche Aspekte berücksichtigen:
    Beziehen Sie neben den Hauptprozessen auch unterstützende Prozesse und indirekte Aktivitäten in die Wertstromanalyse ein.
  • Schritt für Schritt vorgehen:
    Starten Sie mit einer groben Analyse und vertiefen Sie in weiteren Iterationen die Details. So behalten Sie den Überblick, ohne sich in Einzelheiten zu verlieren.
  • Kontinuierliche Verbesserung:
    Eine Wertstromanalyse ist nicht nur einmalig hilfreich. Der wahre Wert entsteht durch kontinuierliche Anwendung und Optimierung.

Was bleibt?

In der Rückblende hat sich die Wertstromanalyse als ein essenzielles Werkzeug im Lean-Management erwiesen. Sie hat Unternehmen dabei unterstützt, Material- und Informationsflüsse zu visualisieren, Verschwendung zu identifizieren und die Effizienz zu verbessern. Sie hat sich als flexibel und anpassungsfähig in einer Vielzahl von Umgebungen bewährt, von der Fertigung bis hin zu Dienstleistungen. Dennoch ist ihre effektive Anwendung nicht ohne Herausforderungen, darunter der notwendige Aufwand für die Durchführung der Analyse und die Notwendigkeit einer umfassenden Teamintegration.

Blickt man in die Zukunft, ist die Rolle der Wertstromanalyse noch bedeutsamer. Immer mehr Unternehmen erkennen ihre Vorteile und beginnen, ihre Methoden zu nutzen. Es wird erwartet, dass ihre Relevanz weiter zunehmen wird, da Unternehmen in immer komplexeren und wettbewerbsintensiven Umgebungen agieren müssen. Mit dem richtigen Engagement, effektiver Teamarbeit und einer Mentalität der kontinuierlichen Verbesserung kann die Wertstromanalyse einen entscheidenden Beitrag zur Steigerung der Wettbewerbsfähigkeit von Unternehmen und zur Optimierung ihrer Geschäftsprozesse leisten. Die Zukunft verspricht spannende Entwicklungen für die Wertstromanalyse und ihre Anwendung in der Geschäftswelt.

 

Autor:
Julian Steiger verfügt über sechs Jahre Erfahrung im Qualitätsmanagement. Bei der DGQ ist er sowohl als Teil des Leitungsteams des Regionalkreises Köln-Bonn als auch im Leitungsteam der QM-Youngsters ehrenamtlich tätig. Zu seinen Schwerpunkten zählt, gemeinsam im Team neue Prozesse zu gestalten und Workshops zu moderieren. An der Hochschule Wismar absolvierte Julian Steiger das Masterstudium Quality Management.

Einführung eines standardisierten Prozessaudits zur Überprüfung der Wirksamkeit von Quality Core Tools

Audit

Notwendigkeit des Einsatzes von Quality Core Tools

Um den hohen Qualitätsstandards der Branche gerecht zu werden, hat die Automobilindustrie eine Reihe von Werkzeugen und Methoden entwickelt, welche unter dem Begriff „Automotive Core Tools“ zusammengefasst werden. Die Automotive Core Tools sind heute ein erfolgreicher und etablierter Standard im Qualitätsmanagement der Automotiv-Unternehmen und so ist es nicht verwunderlich, dass diese immer häufiger von Non-Automotive-Branchen adaptiert und dort unter dem Begriff „Quality Core Tools“ im Qualitätsmanagement eingesetzt werden.

Auch die BSH Hausgeräte GmbH hat sich bereits vor vielen Jahren entschieden, die Quality Core Tools zu adaptieren, um die Prozesse von der Produktentwicklung, über das gesamte Projektmanagement bis zum Produktionsstart (SOP) zu optimieren. Damit können potenzielle Fehlerquellen frühzeitiger erkannt und behoben, sowie Kosten von Ausschuss und Reklamationen gesenkt werden. Zudem ermöglichen die eingesetzten Methoden eine bessere Steuerung und Überwachung der Prozesse, was zu einer Steigerung der Effizienz und Produktivität führen kann.

Erfordernis identischer Auditorenkompetenzen

Die DIN EN ISO 9001 sieht regelmäßige interne Systemaudits vor, um sicherzustellen, dass das Qualitätsmanagementsystem den Anforderungen der Norm entspricht und Abweichungen, Nichtkonformitäten oder Kundenbeschwerden überprüft und bewertet werden. Diese Systemaudits werden von internen Auditoren durchgeführt, die unabhängig von den auditierten Bereichen sind.
Der PDCA-Zyklus hilft dabei, kontinuierliche Verbesserung in Organisationen zu fördern.

Solche Systemaudits werden in der ISO 9001-zertifizierten BSH Hausgeräte GmbH regelmäßig durchgeführt und auch die Wirksamkeit der eingeführten Quality Core Tools wird dabei überprüft und bewertet.

Da die eingeführten Maßnahmen dabei bisher nur bezogen auf den Produktionsstandort betrachtet wurden, fiel erst bei der ganzheitlichen Auditierung der eingesetzten Quality Core Tools über alle Produktionsstandorte auf, dass die Methoden unterschiedlich umgesetzt und gelebt wurden.

Um die Standorte dabei zu unterstützen, ihre kritischen Prozesse regelmäßig zu überprüfen, ist nicht nur die standardisierte Durchführung von Systemaudits erforderlich. Durch die Einführung von Prozessaudits soll den Standorten auch ein Werkzeug an die Hand gegeben werden, mit dem sie ihre eigenen Prozesse analysieren und verbessern können.

Um ein hohes und vergleichbares Level der Prozessauditaktivitäten über alle Standorte sicherzustellen, müssen die eingesetzten lokalen Auditoren über identische Kompetenzen zu den jeweiligen Methoden verfügen. Sie sollen befähigt sein, die fachlich korrekte Anwendung der Quality Core Tools zu bewerten. Dabei ist die effiziente Herangehensweise während der Audits ein wichtiger Erfolgsfaktor. Dies gewährleistet in unterschiedlichen Auditsituationen eine Vergleichbarkeit der Bewertungen mit dem notwendigen Tiefgang und schafft einen echten Mehrwert für die Organisation.

Berufsbild Auditor

Für die Integrität und Zuverlässigkeit von Unternehmen ist das Einhalten von gesetzlichen, behördlichen und normativen Vorgaben und Anforderungen essenziell. Neben dem Feststellen der Konformität können im Rahmen eines Audits unter anderem bewährte Praktiken erkannt, Lücken identifiziert und Optimierungspotenziale aufgedeckt werden. Auditoren können so einen entscheidenden Beitrag für das Unternehmen leisten und haben gute Karriereaussichten in den verschiedensten Branchen.
Antworten auf die wichtigsten Fragen finden Sie in unserem Berufsbild zum Auditor:

  • Welche Aufgaben betreuen Auditoren?
  • Wie werde ich Auditor?
  • Welche Weiterbildungsmöglichkeiten gibt es?
  • Was verdient ein Auditor?
  • Welche Karrieremöglichkeiten gibt es als Auditor?

Zum Berufsbild Auditor »

Praktische Umsetzung

Damit zukünftige interne Prozessaudits (basierend auf VDA 6.3) von den lokalen Auditoren an 28 Produktionsstandorten durchgeführt werden können, initiierte die BSH Hausgeräte GmbH ein Ausbildungsprojekt für interne Prozessauditoren.

Dabei wurden folgende Kompetenzen geschult und gecoacht:

Das gesamte Projekt untergliederte sich in folgende Abschnitte:

Vorbereitungsphase:
Nach Erstellung eines Projekt- und Budgetplans, dem Einholen des Projektauftrags durch das Top-Management und der Einrichtung eines Steuerkreises wurden die zukünftigen Prozessauditoren nominiert und ausgewählt. Für diese galten klar definierte Teilnahmevoraussetzungen, wie zum Beispiel eine mehrjährige Berufserfahrung im Qualitätsmanagement und praktische Erfahrungen bei der Anwendung von Qualitätsmethoden.

Rollout Phase:
Die nominierten Mitarbeiter der jeweiligen Standorte wurden in den oben genannten unterschiedlichen Fach- und Methodentrainings qualifiziert. Anschließend erhielten sie in einem Praxiseinsatz an einem Pilotstandort vor Ort ein Coaching und wurden in einem Witness-Audit bewertet.

Operative Phase:
Die operative Umsetzung der regelmäßigen Auditierung der kritischen Prozesse findet an den jeweiligen Standorten in einem Dreijahreszyklus statt. Dazu erfolgten im Vorfeld mehrere Coachings, damit die Standorte ihre kritischen Prozesse nach einer einheitlichen Systematik identifizieren und mit gleichen Kriterien bewerten.

Abschluss des Projekts

Ein zentraler Fachexperte (Projektleitung und Koordinator) begleitete das Projekt permanent. Darüber hinaus unterstützten externe Trainer der DGQ und ein Veränderungsmanager das Vorhaben. Der Veränderungsmanager hatte dabei die Aufgabe, die erforderlichen Change Prozesse an den lokalen Standorten zu begleiten, die lokalen Prozessauditoren auf die Auditsituation vorzubereiten und ihnen nach dem Witness-Audit ein Feedback hinsichtlich der fachlichen Auditdurchführung sowie der Umsetzung der Rolle als Auditor (soziale Kompetenz) zu geben.

Nach Projektabschluss übernahm der Projektleiter, die Governance für die Prozessaudits im Unternehmen und verantwortet somit die Aufrechterhaltung und Weiterentwicklung einer globalen Prozessbeschreibung mit Rollen und Verantwortlichkeiten in der BSH Hausgeräte GmbH. Damit das erreichte Kompetenzlevel weiterhin erhalten bleibt, werden regelmäßig Netzwerktreffen mit den lokalen Prozessauditoren organisiert und für neue Auditoren Trainings- und Witness-Audits koordiniert.

 

Fazit

Die Prozessaudits im Rahmen der Ausbildung an den jeweiligen Pilotstandorten haben verdeutlicht, wie wichtig es ist, die Kompetenz der eingesetzten Auditoren auf einem hohen Niveau zu halten, damit die Prozessaudits professionell ablaufen. Der Vorteil dieser neu eingeführten Auditart (Prozessaudit) und der umfassenden Qualifizierungsmaßnahmen zeigt sich in der erhöhten Transparenz der kritischen Prozesse und der Identifikation zahlreicher Verbesserungspotenziale. Daher wird das interne Prozessaudit zukünftig die bereits bestehenden internen Systemaudits (ISO 9001, ISO 14001, ISO 50001, ISO 45001) ergänzen.

Ausgehend von der Unterstützung durch das Top-Management als Projektsponsor, war es von wesentlicher Bedeutung, dass die relevanten Führungskräfte von Anfang an in das Projekt integriert und deren Akzeptanz für das Prozessaudit durch regelmäßige Informationen und Schulungen geschaffen wurde.

Die Prozessoptimierung in der Produktentstehung und der Serienproduktion haben einen wichtigen Wertbeitrag zur Wettbewerbsfähigkeit des Unternehmens geleistet.

 

Autor:
Dipl.-Ing. (FH) Matthias Kohl, MBA ist Leiter der Integrierten Managementsystem Audits in der Konzernzentrale der BSH Hausgeräte GmbH in München und Six Sigma Master Black Belt. Zuvor war er in verschiedenen Qualitäts- und Projektmanagement Funktionen bei der Robert Bosch GmbH und Daimler Trucks AG tätig. In seiner nebenberuflichen Tätigkeit (KOHL Quality Training & Consulting) bietet er Trainings und Coachings im Bereich Qualitätsmanagement, Integrierter Managementsysteme und technischer Problemlösung an.

Agile und Lean Six Sigma – wie passt das zusammen?

Lean Six Sigma, Agile

Immer mehr Unternehmen wenden Ansätze wie Six Sigma und agile Arbeitsweisen in ihrem Unternehmen an. Und das ist keine Überraschung. In den letzten zehn Jahren ist zunehmend die Technologie in vielen Bereichen in den Vordergrund gerückt. Wir nutzen Technologie in unserem täglichen Leben, sei es zu Hause oder bei der Arbeit. Ganz gleich, um welche Aufgabe es sich handelt. Das Kundenverhalten wird stark von der Technologie beeinflusst, und wenn die Unternehmen nicht ständig am Ball bleiben, ist es nur eine Frage der Zeit, bis Ihre Kunden einen anderen Anbieter finden, der die Lücke füllt. Verbraucher erwarten heutzutage von Unternehmen zunehmend auch eine schnelle Lieferung, bei gleichbleibend hohem Qualitätsanspruch.

Ansätze wie Six Sigma, Lean Management und Agilität ermöglichen es Unternehmen, dem Druck und den Anforderungen des Verbrauchermarktes zu begegnen. Diese Methoden unterscheiden sich jedoch in ihrer Umsetzung. Klassischerweise werden sie selten gleichzeitig angewandt, da oftmals das Methodenwissen fehlt. Dabei können Unternehmen Lean Six Sigma und Agile gleichzeitig anwenden.

Vergleich zwischen Agile und Six Sigma

Was ist Agile bzw. agiles Projektmanagement?

Das agile Projektmanagement ist durch hohe Flexibilität, schnelle Handlungsfähigkeit und optimale Produktivität geprägt. Es ist die unternehmerische Antwort auf die steigende Komplexität und Dynamik ausgelöst durch die Digitalisierung.

Bereits im Jahr 2001 wurde das agile Manifest der Softwareentwicklung mit seinen 12 Prinzipien veröffentlicht. „Agile“ war der neue Weg, bei dem Veränderungen angenommen werden und auf sie reagiert wird, während Produkte schnell und mit hoher Qualität entstehen. Agil ist nicht nur eine Methode, sondern eine Reihe von Werten und Prinzipien, die Softwareentwicklungsteams bei ihrer Arbeit leiten. Agilität betont die Zusammenarbeit, das Engagement für den Kunden und das Reagieren auf Veränderungen im Vergleich zur strikten Prozessimplementierung, Dokumentation und Planung, wie das beim „Wasserfallmodell“ typischerweise üblich ist.

Was ist Lean Six Sigma?

Six Sigma ist eine Methode zur Prozessverbesserung, die in den 1980er Jahren entstand und durch Motorola bekannt wurde. Dabei wurden Methoden der statistischen Qualitätskontrolle eingesetzt, um Fehler und Qualitätsprobleme in der Fertigung zu verringern und so den Umsatz zu steigern. Dies war die Geburtsstunde des Six Sigma-Phasenmodells namens DMAIC, das für Definieren, Messen, Analysieren, Verbessern und Kontrollieren steht. Der Schwerpunkt von Six Sigma, ergänzt um Methoden des Lean Managements, liegt auf der Kontrolle von Abweichungen und der Reduzierung von Mängeln. Dies bedeutet, dass die Kernursachen von Problemen aufgespürt und die Gründe für Qualitätsprobleme beseitigt werden müssen. Durch die Gewährleistung von Konsistenz und Qualität können Six Sigma-Unternehmen ein höheres Maß an Kundenzufriedenheit erreichen.

Der DMAIC-Rahmen ist ein genau definierter Prozess, der die Teams bei Durchführung ihrer Six Sigma-Projekte anleitet. Lean Six Sigma-Verbesserungsprojekte werden von den „Lean Six Sigma-Belts“ durchgeführt. Green Belts und Black Belts sind in der Regel diejenigen, die je nach Umfang und Komplexität die Projekte zur Prozessverbesserung leiten.

Kombination von Six Sigma und Agile

Sowohl Agile als auch Six Sigma zielen darauf ab, den Kunden den besten Nutzen zu bieten. Der Schlüssel für den Erfolg bei der Kombination der Ansätze liegt in der Fähigkeit, beide aus einer anderen Perspektive zu betrachten. Diese Ansätze sind für sich allein nicht das A und O, sondern Werkzeuge, die Unternehmen helfen, ihre Prozesse zu verbessern, damit sie ihren Kunden einen größeren Nutzen bieten können.

Die Kombination von Lean Six Sigma und agilen Methoden erfordert ein tieferes Verständnis und Erfahrung in der Anwendung der beiden Ansätze. Weniger erfolgreiche Teams, die Six Sigma oder agiles Arbeiten einsetzen, kümmern sich oft mehr um die Methoden und den festgelegten Rahmen und weniger um die grundlegenden Prinzipien der einzelnen Ansätze. Nur weil Sie DMAIC anwenden, heißt das noch lange nicht, dass Sie Lean Six Sigma erfolgreich anwenden. Eine der häufig angewendeten Agile-Methoden, Scrum, schreibt eine Reihe von Rollen vor, beispielsweise einen Scrum Master, und Scrum Meetings, die durchzuführen sind. Nur weil ein Team einen Scrum Master hat und tägliche Standup-Meetings durchführt, heißt das noch lange nicht, dass es Scrum richtig durchführt. Es bedeutet auch nicht, dass es agil ist. Um Lean Six Sigma und „Agile“ erfolgreich zu kombinieren, müssen sich Unternehmen zunächst fragen, wie der Einsatz von Lean Six Sigma und ‚Agile‘ ihnen dabei helfen kann, ein definiertes Ziel zu erreichen oder ein bestimmtes Problem zu lösen.

Agile Teams können Lean Six Sigma als Prozessverbesserungsinstrument nutzen, um ihre Leistung weiter zu verbessern. Lean Six Sigma verbindet quantitative und qualitative Analysen der Prozessleistung und deckt Probleme auf, die bei der Umsetzung eines weniger rigorosen Ansatzes wie beim agilen Arbeiten möglicherweise unbemerkt bleiben würden.

Berufsbild Prozessmanager

Wir leben in einer Zeit geprägt von Digitalisierung und Schnelllebigkeit. Umso wichtiger ist es, dass Unternehmen anpassungsfähig sind und auf veränderte Marktbedingungen eingehen können. Eine kontinuierliche Analyse und Optimierung von bestehenden Geschäftsprozessen ist sowohl für die Kosteneffizienz und Wirtschaftlichkeit, aber auch für die Kundenzufriedenheit von zentraler Bedeutung. Prozessmanager sind also gefragte Arbeitskräfte mit guten Zukunftsaussichten.
Antworten auf die wichtigsten Fragen finden Sie in unserem Berufsbild zum Prozessmanager:

  • Welche Aufgaben betreuen Prozessmanager?
  • Wie werde ich Prozessmanager?
  • Welche Weiterbildungsmöglichkeiten gibt es?
  • Was verdient ein Prozessmanager?
  • Welche Rollen gibt es im Prozessmanagement?

Zum Berufsbild Prozessmanager »

Agile und Lean Six Sigma Hand in Hand

Six Sigma und Agile sollten als ergänzende Ansätze betrachtet werden. Der Schlüssel liegt darin, ein Gleichgewicht zwischen Exaktheit und Flexibilität zu finden. Agile ist keineswegs ein Laissez-faire-Ansatz. Die Kombination mit der umfangreichen DMAIC-Vorgehensweise kann jedoch dazu beitragen, einen strukturierteren Rahmen für Problemlösungen, Ideenfindung und Prozessoptimierung zu schaffen. Die gilt insbesondere in Bereichen, in denen eine Prozessverbesserung angestrebt wird.

Bei der Anwendung der DMAIC-Methode können agile Methoden wie Scrum, Kanban und Sprints helfen, die Prozesseffizienz zu optimieren:

  • Scrum hilft bei der Strukturierung, Planung und Umsetzung von Projekten
  • Kanban hilft bei der Visualisierung und Verfolgung von Aufgaben
  • Sprints unterstützen bei der Beschleunigung der Prozessumsetzung

Trotz der vordefinierten Ziele der DMAIC-Phasen können Teams mit mehr Eigenverantwortung eingebunden und durch stetige Reflektion und Verbesserung der Arbeit in den Verbesserungsprozess integriert werden, was wiederum den agilen Prinzipien entspricht. Die inkrementelle Werterstellung als agiles Prinzip muss viel stärker im gesamten DMAIC-Zyklus verankert sein, statt wie in vielen Organisationen üblich erst lange an der Erstellung von Konzepten und Umsetzungsplänen zu sitzen. Im Phasenabschluss sollte ein zeitgemäßes Gate Review analog einem Sprint Review funktionieren – offen und zugänglich für alle Stakeholder, zudem werden Ergebnisse und Learnings im Team geteilt. Auf der anderen Seite hilft die stringente Logik aus der Six Sigma-Philosophie auch den agilen Teams, um nicht den Fokus zu verlieren.

Um Lean Six Sigma und Agile gemeinsam erfolgreich zu implementieren, müssen sich die Teams nicht auf die Mechanismen der Methoden konzentrieren. Stattdessen müssen die Projektteams das Vorhaben als Ganzes betrachten und herausfinden, wie die agilen und Six-Sigma-Prinzipien effektiv eingesetzt werden können, um ein Produkt oder eine Dienstleistung zu schaffen, die den Kunden einen großen Nutzen bieten.

Mit dem Training „Lean Six Sigma: Agile for Belts“ erfahren die Teilnehmenden konkret, wie sich die agile Denkweise mit der DMAIC-Vorgehensweise vereinheitlichen und kombinieren lässt. Voraussetzung hierfür ist eine bereits absolvierte Lean Six Sigma Weiterbildung zum Green Belt, Black Belt oder Master Black Belt.

 

Über den Autor:
Oliver Schneider studierte Ernährungswissenschaften (M.Sc.) in Gießen und war danach als wissenschaftlicher Mitarbeiter und Projektassistent tätig. Seit 2015 ist er als Produktmanager bei der DGQ und verantwortet aktuell das Weiterbildungsportfolio zum Thema Qualitätsmanagement und Lean Six Sigma. Seine Qualifizierungen zum Qualitätsmanager und Lean Six Sigma Green Belt helfen ihm bei der Weiterentwicklung und Beratung seiner Themenbereiche.

Die Automotive Core Tools in der IATF 16949

Automotive Core Tools

Qualitätsmanagement in der Automobilindustrie: Warum? Wie? Was?

Die automobile Welt von heute befindet sich im Wandel. Die Maßstäbe zur Bewertung sind nicht länger Hubraum, Anzahl der Zylinder und Kraftstoffverbrauch- Vielmehr geht es mittlerweile um Batteriekapazität, die damit verbundene Reichweite, Ladegeschwindigkeit und die Fahrzeugsoftware, welche alle möglichen Features abbilden soll. Wer vorn mitspielen will, muss höchsten Ansprüchen genügen, sonst fällt er im globalen Wettbewerb zurück. Das ist keine neue Erkenntnis. Doch Zeiten des Wandels geben immer auch Anlass, Fragen zu stellen. Warum sollten wir uns weiterhin mit Qualitätsmanagement befassen? Wie lassen sich wirksam die Anforderungen eines solchen QM-Systems umsetzen und was ist konkret gefordert?

Normbasierte QM-Systeme wie jene nach ISO 9001 und IATF 16949 haben zum Ziel, einen systematischen Ansatz zur Steuerung der Erfüllung von Anforderungen über die gesamte Lieferkette bereitzustellen. Liefern bedeutet nichts anderes als die Erfüllung von Kunden-, gesetzlichen und behördlichen sowie internen Anforderungen. Dies ist zugleich die Basis für Qualität. Somit ist die Begründung für den Einsatz von QM-Systemen – das Warum? – unverändert aktuell.

Zwischen universellem Anspruch und individueller Flexibilität

Die Entwicklung der QM-Systeme nahm spätestens 1987 ihren Lauf, als die erste Ausgabe der ISO 9001 herausgegeben wurde. Sie setzt sich auch in der Automobilindustrie fort, deren aktuelle Anforderungen an ein QM-System in der IATF 16949 beschrieben sind. Die definierten Anforderungen geben vor, was zu tun ist, um erfolgreich agieren zu können.

Eine weitere Herausforderung stellt der Anspruch auf universelle Anwendbarkeit der Anforderungen in den einzelnen Produktgruppen der Automobilindustrie dar. Vom Airbag bis hin zum Zahnrad müssen alle implementierten Systeme die Anforderungen erfüllen. Das Motto „One fits all“ funktioniert auf Grund der unterschiedlichen Anforderungen und Risiken in den jeweiligen Produktgruppen jedoch nicht. Das führt zur Frage des „Wie werden die Anforderungen effektiv umgesetzt?“ Antworten dazu finden sich in den Automotive Core Tools.

Es besteht ebenfalls der Anspruch auf universelle Anwendbarkeit in den Produktgruppen. So beschreibt APQP (Advanced Product Quality Planning) im Vorwort, dass es sich dabei um allgemeine Leitlinien zur Erfüllung der Anforderungen und nicht um spezifische Anweisungen zur Umsetzung des Regelwerkes handelt. Das sei Aufgabe jeder Organisation selbst, diese gemäß ihrer Ausrichtung und deren Bedürfnissen zu definieren.

Aus dieser Konstellation heraus ergeben sich Chancen für jedes einzelne Unternehmen, durch die Anwendung der Core Tools erfolgreich am Markt zu agieren. Die Core Tools versetzen die Organisation in die Lage, das zur jeweiligen Organisation passende „Wie“ zu bestimmen und umzusetzen.

Q-Methoden (Automotive Core Tools): Das „Wie“ legt die jeweilige Organisation fest

Advanced Product Quality Planning und Reifegradabsicherung
Die Qualitätsplanungsmethoden Advanced Product Quality Planning (APQP) und die Reifegradabsicherung (RGA) verwenden teils unterschiedliche Ansätze, verfolgen aber ein gemeinsames Ziel: die Erfüllung der Anforderungen ab dem Start of Production (SOP) durch ein robustes und kundentaugliches Produkt, welches mittels eines beherrschten und fähigen Produktionsprozesses hergestellt wurde. Ein Anlauf ohne größere Probleme hilft, zusätzliche Kosten zu vermeiden und stellt somit einen unmittelbaren Beitrag zum Betriebsergebnis dar. Der Bezug zum QM-System (Was ist konkret gefordert?) ist die Erfüllung der Anforderungen nach einer Projektplanung aus dem Abschnitt 8.1.1 d) der IATF 16949.

Risikoanalysen mittels FMEA
Bei der Projektrealisierung kommen weitere Core Tools zur Anwendung. Risikoanalysen mittels FMEA helfen dabei, potenzielle Fehler und deren Folgen im Produkt- und Prozessdesign zu erkennen und durch geeignete Maßnahmen rechtzeitig zu minimieren, bevor durch die Fehlerfolgen größerer Schaden entsteht. Die daraus abgeleiteten Lenkungsmaßnahmen sind Eingaben in den Produktionslenkungsplan (PLP) und helfen dem Unternehmen dabei, seine Produktionsprozesse und Abläufe zu optimieren und sicher zu gestalten. Der vermiedene Ausschuss und vermiedene Nacharbeit dienen nicht nur dazu, das Betriebsergebnis zu verbessern. Sie unterstützen die Mitarbeiter durch klare Vorgaben für den Prozessablauf und bei der Zielerreichung. Mehrere Anforderungen aus dem Abschnitt 8.3 ff. der IATF 16949 werden hier unterstützt.

Messsystemanalyse zur Beurteilung von Prüfprozessen
Ein weiteres Core Tool ist die Messsystemanalyse (MSA) zur Beurteilung und zum Nachweis der Fähigkeit von Prüfprozessen, gefordert im Abschnitt 7.1.5.1.1 – Beurteilung von Messsystemen. Die Vorgehensweise ist beschrieben in den Regelwerken MSA 4th Edition beziehungsweise VDA Band 5 sowie firmenspezifischen Richtlinien. Erst wenn der Nachweis erbracht ist, dass der angewandte Prüfprozess und die dabei verwendeten Prüf- und Messsysteme fähig sind sowie die Ergebnisse reproduziert werden können, sind die ermittelten Messergebnisse vertrauenswürdig. Die Organisation wird damit in die Lage versetzt, die Ergebnisse des Herstellprozesses sicher zu belegen. Der Beitrag zum Betriebsergebnis ist die Vermeidung von Pseudoausschuss. Es wird verhindert, dass spezifikationskonforme Produkte und Teile als nicht konform deklariert werden. Im umgekehrten Fall wird verhindert, dass man nicht konforme Produkte und Teile als spezifikationskonform deklariert und an den Kunden ausliefert. Die daraus resultierenden Folgen sind oft mit deutlich mehr Aufwand verbunden als jede Vermeidungsmaßnahme.

Statistical Process Control
Die MSA bildet die Grundlage zur Ermittlung der Maschinen- und Prozessfähigkeit wie im Abschnitt 8.3.5.2 d) der IATF 16949:2016 gefordert. Im Ergebnis kann die Entscheidung zum Einsatz des Core Tools Statistical Process Control (SPC) getroffen werden. Damit kann die Überwachung des Herstellprozesses und der resultierenden Ergebnisse mittels Stichprobe (Größe und Frequenz) erfolgen. Eine im Vergleich zu SPC aufwendigere 100%-Prüfung der Merkmalswerte wird vermieden. Dies liefert einen weiteren Beitrag zum Erreichen des gewünschten Betriebsergebnisses.

Produktionsprozess- und Produktfreigabe
Die Anforderungen aus dem Abschnitt 8.3.4.4 zu einem geforderten Produktions- und Produktfreigabeprozess werden mit den Methoden zur Bemusterung Production Part Approval Process (PPAP) beziehungsweise Produktionsprozess- und Produktfreigabe (PPF) umgesetzt. Hier erbringt der Lieferant gegenüber seinem Kunden den Nachweis, dass er die vertraglich vereinbarten Anforderungen an Produkt und Prozess erfüllt. Der Kunde bestätigt dies durch Erteilung einer Serienlieferfreigabe. An dieser Stelle zeigt sich dann wie gut und konsequent APQP/ RGA durchgeführt wurden. Die Vermeidung von zusätzlichen, nicht geplanten Aktivitäten zur Absicherung des Anlaufs helfen dabei, das gewünschte Betriebsergebnis zu erzielen.

8D Methode
Nach dem SOP kann es zu Reklamationen kommen, die auf verschiedenste Grundursachen zurückzuführen sind. Zur Erfüllung der Anforderungen aus dem Abschnitt 10.2.3 der IATF 16949 trägt ein weiteres Core Tool, die 8D Methode – Problemlösung in acht Disziplinen, bei. Eine schnelle Identifikation und Abstellung der Grundursache hilft dabei, dass Wiederauftreten des Fehlers oder Problems zu verhindern und die Reklamationskosten zu senken. Auch dieses und alle weiteren Core Tools leisten ihren Beitrag dazu, die gewünschten Ergebnisse zu erzielen und den Kunden zufriedenzustellen.

Neue Risiken im Spannungsfeld vor Qualität und Wirtschaftlichkeit

Diese kurze Zusammenstellung verdeutlicht das Zusammenwirken von Anforderungen eines QM-Systems und Q-Methoden am Beispiel der Automobilindustrie. Es zeigt zudem, dass durch die ergänzenden und zusätzlichen Anforderungen der IATF 16949 die Freiräume für Lieferanten im Vergleich zur ISO 9001 geringer sind, was die Wahl der Methoden betrifft. Jedoch haben die Organisationen in der Anwendung und Ausgestaltung der Methoden nach wie vor die Flexibilität, die geforderte Qualität und Wirtschaftlichkeit übereinzubringen. Das setzt aber verlässliche Abnahmevolumen für den Lieferanten und ein faires Teilen von Risiken in der Lieferkette voraus. Anderenfalls lassen sich die Steuerungsmöglichkeiten, die Q-Methoden den Organisationen bieten, nicht zielführend umsetzen und anwenden.

 

Über den Autor:
Thomas Birke ist seit 2018 freiberuflich als Trainer, Berater und Zertifizierungsauditor tätig. Er ist unter anderem für die DGQ als Ausbilder von „Prozessauditoren VDA 6.3“ und „1st and 2nd party Auditoren“ im Einsatz und berät mit seiner Firma Entwickelte Qualität (www.en-qu.de) Unternehmen zu Themen des Qualitäts- und Change-Managements. Vor seinem Wechsel in die Selbstständigkeit war Thomas Birke in leitender Funktion im Qualitätsmanagement bei einem führenden Automobilzulieferer angestellt. Als gelernter Kfz-Mechaniker sammelte er zudem Erfahrung im Entwicklungsbereich bei einem weltweit führenden Automobilhersteller, ehe es ihn 2007 ins Qualitätsmanagement verschlug.

 

Weiterbildungsangebote rund um das Thema „Automotive Core Tools“

Sie suchen Trainings, um sich einen Überblick über die in der Automobilindustrie geforderten Methoden der Qualitätssicherung zu verschaffen? Die DGQ bietet Ihnen Trainings zu den wichtigsten Automotive Core Tools an. Verschaffen Sie sich einen vertieften Überblick zu Standards und Methoden der Automotive Core Tools oder lernen Sie die Bewertung von Automotive Core Tools in System- oder Prozessaudits:

„Auch das Integrierte Managementsystem vom Prozess her denken“

Integrierte Managementsysteme, IMS

Qualität, Energie, Umwelt oder Arbeitsschutz – die Anforderungen an Unternehmen werden immer vielfältiger und umfangreicher. Als effiziente Lösung bietet sich hier ein integriertes Managementsystem (IMS) an. Doch wie ein solches implementieren? Im Interview erläutert Philipp Hörmann, DGQ-Trainer und Gründer der Unternehmensberatung WeitBlick, die Vorteile eines IMS, warum die Prozesssicht entscheidend ist und welche Voraussetzungen für eine erfolgreiche Integration zu erfüllen sind.

Wo sehen Sie bei einem integrierten Managementsystem die größten Vorteile?

Philipp Hörmann: Um es auf den Punkt zu bringen – mehr Effektivität, Effizienz und Transparenz! Mit Hilfe eines integrierten Managementsystem schafft man, Aufwände, Kosten und Abläufe im Managementsystem und für die angestrebten Zertifizierungen zu optimieren. Dazu bedarf es einer ganzheitlichen Sichtweise und einer konsequenten Prozessorientierung. Außerdem sehe ich, wo Synergieeffekte optimal genutzt werden können und kann dadurch die verschiedenen Normanforderungen zentral bündeln. Da die Dokumentation meist ein ungeliebtes Thema ist, lässt sich auch hier mit einem gut aufgesetzten IMS der Aufwand reduzieren. In Verbindung mit dem einheitlichen methodischen Vorgehen erreicht man in der Regel auch mehr Akzeptanz bei den Mitarbeitenden und Beteiligten.

Ein weiterer wichtiger Punkt ist hinsichtlich des Risikomanagements die ganzheitliche Betrachtungsweise im Kontext mit Identifikation, Bewertung und Behandlung von Risiken inklusive des erforderlichen Maßnahmenmanagements. Auch die Pflege eines Rechtskatasters, mit dem gesetzliche und andere verbindliche Anforderungen von Stakeholdern erfasst und überwacht werden, schafft mehr Rechtssicherheit und reduziert Risiken.

Da es heutzutage zunehmend um Nachhaltigkeit und ESG-Kriterien geht, spielt ein IMS auch hier eine Rolle. Durch bessere Informations- und Entscheidungsgrundlagen lässt sich die Wertschöpfung zielgerichteter steuern und die Leistung verbessern, während Fehlleistungen, Reklamationen oder Ausschuss reduziert werden.

Neben zahlreichen Vorteilen eines integrierten Managementsystems gibt es sicherlich auch viele Herausforderungen beim Aufbau und der Pflege. Worauf ist zu achten, damit eine Integration reibungslos funktioniert?

Philipp Hörmann: Sicherlich muss man einen Überblick über die Anforderungen der verschiedenen Bereiche haben, die ein IMS abdecken soll. Hinzu kommt ein solides Normverständnis – sei es als verantwortliche Einzelperson oder innerhalb eines Teams von Managementbeauftragten. Hier gilt es zu unterscheiden und zu berücksichtigen, welche Normen bereichsspezifisch oder übergreifend gültig sind. Dasselbe gilt für die Kenntnis der relevanten Regelwerke. Nur so lassen sich die Synergiepotenziale heben. Auch bei der Dokumentation gilt es dann, dass richtige Maß zwischen der Erfüllung von Anforderungen und einer möglichst einfachen Umsetzung zu finden. Hierbei ist ein grundsätzlich pragmatischer Ansatz sinnvoll. Schließlich sollte man über die Integration hinausdenken. Man muss klären, wie eine Integration so in den Arbeitsalltag gelingen kann, dass sie langfristig funktioniert und von den Mitarbeitenden gelebt wird. Denn eines sollte deutlich werden: Ein gut funktionierendes Managementsystem ist vor allem für die Mitarbeitenden und nicht für die Managementsystembeauftragten oder eine kleine Gruppe gedacht. Schließlich sind die Mitarbeitenden die Nutzer und Anwender.

Aber wie geht man konkret vor, wenn man beispielsweise auf der grünen Wiese beginnt?

Philipp Hörmann: Der beste Rat, den ich hier geben kann, lautet: Auch beim IMS immer vom Prozess her denken. Denn Mitarbeitende haben einen besseren Zugang zum Managementsystem, wenn sie dort ihre Prozesse und ihre Begrifflichkeiten wiederfinden. Die Abläufe des Alltags sollten wiedererkannt werden. Manche Organisationen machen den Fehler, dass sie sich eher an der Kapitelstruktur der Normen orientieren. Zwar unterstützt die „Harmonized Structure“ – eine einheitliche Struktur, nach der viele Normen aufgebaut sind – den Gedanken eines IMS. Die konkrete Gestaltung sollte sich jedoch am jeweiligen Prozess ausrichten. In jedem Schritt ist dann zu fragen, welches Managementsystem gerade zu beachten ist, welche Anforderungen ergeben sich daraus, welche Norm ist relevant und welche Dokumentation bietet sich an? Zumal die Komplexität in den Unternehmen hinsichtlich der Prozesse, Schnittstellen und Entscheidungen immer weiter steigt.

Im Idealfall kann man Mehraufwände durch ein IMS reduzieren, was modular und prozessorientiert aufgebaut ist. Ideal wäre, wenn man nur eine Prozesslandkarte hat und nicht zwei, drei oder vier. So lassen sich auch künftige neue Anforderungen leichter andocken. Falls mehrere Regelwerke und Normen angestrebt werden, ist meine dringende Empfehlung – „Schritt für Schritt“. Integrieren Sie nicht alle Normen auf einmal, sondern planen Sie die Integration nach und nach. Meist sind Mitarbeitende mit dem großen Wurf überfordert. Und kommunizieren sie! Binden Sie auch die oberste Leitung bei der Planung ein. Idealerweise unterstützt sie Sie bei der Kommunikation.

Berufsbild Prozessmanager

Wir leben in einer Zeit geprägt von Digitalisierung und Schnelllebigkeit. Umso wichtiger ist es, dass Unternehmen anpassungsfähig sind und auf veränderte Marktbedingungen eingehen können. Eine kontinuierliche Analyse und Optimierung von bestehenden Geschäftsprozessen ist sowohl für die Kosteneffizienz und Wirtschaftlichkeit, aber auch für die Kundenzufriedenheit von zentraler Bedeutung. Prozessmanager sind also gefragte Arbeitskräfte mit guten Zukunftsaussichten.
Antworten auf die wichtigsten Fragen finden Sie in unserem Berufsbild zum Prozessmanager:

  • Welche Aufgaben betreuen Prozessmanager?
  • Wie werde ich Prozessmanager?
  • Welche Weiterbildungsmöglichkeiten gibt es?
  • Was verdient ein Prozessmanager?
  • Welche Rollen gibt es im Prozessmanagement?

Zum Berufsbild Prozessmanager »

Wie sehen die Verantwortlichkeiten für ein IMS typischerweise in der Praxis aus?

Philipp Hörmann: Das hängt stark von der Unternehmensgröße ab. In kleineren Organisationen erhält der Qualitätsmanagementbeauftragte oft den Auftrag, sich beispielsweise auch um Fragen des Umweltschutzes oder der Arbeitssicherheit zu kümmern. Größere Unternehmen können sich dagegen ein Team aus Spezialisten für den jeweiligen Bereich leisten. Die Teamleitung behält als Managementbeauftragter oder Koordinator für IMS den Überblick, ohne dabei fachlich tief in die Spezialgebiete einzusteigen. In dieser Funktion steht er häufig auch in einer direkten Berichtslinie zur Unternehmensleitung. Keine Frage, wer für das IMS zuständig ist, nimmt eine Schlüsselposition ein. Deswegen setzt diese Funktion – über die fachliche Expertise hinaus – ein breites Kompetenzprofil voraus. Apropos Kompetenzen, die notwendigen Kenntnisse zur Integration von Managementsystemen vermittelt übrigens das neue DGQ-Training „Integrierte Managementsysteme“. Die Premiere im Mai ist vielversprechend gestartet und die Rückmeldungen waren durchweg positiv.

Über welche weiteren Kompetenzen sollte ein Managementbeauftragter für IMS denn verfügen?

Philipp Hörmann: Neben den eher fachlich geprägten “Hardskills” sind auch die “Softskills” wichtig. Wie auch schon als Qualitätsmanager ist man in verschiedenen Rollen unterwegs und füllt verschiedene Funktionen aus: Beziehungsmanager, Kommunikator, Motivator, Einbinder, Stratege, Themenmanager, Übersetzer, Sprachrohr, Überzeuger und Durchsetzer. Da die Integration oftmals mit Change-Prozessen verbunden ist, spielt es eine entscheidende Rolle auch die oberste Leitung und die Beteiligten bei der Planung und Umsetzung einzubinden. Hier steckt viel Erfahrung und Prozesswissen dahinter.

Neuer FQS-Band und Online-Tool zur Bewertung und Verbesserung der kollaborativen Produktentwicklung ab sofort verfügbar

FQS, Reifegradmodell, Produktentwicklung

Die heutige Produktentwicklung ist stark geprägt durch kollaborative Entwicklungsprojekte. Die partnerschaftliche Entwicklung von Produkten erfordert eine enge Abstimmung zwischen den beteiligten Unternehmen, insbesondere hinsichtlich der verschiedenen Prozess- und IT-Schnittstellen. Insbesondere für kleine und mittelständische Unternehmen (KMU) stellt das aufgrund begrenzter Ressourcen eine Herausforderung dar. Um eine erfolgreiche Zusammenarbeit in kollaborativen Entwicklungsprojekten zu gewährleisten, müssen Prozesse, Vernetzung sowie die Bereitstellung von Daten und Modell in ihrer Qualität abgesichert sein.

Im FQS-Forschungsprojekt „DIP – Dynamisches Referenzmodell der IT- und Prozessqualität in der digitalen vernetzten Produktentwicklung in KMU“, durchgeführt von der Technischen Universität Berlin (TU Berlin), wurde ein Reifegradmodell entwickelt, das die Qualität der kollaborativen Produktentwicklung ganzheitlich bewertet und Verbesserungsmaßnahmen zur Steigerung und Sicherung insbesondere der Prozess- und IT-Qualität empfiehlt. Das Kollaborations-Reifegradmodell bietet dafür ein leicht anwendbares Assistenzsystem, welches speziell KMU darin unterstützt, eine dynamische Bewertung in Abhängigkeit vom Projektkontext durchzuführen. KMU erhalten dadurch die Möglichkeit, ihre Entwicklungsumgebung in kollaborativen Projekten einfach, schnell und selbstständig zu bewerten und Optimierungspotentiale zu erkennen.

Dr. Christian Kellermann-Langhagen, wissenschaftlicher Geschäftsführer der FQS, erklärt, wie Unternehmen auf die Forschungsergebnisse zugreifen und von ihnen profitieren können:

„Die Ergebnisse des Forschungsprojektes stehen allen interessierten Unternehmen zur Verfügung. In Zusammenarbeit mit der TU Berlin ist ein FQS-Band im Rahmen der FQS-DGQ-Schriftenreihe erschienen, der Unternehmen in der Anwendung und Nutzung der erarbeiteten Ergebnisse unterstützen soll. Darüber hinaus können Unternehmen mithilfe eines zum Projekt entwickelten Online-Tools die Qualität ihrer Zusammenarbeit selbstständig bewerten. Das individuelle Reifegradergebnis kann im Anschluss als PDF-Datei heruntergeladen werden. Neben Analysen zu den unterschiedlichen Bereichen der Entwicklungsumgebung und der Kollaboration erhalten Unternehmen konkrete Handlungsempfehlungen, um so Verbesserungspotentiale zu heben.

Das Thema verfolgen wir in der FQS auch weiterhin: Vor kurzem ist bei uns das Forschungsvorhaben „METIS“ als Folgeprojekt gestartet, das wir ebenfalls mit der TU Berlin umsetzen. Dieses Forschungsprojekt beschäftigt sich mit der Entwicklung einer niederschwelligen Methode zur Analyse und zweckmäßigen Konfiguration von IT-Tool-Stacks für die kollaborative Produktentstehung.“

 

FQS-Band „Reifegradmodell für die kollaborative Produktentwicklung“ – zum Download »

Online-Tool zur selbstständigen Reifegradbewertung – zum Online-Tool »

Weiterführende Informationen zum FQS-Folgeforschungsprojekt METIS »

Crowdworking qualitätssicher im Unternehmen einsetzen: Neues Projektvideo zeigt Ergebnisse des FQS-Forschungsprojekts „QM für Crowdsourcing“

Die Bedeutung von Crowdsourcing ist in den letzten Jahren stark gestiegen. Bei dieser digitalen Form der Arbeitsorganisation lagern Unternehmen bestimmte Aufgaben mittels eines offenen Aufrufs über das Internet aus. Eine Menge potenzieller Internet-User, die sogenannte „Crowd“, übernimmt die Bearbeitung der Aufgaben und reicht Beiträge zu deren Lösung ein.

Das Spektrum der ausgelagerten Tätigkeiten ist dabei breit gefächert: Es umfasst sowohl komplexe, kreative und entwicklerische Tätigkeiten, wie beispielsweise Ideengenerierung, Innovationen und Produktentwicklung als auch zeitaufwändige Tätigkeiten wie das Markieren von Bildern oder das Programmieren von Makros. Der Einsatz von Crowd-basierten Mechanismen ermöglicht Unternehmen einen einfachen und schnellen Zugriff auf externe Experten sowie Arbeitsleistungen „On Demand“ zu nutzen und interne Ressourcen besser auszuschöpfen. Gerade für kleine und mittelständische Unternehmen (KMU) und Start-ups, die nicht für alle Themen über Fachexperten verfügen, hält Crowdworking große Potenziale bereit.

Die Nutzung der digitalen Arbeitsform stellt jedoch häufig noch eine Herausforderung dar. So stellt sich unter anderem die Frage, inwieweit die Qualität der durch die Crowd eingereichten Beiträge den Erwartungen der Unternehmen entsprechen oder die Beiträge der Crowd Fehler enthalten. Im Rahmen des FQS-Forschungsprojektes „QM für Crowdsourcing“ – durchgeführt von den Fachbereichen Qualitäts- und Prozessmanagement und Wirtschaftsinformatik der Universität Kassel – wurde über einen Zeitraum von zwei Jahren unter anderem ein Referenzprozessmodell mit konkreten Handlungsempfehlungen zur Anpassung und Ergänzung des Qualitätsmanagements entwickelt, das insbesondere KMU dabei unterstützen soll, Crowdsourcing und Crowdworking qualitätssicher einzusetzen.

In einem neu veröffentlichten Projektvideo aus der FQS-Videoreihe stellen die beteiligten Fachbereiche der Universität Kassel die Forschungsarbeiten vor und zeigen, wie Unternehmen von den vorgestellten Lösungen profitieren können. Ergänzt werden die Einblicke durch eine Praxisstimme des am Projekt beteiligten Industriepartners InTec automation GmbH:

QM für Crowdsourcing, FQS, Universität Kassel,

Videoreihe der FQS – Forschungsgemeinschaft Qualität e. V.

Das Projektvideo „QM für Crowdsourcing“ ist Teil einer neuen Videoreihe der FQS – Forschungsgemeinschaft Qualität e.V., die die Arbeit und Themen der FQS als Forschungsarm der DGQ vorstellt und Einblicke in aktuelle Forschungsprojekte gibt. Zur Videoreihe »

 

Möchten Sie mehr zum Thema QM für Crowdsourcing erfahren?

Im nächsten mitgliederexklusiven Chili con Q-Webinar am 29. Juni 2023 von 15:00 bis 16:00 haben Sie die Gelegenheit, das Forschungsprojekt näher kennenzulernen. Sie erfahren:

  • Was es mit den Konzepten Crowdworking und Crowdsourcing auf sich hat
  • Welche Vorteile und Herausforderungen dieser Ansatz mit sich bringt
  • Wie Sie Crowdworking qualitätssicher in Ihrem Unternehmen einsetzen können

Noch kein DGQ-Mitglied? Dann testen Sie jetzt 3 Monate beitragsfrei die DGQ-Schnuppermitgliedschaft und seien Sie beim Webinar am 29. Juni 2023 von 15:00 bis 16:00 Uhr dabei!
Jetzt anmelden »

 

Weitere Informationen zum Projekt und Kontakt:

Zur Projektwebseite „QM für Crowdsourcing“ »

FQS – Forschungsgemeinschaft Qualität e. V.
August-Schanz-Straße 21A
60433 Frankfurt am Main
infofqs@dgq.de

Das Audit – kurz und kompakt erklärt

Audit, Leitfaden

Was ist ein Audit?

Ein Audit im weiteren Sinne bedeutet, eine objektive Analyse zur Verbesserung der Betriebsorganisation systematisch durchzuführen. Mittels Interviews, Beobachtung und Einsichtnahme wird geprüft, ob ein Unternehmen geltende Vorschriften, Gesetze oder Bestimmungen einhält. Als Grundlage dienen zumeist ISO-Normen – zum Beispiel zu Managementsystemen für Qualität, Umwelt, Energie oder zu Branchenspezifika. Informationen aus dem Audit helfen Führungskräften und Abteilungsleitern, solide Entscheidung zu treffen. Dies bietet die Chance für kontinuierliche Verbesserungen der Betriebsorganisation und der Realisierung von Unternehmenszielen.

Warum braucht man ein Audit?

Zwischen einem Qualitätsziel und dem gewünschten Ergebnis steht eine eigene Ablauforganisation. Ein Unternehmen kann in diesem Fall die ISO 9001 für Qualitätsmanagementsysteme oder auch eigene Vorgaben anwenden. Ziel ist es, Betriebsblindheit im Sinne von „Das war schon immer so“ zu überwinden und Handlungsbedarf abzuleiten beziehungsweise den Sinn lange bestehender Vereinbarungen objektiv zu bestätigen oder zu hinterfragen. Gleichzeitig wird durch ein Audit die notwendige Kommunikation gefördert, um organisatorische Verbesserungen umsetzen zu können.

Dabei geht es nicht darum, sämtliche Arbeitsabläufe aus Prinzip regelmäßig zu verändern, sondern auch von bewährten und effizienten Arbeitsweisen zu lernen. Überflüssige Reibungsverluste, Risiken und Fehler können im Rahmen eines Audits erkannt und künftig vermieden werden. Auf der anderen Seite sollten Audits auch immer Stärken und Potenziale einer Organisation identifizieren. Somit erhalten Führungskräfte Informationen, um daraus solide Entscheidungen und Prozessgestaltungen abzuleiten.

Wertvolle Unterstützung zur Erreichung von Unternehmenszielen leisten Audits bei den folgenden Aufgaben:

  • Potenziale zur Optimierung von Prozessen und Arbeitsweisen ermitteln
  • Ein Managementsystem, zum Beispiel für Qualität, Umwelt, Energie, Informationssicherheit, Daten- oder Arbeitsschutz, nach international anerkannten ISO-Standards einführen und weiterentwickeln
  • Eine Einführung oder die Einhaltung einer neuen Vorgabe bewerten
  • Eine Änderung von Abläufen auf ihre Umsetzung in der Praxis prüfen
  • Chancen und Risiken ermitteln
  • Die Auswirkungen von Veränderungen bei Prozessen, Produkten, Standorten und Rahmenbedingungen auf die betriebliche Praxis verfolgen

Wo und wie werden Audits eingesetzt?

Audits können auf verschiedene Weise durchgeführt werden. Die Verbesserung interner Prozesse nennt sich „Internes Audit“ oder 1st party Audit. Hierbei wird die Betriebsorganisation unter die Lupe genommen und bestehende Abläufe hinterfragt. Im Fokus steht dabei, wie man erfolgreich zum Nutzen von Kunden und Unternehmen zusammenarbeiten kann. Ein internes Audit ist daher ein wichtiges Instrument, um interne Kommunikation zu fördern und Verbesserungspotenziale herauszuarbeiten.

Internes Audit

 

In einigen Branchen, wie zum Beispiel der Automobilindustrie, der chemischen Industrie oder der Herstellung von Medizinprodukten ist es üblich, dass B2B-Kunden ihre Lieferanten auditieren. Mithilfe von Lieferantenaudits, auch 2nd party Audits genannt, möchten sich die Abnehmer selbst von der Leistungsfähigkeit der Organisation ihres Lieferanten überzeugen. In einigen Wirtschaftszweigen werden auch nachgelagerte Kundenaudits durchgeführt, um deren Bedarf zu ermitteln.

Lieferantenaudit

 

Um in einer globalisierten und zunehmend schnelllebigen Welt Vertrauen zu schaffen, möchten viele Unternehmen in der Öffentlichkeit und auch den Kunden gegenüber ein Managementsystem nach internationalen Standards vorweisen. Sie lassen sich dazu von einem unabhängigen Zertifizierungsunternehmen prüfen. Das externe Audit oder auch 3rd party Audit ist eine stichproben-basierte Begutachtung. In der Regel wird die Erfüllung der Anforderungen bestimmter Normen, wie der ISO 9001 für das Qualitätsmanagement überprüft. Für die Auditierung dieser Standards existieren kompetente und seriöse Zertifizierungsunternehmen, die eigens dafür akkreditiert sind.

Externes Audit

Die Planung des einzelnen Audits

Auditziel – wozu trägt das Audit bei

Ein Auditziel strategischer Art kann sein, zu prüfen, ob ein neuer Kunde oder eine neue Branche mit den bestehenden Prozessen bedient werden kann.  Ein Auditziel auf der operativen Ebene kann sein, die tatsächliche Umsetzung eines neuen qualitätssichernden Arbeitsablaufs zu prüfen.

Auditkriterien – welche Vorgaben oder Wünsche sollen erfüllt werden?

Auditkriterien sind je nach Auditziel: ISO-Normen für Managementsysteme aller Art, interne Arbeitsanweisungen, Kundenanforderungen, Leistungsindikatoren, Projektauftrag, Gesetze und Vorschriften, Leitfäden oder andere Unternehmensziele und Perspektiven.

Auditart – welcher Bereich wird bei 1st, 2nd oder 3rd party betrachtet?

  • Beim Managementsystemaudit werden Stichproben zur Normerfüllung quer durch alle Prozesse und Organisationseinheiten genommen. Die Unternehmenszentrale ist immer dabei.
  • Das Prozessaudit nimmt Stichproben in einem oder mehreren Prozessen und in den jeweils zuständigen Organisationseinheiten.
  • Das Produktaudit beurteilt sowohl die erreichte Produktqualität als auch den Weg dorthin. Gleiches gilt für ein Dienstleistungsaudit.
  • Das Performance-Audit untersucht eine bestimmte Leistungserbringung.
  • Das Projekt-Audit hilft, Projektfortschritte und Meilensteine zu beurteilen.
  • Das Compliance-Audit prüft, ob rechtliche oder behördliche Vorschriften und ihre organisatorischen Handlungspflichten in den betroffenen Prozessen eingehalten werden.

Auditorganisation – wie erreicht das Audit am besten sein Ziel?

Zum richtigen Zeitpunkt am richtigen Ort zu sein gilt auch für Audits. Zeitlich muss zum Beispiel berücksichtigt werden, ab wann eine Veränderung in der Ablauforganisation in der Praxis sinnvoll geprüft werden kann. Je nachdem, wie sich eine aussagekräftige Stichprobe zum Auditziel gestaltet, sind Standorte, Bereiche und zu befragende Personen festzulegen.

Die Auditmethode beinhaltet zumeist einen Mix aus Dokumentensichtung, Ortsbegehung, Beobachtung und Befragung. Es können Umfragen initiiert werden, Einzel- oder Gruppengespräche stattfinden. Wichtig ist, die richtigen Personen zum Thema zu befragen und fragen zu lassen. Sie benötigen teils Fachwissen, teils den Überblick über den auditierten Bereich.

Die Kompetenz der Auditoren ist eine ebenso wichtige Voraussetzung für ein gelungenes Audit wie die Kooperation der daran Beteiligten.

Hybride Varianten des Audits

Neben der Durchführung von Audits in Präsenzform bietet die Digitalisierung eine Möglichkeit, Audits durchzuführen, ohne physisch anwesend zu sein. Auch hybride Varianten der Begutachtung von Prozessen werden in der Unternehmenspraxis immer relevanter. Es gibt unterschiedliche Möglichkeiten, diese Remote-Auditmethoden anzuwenden. Dank des heutigen Stands der Technik lassen sich alle Auditstufen auf diese Weise abbilden. Nachfolgend finden Sie eine kurze Erläuterung der möglichen Ausgestaltungen:

Fully Remote Audit

Alle Auditierenden sind nicht am Ort des Geschehens, sondern entweder im Homeoffice, arbeiten mobil oder sind in der Zentrale einer Organisation und auditieren einen anderen Standort. Geeignet sind vollständige Remote Audits grundsätzlich für Organisationen aller Größen in allen Wirtschaftssektoren. Die Einsparpotenziale bezüglich Reisekosten und -zeiten kommen in diesem Format vollständig und umfänglich zur Geltung.

Partly Remote Audit

Partly Remote beschreibt eine Mischform, bei dem das Audit nur teilweise vor Ort stattfindet und/oder beispielsweise Auditierender und Co-Auditierender von unterschiedlichen Orten aus auditieren.

Remote System Analysis, Remote Readiness Checks

Hierbei handelt es sich um Audits, die Ihren Schwerpunkt bei der Betrachtung, Analyse und Bewertung von Dokumenten haben. Dies sind Prozesse, Verfahren, Anweisungen, Leitlinien und Strategien – im weitesten Sinne also Vorgabedokumente.

Remote Follow-up

Ein weiteres, grundsätzlich gut als Remote Audit durchführbares Themenfeld sind Schließungen von Abweichungen aus zurückliegenden Audits beziehungsweise auch die darin eingebettete Bewertung der Wirksamkeit einer Maßnahme. Überall dort, wo keine persönliche Inaugenscheinnahme notwendig ist, kann dies als Fernbewertung absolviert werden.

E-Learning: Remote Audit

Sie möchten Ihr Wissen zu diesem spannenden Zukunftsthema weiter vertiefen? Dann buchen Sie gerne unser E-Learning zum Remote Audit und lernen das wichtigste Handwerkszeug, um Remote Audits im Alltag umzusetzen. Hier geht es zum E-Learning.

(mehr …)

DGQ-Fachkreis-Veröffentlichung zu Remote Audits findet Eingang in internationale Normung

Die DGQ treibt das Thema Remote Audits auf internationaler Ebene voran: Ein kürzlich veröffentlichtes Impulspapier des DGQ-Fachkreises Audit und Assessment hat direkten Eingang in ein aktuelles Normungsvorhaben der Internationalen Organisation für Normung (ISO) gefunden. Das Papier mit dem Titel „Das Remote Audit als zukunftsweisende Methodik für risikobasierte Audits“, das einen fachlichen Überblick über die wichtigsten Rahmenbedingungen für erfolgreich durchgeführte „Audits aus der Ferne“ enthält, dient in englischer Sprache dem ISO-CASCO-Ausschuss bei dessen Normungsvorhaben ISO 17012 als Orientierung. Ziel ist ein Leitfaden für die Durchführung von Remote Audits.

Die DGQ ist gleich in mehrfacher Weise an der Entstehung der ISO 17012 beteiligt: Ihre Vertreter, Thomas Votsmeier, Leitung Normung bei der DGQ, sowie Matthias Wernicke, Leiter des DGQ-Fachkreises Audit und Assessment, wirken zudem sowohl im entsprechenden DIN-Normungsausschuss als auch direkt in der Arbeitsgruppe WG 61 mit.

Hintergrund: Methoden zur Fernbewertung

Fernmethoden werden bereits seit mehreren Jahren für die Auditierung virtueller Tätigkeiten eingesetzt, haben im Zuge der Corona-Pandemie jedoch an Bedeutung gewonnen. Neben dem Vorteil der ortsunabhängigen Bewertung bietet das Remote Audit auch das Potenzial, Ressourcen in Form von Personal- und Reisekosten einzusparen. Umgekehrt erfordert die Durchführung von Remote Audits auch eine umfassende Vorausplanung bezüglich Themen wie Vertraulichkeit, Datensicherheit, Infrastruktur oder der Verfügbarkeit technischer Ressourcen.

Das Normungsvorhaben ISO 17012 war im Herbst vergangenen Jahres gestartet. Interessierte finden das Impulspapier des Fachkreises hier.

 

8. Norddeutscher Qualitätstag thematisiert Rolle und Praxis des QM in Unternehmen

Norddeutscher Qualitätstag, NQT

Am 21. Juni 2023 lädt die DGQ wieder alle Qualitätsinteressierten zum Norddeutschen Qualitätstag nach Hamburg. Bei dieser Hybridveranstaltung ist eine Teilnahme sowohl in Präsenz als auch online möglich.

In einleitenden Keynotes thematisieren hochkarätige Referenten aus unterschiedlichen Perspektiven den Stellenwert des Qualitätsmanagements in Organisationen und die damit verbundene eigene Rolle. Stefanie Hirsch, President Quality & Regulatory Affairs bei der Drägerwerk AG in Lübeck, gibt praxisnahe Einblicke, wie Qualitätskommunikation im Unternehmen gelingen kann. Jens Portmann, Geschäftsführer der renommierten Hamburger Kommunikationsagentur „Zum goldenen Hirschen”, zeigt, wie Kreativität bei unternehmerischen Herausforderungen hilft – und ungewöhnliche, aber dadurch oft bessere Lösungen liefert.

Aus der Praxis für die Praxis

Neben den beiden spannenden Vorträgen erwartet die Teilnehmerinnen und Teilnehmer des 8. Norddeutschen Qualitätstages ein umfangreiches Workshop-Programm mit konkreten Beispielen aus der Praxis rund um das Prozess- und Qualitätsmanagement. Partner der Veranstaltung sind neben der Deutschen Gesellschaft für Qualität e.V. (DGQ) die ConSense GmbH, die Deutsche Gesellschaft zur Zertifizierung von Managementsystemen (DQS) sowie die Fachzeitschrift QZ Qualität und Zuverlässigkeit.

Die praktische Umsetzung und der direkte Austausch stehen im Mittelpunkt des Workshop-Angebots am Nachmittag. Suchen Sie sich das Thema aus, dass Sie am meisten interessiert:

Online und vor Ort

  • Warum das Qualitätsmanagement den entscheidenden Beitrag für Unternehmenserfolg leisten wird
    Sören Hagge und Dennis Larrabe von Robin Consulting
  • Lasst uns gemeinsam Prozesse neu denken
    Mirko Kloppenburg, Gründer, NewProcessLab.com

Ausschließlich vor Ort, nicht online

  • Liefersorgfaltspflichtengesetz: Lieferantenmanagement einführen
    Altan Dayankac, Global Program Manager EMS, OHS, EnMS & Sustainability Corporate Management System, DQS
  • Effiziente Managementreviews: Wie begeistern wir unsere Geschäftsleitung?
    Michael Weubel, Senior Consultant, ConSense GmbH
  • Agil auditieren
    Pasqual Jahns, Global Director Process Management, Symrise AG gemeinsam mit dem DGQ-Fachkreis Audit und Assessment (Marita Großer und Mike Voß)
  • Mit Introvision lösen Sie Ihre Stressprobleme
    Dr. Klaus Köpnick, Ingenieur, promovierter Arbeits- und Organisationspsychologe und Coach

Das vollständige Programm ist ebenfalls verfügbar zum Download »

 

Der 8. Norddeutsche Qualitätstag bietet damit eine einzigartige Möglichkeit zum Wissensaustausch und Networking für Fach- und Führungskräfte im Qualitätsmanagement.

Wir freuen uns, wenn Sie mit dabei sind!

 

Informationen zur Anmeldung

Wann: Mittwoch, 21. Juni 2023, von 10:00 Uhr bis 16:00 Uhr
Wo: FOM Hochschulzentrum, Schäferkampsallee 16a, 20357 Hamburg oder online
Kosten:
Online-Teilnahme: 49,- € zzgl. MwSt. (29,- € zzgl. MwSt. für DGQ-Mitglieder)
Präsenz-Teilnahme: 99,- € zzgl. MwSt. (69,- € zzgl. MwSt. für DGQ-Mitglieder)

Zur Anmeldung »

Zum Programm (PDF-Download) »

 

Als DGQ-Mitglied können Sie – sowohl online als auch in Präsenz – zum reduzierten Kostenbeitrag teilnehmen. Sie sind noch kein Mitglied? Dann nutzen Sie doch für die Anmeldung unsere beitragsfreie, dreimonatige Schnuppermitgliedschaft.

Haben Sie Fragen? Nehmen Sie gern Kontakt mit uns in der DGQ-Geschäftsstelle Hamburg auf! Einfach per E-Mail an hamburg@dgq.de oder telefonisch unter 040 28533531-452. Bei allen organisatorischen Fragen und Rückfragen zur Anmeldung hilft Ihnen auch unser Veranstaltungspartner ConSense GmbH (events@consense-gmbh.de, 0241 990 93 93 0) weiter.

Deutsche Gesellschaft für Qualität 591 Bewertungen auf ProvenExpert.com