Blockchain und Nachhaltigkeit – Von der Vision zur belastbaren Datenbasis

Es gibt viele Gründe, warum Blockchain jetzt auf die Nachhaltigkeitsagenda von Unternehmen gehört: Dort, wo Nachvollziehbarkeit, Integrität und Automatisierung von Nachhaltigkeitsdaten zählen, wird sie zum strategischen Werkzeug. Regulatorische Anforderungen wie CSRD/ESRS, CSDDD/LkSG oder EUDR zwingen Unternehmen zu prüffesten, zeitnahen und möglichst automatisierten Nachweisen entlang der Wertschöpfungskette. Klassische Mittel wie Excel, manuelle Freigaben oder verteilte, heterogene IT-Systeme stoßen hier an Grenzen. Medienbrüche, Versionsprobleme und eingeschränkte Auditfähigkeit gefährden Glaubwürdigkeit und Effizienz der Prozesse. Blockchain adressiert genau diese Schwachstellen. Sie liefert eine unveränderbare, verteilte und transparente Datenbasis, auf der Nachhaltigkeitsinformationen fälschungssicher dokumentiert, geteilt und geprüft werden können.
Was die Blockchain-Technologie leisten kann
Die Technologie zeichnet sich durch folgende Kernprinzipien aus:
- Unveränderlichkeit
Einmal gespeicherte Daten lassen sich nicht stillschweigend manipulieren. Das ist ideal für Nachweise zu Herkunft, Emissionen oder Zertifikaten. - Dezentralität
Daten liegen gleichzeitig auf vielen „Knoten“. Das erhöht Ausfallsicherheit und senkt Manipulationsrisiken. - Transparenz & Nachvollziehbarkeit
Eine sogenannte Hash-Verkettung macht jeden Schritt historisch prüfbar: Hash-Ketten bezeichnen die kryptografische Verkettung von Datenblöcken, bei der jeder Block den Hashwert des vorherigen enthält und so die Integrität und Unveränderlichkeit der gesamten Datenkette sicherstellt. Ownership und Übergaben sind damit lückenlos dokumentiert. - Technologiegestütztes Vertrauen
„Trust by Design“ ersetzt Teile des institutionellen Vertrauens. Das ist bei global verteilten Lieferketten besonders wichtig.
Einfach gesagt, Blockchain konserviert Wahrheit – allerdings auch Irrtum. Ohne eine Sicherstellung von belastbaren Eingabedaten (Audits, Sensorik, Mehr-Augen-Prinzip, Standards) zum Eintrittspunkt wird auch schlechte Qualität unveränderbar. Data-Quality-by-Default ist daher Pflicht.
Wo Blockchain im Nachhaltigkeitskontext punktet
Im Rahmen einer Arbeitsgruppe im Fachkreis Nachhaltigkeit der DGQ haben sich mehrere Wissenschaftler:innen und Praktiker:innen zu diesem neuen, komplexen und spannenden Thema ausgetauscht. Das Ergebnis ist in einer interaktiven Datei auf DGQplus mit fachlichen wie auch praktischen Impulsen abgebildet.

Abb. 1: Blockchain im “Alltag” (©DGQ-Fachkreis Nachhaltigkeit)
Im Rahmen der Fachkreisarbeit wurden insbesondere die Bereiche der Lieferketten-Transparenz und Herkunftsnachweise, CO₂-Bilanz und Emissionsdaten, Kreislaufwirtschaft und Produktpässe, Soziale Nachhaltigkeit und Due Diligence sowie Zertifizierung und Reporting als solche mit Potenzial der Blockchain-Anwendung identifiziert und näher betrachtet: So können etwa vom Kobalt aus zertifizierten Minen über Bio-Baumwolle bis FSC-Holz Übergabepunkte, Verarbeitungsschritte und Mengen fälschungssicher erfasst werden. Das reduziert Greenwashing-Risiken und ermöglicht Transparenz, zum Beispiel via QR-Code direkt am Produkt.
Auf das „Internet of Things“ gestützte Messwerte (etwa im Hinblick auf Scope 1–3 bei der Nachhaltigkeitsberichterstattung) können in Echtzeit „on-chain“ protokolliert, pro Produktcharge aggregiert und für Berichte ausgewertet werden. Im CO₂-Zertifikatehandel können Transaktionen als sogenannte Token, also digitale Abbilder von Werten oder Rechten auf der Blockchain, automatisch über Smart Contracts abgewickelt werden. Digitale Zwillinge bilden Materialzusammensetzung, Reparaturen und End-of-Life-Pfade ab. Token-basierte Anreizsysteme können die Rückgabe von Produkten, Komponenten oder Materialien fördern. So werden Re-Use und Recycling für Unternehmen messbar und wirtschaftlich attraktiver. On-chain Audit-Trails, digitale Identitäten und Schulungsnachweise können die Nachweisqualität in Arbeits- und Menschenrechtsfragen erhöhen. Das hilft, Human-Rights-Due-Diligence nachvollziehbar zu machen.
Und schließlich: Digitale Zertifikate (Bio, Fair Trade etc.) können manipulationssicher hinterlegt werden, Nachhaltigkeitsinformationen teilbar und für Prüfer:innen verifizierbar gemacht werden. Das könnte ein Hebel für zukünftige VSME- und CSRD-konforme Berichte sein.
Rückverfolgbarkeit als gemeinsames Fundament
Konkret verbindet Blockchain Qualitätsmanagement und Nachhaltigkeit, indem Rückverfolgbarkeit zum Fundament für Qualitäts- wie Nachhaltigkeitsnachweise wird. Sogenannte Smart Contracts automatisieren Prüfschritte, Freigaben und Reklamationsprozesse. Der kontinuierliche Verbesserungsprozess findet auf Basis valider Echtzeitdaten anstelle rückwirkender Rekonstruktion statt. Gleichzeitig gilt es, digitale Altlasten zu entsorgen. Denn wer auf manuelle Listen und Insellösungen setzt, verhindert skalierbare Nachweise und somit auch den Nutzen von Blockchain.
Die nachfolgende Tabelle zeigt den Nutzen in verschiedenen Branchen:
| Branche | Anwendung |
|---|---|
| Automotive | Teileauthentizität, Fahrzeughistorien, CO₂-Bilanz entlang Stahl/Aluminium, Smart-Charging, P2P-Energiehandel |
| Maschinenbau, Prozessindustrie | Sensorprotokolle, On-chain-Parameter (Druck/Temperatur), Emissions-Monitoring mit Grenzwert-Automatik |
| Elektronik | Echtheitszertifikate, End-of-Life-Rückverfolgung für Wertstoffe |
| Textil/Lebensmittel | Herkunft, faire Arbeit, Lot-Tracking, Rückrufmanagement, Abfallreduktion |
| Pharma/Medizin | Chargen-/Wirkstoffkontrollen, Fälschungsschutz |
Herausforderungen der neuen Technologie
Kritik an der Blockchain-Technologie zielt häufig auf den hohen Energiebedarf. Dieser wird verursacht durch das sogenannte Proof-of-Work (PoW)-Verfahren: Ein Verfahren, bei dem viele Computer schwierige Rechenaufgaben lösen müssen, um Transaktionen zu bestätigen. Das ist sehr sicher, jedoch extrem energieintensiv. Moderne Unternehmens- und Branchenlösungen setzen daher auf energieeffizientere Konsensverfahren wie „Proof-of-Stake“ – ein Verfahren, bei dem zur Transaktionsbestätigung sogenannte Coins eingesetzt werden, also eigene Kryptowährungen einer Blockchain. Dieses ist effizienter, weil kein aufwendiges Rechnen nötig ist. Alternativ wird auch das „Proof-of-Authority“-Verfahren genutzt, bei dem nur ausgewählte, geprüfte Teil-nehmende Transaktionen bestätigen dürfen. Das ist ebenfalls schnell und gleichzeitig energiearm.
Gleichzeitig entsteht durch die Blockchain-Technologie konkreter Mehrwert im Energiesektor. Herkunftsnachweise und Stromhandel ermöglichen die fälschungssichere Dokumentation sowie die direkte Vermarktung erneuerbarer Erzeugung. Zu weiteren Hürden gehören auch uneinheitliche Standards und Rechtsrahmen (einschließlich der teils fehlenden Anerkennung von Smart Contracts), praktische Implementationshemmnisse wie Anfangsinvestitionen, erforderliche IT-Reife und die Anbindung an Altsysteme sowie Wissenslücken und Akzeptanzprobleme, weil Blockchain noch oft mit Bitcoin gleichgesetzt wird. Die Konsequenz ist klar: Ohne belastbare Governance, stringentes Change-Management und eine saubere Zielarchitektur bleibt der Nutzen von Blockchain diffus.
Vorgehen bei Implementierung von Blockchain
Für die Umsetzung in der Praxis ist es wichtig, dass es einen passenden Projekt-Case im Unternehmen gibt. Dieser ist daran zu erkennen, dass eine hohe Beleglast vorliegt, mit vielen Übergaben, Zertifikaten und Prüfungen, sodass Datenfehler spürbaren Schaden verursachen würden. Ihre Stärken entfaltet die Blockchain-Technologie insbesondere in verteilten Ökosystemen mit vielen Akteuren und Regionen, in denen technologiebasiertes Vertrauen skaliert. Maßgeblich ist zudem ein klarer Business-Impact durch die Nutzung der Blockchain-Technologie – messbar an geringerem Audit- und Reportingaufwand, reduzierten Rückrufkosten, höheren Rückgabequoten und einem schnelleren Time-to-Market. Auf Umsetzungsebene zählen eine energieeffiziente Architektur ohne Proof-of-Work im Enterprise-Kontext und eine nachvollziehbare Nachhaltigkeitsbilanz des IT-Stacks sowie eine interoperable Plattformstrategie, die die Anschlussfähigkeit an bestehende Brancheninitiativen und Standards sicherstellt. Abbildung 2 zeigt vereinfacht die fünf Schritte, wie bei der Umsetzung vorgegangen werden kann.

Abb. 2: Vorgehen bei Implementierung von Blockchain (©DGQ-Fachkreis Nachhaltigkeit)
Fazit
Blockchain wird zum Gamechanger, wenn sie gezielt dort eingesetzt wird, wo Integrität der Daten und Automatisierung den größten Unterschied machen, zum Beispiel in Lieferketten, bei CO₂-Bilanz, in der Kreislaufwirtschaft oder bei Zertifizierungen. Die Technologie ist jedoch kein Selbstzweck. Ihr Wert entsteht in der Verbindung aus Datenqualität, Standards, Governance und Interoperabilität. Am besten starten Unternehmen mit einem fokussierten Pilotprojekt, sichern die Datenqualität ab, automatisieren sie mit Smart Contracts und skalieren sie entlang klarer Kennzahlen. So wird aus „Hype“ prüffähige Realität und aus Nachhaltigkeits- sowie Qualitätspflichten ein Wettbewerbsvorteil.
Prof. Dr. Linda Chalupová ist Nachhaltigkeitsexpertin, Autorin und zertifizierte Aufsichtsrätin mit den Kernkompetenzen zum nachhaltigen Wirtschaften und Innovationen. Mit Ihrer Professur für Umwelt- und Nachhaltigkeitswissenschaften an der Hoch-schule Fulda strebt sie an, die Wissenschaft und Praxis voneinander profitieren zu lassen und so möglichst zügig effektive Lösungen für eine nachhaltige Entwicklung bereitzustellen. Sie engagiert sich in mehreren Arbeitsgremien, Beirats- und Vorstän-den sowie bei der DIN und ISO. Darüber hinaus ist sie Mitglied der Leitung des DGQ-Fachkreises Nachhaltigkeit. Luise Fuchs hat Oecotrophologie an der Hochschule Fulda studiert. In Ihrer Abschlussarbeit hat sie sich mit der Blockchain-Technologie und ihrem Einsatz in der Ernährungsindustrie beschäftigt. Dr.-Ing. Markus Kröll verantwortet den Geschäftsbereich „Nachhaltige Industrie“ am Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA, nachdem er zu-vor bereits mehrere Jahre erfolgreich die Abteilung »Nachhaltige Produktion und Qualität« geführt hat. Gleichzeitig leitet er auch das S-TEC Zentrum für Ultraeffizienz (ZUE). Davor war er über 20 Jahre in der Automobilindustrie in verschiedenen verantwortlichen Leitungsfunktionen sowohl bei OEM als auch als Engineering Leiter bei einem Anlagenhersteller im Mittelstand tätig. Er bringt seine langjährige Praxiserfahrung und insbesondere Digitalisierungsexpertise in die Nachhaltigkeitsthemen im Produktionsumfeld ein und entwickelt mit seinem Team zielgerichtete, praxistaugliche Lösungen aller Nachhaltigkeitsfacetten für die Industrie. Dr. Bernhard Krömer, INGENIEURBÜRO DR. KRÖMER Mit über 30 Jahren Berufserfahrung, davon 25 Jahre in Führungspositionen der Industrie und fünf Jahre als Berater, sowie einer Promotion im Bereich integrierter Managementsysteme und zahl-reichen Zertifizierungen verfügt Dr. Krömer über umfassende Kenntnisse der Anforderungen von KMU und Konzernen. Er verfolgt einen ganzheitlichen, theoretisch fundierten und praxiserprobten Beratungsansatz. Seine Beratung deckt wesentliche Themenfelder wie Strategie- und Organisationsentwicklung, integrierte Managementsysteme und Qualitätsmanagement, Prozessoptimierung, KI-Management, IT-Sicherheit und Datenschutz sowie Umwelt- und Arbeitsschutz, Nachhaltigkeit und CSR ab und bietet praxisbewährte Lösungen aus einer Hand mit klarer Verantwortlichkeit. Prof. Dr.-Ing. Irina Mazilu-Eyaz ist Qualitäts- und Nachhaltigkeitsexpertin mit den Kernkompetenzen im industriellen Qualitätsmanagement und der interdisziplinären Verbindung von Technik und Nachhaltigkeit mit dem Schwerpunkt Circular Economy. In ihrer Professur für Qualitätswesen an der Hochschule Pforzheim bringt sie ihre langjährige Praxiserfahrung aus der Industrie in die Lehre ein. Zuvor war sie über elf Jahre in unterschiedlichen Funktionen im Qualitätsmanagement bei der Robert Bosch GmbH tätig. Sie engagiert sich als Vorstandsmitglied der Forschungsvereinigung Qualität e. V. (FQS) sowie in der Deutschen Gesellschaft für Qualität (DGQ), wo sie bis 2025 Teil des Leitungsgremiums des Fachkreises Nachhaltigkeit war.
Über die Autor:innen
“Circularity is no longer optional; it is an economic and societal necessity”

Juha Ylä-Autio, chief executive officer of excellence finland, explains the importance of the circular economy in an interview with DGQ. He also mentions the most important levers for the further establishment of the circular economy in Europe and the skills that employees in companies need.
Why is the circular economy no longer just “nice to have,” but strategically important for companies today?
Juha Ylä-Autio: The circular economy has moved from an environmental aspiration to a strategic business priority. Three forces drive this shift: regulatory pressure, cost volatility in materials and energy, and rapidly rising customer expectations. Companies that integrate circularity into their core business – rather than treating it as a side project – strengthen resilience, reduce dependency on scarce resources, and improve long-term competitiveness.
I have worked on circular economy issues for more than ten years, and I have seen firsthand what happens when the system breaks down: the waste mountains around cities such as Milan, Rome and other large European urban areas underline how the linear model has reached its limits. We simply cannot continue along that path. Circularity is no longer optional; it is an economic and societal necessity.
Can you share examples of companies that have already gained a competitive advantage by implementing circular economy practices?
Juha Ylä-Autio: Several Finnish and European companies demonstrate this clearly. In Finland, industrial and construction companies recovering steel, concrete and other secondary materials are already reducing costs and winning tenders because circularity is embedded in their operations. In Europe, manufacturers designing long-life, repairable and modular products benefit from recurring revenue streams through service-based business models. Their advantage comes not only from sustainability, but from efficiency, reliability and lifecycle performance.
How can the circular economy be implemented along international supply chains?
Juha Ylä-Autio: Three elements are decisive: transparency, standardization and collaboration. International supply chains must evolve from transactional steering to data-driven partnerships. Digital traceability – material passports, lifecycle data and harmonised reporting – allows companies to understand where materials originate and where they end up. When key suppliers share data and commit to joint improvement targets, circular practices become scalable across borders.
What are the most significant regulatory developments at the EU level that are relevant to the circular economy?
Juha Ylä-Autio: The most influential developments are the Circular Economy Action Plan (CEAP), the Eco-design for Sustainable Products Regulation (ESPR), the revisions to the Waste Framework Directive, and the increasing pressure from taxonomy-linked disclosure requirements under CSRD. These frameworks shift responsibility upstream: design, durability, repairability and data transparency are now compliance topics. They will reshape European industries significantly before 2030.
How would you describe the current level of circular economy implementation in Finnish companies?
Juha Ylä-Autio: Finland performs strongly on strategy, innovation and collaboration, but implementation varies by sector. Large industrial companies – forestry, metal, energy and construction – have integrated circularity into investment decisions and operational processes. SMEs are motivated but uneven in practice, often due to limited resources or lack of data. The foundations are solid, but scaling and commercialization remain key challenges.
What differences do you observe across European countries? Are there any national or regional particularities?
Juha Ylä-Autio: Nordic countries lead in digitalization, regulatory readiness and cross-sector cooperation. Germany and the Netherlands are strong in industrial-scale technical solutions and market-driven circular models. Southern Europe is progressing but faces structural challenges, although regulatory pressure has accelerated movement. The key differentiator across the EU is capability: data availability, ecosystem maturity and investment capacity matter more than ambition alone.
Which political or market conditions at the EU level could facilitate or accelerate the implementation of the circular economy?
Juha Ylä-Autio: Three conditions would provide immediate acceleration:
- More harmonised standards for reporting, material passports and product requirements.
- Incentives for secondary materials, reducing barriers to reuse, repair and remanufacturing.
- Clear integration of circular criteria into public procurement. When EU markets consistently reward long-lasting and resource-efficient products, companies will scale circular investments more rapidly.
How do you see the relationship between the circular economy, quality and quality management?
Juha Ylä-Autio: Quality management is the operational backbone that makes circularity viable. Circular business models require reliable processes, stable performance and consistent data across extended value chains. Without strong quality systems, circular initiatives remain pilots; with them, they become repeatable and profitable. In many ways, circularity is fundamentally a quality challenge: designing systems that maintain value for as long as possible.
With that in mind, how are skill requirements for employees changing—and how can training, knowledge transfer or collaboration support this transition?
Juha Ylä-Autio: Skill requirements are shifting rapidly toward lifecycle thinking, systems understanding, data competence and cross-functional teamwork. Circularity is no longer the responsibility of sustainability departments alone—it affects product development, procurement, logistics, maintenance and leadership.
Training, networks and international collaboration are essential to support this transition. They help companies translate regulation into practice, build shared understanding and develop the capabilities necessary for circular business models.
After more than a decade working with circular economy themes, one conclusion is clear: the transition succeeds only when organisations build the skills and habits that make circularity part of everyday work—not an exception.

Über den Interviewpartner:
Juha Ylä-Autio ist seit 2020 Chief Executive Officer der finnischen Qualitätsgesellschaft excellence finland. Zuvor war er seit 2003 in der finnischen Schifffahrtsindustrie in verschiedenen Geschäftsführungspositionen tätig, ehe er 2011 in den Bereich der Kreislaufwirtschaft wechselte.
„Für die SAQ ist Nachhaltigkeit ein integraler Bestandteil des umfassenden Qualitätsbegriffs“

Im Interview mit der DGQ erläutert Dr. Prisca Zammaretti, Geschäftsführerin der SAQ Swiss Association for Quality, die Schweizer Sicht auf Nachhaltigkeit. Außerdem berichtet sie, in welcher Form sich die SAQ bei diesem Thema engagiert und wie sich Nachhaltigkeit und Qualität integriert denken lassen.
Welchen Stellenwert genießt „Nachhaltigkeit“ in der Schweiz?
Zammaretti: Nachhaltigkeit hat in der Schweiz einen hohen gesellschaftlichen und wirtschaftlichen Stellenwert. Öffentliche Verwaltungen, Hochschulen und zahlreiche Unternehmen berichten inzwischen systematisch über ihre Nachhaltigkeitsziele und -maßnahmen. Themen wie ESG-Standards, Transparenz in der Berichterstattung sowie Energie- und Klimapolitik haben deutlich an Bedeutung gewonnen.
Gleichzeitig zeichnen internationale Indizes ein differenziertes Bild: Während Umwelt- und Ressourcenindikatoren meist positiv ausfallen, wird die Schweizer Klimapolitik und der Übergang zu erneuerbaren Energien teilweise als zögerlich bewertet. Die aktuelle geopolitische und wirtschaftliche Lage beeinflusst zudem das Tempo der Umsetzung. Insgesamt lässt sich sagen: Das Interesse und die Aktivitäten sind groß – doch Politik und Wirtschaft stehen zunehmend unter Druck, Ambitionen weiter zu steigern und Umsetzung zu beschleunigen.
Wo steht die Schweiz im europäischen Vergleich? Gibt es nationale Besonderheiten?
Zammaretti: Die Schweiz zählt in Europa zu den Umweltvorreitern – etwa bei Luftqualität und Abfallmanagement. In der Klimapolitik bleibt sie dagegen zurück: Der Ausbau erneuerbarer Energien stagniert, und internationale Bewertungen sehen Nachholbedarf. Föderale Strukturen, wirtschaftliche Besonderheiten und ein aktiver zivilgesellschaftlicher Diskurs prägen diesen ambivalenten Situationen.
Wie wirken sich EU-Vorgaben auf die Schweiz aus? Gibt es umgekehrt Schweizer Regelungen mit Einfluss auf EU-Staaten?
Zammaretti: Die Beziehungen zwischen der Schweiz und der Europäische Union (EU) sind durch einen spürbaren Einfluss der EU auf die Schweiz und durch einen milderen Einfluss der Schweiz auf die EU gekennzeichnet.
Hinsichtlich des Einflusses der EU auf die Schweiz lässt sich feststellen: Obwohl die Schweiz kein EU-Mitgliedstaat ist, steht sie in vielen regulatorischen Feldern unter dem Druck, EU-Standards zu übernehmen. Beispiele: Im Energiebereich verhandelt die Schweiz aktuell ein Abkommen mit der EU über den Zugang zum europäischen Strommarkt („Elektrizitäts- beziehungsweise Strommarktintegration“) mit dem Ziel, die rechtliche Basis für grenzüberschreitenden Stromhandel und Netzstabilität zu schaffen.
In anderen Bereichen wie Lebensmittel- und Produktsicherheit, Forschung (zum Beispiel Programme wie Horizon Europe) sowie digitale Regulierung wirkt die EU ebenfalls direkt oder indirekt auf die Schweiz ein. Damit ergibt sich: Die Schweiz übernimmt zwar nicht automatisch sämtliche EU-Vorgaben, aber Markt- und Regelzugang sowie wirtschaftliche Verknüpfungen führen zu einer starken Orientierung an EU-Regulierung.
Zum Einfluss der Schweiz auf die EU lässt sich festhalten: Der direkte regulatorische Export der Schweiz in großem Stil in die EU ist selten. Vielmehr zeigt sich der Einfluss eher indirekt: Schweizer Unternehmen in den Bereichen Finanzdienstleistungen, Chemie und Life Sciences gelten international als Vorreiter in Standards oder Good-Practices, die in Teilen auch in der EU wahrgenommen werden. Zudem kann Schweizer Rechtsprechung oder zivilgesellschaftlicher Aktivismus — etwa Gerichtsfälle zu Menschenrechten oder Klimafragen — Impulse für EU-Debatten liefern.
Allerdings besitzen solche Impulse meist weniger normative Kraft als die EU-Regulierungen, welche auf die Schweiz wirken. Zusammenfassend kann man sagen, dass die Schweiz sich also in einer „asymmetrischen“ Beziehung zur EU befinden: Viel stärker geprägt durch EU-Regulierungen, als dass sie selbst große regulatorische Impulse in der EU setzt. Für die Schweiz ergibt sich daraus ein permanenter Balanceakt zwischen regulatorischer Anpassung und nationaler Autonomie.
Welche Bedeutung hat „Nachhaltigkeit“ für die SAQ und hat sich die Rolle in den letzten Jahren verändert?
Zammaretti: Für die SAQ Swiss Association for Quality ist Nachhaltigkeit heute ein integraler Bestandteil des umfassenden Qualitätsbegriffs. Die SAQ versteht Qualität nicht mehr bloß als Prozess‑ und Qualiätssystemoptimierer, sondern verankert Umwelt‑, Energie‑, Gesundheits‑ und Governance‑Aspekte im Sinne einer integrierten Managementperspektive.
In den letzten Jahren hat sich die Rolle der SAQ spürbar erweitert: Neben herkömmlichen Angeboten zur Prozess‑ und Managementoptimierung bietet sie zunehmend Plattformen, Weiterbildung und Zertifizierungen zu Nachhaltigkeitsthemen – etwa im Bereich Reporting oder Nachhaltigkeitsmanagement.
Damit reagiert die SAQ auf das veränderte Umfeld: Wettbewerbsfähigkeit heute hängt nicht allein von Produkt‑ und Servicequalität ab, sondern auch von der Fähigkeit einer Organisation, Nachhaltigkeitsanforderungen systematisch zu adressieren. Qualität und Nachhaltigkeit werden so miteinander verknüpft.
Mit welchen Aktivitäten engagiert sich die SAQ für dieses Thema?
Zammaretti: Die SAQ engagiert sich in vielfältiger Weise für das Thema Nachhaltigkeit:
- Sie organisiert regelmäßig Fachveranstaltungen und Tagungen — etwa rund um Themen wie Qualität und Nachhaltigkeit oder „Nachhaltigkeit bei …“ in einzelnen Branchen.
- Über ihre Tochtergesellschaft SAQ QUALICON AG und ARIAQ SA bieten sie Seminare und Zertifikatskurse zu Nachhaltigkeits- und Umweltmanagement an, unter anderem mit Modulen wie „Nicht finanzielle Berichterstattung“, „Nachhaltigkeit in der Lieferkette“ oder „Umweltmanagementsysteme“.
- Im Verbandsorgan „MQ Management und Qualität“ erscheinen Fachbeiträge zu Themen wie Klimarisiken, Nachhaltigkeit und Umweltmanagementsystemen.
- Zudem betreibt die SAQ Netzwerk und Austauschformate: Sie fördert Expertengruppen, Fachforen und Kooperationen, bietet Plattformen für den Dialog von Praxis und Wissenschaft im Bereich Qualität und Nachhaltigkeit.
Wie sieht die SAQ den Zusammenhang zwischen Qualität und Nachhaltigkeit?
Zammaretti: Die SAQ betrachtet Qualität nicht mehr nur als „Produkt- oder Prozessqualität“, sondern als ganzheitliches Managementprinzip, das Nachhaltigkeitsaspekte mit einschließt: Nachhaltigkeit ist Qualitätsdimension (zum Beispiel langfristige Produkt-/Dienstleistungsfähigkeit, Lieferkettenstabilität, Einhaltung von ESG-Kriterien). Qualitätssysteme bieten Methoden (Risikobewertung, Prozesssteuerung, PDCA-Kreis), die auch Nachhaltigkeitsziele messbar und steuerbar machen.
Wie sieht die SAQ den Zusammenhang zwischen Qualität und Nachhaltigkeit?
Zammaretti: Die SAQ sieht Qualität heute nicht mehr lediglich als Produkt‑ oder Prozessqualität, sondern als ein ganzheitliches Managementprinzip, in dem Nachhaltigkeitsaspekte systematisch verankert sind. Nachhaltigkeit wird damit zu einer integralen Qualitätsdimension – beispielsweise durch die langfristige Leistungsfähigkeit von Produkten und Dienstleistungen, Lieferkettenstabilität oder die Einhaltung von zum Beispiel ESG‑Kriterien.
Qualitätssysteme liefern hierfür bewährte Methoden: Risikobewertung, Prozesssteuerung und der klassische PDCA‑Zyklus (Plan‑Do‑Check‑Act) ermöglichen es, Nachhaltigkeitsziele messbar zu machen und kontinuierlich zu verbessern. In diesem Sinne verbindet die SAQ traditionelle Qualitätswerkzeuge mit den Anforderungen einer nachhaltigen Unternehmensführung.
Wäre es aus Ihrer Sicht sinnvoll, Nachhaltigkeitsaufgaben im Qualitätsmanagement anzusiedeln oder ist es besser, eine eigene Abteilung innerhalb der Organisation vorzusehen?
Zammaretti: Aufbauend auf dem Verständnis der SAQ lässt sich folgendes formulieren: Nachhaltigkeit sollte im Top‑Management fest verankert und strategisch mit der Unternehmensführung verbunden sein. Gleichzeitig empfiehlt sich eine enge operative Verknüpfung mit dem Qualitätsmanagement – Prozesse, Audits und Kennzahlen im QM bieten bewährte Mechanismen zur Steuerung von Nachhaltigkeitszielen.
Ein Hybridmodell erweist sich daher als besonders geeignet: Das QM übernimmt die Systematik, Implementierung und Kontrolle; eine eigene Nachhaltigkeitsfunktion oder ein „Center of Excellence“ verleiht tieferes Fachwissen (zum Beispiel Klimabilanzen, Lebenszyklusanalysen, ESG‑Reporting) und adressiert Stakeholder‑ sowie Kommunikationsaspekte.
In kleinen und mittleren Unternehmen (KMU) kann das Qualitätsmanagement gleichzeitig „Home‐base“ für Nachhaltigkeit sein; bei größeren oder komplexeren Organisationen spricht vieles dafür, eine dedizierte Nachhaltigkeitseinheit einzurichten, die eng mit dem QM verzahnt ist.
Welche Kompetenzen sind wichtig, um Nachhaltigkeitsanforderungen zu erfüllen?
Zammaretti: Um heutigen Nachhaltigkeitsanforderungen gerecht zu werden, müssen Fach‑ und Führungskräfte eine Reihe von Kompetenzen entwickeln – sowohl operativ als auch strategisch.
- System‑ und Prozessdenken: Die Fähigkeit, komplexe Systeme zu überblicken, Prozesse zu vernetzen und Nachhaltigkeitskriterien in Managementsysteme einzubinden.
- Fachwissen zu ESG‑Standards und Regulierung: Kenntnis von EU‑ und nationalen Vorgaben (zum Beispiel CSRD/ESRS), Rechtsprechung und Reportinganforderungen.
- Datenanalyse und Reportingkompetenz: Beherrschung von Datenerhebung, KPI‑Design, Validierung und Berichterstattung (zum Beispiel ESG, GRI).
- Lifecycle‑ und Umweltbewertung (LCA): Lebenszyklusanalysen von Produkten oder Dienstleistungen, Bewertung ökologischer Auswirkungen.
- Risikomanagement und Due Diligence: Erkennen und Steuern von Lieferketten‑, Klimarisiken und rechtlichen Risiken im Nachhaltigkeitskontext.
- Interne Audits und Assurance: Prüfen, Nachweisführung und gegebenenfalls externe Verifikation von Nachhaltigkeitsprozessen.
- Stakeholder‑Engagement und Kommunikation: Dialog mit Mitarbeitenden, Kund:innen, Behörden und Investoren; überzeugende Darstellung von Nachhaltigkeitszielen.
- Change‑ und Projektmanagement: Umsetzung von Nachhaltigkeitsmaßnahmen, Förderung eines Kulturwandels, Schulung und Mobilisierung.
- Digitale Kompetenz und Datenanalyse: Einsatz digitaler Tools, Monitoring‑Systeme und Traceability zur Steuerung von Nachhaltigkeitsprozessen.
Viele dieser Kompetenzen finden sich bereits im klassischen Qualitätsmanagement‑Werkzeugkasten. Doch die heutigen Anforderungen erfordern eine Erweiterung – etwa mit ESG‑Reporting‑Experten oder LCA‑Spezialist:innen.

Über die Interviewpartnerin:
Seit 2021 steht Prisca Zammaretti als CEO an der Spitze der Swiss Association for Quality SAQ und prägt deren strategische Ausrichtung. Zuvor sammelte sie über mehrere Jahre hinweg umfassende Führungserfahrung in Schlüsselbereichen wie Quality & Regulatory sowie in der Entwicklung von Medizinprodukten, Lebensmitteln und Pharma. Ihre Laufbahn vereint tiefes Fachwissen mit unternehmerischem Weitblick – eine Kombination, die sie zu einer anerkannten Gestalterin macht.
Corporate Carbon Footprint und die Bilanzierung von Emissionen

Immer mehr Unternehmen stehen vor der Herausforderung, ihre Treibhausgasemissionen transparent zu erfassen und zu reduzieren. Der Corporate Carbon Footprint (CCF) liefert dafür die entscheidende Grundlage. Wichtig ist eine präzise Datenerhebung über alle Emissionsquellen hinweg, die Nutzung etablierter Standards wie das Greenhouse Gas Protocol (GHG Protocol) sowie eine kontinuierliche Aktualisierung der Bilanz. Wer den CCF als strategisches Steuerungsinstrument versteht, schafft Transparenz, vermeidet Greenwashing und stärkt zugleich die eigene Wettbewerbsfähigkeit und Klimastrategie.
In Zeiten des Klimawandels gewinnt die Bilanzierung von Emissionen zunehmend an Bedeutung. Politisch maßgeblich ist dabei auch für den Corporate Carbon Footprint das Pariser Klimaabkommen. 2015 wurde es von nahezu allen Staaten der Welt unterzeichnet. Es verpflichtet die Vertragsstaaten, die Erderwärmung auf deutlich unter 2 °C, möglichst aber auf 1,5 °C gegenüber dem vorindustriellen Niveau zu begrenzen. Dieses sogenannte 1,5-Grad Ziel gilt als wissenschaftlich fundiert und ist häufig die Grundlage von Klimazielen. Eine Erderwärmung um 1,5 Grad würde zwar immer noch erhebliche Auswirkungen haben, aber diese wären deutlich weniger katastrophal als eine Erwärmung von zwei Grad oder mehr.
EU: Klimaneutral bis 2050
Die Europäische Union hat diese Vorgaben in ambitionierte eigene Klimaziele übersetzt: Bis 2030 sollen die Netto-Treibhausgasemissionen um mindestens 55 Prozent gegenüber 1990 reduziert werden („Fit for 55“), bis 2050 strebt die EU sogenannte Klimaneutralität an. Für 2040 ist zusätzlich ein Zwischenziel auf eine Reduktion der Netto-Treibhausgasemissionen um 90 Prozent angedacht (Stand der Information 24.11.2025). Allerdings ist es hierbei möglich, fünf Prozentpunkte durch Kompensationsprojekte auszugleichen und impliziert ein effektives Reduktionsziel von nur 85 Prozent. Die Ziele für 2030 und 2050 sind durch das EU-Klimagesetz bereits rechtlich verbindlich und beeinflussen zunehmend die regulatorischen Rahmenbedingungen in Europa.
Für viele Unternehmen wird dadurch die systematische Erfassung von Emissionen zu einer regulatorischen und marktrelevanten Anforderung. Kunden, Banken, Investoren erwarten belastbare Klimadaten, die mit hoher Qualität erfasst werden. Der Corporate Carbon Footprint ist dabei das zentrale Instrument, um die Auswirkungen von Unternehmen auf den Treibhausgaseffekt zu messen.
Was ist der Corporate Carbon Footprint (CCF)?
Der Corporate Carbon Footprint, auf Deutsch oft als „unternehmensbezogener CO₂ -Fußabdruck“ bezeichnet, meint die Gesamtheit der Treibhausgasemissionen, die direkt oder indirekt durch Aktivitäten, zum Beispiel durch ein Unternehmen, verursacht werden. Neben dem klimaschädlichen CO₂ gibt es noch weitere Gase, die zum Treibhausgaseffekt beitragen. Diese Emissionen werden in CO₂-Äquivalenten (CO₂e) erfasst, um die verschiedenen Treibhausgase einheitlich messbar zu machen.
Der CCF berücksichtig dabei nicht nur die direkten Emissionen eines Unternehmens, wie sie beispielsweise am eigenen Standort entstehen, sondern auch indirekte Emissionen, die entlang der gesamten Wertschöpfungskette anfallen.
Wichtige Aspekte bei der Bilanzierung von Emissionen sind „Datenerfassung und -qualität“, „Grenzen der Bilanzierung festlegen“, „Standardisierte Methoden und Vorgehensweisen“ sowie „Kontinuierliche Überprüfung und Verbesserung“.
Datenerfassung und -qualität:
Eine präzise Bilanzierung von Emissionen setzt eine umfassende und genaue Datenerfassung voraus. Hierbei ist es wichtig, sowohl die direkten als auch die indirekten Emissionen zu berücksichtigen. Die Qualität der Daten spielt eine entscheidende Rolle, da ungenaue oder unvollständige Daten zu fehlerhaften Ergebnissen führen können.
Grenzen der Bilanzierung (Scope) festlegen:
Bei der Bilanzierung von Emissionen ist es wichtig, klare Systemgrenzen zu definieren und diese auch zu dokumentieren. Dies umfasst die Festlegung, welche Emissionen in die Bilanz einfließen. Hierbei wird häufig zwischen Scope 1, Scope 2 und Scope 3 Emissionen unterschieden:
- Scope 1: Direkte Emissionen aus eigenen Anlagen und Fahrzeugen.
- Scope 2: Indirekte Emissionen aus dem Bezug von Energie (zum Beispiel Strom, Wärme).
- Scope 3: Alle weiteren indirekten Emissionen entlang der vor- und nachgelagerten Wertschöpfungskette (zum Beispiel durch Lieferanten, eingekaufte Güter, Transport, Nutzung und Entsorgung von Produkten).
Gerade Scope-3-Emissionen sind oft die größte Herausforderung, da sie schon bei der Erhebung eine enge Zusammenarbeit mit Lieferanten und Kunden erfordern.
Es ist dringend zu empfehlen, alle Scopes und alle Kategorien innerhalb der Scopes in der Bilanzierung zu berücksichtigen, da es kein standardisiertes Wesentlichkeitsprinzip gibt. Ein Auslassen von teils relevanten Emissionen würde zu Greenwashing führen.
Standardisierte Methoden und Vorgehensweisen:
Um eine transparente und einheitliche Vorgehensweise bei der Bilanzierung von Emissionen in Form eines CCF zu gewährleisten, sollten standardisierte Methoden verwendet werden. Das Greenhouse Gas Protocol (GHG Protocol) und die ISO 14064 Normenreihe gelten als bekannteste Standards in diesem Bereich. Sie bieten Unternehmen einen Orientierungsrahmen für die Erfassung und Berechnung von Emissionen. Möchte man einen CCF für sein Unternehmen berechnen, ist es ratsam, sich vor dem Beginn mit diesen Standards vertraut zu machen. Sie dienen nicht nur als Rahmenwerk, sondern auch als Leitfaden, um bei der Erstellung eines CCF zu unterstützen.
Dennoch ist es in diesem Kontext wichtig, zu beachten, dass auch diese anerkannten Standards einigen Raum für gewisse Anpassungen und Interpretationen offenlassen. Beispielsweise sind keine Schwellenwerte festgelegt, ab wann Emissionen von Unternehmen als „relevant“ einzustufen und zu berücksichtigen sind. Des Weiteren gibt es keine Vorgaben zur Nutzung einer einheitlichen Datenbank und einheitlicher Emissionsfaktoren. Dies kann je nach Qualität und wissenschaftlicher Evidenz der herangezogenen Daten, gravierende Unterschiede bei den Berechnungsergebnissen zur Folge haben. Trotz der Nutzung einheitlicher Rahmenwerke ist dann eine Vergleichbarkeit von CCF-Daten mehrerer Unternehmen nicht möglich.
Kontinuierliche Überprüfung und Verbesserung:
Die Bilanzierung von Emissionen ist kein einmaliger Prozess, sondern sollte kontinuierlich überprüft und verbessert werden. Dies umfasst die regelmäßige Aktualisierung der Datengrundlagen und die Anpassung der Methoden an neueste wissenschaftliche Erkenntnisse und technologische Entwicklungen. Es ist ratsam, mindestens jährlich eine umfassende Aktualisierung des CCF durchzuführen. Auf diese Weise liegen stets die aktuellen Daten vor. Zudem lässt sich der Erfolg von umgesetzten Klimaschutzmaßnahmen im Vergleich zu den Vorjahren bewerten.
Durch den CCF die Wettbewerbs- und Zukunftsfähigkeit stärken
Der Corporate Carbon Footprint ist der Schlüssel, um die klimatischen Auswirkungen eines Unternehmens zu verstehen und wirksam zu reduzieren. Auch wenn Ergebnisse aufgrund unterschiedlicher Berechnungsmethoden, Datenbanken und Systemgrenzen nicht vergleichbar sind, liefern sie wertvolle Ansätze für interne Reduktionsstrategien. Wer frühzeitig in ein fundiertes und systematisches Klimamanagement investiert, schützt nicht nur das Klima, sondern stärkt auch seine Wettbewerbs- und Zukunftsfähigkeit.
Über den Autor:
Yannic von Raesfeld ist Leiter des Nachhaltigkeitsmanagements der Werner & Mertz Gruppe. Dabei befasst er sich seit über 10 Jahre intensiv mit strategischer Nachhaltigkeit, sowie den Managementsystemen nach EMAS, ISO 14001 und der ISO 50001. Er ist Beauftragter für das Umwelt-, Energie-, und Lieferkettenmanagement an mehreren Standorten, sowie interner Auditor. Als zertifizierter ESG-Officer koordiniert er die Umsetzung regulatorischer Nachhaltigkeitsvorgaben. Darüber hinaus ist Yannic von Raesfeld als Dozent und Trainer im ESG-Bereich unterwegs.
Europäische Lieferketten-Richtlinie: Für was steht CSDDD und wie kann das deutsche LkSG helfen?

Die geplante Corporate Sustainability Due Diligence Directive (CSDDD) verpflichtet Unternehmen in der EU künftig, entlang ihrer gesamten Lieferkette Sorgfaltspflichten in Bezug auf Menschenrechte und Umweltstandards systematisch umzusetzen. Die finale Ausgestaltung wird derzeit noch in Brüssel verhandelt. Bereits jetzt zeichnet sich ab: Unternehmen, die bereits nach dem deutschen Lieferkettensorgfaltspflichtengesetz (LkSG) arbeiten, haben einen klaren Startvorteil.
Von national zu europäisch – Wann tritt die CSDDD in Kraft?
Während das LkSG heute vorrangig deutsche Unternehmen mit mehr als 1.000 Mitarbeitenden erfasst, soll die europäische CSDDD künftig EU-weit gelten, allerdings mit deutlich höheren Schwellenwerten im Anwendungsbereich. Laut dem Mitte Oktober 2025 vom Rechtsausschuss des EU-Parlaments angenommenen Kompromissvorschlag zwischen Konservativen, Liberalen und Sozialdemokraten zum sogenannten „Nachhaltigkeits-Omnibus“ soll die CSDDD zunächst für Unternehmen mit mehr als 5.000 Mitarbeitenden und einem Jahresumsatz von über 1,5 Milliarden Euro ab dem Jahr 2028 gelten. Die gleiche Umsatzschwelle gilt auch für Nicht-EU-Unternehmen.
Keine EU-weite zivilrechtliche Haftung mehr
Gegenüber der ursprünglichen Fassung wurden zentrale Inhalte abgeschwächt: Die Sorgfaltspflichten sollen sich nach einem vollständig risikobasierten Ansatz richten. Eine ursprünglich geplante EU-weite zivilrechtliche Haftung ist nicht mehr vorgesehen. Die Pflicht zur Aufstellung von Klimatransitionsplänen innerhalb der CSDDD soll ebenfalls entfallen. Auf Basis dieses Kompromisses laufen aktuell die Trilogverhandlungen zwischen EU-Kommission, Parlament und Rat. Ein Abschluss wird bis Ende 2025 angestrebt. Anschließend folgt die nationale Umsetzung in den Mitgliedstaaten. (Stand der Informationen 24.11.2025)
LkSG als Übergangslösung bis CSDDD
Die anstehenden Trilogverhandlungen und die Entwicklungen um die CSDDD werden auch in Deutschland genau verfolgt. Am 17. Oktober 2025 hat der Bundesrat bereits den Regierungsentwurf zur Änderung des LkSG beraten und passieren lassen. Neben der Aussetzung der Berichtspflicht nach dem LkSG sieht dieser Regierungsentwurf auch die Anpassung des Geltungsbereichs und die Fokussierung auf eine risikobasierte Priorisierung analog der CSDDD vor. Das modifizierte LkSG soll als Übergangslösung bis zur vollständigen Überführung der CSDDD in nationales Recht gelten. Die Anpassung des Gesetzes soll den bürokratischen Aufwand für deutsche Unternehmen reduzieren und gleichzeitig den Übergang zur CSDDD erleichtern.
LkSG als Übungsfeld für künftige EU-Anforderungen
Für viele Unternehmen fungiert das LkSG bereits als praxisnahes Trainingsfeld. Vollständige Lieferantenstammdaten, Risikoanalysen, Beschwerdemechanismen und Präventionsmaßnahmen gehören heute bereits beim LkSG zum Pflichtprogramm. Wer diese Prozesse bereits etabliert, schafft gleichzeitig die Grundlage für die künftigen europäischen Anforderungen.
ESG konforme Beschaffungsprozesse als Schlüssel
Für Unternehmen wird die Beschaffung zur zentralen Stellschraube, wenn es um die Erfüllung der Anforderungen von Lieferkettengesetzen geht. ESG-Kriterien (Environmental, Social, Governance) müssen künftig systematisch in Einkaufs- und Lieferantenprozesse integriert werden.
Die Auswahl von Lieferanten sollte künftig nicht mehr ausschließlich auf Basis finanzieller, qualitativer oder logistischer Kriterien erfolgen. Vielmehr gewinnen ökologische und soziale Aspekte zunehmend an Bedeutung, sowohl im Rahmen des LkSG als auch im Hinblick auf die kommende CSDDD. Bereits im Auswahlprozess lassen sich durch gezielte Anforderungen an Umwelt- und Sozialstandards potenzielle Risiken frühzeitig minimieren.
Überprüfung von Lieferanten anhand von CSDDD und LkSG
Ein bewährter Ansatz ist die Integration entsprechender Kriterien in Lieferantenfragebögen sowie die Forderung nach verpflichtenden Mindeststandards, etwa in Form von Umwelt- oder Sozialzertifizierungen (zum Beispiel ISO 14001, SA8000). Darüber hinaus sollte geprüft werden, ob potenzielle Geschäftspartner über eigene Prozesse und Strukturen zur Einhaltung menschenrechtlicher und umweltbezogener Sorgfaltspflichten verfügen, sowohl im eigenen Unternehmen als auch entlang ihrer eigenen Lieferkette.
Besonderes Augenmerk verdient die Risikoeinstufung nach Länder- und Branchenspezifika. Aus Sicht des Risikomanagements kann es sinnvoll sein, bevorzugt mit Zulieferern aus Regionen zusammenzuarbeiten, in denen bereits ein robuster gesetzlicher Rahmen für Umwelt- und Menschenrechte besteht.
Erfahrung aus Managementsystemen nutzen
Gerade bei der Auswahl von neuen – und der Bewertung von bestehenden Lieferanten können Expertinnen und Experten aus dem Bereich Managementsysteme mit ihrer Erfahrung in strukturierten Bewertungs- und Auditprozessen einen wertvollen Beitrag leisten. So wird die Beschaffung nicht nur regulatorisch compliant, sondern auch zu einem Hebel für nachhaltige Wertschöpfung und Resilienz.
Qualität von Lieferantenstammdaten sind essenziell
Die Qualität der Lieferantenstammdaten ist ein entscheidender Erfolgsfaktor für ein funktionierendes Lieferkettenmanagement. Nur wenn grundlegende Informationen, insbesondere zum Land und zur Branche eines Lieferanten, korrekt und vollständig vorliegen, lässt sich eine belastbare erste Risikoabschätzung vornehmen. Diese beiden Parameter sind essenziell, um potenzielle menschenrechtliche und ökologische Risiken entlang der Lieferkette frühzeitig zu identifizieren und geeignete Präventions- oder Abhilfemaßnahmen zu planen.
Ein systematischer Aufbau und die kontinuierliche Pflege dieser Stammdaten schaffen die notwendige Transparenz, um sowohl den Anforderungen des LkSG als auch der künftigen CSDDD gerecht zu werden.
Risikomanagement als Hebel für Lieferkettenstrategie
Ein wirksames Risikomanagement bildet das Herzstück einer nachhaltigen Lieferkettenstrategie. Es ermöglicht Unternehmen, potenzielle menschenrechtliche und umweltbezogene Risiken systematisch zu identifizieren, zu bewerten und zu priorisieren. Grundlage dafür sind strukturierte Prozesse zur Risikoanalyse, die regelmäßig aktualisiert und an neue Erkenntnisse angepasst werden müssen. Zur Durchführung einer fundierten Risikoanalyse von Lieferanten kann der Einsatz systemischer und automatisierter Lösungen entscheidend sein. Digitale Tools und Plattformen ermöglichen es, große Datenmengen effizient zu verarbeiten, Risiken anhand definierter Kriterien wie Branche, Herkunftsland oder Unternehmensstruktur zu bewerten und kontinuierlich zu überwachen.
Besonders im Rahmen des LkSG und der künftigen CSDDD ist es entscheidend, dass Unternehmen nicht nur auf bekannte Risiken reagieren, sondern auch proaktiv präventive Maßnahmen entwickeln. Dazu gehören die Einbindung relevanter Stakeholder, die Definition klarer Verantwortlichkeiten und der Aufbau einer Compliance-Struktur, die insbesondere die Zusammenarbeit mit Geschäftspartnern in den Fokus nimmt.
Frühzeitige Vorbereitung auf CSDDD und LkSG sinnvoll
Obwohl die CSDDD noch nicht final verabschiedet ist, sollten Unternehmen bereits frühzeitig mit der Vorbereitung beginnen. Die Erfahrungen aus der Umsetzung des LkSG zeigen: Auch Firmen, die formal nicht unter den Anwendungsbereich des Gesetzes fallen, wurden von größeren Kunden dazu verpflichtet, vergleichbare Anforderungen umzusetzen und diese wiederum an ihre eigenen Lieferanten weiterzugeben. Wer die Anforderungen des LkSG nicht nur formal erfüllt, sondern als Chance zur Weiterentwicklung nutzt, kann die kommenden europäischen Pflichten souverän und effizient meistern und gleichzeitig seine Resilienz in globalen Lieferketten stärken.
Über den Autor:
Yannic von Raesfeld ist Leiter des Nachhaltigkeitsmanagements der Werner & Mertz Gruppe. Dabei befasst er sich seit über 10 Jahre intensiv mit strategischer Nachhaltigkeit, sowie den Managementsystemen nach EMAS, ISO 14001 und der ISO 50001. Er ist Beauftragter für das Umwelt-, Energie-, und Lieferkettenmanagement an mehreren Standorten, sowie interner Auditor. Als zertifizierter ESG-Officer koordiniert er die Umsetzung regulatorischer Nachhaltigkeitsvorgaben. Darüber hinaus ist Yannic von Raesfeld als Dozent und Trainer im ESG-Bereich unterwegs.
Neugründung des Fachausschusses „Qualität in der Pflege“
Der DGQ-Fachausschuss „Qualität in der Pflege“ wird neu positioniert. Mit dieser Neuausrichtung verfolgt die DGQ das Ziel, sich als zentrale Plattform für den bundesweiten Qualitätsdiskurs in der Pflege weiter zu etablieren und den Austausch über zukunftsweisende Qualitätsansätze zu fördern.
Fokus auf integrierte Sicht der Qualität in der Pflege
Der Fachausschuss übernimmt eine beratende Rolle innerhalb der DGQ und soll Impulse für eine integrierte und ganzheitliche Sichtweise auf die Qualität in der Pflege liefern. Im Mittelpunkt steht ein regelmäßiger Austausch, der die unterschiedlichen Perspektiven und Erwartungen innerhalb der Pflege zusammenführt.
Eingebunden werden Vertretungen von Pflegeempfangenden sowie deren An- und Zugehörige, Leistungserbringende und -träger, Akteure aus Forschung, Wissenschaft und Lehre sowie Verbände, die sich in den Diskursen zu Nachhaltigkeit und Digitalisierung mit Bezug zur Pflege engagieren. Ziel ist die Einbeziehung der unterschiedlichen Sichtweisen, um aus dieser Position den gesellschaftlichen Diskurs zur Qualität in der Pflege maßgeblich mitzugestalten.
Erwartete Wirkung
Durch die Neupositionierung soll der Fachausschuss wesentlich zur Schärfung des DGQ-Profils im Themenfeld „Qualität in der Pflege“ beitragen. Er dient als Kompetenzforum und Impulsgeber mit dem Anspruch, Brücken zwischen Praxis, Wissenschaft, Politik und Gesellschaft zu schlagen. Zudem soll er den Qualitätsdiskurs in der Pflege aktiv lenken und weiterentwickeln – mit dem Ziel, Orientierung zu geben, Entwicklungen anzustoßen und Innovationsräume zu öffnen. Gleichzeitig trägt der Fachausschuss dazu bei, die Attraktivität des einzigartigen DGQ-Netzwerks zu steigern und neue Interessierte für den Qualitätsdiskurs zu gewinnen.
Die konstituierende Sitzung ist am 9. Februar 2026 in Berlin geplant.
Digitalisierung und KI im Qualitätsmanagement – Herausforderungen und Erwartungen in der Praxis

Künstliche Intelligenz, Automatisierung und regulatorische Anforderungen stellen Qualitätsverantwortliche vor neue Herausforderungen im Managementsystem – aber auch vor große Chancen. Im Interview berichtet Qualitätsmanagementexperte Dr. Wilhelm Griga über die Entwicklungen im QM, die praktischen Auswirkungen auf QM-Prozesse und welche Rolle die Revision der Norm ISO 9001 spielt.
Digitalisierung verändert viele Geschäftsbereiche – wie sehen Sie konkret die Auswirkungen auf klassische Qualitätsmanagementsysteme oder auch integrierte Systeme in der Praxis?
Griga: Die Digitalisierung verändert auch das Qualitätsmanagement grundlegend. Klassische, eher statische Systeme entwickeln sich zu dynamischen, datengetriebenen. Konkret bedeutet das, dass der Trend weg von Handbüchern und hin zu cloudbasierten, lebendigen und nachverfolgbaren Systemen geht. Dabei ist es sinnvoll, agile Prinzipien und iterativer Zyklen in das QM-System zu integrieren, um für schnelle Marktveränderungen gewappnet zu sein.
Zunehmend werden auch Remote- und KI-gestützte-Audits für datenbasierte, effiziente, effektive Prüfung und Verbesserung angewendet. Die Unternehmen setzen zudem auf Process Mining im Rahmen des Prozessmanagements zur Analyse aller Transaktionen in kurzer Zeit, um Optimierungspotenziale aufzudecken.
Predictive Analytics sowie KI-gestützte Dashboards helfen darüber hinaus dabei, Risiken und negative Trends proaktiv zu identifizieren. Das Managementsystem wird somit zunehmend zum „digitalen Betriebssystem der Organisation“, welches agil mit zielorientierter Flexibilität und Kundenorientierung weiterentwickelt wird.
Wo sehen Sie die größten Potenziale beim Einsatz von Künstlicher Intelligenz in QM-Prozessen?
Griga: Generell besteht das größte KI-Potential in der Unterstützung bei einfachen, administrativen Tätigkeiten im Qualitätsmanagement und bei repetitiven, strukturierten Tätigkeiten in der Qualitätssicherung. Nehmen wir zum Beispiel die Gap-Analyse. KI hilft (Norm-)Anforderungen mit bestehenden Prozessen abzugleichen und Abweichungen zu identifizieren.
Das Reklamationsmanagement kann durch Text-, Sprach-, Sentimentanalysen und KI-Agenten bei der Priorisierung und Bearbeitung von Kundenbeschwerden unterstützt werden. Bei der Qualitätsprüfung erhöhen Bildverarbeitung und Mustererkennung mit KI die Genauigkeit und Zuverlässigkeit. Autonome Systeme können sogar Qualität in Echtzeit überwachen und in Teilbereichen nachregeln.
Und wenn es um Audit-Unterstützung geht, erleichtert KI die Auswertung von Daten und Interviews, schlägt basierend auf früheren Erkenntnissen Auditmaßnahmen vor und vereinfacht die Erstellung von Auditberichten.
Kommen wir nun zu den Risiken. Die gibt es doch sicher auch?
Griga: Die KI ist nur so gut wie ihre Datenbasis. KI muss fair entscheiden und Diskriminierung vermeiden. Black-Box-Modelle erschweren dabei die Nachvollziehbarkeit. Die KI kann Fehler machen und übernimmt keine Verantwortung für Entscheidungen. KI-Systeme und Daten müssen grundsätzlich gegen Angriffe und Manipulation geschützt werden. Deshalb gilt: KI darf nicht blind vertraut werden, menschliche Fachkompetenz und Verantwortung bleiben unverzichtbar. Eine KI dient dem Menschen und nicht umgekehrt.
Welche regulatorischen Entwicklungen – etwa im Bereich Informations- und Cybersicherheit – sind aus Ihrer Sicht besonders relevant für den Alltag als Qualitätsmanager?
Griga: Die NIS2-Richtlinie erhöht die Anforderungen an Cybersicherheit für kritische Infrastrukturen und viele Industrieunternehmen. Betroffene Unternehmen müssen dies in ihren QM-Systemen stärker berücksichtigen.
Der EU AI Act ist hier ebenfalls zu nennen. Er beinhaltet wichtige Vorgaben für KI nach Risikoklassen. Für Qualitätsmanager kann das bedeuten, dass das Qualitätsmanagementsystem besondere Anforderungen erfüllen muss.
Diese Entwicklungen führen dazu, dass das Qualitätsmanagement sich mehr mit Fragen zu IT-Sicherheit, Datenschutz und Compliance beschäftigen muss, auch wenn die Verantwortung in anderen Unternehmensbereichen liegt.
Viele Organisationen tun sich schwer mit der Integration digitaler Tools in bestehende QM-Strukturen. Welche strategischen Erfolgsfaktoren sehen Sie für eine gelungene Transformation?
Griga: Aus meiner Sicht ist Digitalisierung ein Prozess und kein Projekt – über Ziele und Eckpunkte sollte Konsens vorhanden sein. Auf Basis agiler Prinzipien empfiehlt es sich, bei der Umsetzung klein zu starten, schnell zu lernen, zu verwerfen oder zu skalieren.
Kompetenzmanagement, Einbindung, Offenheit, Transparenz, Wertschätzung und Respekt sind dann einige der Punkte, die für erfolgreiches Change-Management stehen. Digitale Transformation und Agilität leben dabei von Vorbildern im Sinne von „Walk the talk“ und von selbstorganisierenden Teams, die schnelle Anpassungen ermöglichen. Iterative Zyklen von „Plan, Do, Check, Act“ sind hierbei auf allen Unternehmensebenen von Vorteil.
Digitale Transformation gelingt insbesondere dann, wenn Technik, Organisation und Kultur gemeinsam weiterentwickelt werden – dabei sollte das QMS über reine Compliance-Absicherung hinausgehen und eine qualitätsorientierte, agile, innovative Kultur ermöglichen.
Im kommenden Jahr wird die ISO 9001:2026 veröffentlicht. Was sind für Sie entscheidende Änderungen?
Griga: Die Revision bringt voraussichtlich einige wichtige Neuerungen, die ich sehr begrüße. Themen wie Klimawandel, Emerging Technologies – beispielsweise KI – und ethisches Verhalten werden explizit adressiert. Die Förderung einer Qualitätskultur und die Berücksichtigung psychologischer und sozialer Faktoren im Arbeitsumfeld stellen eine wichtige Ergänzung dar.
Die aktive Verwaltung von Organisationswissen wird verpflichtender, Nachhaltigkeit und Kundenerlebnis werden stärker im Design- und Entwicklungsprozesse berücksichtigt. Interne Audits und Managementbewertungen werden strategischer und nutzen breitere Datenquellen, zum Beispiel Social Media.
Mit welchem Gefühl und welcher Erwartung blicken Sie auf die Revision der ISO 9001?
Griga: Die Norm bietet bereits heute agile Gestaltungsoptionen und wird diese weiter ausbauen, um sowohl traditionelle als auch agile Arbeitsweisen zu unterstützen. Die Revision der ISO 9001 bedeutet mehr Agilität, Innovationsfähigkeit und Zukunftsorientierung. Sie bleibt ein stabiler Rahmen, aber mit klaren Impulsen für digitale Transformation, Nachhaltigkeit und ethische Verantwortung. In meinen Augen ist es wichtig, dass die neue ISO 9001 die Balance zwischen bewährten QM-Praktiken und neuen Anforderungen findet, um Organisationen dabei zu unterstützen, kundenorientierte Lösungen schneller und in verbesserter Qualität zu liefern.
| Informationsangebot der DGQ zur Revision der ISO 9001 Fakten statt Spekulation – unter diesem Motto hat die DGQ auf der Seite iso-9001-revision.info ein Informationsangebot rund um die Revision der ISO 9001:2026 zusammengestellt. Mit Hintergrundberichten, Interviews und Neuigkeiten zum Stand der Revision hält die DGQ alle Interessenten bereits im Vorfeld auf dem Laufenden. Ein wichtiger Bestandteil dieses Angebots bildet eine kostenlose Webinarreihe mit dem Titel „Revisions-Warm-up“. Sie vermittelt Kenntnisse über einige Kern- und Trendthemen, die eine Relevanz im Rahmen der Revision der ISO 9001 aufweisen. Mehr dazu findet sich unter iso-9001-revision.info/webinare » |
Über den Autor:
Dr. Wilhelm Griga ist Senior Quality Manager bei Siemens Digital Industries. Er ist dort unter anderem für die Themen internationale Organisationsentwicklung, digitale Transformation und agiles Managementsystem zuständig und Teil der Siemens-internen Arbeitsgruppe zur Revision der ISO 9001. Daneben gehört er zur DGQ-Regionalkreisleitung Nürnberg und ist als Dozent an der Hochschule zu Agility und Business Excellence aktiv.
Europa will Normung schneller, inklusiver und international stärker machen – Konsultationsphase gestartet
Bei der umfassenden Überarbeitung der EU-Normungsverordnung durch die Europäische Kommission hat kürzlich die Konsultationsphase begonnen. Ziel der Überarbeitung der „Verordnung (EU) Nr. 1025/2012 über die europäische Normung“ ist es, das europäische Normungssystem so weiterzuentwickeln, dass es schneller auf technologische Veränderungen reagiert, breitere Beteiligung ermöglicht und Europas Rolle in der internationalen Normung stärkt. Die Konsultationsphase endet am 17. Dezember 2025. Die Annahme durch die Kommission ist für das zweite Quartal 2026 geplant.
Hintergrund: Scope der Überarbeitung
Die Überarbeitung ist Teil des EU-Kompasses für Wettbewerbsfähigkeit 2025 und steht im Kontext der EU-Strategie für Normung von 2022. Die Kommission betont, dass Europas Wettbewerbsfähigkeit, technologische Souveränität und die Fähigkeit, eigene Werte und Interessen weltweit zu vertreten, zunehmend von seiner Rolle als globaler Normgeber abhängen.
Die Modernisierung der Normungsverordnung soll dazu beitragen, Normungsprozesse schneller und leichter zugänglich zu machen, insbesondere für kleine und mittlere Unternehmen (KMU) sowie Start-ups. Gleichzeitig verfolgt die EU das Ziel, Bürokratie abzubauen, Verfahren im Binnenmarkt zu vereinfachen und den Zugang zu Normen transparenter zu gestalten. Damit soll ein zukunftssicherer Rechtsrahmen entstehen, der die grünen und digitalen Transformationen Europas unterstützt und die rasche Entwicklung harmonisierter Normen ermöglicht.
Bestehende Strukturen als solide Basis – DGQ unterstützt die europäische Ausrichtung
Das derzeitige europäische Normungssystem (ESS) dient seit vielen Jahren als stabiler Rahmen für die Zusammenarbeit von Wirtschaft, Wissenschaft, Verwaltung und Zivilgesellschaft. Gleich-zeitig bietet es genügend Flexibilität, um auf neue technologische und regulatorische Herausforderungen zu reagieren. Dabei verfügt das ESS über ein hohes Innovationspotenzial und bietet mit seinen unterschiedlichen Formaten – von Europäischen Normen bis hin zu technischen Spezifikationen – die notwendige Vielfalt, um die regulatorischen Anforderungen der EU wirksam zu unterstützen.
„Als nationale Qualitätsorganisation unterstützt die DGQ die Bestrebungen, die europäische Normung zukunftsfähig, inklusiv und innovationsorientiert zu gestalten“, sagt Stefan Reitz, Projektmanager Normung bei der DGQ. „Normung ist ein zentraler Baustein zur Stärkung der Wettbewerbsfähigkeit von Organisationen in der Europäischen Union und leistet einen wichtigen Beitrag zur Stabilität und Weiterentwicklung des europäischen Binnenmarkts.“
Ergänzende Informationen zur Überarbeitung der Verordnung (EU) Nr. 1025/2012 finden Sie hier.
ISO/TC-176-Plenarwoche in Lima: Updates zu den Revisionen der 9000er-Normenfamilie
Die Entscheidungen über laufende Projekte und zukünftige Gremienarbeit sowie die Revisionen von ISO 9000, ISO 9001 und ISO 9002 standen im Mittelpunkt der Plenarwoche des ISO Technical Committees 176 Mitte Oktober. Die Arbeitsgruppen des für Qualitätsmanagement zuständigen Gremiums diskutierten insbesondere eine stärkere Verzahnung und Harmonisierung der Qualitätsmanagementnormen.
ISO 9001: Fortschritt in der Überarbeitung
Nach mehreren Sitzungsrunden arbeitet die zuständige Arbeitsgruppe WG 29 derzeit daran, ISO 9001 konsequenter an der Harmonized Structure der Managementsystemnormen auszurichten. Ziel ist es, die Anforderungen klarer und praxisnäher zu formulieren und gleichzeitig die Kompatibilität zu anderen Normen zu erhöhen. Ende August war der Draft International Standard (DIS) zur aktuell in Revision befindlichen ISO 9001 erschienen. Die nächste Runde zur Kommentarbehandlung findet im Januar 2026 in Mexico statt.
ISO 9000: Terminologie und Grundlagen im Zentrum

Teilnehmer aus Europa v.l.n.r. : Cedric Meunier, AFNOR (designierter Chairman TC 176), Thomas Votsmeier, DIN- und EOQ-Repräsentant, Bengt Rydsted, Repräsentant SIS Schweden
Das Unterkomitee SC 1 und seine Arbeitsgruppe 2 (WG 2) befassten sich in Lima mit den verbleibenden Kommentaren aus der DIS-Abstimmung zur ISO 9000. Eine überarbeitete Fassung wird nun für die Abstimmung des Final Draft International Standard (FDIS) vorbereitet.
Im Mittelpunkt steht dabei die Terminologie: Die neue Ausgabe der ISO 9001 wird künftig 20 Begriffe und Definitionen aus der harmonisierten Struktur der ISO enthalten, die ebenfalls in der ISO 9000 verankert sind. Damit wird die sprachliche und inhaltliche Abstimmung innerhalb der Normenfamilie weiter verbessert.
An den Arbeiten der WG 2 beteiligen sich als Vertreter des DIN der EOQ Thomas Votsmeier, Leiter Normung der DGQ, und DGQ-Mitglied Friedemann Weber.
ISO 9002 – Leitfaden zur Anwendung der ISO 9001 – und weitere Projekte
Darüber hinaus wurde bekannt, dass ISO 9002 – „Leitfaden zur Anwendung der ISO 9001“ nicht als Committee Draft (CD), sondern direkt als DIS zur Kommentierung und Abstimmung freigegeben wird, um den Zeitplan einzuhalten. In Lima wurde intensiv an der Entwicklung des Entwurfs gearbeitet.
Weitere Themen umfassten unter anderem die Überarbeitung des ISO-Handbuchs für Kleine und Mittlere Unternehmen, das künftig auch informelle Unternehmen und Start-ups einbeziehen soll. Zudem laufen die Vorbereitungen zur Aktualisierung der ISO 18091, die die Anwendung der ISO 9001 in der Kommunalverwaltung beschreibt.
Die Leitung des TC 176 wechselt von Kanada nach Frankreich. Am Rande der Sitzungen in Lima erfolgte dazu ein intensiver Austausch unter anderem zwischen europäischen Vertretern mit der zukünftigen Leitung der französischen Normungsorganisation AFNOR („Association française de normalisation”).
Die nächste Plenarwoche des ISO/TC 176 findet vom 12. bis 16. Oktober 2026 in London statt.
CE-Kennzeichnung von Medizinprodukten: Voraussetzung für den Marktzugang in Europa

Ein kleines Zeichen mit großer Wirkung – auch für Medizinprodukte: Die CE-Kennzeichnung entscheidet darüber, ob sie den Weg in Krankenhäuser, Arztpraxen oder Apotheken findet – oder eben nicht. Sie ist auch für viele andere Produkte der Schlüssel zum europäischen Markt, das sichtbare Signal, dass Sicherheit und Leistung überprüft und bestätigt wurden. Für Hersteller und Zulieferer ist sie damit weit mehr als ein formaler Schritt. Sie ist einerseits eine unverzichtbare Eintrittskarte in den Markt – und andererseits ein Versprechen an Patientinnen und Patienten.
Was steckt hinter der CE-Kennzeichnung?

Abb. 1.: Das korrekte Schriftbild des CE-Zeichens. Die Proportionen der Zeichen sind exakt festgelegt und müssen bei jeder Verwendung eingehalten werden. Veränderungen der Form oder das Verzerren sind nicht zulässig (©Adobe Stock)
Das CE-Zeichen wirkt unscheinbar. Doch hinter den beiden Buchstaben verbirgt sich ein komplexes Geflecht aus Regeln, Prüfungen und Nachweisen. Es ist kein Qualitätssiegel im klassischen Sinn, sondern eine rechtlich bindende Erklärung des Herstellers, dass sein Produkt die europäischen Vorgaben erfüllt. Ohne CE-Kennzeichnung ist ein Medizinprodukt in Europa schlicht nicht verkehrsfähig.
Der rechtliche Rahmen: Die MDR
Seit Mai 2021 bildet die Medical Device Regulation (MDR) den verbindlichen Rechtsrahmen für die CE-Kennzeichnung von Medizinprodukten in Europa. Sie regelt,
- welche Anforderungen ein Produkt erfüllen muss,
- wie Hersteller die Konformität nachweisen,
- welche Rolle unabhängige Prüfstellen spielen,
- und wie Produkte auch nach dem Inverkehrbringen überwacht werden.
Eine zentrale Rolle nehmen dabei die Benannten Stellen ein. Sie sind von den Behörden autorisierte, unabhängige Prüf- und Zertifizierungsorganisationen, die für Medizinprodukte der höheren Risikoklassen bewerten, ob die Anforderungen der MDR erfüllt sind.
Auch die Klassifizierung der Produkte nach Risikoklassen ist für die CE-Kennzeichnung entscheidend:
- Klasse I: geringes Risiko – etwa nicht sterile Verbandsmaterialien wie Pflaster oder Kompressen
- Klasse IIa/IIb: mittleres Risiko – zum Beispiel Ultraschallgeräte für die Diagnose (IIa) oder Infusionspumpen (IIb)
- Klasse III: hohes Risiko – wie Herzschrittmacher oder andere implantierbare Produkte, die unmittelbar lebenswichtige Funktionen beeinflussen
Während Hersteller Produkte der Klasse I meist eigenständig bewerten dürfen, ist bei höheren Risikoklassen zwingend eine Benannte Stelle einzubeziehen. Je höher die Risikoklasse, desto aufwendiger das Verfahren – und desto anspruchsvoller der Weg zum CE-Zeichen.
Das Qualitätsmanagementsystem als Fundament
Die MDR verpflichtet die Hersteller von Medizinprodukten, ein Qualitätsmanagementsystem (QMS) aufzubauen, um die Einhaltung der MDR auf wirksame und angemessene Weise zu gewährleisten. Es umfasst alle Teile und Elemente der Organisation eines Herstellers, die mit der Qualität der Prozesse, Verfahren und Produkte befasst sind und sorgt dafür, dass die regulatorischen Anforderungen konsequent umgesetzt werden. Es bildet zudem das organisatorische Rückgrat der CE-Kennzeichnung:
- Es regelt, wie Prozesse geplant, dokumentiert und überprüft werden.
- Es stellt sicher, dass normative und regulatorische Anforderungen in der täglichen Praxis umgesetzt werden.
- Es sorgt dafür, dass Daten aus Entwicklung, Produktion und Marktüberwachung konsistent zusammenfließen.
Ohne QMS sind die geforderten Nachweise und benötigte Unternehmensleistung kaum zu erbringen. Insbesondere bei Produkten der Klassen II und III ist ein zertifiziertes QMS daher Pflicht und eine Grundvoraussetzung für die Zusammenarbeit mit Benannten Stellen.
Der Weg zum CE-Zeichen
Die CE-Kennzeichnung ist das Ergebnis eines klar definierten, mehrstufigen Ablaufs, dessen Umfang und Anforderungen maßgeblich von Faktoren wie Produkttyp, Risikoklasse und gewähltem Konformitätsbewertungsverfahren abhängen. Typische Phasen sind die folgenden:
Phase 1: Definition der Zweckbestimmung und Klassifizierung des Produkts
Die CE-Kennzeichnung beginnt mit der Festlegung der Zweckbestimmung, auf deren Grundlage die Risikoklasse nach MDR Anhang VIII bestimmt wird – sie entscheidet maßgeblich über das weitere Verfahren.
Phase 2: Ermittlung und Umsetzung der regulatorischen Anforderungen
Der Hersteller identifiziert geltende Anforderungen aus der MDR sowie anwendbare Normen und setzt diese systematisch um.
Phase 3: Erstellung der Technischen Dokumentation
Die Technische Dokumentation enthält alle Nachweise zur Sicherheit, Leistung und Konformität, einschließlich Risikoanalyse, klinischer Bewertung, Gebrauchsanweisung und Etikettierung.
Phase 4: Durchführung des Konformitätsbewertungsverfahrens
Das Konformitätsbewertungsverfahren ist der formale Weg zur CE-Kennzeichnung; abhängig von der Risikoklasse erfolgt es entweder durch Eigenbewertung oder unter Einbeziehung einer Benannten Stelle.
Phase 5: Prüfung durch Benannte Stelle (sofern erforderlich)
Für Produkte der Klassen IIa, IIb und III prüft eine Benannte Stelle je nach gewähltem Konformitätsbewertungsverfahren das Qualitätsmanagementsystem, die Technische Dokumentation oder beides, bevor der Hersteller die Konformitätserklärung ausstellen darf.
Phase 6: Ausstellung der Konformitätserklärung und Anbringung des CE-Zeichens
Nach erfolgreichem Verfahren stellt der Hersteller die EU-Konformitätserklärung aus und bringt das CE-Zeichen an – bei Einbindung einer Benannten Stelle unter Angabe ihrer Kennnummer.
Mit der CE-Kennzeichnung endet der Prozess jedoch nicht: Durch Vigilanz, Post-Market Surveillance und Änderungsmanagement muss der Hersteller auch nach dem Inverkehrbringen sicherstellen, dass das Produkt dauerhaft die regulatorischen Anforderungen erfüllt. Die CE-Kennzeichnung ist damit kein einmaliger Stempel, sondern das Ergebnis kontinuierlicher, systematischer Bemühungen um Qualität und Sicherheit, die den gesamten Lebenszyklus eines Produkts begleiten.
Herausforderungen in der Praxis
Die Realität zeigt: Der Weg zum CE-Zeichen ist für viele Unternehmen ein Kraftakt. Engpässe bei Benannten Stellen, hohe Anforderungen an klinische Daten und eine umfangreiche Dokumentationslast machen das Verfahren langwierig und ressourcenintensiv. Viele Unternehmen berichten, dass gerade die klinische Bewertung einen großen Zeit- und Kostenfaktor darstellt.
Hinzu kommt, dass verschiedene Fachbereiche – Qualitätsmanagement, Regulatory Affairs und Entwicklung – eng zusammenarbeiten müssen. Erst dieses Zusammenspiel ergibt ein vollständiges Bild.
Besonders kleine und mittelständische Hersteller stoßen hier an Grenzen. Gleichzeitig zeigt sich: Wer ein stabiles QMS etabliert, interne Abstimmungen und Zusammenarbeit effizient gestaltet und Expertise aufbaut, verschafft sich einen entscheidenden Vorteil.
Wie Qualität als Sicherheitsfaktor im Verteidigungsumfeld wirken kann und AQAP zum Impuls für das QM wird

Die ISO 9001 bildet das weltweit anerkannte Fundament moderner Qualitätsmanagementsysteme. Mit ihrem risikobasierten Ansatz fordert sie die systematische Identifikation und Bewertung von Risiken sowie die kontinuierliche Verbesserung von Prozessen. Ihre Stärke liegt in der universellen Anwendbarkeit – zugleich ist dies ihre Grenze: Die Norm bleibt bewusst allgemein und trifft keine Aussagen zu sicherheitskritischen Produkten, staatlichen Eingriffsrechten oder vertraglichen Nachweispflichten.
Im Defence-Umfeld, wo Qualität für lange Lebenszyklen von Ausrüstungen wichtig und zudem unmittelbar sicherheitsrelevant ist, genügt ein generisches QM-System daher nicht. Hier greifen ergänzende Anforderungen der NATO.
AQAP – die NATO-Erweiterung der ISO 9001
Die Allied Quality Assurance Publications (AQAP), insbesondere AQAP 2110 „NATO Quality Assurance Requirements for Design, Development and Production“, konkretisieren und erweitern die ISO 9001 um verteidigungsspezifische Vorgaben. Sie fordern insbesondere:
- Konfigurationsmanagement (CM): Vollständige Rückverfolgbarkeit aller Configuration Items über den gesamten Lebenszyklus; Änderungen müssen eindeutig identifizierbar, dokumentiert und genehmigt sein.
- Government Quality Assurance (GQA): Nationale Behörden entsenden Government Quality Assurance Representatives (GQAR) mit umfassenden Einsichts- und Prüfungsrechten – auch innerhalb der Lieferkette.
- Certificate of Conformity (CoC): Jeder Liefergegenstand ist mit einem verbindlichen Konformitätsnachweis zu versehen; Abweichungen bedürfen der formalen Genehmigung.
- Lieferantensteuerung: Der Prime Contractor trägt die Gesamtverantwortung für die Einhaltung aller AQAP-Anforderungen in seiner Supply Chain – inklusive Subcontractors.
Ergänzende Standards und Werkzeuge
Zur praktischen Umsetzung verweist die NATO auf flankierende Dokumente wie STANAG 4427 (Configuration Management in System Life Cycle Management) und ACMP-2000 (Policy on Configuration Management). Diese legen Prozesse, Rollen und Schnittstellen im Konfigurationsmanagement verbindlich fest. Ergänzend definiert AQAP 2105 „NATO Requirements for Quality Plans“ den projektspezifischen Qualitätsplan als operatives Steuerungsinstrument. Er beschreibt, wie die Normanforderungen in einem konkreten Projekt umgesetzt werden – inklusive Prüf- und Auditplänen, Schnittstellen, Meldewegen und Abweichungsverfahren. Im Unterschied zu zivilen QM-Plänen ist der AQAP-Quality-Plan vertraglich bindend und unterliegt der behördlichen Freigabe.
Besonderheiten im Defence-Kontext
Qualität im Verteidigungssektor ist mehrdimensional: Sie vereint technische, vertragliche und sicherheitspolitische Aspekte. Neben der Produktqualität stehen Themen wie Geheimschutz, Exportkontrolle, Fälschungsschutz und Auditfähigkeit der gesamten Lieferkette im Fokus. Die Qualitätssicherung wird so zum Governance-Instrument – mit unmittelbarer Relevanz für staatliche Aufsicht und internationale Interoperabilität.
Hinweis für Qualitätsmanagement-Profis
Ein Managementsystem nach ISO 9001 schafft eine belastbare Grundlage für AQAP-konformes Qualitätsmanagement. Für den Defence-Bereich sind jedoch zusätzliche Prozesse, Rollen und Nachweispflichten erforderlich – insbesondere in Bezug auf Konfigurationsmanagement, staatliche Prüfrechte und vertragliche Nachweise. All dies ist in einem integrierten Managementsystem abbildbar. Nur durch diese Erweiterungen wird aus einem ISO-System ein audit- und nachweisfähiges AQAP-Managementsystem.
Querschnittswirkung
Die in AQAP etablierten Prinzipien – vollständige Rückverfolgbarkeit, externe Qualitätssicherung und risikoorientierte Lieferkettenüberwachung – werden verstärkt auch im zivilen Umfeld diskutiert. Mit der zunehmenden Digitalisierung werden auch die NIS2, der Cyber Resilience Act, Cybersecurity-Schutz von Anlagen und Produkten und regulatorische Transparenzpflichten an Bedeutung gewinnen. Die Schnittmengen zwischen zivilen und militärischen Qualitätsanforderungen nehmen in anspruchsvollen Themenbereichen zu. Qualität entwickelt sich damit von einem reinen Managementthema zu einem sicherheitsrelevanten Steuerungsinstrument.
Bedeutung integrierter Managementsysteme
Ein integriertes Managementsystem, das mehrere Normen (auch die ISO 9001) unterstützt, bietet eine solide Grundlage für AQAP-konformes Qualitätsmanagement. Für den Defence-Bereich sind jedoch zusätzliche Strukturen, Verfahren und Nachweispflichten erforderlich, um die erweiterten Anforderungen der NATO-Normen vollständig zu erfüllen. Diese können nach den Vorgaben im Managementsystem hinterlegt werden und sind dann auch fachlich verlinkt. Zum Beispiel kann das Managementsystem von Opexa die Grundlage bilden und die ISO 9001 (neben ISO 27001 etc.) abdecken. Darauf kann dann mit AQAP 2110 (ist im System bereits hinterlegt) aufgebaut werden.
Ausblick – Qualität mit neuer Dynamik
Das Qualitätsmanagement fristet in Organisationen teilweise ein Schattendasein: zu normativ, zu bürokratisch, zu weit entfernt vom operativen Geschäft. Doch mit AQAP bekommt das Thema neuen Impuls. Plötzlich geht es über Prozesskennzahlen oder Auditzyklen hinaus auch um Sicherheit, Verlässlichkeit und staatliche Verantwortung. AQAP macht Qualität strategisch relevanter – greifbarer, überprüfbarer, entscheidungswirksamer. Wo ISO 9001 das Fundament legt, bringt AQAP neue Bewegung in die Struktur: Verbindlichkeit statt Allgemeingültigkeit, Transparenz statt Dokumentationsroutine. Dies stärkt das Qualitätsmanagement in der Rolle, , die es heutzutage einnehmen sollte – als Rückgrat sicherheitskritischer Lieferketten und als Motor für Vertrauen in komplexen, geopolitisch sensiblen Zeiten
Über den Autor:
Klaus Kilvinger ist Geschäftsführender Gesellschafter der Opexa Advisory GmbH, einer auf die Themen Digitalisierung, Cyber- und Informationssicherheit, sowie deren Integration in Geschäftsprozesse spezialisiertes Beratungsunternehmen mit Hauptsitz in München. Er ist seit über 30 Jahren in der IT-Branche aktiv und verfügt über ein breites anwendungsbezogenes Erfahrungswissen, verfügt ferner über umfassende Kenntnisse und Erfahrungen im IT-Projektgeschäft sowie Fachwissen in der Software-Qualitätssicherung. Die Informationssicherheit im nationalen und internationalen Umfeld ist sein Zuhause. Als zertifizierter IT-Security Manager, IT-Security Beauftragter sowie Datenschutzbeauftragter verfügt er über breite Branchenkenntnisse, über die Fertigungs-, Automobilindustrie, den öffentlichen Sektor bis hin zur Wirtschaftsprüfung. Zur Website »
Aktuelles aus der Managementsystemnormung – Revisionen von ISO 9001 und Co.

Als Fachgesellschaft wirkt die DGQ regelmäßig an strategischen Entscheidungen und der thematischen Schwerpunktsetzung in der nationalen und internationalen Normung mit. Von besonderem Interesse sind in diesem Zusammenhang die Managementsystemnormen. Durch das internationale Engagement von DGQ-Expert:innen in den thematisch relevanten Gremien und zusätzlich national in Beiräten sowie ausgewählten Gremien erhält die DGQ die Möglichkeit, Synergien zwischen verschiedenen Normenrevisionen zu erkennen und zu nutzen. Ziel ist eine harmonisierte Weiterentwicklung im Sinne der Anwender:innen. Das Jahr 2025 steht dabei ganz im Zeichen der Revisionen von ISO 9001, ISO 9000 und ISO 19011, die von DGQ-Expert:innen intensiv begleitet werden.
Revision von ISO 9001: Draft International Standard (DIS) erreicht
Aktuell und noch bis zum 22. Oktober läuft die öffentliche Kommentierungsphase für den DIS (Draft International Standard) von ISO 9001. Nach Ablauf der Kommentierungsfristen wird die zuständige Arbeitsgruppe die Rückmeldungen bewerten und zum Final Draft International Standard (FDIS) einarbeiten.
Der aktuelle Zeitplan umfasst die folgenden Meilensteine:
- Dezember 2023 – Februar 2024: Erarbeitung des Working Drafts (WD), erster Entwurf und Kommentierung im Gremium London Meeting.
- März – Juni 2024: Bearbeitung und Kommentierung des ersten Committee Drafts (CD1)
- Juli – Dezember 2024: Auswertung der CD1-Kommentare im Rahmen des Detroit Meetings.
- Januar – Juni 2025: Erstellung und Kommentierung des zweiten Committee Drafts (CD2) im Paris Meeting.
- August 2025 – März 2026: Veröffentlichung und Diskussion des Draft International Standard (DIS) inklusive öffentlicher Kommentierung im Zuge des Mexico Meetings.
- April – Juni 2026: Finalisierung des Final Draft International Standard (FDIS).
- September 2026: Veröffentlichung der ISO 9001:2026.
Alle Termine verstehen sich als Zielmarken – kleinere Verschiebungen im Projektverlauf sind möglich. Der gesamte Revisionsprozess ist auf 36 Monate angelegt und wird vom internationalen ISO-Gremium TC 176 SC2 WG29 koordiniert.
Wesentliche Änderungen im DIS gegenüber der 2015er Version – Stand August 2025
Grundsätzlich halten sich die inhaltlichen Änderungen der in ISO 9001 festgelegten Anforderungen in Grenzen. Ein zentraler Punkt ist die Einarbeitung der aktuellen Vorgaben der in den ISO-Direktiven festgelegten „Harmonized Structure“ für Managementsystemnormen (HS). Die entsprechenden Inhalte hat die zuständige Arbeitsgruppe sprachlich präzisiert und vereinheitlicht. In Abschnitt 3 wurden sämtliche Begriffe aus der HS ergänzt, ohne dabei den Bezug zur ISO 9000 zu ändern.
Auch die Inhalte des „ISO 9001: 2015 Amendment 1:2024“ mit Bezug zum Klimawandel wurden integriert. Die Anmerkungen zu den Anforderungen wurden von der Arbeitsgruppe auf Aktualität und Vollständigkeit geprüft und zum Teil angepasst.
Weitere Ergänzungen in den einzelnen Kapiteln umfassten die folgenden Aspekte:
- Zusätzliche Anforderungen und Anmerkungen wurden unter anderem in den Abschnitten 5.1.1, 8.2, 8.3.1, 8.3.3, 8.5.1, 9.3.2 und 10.2.1 aufgenommen
- Der Abschnitt 5.1.1. „Förderung einer Qualitätskultur und ethisches Verhalten“ wurde neu aufgenommen
- Der Abschnitt 5.2.1 e) “…Kontext der Organisation und strategische Ausrichtung“ wurde neu aufgenommen
- Der Abschnitt 6.1 „Maßnahmen zum Umgang mit Risiken und Chancen“ wurde um die Unterabschnitte 6.1.2 „Maßnahmen zum Umgang mit Risiken“ und 6.1.3 „Maßnahmen zum Umgang mit Chancen“ ergänzt
- Im Abschnitt 7.3 „Bewusstsein“ wurde eine Anforderung ergänzt: e) „Qualitätskultur der Organisation und ethisches Verhalten“
- Der informative Anhang A „Erläuterung der Struktur, Terminologie und Konzepte“ wurde nach langer Diskussion um Zielsetzung und Umfang neu erstellt. Dies dient zur Unterstützung des Verständnisses der Anforderungen
Änderungen zur Vorgängerversion werden nicht mehr aufgeführt. Ersatzlos gestrichen wurde der informative Anhang B „Andere Internationale Normen des ISO/TC 176 zu Qualitätsmanagement und Qualitätsmanagementsystemen“. Darüber hinaus wurde die Norm redaktionell überarbeitet.
Revision von ISO 9000
Parallel zur ISO 9001 befindet sich auch ISO 9000 in Revision. Die Ergebnisse beider Überarbeitungen werden aufeinander abgestimmt. Anfang 2025 konnte die zuständige Arbeitsgruppe den DIS fertigstellen. Auch Inhalte und Positionen von DGQ-Vertretern konnten in dem Gremium eingebracht und diskutiert werden. Aktuell befindet sich der DIS in der Kommentierungsphase. Eine Veröffentlichung ist für das vierte Quartal 2025 geplant.
Folgende Änderungen sind im DIS zu verzeichnen:
- Der neue Titel von ISO 9000 lautet „Quality Management Systems – Fundamentals and Vocabulary“
- Definitionen wurden geprüft, aktualisiert bei Bedarf (HS-Kompatibilität), umstrukturiert und ergänzt um Definitionen aus allen TC 176 Standards – unter anderem sektorspezifische Ergänzungen
- Die Grundlagen des Qualitätsmanagements („fundamentals of QM“) werden in Kapitel 2 ergänzt und neu strukturiert
- Integration von Themen aus den Future-Concepts-Papieren
- Umgruppierung in die Abschnitte „Quality management principles“, „fundamental concepts“ und Erweiterung um „additional concepts relevant to quality management“
- Die sogenannten QM Principles bleiben inhaltlich erhalten
Wie bei der Revision von ISO 9001 gilt: Sowohl der Anwendungsbereich als auch die Inhalte der Norm bleiben grundsätzlich bestehen. Ein Schwerpunkt der Überarbeitung liegt auf der Harmonisierung der Begriffe mit dem aktuellen Annex SL sowie der Abstimmung zur Terminologie mit anderen ISO Technical Committees.
Parallel zur 9000er Revision analysiert die Arbeitsgruppe TC 176 TG 4 Entwicklungen und Trends mit Relevanz für das Qualitätsmanagement und zieht daraus Schlussfolgerungen für die Erarbeitung von Leitfäden oder Normänderungen. Auch hier sind DGQ-Vertreter involviert, so unter anderem im Themenfeld Qualitätsmanagement und Künstliche Intelligenz sowie Ethik und Integrität. Zwischen den ISO-Gremien und der DGQ-Facharbeit werden anlassbezogen Meinungen und Fachbeiträge ausgetauscht.
Revision der ISO TS 9002
Kürzlich hat ISO TC 176 beschlossen, ISO TS 9002, den Anwenderleitfaden zur 9001, zeitparallel zu überarbeiten. Derzeit läuft das Revisionsprojekt an mit dem Ziel, den Leitfaden zu aktualisieren und mit den Änderungen in ISO 9001 in Einklang zu bringen. Alle laufenden Projekte und Aktivitäten des DIN-Normenausschusses „Qualitätsmanagement, Statistik und Zertifizierungsgrundlagen“ (NQSZ, auch NA 147 bei DIN) sind dem aktuellen Report des DIN NQSZ zu entnehmen.
Revision der Audit-Norm ISO 19011
Auch die ISO 19011 – Leitfaden zur Auditierung von Managementsystemen unterläuft derzeit eine Überarbeitung. 2024 fanden mehrere Meetings statt, wobei der Schwerpunkt der Revision auf der Erweiterung um Remote-Audit-Methoden sowie der Harmonisierung mit anderen Managementsystemnormen lag. Mittlerweile ist ISO 19011 als DIS erschienen und die Kommentare wurden bewertet – die Veröffentlichung ist für Januar 2026 geplant.
Mit der ISO 17012 hat die ISO vergangenes Jahr einen Leitfaden für die Durchführung von „Audits aus der Ferne“ herausgebracht. Diese Arbeiten fanden primär in einer Arbeitsgruppe von ISO CASCO statt und mündeten in der Veröffentlichung der Remote-Audit-Norm als DIN ISO/IEC TS 17012:2025-04 Konformitätsbewertung – Leitlinien für die Nutzung von Remote-Audit-Methoden beim Auditieren von Managementsystemen. Sie stellt eine Ergänzung zur ISO 19011 dar. Entsprechende Verweise wurden in der ISO 19011 hergestellt.
Weitere Revisionen – Umweltmanagement: Update zur ISO 14001
Neben der Überarbeitung der maßgeblichen Qualitätsmanagementnormen läuft derzeit auch eine Revision von ISO 14001. Das Hauptaugenmerk der Überarbeitung liegt unter anderem auf der Einarbeitung geänderter Inhalte aus der Harmonized Structure der ISO Directives. Die Publikation ist für Anfang 2026 geplant. Auch im vergangenen Jahr begleitete ein DGQ-Experte die Revision und war in die Entscheidungen des TC 207 (Umweltmanagement) involviert. Zuletzt fiel die Entscheidung, anstelle der Erarbeitung des Amendmends eine Revision durchzuführen und die Norm nach Abschluss des Prozesses in einer neuen Ausgabe herauszubringen.
Alle laufenden Projekte und Aktivitäten mit Umweltbezug sind dem aktuellen Report des DIN NAGUS zu entnehmen.
Nachhaltigkeitsmanagement: Erarbeitung der SDG-Norm ISO 53001
Aktuell arbeitet die ISO auch daran, die Realisierung der Nachhaltigkeitsziele der Vereinten Nationen in einen Managementsystemstandard umzusetzen: Ein dafür eingerichtetes ISO-Projektkomittee entwickelt derzeit die ISO 53001 – „Management Systems for UN Sustainable Development Goals – Requirements“. Mit der neuen Norm will die ISO ein global anwendbares Instrument schaffen, mithilfe dessen Organisationen ausgewählte UN-Ziele („Sustainable Development Goals“, SDGs) umsetzen können. Eine DGQ-Expertin aus dem DGQ-Fachkreis Nachhaltigkeit wirkt über das entsprechende DIN-Gremium an der Erarbeitung mit.
Weitere Normungsprojekte mit Managementsystembezug
Des Weiteren sind Expert:innen der DGQ auch im Normenausschuss Organisationsprozesse (NAORG) beim DIN vertreten. Sie gewährleisten, dass sämtliche in Entwicklung oder Bearbeitung befindlichen Managementsystemnormen und zugehörigen Aktivitäten der DGQ bekannt sind, und nehmen gegebenenfalls entsprechend Einfluss. Die Stati der entsprechenden Normen sind auf der Seite des DIN-Normenausschuss Organisationsprozesse aktuell einsehbar.
Ein detaillierter Überblick über die laufenden Projekte und Aktivitäten sind im Jahresbericht 2024 enthalten.
Normungsprojekte mit Bezug zu Konformitätsbewertung
Im Rahmen der Revision von ISO 17024 („Konformitätsbewertung – Allgemeine Anforderungen an Stellen, die Personen zertifizieren“) wirkten DGQ-/EOQ-Experten vergangenes Jahr in der Arbeitsgruppe ISO CASCO WG 30 aktiv mit. Ziel ist, die bewährten Strukturen und Anforderungen an Personenzertifizierungsstellen beizubehalten und aktuelle Entwicklungen vor allem hinsichtlich der Durchführung von Remote-Prüfungen und der Nutzung von künstlicher Intelligenz zu berücksichtigen. Im Verlauf des Jahres 2024 hat die zuständige ISO-Arbeitsgruppe in mehreren Meetings einen CD erarbeitet und die eingegangenen Kommentare ausgewertet, sodass Anfang 2025 der DIS eingereicht und kommentiert werden konnte.
| Als DGQ-Mitglied an der nationalen und internationalen Normung mitwirken Zahlreiche DGQ-Normungsexpert:innen sind in den relevanten Normungsgremien bei DIN, DKE, VDI und ISO aktiv. Dort engagieren sie sich in der Erarbeitung von Normen und Richtlinien, entwickeln Stellungnahmen zu Normungsvorhaben, wirken bei Interpretationsanfragen für die Normenanwendung mit, besuchen Gremiensitzungen und formulieren Beiträge für die interne und externe Kommunikation. Bei Interesse an einer Beteiligung an der DGQ-Normungsarbeit wenden Sie sich gerne an thomas.votsmeier@dgq.de. Aktuelle Informationen rund um die Revision von ISO 9001 finden Interessierte hier. Für allgemeine Informationen zum Thema Normung werfen Sie gerne einen Blick auf die DGQ-Themenseite Normung. |
Über den Autor:
Dipl. Ing. Thomas Votsmeier leitet das Themengebiet Normung bei der DGQ. Er engagiert sich in verschiedenen Fachgremien bei der European Organisation for Quality (EOQ), der International Personnel Certification Association (IPC), dem Deutschen Institut für Normung und International Standard Organisation (ISO). Unter anderem ist er fachlicher Leiter des DIN NA 147 – 00 – 01 AA Qualitätsmanagement und Mitglied bei ISO TC 176, TC 207 und ISO CASCO.
ISO 9001:2026 – DGQ, DIN Media und DQS mit Informationen aus erster Hand / Expertenwissen für Qualitätsverantwortliche auf dem Weg zur Revision
Die Revision der bekanntesten Managementsystemnorm steht an: Die neue Fassung der DIN EN ISO 9001 soll planmäßig im Herbst 2026 veröffentlicht werden. Die aktuell gültige Fassung stammt aus dem Jahr 2015. Bislang steht fest: Die Überarbeitung zielt darauf ab, die Wirksamkeit eines Qualitätsmanagementsystems zu erhöhen. Für Qualitätsmanager und Qualitätsmanagementbeauftragte stellen sich schon im Vorfeld zentrale Fragen: Welche neuen Anforderungen bringt die Norm? Ist mit zusätzlichen Erläuterungen zu rechnen, die bei der Umsetzung helfen? Hat die Revision Auswirkungen auf die Zertifizierung des Managementsystems? Welche Chancen bieten sich? Wo finden sich rechtzeitig die erforderlichen und relevanten Informationen?
Revision der Leitnorm: Drei starke Partner schließen sich zusammen.
Mit der Deutschen Gesellschaft für Qualität (DGQ), DIN Media (Tochterunternehmen des Deutschen Instituts für Normung, DIN e. V.) und der Deutschen Gesellschaft zur Zertifizierung von Managementsystemen (DQS) haben sich drei Partner erneut zusammengetan, die in dieser Kombination wie keine anderen Institutionen für Normungsexpertise in Deutschland stehen.
Ziel der Kooperation ist es, allen Qualitätsverantwortlichen auf Basis des jeweils veröffentlichten Entwurfs während des Revisionsprozesses mit Rat und Tat zur Seite zu stehen und sie mit Fachinformationen zu allen Themen rund um die Norm zu begleiten. Aufgrund ihrer Mitwirkung in nationalen und internationalen Normungsprozessen und der Repräsentanz in den zentralen Normungsgremien – wie beispielsweise im revisionsverantwortlichen ISO/TC 176 – sind DIN Media, DGQ und DQS eng in den Überarbeitungsprozess eingebunden.
Veranstaltungsreihe und weitere Informationsangebote
Mit dieser Kooperation wiederholen die drei Partner die erfolgreiche Zusammenarbeit anlässlich der letzten Revision 2015, bei der das gemeinsame Angebot auf eine große Resonanz stieß.
Zentrales Element der Kooperation bildet eine Veranstaltungsreihe unter dem Motto “ISO 9001:2026 – Die nächste Generation”, die im Sommer 2026 startet und sowohl in Präsenz als auch Online durchgeführt wird. Hochkarätige und praxiserfahrene Referenten werden den Teilnehmenden alle relevanten Neuerungen vermitteln. Gleichzeitig bieten die Veranstaltungen ausreichend Raum für Vernetzung und den Austausch unter Qualitätsfachleuten.
Über die gesamte Revisionsphase werden die Kooperationspartner über verschiedene weitere Formate, wie Webinare, Blogbeiträge oder Fachartikel aktuelle Informationen zur Verfügung stellen.
Dabei lassen sie ihre Perspektiven und Schwerpunkte einfließen: Normung, Personenzertifizierung und Zertifizierung von Managementsystemen.
Deutsche Expertise prägt internationale Normung
Marion Winkenbach, Co-Geschäftsführerin von DIN Media, führt aus: “Die DIN EN ISO 9001 ist von zentraler Bedeutung, weil sie weltweit die Qualität von Produkten und Dienstleistungen sichert. In den Entwürfen für die Revision wird deutlich, dass die Norm dazu auch aktuelle Herausforderungen wie Klimawandel und KI aufnehmen muss. So trägt sie dazu bei, dass Organisationen ihr Qualitätsmanagement weiterentwickeln und zukunftssicher gestalten. Unsere Aufgabe besteht darin, die neue Norm für alle zugänglich zu machen und bei ihrer Anwendung zu unterstützen.”
Multiplikator und Meinungsbildner in der Qualitäts-Community
Claudia Welker, Geschäftsführerin der DGQ, erklärt: “Mit der Revision der IS0 9001 bieten sich dem Qualitätsmanagement neue Chancen, die eigene Wirksamkeit zu erhöhen. Die zentrale Rolle spielen dabei die Menschen in den Organisationen. Sie benötigen relevantes Wissen und die notwendigen Skills, um die geänderten Anforderungen zielführend und nutzbringend umzusetzen. Unsere Kooperation leistet dazu mit einer gemeinsamen Veranstaltungsreihe 2026 einen fundierten Beitrag ”
Umsetzungssicherheit: Vom Normtext zur Auditpraxis
Als Geschäftsführer der DQS GmbH ergänzt Christian Gerling die Zertifizierungsperspektive: “Ein sorgsam auditiertes und zertifiziertes Qualitätsmanagementsystem nach ISO 9001 unterstützt Organisationen weltweit, Vertrauen aufzubauen, Innovationen voranzutreiben und nachhaltiges Wachstum zu erzielen. Die Revision im kommenden Jahr wird einen weiteren Meilenstein in der Geschichte der ISO 9001 darstellen, weil sie auf die Glaubwürdigkeit und den Nutzen eines zertifizierten QM-Systems einzahlt.”
DGQ, DIN Media und DQS – Informationen zu den Kooperationspartnern
DGQ, DIN Media und DQS bündeln ihre langjährige Expertise für Qualitätsmanagementsysteme und begleiten die Revision der ISO 9001 mit ihrer Fachkompetenz.
Die Deutsche Gesellschaft für Qualität (DGQ) ist überzeugt, dass Qualität das Herzstück allen Erfolgs ist. Als zentrale, deutsche Qualitätsgesellschaft vereint die DGQ in ihrem einzigartigen Netzwerk fast 6.000 Qualitätsexperten in Unternehmen aller Größen und Branchen. Sie bietet ein vielseitiges Spektrum an betrieblichen Weiterbildungen und Beratung im Bereich Managementsysteme. Die unabhängige DGQ-Personenzertifizierungsstelle erteilt im Markt anerkannte Personenzertifikate. Darüber hinaus engagiert sich die DGQ in Normungsprojekten und fördert über die FQS e. V. Forschungsprojekte rund um Qualität. www.dgq.de
DIN Media ist führender Publisher für nationale und internationale Normen, Standards und Technische Regeln: Über die zentrale Plattform dinmedia.de sind mehr als 1 Million Dokumente von über 90 Regelsetzern erhältlich. Zum Leistungsspektrum gehören außerdem Fachinhalte und Services, die bei der Anwendung von Normen und Standards unterstützen: Software-Lösungen für das Normen-Management, praxisorientierte Fachliteratur und Umsetzungshilfen, digitale Normensammlungen sowie Weiterbildungen. Mehr Informationen unter dinmedia.de/iso-9001
Die Deutsche Gesellschaft zur Zertifizierung von Managementsystemen (DQS) zählt zu den weltweit führenden Zertifizierungsdienstleistern. Mit fundierter Auditpraxis und internationaler Erfahrung prüft die DQS in jährlich über 125.000 Audittagen die Einhaltung von Normanforderungen und Regelwerken und zertifiziert Managementsysteme nach über 200 global anerkannten Standards. Mehr Informationen unter https://www.dqsglobal.com/de/.
Gemeinsam bauen die drei Institutionen die Brücke von der Normung über Kompetenzentwicklung bis zur vertrauensbildenden Zertifizierung.
Weitere Informationen rund um die Revision der DIN EN ISO 9001 finden sich hier.
Pressekontakt
Unternehmenskommunikation DGQ
Hinrich Stoldt
Telefon: 069 95424-170
E-Mail: hinrich.stoldt@dgq.de
www.dgq.de
iso-9001-revision.info
Messen auf eigene Gefahr: Normkonformität in der Messtechnik sicherstellen

Normen einzuhalten ist für eine zuverlässige Messtechnik essenziell. Besonders hervorzuheben ist dabei die DIN EN ISO 5459, die spezifische Vorgaben zur Tolerierung und zur Festlegung von Bezugssystemen macht. Seit Oktober 2024 ist die Neufassung der Norm ISO 5459 für Bezüge und Bezugssysteme offiziell in Kraft. Diese neue Fassung, die bisher ausschließlich in englischer Sprache verfügbar ist, bringt grundlegende Neuerungen mit sich, vor allem bei der Bezugsbildung. Diese Änderungen stellen Anwender:innen sowie Hersteller von Messtechnik und Softwarelösungen vor besondere Herausforderungen, die weit über das bloße Verstehen der neuen Festlegungen hinausgehen.
Präzisere Bezugsbildung für moderne Anforderungen
Die Berechnung von Bezugsflächen spielt eine entscheidende Rolle in der normgerechten Tolerierung und Auswertung geometrischer Merkmale. Bislang galt bei der Berechnung ebener Bezugsflächen die Zielfunktion nach Tschebyscheff/Minimax mit der Nebenbedingung des Außenmaterials als Standard. Dies wurde durch das Symbol [CE] dargestellt, das jedoch nicht explizit in Zeichnungen gekennzeichnet werden musste, da es als Default galt (s. auch PDF-Datei “Symbole, Abkürzungen und Benennungen für die Maß-, Form- und Lagetolerierung“)
Mit der aktuellen ISO 5459 wurde dieser Standard geändert. Nun erfolgt die Berechnung ebener, geschlossener Bezugsflächen standardmäßig mithilfe der Zielfunktion nach Gauß (kleinste Abweichungsquadrate) bei gleichzeitiger Berücksichtigung des Außenmaterials. Dieses neue Standardverfahren wird durch das Symbol [GE] kenntlich gemacht.
Eine Ausnahme existiert jedoch für komplanare, unterbrochene Ebenen, wie beispielsweise kombinierte Bezüge (A-A oder A-B). Hier bleibt die ursprüngliche Zielfunktion nach Tschebyscheff/Minimax bestehen. Wichtiger Hinweis zu der Norm: Es darf keine Verwechslung mit dem Assoziationskriterium [G+] geben, da dies zu unterschiedlichen Ergebnissen führt. Die Unterscheidung beruht auf den jeweiligen mathematischen Prinzipien und Definitionen der Symbole.
Eine weitere wesentliche Neuerung der aktualisierten Norm ist die Einführung des morphologischen Hüllfilters [EM]. Dieser Ansatz berücksichtigt funktionale Anforderungen stärker und ermöglicht robustere, präzisere Ergebnisse. Durch seine anwendungsorientierte Analyse unterstützt der morphologische Hüllfilter die Optimierung der räumlichen Ausrichtung von Bauteilen.
Mit diesen und weiteren Änderungen stellt die ISO 5459 sicher, dass die Bezugsbildung den steigenden Ansprüchen in der Messtechnik gerecht wird. Das Verständnis und die korrekte Anwendung dieser Neuerungen sollten daher zum unmittelbaren Bestandteil der Qualitätssicherung werden. Die frühzeitige Auseinandersetzung mit den neuen Anforderungen ist unerlässlich, weil die Änderungen eine bessere Zusammenarbeit zwischen Konstruktion, Messtechnik und Qualitätssicherung ermöglichen.
Softwarekompatibilität als Herausforderung
Die Nutzung moderner Messsoftware ist heute fester Bestandteil der Qualitätssicherung. Die fortschreitende Normung bringt nicht nur fachliche Neuerungen mit sich, sondern stellt auch die Softwarekompatibilität in der Messtechnik vor Herausforderungen. Für Messtechniker stellt sich somit die Frage: „Ist mein Messsystem bereits auf dem neuesten Stand und wird es den aktuellen Normanforderungen tatsächlich gerecht?“
Der erste Entwurf der überarbeiteten ISO 5459 wurde 2017 veröffentlicht und bot damals schon spannende neue Ansätze und Möglichkeiten für die Messtechnik. Der Besuch der Control 2025 zeigte auf, dass die Neuerungen der Norm noch nicht flächendeckend umgesetzt wurden, was der Branche zugleich eine wertvolle Gelegenheit zur Weiterentwicklung bietet. Es wird deutlich, dass die Umstellung auf neue Normen eine gewisse Zeit sowie eine klare Kommunikation erfordert.
Die Angleichung an die ISO 5459 schafft eine solide Basis für die Weiterentwicklung von Qualitätssicherungsprozessen und technologischen Standards. Hersteller und Nutzer:innen von Messtechnik und Softwarelösungen können durch eine frühzeitige Anpassung nicht nur eine präzisere Normenkompatibilität gewährleisten, sondern auch ihre Marktposition langfristig stärken.
Fazit: Qualität durch Kompetenz – Den Wandel aktiv gestalten
Die Neuerungen der ISO 5459 unterstreichen, wie entscheidend die Aktualisierung von Normen für eine präzise und funktionale Messtechnik ist. Sie beeinflusst die gesamte Zusammenarbeit zwischen Konstruktion, Fertigung und Qualitätssicherung. Allerdings zeigt die schleppende Einführung in vielen Bereichen, dass ein klarer Bedarf an Aufklärung besteht. Hersteller von Messsystemen, Anwender:innen und Qualitätssicherer müssen die Neuerungen konsequent in ihre Arbeit integrieren, wenn sie normgerechte Prüfungen und langfristige Qualität sicherstellen wollen. Frühzeitige Sensibilisierung und praxisnahe Schulungen sind der Schlüssel, um Kompatibilitätsprobleme zu vermeiden und die Potenziale der Norm optimal auszuschöpfen.
Letztlich ist dies nicht nur eine Frage der Normerfüllung, sondern auch die der Wettbewerbsfähigkeit und Innovationskraft der gesamten Industrie. Die Zukunft der Messtechnik steckt voller Potenziale und diejenigen, die frühzeitig handeln, profitieren nachhaltig vom Wandel und der technologischen Entwicklung.
Über den Autor:
Colin Jambé, Bachelor Professional ist seit 2019 DGQ-Trainer in den Bereichen Längenmesstechnik, ISO-GPS und Prüfmittelverwaltung tätig. Er arbeitet bei der Kostal Kontakt Systeme GmbH & Co. KG in Lüdenscheid. Seine Schwerpunkte liegen in der modernen 3D Messtechnik, der Zeichnungsprüfung sowie in der Moderation von Schulungen und Workshops. Zudem beschäftigt er sich intensiv mit den Normen und deren Anwendung in der Messtechnik.
Technische Präzision als Teamarbeit: Die Rolle der DIN EN ISO 8015 in technischen Zeichnungen und Toleranzsystemen

Die DIN EN ISO 8015:2011-09 ist seit vielen Jahren eine zentrale und unverzichtbare Norm in der Welt der Technik. Häufig findet sich ihr Verweis im Schriftfeld technischer Zeichnungen. Die Norm dient Konstrukteur:innen, Entwickler:innen, Messtechniker:innen und Qualitätsprüfer:innen als unverzichtbares Werkzeug, um Missverständnisse zu vermeiden, klare Prüfbarkeit sicherzustellen und die Einhaltung hoher Qualitätsstandards zu fördern. Ihre konsequente Anwendung ermöglicht nicht nur präzisere Abläufe, sondern leistet durch Effizienzsteigerung einen wichtigen Beitrag zur globalen Wettbewerbsfähigkeit von Unternehmen.
Doch wie wird sichergestellt, dass diese Norm nicht nur auf dem Papier existiert, sondern in der Praxis sinnvoll und effektiv umgesetzt wird? Dieser Artikel beleuchtet die Bedeutung im produktiven Zusammenspiel zwischen den beteiligten Abteilungen, damit technische Zeichnungen den Stellenwert erhalten, den sie verdienen: ein Kommunikationstool für Präzision und Wirtschaftlichkeit.
Die 13 Grundsätze der DIN EN ISO 8015: Verantwortung und Zusammenarbeit
Ein zentraler Bestandteil der fundamentalen Norm DIN EN ISO 8015 sind die 13 Grundsätze. Dazu zählen unter anderem der Grundsatz des Aufrufens, der Grundsatz Normenhierarchie sowie der Grundsatz der Unabhängigkeit. Der Grundsatz der Verantwortung führt regelmäßig zu Diskussionen. Er fordert unmissverständlich, dass die eindeutige und funktionsgerechte Spezifikation eines Bauteils in der Verantwortung der Konstrukteur:innen liegt. In der Praxis zeigt sich jedoch, dass diese Verantwortung nicht ausschließlich auf der Konstruktionsebene angesiedelt sein sollte.
Dabei spielt der Grundsatz der Dualität, ebenfalls in der DIN EN ISO 8015 verankert, eine entscheidende Rolle. Dieser weist die Verantwortung für die Verifikation der Qualitätsplanung und Qualitätssicherung zu. In der Praxis zeigt sich jedoch, dass eine enge Verzahnung zwischen der Verifikation und Spezifikation notwendig ist. Erst durch dieses Wechselspiel zwischen Qualitätsplanung und Konstruktion wird sichergestellt, dass die Anforderungen an das Produkt vollständig und realistisch spezifiziert werden können.
Die Entwicklung moderner Produkte erfordert ein enge Zusammenarbeit von Konstruktion, Fertigung, Messtechnik, Qualitätssicherung und weiteren Fachbereichen. Nur wenn alle Beteiligten abgestimmt und im Team agieren, lässt sich gewährleisten, dass ein Produkt nicht nur funktional, sondern auch wirtschaftlich und herstellbar bleibt.
Kommunikative Funktion von technischen Zeichnungen: Mehr als Maße und Linien
Technische Zeichnungen sind ein zentrales Kommunikationsmittel zwischen den verschiedenen Ebenen und Abteilungen entlang der gesamten Wertschöpfungskette. Damit sie die Fertigung und Qualitätskontrolle wirkungsvoll unterstützen können, müssen sie lösungs- und praxisorientiert gestaltet werden.
Die Entscheidung, ein Nennmaß auf eine Zeichnung zu bringen, basiert deshalb nicht allein auf funktionalen Anforderungen. Vielmehr fließen juristische, praktikable, fertigungs- und prüftechnische Überlegungen in diese Entscheidung mit ein.
- Ein zentrales Prinzip lautet: Nur ein Nennmaß, das alle relevanten Anforderungen erfüllt, sollte auf die technische Zeichnung gebracht werden. Ein Maß, das nicht funktional relevant ist, sollte weggelassen werden, um unnötige Komplexität zu vermeiden.
- Nennmaße müssen eine Normverbindlichkeit haben. Unklare oder anderweitig normwidrige Zeichnungseintragungen gelten rechtlich als Konstruktionsfehler und können teure Konsequenzen, von zusätzlichen Anpassungen über Qualitätsmängel bis hin zu Produkthaftungsansprüchen, nach sich ziehen.
- Ein Nennmaß auf einer technischen Zeichnung muss praktikabel sein. Das heißt, mit den Fähigkeiten der eingesetzten Werkzeuge, Maschinen und Prüfmethoden übereinstimmen. Maß und Toleranz dürfen weder die Fertigung überfordern noch überspitzt toleriert sein, wenn diese Präzision für Funktion oder Montage nicht erforderlich ist. Dadurch wird sichergestellt, dass die Maßvorgaben technisch machbar und wirtschaftlich sinnvoll sind.
- Ein Nennmaß ist erforderlich, wenn es einen direkten Einfluss auf die Fertigung des Bauteils hat. Das Maß muss an den Fertigungsprozess angepasst sein und sollte realistisch und herstellbar sein. Hierbei ist es essenziell, dass die Vorgaben von der Konstruktion in enger Zusammenarbeit mit der Fertigungsplanung definiert wurden. Ein schlecht spezifiziertes oder unrealistisches Maß ohne Erklärung führt dagegen zu Problemen und muss auf der Zeichnung vermieden werden. Mögliche Probleme umfassen unter anderem erhöhte Kosten durch Verzögerungen, Ausschuss sowie Fertigungsprobleme in der Produktion.
- Nennmaße müssen prüfbar sein. Das heißt, sie müssen während oder nach der Fertigung, mit geeigneten Messmitteln überprüft werden können. Nicht oder nur schwer prüfbare Maße führen zu Problemen in der Qualitätssicherung und der Fertigung. Daher sollte ein Nennmaß niemals auf einer Zeichnung bleiben, wenn es nicht messtechnisch überprüfbar ist und keine zusätzlichen Maßnahmen zur Lösung des Problems (zum Beispiel alternative Messmethoden, Funktionstests, Toleranzanpassung) durchgeführt werden können. Sollten solche Maße erforderlich sein, müssen alternative Lösungen wie angepasste Prüfmethoden oder Funktionstests definiert werden.
Teamarbeit als Schlüssel zum Erfolg: Die Rolle der Entwickler:innen
In der Praxis können Entwickler:innen selten alle Fragen zur Fertigung, Prüfbarkeit und Umsetzung eines Bauteils allein beantworten. Das moderne Produktentwicklungsumfeld ist daher von einer interdisziplinären Zusammenarbeit mit dem Ziel geprägt, aus unterschiedlichen Perspektiven gemeinsam die optimalen Lösungen zu erarbeiten.
Die Verantwortung von Entwickler:innen besteht somit darin, die gestellten technischen Anforderungen klar und eindeutig zu formulieren. Gleichzeitig ist es wichtig, dass sie frühzeitig den Dialog mit den Fachkolleg:innen aus Werkzeugbau, Fertigung, Messtechnik und Qualitätssicherung suchen. Nur auf diese Weise können Vorgaben herstell- und prüfbar spezifiziert werden. Ein funktionierender Informationsaustausch ist in diesem Zusammenhang kein „Nice-to-have“, sondern ein Muss.
Fazit: Gemeinsam die Norm als Chance begreifen
Die DIN EN ISO 8015 fordert Unternehmen dazu auf, technische Zeichnungen als verbindliche Kommunikationsmittel zu betrachten und diese sorgfältig sowie zielführend zu gestalten. Entwickler:innen müssen nicht alle Antworten kennen, sondern die richtigen Fragen stellen und lösungsorientiert vorgehen. In einer globalisierten Produktionswelt gelingt dies jedoch nur, wenn alle Beteiligten, von der Entwicklung über die Konstruktion bis hin zu Messtechnik und dem Qualitätsmanagement, gut zusammenarbeiten. Nur so lassen sich die Herausforderungen meistern und hohe Standards für Qualität, Effizienz sowie Präzision etablieren.
Über den Autor:
Colin Jambé, Bachelor Professional ist seit 2019 DGQ-Trainer in den Bereichen Längenmesstechnik, ISO-GPS und Prüfmittelverwaltung tätig. Er arbeitet bei der Kostal Kontakt Systeme GmbH & Co. KG in Lüdenscheid. Seine Schwerpunkte liegen in der modernen 3D Messtechnik, der Zeichnungsprüfung sowie in der Moderation von Schulungen und Workshops. Zudem beschäftigt er sich intensiv mit den Normen und deren Anwendung in der Messtechnik.
Lenkung dokumentierter Informationen – ein Weg in die digitale Welt

Jede Leistung eines Unternehmens muss sich an Anforderungen, die an die verschiedenen Merkmale der Leistung gestellt werden, messen lassen. Aber wo kommen die Anforderungen her, wer hat sie festgelegt, geprüft und ihre Umsetzbarkeit bewertet?
Die Anforderungen beziehen sich nicht nur auf ein Produkt, sondern auch auf Prozesse, Verfahren, Qualifikationen, Qualität, Arbeitssicherheit, Umwelt, Energie und so weiter. Zu den Anforderungen gesellen sich nun noch die geforderten Nachweise, die belegen, dass die Anforderungen auch erfüllt wurden.
All diese dokumentierten Informationen müssen erstellt, geprüft, freigegeben, verteilt sowie gegebenenfalls wieder eingezogen und am Ende auch noch vernichtet werden. Da kommt schnell ein Berg von Papier zusammen, der gepflegt und verwaltet werden will.
Anforderungen müssen verständlich und nachvollziehbar sein
Um diese Flut an dokumentierter Information zu kanalisieren und einheitlich in Form und Struktur zu gestalten, ist es unabdingbar, ein Dokumenten-Managementsystem aufzubauen und zu unterhalten. Dies kann unter Zuhilfenahme der IT in mehr oder weniger geschickt aufgebauten Verzeichnisstrukturen unter Verwendung von Standard-Softwareprogrammen erfolgen.
Hier werden meist über zentrale Funktionen, unter Beteiligung von Fachabteilungen, Dokumente erzeugt, geprüft, frei- und herausgegeben, was einen erheblichen personellen Aufwand mit großem Fehlerrisiko bedeutet.
Jedes Dokument erhält eine eindeutige Zuordnung und, sofern es sich um ein Dokument mit Vorgabecharakter handelt, auch einen Revisionsstand und ein Ausgabedatum. Diese Stammdaten werden darüber hinaus noch in Dokumentenlisten geführt, die im Idealfall mit regelmäßigen Revisionsintervallen versehen sind.
Das kann schnell zu einem Vollzeitjob werden.
| Berufsbild Qualitätsmanager Qualität ist von entscheidender Bedeutung für den Erfolg jedes Unternehmens und ein wichtiger Faktor für Kunden. Um Qualität zu erzeugen, braucht es ein gutes Konzept und ein reibungsloses Zusammenspiel aller Beteiligten. Eine Schlüsselrolle dabei haben Qualitätsmanager. Sie helfen der Unternehmensleitung, den Führungskräften, Prozesseignern und Mitarbeitenden, das Unternehmen qualitätsfähig zu machen. Als „Systemarchitekten“ unterstützen Sie dabei, ein Qualitätsmanagementsystem aufzubauen und weiterzuentwickeln. Finden Sie eine Karriere im Qualitätsmanagement spannend? Antworten auf die wichtigsten Fragen finden Sie in unserem Berufsbild zum Qualitätsmanager:
|
Interaktive Dokumentenlenkungssysteme
Dieses Thema lässt sich mit einem Beispiel aus der Praxis beleuchten, wie es sich sicherlich in vielen Betrieben so oder so ähnlich antreffen lässt.
Die Ausgangssituation:
In einem mittelständigen, kunststoffverarbeitenden Betrieb, wurden alle, das Qualitätsmanagement auf verschiedenen Ebenen betreffende Vorgabedokumente in Form von Word- und Exceldateien sowie deren PDF-Derivaten erstellt und gepflegt. All diese Dokumente unterlagen einer manuellen Pflege durch eine zentrale Stelle und wurden zusätzlich in Excel-Tabellen geführt, um eine Übersicht der aktuellen Ausgabestände zu gewährleisten.
Die Vorgehensweise zur Erstellung, Änderung, Prüfung und Freigabe der Dokumente sowie die Zugriffsberechtigungen mit Schreib- und Leserechten wurde in einer Arbeitsanweisung festgelegt.
Zu Schulungszwecken und im Rahmen von Audits wurden die Dokumente herangezogen, blieben aber ansonsten weitgehend unbeachtet, da die Abläufe den Beteiligten „ja bekannt“ waren. Mangels regelmäßiger Überprüfungen blieben viele Dokumente über lange Zeiträume unverändert und somit bezüglich ihrer Aktualität zumindest fragwürdig.
Die Lösung:
Seit Jahren werden IT-gestützte Systeme zur Dokumentenlenkung angeboten, als Einzellösung, als Teil eines CAQ Systems (Computer Aided Quality) oder im Rahmen einer BPM Lösung (Business Process Management).
Im Zusammenhang mit solchen Systemen werden Routinen der Dokumentenlenkung automatisiert und im besten Fall über Workflows online abgewickelt. Dokumentierte Informationen werden automatisch referenziert, mit Versionsstand und Ausgabedatum sowie Prüf- und Freigabevermerken versehen, und an den im System festgelegten Verteilerkreis herausgegeben. Altversionen werden automatisch zurückgezogen und archiviert.
Die Dokumentation von Prozessen orientiert sich zudem in den meisten Fällen an den Forderungen der ISO 9001, Kapitel 4.4. Dadurch werden die normseitigen Anforderungen bezüglich der Prozess-Rahmenbedingungen systematisch erfüllt.
Sollte in einem solchen System auch noch die Möglichkeit bestehen, die Prozesse des Unternehmens auf verschiedenen Ebenen als Haupt-, Unter- und Teilprozesse in Form von Flussdiagrammen oder Swimlanes abzubilden, können die dokumentierten Informationen mit Vorgabecharakter den einzelnen Aktions- und Entscheidungsboxen per Verlinkung zugeordnet werden. Hier kann sich in vielen Fällen jede und jeder Einzelne online und interaktiv durch das Managementsystem bewegen und verfügt grundsätzlich immer über die aktuellen Versionen der dokumentierten Informationen.
Ein weiterer wichtiger Aspekt bei einem solchen System ist die aktive Einbeziehung aller Mitarbeitenden. Durch Ausfüllen eines Kommentarfeldes, können diese Anmerkungen, Ergänzungen und Änderungen an dokumentierten Informationen anregen. Der Kommentar wird dann an den Dokumenteneigner zur Bewertung und Entscheidung weitergeleitet.
Die Umsetzung:
In dem oben beschriebenen, konkreten Fall hat sich die oberste Leitung entschieden, das Dokumentenlenkungssystem „Q.wiki“ der Modell Aachen GmbH einzusetzen. Zunächst um die bestehenden Dokumente in eine übersichtliche Struktur zu bringen. Nun bestehen für alle Vorgabedokumente, neben einer sinnvollen Dokumentenstruktur, die Zuständigkeiten und Verantwortlichkeiten für die Erstellung, Prüfung und Freigabe sowie ein definierter Zugriff durch die jeweiligen Zielgruppen. Bei der Gelegenheit wurden die Dokumente inhaltlich hinterfragt sowie gegebenenfalls überarbeitet und aktualisiert. Durch regelmäßige, automatisierte Revisionsintervalle von 12 bis 24 Monaten wird sichergestellt, dass die Dokumente aktuell gehalten und weiterentwickelt werden. Die Termine im Rahmen der Erstellung, Prüfung, Freigabe und Revision der Dokumente werden systemseitig überwacht und bei Bedarf eskaliert.
Mit diesem Einstieg in die Welt der interaktiven Managementsysteme eröffnen sich weitere Möglichkeiten einer übersichtlichen Prozessdarstellung, einer Bündelung des Wissens der Organisation sowie eine vereinfachte Kommunikation mit Workflowunterstützung.
Fazit
IT-gestützte, automatisierte Dokumentenlenkungssysteme zum Führen der dokumentierten Informationen eines Unternehmens kosten nicht unerheblich viel Geld und Aufwand im Rahmen der Einführung.
Wenn man aber die hier angeführten Punkte und die damit verbundenen Kosten auf das eigene Unternehmen und die Informationsflut sowie die wachsenden Nachweispflichten im Tagesgeschäft reflektiert und dem personellen Aufwand sowie den durch eine manuelle Dokumentenlenkung entstehenden potenziellen Fehlerkosten gegenüberstellt, könnte das Kosten-Nutzen-Verhältnis durchaus positiv ausfallen.
Es empfiehlt sich, die Fehlleistungen im Unternehmen mal intensiv zu analysieren und die Ursachenermittlung, beispielsweise mittels 5-Why-Methode, in der Tiefe zu betreiben. Auch dabei könnte herauskommen, dass Information und Kommunikation eine signifikante Rolle spielen.
Über den Autor:
Dipl.-Ing. Bernd Flormann verfügt über eine nahezu 40-jährige Erfahrung im Qualitätsmanagement in verschiedenen Funktionen und unterschiedlichen Branchen wie der Metall- und Kunststoffverarbeitung, der Elektroindustrie, der Haus- und Schreibgeräteindustrie sowie im Bereich von Kinder- Sicherheitsprodukten. Er ist seit 1992 im Wesentlichen freiberuflich tätig mit Schwerpunkten als Lead Auditor QM/UM der DQS und als Trainer der DGQ in den Bereichen QS/QM, sowie als Berater.
KI sicher einsetzen: So bleibt Ihre Qualitätssicherung auf Kurs

Künstliche Intelligenz (KI) hat die Industrie im Sturm erobert. Auch wenn der größte Hype um ChatGPT sich langsam legt, bleibt die Erkenntnis, dass KI viele Bereiche der Wirtschaft nachhaltig verändern wird. Auch die Qualitätssicherung zählt hierzu. Für Entscheider und Mitarbeiter hat der schwierige Teil nun begonnen: Die wertschöpfende Integration von KI in die täglichen Abläufe des Unternehmens. Dieser Artikel soll zeigen, wie Mitarbeiter und Entscheider der Qualitätssicherung ihr Unternehmen auf KI vorbereiten können.
Wenn es um Digitalisierung und Automatisierung geht, hat die Qualitätssicherung in vielen Unternehmen lange eine Vorreiterrolle gespielt. Die Erfassung von Leistungskennzahlen und deren statistische Auswertung ist seit jeher eine Kernkompetenz der Qualitätssicherung. KI-gestützte Prüftechnik kommt in produzierenden Betrieben seit vielen Jahren zum Einsatz (zum Beispiel bei Kameraprüfungen). Bedeutet dies also „business as usual“ für die Qualitätssicherung?
Hier liegt ein Trugschluss vor: Viele Unternehmen rühmen sich mit Schlagworten wie „big data“, „analytics“ und KI, sind aber tatsächlich kaum auf die Veränderungen vorbereitet, die KI mit sich bringt. Der Bereich Qualitätssicherung bildet hier keine Ausnahme. An allen Ecken und Enden entsteht Verschwendung durch ineffiziente Datenerfassung, händische Datenübertragungen von Tabellen in PowerPoint-Präsentationen und wieder zurück. Das Problem dabei ist: Diese Verschwendung bindet wertvolle Arbeitskraft, aber sie verschwindet oft in intransparenten Overheadkosten und bleibt unsichtbar. Bis jetzt.
KI wird diese Ineffizienzen schonungslos offenlegen. Analysen, die früher Tage gedauert haben sind mittels KI in Sekundenschnelle möglich. KI erlaubt es komplexe Herstellungsprozesse deutlich schneller zu optimieren, als dies mit klassischen Methoden möglich wäre. Ausfälle an Teilen und Maschinen können mittels analytischer Modelle vorhergesagt und verhindert werden, bevor schlechte Teile ausgeliefert werden oder ein Maschinenschaden entsteht. Unternehmen, die diese Vorteile nutzen können, verschaffen sich einen erheblichen Vorsprung vor der Konkurrenz.

Abb. 1: Mit ChatGPT generiertes Bild, ©Stefan Prorok, Prophet Analytics
Was können Entscheider in der Qualitätssicherung tun, um Einsparpotentiale durch KI für ihr Unternehmen zu erschließen? Das Bild von KI als Sturm bildet eine nützliche Analogie. KI bringt Veränderung, Gefahren und Möglichkeiten und wie gute Seeleute müssen Entscheider und Mitarbeiter ihr Unternehmen sturmsicher machen. Nur so können sie verhindern vom Hype fortgeblasen zu werden oder Schiffbruch zu erleiden. Die wichtigsten Aktivitäten sind hier stichpunktartig zusammengefasst.
Maschinen und Treibstoffvorrat prüfen
Dass Daten die Grundlage für KI darstellen, hat sich inzwischen herumgesprochen, aber noch immer wissen viele Unternehmen nicht was damit gemeint ist. Eine eingescannte Fehlersammelkarte ist zwar streng genommen ein digitaler Datensatz, aber für KI gänzlich unbrauchbar. Entscheider in der Qualitätssicherung müssen darauf achten, dass Daten maschinenlesbar erfasst werden. Excel-Tabellen sind besser als Text oder Bilder. Noch besser sind aber Formate mit einer fest vorgegebenen Struktur, wie JSON, xml oder Datenbanktabellen. Vermeiden Sie Freitext, wo immer es geht. Nutzen Sie stattdessen fest vorgegebene Auswahlmöglichkeiten. Mit diesen einfachen Mitteln schaffen Sie eine gute Grundlage für die KI-Nutzung.
Die Maschine, die diese Daten verarbeitet sind Visualisierungs- und KI-Werkzeuge. Glücklicherweise müssen Mitarbeiter heute nicht mehr programmieren, um KI nutzen zu können. Die meisten Unternehmen starten ihre KI-initiativen mit Datenanalysen („Data Analytics“). Es gibt eine ganze Reihe von grafischen Data Analytics Werkzeugen, die frei verfügbar sind und sich problemlos in Unternehmen nutzen lassen (PowerBI und Knime sind zwei weit verbreitete Beispiele). Auch ChatGPT lässt sich für grafische Datenanalysen einsetzen. Grafische Werkzeuge erleichtern der Mannschaft den produktiven Umgang mit den eigenen Daten und stellen den ersten Schritt für einen effektiven KI-Einsatz im Unternehmen dar.
Die Mannschaft trainieren
Artikel 4 der KI-Verordnung schreibt vor, dass Mitarbeiter, die mit der Entwicklung und dem Betrieb von KI-Systemen betraut sind, über ein angemessenes Maß an KI-Kompetenz verfügen müssen. Das Gesetz sieht zwar keine direkten Sanktionen vor, wenn Unternehmen dieser Pflicht nicht nachkommen. Die Qualifikation der Mitarbeiter liegt jedoch im eigenen Interesse. Chatbots, wie zum Beispiel Copilot oder ChatGPT können Fehler machen und eine grundlegende Kenntnis, wann mit Fehlern zu rechnen ist und wie sie sich vermeiden lassen ist für einen effektiven Einsatz unerlässlich. Grundlagen der Datenanalyse und des maschinellen Lernens stellen ebenfalls einen wichtigen Qualifikationsbaustein dar und verbessern den wertschöpfenden Umgang mit Daten.
Das Schiff sturmsicher machen
Es gibt einige wichtige gesetzliche Anforderungen, auf die Entscheider beim Einsatz von KI achten müssen. Hierzu zählen zuvorderst das Urheberrecht, die Datenschutzgrundverordnung und die KI-Verordnung. Entscheider sollten leicht verständliche Arbeitsinstruktionen und Leitfäden erstellen, welche Daten mit KI verarbeitet werden dürfen. Durch eine verbindliche Vorgabe kann der rechtskonforme Einsatz von KI im Unternehmen gesichert werden.
Eine besondere Hürde stellt dabei die Einhaltung der Datenschutzgrundverordnung dar. Da viele KI-Modelle (wie sie auch von ChatGPT oder Copilot genutzt werden) in den USA gehostet werden, sind personenbezogene Daten dort in der Regel nicht geschützt. Es drohen somit Rechtsverstöße. Zusätzlich muss vorab geklärt werden, ob eine rechtssichere Verarbeitungsgrundlage vorliegt. Die erste Anlaufstelle für diese Fragen ist der Datenschutzbeauftragte des Unternehmens. Es gibt rechtssichere Möglichkeiten für die Verarbeitung personenbezogener Daten durch KI, aber es erfordert eine sorgfältige Vorbereitung.
Neben den oben genannten Gesetzen gibt es noch eine Vielzahl von anderen gesetzlichen Anforderungen und sektoralen Vorschriften, die beim Einsatz von KI relevant werden können (zum Beispiel Kritis für kritische Infrastruktur oder Dora für das Finanzwesen). Insbesondere in hoch regulierten Bereichen lohnt sich daher das Anlegen eines Rechtskatasters.
Den Wetterbericht verfolgen
KI als Technologie bringt sowohl Chancen als auch Risiken mit sich. Dies gilt besonders in der Qualitätssicherung. In diesem Bereich liegen viele Daten in hoher Qualität vor, die nutzbar gemacht werden können. Für Entscheider müssen neue Technologien nicht bis ins letzte Detail verstehen, aber sie müssen wissen, woher der Wind weht. Welche Technologien lassen sich heute schon wertschöpfend einsetzen und bei welchen Technologien ist Vorsicht geboten?
KI-Methoden des maschinellen Lernens sind beispielsweise sehr ausgereift und heute in vielen Softwarelösungen integriert. Ein Beispiel die Statistiksoftware Minitab. Minitab ist populär bei SixSigma-Anwendern und es unterstützt inzwischen auch KI und maschinelles Lernen. KI und maschinelles Lernen werden in der Qualitätssicherung schon lange als zusätzliche Werkzeuge im Methodenkoffer eingesetzt und haben sich in der Praxis bewährt.
Neuere Methoden, wie der Einsatz großer Sprachmodelle (zum Beispiel ChatGPT und Copilot) haben diese Bewährungsprobe noch vor sich. Es gibt viele interessante Anwendungsmöglichkeiten von ChatGPT in der Qualitätssicherung. Besonders bei der Verarbeitung von unstrukturierten Daten haben Chatbots ein großes Potential, aber die Anwendungsfälle müssen differenziert betrachtet werden.
Eine zweite wichtige Information für Entscheider ist die Innovationsgeschwindigkeit. Wie beim Quecksilber im Barometer müssen Entscheider wissen, in welchen Bereichen eine hohe Innovationsgeschwindigkeit vorhanden ist. Wenn die Innovationsgeschwindigkeit hoch ist, ist es schwierig langfristig zu planen, weil die angestrebte Lösung in sechs Monaten schon wieder obsolet sein kann. Ein Beispiel hierfür sind KI-Agenten, die Zugriff auf externe Dienste haben (zum Beispiel Websuche, E-Mail oder Dateisuche). Die großen KI-Unternehmen wie Microsoft, Amazon oder Google arbeiten daran ihre KI-Modelle mit solchen externen Diensten zu verbinden, aber es hat sich noch kein Standard durchgesetzt. In solchen Fällen ist es sinnvoll, Projekte mit kurzer Amortisationszeit durchzuführen und sich nicht zu früh auf einen Anbieter festzulegen.
Bei anderen Anwendungsfällen, wie zum Beispiel vorausschauender Instandhaltung („predictive maintenance“) ist die Innovationsgeschwindigkeit deutlich niedriger. Hier können auch KI-Lösungen mit einer Amortisationszeit von 18 Monaten oder mehr sinnvoll sein.
Fazit
Zusammenfassend kann gesagt werden: Der Schlüssel, um KI in der Qualitätssicherung effektiv zu nutzen liegt in den vier Grunddisziplinen, die auch gute Seeleute beherzigen, wenn sich der Sturm ankündigt:
- Gute Vorbereitung (der Daten) und Bereitstellung geeigneter Werkzeuge
- Gute Ausbildung der Mannschaft
- Aufmerksamer Umgang mit Risiken
- Den Finger am Puls der Zeit haben
Durch die Einhaltung dieser Grunddisziplinen schützen Sie sich und ihr Unternehmen vor überzogenen Erwartungen an KI. Gleichzeitig können Sie KI nutzen, um langfristig Wertschöpfung zu erzielen, ohne dem Hype zu erliegen. Die DGQ hat ein Portfolio von mehreren Trainings erstellt, um Fach- und Führungskräfte bei der Umsetzung dieser vier Disziplinen zu unterstützen.
Über den Autor:
Dr.-Ing. Stefan Prorok ist Geschäftsführer der Prophet Analytics GmbH und DGQ-Trainer für Qualitätssicherung und Künstliche Intelligenz. Prophet Analytics unterstützt Unternehmen in allen Phasen Ihrer KI-Umsetzung mit Trainings- und Beratungsangeboten. Kontakt: ki@prophet-analytics.de
„Kommunikation, Menschenbild, Kultur der Pflege“: DGQ-Fachkreis Qualität in der Pflege mit neuem Themencluster
Am 5. Juni 2025 hat der Fachkreis „Qualität in der Pflege“ (FK QidP) beschlossen, das im DGQ Pflege-Online-Treffpunkt (P-O-T) entstandene Themencluster „Kommunikation, Menschenbild, Kultur der Pflege“ als Story Nr. 3 in seine Arbeit zu integrieren. Damit wird ein Schwerpunkt, der durch breite Diskussion im offenen DGQ-Online-Format entwickelt wurde, dauerhaft in die vertiefte Facharbeit überführt.
Das Cluster entstand im Rahmen eines mehrmonatigen Diskurses engagierter Pflegeexpert:innen, die die Entwicklungen der Pflegepolitik nach der Bundestagswahl beobachteten und eigene Forderungen erarbeiteten. Die Ergebnisse wurden systematisch mit den Aussagen des Koalitionsvertrags der Bundesregierung abgeglichen. Dabei zeigt sich: Die Perspektive der DGQ-Fachcommunity ist differenzierter, praxisnäher und stärker auf Pflegequalität ausgerichtet als viele allgemein gehaltene Aussagen im Koalitionsvertrag.
Das neue Themencluster betont insbesondere die Bedeutung einer ethisch fundierten, am Menschen orientierten Pflegekultur. Es fordert unter anderem eine klare Vision für die Pflege in Deutschland, mehr Mitbestimmung für alle Beteiligten, die Stärkung pflegender Angehöriger sowie die Schaffung transparenter, sektorenübergreifender Strukturen. Ein zentrales Anliegen ist die stärkere Beteiligung von Pflegekund:innen an Entscheidungsprozessen – ein Aspekt, der im Koalitionsvertrag bisher kaum berücksichtigt wird und nach Meinung der Expert:innen direkt in die Qualität der Pflege einzahlt.
„Mit der Übergabe des Clusters an den Fachkreis geht ein deutliches Signal in Richtung Roadmap Qualität für die Pflege“, sagt Holger Dudel, Leiter Themenfeld Pflege der DGQ. „Die Diskussionsergebnisse aus dem P-O-T stehen exemplarisch für eine fachlich fundierte, praxisnahe und integrative Sichtweise, die wir im Fachkreis nun vertiefen werden.“
Die DGQ verfolgt mit dieser Übergabe das Ziel, qualitätsrelevante Themen in eine strukturierte Erarbeitung zu überführen und damit die Fach- und Gremienarbeit zu stärken.
DGQ-Pflegexperte Holger Dudel referiert beim Pflegeforum Mitteldeutschland für Dimensionen der Pflegekompetenz
Beim diesjährigen Pflegeforum Mitteldeutschland, veranstaltet vom Pflege-Beratungsunternehmen Averosa, drehte sich alles um ein zentrales Thema: die Qualität in der Pflege. Rund 60 Fachkräfte aus ambulanten und stationären Einrichtungen, Verbänden und Behörden kamen zusammen, um sich über neue gesetzliche Anforderungen, digitale Entwicklungen und praktische Herausforderungen auszutauschen.
Nach der Begrüßung durch Jens Frieß, Inhaber von Averosa, stand zunächst die Einführung der neuen Qualitätsprüfrichtlinie (QPR) für die ambulante Pflege im Fokus. Ab dem 1. Januar 2026 tritt die QPR bundesweit in Kraft. Susan Kehnscherper und Ulrike Hecker von Careproof erläuterten die wesentlichen Änderungen und gaben praxisnahe Hinweise, worauf Einrichtungen künftig besonders achten müssen – insbesondere beim Expertenstandard „Mobilität“.
Zum Stand der Telematikinfrastruktur (TI) referierte Herr Marcus Gotter. Auch wenn mitteldeutsche Einrichtungen bei der Anbindung bundesweit vergleichsweise gut aufgestellt sind, liegt der Gesamtfortschritt mit ca. 9.500 von 32.000 Einrichtungen noch deutlich hinter dem Zeitplan. Der 1. Juli 2025 markiert den Stichtag für die TI-Anbindungspflicht – bei Nichterfüllung drohen Effizienzverluste und mittelfristig finanzielle Konsequenzen.
Einblicke in aktuelle Entwicklungen der Heimaufsicht in Sachsen-Anhalt gab Monika Wicklein, Leiterin des entsprechenden Referats. Die Zunahme von Beschwerden durch Angehörige und Betreuer, sowie Defizite in Bereichen wie Medikamentenmanagement, gerontopsychiatrische Versorgung und Palliativpflege, sind zentrale Themen bei aktuellen Begehungen.
Holger Dudel von der Deutschen Gesellschaft für Qualität (DGQ) warf in seinem Vortrag einen strategischen Blick auf Pflegekompetenz und deren rechtliche, praktische und qualitative Dimension. Er betonte die Bedeutung nachhaltiger Personalentwicklung und des Kompetenzmanagements – gerade im Kontext neuer gesetzlicher Vorgaben.
Den Schlusspunkt setzte der Pflegewissenschaftler Siegfried Huhn mit einem lebendigen Impulsvortrag über die Bedeutung von Mobilität im Pflegealltag. Dabei schlug er den Bogen zum gleichnamigen Expertenstandard und zeigte eindrucksvoll auf, wie gezielte Aktivierung die Lebensqualität pflegebedürftiger Menschen nachhaltig verbessern kann.
Das Pflegeforum Mitteldeutschland 2025 machte deutlich: Qualität in der Pflege erfordert interdisziplinären Austausch, rechtliche und konzeptionelle Klarheit – und vor allem Engagement auf allen Ebenen.
FQS-Forschungsprojekt QualiJet: Qualitätssicherung im 3D-Druck – automatische Entpulverung von Grünteilen bei zweistufigen additiven Fertigungsverfahren

In der additiven Fertigung bieten sinterbasierte Verfahren, wie das Metal Binder Jetting (MBJ), eine vielversprechende Möglichkeit, kostengünstig Einzelteile und Kleinserien zu produzieren. Besonders für kleine und mittlere Unternehmen (KMU) eröffnen sich hier neue Perspektiven, da diese Verfahren eine hohe Gestaltungsfreiheit, Flexibilität und die Möglichkeit zur effizienten Produktion komplexer Bauteile bieten. Die im Rahmen dieser Fertigungsverfahren erforderliche Entpulverung der Grünteile stellt für Unternehmen eine zentrale Herausforderung dar, da hierfür meist ein manuell aufwendiger Prozess erforderlich ist und die zerbrechlichen Grünteile leicht beschädigt werden können.
Im Rahmen des über die FQS – Forschungsgemeinschaft Qualität geförderten Forschungsprojekts „QualiJet“ wird in einem Zeitraum von zwei Jahren ein automatischer Prozess entwickelt, der Grünteile aus zweistufigen additiven Fertigungsverfahren mithilfe eines lernfähigen Greifers aus dem Pulverbett entfernt. Durchführende Forschungseinrichtungen sind das Fraunhofer-Institut für Fertigungstechnik und Angewandte Materialforschung IFAM (Bremen) und das IPH – Institut für Integrierte Produktion Hannover gGmbH. Rund 15 Unternehmen begleiten die Forschungsarbeiten als Industriepartner im Projektbegleitenden Ausschuss.
Im Interview geben Lea Reineke (Fraunhofer IFAM) und Nils Doede (IPH gGmbH) einen Ausblick auf das Projekt. Sie erläutern, wie Unternehmen von den Forschungsergebnissen profitieren können.
Aus welcher Problemstellung heraus ist das Forschungsprojekt entstanden?
Reineke: Das MBJ und andere zweistufige Verfahren erzeugen im ersten Schritt Grünteile, die im Anschluss getrocknet, entpulvert und gesintert werden müssen. Das Drucken und Sintern sind weitgehend automatisierte Prozesse, in denen nur die Rüstzeit ein relevanter manueller Prozess ist. Insbesondere für das Sintern gibt es viele Dienstleister, die ihre Öfen sehr effizient betreiben. Verglichen damit ist das Entpulvern der Bauteile ein kritischer Punkt in der Prozesskette, da die teils geometrisch komplexen Grünteile aus dem Pulverbett entfernt werden müssen und gleichzeitig geringe Festigkeiten aufweisen. Die Entpulverung ist daher bis heute ein aufwendiger, manueller und langwieriger Prozess, in dem die Grünteile von den Bearbeitern leicht beschädigt werden können. Besonders bei kleinen Grünteilen, die in hoher Anzahl im Bauraum verteilt sind, kann das Entpulvern einen der größten Anteile an Zeit und Kosten in der Prozesskette in Anspruch nehmen.
Die hohen Personalkosten stellen insbesondere für KMU eine große Herausforderung dar. Zudem können die monotonen Arbeitsschritte zu Unachtsamkeit und damit zu Beschädigungen und Ausschuss führen. Außerdem müssen die Mitarbeitenden wissen, wo die verschiedenen Grünteile im Bauraum liegen, damit sie diese nicht aus Versehen mit dem Pulver in die Siebanlage transportieren. Im Gegensatz zu allen anderen Prozessschritten lässt sich die Ausschussrate nicht durch eine Parameteroptimierung einstellen, sondern ist bisher einzig abhängig von der Fähigkeit und Ausdauer des Personals.
Welches Know-how wird im Rahmen des Forschungsprojekts QualiJet entwickelt und wie kann es zur Lösung der geschilderten Problemstellung beitragen?
Doede: Zur Verbesserung der Entpulverung ist das Ziel des Projekts QualiJet die Entwicklung eines neuartigen, automatischen Prozesses, welcher die Grünteile aus zweistufigen additiven Fertigungsverfahren intelligent aus dem Pulverbett entfernen soll. Dies soll am Metal Binder Jetting-Prozess demonstriert werden. Hierbei liegt die besondere wissenschaftliche Herausforderung in dem automatisierten Greifen der individuellen und leicht zerbrechlichen Grünteile. Das System soll durch einen Roboter-Greifer unterstützt werden, welcher mittels Künstlicher Intelligenz (KI) flexibel auf die individuellen Eigenschaften der Grünteile reagieren kann. Bei diesem neuartigen Ansatz erkennt das Greifsystem, wo und wie die Grünteile im Pulverbett liegen, welches die geeigneten Greifpunkte sind. Es lernt das Greifen von Grünteilen mit unterschiedlichen lokalen Festigkeiten. Das Greifsystem soll in der Lage sein, verschiedene Grünteile freizulegen, zu entnehmen und an einem sicheren Ort abzulegen.
Wer soll von den Ergebnissen profitieren und welcher konkrete Nutzen ergibt sich für Unternehmen?
Reineke: Obwohl die additive Fertigung KMU vielseitige neue Chancen bietet, wird die Technologie bisher selten genutzt. Ein Grund sind fehlende finanzielle und personelle Ressourcen. Die Ergebnisse des Forschungsprojekts QualiJet sollen kurzfristig nach Projektabschluss für KMU nutzbar sein. Die innovativen Ergebnisse des Forschungsprojekts können die benötigten Mitarbeiterressourcen in zweistufigen additiven Fertigungsverfahren reduzieren und KMU den Einstieg in die Technologien erleichtern.
Doede: Die Erhöhung der Wettbewerbsfähigkeit durch eine bessere Ausbringungsmenge und geringere Kosten erweitert den potenziellen Nutzerkreis und leistet einen Beitrag zur Entstehung von neuen und Erweiterung bestehender Geschäftsfelder. So könnten Bauteile in Serienfertigung bis circa 100.000 Teile pro Jahr durch MBJ produziert werden, die aufgrund der geringen Produktivität nicht per selektivem Laserstrahlschmelzen hergestellt werden. Auch Marktsegmente, die aktuell suboptimal durch Spritzgießen oder Pressen belegt sind, können durch MBJ ergänzt werden, da die Prozesskette und die Materialeigenschaften sehr ähnlich sind. Somit wirkt es sich positiv auf das Wachstum der zweistufigen additiven Fertigungsverfahren aus. Unter anderem können so massenindividuelle Produkte, wie beispielsweise patientenindividuelle Medizinprodukte, günstiger produziert werden.
Aufgrund der Vermeidung von Unachtsamkeiten der Mitarbeitenden reduziert die Automatisierung der Entpulverung von Grünteilen die Ausschussrate und erhöht somit die Reproduzierbarkeit der Produktqualität. Somit wird die Nachhaltigkeit durch einen ressourcenschonenderen Prozess erhöht.
Wie sieht das weitere Vorgehen im Forschungsprojekt aus?
Reineke: Die nächsten Schritte des Projekts belaufen sich auf die Finalisierung der Szenarienanalyse: In welchen Fällen soll der Greifer eingesetzt werden, was sind dessen Grenzen und wie können diese noch weiter verschoben werden? Darüber hinaus wird die Umgebung des Greifers entwickelt. Es benötigt einen Bereich für den Bauraum, einen für das Ablegen der Bauteile, einen Ruhepunkt und eventuell sicherheitstechnische Umgebungen. Nicht zuletzt wird aktuell auch an den Materialien im Metal Binder Jetting gearbeitet.
Stimmen aus dem Projektbegleitenden Ausschuss:
André Heinke, Leiter Vertrieb und Marketing, Bitmotec GmbH
Die Bitmotec GmbH engagiert sich als Partner im Projektbegleitenden Ausschuss, weil wir davon überzeugt sind, dass eine datenbasierte Qualitätssicherung der Schlüssel zur Effizienzsteigerung in der additiven Fertigung ist.
Mit unserem BITMOTECOsystem, einer industriellen Datenplattform, vernetzen wir Maschinen und Sensoren, um Prozess- und Qualitätsdaten strukturiert zu erfassen, zu analysieren und in wertvolle Informationen für die Produktion zu übersetzen. Gerade bei zweistufigen additiven Fertigungsverfahren ist eine durchgängige Erfassung und Auswertung von Prozessdaten essentiell, um Qualitätsabweichungen frühzeitig zu erkennen und Korrekturmaßnahmen einzuleiten.
Durch unsere Teilnahme am Forschungsprojekt erwarten wir wertvolle Erkenntnisse darüber, wie digitale Datenströme optimal für eine verbesserte Prozessüberwachung und Qualitätssicherung genutzt werden können. Die Zusammenarbeit mit Forschungseinrichtungen und Industriepartnern hilft uns, unser BITMOTECOsystem weiterzuentwickeln, um datenbasierte Lösungen für eine noch präzisere und effizientere additive Fertigung zu ermöglichen.
Tim Marter, Process Engineer, Element22 GmbH
Die Element22 GmbH betreibt erfolgreich einen Cold-Metal-Fusion-Drucker (CMF-Drucker), ein pulverbettbasiertes System zur Herstellung hochwertiger Titanbauteile. Eine der zentralen Herausforderungen in diesem Prozess besteht in der effizienten und beschädigungsfreien Entpulverung der Grünteile, die derzeit manuell erfolgt.
Durch die Teilnahme am Forschungsprojekt QualiJet erhofft sich Element22 eine innovative Lösung zur Automatisierung dieses Prozessschrittes, mit dem Ziel, sowohl die Produktionskosten zu senken als auch die Ausschussquote zu minimieren. Ein erfolgreicher Ansatz würde somit einen unmittelbaren industriellen Anwendungsfall darstellen.
Aspekte, die aus Sicht von Element22 dabei von besonderer Bedeutung sind, umfassen die Zuverlässigkeit der Anlage hinsichtlich des Teile-Handlings und der langfristigen Betriebsfähigkeit in einer staubbelasteten Umgebung, Explosionsschutzmöglichkeiten im Kontext von verwendeten Materialien und Prozessbedingungen, die Notwendigkeit manueller Nachbearbeitung durch Fachkräfte, die Prozessgeschwindigkeit sowie die Übertragbarkeit der Forschungsergebnisse auf andere Materialien wie Titan.
Über die Interviewpartner:
Lea Reineke, Projektleiterin Additive Fertigung am Fraunhofer Institut für Fertigungstechnik und Angewandte Materialforschung IFAM
Nils Doede, Projektingenieur am IPH – Institut für Integrierte Produktion Hannover gGmbH
Über das Forschungsprojekt: Weitere Informationen zum Projekt und zu Beteiligungsmöglichkeiten können über die Geschäftsstelle der FQS bezogen werden. Eine Mitarbeit im Projekt ist auch nach Laufzeitbeginn noch möglich. Über die FQS: Vorstellung der FQS Forschungsgemeinschaft Qualität e.V. Kontakt:
Informationen zum Forschungsprojekt und Kontaktdaten
Das Projekt wird durch das Bundesministerium für Wirtschaft und Energie (BMWE) aufgrund eines Beschlusses des Deutschen Bundestages gefördert. (Förderkennzeichen: 01IF23272N; Forschungsvereinigung: FQS – Forschungsgemeinschaft Qualität e.V.)
Die FQS – Forschungsgemeinschaft Qualität e. V. (FQS) unterstützt seit 1989 die anwendungsorientierte Forschung rund um das Thema Qualität in Deutschland. Sie versteht sich selbst als Forschungsbereich der Deutschen Gesellschaft für Qualität e. V. (DGQ) und wird von ihr getragen. Die FQS fördert innovative Forschungsideen über das Instrument der Industriellen Gemeinschaftsforschung (IGF) und des Forschungsnetzwerks CORNET des Bundesministerium für Wirtschaft und Energie (BMWE). Ziele der Förderung sind möglichst anwendungsnahe Forschungsideen, die einen unmittelbaren Nutzen für die Wirtschaft, insbesondere für kleine und mittelständische Unternehmen (KMU), erbringen.
Wer ist die FQS Forschungsgemeinschaft Qualität e.V. und was tut sie? Lernen Sie im Video den Forschungsbereich der DGQ kennen und erfahren Sie von Dr. Christian Kellermann-Langhagen, wissenschaftlicher Geschäftsführer der FQS, wie die FQS arbeitet, welche Themen beforscht werden und wie sich Unternehmen in der FQS beteiligen und von den eingesetzten Förderprogrammen profitieren können.
FQS – Forschungsgemeinschaft Qualität e. V.
August-Schanz-Straße 21A
60433 Frankfurt am Main
infofqs@dgq.de
ISO-GPS: Oberflächenbeschaffenheit / Rauheit (ISO 21920)

Die DIN EN ISO 1302 für die Angaben der Oberflächenbeschaffenheit und die Normen zu den Begriffen, den Parametern und den Spezifikationsoperatoren wurden im Dezember 2022 durch die neue Normenreihe DIN EN ISO 21920 ff. ersetzt. Zurzeit stehen folgende Normen zur Verfügung:
- DIN EN ISO 21920-1:2022-12
GPS – Profile Teil 1: Angabe der Oberflächenbeschaffenheit
(Ersatz für DIN EN ISO 1302:2002) - DIN EN ISO 21920-2:2022-12
GPS – Profile Teil 2: Begriffe und Parameter für die Oberflächenbeschaffenheit
(Ersatz für DIN EN ISO 4287, DIN EN ISO 13565-2, -3) - DIN EN ISO 21920-3:2022-12
GPS – Profile Teil 3: Spezifikationsoperatoren
(Ersatz für DIN EN ISO 4288)
Mit diesen Normen sind neue Angabemöglichkeiten und Regeln vorhanden:
- Oberflächenmessverfahren (mechanische und elektromechanische Profile)
und Messrichtung (Profilrichtung) - Filterung nach der Normenreihe DIN EN ISO 16610-21 und DIN EN ISO 16610-31.
- Spezielle Mess- und Auswerteverfahren zur Beurteilung der Funktion einer Oberfläche.
- Angaben und Auswertung von Materialanteil/Traganteil sind definiert.
- Die Messparameter werden nicht mehr nach einer Vormessung bestimmt, sondern aus
der Spezifikation (Zeichnungsangabe oder default nach Norm). - Keine Unterscheidung zwischen periodischen und nicht-periodischen Profilen bei der Filterung.
Da die ISO 21920 die ISO 1302 ersetzt, gilt bei Zeichnungsänderung automatisch die neue Norm. Wenn das nicht gewollt ist, muss hinter der alten Norm ISO 1302:2002 das Ausgabedatum ergänzt werden.
Die aktuellen Toleranzakzeptanzregeln sehen drei Spezifikatoren vor:
- „Tmax“ – Höchstwert-Toleranzakzeptanzregel ist anzuwenden
- „T16%“ – 16%-Toleranzakzeptanzregel ist anzuwenden
- „Tmed“ – Median- Toleranzakzeptanzregel ist anzuwenden (n ≥ 3)
(Messwerte außerhalb der Spezifikation werden nicht berücksichtigt)
Die Höchstwert-Toleranzakzeptanzregel „Tmax“ stellt die Default-Definition dar. Sie gilt mit und ohne „Tmax“-Angabe. Tmax kann zur Eindeutigkeit an einer Spezifikation angegeben werden.
Mögliche Zeichnungseintragungen nach DIN EN ISO 21920-1
Angabe der Oberflächenrillen ohne einen Bezug
Angabe der Oberflächenrillen und der Richtung der Bearbeitungsspuren in Bezug zu einem Geometrieelement des Werkstücks

Abb. 4: Angabe der Oberflächenrillen und der Richtung der Bearbeitungsspuren in Bezug zu einem Geometrieelement des Werkstücks
Mindestangabe von Kenngrößen mit und ohne festgelegte Defaults
Aktuelle Begrifflichkeiten zur Oberflächenbeschaffenheit nach DIN EN ISO 21920
| Begrifflichkeit | Definition |
|---|---|
| S-Filter (S – small) | Filter zur Eliminierung kurzwelliger Anteile (Tiefpass-Filter) -> (bisher λs) (Profil-Filtertypen der Normenreihe ISO 16610) |
| L-Filter (L – large) | Filter zur Eliminierung langwelliger Anteile (Hochpass-Filter) -> (bisher λc)(Profil-Filtertypen der Normenreihe ISO 16610) |
| F-Operator | Formentfernung (z.B. LS-Linie, LS-Radius, Polynom) |
| Nesting Index (Nis, Nic, Nif) | Numerischer Wert für S-Filter, L-Filter oder Form-Operator (Grenzwellenlänge) |
| Profilpunktkenngröße (Auswertelängen-Kenngrößen) | definiert über alle Messpunkte des Profils (gilt für die Mehrzahl der Parameter – alte, umbenannte und neue) |
| Merkmalkenngröße (Abschnittlängen-Kenngrößen) | an ausgewählten topografischen Merkmalen definiert (gilt nur für wenige Parameter) |
| le – Auswertelänge | (bisher Gesamtmessstrecke ln) / Auswertelängen-Kenngrößen |
| lsc – Abschnittslänge | (bisher Einzelmessstrecke lr) / Abschnittslängen-Kenngrößen |
| nsc – Anzahl Abschnitte | (bisher Anzahl Einzelmessstrecken) |
Messbedingungen für Rz und Ra nach ISO 21920-3
Interpretation und Vergleich von Zeichnungsangaben
| Informieren Sie sich in weiteren Fachartikeln der ISO-GPS-Beitragsreihe In der ISO-GPS-Beitragsreihe erhalten Sie einen kompakten Überblick über das ISO-GPS-System, den aktuellen Normungsstand, den Tolerierungsgrundsätze, dem GPS-Matrix-Modell und die Möglichkeiten zur Anwendung:
|
Der Autor Manfred Weidemann ist DGQ-Trainer und Geschäftsführer von Quality Office. Quality Office betreut seit über 25 Jahren kleine und mittelständische Unternehmen in den Bereichen Qualitätsmanagement, Prozessoptimierung, Zeichnungsprüfung und Längenprüftechnik/Fertigungsmesstechnik.
ISO-GPS: Aktuelle Allgemeintoleranzen – ISO 22081

Wie schon im März 2017 vom Deutschen Institut für Normung (DIN) angekündigt, wurde die Norm mit den Angaben zu den Allgemeintoleranzen (ISO 2768-2) durch die neue ISO 22081 ersetzt. Die Gründe sind nicht eindeutige Vorgaben und große Lücken bezüglich der vollständigen und eindeutigen Tolerierungsmöglichkeiten.
Durch die Anwendung der bisherigen „Plus-Minus-Tolerierung“ (Zweipunkt-Messung) sind Produktspezifikationen nachweislich schon immer mehrdeutig. Dies kann aufgrund eines großen Interpretationsspielraums zu vertragsrechtlichen Problemen zwischen Herstellern und Abnehmern führen.
Dass die „Plus-Minus-Tolerierung“ dazu geeignet ist, die Geometrie eines Bauteils vollständig, eindeutig sowie funktions- und prüfgerecht zu spezifizieren, ist ein Irrtum, den viele Verantwortliche nicht wahrhaben wollen. Mit der Einführung der neuen ISO 22081 sollen die Produktspezifikationen und die Prüfungen mit den Konformitätsnachweisen vollständig und eindeutig werden.
Da die ISO 22081 die ISO 2768-2 ersetzt, gilt bei Zeichnungsänderung automatisch die neue Norm. Wenn das nicht gewollt ist, muss hinter der alten Norm ISO 2768 das Ausgabedatum ergänzt werden.
Beispiel: ISO 2768-2:1989
Genau genommen führt diese Ersatzbeziehung dazu, dass jede undatierte Angabe der ISO 2768-2 (zum Beispiel auf Produktzeichnungen vor der Veröffentlichung von ISO 22081:2021) auf ISO 22081 übergeht. Dies verursacht in einem Vertragsverhältnis möglicherweise erhebliche Risiken, wenn die entsprechenden Unterlagen nicht aufwändig überarbeitet werden:
- In der ISO 22081 werden keine Toleranzwerte in Abhängigkeit von Nennmaßen vorgegeben.
- Sie unterscheidet allgemeine geometrische Spezifikationen und allgemeine Maßspezifikationen.
- Zur Tolerierung kommen allgemeine geometrische Spezifikationen (Flächenprofiltoleranz) und allgemeine Größenmaßspezifikationen zum Einsatz.
- Der erforderliche Toleranzwert und ein vollständiges Bezugssystem müssen vom Konstrukteur festgelegt werden.
- Die Regeln und Spezifikationen der ISO 22081 gelten ausschließlich für integrale Geometrieelemente (Größenmaßelemente, wirkliche Werkstückoberfläche).
- Die Regeln und Spezifikationen der ISO 22081 gelten nicht für abgeleitete Geometrieelemente oder integrale Linien oder andere Maße (Stufenmaße, Bohrungsabstände …) als lineare Größenmaße oder Winkelgrößenmaße.
Beispiel zu möglichen Angaben am Schriftfeld:

Abb. 1: Beispiel zu möglichen Angaben am Schriftfeld der ISO 2768-2:1989 (Quelle: www.quality-office.de)
Die Toleranzwerte können direkt oder als Variable mit Toleranztabelle (zum Beispiel Werknorm, DIN 2769 …) angegeben werden!
Ergänzende Allgemeintoleranzen – DIN 2769
Die Norm DIN 2769 dient zur Ergänzung der Allgemeintoleranzen der DIN EN ISO 22081. Sie entstand auf Anregung der deutschen Industrie, um das etablierte Konzept mit festgelegten Toleranzwerten und Toleranzklassen ISO-GPS-konform fortzuführen.
- Im Gegensatz zur ISO 2768-Reihe gibt es mehr Toleranzklassen und die Anwendung ist technologie- und materialunabhängig.
- Die Konstruktion ist gefordert, die Grundsätze des ISO-GPS-Systems nach DIN EN ISO 8015 einzuhalten und alle Geometrieelemente, vollständig und eindeutig zu spezifizieren.
Beispiel zu möglichen Angaben am Schriftfeld:

Abb. 2: Beispiel zu möglichen Angaben am Schriftfeld der DIN EN ISO 22081 (Quelle: www.quality-office.de)
Die Flächenprofiltoleranz beträgt 1,6 mm. Die Toleranz für lineare Größenmaße ist abhängig vom jeweiligen Nennmaß. Beispiel: bei 35 mm beträgt die Toleranz ± 0,3 mm. Die Toleranz für Winkelgrößenmaße ist abhängig vom jeweiligen Nennwinkel. Beispiel: bei 40° beträgt die Toleranz ± 2°.
Beispiel zu möglichen Angaben an einer Welle:
| Informieren Sie sich in weiteren Fachartikeln der ISO-GPS-Beitragsreihe In der ISO-GPS-Beitragsreihe erhalten Sie einen kompakten Überblick über das ISO-GPS-System, den aktuellen Normungsstand, den Tolerierungsgrundsätze, dem GPS-Matrix-Modell und die Möglichkeiten zur Anwendung:
|
Der Autor Manfred Weidemann ist DGQ-Trainer und Geschäftsführer von Quality Office. Quality Office betreut seit über 25 Jahren kleine und mittelständische Unternehmen in den Bereichen Qualitätsmanagement, Prozessoptimierung, Zeichnungsprüfung und Längenprüftechnik/Fertigungsmesstechnik.
FQS-Forschungsprojekt NaBeMi: Nachhaltige Betriebsmittelplanung für die manuelle und hybride Montage

Nachhaltigkeit gewinnt zunehmend an Bedeutung für produzierende Unternehmen – nicht nur als gesellschaftliches Ziel, sondern auch als strategischer Wettbewerbsfaktor. Insbesondere in kleinen und mittleren Unternehmen (KMU) bestehen jedoch Hemmnisse bei der Umsetzung entsprechender Maßnahmen in der Produktionsplanung. Während ökologische, ökonomische und soziale Aspekte in der Produktentwicklung teilweise berücksichtigt werden, fehlt es in der Betriebsmittelplanung, speziell im Bereich der Montage, häufig an systematischen Ansätzen zur Integration dieser Zielgrößen.
Das über die FQS – Forschungsgemeinschaft Qualität geförderte Forschungsprojekt NaBeMi widmet sich im Rahmen einer zweijährigen Laufzeit der Entwicklung eines digitalen Assistenzsystems, das eine nachhaltigkeitsorientierte Planung von Betriebsmitteln in manuellen und hybriden Montagesystemen ermöglicht. Im Zentrum steht ein ganzheitliches Zielgrößensystem, das klassische Planungsziele wie Zeit, Kosten und Qualität mit den drei Nachhaltigkeitsdimensionen verbindet. Die methodische Grundlage bilden drei miteinander verknüpfte Qualitätsregelkreise zur systematischen Erfassung von Anforderungen, Zielgrößen und möglichen Lösungskonfigurationen (siehe Abb. 1).
Durch die Strukturierung des Planungsprozesses und die Bereitstellung einer IT-gestützten Lösung soll insbesondere KMU der Zugang zu nachhaltiger Betriebsmittelplanung erleichtert und die Planungsqualität langfristig erhöht werden.
Durchführende Forschungseinrichtungen sind das Bremer Institut für Produktion und Logistik (BIBA) sowie das Institut für Fabrikanlagen und Logistik (IFA). Begleitet wird das Projekt von sieben Unternehmen im Projektbegleitenden Ausschuss. Zudem unterstützen die Industrie- und Handelskammer Bremen sowie die Region Hannover das Vorhaben.
Im Interview gibt Dirk Schweers (BIBA) einen Ausblick auf das Projekt und erläutert, wie Unternehmen von den Forschungsergebnissen profitieren können.
Aus welcher Problemstellung heraus ist das Forschungsprojekt entstanden?
Schweers: Bei der Planung neuer beziehungsweise der Umstrukturierung bestehender Betriebsmittel werden die Anforderungen und Ziele in einem Lastenheft gebündelt, um Fremdfirmen mit der Erstellung zu beauftragen. Die Ausgestaltung stützt sich häufig auf bestehende Lösungen, persönliche Erfahrungen oder kurzfristige Wirtschaftlichkeitsaspekte. Die Vielfalt an Anforderungen, die sich aus variierenden Montageaufgaben, Automatisierungsgraden oder organisatorischen Rahmenbedingungen ergeben, werden kaum methodisch erfasst. Die Folge sind für Auftragnehmer schwer verständliche Lastenhefte und erhöhter Kommunikationsaufwand. Für die Auftraggeber entstehen nicht selten suboptimale Investitionen, zum Beispiel durch eingeschränkte Wiederverwendbarkeit von Betriebsmitteln oder verpasste Chancen zur Mitarbeitendenentlastung und Energieeinsparung. Soziale und ökologische Kriterien werden bislang nicht berücksichtigt.
Welches Know-how wird im Rahmen des Forschungsprojekts NaBeMi entwickelt und wie kann es zur Lösung der geschilderten Problemstellung beitragen?
Schweers: Im Projekt NaBeMi wird ein methodisches und technisches Wissen aufgebaut, das auf die Integration von Nachhaltigkeitsaspekten in die Betriebsmittelplanung ausgerichtet ist. Zentraler Bestandteil ist die Entwicklung eines ganzheitlichen Zielgrößensystems. Neben klassischen Kriterien wird es auch soziale, ökologische und ökonomische Wirkungen systematisch abbilden. Um die vielfältigen Zusammenhänge zwischen diesen Zielgrößen sichtbar zu machen, kommen Wirknetze zum Einsatz. Diese ermöglichen es, Abhängigkeiten, Wechselwirkungen und mögliche Zielkonflikte transparent darzustellen und in der Planung zu berücksichtigen.
Das System wird durch eine mehrstufige Methodik operationalisiert, die in Form digitaler Assistenzfunktionen umgesetzt wird. Dazu gehören die strukturierte Anforderungsanalyse, eine Zielgrößenbewertung unter Einbezug der Wirknetze sowie die Generierung und Bewertung von Lösungskonfigurationen für konkrete Betriebsmittelbedarfe. Ergänzt wird dieses methodische Know-how durch ein webbasiertes Software-Tool, das die Anwendung der entwickelten Methoden in der Praxis erleichtert.
Das entwickelte Wissen befähigt insbesondere KMU, fundierte Entscheidungen auf Basis nachvollziehbarer Kriterien zu treffen – unabhängig von individueller Erfahrung. Die Nutzung von Qualitätsregelkreisen trägt dazu bei, die Planungsgüte zu erhöhen und langfristige Wirkungen bereits in frühen Planungsphasen zu berücksichtigen.

Abb.1: Konzept von NaBeMi: Drei miteinander verknüpfte Qualitätsregelkreise zur systematischen Erfassung von Anforderungen, Zielgrößen und möglichen Lösungskonfigurationen.
(© Institut für Fabrikanlagen und Logistik (IFA), Maik Nuebel)
Wer soll von den Ergebnissen profitieren und welcher konkrete Nutzen ergibt sich für Unternehmen?
Schweers: Das Projekt richtet sich primär an kleine und mittlere Unternehmen mit einem hohen Anteil manueller oder hybrider Montagetätigkeiten. Diese Zielgruppe soll durch die entwickelten Methoden und das digitale Assistenzsystem in die Lage versetzt werden, Betriebsmittel systematisch und unter Berücksichtigung nachhaltiger Kriterien zu planen. Dabei profitieren insbesondere Unternehmen, die bisher wenig methodische Unterstützung oder digitale Werkzeuge in der Planung einsetzen konnten.
Der konkrete Nutzen liegt in einer verbesserten Planungsqualität, die über systematische Zielgrößenabwägung, strukturierte Anforderungsdefinition und transparente Entscheidungsgrundlagen erzielt wird. Unternehmen erhalten ein Tool, mit dem nicht nur klassische wirtschaftliche Zielgrößen, sondern auch ökologische und soziale Wirkungen – etwa Ergonomie, Energieverbrauch oder Wiederverwendbarkeit – in die Entscheidungsfindung einfließen können. Darüber hinaus trägt die Methodik zur Entkopplung der Planung von individueller Erfahrung einzelner Fachkräfte bei und ermöglicht eine nachvollziehbare, dokumentierte Ableitung von Investitionsentscheidungen. Neben Effizienzgewinnen und Ressourceneinsparungen können Unternehmen auch Wettbewerbsvorteile realisieren, etwa bei Ausschreibungen mit Nachhaltigkeitskriterien oder im Hinblick auf Arbeitgeberattraktivität durch mitarbeitendenzentrierte Arbeitsplatzgestaltung.
Ein erstes Meinungsbild aus dem Projektbegleitenden Ausschuss über die Potentiale des Assistenzsystems ist in Abb. 2 zu sehen.

Abb. 2: Potenziale des Assistenzsystems für die nachhaltige Planung von Betriebsmitteln
(© BIBA – Bremer Institut für Produktion und Logistik GmbH)
Wie sieht das weitere Vorgehen im Forschungsprojekt aus?
Schweers: Zunächst werden die inhaltlichen Grundlagen der drei Qualitätsregelkreise weiter ausdifferenziert, insbesondere im Hinblick auf funktionale Anforderungen, Zielgrößen und Bewertungsmaßstäbe. Wichtige Impulse hierzu liefern Workshops mit den beteiligten Unternehmen, in denen Anforderungen an Betriebsmittel, relevante Zielgrößen sowie die Gewichtung zentraler Key Performance Indicators (KPIs) diskutiert und abgestimmt werden.
Parallel dazu erfolgt die technische Konzeption des webbasierten Assistenzsystems, welches die entwickelten Methoden für die praktische Anwendung verfügbar macht. In enger Zusammenarbeit mit den Praxispartnern werden die Module des Systems prototypisch umgesetzt und in Anwendungsszenarien getestet. Dabei liegt der Fokus auf der Validierung in realitätsnahen Montagesettings – etwa in der IFA-Lernfabrik oder durch den Projektbegleitenden Ausschuss. Rückmeldungen aus der Praxis fließen systematisch in die Weiterentwicklung ein.
Abschließend erfolgt die vollständige Integration der Einzelkomponenten in das Gesamtsystem sowie eine abschließende Evaluierung hinsichtlich Anwendbarkeit, Nutzbarkeit und Planungsqualität. Ziel ist es, zum Projektende ein praxistaugliches Tool bereitzustellen, das in Unternehmen mit wenigen Anpassungen eingesetzt werden kann – ergänzt um Dokumentationen, Schulungsunterlagen und Handlungsempfehlungen für eine nachhaltigkeitsorientierte Betriebsmittelplanung.
Stimmen aus dem Projektbegleitenden Ausschuss:
Dr. Ing. Melvin Isken, Head of IT, cellumation GmbH:
Als junges, innovatives Start-up-Unternehmen aus dem Bereich der Intralogistik sind wir stets daran interessiert, unsere Prozesse nachhaltiger zu gestalten. Die Qualität der Prozesse und Produkte spielt gerade für den Eintritt in neue Märkte eine entscheidende Rolle. Mit unserem Produkt „celluveyor“ stellen wir ein weltweit einzigartiges, hochflexibles, modulares Förder- und Positioniersystem zur Verfügung, welches Unternehmen in einem sich wandelnden Produktionsumfeld die nötige Effizienz und Flexibilität bietet. Die Entwicklung und Montage der einzelnen Module und der Systeme, in denen diese zum Einsatz kommen, geschieht komplett bei uns vor Ort. Im Rahmen von NaBeMi wollen wir unsere Montageprozesse unter sozialen, ökologischen und ökonomischen Nachhaltigkeitskriterien qualitativ verbessern.
Über den Interviewpartner:
Dirk Schweers, Senior Research Associate, BIBA – Bremer Institut für Produktion und Logistik GmbH
Über das Forschungsprojekt: Weitere Informationen zum Projekt und zu Beteiligungsmöglichkeiten können über die Geschäftsstelle der FQS bezogen werden. Eine Mitarbeit im Projekt ist auch nach Laufzeitbeginn noch möglich. Über die FQS: Vorstellung der FQS Forschungsgemeinschaft Qualität e.V. Kontakt:
Informationen zum Forschungsprojekt und Kontaktdaten
Das Projekt wird im Rahmen des Programms “Industrielle Gemeinschaftsforschung” durch das Bundesministerium für Wirtschaft und Klimaschutz aufgrund eines Beschlusses des Deutschen Bundestages gefördert (Förderkennzeichen: 01IF23363N; Forschungsvereinigung: FQS – Forschungsgemeinschaft Qualität e.V.)
Die FQS – Forschungsgemeinschaft Qualität e. V. (FQS) unterstützt seit 1989 die anwendungsorientierte Forschung rund um das Thema Qualität in Deutschland. Sie versteht sich selbst als Forschungsbereich der Deutschen Gesellschaft für Qualität e. V. (DGQ) und wird von ihr getragen. Die FQS fördert innovative Forschungsideen über das Instrument der Industriellen Gemeinschaftsforschung (IGF) und des Forschungsnetzwerks CORNET des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK). Ziele der Förderung sind möglichst anwendungsnahe Forschungsideen, die einen unmittelbaren Nutzen für die Wirtschaft, insbesondere für kleine und mittelständische Unternehmen (KMU), erbringen.
Wer ist die FQS Forschungsgemeinschaft Qualität e.V. und was tut sie? Lernen Sie im Video den Forschungsbereich der DGQ kennen und erfahren Sie von Dr. Christian Kellermann-Langhagen, wissenschaftlicher Geschäftsführer der FQS, wie die FQS arbeitet, welche Themen beforscht werden und wie sich Unternehmen in der FQS beteiligen und von den eingesetzten Förderprogrammen profitieren können.
FQS – Forschungsgemeinschaft Qualität e. V.
August-Schanz-Straße 21A
60433 Frankfurt am Main
infofqs@dgq.de
Fünf Schritte zum CO2-Fußabdruck

Die Kenntnis des CO2-Fußabdrucks ist für alle Unternehmen essenziell. Das gilt unabhängig von den aktuellen Diskussionen um das Ominbus Paket 1 der Europäischen Union sowie der Stop-the-Clock Richtlinie vom 14. April 2025 und den damit in Verbindung stehenden Regelwerken:
- Corporate Sustainability Reporting Directive (CSRD),
- European Sustainability Reporting Standards (ESRS),
- Corporate Sustainability Due Diligence Directive (CSDDD, in Deutschland das
- Lieferkettensorgfaltspflichtengesetz LkSG),
- EU-Taxonomie-Verordnung
- etc.
Eine andere häufig verwendete Bezeichnung für den CO2-Fußabdruck ist der Corporate Carbon Footprint (CCF) – nicht zu verwechseln mit dem Product Carbon Footprint (PCF). Der CCF beschreibt die direkten und indirekten Gesamtemissionen einer Organisation. Der PCF konzentriert sich auf ein Produkt oder eine Dienstleistung.
Um den anthropogenen, von Menschen gemachten, Klimawandel zu beschreiben, hat sich die Messgröße CO2-Äquivalent (CO2e) etabliert. Dazu wurden verschiedene Treibhausgase (THG), wie zum Beispiel Methan (CH4), Lachgas (N2O) und zahlreiche fluorierte Treibhausgase (F-Gase) über die entsprechende Äquivalentwerte auf das Kohlendioxid (CO2) normiert, um ihren Beitrag zur Erderwärmung zu bestimmen.
Trotz aller zu erwartenden regulatorischen Erleichterungen – Verschiebung der Berichtspflicht, Anhebung der Schwellenwerte, Reduktion der Berichtspflichten und Vereinfachung der Standards – ist für eine ganzheitliche Klimastrategie die Kenntnis des Fußabdrucks wichtig. Kenngrößen wie CO2e / EUR oder EUR / CO2e sind in vielen Organisationen bereits fest verankert.
Die Frage ist, wie ermittelt man den CO2-Fußabdruck seiner Organisation?
Die nachfolgenden fünf Schritte:
- Management einbeziehen
- Systemgrenzen festlegen
- Daten und Informationen aufbereiten
- Berechnungsmethode festlegen
- Carbon Footprint ermitteln
liefern eine Antwort auf die Frage.
Beispielhaft wird für ein imaginäres Textilunternehmen exemplarisch die Ermittlung des CO2-Fußabdrucks erläutert. Bewusst wurden in dem Beispiel einige Vereinfachungen vorgenommen, um die Übersichtlichkeit zu wahren und die Komplexität nicht unnötig zu erhöhen. Für eine ausführliche Beschreibung der fünf Schritte wird auf das Fachbuch Nachhaltigkeit und Qualitätsmanagement verwiesen.
Folgende Annahmen wurden für das imaginäre Unternehmen getroffen:
Herr Tuch ist verantwortlich für das Qualitätsmanagement, Umweltmanagement und Energiemanagement in einem Textilunternehmen. Das Unternehmen, Textil-Green, ist nahe der Wupper im Städtedreieck Remscheid-Solingen-Wuppertal ansässig. Das Unternehmen hat sich auf die Herstellung von Tischtüchern spezialisiert.
Immer häufiger fragen externe Stakeholder (zum Beispiel Kunden, NGOs, Versicherungen, etc.) an, wie viel CO2-Emissionen bei der Herstellung eines Tischtuchs entstehen. Das gesellschaftliche Interesse ist ebenso sehr groß. Endkunden wollen wissen, wie groß der CO2-Fußabdruck eines Tischtuchs ist und wie viel Emissionen pro Jahr das Textilunternehmen verantwortet.
Schritt 1: Management einbeziehen
Der Geschäftsführer des Unternehmens spricht Herrn Tuch sein Vertrauen aus und beauftragt ihn mit der Erstellung des CO2-Fußabdrucks für das Unternehmen Textil-Green. Herr Tuch ist als Beauftragter des Integrierten Managementsystems sehr gut innerhalb des Unternehmens vernetzt. Er kennt die Geschäftsprozesse inkl. der Prozessbeschreibungen und er kennt sich mit Kennzahlen aus. Zu Beginn klären die beiden einige grundlegende Fragen.
Nachfolgend eine Auswahl der wichtigsten Fragen:
- Wer wird in dem Projektteam benötigt (zum Beispiel Kolleg:innen aus dem Bereich Controlling, Produktion, Entwicklung, Logistik, Einkauf)?
- Stehen die notwendigen Ressourcen zur Verfügung (aufgrund der hohen Priorisierung müssen die Bereiche die Ressourcen zur Verfügung stellen und ggf. Vertretungen organisieren)?
- Wer ist im Steuerungskreis (das Top-Management stellt den Steuerkreis)?
- An wen wird, wie oft und in welcher Form wird berichtet (an den Steuerkreis wird einmal im Monat mit Hilfe der etablieren Projektmanagementtools berichtet)?
- Wie sieht das Eskalationsprozess aus (der Eskalationsprozess aus dem Projektmanagement wird übernommen, die 1. Eskalationsstufe sind das Projektteam und der Projektleiter, die 2. Eskalationsstufe sind die Vorgesetzten, die 3. Eskalationsstufe ist der Steuerkreis?)
- Die Zielsetzung ist SMART beschrieben. Die Abnahmekriterien für das Projekt sind eindeutig definiert.
Um alle Beschäftigten über das Projekt zu informieren, verfasst der Geschäftsführer eine Information im Internet. Die Ermittlung des CO2-Fußabdrucks stellt er als ersten großen Meilensteine der bevorstehenden nachhaltigen Transformation dar und kündigt eine Nachhaltigkeitsstrategie für das Unternehmens an. Der Geschäftsführer lädt persönlich das Projektteam und alle Interessierten zum Kick-off Gespräch ein und hält im Kick-off Gespräch die Eröffnungsrede. Dabei geht er auf die Zielsetzung des Projekts ein, stellt die strategische Bedeutung des Projekts nochmals heraus und wünscht Herrn Tuch und seinem Projektteam viel Erfolg.
Schritt 2: Systemgrenzen festlegen
Für das erste Treffen im Projektteam hat sich Herr Tuch vorgenommen, die zeitlichen, operativen und organisatorischen Systemgrenzen zu klären. Die zeitliche Systemgrenze hatte Herr Tuch bereits mit dem Geschäftsführer abgestimmt. Der CO2-Fußabdruck soll für das vergangene Geschäftsjahr 2024, vom 1. Januar 2024 bis 31. Dezember 2024, bestimmt werden. Das Jahr 2024 soll auch als Referenzjahr für die zukünftigen Berechnungen und Vergleiche dienen. Als operative Systemgrenzen legt das Projektteam fest, dass die Scope-1-, -2- und -3-Emissionen berücksichtigt werden. In Abb. 1 sind die Scope-1-, -2- und -3-Emissionen dargestellt.

Abb. 1: Erläuterung der Scope-1-, -2-, -3-Emissionen, ©Wilhelm Floer
Bei den Scope-3-Emissionen wird zwischen vor- und nachgelagerten Emissionen unterschieden. Diese Emissionen sind in 15 Kategorien eingeteilt. Die ersten acht Kategorien stehen für Emissionen in der vorgelagerten, die letzten sieben Kategorien für die Emissionen der nachgelagerten Wertschöpfungskette.
Die organisatorischen Systemgrenzen sind schnell ermittelt, da Textil-Green nur einen Standort hat. Bei mehreren Standorten hätte man entscheiden müssen ob alle Standorte zu Beginn berücksichtigt werden oder unter Umständen auch iterativ vorzugehen ist.
Schritt 3: Daten und Informationen aufbereiten
Die Datenherkunft und Datenqualität ist für die Aufbereitung der Daten und Informationen von hoher Bedeutung.
Für die Scope-1- und -2-Emissionen kann das Projektteam auf Primärdaten zugreifen. Diese „low hanging fruits” stehen Hr. Tuch durch das Energiemanagementsystem auf Knopfdruck zur Verfügung: Um die kontinuierliche Verbesserung der energetischen Leistung des Energiemanagementsystems zu dokumentieren, hat Herr Tuch den Gas- und Stromverbrauch der vergangenen Jahre festgehalten. Die Verbrauchswerte hat der Energieversorger mit der Jahresabrechnung bereitgestellt. Auf der Abrechnung sind auch die Verbrauchswerte in CO2-Emissionen umgerechnet aufgeführt. Somit entfällt das Bestimmen der Emissionsfaktoren und das Ausrechnen der Emissionen für den Gas- und Stromverbrauch.
Laut der Jahresabschlussrechnung liegen die Emissionen für den Gasverbrauch bei 18.139 kg CO2e für Scope 1 und für den Stromverbrauch bei 7.965 kg CO2e für Scope 2.
Den kompletten Fuhrpark hat das Unternehmen 2023 auf Elektroantrieb umgestellt. Dadurch fallen für Scope 1 keine weiteren Emissionen an.
In Summe ergeben sich damit für Scope 1 und 2 ca. 26.000 kg CO2e oder 26 t CO2e.
Die Scope-3-Emissionen müssen häufig mit Hilfe von Sekundärdaten abgeschätzt werden, da keine Verbrauchsdaten vorliegen. Ein erstes Screening kann hierbei sehr hilfreich sein, um herauszufinden, welche der Scope-3-Kategorien die größten THG-Emissionen verursacht.
Bzgl. der Datenqualität und Informationsaufbereitung gelten die Grundsätze der finanziellen Rechnungslegung:
- Relevanz: der Treibhausgasemissionen
- Konsistenz: hinsichtlich der Berechnungsmethode und Vergleichbarkeit
- Genauigkeit: mit Verweis auf zuverlässige Informationsquellen
- Transparenz: bezüglich der dokumentierten Informationen, Annahmen und Schätzungen
- Vollständigkeit: Ausnahmen werden dokumentiert
Welche der 15 Kategorien für Textil-Green relevant sind, legt das Projektteam zusammen fest. Das Ergebnis der Bewertung und die Erläuterung der 15 Kategorien ist der Checkliste in Abb. 2 zu entnehmen.

Abb. 2: Checkliste Treibhausgasemissionen Scope1, 2, 3, © Wilhelm Floer
Das Projektteam ist zu der Erkenntnis gekommen, dass die nachgelagerte Wert-schöpfungskette vernachlässigt werden kann. Für die vorgelagerte Wertschöpfungskette sind die Kategorien 3.1 und 3.4 relevant.
Schritt 4: Berechnungsmethode festlegen
Vorweg: Einen rechtlich verbindlichen Standard für die Berechnung des CO2 -Fußabdrucks gibt es nicht. Zur Erstellung einer CO2-Bilanzierung haben sich jedoch die folgenden drei Regelwerke etabliert:
Die drei Standards sind hier sehr detailliert erläutert und gegenübergestellt. Die am häufigsten verwendete Methode ist die Berechnung nach dem Greenhouse Gas Protokoll (GHG). Für die Berechnung der Treibhausgasemissionen werden Emissionsfaktoren benötigt. Diese findet man häufig auch im Internet. Nachstehend sind einige kostenlose Datenbanken für Emissionsfaktoren aufgeführt:
- Defra: Emissionsumrechnungsfaktoren, die von britischen und internationalen Organisationen verwendet werden
- GHG: Diverse Listen von Emissionsfaktoren
- IEA: Internationale Energieagentur, Indikatoren in Bezug auf Emissionen aus der Strom- und Wärmeerzeugung
- IZU: EXCEL-Template zu Berechnung der Scope 1und Scope 2 Emissionen, (Emissionsfaktoren sind hinterlegt)
- IPCC: umfangreiche Emissionsfaktoren des Intergovernmental Panel on Climate Change (IPCC)
- UBA: Sehr viele und umfangreiche Informationen über und Publikationen zu Emissionsfaktoren
- BAFA: Infoblatt zu den CO2-Faktoren der Bundesförderung für Energie- und Ressourceneffizienz in der Wirtschaft – Zuschuss
Sind die notwendigen Emissionsfaktoren bekannt, ist die Berechnung der CO2 Emissionen trivial. Die Aktivitätsdaten müssen dazu nur mit dem zugehörigen Emissionsfaktor multipliziert werden und als Ergebnis erhält man die Emissionslast in CO2e, wie nachfolgendes Beispiel zeigt:
| Aktivitätsdaten x Emissionsfaktor | = CO2e Emissionen |
| Stromverbrauch x CO2e Emissionsfaktor | = CO2e Emissionen [kg pro Jahr] |
| 1.000.000 kWh pro Jahr x 0,363kg CO2e/kWh | = 363.000kg CO2e pro Jahr |
Hier wurde der Emissionsfaktor gemäß deutschem Strommix für das Jahr 2024 angesetzt.
Herr Tuch und das Projektteam erfahren große Unterstützung durch ihre Lieferanten. Die Lieferanten notieren schon seit einiger Zeit die für die Herstellung ihrer Produkte anfallenden CO2-Emissionen auf den Lieferscheinen. Damit erleichtert sich die Situation um ein Vielfaches. Somit müssen nur alle Lieferscheine für 2024 gesichtet und die Emissionen addiert werden. Für die Herstellung der eingekauften Waren nach Scope 3 Kategorie 3.1 ergeben sich somit 75.364 kg CO2e Emissionen.
Um die Scope-3-Kategorie 3.4 für den Transport der eingekauften Waren zu ermitteln, müssen die Transportwege und Transportmittel analysiert werden. Die eingekauften Waren werden von Asien per Schiff nach Rotterdam transportiert. Von dort geht es dann weiter mit einem LKW zu Textil-Green.
In Summe wurden 1.690 l Diesel für den Transportweg eingesetzt, was 4512 kg CO2e THG entspricht.
Schritt 5: Carbon Footprint ermitteln
Sobald für alle Aktivitäten die CO2 Emissionen nach Scope 1, 2 und 3 vorliegen, kann durch Aufsummieren der CO2-Fußabdruck für die Organisation ermittelt werden.
In nachfolgender Tabelle sind die THG-Emissionen für Scope 1, 2 und 3 sowie die Summe der Emissionen für Textil-Green für das Jahr 2024 zusammengefasst:
| Scope | CO2e Emissionen [kg] |
|---|---|
| Scope 1 und 2 | 26.104 |
| Scope 3, Kat. 3.1 | 75.364 |
| Scope 3, Kat 3.4 | 4.512 |
| Summe | 105.980 |
Für die Herstellung von 50.000 m² Tischtuchware ergibt sich somit ein CO2-Fußabdruck von 105.980 kg CO₂e, gerundet 106 t CO₂e. Pro Tischtuch mit einer Fläche von 1 m² und einem angenommenen Gewicht von ca. 100 g entstehen also 2,1 kg CO₂e.
An dieser Stelle sei noch einmal darauf hingewiesen, dass sich für Textilunternehmen in der Praxis gänzlich andere Werte ergeben können.
In Abb. 3 ist der CO2-Fußabdruck und die Verteilung der Scope 1, 2, 3 Emissionen grafisch dargestellt. Es wird deutlich, dass die THG-Emissionen der Kategorie 3.1 mit ca. 71 Prozent am größten sind. Lediglich 25 Prozent der Emissionen sind Scope 1 und 2 zuzuschreiben.

Abb. 3: CO2-Fußabdruck und die Verteilung der Scope1, 2, 3, Emissionen, ©Wilhelm Floer
Zusammenfassung und Ausblick
Anhand eines imaginären Textilunternehmens wurde eine strukturierte Vorgehensweise zur Ermittlung des CO2-Fußabdrucks vorgestellt. Die eingangs genannten fünf Schritte haben sich mehrfach bewährt:
- das Management einbeziehen: Das Management stellt Ressourcen und Geld zur Verfügung und unterstreicht die Wichtigkeit des Themas.
- Systemgrenzen festlegen: Was will ich untersuchen, was nicht? Betrifft Standorte, Organisationseinheiten, Scope 1, 2 und/oder 3 etc.
- Daten und Informationen aufbereiten: Welche „low hanging fruits“ haben wir, zum Beispiel internes System, Energie- und Umweltmanagement? Was brauchen wir noch?
- Berechnungsmethode festlegen: GHG oder ISO 14064 oder PAS2060? (Kostenlose Software für Emissionsfaktoren verwenden).
- Carbon Footprint ermitteln: Emissionen für Scope 1, 2 und 3 summieren und darstellen, siehe Abb. 3.
Wie geht es danach weiter?
Ist der CO2-Fußabdruck bekannt, geht es darum eine Klimastrategie zu entwickeln und kontinuierlich die Emissionen im Fokus zu halten. Die Faustregel für die nächsten Schritte lautet:
- vermeiden
- reduzieren
- kompensieren
Bezogen auf Textil-Green würde das bedeuten, zunächst über Vermeidungsmaßnahmen nachzudenken. Hierzu gehört zum Beispiel der Einsatz regenerativer Energiequellen (zum Beispiel Sonnen- und Windenergie).
Um den Energieverbrauch und somit auch die THG-Emissionen zu reduzieren, bieten sich neue, hocheffiziente Technologien an, beispielsweise durch die Investition in eine neue Heizung, Umrüstung auf energetisch effiziente Maschinen und Anlagen oder den Austausch von ineffizienten Antrieben. Durch den Einsatz von recyceltem Garn könnte Textil-Green bei der Herstellung und Veredelung Emissionen reduzieren. Ebenso könnte sich durch die Bündelung der Lieferantentransporte der Kraftstoffverbrauch reduzieren.
Für die verbleibenden unvermeidbaren CO2-Emissionen könnten im letzten Schritt Kompensationsprojekte herangezogen werden. Hierfür müsste Textil-Green Emissions-Zertifikate erwerben.
Das Umweltbundesamt sieht die CO2-Kompensationen unter folgenden Bedingungen als sinnvoll an:
- Gleichen Sie unvermeidbare Treibhausgasemissionen nach Möglichkeit durch freiwillige Kompensationszahlungen aus.
- Achten Sie bei Kompensationszahlungen auf die Qualität von Anbieter und Angebot (Goldstandard).
- Beachten Sie: „Klimaneutrale“ sind nicht automatisch auch umweltfreundliche Produkte.
- Geben Sie der Vermeidung von Treibhausgasemissionen Vorrang vor deren Kompensation.
Warum sind „Qualitäter“ und Managementsystemverantwortliche gefordert?
Für einige Unternehmen ist schon jetzt das Nachhaltigkeitsmanagement das neue Qualitätsmanagement. Nachhaltigkeit ist Pflicht und Wettbewerbsvorteil zugleich und eine große Chance für Qualitätsmanager und Managementsystemverantwortliche. Organisationen müssen schneller auf neue Anforderungen in einem disruptiven Umfeld reagieren und gleichzeitig ihre Resilienz erhöhen. Hierbei können QMler und Managementsystemverantwortliche einige ihrer grund- und disziplinspezifischen Kompetenzen einbringen, wie zum Beispiel:
- sehr gute Vernetzung innerhalb der Organisation,
- ausgezeichnete Kenntnisse über Normen und Gesetze,
- hohes Prozessverständnis,
- umfangreiche Stakeholder- und Risikomanagementerfahrungen,
- umfassende Kommunikation mit extenen Stakeholdern,
- charakteristische Fähigkeiten zur Organisationsentwicklung,
- ausgeprägte Affinität zu Kennzahlen
- signifikantes Methoden- und Fachwissen
Wie groß ist der CO2-Fußabdruck Ihrer Organisation?
Der obenstehende Leitfaden, wenn auch sehr vereinfacht an einem imaginären Beispiel aus der Textilindustrie dargestellt, soll Orientierung geben und als Roadmap dienen, um den Fußabdruck in der eigenen Organisation zu ermitteln. Setzen Sie sich mit Geschäftsführung und Kolleg:innen zusammen. Gestalten Sie die nachhaltige Transformation proaktiv mit und warten Sie nicht, bis Stakeholder (zum Beispiel Kunden, Banken, Versicherer, etc.) danach fragen oder gesetzliche Vorgaben greifen. Extremwetterereignisse führen uns regelmäßig die Folgen des Klimawandels vor Augen. Die Hauptursache des anthropogenen Klimawandels ist der Ausstoß der Treibhausgase.
Bei Fragen können Sie Sich gerne an die Community des DGQ-Fachkreises Nachhaltigkeit wenden.
Die im Beitrag dargestellten Inhalte basieren auf der Erarbeitung einer Arbeitsgruppe, bestehend aus Wilhelm Floer, Greta Hansen, Joachim Heißner und Christian Tigmann, aus dem DGQ-Fachkreis Nachhaltigkeit.
Über den Fachkreis Nachhaltigkeit:
Der Fachkreis Nachhaltigkeit bietet eine entscheidende Plattform, über die wir Wissen teilen, gemeinsam lernen und Umsetzungsbeispiele für die Praxis erarbeiten und bereitstellen. Wir wollen damit einen Gestaltungsspielraum für engagierte Personen aus Organisationen bieten, die sich ihrer unternehmerischen Verantwortung gegenüber der Umwelt und der Gesellschaft, aber auch der eigenen Organisation bewusst sind. Dies gilt für die Gegenwart und die Zukunft. Somit vereinen wir Managementsysteme und Nachhaltigkeitsbestrebungen.
Über den Autor:
Dr. Wilhelm Floer hat als promovierter Maschinenbauingenieur und Qualitätsmanagement-Experte zahlreiche praktische Erfahrungen im Bereich QM, QS und Audits gesammelt. Er war über zehn Jahre im Bereich Automotive in den unterschiedlichsten Positionen bei verschiedenen Unternehmen (OEM und First Tier) tätig. Bei einem namhaften Haushaltsgerätehersteller hat er sich unter anderem für agiles QM und als Energie- und Umweltmanagementvertreter für Nachhaltigkeitsthemen eingesetzt sowie als Co-Autor bei der Erstellung der Nachhaltigkeitsberichte mitgewirkt. Als Dozent für die DGQ leitet er verschiedene Trainings und führt im Namen der DGQ-Beratungsprojekte durch. Er ist Gründungsmitglied und Mitglied des Leitungsteams des DGQ Fachkreis Nachhaltigkeit.
Interview zum FQS-Forschungsprojekt AIDpro: Datenvalidierung für Produktionsprozesse

Angesichts wachsender ökologischer und wirtschaftlicher Herausforderungen müssen nicht zuletzt kleine und mittelständische Unternehmen (KMU) ihre Produktionseffizienz absichern und idealerweise steigern, um wettbewerbsfähig zu bleiben. Durch die Digitalisierung und die Nutzung einer datenbasierten Wertschöpfung mittels künstlicher Intelligenz (KI) kann die Produktivität und Flexibilität der Fertigungsprozesse in Industrie-4.0-Umgebungen gesteigert werden. Allerdings stellen die Implementierung und das Training serienreifer KI-Lösungen sowie ihre sichere Anwendung eine komplexe Herausforderung dar.
Oft sind die Prozessdaten, die die KI-Modelle im laufenden Betrieb verarbeiten, nicht vollständig durch die zuvor verwendeten Trainingsdaten repräsentiert. So weisen Sensordaten im Betrieb häufig Abnormalitäten oder Fehler auf, die durch externe Störungen, Übertragungsfehler oder defekte Sensoren verursacht werden. Zudem können Faktoren wie Saisonalität, Verschleiß und Verschmutzung dazu führen, dass sich Prozessdaten im Laufe der Zeit dynamisch ändern. Folglich können eingesetzte KI-Modelle unvorhersehbare Entscheidungen treffen, wenn aktuelle Anwendungsdaten stark von den Trainingsdaten abweichen. Um zu verhindern, dass Datenfehler die Entscheidungsfindung beeinträchtigen, müssen diese Anomalien mit höchstmöglicher Zuverlässigkeit erkannt werden, damit entsprechend gegengesteuert werden kann.
Im Rahmen des über die FQS – Forschungsgemeinschaft Qualität e.V. geförderten Forschungsprojekts AIDpro entwickeln das Fraunhofer-Institut für Produktionstechnologie IPT und das Fraunhofer-Institut für Angewandte und Integrierte Sicherheit AISEC über einen Zeitraum von zwei Jahren ein System zur automatisierten Datenvalidierung und Überwachung der Anwendungsphase von KI-Lösungen. Die Forschungsarbeiten werden von acht Unternehmen im Projektbegleitenden Ausschuss unterstützt.
Im Interview geben Jana Hüls (Fraunhofer IPT) und Wei-Herng Choong (Fraunhofer AISEC) einen Ausblick auf das Projekt und erläutern, wie Unternehmen von den Forschungsergebnissen profitieren können.
Aus welcher Problemstellung heraus ist das Forschungsprojekt entstanden?
Hüls: Die Entwicklung von serienreifen KI-Lösungen gliedert sich in zwei Phasen: die Modellbildungsphase und die Anwendungsphase. In der Modellbildungsphase erfolgen die Datenauswahl, Datenvorverarbeitung, Algorithmenauswahl sowie das Training und die Validierung des Modells. Während diese Schritte traditionell von Expertinnen und Experten übernommen werden, ermöglichen neue Ansätze im Forschungsgebiet des Automated-Machine-Learning (AutoML) eine teilweise Automatisierung bestimmter Schritte. Dadurch können KI-Lösungen auch für KMU ohne spezifische Fachkenntnisse interessanter werden.
In den cyber-physischen Produktionssystemen der Fertigungsindustrie liegen die Herausforderungen neben der Modellbildung allerdings vor allem in der Anwendungsphase von KI-Modellen. Diese Herausforderungen resultieren aus geringer Datenqualität, verursacht durch Sensorfehler und zeitlich variierende Abweichungen, den hohen Effizienzansprüchen der Branche sowie wirtschaftlichen Risiken und komplexen, oft intransparenten Systemfunktionen von KI. Besonders relevant sind die Anfälligkeit für fehlerhafte sowie sich dynamisch ändernde Daten und die wirtschaftlichen Risiken, die mit KI-Fehlentscheidungen verbunden sind. Im Betrieb leiten KI-Modelle aus Prozessdaten Informationen ab, die entweder zur Entscheidungsunterstützung oder zur autonomen Befehlsausführung genutzt werden. Dabei errechnen sich die Modellausgaben aus den im Training identifizierten Modellparametern und den momentanen Eingangsdaten. Weicht die Eingabe an die KI signifikant von den prinzipiell erlernten Strukturen der Trainingsdaten ab, können unvorhergesehene Entscheidungen durch die KI getroffen werden.
Choong: Da KI-Systeme perspektivisch auch in KMU zum Einsatz kommen müssen, um den Effizienzanforderungen gerecht zu werden, ist es entscheidend, das Risiko unvorhersehbarer KI-Entscheidungen zu minimieren. KI-Entscheidungen, die auf unzuverlässigen Daten basieren, bergen erhebliche Risiken für Produkte, Maschinen und Mitarbeiter. Für viele produzierende KMU ist die fehlende Qualität ihrer Prozessdaten und das damit verbundene Risiko ein Hemmnis beim Einsatz von KI-Modellen. An dieser Stelle soll das Forschungsprojekt AIDpro ansetzen und durch automatisierte Datenvalidierung und Überwachung der Anwendungsphase der KI-Lösungen die Grundlage für den sicheren Einsatz von KI in der Produktion ermöglichen. Dies gilt es durch geeignete, automatisierte Ansätze zur Anomalieerkennung zu adressieren.
Welches Know-how wird im Rahmen des Forschungsprojekts AIDpro entwickelt und wie kann es zur Lösung der geschilderten Problemstellung beitragen?
Hüls: Das Ziel von AIDpro ist die Entwicklung eines Datenvalidierungssystems (DVS) für eine automatisierte Prüfung und Sicherstellung der Datenqualität und eine Überwachung der Anwendungsphase von KI-Lösungen. Dabei wird das System speziell für den Einsatz in produktionstechnischen Systemen anhand konkreter Anwendungsfälle aus dem Projektbegleitenden Ausschuss entwickelt. Das DVS soll keine bloße Software-Bibliothek darstellen, sondern ein umfassender praxisnaher Leitfaden samt anwendungsbezogenem Software-Demonstrator sein. Der Leitfaden wird dazu dienen, KMU zu befähigen, selbstständig erste Schritte im Bereich Machine Learning zu gehen, indem eine validierte Datengrundlage aufgebaut wird.

Abb. 1: Darstellung des geplanten Datenvalidierungssystems (DVS) ©Fraunhofer IPT
Choong: Das DVS soll modular aufgebaut sein und eine direkte Schnittstelle zu den Daten aus den Produktionsprozessen haben. Zunächst werden Vollständigkeits- und Konfidenz-Checks durchgeführt, die regelbasiert überprüfen, ob alle Daten vollständig und innerhalb der von Experten vordefinierten Wertebereiche liegen. Ergänzend wird eine Erkennung von Ausreißern durchgeführt. Dafür werden insbesondere neuartige, KI-basierte Erkennungsmethoden verwendet. Des Weiteren wird das System zeitliche Veränderungen in den Daten, sogenannte Datendrifts, überprüfen. Diese Information kann Aufschluss über veränderte Produktionsbedingungen geben und dazu genutzt werden, das KI-Modell mit den veränderten Bedingungen neu zu trainieren.
Die validierten Daten inklusive der Metadaten werden anschließend gespeichert, um sie zum Beispiel für das Training von KI-Modellen für Einsätze wie intelligente Qualitätskontrolle zu nutzen. Daneben wird auch ein Data-Monitoring-Ansatz entwickelt, der die Datenvalidierung und die Daten überwacht. Das übergeordnete Ziel des DVS ist es demnach, Datenfehler, Anomalien und Datendrifts zu erkennen, zu visualisieren beziehungsweise zu alarmieren und diese – in Zusammenwirkung mit Anwendenden – zu handhaben.
Wer soll von den Ergebnissen profitieren und welcher konkrete Nutzen ergibt sich für Unternehmen?
Hüls: Von den Ergebnissen sollen insbesondere produzierende KMU profitieren. Die validierten Prozessdaten, die das DVS bereitstellt, schaffen die Voraussetzung für den industriellen Einsatz von KI. Die Überwachung der Daten während der Anwendungsphase von KI schützt zudem vor den Risiken von Fehlentscheidungen durch fehlerhafte Datenpunkte. Der praxisnahe Leitfaden unterstützt Unternehmen zusätzlich, um – aufbauend auf den validierten Daten – KI-Potenziale zu erschließen, die sich zum Beispiel in der Qualitätskontrolle, der intelligenten Wartung, oder der Identifizierung ressourceneffizienter Betriebspunkte und Qualitätsvorhersagen ergeben. Außerdem können die Unternehmen durch das DVS und das transparente Data Monitoring eine unternehmensinterne Datenkompetenz aufbauen.
Wie sieht das weitere Vorgehen im Forschungsprojekt aus?
Choong: Zunächst werden wir eng mit dem Projektbegleitenden Ausschuss zur Identifizierung und Definition relevanter Anwendungsfälle zusammenarbeiten. Unser Ziel ist es, eine vielfältige Sammlung von praxisnahen und relevanten Anwendungsfällen und Datensätzen zu erstellen, um ein allgemeines DVS entwickeln zu können. Basierend auf diesen Anwendungsfällen leiten wir die Spezifikationen und Anforderungen an das DVS ab, die uns bei der Entwicklung und Implementierung des Gesamtkonzepts leiten. Nach der erfolgreichen Implementierung des DVS führen wir mit den Industriepartnern die Validierung und Evaluierung des DVS in einer realen Fertigungsumgebung zusammen durch. Das Feedback der Unternehmen wird in eine weitere Entwicklungsiteration einfließen. Anschließend werden wir weiterführende Anwendungsszenarien für das DVS identifizieren und bewerten, wobei der Schwerpunkt auf Themen wie Predictive Maintenance und Qualitätssicherung liegt.
Stimmen aus dem Projektbegleitenden Ausschuss:
André Heinke, Leiter Vertrieb und Marketing, Bitmotec GmbH:
Als Partner im Projektbegleitenden Ausschuss des Forschungsprojekts AIDpro engagiert sich die Bitmotec GmbH für die Entwicklung standardisierter Methoden zur Sicherung der Datenqualität in Produktionsprozessen. Mit unserer Industriellen Datenplattform BITMOTECOsystem verbinden wir Maschinen und Sensoren in produzierenden Unternehmen, um beispielsweise OEE-Lösungen umzusetzen. Aus unserer langjährigen Erfahrung mit KI-Technologien in der Industrie wissen wir, dass die Qualität und Integrität der erfassten Daten eine zentrale Rolle spielen. Nur wenn Industrieunternehmen ihren Daten vertrauen, sind sie bereit, den Ergebnissen zukünftiger KI-Technologien zu glauben und diese gewinnbringend einzusetzen.
Durch die Teilnahme an AIDpro wollen wir innovative Ansätze zur kontinuierlichen Überwachung und Validierung von Prozessdaten erarbeiten. Die Identifikation von Ausreißern und Datendrifts – etwa durch Verschleiß oder Messfehler – ist essenziell, um verlässliche Entscheidungsgrundlagen für KI-gestützte Optimierungen zu schaffen. Die Erkenntnisse aus dem Forschungsprojekt helfen uns, unsere Lösungen für die digitale Produktion weiterzuentwickeln und unseren Kunden eine noch höhere Datenqualität sowie Prozesssicherheit zu bieten. So schaffen wir eine stabile Basis für den erfolgreichen Einsatz von KI in der industriellen Praxis.
Daniel Narberhaus, Research & Development, Aventus GmbH & Co. KG:
Unsere Motivation für die Teilnahme am Forschungsprojekt AIDpro ist klar: Wir wollen KI nicht nur anwenden, sondern verstehen – und vor allem auf einer qualitativ hochwertigen Datenbasis weiterentwickeln. Statt auf bloße Datenmengen zu setzen, legen wir den Fokus auf plausible, nachvollziehbare Daten. Nur so können wir KI-Lösungen schaffen, die nicht nur leistungsfähig, sondern auch vertrauenswürdig und praxisnah zum Nutzen unserer Kunden sind. Die im Projekt gewonnenen Erkenntnisse fließen direkt in die Neu- und Weiterentwicklung unserer digitalen AVENTUS-Produkte ein – mit dem Ziel, für unsere Kunden noch intelligentere und verlässlichere Lösungen für eine leistungsstarke Produktion zu entwickeln.
Über die Interviewpartner:
Jana Hüls, Wissenschaftliche Mitarbeiterin, Production Quality, Fraunhofer-Institut für Produktionstechnologie IPT
Wei Herng Choong, Department Cognitive Security Technologies, Fraunhofer-Institut für Angewandte und Integrierte Sicherheit AISEC
Über das Forschungsprojekt: Weitere Informationen finden Sie auf der Website des Fraunhofer IPT » Über die FQS: Vorstellung der FQS Forschungsgemeinschaft Qualität e.V. Kontakt:
Informationen zum Forschungsprojekt und Kontaktdaten
Das Projekt wird im Rahmen des Programms „Industrielle Gemeinschaftsforschung” durch das Bundesministerium für Wirtschaft und Klimaschutz aufgrund eines Beschlusses des Deutschen Bundestages gefördert (Förderkennzeichen: 01IF23103N; Forschungsvereinigung: FQS – Forschungsgemeinschaft Qualität e.V.) Weitere Informationen zum Projekt und zu Beteiligungsmöglichkeiten können über die Geschäftsstelle der FQS bezogen werden. Eine Mitarbeit im Projekt ist auch nach Laufzeitbeginn noch möglich.
Die FQS – Forschungsgemeinschaft Qualität e. V. (FQS) unterstützt seit 1989 die anwendungsorientierte Forschung rund um das Thema Qualität in Deutschland. Sie versteht sich selbst als Forschungsbereich der Deutschen Gesellschaft für Qualität e. V. (DGQ) und wird von ihr getragen. Die FQS fördert innovative Forschungsideen über das Instrument der Industriellen Gemeinschaftsforschung (IGF) und des Forschungsnetzwerks CORNET des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK). Ziele der Förderung sind möglichst anwendungsnahe Forschungsideen, die einen unmittelbaren Nutzen für die Wirtschaft, insbesondere für kleine und mittelständische Unternehmen (KMU), erbringen.
Wer ist die FQS Forschungsgemeinschaft Qualität e.V. und was tut sie? Lernen Sie im Video den Forschungsbereich der DGQ kennen und erfahren Sie von Dr. Christian Kellermann-Langhagen, wissenschaftlicher Geschäftsführer der FQS, wie die FQS arbeitet, welche Themen beforscht werden und wie sich Unternehmen in der FQS beteiligen und von den eingesetzten Förderprogrammen profitieren können.
FQS – Forschungsgemeinschaft Qualität e. V.
August-Schanz-Straße 21A
60433 Frankfurt am Main
infofqs@dgq.de
Wer managt die Nachhaltigkeit? – Neue Themen, neue Zuständigkeiten

In Unternehmen ist Nachhaltigkeit ein Thema, das Können und Zeit erfordert, Kompetenz und Ressource. Wachsende Verpflichtungen auf Basis neuer gesetzlicher Anforderungen und auch wachsende Einsicht in die Notwendigkeit der Zukunftssicherung begründen neue Funktionen: Nachhaltigkeitsmanager, -berater und -experten. Sie stellen aber vor allem kleine und mittelständische Unternehmen vor erhebliche Herausforderungen.
Welche neuen Rollen zeichnen sich ab, wie richten Unternehmen die Funktionen ein, welche Zuständigkeiten kristallisieren sich heraus? Wird das Thema Nachhaltigkeit eigens adressiert oder mit anderen, wie dem Qualitätsmanagement kombiniert? Die DGQ geht diesen Fragen nach und stützt sich dabei auf Recherchen, Diskussionen in ihrem Netzwerk sowie eine eigens durchgeführte, nicht repräsentative Kurzumfrage mit 100 Teilnehmenden.
Im Vergleich zum Qualitätsmanagement, das in vielen Unternehmen schon lange eingerichtet und mit eigenem Personal ausgestattet ist, sind Stellen für das Nachhaltigkeitsmanagement in weniger Unternehmen und erst seit einigen Jahren geschaffen worden, zumeist innerhalb der vergangenen fünf Jahre. 13 Prozent der Unternehmen in der DGQ-Kurzumfrage planen die Einrichtung einer Stelle für Nachhaltigkeit, 27 Prozent haben und planen zurzeit keine, siehe Abb. 1. Doch das kann sich ändern, wenn externer Druck und interne Notwendigkeit weiter anwachsen.

Abb. 1: Vorhandensein der Funktionen Qualitätsmanagement und Nachhaltigkeitsmanagement
Budget bei den Großen …
Je größer das Unternehmen, desto länger und zahlreicher sind neue Berufsbilder bereits im Einsatz, desto eher ist für Nachhaltigkeit ein eigener Bereich aufgebaut worden. Und gerade in den großen Unternehmen genießt die Nachhaltigkeit zurzeit große Aufmerksamkeit und direkte Anbindung an Vorstände und Geschäftsführungen. Das ist verständlich, ist deren gesetzliche Verpflichtung und persönliche Verantwortung doch besonders umfangreich und weitreichend und der Blick der globalen Öffentlichkeit auf ihre Nachhaltigkeitsaktivitäten und vor allem auch -unterlassungen fokussiert. Die Nachhaltigkeitsbereiche der Konzerne erfahren zurzeit eine Bedeutung, Wertschätzung und Budgetierung, auf die andere Stabs- und Expertenfunktionen durchaus sehnsüchtig und nicht selten ein wenig neidisch blicken.
Pragmatismus bei den Kleinen …
Im Mittelstand, vor allem in den zahlreichen kleinen Unternehmen, zeigt sich ein anderes Bild. Einige Unternehmen schlagen die recht neue Funktion Nachhaltigkeitsmanagement sehr pragmatisch einer bereits vorhandenen Stelle zu. Ein naheliegender Kandidat ist das Qualitätsmanagement, siehe Abb. 2.

Abb. 2: Einzel- oder Doppelfunktion
Zum einen herrscht gerade ein Engpass an Expertinnen und Experten für Nachhaltigkeit und die großen Unternehmen sowie Unternehmensberatungen grasen den ohnehin dünn besetzten Bewerbermarkt ab. Zum anderen schlägt der Aufbau dieser Personalressourcen umso stärker zu Buche, je kleiner das Unternehmen ist.
Kleine Unternehmen, insbesondere produzierende, haben zumeist eine Beauftragte oder einen Beauftragten für Qualitätsmanagement und bitten diese pragmatisch, das Thema Nachhaltigkeit mitzuverarbeiten. Dieser Impuls ist umso stärker, wenn Leitungen Nachhaltigkeit vor allem mit formaler Anforderungserfüllung und Berichtspflichten verbinden. Dann gibt es ausgeprägte Verwandtschaften zum und Synergien mit dem Qualitätsmanagement.
Dennoch erzeugt dieses „Job Enrichment“, diese Aufgabenanreicherung, zusätzliche Aufwände, ohne dass mehr Ressource verfügbar wäre. Sie verlangt von den Qualitätsbeauftragten, sich neue Kompetenzen anzueignen, was für sie den Initialaufwand für die Übernahme des Nachhaltigkeitsmanagements noch deutlich erhöht. So sind in der Praxis einzelne Qualitätsmanagerinnen und -manager nicht glücklich über den Themenzuwachs. Andere begrüßen, dass das Unternehmen hier aktiver wird, und haben durchaus selbst auch Motivation und Interesse, das Nachhaltigkeitsmanagement auszubauen oder weiterzuentwickeln.
| Berufsbild Nachhaltigkeitsmanager Die Themen Nachhaltigkeit und Klimaschutz gehören zu den Megatrends unserer Zeit. Für Unternehmen wird es somit immer wichtiger, CSR-Maßnahmen umzusetzen und ihrer gesellschaftlichen Verantwortung gerecht zu werden. Mit dem größeren Fokus auf Nachhaltigkeit haben sich in den letzten Jahren eine Vielzahl an grünen Jobs entwickelt, wie beispielsweise der Job als Nachhaltigkeitsmanager. Antworten auf die wichtigsten Fragen finden Sie in unserem Berufsbild zum Nachhaltigkeitsmanager:
|
Risiken der Trennung und Chancen der Integration
Je größer ein Unternehmen, desto stimmiger ist eine Spezialisierung und damit einhergehende Differenzierung von Stabs- und Expertenbereichen. Doch ob organisatorisch getrennt oder nicht: Zusammenarbeit ist ein Schlüssel zur Wirksamkeit. Oder andersherum, fehlende Kooperation schafft Widersprüchlichkeiten, Dysfunktionalitäten, Verschwendung, Konflikte sowie die dadurch entstehenden zum Teil enormen Kosten und sie beschädigt die Effektivität sowie die Akzeptanz im Unternehmen.
Und wenn es schon eigene und unabhängige Funktionen und Bereiche für Nachhaltigkeit gibt und diese zumindest temporär hochrangig angebunden, exzellent ausgestattet und weitreichend befugt werden, ist es dennoch notwendig, sie zur Kooperation und Integration zu verpflichten. Besonders wichtig sind Kooperation und Integration auf Prozessebene, auf Managementsystemebene sowie bei Anforderungsmanagement, Wirkungsmessung und Reporting. Eine gute Integration bietet die Chancen einer effizienten Themenbearbeitung sowie auch der höheren Mitarbeitendenbeteiligung und -akzeptanz.
Die Mehrheit der Befragten der DGQ-Kurzumfrage favorisiert folgerichtig die Zusammenlegung der Funktionen, siehe Abb. 3.

Abb. 3: Trennen oder Zusammenlegen der Qualitätsmanagement- und Nachhaltigkeitsfunktionen
Im Mittelstand sind kombinierte Funktionen leichter anzulegen und können helfen, die zusätzliche erforderliche Ressource möglichst gering zu halten. Das kann aber nur gelingen, wenn Qualitäts-, Nachhaltigkeits- und zudem auch Arbeitssicherheitsmanagement, IT-Sicherheitsmanagement und weitere stark extern regulierte Thematiken besser miteinander kombiniert werden. All diese und weitere Themen sollten über ein System gemanagt werden, das System und seine einzelnen Prozesse, Spezifikationen sollten schlank angelegt und gut synchronisiert werden. Die Anwendbarkeit durch Mitarbeitende im Alltag und nicht Auditierungen und akribische Regelauslegung, die oft in die Überformalisierung führt, sollten dabei im Fokus stehen.
Viele etablierte klassische und nach wie vor sehr dokumentenlastige Managementsysteme leisten das nicht gut. Gerade weil externe Reglementierung eskaliert, muss interne Übersetzung in Prozesse und Spezifikationen so schlank und nutzerfreundlich wie möglich erfolgen. Dazu können immer bessere KI-basierte Assistenzsysteme eingesetzt werden. Statt in mehreren parallel gültigen Dokumenten mühsam die relevanten Vorgaben zu suchen oder sie riskant zu ignorieren, sollten diese Systeme im Workflow genau und nur das anzeigen, was jetzt zu tun und zu lassen ist, um gesetzliche, normative und vertragliche Verpflichtungen und Anforderungen einzuhalten.
Schlanke interne Formalisierung ist eine eigenverantwortliche Antwort auf eskalierende externe Bürokratisierung
Leitungen sollten von ihren bestehenden und neu eingesetzten Qualitäts- und Nachhaltigkeitsmanagerinnen und -manager Nutzerorientierung und einen Regelungsminimalismus einfordern. Wer externes Wachstum an Bürokratie nur beklagen, aber nicht beeinflussen kann, muss im eigenen Verantwortungsbereich gut gemeinte, aber oft übergriffige und in Summe dysfunktionale externe Vorgaben in gut gemachte interne Systeme und Regeln transformieren.
Über den Autor:
Benedikt Sommerhoff leitet bei der DGQ das Themenfeld Qualität & Innovation. Er beobachtet, analysiert und interpretiert die Paradigmenwechsel und Trends in Gesellschaft und Wirtschaft sowie ihre Wirkungen auf das Qualitätsmanagement. Seine zahlreichen Impulse in Form von Publikationen und inspirierenden Vorträgen geben Orientierung in Zeiten des Wandels. Sie ermutigen zur Neukonzeption des Qualitätsmanagements und der Qualitätssicherung. Gemeinsam mit Expertinnen und Experten des DGQ-Netzwerks aus Praxis und Wissenschaft arbeitet Sommerhoff in Think Tanks und Pionierprojekten an der Entwicklung, Pilotierung und Vermittlung innovativer Konzepte und Methoden.
Lean Management und Six Sigma: Prozessoptimierung in wirtschaftlich heraufordernden Zeiten

Steigende Kosten, volatile Lieferketten und hohe Kundenanforderungen machen es notwendig, Prozesse nicht nur zu verschlanken, sondern auch in ihrer Zuverlässigkeit und Vorhersagbarkeit zu optimieren. Durch die Kombination von Lean-Methoden und Six Sigma-Techniken können Unternehmen nachhaltig wettbewerbsfähiger werden. Besonders in unsicheren Zeiten profitieren Unternehmen von robusten, standardisierten Prozessen, die eine höhere Produktivität, geringere Kosten und eine verbesserte Kundenzufriedenheit ermöglichen.
Wo liegt der Unterschied zwischen Lean Management und Six Sigma?
Während Lean darauf abzielt, Prozesseffizienz durch Verschlankung und Standardisierung zu erreichen, konzentriert sich Six Sigma auf die Fehlerminimierung durch prozess- und datenbasierte Analyse und Prozesskontrolle. Six Sigma nutzt einen statistischen Ansatz, um Schwachstellen zu identifizieren und nachhaltig zu eliminieren.
Obwohl beide Methoden das Ziel verfolgen, Prozesse zu optimieren und Unternehmen wettbewerbsfähiger zu machen, gibt es wesentliche Unterschiede:
| Aspekt | Lean Management | Six Sigma |
|---|---|---|
| Zielsetzung | Eliminierung von Verschwendung und nicht-wertschöpfenden Tätigkeiten | Reduzierung von Variabilität und Fehlern |
| Fokus | Effizienzsteigerung und schnelle Durchlaufzeiten | Qualitätsverbesserung und statistische Kontrolle |
| Methodik | Visuelle Werkzeuge wie Wertstromanalyse, 5S, Kaizen | Prozess- und datengetriebene Analyse mit DMAIC-Zyklus |
| Ansatz | Ganzheitliche Optimierung der Wertschöpfungskette | Detaillierte Prozessanalyse auf Basis statistischer Methoden |
| Typische Anwendung | Produktionsoptimierung, Logistik, Supply Chain | Qualitätsmanagement, Fehlerreduktion in Produktion und Dienstleistung |
Six Sigma wurde ursprünglich von Motorola in den 1980er-Jahren entwickelt und setzt auf eine datengestützte Methodik zur Fehlerreduktion. Dabei folgt Six Sigma dem DMAIC-Zyklus:
- Define (Definieren): Klare Problemstellung und Zielsetzung.
- Measure (Messen): Erfassung und Analyse von Daten zur Bewertung des Ist-Zustands.
- Analyze (Analysieren): Identifikation von Fehlerquellen und deren Ursachen.
- Improve (Verbessern): Entwicklung und Implementierung von Lösungen zur Fehlerreduzierung.
- Control (Steuern): Langfristige Überwachung und Standardisierung der verbesserten Prozesse.
Lean Six Sigma – eine sinnvolle Ergänzung beider Methoden
Die Kombination von Lean-Methoden mit dem DMAIC-Zyklus ermöglicht eine ganzheitliche Prozessoptimierung, die sowohl Effizienzsteigerung (Lean) als auch Fehlerminimierung (Six Sigma) umfasst. Jede Phase des DMAIC-Zyklus kann durch Lean-Prinzipien und -Werkzeuge gezielt ergänzt werden, um den Nutzen zu maximieren.
DEFINE: Problemstellung und Ziele klar definieren
- Wertstromanalyse (Value Stream Mapping, VSM): Visualisierung des gesamten Prozesses zur Identifikation von Engpässen und nicht-wertschöpfenden Aktivitäten.
MEASURE: Datenerhebung zur Ist-Analyse
- 5S-Methode: Standardisierung und Organisation des Arbeitsplatzes, um Messungen unter stabilen Bedingungen durchzuführen.
- Spaghetti-Diagramm: Analyse von Bewegungsabläufen zur Identifikation von ineffizienten Wegen.
ANALYZE: Identifikation der Hauptursachen für Probleme
- Ishikawa-Diagramm (Ursache-Wirkungs-Diagramm): Systematische Untersuchung von Verschwendungsursachen.
- Pareto-Analyse: Konzentration auf die wesentlichen Ursachen nach dem 80/20-Prinzip.
IMPROVE: Entwicklung und Implementierung von Lösungen
- Kaizen (kontinuierliche Verbesserung): Iterative, kleine Verbesserungen im Prozess.
- Pull-System (Kanban): Einführung einer bedarfsgerechten Steuerung, um Überproduktion zu vermeiden.
CONTROL: Nachhaltige Sicherstellung der Verbesserungen
- Standardisierte Arbeitsanweisungen (SOPs): Dokumentation und Vereinheitlichung der optimierten Prozesse.
- PDCA-Zyklus (Plan-Do-Check-Act): Sicherstellung einer kontinuierlichen Verbesserung nach der DMAIC-Umsetzung.
Praxisbeispiel 1: Lean Six Sigma in der Produktionslinie
Ein mittelständisches Unternehmen aus der Automobilzulieferindustrie litt unter hohen Ausschussraten in der Produktion, die zu steigenden Kosten und Verzögerungen in der Lieferkette führten. Um die Probleme zu lösen, wurde ein Lean Six Sigma-Projekt initiiert.
Analyse der Situation:
- Die Produktionslinie produzierte 5 % Ausschuss, was jährliche Verluste von mehreren Hunderttausend Euro verursachte.
- Durch eine Wertstromanalyse wurden unnötige Wartezeiten und ineffiziente Abläufe identifiziert.
- Mit der Six Sigma-Methodik wurde festgestellt, dass ein bestimmter Maschinenprozess für 70 % der Fehler verantwortlich war.
Umsetzung mit Lean Six Sigma:
- Anwendung der 5S-Methode zur besseren Arbeitsplatzorganisation.
- Anpassung der Maschinenparameter durch eine statistische Versuchsplanung (Design of Experiments, DOE).
- Schulung der Mitarbeiter auf Fehlervermeidungstechniken.
Ergebnis:
- Reduzierung der Ausschussrate von 5 % auf 1,2 % innerhalb von sechs Monaten.
- Einsparungen von über 500.000 Euro pro Jahr.
- Höhere Kundenzufriedenheit durch pünktlichere Lieferungen und bessere Produktqualität.
Dieses Beispiel zeigt, dass Unternehmen durch die Kombination von Lean- und Six Sigma-Methoden nachhaltige Verbesserungen erzielen und langfristig wettbewerbsfähig bleiben können.
Praxisbeispiel 2: Lean Six Sigma in der Logistik
Ein großes Handelsunternehmen mit europaweiter Distribution stand vor erheblichen Herausforderungen in seiner Logistik.
Analyse der Situation:
- Lieferverzögerungen von durchschnittlich 48 Stunden aufgrund ineffizienter Prozesse in der Lagerhaltung und Kommissionierung.
- Hohe Fehlerrate von 7 % in der Auftragsabwicklung, was zu Rücksendungen, Nachlieferungen und steigenden Kosten führte.
- Überfüllte Lagerbestände, die Kapitalbindung verursachten, während gleichzeitig Engpässe bei gefragten Produkten auftraten.
Umsetzung mit Lean Six Sigma
Anwendung von Lean-Methoden zur Effizienzsteigerung:
- Eine Wertstromanalyse (Value Stream Mapping) deckte auf, dass es unnötige Transportwege im Lager gab, wodurch sich die Kommissionierzeiten verlängerten.
- Die Einführung eines 5S-Systems optimierte die Lagerorganisation und reduzierte Suchzeiten für Artikel.
- Durch die Umstellung auf ein Pull-System (Kanban) wurden Bestände dynamischer gesteuert, wodurch Engpässe und Überbestände minimiert wurden.
Anwendung von Six Sigma zur Qualitätsverbesserung:
- Eine Fehlermöglichkeits- und Einflussanalyse (FMEA) identifizierte, dass die häufigste Fehlerquelle fehlerhafte Bestandsdaten im ERP-System war.
- Durch den Einsatz statistischer Prozesskontrolle (SPC) wurden Unregelmäßigkeiten in der Bestandsführung frühzeitig erkannt.
- Die Mitarbeiterschulung auf standardisierte Arbeitsanweisungen (SOPs) und die Einführung von modernen Barcode-Scannern führten zu einer deutlichen Senkung der Fehlerquote.
Ergebnis:
- Reduzierung der Lieferverzögerungen um 60 % (von 48 Stunden auf 19 Stunden).
- Fehlerrate in der Auftragsabwicklung von 7 % auf 1,5 % gesenkt.
- Lagerbestand um 22 % reduziert, ohne Lieferengpässe zu verursachen.
- Kosteneinsparungen von 750.000 € pro Jahr durch reduzierte Nachlieferungen und effizientere Lagerhaltung.
Dieses Beispiel zeigt, dass Lean Six Sigma in der Logistik nicht nur Prozesse effizienter gestaltet, sondern auch die Qualität der Auftragsabwicklung erheblich verbessert.
Fazit: Die Zukunft gehört integrierten Optimierungsstrategien
Lean als Basis zur Optimierung der Wertströme, Six Sigma zur datengetriebenen Verbesserung der Prozessqualität – gemeinsam führen sie zu maximaler Effizienz und Stabilität. In einer zunehmend komplexen und dynamischen Wirtschaftsumgebung sollten Organisationen beide Aspekte im Blick haben.
Lean Six Sigma bietet einen bewährten Rahmen, um Prozesse strategisch zu optimieren, Kosten zu senken und Qualitätsstandards nachhaltig zu steigern. Die methodische Verbindung beider Ansätze ermöglicht es Unternehmen, sich langfristig gegen Wettbewerber zu behaupten und auch in wirtschaftlich schwierigen Zeiten erfolgreich zu agieren.
Die erfolgreiche Umsetzung erfordert jedoch eine konsequente Verankerung der Lean Six Sigma-Philosophie im Unternehmen. Fach- und Führungskräfte müssen nicht nur die Methoden verstehen, sondern auch die Prinzipien von kontinuierlicher Verbesserung, datenbasierter Entscheidungsfindung und nachhaltiger Prozesskontrolle in ihrem Unternehmen implementieren. Nur so lässt sich der Grundgedanke von Lean Management und Six Sigma zu einem leistungsfähigen Gesamtmodell vereinen.
Mit den DGQ-Trainings zum „Lean Six Sigma Green Belt“ oder „Lean Six Sigma Black Belt“ erfahren die Teilnehmenden konkret, wie sie Lean-Methoden mit der DMAIC-Vorgehensweise nachhaltig für die Prozessverbesserung einsetzen können.
Über den Autor:
Oliver Schneider ist als Produktmanager seit 2015 bei der DGQ und verantwortet in der DGQ Weiterbildung das Trainingsportfolio zum Thema Qualitätsmanagement und Lean Six Sigma. Seine Qualifizierungen als Qualitätsmanager und Lean Six Sigma Green Belt ermöglichen es ihm, die Weiterentwicklung dieser Themen aktiv zu gestalten und Fachkräfte gezielt zu beraten.
Gamification im Qualitätsmanagement – innovatives Lernen durch digitale Team-Battles

Wie Festo durch spielerisches Lernen Teamgeist und Qualitäts-Know-how stärkt
Im Qualitätsmanagement der Festo SE & Co. KG, einem weltweit führenden Anbieter in der pneumatischen und elektrischen Automatisierungstechnik, herrscht eine ungewöhnliche Atmosphäre. QM-Mitarbeiter aus unterschiedlichen Unternehmensbereichen und Standorten diskutieren Qualitätsfragen und tippen um die Wette Antworten in ihre Smartphones und PCs. Der Grund: Ein innovatives Gamification-Projekt in Form eines Quiz-Gewinnspiels. Das Familienunternehmen mit Hauptsitz in Esslingen, das seit über 60 Jahren Impulsgeber in der Automatisierung ist und auf das weltweit 300.000 Kunden in der Fabrik- und Prozessautomation vertrauen, geht neue Wege in der Qualifizierung seiner Belegschaft. Als innovative Ergänzung zu klassischen Trainings treten die QM- Mitarbeiter in einem digitalen Quiz-Battle gegeneinander an und frischen dabei spielerisch ihr Fachwissen über das Qualitätsmanagement auf.
Learning by Gaming mit der DGQ-Lern-App
Manchmal entstehen die besten Ideen aus persönlicher Erfahrung. Wie Stefan Schwerdtle, Vice President Corporate Quality, berichtet, stand er als Quereinsteiger im Qualitätsmanagement vor einer typischen Herausforderung: „Wie komme ich schnell auf Augenhöhe mit erfahrenen QM-Experten?” Auf der Suche nach einer adäquaten Fachausbildung entschied er sich für die Lehrgangsreihe der DGQ Weiterbildung zum Qualitätsmanager, die ihm das nötige Grundhandwerkzeug für seine neue Rolle vermittelte.
Während des Trainings lernte er die Vorteile der DGQ-Lern-App kennen. „Abends im Tagungshotel habe ich viel lieber mit der App gelernt, als den auch zur Verfügung gestellten Papierordner durchzuarbeiten“, beschreibt Schwerdtle seine Erfahrung. Das didaktische Konzept, ein digitales Karteikastensystem mit intelligentem Wiederholalgorithmus, überzeugte ihn: „Wenn man eine Frage dreimal richtig beantwortet hatte und sie damit in der ”3x-Richtig-Box“ landete, war das Wissen für die Prüfung abrufbar.”
Der Quiz-Aspekt kam per Zufall dazu, als ein Festo-Kollege aus demselben Kurs Schwerdtle abends zu einem Quiz-Battle herausforderte. „Das war der Moment, wo der Spaß am Lernen begann“, erinnert er sich. „Man hat sich in der Woche gegenseitig herausgefordert und schnell gemerkt, welche Kategorie man schon besser konnte als der andere und wo man noch nacharbeiten musste.” Auch nach der Zertifizierung setzen die Kollegen die Quiz-Runden fort. Dies inspirierte Schwerdtle, das DGQ-Quiz in größerem Rahmen für die Mitarbeiterqualifizierung zu nutzen. Im Sommer 2023 startete ein erster Durchlauf mit etwa 50 Mitarbeitern aus dem Bereich Corporate Quality – mit durchschlagendem Erfolg und einer Beteiligungsquote von nahezu 100 Prozent.
„Ich war damals wirklich überwältigt, wie toll das angenommen wurde!“, berichtet Schwerdtle. „Das hat sich für niemanden anstrengend angefühlt.”
Besonders positiv überraschte ihn die breite Wirkung des Quiz. Sowohl erfahrene QM-Experten als auch Mitarbeiter ohne QM-Hintergrund fanden Gefallen daran. „Es hat mich wirklich fasziniert, wie einfach es gehen kann, in zwei Wochen Grundlagenwissen an eine breite Mannschaft von 50 Personen zu bringen und gleichzeitig im Teamwettbewerb gegeneinander zu spielen und Spaß zu haben“, resümiert Schwerdtle.
Standortübergreifendes Community-Building
Die guten Erfahrungen führten zu einer zweiten, größeren Quiz-Runde, bei der von November bis Mitte Dezember 2024 rund 250 Mitarbeiter aus unterschiedlichen Standorten und QM-Bereichen teilnahmen. In dieser bereichsübergreifenden Struktur sieht Schwerdtle weitere Vorteile: „Das eine ist, dass man sich eine gemeinsame Wissensbasis erarbeitet. Jeder schärft sein Grundwissen nach, egal ob er in einem Produktionswerk ist, in einer Vertriebsgesellschaft oder im Headquarter bei der Produktentwicklung.” Teilnehmer Abdullah Sag, Leiter Qualitätsmanagement am Produktionsstandort Scharnhausen, bekräftigt: „Die wertvollsten Momente sind die fachlichen Diskussionen im Anschluss. Während manche Fragen für Qualitätsexperten Routine sind, entwickeln sich bei anderen intensive Gespräche, die zu einem echten Erkenntnisgewinn führen.” Die einheitliche Wissensbasis verbindet erfahrene Mitarbeiter und Neueinsteiger über alle Unternehmensbereiche hinweg.
Einen zusätzlichen Vorteil erkennt Schwerdtle in der abteilungs- und länderübergreifenden Vernetzung von QM-Teams, die im Arbeitsalltag wenig Berührungspunkte haben. Teilnehmer Florian Schuchart, der im Qualitätsmanagement kundenspezifischer Lösungen tätig ist, kann dies bestätigen: „Durch das Quiz kommen wir mit Kollegen ins Gespräch über Fachinhalte – und zwar auch mit denen, die wir sonst nur selten treffen.” Teilnehmer Oliver Walte, Leiter Qualitätsmanagement des Produktionsstandorts Pieterlen in der Schweiz, stimmt zu: „Wir hätten auch ein Quiz nur innerhalb einer Abteilung oder im Headquarter machen können. Aber diese globale Dimension fand ich sehr schön. Es motiviert unheimlich, wenn man gegen andere Abteilungen spielt. Der Teamgedanke über Ländergrenzen hinweg hat das Ganze noch verstärkt.”
Das große Finale als Höhepunkt

Siegerehrung nach dem Finale: (v.l.n.r.) Matthias Merkle (Projektleiter), Florian Schuchart (Sieger des Quality Quiz Duells) und Philipp Schreiner (Quality Quiz Duell Kernteam). ©Festo SE & Co. KG
Den spannenden Schlusspunkt des Quality Quiz Duells setzte ein Live-Finale. Der Teamgedanke stand auch dabei wieder im Vordergrund: „Wir haben uns bewusst dazu entschieden, im Team zu spielen“, betont Mathias Merkle, der Projektleiter des Quality Quiz-Duells. „Daher haben wir einen Spielmodus entwickelt, bei dem am Ende das beste Team eines jeden Standorts ins Live-Finale kommt.“ Die insgesamt rund 130 Teilnehmer des Events waren mit vollem Einsatz bei der Sache – egal ob beim Public Viewing im Headquarter oder live zugeschaltet aus den Standorten. Den Gesamtsieg sicherte sich am Ende Team Saarland. Ausgezeichnet wurden auch die drei erfolgreichsten Einzelspieler.
Erfolgsfaktoren für die Umsetzung
Als Schlüssel zum Erfolg sehen Schwerdtle und Merkle eine sorgfältige Vorbereitung. Zentral ist dabei die Benennung eines Projektleiters, bei dem alle Informationen zusammenlaufen. „Ein gut funktionierendes Kernteam und erweiterte Teams in den Standorten sind außerdem die Basis für den Erfolg“, ergänzt Merkle.
Man sollte sich genau überlegen, wie das Quiz in der eigenen Organisation optimal genutzt werden kann, rät Schwerdtle. Dabei gilt es, grundlegende Fragen zu klären: Wird im Team oder einzeln gespielt? Wie lang sind die Spielrunden? Auch praktische Aspekte wie Ferienzeiten und die Einbindung des Betriebsrats müssen berücksichtigt werden. „Vor Spielstart sollte man einen Plan machen, bei dem jeder Meilenstein gesetzt ist“, betont Projektleiter Merkle. Gemessen an der Zahl der erreichten Mitarbeiter schätzt Schwerdtle den Gesamtaufwand für Vorbereitung und Durchführung jedoch als überschaubar ein.
Überraschend einfacher Einstieg
„Entscheidend für den Erfolg sind zwei bis drei Personen in den Bereichen, die das Quiz kennen und die verstehen, was Quiz-Battle heißt“, meint er. Diese Mitarbeiter prägen durch ihre Erfahrungen den “Flurfunk” in der Kaffeeküche und wecken Neugier im Team. Diese Beobachtung bestätigt auch Teilnehmerin Lara Schneider, die als Qualitätsingenieurin im Logistikbereich arbeitet, und ergänzt: „Auch Kollegen, die nicht direkt am Quiz-Battle beteiligt waren, haben ständig nachgefragt: „Wie weit seid ihr jetzt? Auf welchem Platz steht ihr?“ Sie wollten sogar die Fragen sehen. Das Interesse im Büro war von allen Seiten wirklich sehr groß.” So entsteht eine Eigendynamik, die das Quiz nach kurzer Anlaufphase ohne aufwendige Anleitungen zum Selbstläufer macht.
Qualitätsstrategie und moderne Didaktik
Das Quiz-Projekt ist bei Festo nicht als isolierte Maßnahme konzipiert, sondern fügt sich in ein modernes, digitales Gesamtkonzept des Qualitätsmanagements ein. Neben dem Quiz setzt das Unternehmen auch andere innovative Formate ein, etwa eine Darstellung des Qualitätsmanagements in Comicform, bei der Avatare der Führungskräfte Sachverhalte erklären.
Schwerdtle ist überzeugt, dass moderne Mitarbeiterqualifizierung von einer durchdachten Herangehensweise lebt: „Über die Qualifizierungsformate sollte man sich sehr genau Gedanken machen, wenn man seine Mannschaft weltweit auf dem Stand halten will. Ich kann den besten Inhalt haben, wenn ich den aber in einem schlechten didaktischen Format vermittele, dann ist die Frage: Was bleibt wirklich hängen?“
Sein Fazit zu den beiden Quiz-Gewinnspielen ist durchweg positiv. Er sieht darin die Möglichkeit Qualität und Qualitätsinhalte auf eine moderne, überraschende und positive Art und Weise für die Menschen greifbar zu machen.
Das Quality-Quiz-Duell bei Festo zeigt eindrucksvoll, wie Gamification Weiterbildung zu einem mitreißenden Lernerlebnis machen kann, das Menschen verbindet und inspiriert.
| Was ist Gamification? Gamification überträgt Spielelemente wie Wettbewerb, Punktesysteme und Belohnungen auf nicht-spielerische Bereiche. In der Weiterbildung werden Lerninhalte durch spielerische Elemente ansprechender und motivierender gestaltet. So unterstützt Gamification den Lernerfolg Möglichkeiten der DGQ-Lern-App: Für weitere Informationen sprechen Sie uns gerne an! Christiane Köngeter |
Einladung zum 4. Süddeutschen Qualitätstag am 27. Juni 2025 am Fraunhofer IPA in Stuttgart

Am 27. Juni 2025 ist es wieder soweit: Der 4. Süddeutsche Qualitätstag findet am Fraunhofer IPA, gemeinsam mit der DGQ in Stuttgart statt. Diese Veranstaltung bietet Fach- und Führungskräften aus dem Bereich Qualitätsmanagement eine Plattform für Wissenstransfer, Inspiration und Networking. Die Teilnehmenden können sich auf ein abwechslungsreiches Programm mit hochkarätigen Vorträgen freuen.
Ein zentrales Thema wird die künstliche Intelligenz in der Bildverarbeitung sein, die neue Möglichkeiten für die Qualitätssicherung und Prozessoptimierung eröffnet. Auch die Rolle von Social Media in der QM-Systemdokumentation beleuchtet der Süddeutsche Qualitätstag intensiv, um aufzuzeigen, wie sich digitale Plattformen zur effizienten Kommunikation und Dokumentation nutzen lassen. Ein weiterer Schwerpunkt liegt auf der Auditierung von QM-Systemen, wobei Best Practices und innovative Ansätze vorgestellt werden.
Fachvorträge zu aktuellen Themen im Qualitätsmanagement
Darüber hinaus präsentiert die Veranstaltung verschiedene Q-Werkzeuge und Q-Methoden, die Unternehmen dabei unterstützen, ihre Prozesse kontinuierlich zu verbessern. Technische Problemlösungsmethoden bieten den Teilnehmenden praxisnahe Einblicke in bewährte Verfahren zur Fehleranalyse und -vermeidung. Ein Augenmerk liegt zudem auf der Reinheitstechnik, die in zahlreichen Industrien eine entscheidende Rolle spielt. Die Themen Agilität, Cybersecurity und Datensicherheit werden ebenfalls behandelt und geben wertvolle Impulse für den Umgang mit den Herausforderungen der digitalen Transformation.
Ein besonderes Highlight wird der Eröffnungsvortrag von Cem Karakaya sein, einem Experten für Internetkriminalität, Autor und Gründer von Blackstone432. Unter dem Titel „Digitale Welten erfordern digitale Kompetenzen“ wird er spannende Einblicke in die Herausforderungen und Chancen der digitalen Transformation geben.
Zum Abschluss des Tages dürfen sich die Teilnehmenden auf einen inspirierenden Vortrag von Dr. Gerd Paulus freuen. Unter dem Motto „Humorvolle Resilienz für Qualitätsprofis“ wird er auf unterhaltsame Weise darlegen, wie Humor dabei helfen kann, Herausforderungen im Qualitätsmanagement erfolgreich zu meistern.
Vortragsprogramm des 4. Süddeutschen Qualitätstags
- Keynote: Digitale Welten erfordern digitale Kompetenzen
Cem Karakaya, Experte für Internetkriminalität & Autor, Gründer von Blackstone432 - KI und Bildverarbeitung: Potentiale für die Qualitätssicherung
Prof. Dr.-Ing. Marco Huber, Wissenschaftlicher Direktor für Digitalisierung und KI, Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA - Basis-Werkzeuge des Qualitätsmanagements und Digitalisierung: Notwendige Tools effektiv und effizient angewendet
Andreas Aichele, M.Sc., Stellvertretender Forschungsteamleiter Nachhaltige Produkt- und Prozessentwicklung, Fraunhofer-Institut für Produktionstechnik und Automatisierung, IPA - Mit (mehr) Sicherheit (besser) zusammenarbeiten
Susanne Petersen, Fachlich in Führung gehen, Beratung.Begleitung.Coaching - KI-powered Managementsysteme – spielerische 50% Effizienzsteigerung
Dr. Carsten Behrens, Gründer und CEO der Modell Aachen GmbH - Technische Problemlösungsmethoden in der Praxis
Bernd Hoffmann, Engineering Manager – Product & Process Reliability, IMS Gear SE & Co. KGaA - Unternehmenskultur 2030: was will die neue Generation?
Arbeitskreis DGQ-QM-Youngsters - Audits sinnvoll gestalten – weg von der Abweichungserteilung hin zur Unterstützung des Unternehmens
Michael Burghartz-Widmann, BWP-Consulting & Mitglied im Vorstand der Deutschen Gesellschaft für Qualität - Komplexe Probleme effizient lösen
Dipl.-Ing. Jens Refflinghaus, Gründer und CEO Processfuse Consulting - Agile Werte feiern (Workshop)
Jörg Rittker, Head of Quality Management, Dr. Fritz Faulhaber GmbH & Co. KG - Generative künstliche Intelligenz in der Auditpraxis
Judith Magono, DQS Deutsche Gesellschaft zur Zertifizierung von Managementsystemen - Reinheitstechnik im Qualitätsmanagement – Miniaturisierung nur mit sauberen Produkten möglich
Dr.-Ing. Markus Rochowicz, Forschungsteamleiter Reinheitstechnik, Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA - Bereit für den Ernstfall – das neue ALB FILS KLINIKUM
Dr. Ingo Hüttner, Vorsitzender der Geschäftsführung der Alb-Fils-Kliniken GmbH & Mitglied im Vorstand der Deutschen Gesellschaft für Qualität - Abschlussvortrag: Humorvolle Resilienz für Qualitätsprofis
Dr. Gerd Paulus, Geschäftsführer DiQualis GmbH
Neben den informativen Vorträgen bleibt ausreichend Zeit für den fachlichen Austausch und das Networking mit Kolleginnen und Kollegen aus der Branche. Die Veranstaltung bietet eine hervorragende Gelegenheit, neue Kontakte zu knüpfen und sich mit anderen Fachkräften über aktuelle Entwicklungen und Herausforderungen auszutauschen.
Wir freuen uns, wenn Sie mit dabei sind!
Informationen zur Anmeldung
Wann: Freitag, 27. Juni 2025, von 10:00 Uhr bis 17:00 Uhr
Wo: Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA, Nobelstr. 12/13, 70569 Stuttgart
Kosten: 119,- € zzgl. MwSt. (89,- € zzgl. MwSt. für DGQ-Mitglieder)
Als DGQ-Mitglied können Sie zum reduzierten Kostenbeitrag teilnehmen. Sie sind noch kein Mitglied? Dann nutzen Sie doch für die Anmeldung unsere beitragsfreie, dreimonatige Schnuppermitgliedschaft.
Haben Sie Fragen? Nehmen Sie gern Kontakt mit uns in der DGQ-Geschäftsstelle Stuttgart auf! Einfach per E-Mail an stuttgart@dgq.de oder telefonisch unter 0711- 95 611 61. Bei allen organisatorischen Fragen und Rückfragen zur Anmeldung hilft Ihnen auch unser Kooperationspartner des Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA (event@ipa.fraunhofer.de, 0711 970-3540) weiter.
Revisionen von ISO 9001 und Co. im Fokus: Ein Überblick über das DGQ-Normungsjahr 2024

Normung und Standardisierung geben Gesellschaft und Wirtschaft einen regulatorischen Rahmen. Über die Entsendung haupt- und ehrenamtlicher Vertreter:innen wirkt die DGQ in zahlreichen nationalen und internationalen Normungsgremien mit. Auch 2024 stand die Revision maßgeblicher Qualitätsmanagementnormen wie der ISO 9001 im Fokus der Normungsarbeit. In diesem Beitrag erhalten Interessierte einen Überblick über die wesentlichen DGQ-Normungsaktivitäten des vergangenen Jahres.
Die aktive Teilnahme an der nationalen und internationalen Normungsarbeit zählt zu den Aufgabenschwerpunkten der DGQ. Als Fachgesellschaft nimmt sie Einfluss auf die fachlich-inhaltliche Normenentwicklung sowie strategische Entscheidungen und die thematische Schwerpunktsetzung in der nationalen und internationalen Normung. Durch die internationale Mitwirkung von DGQ-Expert:innen sowohl in Qualitätsmanagement- als auch Umweltmanagementgremien und zusätzlich national in Beiräten sowie ausgewählten Managementsystemnormen zu anderen Themenfeldern erhält die DGQ die Möglichkeit, Synergien zwischen den einzelnen Normenrevisionen zu erkennen und zu nutzen. Ziel ist, gemeinsam auf eine harmonisierte Weiterentwicklung im Sinne der Anwender:innen hinzuwirken.
Managementsystemnormen im Fokus
Von besonderem Interesse für die DGQ und ihre Mitglieder sind die Managementsystemnormen. Daher widmet sich die DGQ-Normungsarbeit der Mitwirkung an Entscheidungen über Bestätigungen und Revisionen sowie deren aktiver Begleitung in diesem Bereich. Das vergangene Jahr war durch eine intensive Begleitung der Arbeiten an den Normen ISO 9000 und 9001 sowie den Auditnormen ISO 19011 und ISO 17012 geprägt.
Für diese Normungsaktivitäten konnte die DGQ durch Nutzung sämtlicher Mitwirkungsoptionen – unter anderem über sogenannte Liaison Memberships bei der EOQ – mehrere Expert:innen aus dem Umfeld von DGQ, EOQ und DIN aktivieren und nominieren. Mit ihren unterschiedlichen Hintergründen und Funktionen begleiten sie intensiv die Weiterentwicklung insbesondere der TC-176-9000er-Normen – durch Mitwirkung zum einen in den Arbeitsgruppen, zum anderen in Steuerungsgremien.
Revision von ISO 9001: Aktualisierung des Zeitplans
In zehn virtuellen sowie einem Vor-Ort-Meeting in Southfield US hat die zuständige ISO-Arbeitsgruppe des ISO TC 176 vergangenes Jahr die Revision der ISO 9001 vorangetrieben. Nach interner Erstellung eines ersten Working Drafts (WD) wurde dieser im April 2024 von der ISO als Committee Draft (CD) verabschiedet und zur Kommentierung freigegeben. Die Vielzahl der Kommentare erforderte im Anschluss eine entsprechend hohe Anzahl an Gremiensitzungen zur Kommentarbehandlung. Im Nachgang fiel daher die Entscheidung, dass die ISO 9001 einen zusätzlichen Commitee Draft (CD2) durchlaufen wird, da der letzte Stand des Dokuments noch nicht reif für einen Draft International Standard (DIS) war.
Die Folge: Die Fertigstellung der überarbeiteten ISO 9001 verschiebt sich voraussichtlich auf Herbst 2026. Der CD2 wurde im Januar 2025 erstellt und wiederum zur Kommentierung freigegeben.
Revision von ISO 9000
Für die Revision von ISO 9000:2015 hat das ISO TC 176 Ende 2023 eine neue Arbeitsgruppe eingerichtet und eine Designspezifikation verabschiedet. In mehreren Meetings erstellten die Mitglieder der zuständigen Arbeitsgruppe im Laufe des Jahres 2024 einen CD, kommentierten es und bearbeiten die Kommentare, sodass Anfang 2025 der DIS fertiggestellt werden konnte. Auch Inhalte und Positionen von DGQ-Vertretern konnten in dem Gremium eingebracht und diskutiert werden.
Wie bei der Revision der ISO 9001 gilt: Der Anwendungsbereich und die Inhalte der Norm bleiben grundsätzlich erhalten. Ein Schwerpunkt der Überarbeitung gilt einer Harmonisierung der Begriffe mit dem aktuellen Annex SL und der Abstimmung zur Terminologie mit anderen ISO Technical Committees.
Parallel zur 9000er Revision wurden 2024 in der Arbeitsgruppe TC 176 TG 4 Entwicklungen und Trends mit Relevanz für das Qualitätsmanagement analysiert und Schlussfolgerungen für die Erarbeitung von Leitfäden oder Normänderungen abgeleitet. Hier arbeiten ebenfalls DGQ-Vertreter mit, so unter anderem im Themenfeld Qualitätsmanagement und Künstliche Intelligenz sowie Ethik und Integrität. Zwischen den ISO-Gremien und der DGQ-Facharbeit werden regelmäßig Meinungen und Fachbeiträge ausgetauscht.
Revision der Audit-Norm ISO 19011 und Erstellung der ISO 17012
Das ISO Technical Management Board (TMB) hat im September 2023 die Entscheidung gefällt, ISO 19011 – Leitfaden zur Auditierung von Managementsystemen – zu revidieren. 2024 fanden mehrere Meetings statt, wobei der Schwerpunkt der Revision auf der Erweiterung um Remote-Audit-Methoden sowie der Harmonisierung mit anderen Managementsystemnormen lag.
Mit der ISO 17012 hatte die ISO parallel einen Leitfaden für die Durchführung von „Audits aus der Ferne“ herausgebracht. Diese Arbeiten fanden primär in einer Arbeitsgruppe von ISO CASCO statt und mündeten in der Veröffentlichung der Remote-Audit-Norm ISO 17012:2024 im August 2024. Im nächsten Schritt nimmt sich das Deutsche Institut für Normung (DIN) unter Beteiligung von DGQ-Experten der Übersetzung der neuen Norm an, die eine Ergänzung zur ISO 19011 darstellt. Entsprechende Verweise wurden in der ISO 19011 hergestellt.
An der Erstellung der ISO 17012 war auch der DGQ-Fachkreis „Audit und Assessment“ beteiligt: Eine Anfang 2023 publizierte Fachkreis-Veröffentlichung diente in englischer Sprache dem zuständigen ISO-CASCO-Ausschuss zur Orientierung. Das DGQ-Impulspapier mit dem Titel „Das Remote Audit als zukunftsweisende Methodik für risikobasierte Audits“ gibt interessierten DGQ-Mitgliedern einen fachlichen Überblick über die wichtigsten Rahmenbedingungen für eine erfolgreich durchgeführte Fern-Auditierung.
Neben der Fachkreis-Veröffentlichung war die DGQ auch über die Entsendung zweier Vertreter an der Erstellung der Norm beteiligt, die im entsprechenden DIN-Normungsausschuss sowie direkt in der ISO-Arbeitsgruppe WG 61 mitwirkten.
DIN-Übersetzung der Harmonized Structure als technische Regel veröffentlicht
Das DIN hat die 2021 veröffentlichte Revision der Harmonized Structure (HS) vergangenes Jahr als technische Regel veröffentlicht. Zwei Vertreter der DGQ waren an der Erarbeitung und Übersetzung der DIN/TR 36601 „Harmonisierte Struktur für Managementsystemnormen mit Anleitung zur Anwendung und Terminologie-Anleitung“ beteiligt. Die von der ISO überarbeitete HS, die den Kerntext für alle zukünftigen Managementsystemnormen beinhaltet, war 2023 vom DIN-Normungsausschuss Organisationsprozesse (NAOrg) in ein DIN-Dokument übersetzt worden. Die Übersetzung wurde innerhalb des DIN sowie mit den Verantwortlichen aus der österreichischen und der schweizerischen Normungsarbeit abgestimmt. Die neue technische Regel stellt für Managementsystemverantwortliche eine interessante Einordnung zum Verständnis und zum Hintergrund der Überlegungen und gemeinsamen Anforderungen in den Managementsystemnormen dar. Die DGQ war über einen Repräsentanten an der Übersetzung der HS beteiligt.
Eine Aktualisierung beziehungsweise Ergänzung der HS um Aspekte des Klimaschutzes hat das ISO Technical Management Board (TMB) ebenfalls 2023 beschlossen und vergangenes Jahr umgesetzt.
Nachhaltigkeitsmanagement: Erarbeitung der SDG-Norm ISO 53001
Seit 2023 setzt die ISO auch die Realisierung der Nachhaltigkeitsziele der Vereinten Nationen in einen Managementsystemstandard um: Ein dafür eingerichtetes ISO-Projektkomittee arbeitet derzeit an ISO 53001 – „Management Systems for UN Sustainable Development Goals – Requirements“. Ziel der ISO ist, ein global anwendbares Instrument zu schaffen, mithilfe dessen Organisationen ausgewählte UN-Ziele („Sustainable Development Goals“, SDGs) umsetzen können. Eine DGQ-Expertin aus dem DGQ-Fachkreis „Nachhaltigkeit“ begleitete auch 2024 die Erarbeitung über das entsprechende DIN-Gremium.
Umweltmanagement: Update zur ISO 14001
Neben der Überarbeitung der maßgeblichen Qualitätsmanagementnormen hat die ISO, ebenfalls im Jahr 2023, auch eine Revision von ISO 14001 in Form eines „Amendmends“ angestoßen. Das Hauptaugenmerk der Überarbeitung liegt unter anderem auf der Einarbeitung geänderter Inhalte aus der Harmonized Structure der ISO Directives. Die Publikation ist für Anfang 2026 geplant. Auch im vergangenen Jahr begleitete ein DGQ-Experte die Revision und war in die Entscheidungen des TC 207 (Umweltmanagement) involviert.
Normungsprojekt mit Bezug zu Konformitätsbewertung
Im Rahmen der Revision von ISO 17024 („Konformitätsbewertung – Allgemeine Anforderungen an Stellen, die Personen zertifizieren“) waren DGQ-/EOQ-Experten vergangenes Jahr in der Arbeitsgruppe ISO CASCO WG 30 aktiv tätig. Die Zielsetzung der Überarbeitung besteht darin, die bewährten Strukturen und Anforderungen an Personenzertifizierungsstellen beizubehalten und aktuelle Entwicklungen insbesondere hinsichtlich der Durchführung von Remote-Prüfungen und der Nutzung von künstlicher Intelligenz zu berücksichtigen. Im Verlauf des Jahres 2024 hat die zuständige ISO-Arbeitsgruppe in mehreren Meetings einen CD erstellt und die eingegangenen Kommentare bearbeitet, sodass Anfang 2025 der DIS vorgelegt werden konnte.
Weitere Normungsprojekte mit Managementsystembezug
Auch im Normenausschuss Organisationsprozesse (NAORG) beim DIN sind Expert:innen der DGQ vertreten. Sie stellen sicher, dass sämtliche in Entwicklung oder Bearbeitung befindlichen Managementsystemnormen und zugehörigen Aktivitäten der DGQ bekannt sind, und nehmen, sofern notwendig, entsprechend Einfluss.
Die Stati der entsprechenden Normen sind aktuell einsehbar auf der Seite des DIN-Normenausschuss Organisationsprozesse.
Als DGQ-Mitglied an der nationalen und internationalen Normung mitwirken
Zahlreiche DGQ-Normungsexpert:innen sind in den relevanten Normungsgremien bei DIN, DKE, VDI und ISO tätig. Dort wirken sie an der Erarbeitung von Normen und Richtlinien mit, erarbeiten Stellungnahmen zu Normungsvorhaben, betätigen sich bei Interpretationsanfragen für die Normenanwendung, nehmen an Gremiensitzungen teil und verfassen Beiträge für die interne und externe Kommunikation.
Bei Interesse an einer Beteiligung an der DGQ-Normungsarbeit wenden Sie sich gerne an thomas.votsmeier@dgq.de
Aktuelle Informationen rund um das Thema Normung sowie aktuelle Revisionen finden Sie darüber hinaus auf der DGQ-Themenseite Normung.
Über den Autor:
Dipl. Ing. Thomas Votsmeier leitet das Themengebiet Normung bei der DGQ. Er engagiert sich in verschiedenen Fachgremien bei der European Organisation for Quality (EOQ), der International Personnel Certification Association (IPC), dem Deutschen Institut für Normung und International Standard Organisation (ISO). Unter anderem ist er fachlicher Leiter des DIN NA 147 – 00 – 01 AA Qualitätsmanagement und Mitglied bei ISO TC 176, TC 207 und ISO CASCO.
10 Jahre Norddeutscher Qualitätstag: Jubiläumsausgabe am 4. Juni 2025 in Hamburg

Am 4. Juni 2025 feiert der Norddeutsche Qualitätstag sein zehnjähriges Jubiläum. Die hybride Veranstaltung bietet auch in diesem Jahr die Möglichkeit, sowohl vor Ort in Hamburg als auch online teilzunehmen. Das hochkarätige Programm kombiniert praxisnahe Einblicke mit strategischen Perspektiven auf aktuelle Herausforderungen und Entwicklungen im Qualitätsmanagement.
Wie bleibt Qualitätsmanagement in einer Welt im Wandel relevant? Der 10. Norddeutsche Qualitätstag gibt Antworten und zeigt, wie Unternehmen durch eine starke Fehlerkultur, nachhaltige Strategien und agile Managementsysteme zukunftsfähig bleiben. Hochkarätige Referent:innen sprechen über Mindful Leadership, nachhaltiges Qualitätsmanagement und integriertes Risiko- und Chancenmanagement – praxisnah, visionär und direkt umsetzbar. Von der Transformation der Unternehmenskultur über die Herausforderungen der VUKA-Welt bis hin zur Frage, was die neue Generation wirklich will: Die Jubiläumsausgabe der Fachkonferenz bietet Impulse, Praxisbeispiele und Austausch auf höchstem Niveau.
Hochkarätige Referenten und praktische Einblicke
Ein besonderes Highlight der Veranstaltung ist die Podiumsdiskussion mit dem Titel „Qualitätskultur neu denken: Was macht Unternehmen zukunftsfähig?“. Namhafte Experten wie Stefanie Hirsch, Chief Sustainability & Quality Officer bei Dräger, und Dr. Paul Kübler, Vorstandsmitglied der DGQ, werden diskutieren, wie sich Unternehmen auf die veränderten Herausforderungen im Qualitätsmanagement einstellen können, ohne ihre Exzellenz zu gefährden.
Neben den fachlichen Impulsen spielt der persönliche Austausch eine zentrale Rolle. Das After-Show-Networking bietet ausreichend Gelegenheit, mit Gleichgesinnten ins Gespräch zu kommen, Kontakte zu knüpfen und sich direkt mit den Referentinnen und Referenten auszutauschen.
Ob vor Ort oder online – die Teilnehmenden erwartet ein abwechslungsreiches und inspirierendes Programm.
Online und vor Ort
- Trusting Teams – Wie Mindful Leadership zu konstruktiver Fehlerkultur beiträgt
Prof. Dr. Nikola Plohr, Hochschule Fresenius Hamburg - Unternehmenskultur ist das bessere Managementsystem
Dr. Benedikt Sommerhoff, Deutsche Gesellschaft für Qualität e.V. - Empower Sustainable Quality: Qualitätsmanagement nachhaltig gedacht
Guido Nilgen, Director Quality Management, Miele & Cie. KG - Das beste Kundenerlebnis als Maßstab: Prozesse für höchste Standards bei TUI Cruises
Uta Glasneck, Quality Management, Audits & Certification, TUI Cruises - Qualitätskultur neu denken: Was macht Unternehmen zukunftsfähig
Podiumsdiskussion mit Stefanie Hirsch, Chief Sustainability & Quality Officer bei Dräger, DGQ-Vorstandsmitglied Dr. Paul Kübler und Leadershipexperte Prof. Dr. Stefan Thode. Moderation: Torsten Laub, Leiter der DGQ-Geschäftsstelle Hamburg
Ausschließlich vor Ort, nicht online
- Managementsysteme vereinen: Herausforderungen und Lösungen
Kristin Kellner, Gruppenleitung Qualitätsmanagement, NVL B.V. & Co. KG - Flipchart-Gestaltung mit Wow-Effekt – Ein Design-Boost in 45 Minuten
Stefanie Hofmann, Deutsche Gesellschaft für Qualität e.V. - Mit Integriertem Risiko- und Chancenmanagement die VUKA-Welt wuppen
Prof. Dr. Patricia A. Adam, Hochschule Hannover - Nachhaltigkeit meistern: Ihr Wegweiser durch Regulierung und Transformation
Altan Dayankac, Global Program Manager EMS, OHS, EnMS & Sustainability der DQS Holding GmbH - Unternehmenskultur 2030: Was will die neue Generation?
Projektvorstellung und Austauschformat mit QM-Youngsters der DGQ - After-Show-Networking
Gemeinsamer Ausklang mit Getränken und Snacks
Ausschließlich online
- Die eigene KI-Abteilung?! Was ist dafür nötig und wie ändert sich die Firmenkultur dadurch?
Jan Ruhnke, Director of AI / CAIO, Artificial Intelligence Center Hamburg (ARIC) e.V.
Partner der Veranstaltung sind neben der Deutschen Gesellschaft für Qualität e.V. (DGQ) die ConSense GmbH, die Deutsche Gesellschaft zur Zertifizierung von Managementsystemen (DQS) sowie die Fachzeitschrift QZ Qualität und Zuverlässigkeit.
Informationen zur Anmeldung
Wann:
Mittwoch, 4. Juni 2025, von 10:00 Uhr bis 16:00 Uhr (im Anschluss gemeinsames Networking bis 19:00 Uhr)
Wo:
FOM Hochschulzentrum, Schäferkampsallee 16a, 20357 Hamburg oder online
Kosten:
Online-Teilnahme: 49,- € zzgl. MwSt. (29,- € zzgl. MwSt. für DGQ-Mitglieder)
Präsenz-Teilnahme: 99,- € zzgl. MwSt. (69,- € zzgl. MwSt. für DGQ-Mitglieder)
Als DGQ-Mitglied können Sie – sowohl online als auch in Präsenz – zum reduzierten Kostenbeitrag teilnehmen. Sie sind noch kein Mitglied? Dann nutzen Sie doch für die Anmeldung unsere beitragsfreie, dreimonatige Schnuppermitgliedschaft.
Haben Sie Fragen? Nehmen Sie gern Kontakt mit uns in der DGQ-Geschäftsstelle Hamburg auf! Einfach per E-Mail an hamburg@dgq.de oder telefonisch unter 040 28533531-452. Bei allen organisatorischen Fragen und Rückfragen zur Anmeldung hilft Ihnen auch unser Veranstaltungspartner ConSense GmbH (events@consense-gmbh.de, 0241 990 93 93 0) weiter.
Einsatz der Messmittelfähigkeit zur Absicherung von künstlicher Intelligenz

Künstliche Intelligenz hat sich in rasender Geschwindigkeit in vielen Bereichen der Wirtschaft durchgesetzt. Insbesondere große Sprachmodelle werden dabei in immer mehr Anwendungen integriert. Die Frage, die sich dabei stellt, ist: Wie können diese Systeme sinnvoll abgesichert werden? In diesem Fachbeitrag soll gezeigt werden, dass etablierte Fähigkeitsanalysen, wie MSA oder VDA Band 5 auf ein breites Spektrum von KI-Systemen anwendbar sind.
Ein Blick in die KI-Verordnung aus dem Jahr 2024 zeigt, dass für KI-Systeme im Hochrisikobereich (zum Beispiel bei Sicherheitsbauteilen oder in der Bildung) ein Nachweis über die Genauigkeit vorgeschrieben ist (siehe Art. 15 (2) KI-Verordnung). Dabei wird explizit die Zusammenarbeit mit „Metrologischen Behörden“ seitens der EU-Kommission herausgestellt. Momentan ist noch unklar, wie genau diese Zusammenarbeit aussehen wird. Es kann davon ausgegangen werden, dass sich Behörden, wie die Deutsche Akkreditierungsstelle für eine einheitliche Begriffsdefinition mit bestehenden Normenwerken stark machen werden. Von zentraler Bedeutung ist dabei eine einheitliche Definition von Messunsicherheit und die Eignung eines KI-Systems für eine gegebene Anwendung.
Momentan liegt ein großer Teil der medialen Aufmerksamkeit auf Transformermodellen. Dies führt dazu, dass Transformermodelle wie gpt-4, die die Basis für Anwendungen wie ChatGPT bilden, häufig mit KI gleichgesetzt werden. Tatsächlich haben viele Mitarbeiter der Qualitätssicherung aber bereits jahrelange Erfahrung mit KI-Systemen in ihrer Produktion. Ein gutes Beispiel hierfür sind automatische Kamerasysteme zur Bildklassifikation.
In vielen Firmen werden automatische Kamerasysteme als Prüfmittel eingesetzt. Kamerasysteme können sowohl messende Prüfungen vornehmen als auch attributiv eingesetzt werden. Für beide Fälle existieren gut beschriebene und etablierte Verfahren wie MSA oder der VDA Band 5 mit seinen entsprechenden Erweiterungen um die Fähigkeit solcher Systeme nachzuweisen (s. Measurement systems analysis, 4th edition 06.2010 und VDA Band 5, 3. Auflage, Juli 2021). Das bedeutet, dass für solche KI-Systeme bereits eine direkte Anwendbarkeit der Begriffe „Eignungsnachweis“ und „Messunsicherheit“ gegeben ist.
Etwas weniger offensichtlich ist die Situation bei großen Sprachmodellen, wie gpt-4. Hierbei können unterschiedliche Fälle beantwortet werden. Im ersten Fall wird das Sprachmodell eingesetzt, um einen Text durch einen Zahlenwert zu bewerten. Ein einfaches Beispiel ist die automatische Bewertung von Kundenfeedback, bei dem ein Freitext einer Sternebewertung zugeordnet wird. Um das Beispiel zu verdeutlichen wurde folgender Prompt 50 mal mit unterschiedlichen Modellgenerationen von OpenAI, der Herstellerfirma von ChatGPT, getestet:
„Ich möchte, dass du Trainingsfeedbacks auf einer Skala von 1 bis 10 bewertest. Wie würdest du folgendes Feedback bewerten: “Schönes Training, sympathischer Trainer, das Essen war für mich sehr salzig.” Bitte antworte nur mit einer Zahl.“
Abbildung 1 zeigt den Werteverlauf der Ergebnisse für drei unterschiedliche Modellgenerationen. Es fällt auf, dass das neuere Modell gpt-4o-mini im Vergleich zu den Vorgängermodellen gpt-3.5 und gpt-4 nicht mehr streut zur Übersetzung des folgenden Feedbacks in eine Punktebewertung.
Die Werteverläufe wurden mittels einer Messystemanalyse nach MSA und nach VDA Band 5 ausgewertet. Die Cg und Cgk-Werte wurden gemäß der VDA-Empfehlung ermittelt. Tabelle 1 zeigt die Übersicht der Ergebnisse. gpt-4o-mini hätte in diesem Fall die Fähigkeit nach VDA erreicht, scheitert allerdings an der aufgabenbedingten Auflösungsgrenze von 5 Prozent der Toleranz.
| gpt | x ̅ | s | Cg | Cgk | Qms |
|---|---|---|---|---|---|
| gpt-3.5 | 7,34 | 0,59 | 0,84 | 0,80 | 26,3% |
| gpt-4 | 7,54 | 0,50 | 0,99 | 0,74 | 23,1% |
| gpt-4o-mini | 7,00 | 0,00 | – | – | 11,5% |
Tab. 1: Ergebnisse der Fähigkeitsuntersuchungen für unterschiedliche Modellgenerationen
Ein Bereich, in dem die Bewertung von Text durch KI-Systeme eine hohe Relevanz hat, ist die Bildung. Ein gutes Beispiel hierfür ist die Firma Fobizz, die Software zur Unterstützung von Lehrkräften anbietet. Die Software von Fobizz wurde von den Bundesländern Mecklenburg-Vorpommern und Berlin lizensiert und steht dort allen Lehrkräften zur Verfügung. Pilotversuche in Bayern, Hessen und Baden-Würtemberg laufen. Ein Feature dieser Software ist die automatische Bewertung von Klassenarbeiten.
Rainer Mühlhoff und Marte Henningsen konnten in ihrem Vortrag auf dem Chaos Communications Congress 2024 zeigen, dass die Software bei mehrfacher Eingabe identischer Klausuren zu unterschiedlichen Bewertungsergebnissen kommt. Dies ist nicht überraschend, da es sich laut Auskunft der Firma um ein Webfrontend für ein großes Sprachmodell handelt. Eine Eigenschaft von Sprachmodellen ist, dass die Ausgabe üblicherweise innerhalb gewisser Grenzen zufällig variiert wird. Dies führt zu einer zufälligen Streuung in den Bewertungsergebnissen, die sich auch in Abbildung 1 gezeigt hat. Die Wissenschaftler konnten zeigen, dass die Benotung von einem Durchlauf zum nächsten um mehrere Notenschritte abweichen kann.
Ein interessanter Aspekt, der jedoch nicht untersucht wurde, ist die Frage, ob echte Lehrkräfte bei so einem Versuch besser abschneiden würden als das KI-System. Eine Auswertung nach Methode 2 mit zwei echten Lehrkräften und einem KI-System würde dies deutlich zeigen. So wäre es möglich zu entscheiden, ob das KI-System weniger streut als menschliche Lehrkräfte und ob es statistisch signifikante Abweichungen in Form von Bias zwischen dem KI-System und den Lehrern gibt. Tatsächlich fordert die KI-Verordnung genau solche Biasbewertungen als Teil der Absicherung für Hochrisiko-KI-Systeme.
Fobizz ist vorerst nicht zur Umsetzung statistischer Tests verpflichtet, weil die KI-Verordnung im Falle von Hochrisiko KI-Systemen nicht rückwirkend gilt. Voraussetzung ist dabei, dass das betroffene KI-System vor dem 02.08.2026 in Verkehr gebracht wurden und danach nicht wesentlich verändert wurden.
Die beiden obigen Beispiele zeigen, dass Prüfmittelfähigkeitsuntersuchungen für alle KI-Systeme anwendbar sind, die zur Kategorisierung oder Messung eingesetzt werden. Dies gilt selbst, wenn eine messende Bewertung eines Texts vorgenommen wird. Etwas anspruchsvoller ist der Fall der Bewertung eines reinen Chatbots. Da bei einem Chatbot sowohl Ein- als auch Ausgabe unstrukturierter Text ist, sind die statistischen Methoden der Qualitätssicherung hier nicht direkt einsetzbar. Dies ist Gegenstand aktueller Forschung. Das einfachste Vorgehen ist es Menschen einzusetzen, die bewerten, ob der Chatbot richtig reagiert hat und so den attributiven Eignungsnachweis zu führen. Als Mustereingaben können Chatverläufe genutzt werden, die in der Vergangenheit zu Auffälligkeiten geführt haben. Das Vorgehen ist dabei ähnlich wie bei Grenzmustern mit bekanntem Gut-/Schlechtentscheid in der Kameraprüfung.
Da bei diesem Vorgehen die Unsicherheit der menschlichen Einschätzung und die zufällig streuende Antwortqualität der Maschine mathematisch nicht unterscheidbar sind, kann der Eignungsnachweis hier deutlich schwieriger sein. In jedem Fall sollten statistische Methoden eingesetzt werden, um ausreichend hohe Stichprobenumfänge mit einer aussagekräftigen Anzahl an Wiederholungen festzulegen.
Zusammenfassung
Es wurde gezeigt, dass Methoden, wie die Prüfmittelfähigkeit sich in vielen Fällen direkt auf die Eignung von KI-Systemen anwenden lassen. Dies gilt auch für viele andere statistische Verfahren der Qualitätssicherung, wie zum Beispiel F- und t-Tests oder Kreuztabellenbetrachtungen. Durch den Einsatz anerkannter Bewertungsverfahren steigt das Vertrauen in das KI-System und die Genauigkeit der Systeme kann in transparenter Weise ausgewiesen werden.
Die Bedeutung von Eignungsnachweisen für KI-Systeme wird durch die Anforderungen der KI-Verordnung deutlich steigen. Es muss jedoch betont werden, dass viele Normen, die die praktische Umsetzung der KI-Verordnung beschreiben, aktuell noch in Erstellung sind. Bereits jetzt steht allerdings fest, dass die Qualitätssicherung einen wertvollen Beitrag dazu leisten kann, präzise KI-Systeme zu entwickeln und zu betreiben. Mitarbeiter der Qualitätssicherung können auf diese Weise ihre einzigartigen Fähigkeiten nutzen und neue Werte für ihr Unternehmen schaffen.
Lesen Sie mehr zum Thema “Künstliche Intelligenz in der Qualität” in den folgenden Fachbeiträgen:
- Teil 1: Künstliche Intelligenz in der Qualität – Bestehendes Know-how effektiv nutzen – zum Beitrag »
- Teil 2: Künstliche Intelligenz in der Qualität – Welche Qualifikationen werden benötigt? – zum Beitrag »
- Teil 3: Künstliche Intelligenz in der Qualität – Praktische Einführung durch iteratives Vorgehen – zum Beitrag »
Über den Autor:
Dr.-Ing. Stefan Prorok ist Geschäftsführer der Prophet Analytics GmbH und DGQ-Trainer für Qualitätssicherung und Künstliche Intelligenz. Prophet Analytics unterstützt Unternehmen in allen Phasen Ihrer KI-Umsetzung mit Trainings- und Beratungsangeboten. Kontakt: ki@prophet-analytics.de
Nachhaltigkeit als strategischer Erfolgsfaktor – was gilt es als Unternehmensleitung zu beachten?

Die Integration von Nachhaltigkeit in strategische Überlegungen der Unternehmensleitung erfordert einen systematischen und langfristigen Ansatz, damit dies zu einem Erfolgsfaktor werden kann. Nachhaltigkeit sollte dabei als strategische Chance verstanden werden, die sowohl ökologische und soziale Verantwortung als auch wirtschaftlichen Erfolg verbindet. In diesem Beitrag werden vier Schritte erläutert, wie eine erfolgreiche Umsetzung gelingen kann und was die Unternehmensleitung dabei beachten sollte. Dazu wird zunächst erläutert, was der Begriff „Nachhaltigkeitsstrategie“ grundsätzlich bedeutet.
Was versteht man unter einer „Nachhaltigkeitsstrategie“?
Eine Nachhaltigkeitsstrategie ist ein zielgerichteter, langfristiger Plan, der ökologische, soziale und ökonomische Aspekte im Unternehmen gleichermaßen berücksichtigt. Sie ist ein integraler Bestandteil der Geschäftsstrategie und legt fest, wie ein Unternehmen seine Wertschöpfungskette, Prozesse und Produkte so gestaltet, dass negative Auswirkungen auf Umwelt und Gesellschaft minimiert und positive Beiträge maximiert werden.
John Elkington hat bereits 1997 erkannt, dass Unternehmen neben dem Ziel der Gewinnmaximierung (Bottom Line) auch ökologische und soziale Ziele in ihre Unternehmensstrategie integrieren sollten, damit Unternehmen zu einer nachhaltigen Entwicklung der Wirtschaft beitragen. Das Ziel ist die sogenannte Triple Bottom Line (PDF). Für die Integration der Nachhaltigkeitsstrategie in eine Geschäftsstrategie werden die in Abbildung 1 dargestellten Schritte empfohlen.
Dabei baut die Entwicklung einer nachhaltigen Unternehmensstrategie auf den sogenannten ESG-Kriterien (Abb. 2) beziehungsweise den 17 Nachhaltigkeitszielen der Vereinten Nationen (Sustainable Development Goals, SDGs) (Abb. 3) auf. Die ESG-Kriterien beschreiben die drei unternehmerischen Verantwortungsbereiche „E“ (Environment oder Umwelt), „S“ (Social oder gesellschaftliche Aspekte) und „G“ (Governance oder nachhaltige Unternehmensführung).

Abb. 2: ESG-Kriterien (In Anlehnung an: Schindler, Nachhaltige Kapitalanlagen, Frankfurt am Main 2018, S. 20)
Derzeit werden die SDGs für Unternehmen diskutiert. Die ISO-Norm 53001 „Management Systems for UN Sustainable Development Goals – Requirements“ soll 2025 kommen und eine Anleitung zur Umsetzung einer nachhaltigen Unternehmensstrategie auf der Basis der 17 UN-Nachhaltigkeitsziele bieten, mithilfe dessen Unternehmen ausgewählte Ziele umsetzen können. Im Fokus stehen dabei solche Ziele, die relevant für den jeweiligen Kontext sind, und nicht grundsätzlich alle 17 Nachhaltigkeitsziele.
Im Folgenden werden die vier Schritte Umfeld- /Bestandsanalyse, Unternehmensanalyse, Nachhaltigkeitstransformation und Berichterstattung erläutert. Insbesondere die letzten beiden Schritte wiederholen sich in einem kontinuierlichen Verbesserungsprozess nach dem PDCA-Zyklus (Plan-Do-Check-Act).
Erster Schritt: Die Umfeld- beziehungsweise Bestandsanalyse
Folgende Fragestellungen dienen als Einstieg in eine nachhaltige Unternehmensstrategie:
- Was ist bereits an nachhaltigen Strukturen im Unternehmen vorhanden?
- Gibt es bereits eingeführte Managementsysteme (zum Beispiel ISO 14001, ISO 9001, ISO 45001, ISO 50001), auf die aufgebaut werden könnte?
Für den Bereich „Umwelt“ können beispielsweise die ISO 14001 oder ISO 50001 als Basis dienen, da durch diese Normen bereits entsprechende Prozesse zur Einführung eines Managementsystems im Unternehmen als Bestandteil der strategischen Führung vorhanden sind.
Zur Analyse des Unternehmens sind verschiedene Methoden denkbar. Zu Beginn sollte gefragt werden:
- Wo stehen wir?
- Wie sehen unsere Lieferkette und unsere Wertschöpfung aus?
- An welchen Stellen beziehungsweise in welchen Funktionsbereichen haben wir eine Wirkung (positiv und negativ) auf die ESGs beziehungsweise SDGs?
Es kann auch eine Wettbewerbs- beziehungsweise Kundenanalyse durchgeführt werden, um zu sehen, wie etwaige Konkurrenten das Thema Nachhaltigkeit im Unternehmen integrieren.
Zweiter Schritt: Die Unternehmensanalyse
Im zweiten Schritt werden alle Prozesse im Unternehmen analysiert und hinterfragt: Passt das Geschäftsmodell noch? Wie umwelt- beziehungsweise sozialverträglich sind unsere Produkte und Dienstleistungen?
Um die Sicht der Anspruchsgruppen auf das Unternehmen abzubilden, erfolgt in dieser Phase die sogenannte Stakeholderanalyse. Dazu werden zunächst alle möglichen Stakeholder identifiziert und nach Wichtigkeit für das Unternehmen priorisiert. Danach geht das Unternehmen in den Dialog mit den verschiedenen relevanten Stakeholdergruppen.
Ein Kernelement der Unternehmensanalyse ist die Wesentlichkeitsanalyse, die ein Instrument darstellt, um die wesentlichen Nachhaltigkeitsthemen sowohl aus Sicht des Unternehmens als auch der Stakeholder zu identifizieren. Es werden zunächst alle möglichen für das Unternehmen relevanten Themen gesammelt. Dann werden (weitere) Themen, die aus Sicht der Stakeholder erkennbar sind, hinzugefügt und hinsichtlich ihrer Chancen und Risiken für das Unternehmen eingeordnet.
Das Fokusthema „Klima“ ist für jedes Unternehmen als wesentlich zu erachten. Um alle klimarelevanten Emissionen zu erfassen, wird eine Klimabilanzierung durchgeführt, worin das Unternehmen alle wichtigen Treibhausgase (CO2, CH4, N2O, F-Gase) ermittelt und in direkte und indirekte Emissionen sowie in Emissionen der vor- und nachgelagerten Lieferkette einteilt.
Das Ergebnis aus der Wesentlichkeitsanalyse und aus der Klimabilanz ist eine wichtige Grundlage für die Nachhaltigkeitstransformation im dritten Schritt. Die Klimabilanz zeigt auf, wo die meisten Klimagase im Unternehmen anfallen. Hier können Strategien zur Reduktion ansetzen. Die Wesentlichkeitsanalyse ermittelt die für das Unternehmen wesentlichen Themen, auf die in den nächsten zwei bis fünf Jahren fokussiert wird.
Dritter Schritt: Die Nachhaltigkeitstransformation
Eine Nachhaltigkeitstransformation ist der Wandel eines Unternehmens hin zu langfristiger Nachhaltigkeit. Das Ziel ist ein Gleichgewicht zwischen ökologischen, ökonomischen und sozialen Bedürfnissen, um die Zukunftsfähigkeit eines Unternehmens zu sichern. Im Ergebnis wird ein nachhaltiges Geschäftsmodell angestrebt, wobei ein Geschäftsmodell verstanden wird, das entlang der gesamten Wertschöpfungskette für alle seine Anspruchsgruppen (Stakeholder) Werte schafft, und die Effizienz der natürlichen Ressourcen steigert sowie die Umwelt und die menschliche Gesundheit schützt.
Erst in der Nachhaltigkeitstransformation entstehen Innovationen und neue Geschäftsmodelle, die auch möglicherweise das Unternehmen auf neuen Märkten positionieren können. Basierend auf den in Schritt 2 ermittelten Fokusthemen werden „smarte“ Nachhaltigkeitsziele formuliert (spezifisch, messbar, ambitioniert, relevant, terminiert). Hier werden ebenfalls konkrete Maßnahmen beschlossen, die kurz-, mittel- und langfristig umgesetzt werden sollen.
Insofern kann eine Integration von Nachhaltigkeit als Treiber für Innovationen in Produkten, Dienstleistungen und Prozessen wirken. Die Schulung und Sensibilisierung von Mitarbeitenden ist ein weiterer Hebel für nachhaltiges Denken und Handeln im Unternehmen. Dabei sollten die Führungskräfte als Vorbilder agieren und nachhaltige Entscheidungen priorisieren. Außerdem stärkt eine glaubwürdige und transparente Kommunikation das Vertrauen bei Investoren, Kunden und der Öffentlichkeit.
Vierter Schritt: Berichterstattung
Unternehmen, die laut CSRD berichtspflichtig sind, müssen den von der EFRAG (European Financial Reporting Advisory Group) entwickelten Europäischen Standard ESRS (European Sustainability Reporting Standard) für ihre Berichterstattung berücksichtigen. Hier gibt es Angaben, welche verpflichtend sind. Hinsichtlich der Themen, die sich an ESG orientieren, gilt, dass nur über die wesentlichen Themen berichtet werden muss.
Für nicht berichtspflichtige Unternehmen kommen „einfachere“ Standards und Zertifikate in Frage. Hier gibt es eine Reihe von unterschiedlichen Möglichkeiten (s. Abb. 4).

Abb. 4: Überblick Standards und Zertifikate für die Nachhaltigkeitsberichterstattung (© eco2050 Institut für Nachhaltigkeit)
Unabhängig davon, nach welchem Standard ein Nachhaltigkeitsbericht geschrieben wird, sorgt der Bericht für Transparenz über die Nachhaltigkeitsanstrengungen des Unternehmens.
Die hier vorgeschlagenen vier Schritte können eine einfache Anleitung darstellen, um das Thema Nachhaltigkeit in die Geschäftsstrategie zu integrieren. Ob am Ende immer ein Nachhaltigkeitsbericht das Ergebnis sein wird, ist den Unternehmen überlassen, wobei CSRD-pflichtige Unternehmen dies nicht umgehen können.
Die Vorteile für nachhaltig transformierte Unternehmen sind eine höhere Widerstandsfähigkeit, weil diese versuchen, Risiken zu reduzieren, beispielsweise durch Minimierung der Abhängigkeit von knappen Rohstoffen oder durch Einführung von Kreislaufwirtschaftsstrategien. Der Fokus bei diesen Unternehmen liegt auf langfristiger Wertschöpfung statt auf kurzfristige Gewinnmaximierung.
Fazit
Um Nachhaltigkeit strategisch zu verankern, sollte die Unternehmensleitung sie als integralen Bestandteil der Wertschöpfung und der langfristigen Planung betrachten. Ein systematischer Ansatz, klare Ziele und eine wertebasierte Unternehmenskultur sind entscheidend. Nachhaltigkeit bietet dabei nicht nur eine Antwort auf gesellschaftliche und ökologische Herausforderungen, sondern stärkt die Wettbewerbsfähigkeit und sichert die Zukunftsfähigkeit des Unternehmens.
Die vierstufige Vorgehensweise zur Integration von Nachhaltigkeit in die Geschäftsstrategie besteht aus Umfeld-/Bestandsanalyse, Unternehmensanalyse, Nachhaltigkeitstransformation und Berichterstattung. Während die ersten beiden Schritte die Ausgangslage klären und wesentliche Themen identifizieren, leitet Schritt 3 konkrete Maßnahmen für langfristige Nachhaltigkeit ab. Innovationen, smarte Ziele und die Schulung der Mitarbeitenden stehen im Fokus, um ökologische, ökonomische und soziale Werte zu schaffen. Schritt 4 sorgt für Transparenz durch Berichterstattung, besonders für CSRD-pflichtige Unternehmen. Unternehmensleitungen in nachhaltigen Unternehmen profitieren langfristig von höherer Widerstandsfähigkeit, Risikominimierung und zukunftsfähiger Wertschöpfung.
Über die Autorin:
Dr. Dina Barbian ist Geschäftsführerin des eco2050 Institut für Nachhaltigkeit, einer Ausgründung der Universität Erlangen-Nürnberg. Sie ist als Beraterin für Unternehmen zu Themen wie Nachhaltigkeitsmanagement, CSR und Klimabilanzierung tätig sowie Autorin von Büchern und Fachartikeln. Als Lehrbeauftragte hält sie Vorlesungen in den Disziplinen Informatik, Ingenieurwesen und Nachhaltigkeit. Die Wirtschaftsingenieurin und promovierte Nachhaltigkeitsökonomin ist DGQ-Trainerin und -Prüferin.
Neue Norm für Oberflächenrauheit seit 2022

Die geometrische Beschreibung von Bauteilen ist wesentlich, um die Funktion von Baugruppen und Produkten sicherzustellen. Dabei werden die Nenngeometrie und Toleranzen, mit denen die zulässigen Abweichungen begrenzt werden, unterschieden.
Als Makrogeometrie werden die Maße sowie Form- und Lageabweichungen bezeichnet. Die Mikrogeometrie entspricht der Oberflächenbeschaffenheit von Bauteilen und wird üblicherweise nur als Rauheit (gemeint ist damit die 2D-Rauheit an einem Profil) bezeichnet, obwohl noch viele andere Eigenschaften die Oberfläche charakterisieren. Funktionales Verhalten, zum Beispiel Gleiten oder Dichten, ist stark von der Beschaffenheit der Oberfläche abhängig. In geometrischen Produktspezifikationen, zum Beispiel technischen Zeichnungen, wird üblicherweise die Rauheit eingetragen, um zulässige Abweichungen der Oberfläche zu begrenzen.
Oberflächensymbol steht auf jeder Zeichnung
Das Oberflächensymbol hat jeder schon auf einer technischen Zeichnung gesehen, der mit technischen Zeichnungen in Kontakt kommt. Neben dem Symbol bestehend aus einem Dreieck verlängert mit einem Querstrich, sind eine Kenngröße und ein Toleranzwert die üblichen Angaben, wobei schätzungsweise 80 Prozent der Eintragungen in der Industrie mit den Kenngrößen Ra und Rz erfolgen. Das bedeutet nicht zwingend, dass die Oberflächen damit vollständig und eindeutig beschrieben sind, da sich die Kenngrößen nur auf die Höhe des damit in Verbindung stehenden Rauheitsprofils beziehen und eine Mittelung der Höhenwerte erfolgt. Das wird sich auch mit der neuen Rauheitsnorm nicht ändern. Aber es gibt eine große Anzahl weiterer Kenngrößen, die in Betracht gezogen werden können, um die Eigenschaften der Oberflächen eindeutiger zu beschreiben.
Zusammenführung und Anpassung bestehender Normen
Die bisherigen Normen wurden bereits vor 20 oder mehr Jahren veröffentlicht und mussten an den aktuellen Stand der Normung im Bereich der Geometrischen Produktspezifikation angepasst werden. Dieser Überarbeitungsprozess wurde gleichzeitig genutzt, um die verschiedenen Normen, zum Beispiel DIN EN ISO 1302, DIN EN ISO 4287 und DIN EN ISO 4288, zu einer neuen Normenreihe DIN EN ISO 21920 zusammenzufassen.
Zur Abgrenzung der bisherigen zu den neuen Festlegungen wurde als offensichtlicher Unterschied das Symbol mit einer Linie über dem Dreieck ergänzt. Zusätzlich sind zum Beispiel eine Veränderung der standardmäßigen Akzeptanzregel von 16 Prozent auf Max-Regel, Neuerungen zur Bezeichnung der Filter und Längen am Profil, Berechnung von Kenngrößen und neue zusätzliche Kenngrößen integriert.
Was bedeutet das für die Industrie?
Die Neuerungen in der Normenreihe DIN EN ISO 21920 führen auf Grund der Änderungen teilweise zu anderen Ergebnissen für die Oberflächenbewertung, selbst wenn Ra und Rz spezifiziert sind. Für die Auswertung der Kenngröße Rz ist beispielsweise eine neue Berechnung der Spitzen und Täler in der Abschnittlänge (bisher als Einzelmessstrecke bezeichnet) zu berücksichtigen. Das kann dazu führen, dass es in einer Abschnittlänge keinen Rp– oder Rv-Wert gibt, aus dem sich der Rz-Wert zusammensetzt. Damit kann sich der aus üblicherweise fünf Rz-Werten gemittelte Wert gegenüber dem bisherigen Rz-Wert verändern.
Kritisch ist zudem der gleitende (undatierte) Verweis zwischen der alten und der neuen Norm. Die Verwendung des alten Oberflächensymbols (ohne zusätzliche Linie über dem Dreieck) ruft eigentlich die DIN EN ISO 1302 auf. Diese wurde aber mit der DIN EN ISO 21920-1 ersetzt. Ohne die Eintragung der DIN EN ISO 1302 in Verbindung mit dem Datum der Norm, zum Beispiel DIN EN ISO 1302:2002, wird automatisch auf die neue Norm verwiesen. Zur Vermeidung von Diskussionen zwischen Kunden und Lieferanten, aber auch internen Produktfreigaben, ist eine Auseinandersetzung mit den Neuerungen in den Normen unumgänglich.

Abb. 1: Altes Rauheitssymbol (links) und neues Rauheitssymbol (rechts)
Über die Autorin:
Prof. Dr.-Ing. habil. Sophie Gröger leitet seit 2015 die Professur Fertigungsmesstechnik an der Technischen Universität Chemnitz. Darüber hinaus arbeitet sie im DIN-Normenausschuss Technische Grundlagen (NATG), NA 152-03 Arbeitsausschuss CEN/ISO Geometrische Produktspezifikation und -prüfung mit und unterstützt Unternehmen bei der Einführung und Anwendung der ISO GPS-Normen.
Trauer um Wegbereiter und Gefährten für die Qualität in der Pflege
Ende November verstarb Prof. Dr. Klaus Wingenfeld. Unter seiner Leitung setzte das Institut für Pflegewissenschaft an der Universität Bielefeld (IPW) maßgebliche Impulse für die Pflege in Deutschland. Mit seiner Forschung und dem weit über die Uni hinausgehenden gesellschaftspolitischen Engagement hatte er großen Einfluss auf die Entwicklung der Pflege hierzulande und darüber hinaus. Hervorzuheben ist seine fachpolitische Hinterlassenschaft, die Qualität in der Pflege in den Mittelpunkt stellte.
Diese Position vertrat er auch 2019 beim DGQ „Brennpunkt Pflege“ in Berlin. Damals stellte er das von ihm entwickelte Indikatorenmodell vor, das seither das Maß der Dinge in der Qualitätssicherung in der Langzeitpflege in Deutschland ist. Er verfolgte mit Interesse die Initiativen der DGQ im Themenfeld, unter anderem als Kandidat für die Mitgliedschaft im DGQ-Fachausschuss Pflege.
Zuletzt sorgte die Meldung für Wirbel, dass das von Wingenfeld gegründete IPW den Sparmaßnahmen im Landeshaushalt Nordrhein-Westfalen zum Opfer fallen soll und vor dem Aus steht. Damit verlieren wir nicht nur einen geschätzten Kollegen und Streiter für die Sache, sondern auch einen Teil seiner Hinterlassenschaft, nämlich dem Beitrag der Wissenschaft zum Empowerment der Pflege in Deutschland.
Zur offiziellen Meldung der Universität Bielefeld geht es hier.
DGQ-Qualitätstag: DGQ-Fachkreis „Qualität in der Pflege“ mit Nachhaltigkeits-Workshop präsent
Auch für die Pflegefachleute im DGQ-Netzwerk bot der 8. DGQ-Qualitätstag am 7. November 2024 die Gelegenheit, sich unter dem diesjährigen Motto “Next Generation Q” im abwechslungsreichen Programm zu präsentieren. Der erst kurz zuvor im Oktober gegründete DGQ-Fachkreis ”Qualität in der Pflege” veranstaltete einen Workshop unter der Überschrift “Branchenübergreifende Impulse zu Umwelt, Sozialem und Führung für die neue Generation Q in der Pflege“.
Damit wurde der Leitgedanke des DGQ-Qualitätstags in Verbindung mit dem allgegenwärtigen Thema Nachhaltigkeit gesetzt. Strukturen, Prozesse und Strategien in Pflegeeinrichtungen müssen in Bezug auf ökologische, soziale und unternehmensführende Kriterien hin überprüft, angepasst und dokumentiert werden. Wettbewerb und gesetzliche Vorgaben verlangen den Einrichtungen in den kommenden Jahren zu ESG (environmental, social, governance) viel ab. Dies betrifft insbesondere das Qualitätsmanagement, auf das Steuerungsarbeit zukommt.
Agile Methoden, starkes Outcome
Der Pflege-Workshop fand im agilen „World-Café“-Format statt. Das ermöglichte den Teilnehmenden auch einen vielseitigen Austausch. In Kleingruppen rotierten sie an drei Tischen, die jeweils ein Nachhaltigkeitsthema repräsentierten.
Es gab eine besinnliche und fantasievolle Einführung in das ‚Café‘ in Form einer Gedankenreise. Die Teilnehmenden sollten sich eine Pflegeeinrichtung der Zukunft vorstellen, in der es in allen drei Nachhaltigkeitsbereichen idealtypisch zugeht. Damit sollte die Konzentration der Arbeitsgruppen auf positive Aspekte von Nachhaltigkeit in der Pflege gelenkt werden.
Das hatte tatsächlich Einfluss auf die Ergebnisse des sehr kurzweiligen Treffens. Es entstanden drei Metaplanwände voller Handlungsstränge. Diese können sowohl zum Einstieg in das Thema in Pflege-Einrichtungen als auch als Strukturierungshilfe der künftig dort obligatorischen Nachhaltigkeitsberichte genutzt werden.
Fortsetzung folgt
Die Resultate des Workshops werden im DGQ-Fachkreis „Qualität in der Pflege“ weiterbearbeitet. Das nächste Treffen findet bereits Anfang Januar 2025 im Online-Format statt. Dazu sind alle am Qualitätsmanagement im Sozial- und Gesundheitswesen interessierten DGQ-Mitglieder herzlich eingeladen.
Termin: 9.1.2025, 13:30 bis 16:30 Uhr, Online via Teams
Bei Interesse zur Teilnahme am Fachkreis-Treffen wenden Sie sich gerne per E-Mail an Holger Dudel unter holger.dudel@dgq.de.
Trends in der Akkreditierungs- und Zertifizierungslandschaft: „Der Gesetzgeber ist ein immer größerer Fan der Akkreditierung geworden“

In der Praxis der Akkreditierung von Konformitätsbewertungsstellen in Deutschland sind seit einigen Jahren erhebliche Änderungen zu konstatieren. Zu diesen sowie ihren Auswirkungen auf Unternehmen, die Qualitätsinfrastruktur und letztlich auch den Standort Deutschland hat Dipl.-Ing. Thomas Votsmeier, der die DGQ in diesen Gremien bzw. Organisationen langjährig vertritt und die Entwicklungen begleitet, den Rechtsanwalt und Akkreditierungsexperten Prof. Dr. Joachim Bloehs im Interview befragt.
Herr Prof. Dr. Bloehs, Sie sind seit vielen Jahren als Rechtsanwalt und Experte im Umfeld von Konformitätsbewertung, Akkreditierung und Zertifizierung aktiv und vertreten speziell auch die Interessen von Konformitätsbewertungsstellen in Bezug auf Akkreditierungsfragen. In der „Szene“ der Konformitätsbewertungsstellen haben sich in den letzten Jahren deutliche Veränderungen ergeben. Wie charakterisieren Sie die Entwicklungen in der Akkreditierungs- und Zertifizierungslandschaft in den letzten Jahren?
Prof. Dr. Joachim Bloehs: Auch wenn ich seit dem Jahr 2010 mit dem Akkreditierungsrecht befasst bin, stelle ich erst seit 2019 fest, dass sich die Zertifizierungslandschaft in Deutschland stark verändert hat. Und das, obwohl die EU-weit harmonisierte Rechtslage seitdem nicht geändert wurde; das NLF – New Legislative Framework – mit der für uns hier zentralen sogenannten Akkreditierungsverordnung VO (EG) 765/2008 gilt insoweit nämlich seit 2010 unverändert. Ein valider Überblick über die EU-weite Entwicklung in den einzelnen Mitgliedsstaaten fehlt mir zwar.
Doch in Deutschland haben sich die Anforderungen der deutschen nationalen Akkreditierungsstelle in der Praxis sehr verändert: Normen werden nun sehr formalistisch und kleinteilig ausgelegt. Vieles, das seit Jahren und teils seit Jahrzehnten EU-weit gelebte Praxis war, gilt augenscheinlich heute in Deutschland nicht mehr. Das führt dazu, dass mir immer häufiger Mandanten mitteilen, diese „neuen“ Anforderungen führten dazu, dass sie erhebliche Wettbewerbsnachteile haben. Dies gilt gegenüber ihren Marktbegleitern aus dem Drittausland ebenso wie gegenüber denen aus den anderen EU- und EFTA-Staaten. In vielen Bereichen würde man bereits keine Angebote mehr unterbreiten, weil man zum Beispiel wegen der in der Praxis unterschiedlichen Auslegung der verschiedenen Akkreditierungsstellen bei der normativ geforderten Auditzeitkalkulation nicht mehr zum Zuge komme.
Ein weiteres Beispiel sind die Anforderungen an das Auditorenkompetenz-Management und an die Auditoren selbst, die oftmals zur Aberkennung von Scopes bei langjährig bewährten Auditoren führen. Dies wird häufig als überbordend empfunden.
Doch wenn man fair ist, muss man wohl das „Pendelprinzip“ in diesem Zusammenhang erkennen: Es war in der Praxis tatsächlich immer wieder in Einzelfällen kaum nachvollziehbar, wie ein Auditor für den konkreten Fall als qualifiziert und erfahren – also kompetent – eingestuft werden konnte. Dass die zuständige Akkreditierungsstelle hier kritisch hinsieht, liegt in ihrer Aufgabe. Doch das Pendel ist auch meiner Meinung nach nun zu weit in die andere Richtung ausgeschlagen und trifft alle Arten von Konformitätsbewertungsstellen. Dies führt dann zu nationalen Anforderungen, die in dieser Form nicht einheitlich und damit nicht wettbewerbsneutral in den verschiedenen Mitgliedsstaaten angewendet werden. Wegen der Dienstleistungsfreiheit, aber auch weil mehr und mehr in Deutschland gegründete und dort tätige Zertifizierungsstellen mit ausländischen Wurzeln unter einer ausländischen Akkreditierung arbeiten, halte ich das für eine Gefahr für die gesamte Branche in Deutschland.
Dies dürfte auch einer der wesentlichen Gründe für die Kleine Anfrage der CDU/CSU-Fraktion vom 30. September 2024 an die Bundesregierung zum deutschen Akkreditierungswesen und der Arbeit der DAkkS gewesen sein. Hitverdächtig war meiner Auffassung nach aber nur die Geschwindigkeit in der Beantwortung der Anfrage innerhalb von weniger als zwei Wochen, leider nicht deren Substanz.
Die anstehende Überarbeitung des NLF wirft nun ihre Schatten voraus. Wie zu hören ist, soll die Akkreditierung als zentrales Element der Europäischen Qualitätsinfrastruktur weiter gestärkt werden. Dies wohl nicht zuletzt auch vor dem Hintergrund der durch die europäischen Institutionen im vergangenen Jahr als erfolgreich wahrgenommenen Evaluation der Akkreditierungsverordnung. Aber auch hier gilt meiner Meinung nach, dass politisch weichgespülte Erfolgsstories geschrieben werden und keine Bereitschaft zu bestehen scheint, sich wirklich kritisch mit den Folgen unterschiedlicher Akkreditierungspraxis, -performance und fehlender Harmonisierung in der Normauslegung zu befassen: Während beispielsweise eine Konformitätsbewertungsstelle bei einer anderen europäischen nationalen Akkreditierungsstelle eine Erweiterung ihrer Akkreditierung innerhalb von drei Monaten erreicht, benötigt das deutsche Pendant allein für die Eingangsbestätigung des Antrags mitunter ebenfalls drei Monate.
Welche Änderungen in der konformitätsbewertungsrelevanten Regelungslandschaft – von EU-Verordnungen und -Richtlinien über Gesetze und Verordnungen in Deutschland bis hin zu ISO Normen – waren Ihres Erachtens maßgebend im Hinblick auf die Erfüllung von erweiterten Compliance-Anforderungen?
Prof. Dr. Joachim Bloehs: Hierfür müssen wir zunächst einmal die Frage beantworten, was wir eigentlich unter „Compliance-Anforderungen“ verstehen. Compliance ist die allgemeine Aussage der Befolgung oder Erfüllung von Anforderungen. Das heißt also, dass dieser im deutschen Sprachgebrauch erst seit rund zehn bis 15 Jahren gebräuchliche Begriff „alter Wein in neuen Schläuchen“ ist. „Compliance“ ist in den technischen Bereichen schon immer der Beurteilungsgegenstand der Konformitätsbewertung, der Zertifizierung, Inspektion und Laborprüfung gewesen. Aber auch im wirtschaftlichen Bereich – zum Beispiel der Jahresabschlussprüfung durch Wirtschaftsprüfer – geht es um Compliance, die Erfüllung von Anforderungen. Dies geht aber mittlerweile so weit, dass auch die Finanzverwaltung im Rahmen der Beurteilung steuer(ordnungs)rechtlicher Fragestellungen zunehmend auf das Vorliegen oder Nichtvorliegen eines TCMS Tax Compliance and Management Systems abstellt.
Meiner Wahrnehmung nach ist „DER“ Gesetzgeber ein immer größerer Fan der Akkreditierung geworden. Die zunehmende Neigung des Staates, sich aus der Qualitätssicherung und -überwachung zurückzuziehen – vordergründig um die Eigenverantwortung der Wirtschaft zu stärken, vermutlich aber vor allem auch deshalb, um den Aufwand und die Kosten in der öffentlichen Verwaltung einzusparen – führt dazu, dass er eine staatliche Überwachungsebene benötigt. Das ist in der EU außerhalb der Marktüberwachung die Akkreditierung durch nationale Akkreditierungsstellen. Diese Entwicklung ist nicht schlimm, sondern gerade das wirtschaftliche Betätigungsfeld der Konformitätsbewertungsstellen.
Was aber zu vermissen ist, ist eine effektive Harmonisierung und wettbewerbsneutrale Überwachung, die auf europäischer Ebene funktioniert. Die hierfür vorgesehene European Accreditation (EA) leistet dies in der heutigen Form meiner Auffassung nach nur unzureichend; der EU-Gesetzgeber müsste sich diesem Thema bei der Überarbeitung des NLF dezidiert annehmen, um die heute wahrgenommenen Ungleichheiten innerhalb des Binnenmarktes und in der Praxis der nationalen Akkreditierungsstellen tatsächlich und nicht nur auf dem Papier abzubauen.
Dies ist umso wichtiger, weil der EU-Gesetzgeber immer mehr Verordnungen und Richtlinien erlässt, die eine akkreditierte Zertifizierung der handelnden Akteure verlangen. Der deutsche Bundesgesetzgeber ist ebenfalls ein Fan der Akkreditierung und verlangt nicht nur immer häufiger in Gesetzen eine Kompetenzbestätigung durch akkreditierte Zertifizierungsstellen. Sondern er bzw. die jeweiligen Bundesministerien betätigen sich mittlerweile auch als Schöpfer und Inhaber von Konformitätsbewertungsprogrammen, wie wir es beim staatlichen Textilsiegel „Grüner Knopf“ oder auch bei der „Verordnung zum Schutz vor schädlichen Wirkungen nichtionisierender Strahlung bei der Anwendung am Menschen“ (NiSV) sehen. Selbst die Landesgesetzgeber reihen sich in den Reigen ein: Landes-Glücksspielgesetze verlangen für Betreiber von Glücksspielstätten die Zertifizierung durch akkreditierte Zertifizierungsstellen (zum Beispiel § 16a AG GlüStV NRW).
Grundlage dieser Zertifizierungen sind meist die EN-ISO-Normen, vor allem der 17000er Reihe, die ihrerseits die Anforderungen für die Akkreditierung der Konformitätsbewertungsstellen formulieren und im Konsensprinzip entstehen. Wer die Entstehungssystematik dieser ISO-Normen kennt, weiß, dass hier Fachleute aus dem jeweiligen Themenbereich in vielen Sitzungen und Kommentierungsrunden nach einem internationalen Kompromiss suchen. In aller Regel sind es nicht (Formal-)Juristen, was von den Akkreditierungsstellen in ihrer Praxis meines Erachtens allzu häufig außer Acht gelassen wird.
Die konformitätsbewertungsrelevante Regelungslandschaft ist also immer weiter gefasst worden. Dabei werden die Anforderungen der Materie immer komplexer, wenn wir uns nur die Informationssicherheit und die AI-Verordnung vorstellen. Deshalb ist es eine besondere Belastung, wenn der Eindruck besteht, dass diese Chancen und Herausforderungen in Deutschland in eine Zeit der veränderten nationalen Normanwendung fällt, die durch eine Loslösung von der Frage nach dem technischen/fachlichen Sinn und Zweck der Normen und einer Hinwendung zur formal-juristischen Deklination der normativen Anforderungen geprägt ist.
Welche Auswirkungen haben diese zusätzlichen Regelungen auf Konformitätsbewertungsstellen und auf zertifizierte Unternehmen?
Prof. Dr. Joachim Bloehs: Die zunehmende Verrechtlichung in der Begutachtungspraxis verlangt den Konformitätsbewertungsstellen immer mehr an Dokumentationen und theoretischen Abhandlungen ab, die häufig genug aus Sicht einer realistischen Risikobetrachtung überzogen wirken. Das ist aber nicht allein auf diese Ebene begrenzt, sondern „schwappt“ auf die Kundenbeziehung über. So lässt sich dem Kunden einer kleinen Zertifizierungsstelle eigentlich nicht vermitteln, weshalb er innerhalb von drei Jahren nun schon zum zweiten Mal bei seinem Audit ein Witness Audit der Akkreditierungsstelle akzeptieren soll. Die zertifizierten Unternehmen hinterfragen meiner Wahrnehmung nach immer häufiger, ob das „Lamento“ ihres Zertifizierers – „das ist eine neue Anforderung unseres Akkreditierers“ – auch wirklich stimmt und haben immer weniger Verständnis dafür. Letztlich stimmen die Kunden dann ganz schnell mit den Füßen ab. Das zeigte auch die Diskussion um die EN ISO 13485 (Qualitätsmanagement für Medizinprodukte). Und die Zertifizierer mit der „falschen“ Akkreditierung haben das Nachsehen.
Andere zertifizierte Unternehmen teilen ihren Zertifizierern schon einmal mit, dass sie auch genug von den angeblich oder tatsächlich neuen Anforderungen hätten, zumal der Zertifizierer aus dem Nachbar-EU-Land sogar 30 Prozent billiger sei. Wozu das dann führt? Einige meiner Mandanten haben sich aus der Akkreditierung bewusst verabschieden müssen und zertifizieren dort weiter, wo keine Akkreditierung gefordert ist. Dass das nicht im Sinne einer wohlverstandenen europäischen Qualitätsinfrastruktur ist, liegt auf der Hand. Doch wer das Gefühl hat – und dies kann ich in mehreren Fällen auch sehr gut nachvollziehen – durch die Akkreditierungskosten „totgeprüft zu werden“, der verlässt dieses System dann notgedrungen.
Inwieweit führen diese Regelungen zu verbesserter Compliance, Rechtssicherheit und Performance der beteiligten Organisationen?
Prof. Dr. Joachim Bloehs: Es ist eine Gratwanderung zwischen Überregulierung und zu viel Spielraum. Je mehr reguliert wird, desto mehr Rechtssicherheit gibt es. Doch dann bleibt die Einzelfallgerechtigkeit womöglich auf der Strecke. Ein Ermessen in der Beurteilung und Bewertung ist aber stets erforderlich. Das weiß jeder, der selbst mit Konformitätsbewertung zu tun hat. Und auch Akkreditierung ist nichts anderes als die Konformitätswertung auf anderer Ebene. Daher müssen Gesetze, Regeln und Normen flexibel genug bleiben, um im Einzelfall angemessen angewendet werden zu können. Von diesem Gedanken sind auch die EN-ISO-Normen geprägt. Das reduziert die Rechtssicherheit und verlangt eine besondere Kompetenz des Auditors/Begutachters, der mit eigener Sachkunde verhältnismäßige Anforderungen stellen muss. Dafür braucht er genügend Spielraum. Es steht und fällt also auch hier alles mit der fachlichen und sozialen Kompetenz der an der Konformitätsbewertung beteiligten Menschen.
In letzter Zeit lässt sich feststellen, dass die geänderte Anwendung von Interpretationsspielräumen seitens der Deutschen Akkreditierungsstelle in Akkreditierungsverfahren zu erhöhten Aufwendungen und Widerständen führt. Wo liegen hier die größten Herausforderungen und welche Änderungen wären notwendig, um die Performance des Systems Akkreditierung – Zertifizierung zu erhöhen?
Prof. Dr. Joachim Bloehs: Die deutsche Akkreditierungsstelle hat auf der Akkreditierungskonferenz 2023 ihr neues Regelwerk vorgestellt und dabei betont, dass die neuen Regeln einen Abbau der detaillierten Vorgaben zugunsten der Stärkung des Ermessens der Begutachter mit sich bringen soll. Die seither veröffentlichten Regeln und Merkblätter fühlen sich aber teilweise anders an. Enge Vorgaben, formalisierte Verfahren sind hier prägend. Zugleich ist von Begutachtern zu hören, sie hätten keinen Spielraum. Es werden teilweise vorformulierte Abweichungstexte verwendet.
Meiner Meinung nach müsste wieder vermehrt die Facharbeit und risikobewusste Begutachtung in den Fokus rücken. Die Entwicklung zu einer immer weiter gehenden „Dokumentiererei“ und „Häkchenmacherei“, die ich im Bereich der Wirtschaftsprüfung schon vor über 30 Jahren erlebt habe und nun bei der Zertifizierung sehe, sollte auf ein sinnvolles Maß zurückgeführt werden. Der Satz „substance over form“ kann hier als Leitbild dienen.
Die teilweise Verdreifachung der Kosten der Begutachtung ohne nachvollziehbaren Grund ist wirtschaftlich eine enorme Belastung. Es müsste also innerhalb der Prozesse der DAkkS nach Effizienzsteigerungen gesucht werden, ohne die Effektivität zu beeinträchtigen. Ist beispielsweise die Vorgabe, bei einer Wiederholungsbegutachtung auf Seiten der Begutachter das Vier-Augen-Prinzip zu verlangen, bei einer kleinen Konformitätsbewertungsstelle wirklich erforderlich und angemessen? Müssen wirklich bei einer sehr kleinen Zertifizierungsstelle bis zu acht Verfahrensmanager und sieben Teamassistenten eingesetzt werden, was naturgemäß zu Effizienzverlusten führen muss?
Meiner Wahrnehmung nach hat sich das Verhältnis zwischen Akkreditierungsstelle und Konformitätsbewertungsstelle gewandelt: Galt früher das Verifikationsprinzip, wurde also die Bestätigung der Kompetenz und der Ergebnisse vor einem Vertrauenshintergrund angestrebt, so hat man heute den Eindruck, der Akkreditierer handele stets nach dem Falsifikationsprinzip, denn der Konformitätsbewertungsstelle sei jederzeit “Böses zuzutrauen”. Ging man früher also von der Rechtschaffenheit der Konformitätsbewertungsstelle aus, so wird heute augenscheinlich das Gegenteil befürchtet; manch einer sagt „unterstellt“.
Welche Empfehlungen haben Sie in Richtung Politik, Verwaltung und Normung, um zukünftig effizienter und effektiver Konformitätsbewertungsverfahren zum Nutzen von Gesellschaft, Wirtschaft und Verbraucher:innen durchführen zu können?
Prof. Dr. Joachim Bloehs: Im Ausgangspunkt sind wir uns sicher alle einig: Konformitätsbewertung ist eine notwendige und unverzichtbare Anforderung. Der Staat kann all diese Aufgaben nicht allein erfüllen und muss sich vor dem Hintergrund der Bedeutung und der abstrakten Gefährdungslage der Konformitätsbewertungsgegenstände entscheiden, in welchem Umfang eine Privatisierung möglich ist.
Der deutsche Gesetzgeber hat sich für den Weg der Beleihung einer Gesellschaft mit beschränkter Haftung entschieden. Ich würde mir wünschen, dass die Rechtsaufsicht und die Fachaufsicht durch die zuständigen Ministerien intensiver gelebt wird als es in den letzten Jahren den Eindruck erweckt hat. Dabei sollte ein Mechanismus geschaffen werden, der es den Konformitätsbewertungsstellen ermöglicht, ihre Bedenken und Bedürfnisse, abweichende Auffassungen zu Regelauslegungen etc. auch anonymisiert artikulieren zu können. Denn ich erlebe häufig, dass sich selbst TIC-Konzerne nicht zu wehren trauen, weil sie Angst vor der Aussetzung der Akkreditierung haben oder vor einer Retourkutsche bei der nächsten Begutachtung.
Im Alltäglichen muss es gelingen, die Bearbeitungszeiten von der Antragstellung bis zur Akkreditierung zu reduzieren und die Kosten für die Akkreditierung wieder auf ein verträgliches Maß zurückzuführen. Dabei kann es sicher nicht schaden, den Blick über den Tellerrand hinaus auf die anderen nationalen Akkreditierungsstellen zu werfen, die dem Vernehmen nach schneller und günstiger akkreditieren können.
Herr Prof. Dr. Bloehs, vielen Dank für das Gespräch und Ihre detaillierten Ausführungen!
Status quo Pflege in Deutschland: Zahlen, Daten, Fakten

Die Spitze des Eisberges zeigt sich bereits in vielen Medienbeiträgen. Danach entsteht der Eindruck, dass Pflege dauernd am Abgrund jongliert: Fachkräftemangel, unübersehbarer Pflegebedarfsanstieg, Kostenexplosion und gleichzeitig Insolvenzen von Kliniken und Pflegeeinrichtungen.
Und in der Tat: Die Versorgung ist gefährdet – und das mit Ansage. Denn zahllos sind seit langem die Berichte über vergebliche Pflegeplatz-Gesuche, Verringerung von Leistungen wegen der enormen Kostensteigerungen und die sogenannte „Rennpflege“, die nicht viel mit menschenwürdiger Pflege zu tun hat. Die Gefahr eines pflegerischen Kollaps‘ und in der Folge eines Zusammenbruchs des Gesundheits-Versorgungssystems wird immer konkreter. Entsprechende Mahnungen an die Politik sowie Vorschläge für eine Besserung gibt es zuhauf.
Vieles bei diesem Thema läuft bei der Frage der Finanzierung zusammen. Die Pflege ist Bestandteil des Sozialsystems und Pflegekosten betreffen die Allgemeinheit. Die Beitragssätze für die soziale Pflegeversicherung steigen. Das Bismarcksche System der Finanzierung über den Lohn gerät wegen der Umkehrung der Bevölkerungspyramide ins Wanken. Und wie sieht es mit der Qualität der Pflege aus, reißt die Ressourcenlücke sie mit in eine düstere Zukunft?
Änderung von Zahl und Beschaffenheit
In dieser Gemengelage kann es hilfreich sein, Fakten zu benennen. Zur Einordnung der Dimension, die Pflege für die Gesellschaft hat, helfen wichtige Parameter. Dazu gehört vor allem, wie viele Menschen Pflegeleistungen erhalten.
Die Sozialgesetze erlauben nur statistisch verlässliche Daten für die Langzeitpflege, weil dort direkt Pflegekosten anfallen. Demnach liegt die Zahl der nach dem Gesetz Pflegebedürftigen um 150 Prozent höher, als vor 25 Jahren, das sind mittlerweile über 5,6 Millionen Menschen (BMG, 2024). Die Zahl der Menschen, die in der Pflege arbeiten, ist in demselben Zeitraum aber nur um 100 Prozent gestiegen. Mit 1,75 Millionen Beschäftigten stellt die Pflege die größte Berufsgruppe im Gesundheitssektor.
Die Zahl der pflegebedürftigen Menschen mit Mehrfacherkrankungen und mit Demenz nimmt massiv zu. Damit ändert sich die Beschaffenheit des Pflegebedarfs. So gab es zum Beispiel einen Anstieg der Behandlungen von Alzheimer-Erkrankungen zwischen 2000 und 2020 um 138 Prozent (Destatis, 2022). Die pflegerische Betreuung dieser Menschen ist sehr aufwändig und erfordert vielfach besonderes Know-how. Das muss bei dem quantitativen Anstieg der Pflegebedürftigen stets berücksichtigt werden. Jede:r Pflegebedürftige mehr, potenziert in der alternden Gesellschaft den pflegerischen Aufwand.

Abb. 1: Pflege in Zahlen – Aktuelle sektorenübergreifende Daten 2024 (© Deutsche Gesellschaft für Qualität)
Pflege an unterschiedlichen Orten
Die Zunahme der Fallzahlen in Krankenhäusern fällt nicht so dramatisch aus wie in der Langzeitpflege. 2022 waren es 16,8 Millionen Fälle (Destatis, 2023a). Die Straffung der Verweildauern auf Grund fortschrittlicherer Behandlungsmethoden führt sogar zu einer Verringerung der Kliniken auf derzeit knapp unter 2.000. Dieser Trend wird sich mit den geplanten Reformen des Gesundheitswesens fortsetzen.
Im Gegensatz dazu nimmt die Zahl der Langzeitpflegeeinrichtungen, insbesondere der ambulanten Pflegedienste, stetig zu. Momentan gibt es 11.680 Pflegeheime und 17.600 ambulante Dienste (pflegemarkt, 2024), insgesamt also gut 29.000 Einrichtungen der Langzeitpflege.
Pflegeleistungen werden auch an anderen Orten erbracht, unter anderem vor allem in bundesweit 1.090 Vorsorge- und Reha-Einrichtungen (Destatis, 2023b), aber auch in Tages- und Nachtpflegen, in pflegerisch betreuten Wohnsettings, bei niedergelassenen Ärzten und in Medizinischen Versorgungszentren sowie in 260 stationären und über 1.500 ambulanten Hospizen (DHPV, 2024). Hier täuscht die absolut hohe Zahl darüber hinweg, dass Deutschland im europäischen Vergleich nur im unteren Mittelfeld liegt (ckbm, 2024). Hierzulande wird nicht die in der Literatur lange als Standard angesehene Hospizdichte von 50 stationären Plätzen – das entspricht 5 bis 8 Hospizen – je eine Millionen Einwohner:innen erreicht.
84 Prozent der pflegebedürftigen Menschen werden zuhause versorgt. Das ist bei Weitem der größte Versorgungsort mit 4,7 Millionen Personen (Destatis, 2024). Davon wird wiederum der Großteil, über 3 Millionen Menschen, nur durch Angehörige pflegerisch betreut. Knapp unter einer Millionen Menschen erhalten Pflegeleistungen in stationären Einrichtungen, davon die Mehrheit (0,8 Millionen) in Pflegeheimen.
Wer will pflegen?
Mit den wachsenden Anforderungen an die pflegerische Versorgung ist gut ausgebildeter Nachwuchs wichtig. Es gibt in Deutschland eine leichte Zunahme der Pflegeschulen, zurzeit 1.200, die jedes Jahr circa 50.000 Ausbildungsverträge schließen, insgesamt also gut 150.000 Schüler:innen in der dreijährigen Pflegeausbildung. Damit ist Pflege der größte Ausbildungsberuf in Deutschland. Hinzu kommen mittlerweile über 80 Fachhochschulen und Universitäten, die Pflegestudiengänge anbieten. Allerdings liegt der Anteil der akademisch ausgebildeten Pflegekräfte nur bei 2,5 Prozent. Noch geringer fällt diese Quote in der Versorgungspraxis aus, wo weniger als ein Prozent der hochschulisch qualifizierten Pflegekräfte tätig sind (WR, 2024).
Der leichten Zunahme an Schulen, Auszubildenden und der Beschäftigten in der Pflege steht ein parabelförmig ansteigender Pflegebedarf gegenüber und es öffnet sich seit Langem eine Angebot-Nachfrage-Schere.
Woher stammt das Geld für die Pflege?
Eine Strukturreform ist folglich überfällig. In zurückliegenden Legislaturperioden wurde bis heute wenigstens eine Reform der Finanzierung der Pflege angekündigt, weil das System im gesellschaftlichen Wandel an Grenzen stößt. Die 1995 mit dem elften Sozialgesetzbuch (SGB XI) eingeführte Pflegeversicherung, bildet den Rahmen für die Teilfinanzierung von Pflegeleistungen im Bereich der Langzeitpflege. Wie eingangs dargelegt, nimmt im öffentlichen Diskurs zur Pflege die Finanzierung momentan den größten Platz ein. Diese kommt durch die demographische Entwicklung regelmäßig an ihre Grenzen und der Beitrag zur Pflegeversicherung steigt kontinuierlich. Auch die Eigenanteile, die Pflegebedürftige leisten müssen, brechen immer neue Rekorde. Der Eigenanteil für die stationäre Pflege betrug beispielsweise im Januar 2018 bundesweit noch 1.772 Euro und betrug am ersten Januar 2024 für das erste Jahr im Heim durchschnittlich 2.576 Euro, eine Steigerung von gut 45 Prozent innerhalb von sechs Jahren (vdek, 2024c).
Es gibt momentan 96 gesetzliche Pflegekassen, die jeweils ein Pendant in der Krankenversicherung haben. Außerdem kann das Pflegerisiko auch bei rund 50 privaten Kostenträgern abgesichert werden (Allianz, 2024).
Die Kosten für Pflegeleistungen, die im Krankenhaus, in der medizinischen Rehabilitation oder im Hospiz erbracht werden, übernimmt die Krankenkasse. Diese Unterteilung ist pflegefachlich nicht sinnvoll, aber historisch in der Rolle der Krankenpflege begründet. Die Ausgaben der sozialen Pflegeversicherung, in der knapp 90 Prozent der Deutschen versichert sind, lagen im Jahr 2022 bei 60 Milliarden Euro (vdek, 2024a). Die Ausgaben der gesetzlichen Krankenkassen beliefen sich 2022 auf 306,4 Milliarden Euro (vdek, 2024b). Welcher Anteil daran Pflegekosten sind, wird nicht ausgewiesen. Kosten für die Pflege werden auch über andere Sozialkassen finanziert. Dazu gehören die Unfallversicherung, die Kinder- und Jugendhilfe sowie die Sozialhilfe.
Zusammenfassung: Zahlen und Menschen
Die Pflege ist ein bedeutender Wirtschaftsfaktor, entscheidend bei der Aufrechterhaltung der Sozial- und Gesundheitsversorgung. Sie ist Garant für die Erhaltung von Lebensqualität bei Menschen in jeder Lebensphase und an vielen Orten, an denen Pflegeleistungen erbracht werden. Sie bildet die größte Berufsgruppe im Gesundheitswesen und den größten Ausbildungszweig in Deutschland. Ihr Stellenwert liest sich aber nicht nur an den gewaltigen Zahlen ab – wie den über fünf Millionen Pflegebedürftigen. Für einzelne Menschen kommt es auf die Qualität der Pflegeleistungen an. Die hängen von individuellen Bedürfnissen und den Pflegebedarfen ab, sei es im Krankenhaus, daheim oder im Hospiz. Aber auch von Qualifikation und Kompetenz der Pflegenden und dem Wert, den eine Gesellschaft bereit ist, für gute Leistungen zu zahlen. Gute Pflege wiederum ist nur möglich, wenn die Verzahnung von formaler Versorgung mit der Laienpflege, also den zahllosen An- und Zugehörigen, gut funktioniert.
Die Infografik Pflege in Zahlen – Aktuelle sektorenübergreifende Daten 2024 ist als Download erhältlich: Zum Download »
8. DGQ-Qualitätstag – Mit Kurs auf die „Next Generation Q“
Zum achten Mal lädt die Deutsche Gesellschaft für Qualität zum zentralen Branchentreff der Qualitätsmanagement-Community ein. Am 7. November 2024 erwartet die Teilnehmenden im House of Logistics and Mobility (HOLM) in Frankfurt am Main ein intensiver, interaktiver und kreativer Austausch und viel Raum zum Netzwerken.
Spannende Workshops und interaktive Vorträge
Die Geschwindigkeit von Veränderungen in Wirtschaft und Gesellschaft nimmt rasant zu, neue disruptive Technologien und künstliche Intelligenz erobern unsere Lebens- und Arbeitswelt. Globale Megatrends wie Nachhaltigkeit, Generationen Shift und New Work nehmen Einfluss auf Produktionsabläufe, Kundenwünsche und Unternehmenskulturen.
Was bedeuten diese Entwicklungen für das Q(M) von morgen und was können die Verantwortlichen konkret heute schon tun? Wo gilt es, neue Perspektiven einzunehmen, Altbewährtes über Bord zu werfen und ein neues Selbstverständnis zu entwickeln? Und wie lassen sich das Know-how- und Innovations-Potenzial junger Menschen in bestehende Strukturen, Teams, Kulturen und Methoden einbinden und bestehende Generationenkonflikte lösen?
Antworten auf diese Fragen finden die Teilnehmenden in spannenden Vorträgen und interaktiven Workshops. Hochkarätige Referenten vermitteln aktuelles Wissen, Best-Practice-Lösungen und zukunftsweisende Impulse. Das Programm können sich Teilnehmende ganz individuell zusammenstellen.
Zukunftsweisende Impulse für das Qualitätsmanagement
In seiner Keynote nimmt Jugendforscher und Arbeitgebercoach Simon Schnetzer Gemeinsamkeiten und Unterschiede der Generationen unter die Lupe. Dabei zeigt er die Erfolgsfaktoren der „Next Generation Q“ auf und erläutert, wie diese tickt und wofür sie sich begeistert. Schlussfolgerungen und Wege für eine strategiebasierte Reorganisation von Q-Abteilungen beleuchten wiederrum Benedikt Sommerhoff und Alexander Schäfer (beide DGQ). Sie geben Einblicke in die DGQ-Studie „Q-Organisation“, die mit über 400 Antworten aus einer Online-Umfrage und sieben ergänzenden Tiefeninterviews ein facettenreiches Bild über die Aufstellung der unternehmensinternen Q-Organisationen liefert. Weitere Vorträge und Workshops befassen sich mit dem praxisnahen Einsatz von generativer KI wie ChatGPT, erläutern die Besonderheiten, mit denen Startups im Qualitätsmanagement konfrontiert sind oder vermitteln den effektiven Umgang mit Rollenkonflikten im QM.
Informationen zur Anmeldung
Wann: Donnerstag, 7. November 2024, von 10:00 Uhr bis 18:00 Uhr
Wo: HOLM (House of Logistics and Mobility), Frankfurt am Main
Teilnahmekosten: 359,- € zzgl. MwSt. (319,- € zzgl. MwSt. für DGQ-Mitglieder)
Als DGQ-Mitglied können Sie – sowohl online als auch in Präsenz – zum reduzierten Kostenbeitrag teilnehmen. Sie sind noch kein Mitglied? Dann nutzen Sie doch für die Anmeldung unsere beitragsfreie, dreimonatige Schnuppermitgliedschaft.
Interview zum FQS-Forschungsprojekt IDaP+: Prozessketten für die Herstellung und Bearbeitung von Gussbauteilen in der Automobilindustrie effizient gestalten und steuern

Die Herstellung von Leichtmetallgussprodukten, gefolgt von Wärmebehandlung und Bearbeitung, ist besonders für die Produktion von elektrischen Antrieben in der Automobilindustrie sowie in anderen Branchen von Bedeutung. Verschiedene Zulieferer, insbesondere kleine und mittlere Unternehmen (KMU), sind an diesen Prozessketten beteiligt. Dazu gehören die Herstellung von Gussformen, das Durchführen von Gießprozessen, die Wärmebehandlung der Rohteile, die Durchführung von Bearbeitungsprozessen als Auftragsfertiger sowie die Bereitstellung von Werkzeugen, Maschinen, Ausrüstung, Software und Dienstleistungen. Aktuell erzeugen all diese Prozesskettenteilnehmer Informationen, die für die Gesamtprozesskette relevant sein können, um einzelne Prozessschritte gezielter einzustellen.
Das über die FQS – Forschungsgemeinschaft Qualität und ASMET – Austrian Society for Metallurgy and Metals geförderte Forschungsprojekt „Integrated Data-based Process Chain Optimisation in Casting and Machining Production (IDaP+)“ untersucht das Potenzial einer durchgängigen Prozesskette und digitalen Vernetzung der betrachteten Bereiche. Durchführende Forschungseinrichtungen sind das utg der TU München (Gießen), das WWWT der TU Wien (Wärmebehandlung und Oberflächentechnik), das ISF der TU Dortmund (Tiefbohren und Gewinden), das IFT der TU Wien (Statorbohren mit sensorischer Spanntechnik) und das IfW der Universität Stuttgart (Statorbohren mit sensorischem Werkzeug). Rund 40 Unternehmen aus Deutschland und Österreich begleiten die Forschungsarbeiten als Industriepartner im Projektbegleitenden Ausschuss.
Im Interview gibt Tim Reeber, Mitarbeiter der Gruppe Prozessüberwachung und -regelung am IfW der Universität Stuttgart, einen Ausblick auf die Projektdurchführung und erklärt, was das Projekt so einzigartig macht.
Aus welcher Problemstellung heraus ist das Forschungsprojekt entstanden?
Tim Reeber: Die Abstimmung der einzelnen Arbeitsschritte bei der Herstellung von E-Mobility – Bauteilen ist derzeit praktisch nicht vorhanden. Dadurch gehen Potenziale in einer aufeinander abgestimmten Prozesskette verloren. Ein Beispiel: Stellen Sie sich vor, ein besonders dünnwandiges Bauteil wird gegossen, dann wärmebehandelt und spanend bearbeitet. Aufgrund des Gießprozesses und der Wärmebehandlung werden im Bauteil mechanische Eigenschaften wie zum Beispiel Eigenspannungen eingebracht. Diese können bei der Zerspanung freigesetzt werden, was sich in Verzug nach dem Ausspannen äußert. Sie können demnach die gesetzten Toleranzen nicht mehr erreichen und ein großer Teil der Wertschöpfung geht hiermit verloren.
Welches Know-how soll im Rahmen des Forschungsprojekts IDaP+ entstehen und wie kann es zur Lösung der geschilderten Problemstellung beitragen?
Tim Reeber: Im Projekt haben wir Experten aus allen Teilschritten sowie die Unterstützung eines breiten Projektausschusses aus der Industrie. Das Ziel ist, die Abhängigkeiten der sequenziellen Arbeitsschritte untereinander und Abstimmungspotenziale zu identifizieren. Dazu werden wir beispielsweise die noch getrennten Simulationsumgebungen aufeinander abstimmen, um aus den simulierten mechanischen Eigenschaften aus dem Guss- und der Wärmebehandlung eine Simulation des Zerspanungsprozesses durchzuführen. Damit sollen schon vor dem ersten Guss eines Bauteils Empfehlungen abgeleitet werden. Auch die im Prozess messbaren Prozessgrößen sowie deren digitalen Austauschmöglichkeiten werden betrachtet. Wenn wir diese Abhängigkeiten verstehen, können Empfehlungen an die Prozessführung bei Guss und Wärmebehandlung abgegeben werden. Aber auch die einzelnen Prozessschritte werden anhand unseres anspruchsvollen Analogiebauteils – ein Statorgehäuse für elektrische KfZ-Motoren – optimiert.

Abb. 1: Zielstellung Forschungsprojekt IDaP+ (Quelle: IfW der Universität Stuttgart)

Abb. 2: Analogiebauteil Forschungsprojekt IDaP+ (Quelle: utg der TU München)
Wer soll von den Ergebnissen profitieren und welcher konkrete Nutzen ergibt sich für Unternehmen?
Tim Reeber: Die Abstimmung dieser Prozesse ist bisher nicht erfolgt. Die Elektrifizierung des Antriebsstrangs und die daraus resultierenden Auswirkungen auf die Wertschöpfungskette nehmen deutlich Fahrt auf, insbesondere hinsichtlich der benötigten Prozesse und veränderten Anforderungen an Komponenten. Die kombinierte Betrachtung der Prozesse sowie ein geordneter Austausch von Daten bietet dabei Optimierungspotenziale, um die Produktivität weiter zu erhöhen und gezielte mechanische Eigenschaften zu erzeugen sowie um Hochlaufzeiten zu vermindern und Ausschuss zu vermeiden. Wir werden im Projekt die verschiedenen Akteure in den einzelnen Prozessen für die Möglichkeiten eines Austausches von relevanten Daten sensibilisieren und so neue Geschäftsmodelle und Dienstleistungsmöglichkeiten erschließen.
Profiteure sind demnach Firmen aus dem Bereich der Gieß-, Wärme- und Zerspanprozesse sowie Endanwender wie der Mobilitätssektor oder alle anderen Industriebereiche, in denen dünnwandige Gusskomponenten eingesetzt werden.
Wie sieht das weitere Vorgehen im Forschungsprojekt aus?
Tim Reeber: Wir finalisieren gerade die Analogiebauteilgeometrie und haben erste Simulationen zur Gießbarkeit und Porenfreiheit durchgeführt. Parallel bereiten wir die Simulationen und Experimente in der Wärmebehandlung und in der Zerspanung vor. Wir entwickeln sensorische Werkzeug- und Spannvorrichtungen sowie experimentelle Aufbauten zur Untersuchung des thermomechanischen Zustands während der spanenden Bearbeitung. Basierend auf einer ersten Gusscharge fangen wir an, unsere Simulationsmodelle zu kalibrieren und erste prozessübergreifende Regelungsmethodiken zu entwickeln.
Stimmen aus dem Projektbegleitenden Ausschuss:
Joshua Bissels, Leiter Innovation und Prozessentwicklung Pinter Guss:
Die konsequente Weiterentwicklung hin zu einer digitalen Gießerei wird bei uns im Unternehmen bereits seit einigen Jahren vorangetrieben. Auf Basis einer Betriebsdatenerfassung erfolgt derzeit die Umsetzung der Grundlagen für eine weitreichende Digitalisierung der Prozessdaten. Die Beteiligung am Projektbegleitenden Ausschuss des Projekts IDAP+ zielt darauf ab, sich frühzeitig mit den technologischen Möglichkeiten und Herausforderungen der prozessübergreifenden Verwendung von Produktionsdaten für Qualitätsverbesserung zu befassen. Das Projekt verspricht spannende Einblicke in die Zusammenhänge zwischen Schwankungen in den Prozessen der Gussteilherstellung und der Zerspanung. Im Rahmen des Forschungsprojektes streben wir eine aktive Beteiligung mit unserem Expertenwissen aus beiden Teilen der Produktionskette zur Herstellung fertig zerspanter Bauteile an.
Thomas Rumpf, Konstruktions- und Entwicklungsleitung Hermann Bilz Präzisionswerkzeuge:
Wir sind Hersteller von Präzisionswerkzeugen, die unter anderem auch in Elektromotorengehäusen zur Bearbeitung der großen Statorbohrung als auch der Befestigungsbohrungen eingesetzt werden. Als Mitglied des Projektbegleitenden Ausschusses IDaP+ sind wir an der systematischen Untersuchung der Zerspanungsprozesse und den sich daraus ergebenden Optimierungen unserer Werkzeuglösungen interessiert. Darüber hinaus wollen wir durch die Mitwirkung in diesem Forschungsprojekt unsere bestehenden Kontakte zu den beteiligten Hochschulinstituten pflegen und weiter ausbauen, um Forschungsthemen auch außerhalb dieses Projektes zu besprechen.
Über den Interviewpartner:
Tim Reeber, Mitarbeiter der Gruppe Prozessüberwachung und -regelung am Institut für Werkzeugmaschinen (IfW) der Universität Stuttgart
E-Mail: tim.reeber@ifw.uni-stuttgart.de
Über das Forschungsprojekt: Weitere Informationen finden Sie auf der Website des IfW der Universität Stuttgart » Kontakt: Über die FQS: Vorstellung der FQS Forschungsgemeinschaft Qualität e.V. Kontakt:
Informationen zum Forschungsprojekt und Kontaktdaten
Das IGF / CORNET-Vorhaben 369 EN der FQS – Forschungsgemeinschaft Qualität e.V. (FQS), August-Schanz-Straße 21A, 60433 Frankfurt am Main wurde im Rahmen des Programms zur Förderung der Industriellen Gemeinschaftsforschung (IGF) vom Bundesministerium für Wirtschaft und Klimaschutz (BMWK) aufgrund eines Beschlusses des Deutschen Bundestages gefördert.
ASMET | The Austrian Society for Metallurgy and Materials
Franz-Josef-Straße 18
8700 Leoben, Austria
asmet@asmet.at
Die FQS – Forschungsgemeinschaft Qualität e. V. (FQS) unterstützt seit 1989 die anwendungsorientierte Forschung rund um das Thema Qualität in Deutschland. Sie versteht sich selbst als Forschungsbereich der Deutschen Gesellschaft für Qualität e. V. (DGQ) und wird von ihr getragen. Die FQS fördert innovative Forschungsideen über das Instrument der Industriellen Gemeinschaftsforschung (IGF) und des Forschungsnetzwerks CORNET des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK). Ziele der Förderung sind möglichst anwendungsnahe Forschungsideen, die einen unmittelbaren Nutzen für die Wirtschaft, insbesondere für kleine und mittelständische Unternehmen (KMU), erbringen.
Wer ist die FQS Forschungsgemeinschaft Qualität e.V. und was tut sie? Lernen Sie im Video den Forschungsbereich der DGQ kennen und erfahren Sie von Dr. Christian Kellermann-Langhagen, wissenschaftlicher Geschäftsführer der FQS, wie die FQS arbeitet, welche Themen beforscht werden und wie sich Unternehmen in der FQS beteiligen und von den eingesetzten Förderprogrammen profitieren können.
FQS – Forschungsgemeinschaft Qualität e. V.
August-Schanz-Straße 21A
60433 Frankfurt am Main
infofqs@dgq.de
Revision der ISO 14001 – Comittee Draft der überarbeiteten Umweltmanagementsystemnorm in Arbeit
Nach der letzten Überarbeitung der ISO 14001 im Jahr 2015 arbeitet die Internationale Organisation für Normung (ISO) seit September 2023 erneut an einer Revision der Umweltmanagementsystemnorm. Im Juli fand in Bern ein einwöchiges Meeting zur Diskussion und Entscheidung über die zum Comittee Draft (CD) eingegangenen Kommentare statt.
Als ein Vertreter des DIN nahm Thomas Votsmeier, Leiter Normung DGQ, teil. „Es ist immer wieder eine Herausforderung, die große Anzahl und inhaltliche Vielfalt der Kommentare und das unterschiedliche Verständnis von Begriffen so zu handhaben, dass am Ende des Revjsionsprozesses das Verständnis und die Wirksamkeit der Normeninhalte verbessert werden, ohne große strukturelle Änderungen vorzunehmen.”
Aktuell in Klärung befindlich ist die Behandlung folgender Themen basierend auf den eingereichten Kommentaren: Die Verbindung des Umweltmanagementsystems mit der Organisationsstrategie, mit den Geschäftsprozessen, einem integrierten Managementsystemansatz, dem Bereich Change Management und dem Organisationskontext sowie dem Themenkomplex Risiken und Chancen. Auch die Verknüpfung mit anderen Normanforderungen ist zu prüfen. Gleiches gilt für die Berücksichtigung von Lebenszyklusperspektive, Klimawandelanpassung und die Bedeutung von Treibhausgasen sowie weiterer Umweltbedingungen. Weitere Punkte umfassen technische Themen wie die Verbindung mit ISO 14002 – Klima, Abfall, Kreislaufwirtschaft, Chemikalienmanagement –, externer Berichterstattung, Umweltverantwortung, Kultur, Mitarbeiterengagement, ausgelagerte Prozesse und Lieferkette.
Die Aufnahme der geänderten oder ergänzten Inhalte erfolgt im Wesentlichen über Erläuterungen im Annex, zum Teil über Anpassungen von Formulierungen im Anforderungstext. Die überarbeitete Norm wird Ende 2025 erwartet.
Scope der Überarbeitung
Bei der Überarbeitung handelt es sich um eine „kleine“ Revision. Primär geht es um die Anpassung an die Vorgaben der „harmonized structure“. Neue Anforderungen soll die ISO 14001:2025 nicht enthalten. Stattdessen steht eine Auseinandersetzung mit den von der ISO-Arbeitsgruppe AHG 4 empfohlenen Schlüsselthemen und eine Verbesserung der Anleitung in Anhang A im Fokus. Das bedeutet entweder eine Umformulierung der aktuellen Anforderungen und eine Aufnahme von Anmerkungen oder die Verwendung anderer Methoden, um die Anforderungen klarer verständlich zu machen, ohne neue Anforderungen hinzuzufügen. Vorliegende Interpretationen zur ISO 14001:2015 werden im Hinblick auf eine Übernahme in den Anhang ausgewertet.
Hintergrund der Revision
Neben der formalen Anpassung der Norm waren für die Revisions-Entscheidung die vielen Veränderungen von Bedeutung, die sich in den vergangenen Jahren im Umweltbereich ergeben haben und im Rahmen laufender Analysen von der eingesetzten Arbeitsgruppe AHG4 ermittelt wurden. Dazu zählen der Klimawandel, die Ressourcen-Knappheit, die Anwendung erneuerbarer Energien und nicht zuletzt auch die Anforderungen, die sich aus dem Wandel hin zu einer funktionierenden Kreislaufwirtschaft (Circular Economy) ergeben. Weitere wichtige Themen, die bei der Revision als Input berücksichtigt werden sollen, sind die Sustainable Development Goals (SDGs) der UN und der Green Deal der EU.
Nächste Schritte
Bis September werden die Kommentare zum CD von der zuständigen Arbeitsgruppe bearbeitet und in einem neuen Entwurf konsolidiert. Dazu finden noch weitere Remote Meetings statt.
Eine Entscheidung über die Art der Veröffentlichung – ob in Form eines Amendments als ergänzendes Dokument zur aktuellen Version der Norm oder eines neuen vollständigen Dokuments mit Integration der Änderungen – steht noch aus. Hintergrund ist, dass der Umfang der Änderungen das Handling dreier Dokumente (14001:2015, AMD1 und AMD2) erschwert.
Bei Vorliegen eines „Draft International Standard” (DIS) voraussichtlich im Herbst / Winter 2024 folgt dann die nächste Kommentierungsrunde mit anschließender Kommentarbehandlung. Unabhängig von der Revision der ISO 14001 werden derzeit Hilfestellungen zur Berücksichtigung der Umweltaspekte in der Normenreihe ISO 14002-1 ff als „technical topics“ weiterentwickelt.
Darüber hinaus erhalten Interessierte im Rahmen eines aktuellen Interviews, das die Leitung der für die Revision der ISO 14001 verantwortlichen Arbeitsgruppe TC 207 SC1 WG 29 mit dem Gastgeber des Meetings bei der Schweizerischen Vereinigung für Qualitäts- und Management-Systeme (SQS) in Bern geführt hat, einige Insights der Revision.
Die aktuellen Stände aller Normen des für Qualitätsmanagement zuständigen Gremiums ISO TC 176 können Interessierte aktuell hier finden.
Remote-Audit-Norm ISO 17012:2024 ist veröffentlicht
Internationaler Standard für Remote Audits: Mit der ISO 17012 hat die Internationale Organisation für Normung (ISO) kürzlich einen Leitfaden für die Durchführung von „Audits aus der Ferne“ herausgebracht. Im nächsten Schritt wird das Deutsche Institut für Normung (DIN) sich der Übersetzung der neuen Norm annehmen.
An der Erstellung der ISO 17012 war auch der DGQ-Fachkreis „Audit und Assessment“ beteiligt: Eine Anfang 2023 publizierte Fachkreis-Veröffentlichung diente in englischer Sprache dem zuständigen ISO-CASCO-Ausschuss zur Orientierung. Das DGQ-Impulspapier mit dem Titel „Das Remote Audit als zukunftsweisende Methodik für risikobasierte Audits“ gibt Interessierten einen fachlichen Überblick über die wichtigsten Rahmenbedingungen für eine erfolgreich durchgeführte Fern-Auditierung.
Neben der Fachkreis-Veröffentlichung war die DGQ auch über die Entsendung zweier Vertreter an der Erstellung der Norm beteiligt: Sowohl Thomas Votsmeier, Leitung Normung bei der DGQ, als auch Mathias Wernicke, Mitglied im Leitungsteam des DGQ-Fachkreises Audit und Assessment, wirkten im entsprechenden DIN-Normungsausschuss sowie direkt in der ISO-Arbeitsgruppe WG 61 mit.
„Mit der neuen Norm ist sichergestellt, dass Audits mit Remote-Methoden künftig als etabliertes Mittel zur Gewinnung von Erkenntnissen der Wirksamkeit in der Prozessanwendung zeitnah und authentisch erfolgen können“, sagt Fachkreisleiter Wernicke. „Aus der Sicht des Fachkreises empfehlen wir, sich den Nutzen dieser Methode mittels Pilotanwendungen zu erschließen und freuen uns über Feedback.“
Hintergrund: Methoden zur Fernbewertung
Die Nutzung von Fernmethoden in der Auditierung hat im Zuge der Corona-Pandemie verstärkte Bedeutung erfahren – sowohl für interne Audits als auch für externe. Im Herbst 2022 hatte die ISO sich des Themas angenommen und das Normungsprojekt offiziell gestartet. Der neugeschaffene Standard stellt eine Ergänzung zur ISO 19011 dar, dem Leitfaden zur Auditierung von Managementsystemen.
Das Impulspapier des Fachkreises steht DGQ-Mitgliedern über DGQplus zum Download zur Verfügung.
Zum Impulspapier »
Der neue VDA 6.3:2023 Fragenkatalog – praktische Betrachtungsweise

In einer zunehmend globalisierten Welt ist die Effizienz und Zuverlässigkeit der Lieferkette für Unternehmen von entscheidender Bedeutung. Angesichts der wachsenden Unsicherheit und der Vielzahl von Risiken, denen das produzierende Gewerbe ausgesetzt ist, gewinnen Prozessaudits hauptsächlich in der Lieferantenentwicklung eine immer größere Bedeutung.
In diesem Artikel diskutieren wir über die Neuerungen und praktischen Erfahrungen des neuen VDA 6.3: 2023 Fragenkataloges für Prozessaudits, des VDA QMC, der als einer der wichtigsten Standards für die Auditierung von Prozessen in der Automobilindustrie gilt.
Hintergrund und aktuelle Situation
Mit dem neuen Fragenkatalog für Prozessauditoren hat es der VDA QMC geschafft, dass Prozessaudits den aktuellen Anforderungen und Entwicklungen in der Industrie gerecht werden. Durch die Berücksichtigung von Aspekten wie dem Stand der Technik in der Produktionstechnologie, der gestiegenen Softwareanforderungen in Produkten und Prozessen und der immer wichtiger werdenden Stabilität in der Lieferkette wird der Fragenkatalog relevanter und effektiver für Unternehmen aller Branchen.
Hauptunterschiede zum VDA 6.3:2016
Der neue Fragenkatalog zeichnet sich durch einige wesentliche Änderungen gegenüber der Version 2016 aus:
- Stärkerer Fokus auf Risikomanagement:
Der Katalog legt nun ein höheres Augenmerk auf die Implementierung eines effektiven Risikomanagementsystems. - Einbeziehung von Softwareaspekten:
Software-bezogene Fragestellungen wurden in den Katalog integriert, um die Bedeutung von Software in der Automobilindustrie widerzuspiegeln. - Fokus auf Beschaffungsaktivitäten:
Die Aktivitäten aus der Beschaffung finden jetzt einen erhöhten Fokus bereits in der Planungsphase des Projektes. - Anpassung der Bewertung der Potenzialanalyse:
Die Bewertungssystematik der Potenzialanalyse wurde verschärft und die Fragen teilweise neu strukturiert, um eine klarere Bewertung der Verbesserungspotenziale zu ermöglichen. - Neuzuordnung der Stern-Fragen:
Die Stern-Fragen (mit “*”, gekennzeichnet) wurden teilweise neu zugeordnet, um die Relevanz für verschiedene Unternehmensbereiche zu verbessern.
Auswirkungen auf die Auditpraxis
Die Einführung des neuen VDA 6.3:2023-Fragenkatalogs markiert einen bedeutenden Wendepunkt in der Auditpraxis, der sich in vielfältigen Veränderungen niederschlägt. Diejenigen, die täglich mit Audits zu tun haben, werden diese Veränderungen spüren.
Ein erhöhter Zeitaufwand für die Vorbereitung ist eine der ersten sichtbaren Auswirkungen. Auditoren sind nun gefordert, sich intensiv mit den neuen Inhalten und der veränderten Struktur des Katalogs auseinanderzusetzen. Eine gründliche Einarbeitung ist unerlässlich und führt zwangsläufig zu einem gesteigerten Zeitaufwand für die Vorbereitung auf ein Audit. Zumindest in der ersten Zeit der Anwendung des neuen Kataloges.
Die Anpassung der Auditmethoden ist eine weitere Herausforderung, der sich Auditoren stellen müssen. Die neuen Fragestellungen im Katalog erfordern teilweise eine Überarbeitung der bisherigen Methoden und Werkzeuge. Themen wie Risikomanagement und Softwareentwicklung rücken verstärkt in den Fokus und verlangen nach entsprechenden Anpassungen, um die geforderten Inhalte umfassend abdecken zu können.
Besonders hervorzuheben ist die Notwendigkeit tieferer Kenntnisse im Bereich Software. Der neue Katalog integriert nun auch softwarebezogene Fragestellungen, die von den Auditoren ein grundlegendes Verständnis von Softwareentwicklungsprozessen und -risiken erfordern. Dies stellt für einige Auditoren eine neue Herausforderung dar. Sie müssen sich in diesem Bereich weiterbilden, um die Fragen kompetent beantworten zu können.
Erste Erfahrungen mit dem neuen Katalog
Aus den ersten Erfahrungen, die mit dem neuen VDA 6.3 Katalog gemacht wurden, lassen sich folgende Beobachtungen festhalten:
Das Feedback der auditierten Unternehmen ist größtenteils positiv. Sie erkennen den Wert der vertieften Betrachtung der bereits erwähnten Themen im neuen Katalog. Diese Erweiterungen werden als bedeutender Schritt zur ganzheitlicheren Bewertung der Unternehmensprozesse wahrgenommen.
Allerdings gibt es auch Herausforderungen, insbesondere im Bereich der Software-Thematik. Für einige Unternehmen stellen die softwarebezogenen Fragen noch eine Hürde dar, da hier oft ein ausreichendes Know-how fehlt. Dies unterstreicht die Notwendigkeit, verstärkt in die Weiterbildung auf diesem Gebiet zu investieren, um den neuen Anforderungen gerecht zu werden.
Positive Rückmeldung erhielt ich zur verstärkten Betrachtungsweise im Bereich Beschaffung. Anstatt erst auf eingetretene Probleme zu reagieren, liegt der Fokus im Fragenkatalog beim proaktiven Risikomanagement auf der Identifizierung und Bewertung potenzieller Risiken bei Lieferanten und Unterlieferanten bereits in der Frühphase eines Projekts. Dies ermöglicht es, präventive Maßnahmen zu ergreifen und so die negativen Auswirkungen von Lieferkettenunterbrechungen, Verzögerungen oder Qualitätsmängeln zu minimieren.
Insgesamt spiegeln die ersten Erfahrungen mit dem neuen Katalog eine Mischung aus Anerkennung für die Weiterentwicklung und Bereitschaft zur Überwindung von Herausforderungen wider. Die Erkenntnisse aus diesen ersten Audits dienen als wichtige Grundlage für die Optimierung und Feinabstimmung des Katalogs in der Zukunft.
Fazit
Der neue VDA 6.3:2023 Fragenkatalog stellt eine sinnvolle Weiterentwicklung des bewährten Standards dar. Die stärkere Fokussierung auf Risikomanagement, die Einbeziehung von Softwareaspekten und Beschaffungsaktivitäten und die verschärfte Bewertungssystematik der Potenzialanalyse tragen zu einer umfassenderen und zielgerichteteren Bewertung von Unternehmensprozessen in der Gegenwart und Zukunft bei.
Über den Autor:
Stefan Peintner ist ein international erfahrener Berater und betreut weltweit strategisch relevante Start-Up-Projekte im Bereich der Elektromobilität. Darüber hinaus unterstützt er als Executive Coach mittelständische Organisationen in Organisationsentwicklungsprojekten und begleitet diese im nationalen und internationalen Standortaufbau.
Zusätzliche Arbeitsschritte erfordern neuen Zeitplan für die ISO 9001:2025/26
Die Revision der ISO 9001 verzögert sich: Im nächsten Schritt wird zunächst ein zusätzlicher Entwurf – ein sogenannter Commitee Draft 2 (CD2) – erstellt. Voraussichtlich kommt es dadurch erst 2026 zur Veröffentlichung der überarbeiteten Qualitätsmanagementsystemnorm anstatt, wie bisher geplant, Ende 2025. Das ist eines der Ergebnisse der letzten ISO-Meetings, die im Juli zum Teil in Detroit, zum Teil online stattfanden.
Bei den Treffen gingen die Mitglieder der für die Revision zuständigen Arbeitsgruppe des ISO TC 176 den aktuellen Commitee Draft (CD) durch und begannen damit, die Kommentare zu bewerten und einzuarbeiten. Im Nachgang fiel die Entscheidung, dass die ISO 9001 einen zusätzlichen Commitee Draft (CD2) durchlaufen wird.
„Der aktuelle Stand des Dokuments ist noch nicht reif für einen Draft International Standard (DIS)”, beurteilt Thomas Votsmeier, Leiter Normung DGQ und Mitglied des ISO-Gremiums sowie fachliche Leitung des entsprechenden Spiegelgremiums bei DIN, die Situation. „Aufgrund von einigen derzeit noch ungeklärten strukturellen Entscheidungen, einer großen Zahl von noch nicht bearbeiteten Kommentaren und dem Fehlen eines abgestimmten erläuternden Anhangs haben wir uns deutlich dafür stark gemacht, einen CD2 zu erstellen. Die Entscheidung der SC2 Leitung wird von uns positiv und zielführend bewertet.“
In Folgeterminen im September wird über noch nicht abschließend beurteilte Kommentare und die Struktur des überarbeiteten Anhangs entschieden. Ein aktualisierter Zeitplan mit Beschreibung der weiteren Vorgehensweise wird ebenfalls dann vorgelegt.
ISO TC 176 hatte die vorzeitige Revision der Qualitätsmanagementsystemnorm im August 2023 angekündigt. Mit der Überarbeitung werden primär die Struktur der Norm an die „harmonized structure“ für Managementsystemnormen angepasst sowie Erläuterungen zu erklärungsbedürftigen Anforderungen und Prinzipien erarbeitet. Nach derzeitigem Stand kommen auf Organisationen neue bzw. geänderte Anforderungen zu folgenden Themen zu: Ethik und Integrität, Vision, Mission und Werte, Qualitätskultur sowie Umgang mit Chancen und Risiken.
Einführung in den EU AI Act: Über die Regulierung für Künstliche Intelligenz

In der heutigen digitalen Welt schreiten die Entwicklung und Nutzung von Künstlicher Intelligenz (KI) rasant voran. Um den Einsatz dieser Technologie zu regulieren und sicherzustellen, dass sie verantwortungsvoll und sicher genutzt wird, hat die Europäische Union den EU AI Act eingeführt.
Dieser Artikel gibt einen umfassenden Überblick über die wichtigsten Aspekte des EU AI Act und beleuchtet spezifisch die Definition von KI-Systemen, die Klassifizierung von allgemeinen KI-Modellen und hochriskanten KI-Systemen sowie deren Auswirkungen.
Definition und Merkmale von KI-Systemen
Ein KI-System ist ein maschinenbasiertes System, das auf algorithmischen Prozessen und Berechnungen beruht. Es kann mit unterschiedlichen Autonomiegraden arbeiten, von vollständig autonomen Systemen bis hin zu solchen, die menschliche Aufsicht erfordern. Ein entscheidendes Merkmal von KI-Systemen ist ihre Fähigkeit zur Anpassung nach der Bereitstellung, was bedeutet, dass sie aus neuen Daten oder Erfahrungen lernen und ihr Verhalten entsprechend anpassen können. KI-Systeme haben spezifische Ziele, die entweder explizit festgelegt oder implizit aus den Daten abgeleitet werden. Sie nehmen verschiedene Eingaben entgegen, ziehen Schlussfolgerungen daraus und generieren entsprechende Ausgaben, die sowohl physische als auch virtuelle Umgebungen beeinflussen können. Diese Systeme können Empfehlungen aussprechen, Inhalte generieren, Entscheidungen treffen und sogar physische Geräte steuern, wie beispielsweise Roboter oder Smart-Home-Systeme.
Generische KI-Modelle
Generische KI-Modelle zeichnen sich durch ihre breite Anwendbarkeit und Vielseitigkeit aus. Diese Modelle werden mit großen Datenmengen trainiert und nutzen selbstüberwachtes Lernen, um effektiv und autonom zu lernen. Sie sind in der Lage, eine Vielzahl von Aufgaben in unterschiedlichen Bereichen zu bewältigen und können in zahlreiche Anwendungen integriert werden. Ein generisches KI-Modell ist nicht auf eine spezifische Aufgabe spezialisiert, sondern kann verschiedene Aufgaben ausführen, von der Sprachverarbeitung über die Bilderkennung bis hin zu komplexen Entscheidungsprozessen. Diese Modelle sind unabhängig davon, wie sie auf dem Markt platziert werden, vielseitig einsetzbar. Generische KI-Modelle werden mit umfangreichen Datensätzen trainiert, um eine Vielzahl von Mustern und Strukturen zu lernen.
Modelle in der Forschungs- und Entwicklungsphase werden jedoch nicht als generische KI-Modelle betrachtet. Generische KI-Modelle finden in vielen Bereichen Anwendung. Ein bekanntes Beispiel ist die Sprachverarbeitung, bei der Modelle wie GPT (Generative Pre-trained Transformers) zur Erstellung von Texten verwendet werden. Diese Modelle können auch in der Bilderkennung eingesetzt werden, um Objekte in Bildern zu identifizieren, oder in der Entscheidungsfindung, um komplexe Probleme zu lösen.
Die EU AI Act legt spezifische Anforderungen an generische KI-Modelle fest, um deren Sicherheit, Transparenz und Verantwortlichkeit zu gewährleisten. Zu diesen Anforderungen gehören:
- Technische Dokumentation:
Anbieter müssen umfassende technische Dokumentationen erstellen, die Design-Spezifikationen, Trainings-, Test- und Validierungsprozesse, die verwendeten Daten sowie die Ressourcen und den Energieverbrauch beim Training umfassen. - Informationen für nachgelagerte Anbieter:
Anbieter müssen Informationen und Dokumentationen an nachgelagerte Anbieter weitergeben, die das Modell in ihre Systeme integrieren. Dies hilft ihnen, die Fähigkeiten und Grenzen des Modells zu verstehen und regulatorischen Verpflichtungen nachzukommen. - Einhaltung des Urheberrechts:
Es ist essenziell, das Urheberrecht zu respektieren und sicherzustellen, dass alle für Training und Entwicklung verwendeten Inhalte legal bezogen werden. - Zusammenfassung der Trainingsdaten:
Anbieter sollten eine Zusammenfassung der für die Entwicklung des Modells verwendeten Trainingsdaten bereitstellen.
Für Modelle, die systemische Risiken bergen, gelten zusätzliche Anforderungen. Systemische Risiken beziehen sich auf die potenziellen weitreichenden und vernetzten Auswirkungen, die ein KI-Modell auf verschiedene Sektoren und gesellschaftliche Bereiche haben kann. Diese Risiken können sich durch die Interaktion und Abhängigkeit zwischen verschiedenen Systemen und Akteuren verstärken, was zu weitreichenden Störungen oder Schäden führen kann.
Zu den zusätzlichen Anforderungen gehören die Durchführung von Modellevaluierungen nach standardisierten Protokollen, die Bewertung und Minderung potenzieller systemischer Risiken, die Nachverfolgung und Meldung von ernsthaften Vorfällen sowie die Gewährleistung eines angemessenen Niveaus an Cybersicherheit. Zudem müssen Anbieter zusätzliche technische Informationen bereitstellen, einschließlich der Strategie und Ergebnisse der Risikoevaluation, “Red-Teaming”-Bemühungen und detaillierter Systemarchitektur.
Hochrisiko-KI-Systeme
Hochrisiko-KI-Systeme sind solche, die erhebliche Auswirkungen auf die Sicherheit oder die Grundrechte von Individuen haben können. Diese Systeme unterliegen strengen regulatorischen Anforderungen, um sicherzustellen, dass sie sicher, transparent und verantwortungsvoll betrieben werden. Zu den hochriskanten Anwendungen gehören KI-Systeme, die in kritischen Infrastrukturen, im Gesundheitswesen, in der öffentlichen Sicherheit und in der Verwaltung eingesetzt werden. Diese Systeme müssen umfangreiche Anforderungen erfüllen, darunter Risikomanagement, Datenqualität und -verwaltung, Transparenz und menschliche Aufsicht:
- Kritische Infrastrukturen:
Systeme, die in Bereichen wie Energieversorgung, Verkehr und Wasserwirtschaft eingesetzt werden. - Gesundheitswesen:
KI-Systeme, die in der Diagnose, Behandlung und Überwachung von Patienten verwendet werden. - Öffentliche Sicherheit:
Anwendungen in der Strafverfolgung, Überwachung und Notfallreaktion. - Verwaltung und Justiz:
Systeme, die in der Verwaltung von öffentlichen Diensten und im Justizwesen eingesetzt werden.
Der EU AI Act legt fest, dass alle hochriskanten KI-Systeme vor ihrer Markteinführung und während ihres gesamten Lebenszyklus bewertet werden müssen. Nutzer haben das Recht, Beschwerden über diese Systeme bei den zuständigen nationalen Behörden einzureichen:
- Risikomanagement:
Identifizierung und Minderung potenzieller Risiken. - Datenqualität und -verwaltung:
Verwendung von hochwertigen, genauen und unvoreingenommenen Daten. - Transparenz:
Bereitstellung klarer Informationen über die Funktionsweise des Systems. - Menschliche Aufsicht:
Implementierung von Mechanismen für menschliche Eingriffe und Überwachung. - Robustheit und Sicherheit:
Sicherstellung der Widerstandsfähigkeit gegen Angriffe und zuverlässiger Betrieb unter verschiedenen Bedingungen.
Ziele und Meilensteine des EU AI Act
Der EU AI Act zielt darauf ab, einen einheitlichen Rechtsrahmen für KI-Systeme innerhalb der Europäischen Union zu schaffen. Die Hauptziele umfassen:
- Verbesserung des Binnenmarkts:
Durch einen einheitlichen Rechtsrahmen wird die Konsistenz und Klarheit für die Entwicklung und den Einsatz von KI-Systemen gewährleistet. - Förderung von Innovation:
Der Act unterstützt die Entwicklung und Integration von KI in verschiedenen Sektoren, um technologische Fortschritte und wirtschaftliches Wachstum zu fördern. - Schutz von Gesundheit, Sicherheit und Grundrechten:
Der Act stellt sicher, dass KI-Systeme in einer Weise entwickelt und genutzt werden, die die Menschenwürde und die Rechte respektiert und fördert. - Freier Verkehr von KI-basierten Waren und Dienstleistungen:
Der Act verhindert unnötige Beschränkungen für die Entwicklung, Vermarktung und Nutzung von KI-Systemen in den Mitgliedstaaten.
Ein weiteres Ziel des EU AI Act ist die Verhinderung schädlicher Auswirkungen von KI-Systemen auf Gesundheit, Sicherheit und Grundrechte. Darüber hinaus unterstützt der Act die Schaffung eines Umfelds, in dem KI sicher in verschiedene Sektoren integriert werden kann. Ein weiteres zentrales Prinzip ist die Förderung des Vertrauens der Öffentlichkeit in die Nutzung von KI-Systemen durch transparente und verantwortungsvolle Praktiken.
Der EU AI Act wird in verschiedenen Phasen umgesetzt, wobei wichtige Termine und Anforderungen wie folgt festgelegt sind:
- 6 Monate nach Inkrafttreten:
Verbotene KI-Praktiken müssen adressiert werden, und es wird ein Fokus auf die Steigerung der KI-Kompetenz gelegt. - 12 Monate nach Inkrafttreten:
Anforderungen für generische KI-Modelle müssen erfüllt werden. - 24 Monate nach Inkrafttreten:
Anforderungen für hochriskante KI-Systeme für spezifische Anwendungen müssen erfüllt werden. - 36 Monate nach Inkrafttreten:
Anforderungen für hochriskante KI-Systeme für weitere Anwendungen müssen erfüllt werden.
Rolle von Standards
Standards spielen eine zentrale Rolle im Rahmen des EU AI Act, indem sie klare und einheitliche Richtlinien für die Entwicklung, Implementierung und Nutzung von KI-Systemen festlegen. Diese Standards helfen dabei, die Sicherheit, Transparenz und Vertrauenswürdigkeit von KI-Anwendungen zu gewährleisten, indem sie Best Practices und technische Spezifikationen definieren.
Durch die Einhaltung international anerkannter Standards können Unternehmen sicherstellen, dass ihre KI-Systeme den regulatorischen Anforderungen entsprechen und gleichzeitig die Interoperabilität und Kompatibilität zwischen verschiedenen Systemen und Anwendungen fördern. Dies erleichtert nicht nur die Integration von KI-Technologien in verschiedene Sektoren, sondern trägt auch zur Vermeidung von Fragmentierung innerhalb des Binnenmarkts bei.
Harmonisierte Standards stellen den besten Ansatz zur Gewährleistung der Konformität mit dem EU AI Act dar. Diese technischen Spezifikationen werden von anerkannten Standardisierungsorganisationen entwickelt und sind darauf ausgelegt, die Anforderungen der Verordnung zu erfüllen. Die Einhaltung harmonisierter Standards bietet eine Vermutung der Konformität, wodurch die Belastung für Anbieter und Anwender von KI-Systemen reduziert wird. Durch die Einhaltung dieser Standards können KI-Entwickler sicherstellen, dass ihre Systeme sicher, zuverlässig und transparent sind, was das Vertrauen der Nutzer und Stakeholder fördert. Harmonisierte Standards fördern auch die Innovation, indem sie klare Richtlinien bieten und regulatorische Unsicherheiten verringern.
Schlussfolgerung
Der EU AI Act stellt einen bedeutenden Schritt in Richtung einer verantwortungsvollen und sicheren Nutzung von Künstlicher Intelligenz dar. Durch die Festlegung klarer Regeln und Anforderungen für die Entwicklung und den Einsatz von KI-Systemen soll sichergestellt werden, dass diese Technologien auf eine Weise genutzt werden, die sowohl für die Nutzer als auch für die Gesellschaft als Ganzes von Vorteil ist.
Der Act wird dazu beitragen, das Vertrauen in KI-Systeme zu stärken und die Akzeptanz von KI in der Gesellschaft zu fördern. Die umfangreichen Vorschriften und die detaillierte Klassifizierung von KI-Systemen und -Modellen bieten einen robusten Rahmen, der die Sicherheit und Transparenz von KI-Anwendungen gewährleistet. Dies ist besonders wichtig in einer Zeit, in der KI immer mehr in kritischen Bereichen eingesetzt wird und erhebliche Auswirkungen auf das tägliche Leben der Menschen haben kann.
Jedoch gibt es auch Herausforderungen: Die Entwicklung und Implementierung harmonisierter Standards erfordert kontinuierliche Zusammenarbeit und Konsensfindung unter einer Vielzahl von Stakeholdern. Zudem müssen Lücken geschlossen werden. Die Komplexität der Funktionalität und die Interaktionen von KI-Systemen mit ihrer Umwelt machen es erforderlich, dass alle relevanten Aspekte adäquat berücksichtigt werden. Trotz der bestehenden Herausforderungen ist der EU AI Act ein entscheidender Schritt, um ein harmonisiertes, sicheres und förderliches Umfeld für die Entwicklung und Nutzung von KI-Technologien zu schaffen. Durch die Einhaltung der im EU AI Act festgelegten Standards können Unternehmen sicherstellen, dass ihre KI-Systeme nicht nur innovativ, sondern auch sicher und ethisch vertretbar sind. Dies kann dazu beitragen, das Potenzial von KI voll auszuschöpfen und gleichzeitig die Risiken zu minimieren, die mit ihrer Nutzung verbunden sind.
Über den Autor:
Dr. Wilhelm Griga ist Senior Quality Manager bei der Siemens AG, Digital Industries mit dem Fokus Organisationsentwicklung, digitale Transformation, agiles Managementsystem, nachhaltiges Non-Conformance Management und modernes Audit Management. Er verfügt über funktionsübergreifende, internationale Personalführungserfahrung und ist Hochschuldozent für Business Excellence.
EU KI-Gesetz: Neue Regelungen für sichere und gesetzeskonforme KI-Produkte

Von Predictive Maintenance und Kameraprüfungen bis hin zu intelligenten Konsumgütern – KI spielt eine entscheidende Rolle in der modernen Industrie. Das kürzlich verabschiedete EU KI-Gesetz bringt neue Anforderungen und Regulierungen, die erhebliche Auswirkungen auf die Entwicklung und den Einsatz von KI in Europa haben werden. Dieser Artikel erläutert grundsätzliche Begriffe der EU KI-Gesetzgebung und erklärt, worauf Unternehmen bei der Einführung neuer KI-Lösungen achten müssen.
Das KI-Gesetz definiert ein KI-System als „ein maschinengestütztes System, das für einen in unterschiedlichem Grade autonomen Betrieb ausgelegt ist und das nach seiner Betriebsaufnahme anpassungsfähig sein kann und das aus den erhaltenen Eingaben für explizite oder implizite Ziele ableitet, wie Ausgaben wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die physische oder virtuelle Umgebungen beeinflussen können.“
Diese Definition von KI-Systemen ist deutlich breiter als der allgemeine Sprachgebrauch. Wenn heute von KI-Systemen die Rede ist, dann meist im Zusammenhang mit Chatbots wie ChatGPT oder Gemini. Tatsächlich sind in der Definition des KI-Gesetzes auch Systeme eingeschlossen, die heute bereits zum Alltag gehören, wie Empfehlungsalgorithmen bei YouTube oder Amazon. Auch Übersetzungsprogramme können in diese Kategorie fallen.
Das EU KI-Gesetz wurde entwickelt, um die sichere und ethische Nutzung von KI in Europa zu gewährleisten. Er schafft ein einheitliches Regelwerk, das Transparenz, Verantwortlichkeit und Sicherheit fördern soll. Ein gutes Beispiel für den Einsatz von KI-Systemen in der Industrie sind Predictive Maintenance-Anwendungen , zum Beispiel bei der Wartung von Windturbinen. Hierbei werden Maschinen und Anlagen kontinuierlich überwacht, um potenzielle Ausfälle frühzeitig zu erkennen und präventive Wartungsmaßnahmen durchzuführen. Diese prädiktiven Systeme nutzen große Mengen an Sensordaten und fortschrittliche Algorithmen, um Muster zu erkennen und Vorhersagen zu treffen.
Ein weiteres Beispiel sind automatische Kameraprüfungen. Klassische Kameraprüfungen arbeiten mit Helligkeits- oder Kantenerkennungen. Inzwischen setzen immer mehr Hersteller auf KI-Methoden, um Kameraprüfungen anhand von Beispielbildern zu trainieren. Auf diesem Weg lassen sich auch aufwändige Prüfungen realisieren, die ansonsten nur mit Hilfe von Werkern umsetzbar wären.
Das EU KI-Gesetz folgt einem risikobasierten Ansatz. Insbesondere wenn Sicherheitsaspekte oder die Interessen von natürlichen Personen berührt sind, müssen Anbieter von solchen KI-Systemen eine Vielzahl von Anforderungen einhalten. Solche Systeme fallen in der Regel in den Hochrisikobereich. In unserem letzten Artikel der Serie haben wir die grundsätzlichen Anforderungen an Hochrisiko-Systeme aufgelistet.
Prinzipien des KI-Gesetz zur Absicherung von KI-Systemen
Das KI-Gesetz folgt bei der Absicherung von KI-Systemen folgenden Prinzipien:
Transparenz:
KI-Systeme müssen so gestaltet sein, dass ihre Entscheidungen nachvollziehbar sind. Nutzer sollten erkennen, dass sie mit einem KI-System interagieren. Entscheidungen eines KI-Systems müssen im Zweifelsfall nachvollziehbar sein.
Sicherheit:
KI-Produkte müssen robuste Sicherheitsmaßnahmen enthalten, um Missbrauch und unerwünschte Auswirkungen zu verhindern.
Fairness und Datenschutz:
Der Schutz personenbezogener Daten muss gewährleistet sein. Entscheidungen und Empfehlungen müssen frei von ungerechtfertigter Diskriminierung sein. Diese Anforderungen sind bereits bei der Entwicklung des Systems zu berücksichtigen.
Überwachung und Verantwortlichkeit:
Es müssen Mechanismen zur kontinuierlichen Überwachung und Bewertung der KI-Systeme etabliert werden. Zudem ist klar festzulegen, wer die Verantwortung für das Funktionieren und die Entscheidungen der KI trägt.
Diese Prinzipen decken sich in großen Teilen mit denen vorangegangener Veröffentlichungen, wie dem KI-Prüfkatalog des Fraunhofer IAIS Instituts.
Herausforderungen bei der Absicherung von KI-Systemen
Eine Herausforderung bei der Absicherung von KI-Systemen besteht in der Tatsache, dass diese Systeme in der Regel lernfähig sind.
Traditionell produzierte Produkte durchlaufen in der Regel einen linearen Entwicklungsprozess: Design, Prototyping, Produktion, Qualitätskontrolle und schließlich Markteinführung. Diese traditionellen Produkte sind in ihrer Funktion festgelegt und ändern sich nicht wesentlich nach dem Verkauf. Auf lernfähige KI-Systeme trifft dies nicht zu. Sie können sich in ihrer Funktion durch das Erlernen neuer Informationen nach der Markteinführung noch verändern. Aus diesem Grund umfasst der Entwicklungsprozess von KI-Produkten nicht nur das ursprüngliche Design und die Produktion, sondern auch die Implementierung von Datenmanagementstrategien, die Entwicklung und das Training von Modellen sowie fortlaufende Überwachung und Updates nach der Markteinführung.
Für die praktische Umsetzung der gesetzlichen Vorgaben hat die EU der europäischen Normenorganisation Cen/Cenelec einen Normungsauftrag erteilt. In der Arbeitsgruppe JTC21 – Artificial Intelligence sind inzwischen 21 Normen und Richtlinen in Erstellung, die die unterschiedlichen Aspekte der EU KI-Gesetzgebung betreffen. Diese Normen regeln zum Beispiel das Qualitätsmodell für künstliche Intelligenz und beschreiben Methoden zur Vermeidung von ungewollten statistischen Verzerrungen (Bias) in Trainingsdatensätzen.
Unternehmen, die aktuell bereits KI in ihren Produkten einsetzen, sollten sich darauf einstellen, dass eine Vielzahl von Anforderungen in kurzer Zeit umgesetzt werden müssen. Ein Beispiel hierfür sind die Data Governance Anforderungen (CLC/TR 18115), die nach jetziger Planung am 29. August 2024 verabschiedet werden. Die zugehörigen gesetzlichen Anforderungen werden bereits im Mai 2025 verpflichtend für alle Systeme der mittleren und hohen Risikokategorie (siehe Abb. 1). Diese beiden Kategorien umfassen eine Vielzahl von Systemen von Chatbots über Empfehlungssysteme bis hin zu sicherheitskritischen Systemen (zum Beispiel in Medizin, Verkehr und Bildung).
Schritte zur Einführung von KI-Systemen gemäß EU-KI-Gesetzgebung
Das KI-Gesetz legt einen Großteil der Verantwortung für Absicherung zur Markteinführung und sicheren Betrieb in die Hände der Betreiber der KI-Systeme. Abbildung 1 zeigt die wichtigen Schritte zu Einführung von KI-Systemen gemäß EU KI-Gesetzgebung. Unternehmen, die KI einsetzen, müssen die eingesetzten KI-Systeme erfassen und die Risikokategorie selbstständig bestimmen. Unser KI-Selfassessment kann Sie bei dieser Aufgabe unterstützen. Eine nähere Beschreibung der Risikokategorien befindet sich im vorangegangenen Beitrag dieser Serie.
KI-Systeme, die in der EU zulässig sind, fallen in die Kategorien geringes Risiko (keine zusätzlichen gesetzlichen Anforderungen aus dem KI-Gesetz), mittleres Risiko (Transparenz- und Data-Governanceanforderungen) und Hochrisiko-Systeme.

Abb. 1: Einführung von KI-Systemen nach EU KI-Gesetz
Systeme mit mittlerem und geringem Risiko werden von den Unternehmen in Eigenregie überwacht. Für Hochrisiko-Systeme existieren weitere Anforderungen aus dem KI-Gesetz. Diese Anforderungen treten ab Mai 2026 in Kraft und werden nach Abschluss einer 12-monatigen Übergangsfrist im Mai 2027 verpflichtend. Bevor diese Hochrisiko-KI-Systeme in der EU in Verkehr gebracht werden dürfen, muss ein unabhängiges 3rd Party-Assessment durchgeführt werden. Voraussetzung für ein erfolgreiches 3rd Party-Assessment sind ein bestehendes Managementsystem und ein dazugehöriges Risikomanagement. In diesem Zusammenhang wird auch die ISO 42001:2023 als Systemnorm für künstliche Intelligenz an Bedeutung gewinnen. Sie ist zwar nicht explizit im Gesetzestext benannt, bietet aber eine gute Basis für die Entwicklung moderner KI-Systeme.
Nach bestandenem 3rd Party-Assessment muss die Hochrisiko-Anwendung in einer zentralen EU-Datenbank registriert werden. Auf dieser Basis kann das Unternehmen im Anschluss eine CE-Kennzeichnung erstellen und das Produkt in den Umlauf bringen.
Ausblick
Zusammenfassend kann gesagt werden, dass das EU KI-Gesetz einen bedeutenden Schritt zur Regulierung und Sicherstellung sicherer und ethischer KI-Systeme darstellt. Für Unternehmen bedeutet dies, dass sie ihre KI-Prozesse und -Produkte genau prüfen und an die neuen Anforderungen anpassen müssen. Der erste Schritt besteht in einer Bewertung der Risikokategorie aller bestehenden KI-Anwendungen, die bereits im Unternehmen oder in Produkten im Einsatz sind. Die Definition von KI-Systemen aus dem KI-Gesetz legt fest welche Systeme hierbei betrachtet werden müssen. Im zweiten Schritt muss die Einhaltung der relevanten Anforderungen sichergestellt werden. Hierbei sind insbesondere die Meilensteine für die Einhaltung der Transparenz- und Data Governance-Anforderungen ab Mai 2025 und das Ende der Übergangsfrist für Hochrisiko-Systeme im Mai 2027 zu beachten.
Lesen Sie mehr zum Thema “Künstliche Intelligenz in der Qualität” in den folgenden Fachbeiträgen:
- Teil 1: Künstliche Intelligenz in der Qualität – Bestehendes Know-how effektiv nutzen – zum Beitrag »
- Teil 2: Künstliche Intelligenz in der Qualität – Welche Qualifikationen werden benötigt? – zum Beitrag »
- Teil 3: Künstliche Intelligenz in der Qualität – Praktische Einführung durch iteratives Vorgehen – zum Beitrag »
Über die Autoren:
Dipl.-Ing. Waldemar Fahrenbruch ist Head of Q-Technology Division E-Mobility bei der ZF Friedrichshafen AG. Er ist verantwortlich für die Qualitätskostensenkung bei gleichzeitiger Optimierung von Qualitätskonzepten in den Werken der Division E (TCU, Power Electronics und E-Motoren Fertigung) durch Methodenkompetenz der Qualität, künstlicher Intelligenz und digitaler Transformation.
Dr.-Ing. Stefan Prorok ist Geschäftsführer der Prophet Analytics GmbH und DGQ-Trainer für Qualitätssicherung und Künstliche Intelligenz. Prophet Analytics unterstützt Unternehmen in allen Phasen Ihrer KI-Umsetzung mit Trainings- und Beratungsangeboten. Kontakt: ki@prophet-analytics.de
Das Lieferkettensorgfaltspflichtengesetz – mögliche Auswirkungen auf Qualität und Reputation

Das Lieferkettensorgfaltspflichtengesetz (LkSG) schreibt Unternehmen seit dem 1. Januar 2024 ab 1.000 Beschäftigten bestimmte Sorgfaltspflichten vor, um Menschenrechtsverletzungen und Umweltschäden in ihren Lieferketten zu verhindern. Es regelt die unternehmerische Verantwortung für die Einhaltung von Menschenrechten in globalen Lieferketten, wie zum Beispiel der Schutz vor Kinderarbeit, das Recht auf faire Löhne und der Schutz der Umwelt.
Die Zielsetzung des LkSG ist eindeutig. Aber wirkt sich dieses Gesetz vielleicht positiv auf das Thema Qualität aus? Wenn Produkte und Dienstleistungen unter Einhaltung bestimmter Mindeststandards erbracht beziehungsweise produziert werden, könnte sich dies positiv auf deren Qualität auswirken. Dagegen spricht allerdings, dass der mit dem LkSG verbundene finanzielle und faktische Aufwand dazu führen kann, dass bei der Qualität eingespart wird. Insofern lässt sich die Frage an dieser Stelle nicht eindeutig beantworten. Wenn an der Qualität in der Lieferkette nicht gespart wird, stellt sich zudem die weitergehende Frage, wer den höheren Preis zahlt – die Lieferanten und/oder die Kunden?
Gesetzliche Anforderungen des Lieferkettensorgfaltspflichtengesetz
Betrachten wir einmal die beiden wesentlichen, gesetzlichen Anforderungen des LkSG:
Erstens die Risikoanalyse und zweitens die Berichte an Vorstand oder Geschäftsführung und an das Bundesamt für Wirtschaft und Ausfuhrkontrolle. Es wird deutlich, dass das Ergebnis neben höherer Transparenz der Lieferketten auch ein höherer qualitativer, aber insbesondere sicherer Standard ist. Der mit diesen LkSG-Kernmaßnahmen einhergehende finanzielle und faktische Aufwand ist zwar für jedes Unternehmen, abhängig von der jeweiligen Größe, unterschiedlich hoch. Aus neutraler und gesellschaftlicher Sicht ist es jedoch wichtig zu eruieren, unter welchen Bedingungen Dienstleistungen und Produkte erbracht und hergestellt werden, damit insbesondere Menschenrechte und Umweltbelange adäquat berücksichtigt und sichergestellt werden können.
In der Vergangenheit wurden in bestimmten Branchen oft aus kommerziellen Gründen die Augen geschlossen. Als Beispiele dienen etwa die Kinderarbeit beim Abbau bestimmter seltener Erden in Steinbrüchen oder bei der Ernte der Bohnen auf Kaffeeplantagen sowie die Näherinnen, die eingepfercht in Hochhäusern unter katastrophalen Arbeitsbedingungen billige Textilien für den europäischen Markt herstellten.
Positive Spin-off-Effekte durch das Lieferkettensorgfaltspflichtengesetz
Vor diesem Hintergrund beeinflusst das LkSG also durchaus positiv die Rahmenbedingungen, zu denen Dienstleistungen erbracht und Produkte hergestellt werden. Das Fairtrade-Siegel in Deutschland für Waren, wie zum Beispiel Kaffee, Kakao, Bananen oder Baumwolle, Saft, Tee, Reis, Honig, Zucker und Wein bis hin zu Schnittblumen und Gold ist hierfür der beste Beweis.
In diesem Kontext könnte ein positiver Spin-off-Effekt sein, dass Unternehmen in LkSG-kritischen Branchen, wie Textilindustrie, Gewinnung seltener Erden, Hersteller von Elektrobatterien, sich allmählich aus dem „Schmuddelmilleu“ herausentwickeln. So wird die Diskussion über deren Dienstleistungen oder Produkte versachlicht. Berichte über Kinderarbeit in Steinbrüchen oder unsägliche Arbeitsbedingungen dürften damit der Vergangenheit angehören, was ja begrüßenswert ist.
Fazit
Trotz der aufgezeigten Vorzüge rund um das LkSG, reißt die Diskussion über das Gesetz und die neue, beschlossene europäische EU-Lieferkettenrichtlinie nicht ab. Für die Zukunft wird weiter diskutiert werden, ob nicht eine differenziertere Betrachtung des LkSG erforderlich ist. Damit einher geht die Frage, für welche Unternehmen und welche Branchen dieses Gesetz überhaupt sinnvoll angewendet und eingegrenzt werden soll. Es erscheint nicht sinnvoll, einfach quantitative Grenzen anzusetzen, etwa bei einer Schwelle von „1000 Beschäftigten“. Zumal die am 24. April 2024 verabschiedete EU-Lieferkettenrichtlinie weitere Anforderungen für Unternehmen festschreibt, die allerdings erst nach der Umsetzungsfrist von zwei Jahren ab dem 24. April 2026 im nationalen Recht wirksam werden. Es sollte überlegt werden, für die Erzeugung von Produkten und Dienstleistungen ganz bestimmte (LkSG-kritische) Branchen festzulegen, die bereits in der Urproduktion Mindeststandards für Menschenrechte und Umweltschutz erfüllen müssen. So könnte zumindest der große Teil der LkSG-unkritischen Branchen von dem finanziellen und faktischen Aufwand entlastet werden.
Über den Autor:
Frank Dimmendaal ist (Syndikus-)Rechtsanwalt und als Leiter Risk-Management & Compliance im Bereich Sales & Service der Deutschen Telekom AG tätig. Als Compliance-, Operational Security Officer und LkSG-Beauftragter betreut er und sein Team vier Telekom-Tochtergesellschaften. Er ist seit rund 30 Jahren in verschiedenen Funktionen im Konzern Deutsche Telekom AG in Bonn tätig; seit mehreren Jahren bildet er zudem als Trainer bei der Deutschen Gesellschaft für Qualität GmbH in Frankfurt am Main Compliance Officer aus.
DGQ gründet Fachkreis Qualität in der Pflege
Dem Thema „Qualität in der Pflege“ widmet die Deutsche Gesellschaft für Qualität (DGQ) künftig einen eigenen Fachkreis. Pflege-Expert:innen aus dem Netzwerk der DGQ haben sich zum Ziel gesetzt, den Austausch von Wissen, Erfahrungen und Best Practices sektorenübergreifend zwischen Fachleuten aus der Pflege und angrenzender Disziplinen zu fördern. Damit soll auch das Engagement für innovative Ansätze, Technologien und Methoden gestärkt werden. Dies steigert die Effizienz und Wirksamkeit der Pflege und erfüllt damit besser die Bedürfnisse von Menschen, die pflegerische Leistungen erhalten und von Pflegenden. Sie sollen auch darin unterstützt werden, ihre Kompetenzen im Qualitätsmanagement und somit für die Qualität der Pflege zu erweitern.
„Mit dem DGQ-Fachkreis ‚Qualität in der Pflege‘ bauen wir unser Angebot im Themenfeld ‚Pflege‘ weiter aus.“, erklärt Holger Dudel, Fachreferent Pflege bei der DGQ, „Damit schaffen wir eine weitere unabhängige Anlaufstelle und einen fachlichen Mehrwert in unserem Pflege-Netzwerk. Ich freue mich auf den Austausch und die gemeinsame Arbeit an Fragen rund um die Qualität in der Pflege.“
Die DGQ besetzt das Themenfeld Pflege gezielt seit einigen Jahren und bietet hierfür eine unparteiliche Plattform. Gemeinsam mit ihren Mitgliedern schafft sie fachlichen Mehrwert und vertritt als wichtige Instanz im öffentlichen Diskurs die integrierte Sicht der Qualität, die neben der Optimierung von Prozessen und Organisationen auch ausdrücklich die Anforderungen der am Pflegeprozess beteiligten Personen einbezieht. Diese Perspektive fördert und verbessert nachhaltig erfolgreiches Entscheiden, Handeln und Haushalten.
Mit dann acht Fachkreisen bietet die DGQ ihren Mitgliedern die Möglichkeit zum themenbezogenen Austausch mit Praktiker:innen und Expert:innen aus Wissenschaft und Praxis. Sie lernen von- und miteinander, entwickeln neue Positionen, Methoden und QM-Ansätze und stellen ihre Ergebnisse allen DGQ-Mitgliedern und der Fach-Öffentlichkeit zur Verfügung.
Das erste Treffen des DGQ-Fachkreises Qualität in der Pflege findet am 2. Oktober 2024 statt. Die Mitgliederplattform DGQplus informiert laufend über die aktuellen Entwicklungen und Termine.
Nehmen Sie Kontakt zu uns auf und werden Sie DGQ-Mitglied
Bei Fragen zum Themenfeld Qualität in der Pflege wenden Sie sich gerne per E-Mail an Holger Dudel unter holger.dudel@dgq.de.
Bei Fragen zur Fachkreisarbeit bei der DGQ wenden Sie sich gerne per E-Mail an Natalie Rittgasser unter com@dgq.de.
Sie sind DGQ-Mitglied aber noch nicht auf dem Mitgliederportal DGQplus? Dann schreiben Sie uns einfach eine kurze E-Mail an support-dgqplus@dgq.de und wir ändern das sofort.
Sie sind (noch) kein DGQ-Mitglied und deshalb auch nicht auf dem Mitgliederportal DGQplus? Dann nutzen Sie doch einfach unsere kostenfreie Schnuppermitgliedschaft und lassen sich von den Vorteilen überzeugen.
Reklamationsmanagement – die richtige Mischung aus Prozess, Recht und Kulanz macht’s!

Mit einem guten Reklamationsmanagement erreicht ein Unternehmen viele Ziele: Geordnete Abwicklung von – berechtigten und nicht berechtigten – Reklamationen, Verbesserung der Produkte, Minimierung von Haftungsrisiken, Compliance. All dies geschieht aus Interesse am Erfolg des eigenen Unternehmens und an der Zufriedenheit seiner Kunden und Mitarbeiter.
Der Begriff „Reklamationsmanagement“ wird meist bekannt sein. Qualitätsmanagement im Allgemeinen und zum Beispiel die ISO 10002 im Besonderen adressieren (auch) das Reklamationsmanagement, allerdings primär aus allgemeiner Prozesssicht. Doch was sich zunächst nach bloßer Prozessabwicklung anhört, entpuppt sich schnell als komplexe Aufgabe, die auch betriebswirtschaftliche und rechtliche Elemente berücksichtigen muss, um die gewünschten Ziele (s.o.) auch tatsächlich zu erreichen. Bei grenzüberschreitenden Kunden /Lieferbeziehungen ergeben sich insofern weitere Herausforderungen. Die konkrete Ausgestaltung des Reklamationsmanagements orientiert sich am Charakter des eigenen Unternehmens. Es versteht sich von selbst, dass beispielsweise ein Online-Händler von Massenware ein anderes Reklamationsmanagement hat beziehungsweise haben sollte als ein Hersteller individuell gefertigter Artikel.
Dieser Fachbeitrag möchte die für das Reklamationsmanagement wesentlichen rechtlichen Implikationen aufzeigen und sowohl praxistaugliche als auch möglichst rechtssichere Lösungsansätze skizzieren.
Ausgangslage: Kundenreklamation
Ausgangslage soll hier eine Kundenreklamation sein, das heißt die Reklamation eines Kunden gegenüber dem eigenen Unternehmen. Gegenstück ist eine Lieferantenreklamation, das heißt die eigene Reklamation gegenüber einem Lieferanten. Die wesentlichen Grundsätze sind aber „spiegelbildlich“ ähnlich und eine Kundenreklamation wird häufig auch eine Lieferantenreklamation oder zumindest die Prüfung einer solchen nach sich ziehen.
Vorfragen bei Eingang einer Kundenreklamation
Reklamationsmanagement im Ganzen ist Chefsache. Im Tagesgeschäft wird eine Kundenreklamation jedoch meist bei der Service- beziehungsweise (After-)Sales-Abteilung eingehen.
Hier stellen sich zunächst verschiedene Vorfragen:
- Prüfung von Sofortmaßnahmen bei „Gefahr im Verzug“.
Bestehen durch die (behaupteten) Mängel Gefahren für Leib und Leben von Personen? Handelt es sich um einen Serienfehler? Um insofern Haftungsrisiken zu vermeiden sind gegebenenfalls – und dann sehr kurzfristig – Maßnahmen zu prüfen und zu ergreifen, womöglich bis hin zu einem Rückruf. - Droht aus sonstigen Gründen ein besonderes Haftungsszenario?
Zum Beispiel ein außergewöhnlicher Schadenumfang oder sollte die Reklamation berechtigt sein? - Differenzierung in Abhängigkeit von der „Wichtigkeit“ des reklamierenden Kunden?
Grundsätzlich wird man seine Kunden gleich behandeln wollen und müssen. Einem Unternehmen wird man es aus unternehmerischer Sicht jedoch nicht verübeln können, gegenüber einem besonders wichtigen Großkunden einen anderen, das heißt, kulanteren Maßstab anzulegen.
In diesem Zusammenhang wird man sich im Reklamationsfall auch die gesamte Kundenvertrags-/-Geschäftsbeziehung ansehen (Offene Rechnungen? Bisherige Reklamationsfälle mit diesem Kunden? Zukünftige Geschäftsaussichten mit diesem Kunden?). Abhängig von diesen Vorfragen kann die weitere Reklamationsabwicklung abweichende und ergänzende Sonderwege erforderlich machen.
| Berufsbild Compliance Officer Durch Digitalisierung, den Einsatz von neuen Technologien und unterschiedlichen Regelungen im nationalen und internationalen Umfeld wird das Thema Compliance für Unternehmen immer wichtiger. Aber auch Verbraucher und Investoren legen einen immer größeren Wert auf die Einhaltung von ethischen Standards. Mit Blick auf das steigende Bewusstsein gewinnt das Berufsbild des Compliance Officer zunehmend an Bedeutung. Antworten auf die wichtigsten Fragen finden Sie in unserem Berufsbild zum Compliance Officer:
|
Aufgaben und Handlungspflichten/-optionen gegenüber dem Kunden
Im Übrigen beginnt die Reklamationsabwicklung mit der Aufnahme der Reklamation und erster Korrespondenz mit dem Kunden.
Unternehmensintern stehen dann die folgenden Hauptaufgaben im Vordergrund:
- Liegt eine berechtigte oder eine unberechtigte Reklamation vor?
- Welchen Pflichten beziehungsweise welcher Haftung bin ich als Unternehmen gegenüber dem Kunden ausgesetzt, sollte die Reklamation berechtigt sein?
- Wie kommuniziere ich mit dem Kunden richtig, wenn die Reklamation (un)berechtigt war?
Die Prüfungen dieser Hauptaufgaben sind sowohl technischer als auch rechtlicher Art.
In technischer Hinsicht muss insbesondere geklärt werden, ob tatsächlich ein Fehler vorliegt und dieser bereits bei Übergabe vorlag. Hierzu wird meist eine Untersuchung des reklamierten Teils erforderlich sein. Typische Abnutzungen und Verschleiß sind keine Fehler, die einen rechtserheblichen Mangel darstellen. Liegen womöglich Anhaltspunkte für eine unsachgemäße Verwendung, Gewalteinwirkung etc. vor? Vorsorglich, für den Fall eines späteren Rechtsstreits, sind die Erkenntnisse beweismäßig zu sichern und zu dokumentieren. Die Beweislast für das Vorliegen eines Mangels liegt im Streitfall jedoch grundsätzlich beim Kunden.
Bei Vorhandensein eines Fehlers aus technischer Sicht muss sodann in rechtlicher Hinsicht unter Berücksichtigung des geltenden Rechtsrahmens (das heißt gemäß Gesetz, Vertrag, gegebenenfalls einbezogener Allgemeiner Geschäftsbedingungen, abgegebener Garantien und sonstiger Bestimmungen, zum Beispiel zur Verjährung) geprüft werden, ob der Fehler ein rechtsrelevanter Mangel ist und welche Rechtsfolgen, das heißt Einstandspflichten sich daraus für das Unternehmen ergeben. Liegt eine Lieferkette vor, sind insbesondere auch die Vorschriften zum Lieferantenregress zu beachten. Besonders praxisrelevant ist auch, ob der Kunde seiner Verpflichtungen aus § 377 HGB zur unverzüglichen Untersuchung und Rüge ordnungsgemäß nachgekommen ist. Ist dies nicht erfolgt, geht der Kunde grundsätzlich leer aus.
Liegt im Ergebnis eine berechtigte Reklamation, das heißt ein Mangel vor, für den das Unternehmen gegenüber dem Kunden einzustehen hat, kommen grundsätzlich mehrere/verschiedene Einstandspflichten in Betracht, wie im Einzelnen durch Gesetz, Vertrag, Garantie etc. bestimmt.
Ausgehend von der Anwendung deutschen Gesetzesrechts sind dies insbesondere (jeweils unter weiteren Voraussetzungen):
- Nacherfüllung, das heißt Ersatzlieferung oder Reparatur in Verbindung mit Kostenersatz
- Rücktritt oder Minderung
- Schaden- und/oder Aufwendungsersatz
Unter Berücksichtigung dessen, was der Kunde verlangt hat, sollte eine entsprechende Lösung gegenüber dem Kunden kommuniziert werden. Im Idealfall einigt man sich mit dem Kunden auf eine angemessene Kompromisslösung, ohne dass es zum Rechtsstreit kommt.
Bei einer im Ergebnis unberechtigten Reklamation sollten im Regelfall die vom Kunden geltend gemachten Ansprüche mit geeigneter Begründung zurückgewiesen werden. Im Einzelfall wird sich aus Gründen der Kundenzufriedenheit und zur Vermeidung eines Rechtsstreits die Frage nach einer Kulanzlösung stellen. Für angemessene Kulanzlösungen sollte grundsätzlich ein gewisser Spielraum bestehen, dies jedoch nicht im Regelfall aus Unsicherheit über die eigenen Verpflichtungen, sondern nur im Ausnahmefall bewusst unter Abwägung der eigenen Position und der Vor- und Nachteile der Kulanzlösung. Die Kommunikation einer Kulanzlösung gegenüber dem Kunden bedarf besonderer Sorgfalt, um keine ungewollten Rechtswirkungen wie zum Beispiel ein Anerkenntnis oder eine Verlängerung der Verjährungsfrist auszulösen.
Interne und externe Ressourcen sowie Werkzeuge für die Reklamationsabwicklung
Für die Durchführung der vorstehend skizzierten Schritte benötigt das Unternehmen geeignete Ressourcen und Werkzeuge.
An erster Stelle sind dies entsprechend ausgebildete und geschulte eigene Mitarbeiter der Reklamationsabteilung. Eine persönliche Haftung bei fehlerhaftem Handeln brauchen die Mitarbeiter regelmäßig nicht zu befürchten, denn es gelten die sogenannten Grundsätze der privilegierten Arbeitnehmerhaftung.
Da es im Ergebnis entscheidend auch auf rechtliche Beurteilungen ankommt, bedarf es zudem einer eigenen Rechtsabteilung oder einer spezialisierten externen Kanzlei, und zwar im Rahmen der erstmaligen Implementierung des Reklamationsmanagements sowie bei Bedarf im jeweiligen Einzelfall. Die nachstehend genannten Werkzeuge stellen jedoch eine weitgehend autonome Bearbeitung von typischen Reklamationsfällen durch das Unternehmen selbst sicher.
Für eine schnelle und zuverlässige Reklamationsbearbeitung kommen typischerweise folgende Werkzeuge zum Einsatz:
- Leitfäden, Flussdiagramme, Checklisten
- Zuständigkeitspläne
- Musterschreiben
- Schulungen und Beispielsfälle
- Softwarelösungen
Weitere (interne) Konsequenzen einer Kundenreklamation
Im Rahmen einer Kundenreklamation sind vom Unternehmen weitere Aspekte zu prüfen, wie insbesondere:
- Regressmöglichkeiten gegenüber Lieferanten fehlerhafter Teile unter Beachtung gesetzlicher und vertraglicher Bestimmungen, zum Beispiel § 377 HGB, Verjährung etc.
- Maßnahmen gemäß Produkt-/Produzentenhaftung (Rückruf?)
- Produktverbesserungen/-neuentwicklungen zur Vermeidung von Fehlern und Kundenreklamationen gleicher/ähnlicher Art und zur Verbesserung der Produktsicherheit
- Korrektur oder Ergänzung von Bedienungsanleitungen im Hinblick auf eine bestimmte Handhabe des Produkts zur Fehlervermeidung
- Berücksichtigung bei der Vertragsgestaltung, zum Beispiel Einschränkungen des Verwendungszwecks des betroffenen Produkts, sonstige Haftungsbeschränkungen
- Anpassung von Garantiebedingungen
- Versicherungsdeckung, Anpassung Versicherungsschutz
Auf den Punkt gebracht
Reklamationsmanagement ist komplex, aber mit der richtigen Vorbereitung und angemessenen Ressourcen erfolgreich zu bewerkstelligen.
Ein gutes Reklamationsmanagement versetzt das Unternehmen in die Lage,
- zwischen berechtigten und unberechtigten Reklamationen zu unterscheiden,
- im Falle einer berechtigten Reklamation die eigenen Einstandspflichten sowie Regressmöglichkeiten einzuschätzen und damit die eigene Haftung zu minimieren,
- bewusst zu entscheiden, in welchen Fällen Kulanzlösungen erfolgen,
- in allen Phasen der Reklamationsbearbeitung angemessen mit dem Kunden zu kommunizieren und
- die aus einer Reklamation gewonnenen Erkenntnisse zu verwerten, zum Beispiel im Rahmen von Produktverbesserungen und Produktneuentwicklungen.
Unternehmen mit einem solchen Reklamationsmanagement sichern sich die Zufriedenheit ihrer Kunden, reduzieren ihre Haftungsrisiken und sind damit langfristig erfolgreich.
Über den Autor:
Gunnar Helms ist Rechtsanwalt in Hamburg und Mitgründer der Kanzlei VON ILSEMANN | HELMS. Er berät vorrangig mittelständische Unternehmen im Handels- und Gesellschaftsrecht. Sein Schwerpunkt liegt dabei in der Beratung der Unternehmen in allen rechtlichen Belangen ihres operativen Geschäfts wie eine (ausgelagerte) Rechtsabteilung. Gunnar Helms ist regelmäßig als Referent tätig und u.a. Mitglied der Deutschen Gesellschaft für Qualität (DGQ) sowie im Internationalen Controller Verein (ICV), wo er zudem Leiter des Fachkreises „Compliance-Management & Controlling“ ist.
Kontakt: gh@vonilsemann-helms.de
3. Süddeutscher Qualitätstag zeigt aktuelle Trends und Entwicklungen für das Qualitätsmanagement von Morgen
Über 140 Teilnehmende haben sich am 28. Juni 2024 am Fraunhofer IPA in Stuttgart zum 3. Süddeutschen Qualitätstag zusammengefunden.
Auf dem Programm standen Vorträge verschiedener Experten sowie Diskussionen zu aktuellen Trends und Entwicklungen im Qualitätsmanagement. Das abwechslungsreiche Programm begann mit einem inspirierenden Vortrag von Buchautor Lars Vollmer. Eingeleitet durch eine Anekdote über das Fußballspiel Barbados gegen Grenada 1994, veranschaulichte er eindrucksvoll, wie der Kontext und die strukturellen Spielregeln das Verhalten einer Gruppe prägen können.
Der weitere Verlauf des Tages war geprägt von vielen fachlichen Vorträgen und Workshops. Mit dabei waren auch einige DGQ-Firmenmitglieder. Dr. Ludwig Schares von der Porsche AG referierte über „Product Compliance System“. Dr. Dalibur Dudic von Daimler Truck AG griff das Thema „Der Weg zum lokal CO2 neutralen Transport“ auf. Christian Pflüger vom Logistikunternehmen Dachser SE gab Einblicke in die Logistikprozesse, die mit fachlicher Unterstützung der DGQ Weiterbildung und mit besonderem Fokus auf die Durchführung interner und externer Audits optimiert wurden.
Parallel dazu gab es viel Zeit für den persönlichen Austausch und interessante IPA-Forschungsführungen auf dem Fraunhofer-Gelände. Zu sehen und zu bestaunen waren unter anderem ein E-Truck der Daimler-Truck AG sowie ein Exoskelett der Firma Ottobock SE & Co. KG.
Mit dem abschließenden Vortrag begeisterte Markus Reimer das gesamte Publikum zum Thema „Die Chancenchance: Managementsysteme der Zukunft“. Er verdeutlichte, wie wichtig es ist, dass die unternehmerische Qualitätspolitik mit den Unternehmenszielen und den dazugehörigen Prozessen in Einklang steht, damit das QMS nicht, wie häufig in Audits erlebt, zu einem formellen Ritual verkommt. Wenn Innovation und Chancen aufgrund ihrer Unvorhersehbarkeit außerhalb des PDCA-Zyklus des QMS ablaufen, stellt sich zu Recht die Frage nach der Sinnhaftigkeit und Nachhaltigkeit des QMS. Es läge ganz bei uns, ob wir als Q-Enthusiasten den Status quo verwalten oder durch unseren Einsatz das bestehende QMS verändern.
Die mehr als 140 Teilnehmenden auf dem in Kooperation mit dem Fraunhofer IPA veranstalteten Süddeutschen Qualitätstag zogen nach Abschluss ein durchweg positives Resümee. Auch in 2025 findet der Branchentreff für Qualitätsmanager wieder in Stuttgart statt. Ein genauer Termin steht noch nicht fest.
Kontakt:
Marco Gutöhrlein
Leitung Geschäftsstelle Stuttgart













