Menü

Digitaler Wandel im Reklamationsmanagement – ein Besuch bei der VDMA-Tagung

Ganz im Zeichen der Digitalisierung stand die diesjährige VDMA-Tagung zum Reklamationsmanagement mit dem Motto “Mit digitalem Beschwerdemanagement beim Kunden punkten”. 88 Teilnehmer aus dem Anlagen- und Maschinenbau nutzten die Möglichkeit zum Austausch und verfolgten die sechs abwechslungsreichen Beiträge. Redner mit ganz unterschiedlichem Fokus wie Qualitätsmanagement, IT, Recht und Data Analytics waren eingeladen und ermöglichten so einen umfassenden Blick auf das Thema aus verschiedenen Perspektiven. So wurde von führenden Unternehmen ganz praxisnah demonstriert, wie die digitale Transformation der Reklamationsprozesse schon heute gelingt. Einen Blick aus der Vogelperspektive auf die Kennzahlen im Reklamationsmanagement gab es direkt aus erster Hand vom VDMA. Wie künstliche Intelligenz und Software im europäischen Recht verstanden werden, war für viele Besucher sicher eine ganz neue Perspektive.

Auch die Deutsche Gesellschaft für Qualität war mit dem Beitrag “Wie Sie mit Data Analytics Reklamationen vorhersagen” des DGQ-Trainers Dr. Gregor Bartsch vertreten. Herr Bartsch zeigte auf, wie das Thema sich in digitalisierte Reklamationsprozesse einfügt; denn belastbare Reklamationsdaten ermöglichen überhaupt erst solide Vorhersagen. Grundlegende Modelle zur Produktalterung wurden ganz unkompliziert am Beispiel eines Spielzeugflugzeuges veranschaulicht. Das bereitete den Einstieg in eine allgemeine Fallstudie zur Reklamationsprognose: Es ging um ein noch junges Qualitätsproblem mit einem neuen Fehlerbild. In der Situation war unklar, ob es nach den ersten wenigen Reklamationen ruhig weitergeht, oder ob sich die Sache in eine Reklamationswelle epidemischen Ausmaßes entwickeln würde. “In solchen Fällen haben Sie nur sehr wenig Daten in der Hand für Ihre Prognosen”, kommentierte Dr. Bartsch die dünne Datengrundlage. “Mit gut überlegten Annahmen zum Alterungsmodell kann man aber auch in so frühen Phasen viel erreichen”, führte er fort, um gleich darauf Prognosen für Reklamationszahlen und Kosten mit einer Web-Applikation vorzurechnen. Durch den Vergleich mehrerer Prognosen verdeutlichte sich die Idee der Methode als Entscheidungshilfe. “Sie können verschiedene Szenarien von potenziellen Maßnahmen direkt miteinander vergleichen und die Folgen für Qualität und Kosten sichtbar machen”, fasste Dr. Bartsch die Ergebnisse zusammen und teilte seine Gedanken zur gezeigten Software-Unterstützung: “Der Computer kann einem viel Mathematik abnehmen – das erleichtert den Zugang ungemein. Das Thema bleibt aber sehr anspruchsvoll und man kann ohne gutes Verständnis für die Modelle einiges falsch machen. Es lohnt sich daher Zeit zu investieren, um die Denkkonzepte richtig zu verstehen und damit bestmögliche Prognosen zu erstellen.”

Für alle, die das Thema verstehen möchten und praxisnahe Beispiele im anschaulichen Format suchen, ist das DGQ E-Training “Wie Sie mit Data-Analytics Reklamationen vorhersagen” genau das richtige.

Neues DGQ-Webinar: Wie Sie erfolgreich Data Analytics-Projekte meistern

Die Menge an Daten, die wir in unserem Berufsalltag verarbeiten und analysieren müssen, nimmt stetig zu. Das Know-how zur Analyse großer Datenmengen wird somit zur Schlüsselkompetenz, um im digitalen Wandel entscheidungsfähig zu bleiben. Vor der Analyse stehen allerdings die Planung des Projektes und die Frage nach der Zielsetzung der Analyse.

Das neue DGQ-Webinar vermittelt Ihnen, wie Sie erfolgreich Data-Analytics Projekte meistern können. Sie lernen den Data Analytics Lifecycle kennen und erfahren, worauf sie achten und welche Fragen vor dem Projektstart geklärt werden müssen. Alle Inhalte werden praxisnah und verständlich erklärt und durch ein Fallbeispiel abgerundet.

Das Webinar richtet sich an alle, die eigene Data Analytics-Projekte planen und sich mit den Voraussetzungen und ersten Schritten vertraut machen möchten.

Es findet am 09. September 2020 von 10:00 bis 12:00 Uhr statt. Jetzt anmelden » 

Erhalten Sie vorab einen Einblick in den neuen Applied Data Analytics-Lehrgang der DGQ

Um Sie umfassend für die aktuellen Herausforderungen im Bereich Data Analytics in Produktion und Dienstleistung zu rüsten, finden Sie bei der DGQ neue Lehrgänge und Zertifikate zum Thema Data Analytics. Der Lehrgang „Fähigkeit von Mess- und Fertigungsprozessen statistisch nachweisen“ vermittelt Ihnen die notwendigen Kenntnisse, um Mess- und Fertigungsprozesse nach dem Stufenkonzept der Prozessqualifizierung beurteilen zu können.

Video gibt Einblick in neuen DGQ-Lehrgang Applied Data Analytics

Wir haben uns die Frage gestellt: wie können wir Ihnen am einfachsten erläutern, was Sie in unserem neuen Lehrgang “Prozesse mit statistischen Methoden analysieren, freigeben und regeln” erwartet? Die Antwort war zum Glück schnell gefunden: unser Trainer Herr Hillel führt Sie in einem kurzen Video in die Inhalte des Trainings ein. Erfahren Sie, wie wichtig die richtigen statistischen Methoden für die Analyse, Freigabe und vor allem Regelung von Prozessen sind und überzeugen Sie sich von dem Mehrwert, den Ihnen der Lehrgang bietet.

Der nächste Lehrgang findet vom 25. – 29. Mai 2020 in Stuttgart statt. Jetzt anmelden »

Daten werden zum Wirtschaftsgut – Unternehmen auf dem Weg in die Datenökonomie

In unserer Gesellschaft spielen Daten, die wir durch Messung oder Beobachtung erhalten, eine zentrale Rolle. Nicht umsonst gelten sie als das neue Öl unserer Zeit. Dies betrifft sowohl die Daten, die tagtäglich über uns gesammelt werden, als auch Daten, Kennzahlen und Messwerte im unternehmerischen Kontext. Durch neue und rasante technologische Entwicklungen wächst die verfügbare Datenmenge aus allen Geschäftsbereichen eines Unternehmens stetig an. Doch was fängt man mit diesen Daten an und welchen Nutzen können Unternehmen aus ihnen ziehen? Inzwischen geht es nicht mehr nur darum, vorhandene Daten sinnvoll zu nutzen – zum Beispiel zur Fehlerbehebung oder Prozessoptimierung. Daten selbst werden zur Ressource und zum Wirtschaftsgut. Datenökonomie bedeutet, Daten in eigenständigen Geschäftsmodellen zu kommerzialisieren.

(mehr …)

Big Data bei vielen Unternehmen an erster Stelle

Neue Technologien, wie das Internet of Things, künstliche Intelligenz oder Block Chain haben einen immer größeren Einfluss auf die Wettbewerbsfähigkeit von Unternehmen. Das besagt eine repräsentative Befragung von Managern in 604 deutschen Unternehmen ab 20 Mitarbeitern, die der Digitalverband Bitkom 2018 durchgeführt hat. Ein zentrales Ergebnis: Big Data steht an erster Stelle der geplanten oder bereits umgesetzten Technologien (57 Prozent).
(mehr …)

Digitalisierung – so ändern sich die Anforderungen an Datenerhebung und statistische Methoden

Die Relevanz von Daten und deren Erhebung, Analyse und Interpretation stehen zunehmend im Zentrum digitalisierten Industrie und Gesellschaft. Neben dem Einsatz innovativer Technologien und der Entwicklung digitaler Geschäftsmodelle bietet die Analyse großer Datenmengen für Unternehmen bemerkenswertes Potenzial zur besseren Marktpositionierung.

(mehr …)

DGQ-Statistik-Trainings: Lange Tradition in der Vermittlung statistischer Methoden

Für produzierende Unternehmen sind statistische Methoden für die Analyse von Produktionsprozessen seit jeher die Basis, um Prozesse und Produkte zu vebessern. Im Qualitätsmanagement oder in der Qualitätssicherung bilden die Voraussetzung für reproduzierbare Qualität. Durch geeignete statistische Methoden lassen sich Prozesse beherrschen und systematische Einflüsse von zufälligen Streuungen unterscheiden. Entlang des Produktionsprozesses haben sich in der Praxis eine Reihe von statistischen Verfahren als Werkzeuge etabliert.

(mehr …)

Big und Smart Data – von der Statistik zur Datenanalyse

Statistik gehört zu unserem Alltag. Auch wenn wir nicht direkt im Berufsalltag mit statistischen Verfahren arbeiten, werden wir täglich mit einer Vielzahl von Statistiken konfrontiert: Wir erfahren über das Fernsehen, die Zeitung oder das Internet etwas über Aktienkurse, Trends auf dem Arbeitsmarkt, die aktuellen Wahlhochrechnungen oder die Auswertungen rund um die Fußball-Bundesliga. (mehr …)

Aufruf: Blogpost-Serie “Daten sammeln, analysieren, interpretieren: Welche Rolle spielt Statistik in Ihrem Berufsalltag?”

Welche Rolle spielen Datenverarbeitung und Statistik in Ihrem Berufsalltag? Sind Sie der oder die geborene StatistikerIn? Oder mussten Sie sich in diese Thematik erst einfinden? Welchen Entwicklungen ist das Sammeln, Analysieren und die Interpretation von Daten in Ihrem Berufsfeld unterworfen? Welchen Stellenwert nehmen Themen wie Digitalisierung, Industrie 4.0 und Datenanalyse ein? Berichten Sie uns davon!

Die DGQ plant eine Blogpost-Serie, in der die Bedeutung von Datenanalyse und statistischen Methoden näher beleuchtet werden – und wir würden uns freuen, wenn Sie sich mit einem Beitrag beteiligen. Wir sind gespannt.

Haben Sie Lust mitzumachen? Dann setzen Sie sich mit DGQ-Produktmanagerin Christina Eibert in Verbindung. Kontakt: T 069 954 24-189, E-Mail an christina.eibert@dgq.de.

DGQ überarbeitet Statistik-Lehrgänge: Data Analytics im Fokus

Große Datenmengen smart zu analysieren und aufzubereiten – in Zeiten der digitalen Transformation wird diese Fähigkeit immer wichtiger. Statistische Methoden und Modelle bilden auch hierbei die Grundlage für die Gewinnung valider Erkenntnisse. Statistik erweitert sich um den Bereich Data Analytics. So bieten sich künftig noch effektivere Möglichkeiten, Prozesse zu verbessern und Unternehmensziele zu erreichen. Das Know-how zur Analyse großer Datenmengen wird zur Schlüsselkompetenz für Effizienzsteigerung. Es bildet die Grundlage von Entscheidungsfähigkeit und Strategieentwicklung im digitalen Wandel.

Um Qualitätsfachleute auch künftig umfassend für die aktuellen Herausforderungen im Bereich Data Analytics in Produktion und Dienstleistung zu rüsten, überarbeitet die DGQ aktuell ihre Statistik-Trainings. Ab Mitte 2019 bietet sie neue Lehrgänge und Zertifikate zum Thema Data Analytics mit unterschiedlichen Schwerpunkten für Industrie- und Dienstleistungsunternehmen an.

Die DGQ ist seit Jahrzehnten ein renommierter Trainingspartner für Statistik – und vergibt anerkannte Zertifikate wie den DGQ-Schein „Qualitätstechnik QII“ oder den „DGQ-Instruktoren-Ausweis“. DGQ-Instruktoren sind Experten auf dem Gebiet statistischer Methoden und darüber hinaus in der Lage, ihre praktische Anwendung zu vermitteln. Diese langjährige Erfahrung in der Ausbildung bildet die Basis für die Modernisierung der Lehrgangsreihe.

Angewandte Statistik schließt den Zufall aus: Prozessergebnisse voraussagen und die Zielerreichung nachweisen


Wachsende Anforderungen an Produktmerkmale einerseits und immer engere Toleranzen andererseits: Im Markt bestehen kann nur, wer seine Prozesse kennt, seine Prozessergebnisse vorhersagen und mit vertretbarem Aufwand die Zielerreichung nachweisen kann. Das Know-how, hohe Produktqualität sicher und wirtschaftlich angemessen zu (re-)produzieren, wird so zur Voraussetzung der eigenen Wettbewerbsfähigkeit.

Das verbreitete Denken „Gleiche Ursachen haben stets gleiche Wirkungen“ spiegelt die Wirklichkeit nur sehr eingeschränkt wider. Faktisch leidet die Vorhersagbarkeit von Ergebnissen beliebiger Vorgänge und Prozesse mehr oder weniger unter Schwankungen – obwohl die erkennbaren Ursachen konstant geblieben sind. Insbesondere gilt das auch für die Ergebnisse aller Prozesse im Bereich der materiellen Produktion sowie der Forschung und Entwicklung.

Die angewandt Statistik für Wirtschaft, Industrie und Technik bedient sich auf praktische Anwendungen zugeschnittener Modelle, Verfahren und Methoden, um die in der Praxis unvermeidliche Ergebnisstreuung angemessen zu berücksichtigen. Ihre richtige Anwendung ist unerlässlich für jede Auswertung von zufällig streuenden Werten, um die Ergebnisse adäquat zu beschreiben, zu verdichten, zu analysieren, zu interpretieren und zur Nachweisführung zu nutzen. Sie basiert auf den mathematischen Disziplinen der Wahrscheinlichkeitstheorie und der mathematischen Statistik.

Um den eingangs genannten Anforderungen erfolgreich zu begegnen, können sich die Teilnehmer an einem DGQ-Gesamtlehrgang nach einer Prüfung zum „DGQ-Statistiker für Wirtschaft, Industrie und Technik“ qualifizieren. Die Zielgruppe besteht vor allem aus Mitarbeitern aus Forschung und Entwicklung, Prüfplanern, Projektleitern, Prozesstechnologen, Qualitätsmanagern, Experten für Zulieferteile, Mitarbeitern mit Qualitätsverantwortung sowie internen und externen Auditoren. Der Lehrgang wird in zweimal zwei Wochen abgehalten und schließt eine Prüfungsvorbereitung ein. Der nächste zweimal zweiwöchige Gesamtlehrgang findet statt vom 5. bis 9. Oktober sowie vom 12. bis 16. Oktober 2015 und vom 9. bis 13. November sowie vom 16. bis 20. November 2015 jeweils in Stuttgart (Ditzingen). Für eine erfolgreiche Teilnahme werden grundlegende mathematische Kenntnisse, Verständnis für Formeln, Funktionen und ihre grafische Darstellung vorausgesetzt. Ebenso ein sicherer Umgang mit dem PC und einem Tabellenkalkulationsprogramm.

Als jeweils fünftägige Einzellehrgänge mit abschließender Prüfung können Interessenten alternativ folgende Veranstaltungen buchen: Statistische Lieferantenbewertung, Statistische Prozessüberwachung, Statistische Datenauswertung, Statistische Prüfmittelqualifizierung, Statistische Versuchsplanung und Statistische Zuverlässigkeitsanalyse. Jede dieser Veranstaltung bildet die Teilnehmer in einem Bereich der Statistik aus, angelehnt an die beruflichen Erfordernisse.

Weitere Informationen zum Thema gibt DGQ-Produktmanager Torsten Klanitz, T 069-954 24-189, E-Mail: tk@dgq.de oder unter www.dgq.de/go/statistik.

 

ADAC-Test zeigt: Kommunale Brücken sind im schlechten Zustand – DGQ bestätigt die Ergebnisse

Undichte Fundamente, rostige Träger: Viele kommunale Brücken in Deutschland sind laut eines Tests des ADAC in miserablem Zustand. Bei der Untersuchung von 30 Brücken in zehn deutschen Städten mit 100.000 bis 250.000 Einwohnern fielen sieben durch. 19 Brücken, also fast zwei Drittel, wurden mit „ausreichend“ bewertet. Nur vier Brücken erhielten von den Testern ein gutes Urteil.

Die Deutsche Gesellschaft für Qualität (DGQ) hat die rechnerische Richtigkeit der Auswertung und die daraus abgeleiteten Aussagen im Test-Abschlussbericht überprüft: „Alle Urteile“, so der ADAC, „hat der Qualitätsmanagement-Dienstleister DGQ geprüft“. Das bestätigt auch Bertram Schäfer, DGQ-Trainer und Inhaber des Consulting Teams Statcom, Witzenhausen: „In Zusammenarbeit mit dem ADAC hat die DGQ ihre Leistungsfähigkeit im Rahmen methodischer und statistischer Beratung einmal mehr unter Beweis gestellt“. Statcon unterstütze den ADAC bereits seit einigen Monaten mit Mitarbeitern, die als Berater und Trainer für die Deutsche Gesellschaft für Qualität seit Jahren im Einsatz sind, so der Geschäftsführer. Ziel der Zusammenarbeit sei es, dass die DGQ zunächst eine bestimmte Testvorgehensweise und das Bewertungsschema des Tests kritisch prüft und im Anschluss die aus den erhobenen Daten gezogenen Schlüsse auf statistische Signifikanz hin untersucht.

„Die Aufgabe, komplexe Exceldateien auf Plausibilität der Daten und korrekte Formeln hin zu prüfen, ist zwar zeitaufwändig, aber unerlässlich“, betont Schäfer. Denn erst im Anschluss daran würden die verifizierten Daten in einer Statistiksoftware einer professionellen Auswertung zugeführt. Die Resultate dieser Auswertung wurden jetzt im aktuellen Fall mit den durch die Mitarbeiter des ADAC formulierten Berichten abgeglichen.

Geprüft und benotet hat der ADAC in den Kriterien Bauwerkzustand, Sanierungs- und Verwaltungsmanagement sowie Ausstattung des Verkehrsraumes. Um besonders gut abzuschneiden, wie etwa die Dreeschbrücke in Schwerin, müsse vor allem der Bauwerkzustand gut, sowie hohe und stabile Geländer, sehr breite Fahrstreifen und ausreichend breite Geh- und Radwege vorhanden sein.

Die häufigsten Mängel im Test waren beschädigte oder undichte Fugen sowie Rost an tragenden Teilen der Konstruktion. Dieses Problem ist besonders gefährlich, weil dadurch die Standsicherheit beeinträchtigt werden kann. Laut ADAC sei den Stadtverwaltungen zwar zugute zu halten, dass sie die erforderlichen Prüfungen weitgehend regelmäßig durchführen, um die Sicherheit zu gewährleisten, für die nötigen Reparaturen fehle jedoch oft Geld und Personal. „Rechtzeitig zu handeln ist bekanntlich die deutlich bessere und letztlich günstigere Option als Schadensbegrenzung so lange zu verschieben, bis sie unbedingt notwendig sind“, sagte dazu Ulrich Klaus Becker, ADAC-Vizepräsident für Verkehr.

Anders als bei anderen, in letzter Zeit infrage gestellten Qualitätstests, legt der ADAC nun Wert auf Transparenz. Der Name des Ingenieurbüros wir offengelegt: Hampf Consult, Ingenieurgesellschaft für Komplettplanung im Bauwesen mit Hauptsitz in Offenburg. Zudem sei das Notensystem in Zusammenarbeit mit der Bundesanstalt für Straßenwesen (BASt) festgelegt worden. Und als Prüfer der Methodik wurde die DGQ herangezogen.

Statistische Zuverlässigkeitsanalyse schützt Unternehmen vor bösem Erwachen

Erst kürzlich ist in Singapur ein Triebwerk eines Airbus A380 nach dem Start explodiert. Trümmerteile durchschlugen den Flügel, der Flieger musste notlanden. Mehr als 450 Passagiere entgingen nur knapp einer Katastrophe. Wie sich später zeigte, lag ein Zuverlässigkeitsproblem vor: Gemäß der Zeitschrift „Flightglobal“ dürfen Teile des Triebwerks bei vollem Schub nur 75 Mal genutzt werden bevor sie komplett ausgetauscht werden müssen. Der Hersteller hatte mindestens 2000 Starts mit vollem Schub zugesagt. Um Unternehmen im deutschsprachigen Raum ähnliche Erfahrungen zu ersparen, bietet die DGQ den Lehrgang “Statistische Zuverlässigkeitsanalyse – Zuverlässigkeit von Produkten managen und Lebensdauer analysieren” an. Teilnehmer lernen hier, Qualitätsdaten zu erfassen und auszuwerten. Mit den gewonnenen Erkenntnissen kann die Mindestlebensdauer von Triebwerken ebenso bestimmt werden wie die Brenndauer von Glühlampen.