Fachbeiträge

Interview zum FQS-Forschungsprojekt „METIS“: Effektive Bewertung von IT-Werkzeugen für die kollaborative Produktentwicklung
In der Industrie 4.0 ist die Zusammenarbeit in und von Unternehmen mehr denn je entscheidend für den Unternehmenserfolg. Sie umfasst gemeinsame Aktivitäten, Prozesse und Entscheidungen, die intensive Koordination und Datenaustausch erfordern, insbesondere für kleine und mittlere Unternehmen (KMU). Die Konfiguration und Optimierung der IT-Infrastruktur und -Tools sind daher entscheidend für effiziente Zusammenarbeit. Dies stellt jedoch für viele KMU eine bedeutende Herausforderung dar. Im FQS-Forschungsprojekt „METIS - Methodische Konfiguration von Informationstechnik zur Steigerung der Kollaborationsfähigkeit von KMU in der verteilten Produktentstehung“ arbeiten die Wissenschaftler:innen Can Çağıncan (Fachgebiet Qualitätswissenschaft) und Juliane Balder (Fachgebiet Industrielle Informationstechnik) der TU Berlin gemeinsam daran, diese Herausforderungen zu lösen. Im Interview gewährt Can Çağıncan einen Einblick in die Projektarbeit und zeigt auf, welche Lösungen das Projekt für KMU bereithält. Was ist das Forschungsprojekt METIS und worum geht es in Ihrem Projekt? Can Çağıncan: Das Forschungsprojekt METIS hat das Ziel, Unternehmen eine Methode zur Analyse, Bewertung […]
Interview zum FQS-Forschungsprojekt „MIQFEM“: Mitarbeiterorientierte Qualitätsregelkreise in der Produktion zum smarten Fehlermanagement
Um in einem immer intensiveren Wettbewerbsumfeld bestehen zu können, ist es für Unternehmen essenziell, ihre Produkte schneller, kostengünstiger und in höherer Qualität herzustellen als ihre Konkurrenten. Dabei stellen auftretende Fehler in der Produktion ein signifikantes Hindernis dar, da sie sowohl Kosten als auch Zeitaufwand verursachen und im Falle der Fehlertolerierung zur Qualitätssenkung führen. Dementsprechend ist ein wichtiger Wettbewerbsfaktor zwischen erfolgreichen Unternehmen und weniger erfolgreichen Unternehmen, wie sie mit dem Fehlerwissen umgehen. In vielen kleinen und mittleren Unternehmen (KMU) ist dieses Wissen jedoch ein Tabuthema. Im Rahmen des über die FQS - Forschungsgemeinschaft Qualität e. V. geförderten Forschungsprojektes „MIQFEM - Mitarbeiterorientierte Qualitätsregelkreise in der Produktion zum smarten Fehlermanagement“ wird unter der Leitung des Fachgebiets Qualitätswissenschaft an der TU Berlin gemeinsam mit Partnern aus Industrie ein smartes Fehlermanagementsystem entwickelt, welches die systematische Nutzung des Fehlerwissens ermöglicht und sich durch die Interaktion mit den Mitarbeitenden in einem ständigen Lernprozess befindet. Über eine […]
Interview zum FQS-Forschungsprojekt „AIQualify“: Framework zur Qualifizierung von KI-Systemen in der industriellen Qualitätsprüfung
Die produzierende Industrie und deren Endkunden stellen immer höhere Qualitätsansprüche. Anstelle von manchmal ineffizienten und fehleranfälligen manuellen Qualitätskontrollen setzen Unternehmen zunehmend auf automatisierte Prüfungen, wie zum Beispiel optische Prüfsysteme mit anschließender Bildverarbeitung (siehe Abb. 1). Die klassische Bildverarbeitung stößt jedoch oft an ihre Grenzen, vor allem dann, wenn es eine hohe Variabilität bei Fehlern oder Bauteilen gibt. So können beispielsweise Oberflächenkratzer in Form, Farbe und Lage variieren. Diese Defekte sind jedoch oft schwer analytisch zu beschreiben. Mit Methoden des maschinellen Lernens (ML), einem Teilgebiet der Künstlichen Intelligenz, können diese Einschränkungen zunehmend überwunden werden. Bedenken hinsichtlich der Zuverlässigkeit oder Genauigkeit von ML-Verfahren verhindern jedoch bisher ihren weit verbreiteten industriellen Einsatz. Gerade der Unterschied zu klassischen Algorithmen erschwert die Qualifizierung von ML-basierten Qualitätsprüfungssystemen. Die Qualifizierung solcher Systeme zu erleichtern, stellt das zentrale Forschungsziel des über die FQS - Forschungsgemeinschaft Qualität e. V. geförderten Projekts AIQualify dar. Das Konsortium von AIQualify besteht […]
FQS-Forschungsprojekt „VorÜber“: Vorausschauende Prozessüberwachung in der Schmiedeindustrie
In der Schmiedeindustrie wird die Lebensdauer von Schmiedegesenken meist auf Basis von Erfahrungswerten und subjektiven Entscheidungen bestimmt. Im Rahmen des vor Kurzem abgeschlossenen FQS-Forschungsprojekts VorÜber haben Wissenschaftler:innen des IPH - Institut für Integrierte Produktion Hannover gGmbH eine Methode entwickelt, die eine Prognose der Restlebensdauer des Schmiedegesenks auf Basis von Bilddaten und Kraftmessungen während der Umformung ausgibt. Durch diese datenbasierte Prognose lässt sich die Restlebensdauer genauer abschätzen und die Produktion von Fehlteilen sowie Stillstandzeiten, aufgrund von Gesenkversagen, vermeiden. Schätzen Mitarbeitende die Lebensdauer von Schmiedegesenken geringer ein als sie wirklich ist, bedeutet dies eine Verschwendung der noch bestehenden Standmenge [1]. Wird die Standmenge zu hoch eingeschätzt, kann es bei unvorhergesehen hohem Verschleiß zur Produktion von fehlerhaften Teilen kommen [2]. In der Praxis wird die verbleibende Standmenge häufig um ein Vielfaches geringer als die tatsächliche verbleibende Standmenge festgelegt, um das Risiko eines Werkzeugversagens gering zu halten [1]. Um die verbleibende Standmenge auszunutzen […]
Data Analytics – Von der Datenerfassung zur Entscheidungsunterstützung
Wenn wir uns die vergangenen Jahrzehnte anschauen, wird eines ziemlich klar: Daten haben enormen Einfluss, egal ob es sich um kleine Mengen an Daten, Big Data, klassische oder moderne Statistik, Analytik oder gar künstliche Intelligenz handelt – und das betrifft Mitarbeiter:innen auf allen Unternehmensebenen. Daten helfen auf vielfältige Art und Weise, die Unternehmensleistung zu verbessern. Auf der einen Seite haben wir künstliche Intelligenz, von der wir uns versprechen, Geschäftsmodelle komplett zu verändern und die deshalb die meiste Aufmerksamkeit bekommt. Auf der anderen Seite sind schon einfache Analysen mit wenigen Daten äußerst wirkungsvoll, wenn es darum geht, Unternehmen dabei zu unterstützen, bessere Entscheidungen zu treffen, Geschäftsabläufe zu steuern und zu optimieren, ein besseres Verständnis für Kunden zu bekommen und Produkte sowie Dienstleistungen zu verbessern. Die Nutzung von Daten zur Informationsgewinnung und Entscheidungsunterstützung hat sich zu einer zentralen Säule in vielen Unternehmen entwickelt. Data Analytics bietet die Möglichkeit, aus Daten wertvolle […]
Wertstromanalyse: Ein effizientes Instrument zur Prozessoptimierung
Die Wertstromanalyse, ein beeindruckendes Werkzeug aus dem Repertoire des Lean Managements, hat ihre Wurzeln in der Automobilindustrie. Ihr Hauptzweck besteht darin, Material- und Informationsflüsse in komplexen Produktionsprozessen sichtbar und begreiflich zu machen. Das Potenzial der Wertstromanalyse reicht jedoch weit darüber hinaus. Sie visualisiert die einzelnen Phasen eines Produktionsprozesses und verdeutlicht somit Interaktionen, Abhängigkeiten und Flussdynamiken. Dadurch können Anwender Verschwendung, Engpässe und ineffiziente Abläufe aufspüren. Durch die konsequente Ausrichtung auf Verschwendungsminimierung, einen Grundpfeiler des Lean Managements, ermöglicht sie eine systematische und datengetriebene Basis für fortlaufende Verbesserungen und Effizienzsteigerungen. Daher kann die Wertstromanalyse dazu beitragen, die Leistung zu erhöhen, Kosten zu reduzieren und die Zufriedenheit von Kunden und Mitarbeitern zu verbessern. Dieser Fachbeitrag soll das Verständnis von dieser Methode vertiefen. Er beleuchtet die Anwendung und Vorteile der Wertstromanalyse und gibt wertvolle Hinweise für ihren Einsatz. Ziel ist es, aufzuzeigen, wie Qualitätsmanager und Co. dieses Werkzeug nutzen können, um ihre Prozesseffizienz zu […]
Einführung eines standardisierten Prozessaudits zur Überprüfung der Wirksamkeit von Quality Core Tools
Notwendigkeit des Einsatzes von Quality Core Tools Um den hohen Qualitätsstandards der Branche gerecht zu werden, hat die Automobilindustrie eine Reihe von Werkzeugen und Methoden entwickelt, welche unter dem Begriff „Automotive Core Tools“ zusammengefasst werden. Die Automotive Core Tools sind heute ein erfolgreicher und etablierter Standard im Qualitätsmanagement der Automotiv-Unternehmen und so ist es nicht verwunderlich, dass diese immer häufiger von Non-Automotive-Branchen adaptiert und dort unter dem Begriff „Quality Core Tools“ im Qualitätsmanagement eingesetzt werden. Auch die BSH Hausgeräte GmbH hat sich bereits vor vielen Jahren entschieden, die Quality Core Tools zu adaptieren, um die Prozesse von der Produktentwicklung, über das gesamte Projektmanagement bis zum Produktionsstart (SOP) zu optimieren. Damit können potenzielle Fehlerquellen frühzeitiger erkannt und behoben, sowie Kosten von Ausschuss und Reklamationen gesenkt werden. Zudem ermöglichen die eingesetzten Methoden eine bessere Steuerung und Überwachung der Prozesse, was zu einer Steigerung der Effizienz und Produktivität führen kann. Erfordernis identischer […]
Agile und Lean Six Sigma – wie passt das zusammen?
Immer mehr Unternehmen wenden Ansätze wie Six Sigma und agile Arbeitsweisen in ihrem Unternehmen an. Und das ist keine Überraschung. In den letzten zehn Jahren ist zunehmend die Technologie in vielen Bereichen in den Vordergrund gerückt. Wir nutzen Technologie in unserem täglichen Leben, sei es zu Hause oder bei der Arbeit. Ganz gleich, um welche Aufgabe es sich handelt. Das Kundenverhalten wird stark von der Technologie beeinflusst, und wenn die Unternehmen nicht ständig am Ball bleiben, ist es nur eine Frage der Zeit, bis Ihre Kunden einen anderen Anbieter finden, der die Lücke füllt. Verbraucher erwarten heutzutage von Unternehmen zunehmend auch eine schnelle Lieferung, bei gleichbleibend hohem Qualitätsanspruch. Ansätze wie Six Sigma, Lean Management und Agilität ermöglichen es Unternehmen, dem Druck und den Anforderungen des Verbrauchermarktes zu begegnen. Diese Methoden unterscheiden sich jedoch in ihrer Umsetzung. Klassischerweise werden sie selten gleichzeitig angewandt, da oftmals das Methodenwissen fehlt. Dabei können […]
Die Automotive Core Tools in der IATF 16949
Qualitätsmanagement in der Automobilindustrie: Warum? Wie? Was? Die automobile Welt von heute befindet sich im Wandel. Die Maßstäbe zur Bewertung sind nicht länger Hubraum, Anzahl der Zylinder und Kraftstoffverbrauch- Vielmehr geht es mittlerweile um Batteriekapazität, die damit verbundene Reichweite, Ladegeschwindigkeit und die Fahrzeugsoftware, welche alle möglichen Features abbilden soll. Wer vorn mitspielen will, muss höchsten Ansprüchen genügen, sonst fällt er im globalen Wettbewerb zurück. Das ist keine neue Erkenntnis. Doch Zeiten des Wandels geben immer auch Anlass, Fragen zu stellen. Warum sollten wir uns weiterhin mit Qualitätsmanagement befassen? Wie lassen sich wirksam die Anforderungen eines solchen QM-Systems umsetzen und was ist konkret gefordert? Normbasierte QM-Systeme wie jene nach ISO 9001 und IATF 16949 haben zum Ziel, einen systematischen Ansatz zur Steuerung der Erfüllung von Anforderungen über die gesamte Lieferkette bereitzustellen. Liefern bedeutet nichts anderes als die Erfüllung von Kunden-, gesetzlichen und behördlichen sowie internen Anforderungen. Dies ist zugleich die […]
„Auch das Integrierte Managementsystem vom Prozess her denken“
Qualität, Energie, Umwelt oder Arbeitsschutz – die Anforderungen an Unternehmen werden immer vielfältiger und umfangreicher. Als effiziente Lösung bietet sich hier ein integriertes Managementsystem (IMS) an. Doch wie ein solches implementieren? Im Interview erläutert Philipp Hörmann, DGQ-Trainer und Gründer der Unternehmensberatung WeitBlick, die Vorteile eines IMS, warum die Prozesssicht entscheidend ist und welche Voraussetzungen für eine erfolgreiche Integration zu erfüllen sind. Wo sehen Sie bei einem integrierten Managementsystem die größten Vorteile? Philipp Hörmann: Um es auf den Punkt zu bringen - mehr Effektivität, Effizienz und Transparenz! Mit Hilfe eines integrierten Managementsystem schafft man, Aufwände, Kosten und Abläufe im Managementsystem und für die angestrebten Zertifizierungen zu optimieren. Dazu bedarf es einer ganzheitlichen Sichtweise und einer konsequenten Prozessorientierung. Außerdem sehe ich, wo Synergieeffekte optimal genutzt werden können und kann dadurch die verschiedenen Normanforderungen zentral bündeln. Da die Dokumentation meist ein ungeliebtes Thema ist, lässt sich auch hier mit einem gut aufgesetzten […]
FQS-Forschungsprojekt „AM Analytics“: Frühzeitige Defekterkennung für pulverbettbasierte additive Fertigungsprozesse
Die Technologie der „Laser Powder Bed Fusion“ (L-PBF-Verfahren) ermöglicht es, Bauteile aus metallischen Werkstoffen additiv zu fertigen. Dabei wird Metallpulver durch einen Laserstrahl selektiv aufgeschmolzen und Bauteile Schicht für Schicht aufgebaut. Diese Form der laser-additiven Fertigung birgt große Potenziale für die industrielle Produktion, da sie beispielsweise die Fertigung individualisierter Bauteile mit unterschiedlichen Geometrien ermöglicht. Eine zentrale Herausforderung für den Einsatz und die weitere Etablierung des Verfahrens in der industriellen Fertigung stellt die qualitätssichere Gestaltung von L-PBF-Prozessen dar. Im Rahmen des Forschungsprojektes „AM Analytics“ der FQS – Forschungsgemeinschaft Qualität e.V. entwickeln Wissenschaftlerinnen und Wissenschaftler der Fraunhofer-Einrichtung für Additive Produktionstechnologien IAPT und der Helmut-Schmidt-Universität/Universität der Bundeswehr Hamburg eine automatisierte In-situ-Defekterkennung für die pulverbettbasierte additive Fertigung. Im Interview gibt Philipp Kohlwes, Head of L-PBF am Fraunhofer IAPT, einen Ausblick auf die entstehende Lösung und erklärt, wie Unternehmen von den Forschungsergebnissen profitieren können. Aus welcher Problemstellung heraus ist das Forschungsprojekt entstanden? Philipp Kohlwes […]
Das Audit – kurz und kompakt erklärt
Audit – was ist das? Ein Audit im weiteren Sinne bedeutet, eine objektive Analyse zur Verbesserung der Betriebsorganisation systematisch durchzuführen. Mittels Interviews, Beobachtung und Einsichtnahme wird geprüft, ob ein Unternehmen geltende Vorschriften, Gesetze oder Bestimmungen einhält. Als Grundlage dienen zumeist ISO-Normen – zum Beispiel zu Managementsystemen für Qualität, Umwelt, Energie oder zu Branchenspezifika. Informationen aus dem Audit helfen Führungskräften und Abteilungsleitern, solide Entscheidung zu treffen. Dies bietet die Chance für kontinuierliche Verbesserungen der Betriebsorganisation und der Realisierung von Unternehmenszielen. Warum braucht man ein Audit? Zwischen einem Qualitätsziel und dem gewünschten Ergebnis steht eine eigene Ablauforganisation. Ein Unternehmen kann in diesem Fall die ISO 9001 für Qualitätsmanagementsysteme oder auch eigene Vorgaben anwenden. Ziel ist es, Betriebsblindheit im Sinne von „Das war schon immer so“ zu überwinden und Handlungsbedarf abzuleiten beziehungsweise den Sinn lange bestehender Vereinbarungen objektiv zu bestätigen oder zu hinterfragen. Gleichzeitig wird durch ein Audit die notwendige Kommunikation gefördert […]
Informationssicherheit und die Norm ISO/IEC 27001 – ein Blick auf die Normentwicklung und branchenspezifische Standards
Ein Blick zurück auf die Entwicklung der Informationssicherheit zeigt: Das Thema „Sicherheit“ im Sinne des Schutzes von Informationen oder Daten ist grundsätzlich nicht neu. Es ist jedoch traditionell stark mit dem Vorhandensein physischer Informationsträger – also technischer Geräte, Patente, Prototypen, Pläne, Aktenordner, Verträge – verbunden. Mit der Digitalisierung hat die Herausforderung dann eine neue Dimension erreicht. Im Fokus stehen damals wie heute die zentralen Schutzziele Verfügbarkeit, Vertraulichkeit und Integrität. Bereits im vordigitalen Zeitalter bestand die Frage, was auf Basis der Schutzwürdigkeit (Abwägung des schutzwürdigen Werts gegenüber Sicherheitsrisiken) letztlich wie zu schützen ist. Vergitterte Türen, ein Schloss an einer Tür, massive Wände, abschließbare Aktenschränke, Zutrittskontrollen bis hin zu begehbaren Tresoren im Keller von Banken mit Schließfächern für Dokumente etc. waren die Folge des Schutzbedarfes. Mit dem Aufkommen der Informationstechnik und dem Vorhandensein portabler Speichermedien boten sich für Kriminelle völlig neue Optionen, wichtige Informationen stehlen zu können. Nun konnten Wechselfestplatten, Floppy […]
Doppelte Wesentlichkeitsanalyse in der Nachhaltigkeitsberichterstattung
Die Corporate Sustainability Reporting Directive (CSRD) verlangt künftig eine doppelte Wesentlichkeitsanalyse bei der Bewertung der Themen, die die European Sustainability Reporting Standards (ESRS) vorgeben. Im Interview mit Franziska Patzwald, Produktmanagerin der DGQ-Weiterbildung, berichten Tobias Kirchhoff und Ann-Katrin Bimber von der DFGE – Institut für Energie, Ökologie und Ökonomie über die Bedeutung und Umsetzung der doppelten Wesentlichkeitsanalyse. Was ist eine doppelte Wesentlichkeitsanalyse? Ann-Katrin Bimber: Die Wesentlichkeitsanalyse dient dazu, die für ein Unternehmen und seine Anspruchsgruppen bedeutenden Nachhaltigkeitsthemen zu ermitteln. Ein Unternehmen soll sich beim Nachhaltigkeitsmanagement zunächst auf die Themen konzentrieren, die als wesentlich betrachtet werden. Bei der Frage, was ‚wesentlich‘ oder ‚material‘ bedeutet, müssen im Sinne der doppelten Wesentlichkeit zwei Perspektiven berücksichtigt werden. Man unterscheidet zwischen der Inside-Out Perspektive, auch Impact Materiality genannt, und der Outside-In Perspektive, auch finanzielle Wesentlichkeit genannt. Diese Blickwinkel bilden die Basis für die Ableitung der strategisch relevanten Nachhaltigkeitsthemen und der Berichtspflichten. Die Outside-In-Perspektive betrachtet externe […]
„Ein Managementsystem ist das Betriebssystem der Organisation“
Jede Organisation hat ein Managementsystem, doch häufig ist dieses nicht so gut, wie es sein könnte. Dr. Wilhelm Griga, Senior Quality Manager bei Siemens, erklärt, woran das liegt, wie Unternehmen die Herausforderungen bewältigen können und warum Normen dabei manchmal hinderlich sind. Herr Griga, Sie haben gemeinsam mit Benedikt Sommerhoff von der DGQ-Ansätze zur effektiveren Gestaltung von Managementsystemen erarbeitet. Was sehen Sie als Herausforderung in der Praxis in Bezug auf Managementsysteme? Dr. Wilhelm Griga: Oft wird als Managementsystem nur das gezählt, was mindestens so heißt, was sich besser noch auf eine Managementsystemnorm bezieht oder idealerweise gegen eine solche zertifiziert ist. Dieses Missverständnis stellt eine der Herausforderungen dar. Denn in jeder Organisation gibt es ein Managementsystem. Die Menschen kommen schnell an den Punkt, dass sie einige Dinge – etwa ihre Kooperation oder die Abläufe – informal oder formal regeln müssen. Schon beginnt die Existenz eines Managementsystems. Ob dieses effektiv ist, ist […]
FQS-Forschungsprojekt: Das ISO GPS-System erfolgreich in die Praxis integrieren
Das System der Geometrischen Produktspezifikation und -verifikation (ISO GPS-System) bildet als größtes Normensystem der ISO im Maschinenbaubereich den Stand der Technik für die Spezifikation und Verifikation von Bauteilen ab. Das umfangreiche Normensystem zu durchschauen und umzusetzen, stellt für viele Unternehmen jedoch eine Herausforderung dar. Im Rahmen des von der FQS Forschungsgemeinschaft Qualität e. V. geförderten Forschungsprojektes „GPSlife“ wurden in einem Zeitraum von zwei Jahren unter der Leitung der Professur Fertigungsmesstechnik an der TU Chemnitz gemeinsam mit Partnern aus Industrie und Weiterbildung neue und nachhaltige Umsetzungsstrategien für das komplexe ISO GPS-System entwickelt. Ziel des Projektes war es, durch eine reifegradbasierte Roadmap Methoden und Vorgehensweisen zur Integration der Geometrischen Produktspezifikation in der Praxis zu erarbeiten, welche insbesondere auf die Anforderungen von KMU abgestimmt sind, um somit flächendeckend ein gelebtes GPS-System zu erreichen. Im Interview stellen Prof. Dr. Sophie Gröger, Leiterin der Professur Fertigungsmesstechnik an der TU Chemnitz und Juliane Schuldt, wissenschaftliche […]
Interview zum FQS-Forschungsvorhaben SAPEQ: Fit für Smart Data Analytics in der Produktentstehung
Insbesondere in der Produktentwicklung kann eine systematische Vorgehensweise im Umgang mit Daten und der gezielte Einsatz von Smart Data dabei unterstützen, Produkte schneller an den Markt zu bringen, Kundenwünsche besser zu adressieren, Fehlerkosten zu reduzieren und eine hohe Qualität sicherzustellen. Wie Unternehmen vorliegende Daten effektiv für den Produktentstehungsprozess nutzen können, untersuchte das von der FQS Forschungsgemeinschaft Qualität e. V. geförderte Forschungsprojekt SAPEQ. In einem Zeitraum von zwei Jahren haben Wissenschaftler:innen der Technischen Universität Berlin in Kooperation mit der Hochschule Koblenz ein entsprechendes Assistenzsystem entwickelt Es befähigt insbesondere Mitarbeitende in KMU dazu, Smart Data systematisch und methodenbasiert im Produktentstehungsprozess anzuwenden. Im Interview stellen Prof. Dr. Roland Jochem, Leiter des Fachgebiets Qualitätswissenschaft am Institut für Werkzeugmaschinen und Fabrikbetrieb der TU Berlin, und Lena Feindler, Mitarbeiterin im Forschungsprojekt SAPEQ, die wichtigsten Ergebnisse vor. Sie zeigen, wie interessierte Unternehmen das entwickelte Assistenzsystem nutzen können. Aus Sicht des SAPEQ-Projekts: Mit welchen Herausforderungen sind insbesondere […]
KI in der Qualitätssicherung – Open Source Werkzeuge geben künftig den Takt vor
Qualitätssicherung und Qualitätskontrolle gehören vor allem in fertigenden Unternehmen zu den wichtigsten Schritten der Wertschöpfungskette. Hierfür stehen immer mehr Daten zur Verfügung, die es zu verarbeiten gilt. Eine immer größere Rolle spielen hierbei Open-Source-Anwendungen für Big Data Analytics und KI wie beispielsweise Python. Gemeinsam mit DATATRONIQ und der AdvancedAnalytics.Academy hat die DGQ ein Training entwickelt, das den Teilnehmern einen strukturierten Zugang zu dieser Programmiersprache ermöglicht. Durch die zunehmende Digitalisierung der Produktionsprozesse, den Aufbau und Ausbau von Sensorik sowie die Fortschritte in der Messtechnik stehen künftig deutlich mehr qualitätsbeschreibende und weitaus hochauflösendere Daten zur Verfügung, um die Qualität von Bauteilen oder Prozessen bewerten zu können. Stetig wachsende Datenvolumina erfordern neue Analysewerkzeuge Um die großvolumigen Daten künftig effizient verarbeiten und analysieren zu können, werden Werkzeuge benötigt, die sich problemlos mit den wachsenden Datenmengen skalieren lassen. Sie müssen außerdem in der Lage sein, die Datenverarbeitung automatisiert und idealerweise inline durchzuführen. Unternehmen können […]
Mit dem Qualität-4.0-Reifegradmodell zur Digitalisierung des Qualitätsmanagements
Die digitale Transformation der Geschäftswelt ist in vollem Gange und umfasst auch zunehmend das Qualitätsmanagement produzierender Unternehmen. Insbesondere kleinen und mittleren Unternehmen fehlen oftmals personelle und finanzielle Ressourcen, um mit technologischen Entwicklungen Schritt zu halten und die digitale Transformation des Qualitätsmanagements anzustoßen. Aus diesem Grund widmet sich das Forschungsprojekt „Qbility – Quality 4.0 Capability Determination Model“ dieser Problemstellung. Im Rahmen des von der FQS Forschungsgemeinschaft Qualität e. V. geförderten Forschungsprojektes haben das Fraunhofer-Institut für Produktionstechnologie IPT, die Fachhochschule Südwestfalen sowie Partner aus der Industrie gemeinsam ein Qualität-4.0-Reifegradmodell erarbeitet. Das Tool ermöglicht es produzierenden Unternehmen, ihren eigenen Qualität-4.0-Reifegrad durch die Beantwortung gezielter Fragen zu bestimmen. Das Qualität-4.0-Reifegradmodell nutzt die Antworten der Unternehmen, um den individuellen Qualität-4.0-Reifegrad eines Unternehmens zu berechnen. Es stellt darüber hinaus automatisch abgeleitete Handlungsempfehlungen sowie Technologiesteckbriefe zur Verfügung, die den Unternehmen Anhaltspunkte auf dem Weg zu Qualität 4.0 liefern. Das entwickelte Qualität-4.0-Reifegradmodell wurde in ein Web-Tool überführt […]
Personalbemessung in der Pflege: Echte Verbesserung oder nur akademische Übung?
Die Diskussion über die Personalbemessung in der Langzeit-Pflege ist mindestens so alt wie die Pflegeversicherung. Auch in der Krankenversorgung wurde sie erörtert und schließlich 2018 mit der Pflegepersonaluntergrenzen-Verordnung (PpUgV) auf Gesetzesgrundlage festgelegt und seither weiterentwickelt. Das geschah nicht gerade lautlos. So wie nun in der stationären Altenhilfe, wo ab kommendem Sommer eine viel diskutierte Regelung nach §113c des elften Sozialgesetzbuches (Pflegeversicherung) gelten wird. Grundlage für die neue Stellenberechnung ist eine Untersuchung, die nach dem Projektleiter und Professor an der Uni Bremen als „Rothgang-Studie“ bezeichnet wird. Darin wird ein Verfahren zur Personalbemessung in stationären Pflegeeinrichtungen vorgeschlagen, das mit dem Gesetz zur Weiterentwicklung der Gesundheitsversorgung (GVWG) nun Einzug in die Personalvorgaben für Heime hält. Die Ziele des Gesetzes sind eine gute, effiziente Pflege und eine sichere Versorgung pflegebedürftiger Menschen. Die Umsetzung gestaltet sich holprig, der Nutzen wirft Fragen auf. Im Grunde geht es darum, welche Pflegeleistungen in Deutschland von Fachkräften mit […]