Skip to main content

2025 | Buch

Rethinking Quality - Wandel des Qualitätsmanagements durch Digitalisierung und Künstliche Intelligenz

Bericht zur GQW-Jahrestagung 2024 in Berlin

insite
SUCHEN

Über dieses Buch

In einer Zeit des technologischen Fortschritts, globaler Krisen sowie sich verändernder Kundenerwartungen muss Qualität neu gedacht werden. Das traditionelle Qualitätsmanagement, welches jahrzehntelang auf bewährten Prozessen und Methoden basierte, unterliegt einer fundamentalen Transformation. Der alleinige Fokus auf Produkte ist längst unzureichend, um die Vielfältigkeit des Qualitätsmanagements in Unternehmen abzubilden. Vielmehr muss Qualität ganzheitlich im Wertschöpfungsnetzwerk verankert werden. Zentraler Treiber der Vernetzung ist die umfassende Digitalisierung der industriellen Produktion mit ihrer zunehmenden Datenverfügbarkeit über die verschiedenen Wertschöpfungsstufen und Lebenszyklusphasen hinweg. In diesem Zusammenhang eröffnet Künstliche Intelligenz völlig neue Möglichkeiten, die Art und Weise, wie Qualität gemessen, überwacht und verbessert wird, zu revolutionieren. Der Wandel des Qualitätsmanagements durch Digitalisierung und Künstliche Intelligenz geht jedoch über die bloße Implementierung neuer Technologien hinaus. Digitalisierung, Datenanalytik und Künstliche Intelligenz erweitern die Potenziale des Qualitätsmanagers und erfordern die umfassende Entwicklung neuer Kompetenzen. Alles in allem bedarf es daher neuer Leitbilder, Strategien und Abläufe im Qualitätsmanagement, um auch in Zukunft erfolgreich und wettbewerbsfähig zu bleiben.

Als Tagungsband zur Jahrestagung der Gesellschaft für Qualitätswissenschaft e.V. (GQW) im Oktober 2024 in Berlin fokussiert dieses Buch unter dem Motto „Rethinking Quality“ die Diskussion wesentlicher Themen und Aufgaben, um das Qualitätswesen zukunftsfähig zu machen. Der Schwerpunkt liegt auf der Auseinandersetzung mit aktuellen Handlungsfeldern, Trends sowie Entwicklungen im Qualitätsmanagement rund um Digitalisierung und Künstliche Intelligenz. Enthalten sind alle im Rahmen der Tagung eingereichten, vorgestellten und positiv begutachteten Beiträge, sodass ein breites Spektrum an neuen Erkenntnissen und Best Practices abgedeckt wird.

Inhaltsverzeichnis

Frontmatter
Quality Intelligence – Wege zur Entwicklung eines intelligenten Qualitätsmanagements in der Produktion
Zusammenfassung
Die zunehmende Verfügbarkeit von Daten und die fortschreitende Entwicklung von Technologien ebnen den Weg für fortschrittliche Methoden der Datenanalyse, mitunter der künstlichen Intelligenz (KI). Welche neuen Möglichkeiten bieten diese Entwicklungen für das Qualitätsmanagement und das vollumfängliche Ausschöpfen des vorliegenden Datenpotentials? Ziel dieses Beitrags ist es, die historische Entwicklung des Qualitätsmanagements darzustellen und zukünftige Entwicklungsrichtungen aufzuzeigen. Basierend auf dem Aachener Qualitätsmanagement-Modell (ACQMM) als Rahmenwerk und der Infrastruktur des Internet of Production (IoP) werden neue Wege für ein intelligentes und handlungsorientiertes Qualitätsmanagement vorgeschlagen, die durch strukturiertes Fehlerdatenmanagement entlang des Produktlebenszyklus unterstützt werden. Es wird ein Einblick in das Potential eines prädiktiven Qualitätsmanagements zur Steigerung der Resilienz in produzierenden Unternehmen gegeben. Hierzu gehören Methoden der prädiktiven Qualität in Kombination mit erklärbarer KI für eine kosteneffiziente und verbesserte Prozesssteuerung. Des Weiteren wird ein Ansatz vorgestellt, um den Aufwand der Datenbereitstellung, -aufbereitung und der Modellbildung zu reduzieren. Das ACQMM bietet dabei einen Rahmen zur Definition, Steuerung und Umsetzung dieser Anwendungen, unter Berücksichtigung der Anforderungen relevanter Interessengruppen.
Marcos Padrón Hinrichs, Nils Klasen, Tobias Schulze, Felix Sohnius, Robert H. Schmitt
Potenziale und Herausforderungen von KI-basierten akustischen Qualitätsprüfungen in der Automobilproduktion
Zusammenfassung
Die Anwendung von Künstlicher Intelligenz (KI) in der Qualitätsprüfung ermöglicht die Automatisierung von bisher manuell durchgeführten Prüftätigkeiten. Damit entwickelt sich KI zur Schlüsseltechnologie und verspricht signifikante Verbesserungen bezüglich Zeit, Kosten und Qualität. Während sich der Einsatz von Computer Vision (KI-basiertes Sehen) in der visuellen Qualitätsprüfung bereits in produzierenden Unternehmen etabliert hat, ist die Anwendung von Computer Audition (KI-basiertes Hören) in der akustischen Qualitätsprüfung weitestgehend unerforscht. Ein ausschlaggebender Faktor dafür ist die hohe Sensibilität von Audioaufnahmen aus dem industriellen Umfeld und die damit einhergehende geringe öffentliche Datenverfügbarkeit. Im Gegensatz dazu demonstrieren Anwendungsfälle aus dem Alltag wie z. B. die Shazam App zur Musikerkennung oder die BirdNet App zur Erkennung von Vogelstimmen die Potenziale von KI in der Akustik. Vor diesem Hintergrund hat folgender Forschungsbeitrag das Ziel, Potenziale und Herausforderungen für KI-basierte akustische Qualitätsprüfungen in der Automobilproduktion aufzuzeigen. Dafür werden im ersten Schritt mögliche Anwendungsfälle identifiziert. Anschließend wird ein Vorgehensmodell zur KI-Entwicklung vorgestellt. Dabei werden Audioaufnahmen in Spektrogramme umgewandelt und ein KI-Modell zur Erkennung prägnanter Muster und somit zur Qualitätsprüfung antrainiert. Auf Basis der identifizierten Anwendungsfälle und dem aufgezeigten Vorgehensmodell werden Erkenntnisse zur Erreichung des Forschungsziels abgeleitet.
Roman Strasser, Robert Refflinghaus
Anwendung von Causal-Discovery-Algorithmen zur Root-Cause-Analyse in der Fahrzeugmontage
Zusammenfassung
Root-Cause-Analyse (RCA) ist eine Methode des Qualitätsmanagements, die darauf abzielt, die Ursache-Wirkungs-Zusammenhänge von Problemen und deren zugrundeliegenden Ursachen systematisch zu untersuchen und zu identifizieren. Traditionelle Methoden basieren auf der Analyse von Problemen durch Fachexperten. In modernen Produktionsprozessen werden große Mengen an Daten erfasst. Aus diesem Grund werden zunehmend rechnergestützte und datengetriebene Methoden für die RCA verwendet. Eine dieser Methoden sind Causal-Discovery-Algorithmen (CDA). In dieser Veröffentlichung wird die Verknüpfung und Vorverarbeitung von Daten aus der Montage eines führenden Automobilherstellers sowie die Anwendung von CDA auf diese demonstriert. Die verwendeten Algorithmen lernen die kausale Struktur zwischen den Eigenschaften der hergestellten Fahrzeuge, der Ergonomie und des zeitlichen Umfangs der beteiligten Montageprozesse und qualitätsrelevanten Produktmerkmalen anhand repräsentativer Daten. Es wird gezeigt, wie die Leistung der CDA im Kontext des Qualitätsmanagements beurteilt werden kann. Dafür werden verschiedene Metriken vorgestellt und die Algorithmen mittels dieser sowie ihrer Laufzeit miteinander verglichen. Die vorliegende Veröffentlichung liefert einen Beitrag zum Qualitätsmanagement und demonstriert, wie CDA zur RCA in Montageprozessen eingesetzt werden können.
Lucas Poßner, Lukas Bahr, Leonard Röhl, Christoph Wehner, Sophie Gröger
Vergleich von KI-Algorithmen zwecks automatisierter Klassifizierung von Reklamationen
Zusammenfassung
Die Qualität der Reklamationserfassung ist entscheidend für Unternehmen, da Fehler zu Kundenabwanderung und Imageschaden führen können. Ein effizienter Reklamationsbearbeitungsprozess erfordert Expertenteams, was für ein Unternehmen zusätzliche Kosten verursacht. Gerade KMUs sind daher dazu geneigt, Reklamationen stiefmütterlich zu behandeln. Dadurch gehen dem Unternehmen wertvolle Informationen zur Prozessverbesserung verloren. Künstliche Intelligenz (KI) bietet neue Möglichkeiten zur Bewältigung dieser Herausforderungen, insbesondere durch automatische Klassifizierung von Reklamationen. Diese Studie soll KI-Algorithmen untersuchen und spezifische Anforderungen für eine erfolgreiche Reklamationsklassifizierung ableiten. Bestehende Methoden wie Support Vector Machines, KNN-Algorithmen und SoftMax-Regression u. a. werden bereits für ähnliche, aber meist weniger komplexe Aufgaben eingesetzt. Während große Unternehmen auf KI-Eigenentwicklungen zurückgreifen können, stehen solche daten- und kostenintensive Varianten KMUs nicht zur Verfügung. Die Automatisierung der Reklamationsklassifizierung ist jedoch insbesondere für kleinere Unternehmen entscheidend für die Kundenbindung und betriebliche Effizienz. Die Ausführungen dieser Arbeit sollen das Potenzial von KI-gestützten Lösungen zur Verbesserung des Reklamationsbearbeitungsprozesses aufzeigen und Unternehmen und Forschenden neue Perspektiven der Nutzung von KI präsentieren. So kann die Forschung zukünftig die Optimierung bestehender Algorithmen fokussieren, oder die Entwicklung neuer Ansätze in Betracht ziehen. Diese Arbeit trägt zur Weiterentwicklung eines dynamischen Forschungsfeldes bei und zeigt die Bedeutung von kontinuierlicher Anpassung und zukünftiger Forschung in diesem Bereich auf.
Christian Böhmer, Nadine Schlüter, Manuel Löwer
Substituierung konventioneller Aktorik durch intelligente Werkstoffe: Erprobung der technischen Zuverlässigkeit von aktiv gekühlten Formgedächtnis-Aktoren
Zusammenfassung
Aktoren werden zur Realisierung von Stellbewegungen und -kräften in technisch komplexen Systemen eingesetzt. Mit steigender Komplexität der Systeme steigen die Anforderungen an diese Aktoren. Begrenzungen von Bauraum und Gewicht bei hohen, erforderlichen Stellkräften und -bewegungen erschweren den Einsatz konventioneller Aktoren. Ein alternativer Lösungsansatz ist die Nutzung des Formgedächtniseffekts, z. B. bei Nickel-Titan-Drähten, innerhalb eines Aktorsystems. Aufgrund der hohen Energiedichte von Formgedächtnisdrähten lassen sich hohe Kräfte bei geringem Bauraum und Gewicht realisieren. Weitere Vorteile sind Korrosionsbeständigkeit und ein lautloser sowie energieeffizienter Betrieb. Allerdings ist ein standardisierter Einsatz in vielen potentiellen Anwendungsfeldern bisher nicht möglich, da ein komplexes Materialverhalten vorliegt, welches den Einsatz der Technologie limitiert. Nach einer Aktivierung ist beispielsweise eine Abkühlphase erforderlich, welche die Aktivierungsfrequenz begrenzt. Weiterhin ist das Degradationsverhalten nicht ausreichend erforscht, da kaum standardisierte Erprobungsprogramme für die einheitliche Erprobung der Langzeitzuverlässigkeit existieren. Im Rahmen dieses Beitrags wird ein Prüfstand für Ermüdungsversuche skizziert. Anschließend werden die Messdaten von Lebensdauerversuchen (verschiedene Lastszenarien) analysiert. Der Fokus liegt auf dem Einfluss einer aktiven Belüftung (verkürzte Abkühlphase) auf Ermüdungseffekte und das Ausfallverhalten. Die Datenanalyse erfolgt unter Anwendung verschiedener statistischer Verfahren, um Aussagen zur technischen Zuverlässigkeit der Formgedächtnisdrähte zu treffen. Abschließend wird der Einsatz von Formgedächtnisdrähten zur Substitution von Schrittmotoren in klimatisch anspruchsvollen Umgebungen diskutiert.
Marcel Schmidt, Philipp Heß, Stefan Bracke
Untersuchungen beschleunigender Degradationsfaktoren von Elektrolyseurkomponenten in der Wasserstoffproduktion unter dem Einfluss erneuerbarer Energielasten
Zusammenfassung
In Anbetracht der Klimaschutzziele rückt der Ausbau von Technologien mit innovativ umweltfreundlichem Potenzial verstärkt in den Fokus. Durch die damit einhergehende Energiewende entstehen neue Anforderungen in den Belastungsprofilen technisch komplexer Produkte der Energieerzeugung bzw. -speicherung. Um diesen Herausforderungen begegnen zu können, ist es von substanzieller Bedeutung, die betrieblichen Anforderungen zu analysieren und ihre Auswirkungen auf die Technische Zuverlässigkeit zu verstehen. Als konkretes Anwendungsbeispiel wird in dieser Publikation die Herstellung von Wasserstoffgas fokussiert, welches im industriellen Maßstab durch einen elektrochemischen Prozess in Elektrolyseuranlagen hergestellt wird. Aufgrund der dafür erforderlichen chemisch anspruchsvollen Medien unterliegen die Elektrolyseure einem kontinuierlichen Verschleiß, welcher die Effizienz sowie Effektivität dieser Anlagen mit zunehmender Betriebszeit reduziert, bis diese schließlich ausfallen. Die Zuverlässigkeit der Elektrolyseurkomponenten hängt dabei von einer Vielzahl von Einflussfaktoren wie dem induzierten Strom, der elektrischen Spannung, der Temperatur und der chemischen Zusammensetzung des Elektrolyten ab. Im Hinblick auf den zukünftigen Einsatz der Elektrolyseure, aus erneuerbaren Energien Wasserstoff zu produzieren, entsteht durch die volatilen Lastschwankungen ein komplexes Belastungsprofil, welches bisher nicht berücksichtigt wird. In diesem Beitrag wird ein prototypischer Versuchsaufbau skizziert, um das Degradationsverhalten der Elektrolyseurkomponenten mit dem Anforderungsprofil erneuerbarer Energien datenbasiert zu untersuchen. Durch die implementierte Sensorik erfolgt eine umfassende Aufnahme der degradationsrelevanten Betriebsparameter, wodurch eine Datenbasis für die Anwendung von datenanalytischen Methoden erzeugt wird. Die erste Auswertung der Daten zeigt, dass volatile Lasteinbringungen und die Höhe der Frequenz einen negativen Einfluss auf die Langzeitzuverlässigkeit der Komponenten haben.
Jannis Pietruschka, Benno Büttner, Stefan Bracke
Vergleichende Prozesskettenuntersuchung der konventionellen und additiven Fertigung eines Demonstratorbauteils unter umwelttechnischen Aspekten
Zusammenfassung
Nachhaltigkeit ist branchenübergreifend ein relevantes Thema. Häufig werden zu umwelttechnischen Untersuchungen jedoch nur einzelne Schritte der Fertigung eines Produktes und nicht die gesamte Prozesskette betrachtet. Der vorliegende Artikel liefert einen Vergleich von konventionellen und additiven Fertigungsverfahren anhand eines Demonstratorbauteils unter umwelttechnischen Gesichtspunkten. Zu diesem Zweck werden die Wertschöpfungsketten der additiven Fertigungsverfahren des Laser Powder Bed Fusion und der Wire Arc Direct Energy Deposition mit einer konventionellen Fertigungsprozesskette verglichen. Hierbei kommen Energieverbrauch, CO2-Ausstoß und Abfallaufkommen als wesentliche Vergleichskriterien zur Anwendung. Im Ergebnis sind die additiven Fertigungsverfahren für das Demonstratorbauteil, in Bezug auf die genannten Kriterien als nachhaltiger zu bewerten. Der Artikel erhebt keinen Anspruch auf vollständige Übertragbarkeit, präsentiert jedoch einen Ansatz zur Analyse der Bauteilnachhaltigkeit über die gesamte Wertschöpfungskette.
Lennart Grüger, Tim Sebastian Fischer, Elisa Korb, Sebastian Härtel
Definition von Grenzen zur multispektralen Überwachung der Pflanzenvitalität
Zusammenfassung
Die kommenden Jahre werden aufgrund der Auswirkungen des Klimawandels, wie Trockenheit und Schädlingsbefall, neue Herausforderungen für die Waldbewirtschaftung mit sich bringen, um die Artenvielfalt und das Gleichgewicht der Vegetation zu erhalten. Der Einsatz verschiedener Sensortechnologien ermöglicht es, Veränderungen frühzeitig zu erkennen und geeignete Maßnahmen zur Schadensbegrenzung zu ergreifen. Die multispektrale Bildgebung ermöglicht dabei nicht nur die berührungslose Erfassung von Vitalparametern, sondern auch die Erfassung von spezifischen Pflanzenmerkmalen wie Chlorophyllgehalt, Stickstoffverbrauch oder photosynthetische Aktivität in quantifizierbarer Größe durch den Einsatz von Vegetationsindizes. Durch die Einbindung in etablierte Methoden des Qualitätsmanagements, wie z. B. Kontrollkarten, können Krankheitssymptome frühzeitig erkannt und die Wirkung der getroffenen Maßnahmen bewertet werden. In dem hier untersuchten Verhalten verschiedener für den Thüringer Wald typischen Baumarten unter Wassermangel konnten Warnzeichen des Austrocknens bereits nach wenigen Tagen erfasst werden.
Martin Richter, Maik Rosenberger, Gunther Notni
Qualitätsmerkmal Nachhaltigkeit – Treiber für die Digitalisierung und den Wandel von Kunden-Lieferanten-Beziehungen in der Agrar- und Ernährungswirtschaft
Zusammenfassung
Mit der Corporate Sustainability Reporting Directive (CSRD) der EU entstehen nicht nur neue Berichtspflichten, sondern auch ein gestiegener Bedarf, zusätzliche Daten zwischen den Unternehmen der Zulieferketten zum Lebensmitteleinzelhandel auszutauschen.
Der Beitrag zeigt, wie sowohl in Unternehmen der Agrar- als auch in der Ernährungswirtschaft neue Lösungen entwickelt und in der Praxis erprobt wurden, um im Sinn der CSRD-Transparenz über verantwortungsvolle Geschäftspraktiken in Bezug auf den CO2-Fußabdruck, Biosicherheit, Tierwohl und Reduktion von Food Waste von den Unternehmen berichten zu können. Vor allem für aus land- und forstwirtschaftlichen Betrieben stammende Daten werden beim Nachweis der Nachhaltigkeit Informationen inzwischen zu einem immateriellen Wirtschaftsgut. Dank der hybriden Dienstleistung Q-Farm-HUB und der gewonnenen Daten-Souveränität von Zielgruppen aus dem Agrarbereich entstehen für diese Gruppen weitere Möglichkeiten der Wertschöpfung aus ihren veränderten Geschäftspraktiken. Digitale Tools für die überbetriebliche Transparenz und Rückverfolgbarkeit in grenzübergreifenden oder regionalen Wertschöpfungspartnerschaften schaffen Vertrauen zwischen den Marktpartnern im Sinne eines „Farm-to-Fork“ Ansatzes. Der Digitale Lieferschein als eine Funktionalität des Q-Farm-HUBs und bulkvision als Hygienekonzept für Speditionen und Transport-Dienstleister sind Beispiele innovativer Cloud-Lösungen. Die Lebensmittelverarbeitung als zentraler Mittelpunkt der Wertschöpfungskette führt Digitalisierungstools ein, die Auswertungen von Daten unter anderem durch ein LIMS-System wie Win Laisy und KI-Tools vereinfachen und dadurch eine nachhaltigere Produktion erfolgen kann. Der Wandel der Agrar- und Ernährungswirtschaft erfolgt ebenfalls durch die Änderung des Verzehrverhaltens der Verbraucher. Neben dem verringerten Fleischverzehr und einer Entwicklung zur pflanzenbasierten Ernährung gab es einen starken Anstieg in der Absatzmenge von Produkten für die Gemeinschaftsverpflegung, die in den letzten 20 Jahren stark angestiegen ist. Besonders bei dem Außer-Haus-Markt stieg der Absatz unter anderem von tiefgekühlten Snacks. Daraus lässt sich schließen, dass die Außer-Haus Verpflegung und Tiefkühlprodukte eine immer größere Bedeutung gewinnen werden. Die Einführung eines GS1-Systems wie Atrify hat in Unternehmen zu einer Optimierung in der Lieferanten-Kunden Beziehung geführt. Digitalisierung von Bestellsystemen wie Vento Pay von Mahlzeiten für Patienten in Krankenhäusern zeigte zunächst Verunsicherungen von Mitarbeitern und Patienten bei der Umstellung von analogen auf digitalen Systemen. Diese Umstellung wird in einer Klinik mit der Verbindung mit Portionsgrößenvorgaben erfolgen, wodurch weniger Lebensmittelabfälle entstehen und nachhaltiger gewirtschaftet werden kann. Diese Änderungen bedeuten auch Verhaltensänderungen bei den Akteuren innerhalb der Wertschöpfungskette, die durch Schulungen unterstützt und erfolgreich umgesetzt werden können.
Stephanie Krieger-Güss, Brigitte Petersen, Hans-Dieter Philipowski, Benjamin Fehrenbach, Annabelle Kunz
Qualitätsmanagement 4.0: Entwicklungen zur KI-gestützten Entscheidungsunterstützung in der Automobilmontage
Zusammenfassung
Das Qualitätsmanagement 4.0 profitiert zunehmend von einem Anstieg der Datenqualität und der Verfügbarkeit großer Datenmengen sowie der Entwicklung und Anwendung fortschrittlicher Algorithmen, die eine immer präzisere Vorhersage der produkt- und prozessbezogenen Qualität ermöglichen. Diese technologischen Entwicklungen sind wesentlich für das Konzept der KI-gestützten Entscheidungsunterstützung in der Automobilmontage. Hierbei werden KI-basierte Vorhersagemodelle eingesetzt, um die Qualitätssicherung in der Montage in Echtzeit zu unterstützen. Die KI-gestützten Empfehlungen können beispielsweise dazu verwendet werden den Prüfaufwand gezielt zu reduzieren. Damit tragen KI-basierte Ansätze entscheidend zur Optimierung der qualitätsbezogenen Kosten bei. Eine Fallstudie aus der Automobilmontage demonstriert die erfolgreiche Implementierung eines Ansatzes zur KI-gestützten Entscheidungsunterstützung bei Qualitätsprüfungen. Unter Berücksichtigung der jeweiligen Fahrzeugkonfiguration und der an einem Fahrzeug dokumentierten Nacharbeiten wird für jedes Produkt in Echtzeit prognostiziert, ob die Durchführung der Qualitätsprüfung Dichtheitsprüfung zielführend ist oder übersprungen werden kann. Die Ergebnisse der Fallstudie verdeutlichen, dass KI-gestützte Entscheidungsunterstützung eine transformative Wirkung auf das Qualitätsmanagement in der Montage hat und wesentlich zur Aufrechterhaltung der Wettbewerbsfähigkeit im Zeitalter von Industrie 4.0 beiträgt.
Andreas Schoch, Sebastian Beckschulte, Robert Refflinghaus, Robert H. Schmitt
Anwendung von KI zur automatischen Segmentierung von Schweissnähten im Wire Arc Additive Manufacturing
Zusammenfassung
Beim Wire Arc Additive Manufacturing (WAAM) handelt es sich um ein drahtbasiertes additives Fertigungsverfahren aus dem Bereich der Metallverarbeitung mit Metallschutzgas-Schweißprozessen. Bislang erfolgt die Charakterisierung der Oberflächentopografie WAAM-gefertigter Bauteile durch die Berechnung von Ra, Rz oder ihrer flächenhaften Äquivalente Sa und Sz nach DIN EN ISO 21920-2 und 25178-2. Daraus lassen sich nur wenige Aussagen zum Fertigungsprozess ableiten. Hierfür bietet sich die Charakterisierung von typischen Strukturen (Merkmale) an, welche bei Verwendung dieses Fertigungsverfahrens entstehen. Fertigungsbedingt resultiert als Oberflächenerscheinung eine charakteristische Schichtstruktur bestehend aus kontinuierlich aufgeschichteten Schweißnähten. Daraus ergibt sich die Anforderung, diese Schweißnähte zu identifizieren und über dimensionale Größen zu beschreiben. In dieser Arbeit wird die merkmalsbasierte Auswertemethode zur quantitativen Beschreibung der Oberflächentopografie vorgestellt, welche bislang vorwiegend bei pulverbasierten additiven Verfahren, wie dem Laser Powder Bed Fusion (LPBF), angewandt wird. Eine Voruntersuchung basierend auf einem manuellen Ansatz zeigte, dass die merkmalsbasierte Auswertung beruhend auf unterschiedlichen Segmentierungsverfahren eine geeignete Methode zur geometrischen Beschreibung von individuellen Strukturen auf WAAM-Oberflächen ist. Die zugehörige Auswertestrategie ist allerdings aufwendig und zeitintensiv. Weiterhin erfordert dieses Vorgehen die Eingabe von subjektiven Auswerteparametern und erfahrungsabhängiges Wissen zum Fertigungsprozess. Im Fokus dieses Beitrages liegt daher ein skaleninvarianter, KI-basierter Ansatz zur Segmentierung durch die Adaption von zero-shot Bildsegmentierungsmodellen. Dies ermöglicht eine robuste, wiederholbare Segmentierung, unabhängig von Prozessparametern und ohne die Notwendigkeit einer manuellen Anpassung der Auswertestrategie. Es wird weiterhin die Ermittlung der geometrischen Parameter aufgezeigt und ein Ausblick auf deren Verwertung gegeben.
Minh Thanh Vu, Frank Segel, Sophie Gröger
Systematische Entwicklung eines smarten Fehlermanagementsystems in der Produktion für KMU
Zusammenfassung
Unternehmen müssen in einem zunehmend wettbewerbsintensiven Umfeld ihre Produkte und Dienstleistungen schneller, kostengünstiger und in höherer Qualität als ihre Konkurrenten anbieten, um zu bestehen. Produktionsfehler sind hierbei ein wesentlicher Störfaktor, da sie sowohl Kosten als auch Zeitaufwand erhöhen und die Produktqualität beeinträchtigen können. Studien und Projekte in der Industrie haben ein erhebliches Optimierungspotenzial im Fehlermanagement identifiziert. Insbesondere kleine und mittlere Unternehmen (KMU) verfügen selten über ein digitales Assistenzsystem zur Erfassung von Fehlerdaten. Auch Unternehmen, die bereits Fehlerdatenbanken besitzen, nutzen die darin enthaltenen Informationen meist nur für deskriptive Analysen. Die systematische und wertschöpfende Auswertung von Know-how und produktionsrelevanten Daten wird auf dem Markt nur teilweise angewendet und findet bei KMU kaum Einsatz.
Diese Publikation zielt darauf ab, die spezifischen Herausforderungen von produzierenden Unternehmen, primär von KMU, im Fehlermanagement zu identifizieren und zu analysieren. Anschließend wird ein Konzept für ein smartes Fehlermanagementsystem entwickelt, das diese Herausforderungen systematisch bewältigen kann. Dabei liegt der Fokus auf der Nutzung moderner digitaler Technologien zur Fehlerdatenerfassung und -auswertung, um die Effizienz und Qualität in der Produktion zu steigern. Digitale Technologien ermöglichen eine saubere Datenerfassung, erleichtern die Datenpflege und somit die Auswertung der Daten. Dadurch wird nicht nur die Effizienz der Prozesse gesteigert, sondern auch die Arbeit der Mitarbeiter erleichtert. Dies soll KMU ermöglichen, ihre Wettbewerbsfähigkeit zu verbessern und langfristig am Markt erfolgreich zu bleiben.
Turgut Refik Caglar, Elena Andrushchenko, Lennart Müller-Stein, Roland Jochem
NLP-gestützte Reklamationsanalyse zur effizienten Ermittlung von Haftungsverantwortlichkeiten
Zusammenfassung
Steigende Produkt- und Prozesskomplexitäten stellen produzierende Unternehmen vor zahlreiche Herausforderungen. Von diesen sieht sich auch das Qualitäts- und speziell das Reklamationsmanagement betroffen, welches bei langen Wertschöpfungsketten zunehmend komplexer wird. Insbesondere, wenn in der Produktnutzungsphase Defekte auftreten, die zu rechtlichen Ansprüchen seitens der Kund*innen führen können, ist eine schnelle und exakte Bestimmung etwaiger Haftungsrisiken unerlässlich. Um diesem Problem zu entgegnen, wurde im DFG-Projekts AlGeWert ein Algorithmus entwickelt, der auf Basis von Natural Language Processing (NLP) Reklamationen automatisiert auf Kriterien für auf deutschem Recht basierende Haftungsgrundlagen überprüft und konkrete Handlungsanweisungen für Mitarbeitende generiert. Im Rahmen des Projektes erfolgt eine Fokussierung auf die grundlegenden Rechtsfälle nach deutschem Gewährleistungsrecht, der Produzentenhaftung nach dem BGB sowie dem Produkthaftungsgesetz. Ziel ist es, diese voneinander zu unterscheiden und die entsprechenden Kriterien mithilfe von NLP aus geschriebenen Kundenbeschwerden zu extrahieren. Die vorliegende Ausarbeitung stellt den aktuellen Stand der Technik im Bereich der automatisierten Reklamationsbearbeitung dar und untersucht die damit verbundenen Herausforderungen und Risiken im Hinblick auf die Identifizierung von Haftungsfällen. In diesem Kontext wird der AlGeWert-Algorithmus präsentiert, wobei die Chancen und Limitationen einer derartigen automatisierten Reklamationsbearbeitung beleuchtet werden.
Insa Lemke, Nadine Schlüter
KI-basierte (IVD-)Medizinprodukte – Neue gesetzliche Anforderungen an das Qualitäts- und Risikomanagement im Zusammenspiel der MDR/IVDR und des EU AI Acts
Zusammenfassung
Der technologische Fortschritt durch KI erfordert einen Wandel im Qualitäts- und Risikomanagement von Medizinprodukten/In-vitro-Diagnostika, um ihre Sicherheit, Effektivität und Leistung zu gewährleisten. Bislang wurden KI-spezifische Risiken in der Regulierung kaum berücksichtigt, aber mit dem neuen EU AI Act wird ein Rahmen geschaffen, um diese Risiken zu adressieren. Ziel dieser Arbeit ist es, den Einfluss des EU AI Acts und der aktuellen europäischen Harmonisierungsrechtsvorschriften für Medizinprodukte/In-vitro-Diagnostika auf das Qualitäts- und Risikomanagement von KI-basierten Medizinprodukten/In-vitro-Diagnostika zu untersuchen, um darauf aufbauend ein regulatorisches Konzept für die Konformitätsbewertung zu entwickeln und anhand eines Produktbeispiels in eine zukünftige Validierung zu überführen.
Durch eine Analyse der Verordnung (EU) 2017/745 (MDR)/Verordnung (EU) 2017/746 (IVDR) und der Verordnung (EU) 2024/1689 (EU AI Act) wurden Gemeinsamkeiten und Unterschiede hinsichtlich der Anforderungen identifiziert. Darüber hinaus wurden Normen und Spezifikationen untersucht und hinsichtlich ihrer Relevanz für das Qualitäts- und Risikomanagement bewertet.
Der EU AI Act und die MDR/IVDR weisen zwar zahlreiche Überschneidungen auf. Aufgrund des bestehenden Interpretationsspielraums ergeben sich für die Stakeholder jedoch Herausforderungen bei der Umsetzung. Das in dieser Arbeit entwickelte regulatorische Konzept zeigt Optionen der praxisnahen Integration der Anforderungen auf und erläutert dieses anhand eines Beispiels.
Ozan Aykurt, Pauline Kaufmann, Folker Spitzenberger, Wen-Huan Wang
Einflussbasierte Klassifizierung technischer Risiken in der frühen Phase der Produktentwicklung
Zusammenfassung
Um technische Risiken in der Produktentwicklung (PE) handhaben zu können, existieren gängige Methoden in der Industrie wie die FMEA oder die FTA. Die Anwendung dieser Methoden setzt i. d. R. Randbedingungen wie die Verfügbarkeit des detaillierten Wissens über das Produktkonzept oder viele Ressourcen voraus. Beide liegen in der frühen Phase der PE nicht oder nur eingeschränkt vor. Deswegen sind diese Methoden für die frühe Phase der PE nicht vollumfänglich geeignet [1].
In diesem Beitrag wird ein Ansatz am Beispiel der Automobilbranche vorgeschlagen, der die Identifikation, Analyse, Bewertung und Klassifizierung technischer Risiken unter Berücksichtigung der Randbedingungen der frühen Phase der PE ermöglicht. Zu diesem Zweck werden technische Risiken unmittelbar aus den Produktanforderungen systematisch abgeleitet. Im Anschluss werden Werkzeuge aus dem vernetzten Denken nach Vester und den verteilungsfreien Methoden der Statistik eingesetzt, um einerseits den Einfluss der Einzelrisiken innerhalb des Produktes zu bewerten und andererseits die Robustheit der Bewertungen zu steigern sowie mögliche Szenarien zum Umgang mit den Risiken abzuleiten.
Der Ansatz stellt eine nachvollziehbare und objektive Grundlage zur Priorisierung in der Maßnahmenplanung für die Behandlung technischer Risiken bereits in der frühen Phase der PE zur Verfügung. Hierdurch wird der Entscheidungsprozess der frühen Phase der PE im Hinblick auf die technischen Risiken unterstützt.
Ghislain Davy Nganso Yanghu, Konrad Wälder, Ralf Woll
Virtuelle Produktentwicklung von Bekleidung – Potentiale und Herausforderungen
Zusammenfassung
Der Produktentwicklungsprozess (PEP) der Bekleidungswirtschaft ist von kurzen Entwicklungszyklen und zahlreichen designbasierten Arbeitsgängen und Entscheidungen geprägt, die eine Etablierung sowohl konventioneller als auch moderner Qualitätsmanagementmaßnahmen erschweren.
Ein Ziel des PEP ist die Erfüllung der Kundenanforderung Passform, die als wichtigstes Kaufkriterium für Kunden gilt. Somit steht die Passformanalyse und -optimierung im Mittelpunkt des PEP. Die Qualität des Produktes, insbesondere hinsichtlich der Passform, entscheidet sich bereits in den frühen Design- und Konstruktionsphasen. Die Möglichkeiten zur Passformoptimierung nehmen im weiteren Verlauf des PEP deutlich ab, während der Aufwand und die Kosten jedoch steigen. Häufig werden Produkte mit mangelhafter Passform als unverkäuflich eingestuft oder von den Kunden reklamiert. Ein möglichst früh einsetzendes und präventives Qualitätsmanagement ist zur Vermeidung des beschriebenen Szenarios unerlässlich. Die Anwendung von 2D- und 3D-Technologien ermöglicht auch in der Bekleidungswirtschaft die Entwicklung notwendiger datenbasierter Qualitätsmanagementmaßnahmen. Damit wird die Vergleichbarkeit, Reproduzierbarkeit und Standardisierung im Produktentwicklungsprozess möglich. Mit der 3D-Simulation als digitales Instrument für Passformanalyse und -optimierung können Passformmerkmale operationalisiert und messbar werden und somit das Qualitätsmanagement verbessern. Voraussetzung sind u. a. zuverlässige Simulationsalgorithmen, die das Verformungsverhalten textiler Materialien möglichst präzise wiedergeben.
Vorliegender Beitrag zeigt den Status Quo des Qualitätsmanagements im Prozess der Passformanalyse und -optimierung, die Potentiale und Herausforderungen der 3D-Simulation in diesem Bereich und die Notwendigkeit der materialkundlichen Forschung zur zuverlässigen Darstellung des textilphysikalischen Materialverhaltens textiler Flächengebilde.
Ulrike Reinhardt
Remote-Workshops vs. klassische Workshops – Ein Konzept zur Ermittlung und Steigerung des Qualitätsgrades und der Kreativität
Zusammenfassung
Mit dem Beginn der COVID-19-Pandemie 2020 standen Mitarbeitende vor neuen Herausforderungen. Gruppenworkshops, die zur gemeinsamen Lösungsfindung dienten, wurden nun remote durchgeführt, und der soziale Austausch beschränkte sich auf virtuelle Meetings und Bildschirme. Die zunehmende Verbreitung von Remote-Arbeit verändert das Arbeitsumfeld grundlegend und stellt Organisationen vor die Aufgabe, die Qualität der Arbeitsprozesse aufrechtzuerhalten. Zwischen Remote-Workshops und konventionellen Workshops besteht eine Wahrnehmungsdifferenz bezüglich der Kreativitätsentfaltung, wobei konventionelle Workshops als produktiver betrachtet werden. Studien zeigen, dass Teilnehmende Präsenzarbeitsgruppen der virtuellen Teamarbeit vorziehen, hauptsächlich aufgrund von wahrgenommenen Unterschieden in der Kommunikationseffizienz und der Vorgehensweise bei der Problemlösung. Der Forschungsansatz beinhaltet ein umfassendes Analysekonzept, das die Beziehungen zwischen Kreativität, Problemlösungsmethoden, Technikakzeptanz und Arbeitsqualität in Remote-Teams untersucht. Es werden Problemlösungsmethoden für Remote-Workshops entwickelt, um die Produktivität und Zusammenarbeit zu steigern und auf verschiedene Anwendungsbereiche zu übertragen. Das Konzept überprüft, ob der Einsatz verschiedener Problemlösungsmethoden die Produktivität, Zusammenarbeit und den Kommunikationsfluss in Remote-Workshops verbessert.
Alina Marquet, Sumona Sen, Christoph Szedlak, Patrick Pötters, Bert Leyendecker
Metadaten
Titel
Rethinking Quality - Wandel des Qualitätsmanagements durch Digitalisierung und Künstliche Intelligenz
herausgegeben von
Roland Jochem
Maurice Meyer
Copyright-Jahr
2025
Electronic ISBN
978-3-658-47213-9
Print ISBN
978-3-658-47212-2
DOI
https://doi.org/10.1007/978-3-658-47213-9

    Marktübersichten

    Die im Laufe eines Jahres in der „adhäsion“ veröffentlichten Marktübersichten helfen Anwendern verschiedenster Branchen, sich einen gezielten Überblick über Lieferantenangebote zu verschaffen.