Zum Inhalt

2025 | Buch

Neue Methoden und Trends in der Qualitätswissenschaft

Bericht zur GQW-Jahrestagung 2023 in Wuppertal

insite
SUCHEN

Über dieses Buch

Zielsetzung der Gesellschaft für Qualitätswissenschaft e.V. ist es, die Qualitätswissenschaft in Lehre und Forschung zu fördern und den Wissenstransfer in die industrielle Anwendung zu unterstützen. Dies erfolgt unter anderem durch Pflege des wissenschaftlichen Erfahrungsaustauschs unter den auf diesem Gebiet tätigen Personen und Institutionen und der Verbreitung von Forschungs- und Entwicklungsergebnissen sowie der Unterstützung des Wissenstransfers zwischen Forschung und Praxis. Die Entwicklung von technisch komplexen Produkten, Prozessen sowie neuen Dienstleistungen erfolgt auf Basis stetig expandierender Wertschöpfungsnetzwerke in einem turbulenten Marktumfeld. Anforderungen von Kunden und Märkten an Funktionalität, Zuverlässigkeit und Sicherheit nehmen zu, wobei die Wertschöpfung auf viele Kooperationspartner verteilt wird und deren Vernetzung im nationalen und internationalen Kontext stetig ansteigt. Des Weiteren führt die zunehmende Digitalisierung von Produkten und Unternehmensprozessen dazu, dass die Verfügbarkeit von Entwicklungsdaten, Produktionsprozessdaten sowie Betriebsdaten zu einem exponentiellen Daten- und Informationsvolumen führt. Dies stellt gleichermaßen Herausforderung und Potential für die Qualitätswissenschaften dar. Unter dem Leitthema „Neue Methoden und Trends in der Qualitätswissenschaft“ hat die Gesellschaft für Qualitätsmanagement gemeinsam mit der Bergischen Universität Wuppertal zur GQW Tagung 2023 eingeladen. Wir freuen uns, dass wir Ihnen nun den zugehörigen Tagungsband vorstellen können.

Inhaltsverzeichnis

Frontmatter
Digital Twin-Anwendungen in vernetzten Wertschöpfungssystemen – Potenziale und Grenzen zur Steigerung der Supply Chain Quality
Zusammenfassung
Die Entwicklung hin zu weltweiten Wertschöpfungsnetzwerken als Resultat abnehmender Wertschöpfungstiefen und der Globalisierung geht für produzierende Unternehmen mit zahlreichen Herausforderungen in Bezug auf die Sicherstellung und Verbesserung der Qualität ihrer Leistungen einher. Da ein Großteil der Komponenten oftmals nicht im eigenen Unternehmen hergestellt wird, sind es vielmehr die Lieferanten und deren Entscheidungen, die über die Qualität des eigenen Endprodukts mitbestimmen. Folglich sind Unternehmen mehr denn je auf die Qualitätsfähigkeit ihrer Lieferantenbasis angewiesen. An dieser Stelle wird der Einsatz neuer, digitaler Technologien unabdingbar. Als ein vielversprechendes Konzept, welchem diesbezüglich großes Potenzial zugeschrieben wird, gelten Digitale Zwillinge. Ziel des Beitrags ist es daher, anhand einer systematischen Literaturanalyse zu beurteilen, inwiefern die Nutzung Digitaler Zwillinge in vernetzten Wertschöpfungssystemen eine Steigerung der Supply Chain Quality, der Produkt- und Prozessqualität im Wertschöpfungsnetzwerk, ermöglicht. Die Ergebnisse deuten darauf hin, dass Digitale Zwillinge die Supply Chain Quality in verschiedenster Weise positiv beeinflussen können. Insbesondere im Bereich des Qualitätsmanagements bestehen jedoch noch Defizite in Bezug auf den unternehmensübergreifenden Einsatz von Digitalen Zwillingen. Demzufolge gilt es, Digital Twin-Anwendungen aus den Bereichen des Qualitätsmanagements und des Supply Chain Managements im Rahmen zukünftiger Forschungsaktivitäten auf unternehmensübergreifender Ebene weiter zu verknüpfen sowie deren Reifegrad zu erhöhen.
Maurice Meyer, Roland Jochem
E-Tutor-gestützte Lehre am Beispiel der Fertigungsmesstechnik
Zusammenfassung
Die Digitalisierung der Bildung hat sich in den letzten Jahren mit Web Based Trainings, virtuellen Seminaren oder E-Learnings in vielen Bereichen zunehmend weiterentwickelt. In technischen Lehrgebieten sind sie jedoch oft nur als Insellösungen vorhanden. Durch die aktuellen Möglichkeiten, welche die rasant fortschreitende Entwicklung von Künstlicher Intelligenz mit sich bringt, müssen die Potenziale für die digitale Lehre erkannt und genutzt werden. Es ist notwendig bedarfsorientierte, intelligente Regelkreise, welche Kommunikation, Wissensvermittlung und Lernstandskontrolle unterstützen, aufzubauen. Damit wird es den zukünftigen Generationen ermöglicht, individuell zu lernen und somit die Effizienz und Nachhaltigkeit des Lehr-Lern-Prozesses zu erhöhen. Mit diesem Ziel wird an der Professur Fertigungsmesstechnik der TU Chemnitz für die Vorlesungsreihe Fertigungsmesstechnik eine E-Tutor-gestützte Lehre im Rahmen eines Forschungsprojektes konzipiert und erforscht. Mit dem Projekt wird das Ziel verfolgt, ein innovatives multimediales Studienformat als bedarfsorientierte, intelligente Regelkreise (Loop) zwischen Lernfortschritt, Kursauswahl und Motivationspausen zu entwickeln. Als innovatives Element kommt ein E-Tutor zum Einsatz, der die Lernenden individuell begleitet, erinnert, unterstützt, informiert, Punkte sammelt und mit Gamification Elementen motiviert. Der Fachbereich Fertigungsmesstechnik ist geprägt von einer großen Vielfalt an Themenbereichen, wie Messsysteme, -strategien und -datenauswertung. Gleichzeitig ist aber auch das Erstellen und Interpretieren von technischen Zeichnungen eine Kernkompetenz. Die Eintragungen auf technischen Zeichnungen sind einer Sprache mit Symbolen und Regeln gleichzusetzen. Das Verstehen und Anwenden dieser technischen Sprache ist vergleichbar mit dem Erlernen von Fremdsprachen. Besonders dieser Aspekt bietet sich für die Entwicklung einer neuen Methode an, da Wissen (Regeln, Symbole, Fachbegriffe) mit Anwendung (Zeichnungserstellung) verknüpft wird. Dieser Beitrag stellt die Anforderungen, Herausforderungen und Umsetzungsmöglichkeiten einer E-Tutor-gestützten Lehre am Beispiel der Fertigungsmesstechnik vor. Es wird aufgezeigt, wie Wissenselemente der Fertigungsmesstechnik mit neuen digitalen Lehr-Lern-Methoden, die die Interaktion zwischen den Beteiligten und besonders den Transfer in anwendbares Wissen fördert, verknüpft werden. Zusätzlich werden Beispiele für Gamification Elemente vorgestellt.
Anna Sorgatz, Juliane Schuldt, Marco Weißgerber, Sophie Gröger
Algorithmen und Anwendungsgebiete des maschinellen Lernens für die prädiktive Prozesskontrolle
Zusammenfassung
Aktuelle Anwendungen der prädiktiven Prozesskontrolle, welche sich auf die Vorhersage der Prozessfähigkeit beziehen, erreichen durch bisherige robuste Anwendungen ein besseres Verständnis des Potenzials von maschinellem Lernen in der prädiktiven Prozesssteuerung. Dabei liegt das Ziel auf einer Effizienzsteigerung der Produktionsprozesse, welche durch eine vollständige oder teildigitalisierte Industrie ermöglicht werden. Die Resultate der vorliegenden Studie beziehen sich auf eine umfassende Recherche bestehender wissenschaftlicher Arbeiten in diesem Bereich. Im Zentrum der Untersuchung stehen drei Schlüsselbereiche: die Interpretierbarkeit der prädiktiven Prozessqualität, die Genauigkeit der Analyseergebnisse und die technische Integration in bestehende Produktionsmaschinen. Besonderes Augenmerk wird auf die Rolle von erklärbaren Methoden in interaktiven Vorhersagesystemen gelegt. Es wird analysiert, ob und wie diese Methoden Empfehlungen für Prozessverantwortliche bereits Vorteile in Verbindung moderner Algorithmen des maschinellen Lernens gegenüber traditionellen Methoden, insbesondere hinsichtlich der Genauigkeit der Vorhersage des Cpk-Wertes, bieten. Darüber hinaus wird untersucht, wie die Bewertungskriterien für die technische Integration in bestehende Produktionsmaschinen an Veränderungen im Prozessumfeld angepasst werden können. Diese Anpassungen könnten etwa Lern- und Vorhersagehorizonte, Mehrklassenvorhersagen pro Klasse und Interventionsgrenzen betreffen. Die generelle Schlussfolgerung der Studie lautet, dass maschinelles Lernen das Potenzial hat, die Prozesssteuerung in Fertigungsunternehmen zu revolutionieren, jedoch Einflüsse auf mehrere angrenzenden Bereiche berücksichtigt werden müssen.
Jan Mayer, Roland Jochem
Prognose der Restlebensdauer zyklisch beanspruchter Linearaktuatoren aus Formgedächtnislegierungen: Ein Ansatz auf Basis von Methoden des maschinellen Lernens
Zusammenfassung
Die zunehmenden Anforderungen und Qualitätsansprüche gegenüber technisch komplexen Produkten erfordern den Einsatz neuer Methoden zur Qualitätssicherung im Entwicklungs- und Einsatzzeitraum. Um den Ansprüchen gerecht zu werden, ist eine umfassende Datenerfassung erforderlich, wodurch die Verfügbarkeit von Daten sowohl während der Produktentwicklung, als auch während des Einsatzes durch Condition Monitoring Maßnahmen exponentiell ansteigt. Hierdurch entstehen Herausforderungen bezüglich des Speicherns, Filterns, Priorisieren sowie dem allgemeinen Umgang mit Daten. Allerdings resultiert auch Potential im Kontext der Zuverlässigkeit. Insbesondere für Anwendungsbereiche in denen Zuverlässigkeitsanalysen bisher aufgrund geringer Datenmengen nicht möglich oder unpräzise waren. In diesem Kontext können Methoden des maschinellen Lernens (ML) eine Ergänzung zu klassischen, statistischen Zuverlässigkeitsanalysen und Lebensdauerprognosen darstellen. So können Big Data Analysen mit multivariaten Ansätzen durchgeführt werden, um komplexe und mehrdimensionale Zusammenhänge mit ML-Modellen effizient und zielorientiert zu analysieren. Auf Basis der generierten Erkenntnisse wird das Erreichen von definierten Qualitäts- und Zuverlässigkeitszielen ermittelt und vorausschauende Instandhaltungen ermöglicht. Modelle dieser Art schaffen die Grundlage, Betriebsparameter hinsichtlich eines Optimierungsziels zu bestimmen und auszulegen, um Degradationsprozesse zu analysieren und zu reduzieren.
Das vorliegende Paper liefert einen Beitrag zur Anwendung von Algorithmen des ML auf Zeitreihendaten zur Vorhersage der Degradation bzw. des Degradationsfortschritts. Daten von Zeitreihen sind abhängig von der zeitlichen Reihenfolge, sodass die Daten in chronologischer Abfolge betrachtet werden müssen. Des Weiteren ist eine hohe Qualität der vorliegenden Daten erforderlich, um Muster gezielt und zuverlässig zu analysieren und Prognosen zu ermöglichen. Oftmals entstehen in Abhängigkeit der Messfrequenzen große Datenmengen, welche effizient verarbeitet werden müssen. Zur Generierung von Features werden z. B. deterministische Transformations-Algorithmen verwendet, welche relevante Merkmale aus vorliegenden Daten extrahieren und die Datenmenge hinsichtlich der Relevanz komprimieren. Diese Features werden mit dem Ziel die Restlebensdauer zu prognostizieren statistisch sowie mittels ML-Algorithmen analysiert.
Im Rahmen der hier skizzierten Forschungsarbeiten steht die Lebensdauerprognose von metallischen Drähten aus Formgedächtnislegierungen (FGL), welche zyklischen Belastungen (z. B. Zugspannungen) unterliegen, im Fokus. Bauteile aus FGL können als „Smart Material“ die thermische und mechanische Domäne miteinander verknüpfen. Dies ermöglicht den Einsatz eines FGL-Bauteils als lasttragende Struktur mit gleichzeitigen aktorischen Funktionen. Der Vorteil gegenüber herkömmlichen Aktoren liegt in der Reduktion der Bauteilanzahl, wodurch Bauraum und Gewicht der Aktor-Einheit eingespart werden können. Das potentielle Einsatzspektrum zur industriellen Anwendung von FGL-Aktoren ist vielfältig. So werden bereits beispielsweise herkömmliche Elektromotoren und Ventile durch FGL-basierte Aktoren ersetzt. Obwohl die Grundlagen des Formgedächtniseffekts (FGE) bereits seit den 1930er Jahren bekannt sind, bestehen bisher nur wenig Erfahrungswerte bezüglich Zuverlässigkeit und möglicher Lebensdauerprognosen von FGL-Aktoren. Die Grundlage der durchgeführten Forschungsarbeit bilden experimentell durchgeführte Langzeittests, bei denen FGL-Drähte bis zum Versagen zyklisch beansprucht wurden. Dies betrifft insgesamt 75 Langzeittests mit jeweils 3 unabhängig getesteten Drähten.
Jannis Pietruschka, Fabian Hartwig, Philipp Heß, Stefan Bracke
Literaturübersicht der KI-gestützten kompetenzbasierten Ressourcenplanung von Entwicklungsprojekten
Zusammenfassung
Die Herausforderungen, denen sich Ingenieursunternehmen mit ihren Industrieprojekten gegenübersehen, ergeben sich aus der zunehmenden Komplexität sowohl auf organisatorischer Ebene als auch auf Produktebene. Die Unternehmen müssen bei der Projektplanung und Entscheidungsfindung schnell reagieren, um ihre Marktposition gegenüber der Konkurrenz behalten zu können. Die Komplexität von Industrieprojekten macht es jedoch schwierig, diese im Vorfeld genau abzuschätzen. Es gibt zahlreiche Beispiele dafür, dass Industrieprojekte aufgrund ihrer Komplexität schlecht geplant wurden, was zu einer ineffizienten Ressourcenzuweisung, unpassenden Teams und der Nichterfüllung der Stakeholder-Anforderungen und Projektziele führte. Infolgedessen kommt es bei Industrieprojekten zu Verzögerungen oder Misserfolgen, die zusätzliche Kosten verursachen, einschließlich solcher, die durch mangelnde Qualität verursacht werden (engl. Cost of poor quality, COPQ), und letztendlich dem Ruf des Unternehmens schaden. Um hier Abhilfe zu schaffen, entwickelt das Fachgebiet „Produktsicherheit und Qualität“ der Bergischen Universität Wuppertal einen systematischen Ansatz für die kompetenzbasierte Projektplanung in Entwicklungsprojekten im Maschinenbau. Dieser Ansatz nutzt moderne IT-basierte Lösungen aus dem Bereich der künstlichen Intelligenz (KI) zur Unterstützung der Projektleitung in der Projektplanungsphase des Projektmanagements. Durch die Extraktion und Analyse von Informationen aus dem Qualitätsmanagementsystem des Unternehmens zu Projektrollen, Teamkompetenzen und anderen relevanten Daten und dem Vergleich mit Projektdaten aus vergangenen Projekten, können wertvolle Erkenntnisse für zukünftige Projekte gewonnen werden. In diesem Paper wird das Potenzial des Einsatzes von Werkzeugen und Algorithmen des maschinellen Lernens und der Computerlinguistik (engl. Natural Language Processing, NLP) untersucht, um die Projektleitung bei der verbesserten Schätzung von Projektressourcen in der Planungsphase zu unterstützen. Das Paper befasst sich ausschließlich mit einer systematischen Analyse von Literatur und Forschungsprojekten, um die aktuellen Anwendungsbereiche von Natural Language Processing (NLP) zu ermitteln. Hierzu wurden verschiedene wissenschaftliche Datenbanken wie GEPRIS, Google Scholar, IEEE Xplore, ScienceDirect und SpringerLink im Beobachtungszeitraum von 2012 bis 2022 durchsucht, um einen klaren Überblick über den Stand der Wissenschaft und Technik zu erhalten und anschließend die wissenschaftliche Lücke aufzuzeigen.
Amirbabak Ansari, Nadine Schlüter, Manuel Löwer
Erhöhung der Prozesssicherheit durch die Betrachtung des menschlichen Faktors in der Mensch-Roboter-Kollaboration
Zusammenfassung
In der Mensch-Roboter Kollaboration spielt die Prozesssicherheit des Menschen eine übergeordnete Rolle. Durch die direkte Zusammenarbeit entstehen große Gefahrenpotenziale, die nicht alleine durch technische Lösungen aufgefangen werden können. Ein entscheidender Faktor ist das menschliche Situationsbewusstsein. Dieser Artikel behandelt die Prozesssicherheit in der Mensch-Roboter-Kollaboration (MRK) unter besonderer Berücksichtigung des menschlichen Faktors des Situationsbewusstseins. In einer experimentellen Studie werden programmierte Standardprozesse und -bewegungen in einem Kollaborationsszenario auf ihre jeweilige Auswirkung bezüglich des Situationsbewusstseins des partizipierenden Menschens untersucht. Ziel ist es, eine Aussage zur Prozesssicherheit hinsichtlich unterschiedlicher Standardprogrammierungen durch diese Untersuchung zu erhalten.
Sumona Sen, Patrick Pötters
Manufacturing Data Analytics Studie 2023: Status quo und zukünftiges Potenzial von Datenanalysen in produzierenden Unternehmen
Zusammenfassung
Im Zuge der fortschreitenden Digitalisierung sehen sich produzierende Unternehmen mit stetig wachsenden Datenmengen konfrontiert, um ihre Geschäftsprozesse zu optimieren, ein besseres Verständnis für Kundenanforderungen zu entwickeln und Produkte sowie Dienstleistungen kontinuierlich zu verbessern. Die Notwendigkeit, Daten effektiv zu erfassen, zu speichern, zu analysieren und für datenbasierte Entscheidungen zu nutzen, ist hierfür essenziell. Obwohl diese theoretisch umfangreichen Datenmengen zur Verfügung stehen, fällt es vielen Unternehmen schwer, das analytische Potenzial ihrer Daten auszuschöpfen und daraus einen Wettbewerbsvorteil zu generieren. Vor diesem Hintergrund stellen sich die Fragen, welche Faktoren den erfolgreichen Einsatz von Datenanalysen in produzierenden Unternehmen beeinflussen und welches Potenzial sich aus dem aktuellen Status quo für die Zukunft ergibt. Aufbauend auf einer im Jahr 2016 durchgeführten Studie (Groggert, S., Wenking, M., Schmitt, R. H., Friedli, T.: Status quo and future potential of manufacturing data analytics – an empirical study. 2017 IEEE International conference on industrial engineering and engineering management (IEEM), S. 779–783 (2017) [1]) wurden in der repräsentativen Folgestudie „Manufacturing Data Analytics 2023“ insgesamt 154 Personen aus 125 produzierenden Unternehmen der DACH-Wirtschaftsregion befragt. Der Beitrag bietet Einblicke in datenbasierte Analyseprozesse bis hin zu strategischen Auswirkungen auf die Produktion. Die gewonnenen Erkenntnisse liefern wertvolle Informationen, um die Herausforderungen der Datenverarbeitung anzugehen und die Potenziale der Datenanalyse effektiver zu nutzen. Insbesondere fällt auf, dass die Herausforderungen in der Datenerfassung, -verarbeitung und -nutzung nach wie vor bestehen. Defizite in der Datenstandardisierung und -verfügbarkeit werden als Hauptgründe hierfür genannt. Weiterhin zeigen die empirischen Ergebnisse, dass die meisten Unternehmen Schwierigkeiten haben, die aus den Ergebnissen der Datenanalysen abgeleiteten Optimierungspotenziale erfolgreich umzusetzen. Dies liegt häufig an Problemen im gesamten Datenanalyseprozess.
Sebastian Beckschulte, Miriam Kaden, Lorenzo Pirrone, Robert H. Schmitt, Thomas Friedli
Der Einfluss von mentaler Arbeitsbeanspruchung auf den Lernerfolg in einem Planspiel zur Qualitäts- und Prozessverbesserung: Eine empirische Untersuchung unter Verwendung des NASA Task Load Index (TLX)
Zusammenfassung
Das Planspiel als Lehr-/Lernarrangement ermöglicht es, Lernenden Prozesse in einer kontrollierten Umgebung zu simulieren, zu verändern und zu testen, ohne reale Auswirkungen befürchten zu müssen. Bisherige Planspiele konzentrieren sich hauptsächlich auf Methoden und Prozesskennzahlen, während die subjektive Wahrnehmung der Teilnehmer unberücksichtigt bleibt. Daher wurde ein Planspiel entwickelt, das gezielt die Dimensionen der mentalen Arbeitsbelastung und des Stresses berücksichtigt und deren Auswirkungen auf den Lernerfolg untersucht. Zur Erfassung dieser Faktoren wurde der NASA Task Load Index (TLX) verwendet. Zusätzlich wurden objektive Kennzahlen definiert, um die Prozessleistung zu bewerten. Die empirische Validierung erfolgte in mehreren Planspielrunden, und die Ergebnisse legen nahe, dass die Prozessverbesserungen positive Auswirkungen auf die gemessenen Prozesskennzahlen hatten. Jedoch wurde die Umsetzung der Verbesserungen von den Probanden als stressiger wahrgenommen. Nichtsdestotrotz sank die mentale Belastung auf ein moderates Niveau, was den Lernerfolg begünstigt. Ebenso wurde ein Zusammenhang zwischen der subjektiven Beanspruchung im Planspiel und der Beurteilung der Effektivität der implementierten Prozessverbesserungen identifiziert.
Christoph Szedlak, Alina Marquet, Bert Leyendecker, Ralf Woll
Entwicklung eines Empfehlungssystems zur personalisierten Qualifizierung im Bereich Qualitätsingenieurwesen: eine Anforderungsanalyse
Zusammenfassung
Die Kompetenzanforderungen an Qualitätsingenieure unterliegen einer hohen Volatilität, die sich aus dem rasanten technischen Fortschritt, der stetig wachsenden Informations- und Wissensmenge und der sinkenden Halbwertszeit des Wissens ergibt. Es stellt sich die Frage, wie eine zielgerichtete und effiziente Qualifizierung bei sich ständig ändernden und wachsenden Qualifikationsanforderungen erreicht werden kann.
Empfehlungssysteme können im Bereich der Qualifizierung helfen, den Wissens-Überfluss zu bewältigen und die zu qualifizierenden Personen effizient durch den Qualifizierungsprozess zu führen. Obwohl Empfehlungssysteme bereits im Online-Handel oder bei Streaming-Diensten etabliert sind, gestaltet sich die Übertragung der Empfehlungsalgorithmen auf die Empfehlung von Lernobjekten und Lernsequenzen problematisch. Im Gegensatz zu Empfehlungsalgorithmen, die in Unterhaltung und Handel eingesetzt werden und unabhängige Produkte oder Videos auf Basis von Nutzerdaten und -präferenzen empfehlen, gibt es im Qualifizierungsbereich zwei entscheidende Unterschiede: 1) Lernobjekte und Lernsequenzen müssen im Gesamten die Erreichung von Qualifizierungs- und Lernzielen ermöglichen. 2) Es existieren Abhängigkeitsbeziehungen zwischen Lernobjekten, sodass der Konsum dieser nicht variabel oder in beliebiger Reihenfolge erfolgen kann.
Aus dem Kontext des Qualitätsingenieurwesens und der Didaktik ergeben sich folgende Anforderungen an ein Empfehlungssystem zur personalisierten Qualifizierung im Bereich Qualitätsingenieurwesen: Das Empfehlungssystem sollte eine progressive und kohärente Empfehlung von Lerneinheiten ermöglichen. Die Empfehlung von Lerninhalten muss flexibel sein und den aktuellen Qualifizierungsbedarfen entsprechen. Die Relevanz von Items sollte anhand der Erreichung der Qualifizierungsziele gemessen werden. Es ist wichtig, eine Vielzahl von Qualifizierungszielen abzubilden. Das Empfehlungssystem muss auch bei geringen Datenmengen relevante Lerneinheiten empfehlen können. Die Benutzerprofile sollten den aktuellen Lernstand abbilden.
Bei der Entwicklung eines Empfehlungssystems für diesen Zweck müssen diese Anforderungen berücksichtigt werden.
Tra Bui Thi Thanh, Roland Jochem
Beratungssystem zur Unterstützung der Umsetzung komplexer Anforderungen an Qualität, Nachhaltigkeit, Arbeitssicherheit und digitale Transformation in Lebensmittelketten
Zusammenfassung
Die Anforderungen an Unternehmen in Bezug auf ein zeitgemäßes Qualitäts- und Nachhaltigkeitsmanagement sowie Maßnahmen der Gesundheits- und Arbeitssicherheit sind hoch und werden immer komplexer. Gestiegene gesetzliche Anforderungen zusätzliche Branchenstandards und daraus abgeleitete Kundenwünsche stellen Unternehmen und Wertschöpfungsketten vor ständig neue Herausforderungen. Die integrierte Betrachtung zur Umsetzung dieser unterschiedlichen Anforderungen ist in den letzten Jahren schon in Unternehmen erfolgt. Doch kleinen Betrieben fällt es nach wie vor schwer, sich alleine ohne eine begleitende Beratung der Komplexität von Anforderungen zu stellen. Qualint ist ein Unterstützungstool, das aktuell in der 3. Version vorliegt. Das Tool unterstützt Unternehmen dabei, mit aufeinander abgestimmten hybriden Dienstleistungsbündeln ihr integriertes Management-System aufzubauen und kontinuierlich weiterzuentwickeln. Die Verbindung der Handlungsfelder Qualitäts-, Umwelt- und Nachhaltigkeitsmanagement sowie Arbeitsschutz steht dabei im Fokus. Der Beitrag zeigt exemplarisch wie das Qualitätsmanagement als Grundlage für den Aufbau von digitalen und organisatorischen Strukturen in Unternehmen und Wertschöpfungsketten genutzt werden kann. Dabei liegt ein Schwerpunkt der Betrachtung auf Nachhaltigkeitsaspekten und ethischen Anforderungen mit engem Bezug zum Menschen wie beim Arbeits- und Gesundheitsschutz. Die Einhaltung der Menschenrechte wird in der ISO 26000 gefordert und ist ebenfalls Bestandteil des Arbeitsschutzes. Des Weiteren legt die Einhaltung der Menschenrechte und entsprechende Arbeitsbedingungen auch das neue Lieferkettensorgfaltspflichtgesetz (LkSG) gesetzlich fest. Gezeigt wird, wie Anforderungen an Unternehmen gewachsen sind und wie sich daraufhin das Beratungstool Qualint entsprechend weiterentwickelt hat.
Stephanie Krieger-Güss, Brigitte Petersen, Sebastian Jarzebowski, Thomas Lettmann
Eine Bewertung der Eignung gängiger Methoden zur technischen Risikoanalyse für die frühe Phase der Produktentwicklung
Zusammenfassung
Der globalisierte Wettbewerb wird durch die steigenden, volatilen Kundenansprüche und gesetzlichen Rahmenbedingungen verschärft. Dies fordert Unternehmen zur kontinuierlichen Verbesserung der Produktentstehungsprozesse sowie eingesetzten Methoden. Insbesondere die frühe Phase der Produktentwicklung (PE) spielt, aufgrund der Tragweite möglicher Entscheidungsfehler, eine entscheidende Rolle in der Produktentstehung (A. Albert, S. Rapp, C. Berk und N. Bursac, „Die Frühe Phase der PGE – Produktgenerationsentwicklung,“ 25 09 2017. [Online]. Available: https://www.researchgate.net/publication/320.023.869. [Zugriff am 18 09 2021]; F. Marthaler, V. Kutschera, J. Reinemann, N. Bursac und A. A., „Szenariobasierte Validierung von Produktprofilen in der Frühen Phase der PGE-Produktgenerationsentwicklung,“ 2019. [Online]. Available: https://nbn-resolving.org/urn:nbn:de:bsz:14-qucosa2–369.165. [Zugriff am 02 05 2023]). In diesem Beitrag beginnt die frühe Phase der PE mit dem Vorliegen der Produktanforderungen und endet mit der Festlegung des Lösungskonzeptes. Die in der frühen Phase auftretende Unsicherheit, aus der sich Risiken ergeben, lässt sich durch adäquaten Methodeneinsatz einschränken (N. Bursac, Model Based Systems Engineering zur Unterstützung der Baukastenentwicklung im Kontext der Frühen Phase der Produktgenerationsentwicklung, Karlsruhe: Karlsruher Institut für Technologie (KIT), 2016; T. Meyer und R. G., Engineering Risk Management, 3 Hrsg., Berlin/Boston: Walter de Gruyter GmbH, 2022; B. Verworn, Die Frühe Phasen der Produktentwicklung: Eine empirische Analyse in der Mess-, Steuer- und Regelungstechnik, Deutscher Universitäts-Verlag/GWV Fachverlage GmbH, Wiesbaden: Deutscher Universitäts-Verlag/GWV Fachverlage GmbH, 2004). Gängige Methoden zur technischen Risikoanalyse in der Automobilindustrie, wie die FMEA oder die FTA, werden auf ihre Eignung für die frühe Phase der PE analysiert und bewertet (T. Zentis, A. Czech, T. Prefi und R. Schmitt, Technisches Risikomanagement in produzierenden Unternehmen, Aachen: Apprimus Verlag, 2011; F. Romeike und P. Hager, Erfolgsfaktor Risiko-Management 4.0, 4 Hrsg., Wiesbaden: Springer Gabler, 2020). Hierfür werden sowohl die Besonderheiten der frühen Phase der PE als auch die Anwendungsvoraussetzungen und -ziele der jeweiligen Methoden aus der Literaturanalyse hergeleitet, die dann als Grundlage der Bewertung dienen.
Ghislain Davy Nganso Yanghu, Konrad Wälder, Ralf Woll
Qualitätsmanagementgerechte Nutzung crowdbasierter Arbeit durch KMU
Zusammenfassung
Im Zuge der wachsenden Digitalisierung ist die Bedeutung von Crowdsourcing in den letzten Jahren deutlich gestiegen. Viele Unternehmen nutzen bereits heute die Beauftragung von (bezahlter) Arbeit über Internet-basierte Plattformen („Crowdworking-Plattformen“). Für Klein- und Mittelständische Unternehmen (KMU) bietet diese neue Form der Arbeitsorganisation allerdings noch erhebliches ungenutztes Potenzial, da die Ausgestaltung der Aufgaben, die Zusammenarbeit mit den Plattformen und der „Crowd“ KMU (noch) vor Herausforderungen stellt. Das vorliegende Papier beschreibt ein Konzept zur Anpassung des Qualitätsmanagements in KMU, um das Potenzial von Crowdworking besser zu nutzen. Es wird aufgezeigt, wie eine qualitätsmanagementgerechte Nutzung der Arbeit von crowdbasierten Mechanismen in KMUs erfolgen kann, um die Erfüllung der Kundenanforderungen weiterhin zu gewährleisten. Die verschiedenen Formen crowdbasierter Mechanismen werden diskutiert. Es werden Hindernisse für KMU bei der Einführung von Crowdsourcing und Strategien zu deren Überwindung aufgezeigt. Ein modulares Referenzprozessmodell für den qualitätsorientierten Einsatz von Crowdworking in KMU wird entwickelt. Darüber hinaus werden konkrete Handlungsempfehlungen zur Anpassung bzw. Ergänzung der Ausgestaltung des Qualitätsmanagements in KMU für den effizienten und effektiven Einsatz von crowdbasierten Mechanismen gegeben.
Kirsten Lange, Robert Refflinghaus, Anna Hupe, Ulrich Bretschneider
Projekt-Mining-Prozess als Ansatz zur zielgerichteten Digitalisierung am Beispiel der Fahrzeugmontage
Zusammenfassung
Die Digitalisierung ist auch in der Automobilindustrie zu einem entscheidenden Wettbewerbs- und Kostenfaktor geworden. In der Literatur wird das Vorgehen zur Entwicklung einer Digitalisierungsstrategie meist nur sehr abstrakt und ohne konkreten Prozess beschrieben. Aus diesem Grund wird im vorliegenden Beitrag ein neu entwickelter Prozess zur strukturierten Erarbeitung einer Digitalisierungsstrategie am Beispiel der Fahrzeugmontage vorgestellt. Als Grundlage zur Erarbeitung einer Digitalisierungsstrategie werden zuerst die drei Stufen der Digitalisierung, in Anlehnung an Reinitz (Reinitz, B.: Consider the Three Ds When Talking about Digital Transformation. https://​er.​educause.​edu/​blogs/​2020/​6/​consider-thethree-ds-when-talking-about-digital-transformation, abgerufen am 30.3.2023.), erläutert. Anschließend wird der fünfstufige Prozess, der auf dem Six Sigma Prozess basiert, als Basis zur Erarbeitung einer Digitalisierungsstrategie näher erläutert. Der gesamte Prozess setzt sich dabei aus den fünf aufeinanderfolgenden Schritten Zielbild, Reifegrad, Potentialidentifikation, Roadmap und Realisierung zusammen. Dabei stellen die mittleren drei Prozessschritte den sogenannten Projekt-Mining-Prozess dar. Im Kern liegt der Fokus im Projekt-Mining-Prozess auf der gezielten Identifikation von datengetriebenen Projekten, die eine hohe Machbarkeit und einen großen wirtschaftlichen Nutzen versprechen. Für jeden der einzelnen Prozessschritte wird auf das Vorgehen und die Bedeutung für eine erfolgreiche Digitalisierung eingegangen. Als Teil der Reifegradmessung werden zehn KPIs vorgestellt, welche sich insbesondere für die Fahrzeugmontage als besonders sinnvoll herausgestellt haben. Der Beitrag stellt einen neuen Prozess vor, wie Unternehmen mithilfe des Projekt-Mining-Prozesses ihre Produktion zielgerichtet digitalisieren können.
Andreas Schoch, Philipp Peron, Robert Refflinghaus
Backmatter
Metadaten
Titel
Neue Methoden und Trends in der Qualitätswissenschaft
herausgegeben von
Stefan Bracke
Philipp Heß
Copyright-Jahr
2025
Electronic ISBN
978-3-658-45899-7
Print ISBN
978-3-658-45898-0
DOI
https://doi.org/10.1007/978-3-658-45899-7

    Marktübersichten

    Die im Laufe eines Jahres in der „adhäsion“ veröffentlichten Marktübersichten helfen Anwendern verschiedenster Branchen, sich einen gezielten Überblick über Lieferantenangebote zu verschaffen.