Skip to main content
Top

2020 | Book

Potenziale Künstlicher Intelligenz für die Qualitätswissenschaft

Bericht zur GQW-Jahrestagung 2018 in Nürnberg

Editor: Prof. Dr. Robert H. Schmitt

Publisher: Springer Berlin Heidelberg

insite
SEARCH

About this book

Die Gesellschaft für Qualitätswissenschaft e.V. GQW hat sich seit ihrer Gründung im Dezember 1994 dem Ziel verschrieben, die Qualitätswissenschaft in Lehre und Forschung zu fördern und den Wissenstransfer in die industrielle Anwendung zu unterstützen. Seit 1998 werden hierzu im Rahmen von Jahrestagungen Forschungs- und Entwicklungsergebnisse vorgestellt, die für die Qualitätswissenschaft aktuelle und relevante Themen aufgreifen.

Die Jahrestagung 2018 der GQW fand unter der Leitung von Prof. Dr.-Ing. Robert H. Schmitt parallel zum DGQ-Qualitätstag auf der Nürnberger Messe statt. Der Themenschwerpunkt fokussierte auf das Potenzial der Methoden der Künstlichen Intelligenz für die Qualitätswissenschaft sowie daran angeknüpfter Themen mit Blick auf die voranschreitende Digitalisierung und Vernetzung in produzierenden Unternehmen. Es eröffnen sich u.a. Potenziale im Bereich der kontextbezogenen Extraktion von Daten zur Gestaltung intelligenter Assistenzsysteme und Infrastrukturen zur Unterstützung des modernen Qualitätsmanagements in Unternehmen.

Table of Contents

Frontmatter
Vorgehensmodell zur Modellierung von Empfehlungsassistenten
Zusammenfassung
Im Schatten derzeitiger Automatisierungsbestrebungen in Wirtschaft und Industrie manifestiert sich der menschliche Entscheidungsprozess als Achillesferse qualitätswissenschaftlicher Bemühungen. Die vor diesem Hintergrund zunehmende Bedeutung des Faktors Mensch und die steigende Komplexität moderner Unternehmenswelten fordern unweigerlich neue qualitätswissenschaftliche Antworten.
Ein vielversprechender Lösungsansatz, die Entwicklung und der Einsatz von Empfehlungsassistenten mittels Fuzzy-Logik, ist insbesondere hinsichtlich des Entstehungsprozesses eben jener Systeme aus wissenschaftlicher Perspektive verwaist und unbegleitet.
Das Ziel der Forschungsarbeit ist deshalb die Entwicklung eines Vorgehensmodells zur Modellierung von Empfehlungsassistenten, welches im Kern hauptsächlich für die Gestaltung von Managementsystemen optimiert ist. Die Empfehlungsassistenten sollen die unternehmerischen Rahmenbedingungen explizit berücksichtigen und somit eine unternehmensspezifische Empfehlung abgeben können.
Zwei Hauptanforderungen, verschiedene Nebenanforderungen sowie weitere sieben wissenschaftliche Anforderungen definieren dabei den wissenschaftlichen Handlungsrahmen. Unter Verwendung hermeneutischer Methoden ist im Ergebnis ein Vorgehensmodell mit vier Hauptphasen und jeweils drei bis sechs Subphasen entwickelt worden, welches die große Herausforderung ‚Modellierung eines Empfehlungsassistenten‘ in viele kleine Teilprobleme zergliedert und mit gezieltem Methodeneinsatz unterstützt.
Das Vorgehensmodell ermöglicht somit erstmalig eine systematische und methoden-orientierte Anwendung der Fuzzy-Logik, um eine Modellierung von Empfehlungsassistenten unter Einhaltung wissenschaftlicher Normen zu gewährleisten.
Es kann in zukünftigen Anwendungsszenarien außerdem einen entscheidenden Beitrag leisten, die oben genannte anthropozentrische Entscheidungsqualität zu verbessern.
Markus Matuszewski, Stephan Höhne, Roland Jochem
Die Bereitstellung von Warteinformationen über digitale Anzeigetafeln und ihr Einfluss auf die Kundenzufriedenheit am Beispiel der stationären Aufnahme in einem Krankenhaus
Zusammenfassung
Untersuchungsziel: Immer mehr digitale Anwendungen helfen Dienstleistungsunternehmen, den Service für ihre Kunden zu verbessern. Durch Echtzeit-Informationen, bereitgestellt über digitale Anzeigetafeln oder Apps, sind Kunden und Kundinnen über Vorgänge informiert.
In Wartesituationen können über digitale Anzeigetafeln allgemeine Informationen, Warteposition, Wartedauer und Wartegrund kommuniziert werden.
Diese Studie untersucht, welchen Einfluss die Bereitstellung von Warteinformationen auf die Wartezufriedenheit der Kunden hat und wie diese bereitgestellt werden sollten.
Methode: Zur Untersuchung der Forschungsfrage wird ein Versuch in der stationären Aufnahme von Patientinnen und Patienten eines Krankenhauses durchgeführt. An zwei Versuchstagen vor, und zwei Versuchstagen nach der Einführung einer digitalen Anzeigetafel mit Warteinformationen werden Patientinnen und Patienten im Wartebereich mittels einer schriftlichen Befragung zu ihrer Wartezufriedenheit befragt.
Ergebnisse und Implikationen: Aus wirtschaftlichen Gründen ist eine Wartezeit von null Minuten nicht immer geeignet. Statt die Reduzierung von Wartezeit zu betrachten, untersucht diese Studie, wie das Warten angenehm gestaltet werden kann.
Untersuchungen zeigen, dass Warteinformationen die Wartezufriedenheit beeinflussen. Diese Studie zeigt am Beispiel der stationären Aufnahme eines Krankenhauses, dass die Art der Bereitstellung von Warteinformationen bedeutsam ist. Bei der Bereitstellung sollte darauf geachtet werden, dass die Präsentation der Warteinformationen nicht zur visuellen und akustischen Überforderungen der Kunden führt.
Limitationen: Es wurde die Wartephase vor der Erstellung der Dienstleistung betrachtet. Die Untersuchungen sollten für andere Wartephasen und Branchen wiederholt werden. Folgeuntersuchungen sind erforderlich.
Wert der Arbeit: Die Zufriedenheit der Kunden mit der Wartezeit beeinflusst die Gesamtbeurteilung der Dienstleistung. Die Studie zeigt, wie Warteinformationen die Kundenzufriedenheit steigern. Die Ergebnisse leisten einen Beitrag zur Steigerung der Wartezufriedenheit des Kunden und zur langfristigen Kundenbindung.
Jane Worlitz, R. Woll, Janina Kotal
Zuverlässigkeitstechnik bei Formgedächtnisaktoren: Entwicklung von Prüfstandstechnik und Erprobungsprogramm
Zusammenfassung
Innerhalb der letzten Jahre wurde eine Vielzahl an verschiedenen Formgedächtnisaktoren (FG-Aktoren, smarte Aktoren) entwickelt und getestet. Diese smarten Aktoren weisen bei gleicher Funktionsumsetzung gegenüber konventionellen Aktoren nutzbare Vorteile wie verringerter Bauraum sowie verringertes Gewicht auf, arbeiten geräuschlos und können zusätzlich auch als Sensor eingesetzt werden. Einige entwickelte FG-Aktoren wurden bereits in hohen Stückzahlen für industrietaugliche Lösungen produziert, die Substitution findet jedoch bisher nur bedingt Anwendung. Die Ursache dafür ist die mangelnde Akzeptanz aufgrund einer nicht vorhandenen Normierung für Prüfstände, Prüfbedingungen und Prüfpläne. FG-Aktoren unterliegen vielen Einflussfaktoren wie beispielsweise dem nutzbaren Stellweg, der nutzbaren Stellkraft, elektrischer Aktivierungsleistung, thermischer und mechanischer Belastung, diverser Umgebungseinflüsse usw. Dabei steigt jedoch die Anzahl notwendiger Tests exponentiell mit der Anzahl der Einflussfaktoren. Hersteller von FGAktoren entwickeln individuelle und spezialisierte Versuchsstände, welche sich in Aufbau, Prüftechnik und möglichen Einflussgrößen unterscheiden, wodurch ein einheitlicher und reproduzierbarer Vergleich unterschiedlicher Messreihen derzeit nicht durchgeführt werden kann. Weiterhin benötigen Lebensdauerversuche von FG-Aktoren, die beispielhalber 250.000 Belastungszyklen ertragen sollen, mehrere Testmonate, wohingegen konventionelle Aktoren mit denselben Anforderungen in wenigen Tagen getestet werden können.
Das Ziel des Beitrags ist es die Entwicklung von standardisierten Prüfständen und Prüfplänen für einheitliche Qualitäts-, Zuverlässigkeits- sowie Lebensdauertests voranzutreiben. Dazu zählt die Spezifizierung von kritischen Prüfkomponenten zur Konzipierung eines universellen Versuchsstandes für die Durchführung dieser Tests.
In diesem Beitrag wird ein Technologievergleich zwischen konventionellen Aktoren und FG-Aktoren sowie mögliche Einsatzgebiete für smarte Aktoren dargestellt. Im Kontext dazu wird diskutiert, ob neue Erprobungsinhalte im Vergleich zu konventionellen Aktoren erforderlich sind und wie ein entsprechender, möglichst reduzierter Versuchsplan definiert sein kann. Es werden Konstruktion sowie Aufbau eines Prüfstandes und eine exemplarische Auswertung von Versuchsdaten in Form von Zeitreihen vorgestellt. Die Analyse der
Daten erfolgt anhand statistischer Methoden (z. B. Korrelationsanalyse), wodurch Aussagen über die Lebensdauer und Zuverlässigkeit getroffen werden können. Weiterhin wird auf Basis der statistischen Auswertung geprüft, welche Prüfparameter einen signifikanten Einfluss auf das Prüfverfahren sowie den FG-Aktor haben. Die Auswertung der Messdaten ermöglicht es zudem Muster im Verlauf zu beschreiben.
Die innerhalb dieses Beitrags vorgestellte, exemplarische Auswertung basiert auf Daten eines bereits existierenden Prüfstands für FG-Drähte. Die zukünftigen Prüfstände sind mit zusätzlicher Hardware, z. B. einer Klimakammer und Sensorik, ausgerüstet, um weitere Einfluss- und Prüfparameter zu ermöglichen und aufzuzeichnen.
Philipp Heß, Stefan Bracke
Qualitätsverbesserung in Open-Source-Hardware-Communities
Zusammenfassung
Open-Source-Hardware-Produkte sind solche, deren Designs öffentlich zugänglich gemacht werden, sodass alle sie studieren, verändern, weiterverbreiten und verkaufen können. Während sich das Konzept der Open-Source- Hardware (OSH) gegenwärtig zunehmender Popularität erfreut, stehen die Communities, welche die kollaborative Entwicklung von OSH-Produkten vorantreiben, vor der Herausforderung, nachhaltigen Projekterfolg durch Qualitätsverbesserung zu generieren. Bisher existieren allerdings keine anwendungsspezifischen Werkzeuge und Methoden zur Qualitätsverbesserung. Um das enorme Potential des OSH-Konzepts als neuartigen Produktentwicklungsrahmen und zur Begründung von OSH-Ökosystemen verwertbar zu machen, stellt das Thema community-basierter Qualitätsverbesserung einen kritischen Baustein dar. Dieser Problemstellung begegnet der Beitrag, indem zunächst ein Entwicklungsphasenraster vorgestellt wird, welches es ermöglicht Werkzeuge und Methoden im Lebenszyklus der Open-Source-Produktentwicklung (OSPE) einzuordnen. Hierin werden klassische Qualitätswerkzeuge und -methoden eingeordnet und diskutiert. Für künftige Aktivitäten in Forschung und Praxis werden zudem zentrale Anforderungen zur methodischen Anpassung und Implementierung der Werkzeuge und Methoden formuliert. Besonderes Augenmerk wird dabei auf die Unterscheidung von zentralisierter und verteilter Produktentwicklung gelegt. Der Beitrag reflektiert auf qualitative Weise die Passung klassischer Qualitätswerkzeuge und -methoden im aufkommenden dynamischen Feld der OSH unter Berücksichtigung der dort herrschenden Bedingungen.
Robert Mies, Jérémy Bonvoisin, Lena von Damaros, Roland Jochem
Prüfplanung auf Basis der Geometrischen Produktspezifikation als Schlüsselkompetenz in Industrie 4.0
Zusammenfassung
Die Prüfplanung ist ein in der Produktentwicklung verankerter Prozess, der die Festlegung aller für die Durchführung von Prüfungen benötigten Rahmenbedingungen beinhaltet. Aktuell ist dieser Prozess allerdings, insbesondere aufgrund des Fehlens standardisierter Modelle und Abläufe, erheblich von unternehmensinternen Festlegungen, zumeist beruhend auf Trial-and-Error, sowie von den beteiligten Personen abhängig. Diese Defizite können in der Folge zu unvollständigen, fehlerbehafteten sowie nicht vergleichbaren Prüfungen führen. Aktuelle Prüfpläne sind zudem überwiegend auf die Bewertung der Konformität von Produkten auf Basis der Technischen Produktspezifikation limitiert. Potentiale zur Planung von darüber hinausgehenden fertigungsprozessbezogenen Prüfungen sind in Prüfplanungsprozessen aktuell unzureichend abgebildet. Durch die zentrale wirtschaftliche Bedeutung von Prüfungen für den Unternehmenserfolg ergibt sich der Bedarf, die aufgeführten Defizite durch standardisierte Abläufe und Methoden zu überwinden und weiterhin die Prüfplanung hinsichtlich der Anforderungen und Potentiale von Industrie 4.0 vorzubereiten.
Dafür ist im ersten Schritt eine systematische Aufstellung von allgemeinen Prüfzwecken zu erarbeiten. Somit wird sichergestellt, dass über die Konformität von Produkten hinaus auch prozessbezogene Prüfmerkmale (Überwachung, Steuerung etc.) und weitere, während der Produktentstehung relevante Prüfungen (Wareneingangsprüfung, Prototypenbeurteilung etc.), innerhalb der Prüfplanung systematisch erarbeitet werden können. Auch die folgenden Festlegungen von Prüfplanungsinhalten sind wesentlich vom Prüfzweck abhängig.
Für die Methoden der zukünftigen Prüfmerkmalsdefinition stellt die Integration der Geometrischen Produktspezifikation in die Praxis des Unternehmens die notwendige Basis dar. Durch dieses umfangreiche Normenwerk werden die eindeutige Beschreibung der Geometrie in Abhängigkeit der Anforderungen erreicht und weiterhin Werkzeuge präsentiert, die auch für die Prüfplanung essentiell sind.
Insofern ist es das Ziel des Beitrags, aufbauend auf einer allgemeingültigen Prüfzweckklassifizierung, die Bedeutung und den potentiellen Mehrwert vollständiger Prüfmerkmalsaufstellungen für die Qualität von Produkten und Prozessen zu belegen sowie Strategien zur auf dem System der Geometrischen Produktspezifikation (GPS) basierenden Prüfmerkmalsdefinition zu erarbeiten.
Robert Hofmann, Sophie Gröger
Redesign des Requirements Engineering in Netzwerken für Smart Products
Zusammenfassung
Smart Products erweitern nicht nur die Möglichkeiten, wie wir als Konsumenten Produkte und Dienstleistungen nutzen können. Auch die Entwicklung solcher Smart Products unterliegt einem Wandel. Die Smart Product Entwicklung erfolgt in der Regel in Netzwerken fachdisziplin- und branchenübergreifend. Um die an das Produkt gestellten Anforderungen zu erfüllen und somit eine entsprechende Produktqualität zu sichern, wird das Requirements Engineering (RE) eingesetzt. Dementsprechend ist das RE mit den gleichen Herausforderungen bezüglich eines vernetzten Entwicklungsprozesses über Fachdisziplinen und Branchen hinweg konfrontiert.
Um diese Herausforderungen zu meistern, wird im Rahmen des DFGProjekts ReMaiN (Requirements Management in Networks) untersucht, welche unterschiedlichen RE-Konzepte international und in verschiedenen Branchen existieren, um im nächsten Schritt ein RE mit standardisierten Phasen zu entwickeln.
Der folgende Beitrag präsentiert die ersten Ergebnisse dieser Forschungsarbeiten. Es werden die Gemeinsamkeiten und Widersprüche verschiedener REKonzepte dargelegt und der erste Entwurf standardisierter RE-Phasen vorgestellt, die mit einem interdisziplinär nutzbaren Modell verlinkt sind.
Darauf aufbauend werden am Beispiel eines Staubsaugroboters diese Phasen und die entsprechende Modellierung exemplarisch durchlaufen und diskutiert.
Abschließend wird ein Ausblick über weitere Forschungsarbeiten und zukünftige Forschungsthemen im Bereich des RE gegeben.
Nadine Schlüter
Untersuchung variantenverursachender technischer Komponentenanforderungen und Bewertung der Folgen bei Entfall
zusammenfassung
Anforderungen dienen der Produktentwicklung als Aufgabenstellung, die im Rahmen des Entwicklungsprozesses kontinuierlich konkretisiert und aktualisiert werden. Somit sind Anforderungen die Basis, auf der grundlegende Entscheidungen in der Entwicklung getroffen werden. Die Anzahl der Anforderungen in Entwicklungsprojekten ist parallel zur Variantenvielfalt und der Produktkomplexität stark angestiegen. Um dieser Anspannung zusätzlich zu Kosten- und Zeitdruck in der Entwicklung zu begegnen, hat sich eine Anforderungswiederverwendung basierend auf einem Copy-and-paste-Vorgehen etabliert. Diese führt zu einer großen, unstrukturierten Anforderungsdatenbank und verhindert somit eine Transparenz über die Ausprägungen und spezifische Anforderungen. Aufgrund dieser Intransparenz und fehlendem Hinterfragen können nicht zutreffende, fehlerhafte oder veraltete Anforderungen über viele Entwicklungsprojekte übernommen und zu potentiellen Variantentreibern werden.
Daher ist das Ziel dieses Beitrages, eine Methode zur automatisierten Identifizierung variantenverursachende Komponentenanforderungen in einer gewachsenen, unstrukturierten Datenbank durch eine künstliche Intelligenz vorzustellen. Zusätzlich wird ein Konzept zur Bewertung der Folgen durch einen Anforderungsentfall für eine anschließende Optimierung und Harmonisierung aufgezeigt.
Lisa Ritter, Robert Refflinghaus
Warum in Zukunft Qualität mehr als Qualität sein muss
Zusammenfassung
Das Qualitätsmanagement hat sich in den letzten Jahrzehnten zu einem umfangreichen Managementsystem entwickelt und spiegelt in seiner heutigen Struktur die Komplexität der Globalisierung in allen ihren Facetten wieder [1]. Die System-Architektur basiert dabei auf der Managementpyramide, wie sie bereits 1911 in „The Principles of Scientific Management“ von Frederick W. Taylor beschrieben wurde, wobei die Planung und Ausführung getrennt und die Arbeitsfolgen in Form von Prozessen definiert werden. Prozesse setzten aber eine Wiederholbarkeit der Abläufe und damit ein annähernd stabiles wirtschaftliches Umfeld voraus, damit die Prozess-Effizienz hochgehalten werden kann. Bei einem dynamischen Umfeld helfen noch mehr Daten, mehr Planung und auch mehr Agilität aber nach Erfahrung der Autoren nicht weiter, denn viele der Qualitätsprobleme haben ihre tiefere Ursache darin, dass die Strukturen und Kulturen in den Unternehmen nicht an das komplexer werdende Marktumfeld angepasst sind (siehe auch Dirk Baecker in „Organisation als System“ [2]). Die anstehende Digitalisierung kann daher das Problem der Unterkomplexität in den Strukturen und der Überbürokratisierung in den Abläufen alleine auch nicht lösen. Unternehmen müssen in Zukunft über mehr Variabilität und damit auch Flexibilität verfügen um sich der steigenden Umweltkomplexität anpassen zu können, da Digitalisierung und Komplexitätsaufbau Hand in Hand erfolgen. Trotz smarter Technik muss daher der Mensch und seine Fähigkeiten als Komplexitäts- Manager immer mehr in den Fokus der Unternehmen rücken.
Der Beitrag möchte die aktuelle Diskussion zur Digitalisierung der Unternehmen und der Gesellschaft insgesamt um den sozialen Aspekt des digitalen Wandels erweitern, da die Digitalisierung primär als eine soziale Herausforderung und nicht als technische Problemstellung zu verstehen ist. Für das Qualitätsmanagement bedeutet das eine Abkehr von den im Wesentlichen nur normativen Vorgaben, hin zur Entwicklung von interner und externer Beziehungsqualität, um die komplexen sozialen Wechselwirkungen im Unternehmen und mit der Gesellschaft besser verstehen zu können.
Martin Menrath, Roland Jochem
Analyse der Wirksamkeit ausgewählter Optimierungsmethoden in der Montage
Zusammenfassung
Veränderte Marktbedingungen haben unter anderem eine verstärkte Konkurrenzsituation, steigende Kundenanforderungen und die Notwendigkeit zur schnellen Umsetzung technischer Innovationen zur Folge. Resultierend aus diesen Entwicklungen steigt der Kosten- und Leistungsdruck auf die Unternehmen. Sie müssen diesen Herausforderungen begegnen. Eine Reorganisation der Unternehmensprozesse zur effektiven Gestaltung und Erfüllung der Marktanforderungen erscheint unabdingbar. Hierzu wurden in den vergangenen Jahren zahlreiche Optimierungsansätze entwickelt. Doch welche Methode in welchem Maß zur Verbesserung beiträgt, ist bisher weitestgehend unbekannt. Einschätzungen in diesem Bereich basieren häufig auf persönlichen und subjektiven Erfahrungen, bieten jedoch für Unternehmen keine validierten Anhaltspunkte bei der Auswahl der richtigen Optimierungsmethode. Aus diesem Grunde beschäftigt sich dieser Beitrag mit der Untersuchung der Effektivität von Optimierungsmethoden in der Serienmontage mittels der Forschungsmethode Planspiel. Im Planspiel werden die Optimierungsmethoden Standardarbeitsblatt, Kanban, 5S und Poka Yoke angewendet und mittels der statistischen Versuchsplanung (engl. Design of Experiments (DoE)) systematisch spielerisch angewendet und in ihrer Auswirkung untersucht. Mit Hilfe der DoE in dem Programm Minitab 17 werden Effekte einzelner Optimierungsmethoden sowie deren Wechselwirkungen auf die ausgewählte Kennzahl „Output“ ermittelt. Die Durchführung von insgesamt 48 Versuchsdurchläufen stellt einen Datensatz zur Verfügung. Dabei erfolgt die Anwendung des vollfaktoriellen Ansatzes, bei welchem alle möglichen Faktoren und Wechselwirkungen in die Analyse eingebunden werden. Unternehmen erhalten durch das Planspiel verifizierte Aussagen über die Auswirkungen der ausgewählten Optimierungsmethoden und können diese Erkenntnis im Zuge der Methodenauswahl berücksichtigen. Die Ergebnisse zeigen u.a., dass Poka Yoke eine einflussreiche Methode zur effektiven Prozessgestaltung darstellt.
Patrick Pötters, Bert Leyendecker, Jasmin Ohlig, Robert H. Schmitt
Qualitätsorientiertes Verfahren zur kategorialen Einordnung strategischer Entscheidungen und zielgerichteten Anpassung von Entscheidungsprozessen
Zusammenfassung
Strategische Entscheidungen haben einen umfangreichen Wirkungsbereich und charakterisieren sich unter anderem aufgrund Ihrer Langfristigkeit, Komplexität und den damit verbundenen Unsicherheiten und Risiken. Diese Gegebenheit bedarf einer systematischen Abarbeitung zur Entscheidungsfindung, was durch die Definition und Anwendung unternehmensspezifischer strategischer Entscheidungsfindungsprozessen unterstützt wird. Um einen solchen Entscheidungsprozess in ein Qualitätsmanagementsystem nach der Norm DIN EN ISO 9001:2015 integrieren und die Wirtschaftlichkeit auch in der strategischen Ausrichtung festigen zu können, muss die Effektivität und die Effizienz des Entscheidungsprozesses sichergestellt werden. Dazu ist ein qualitätsorientiertes Verfahren zu konstruieren, mit dem entscheidungsspezifische Anpassungen des Entscheidungsprozesses ermöglicht und die Prozessdurchführung mit Instrumenten des Qualitätsmanagements unterstützt werden.
Hierfür werden zunächst existierende Verfahrensweisen und Instrumente zur Einordnung von Entscheidungen hinsichtlich ihrer Anwendbarkeit und Übertragbarkeit analysiert. Auf Basis dieser Analyse, den Merkmalen strategischer Entscheidungen sowie den Vorgaben und Prinzipien aus der Norm DIN EN ISO 9001:2015 werden Anforderungen zur entscheidungsbezogenen Prozessanpassung definiert. Das Ergebnis zeigt die Notwendigkeit von solchen Anpassungen, um die geforderte Effektivität und Effizienz gewährleisten zu können. Hierzu wird in dieser Ausarbeitung ein Instrument vorgestellt, mit dem durch Bewertung von Indikatoren eine Kategorie mit Maßnahmen zur Prozessanpassung sowie zur Auswahl zugeordneter QM-Methoden und -Techniken identifiziert werden kann. Die Anwendbarkeit des entwickelten qualitätsorientierten Instruments wird an einem Beispiel aufgezeigt.
Jürgen Götz, Robert Diwert, Heiner Otten
Vom Data Lake zum strukturierten Datenmuster – Big Data als Basis für ein Risiko-Frühwarnsystem in Partnernetzwerken
Zusammenfassung
Big Data zählt zu den Megatrends der global vernetzten Welt. Quantitativ nimmt die Datenmenge stets zu, jedoch ist letztlich nicht die Menge, sondern die Qualität der zur Verfügung stehenden Informationen entscheidend. Die Informationen werden vernetzt, woraus Wissen generiert wird, um Unternehmensprozesse zu steuern. Doch die Steuerung und Bewertung heterogener Partnernetzwerke, also der partnerschaftlichen Lieferanten-Abnehmer-Interaktion, innerhalb der externen Wertschöpfung wird mit konventionellen Methoden der Wissensgenerierung zunehmend schwieriger. Neue Formen der Datenerhebung und -verarbeitung bieten Unternehmen vielfältige Ansätze, um Geschäftsprozesse der Produktion und Qualität sowie die Partnernetzwerke abzusichern und zu steuern. Am Fachgebiet Qualitätsstrategie und Qualitätskompetenz der TU Berlin werden aus diesem Grund Möglichkeiten zur Risikoprävention in Partnernetzwerken entwickelt, um über eine bereichsübergreifende und koordinierende Steuerung auf Basis des Total Supplier Managements Synergieeffekte bei den Faktoren Zeit, Aktivitäten sowie Ressourcen zu nutzen. Dabei ist innerhalb der Forschungsaktivitäten ein Modell auf Basis des Data Mining entwickelt worden, welches diese Herausforderungen in einem strukturierten Vorgehen löst. Das Potenzial im Bereich des Data Mining liegt dabei besonders in der Verarbeitung großer Datenmangen (Big Data), um auffällige Datenmuster bei potenziell kritischen Lieferanten zu erkennen. Die Lösungsansätze berücksichtigen dabei präventive Ansätze im Bereich des Total Supplier Managements.
Anja Wilde, Robert Dust
Entwicklung eines selbstoptimierenden Prüfsystems zur Erfassung der haptischen Bedienqualität
Zusammenfassung
Anlehnend an die Entwicklung cyber-physischer Systeme können roboterbasierte Prüfsysteme durch zusätzliche Sensorik und die Integration kognitiver Systembausteine in ihrer Flexibilität und ihrem Automatisierungsgrad erhöht werden. In der industriellen Praxis ist dies für die Prüfung komplexer Produktmerkmale wie der haptischen Bedienqualität von besonderem Interesse. Entgegen der Prüfung konventioneller Produktmerkmale werden haptische Prüfungen gegenwärtig überwiegend manuell durchgeführt. Mit Blick auf die Prüfung wahrgenommener Qualität ergeben sich durch die Besonderheiten der menschlichen Wahrnehmung Anforderungen an die Prüfung, die über eine Objektivierung mittels messtechnischer Beschreibungsmerkmale hinausgehen. Psychophysikalische Konzepte der menschlichen Wahrnehmung wie eine einheitliche und aufeinander abgestimmte Bediencharakteristik von Bedienelementen innerhalb eines lokalen Bereiches müssen im gleichen Maße in der Auswertung berücksichtigt werden. Ausgehend von den Defiziten bestehender haptischer Prüfsysteme wird am Anwendungsbeispiel der Betätigungshaptik von Bedienelementen im KFZ-Innenraum die Entwicklung und Implementierung eines Prüfsystems vorgestellt, die zentrale Gestaltungsmerkmale cyber-physischer Systeme aufgreift.
Daniel Frank, Robert H. Schmitt, Jimmy Chhor, Max Ellerich
Ansatz zur Anpassung von Wartungs- und Instandhaltungspaketen auf Basis maschineller Lernalgorithmen im Hinblick auf den zuverlässigen Betrieb technisch komplexer Produkte
Zusammenfassung
Die Durchführung von Wartungsmaßnahmen während der gesamten Nutzungsphase eines technisch komplexen Produkts ist für den zuverlässigen und sicheren Betrieb sowie zur Gewährleistung einer hohen Produktverfügbarkeit unerlässlich. Durch die zunehmende Fahrzeugkomplexität werden Automobilhersteller bezüglich der Wartung und Qualitätssicherung über den gesamten Produktlebenszyklus vor immer größere Herausforderungen gestellt [12]. In der Automobilindustrie ist die vorausbestimmte Wartung von Fahrzeugen fest etabliert [14]. Hierbei sind Wartungsintervalle für bestimmte Kilometerlaufleistungen oder Einsatzzeiten durch die Hersteller vorgegeben. Bei jedem Wartungsintervall werden verschiedene Wartungsarbeiten, welche in Wartungspaketen zusammengefasst sind, durchgeführt.
Im Rahmen der vorausbestimmten Wartung werden jedoch ausfall- bzw. schadensgefährdete Komponenten, insbesondere wenn die Komponenten nicht Bestandteil des zugehörigen Wartungspakets sind, nicht berücksichtigt. Dies führt zu Werkstattbesuchen außerhalb der regelmäßigen Wartungsintervalle und zu zusätzlichen Kosten sowie möglichen Imageschäden für die Automobilhersteller.
Zur Begegnung dieses Problems wird in diesem Artikel auf der Grundlage eines synthetischen Datensatzes ein prädiktiver Ansatz zur Optimierung der vorausbestimmten Instandhaltungsstrategie, auf der Basis von Methoden des maschinellen Lernens, zur Anpassung von Wartungspaketen bezüglich aufkommender Garantieansprüche, präsentiert. Dabei werden mit den Methoden erlernte Klassifikationsmodelle zur Identifizierung von Schadenskandidaten im Feld sowie zur individuellen Anpassung von Wartungspaketen für Fahrzeuge genutzt.
Sebastian Sochacki, Fabian Reinecke, Stefan Bracke
Metadata
Title
Potenziale Künstlicher Intelligenz für die Qualitätswissenschaft
Editor
Prof. Dr. Robert H. Schmitt
Copyright Year
2020
Publisher
Springer Berlin Heidelberg
Electronic ISBN
978-3-662-60692-6
Print ISBN
978-3-662-60691-9
DOI
https://doi.org/10.1007/978-3-662-60692-6