Skip to main content

2021 | Buch

Qualitätsmanagement in den 20er Jahren - Trends und Perspektiven

Bericht zur GQW-Jahrestagung 2020 in Koblenz

herausgegeben von: Prof. Dr. Bert Leyendecker

Verlag: Springer Berlin Heidelberg

insite
SUCHEN

Über dieses Buch

Zielsetzung der Gesellschaft für Qualitätswissenschaft e.V. ist es, die Qualitätswissenschaft in Lehre und Forschung zu fördern und den Wissenstransfer in die industrielle Anwendung zu unterstützen. Geschehen soll dies unter anderem durch Pflege des wissenschaftlichen Erfahrungsaustauschs unter den auf diesem Gebiet tätigen Personen und Institutionen und der Verbreitung von Forschungs- und Entwicklungsergebnissen sowie der Unterstützung des Wissenstransfers zwischen Forschung und Praxis.

Unter dem Leitthema „Qualitätsmanagement in den 20er Jahren - Trends und Perspektiven“ hat die Gesellschaft für Qualitätsmanagement gemeinsam mit der Hochschule Koblenz zur GQW Tagung 2020 eingeladen. Wir freuen uns, dass wir Ihnen nun den zugehörigen Tagungsband vorstellen können.

Wenn man nach den Trends der kommenden Jahre fragt, muss in vielen Branchen und Disziplinen fast zwingend die Digitalisierung genannt werden. So bildet dieses Thema auch einen starken Schwerpunkt in diesem Tagungsband. Die Beiträge beschäftigen sich mit künstlicher Intelligenz beim autonomen Fahren, der Rolle der Digitalisierung bei Nachweissystemen für Zusatzqualifikationen und Zutrittszertifikaten sowie der Integration von Industrie 4.0-Elementen in ganzheitlichen Produktionssystemen. Auch die Frage, welche Rolle die Blockchain-Technologie im Qualitätsmanagement spielen könnte, wird betrachtet. Eine weitere Facette bildet der Beitrag über den Einsatz von Eye-Tracking in der Produktentwicklung. Die aktuelle Corona-Krise wird ebenfalls aufgegriffen und erste Analysen zum Einfluss des digitalen Reifegrads auf das Arbeitszeitmodell in Krisenzeiten vorgestellt. Aber auch Beiträge zur Rolle von Erfahrungswissen im Qualitätsmanagement, zur Messung der Qualität in Produkt-Service-Systemen, zur ganzheitlichen Fehleranalyse, zu geometrischen Produktspezifikationen und Montagereihenfolgen finden Sie in diesem Band.

Ein breiter Kanon spannender und aktueller Themen also, der zur Diskussion über das Qualitätsmanagement von morgen einlädt.

Inhaltsverzeichnis

Frontmatter
Vorstellung einer modellbasierten Methodik für eine ganzheitliche Fehleranalyse eines technischen Produktsystems mit seiner Umwelt in der Nutzungsphase
Zusammenfassung
Der Tesla-Autounfall, bei dem das Autopilot-System nicht in der Lage war, zwischen dem hellen Himmel als Hintergrund und der weißen Seite des Lastwagens zu unterscheiden, zeigte, welche dramatische Folgen Unfälle aus der Interaktion zwischen dem Produkt und seiner Umwelt in der Nutzungsphase haben können. Denn der heftige Aufprall des Autos mit dem LKW führte zum sofortigen Tod des Autofahrers. Deshalb ist es wichtig, bereits in der Produktentwicklung potentielle Fehler zu identifizieren, die sich in der Nutzungsphase aus Produkt-Umwelt-Interaktion ergeben könnten. Um Fehler zu identifizieren gibt es in der Produktentwicklung unterschiedliche Methoden (z. B. FMEA oder Ishikawa). Allerdings wird die Produkt-Umwelt-Interaktion bei diesen Methoden nicht ausreichend betrachtet. Infolge besteht der Bedarf an einer Methodik, mit der potenzielle Fehler, die sich aus den Wechselwirkungen zwischen Produktsystem und seiner Umwelt ergeben, systematisch identifiziert werden können. Diese Methodik soll dabei modellbasiert sein, um eine ganzheitliche und transparente Sicht auf das Produktsystem und seine Umwelt zu realisieren. In diesem Artikel wird die wissenschaftliche Lücke bezüglich der systematischen Betrachtung von Fehlern aufgrund von Interaktionen des Produktsystems mit der Umwelt in der Produktentwicklung dargelegt. Zudem wird ein erstes, grobes Konzept für eine Methodik der modellbasierten und ganzheitlichen Fehleranalyse bei Produkt-Umwelt-Interaktionen vorgestellt, um potenzielle Fehler während der Nutzungsphase zu identifizieren. Des Weiteren wird die Methodik anhand eines Anwendungsbeispiels veranschaulicht.
Ovidiu Bielefeld, Manuel Löwer, Nadine Schlüter
Individuell-digitale Nachweise im Qualitäts-, Risiko- und Krisenmanagement
Trends bei der Digitalisierung von individuellen Nachweissystemen für Zusatzqualifikationen und Zutrittszertifikaten in systemrelevanten Bereichen
Zusammenfassung
Die Corona-Pandemie wird auch in den nächsten Jahren tiefgreifende Veränderungen in den Arbeitsabläufen zahlreicher Verantwortlicher für die Gesundheitsversorgung sowie die Versorgung mit Lebensmitteln und Energie mit sich bringen. Sicher ist, dass das Coronavirus dazu zwang, die Digitalisierung zu beschleunigen. Die Deutsche Akkreditierungsstelle (DAkkS) reagiert auf die anhaltenden Kontakt- und Reisebeschränkungen und erweitert die Einsatzmöglichkeiten von Fernbegutachtungen (Remote Audits). Doch jene Personen aus öffentlichen und privatwirtschaftlichen Organisationen und Unternehmen, die für unaufschiebbare Konformitätsprüfungen und Audits vor Ort zuständig sind, stehen seit April 2020 vor der Herausforderung, neben ihrer erworbenen Fachkompetenz auch ein aktuelles Gesundheitszertifikat nachweisen zu müssen. Dieses Problem stellt sich nicht selten bei der Auditierung systemrelevanter Einrichtungen und Unternehmen der Agrar- und Ernährungswirtschaft. In drei Public Private Partnership Projekten (QVIREA, GeTie, TriangleNet.NRW) wird daher derzeit geprüft, wie sich das Identifikationsmanagement, d. h. die unverwechselbare Zuordnung einer lebenslangen ID zu einer autorisierten Person, der Qualifizierungs- und Zertifizierungsprozess auf Basis anerkannter Normen und Standards und der Prozess der Laboruntersuchung zur Erstellung eines aktuellen Befunds als Basis für die Zertifizierung des Gesundheitsstatus technisch-organisatorisch kombinieren und über eine web-basierte App sowie eine Blockchain-gesicherte Plattform unterstützen lassen. Auf allen drei Elementen baut das digitalisierte Konzept einer App verbunden mit mehreren verteilten, aber durch die ID verbundenen Datenbanken auf. Exemplarisch getestet und ökonomisch bewertet werden soll die Nutzung einer digitalen Combi Card innerhalb eines Anwendungsszenarios in der fleischerzeugenden Kette. Angekündigte und nicht angekündigte Audits sowohl von Amtsveterinären als auch von Personen, die im Auftrag von Branchenstandardorganisationen die Konformitätsprüfung vornehmen, dienen hier gemeinsam der Lebensmittelsicherheit und dem Infektionsschutz. Erläutert wird der Weg der Digitalisierung von drei personenbezogenen Nachweisverfahren – der Digital Academic Career Card, der Digital Basic Card Plus und dem Digital Health Certificate.
Carolin Schönen, Timothy Lahmann, Mareike Hambitzer, Christian Kenntner, Brigitte Petersen, Beate Conrady
Entwicklung eines Empfehlungsassistenten zur Integration von Industrie 4.0-Elementen in Ganzheitliche Produktionssysteme
Zusammenfassung
Industrie 4.0 ist einer der meist verwendeten Begriffe in der aktuellen Diskussion in der deutschen Industrie und Forschung. Bislang gibt es mehrere Perspektiven und Ansätze in Bezug auf Industrie 4.0, aber keine allgemeingültige Definition. Eine große Herausforderung bei der Umsetzung stellt die initiale Auswahl der richtigen Industrie 4.0-Projekte dar sowie die Unwissenheit über Anforderungen und Voraussetzungen für die Industrie 4.0-Implementierung. Ein Ansatz, der eine vielversprechende Basis für die Digitalisierung im Rahmen von Industrie 4.0 darstellt ist das „Lean Management“ und das damit verbundene Toyota Produktionssystem. Ziel des Ansatzes ist es möglichst verschwendungsarme Prozesse zu etablieren und ein System der kontinuierlichen Verbesserung zu leben. In Deutschland wird der Ansatz in der VDI-Richtlinie 2870 für „Ganzheitliche Produktionssysteme (GPS)“ als methodisches Regelwerk festgehalten. Viele deutsche Unternehmen haben die Lean Philosophie in den letzten Jahren etabliert. Für diese Unternehmen stellt sich nun die Frage, welche Veränderungen sich durch Industrie 4.0 für ihr GPS ergeben und wie sie möglichst frühzeitig, zum Teil mit sehr eingeschränkten Ressourcen für Investitionen, mit der neuen Situation umgehen können. Der Beitrag versucht zunächst ein verbessertes Verständnis von Industrie 4.0 und deren Kernelemente zu schaffen. Dafür werden Ergebnisse einer durchgeführten Studie und einer umfangreichen Literaturanalyse mit einbezogen, um so eine Auswahl der wichtigsten Industrie 4.0-Elemente herauszukristallisieren. Auf dieser Basis wird die Kompatibilität der Industrie-Elemente mit GPS und damit den Prinzipien und Methoden der VDI 2870 untersucht und bewertet. Die Ergebnisse dienen als Basis für einen Empfehlungsassistenten, der Unternehmen bei der Integration von Industrie 4.0-Elementen in ihr GPS unterstützen soll und in Form einer APP die Schnittstelle zum Nutzer herstellt. Durch die Integration der beiden Ansätze wird ein Vorgehen ermöglicht, das auf eine zielorientierte und zweckgebundene Umsetzung der Industrie 4.0 abzielt und somit die Digitalisierung nicht als Selbstzweck betrachtet.
Christoffer Rybski, Roland Jochem
Festlegung und Messung der Qualität verschiedener Produkt-Service-Systeme
Zusammenfassung
Die Kundenzufriedenheit ist ein zentraler Einflussfaktor zur Bindung von Kunden und damit eine wesentliche Voraussetzung für den ökonomischen Erfolg von Dienstleistungsunternehmen. Außerdem ist sie ein wichtiger Indikator für die Qualität einer Dienstleistung. Dem Qualitätsmanagement von Dienstleistungen kommt daher eine hohe Bedeutung zu. Die Schwierigkeit bei der Festlegung und bei der Messung qualitätsrelevanter Merkmale einer Dienstleistung und damit der diesbezüglich zu messenden Kundenzufriedenheit liegt in der generellen Erscheinungsform von Dienstleistungen. Diese sind immaterieller Natur und somit physisch nicht greifbar, was eine objektbezogene Untersuchung und Beurteilung der Qualität ausschließt. Zudem wird der Prozess der Dienstleistung durch die Integration eines externen Faktors stets unterschiedlich beeinflusst. Für den langfristigen Erfolg von Unternehmen ist dennoch die Sicherstellung und Überprüfung der Zufriedenheit der Kunden unter Bezugnahme auf die realisierte Beschaffenheit der Dienstleistung essentiell. Angetrieben vom Wettbewerb, ist seit einigen Jahren im Bereich produzierender Unternehmen eine Verschiebung der strategischen Ausrichtung der Geschäftsmodelle zu beobachten. Industrielle Produkte werden mit einem komplementären Dienstleistungsangebot kombiniert oder durch dieses gänzlich substituiert. Das Ergebnis ist ein Produkt-Service-System was den spezifischen Nutzen für die Kunden signifikant erhöht. Der damit verbundene notwendige Geschäftsprozesswandel stellt die Unternehmen oftmals vor größere Herausforderungen. Im Rahmen dieses Beitrags wird ein Verfahren zur Qualitätsfestlegung und -messung vorgestellt, das zur Anwendung für die verstärkt am Markt positionierten Produkt-Service-Systeme geeignet ist. Insbesondere bei dieser Form des Angebots ist das Verstehen der Kundenbedürfnisse essentiell. Daraus muss die Abstimmung der Komponenten Produkt und Service aufeinander erfolgen, was in der Verantwortung des anbietenden Unternehmens liegt. In solchen Systemen wird eine Komponente ohne die jeweils andere für den Kunden keinen Nutzen bieten. Daran wird die zentrale Bedeutung des Qualitätsmanagements insbesondere bei Produkt-Service-Systemen deutlich und die Notwendigkeit eines geeigneten Verfahrens offensichtlich.
Phillip Miersch, Roland Jochem
Literaturanalyse zur Determinierung des Bedarfs an Erfahrungswissen für QM-Methoden
Zusammenfassung
Das Humankapital in Form des Wissens wird zunehmend zu einem wichtigen Wettbewerbsfaktor in der globalisierten Industrie. Jedoch stehen Unternehmen vor großen Herausforderungen, das zur Wertschöpfung notwendige Wissen nutzbar zu machen. Insbesondere die Durchdringung der Prozesse von neuen digitalen Technologien, der demografische Wandel und die generelle Entwicklung zu einer Wissensgesellschaft beeinflussen die zukünftige Arbeitswelt umfassend und führen zu einem Abfluss insbesondere von Erfahrungswissen. Das Qualitätsmanagement ist besonders vom Erfahrungswissen abhängig, da dies häufig dort zum Tragen kommt wo kreative Problemlösungen erforderlich sind oder mit Unwägbarkeiten umgegangen werden muss. Für die Durchführung von QM-Methoden müssen daher Kompetenzen aufgerufen werden, die erheblich auf Erfahrungswissen beruhen. Die zukünftigen Herausforderungen haben dementsprechend große Auswirkungen auf die Wirksamkeit des Qualitätsmanagements. Dieser Beitrag soll zeigen, inwiefern das Qualitätsmanagement von den Entwicklungen betroffen ist. indem aufgezeigt wird, welche QM-Methoden einen hohen Anteil an erfahrungsbedingtem Wissen zur wirksamen Anwendung benötigen. Hierdurch sollen abschließend mögliche zukünftige Probleme bei der Anwendung von Qualitätsmethoden aufgezeigt werden.
Marcel Randermann, Roland Jochem
Ansätze zur Verbesserung KI-basierter Systeme für das autonome Fahren
Zusammenfassung
Im Bereich der Bilderkennung wurden in den vergangenen Jahren durch Deep Learning spektakuläre Fortschritte erzielt (Krizhevsky A, Sutskever I, Hinton GE. ImageNet classification with deep convolutional neural networks. In: Pereira F, Burges CJC, Bottou L, Weinberger KQ (Hrsg). Advances in Neural Information Processing Systems 25: Curran Associates, Inc; 2012, 1097–1105). Durch Neuronale Faltungsnetze (kurz: CNNs [convolutional neural networks]) können Straßenszenen in eine sogenannte semantische Segmentierung übersetzt werden (Long J, Shelhamer E, Darrell T. Fully convolutional networks for semantic segmentation. CoRR 2014; abs/1411.4038). Diese semantische Segmentierung bildet einen Baustein im Zusammenspiel mehrerer redundanter Systeme, welche das autonome Fahren ermöglichen sollen. Da neuronale Netze mithilfe von Trainingsdatensätzen angelernt werden, versagen diese oft bei dem Versuch unbekannte Objekte (also Objekte, welche nicht in den Trainingsdatensätzen vorhanden waren) zu erkennen.
In unserem Paper stellen wir – neben den Grundlagen zu CNNs sowie semantischer Segmentierung – eine simple entropiebasierte Methode vor, welche zur nachträglichen Erkennung unerkannter Objekte beitragen kann. Die Entropie kann dabei als ein Maß zur Quantifizierung der Unsicherheit des neuronalen Netzes angesehen werden. Durch das Visualisieren und anschließende Filtern dieser Entropie werden Bildregionen ermittelt, in welchen die Ausgabe des neuronalen Netzes durch starke Unsicherheit geprägt ist. Übersehene Objekte können dadurch nachträglich zur semantischen Segmentierung hinzugefügt werden. Mithilfe der Methode konnte die Güte der semantischen Segmentierung verbessert werden, wie sich in den Auswertungen zeigt.
Des Weiteren stellen wir weitere weitaus komplexere Methoden mit ähnlichen Ansätzen vor, welche ebenfalls an der Bergischen Universität Wuppertal entwickelt wurden ( Rottmann M, Maag K, Chan R, Hüger F, Schlicht P, Gottschalk H. Detection of false positive and false negative samples in semantic segmentation 2019). Die vorgestellten Frameworks beschäftigen sich unter anderem mit den Aufgaben der Metaklassifizierung und Metaregression. Hierbei wird die Vorhersagegüte eines Segments der semantischen Segmentierung anhand von segmentweise aggregierten Metriken wie Fraktalität und Unsicherheit geschätzt. Durch die Methode soll dem Auftreten von Fehlerkennungen (sog. false-positives und false-negatives) vorgebeugt werden.
Dominik Brüggemann, Stefan Bracke, Hanno Gottschalk, Matthias Rottmann, Kira Maag, Robin Chan, Marius Schubert
Korrelationsbasierte Erkennung von Montagereihenfolgen mittels 6 DoF-Zeitreihendaten zur Prozessdiagrammerstellung
Zusammenfassung
Aktuelle Marktentwicklungen bewirken eine kontinuierliche Erhöhung der Produktvarianz und eine damit verbundene erhöhte Produktkomplexität. Um flexibler auf Absatzentwicklungen reagieren zu können, werden Losgrößen in der Produktion reduziert und schnellere Produktlinienwechsel angestrebt. Auf Grund dessen ist ein wirtschaftlicher Einsatz von Automatisierungstechnologien häufig nicht möglich, sodass auch zukünftig manuelle Montagetätigkeiten einen zentralen Anteil der Produktion einnehmen werden. In Kombination mit dem Aufkommen iterativer Produktentwicklungsprozesse steht die Montageplanung vor neuen Herausforderungen, bei denen es einer datengetriebenen Synchronisation bedarf, um Erkenntnisse der Montageplanung frühzeitig an die Produktentwicklung zurückzuführen. Des Weiteren erfordern komplexere Montageprozesse eine bessere Unterstützung der Mitarbeitenden auf dem Shopfloor.
Die Erkennung von Prozessschritten manueller Montagetätigkeiten mittels Algorithmen bietet dabei das Potential, Prozesserkenntnisse frühzeitig für die Montageplanung und Produktentwicklung nutzbar zu machen, Prozessabweichungen während der Montage zu erkennen und prozessspezifische Unterstützung zu gewährleisten.
Ausgehend von Zeitreihendaten der Posen der zu montierenden Bauteile und der Hände der montierenden Person, bezogen auf ein globales Referenzkoordinatensystem, wird ein Algorithmus zur Erkennung von MTM-ähnlichen (Methods-Time Measurement) Prozessschritten sowie des zeitlichen Verlaufs der Montagegruppenbildung der Bauteile präsentiert. Basierend auf einem Transitionsmodell für Montageoperationen werden zeitliche Korrelationen zur Erkennung der gesamten Prozessabfolge genutzt. Der algorithmische Ansatz wird anhand von synthetisch generierten Montagedaten evaluiert und erreicht eine Genauigkeit von 91,79 % bezogen auf die Erkennung der zeitlichen Abfolge einzelner Montageoperationen. Im Gegensatz zu bisherigen Ansätzen können mit dem neu entwickelten Algorithmus Montageprozesse MTM-konform abgebildet werden.
Louis Huebser, Sascha Thamm, Thomas Hellebrandt, Ina Heine, Robert H. Schmitt
Eye-Tracking zur Kundenanforderungsvalidierung im Produktentwicklungsprozess
Auf dem Weg zur qualitätsoptimierten Customer-Co-Creation
Zusammenfassung
Qualitativ hochwertige Produkte können durch die Entwicklung von Produktmerkmalen in Übereinstimmung mit den Kundenwünschen erreicht werden. Um die Konformität von Produkten mit den Anforderungen während des Produktentwicklungsprozesses zu validieren, werden zunehmend objektive biometrische Verfahren wie Eye-Tracking eingesetzt. Das vorliegende Papier gibt daher einen Überblick über den Einsatz von Eye-Tracking in der experimentellen Validierung von Produktdesigns. Darauf aufbauend wird ein Konzept zur Eye-Tracking-unterstützten Kundenanforderungsvalidierung vorgestellt und anhand einer ersten Machbarkeitsstudie überprüft. Anhand der Erkenntnisse wird dargelegt, wie die Präzision, Belastbarkeit und Reichhaltigkeit von Kundenanforderungsanalysen durch den Einsatz von Eye-Tracking erhöht werden können. Die Forschungsarbeiten legen damit einen Grundstein für objektivere und aufwandsärmere Kundenanforderungsanalysen. Sie ebnen so den Weg hin zu einer verstärkten Customer-Co-Creation und einer qualitätsorientierten Produktentwicklung auch für Konsumprodukte.
Lena Stubbemann, Robert Refflinghaus, Thies Pfeiffer
Systematisierung der Prüfzwecke und kostenorientierte Prüfmerkmalsdefinition auf Basis des Systems der Geometrischen Produktspezifikation
Zusammenfassung
Prüfplanung wird anhand unterschiedlicher Prüfzwecke eingeteilt. Eine Möglichkeit besteht dabei nach Keferstein (Keferstein CP, Marxer M, Bach C. Fertigungsmesstechnik – Alles zu Messunsicherheit, konventioneller Messtechnik und Multisensorik. Springer Verlag, Wiesbaden, 2018) in Funktions- und Produktionsprozessorientierung. Eine weitere Variante hat Pfeifer (Pfeifer T, Schmitt R. Fertigungsmesstechnik. Oldenbourg Wissenschaftsverlag, München, 2010) erarbeitet und dabei in kurzfristige und langfristige Prüfplanung unterschieden. Bernards (Bernards M. Modulare Prüfplanung. Dissertation, RWTH Aachen, 2005) wiederum betrachtet die Produktabhängigkeit. Die Grundlage aller Unterscheidungen ist die Funktionsabsicherung des Produktes, die auch das Ziel der Spezifikation geometrischer Eigenschaften im System der Geometrischen Produktspezifikation (GPS) ist. Wie auch schon im Anwenderleitfaden (Schmitt RH, Kukulies J. Leitfaden zur Gestaltung einer ganzheitlichen Prüfplanung. FQS-DGQ-Band 84–10, Forschungsgemeinschaft Qualität e. V. (FQS), Frankfurt am main, 2016) ausgeführt, ist für eine ganzheitliche Prüfplanung der gesamte Produktlebenszyklus zu betrachten und die Vielzahl an Prüfprozessen, die in allen Phasen relevant sind, zu identifizieren. Darüber hinaus muss auch die monetäre Bedeutung einer vollständigen Prüfmerkmalsaufstellung einbezogen werden.
Mit dem Ziel, einen Beitrag zur Verbesserung der Prüfplanung zu leisten, wird eine Systematik aufgezeigt, in den Produktlebenszyklus punktuell einzuwirken, um Prüfmerkmale anhand wissensbasierter Entscheidungen zu generieren. Die Zerlegung der geometrischen Merkmale nach den Regeln des Systems der Geometrischen Produktspezifikation (GPS) ist für die im Beitrag vorgestellte Betrachtungsweise Voraussetzung für die Generierung von Wissen zu Prüfprozessen im Produktlebenszyklus. Anhand monetärer Aspekte soll der Einfluss unterschiedlicher Parameter der Prüfplanung, bspw. Prüfart, -zeitpunkt und -häufigkeit, auf den Prüfplan betrachtet werden.
Felix Herrmann, Stanley Sittner, Robert Hofmann, Sophie Gröger, Anika Schramm, Uwe Götze
Einfluss des digitalen Reifegrads auf das Arbeitszeitmodell in Krisenzeiten
Zusammenfassung
Der aktuellen Krise und den damit verbundenen Maßnahmen und Handlungsempfehlungen der Bundesregierung wird vielfach ein positiver Einfluss auf die Dynamik des digitalen Wandels zugesprochen. Unternehmen aller Branchen und Größen müssen sich vermehrt zumindest mit Teilen der Digitalisierung auseinandersetzen. Viele Unternehmen haben einen Großteil ihrer Belegschaft ins Homeoffice gesendet, um den Betrieb, unter Berücksichtigung geltender Handlungsempfehlungen, aufrecht zu erhalten. Auf der anderen Seite klettert die Kurzarbeit auf Höchstwerte. Dieser Beitrag untersucht den Zusammenhang zwischen der Ausprägung des digitalen Reifegrads vor der Pandemie und den vom Unternehmen an den einzelnen Arbeitsplätzen umgesetzten Maßnahmen. Hierzu wurde der individuelle digitale Reifegrad im Rahmen von mehrtägigen Vor-Ort Analysen ermittelt. Die Bewertung von 64 Sub-Kategorien, die in 6 Hauptgruppen zusammengefasst sind, beruht auf einer umfangreichen Beurteilung der Arbeitsplätze und Prozesse, sowie auf individuellen Befragungen der Arbeitnehmer. Neben den technologischen Voraussetzungen am Arbeitsplatz standen insbesondere die weichen Faktoren, wie beispielsweise Führungstransparenz und Fehlerkultur, im Fokus der Vor-Ort-Untersuchungen. In einer telefonischen Umfrage unter den im Rahmen des Digitalisierungschecks befragten Mitarbeitern, wurde nach Ausbruch der Pandemie Informationen zu Änderungen des individuellen Arbeitszeitmodells gesammelt. Die Ergebnisse wurden auf Zusammenhänge, Korrelationen und Tendenzen untersucht. Neben den technischen Voraussetzungen und einer durchgängigen horizontalen und vertikalen Vernetzung, zeigt sich die Tendenz, dass insbesondere eine effiziente und zumindest teilweise flexible Innovationsorganisation einen geeigneten Prädiktor für das aufrechterhalten der Leistungserbringung darstellt. Für das individuelle Arbeitszeitmodell stellen insbesondere die Führungstransparenz, die Anforderungsabwechslung der Tätigkeiten und eine hohe Fehlerkultur geeignete Prädiktoren dar. Kein Zusammenhang besteht beispielsweise zwischen der Sensibilisierung für IT-Security Themen und Telearbeit.
Christoph Szedlak, Bert Leyendecker, Patrick Pötters, Holger Reinemann
Potenzialanalyse datengetriebener Business Cases auf Basis von Blockchain
Zusammenfassung
Die Digitalisierung ist für Unternehmen, Staaten und Bürger der Treiber von enormen Veränderungen. Insbesondere die rasant steigenden Datenmengen und immer leistungsfähigere Computer führen zu neuen Trends und der Entstehung von disruptiven Technologien. Zu den sich gegenseitig verstärkende und datengetriebenen Trends gehören u. a. Big Data, Internet of Things, Cloud Computing und künstliche Intelligenz.
In dieser datengetriebenen Welt entstehen neue Geschäftsmöglichkeiten und Verbesserungen von bestehenden Produkten und Prozessen, welche ihre Wertschöpfung beispielsweise durch die Erhebung, Verarbeitung, Analyse, Bereitstellung oder dem Verkauf von Daten erzielen. Eine neue Technologie mit erheblichem Disruptionspotenzial ist die Blockchain. Diese eröffnet neue Lösungsmöglichkeiten, welche mehr Sicherheit, Transparenz, Dezentralisierung und Geschwindigkeit zu geringeren Kosten bieten. Darüber hinaus können bisher nicht lösbare Herausforderungen mit Hilfe der Blockchain bewältigt werden, welche insbesondere in einer immer digitaleren Welt aufkommen.
Das Ziel des Beitrags ist die Potenzialanalyse von Blockchain in der Industrie sowie konzeptionelle Überlegungen zur Entwicklung neuer wirtschaftlicher Business Cases. Dazu wurde eine Literaturrecherche und -analyse durchgeführt, um bestehende thematische Veröffentlichungen zu identifizieren und in ausgewählte Wirtschaftszweige zu klassifizieren. Ein Vergleich bestehender Business Cases auf Basis von Blockchain liefert Erkenntnisse zur Entwicklung neuer wirtschaftlicher Business Cases. Darauf aufbauen wird eine Potenzialanalyse anhand einer explorativen Technologie-Roadmap durchgeführt, um das Potenzial für die Industrie zu bestimmen und eine Übersicht zu erhalten, welche wichtige Ereignisse für die weitere Technologieentwicklung und ihre Einflüsse liefert. Mit der zukünftigen Regulierung der Blockchain Technologie und die Konsolidierung der Blockchain Standards wurden zwei Trendbruchereignisse identifiziert, welche erheblichen Einfluss auf das Potenzial der Blockchain in der Industrie haben werden. Abschließend wurden konzeptionelle Überlegung zur Entwicklung neuer wirtschaftlicher Business Cases erarbeitet, welche in ein Schema für ein systematisches Vorgehen resultieren.
Es kann festgestellt werden, dass zum aktuellen Zeitpunkt Industrieanwendungen und Anwendungen mit einer hohen Skalierbarkeit den Mehraufwand der Implementierung der Blockchain rechtfertigen. Zukünftige Entwicklungen, wie die Regulation, Standardisierung und Erfahrungen in der Entwicklung von Blockchain Anwendungen sollten zu einer Reduktion der Unsicherheiten führen und die Implementierungskosten senken, so dass weitere Anwendungen wirtschaftlich realisierbar werden.
Marcus Branke, Patrick Böttcher, Christoph Szedlak, Bert Leyendecker, Ralf Woll
Backmatter
Metadaten
Titel
Qualitätsmanagement in den 20er Jahren - Trends und Perspektiven
herausgegeben von
Prof. Dr. Bert Leyendecker
Copyright-Jahr
2021
Verlag
Springer Berlin Heidelberg
Electronic ISBN
978-3-662-63243-7
Print ISBN
978-3-662-63242-0
DOI
https://doi.org/10.1007/978-3-662-63243-7

    Marktübersichten

    Die im Laufe eines Jahres in der „adhäsion“ veröffentlichten Marktübersichten helfen Anwendern verschiedenster Branchen, sich einen gezielten Überblick über Lieferantenangebote zu verschaffen.