Skip to main content

2021 | Buch

Monetarisierung von technischen Daten

Innovationen aus Industrie und Forschung

herausgegeben von: Dr. Daniel Trauth, Prof. Dr. Thomas Bergs, Prof. Wolfgang Prinz

Verlag: Springer Berlin Heidelberg

insite
SUCHEN

Über dieses Buch

Die Monetarisierung von Daten ist per se ein sehr junges Thema, zu dem es nur sehr vereinzelt Fallbeispiele gibt. Es fehlt an einer Strategie bzw. einem Konzept, das Führungskräften den Weg in die Monetarisierung von Daten zeigt, insbesondere jenen, die die Digitale Transformation bzw. Industrie 4.0 für sich entdeckt haben oder davon bedroht sind. Weil Maschinendaten meist unstrukturiert und ohne Domänenwissen/Metadaten nicht verwertbar sind, birgt die Monetarisierung von Maschinendaten ein noch nicht abschließend bewertbares Potenzial. Um dieses Potenzial greifbar zu machen, werden in diesem Werk neben Beiträgen aus der Wissenschaft auch Praxisbeispiele aus der Industrie beschrieben. Anhand von unterschiedlichen Beispielen aus diversen Branchen kann der Leser bereits heute Teil einer zukünftigen Datenökonomie werden. Mehrwerte und Nutzen werden konkret beschrieben.

Inhaltsverzeichnis

Frontmatter
Kapitel 1. Monetarisierung von Daten am Beispiel von Fertigungsmaschinen
Grundlagen, Herausforderungen und Potenziale

Der Vision der Industrie 4.0 folgend, werden Maschinen digitalisiert und untereinander sowie mit Software-Systemen vernetzt. Trotz der erwarteten Potenziale und der Popularität der Thematik, stehen Unternehmen in der Praxis vor der Herausforderung echte monetäre Mehrwerte zu erzielen. Dieser Buchbeitrag erläutert charakteristische Probleme, welche die Monetarisierung von Maschinendaten innerhalb sowie außerhalb der eigenen Unternehmensgrenzen erschweren. Weiterhin wird ein Framework zur schrittweisen Umsetzung einer Datenmonetarisierung vorgestellt. Abschließend werden Fallbeispiele skizziert, die zusammen mit Experten aus der industriellen Praxis entwickelt wurden, um die Vorteile von zuvor beschriebenen Monetarisierungsstrategien zu untersuchen und zu belegen.

Daniel Trauth

Rechtliche Aspekte der Datenmonetarisierung

Frontmatter
Kapitel 2. Datenmonetarisierung im Recht
Nutzungs- und Kommerzialisierungsrechte

Die Monetarisierung von Daten hat einen maßgeblichen rechtlichen Bezug: Die Verfügungsmacht über die Daten erlangt derjenige, der sie dominant verarbeitet. Daher ist bei Aufträgen im Rahmen der Digitalisierung sorgfältig darauf zu achten, klar zu vereinbaren, wer hinterher die Daten nutzen und sie weitergeben darf – der Auftraggeber, der sich eine Softwarelösung entwickeln und installieren lässt, oder aber das Softwareunternehmen als Auftragnehmer. Hat dieses eine marktbeherrschende Stellung, muss es seine Dienstleistungen zur Verfügung stellen, wenn auch nur gegen angemessenes Entgelt; dieses darf aber nicht prohibitiv ausfallen. Dabei gilt das Prinzip der gemeinsamen Wertschöpfung, wenn eine gemeinsame Entwicklung erfolgt. Solche Kooperationen sind wettbewerbsrechtlich zulässig, um neue Entwicklungen voranzubringen. Kartellrechtliche Grenzen ergeben sich auch für den Austausch von Informationen.

Walter Frenz
Kapitel 3. Monetarisierung von technischen Daten am Beispiel von technischen Beschäftigtendaten
Grundlagen, Herausforderungen und Potenziale

Mit zunehmender Digitalisierung der Arbeit steigt auch die Anzahl von für den Arbeitgeber verfügbaren technischen Beschäftigtendaten. Aus arbeitsrechtlicher Sicht sind in diesem Zusammenhang vor allem Leistungs- und Verhaltensdaten bedeutsam, da sie als Grundlage für Leistungs- bzw. Verhaltenskontrollen herangezogen werden können. Aus diesen Kontrollen wiederum kann der Arbeitgeber dann unter Umständen Konsequenzen in Bezug auf den Inhalt und/oder den Fortbestand des Beschäftigungsverhältnisses ziehen. Dieser Buchbeitrag erläutert, unter welchen Voraussetzungen der Arbeitgeber technische Beschäftigtendaten verarbeiten darf und welche Bedeutung in diesem Zusammenhang Monetarisierungsanreizen zukommt. Zudem werden rechtliche Herausforderungen im Zusammenhang mit der Monetarisierung von Beschäftigtendaten und Lösungsansätze dazu aufgezeigt. Schließlich werden Fallbeispiele sowohl für technische Beschäftigtendaten als auch für wirtschaftliche Vorteile, welche dem Beschäftigten als Gegenleistung für die Einwilligung in die Datenverarbeitung angeboten werden können, genannt.

Inka Müller-Seubert
Kapitel 4. Die Einzel- und Gesamtvollstreckung Blockchain-basierter Vermögenswerte (Crypto-Assets)
Eine Analyse der Vollstreckbarkeit von Blockchain-basierten Crypto-Assets de lege lata – alles kein Problem?

Die Blockchain-Technologie ist auf dem Vormarsch. Während die Gesamtmarktkapitalisierung von Blockchain-basierten Crypto-Assets immer weiter ansteigt, setzen auch Unternehmen vermehrt auf Blockchain-basierte Applikationen, etwa bei intelligenten Pay-Per-Use-Systemen. Durch sie können zum Beispiel Micropayments effizient durch eigens hierfür auf der jeweiligen Blockchain-Applikation implementierten Token durchgeführt werden, welche im Bedarfsfall wiederum in Fiatwährung umgetauscht werden können. Insoweit sich immer mehr Vermögen in Blockchain-basierten Crypto-Assets ansammelt, gewinnt die Frage steigende Relevanz, wie sich diese neuartigen Vermögenswerte in der Einzel- und Gesamtvollstreckung verhalten. Im Beitrag werden diese Fragen analysiert und aufgezeigt, wo das Zivilprozessrecht und die Insolvenzordnung de lege lata nicht fähig sind, die effektive und umfassende Einzel- und Gesamtvollstreckung von Blockchain-basierten Crypto-Assets zu gewährleisten. Diese Ergebnisse sollen den rechtlichen Diskurs anreizen und den Gesetzgeber dazu auffordern, die aufgezeigten rechtlichen Hindernisse de lege ferenda abzubauen.

Alexander Bauer

Betriebswirtschaftliche Aspekte der Datenmonetarisierung

Frontmatter
Kapitel 5. Schweigen ist Silber, Reden ist Gold: Der Nutzen von Machine-Learning und Textanalysen in der Finanzwirtschaft

Die im Rahmen der fortlaufenden Digitalisierung steigende Datenkomplexität fordert auch die Finanzwirtschaft heraus. Bisherige manuelle Fallbearbeitungen und (simple) statistische Modelle stoßen hier schnell an ihre Grenzen, sodass der Einsatz neuer Technologien unumgänglich scheint. Neben der Analyse statistischer Zusammenhänge aus Kennzahlen zum Zweck der Identifizierung von Trends stellt vor allem die Text- und Sprachanalyse einen essenziellen Baustein dar. Im folgenden Kapitel dieses Buches werden dabei nach einem kurzen Überblick über Nutzungsbeispiele zunächst der aktuelle Forschungsstand sowie generelle Anwendungsfelder von Machine-Learning in der Finanzwirtschaft dargestellt. Anschließend wird das prominente Instrument der Textanalyse im Detail erläutert und neben der Durchführung und Methodik auch auf den Nutzen für Forschung und Praxis eingegangen.

Wolfgang Breuer, Anthony Haake, Manuel Hass, Eric Sachsenhausen
Kapitel 6. Monetarisierung von maschinengenerierten Onlinedaten – Branchenübergreifende Chancen und Herausforderungen

Unternehmen können in der heutigen Zeit mithilfe von fortgeschrittenen Formen der Datenanalyse Erkenntnisse erzielen, die sich unmittelbar in Wettbewerbsvorteile umsetzen lassen. Ermöglicht wird dies insbesondere durch eine exponentiell zunehmende Menge an maschinengenerierbaren Onlinedaten sowie verbesserte Möglichkeiten der Verknüpfung und Verarbeitung von Daten. Eine solide und zugleich adaptierbare Infrastruktur zur Datensammlung und -speicherung stellt folglich eine der relevantesten Säulen für wirtschaftlichen Erfolg in den kommenden Jahrzehnten dar. Dieses Kapitel beleuchtet die relevantesten internen und externen Datenquellen für Unternehmen aus einer betriebswirtschaftlichen Sicht: Welche Besonderheiten bestehen? Welcher Mehrwert kann generiert werden? Welche Trends lassen sich erkennen? Insbesondere wird darauf eingegangen, inwieweit maschinengenerierte Onlinedaten dazu beitragen können, Kundengruppen zu segmentieren, konkrete Zielgruppen adäquater zu adressieren und gewonnene Kunden enger an das Unternehmen zu binden. Zudem sollen Chancen im Hinblick auf Optimierungen des Produktportfolios, verbessertes Qualitätsmanagement und effiziente Ressourcenplanung aufgegriffen werden.

Malte Brettel, Thorsten Beule, Markus Rey, Nathalie Huber
Kapitel 7. Monetäre Bewertung von Daten im Kontext der Rechnungslegung
Ansätze zur Datenbilanzierung

Daten gehören zu den wertvollsten immateriellen Vermögensgegenständen unserer Zeit. Obwohl Unternehmen beiläufig massenhaft Daten mit hohen potenziellen Werten sammeln, werden diese Vermögenswerte in der Regel nicht in der Unternehmensbilanz abgebildet. Dieser Beitrag erläutert bestehende Probleme im Kontext der Bewertung und Bilanzierung von Daten, die sich aus der spezifischen Beschaffenheit von Daten ergeben. Hierzu werden die besonderen Eigenschaften von Daten bestehenden Bewertungsansätzen aus der Rechnungslegung gegenübergestellt. Darauf basierend werden Vorschläge zur Modifikation bestehender Bewertungsmethoden abgeleitet und exemplarisch auf eine Datenbank angewandt. Abschließend werden Perspektiven für die Datenbewertung und -bilanzierung skizziert.

Hannah Stein, Wolfgang Maaß
Kapitel 8. Was kostet den deutschen Mittelstand die digitale Transformation? – Überlegungen zu Datenprodukten, Geschäftsmodellen und zur Plattformökonomie

In der Industrie findet ein grundlegender Wandel in der Wertschöpfung statt. Wer früher Produkte fertigte, bietet heute hybride Lösungen mit (zu-)buchbaren Dienst- und Serviceleistungen an. Im Maschinenbau ist dieses Geschäftsmodell bereits als „Machine-as-a-Service“ bekannt, es lässt sich auf viele Bereiche übertragen. Statt des Verkaufs von Industrieanlagen erfordert dies die vollständige Nutzung des firmeninternen Service-Wissens (z. B. Konstruktionswissen über die Maschine, anstehende Einsätze und Wartungsaufgaben, optimale Maschinenkonfigurationen und das Wissen über fortlaufenden Verschleiß), um den Kunden die vertraglich zugesicherte Verfügbarkeit oder den Energie- und Material-effizienteren Betrieb garantieren zu können. Wir skizzieren die hochkompetitive Ausgangssituation für den deutschen Mittelstand, erläutern Grundlagen und Anwendungsbeispiele solcher Betreibermodelle und führen mit Service-Meister und GAIA-X zwei Leuchtturm-Forschungsprojekte vor, die sich vorgenommen haben, den deutschen Mittelstand bei seinem Weg in die Zukunft 4.0 mit KI-basierten Ansätzen zu Serviceplattformen zu unterstützen.

Fred Jopp, Andreas Weiss
Kapitel 9. Strategien der Datenmonetarisierung in produzierenden Unternehmen
Sechs Möglichkeiten zur zahlungswirksamen Nutzung von Daten

Eine Vielzahl produzierender Unternehmen optimiert – teilweise bereits seit Jahren – ihre internen Wertschöpfungsprozesse durch die Nutzung von Daten. Für die zahlungswirksame Monetarisierung von Daten existieren heutzutage allerdings nur ganz wenige Beispiele in der Produktionstechnik. Die wichtigsten daten- und monetarisierungsspezifischen Schwierigkeiten, an denen eine Umsetzung scheitert, werden im Beitrag einleitend erläutert. Zentraler Bestandteil dieses Beitrags sind allerdings die sechs Strategietypen der Datenmonterariserung, die sich bzgl. Individualisierungsgrad und Datendichte unterscheiden. Die detaillierten Erläuterungen zu den einzelnen Strategietypen sowie ein reales Praxisbeispiel liefern eine Orientierung für die (mögliche) Umsetzung zahlungswirksamer Datenmonetarisierung im eigenen Unternehmen.

Günther Schuh, Christoph Kelzenberg, Julian Boshof, Tim Graberg, Tim Ochel

Informationstechnische Aspekte der Datenmonetarisierung

Frontmatter
Kapitel 10. End-to-End-Architekturen zur Datenmonetarisierung im Industrial Internet of Things (IIoT)
Konzepte und Implementierungen

Das Wertschöpfungspotenzial des Internets der Dinge (Internet of Things, IoT), also des Verbindens arbiträrer Objekte mit dem Internet, liegt im Aufschließen und in der nutzenstiftenden Verarbeitung der circa 80 Zettabyte (1 ZB = 1021 Bytes) an Daten, die von den voraussichtlich 40 Mrd. IoT-Endpunkten produziert werden (Prognose für 2025). Dieser Beitrag behandelt die informationstechnischen Voraussetzungen, die es herzustellen gilt, um dieses Potenzial realisieren zu können. Die Quantität und Heterogenität der besonders im Industrial IoT (IIoT) anzutreffenden Geräte und Maschinen der Industrie bedingen dabei den Einsatz einer typischerweise Cloud-basierten IoT-Plattform zur logischen Bündelung und zum effizienteren Management dieser im Industriekontext unvermeidbaren Komplexität. Stringente nicht-funktionale Anforderungen besonders im Hinblick auf (niedrige) Latenz, (hohe) Bandbreite, Zugang zu großen Rechenkapazitäten sowie Sicherheits- und Vertraulichkeitsaspekte bedingen in der Folge den Einsatz von intermediären IoT-Gateways verschiedenster funktionaler Ausprägungen im Edge-Kontinuum zwischen IoT-Endpunkten und IoT-Plattform in der Cloud. Dies wird an Hand zweier Praxisfälle aus der Perspektive einer Komponentenarchitektur illustriert. Schließlich argumentieren wir, dass dieses klassische Konzept von IoT-Projekten strategisch in Richtung Applikationsintegration (Stichwort: IT/OT-Integration) und API-Management erweitert und über eine Integrations- bzw. API-Management Plattform an die IoT-Plattform angekoppelt werden muss, um im Rahmen eines End-to-End-Verständnisses von IoT/IIoT dem innovationsstiftenden Transformationscharakter von Industrie 4.0 gerecht zu werden.

Christoph F. Strnadl
Kapitel 11. Die Technologie IOTA als offene Infrastruktur für Mikrozahlungen, IoT-Kommunikation, und weltweite digitale Sicherheit

Das Wachstum des Internet of Things (IoT) schreitet weiterhin mit großen Schritten voran. Durch kostengünstigere, energieeffiziente und langlebige Geräte, die gleichzeitig always on sind, entsteht gerade eine neue Art der digitalen Kartographie unserer Umgebung, aber auch unserer Lebensweise. Bereits heute erheben wir gigantische Datenmengen, welche automatisierte Entscheidungen ermöglichen und damit nicht nur die Informationsgrundlage für neue Geschäftsmodelle bilden, sondern zukünftig zielgerichtete Interaktionen zwischen Maschinen („economy of things“) ermöglichen. Ein Grundstein, um diese Datenflut zu beherrschen und um Identitäts- und Maschinendaten manipulationssicher vor Missbrauch zu schützen stellt die neuartige Technologie IOTA dar. Als hochskalierbare und öffentlich frei verfügbare Infrastruktur zur Datenerfassung, -teilung und -monetarisierung wird IOTA von einem weltweiten Team entwickelt, um Milliarden an Personen, Organisationen und Geräten sicher und geschützt mit einander zu verbinden.

Holger Köther
Kapitel 12. Data Notary – auditierbare Daten als Monetarisierungsgrundlage
Leitfaden für Design und Architektur von Data Notary Services

Daten sind der digitale Rohstoff für jegliche Anwendungen und Services, welche in weiterer Folge auf eine direkte oder indirekte Monetarisierung abzielen. Der Anteil am Unternehmenserfolg und den zuordenbaren Einnahmequellen steigt dabei meist mit dem Grad der Digitalisierung, dem Grad der Vernetzung sowie dem Anwendungs- und Serviceportfolio. Aufgrund dieser Tatsachen sollte die Schaffung einer belastbaren und auditierbaren Datenbasis eine zentrale Rolle einnehmen. Eine auditierbare Datenbasis kann dabei als Qualitätssiegel sowie in weiterer Folge als eine Wertsteigerung des Datenportfolios betrachtet werden. Dieses Kapitel erläutert, wie Daten durch die Anwendung von Distributed Ledger Technologien und darauf aufbauenden Data Notary Services, zu einer auditierbaren Monetarisierungsgrundlage werden können. Nach der Erläuterung der technischen Grundlagen und der Anforderungen, wird eine Architektur für Data Notary Services vorgeschlagen und deren einzelne Elemente werden erklärt. Abschließend werden durch ein Praxisbeispiel aus dem Bereich Equipment-as-a-Service die Erkenntnisse und Vorteile durch den Einsatz eines Data Notary Services skizziert.

Patrick Lamplmair, Simon Pfeifhofer, Benedikt Berger
Kapitel 13. Sichere, verifizierbare Objektidentitäten als Wegbereiter für Wertschöpfung in Verteilten Netzwerken

Mit der Verbreitung von Internet-of-Things (IoT) Netzwerken wächst ebenso der Bedarf an Mechanismen, um den Sicherheitsanforderungen zu genügen. Eine Herausforderung, der sich in diesem Beitrag angenommen wird, ist das Verwalten des Zugriffs von IoT Geräten auf Daten. Es wird eine Lösung aufgezeigt, in der in einem Zusammenspiel aus Cloud, Fog und Dust die sich verändernden Identitäten von IoT Geräten feststellt und die Daten des Systems vor unberechtigten Zugriffen geschützt werden. Dieses Identitätsmanagement kann Grundlage für verschiedene Anwendungsfälle sein. Anhand von den zwei Fallbeispielen „verifizierter Ersatzteile“ und „dynamische Zonen zur Einfahrtbeschränkung von Fahrzeugen“ wird gezeigt, dass Objektidentitäten Grundlage für Monetarisierung sein können.

Kai Hendrik Wöhnert, Sven-Jannik Wöhnert, Volker Skwarek

Datenmonetarisierung in der fertigenden Industrie

Frontmatter
Kapitel 14. Putting a Price Tag on Data
Datenmonetarisierung und Smarte Resilienz-Services mit der MyDataEconomy-Plattform

Mit zunehmender Komplexität von Analysefragestellungen in Unternehmen steht neben einfachen Methoden wie Visualisierungen und simplen statistischen Auswertungen immer mehr die Entwicklung datengetriebener Services mittels Techniken der künstlichen Intelligenz (KI) oder des Machine Learnings (ML) im Fokus. Oftmals scheitern solche Projekte jedoch an der vorliegenden Datengrundlage, welche durch eine zu geringe Datenvielfalt und -größe, die Gefahr von nur bedingt aussagekräftigen Ergebnissen mit sich führt. Es bedarf also einer Möglichkeit, Datenquellen vernetzbar zu machen, um relevante Daten für die Entwicklung eines Service einfach einkaufen zu können. Die senseering GmbH hat sich dieser Aufgabe angenommen und mit der MyDataEconomy ein dezentrales Datenmanagement-Netzwerk geschaffen, welches den einfachen Austausch von Daten zwischen zwei oder mehr Parteien im Netzwerk sicher und schnell abwickelt. Um den Wert der eigenen Daten auch selbst auszuschöpfen und die Daten nicht nur für andere im Netzwerk bereitzustellen, muss es zudem auch jedem Netzwerkteilnehmer möglich sein, seine eigenen Daten visualisieren und analysieren zu können. Hierfür wurde die MyDataEconomy um Analyse- und Visualisierungsmodule auf den Netzwerkknoten erweitert und mit Konnektoren für die Anbindung von Maschinen, Sensoren oder anderer Datenquellen ausgestattet. Das Ergebnis ist eine global nutzbare Datenökonomie, in der jeder Teilnehmer den Mehrwert aus internen und externen Daten im Zusammenspiel erfahren kann.

Daniel Trauth, Nils van Ouwerkerk, Felix Mönckemeyer, Kristof Herrmann
Kapitel 15. Das Internet of Production als Fundament der Datenverwertung in der Produktion
Herausforderungen und Lösungsansätze des datengetriebenen Erkenntnisgewinns

Das Internet of Things entfaltet erst durch die Überwindung von bestehenden Produkt- und Industriegrenzen sein volles ökonomisches Potenzial. Trotzdem werden Cyberphysische Systeme in der Forschung bisher oftmals isoliert betrachtet. Der Begriff des Internet of Production (IoP) steht für die Vision eines übergreifenden Austauschs von Daten und Informationen zwischen Produktentwicklung, Produktion und Nutzungsphase – über bestehende Organisationsgrenzen hinaus. Die Realisierung des IoP ist mit Herausforderungen im Bereich der datengetriebenen Modellierung sowie der Infrastruktur verbunden. In diesem Buchbeitrag werden die bestehenden Herausforderungen erläutert und Lösungsansätze skizziert. Der Schwerpunkt liegt auf der datengetriebenen Modellierung. Im Speziellen wird die Problematik des Lernens von kausalen Zusammenhängen, die Interpretierbarkeit von Machine-Learning-Modellen sowie die Integration von Domänenwissen in Lernalgorithmen diskutiert. Abschließend werden zwei Anwendungsbeispiele des „Digital Material Shadows“ vorgestellt. Diese veranschaulichen wie mithilfe von Machine Learning Erkenntnisse über den Materialzustand eines Werkstücks gewonnen werden können. Ziel dieser Digital Material Shadows ist es, langfristig Fertigungsprozesse adaptiv an die individuellen Materialeigenschaften des vorliegenden Werkstücks bzw. Rohmaterials anzupassen.

Marco Becker, Matthias Brockmann, Philipp Niemietz, Daniel Trauth, Thomas Bergs, Christian Brecher
Kapitel 16. Grafischer Ansatz zur Energieoptimierung durch künstliche Intelligenz
Am Beispiel der Textilindustrie

Technologien für die Prozesseffizienz in verschiedenen Industrien werden aufgrund des starken globalen Kostendrucks und Qualitätswettbewerbs in den nächsten Jahrzehnten zwingend erforderlich sein. Die Effizienz umfasst dabei die Minimierung der Energiekosten, die Maximierung der Produktion bzw. des Outputs oder die Reduzierung von Qualitätsausschüssen sowie von Maschinenausfällen. Durch maschinelles Lernen und neuronale Netze können diese Prozesse nun effizienter und qualitätsbewusster gesteuert werden, um insbesondere Energieeinsparungen von bis zu 20 % pro Maschine zu erzielen. Integrierte Sensoren an den Maschinen überwachen den Fertigungsprozess in Echtzeit, sodass durch maschinelles Lernen die Prozessparameter entsprechend optimiert werden, um einen niedrigen Energieverbrauch bei hoher Qualität zu erzielen. Die bereitgestellten Informationen werden dem Maschinenbediener und dem Produktionsmanagement-Team in Echtzeit zur Verfügung gestellt. In diesem Kapitel wird die Umsetzung und damit einhergehende digitale Transformation von bestehenden Maschinen beschrieben sowie die Potenziale hinsichtlich Qualitätsoptimierung und Energieeinsparungen durch künstliche Intelligenz.

Ricardo Vega Ayora, Nicolina Praß
Kapitel 17. Effizienzsteigerung durch datenbasierte Modellierung von Qualität und Produktionskostenfaktoren in der Vliesstoffindustrie

Das Krempelverfahren ist das bedeutendste Verfahren zur Herstellung von Vliesstoffen aus Fasern endlicher Länge (Stapelfasern). Die Qualitätsparameter von Vliesstoffen werden von einer Vielzahl an Eigenschaften des Rohmaterials, den Produktionseinstellungen sowie den Umgebungsbedingungen hochkomplex beeinflusst. Insbesondere die Einstellung der Krempel hat einen enormen Einfluss auf die Qualität des Vliesstoffes. Um Monetarisierungseffekte in der Vliesstoffproduktion zu realisieren, wird die Krempel mithilfe maschineller Lernverfahren unter technischen und wirtschaftlichen Gesichtspunkten optimiert. Dazu werden die Einflüsse auf die resultierende Vliesqualität und die Produktionskosten ermittelt und ein Messsystem entwickelt, das alle Variablen während der Produktion erfasst. Die Wirkung der Einflussgrößen auf die Zielgrößen Produktqualität und Produktionskosten werden mithilfe maschineller Lernverfahren modelliert. Aufbauend auf den entwickelten Modellen wird eine Simulation entwickelt, die die erwartete Produktqualität und den erwarteten Energiebedarf bei unterschiedlichen Einstellungen simuliert. Für jeden Einstellpunkt werden die spezifischen Produktionskosten berechnet, die bei gegebenen Einstellungen erwartet werden. Ein Optimierungsalgorithmus nach der ε-constraint-Methode sucht die Simulationsergebnisse systematisch ab und wählt diejenige Einstellung, bei der die geforderte Mindestqualität erreicht wird und die Produktionskosten am niedrigsten sind.

Frederik Cloppenburg
Kapitel 18. Mehrwert durch Verknüpfung von Produkt- und Prozessdaten am Beispiel einer textilen Prozesskette
Effizienzsteigerung von textilen Produktionsprozessen durch eine ganzheitliche Datenanalyse

Die Produktion von Textilien erfolgt in fragmentierten Prozessketten. Störgrößen beeinflussen die Eigenschaften von Produkten, die als Vorprodukte in Folgeprozessen verarbeitet werden. Der Folgeprozess wird durch die schwankenden Eigenschaften der Vorprodukte sowie zusätzliche Störgrößen beeinflusst. Maschinenstillstände und Ausschuss sind die Folge. Eine mangelhafte Datentransparenz entlang der Prozesskette sowie innerhalb eines Unternehmens verhindert eine schnelle Identifikation und Behebung der Ursachen. Am Institut für Textiltechnik der RWTH Aachen University wurde eine Methode entwickelt, Produkte entlang der Prozesskette nachzuverfolgen sowie Produkt- und Prozessdaten zusammenzuführen. Die Methodik ermöglicht die ganzheitliche Datenanalyse, bei der Qualitätsfehler auf Ursachen entlang der Prozesskette oder im eigenen Unternehmen zurückgeführt werden. Die entwickelte Methodik wurde auf eine Prozesskette zur Vliesstoffherstellung im Labormaßstab angewendet, deren Industrie 4.0-Ausbaustufe inkrementell erhöht worden ist. Die Wirtschaftlichkeit von Investitionen in Industrie 4.0-Infrastruktur konnte aufgezeigt werden. Außerdem wurde gezeigt, dass neben physischen Produkten auch Datensätze über Produkte einen Wert besitzen. Dieser Wert wird generiert, indem Optimierungen am Prozess ermöglicht werden, was die Grundlage kooperativer, datenbasierter Geschäftsmodelle sein kann.

Ruben Kins, Thomas Gries
Kapitel 19. Datenbasierter Erkenntnisgewinn aus dem Blickwinkel der Oberflächentechnik

Ziel dieses Beitrags ist es, Bereiche in der Oberflächentechnik aufzuzeigen, in denen über einen datenbasierten Erkenntnisgewinn in der Forschung ein wesentlicher monetärer Mehrwert oder Wettbewerbsvorteile für Unternehmen generiert werden können. Dabei werden Methoden vorgestellt, welche genutzt werden können, um neues Wissen aus Datenbeständen zu generieren und Beschichtungen sowie deren Herstellungsprozess hinsichtlich ihrer Leistungsfähigkeit zu verbessern. Um das Potenzial entsprechender Methoden zu verdeutlichen, werden Fallbeispiele auf unterschiedlichen Hierarchieebenen im Bereich der Oberflächentechnik betrachtet, anhand derer die Herausforderungen, Lösungsansätze sowie der daraus resultierende Erkenntnisgewinn und die damit einhergehende Monetarisierung von Daten verdeutlicht werden.

Kirsten Bobzin, Tobias Brögelmann, Wolfgang Wietheger, Hendrik Heinemann, Christian Kalscheuer, Seyed Ruhollah Dokhanchi, Martin Welters
Kapitel 20. Digitalisierung in der Kunststoffverarbeitung
Mehrwert durch Daten und vernetzte Systeme

Daten über die Produktion sowie die umliegenden Felder der Wertschöpfungskette gewinnen in der Kunststoffverarbeitung immens an Bedeutung. Einerseits sind Informationen in Form von quantitativen Daten die Grundlage für jegliche Verbesserung einer Produktion sowie der organisatorischen und logistischen Aufgaben, die dafür notwendig sind. Andererseits haben sich sowohl Datenerfassungsmethoden sowie Datenverarbeitungsmethoden weiterentwickelt, sodass sie effizienter und preiswerter eingesetzt werden können und somit der Nutzen aus Daten in den Vordergrund tritt. Im Folgenden wird auf drei wichtige Bereiche in der Kunststoffverarbeitung eingegangen, durch die Daten einen Mehrwert generieren, der einerseits direkte sowie indirekte Monetarisierungsmöglichkeiten generiert. Nach einer Einordnung wird dies anhand von digitalen Dienstleistungen veranschaulicht, die auf der Verfügbarkeit von Produktionsdaten aufbauen und ein neues Geschäftsfeld eröffnet haben. Ein weiterer wichtiger Aspekt stellt ein Marktsegment dar, dass sich auf die Beschaffung von Daten, insbesondere von Produktionsdaten ausrichtet. Ein enormes Potenzial bietet hierbei die Bereitstellung von Hardware, Software sowie damit verbundenen Dienstleistungen zur Erfassung von Maschinen- und Produktionsdaten. Zuletzt wird auf moderne Methoden eingegangen, die einen indirekten Monetarisierungseffekt bewirken, indem sie Produktionsumgebungen optimieren und effizienter gestalten. Somit nehmen sie einen positiven Einfluss auf die Wirtschaftlichkeit des Unternehmens.

Christian Hopmann, Mauritius Schmitz
Kapitel 21. Monetarisierung von Daten in der Fügetechnik
Digitalisierung lohnt sich – Datenerfassung in der Fügetechnik als Voraussetzung für kontinuierliche Verbesserungsprozesse

Die Gruppe der Fügetechnologien stellt eine Schlüsselposition im Kontext eines modernen Fertigungsumfelds dar. Fügetechnologien, und im speziellen Schweißtechnologien, zeichnen sich allerdings durch eine hohe inhärente Komplexität aus, der im Allgemeinen Empirie und Expertenwissen entgegengestellt wird. Die Branche der Schweißtechnik begegnet der Digitalisierung immer noch mit Zurückhaltung, da der Nutzen nicht erkannt wird. Dabei gehen die Möglichkeiten der ökonomischen Verwendung von Prozessdaten weit über die reine Prozessbetrachtung und -begutachtung hinaus. Neben betriebswirtschaftlichen Potenzialen wie der Verbesserung der Anlageneffizienz können Schweißprozessdaten unternehmensextern beispielweise mit Reports über die Individualqualität von Werkstücken oder Fügestellen für hohe Kundenzufriedenheit und Kundenbindung sorgen. Kernpunkt hierfür ist eine holistische Betrachtungsweise sowohl prozess- als auch anlagenspezifischer Daten mittels moderner Methoden der Datenexploration und -analyse. Dieser Beitrag stellt die Möglichkeiten der Datennutzung für schweißtechnische Betriebe aus übergeordneter Perspektive mit Fokus auf monetäre Benefits, aber auch Hindernisse bei der Ermittlung relevanter Informationen aus Schweißprozessdaten dar.

Uwe Reisgen, Marion Purrio, Guido Buchholz
Kapitel 22. Mit Transparenz zur Null-Fehler-Produktion und Mehrwerten für den Kunden
Digital Twins mithilfe von Distributed Ledgers abbilden

Fehler an Produkten aller Branchen, die durch unzureichende Qualität verursacht werden, führen jährlich zu 47 Mrd. € Kosten – allein bei den deutschen KMUs. Immer wieder wird im Fehlerfall darauf verwiesen, dass man keine Zeit gehabt habe, was schließlich zum Fehler geführt hat. Doch ist es offensichtlich, dass das Korrigieren oder Reparieren eines Fehlers oder sogar die Durchführung eines Rückrufs erheblich mehr Kosten verursacht, als wenn der Fehler verhindert oder zumindest früher entdeckt worden wäre. Mit einem einfachen Konzept zur ganzheitlichen Verhinderung von Fehlern und der lückenlosen und transparenten Dokumentation von Digital Twins mit Hilfe von Distributed Ledgers wird ein Weg zur Null-Fehler-Produktion aufgezeigt, der einen Großteil der Fehlerkosten einsparen könnte und die Unternehmen ferner in die Lage versetzt, ihre Geschäftsmodelle und datenbasierte Informationen zu erweitern.

Sven O. Rimmelspacher
Kapitel 23. Dezentralisierte Marktplatzstrukturen als Schutz vor Informationsasymmetrien
Wie Plattformgeschäftsmodelle mit Blockchainarchitekturen herausgefordert werden können und wie Firmen in diesem Szenario Daten monetarisieren

Plattformgeschäftsmodelle sind aus der digitalen Wirtschaft nicht mehr wegzudenken. Große Technologieunternehmen bieten Plattformen an und nehmen somit eine wichtige Rolle in ihrem jeweiligen Ökosystem ein. Dezentrale Architekturen wie Blockchain ermöglichen eine Alternative zu Plattformen, die Nutzerdaten sammeln und verwerten. Diese Alternative ist besonders relevant für die fertigende Industrie, in der Wettbewerbsvorteile primär durch Know-how und Prozessgeheimnisse erzielt werden. Die Relevanz dieses Themas steigt durch den Aufbruch der Industrie hin zum Internet of Things. Wir beschreiben eine dezentrale Plattform, die die Datenhoheit von Firmen mittels blockchainbasierter Technologie sichert und gleichzeitig eine neue Marktumgebung schafft. Eine Anpassung der Produktionsmuster und Fertigungsprozesse kann zusätzlich zur besseren Nutzung von entstandenen Marktplatzdaten und erhöhten Erträgen führen.

Philipp Sandner, Marcel Kaiser
Kapitel 24. As-a-Service Modelle für die Fertigungstechnik
Am Beispiel des Feinschneidens

Die digitale Transformation stellt aktuell eine der größten Veränderungen in der produzierenden Industrie dar. Die Digitalisierung von Produkten und Prozessen eröffnet aber nicht nur Chancen und Möglichkeiten sondern auch Herausforderungen. Der Grund dafür ist u. a. ein Mangel an geeigneten Fachkräften und das Fehlen einer geeigneten IT-Infrastruktur. In dieser Arbeit wird daher eine Plattform hergeleitet, die auf einem Cloud-Computing-Ansatz und einem as-a-Service Modell beruht. Die Nutzung der Plattform benötigt dadurch einen minimalen Einsatz an IT-Personal und -Hardware aufseiten des produzierenden Unternehmens. Die Plattform wird dabei am Fallbeispiel des Feinschneidens entwickelt. Es werden zunächst geeignete Modellierungsansätze für das Feinschneiden vorgestellt und diskutiert. Diese sind die FE-Simulation und die datengetriebene Modellierung. Die beiden Methoden besitzen individuelle Vor- und Nachteile und werden daher in Verbindung miteinander genutzt, um sich gegenseitig zu ergänzen. Für die verschiedenen Modellierungsmethoden werden individuelle Anwendungsfälle im Kontext des Feinschneiden entwickelt, sowie Anforderungen an die zu schaffende Plattform definiert. Aufbauend auf diesen Erkenntnissen wird eine Architektur vorgestellt, welche die herausgearbeiteten Anforderungen erfüllt und die Nutzung der Methoden der FE-Simulation und der datengetriebenen Modellierung in einer as-a-Service Form ermöglicht.

Joachim Stanke, Daniel Trauth, Philipp Niemietz, Thomas Bergs
Kapitel 25. Daten von Land- und Baumaschinen gewinnbringend nutzen
Analyse derzeitiger Monetarisierungsmechanismen und Handlungsempfehlungen für die Zukunft

Dieses Kapitel zeigt das Potenzial der Datennutzung in der Landwirtschaft und in der Baubranche auf. Neben heutigen Wertschöpfungsmechanismen wie beispielweise der datengestützten Prozessoptimierung und der prädiktiven Instandhaltung werden künftige Wertschöpfungsmöglichkeiten wie beispielweise die Erschließung neuer Geschäftsmodelle und Dienstleistungen vorgestellt. Um zunächst die heutige Nutzung generierter Daten zu beschreiben, werden die Monetarisierungsmechanismen aktueller datengetriebener Produkte und Lösungen beider Branchen analysiert. Anschließend werden die bestehenden Hemmnisse der Datennutzung und -veräußerung identifiziert. Um die identifizierten Hemmnisse aufzulösen, werden Lösungsansätze definiert und in einem Leitfaden zusammengefasst, welcher die Erschließung neuer datengetriebener Geschäftsmodelle fokussiert. Zur Demonstration der Wirkweise des entwickelten Leitfadens wird dieser in konkreten Fallbeispielen aufgegriffen, in denen die Ausarbeitung künftiger datengetriebener Geschäftsmodelle in der Landwirtschaft und in der Baubranche konkretisiert wird.

Benjamin Lehmann, Georg Jacobs, Christian Habermehl, Christian Gentz, Stephan Neumann
Kapitel 26. Nachhaltige Produktion durch Predictive Quality und Sustainability Analytics entlang der Lieferkette
Monetarisierungseffekte bei einem unternehmensübergreifenden Datenaustausch

Aufgrund stetig steigender Anforderungen sind produzierende Unternehmen gezwungen ihre Produkte und Prozesse kontinuierlich zu verbessern. Dabei greifen sie immer häufiger auf datengetriebene Analysemethoden zurück, die als Entscheidungsgrundlage für Handlungsmaßnahmen dienen. Das Potenzial, das sich durch eine horizontale Datenintegration entlang der Lieferkette ergibt, wird von Unternehmen jedoch nur selten berücksichtigt und in Mehrwert umgewandelt. Dieser Beitrag erläutert die Monetarisierung technischer Daten durch den Einsatz von Predictive Quality und Sustainability Analytics entlang der Lieferkette und beschreibt den Einfluss der Datenqualität und der Relevanz der Daten auf den potenziellen Datenwert. Abschließend werden die Monetarisierungseffekte anhand von zwei industriellen Anwendungsbeispielen veranschaulicht.

Robert H. Schmitt, Daniel Buschmann, Kristof Briele, Peter Schlegel, Max Ellerich
Kapitel 27. Der Data Lifecycle von der Erfassung bis zur Erkenntnis
Einsparpotentiale in der automatisierten Fertigungstechnik

Die Nutzbarmachung von Daten stellt einen wesentlichen Wertschöpfungstreiber in der Automatisierungstechnik für Produktionsanlagen dar. Zukünftige Produktionsprozesse werden durchgängig überwacht, die entstehenden Daten mit Metainformationen und Modellen angereichert und Optimierungen über die gesamte Wertschöpfungskette hinaus ermöglicht. Ansätze der künstlichen Intelligenz und die Bereitstellung hochwertiger Daten erlauben dabei eine weitreichende Interpretation und die Ableitung von Entscheidungsunterstützungen. Wesentlich für eine zukunftsweisende Datenverarbeitung ist die Sicherstellung einer hohen Informationsgüte. Diese wird durch eine eindeutige Identifikation, ein definiertes Labeling sowie eine Bereitstellung exakter Metadaten ermöglicht. Entsprechende Verfahren erlauben zudem eine geeignete Abstraktion von systemspezifischen Daten und deren Abbildung auf allgemein anwendbare Modelle. Die Kombination aus zentraler und dezentraler Datenverarbeitung sowie die gezielte Rückführung von Daten und resultierenden Modellen ermöglichen weitreichende Wertschöpfungspotentiale und die Resilienz einer agilen Produktion.

Christian Brecher, Philipp Blanke, Melanie Buchsbaum, Yannick Dassen, Christian Fimmers, Aleksandra Müller, Oliver Petrovic, Simon Pieske, Simon Roggendorf, Katrin Schilling, Stephan Wein
Kapitel 28. „ReLIFE“: Geschäftsmodelle zum datenbasierten Remanufacturing
Adaptives Remanufacturing zur Lebenszyklusoptimierung vernetzter Investitionsgüter

In Anbetracht der verschärften Ressourcenknappheit und des zunehmenden Umweltbewusstseins ermöglicht eine Verlängerung des Lebenszyklus von Investitionsgütern erhebliche ökologische und ökonomische Potenziale zur Verbesserung der Ressourceneffizienz und Produktivität. Um diese Potenziale zu erzielen, wird der innovative Ansatz des Adaptiven Remanufacturing entwickelt. Adaptives Remanufacturing beschreibt eine proaktive, intelligente Instandhaltungsstrategie, die auf technischen, ökologischen und ökonomischen Aspekten basierend über den optimalen Zeitpunkt und Umfang zur Anwendung von Instandhaltungs- und Remanufacturing-Maßnahmen entscheidet. Durch Adaptives Remanufacturing können Hersteller wertvolle Daten über ihre Investitionsgüter gewinnen, welche durch ein geeignetes Produkt-Service-System zeitgleich monetarisiert werden können. Dieser Beitrag beschreibt ein Vorgehen, wie durch Adaptives Remanufacturing das Leistungsniveau von Investitionsgütern aufrechterhalten, der Lebenszyklus somit verlängert wird und letztlich daraus neue Geschäftsmodelle entstehen.

Peter Burggräf, Matthias Dannapfel, Johannes Wagner, Benjamin Heinbach, Nils Föhlisch, Jonas Dackweiler
Kapitel 29. Datennutzung und Datenreduktion in der Lasermaterialbearbeitung
Lernen aus der vollständigen Information

Die Lasermaterialbearbeitung besticht durch eine hohe Prozessgeschwindigkeit bei geringem Wärmeeintrag und großer Vielseitigkeit in Hinblick auf die bearbeiteten Materialien. Die laser-basierten Fertigungsverfahren arbeiten vorrangig ohne einen mechanischen Kontakt zum Werkstück, indem der Laser mit dem Material wechselwirkt. Dies hat zur Folge, dass die Qualitätsüberwachung ebenfalls kontaktlos erfolgt. Die hierbei entstehenden Daten können über eine Fehlererkennung am aktuell prozessierten Werkstück hinaus für die Verbesserung des Prozesses und die Fortentwicklung ganzer Fertigungssysteme genutzt werden. Rahmenbedingungen für diese Nutzung der Daten werden allgemein und entlang drei charakteristischer Anwendungsfälle erläutert. Die Spanne reicht dabei von Bildverarbeitungsdaten zur Fugenfolge mittels maschinellem Lernen, über KI-basierte (künstliche Intelligenz) Identifikation von Anbindungsfehlern beim laser-basierten Batterieschweißen, bis hin zur Nutzung von Daten aus dem gesamten Lebenszyklus einer laserstrahlgebohrten Wasserfiltermembran. Wesentlich ist für all diese Fälle die sogenannte vollständige Information im Fehlerfall. Dieses digitale Abbild von Fertigungshistorie und Randbedingungen stellt im Moment einer Qualitätsabweichung des Produktes die Wissensbasis für die weitere Exploration dar. Ohne diese vollständige Information im Fehlerfall können Daten in der Nachnutzung nur unzureichend valorisiert werden. Aus wirtschaftlicher Sicht kann mit einem klaren Konzept die Valorisierung dieser Nachnutzung die Grundinvestition für Datenaufnahme und Datenhaltung um ein Vielfaches übersteigen.

Ulrich Thombansen, Peter Abels, Wolfgang Fiedler, Christian Knaak, Moritz Kröger, Andrea Lanfermann, Frederic Schulze
Kapitel 30. Transparenz und Wert der Daten im Bauwesen
Potentiale innerhalb von Informationsnetzwerken zur unternehmensübergreifenden Kollaboration in den Fertigungsketten des Bauwesens

Jeder zweite Euro in Deutschland wird in Bautätigkeiten investiert. Das Bauen gehört daher zu Deutschlands größten Wirtschaftsfaktoren, findet jedoch in der öffentlichen Wahrnehmung zur deutschen Wirtschaft kaum Beachtung, da es meist ein regional abgegrenztes Geschäftsfeld von klein- und mittelständischen Betrieben darstellt. Keine andere Domäne beeinflusst den Menschen mehr als die gebaute Umwelt, daher ist es umso verwunderlicher, dass die Qualität des Gebäudes als Produkt so wenig hinterfragt wird. Die oft als technologisch rückständig betrachtete Bauindustrie kann bereits entwickelte Methoden der Industrie 4.0 als Sprungbrett zur Digitalisierung nutzen. Hierzu müssen jedoch vorhandene Hürden reduziert und Informationslücken vermieden werden. Es benötigt einer zielführenden Auslegung der Digitalisierung zur Optimierung von durchgeführten Bauvorgängen unter Berücksichtigung der Aufwände und Vorteile. Zurzeit ist die Digitalisierung des Bauwesens nach wie vor dominiert durch die digitale Abbildung von Planungsvorgängen unabhängig vom realen Baualltag insbesondere von klein- und mittelständigen Unternehmen.Gerade im Bauwesen müssen zur Optimierung von Qualität und Termintreue aufgrund sehr dynamischer und großer Unternehmensnetzwerke Daten entlang der Wertschöpfungskette Bau nutzbar gemacht werden. Aufgrund der Individualität der Bautätigkeiten und des Projektgeschäfts gestaltet sich gleichzeitig ein Lernen auf Basis historischer Daten bereits abgeschlossener Bauvorhaben als problematisch. Eine Datenmonetarisierung findet daher zurzeit nur sehr begrenzt statt, da Daten weder zwingend im gleichen Gewerk anfallen in dem sie genutzt werden können und die Digitalisierung des Bauwesens mit Bezug auf die Baustelle noch am Anfang steht.Während die Industrie 4.0 vor der Herausforderung steht einen greifbaren Mehrwert der Maschinendaten zu erzielen, gestaltet sich die Digitalisierung von Bauprozessen insbesondere in der unstrukturierten Umgebung der Baustelle um einiges schwieriger. Umso wichtiger ist die Fokussierung auf die Erfassung relevanter Daten innerhalb der gesamten Wertschöpfungskette, da eine 1:1 Spiegelung als digitaler Zwilling des Bauwesens nur für Großprojekte und Großunternehmen machbar und mit unklarem wirtschaftlichem Vorteil verbunden ist.

Sigrid Brell-Cokcan, Sven Stumm, Lukas Kirner, Elisa Lublasser
Kapitel 31. Datenmonetarisierungspotenzial in der Automobilindustrie Wertschöpfungskette und dem Produktlebenszyklus
von der Kundenbestellung bis zur Autolieferung an den Kunden

Ein enormes Monetarisierungspotenzial besteht in der gesamten Produktwertschöpfungskette und in dem Produktlebenszyklus der Automobilindustrie durch die Datenanalyse und die Anwendung der künstlichen Intelligenz sowie der Blockchain. Jedoch kann die Implementierung der kompletten Wertschöpfungskette und des Produktlebenszyklus nicht in einem Schritt realisiert werden. Die Realisierung wird durch zusätzliche Herausforderungen, wie z. B. die notwendige Datenverfügbarkeit, Datenbereinigung/-aufbereitung, unterschiedliche Dateninhaber und die erforderliche Änderung in der Denkweise der Mitarbeiter begleitet. Deswegen startet die Umsetzung der Datenanalyse in der vorhandenen Struktur dort, wo die größten Monetarisierungseffekte erzielt werden können. Sie werden dann schrittweise auf andere Bereiche/Prozesse erweitert. In bestimmten Fällen jedoch ergibt eine komplette Neugestaltung der Prozesse mehr wirtschaftlichen Sinn. Die großen Monetarisierungseffekte werden in der Kundenkommunikation, im Marketing-/Sales-Bereich, in der Produktion, im Supply-Chain-Management und in der Logistik, also Bereichen mit hoher Kundenorientierung, Mitarbeiterempowerment, höherer Qualität, höherer Produktivität und besserem Risikomanagement erwartet. Repräsentative Anwendungsbeispiele im Bereich des Produktlebenszyklus-Managements, des IoT in der Produktion und in der Logistik und deren Montarisierungseffekte werden in diesem Beitrag aufgezeigt. Auch wird dargestellt, wie eine optimale und zukünftige Lösung aussehen könnte. Dabei ist es notwendig, mit allen Partnern innerhalb der Wertschöpfungskette und des Produktlebenszyklus zusammenzuarbeiten und ein hohes Maß an Transparenz zu schaffen. Das ermöglicht eine nachhaltige Entwicklung von Unternehmen und unterstützt den strukturellen Wandel der Gesellschaft über die reinen Monetarisierungseffekte hinaus.

Seonhi Ro

Datenmonetarisierung in der Energietechnik

Frontmatter
Kapitel 32. Technologiekonvergenz im Energiesektor
LoRaWAN und IOTA als Befähiger der Datenmonetarisierung

Durch das rasante Aufstreben neuer Technologien und immer kürzere Entwicklungszyklen ist es heutzutage möglich, Dinge zu vernetzen, ihnen eine digitale Identität zu geben und durch Daten sprechen zu lassen. Drahtlos vernetzte Sensoren sind in der Lage gewaltige Mengen an Daten in städtischen und industriellen Umgebungen zu erfassen und zu verarbeiten. Dem wachsenden Paradigma des Internet der Dinge folgend, sind viele Organisationen bestrebt, aus diesem Pool von Daten wertvolle Informationen abzuleiten und Wissen für ihr strategisches Handeln aufzubauen. Sie haben begonnen, ihre Geschäftsmodelle anzupassen oder neue zu entwickeln, um das strategische Geschäftspotenzial, das in diesen Daten steckt, auszuschöpfen, um Mehrwerte für sich und Stakeholder zu schaffen. Trotzdem ist das Leistungsversprechen vieler eingesetzter Technologien nicht ausreichend, um interne oder externe Monetarisierungseffekte bei gleichzeitig hoher Datensicherheit, -qualität und Wirtschaftlichkeit zu erzeugen. Es bedarf also technischen Systemen, die für die Anforderungen bei der Gewinnung und Verarbeitung von Daten gerüstet sind, und es ermöglichen, neue Wege und Arten in der Verwertung von Daten zu schaffen. Der Begriff der Monetarisierung spielt hier eine zentrale Rolle. Daher stellt dieser Beitrag eine Technologiekonvergenz hin zu einem progressiven Anwendungssystem vor, das dazu befähigt, Daten zu monetarisieren und zugleich die Datensouveränität zu wahren. Am Beispiel eines Anwendungsfalls im Energiesektor wird das progressive Anwendungssystem mit seinen Technologien, Funktionen, Merkmalen und Potenzialen eingeführt.

Fynn-Hendrik Paul, Daniel Demmer, Nils Herterich, Moritz Hafke
Kapitel 33. Datenmonetarisierung im Energiesystem und dessen Rolle bei der Entwicklung eines kundenorientierten Stromnetzes
Der Endkunde als aktiver Marktakteur fördert die Energiewende

Angetrieben durch den Wunsch nach einem nachhaltigeren Energiesystem und zur Erfüllung der Klimaziele, wird der Ausbau der erneuerbaren Energiequellen in Deutschland kontinuierlich fortgeführt. Anders als fossile Energieträger stehen erneuerbaren Energiequellen nicht durchgehend zur Verfügung. Daher muss das Energiesystem flexibler werden, um auf das schwankende Energieangebot reagieren zu können. Der Endkunde als neuer aktiver Akteur am Energiemarkt wird hierbei eine zentrale Rolle spielen. Die Liberalisierung der Energiemärkte, die initiale Förderung verteilter Erzeugung aus erneuerbaren Energiequellen und die zunehmende Digitalisierung, allen voran der beginnende Smart Meter Rollout gestatten es erstmalig, dass Endkunden aktiv an den Energiemärkten teilnehmen. Die Vernetzung aller Akteure im Energiesektor erlaubt die Etablierung neuer Energiemärkte, welche eine effizientere Integration der erneuerbaren Energiequellen in das bestehende System ermöglichen. Diese Energiemärkte werden sich zunehmend auf bestimmte Regionen begrenzen und sich auf die Verteilnetzte konzentrieren. Durch die große Anzahl neuer Marktakteure durch die Einbindung der Endkunden wird eine skalierbare, sichere und nachvollziehbare Marktimplementierung benötigt. Die Entwicklungen im Bereich der DLT erscheinen hierfür besonders geeignet. Das Buchkapitel erläutert diese Aspekte anhand zweier Fallbeispiel innovativer Energiemärkte auf Basis der DLT.

Stephan Groß, Stefan Lankes, Ferdinanda Ponci, Antonello Monti

Datenmonetarisierung in weiteren aufkommenden Anwendungsfeldern

Frontmatter
Kapitel 34. Monetarisierung von Sensordaten in Gewerbeimmobilien
Grundlagen, Potenziale und Herausforderungen

Die Immobilienwirtschaft gilt als eine der Branchen, die die digitale Transformation unserer Lebens- und Arbeitswelten am fundamentalsten prägen werden. Die digitale Erweiterung von Immobilien durch intelligente Sensoren und Steuerungstechnik spielt hierbei eine Schlüsselrolle. Die Neuausrichtung der Nutzung und Bewirtschaftung von Immobilien durch vernetzte Gebäudesensorik und die Monetarisierung der entstehenden Sensordaten stehen jedoch erst am Anfang. Dieser Buchbeitrag erläutert, welche datengetriebenen Mehrwerte die Smartifizierung von Gewerbeimmobilien bietet und wie Immobilieneigentümer/Asset Manager diese Mehrwerte innerhalb und außerhalb der eigenen Unternehmensgrenzen monetarisieren können. Darauf aufbauend werden die Hürden erläutert, die das Nutzen der Potenziale von Smart Buildings in der immobilienwirtschaftlichen Praxis erschweren. Abschließend skizziert der Beitrag einen Lösungsansatz zur Überwindung der heutigen Herausforderungen auf Basis des IOTA-Ökosystems.

Steffen Heidrich, Christopher Seipel
Kapitel 35. Einsparung kostenintensiver Experimente und Simulationen durch Maschinelles Lernen
Neuronale Netze und Filtermethoden im Praxiseinsatz

Die Anwendung von Methoden des Maschinellen Lernens birgt großes Potenzial für die Beschleunigung technischer Prozesse und die damit verbundene Reduktion von Kosten. Auf Basis vorhandener Daten können neuronale Netze trainiert werden, die Ergebnisse teurer experimenteller Untersuchungen oder zeitaufwändiger Simulationen zuverlässig vorhersagen und diese somit ersetzen können. In diesem Artikel wird ein neues neuronales Netz vorgestellt, welches auf sehr vielen Schichten (Layern) basiert und in die Kategorie des Deep Learning einzuordnen ist. Des Weiteren wird gezeigt, wie ein solches bereits für einen Datensatz trainiertes Netz mittels einer Filtermethode an einen neuen Datensatz mit veränderten Eingabe- und/oder veränderten Zielgrößen effizient und zeitsparend angepasst werden kann. Die Filtermethode ersetzt dabei das meist sehr zeitaufwändige Training eines neuronalen Netzes mittels Forward- und Backpropagation. Die Anwendbarkeit und Effizienz der präsentierten Methoden wird anhand zweier realer technischer Beispiele demonstriert, wobei die Leistungsfähigkeit bezüglich der Vorhersagequalität und der Rechenzeit analysiert wird.

Michael Herty, Michael Rom, Giuseppe Visconti
Kapitel 36. PigConomy
Evidenzbasierte Analyse von empirischen Daten der Nutztierhaltung und deren Verwertung

PigConomy zielt auf eine Optimierung der Prozesse in der Fleischproduktion. Als Rohstoff für diese Verbesserung dienen Daten, die während der Tierhaltung und bei der Schlachtung erhoben werden. Diese Prozessdaten werden nicht nur tabellarisch gegenüber gestellt, sondern bilden die Basis für die Extraktion von Wirkungszusammenhängen zwischen Haltungsentscheidungen und der am Schlachthof diagnostizierten Tiergesundheit. Dieses Wissen stellt damit ein greifbares und monetäres Gut für die Optimierung der Produktionsprozesse in der Herstellung von Fleisch dar, dessen Nutzung überwacht und incentiviert werden muss. PigConomy illustriert mit einem Proof of Concept die Monetarisierung von Daten der Prozesskette zur Produktion von Schweinefleisch. Es steht aber nicht nur die ökonomische Optimierung der Haltungsprozesse im Vordergrund, sondern auch die Verbesserung des Tierwohls, wie es quantitativ am Schlachthof befundet wird. Das Tierwohl läßt sich durch die Nutzung des Wissens über die kausalen Zusammenhänge von Haltungsentscheidungen und Tiergesundheit analog zur Haltungseffizienz verbessern. Dieser Beitrag beschreibt PigConomy als Kern eines Öko-Systems zur Datenbewirtschaftung. Zudem werden funktionale Ergänzungen diskutiert, um PigConomy auf eine nachhaltige operative Basis zu stellen.

Thomas Rose, Julia Gruber, Kathrin Hausmann, Thomas Osterland
Backmatter
Metadaten
Titel
Monetarisierung von technischen Daten
herausgegeben von
Dr. Daniel Trauth
Prof. Dr. Thomas Bergs
Prof. Wolfgang Prinz
Copyright-Jahr
2021
Verlag
Springer Berlin Heidelberg
Electronic ISBN
978-3-662-62915-4
Print ISBN
978-3-662-62914-7
DOI
https://doi.org/10.1007/978-3-662-62915-4