Skip to main content

20.11.2014 | Produktion + Produktionstechnik | Schwerpunkt | Online-Artikel

Lässt sich die Datenflut der Industrie 4.0 bändigen?

verfasst von: Dieter Beste

2 Min. Lesedauer

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
print
DRUCKEN
insite
SUCHEN
loading …

Ob Ergebnisse der numerischen Simulation oder Sensordaten von Maschinen: Enorme Datenmengen gilt es zu handhaben. Durch vergleichende Analysen und Kompression wollen Forscher sie auf ihren relevanten Kern reduzieren.

Numerische Simulationen sind für die Produktentwicklung inzwischen unverzichtbar. Die dafür notwendigen Berechnungen auf Hochleistungsrechnern (High Performance Computing, HPC) erzeugen jedoch immer größer werdende Datenmengen. Ein exponentieller Anstieg von Daten ist in der Industrie 4.0 auch bei der Erfassung von Sensordaten aus dem Betrieb von Maschinen und Anlagen zu beobachten. Dabei setzt die schnelle Übertragung großer Datenpakete innerhalb eines Unternehmens oder an externe Partner sowie die Archivierung eine leistungsfähige IT-Infrastruktur voraus – verbunden mit oftmals hohe Kosten. Zudem werden wichtige Informationen, die in den Datenbergen enthalten sind, häufig nicht erkannt, da entsprechende Methoden zur Extraktion fehlen.

Weitere Artikel zum Thema

Eine der Herausforderungen der Industrie 4.0 lasse sich „mit einer Operation am offenen Herzen vergleichen“, schreibt Springer Autor Anton S. Huber in „Industrie 4.0“: „Bei laufender Entwicklung und Produktion müssen zahlreiche Barrieren beseitigt werden, um das digitale Unternehmen mit seinen großen Produktivitätspotenzialen Realität werden zu lassen. Die größten Barrieren befinden sich heute zwischen den inkonsistenten Datensilos der Fachbereiche und Prozesse; zwischen den Ingenieurdisziplinen; zwischen den Unternehmen im globalen Maßstab.“ (Seite 112)

Methodenentwicklung zur effizienten Datenanalyse

Genau hier setzt der aus acht Partnern bestehende Forschungsverbund „Vergleichende Analyse von ingenieurrelevanten Mess- und Simulationsdaten (VAVID)“ an, der vom Fraunhofer-Institut für Algorithmen und Wissenschaftliches Rechnen (SCAI) koordiniert wird. „Wir entwickeln verbesserte Techniken zur Datenkompression sowie neue Methoden zur Datenanalyse, zum Datenmanagement und zur interaktiven Visualisierung der Daten“, erklärt Jochen Garcke, Leiter des SCAI-Geschäftsfeldes Numerische datenbasierte Vorhersage.

Neuartige Softwarekomponenten für die Praxis

Durch die vergleichende Analyse der Daten aus unterschiedlichen Bereichen entwickeln die Partner in einer ersten Phase des Projekts ihre Methodik zur effizienten Datenanalyse. Methoden und Techniken fließen, so die Forscher, in ein performantes Datenmanagement-System ein, das eine zentrale Datenhaltung sowie effizienten Datenzugriff und -bereitstellung erlaubt. Mit Blick auf die Endanwender sollen in der zweiten Phase des Projekts neuartige, allgemein anwendbare Softwarekomponenten entstehen, die später in etwa in der Luftfahrtindustrie oder im Maschinen- und Anlagenbau zum Einsatz kommen können.

print
DRUCKEN

Weiterführende Themen

Die Hintergründe zu diesem Inhalt

    Marktübersichten

    Die im Laufe eines Jahres in der „adhäsion“ veröffentlichten Marktübersichten helfen Anwendern verschiedenster Branchen, sich einen gezielten Überblick über Lieferantenangebote zu verschaffen.