Skip to main content

26.07.2015 | Programmiersprachen | Schwerpunkt | Online-Artikel

Neue Ansätze für den Umgang mit Big Data

verfasst von: Andreas Burkert

2 Min. Lesedauer

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
print
DRUCKEN
insite
SUCHEN
loading …

Riesige Datenmengen müssen geschickt strukturiert werden. Erst dann lässt sich aus Big Data Wissen generieren. Dafür werden nun neue Ansätze entwickelt: von der theoretischen Grundlagenforschung bis hin zur Entwicklung komplexer Infrastrukturen.

Kontrollverlust durch zu viele Fakten? Unbestritten ist Big Data ein Haupttreiber von Wissensgewinnung und Innovation in der modernen Informationsgesellschaft. Allerdings lassen sich große Datenmengen nur dann effizient nutzen, wenn einerseits die Strategie eines konsequenten Managements der Informationsversorgung umgesetzt wird. So erklärt zumindest Springer-Autor Dirk Knauer in Kapitel „Act Big – Neue Ansätze für das Informationsmanagement“ die Informationsstrategie im Zeitalter von Big Data und digitaler Transformation.

Andererseits müssen Algorithmen zum Verständnis der Daten verfügbar sein. Und diese Algorithmen sollten auch in höchstskalierbaren Umgebungen mit vielen tausend Festplatten erfolgreich angewendet werden können. Damit stellt Big Data Software-Entwickler vor enorm komplexe Herausforderungen. Immerhin müssen die zugrundeliegenden Algorithmen auf verschiedenste Bereiche wie Statistik, maschinelles Lernen, Visualisierung, Datenbanken und Hochleistungsrechnen zurückgreifen.

Konvergenz von Cloud Computing und Big Data

Nun wollen Wissenschaftler im Rahmen des Projekts „BigStorage“ neue Big-Data-Ansätze entwickeln, die von der theoretischen Grundlagenforschung bis hin zur Entwicklung von komplexen Infrastrukturen und Software-Paketen reichen. Als International Training Network (ITN) der EU spielt dabei auch die Ausbildung von Forschern und Entwicklern in einem internationalen Kontext eine wichtige Rolle. Die Aufgabe wird von einem europäischen Konsortium aus Forscherteams und Industriepartnern angegangen. Das Zentrum für Datenverarbeitung (ZDV) der Johannes Gutenberg-Universität Mainz (JGU) beschäftigt sich dabei insbesondere mit dem Einfluss neuer Speichertechnologien sowie mit der Konvergenz von Hochleistungsrechnen und Big Data.

Weitere Artikel zum Thema Big Data

Big Data muss nicht weh tun

Die Suche nach dem Super-Algorithmus für Big Data

Professor Dr.-Ing. André Brinkmann, verantwortlich für das BigStorage-Projekt an der JGU, spricht die Rolle dieser Konvergenz an: „Cloud Computing und Big Data haben zu rapiden Vereinfachungen bei dem Entwurf hoch-skalierender Analyseumgebungen geführt. Neue, komplexe Aufgaben aus den Bereichen Klimaforschung, Medizin und Umwelt erfordern aber nun, dass die langjährigen Erfahrungen aus dem Bereich des Hochleistungsrechnens wieder in den Entwurf der Datenanalyseumgebungen eingebracht und mit diesen neuen Ansätzen kombiniert werden.“

print
DRUCKEN

Die Hintergründe zu diesem Inhalt