Skip to main content
main-content

06.06.2014 | Wirtschaftsinformatik + Betriebliche Anwendungen | Im Fokus | Onlineartikel

Cloud-Computing ist bittere Energieverschwendung

Autor:
Andreas Burkert

Bis die Drähte glühen. Für das weltweite Cloud Computing werden schon heute rund 700 Milliarden kWh benötigt. Das ist mehr als die gesamte Bundesrepublik verbraucht. Weil der Datenhunger nie gestillt werden wird, suchen Forscher nach Cloud-Servern mit mehr Leistung aber geringerem Energieverbrauch.

Als Eric Schmidt in den 90er Jahren des 20. Jahrhunderts den Begriff „Computer in der Cloud“ prägte, war noch lange nicht abzusehen, welche Ausmaße diese Technologie haben wird. Trotz aller Bedenken hinsichtlich der Datensicherheit, die Beliebtheit des Cloud-Computing steigt. Noch in diesem Jahr sollen bis zu 60 % aller Rechenleistungen in der virtuellen „Wolke“ verarbeitet werden. Doch der Hype hat einen bitteren Beigeschmack. Die zunehmende Auslagerung von Daten über das Internet durch das Cloud Computing belastet nämlich in immer stärkerem Maße Klima und Umwelt.

Die Serverparks, in die die Daten über das Internet ausgelagert werden, sind regelrechte Energiefresser. Laut aktuellem Greenpeace-Bericht verbraucht das weltweite Cloud Computing mit rund 700 Milliarden Kilowattstunden inzwischen mehr Strom als die gesamte Bundesrepublik. Zwar setzen vor allem US-Amerikanische IT-Konzerne wie Apple, Google und Facebook verstärkt auf regenerative Energien, um ihre CO2-Bilanz zu verbessern. Doch „viel besser wäre es natürlich, wenn Energie erst gar nicht verbraucht wird“, wie Professor Stefan Wesner erzählt.

Energieeffiziente Cloud-basierte Anwendungen

Mit diesem Anspruch sucht der Leiter des Instituts für Organisation und Management von Informationssystemen (OMI) an der Universität Ulm im Rahmen des Projekts „Cactos“ nach Möglichkeiten, Cloud-basierte Anwendungen so energieeffizient und leistungsstark wie möglich anzubieten. Eine herausfordernde Aufgabe: Denn moderne Hardware wird immer heterogener und die Steuerung der Rechenzentren umso komplexer.

„Der technische Clou besteht nun darin, den unterschiedlichsten Software-Anwendungen jederzeit die bestgeeignete Hardware zuzuordnen“, erklärt Wesner. Der im Rahmen des Projekts zu entwickelnde Werkzeugsatz ist darauf ausgerichtet, die optimale Infrastruktur zu selektieren, die im Hinblick auf Servicequalität und niedrige Betriebskosten ideal zur Anwendung des Nutzers passt. Das erhöht nicht nur die Wettbewerbsfähigkeit, sondern schont über den reduzierten CO2-Ausstoß auch das Klima. „Unser Ziel ist es, Hardware-Ressourcen besser zu nutzen und so die Energieeffizienz zu steigern. Allein durch die Wahl der richtigen Hardware, kommt man um ein Vielfaches schneller zum Ergebnis“, sagt der Großrechnerexperte

Anwendungen energetisch klassifizieren

Doch wie findet man für die variierenden Arbeitsbelastungen unterschiedlichster Anwendungen die am besten geeignete Hardware? Wesners Ansicht nach müssen dafür die Applikationen im Hinblick auf ihre technischen und energetischen Anforderungen hin klassifiziert werden. Das heißt, für jede Art der Anwendung werden individuelle Anwendungsmodelle und Heuristiken ermittelt sowie Optimierungsstrategien definiert. In einer eigens dafür aufgebauten Infrastruktur mit vielen verschiedenen Hardwarekonfigurationen werden die Klassifizierungsmodelle und Anwendungsklassen getestet und validiert.

Weitere Artikel zum Thema

Die daraus abgeleiteten Validierungsmetriken werden schließlich dabei helfen, die Performanz und Energieeffizienz in Cloud-Infrastrukturen zu ermitteln und zu optimieren. Die Optimierungsstrategien, die zur Anwendung gebracht werden sollen, sind prinzipiell unabhängig von spezifischen Cloud Plattformen, werden allerdings im Rahmen des Projekts sowohl in so genannte Flexiants Cloud Orchestrator (FCO) als auch in Open Source Lösung OpenStack integriert, um Leistungseffekte in der Praxis besser überprüfen zu können.

Die Hintergründe zu diesem Inhalt

Bildnachweise