Cloud-Souveränität beginnt beim Speicher
- 30.01.2026
- Cloud Computing
- Gastbeitrag
- Online-Artikel
Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.
Wählen Sie Textabschnitte aus um mit Künstlicher Intelligenz passenden Patente zu finden. powered by
Markieren Sie Textabschnitte, um KI-gestützt weitere passende Inhalte zu finden. powered by (Link öffnet in neuem Fenster)
Die Sovereign Cloud wird zum Ziel für immer mehr Unternehmen in Deutschland. Moderne Speichertechnologien sind ein entscheidender Hebel für die Gestaltung von Cloud-Architekturen, die auch in großem Maßstab effizient und wirtschaftlich sind.
In Zeiten wachsender regulatorischer Anforderungen und stetig steigendem Datenvolumen geraten Public-Cloud-Modelle zunehmend an ihre Grenzen.
imaginima / Getty Images / iStock
Ist die öffentliche Cloud gleichbedeutend mit Flexibilität und Effizienz? Ja, aber diese Gleichung wird komplexer. Die Anforderungen von zunehmend datenintensiven Künstliche-Intelligenz-Workloads (KI) führen dazu, dass mehr Unternehmen ihre Daten wieder auf nationalen, On-Premises IT-Infrastrukturen speichern möchten.
Der Grund dafür ist, dass KI eine hohe Rechenleistung und einen kontinuierlichen Zugriff auf große Datensätze erfordert. Enorme Datenmengen werden ständig zwischen Speicher und Rechenleistung hin und her bewegt. In öffentlichen Cloud-Umgebungen kann dies nicht nur zu hohen Übertragungskosten führen, sondern auch zu Verzögerungen durch die physische Distanz zwischen Datenspeicher und Rechenleistung, wodurch sich die Trainingszyklen deutlich verlängern können.
Durch die zuvor angesprochene Verlagerung der Datenmengen in private oder hybride Umgebungen können diese ausschließlich oder teilweise intern verwaltet werden. So bleibt die Kontrolle über die Informationen beim Unternehmen selbst.
Um die Kosten bei diesem Ansatz überschaubar zu halten, müssen die richtigen Hebel in Bewegung gesetzt werden. Dafür kann bei der Grundlage des digitalen Zeitalters, der Datenspeicherung, angesetzt werden. Diese wird bei der Planung von Rechenzentren jedoch oft unterschätzt.
Kurz gesagt: Das Speicherdesign entscheidet darüber, wie effizient eine Cloud-Architektur betrieben werden kann. Im Zeitalter von KI wächst die Datenmenge rasant; sie wird repliziert, verschoben, gesichert oder archiviert. Die Speicherkapazitäten müssen mit diesen Skalierungsanforderungen Schritt halten. Speicherarchitekturen, die für KI-Workloads entwickelt wurden, basieren daher häufig auf einem mehrstufigen Speicher, also einer Unterteilung in verschiedene Leistungsklassen. Während Flash-Speicher für Workloads mit höchster Leistung verwendet wird, werden die meisten Daten auf Festplatten (HDDs) gespeichert. Dazu gehören beispielsweise Compliance-relevante Informationen, die aufbewahrt, aber nicht immer in Echtzeit verfügbar sein müssen.
Moderne HDDs bilden das Fundament jeder effizienten Cloud-Lösung
HDDs bilden die Basis jeder souveränen Speicherarchitektur, von öffentlichen Cloud-Diensten bis hin zur lokalen Infrastruktur. Sie bieten hohe Kapazitäten und haben bei großen Stückzahlen einen entscheidenden Kostenvorteil: IDC berichtet von einem fünf- bis zehnfachen Preisaufschlag pro Terabyte (TB) für SSDs gegenüber HDDs (Quelle: IDC Worldwide Enterprise HDD Market Overview 2025-2029, Juli 2025) bei vergleichbarer Energieeffizienz.
In den letzten Jahren haben HDDs enorme technologische Fortschritte gemacht. Laufwerke mit mehr als 30 Terabyte werden bereits in großen Stückzahlen ausgeliefert, und neuartige Aufzeichnungstechnologien wie Heat-Assisted Magnetic Recording (HAMR) und Heat-Dot Magnetic Recording (HDMR) steigern die Speicherdichte noch weiter. In Kombination mit bewährten Technologien wie Shingled Magnetic Recording (SMR) haben manche Hersteller angekündigt, bis zum Ende des Jahrzehnts Festplatten mit einer Kapazität von über 100 TB auf den Markt zu bringen.
Diese Innovationen bieten nicht nur Vorteile hinsichtlich der Speicherdichte, sondern auch in Bezug auf Effizienz und Nachhaltigkeit. Durch die Bereitstellung von mehr Kapazität bei gleichem Formfaktor kann die Gesamtzahl der Laufwerke, Racks und Server erheblich reduziert werden. Der Wechsel von 26-TB- zu 32-TB-Laufwerken für die Bereitstellung von einem Exabyte (EB) kann zu einer Reduzierung der Racks um 18,7 Prozent, der Laufwerke um 18,8 Prozent und des Gesamtstromverbrauchs um 18,8 Prozent führen, einschließlich einer verbesserten Kühlungs- und Energieeffizienz. Insgesamt senkt dies die Gesamtbetriebskosten in Rechenzentren. Moderne HDDs sind daher entscheidend, um datenintensive Workloads überhaupt zu ermöglichen und sie zugleich wirtschaftlich sowie ökologisch nachhaltig in großem Maßstab zu betreiben.
Disaggregierte Architekturen für Flexibilität, Kostenkontrolle und Compliance
Neben der Wahl des richtigen Speichertyps ist auch die IT-Architektur ein Ansatzpunkt für mehr Effizienz. Ein aktueller Trend geht in Richtung disaggregierter Speicher. Bei diesem Ansatz sind Rechenleistung und Speicher nicht mehr in einem einzigen, zentral verwalteten System (Hyperconverged Infrastructure; HCI) integriert. Vielmehr sind die Ressourcen voneinander getrennt und können unabhängig und nach Bedarf skaliert werden, was eine größere Flexibilität bei der Kapazitätsplanung ermöglicht. Investitionen lassen sich so gezielt an die reale Situation anpassen, Überprovisionierung wird vermieden und die Kosten werden transparenter.
Mit disaggregierten Architekturen lassen sich Speicherkapazität und -leistung zudem dynamisch und bedarfsgerecht zuweisen. Dies ist besonders wichtig für KI-Projekte, bei denen sich die Datenanforderungen oft schnell ändern. Mit dieser agilen, nutzungsbasierten Skalierung ermöglichen disaggregierte Speicherarchitekturen eine größere wirtschaftliche Unabhängigkeit. Unternehmen behalten so die maximale Kontrolle über Datenflüsse und Speicherorte.
Speicherarchitekturen steuern die Cloud
Lange Zeit galten interne Rechenzentren als statischer Kostenfaktor, als passive Ressource im Vergleich zur agilen Cloud. Dieses Bild ist jedoch überholt. Moderne Rechenzentren sind flexible Cloud-Bausteine, die Prinzipien der Public Cloud wie Automatisierung und Skalierbarkeit übernehmen, ohne die Kontrolle abzugeben. Die interne Infrastruktur ist daher nicht das Gegenteil der Cloud, sondern vielmehr ein ergänzendes Element.
Eine klare Speicherstrategie ist dabei der Schlüssel. Sie legt fest, wo Daten gespeichert werden, wie schnell Workloads implementiert werden können und welche Compliance-Anforderungen erfüllt werden. Darüber hinaus hilft sie dabei, die Grundlage für souveräne, rechtskonforme Cloud-Lösungen zu schaffen. Denn Cloud-Souveränität kann nicht allein durch externe Anbieter erreicht oder nachträglich eingerichtet werden, sondern muss fest in der eigenen Architektur verankert sein.