Zum Inhalt

16.06.2025 | Cloud Computing | Interview | Online-Artikel

"Die Nähe zum Nutzer bringt viele Vorteile mit sich"

verfasst von: Alexander Lorber

5 Min. Lesedauer

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
print
DRUCKEN
insite
SUCHEN
loading …

Während die umfangreiche Künstliche-Intelligenz-Berechnung weiterhin in Hyperscaler-Rechenzentren stattfindet, geschieht die spannende Arbeit der KI-Inferenz an der Edge, wo Latenz, Skalierung und Effizienz am wichtigsten sind. IT-Experte Philipp Merth erläutert die Potenziale im Interview.

Philipp Merth ist Regional Vice President Central European Region (CER) bei Akamai Technologies.


springerprofessional.de: Herr Merth, wie können Unternehmen die Daten für Künstliche Intelligenz (KI) näher an die Benutzer und an die Geräte bringen?

Philipp Merth: Die Nähe zum Nutzer bringt viele Vorteile mit sich: Geschwindigkeit, Effizienz, Zuverlässigkeit und damit insgesamt eine überzeugende Performance. Entscheidend dafür sind verteilte Plattformen, die nicht nur Rechenzentren in Großstädten und Ballungszentren nutzen, sondern auch Cloud-Server in Randregionen verwenden. Sie stellen sicher, dass KI-Inferenz, also die unmittelbare Verarbeitung von Daten durch Künstliche Intelligenz dort stattfindet, wo Daten generiert und genutzt werden. Wenn KI-Anwendungen und datenintensive Workloads näher am Endnutzer laufen – unabhängig davon, wo sich dieser befindet – verbessert das sowohl die Erreichbarkeit als auch das Tempo. Verteilte Plattformen ermöglichen es Unternehmen also, ihre Kunden mit einer leistungsstarken Lösung zu überzeugen. Gleichzeitig ist es für Organisationen effizienter, Daten nur dorthin zu transportieren, wo sie wirklich benötigt werden. Während zentrale Dienste Full-Stack-Computing und -Speicherung bieten, punkten Lösungen, die für den effizienten Betrieb an der Edge konzipiert sind, mit optimaler Leistung und Skalierbarkeit. Edge-Lösungen nutzen Cloud-Prinzipien wie Container und Microservices, um die Ressourcennutzung gering zu halten. So können sie unabhängig von einem zentralisierten Rechenzentrum betrieben werden.

Warum stoßen herkömmliche Cloud-Systeme hier schnell an ihre Grenzen?

Klassische Cloud-Systeme mit einer zentralisierten Architektur kämpfen mit Latenz- und Leistungsengpässen. Massiv zentralisierte Rechenzentren sind für viele Aufgaben großartig, aber sie sind nicht immer die beste oder einzige Option, besonders wenn Geschwindigkeit entscheidend ist. Das Training großer Sprachmodelle findet in umfangreichen Hyperscaler-Rechenzentren statt, aber die praktische Arbeit der KI-Inferenz muss auf optimale Ergebnisse auch in Randgebieten ausgerichtet sein. Legacy-Clouds haben Schwierigkeiten, KI-Daten näher an Benutzer und Geräte zu bringen. Da Daten in verteilten Systemen kürzere Strecken zurücklegen, können Unternehmen Kosten im Zusammenhang mit Bandbreite, Latenz und Cloud-Verarbeitungsgebühren reduzieren. Anstatt kontinuierlich Informationen zu zentralisierten Cloud-Servern zu senden, verarbeiten Edge-native Apps die Daten lokal, was den Betrieb effizienter und kostengünstiger macht. Geschwindigkeit und Effizienz am Rand des Internets kommen am besten zum Tragen, wenn ein Netzwerk durch geografische Nähe, den Aufbau der Infrastruktur sowie optimierte Anwendungen auf niedrige Latenz ausgerichtet sind. Die stärkste Performance erzielen dabei Cloud-native Anwendungen, also solche, die von vornherein für die Anforderungen der Cloud aufgebaut sind, etwa mit Microservices, Containern oder DevOps. Diese Kriterien müssen auch an der Edge gelten.

Was gilt es beim Aufbau und Betrieb von KI-Anwendungen und datenintensiven Workloads noch zu beachten?

Entscheidend ist zunächst die Infrastruktur. Eine verteilte Architektur ermöglicht es, Aufgaben effizient zu verwalten und die Latenz zu minimieren. Darüber hinaus benötigen Unternehmen ein robustes Datenmanagement, um Informationen in Echtzeit zugänglich zu machen und zu verarbeiten. Auch Rechenressourcen sind ein relevantes Kriterium. Ein vielseitiges Portfolio an Rechenoptionen, einschließlich Central Processing Units (CPUs), Graphics Processing Units (GPUs) und maßgeschneiderter Application-Specific Integrated Circuits (ASICs) stellt sicher, dass Anwendungen über die richtige Leistung verfügen und hohe Performance liefern. Nicht zuletzt sticht Skalierbarkeit: Systeme sollten so konzipiert sein, dass sie nahtlos skalieren und Unternehmen ermöglichen, auf variierende Datenlasten zu reagieren, ohne die Leistung zu beeinträchtigen.

Welchen konkreten Mehrwert können Unternehmen durch die Implementierung von KI-Inferenzlösungen in ihren Geschäftsprozessen erwarten?

In Zahlen ausgedrückt: Durch die Implementierung von leistungsstarken KI-Inferenzlösungen können Unternehmen eine beeindruckende Verdreifachung des Durchsatzes, bis zu 60 Prozent reduzierte Latenz und sogar bis zu 86 Prozent Kosteneinsparungen im Vergleich zu traditionellen Hyperscale-Infrastrukturen erwarten. In der Praxis führt dies zu einer gesteigerten Anwendungsleistung und besseren Entscheidungen, basierend auf KI-Erkenntnissen in Echtzeit. Zudem können Unternehmen die Customer Experience ihrer Kunden so noch stärker personalisieren und sie damit attraktiver gestalten. Laut Bloomberg wird bis zum Jahr 2032 fast die Hälfte aller KI-Ausgaben auf Inferenz ausgerichtet sein, da Reasoning-Modelle es den Unternehmen ermöglichen, mehr Geld mit Software zu verdienen. Gleichzeitig wird erwartet, dass der Anteil der Investitionen, die für das Training aufgewendet werden müssen, von 40 Prozent auf 14 Prozent sinken wird. Ganz praktisch sehen wir den Nutzen von leistungsstarken, schnellen KI-Anwendungen etwa in einem KI-basierten Chatbot, der Kunden ohne Verzögerung weiterhilft und sie rund um die Uhr mit Antworten auf ihre individuellen Fragen versorgt. Bei Anwendungen wie diesen oder auch bei KI-Agenten erwarten Nutzer eine hohe Performance. Noch höher sind die Anforderungen etwa bei der automatisierten Erfassung und Verarbeitung von Daten im Straßenverkehr, wenn die Sicherheit im Ernstfall von Millisekunden abhängt.

Wie können Unternehmen sicherstellen, dass sie die Vorteile der reduzierten Latenz und der erhöhten Leistungsfähigkeit von KI-Anwendungen optimal nutzen?

Unternehmen müssen eine Umgebung schaffen, in der die Chancen bestmöglich zum Tragen kommen. Dazu gehört eine verteilte Cloud-Architektur. Durch die Nutzung einer global verteilten Plattform können Unternehmen sicherstellen, dass KI-Inferenz nahe an ihren Datenquellen und Endnutzern stattfindet. Ein weiterer wichtiger Schlüssel sind Container. Die Containerisierung von KI-Workloads ermöglicht eine bedarfsbasierte automatische Skalierung und verbessert die Anwendungsresilienz. Das unterstützt eine schnellere und sicherere Bereitstellung von KI-Anwendungen. Indem Unternehmen KI-Anwendungen mit Edge-Fähigkeiten wie WebAssembly (Wasm) entwickeln, können sie KI-Inferenz direkt aus serverlosen Anwendungen ausführen. Daraus resultiert eine optimale Durchführung latenzsensitiver Aufgaben. Für eine langfristige Strategie kontinuierlicher Weiterentwicklung und Verbesserungen ist ein stetiges Leistungs-Monitoring unerlässlich. Ein aussagekräftiges Monitoring hilft Unternehmen, ihr Set-up in Echtzeit anzupassen und sicherzustellen, dass sie stets den vollen Nutzen ihrer KI-Investitionen ausschöpfen. Das richtige Set-up versetzt Unternehmen in die Lage, die transformative Kraft von KI ganzheitlich zu nutzen und Innovation sowie Effizienz in ihren Abläufen voranzutreiben – entscheidende Kriterien für ihre Zukunfts- und Wettbewerbsfähigkeit.

print
DRUCKEN

Weiterführende Themen

Die Hintergründe zu diesem Inhalt

2022 | Buch

SAP S/4 HANA-Systeme in Hyperscaler Clouds

Architektur, Betrieb und Setup von S/4HANA-Systemen in Microsoft Azure, Amazon Web Services und Google Cloud

Das könnte Sie auch interessieren