Viele Projekte mit generativer Künstlicher Intelligenz scheitern schon in der Planungsphase – oft, weil bestehende IT-Infrastrukturen den Anforderungen nicht gewachsen sind. Besonders Datensilos, hohe Hardware-Kosten und mangelnde Qualitätskontrollen bremsen die Innovationskraft aus.
Türöffner: Generative Künstliche Intelligenz kann ein entscheidender Wettbewerbsvorteil sein – vorausgesetzt Unternehmen sind bereit, die damit verbundenen Herausforderungen anzugehen.
Eoneren / Getty Images / iStock
Die Umsetzung von Projekten mit Künstlicher Intelligenz (KI) erfordert eine robuste und skalierbare IT-Infrastruktur – ein Bereich, in dem viele Unternehmen Schwächen haben. Besonders deutlich wird das bei den enormen Hardware-Anforderungen, die mit der Nutzung und dem Aufbau generativer KI-Modelle verbunden sind. Große Technologieunternehmen wie OpenAI, Google oder Meta investieren Milliarden in spezialisierte Hardware, um ihre Foundation-Modelle zu betreiben. Ein einzelnes leistungsstarkes Modell kann Hunderte GPUs benötigen, deren Preise sich schnell auf mehrere Millionen Dollar summieren. Diese Dimensionen machen es kleineren Unternehmen nahezu unmöglich, eine eigene Infrastruktur aufzubauen. Selbst die Nutzung externer Dienste, etwa über Application Programming Interfaces (API), wird bei einer intensiven Nutzung teuer.
Dazu kommen häufig fragmentierte Datenlandschaften. Viele Unternehmen speichern ihre Daten in isolierten Silos, die unterschiedlichen Abteilungen zugeordnet sind. Marketing, Kundenservice und Entwicklung haben oft eigene Datenstrukturen und Tools. Ohne eine zentrale Datenintegrationsschicht ist es schwierig, eine ganzheitliche und konsistente Datengrundlage zu schaffen. Generative KI-Modelle, die auf unvollständigen oder isolierten Daten basieren, sind nicht nur ineffektiv, sondern können falsche oder verzerrte Ergebnisse liefern. Statt Innovation zu fördern, schaffen solche Projekte neue Probleme. Die Herausforderung liegt aber nicht nur in der Technik. Auch organisatorische und strategische Schwächen spielen eine Rolle. Unternehmen setzen häufig auf Trial-and-Error, ohne klar priorisierte Anwendungsfälle zu identifizieren. Dies führt dazu, dass Ressourcen in ineffiziente Proof-of-Concept-Projekte (PoC) investiert werden, die keinen echten Mehrwert bieten. Die Folge: hohe Kosten, geringe Erfolgsquote.
Die meisten Stolpersteine lassen sich überwinden
Eine erfolgreiche Integration von generativer Künstlicher Intelligenz beginnt mit der strategischen Planung. Der erste und vielleicht wichtigste Schritt ist die Auflösung von Datensilos. Ohne eine zentrale und integrierte Datenbasis sind KI-Modelle nahezu nutzlos. Unternehmen müssen daher in moderne Datenintegrationslösungen investieren, die disparate Quellen zusammenführen. Tools wie Talend oder andere Integrationssoftware ermöglichen es, fragmentierte Daten in ein zusammenhängendes und nutzbares Format zu bringen. Eine solche Grundlage ist essenziell, um die Genauigkeit und Relevanz von KI-gestützten Analysen und Entscheidungen zu erhöhen. Parallel dazu müssen Unternehmen sicherstellen, dass ihre Projekte klar priorisiert sind. Eine Liste potenzieller Anwendungsfälle sollte nicht nur nach technischer Machbarkeit, sondern auch nach geschäftlichem Mehrwert bewertet werden. Anstatt wahllos PoCs zu starten, sollten Unternehmen gezielt Pilotprojekte mit hohem Potenzial durchführen. Dabei ist es wichtig, diese Projekte zeitlich und finanziell zu begrenzen, um Verluste zu minimieren. Erfolgreiche PoCs können dann als Grundlage für größere Implementierungen dienen.
Ein oft unterschätzter Bereich ist die Qualitätssicherung. Die Geschwindigkeit, mit der KI-Projekte entwickelt werden, führt häufig dazu, dass Anwendungen unzureichend getestet in den produktiven Betrieb gehen. Schnellere Entwicklungszyklen dürfen nicht auf Kosten der Qualität gehen. Unternehmen sollten nicht nur die Zeit- und Kostenvorteile, sondern auch die langfristigen Auswirkungen und mögliche Fehler ihrer KI-Lösungen berücksichtigen. Das kann verheerende Folgen haben, insbesondere in sensiblen Branchen wie der Medizin oder der Finanzindustrie. Ein Beispiel: Ein medizinisches KI-Modell, das auf unzureichend getesteten Foundation-Modellen basiert, könnte Jahre später als fehlerhaft entlarvt werden, nachdem es tausende falscher Diagnosen gestellt hat. Um solche Risiken zu minimieren, müssen Unternehmen umfassende Tests durchführen. Dazu gehören Bias-Tests, Sicherheitsprüfungen und Stresstests, die sicherstellen, dass das Modell auch unter extremen Bedingungen zuverlässig funktioniert.
Schließlich sollten Unternehmen die Vorteile externer Infrastruktur und Dienstleistungen nutzen. Statt eigene Modelle zu entwickeln, können sie auf Foundation-Modelle wie GPT-4 von OpenAI oder Vertex AI von Google zurückgreifen. Diese Modelle sind als API-Dienste verfügbar und ermöglichen eine kosteneffiziente Nutzung, ohne dass in eigene Hardware investiert werden muss. Gerade für kleine und mittelständische Unternehmen kann dies ein entscheidender Wettbewerbsvorteil sein.
Die IT-Infrastruktur wird zum Schlüssel für Innovation
Die Infrastrukturfrage ist nicht nur ein Hindernis, sondern auch eine Chance. Die steigende Nachfrage nach leistungsfähiger Hardware und Cloud-Diensten hat einen neuen Markt geschaffen, von dem einige Anbieter massiv profitieren. Nvidia ist heute einer der größten Gewinner des KI-Booms, da ihre GPUs die Grundlage für die meisten Modelle bilden. Doch auch Cloud-Lösungen wie AWS, Google Cloud oder Microsoft Azure spielen eine immer wichtigere Rolle. Sie bieten flexible und skalierbare Lösungen, die es Unternehmen ermöglichen, KI-Projekte ohne große Anfangsinvestitionen umzusetzen.
Eine vielversprechende Idee ist das Modell "Data Center as a Service", das Unternehmen Zugang zu spezialisierter Rechenleistung bietet, ohne dass sie eigene Rechenzentren aufbauen müssen. Angesichts der wachsenden Nachfrage nach leistungsfähigen Rechenzentren wird erwartet, dass solche Dienste in den kommenden Jahren weiter an Bedeutung gewinnen. Interessanterweise zeigt sich auch eine Verschiebung in der Rolle der Foundation-Modelle selbst. Open-Source-Modelle wie Meta Llama oder ähnlich leistungsfähige Angebote bieten Unternehmen zunehmend kostengünstige Alternativen zu proprietären Lösungen.
Wichtig ist, dass jetzt die richtigen Voraussetzungen geschaffen werden, um die Potenziale von generativer KI zu heben: Von der Auflösung von Datensilos über eine strategische Priorisierung von Anwendungsfällen bis hin zur Nutzung externer Infrastruktur gibt es zahlreiche Ansätze, um IT-Infrastrukturen zukunftsfähig zu machen. Gleichzeitig ist es essenziell, den Fokus auf Qualitätssicherung und Tests zu legen, um die Risiken von Schnellschüssen zu minimieren.
Die Integration von generativer KI ist kein einfacher Prozess, doch mit der richtigen Planung und den passenden Partnern können Unternehmen die Potenziale der Technologie voll ausschöpfen. Unternehmen, die ihre Infrastruktur als Schlüssel für ihre Innovation begreifen, werden besonders durch den Return on Investment von KI-Anwendungen profitieren.