Skip to main content
Erschienen in:

01.03.2025 | Special

Der Blick unter die Motorhaube schafft ein besseres KI-Verständnis

verfasst von: Andreas Strunz

Erschienen in: IT-Director | Ausgabe 3/2025

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
download
DOWNLOAD
print
DRUCKEN
insite
SUCHEN
loading …
Generative Künstliche Intelligenz wird mittlerweile in vielen Branchen in Form praktischer Anwendungsfälle eingesetzt. Vor diesem Hintergrund kann es nicht schaden, sich ein paar technische Grundkonzepte intensiver anzuschauen, um die Funktionsweise und die Potenziale dieser Technologie besser zu verstehen.
Generativ bezieht sich auf die Fähigkeit, neue Inhalte zu erzeugen. Im Gegensatz zu klassischer Künstlicher Intelligenz (KI), die strukturierte Daten analysiert und Muster erkennt, kann Generative Artificial Intelligence (GenAI) auch aus unstrukturierten Informationen neue Datenpunkte erstellen, die statistisch ähnlich zu den Trainingsdaten sind.
GenAI hat dabei die Fähigkeit, Datenquellen verschiedener Formate wie Text, Bilder, Audio, Video oder Code zu verarbeiten und in beliebige Output-Formate zu konvertieren. Diese Fähigkeit ermöglicht im Gegensatz zur klassischen KI eine kontextreichere Verarbeitung von Informationen.
Bekannt ist GenAI etwa als ChatGPT und wird oft fälschlicherweise damit gleichgesetzt. GPT steht dabei für Generative Pretrained Transformer, also ein Sprachmodell, das auf der Transformer-Architektur basiert. Es wird auf großen Textkorpora mit einer Vielzahl von Parametern vortrainiert, um ein breites Verständnis der Sprache zu entwickeln. Dieser Vortrainingsprozess ermöglicht es dem Modell, Muster und Strukturen in der Sprache zu erkennen. Anschließend kann das Modell für spezifische Aufgaben wie Textgenerierung, Übersetzung oder Dialogführung feinabgestimmt werden.
Präziser ist es allerdings, ChatGPT als eine Anwendung sogenannter Foundation Models zu verstehen. Eine Variante davon sind wiederum Large Language Models (LLMs). Foundation Models sind große, vortrainierte KI-Modelle auf Basis neuronaler Netze, die mit umfangreichen Datensätzen trainiert wurden. LLMs sind eine spezielle Art von Foundation Models, die auf die Verarbeitung und Generierung natürlicher Sprache spezialisiert sind. LLMs können anhand verschiedener Kriterien wie Textverständnis und mathematischen Fähigkeiten untereinander verglichen werden.

Präzise Fragen führen zu optimaleren Ergebnissen

Um sich nun mit LLMs „unterhalten“ zu können, stellt man Fragen oder gibt Anweisungen in Form sogenannter Prompts. Das sind zumeist Texte, können aber auch andere Datenformate sein. Die Kunst, Fragen so zu stellen, dass optimale Ergebnisse erzielt werden, nennt man Prompt Engineering. Präzise Fragen, das Nennen von Beispielen oder die Vermeidung von Verneinungen führen zu besseren Resultaten. In einer Chain of Thought beschreibt das Modell den Prozess, den es durchläuft, um zu einer Lösung zu gelangen. Dies kann nützlich sein bei Aufgaben, die logisches Denken, eine Problemlösung oder mehrstufige Berechnungen erfordern. Technisch gesehen werden in einem Text Wörter oder Wortteile in Tokens aufgeteilt, dann in einen multidimensionalen Vektor, eine Zahlenreihe, konvertiert und in einer Vektordatenbank gespeichert. Diesen Vorgang nennt man Embedding. Sendet man nun einen Prompt, sucht das LLM kontextbezogen nach dem nächstwahrscheinlichsten vektoriellen Wert im Modell und generiert daraus die Antwort. Auch wenn man den Eindruck hat, die KI würde wirklich „denken“, handelt es sich im Kern um Wahrscheinlichkeiten. Das erklärt auch, warum KI-Modelle manchmal unzutreffende Antworten liefern.
Es gibt jedoch viele Möglichkeiten, zuverlässige Ergebnisse zu erzeugen. Neben der richtigen Modellauswahl und einem möglichen Feintuning ist insbesondere die Retrieval-Augmented-Generation-Technologie (RAG) sehr effektiv. Large Language Models bilden allgemeines Weltwissen ab. Unternehmensspezifisches Domänenwissen, etwa interne Arbeitsanweisungen, wird parallel dazu ebenfalls in einer vektorisierten Knowledge Base abgespeichert. Bevor man nun einen Prompt in das LLM sendet, holt sich dieser vorher noch aus der Knowledge Base zusätzlichen Kontext und reichert die Anfrage damit an.
download
DOWNLOAD
print
DRUCKEN

Unsere Produktempfehlungen

IT-Mittelstand

IT-Director
Business People Companies

Metadaten
Titel
Der Blick unter die Motorhaube schafft ein besseres KI-Verständnis
verfasst von
Andreas Strunz
Publikationsdatum
01.03.2025
Verlag
Springer Fachmedien Wiesbaden
Erschienen in
IT-Director / Ausgabe 3/2025
Print ISSN: 3005-1363
Elektronische ISSN: 3005-1371
DOI
https://doi.org/10.1007/s44380-025-0206-4