Skip to main content
Erschienen in: HMD Praxis der Wirtschaftsinformatik 2/2024

Open Access 24.02.2024 | Schwerpunkt

Die Nutzung von ChatGPT in Unternehmen: Ein Fallbeispiel zur Neugestaltung von Serviceprozessen

verfasst von: Peter Buxmann, Adrian Glauben, Patrick Hendriks

Erschienen in: HMD Praxis der Wirtschaftsinformatik | Ausgabe 2/2024

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

Large Language Models (LLMs) revolutionieren die Art und Weise, wie Texte oder auch Software geschrieben werden. In diesem Artikel wollen wir insbesondere auf den Einsatz von ChatGPT in Unternehmen eingehen. Schwerpunkt ist ein Fallbeispiel zur Neugestaltung von Serviceprozessen, das gemeinsam mit einem mittelständischen Softwarehaus entwickelt wurde. Wir zeigen, wie LLMs Geschäftsprozesse transformieren können und welche wirtschaftlichen Effekte sich daraus ergeben.
Hinweise

Hinweis des Verlags

Der Verlag bleibt in Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutsadressen neutral.

1 Einleitung

Die rasante Entwicklung der Künstlichen Intelligenz (KI) ist dabei, Gesellschaft und Wirtschaft grundlegend zu verändern. Ein Meilenstein in der Geschichte der KI war die Veröffentlichung von ChatGPT durch das US-amerikanische Unternehmen OpenAI im November 2022. Bei ChatGPT handelt es sich um ein Sprachmodell, das Texte erstellen, Software entwickeln und eine menschenähnliche Kommunikation führen kann. Das immense öffentliche Interesse an dieser Technologie spiegelt sich in den Nutzungszahlen wider. Nur zwei Monate nach der Markteinführung erreichte ChatGPT im Januar die Marke von 100 Mio. monatlich aktiven Nutzerinnen und Nutzern. Dies macht es zur am schnellsten wachsenden Verbraucheranwendung der Geschichte. Zum Vergleich: Die Social-Media-Plattform TikTok brauchte dazu neun Monate, Instagram sogar über zwei Jahre (Hu 2023).
Auch Investorinnen und Investoren sowie Technologieunternehmen haben das enorme Potenzial von ChatGPT erkannt. So sicherte sich Microsoft Anfang 2023 knapp 50 % der Anteile an OpenAI für rund 10 Mrd. US-Dollar (Bass 2023). Diese Investition dient der Strategie, ChatGPT in verschiedene Microsoft-Produkte wie Office, Bing und Azure zu integrieren, um die Produktqualität zu verbessern und die Wettbewerbsposition gegenüber Unternehmen wie Google zu stärken. Dadurch wird deutlich, dass die Einsatzmöglichkeiten von ChatGPT weit über den Unterhaltungssektor hinausgehen. Allerdings gibt es bislang kaum praxisorientierte Studien, die diskutieren oder aufzeigen, wie ChatGPT und Co. in betriebliche Prozesse integriert werden können und welche Unternehmensbereiche besonders stark davon beeinflusst werden. In einem Interview unterstreicht Sam Altman, CEO von OpenAI, dass aus seiner Sicht insbesondere der Kundenservice beachtliche Veränderungen erfahren wird (Fridman und Altman 2023). Vor diesem Hintergrund werden wir im Folgenden näher auf die Nutzung von ChatGPT zur Neugestaltung des Kundenservice eingehen. Dazu erläutern wir in Abschn. 2 zunächst die Grundlagen von Sprachmodellen. Darauf folgt eine detaillierte Beschreibung des Fallbeispiels in Abschn. 3. In Abschn. 4 schließen wir mit einer ökonomischen Bewertung und einem Ausblick auf die Zukunft.

2 Large Language Models – Ein Überblick

Obwohl die Öffentlichkeit fast ausschließlich über ChatGPT diskutiert, ist es bei weitem nicht das einzige LLM auf dem Markt. Neben OpenAI entwickeln Tech-Giganten wie Google und Meta, Startups wie ElutherAI und Universitäten wie Stanford University oder UC Berkeley eigene LLMs mit vergleichbaren Fähigkeiten (siehe Abb. 1). Den Grundstein für diese Entwicklung legte Google mit der Entwicklung und Veröffentlichung der Transformer-Architektur (Vaswani et al. 2017) – eine spezielle Art eines Neuronalen Netzwerks – welche die Basis für nahezu alle großen Sprachmodelle bildet. Abb. 1 gibt einen Überblick.

2.1 Funktionsweise und Fähigkeiten

Abgesehen von der Modellarchitektur teilen LLMs grundlegende Gemeinsamkeiten in ihrer Funktionsweise. Im Wesentlichen handelt es sich um Systeme, die die Wahrscheinlichkeiten von Wortsequenzen in Texten berechnen. Die Wortsequenzen können dabei sowohl kurze Sätze als auch längere Textabschnitte umfassen (Li 2022). Solche Systeme können sowohl zur Klassifikation (vgl. Xu et al. 2020, Choudrie et al. 2021) als auch zur Generierung (vgl. Bubeck et al. 2023; Luo et al. 2021) von natürlicher Sprache eingesetzt werden. Bei der Klassifikation gibt das Sprachmodell eine Wahrscheinlichkeit für jede der zuvor festgelegten Klassen aus (vgl. Sun et al. 2019). Ein anschauliches Beispiel für die Klassifizierung ist die automatische Unterscheidung von E‑Mails in die Klassen „Spam“ und „kein Spam“. Bei der Generierung von natürlicher Sprache sagen Sprachmodelle das nächste Wort einer Sequenz vorher, indem sie für jedes mögliche Wort der vorgegebenen Sprache eine Wahrscheinlichkeit berechnen (vgl. Vaswani et al. 2017). Während ältere Ansätze auf rein statistischen Verfahren basieren (vgl. Nestor und Gonzalez-Abascal 1997), legen neuere Ansätze neuronale Netzwerke zugrunde (vgl. Bengio et al. 2003; Graves 2014). Aufbauend auf neuronalen Netzwerken entwickelten Vaswani et al. (2017) die bereits erwähnte Transformer-Architektur. Diese stellt dabei einen Paradigmenwechsel dar: Sie verwendet sogenannte Attention-Mechanismen, um zu bestimmen, welche Teile eines Textes in einem gegebenen Moment relevant sind und ermöglicht so ein tiefgreifenderes Verständnis des Kontextes – sprich der umgebenden Wörter und ihrer Bedeutungszusammenhänge. Dies führt dazu, dass LLMs nicht nur Wortsequenzen auf Basis statistischer Häufigkeit generieren, sondern auch die semantischen Beziehungen zwischen den Wörtern erfassen und interpretieren können, wodurch Texte entstehen, die kohärenter und inhaltlich nuancierter sind (Bouschery et al. 2023).
Wie der Begriff „Large Language Models“ bereits andeutet, zeichnen sich diese Modelle durch ihre enorme Größe aus, die sich aus drei maßgeblichen Faktoren ergibt (Kaplan et al. 2020):
1.
Die Anzahl der Parameter, d. h. die Anzahl der veränderbaren Werte eines neuronalen Netzes, die durch den Trainingsprozess angepasst werden können;
 
2.
die Größe des Datensatzes, d. h. die Anzahl der Datenpunkte im Trainingsdatensatz;
 
3.
die Trainingszeit, d. h. die für das Training aufgewendete Rechenzeit.
 
Überraschenderweise führt die Vergrößerung von LLMs nicht nur zu einer linearen Verbesserung ihrer bestehenden Fähigkeiten, sondern bringt zudem unerwartete neue Fähigkeiten hervor (Wei et al. 2022). Das heißt, obwohl sie nicht explizit dazu trainiert wurden, entwickeln sie zunächst Kompetenzen in Textklassifikation, dann in mehrstufiger Argumentation und schließlich in semantischem Textverständnis (Wei et al. 2022). Die fortschrittlichsten LLMs – wie z. B. GPT-4 – zeigen bereits Fähigkeiten, die Bubeck et al. (2023) als erste Anzeichen von einer allgemeinen künstlichen Intelligenz bezeichnen. Dazu zählen mentale Fähigkeiten wie Kreativität, Argumentation und Deduktion, aber auch ihre Expertise in Bereichen wie Literatur, Medizin und Programmierung sowie die Fähigkeit, Werkzeuge zu verwenden und sich selbst zu erklären (Wei et al. 2022).
Wohlgemerkt sind all diese Fähigkeiten in einem einzigen Modell enthalten, ohne dass dieses Modell für eine der Aufgaben spezialisiert werden muss. Erreicht wird diese Generalität durch ein sogenanntes self-supervised pre-training. Dabei lernt das Modell eigenständig – d. h. ohne menschliche Vorgaben – die zugrunde liegenden Strukturen und Muster innerhalb eines riesigen Datensatzes (Li 2022). Übliche Trainingsdatensätze sind hunderte bis tausende Gigabyte groß und enthalten unter anderem Bücher, Code, Webseiten, wissenschaftliche Artikel und Daten aus sozialen Netzwerken (Zhao et al. 2023).
Auf diese Weise trainierte Modelle werden auch als Foundation Models bezeichnet (vgl. Bommasani et al. 2021). Obwohl solche Modelle bereits viele Probleme ohne weitere Spezialisierung lösen können, kann es für bestimmte Aufgaben notwendig sein, ein weiteres Training durchzuführen. Für diesen als fine-tuning bezeichneten Prozess wird das mittels self-supervised pre-training vortrainierte Foundation Model mit Hilfe eines typischerweise kleineren und von Menschen gelabelten Datensatzes an ein bestimmtes Problem angepasst (Li 2022).

2.2 Vektordatenbanken

Gerade für die Integration in Unternehmensprozesse kann es notwendig sein, das LLM mit den proprietären Daten des Unternehmens anzureichern und ihm regelmäßig neue Informationen bereitzustellen. Neben dem fine-tuning werden hierfür in der Praxis vor allem Vektordatenbanken genutzt (bspw. Pinecone1 und Milvus2; vgl. Lu et al. 2023; Bryan 2023). Im Gegensatz zum fine-tuning werden mit Vektordatenbanken keine neuen Informationen in das LLM eintrainiert, sondern lediglich bei Bedarf bereitgestellt. Dazu enthalten Vektordatenbanken neben den gespeicherten Dokumenten (z. B. PDFs) jeweils einen Vektor, der die Bedeutung und den Inhalt des Dokuments in einem abstrakten mathematischen Vektorraum repräsentiert. Zur Berechnung dieser Vektoren werden vortrainierte KI-Modelle verwendet, sogenannte Embedding Models, die sowohl Open Source als auch von namhaften Herstellern wie Google oder OpenAI verfügbar sind.

2.3 Ausgewählte Probleme

Mit der zunehmenden Intelligenz von LLMs und deren verstärkten Integration in Unternehmensprozesse gewinnt die Auseinandersetzung mit den damit verbundenen Problemen an Bedeutung. Eine Herausforderung sticht dabei besonders hervor: LLMs können ohne Vorwarnung Fehler erzeugen. Dazu zählen mathematische, logische und konzeptionelle Fehler, aber auch schlichtweg inkorrekte Aussagen. Diese Art von Fehlern wird als Halluzinationen bezeichnet, da sie dazu neigen, vernünftig zu erscheinen und logischen Schlussfolgerungen zu entsprechen. Häufig sind sie zusätzlich zwischen korrekten Informationen versteckt und werden überzeugend sowie selbstbewusst präsentiert (Bubeck et al. 2023).
Neben Halluzinationen ist Bias eines der derzeit schwerwiegendsten Probleme von LLMs. Ein Großteil der Trainingsdatensätze stammt aus dem Internet (Zhao et al. 2023) und enthält daher erhebliche Vorurteile, die von den darauf trainierten Sprachmodellen wiedergegeben oder sogar verstärkt werden können (Bubeck et al. 2023). Dazu zählen neben stereotypen Assoziationen und negativen Empfindungen gegenüber bestimmten Gruppen auch gesellschaftspolitische Vorurteile (Bender et al. 2021).

3 Neugestaltung von Serviceprozessen mit ChatGPT

Im Folgenden soll gezeigt werden, wie Sprachmodelle genutzt werden können, um Prozesse in Unternehmen zu transformieren. Im Fokus liegt dabei ein Fallbeispiel, welches die Transformation eines Serviceprozess mittels ChatGPT aufzeigt. Die Bedeutung eines hervorragenden Kundenservice ist in der heutigen Geschäftswelt unbestritten und eng mit den informationstechnologischen Fähigkeiten eines Unternehmens verwoben (Ray et al. 2005). Sam Altman – Gründer und CEO von OpenAI – weist darauf hin, dass Sprachmodelle, mit ihren Fähigkeiten, unstrukturierte Daten zu verarbeiten und Dialoge zu führen, besonders geeignet sind, um Serviceprozesse zu transformieren (Fridman und Altman 2023). Insbesondere deswegen da Serviceprozesse neben der Interaktion mit Kundinnen oder Kunden mittels natürlicher Sprache häufig auch Informationen aus Dokumentenarchiven einbeziehen (vgl. Subramani et al. 2021). Einer der Kernbereiche von Serviceprozessen bezieht sich auf die Bearbeitung von Kundenanfragen durch Supportmitarbeiterinnen und -mitarbeiter (Kumar und Telang 2012). Unser Fallbeispiel basiert auf der Zusammenarbeit mit einem mittelständischen deutschen Softwareunternehmen, das durch den Einsatz von Sprachmodellen seine Prozesse zur Bearbeitung von Kundenanfragen unterstützt hat. Diese praktischen Verbesserungen sollen illustrieren wie LLMs, nicht nur die Kommunikation erleichtern, sondern auch die Qualität des Kundenservices insgesamt steigern können.

3.1 Der ursprüngliche Prozess

Im ersten Schritt wollen wir den ursprünglichen Prozess vor Einführung von ChatGPT darstellen. Der ursprüngliche Serviceprozess beginnt damit, dass der Kunde oder die Kundin eine Kontaktanfrage an den Kundensupport formuliert, in der er sein oder sie ihr Problem beschreibt. Während der Kunde oder die Kundin seine oder ihre Anfrage formuliert, werden ihm oder ihr automatisch Überschriften potenziell passender FAQ-Artikel angezeigt. Um passende FAQ-Artikel zu finden, wird ein KI-gestütztes System eingesetzt, das die Ähnlichkeit zwischen der Kundenanfrage und den vorhandenen Artikeln misst. Entscheidet sich der Kunde oder die Kundin, die angebotenen Artikel zu ignorieren oder findet er oder sie in den Artikeln keine passende Lösung, so kann er oder sie die zuvor formulierte Anfrage abschicken. Dadurch wird ein Ticket eröffnet, das daraufhin von einer Mitarbeiterin bzw. einem Mitarbeiter des Kundensupports bearbeitet wird. Können die Supportmitarbeiterinnen und -mitarbeiter das Kundenproblem nicht ad hoc lösen, so besteht für sie die Möglichkeit, das Dokumentenarchiv des Softwareunternehmens selbstständig zu durchsuchen. Haben sie passende Dokumente gefunden, extrahieren sie die relevanten Informationen und formulieren eine Antwort. Ist das Kundenproblem mit der Antwort gelöst, so ist die Interaktion beendet. Andernfalls haben die Kunden oder Kundinnen die Möglichkeit, Rückfragen zu stellen. In diesem Fall muss der Kundensupport erneut reagieren und ggf. weitere Informationen aus dem Dokumentenarchiv abrufen. Dieser Prozess wiederholt sich, bis das Kundenproblem gelöst ist. Der beschriebene Ablauf vor Integration von ChatGPT ist in Abb. 2 schematisch dargestellt.
Es zeigt sich, dass dieser Prozess häufig mit einem erheblichen Aufwand für die Supportmitarbeiterinnen und -mitarbeiter verbunden ist. Neben der Suche nach relevanten Dokumenten wird zusätzliche Zeit für das Extrahieren und Zusammenfassen von Informationen sowie für das Formulieren von Antworten aufgewendet. Darüber hinaus wird potenziell neues Wissen, das im Laufe der Konversation entstanden ist, nicht extrahiert, aufbereitet und gespeichert, wenn die Supportmitarbeiterinnen und -mitarbeiter dies nicht eigenmotiviert vornehmen.

3.2 Der neugestaltete Prozess

Der transformierte Prozess zielt darauf ab, Prozessverbesserungen durch die Integration von ChatGPT zu erreichen. Ebenso wie der ursprüngliche Prozess beginnt auch der transformierte Prozess mit der Formulierung einer Supportanfrage seitens der Kunden oder Kundinnen. Damit das LLM eine passende Antwort formulieren kann, müssen der Kunde oder die Kundin zunächst die notwendigen Informationen in Form von Dokumenten bereitgestellt werden. Dazu werden Vektordatenbanken verwendet (siehe Abschn. 2). Abb. 3 zeigt beispielhaft die drei notwendigen Schritte zur Integration zwischen Vektordatenbank und LLM:
1.
Zunächst muss das Unternehmen eine Vektordatenbank erstellen, in der alle gewünschten Informationen (z. B. interne Dokumente, FAQ-Artikel, und die Support-Ticket-Historie) hochgeladen werden. Dabei wird für jedes Dokument durch das Embedding Model ein repräsentativer Vektor berechnet und in der Vektordatenbank gespeichert.
 
2.
Für die Kundenanfrage wird mit demselben Embedding Model ein repräsentativer Vektor berechnet. Daraufhin wird durch eine einfache mathematische Berechnung paarweise die Ähnlichkeit des Anfragevektors mit allen Dokumentvektoren aus der Vektordatenbank bestimmt.
 
3.
Schließlich wird der Klartext der Kundenanfrage zusammen mit den Klartexten der ähnlichsten Dokumente in den Prompt des LLM aufgenommen, das auf Grundlage dieser Informationen eine Antwort formuliert.
 
Bevor die Antworten an die Kundinnen und Kunden verschickt werden, ist vorgesehen, dass der Kundensupport die von ChatGPT generierten Texte überprüft. Das bedeutet, dass die Mitarbeiterinnen und Mitarbeiter nicht ersetzt werden. Jedoch ändern sich ihre Aufgaben. Sie sollen zukünftig insbesondere die vom LLM vorformulierte Antwort prüfen und ggf. verbessern. Dabei besteht für die Mitarbeiterinnen und Mitarbeiter die Möglichkeit, mit dem LLM in einen Dialog zu treten, um den Textvorschlag iterativ zu verbessern und ggf. mit zusätzlichen Informationen anzureichern. Sobald die Supportmitarbeiterinnen und -mitarbeiter mit der Antwort zufrieden sind, leiten sie diese an den Kunden oder die Kundin weiter. Treten Rückfragen auf, so werden diese in einem weiteren Prozessdurchlauf mittels LLM-Unterstützung bearbeitet. Hat der Kunde oder die Kundin schließlich keine weiteren Fragen, so ist die Interaktion beendet. Im Gegensatz zum ursprünglichen Prozess stellt dies jedoch nicht das Ende dar, sondern löst einen weiteren Subprozess aus, da innerhalb dieser Interaktion neues Wissen entstanden sein kann. Dieses Wissen könnten die Supportmitarbeiterinnen oder -mitarbeiter beispielsweise im Austausch mit Kollegen oder Kolleginnen oder anderen externen Informationsquellen erworben haben. Darüber hinaus könnte neues Wissen durch den Kunden oder die Kundin in die Interaktion eingebracht worden sein. In diesem abschließenden Subprozess werden die wesentlichen Informationen aus der Ticket-Historie durch das LLM extrahiert und aufbereitet. Bevor jedoch ein entsprechendes Dokument im Dokumentenarchiv abgelegt wird, bereitet der Supportmitarbeiter oder die Supportmitarbeiterin die Informationen auf, indem er beispielsweise deren Relevanz und Neuheit bewertet. Der beschriebene Prozess nach Integration von ChatGPT ist in Abb. 4 dargestellt.

3.3 Bewertung

Aus ökonomischer Perspektive zeigt sich, dass mit der vorgestellten Lösung für den Kundensupportprozess mehrere Vorteile erzielt werden können: So lassen sich potenziell Zeit und Kosten durch Nutzung der neuen Lösung einsparen. In Gesprächen mit dem Softwarehaus wurde insbesondere deutlich, dass sich das Management einen Wettbewerbsvorteil durch schnellere Antworten auf Kundenanfragen verspricht. Darüber hinaus können Unternehmen Kosten einsparen. Eine Beispielrechnung könnte so aussehen, dass pro Anfrage eine Minute eingespart werden könnte und die Kosten pro Minute 50 Cent betragen. Unter der Annahme, dass 10.000 Anfragen pro Tag in einer Serviceorganisation eingehen, würden die Kosteneinsparungen bei ca. 150.000 €/Monat liegen. Das Geschäftsmodell skaliert mit der Größe der Serviceorganisation. Darüber hinaus bietet die vorgestellte Lösung die Möglichkeit, bessere Antworten zu generieren und – wie oben dargestellt – die Wissensbasis zu verbessern.
Neben den klar ersichtlichen wirtschaftlichen Vorteilen ergibt sich für die Supportmitarbeiterinnen und -mitarbeiter eine signifikante Transformation ihrer Arbeitsweise. Die Integration von ChatGPT befähigt sie, ihre Aufgaben mit gesteigerter Effizienz und Effektivität zu bewältigen. Im Einklang mit bestehender Literatur ist das Ziel dieses Systems nicht, den Menschen zu ersetzen, sondern vielmehr seine Arbeit zu ergänzen (Brynjolfsson 2023; Bankins et al. 2023). Daher ist keine Reduktion von Arbeitsstellen zu erwarten, sondern vielmehr eine Umorientierung der Tätigkeiten: Weg von zeitaufwendigen Routinearbeiten, wie der Recherche und Zusammenführung von Informationen sowie der Formulierung von Antworten, hin zu einer verstärkten Fokussierung auf die Gewährleistung qualitativ hochwertiger Antworten. Parallel dazu profitieren die Kunden und Kundinnen von reduzierten Antwortzeiten und einer erhöhten Qualität sowie Konsistenz der Serviceleistungen. Aufgrund der Integration in bestehende Systeme und Prozesse, dem Fokus auf dem Menschen als finalen Entscheidungsträger und der hohen Transparenz, geschaffen durch die Dialogfähigkeit und das Hinterlegen von Quellen aus dem Dokumentenarchiv, kann eine hohe Akzeptanz und Zufriedenheit seitens der Supportmitarbeiterinnen und -mitarbeiter vermutet werden (Chatterjee et al. 2021; Bankins et al. 2023; Bedué und Fritzsche 2022).
Dennoch ist es entscheidend, die bereits erörterten Risiken wie Halluzinationen und Bias in die Bewertung mit einzubeziehen. Wirtschaftliche Vorteile stehen potenziellen Fehlinformationen gegenüber, die das Vertrauen der Kunden und Kundinnen beeinträchtigen könnten. Eine fundierte Risikoanalyse vor der Implementierung und etablierte Korrekturmechanismen sind notwendig, um eine dauerhafte und verlässliche Qualitätssicherung im Kundensupport zu gewährleisten.

4 Fazit und Ausblick

Die Fallstudie zu Serviceprozessen zeigt, zum einen, wie es grundsätzlich möglich ist, ChatGPT in Unternehmensprozesse zu integrieren. Zum anderen wird deutlich, welche ökonomischen Effekte für Unternehmen erzielt werden können. Außerdem wurde anhand bestehender Literatur diskutiert welche Einflüsse sich auf die Akzeptanz und Zufriedenheit der Nutzerinnen und Nutzer ergeben könnten.
Der Artikel konzentriert sich primär auf die Vorstellung eines praxisnahen Schemas zur potenziellen Transformation wissensbasierter Unternehmensprozesse durch Sprachmodelle. Es ist jedoch zu beachten, dass zum jetzigen Zeitpunkt keine Daten zur Interaktionsqualität, Akzeptanz und Nutzerzufriedenheit vorliegen. Diese Aspekte sind wesentlich für die Beurteilung der Praktikabilität und Wirksamkeit des vorgestellten Frameworks. Außerdem wurde in diesem Artikel die Qualität der LLM-basierten Prozessunterstützung nicht evaluiert. Während eine Expertenbewertung der Antwortqualität zweifellos von Interesse wäre, liegt eine solche Bewertung außerhalb des aktuellen Untersuchungsbereichs. Zukünftige Forschung, angereichert mit empirischen Daten, könnten diese Lücke schließen und einen Mehrwert für die Anwendung von LLMs in Unternehmensprozessen bieten.
In unserem Anwendungsbeispiel konnten wir zeigen, dass die Integration von LLMs mit Unternehmensdaten mit Hilfe von Vektordatenbanken erfolgen kann. Diese Anbindung verstehen wir als das erste Level der LLM-Integration in Unternehmen, deren Ziel es ist, Wissen in Echtzeit aufbereitet zur Verfügung zu stellen und gleichzeitig die Dialogfähigkeiten von LLMs nutzen zu können.
Das zweite Level bezieht sich auf die Anbindung verschiedener Werkzeuge an LLMs: D. h. LLMs erhalten die Möglichkeit, verschiedene Anwendungen über APIs selbständig zu nutzen. Wie Bubeck et al. (2023) zeigen sind aktuelle LLMs – wie bspw. GPT-4 – bereits in der Lage, mit minimalen Anweisungen Werkzeuge zu nutzen. Eine Beispielanwendung für dieses Level sind die von OpenAI vorgestellten ChatGPT Plug-ins (OpenAI 2023), die es ChatGPT ermöglichen eigenständig im Internet zu suchen, Code auszuführen oder auf Drittanbieterdienste zuzugreifen. Mit dieser zusätzlichen Handlungsfähigkeit können LLMs selbstständig auch komplexere Routineaufgaben übernehmen und damit den Menschen weiter entlasten.
Das dritte Level bezieht sich auf Anwendungen wie AutoGPT (GitHub 2023a), MetaGPT (GitHub 2023b) und HuggingGPT (Shen et al. 2023). Auf Basis vorgegebener Ziele können diese LLM-Agenten eigenständig Aufgaben festlegen, priorisieren und abarbeiten. Dabei werden die autonom definierten Aufgaben in einem rekursiven Prozess in durchführbare Pläne heruntergebrochen, erstellte Pläne reflektiert, geeignete Werkzeuge identifiziert und ausgeführt. Als Beispiel dient MetaGPT: Ein Tool, das aus einer Anforderung in einer Zeile umfassende Softwareentwicklungsoutputs wie Benutzergeschichten und API-Entwürfe erzeugt. Es simuliert ein Softwareunternehmen mit Large Language Models in Rollen wie Produktmanagern und -managerinnen oder Ingenieuren und Ingenieurinnen, die standardisierte Prozesse anwenden. Durch diese Fähigkeit könnte die vollständige Integration solcher LLM-Agenten in Unternehmensprozesse transformative Auswirkungen haben, deren Charakter – utopisch oder dystopisch – noch zu definieren ist. Zukünftige Untersuchungen sollten daher die Auswirkungen der LLM-Integration auf die Veränderung der Arbeitstätigkeiten und die Entwicklung neuer Qualifikationsprofile und Fähigkeiten der Arbeitnehmenden in den Fokus stellen, um eine gezielte Anpassung an die sich wandelnde Arbeitswelt zu ermöglichen.
Neben den aufgezeigten Potenzialen ist es wichtig, sich auch der Risiken der Anwendung von LLMs bewusst zu sein. Dazu zählen insbesondere die bereits angesprochenen Probleme, wie Halluzinationen und Bias. Verschärft wird diese Problematik dadurch, dass LLMs und damit auch deren Antworten intransparent sind. So ist z. B. unklar, aus welchen Gründen LLMs manchmal falsche und seltsam anmutende Texte erstellen. Dies gilt nicht nur für die Nutzerinnen und Nutzer. Selbst die Entwicklerinnen und Entwickler von GPT‑4 können die Ergebnisse zum Teil nicht erklären, wie folgende Aussage von OpenAI verdeutlicht:
„Language models have become more capable and more widely deployed, but we do not understand how they work“ (Bills et al. 2023, S. 1, Satz 1).
Open Access Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Lizenz veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Artikel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Weitere Details zur Lizenz entnehmen Sie bitte der Lizenzinformation auf http://​creativecommons.​org/​licenses/​by/​4.​0/​deed.​de.

Hinweis des Verlags

Der Verlag bleibt in Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutsadressen neutral.

Unsere Produktempfehlungen

HMD Praxis der Wirtschaftsinformatik

HMD liefert IT-Fach- und Führungskräften Lösungsideen für ihre Probleme, zeigt ihnen Umsetzungsmöglichkeiten auf und informiert sie über Neues in der Wirtschaftsinformatik (WI).

Literatur
Zurück zum Zitat Bengio Y, Ducharme R, Vincent P, Janvin C (2003) A neural probabilistic language model. J Machin Learn 2003:1137–1155 Bengio Y, Ducharme R, Vincent P, Janvin C (2003) A neural probabilistic language model. J Machin Learn 2003:1137–1155
Zurück zum Zitat Ray G, Muhanna WA, Barney JB (2005) Information technology and the performance of the customer service process: a resource-based analysis. MIS Q 29(4):625–652CrossRef Ray G, Muhanna WA, Barney JB (2005) Information technology and the performance of the customer service process: a resource-based analysis. MIS Q 29(4):625–652CrossRef
Metadaten
Titel
Die Nutzung von ChatGPT in Unternehmen: Ein Fallbeispiel zur Neugestaltung von Serviceprozessen
verfasst von
Peter Buxmann
Adrian Glauben
Patrick Hendriks
Publikationsdatum
24.02.2024
Verlag
Springer Fachmedien Wiesbaden
Erschienen in
HMD Praxis der Wirtschaftsinformatik / Ausgabe 2/2024
Print ISSN: 1436-3011
Elektronische ISSN: 2198-2775
DOI
https://doi.org/10.1365/s40702-024-01053-8

Weitere Artikel der Ausgabe 2/2024

HMD Praxis der Wirtschaftsinformatik 2/2024 Zur Ausgabe

Premium Partner