Skip to main content
Top

Erweiterung des Coachings durch Generative KI: Einblicke in Nutzung, Effektivität und Zukunftspotenziale

  • Open Access
  • 15-07-2025
  • Hauptbeiträge

Activate our intelligent search to find suitable subject content or patents.

search-config
loading …

Zusammenfassung

Generativer KI (GenAI) verändert das professionelle Coaching. Diese Studie untersucht, wie Coaches GenAI nutzen und welche Vorteile und Einschränkungen sie wahrnehmen. Eine Befragung von 85 Coaches zeigt, dass GenAI vor allem für die Inhaltserstellung und Recherche verwendet wird, während ihr Einsatz in zwischenmenschlichen Aspekten begrenzt bleibt. Coaches betrachten GenAI als Effizienzwerkzeug, betonen jedoch die Notwendigkeit menschlicher Kontrolle. Korrelationsanalysen legen nahe, dass GenAI-Kompetenz positive Einstellungen und eine effektive Nutzung fördert. Die Ergebnisse unterstreichen den Bedarf an ethischen Richtlinien und eine kollaborative Nutzung, kein Ersatz des Coachs.

Hinweis des Verlags

Der Verlag bleibt in Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutsadressen neutral.

1 Einleitung

Business Coaching unterstützt Entscheidungsfindung und zwischenmenschliche Fähigkeiten (Greif et al. 2022). Gleichzeitig automatisieren generative KI-Tools wie ChatGPT und Gemini Routineaufgaben, fördern kreative Prozesse und liefern personalisiertes Feedback (Haase und Hanel 2023; Huang und Xing 2023). Ihr Potenzial zeigt sich bereits im Bereich der psychischen Gesundheit, wo GenKI erfolgreich zur Selbstreflexion, Stressbewältigung und Emotionsregulation eingesetzt wird (Liu et al. 2023; Limpanopparat et al. 2024). Diese Entwicklungen legen nahe, dass GenKI auch im Coaching wertvolle Unterstützung bieten kann.
Diese Entwicklungen legen nahe, dass GenKI vielfältige Potenziale für das Coaching bietet. GenKI kann (1) Coaches unterstützen, z. B. bei der Weiterbildung oder der effizienten Analyse von Daten, (2) Coaching-Prozesse begleiten – vor, während und nach den Sitzungen –, oder (3) menschliche Coaches simulieren und sie durch KI-gestützte Chatbots ersetzen (Terblanche et al. 2024). Dabei soll es hier nicht um letzteres gehen, um das Entweder-Oder von KI vs. menschlichen Coaches, sondern um die Frage, wie eine produktive Zusammenarbeit zwischen beiden Entitäten aussehen kann. Während frühere Studien meist theoretische Potenziale von GenKI beleuchteten (Maiden et al. 2023; Zachos et al. 2022), fehlt es an empirischen Daten zur tatsächlichen Nutzung im Coaching-Alltag. Während einige Fachleute KI im Coaching strikt ablehnen (Diller et al. 2024), befürworten andere den Einsatz KI-gestützter Assistenten zur Unterstützung menschlicher Coaches (Terblanche et al. 2024). Diese Studie untersucht daher, wie Coaches GenKI-Tools tatsächlich nutzen, welche Aufgaben sie davon unterstützen lassen und wie sie deren Nutzen bewerten. Basierend auf Umfragedaten aktiver Coaches liefert sie praxisnahe Erkenntnisse zur effektiven Integration von GenKI in Coaching-Prozesse. Die Ergebnisse zeigen, dass GenKI Effizienz und Kreativität steigern kann, jedoch stets als unterstützender Partner agieren sollte, um die essenziellen menschlichen Aspekte des Coachings zu bewahren (Webers 2024).

1.1 Grundlagen von Generativer KI im Coaching

Generative KI-Tools, insbesondere große Sprachmodelle (LLMs) wie ChatGPT und Gemini, haben sich in wissensintensiven Arbeitsbereichen etabliert. Sie ermöglichen die Textgenerierung, Automatisierung repetitiver Aufgaben und die Bereitstellung personalisierter Inhalte (Huang und Xing 2023). Damit finden sie Anwendung in Bereichen wie Inhaltsgenerierung, Entscheidungsunterstützung und Wissensmanagement (Dwivedi et al. 2021; Raiaan et al. 2024). Technologisch basieren LLMs auf der Transformer-Architektur, die durch ihren Selbstaufmerksamkeitsmechanismus kontextuell passende, kohärente Antworten generiert (Raiaan et al. 2024). Durch Vortraining auf umfangreichen Textkorpora entwickeln sie ein breites Sprachverständnis, das durch Feinabstimmung für spezifische Anwendungsfelder wie Gesundheitswesen, Kundenservice oder Coaching optimiert werden kann (Kocoń et al. 2023; Li et al. 2023; Mai und Rutschmann 2023).
Ihre Einsatzmöglichkeiten sind vielfältig: LLMs werden zur Automatisierung von Kundenanfragen, zur Unterstützung von Ärzten bei der klinischen Dokumentation und zur Erstellung personalisierter Lernmaterialien im Bildungsbereich genutzt (Davison et al. 2023; Wu und Yu 2024). Zudem finden sie Anwendung in kreativen Bereichen wie Marketing und Drehbuchentwicklung (Doshi und Hauser 2024). Auch im Coaching werden LLMs zunehmend für verschiedene Aufgaben eingesetzt – darunter Sitzungsplanung, kreative Unterstützung und die Analyse von Klientenfeedback (Mai und Rutschmann 2023). Dank ihrer Fähigkeit, große Informationsmengen zu verarbeiten, ermöglichen sie eine effizientere und stärker personalisierte Coaching-Gestaltung (Kotte und Webers 2024). KI-gestützte Gesprächsschnittstellen erleichtern zudem Echtzeit-Interaktionen und bieten strukturierte Anleitungen (Mai und Rutschmann 2023).
Das Konzept von Chatbots in therapieähnlichen Kontexten ist nicht neu. Bereits 1966 entwickelte Weizenbaum mit ELIZA den ersten Chatbot, der als Rogerianischer Psychotherapeut fungierte und auf Nutzereingaben in einer strukturierten, dialogartigen Weise reagierte (Weizenbaum 1966). Moderne GenKI-Tools bauen auf diesem Prinzip auf, bieten jedoch deutlich weiterentwickelte Funktionen und ermöglichen skalierbare, kosteneffiziente Lösungen. Studien zeigen, dass Klienten KI-gestützte Systeme vor allem für deren Anonymität und nicht wertende Rückmeldungen schätzen (Graßmann und Schermuly 2021). Trotz dieser Vorteile kann GenKI menschliche Coaches nicht ersetzen. Emotionale Tiefe, aktives Zuhören und individualisierte Rückmeldungen sind essenzielle Bestandteile des Coachings, die über die Fähigkeiten aktueller KI-Modelle hinausgehen (Webers 2024; Mai und Rutschmann 2023). Während KI emotionale Intelligenz nachahmen kann, fehlt ihr die intuitive Anpassungsfähigkeit, was Vertrauen und zwischenmenschliche Dynamiken beeinträchtigen kann (Sheehan 2022).
Erste Studien deuten darauf hin, dass KI-gestützte Therapieansätze in ihrer Wirksamkeit mit konventionellen Therapieformen vergleichbar sind (Lee et al. 2024; Haber et al. 2024). Diese Erkenntnis wirft wichtige Fragen zur langfristigen Rolle generativer KI in psychosozialen Kontexten auf: Welche Aufgaben kann KI sinnvoll übernehmen und wo bleiben menschliche Kompetenzen unverzichtbar? Im Coaching lässt sich der Einsatz von GenKI in den größeren Rahmen der Mensch-KI-Kollaboration einordnen (Jarrahi 2018), die darauf abzielt, menschliche Urteilsfähigkeit mit den analytischen und generativen Stärken von KI-Systemen zu verbinden (Shneiderman 2020).

1.2 Forschungsfragen und Hypothesen

Aufbauend auf den bisherigen Erkenntnissen zum Potenzial und zu den Grenzen generativer KI im Coaching zielt diese Studie darauf ab, die konkrete Nutzung dieser Technologien durch Coaches, die diese bereits aktiv nutzen, zu erfassen. Darüber hinaus untersucht die Studie die Perspektiven von Coaches in Bezug auf ethische Überlegungen und relationale Dynamiken im Zusammenhang mit GenKI in ihrer Praxis. Konkret ergeben sich daraus folgende Forschungsfragen:
  • Forschungsfrage 1: Wie nutzen und bewerten Coaches aktuell Generative KI-Tools in ihrer Praxis?
  • Forschungsfrage 2: Welche Faktoren beeinflussen die Bewertung und Integration von Generativen KI-Tools in der Coaching Praxis?
  • Forschungsfrage 3: Welche ethischen Herausforderungen werden bei der Nutzung von Generativen KI-Tools bedacht?

2 Methode

Die Studie wurde als Online-Umfrage durchgeführt, um die Nutzung von GenKI-Tools im Coaching zu erfassen, insbesondere hinsichtlich ihrer Anwendungsbereiche, wahrgenommenen Effektivität und ethischen Überlegungen. Der Fragebogen richtete sich an aktive Coaches, die textbasierte GenKI-Tools wie ChatGPT, Gemini oder Claude in ihre Arbeit integrieren. Neben geschlossenen Fragen, die quantitative Daten zur Nutzung, Bewertung und Akzeptanz von GenKI erhoben, enthielt die Umfrage auch offene Fragen zur Erfassung individueller Einschätzungen und Erwartungen. Die gesamte Studie wurde auf Englisch durchgeführt.
Die Teilnehmenden wurden über die Plattform Prolific rekrutiert und mussten zwei Einschlusskriterien erfüllen: eine aktive Coaching-Tätigkeit sowie die aktive Nutzung generativer KI-Tools in der Coaching-Praxis. Diese Kriterien stellten sicher, dass die Befragten über relevante Erfahrungen mit GenKI verfügten, werden jedoch auch zu einem Selbstselektionseffekt geführt haben. Die Umfrage begann mit einer Einleitung zu Zweck, Datenschutz und Vertraulichkeit der Studie, und alle Teilnehmenden gaben eine informierte Einwilligung ab. Die durchschnittliche Bearbeitungszeit betrug 15 min, und die Vergütung lag bei neun Pfund pro Stunde. Die Datenerhebung fand im Januar 2025 statt.
Der inhaltliche Teil der Umfrage bestand aus mehreren thematischen Abschnitten. Zunächst wurde die Nutzung spezifischer GenKI-Tools untersucht, insbesondere in welchen Coaching-Bereichen sie eingesetzt wurden. Zur Erfassung der Nutzung bei konkreten coaching-relevanten Aufgaben wurde eine Batterie an Tätigkeiten vorgelegt: aus dem Bereich Kreative und ressourcenbasierte Aufgaben (z. B. Übungen entwerfen, Lösungen brainstormen); Vorbereitungs- und Unterstützungsaufgaben (z. B. Sitzungsmaterialien vorbereiten, Recherchen durchführen); In-Session Aufgaben (z. B. Material erstellen, Probleme lösen); Analytische und reflektierende Aufgaben (z. B. Trends identifizieren, Erkenntnisse zusammenfassen); Beziehungs- und Empathieaufgaben (z. B. unterstützende Dialoge simulieren, empathisches Feedback geben); Administrative und organisatorische Aufgaben (z. B. Terminplanung, Sitzungsdokumentation); Bildungs- und Schulungsaufgaben (z. B. neue Coaching-Techniken lernen, GenKI-Simulationen für Trainings nutzen). Die Nutzungshäufigkeit wurde auf einer fünfstufigen Skala von „Nie“ bis „Immer“ erfasst.
Zur Bewertung der Effektivität von GenKI gaben die Teilnehmer an, wie nützlich sie ihr bevorzugtes Tool für verschiedene Aufgaben einschätzten. Zusätzlich wurde erfasst, welche Rolle GenKI in den jeweiligen Aufgabenbereichen spielt – von einer minimalen Unterstützung bis hin zu einer kollaborativen oder wesentlichen Funktion. Fragen zu ethischen Überlegungen umfassten Aspekte wie Transparenz gegenüber Klienten, Datenschutz, Verzerrungen in GenKI-generierten Inhalten sowie die Einhaltung professioneller Standards. Die Einschätzungen wurden auf einer fünfstufigen Skala erhoben. Des Weiteren wurde die eigens wahrgenommene KI-Kompetenz (AI literacy) erfasst. Die Messung basierte auf einer Skala von Pinski und Benlian (2023), die das Wissen und die Fähigkeiten der Teilnehmer zur Arbeit mit KI erfasst. Zudem wurden Einstellungen gegenüber KI untersucht, wobei sowohl positive Aspekte wie Begeisterung und wahrgenommene Vorteile als auch Bedenken hinsichtlich Missbrauchs oder technischer Fehler erfasst wurden (Schepman und Rodway 2020). Abschließend bewerteten die Teilnehmer die aktuelle und erwartete zukünftige Bedeutung von GenKI im Coaching sowie ihre persönliche Einschätzung zur Gefahr einer vollständigen Automatisierung oder Substitution ihrer Rolle.
Die Stichprobe umfasste 85 Teilnehmer mit einem ausgeglichenen Anteil an Business- und Karriere-Coaches. Die Mehrheit nutzte GenKI regelmäßig, wobei 42,4 % angaben, es mehrmals täglich einzusetzen. Die Stichprobe bestand überwiegend aus männlichen Teilnehmern (64,7 %), mit einem geografischen Schwerpunkt auf den Vereinigten Staaten (49,4 %) und dem Vereinigten Königreich (40 %, s. Tab. 1).
Tab. 1
Deskriptive Statistik der Teilnehmer über Prolific berichtet
Merkmal
Häufigkeit (%)
Berufliche Rolle
Business-Coach
45 (52,9)
Karriere-Coach
40 (47,1)
Geschlecht
Männlich
55 (64,7)
Weiblich
29 (34,1)
Wohnsitzland
Vereinigte Staaten
42 (49,4)
Vereinigtes Königreich
34 (40,0)
Europa
9 (10,6)
Beschäftigungsstatus
Vollzeit
64 (75,3)
Teilzeit
15 (17,6)
Arbeitslos (und arbeitssuchend)
1 (1,2)
Gesamtzahl der Teilnehmer (N= 85)

3 Ergebnisse

Die Umfrageergebnisse zeigen ein breites Anwendungsspektrum von Nutzern von GenKI-Tools im Coaching. Am häufigsten wurde ChatGPT 4.0 verwendet (63,5 %), und über die Hälfte der Teilnehmenden (65,9 %) gab an, dies als bevorzugtes Tool zu nutzen. Die Nutzungshäufigkeit war insgesamt hoch: 56,5 % nutzen ihr bevorzugtes Tool seit mehr als einem Jahr, und 81,1 % verwendeten GenKI täglich bis mehrmals täglich (s. Tab. 2).
Tab. 2
Nutzung und Präferenzen von GenKI-Tools
Merkmal
Kategorie
Häufigkeit (%)
Verwendete Tools
ChatGPT 3.5
59 (69,4)
ChatGPT 4.0
54 (63,5)
GitHub Copilot
24 (28,2)
AlphaCode
5 (5,9)
Gemini
43 (50,6)
Claude
17 (20,0)
BingChat
17 (20,0)
Jasper AI
5 (5,9)
Copy.AI
9 (10,6)
Häufigstes genutztes Tool
ChatGPT 3.5
23 (27,1)
ChatGPT 4.0
56 (65,9)
Gemini
5 (5,9)
Anderes
0 (0,0)
Nutzungsdauer
Mehr als 1 Jahr
48 (56,5)
7–12 Monate
22 (25,9)
4–6 Monate
7 (8,2)
1–3 Monate
6 (7,1)
Weniger als 1 Monat
2 (2,4)
Nutzungshäufigkeit
Mehrmals täglich
32 (37,6)
Täglich
37 (43,5)
Mehrmals pro Woche
11 (12,9)
Wöchentlich
2 (2,4)
Monatlich oder seltener
3 (3,5)
Gesamtzahl der Teilnehmer (N= 85)

3.1 Nutzung, wahrgenommene Effektivität und zugewiesene Rolle

Zur Analyse der ersten Forschungsfrage wurde untersucht, für welche Coaching-Aufgaben GenKI genutzt wird, wie effektiv es dabei wahrgenommen wird und welche Rolle die Coaches der KI in ihren Prozessen zuweisen (s. Tab. 3). Insgesamt zeigte sich über alle Aufgaben hinweg eine sehr homogene, recht intensive Nutzung. In Tendenz kam GenKI häufiger für Rechercheaufgaben (M = 3,92, SD = 0,98), Brainstorming von Lösungen (M = 4,01, SD = 0,97) und die Simulation von Trainingsszenarien (M = 4,06, SD = 0,94) zum Einsatz. Auch das Erlernen neuer Coaching-Techniken (M = 3,98, SD = 0,93) wurde als häufiges Anwendungsfeld genannt. In Tendenz weniger genutzt wurde GenKI für administrative Aufgaben wie Sitzungsdokumentation (M = 3,58, SD = 1,04) oder Klientenfortschrittsverfolgung (M = 3,38, SD = 1,14), was darauf hindeutet, dass Coaches GenKI eher für kreative und wissensgenerierende Tätigkeiten einsetzen.
Tab. 3
GenKI-Nutzung, Effektivität und Zugewiesene Rolle in Coaching-Aufgaben (Aggregierte Werte)
Aufgabenkategorie
Nutzung M (SD)
Effektivität M (SD)
Rolle M (SD)
Kreative & Ressourcentätigkeiten
3,83 (0,70)
3,78 (0,74)
3,40 (0,91)
Marketinginhalte entwicklen
3,78 (0,94)
3,77 (0,97)
3,47 (1,18)
Übungen entwerfen
3,73 (0,98)
3,78 (0,90)
3,45 (0,91)
Personalisierte Ressourcen erstellen
3,79 (0,86)
3,80 (0,87)
3,37 (1,11)
Ideen/Lösungen generieren
4,01 (0,97)
3,89 (1,01)
3,46 (1,03)
Vorbereitung & Unterstützung
3,71 (0,80)
3,74 (0,67)
3,56 (0,82)
Sitzungsmaterialien entwickeln
3,84 (0,96)
3,76 (0,88)
3,62 (1,01)
Fortschritt verfolgen
3,38 (1,14)
3,56 (1,03)
3,27 (1,14)
Relevante Themen recherchieren
3,92 (0,98)
3,96 (0,82)
3,85 (0,89)
In-session-Aufgaben
3,78 (0,88)
3,78 (0,69)
3,48 (0,84)
Ziele und Pläne setzen
3,81 (1,06)
3,80 (0,81)
3,54 (0,98)
Sitzungsmaterial bereitstellen
3,84 (1,02)
3,83 (0,90)
3,42 (1,17)
Problemlösung in Echtzeit
3,71 (1,00)
3,76 (0,92)
3,54 (0,93)
Analytische & Reflexive Tätigkeiten
3,78 (0,83)
3,72 (0,69)
3,52 (0,87)
Muster erkennen
3,69 (1,00)
3,71 (1,07)
3,51 (1,07)
Branchentrends analysieren
3,75 (1,07)
3,77 (0,90)
3,69 (0,96)
Einsichten zusammenfassen
3,91 (0,92)
3,81 (0,87)
3,50 (1,01)
Administration & Organisation
3,67 (0,90)
3,66 (0,82)
3,39 (0,93)
Mit Klienten kommunizieren
3,86 (0,99)
3,74 (1,01)
3,44 (1,12)
Sitzungen zusammenfassen
3,58 (1,04)
3,63 (1,02)
3,38 (1,12)
Terminplanung automatisieren
3,59 (1,15)
3,75 (0,87)
3,44 (1,07)
Klientendaten organisieren
3,67 (1,23)
3,70 (1,08)
3,47 (1,10)
Beziehungsarbeit & Empathie
3,59 (0,99)
3,68 (0,88)
3,47 (0,87)
Zuhörfähigkeiten verbessern
3,64 (1,16)
3,71 (1,00)
3,51 (0,98)
Dialoge simulieren
3,47 (1,14)
3,77 (0,97)
3,63 (0,98)
Feedback geben
3,66 (1,08)
3,76 (0,87)
3,48 (0,90)
Bildung & Training
3,99 (0,81)
4,01 (0,83)
3,83 (0,93)
Neue Techniken lernen
4,00 (0,91)
3,98 (0,93)
3,76 (1,03)
Training simulieren
3,99 (0,90)
4,06 (0,94)
3,94 (0,91)
Meta-Scores (Gesamt)
3,77 (0,69)
3,75 (0,63)
3,51 (0,74)
Gesamt N = 85. Bewertungen wurden auf 5‑Punkte-Likert-Skalen erhoben: Nutzung: 1 = Nie, 2 = Selten, 3 = Gelegentlich, 4 = Häufig, 5 = Immer. Effektivität: 1 = Ineffektiv, 2 = Wenig effektiv, 3 = Mäßig effektiv, 4 = Sehr effektiv, 5 = Unverzichtbar. Rolle: 1 = Minimal (geringer Einfluss der KI), 2 = Unterstützend, 3 = Kollaborativ, 4 = Wesentlich, 5 = Vollständig (KI war Hauptakteur).
Die wahrgenommene Effektivität von GenKI wurde insgesamt als hoch bewertet. Besonders effektiv wurden Trainingssimulationen (M = 4,06, SD = 0,94) und das Erlernen neuer Coaching-Techniken (M = 3,98, SD = 0,93) eingeschätzt, gefolgt von Rechercheaufgaben (M = 3,96, SD = 0,82). Niedrigere Effektivitätswerte erhielten administrative Tätigkeiten wie Sitzungsdokumentation (M = 3,63, SD = 1,02) und Klientenfortschrittsverfolgung (M = 3,56, SD = 1,03), was darauf hinweist, dass GenKI in diesen Bereichen zwar als hilfreich, aber nicht als effektivsten Support angesehen wird.
Die Teilnehmenden ordneten GenKI vorrangig eine unterstützende Funktion zu. Besonders hohe Rollenwerte wurden für Trainingssimulationen (M = 3,94, SD = 0,91) und Recherche (M = 3,85, SD = 0,89) vergeben, während administrative Aufgaben geringere Werte erhielten (M = 3,38–3,27). Dies deutet darauf hin, dass Coaches zwar GenKI in diesen Bereichen nutzen, dessen eigenständigen Beitrag jedoch als begrenzt betrachten.

3.1.1 Korrelationsanalyse

Die Analyse der Nutzungsmuster zeigt eine hohe interne Konsistenz über verschiedene Aufgabentypen hinweg. Die Nutzungsskala wies eine sehr hohe Reliabilität auf (Cronbach’s α = 0,919), was darauf hindeutet, dass die Bewertungen einzelner Aufgaben eine kohärente Messung der GenKI-Nutzung bilden. Ebenso zeigten die Effektivitätsbewertungen eine hohe interne Konsistenz (α = 0,888), sodass die Einschätzungen zur Unterstützung durch GenKI über verschiedene Coaching-Aufgaben hinweg konsistent waren. Ähnliches galt für die zugewiesene Rolle von GenKI (α = 0,907), was bestätigt, dass Coaches eine klare Struktur darin sehen, welche Aufgaben stärker durch KI unterstützt werden können. Daher wird in den weiteren Analysen ein Meta-Score für die drei Bereiche genutzt (s. Tab. 3). Die Pearson-Korrelationsanalyse (s. Tab. 4) ergab signifikante Zusammenhänge zwischen Nutzung, Effektivität und der zugewiesenen Rolle von GenKI. Zudem wurden positive Korrelationen mit der KI-Kompetenz, ethischen Überlegungen, Einstellungen gegenüber KI und der erwarteten zukünftigen Rolle von KI im Coaching festgestellt.
Tab. 4
Pearson-Korrelationen zwischen zentralen Variablen
 
2
3
4
5
6
7
8
9
10
11
1. Nutzungs-Metascore
0,880**
0,738**
0,505**
0,611**
0,556**
−0,022
0,575**
0,188
0,045
0,097
2. Effektivitäts-Metascore
0,842**
0,565**
0,681**
0,617**
−0,042
0,581**
0,146
0,105
0,067
3. Rollen-Metascore
0,503**
0,550**
0,573**
0,113
0,582**
0,234*
0,255*
0,189
4. Ethik-Score
0,483**
0,509**
0,097
0,298**
0,253*
0,168
0,198
5. KI-Kompetenz-Score
0,510**
−0,112
0,516**
0,278*
0,078
0,060
6. Positive Einstellung zu KI
−0,044
0,515**
0,279**
0,140
0,145
7. Negative Einstellung zu KI
−0,137
−0,152
0,396**
0,547**
8. Aktuelle KI-Auswirkungen
0,465**
0,129
0,034
9. Zukünftige KI-Nutzung
0,100
0,020
10. KI als Ersatz
0,622**
11. Sorge um Obsoleszenz
** Korrelation ist auf dem Niveau von 0,01 signifikant (zweiseitig)
* Korrelation ist auf dem Niveau von 0,05 signifikant (zweiseitig)

3.1.2 Auswirkungen und Ausblick von GenKI im Coaching

Die Teilnehmenden wurden nach der aktuellen Wirkung von GenKI, ihrer erwarteten zukünftigen Nutzung sowie möglichen Bedenken hinsichtlich einer Substitution menschlicher Coaches befragt. Die Ergebnisse zeigen, dass GenKI-Tools als mäßig bis stark wirkungsvoll für Coaching-Praktiken wahrgenommen werden (M = 3,87, SD = 0,80). Hinsichtlich der zukünftigen Nutzung erwarten die Teilnehmenden eine zunehmende Verbreitung von GenKI (M = 4,13, SD = 0,69), was auf eine wachsende Integration KI-gestützter Coaching-Methoden hindeutet. Trotz dieser Entwicklung bleiben Bedenken hinsichtlich einer vollständigen Automatisierung eher gering. Die Möglichkeit, dass GenKI menschliche Coaching-Rollen vollständig ersetzen könnte, wurde mit M = 2,87 (SD = 1,11) bewertet, was eine skeptische Haltung gegenüber der vollständigen Übernahme zentraler Coaching-Funktionen durch KI widerspiegelt. Ebenso wurde die Sorge, dass GenKI menschliche Coaches überflüssig machen könnte, mit M = 2,69 (SD = 1,17) eher niedrig eingeschätzt. Diese Ergebnisse legen nahe, dass die Mehrheit der Teilnehmenden GenKI als unterstützendes Werkzeug und nicht als Ersatz für menschliches Coaching betrachtet. Die zukünftige Rolle von KI wird sich voraussichtlich weiterentwickeln, wobei Effizienzgewinne mit den weniger ersetzbaren menschlichen Fähigkeiten der emotionalen Intelligenz und Beziehungsarbeit ausbalanciert werden müssen.

3.1.3 Erwartete zukünftige Fähigkeiten von Generativen KI im Coaching

Offen gefragt, welche Verbesserungsbereiche sie für den zukünftigen Einsatz von GenKI im Coaching sehen, ergab sich eine Bandbreite an potenziellen Erweiterungen. Die offenen Antworten wurden iterativ mittels qualitativer Inhaltsanalyse nach Mayring (2015) ausgewertet und systematisch in übergeordnete Kategorien zusammengeführt (s. Tab. 5). Besonders häufig wurde der Wunsch nach erweiterten Klienten-Insights genannt, etwa durch verbesserte Verhaltensanalysen, Fortschrittsverfolgung und prädiktive Analysen zur Optimierung von Interventionen. Eng damit verknüpft ist der Wunsch nach stärkerer Personalisierung, insbesondere durch KI-gestützte adaptive Lernpfade, maßgeschneiderte Empfehlungen und eine verbesserte emotionale Intelligenz für kontextsensitives Coaching. Auch administrative Automatisierung wurde als wichtiges Entwicklungsfeld genannt, um Terminplanung, Erinnerungen, Fortschrittsverfolgung und Dokumentation effizienter zu gestalten.
Tab. 5
Erwartete zukünftige Fähigkeiten von GenKI im Coaching
Zentrale Erwartung
GenKI sollte …
Klienten-Insights
… Klientenfortschritt analysieren, Trends vorhersagen und Interventionen vorschlagen
Personalisierung
… Coaching-Inhalte dynamisch anpassen und Empfehlungen maßschneidern
Automatisierung
… Terminplanung, Nachverfolgungen und administrative Aufgaben verwalten
Inhaltsgenerierung
… bei der Entwicklung von Materialien, Übungen und Marketinginhalten unterstützen
Echtzeit-Unterstützung
… sofortiges Feedback, Entscheidungsunterstützung und Trainingssimulationen bieten
Unternehmensstrategie
… Finanzplanung, Führungskräfteentwicklung und Marktanalysen unterstützen
Emotionale Intelligenz
… Stimmungsanalysen verbessern und empathische Antworten optimieren
Kulturelle Sensitivität
… mehrsprachiges Coaching und kulturelle Anpassungen ermöglichen
Ein weiteres Potenzial sehen die Teilnehmenden in der Unterstützung bei der Inhaltsgenerierung, z. B. für personalisierte Schulungsmaterialien, Kurspläne und Marketinginhalte. Zudem wurde der Bedarf an Echtzeit-Coaching-Unterstützung betont, etwa durch automatisiertes Feedback, optimierte Entscheidungsunterstützung und simulierte Coaching-Szenarien. Diese Ergebnisse verdeutlichen, dass GenKI bereits ein integraler Bestandteil der Coaching-Workflows ist und darüber hinaus noch weiteres Potenzial für kontextspezifischere und anwendungsfreundlichere Entwicklungen besteht.

3.2 Einflussfaktoren zur Nutzung von Generativen KI-Tools

Im Hinblick auf die Frage, welche Faktoren die Nutzung von GenKI im Coaching beeinflussen, wurden insbesondere die KI-Kompetenz der Teilnehmenden sowie ihre Einstellungen gegenüber KI untersucht. Die Coaches bewerteten ihre eigene KI-Kompetenz insgesamt als hoch (M = 4,11, SD = 0,67), was darauf hindeutet, dass sie sich im Umgang mit GenKI-Tools weitgehend sicher fühlen. Dennoch zeigen individuelle Unterschiede, dass einige Teilnehmende Bedarf an zusätzlicher Schulung oder Training haben könnten. Die Korrelationsanalyse (s. Tab. 4) ergab, dass eine höhere KI-Kompetenz stark mit positiven Einstellungen gegenüber KI sowie mit einer intensiveren Nutzung, höheren Effektivitätseinschätzungen und einer stärkeren wahrgenommenen Wirkung von GenKI im Coaching zusammenhängt.
Die Teilnehmenden äußerten insgesamt eine positive Haltung gegenüber KI (M = 3,97, SD = 0,57). Die höchste Zustimmung erhielten Aussagen zu wirtschaftlichen Chancen (M = 4,44, SD = 0,70), dem gesellschaftlichen Nutzen von KI (M = 4,39, SD = 0,77) und den allgemeinen Vorteilen KI-gestützter Anwendungen (M = 4,34, SD = 0,80). Dennoch gab es auch Bedenken, insbesondere in Bezug auf potenzielle ethische Risiken. Die Möglichkeit, dass KI unethisch eingesetzt wird (M = 2,95, SD = 1,20) oder für Überwachungszwecke genutzt werden könnte (M = 3,13, SD = 1,32), wurde als potenzielles Problem genannt. Weniger ausgeprägt waren Sorgen, dass KI-Kontrolle über Menschen übernehmen könnte (M = 2,55, SD = 1,40) oder fehleranfällig sei (M = 2,79, SD = 1,36).

3.3 Ethische Überlegungen

Zur Frage, wie Coaches ethische Herausforderungen im Umgang mit GenKI berücksichtigen, zeigten die Ergebnisse eine hohe Sensibilität für ethische Fragestellungen (s. Tab. 6). Die höchste Zustimmung erhielt die Notwendigkeit, die Vertraulichkeit von Klienteninformationen zu gewährleisten (M = 4,42, SD = 0,81), die Qualität KI-generierter Inhalte zu überprüfen (M = 4,33, SD = 0,75) und Verantwortung für KI-gestützte Coaching-Ergebnisse zu übernehmen (M = 4,28, SD = 0,81). Maßnahmen zur Transparenz wurden unterschiedlich umgesetzt. Während einige Teilnehmende angaben, ihre KI-Nutzung regelmäßig offenzulegen (M = 3,67, SD = 1,21) und Klienten die Möglichkeit zu bieten, eine KI-gestützte Beratung abzulehnen (M = 3,76, SD = 1,19), war die Varianz hoch, was darauf hindeutet, dass individuelle Transparenzstrategien variieren.
Tab. 6
Ethische Überlegungen im KI-gestützten Coaching
Ethische Überlegung
M (SD)
Transparenz
KI-Nutzung gegenüber Klienten offenlegen
3,67 (1,21)
Klienten können KI-Unterstützung ablehnen
3,76 (1,19)
Datenschutz & Verantwortlichkeit
Vertraulichkeit der Klienteninformationen sicherstellen
4,42 (0,81)
Verantwortung für KI-gestützte Ergebnisse übernehmen
4,28 (0,81)
Qualität der KI-generierten Inhalte überwachen
4,33 (0,75)
Ethische Kompetenz
KI-generierte Inhalte auf Verzerrungen prüfen
3,75 (1,16)
Ethische Auswirkungen von KI-Inhalten vor Weitergabe bewerten
4,20 (0,90)
Ethische Ausrichtung
KI-Nutzung entspricht ethischen Standards
4,08 (0,85)
KI hilft bei der Einhaltung des ICF-Ethikkodex
3,86 (1,01)
Bedenken bezüglich KI
Bedenken, dass KI professionelles Urteilsvermögen beeinflusst
3,53 (1,04)
Gesamt (N = 85), Bewertungen auf einer 5‑Punkte-Likert-Skala von 1 = Stimme überhaupt nicht zu, bis 5 = Stimme voll zu
Die Fähigkeit, potenzielle Verzerrungen in KI-generierten Inhalten zu erkennen, wurde mit M = 3,75 (SD = 1,16) recht hoch bewertet, während die Reflexion über ethische Implikationen vor der Weitergabe an Klienten eine höhere Zustimmung erhielt (M = 4,20, SD = 0,90). Die Mehrheit der Teilnehmenden stimmte zu, dass die Nutzung von GenKI mit professionellen ethischen Standards vereinbar ist (M = 4,08, SD = 0,85). Die Coaches betonten die Notwendigkeit menschlicher Aufsicht, indem sie KI-generierte Inhalte vor der Weitergabe an Klienten konsequent überprüften (M = 4,20, SD = 0,90). Dies unterstreicht das Bewusstsein für professionelle Verantwortung und die Bedeutung ethischer Integrität im Coaching.
Die Korrelationen (s. Tab. 4) zeigen, dass höhere Ethik-Bewertungen positiv mit der Nutzung von GenKI, dessen wahrgenommener Effektivität und der zugewiesenen Rolle in Coaching-Aufgaben zusammenhängen. Gleichzeitig gab es keine signifikante Korrelation zwischen ethischen Bedenken und der Angst vor einer vollständigen Automatisierung menschlicher Coaches, was darauf hindeutet, dass ethische Überlegungen unabhängig von Automatisierungsängsten betrachtet werden.

4 Diskussion

Diese Studie untersuchte, wie Coaches GenKI-Tools in ihre Praxis integrieren, welche Faktoren ihre Nutzung beeinflussen und welche ethischen Aspekte berücksichtigt werden. Die Ergebnisse zeigen, dass GenKI über alle coachingtypischen Aufgaben hinweg eingesetzt werden, während seine Rolle in interpersonellen und entscheidungsrelevanten Bereichen begrenzter bleibt. Diese Erkenntnisse erweitern die Forschung zur Mensch-KI-Kollaboration (Jarrahi 2018) und betonen die Notwendigkeit eines ausgewogenen Verhältnisses zwischen Automatisierung und menschlicher Aufsicht (Shneiderman 2020).

4.1 Nutzung und Bewertung von GenKI in der Coaching-Praxis

Die Ergebnisse zeigen, dass Coaches GenKI vor allem zur Wissensbeschaffung, für die Erstellung von Inhalten und zur Automatisierung repetitiver Aufgaben nutzen. Besonders verbreitet ist die Integration in strukturierte Prozesse wie die Vorbereitung von Sitzungsmaterialien, Recherche zu Coaching-Themen und das Brainstorming von Lösungen. Diese Ergebnisse stimmen mit früherer Forschung überein, die belegt, dass GenKI besonders in strukturierten Problemlösungen und Workflows effektiv ist (Amershi et al. 2019; Montag et al. 2023).
Ein bemerkenswerter Befund ist, dass Coaches hauptsächlich generische Modelle wie ChatGPT statt spezialisierte Coaching-GenKI-Tools verwenden. Dies könnte darauf hindeuten, dass spezialisierte Lösungen noch nicht ausreichend entwickelt oder bekannt sind oder dass die Flexibilität generischer Modelle als vorteilhafter empfunden wird. Gleichzeitig zeigen die Ergebnisse, dass Coaches konkrete Erwartungen an die Weiterentwicklung von GenKI haben. Während der derzeitige Einsatz auf administrative und wissensbezogene Aufgaben beschränkt ist, wird der Bedarf an intelligenteren, interaktiveren und kontextsensitiveren Funktionen deutlich. Dies verweist auf eine zentrale Herausforderung: Obwohl generative Modelle Effizienzgewinne ermöglichen, bleiben sie in Bereichen begrenzt, die soziale, emotionale oder strategische Sensibilität erfordern. Besonders die geforderte Verbesserung von Personalisierung und emotionaler Intelligenz deutet darauf hin, dass Coaches GenKI nicht nur als Automatisierungstool betrachten, sondern als potenzielle Erweiterung professioneller Kompetenzen. Diese Ergebnisse stehen im Einklang mit Ansätzen zur Mensch-KI-Kollaboration, die betonen, dass KI datenbasierte Analysen und Mustererkennung übernimmt, während Menschen emotionale Intelligenz und Kontextverständnis einbringen (Jarrahi 2018). In der Praxis zeigt sich jedoch, dass KI emotionale Tiefe und Authentizität bislang nur begrenzt simulieren kann (Webers 2024; Mai und Rutschmann 2023). Die wachsende Bedeutung von Echtzeit-Unterstützung und Klienten-Insights verdeutlicht zudem, dass Coaches eine engere Verzahnung KI-generierter Erkenntnisse mit dem direkten Coaching-Prozess erwarten.

4.2 Herausforderungen und zukünftige Entwicklungen

Die Integration von GenKI in Coaching-Prozesse erfordert nicht nur technische Verbesserungen, sondern auch eine ethische und professionelle Einbettung in bestehende Arbeitsstrukturen. Besonders die Anforderungen an kulturelle Sensitivität und mehrsprachige Anpassungsfähigkeit zeigen, dass GenKI nicht isoliert in einer bestimmten Coaching-Tradition genutzt wird, sondern in einem globalisierten Beratungsmarkt. Dies deckt sich mit Forschungsergebnissen, die darauf hinweisen, dass Generative KI häufig an westlichen Datenbeständen trainiert wurde und kulturelle Verzerrungen aufweist (Bender et al. 2021). Eine erfolgreiche Weiterentwicklung von GenKI wird daher zunehmend davon abhängen, wie divers und kontextspezifisch diese Modelle trainiert und angepasst werden können.
Die Ergebnisse machen deutlich, dass die zukünftige Entwicklung von GenKI nicht allein eine technische Frage ist, sondern stark davon abhängt, wie KI in bestehende professionelle, ethische und zwischenmenschliche Strukturen eingebettet wird. Während Automatisierung und Effizienzsteigerung weiterhin zentrale Treiber der KI-Nutzung im Coaching sind, wird langfristig entscheidend sein, ob GenKI-Systeme in der Lage sind, Vertrauen aufzubauen, Beziehungen zu fördern und individuelle Anpassungsfähigkeit zu gewährleisten.

4.3 Faktoren, die die Bewertung und Integration von GenKI beeinflussen

Die Ergebnisse zeigen, dass insbesondere die wahrgenommene Effektivität, die eigene KI-Kompetenz und die generelle Einstellung zu KI eine zentrale Rolle spielen. Die Korrelationsanalyse bestätigt diese Zusammenhänge: Höhere Nutzung von GenKI steht in direktem Zusammenhang mit dessen wahrgenommener Effektivität und dem Einfluss, der GenKI auf Coaching-Aufgaben zugesprochen wird. Coaches setzen GenKI vorrangig dann ein, wenn es nachweislich die Effizienz steigert, und sehen Aufgaben, die mithilfe von GenKI durchgeführt wurden, als stark von der Technologie beeinflusst an – was wiederum Fragen zur Authentizität aufwirft. Eine intensivere Nutzung und ein stärker zugeschriebener Einfluss von GenKI stehen zudem in enger Verbindung mit höherer KI-Kompetenz. Dies deutet darauf hin, dass Coaches mit größerer Erfahrung und Vertrautheit mit KI tendenziell mehr Vertrauen in KI-gestütztes Coaching entwickeln. Ebenso zeigt sich eine positive Korrelation zwischen KI-Kompetenz und der wahrgenommenen Effektivität von GenKI, was frühere Forschungsergebnisse bestätigt, wonach höhere KI-Kompetenz zu einer erfolgreicheren Integration dieser Werkzeuge führt (Pinski und Benlian 2023).
Obwohl die meisten Coaches die Effizienzsteigerung und die strukturierte Entscheidungsunterstützung durch GenKI positiv bewerten, bestehen gleichzeitig Bedenken hinsichtlich einer vollständigen Automatisierung. Während viele Coaches eine zunehmende Nutzung von GenKI in ihrer eigenen Praxis erwarten, bleibt die Skepsis gegenüber einer vollständigen Ersetzung menschlicher Coaches bestehen. Interessanterweise zeigt sich, dass Bedenken über den Ersatz menschlicher Coaches durch KI nicht direkt mit der aktuellen Nutzung oder Bewertung von GenKI zusammenhängen. Allerdings äußern jene Coaches, die GenKI als besonders wirkungsvoll erleben, auch häufiger Zukunftsängste hinsichtlich der Automatisierung. Dies deutet darauf hin, dass Personen, die bereits jetzt eine signifikante Veränderung durch GenKI wahrnehmen, sich stärker von zukünftigen Entwicklungen bedroht fühlen. Ein ähnliches Muster ist auch in anderen Berufsfeldern zu beobachten, in denen KI eingeführt wurde. Während die Effizienzsteigerung und Automatisierung begrüßt werden, bleibt die Sorge bestehen, dass KI den Wert menschlicher Expertise mindern könnte – eine Befürchtung, die z. B. bereits im medizinischen Bereich erforscht wurde (Rony et al. 2024).

4.4 Ethische Überlegungen zur Nutzung von GenKI

Die Ergebnisse zeigen, dass Datenschutz und ethische Kontrolle KI-generierter Inhalte zentrale Anliegen der Coaches sind. Während die Transparenz der KI-Nutzung unterschiedlich gehandhabt wird, messen Coaches der ethischen Reflexion im Umgang mit KI-Inhalten große Bedeutung bei. Die Verpflichtung zur Qualitätskontrolle und zur Sicherstellung der Klientenverantwortung verdeutlicht, dass GenKI nicht als autonome Entscheidungsinstanz betrachtet wird, sondern dass Coaches ihre Ergebnisse aktiv bewerten und steuern.
Besonders bemerkenswert ist, dass viele Coaches eine hohe ethische Verantwortung in der Nutzung von GenKI betonen, gleichzeitig jedoch kommerzielle, nicht spezialisierte Sprachmodelle wie ChatGPT nutzen, die höchstwahrscheinlich nicht den spezifischen Datenschutz- und Ethikstandards im Coaching entsprechen. Dies deutet auf eine Lücke zwischen der wahrgenommenen ethischen Verantwortung und der tatsächlichen Umsetzung von Datenschutzmaßnahmen in der Praxis hin.

4.5 Implikationen für die Praxis und zukünftige Forschung

Die Ergebnisse dieser Studie legen nahe, dass GenKI als unterstützendes Werkzeug und nicht als Ersatz für menschliches Coaching positioniert werden sollte. Aufgrund seiner Stärken in Wissensbeschaffung, Automatisierung und strukturierter Inhaltserstellung bietet GenKI erhebliches Potenzial zur Effizienzsteigerung, während menschliche Coaches weiterhin für die komplexen, interpersonellen und ethisch sensiblen Aspekte des Coachings verantwortlich bleiben sollten.
Zukünftige Forschung steht vor der Herausforderung, die langfristigen Auswirkungen von GenKI auf Coaching-Prozesse zu erfassen, insbesondere im Hinblick auf ethische Standards und die Wahrnehmung der Klienten. Ein weiterer zentraler Forschungsbedarf liegt in der Untersuchung der Auswirkungen des intensiven GenKI-Einsatzes auf Coaching-Kompetenzen. Eine wesentliche Einschränkung dieser Studie betrifft die Stichprobenverzerrung durch die Rekrutierung über das bereits vorhandene Nutzungskriterium. Die Ergebnisse könnten weniger repräsentativ für Coaches mit geringerer KI-Erfahrung oder skeptischer Haltung sein und sind nicht übertragbar auf Coaches ohne KI-Erfahrungen. Zudem bestand die Stichprobe überwiegend aus englischsprachigen Coaches mit Sitz in den USA und Großbritannien, wodurch kulturelle und branchenspezifische Unterschiede im Coaching-Kontext sowie Unterschiede in der ethischen Wahrnehmung zum Datenschutz von kommerziellen Tools nur bedingt berücksichtigt werden konnten. Zukünftige Studien sollten daher eine breitere und diversere Stichprobe einbeziehen, um ein vollständigeres Bild der GenKI-Integration im Coaching zu erhalten. Zusätzlich ist ein weiterer zentraler Forschungsaspekt die Perspektive der Klienten auf KI-gestütztes Coaching. Während diese Studie sich auf Coaches konzentrierte, wird ein umfassendes Verständnis der Klientenerfahrungen entscheidend sein, um die zukünftige Integration von GenKI im Coaching sinnvoll zu gestalten.
Open Access Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Lizenz veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Die in diesem Artikel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen. Weitere Details zur Lizenz entnehmen Sie bitte der Lizenzinformation auf http://creativecommons.org/licenses/by/4.0/deed.de.

Hinweis des Verlags

Der Verlag bleibt in Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutsadressen neutral.

Dr. Jennifer Haase

ist Wissenschaftlerin am Weizenbaum-Institut und der Humboldt-Universität zu Berlin. Sie erforscht die Schnittstellen von Kreativität, KI und Automatisierung. Sie hat einen Masterabschluss in Psychologie und promovierte in Wirtschaftsinformatik an der Universität Potsdam. Zudem ist sie als Business-Coach tätig und engagiert sich in öffentlichen Debatten zur Rolle der KI in kreativen und wissensintensiven Prozessen.
Title
Erweiterung des Coachings durch Generative KI: Einblicke in Nutzung, Effektivität und Zukunftspotenziale
Author
Dr. Jennifer Haase
Publication date
15-07-2025
Publisher
Springer Fachmedien Wiesbaden
Published in
Organisationsberatung, Supervision, Coaching
Print ISSN: 1618-808X
Electronic ISSN: 1862-2577
DOI
https://doi.org/10.1007/s11613-025-00946-x
go back to reference Amershi, S., et al. (2019). Guidelines for Human-AI Interaction. In Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems (S. 1–13). Glasgow: ACM. https://doi.org/10.1145/3290605.3300233.CrossRef
go back to reference Bender, E. M., et al. (2021). On the dangers of stochastic parrots: can language models be too big? In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (S. 610–623). New York: Association for Computing Machinery. https://doi.org/10.1145/3442188.3445922.CrossRef
go back to reference Davison, R. M., et al. (2023). Pickled eggs: generative AI as research assistant or co-author? Information Systems Journal, 33(5), 989–994. https://doi.org/10.1111/isj.12455.CrossRef
go back to reference Diller, S. J., et al. (2024). The coach bots are coming: exploring global coaches’ attitudes and responses to the threat of AI coaching. Human Resource Development International, 27(4), 597–621. https://doi.org/10.1080/13678868.2024.2375934.CrossRef
go back to reference Doshi, A. R., & Hauser, O. P. (2024). Generative AI enhances individual creativity but reduces the collective diversity of novel content. Science Advances, 10(28), eadn5290. https://doi.org/10.1126/sciadv.adn5290.CrossRefPubMedPubMedCentral
go back to reference Dwivedi, Y. K., et al. (2021). Artificial intelligence (AI): multidisciplinary perspectives on emerging challenges, opportunities, and agenda for research, practice and policy. International Journal of Information Management, 57, 101994. https://doi.org/10.1016/j.ijinfomgt.2019.08.002.CrossRef
go back to reference Graßmann, C., & Schermuly, C. C. (2021). Coaching with artificial intelligence: concepts and capabilities. Human Resource Development Review, 20(1), 106–126. https://doi.org/10.1177/1534484320982891.CrossRef
go back to reference Greif, S., et al. (2022). Coaching definitions and concepts. In S. Greif, H. Möller, W. Scholl, J. Passmore & F. Müller (Hrsg.), International Handbook of evidence-based coaching (S. 1–12). Cham: Springer.CrossRef
go back to reference Haase, J., & Hanel, P. H. P. (2023). Artificial muses: generative artificial intelligence chatbots have risen to human-level creativity. Journal of Creativity, 33(3), 1–7. https://doi.org/10.1016/j.yjoc.2023.100066.CrossRef
go back to reference Haber, Y., et al. (2024). The artificial third: a broad view of the effects of introducing generative artificial intelligence on psychotherapy. JMIR Mental Health, 11(1), e54781.PubMedCrossRef
go back to reference Huang, K., & Xing, C. (2023). ChatGPT: inside and impact on business automation. In K. Huang, et al. (Hrsg.), Beyond AI: ChatGPT, Web3, and the Business Landscape of Tomorrow (S. 37–65). Cham: Springer Nature Switzerland.CrossRef
go back to reference Jarrahi, M. H. (2018). Artificial intelligence and the future of work: human-AI symbiosis in organizational decision making. Business Horizons, 61(4), 577–586. https://doi.org/10.1016/j.bushor.2018.03.007.CrossRef
go back to reference Kocoń, J., et al. (2023). ChatGPT: Jack of all trades, master of none. Information Fusion, 99, 101861. https://doi.org/10.1016/j.inffus.2023.101861.CrossRef
go back to reference Kotte, S., & Webers, T. (2024). Digitale Transformation in Organisationen. Organisationsberatung, Supervision, Coaching, 31(3), 317–322. https://doi.org/10.1007/s11613-024-00897-9.CrossRef
go back to reference Lee, J., et al. (2024). Influence of rapport and social presence with an AI psychotherapy chatbot on users’ self-disclosure. International Journal of Human–Computer Interaction, 40(7), 1620–1631. https://doi.org/10.1080/10447318.2022.2146227.CrossRef
go back to reference Li, Y., et al. (2023). Chatdoctor: a medical chat model fine-tuned on a large language model meta-AI (LlaMA) using medical domain knowledge. Cureus. https://doi.org/10.7759/cureus.40895.CrossRefPubMedPubMedCentral
go back to reference Limpanopparat, S., et al. (2024). User engagement, attitudes, and the effectiveness of chatbots as a mental health intervention: a systematic review. Computers in Human Behavior: Artificial Humans, 2(2), 100081. https://doi.org/10.1016/j.chbah.2024.100081.CrossRef
go back to reference Liu, J., et al. (2023). Is your code generated by ChatGPT really correct? Rigorous evaluation of large language models for code generation. Advances in Neural Information Processing Systems, 36, 21558–21572.
go back to reference Mai, V., & Rutschmann, R. (2023). Chatbots im Coaching. Potenziale und Einsatzmöglichkeiten von digitalen Coaching-Begleitern und Assistenten. Organisationsberatung, Supervision, Coaching, 30(1), 45–57. https://doi.org/10.1007/s11613-022-00801-3.CrossRef
go back to reference Maiden, N., et al. (2023). Designing new digital tools to augment human creative thinking at work: an application in elite sports coaching. Expert Systems, 40(3), e13194. https://doi.org/10.1111/exsy.13194.CrossRef
go back to reference Mayring, P. (2015). Qualitative Inhaltsanalyse: Grundlagen und Techniken (12. Aufl.). Weinheim, Basel: Beltz.
go back to reference Montag, C., et al. (2023). The propensity to trust in (automated) technology mediates the links between technology self-efficacy and fear and acceptance of artificial intelligence. Computers in Human Behavior Reports, 11, 100315. https://doi.org/10.1016/j.chbr.2023.100315.CrossRef
go back to reference Pinski, M., & Benlian, A. (2023). AI literacy—towards measuring human competency in artificial intelligence. 56th Hawaii International Conference on System Sciences (HICSS), Lahaina. https://doi.org/10.24251/HICSS.2023.021.CrossRef
go back to reference Raiaan, M. A. K., et al. (2024). A review on large language models: architectures, applications, taxonomies, open issues and challenges. IEEE Access, 12, 26839–26874. https://doi.org/10.1109/ACCESS.2024.3365742.CrossRef
go back to reference Rony, M. K. K., et al. (2024). “I wonder if my years of training and expertise will be devalued by machines”: concerns about the replacement of medical professionals by artificial intelligence. SAGE Open Nursing, 10, 23779608241245220. https://doi.org/10.1177/23779608241245220.CrossRefPubMedPubMedCentral
go back to reference Schepman, A., & Rodway, P. (2020). Initial validation of the general attitudes towards artificial intelligence scale. Computers in Human Behavior Reports, 1, 100014. https://doi.org/10.1016/j.chbr.2020.100014.CrossRefPubMedPubMedCentral
go back to reference Sheehan, P. (2022). The paradox of self-help expertise: how unemployed workers become professional career coaches. American Journal of Sociology, 127(4), 1151–1182. https://doi.org/10.1086/718471.CrossRef
go back to reference Shneiderman, B. (2020). Bridging the gap between ethics and practice: guidelines for reliable, safe, and trustworthy human-centered AI systems. ACM Transactions on Interactive Intelligent Systems, 10(4), 1–31. https://doi.org/10.1145/3419764.CrossRef
go back to reference Terblanche, N., et al. (2024). The influence of an artificial intelligence chatbot coach assistant on the human coach-client working alliance. Coaching: An International Journal of Theory, Research and Practice, 17(2), 189–206. https://doi.org/10.1080/17521882.2024.2304792.CrossRef
go back to reference Webers, T. (2024). Nicht alles, was technisch machbar erscheint, ist eignungsdiagnostisch sinnvoll. Organisationsberatung, Supervision, Coaching, 31(3), 461–463. https://doi.org/10.1007/s11613-024-00893-z.CrossRef
go back to reference Weizenbaum, J. (1966). ELIZA—a computer program for the study of natural language communication between man and machine. Communications of The ACM, 9(1), 36–45. https://doi.org/10.1145/357980.357991.CrossRef
go back to reference Wu, R., & Yu, Z. (2024). Do AI chatbots improve students learning outcomes? Evidence from a meta-analysis. British Journal of Educational Technology, 55(1), 10–33. https://doi.org/10.1111/bjet.13334.CrossRef
go back to reference Zachos, K., et al. (2022). A multi-technique tool for supporting creative thinking by sports coaches. In Creativity and cognition (S. 601–607). New York: Association for Computing Machinery. https://doi.org/10.1145/3527927.3535199.CrossRef
    Image Credits
    Schmalkalden/© Schmalkalden, NTT Data/© NTT Data, Verlagsgruppe Beltz/© Verlagsgruppe Beltz, EGYM Wellpass GmbH/© EGYM Wellpass GmbH, rku.it GmbH/© rku.it GmbH, zfm/© zfm, ibo Software GmbH/© ibo Software GmbH, Sovero/© Sovero, Axians Infoma GmbH/© Axians Infoma GmbH, OEDIV KG/© OEDIV KG, Rundstedt & Partner GmbH/© Rundstedt & Partner GmbH