Die Informationen bei Bilanzpressekonferenzen sind ein wichtiger Pfeiler für die Stakeholder, um Konzernentwicklungen einzuschätzen. Eine Studie belegt nun, dass KI-basierte Stimmenanalysen von Managern zu präziseren Prognosen führen.
Künstliche Intelligenz und Machine Learning machen Geheimniskrämern das Leben schwer. Die Technologien bieten neue Ansätze, um nonverbale Kommunikationssignale zu analysieren.
IvelinRadkov / Getty Images
Für Analysten und Investoren gehören Bilanzpressekonferenzen von Unternehmen zur Routine. Hier werden die Ergebnisse und Entwicklungen des vergangenen Geschäftsjahres verkündet und ein Ausblick auf die Firmenzukunft gegeben. Allerdings bleiben bei den offiziellen Statements von Unternehmen unliebsame Themen bisweilen außen vor. Deshalb haken Finanzexperten und Anleger bei solchen Terminen gern genauer nach. Die Prognosen der Analysten zur finanziellen Entwicklung basieren sodann auf den schriftlichen und persönlich mitgeteilten Fakten, eigenem Wissen sowie ihrer Fähigkeit, zwischen den Zeilen zu lesen.
Stimme gibt Emotionen preis
Letzteres bezieht sich aber keineswegs nur auf das gedruckte Wort. "Gewiefte Analysten suchen den persönlichen Kontakt zu Managern, um Stimmungen aus dem Gespräch herauszuhören", erklärt Doron Reichmann von der wirtschaftswissenschaftlichen Fakultät der Ruhr-Universität Bochum und Leiter der interdisziplinären FAACT-Forschungsgruppe (FAACT = Finance, Accounting, Auditing, Controlling, Taxation). Zwar ist wissenschaftlich nicht eindeutig geklärt, wie Menschen aus Stimmen Emotionen herauslesen, doch hier kann heutzutage Technologie helfen. So bietet sich laut FAACT-Teammitglied Charlotte Knickrehm vom Lehrstuhl für Industrial Sales and Service Engineering etwa Maschinelles Lernen besonders dann an, "wenn wir für bestimmte Vorgänge keine klaren Regeln definieren können".
8.000 Audiodateien analysiert
Auf Basis dieser Erkenntnis hat das Team aus Wirtschafts- und Ingenieurwissenschaftlern um Doron Reichmann und Charlotte Knickrehm die Studie "Listen Closely: Using Vocal Cues to Predict Future Earnings" durchgeführt. Sie nutzten das Verfahren des Maschinellen Lernens, um aus Äußerungen von Managern herauszulesen, ob deren Firmen im folgenden Jahr Gewinn oder Verlust machen würden. Hierfür wurden über 8.000 Audiodateien von Bilanzpressekonferenzen analysiert, bei denen Manager mit Investoren und Analysten die finanzielle Unternehmensentwicklung diskutieren.
Die Studienmethodik "Maschinelles Lernen": Die Audiodateien wurden in Spektrogramme umgewandelt, die die akustischen Informationen visualisieren. Diese Spektrogramme dienten als Input in ein Neuronales Netz, das in der Lage ist, Muster in Bildern zu erkennen. Die Forschenden trainierten es mit Daten aus den Jahren 2015 bis 2020, indem sie ihm sowohl die Spektrogramme als auch die Information zur Verfügung stellten, ob das jeweils dazugehörige Unternehmen im Jahr, das der Aufnahme folgte, Gewinn oder Verlust gemacht hatte. |
Das Ergebnis: Weil auch die Stimme Informationen preisgibt, konnte die Künstliche Intelligenz (KI) um sechs bis neun Prozent besser vorhersagen, ob ein Unternehmen im Folgejahr Gewinn oder Verlust machen würde, als herkömmliche Modelle, die allein auf den veröffentlichten Zahlen beruhten.
Topkombination aus KI und Analysteneinschätzung
Die Prognosequalität lässt sich jedoch noch steigern, wie die Studie zeigt. So kombinierten die Forschenden ihre Prognose mit den Gewinn- oder Verlustvorhersagen der Analysten und erzielten eine um 40 Prozent bessere Schätzung als die der Analysten allein.
Darüber hinaus testeten die Forschenden ihre Analysemethode auch dahingehend, ob sich damit mehr Geld am Aktienmarkt verdienen ließe – und wurden wiederum bestätigt: Sie simulierten einen Aktienkauf bei guter Prognose durch ihre Modelle. "In den betrachteten Jahren hätten wir den Kapitalmarkt um etwa neun Prozentpunkte geschlagen", sagt Doron Reichmann.
Finanzkommunikation mit Fallstricken
Während sich vor allem Anleger und Investoren über präzisere Prognosen freuen dürften, sollten Konzerne ihr Augenmerk auch auf die neuen Analysemethoden lenken. Ohnehin bergen persönliche Gespräche in der Kapitalmarktkommunikation gewisse Risiken für Unternehmen, wie Katja Langenbucher et al. in dem Buchkapitel "Rechtliche Grundlagen der Investor Relations und Finanzkommunikation" auf Seite 103 feststellen: "Auch die freiwillige Informationsweitergabe zum Zwecke strategischer Beziehungspflege am Kapitalmarkt ist rechtlich insbesondere dort problematisch, wo nicht offen an das gesamte, breite Anlegerpublikum, sondern lediglich selektiv kommuniziert wird." Die Nutzung von Künstlicher Intelligenz zur Auswertung der Kapitalmarktkommunikation bedeutet für Unternehmen nun womöglich weitere Herausforderungen.
Viele Formate für Live-Kommunikation im Finanzbereich
Schließlich spielt die Live-Kommunikation in der Investor-Relations- und Finanzkommunikation eine wichtige Rolle. Springer-Autorin Kristin Köhler nennt als typische Formate der direkten Interaktion mit Aktionären, Investoren, Analysten, Finanzjournalisten und weiteren kapitalmarktbezogenen Akteuren beispielsweise die Hauptversammlung, Management-Calls, Roadshows, Investorenkonferenzen und Capital Markets Days.
Zweifellos versprechen sich Investoren und Analysten von diesem direkten Austausch einen gewissen Informationsvorsprung. "Nicht zuletzt geht es den Zielgruppen auch um einen persönlichen Eindruck von der Unternehmensleitung – über das Gesprochene hinaus: Die Bedeutung von Körpersprache oder Ausstrahlung sollte nicht unterschätzt werden", betont Köhler. (Seite 350)
Unbewusste nonverbale Signale
Springer-Autor Marc Helmold ist sogar der Meinung, dass Motorik, Gestik, Mimik, Wortwahl, Stimmlage und Körpersprache für die Entschlüsselung der wahren Motive und Interessen letztendlich meist wichtiger sind als das Gesagte. In dem Buchkapitel "Nonverbale Signale in Verhandlungen" erläutert er unter anderem, welche sprachbegleitenden Elemente in der Kommunikationsforschung klassischerweise analysiert werden:
Parasprache: an Sprachlaute gebundene Mittel | Prosodie: lautliche Eigenschaften einer Sprache, die nicht an den Laut bzw. an das Phonem gebunden sind |
|
|
Die Kunst des Deutens
Bezugnehmend auf die Kommunikationstheorie von Paul Watzlawik unterscheidet Helmold wie folgt: Die Parasprache gibt Aufschluss über den Beziehungsaspekt der Gesprächspartner. Bei der Prosodie geht es hingegen um die stimmliche Ausformung der Sprache. Hierdurch werden emotionale Aspekte wie Sanftheit oder Härte, Nervosität, Unsicherheit, Angriffslust oder Zugewandtheit transportiert.
Eine Künstliche Intelligenz erhält aus Audiomitschnitten somit reichlich Futter, um daraus – zusammen mit den publizierten Unternehmensdaten – Finanzprognosen abzuleiten. Da die Technologie längst auch Videoanalysen ermöglicht, liegt es nahe, Mimik, Gestik und Körpersprache ebenfalls in KI-basierte Prognosen einzubeziehen, wenn entsprechende Aufzeichnungen vorliegen.