Skip to main content
main-content

Über dieses Buch

Dieses Buch beschäftigt sich damit, wie künstliche Intelligenz die Zusammenarbeit von Menschen und Maschinen verändern wird, wie diese Veränderungen gestaltet werden können und welche Auswirkungen auf Wirtschaft und Gesellschaft zu erwarten sind. Die Arbeitswelt 4.0 unterliegt durch aktuelle Entwicklungen der Digitalisierung wie Big Data, Systemanalysen und Robotik einem enormen Wandel, der sich auf unterschiedlichen Ebenen in Wirtschaft und Gesellschaft niederschlägt.
Die hier gesammelten Forschungsergebnisse und Handlungsimplikationen orientieren sich dabei an den Themenfeldern des vom BMBF initiierten Wissenschaftsjahrs „Künstliche Intelligenz“ und erweitern diese um Überlegungen zu Konsumenten und Vertrieb. Die Publikation richtet sich an Akteure aus Wissenschaft und Praxis und soll auch Dozierende auf diese zentralen gesellschaftlichen Fragestellungen aufmerksam machen.

Inhaltsverzeichnis

Frontmatter

Grundlagen und Gesellschaft

Frontmatter

Kapitel 1. Moralische Maschinen – Zur ethischen Ununterscheidbarkeit von Mensch und Maschine

Je intelligenter und autonomer Maschinen werden, desto dringlicher stellt sich die Frage, ob Maschinen auch moralisch handeln und ob sie selbst Träger moralischer Rechte und Pflichten sein können. Mit dem technologischen Fortschritt und neuer Möglichkeiten von Deep Learning, Body Hacking, Neuromorphic Computing und Enhancement verschwimmen die Grenzen zwischen Mensch und Maschine immer mehr. Deshalb wird die Beantwortung der Frage, ob es prinzipielle Gründe gibt, die es ausschließen, dass Maschinen moralische Verantwortung für ihr Tun und Lassen haben, immer dringlicher. In diesem Beitrag werden verschiedene Vorschläge analysiert. Wir kommen zu dem Schluss, dass es möglich ist, dass hinreichend komplexe künstliche Systeme in naher oder ferner Zukunft Personen mit moralischen Rechten, Pflichten und moralischer Verantwortung sein können.

Ulf Dettmann, Jörg Kopecz

Kapitel 2. Natural Language Processing in der KI

Eine Erfassung der aktuellen Patente- und Literatursituation

In Bildern und Filmen zur künstlichen Intelligenz (KI) werden in den Medien häufig künstliche Gehirne und menschenähnliche Wesen aus Metall visualisiert. Auch die Bezeichnung „Machine Learning“ oder maschinelles Lernen vermittelt den Eindruck, dass sich KI fast ausschließlich mit der Entwicklung von Robotern beschäftigt. Tatsächlich leistet die Verarbeitung natürlicher Sprache einen enormen Beitrag zu den aktuellen Erfolgen der KI-Forschung und in der Wirtschaft. Während Patente ein Merkmal für den wirtschaftlichen Erfolg darstellen können, kommuniziert die Wissenschaft in Form von Fachartikeln und Konferenzbeiträgen. Beide Facetten werden in diesem Beitrag untersucht. Zunächst wird der Ursprung der Bewertung von Sprache und Texten im Mittelalter vorgestellt. Daraus leitet sich eine integrierte Definition ab. Dass das „Natural Language Processing“ (NLP) eine entscheidende Rolle in der Entwicklung des aktuellen KI-Hypes spielt, wird anhand von „Big Data“ und der Analyse von unstrukturierten Informationen erklärt. Der Einfluss von NLP auf ethische Grundsätze und ein Ausblick runden diesen Beitrag ab.

Rüdiger Buchkremer

Kapitel 3. KI in der Telekommunikation mit 5G

Die künstliche Intelligenz (KI) hat in jüngster Zeit eine Reife in Anwendungsbereichen wie Deep Learning oder Image Understanding erreicht. In diesem Beitrag werden die Anwendungsbereiche untersucht, die derzeit im Fokus der Forschung und Entwicklung in der Telekommunikation für 5G stehen. Zunächst wird ein Überblick über die KI und ihre wichtigsten Ansätze und Techniken gegeben. Die Analyse wird durch die aktuelle Diskussion des weltweiten KI-Rennens und den geplanten europäischen Aktivitäten bis 2023 ergänzt. Anschließend werden die wichtigsten Anwendungsbereiche der KI für die Telekommunikation und 5G detailliert dargestellt, darunter exemplarische Anwendungen wie das chinesische Hukou-System und das Deep Learning von Google zur Bias-Erkennung. Die F&E-Aktivitäten von Unternehmen wie Google und Huawei sind von grundlegender Bedeutung für die Entwicklung einer angewandten KI in der Telekommunikation. Daher werden die KI-Strategien von Huawei und Google beschrieben und diskutiert. Der Ausblick enthält eine kurze Beschreibung der KI-bezogenen drahtlosen Kommunikationsgeneration 6G.

Roman Englert

Kapitel 4. Die Nutzung von KI in Unternehmen aus Sicht der Selbstbestimmungstheorie

Verschiedene Studien beschäftigen sich mit der Akzeptanz und Nutzung von künstlicher Intelligenz (KI). Typischerweise kommt das Technik-Akzeptanz-Modell (TAM) zum Einsatz oder es werden verschiedene Persönlichkeitseigenschaften analysiert, die mit der Risikowahrnehmung in Beziehung stehen. Die Frage, wie Begeisterung in Form von selbstbestimmter Motivation für eine verantwortungsbewusste Anwendung von KI ausgelöst werden kann, wird dabei nicht beantwortet. Ziel des praxisorientierten Beitrags ist es daher, ein Modell zur Anwendung von KI auf Basis der Selbstbestimmungstheorie vorzustellen, das fundamentale Erkenntnisse zur Entstehung von intrinsischer Motivation berücksichtigt. Zentral ist hierfür die Erfüllung der drei psychologischen Grundbedürfnisse Autonomie, Kompetenz und Zugehörigkeit.

Matthias Hudecek, Steven Mc Auley

Kapitel 5. Juristische Aspekte der KI

Die elektronische Person als juristische Konsequenz der Entwicklung intelligenter Maschinen, oder: Wann ist eine Maschine so intelligent, dass sie Einkommensteuer zahlen muss?

Die vorhersehbare Entwicklung der künstlichen Intelligenz (KI) wird bei immer stärkerer Perfektionierung zu einem zunehmenden Einsatz der KI auch bei komplexen Prozessen führen. Die zunehmende Autonomie KI-basierter Systeme wirft die Frage nach einer Eigen- oder Fremdverantwortlichkeit perfektionierter KI-Systeme auf. Auf juristische Fragestellungen angewandt stellt sich die Frage von rechtlichen Lücken bei Handlungen KI-basierter Maschinen, insbesondere bei Haftung und Zurechnung von Erträgen aus Leistungen. Damit stellt sich die Frage, ob das Spektrum der bisher rechtlich geregelten Rechtspersönlichkeiten – natürliche und juristische Personen – der Erweiterung bedarf. Ausgehend von dem diesbezüglichen Vorschlag des Europäischen Parlaments für eine „elektronische Person“ und einer kritischen Betrachtung dieser neuen Rechtspersönlichkeit werden Umfang und Grenzen eines solchen Konstruktes untersucht und die sich daraus ergebenden Folgefragen erörtert.

Hans-Jörg Fischer

Kapitel 6. Die Matrix – KI in der Generalisierbarkeitstheorie

Die Generalisierbarkeitstheorie (G-Theorie) ist ein Algorithmus zur Generierung allgemeiner und präziser wissenschaftlicher Theorien. In ihren G-Studien analysiert sie faktorielle Designs gekreuzter und genesteter Daten auf multiplen Ebenen und ermittelt die maximale Zahl von Effekten als zufällige Varianzkomponenten. Einerseits kann damit geforscht werden, z. B. zur Führung in Unternehmen (360-Grad-Feedback; Management-Derailment). Andererseits optimiert sie in ihren D-Studien psychometrische Prognosen. Die Präzision ihrer Generalisierungen (Generalisierungskoeffizienten) ist in Erweiterung der Spearman-Brown-Prophecy-Formula der klassischen Testtheorie eine Funktion der Zahl jeder Anzahl der Bedingungen (Stufen) je Facette. Die freie Software R ermöglicht alle notwendigen Berechnungen. Zum Nachvollziehen für den Praktiker zeigt der Beitrag die R-Syntax zur Analyse von Brennans (2001) synthetischen Datenmatrizen, namentlich mit dem R-Paket gstudy.

Wolfgang H. Waldmann

Kapitel 7. Informationsextraktion und kartografische Visualisierung von Haushaltsplänen mit AutoML-Methoden

Eine Vielzahl der aktuell digital verfügbaren Haushaltspläne ist in unstrukturierten Formaten eingebettet und daher nicht unmittelbar durch Rechner interpretierbar. Aus diesem Grund gewinnen Methoden der Informationsextraktion zunehmend an Bedeutung. Unser Ansatz kombiniert optische Zeichenerkennung mit „Natural Language Processing“ basierend auf maschinellen Lernmethoden zur Identifizierung von gesuchten Inhalten. Mithilfe einer regelbasierten Python-Applikation werden Informationen extrahiert und anschließend auf „Google Maps“ visualisiert. Zunächst beschreiben wir die Vorgehensweise zur Erstellung des Datenkorpus. Ein trainiertes „Machine-Learning Natural-Language-Modell“ (AutoML = Automated Machine Learning) wird eingesetzt. Eine Python-Anwendung verbindet alle für die Prozessierung relevanten Schritte. Unsere Methode bietet eine Effizienzsteigerung bei der Extraktion und Analyse von Haushaltsplänen.

Daniel Braka, Rüdiger Buchkremer, Stefan Ebener

Kapitel 8. Wege zu Entscheidungen der Nutzung von KI auf Basis eines gesellschaftlichen Lernprozesses

Die Gesellschaft muss Antworten auf viele Fragen zur KI-Nutzung finden. Dieses Kapitel möchte die Mechanismen und das Umfeld beleuchten, in der eine Gesellschaft Einigung über Fragen zur KI-Nutzung finden kann. Für die Öffentlichkeit und die Politik überraschend hat sich in den letzten 20 bis 30 Jahren ein mächtiges Lösungs- und Anwendungsportfolio zusammen mit großen Technologiekonzernen gebildet, bevor die Veränderungen von der Gesellschaft vollständig adaptiert werden konnten. Heute scheint das öffentliche Interesse und Wissen über KI weit hinter der gesellschaftlichen Relevanz und dem technischen Fortschritt hinterherzuhinken. In einer Demokratie ist eine fundierte öffentliche Diskussion Voraussetzung, damit wichtige Fragen zum KI-Einsatz beantwortet werden können. Zur Befeuerung und Befähigung dieser öffentlichen Diskussion sind eine stärkere Sensibilisierung der persönlichen Betroffenheit, beispielsweise durch eine stärkere Präsenz in den allgemeinbildenden Medien, und eine hohe politische Aufmerksamkeit notwendig.

Markus H. Dahm, Ute Twisselmann

Mobilität und Arbeit

Frontmatter

Kapitel 9. KI zur Unterstützung neuer Arbeitswelten in Produktion, Handel und Logistik

Chancen und Herausforderungen einer digitalen Arbeitsgestaltung für Industrie-4.0-Konzepte

Kernelement zum Umgang mit neuen Arbeitswelten ist die Selbstwirksamkeitserwartung der Arbeitskräfte. Insbesondere bei Transport- und Kommissioniertätigkeiten in Produktion, Logistik und Handel kommen zunehmend individualisierte digitale Anwendungen zum Einsatz, die Elemente künstlicher Intelligenz beinhalten. Dazu stellt der Beitrag aus dem Projekt DIAMANT beispielhaft Unternehmensanforderungen in digitalen Veränderungsprozessen vor und entwirft ein E-Coaching-Konzept zur Unterstützung für Mitarbeitende und Führungskräfte. Dies basiert auf Elementen des maschinellen Lernens und der computergestützten Sprachverarbeitung. Ziel des Beitrages ist es, ein E-Coaching-Konzept für digitale Arbeitskontexte vorzustellen und im Hinblick auf Chancen und Herausforderungen einer digitalen Arbeitsgestaltung für Industrie-4.0-Konzepte zu diskutieren. Dazu werden Elemente spezifischer Bots beschrieben, die Mitarbeitende automatisiert zu Fragen des Umgangs mit digitalen Technologien zu unterstützen vermögen.

Matthias Klumpp, Marc Hesenius, Caroline Ruiner, Vera Hagemann

Kapitel 10. Vertrauen in KI – Eine empirische Analyse innerhalb des Produktionsmanagements

Ob Industrie 4.0, Big Data, Predictive Analytics oder Robotik – die digitale Transformation hat viele Facetten. Sie führt aber nicht nur zu einem Paradigmenwechsel in der industriellen Produktion. Auch komplexe kognitive Tätigkeiten sind durch die fortschreitende Entwicklung der künstlichen Intelligenz (KI) einem Wandel unterzogen. Smarte Assistenten halten Einzug in die Arbeitswelt und erfordern eine Kooperation von KI und Mensch. KI agiert anders als bisherige Systeme – autonom statt automatisch – und somit bisweilen für den Menschen unerwartet, überraschend und nicht immer nachvollziehbar. In dieser Konstellation ist Vertrauen ein essenzieller Faktor, der über das Funktionieren der Mensch-KI-Kooperation entscheidet. Im Rahmen des vorliegenden Beitrages sollen daher mit einer empirischen Analyse innerhalb des Produktionsmanagements die Einflussfaktoren auf das Vertrauen sowie deren Wirkmechanismen identifiziert werden.

Till Moritz Saßmannshausen, Thomas Heupel

Kapitel 11. KI-Widerstände auf der Mitarbeiterebene in produktive Dynamik überführen

Wie die Akzeptanz von Veränderungsprozessen auf der Mitarbeiterebene systematisch erarbeitet werden kann

Künstliche Intelligenz (KI) wird zu den disruptiven Technologien gerechnet, die im Zuge einer digitalen Transformation zu radikalen Umbrüchen von Geschäftsprozessen, Berufsfeldern und Geschäftsmodellen führen können. KI wird aber auch zu den wichtigsten Bausteinen zur Sicherung der Wettbewerbsfähigkeit in der deutschen und internationalen Wirtschaft gerechnet. Die Durchdringung in der betrieblichen Praxis liegt jedoch noch hinter den Erwartungen zurück. Zwar gibt es Studien, die das Anwendungspotenzial beschreiben helfen, dennoch ist KI für viele Entscheider und Mitarbeitende noch nicht greifbar genug. Dies führt zu Akzeptanzproblemen. Aus Anwendersicht sind daher Maßnahmen zu ergreifen, damit es in Change-Prozessen zu einem „Erleben“ dieser Veränderung kommt und nicht zu einem „Ertragen“.

Michael Schaffner

Kapitel 12. Intelligent Robotic Process Automation

Konzeption eines Ordnungsrahmens zur Nutzung künstlicher Intelligenz für die Prozessautomatisierung

Robotic Process Automation (RPA) ist eines der neuen Anwendungsfelder von verschiedenen Informationstechnologien im Bereich des Prozessmanagements. RPA verspricht signifikante Verbesserungen bei Durchlaufzeiten und Prozessqualität bei der Automatisierung von Prozessen. Als nächste Evolutionsstufe nach einer regelbasierten Automatisierung zeichnet sich für die künstliche Intelligenz (KI) ein klarer Anwendungsfall ab. An dieser Stelle ist zu untersuchen, welche Rolle genau KI bei RPA spielen kann und wie sich eine Implementierung von RPA mit KI sinnvoll umsetzen lässt. Dabei ist zu fragen, an welcher Stelle und in welchem Reifegrad bereits Implementierungen vorhanden sind und wo noch Handlungsoptionen bestehen. Hierfür wird RPA zunächst und nachfolgend KI strukturiert und so ein Ordnungsrahmen für Anwendungsfälle der KI für RPA geschaffen.

Oliver Koch, Stephan Wildner

Kapitel 13. Entscheiden bei Unsicherheit

KI-System als Nudge beim Wissenstransfer

Ziel des Artikels ist eine konzeptuelle Bestimmung der Begriffe Wissenstransfer und Wissenstranslation im Zusammenhang ihrer wachsenden Bedeutung in einer zunehmend digitalisierten Wirtschaft. Hierbei werden verschiedene Ansätze bei der Anwendung von KI hervorgehoben sowie Möglichkeiten und Grenzen des Einsatzes aufgezeigt. Oftmals werden KI-Systeme genutzt, um uns zu Entscheidungen zu bringen, welche wir sonst nicht getätigt hätten. KI-Nudging bedarf der evidenzbasierten Fundierung, der Transparenz, der ethischen Bewertung und des sozialen Konsenses. Es wird vorgeschlagen, bisherige Wissensmodelle (z. B. Knowledge to Action Model, Innovationsdiffusionstheorie) durch den Nudging-Ansatz zu ergänzen. Abschließend werden ein selbstentwickeltes Modell des Wissenstransfers und Vor- und Nachteile im Wissenstransfer diskutiert. Anhand des weiterentwickelten Modells können Empfehlungen für die Entwicklung und Anwendungen von KI-Systemen im Bereich Wissensmanagement vorgeschlagen werden, um den Prozess des Wissenstransfers zu optimieren und den Herausforderungen der Digitalisierung und Globalisierung gerecht zu werden.

Winand Dittrich, Tamara Schulz

Kapitel 14. Vom smarten Berater zur smarten Maschine

Künstliche Intelligenz in der Finanzbranche

Die Zukunft der Finanzbranche ist digital. Der Wandel lässt sich nicht auf eine Erweiterung bestehender Strukturen reduzieren, sondern die Branche wird sich in ihren Grundfesten verändern. Waren die bisherigen Innovationen bereits mit erheblichen Umwälzungen verbunden, so stellen Digitalisierung und künstliche Intelligenz das klassische Bankensystem insgesamt infrage. Aus Regulierungsdruck, Niedrigzinspolitik, FinTechs und der Veränderung der Lebensgewohnheiten der Menschen entsteht ein Kostendruck, der auf den Instituten lastet. FinTechs übernehmen Elemente des klassischen Bankengeschäfts. Der Zahlungsverkehr findet bereits neben Banken statt und die Möglichkeiten, sich Wagniskapital abseits klassischer Bankkredite zu beschaffen, werden größer. Das Anlagegeschäft rückt in den Fokus der jungen digitalen Unternehmen. Diese Entwicklung wird eine Beschleunigung erfahren, wenn sich die künstliche Intelligenz als Technologie durchsetzt. Für die Institute ist es dann eine Existenzfrage, sich organisatorisch anzupassen.

Sven Lauterjung

Kapitel 15. Die Anwendung von Machine Learning zur Gewinnung von Erkenntnissen aus Dokumentenstapeln

„Document Understanding“ ist das tiefe Verständnis eines Textes. Im Kern geht es um die Konvertierung von unstrukturierten Daten in Informationen und für Unternehmen gleichermaßen um die die Einhaltung von Governance- und Compliance-Richtlinien. Zum Einsatz kommt zumeist eine Sammlung von verschiedenen Methoden, zu denen unter anderem die Document Classification oder auch die Entity Extraction gehören. Viele Ansätze beruhen auf regelbasierten Systemen respektive auf statistischen Verfahren.Der Einsatz von Machine Learning zur massenhaften Erschließung unstrukturierter Dokumente eröffnet neue Wege, um unter anderem Beziehungen zwischen Dokumenten sichtbar zu machen. ML ermöglicht Vorhersagen zur Dokumentenklassifizierung oder etwa die Extraktion von Wissen aus Textpassagen, Grafiken oder Feldern jenseits einfacher Mustererkennung. ML stellt Möglichkeiten einer semantischen Suche über Dokumente hinweg zur Verfügung und legt den Grundstein für erweiterte Analysen beispielsweise der Anomalieerkennung.

Stefan Ebener

Umwelt und Nachhaltigkeit

Frontmatter

Kapitel 16. KI in der Logistik – Multiagentenbasierte Planung und Steuerung in der Transportlogistik

Steigende Komplexität und Dynamik in der Logistik bei der wachsenden Anforderung an die Effizienz der Prozesse stimuliert die Suche nach intelligenten, digitalen und nachhaltigen Lösungen. Um die Anforderungen der Transportlogistik zu bewältigen, wurde ein Selbststeuerungssystem auf Grundlage von Methoden der verteilten künstlichen Intelligenz entwickelt, das in der Lage ist, die Routenplanung und Fahrzeugbelegung in Echtzeit dezentral zu planen. Die dezentralen Ressourcen und die verteilte Auftragsstruktur von Ganz- und Teilladungen werden mittels autonom agierender Agenten abgebildet. In diesem Beitrag wird zunächst auf die Eigenschaften von Agenten und Multiagentensystemen eingegangen und es werden Interaktionsformen und Mechanismen erläutert. Es erfolgt eine Zuordnung in das Forschungsfeld der verteilten künstlichen Intelligenz. Die Vorteile der Methodenanwendung in der Logistik werden diskutiert. Anschließend wird ein Multiagentensystem als Beispielanwendung dieser Technik vorgestellt.

Anna Kolmykova

Kapitel 17. Smart Mobility – Beitrag der KI zur Nachhaltigkeit

Die Beförderung von Personen belastet die natürlichen Lebensgrundlagen, wobei das Potenzial besteht, Mobilität durch intelligente Verkehrssysteme nachhaltiger zu gestalten. Es stellt sich die Frage, inwieweit künstliche Intelligenz (KI) zur Nachhaltigkeit von Mobilität beitragen kann. Unternehmen können ihre Mobilitätsangebote auf digitalen Plattformen aggregiert bereitstellen und durch Servitization (Carsharing, Ride-Pooling) Verkehrsmittelkapazitäten effizienter einsetzen. Diese On-Demand-Mobility führt zu einer Entmaterialisierung von Mobilität, da sich Konsumenten kein Fahrzeug kaufen müssen und bestehende Kapazitäten unter den Verkehrsteilnehmern geteilt werden können. Mit KI kann eine Optimierung von Routen gelingen, damit sich die Mobilität der Menschen reduziert. Mit KI lassen sich jedoch nicht alle Probleme lösen: Konsumenten müssen gemäß der Suffizienz im Rahmen der ökologischen Nachhaltigkeit vereinzelt auf Fahrten und Reisen verzichten, um die Biokapazität zu schonen.

Orhan Kocagöz

Gesundheit und Medizin

Frontmatter

Kapitel 18. Nutzerakzeptanz und Potenziale von KI im Gesundheitswesen

Dieser Beitrag analysiert, wie im Gesundheitswesen eingesetzte Assistenzsysteme, die mit künstlicher Intelligenz (KI) arbeiten, von potenziellen Patientinnen und Patienten aufgenommen und akzeptiert werden. Es werden drei konkrete Szenarien mithilfe eines angepassten Technologieakzeptanzmodells getestet, welches verschiedene Aspekte in Betracht zieht. Insgesamt zeigt die Erhebung, dass der Einsatz von KI als ein bedeutsames Thema erkannt wird und in einer assistierenden Rolle akzeptiert wird. Jedoch besteht bei Patientinnen und Patienten die Befürchtung, dass Gesundheitsdaten falsch genutzt werden. Darüber hinaus wird weiterhin eine persönliche Behandlung von Ärzten gewünscht. Auf der Forschung aufbauend werden Handlungsempfehlungen darüber gegeben, wie eine höhere Akzeptanz eines KI-Systems erreicht werden kann. Im Kern dieser Handlungsempfehlungen stehen Maßnahmen des Veränderungsmanagements wie Aufklärung, sowie eine transparente und schrittweise Einführung.

Markus H. Dahm, Simon Bergmoser, Tharseehan Yogendiran

Kapitel 19. Maschinelles Lernen und Smartwatches zur Unterstützung eines selbstbestimmten Lebens älterer Personen

Wunsch der Politik, aber auch der meisten Betroffenen selbst, ist, dass älteren Personen ein gesundes Leben im eigenen Haushalt möglich ist. Problematisch ist aber, dass sowohl die Anzahl der älteren Personen in den kommenden Jahren überproportional zunimmt als auch altersbedingt Einschränkungen durch Krankheiten und Pflegebedürftigkeit bestehen. Der Autor hat mit Kollegen verschiedene Anwendungen im Bereich AAL (Ambient Assisted Living) entwickelt, die unter Verwendung von Smart-Home-, Sensor- und Smartwatch-Technologien und dem Einsatz von KI und Machine-Learning-Technologien, etwa zur Erkennung gesundheitsgefährdender Situationen (z. B. Dehydrierungserkennung), das Leben zu Hause unterstützen und damit sowohl die betroffenen Personen als auch deren Angehörige und Pflegepersonal unterstützen. Der Beitrag gibt einen Überblick über die dahinterliegenden Machine-Learning-Techniken und zeigt anhand der Sturz- und Trinkerkennung praktische Anwendungsmöglichkeiten dieser Technologien im Pflegebereich auf.

Klemens Waldhör

Kapitel 20. Analyse von Krankenhausbewertungen – Die Messung der Patientenzufriedenheit mit Methoden der KI

„Qualität soll zum Maßstab für die Vergütung medizinischer Behandlungen werden“, sehen Gesetzesvorlagen aus dem Jahr 2015 vor. In diesem Kontext wird festgestellt, dass die seit 2003 etablierten „Qualitätsreports“ noch unzureichende Grundlagen für eine adäquate Qualitätsmessung liefern. Daher wird in diesem Beitrag ein Konzept dargestellt, welches Sekundärdaten in Form von Analysen von Forenbeiträgen aus Patientenforen mit „Natural Language Processing“ untersucht, um die damit in Zusammenhang stehende Zufriedenheit (Sentiment Mining) zu erfassen. Die dazu gehörende Verfahrensweise der Texterfassung, -aufbereitung und -analyse wird in diesem Beitrag ebenfalls erläutert.

Andreas Jürgens, Rüdiger Buchkremer

Kapitel 21. KI in Gesundheit und Medizin

In diesem Beitrag wird auf Basis von Studien und aktuellen Fachpublikationen eine Übersicht über den Einsatz von künstlicher Intelligenz in der Medizin gegeben. Zunächst wir eine quantitative thematische Einordnung von Fachpublikationen vorgenommen. Nachfolgend werden Einordnungen der KI in der Systemmedizin, der Dermatologie, der Kardiologie, der Onkologie und der Medikamentenentwicklung vorgestellt. Im Anschluss wird über das Verhältnis Mensch vs. Maschine, exponentielle Technologien, KI, ML, Blockchain, VR, Geschäftsmodelle/Plattformökonomien, Krankenhaus und Versorgungsstrukturen, Faktor Mensch, neue Dreiecksbeziehung: Patient-Arzt-Maschine, Open Data, Open AI berichtet.

Rüdiger Buchkremer, Bart de Witte, David Matusiewicz

Kapitel 22. Die Anwendung von Natural Language Processing zur kompakten Erfassung einer Krankheit

Ermittlung der markanten Autorinnen und Autoren, der wichtigsten Fachzeitschriften, sowie der therapeutischen Möglichkeiten am Beispiel der „Colitis Ulcerosa“

Um die traditionelle und berühmte „Stecknadel im Heuhaufen“ zu den Behandlungsmöglichkeiten bei einer Krankheit zu erfassen, ist es erforderlich, im ersten Schritt einen Überblick über das existierende Fachwissen zu ermitteln. Ein sogenanntes „Korpus“ kann mittels der öffentlich verfügbaren Datenbank „PubMed“ unter Verwendung von „Natural Language Processing“ (NLP) erzeugt werden. Die weitere Systemanalyse und -visualisierung liefert ein Mengengerüst, eine Übersicht über die markantesten Forscherinnen und Forscher, die relevantesten Fachzeitschriften sowie die wichtigsten und möglicherweise präzisesten Behandlungsmöglichkeiten. Mit diesem Fachartikel wird demonstriert, wie auf eine relativ einfache Art und Weise die erste Literaturgrundlage zur Untersuchung von Behandlungsmöglichkeiten der Krankheit „Colitis Ulcerosa“ erstellt werden kann.

Olga Boichak, Rüdiger Buchkremer

Bildung und Kultur

Frontmatter

Kapitel 23. Entwicklung einer Plattform zur Anwendung von Methoden der KI zur Unterstützung von Textanalysen auf Basis von Python und TensorFlow

Zur Analyse von Texten mit „Natural Language Processing“ oder „Machine Learning“ stehen viele kommerzielle Softwareprodukte zur Verfügung. In diesem Beitrag wird vorgestellt, wie ein System auf Basis von Open Source Tools realisiert werden kann. Damit das System möglichst universell einsetzbar ist, wird auf die Programmierparadigma datenstrom- sowie parallelorientiert besonderer Wert gelegt. Die Fokussierung der ganzheitlichen Betrachtung beginnt bei dem funktionalen Systementwurf, konkretisiert über den technischen Systementwurf und finalisiert durch die Komponentenspezifikation. Mittels des Best-Practice-Ansatzes wird hierbei geprüft, ob erforderliche Komponenten bereits verfügbar sind oder individuelle Lösungen programmiert werden müssen. Es kommen dabei Komponenten von führenden Institutionen im Bereich „künstliche Intelligenz“ zum Einsatz. Die Besonderheit liegt darin, dass die verschiedenen Komponenten ineinandergreifen und auch ohne Programmierkenntnisse verwendet werden können.

Michel Sebastian Erhardt, Manuel Di Stefano, Florian Bosten, Rüdiger Buchkremer

Kapitel 24. Die Weiterentwicklung von Curricula an wirtschaftswissenschaftlichen Hochschulen mittels KI – Das Erkennen von Managementtrends

Themen des Managements und damit verbunden der wirtschaftswissenschaftlichen Hochschulbildung unterliegen Trends und Entwicklungen. Bislang wurden solche Veränderungen nur mit zeitlicher Verzögerung erkannt. Mit Methoden der künstlichen Intelligenz können diese Trends und Entwicklungen zeitnah aufgespürt werden. Dabei bilden Abschlussarbeiten an Hochschulen eine geeignete Analysebasis für die kontinuierliche Erfassung thematischer Veränderungen. Auf dieser Datenbasis können neu aufkommende Themen oder auch inzwischen obsolete Problemstellungen identifiziert werden. Dieser Ansatz kann wiederum als Grundlage für die Ermittlung von Prognosen dienen, welche die Entwicklung bestimmter Managementkonzepte vorhersagen. Im Rahmen dieses Beitrages wird dieser neue Forschungsansatz auf die Entwicklung von Curricula an wirtschaftswissenschaftlichen Hochschulen übertragen.

Nina Golowko, Holger Stein, Matthias Gehrke

Konsumentenforschung und Sales-Management

Frontmatter

Kapitel 25. Rollenwechsel von Unternehmen im kybernetischen Kapitalismus

Potenziale der KI im Taylorismus 4.0

Was bedeuten Effekte des digitalen Kapitalismus wie die Algorithmisierung von Entscheidungsstrukturen und der Einsatz von künstlicher Intelligenz für Rollen, Chancen und Risiken von Unternehmen? Zunächst schließen wir die ethische Perspektive als Antwortoption für diese Frage aus. Stattdessen wird die Übermacht einer technokratisch vereinseitigten Debatte durch digitale Eliten bzw. das Fehlen sozialwissenschaftlicher Expertise als Ursache für einen normativen blinden Fleck der Debatte identifiziert. Zudem fußt der aktuelle Technologieschub auf einem US-amerikanischen Mindset. Situationsbewertungen und Anforderungsprofile an Unternehmen fallen daher in der Alten und Neuen Welt erheblich auseinander. Der Beitrag zeigt unternehmerische Handlungsoptionen auf, die sich an den neuen Bedingungen orientieren und Risiken minimieren bzw. Chancen ausschöpfen können.

Friederike Müller-Friemauth, Rainer Kühn

Kapitel 26. Einflussfaktoren auf die Nutzungsabsicht von KI im privaten Umfeld

Trotz der allgegenwärtigen medialen Präsenz künstlicher Intelligenz (KI) ist wenig darüber bekannt, was die individuelle Nutzungsabsicht von Produkten, die KI nutzen oder enthalten, beeinflusst. Der Zweck dieser Studie ist es, Faktoren zu untersuchen, die die Absicht einer Person bestimmen, Produkte mit KI im Alltag in den Anwendungsbereichen Haushalt, Gesundheit und Mobilität zu nutzen. Wir untersuchen die Faktoren Sicherheitsbedenken, Gesundheit, Praktikabilität, Nachhaltigkeit, Nützlichkeit, Aufwandsreduzierung, Gruppenzwang, Spaß, Innovationsfreude und Preiswertigkeit und beziehen einen Interaktionseffekt bezüglich der KI-Kenntnis in die Analyse mit ein. Die Ergebnisse der multiplen Regressionsanalysen bei 21.841 Auskunftspersonen zeigen einen starken positiven Einfluss insbesondere von Nützlichkeit und Innovationsfreude auf die Nutzungsabsicht. Aufwandsreduzierung, Gruppenzwang und Spaß haben einen mittleren positiven Einfluss auf die Nutzungsabsicht.

Oliver Gansser, Christina Reich

Kapitel 27. Akzeptanz von Sprachassistenten zur Steuerung von Smart Home Services

Sprachassistenten sind bereits im Alltag eingezogen und helfen, diesen zu managen. So lassen sich Smart Home Services zunehmend über diese neue Mensch-Maschine-Schnittstelle verbal ansteuern, wodurch sich das Management der Services potenziell vereinfachen lässt. Dabei stellt sich die Frage, welche Faktoren die (zukünftige) Nutzung von Sprachassistenten zur Steuerung von Smart Home Services begünstigen oder verhindern. Auf Basis des Value-based Adoption Models (VAM) wurden zunächst Hypothesen abgeleitet und in ein komplexes Untersuchungsmodell überführt. Zur Überprüfung konnte ein Datensatz von mehr als 800 Personen, mit unterschiedlichen Erfahrungen in Bezug auf die bisherige Nutzung von Sprachassistenten, mittels einer Online-Befragung generiert werden. Die Analyse erfolgte mit PLS-SEM. Die Ergebnisse verweisen auf die besondere Bedeutung der Einflussfaktoren Nützlichkeit, Spaß und technische Zuverlässigkeit, während Sicherheitsbedenken keine Rolle spielen.

Bianca Krol, Silvia Boßow-Thies

Kapitel 28. Sales Forecasting – Ein Vergleich von ökonometrischen Methoden und Machine Learning

Die richtige Schätzung von Absatzmengen ist nach wie vor eine hohe Kunst, wie diese ausgearbeitete Fallstudie auf realen Daten eines internationalen Modekonzerns zeigt. Klassische ökonometrische Methoden treten dabei in Konkurrenz zum Machine Learning. Eine klare Rangordnung beider Modellfamilien in der Vorhersagegüte ergibt sich nicht. Das Bild ist überraschend gemischt. Neuere Verfahren werden dominiert von älteren. Ein interdisziplinärer Ansatz im Sinne der Data Science erscheint zielführend.

Frank Lehrbass

Kapitel 29. Vergleichende Analyse der Word-Embedding-Verfahren Word2Vec und GloVe am Beispiel von Kundenbewertungen eines Online-Versandhändlers

Um eine zielgerichtete Aussage zu Inhalten in Texten zu liefern, werden Bedeutungen von Wörtern als Vektoren dargestellt. Zur Vektorisierung, welche auch als „Word-Embedding-Verfahren“ bezeichnet werden, sind bereits existierende Verfahren zu überprüfen, denn die Wahl des Lernalgorithmus hat einen großen Einfluss auf die Genauigkeit des Gesamtanalyseergebnisses bei einer bestimmten Kategorie von Texten. Es wird beschrieben, wie die beiden populären Verfahren „Word2Vec“ und „GloVe“ für die Analyse von Online-Bewertungen konzipiert, implementiert und angewendet werden können. Eine quantitative Evaluation der Ergebnisse erfolgt auf Basis von Rezessionen des Versandhändlers Amazon.com. In einer abschließenden Diskussion sollen die Testergebnisse validiert und die Grenzen aufgezeigt werden.

Nils Horn, Michel Sebastian Erhardt, Manuel Di Stefano, Florian Bosten, Rüdiger Buchkremer

Kapitel 30. Analyse der Nützlichkeit von Amazon-Produktbewertungen mittels Text Mining

Produktrezensionen haben inzwischen einen höheren Stellenwert bekommen als andere Marketingwerkzeuge wie Fragen- und Antwortseiten oder Herstellerforen. In diesem Beitrag wird gezeigt, wie stilistische und semantische Texteigenschaften die vom Leser empfundene Nützlichkeit und sein Abstimmungsverhalten im Hinblick auf dieses Empfinden beeinflussen. Zusätzlich dazu werden in einem separaten Schritt Meta-Informationen, in Form der von Amazon verliehenen Badges, untersucht. Dafür sind nahezu zwei Millionen Amazon-Kundenbewertungen erhoben worden. Dabei kann gezeigt werden, dass sowohl stilistische als auch semantische Eigenschaften und Meta-Informationen zum einen die empfundene Nützlichkeit als auch das Abstimmungsverhalten beeinflussen. Die Untersuchung von unterschiedlichen Produktkategorien zeigt, dass die Beobachtungen grundsätzlicher Natur und nicht auf eine einzelne Sparte oder ein einzelnes Produkt begrenzt sind. Die Ergebnisse zeigen auf, welche Kriterien ein Autor einer Bewertung berücksichtigen muss, um mit seiner Rezension an Reichweite zu gelangen.

Florian Bosten, Manuel Di Stefano, Maren Hartmann, Sebastian Sauer, Rüdiger Buchkremer

Kapitel 31. Analyse von Nützlichkeits- und Sterne-Online-Bewertungen mittels Machine Learning am Beispiel von Amazon

Die Bedeutung von Online-Bewertungen wird wesentlich durch den Verbreitungsmechanismus geprägt, welcher auch Word-of-Mouth genannt wird. Infolge der großen Menge an Rezensionen steigt der kognitive Aufwand, um nützliche Informationen zu identifizieren. Im ersten Teil dieser Publikation werden Eigenschaften einer Rezension, charakterisierende Gesichtspunkte und beschreibende Wortarten analysiert. Als Bewertungskriterien werden die Nützlichkeit, die Sternewertung und der Produkttyp herangezogen. Im zweiten Teil werden neuronale Netzwerke trainiert, um Effekte von psychologischen Aspekten zu untersuchen. Im dritten Teil wird dargestellt, welche Dimensionen des neuronalen Netzwerkes von besonderer Bedeutung für die Analyse sind. Abschließend werden Implikationen für die Praxis beleuchtet, bei der die Bedeutung für die Wirtschaft und der Nutzen für die Verbraucher verdeutlicht wird. Zusätzlich werden, daraus abgeleitet, weitere potenzielle Anwendungszwecke für neuronale Netzwerke aufgezeigt.

Manuel Di Stefano, Florian Bosten, Michel Sebastian Erhardt, Sebastian Sauer, Rüdiger Buchkremer
Weitere Informationen

Premium Partner

    Bildnachweise