Zum Inhalt

Risikoanalyse Künstliche Intelligenz

  • 2026
  • Buch

Über dieses Buch

Das Buch illustriert die facettenreiche Komplexität der KI-Risiken. Denn Anwendungen Künstlicher Intelligenzen reichern zunehmend unzählige Lebensbereiche an, was zu mannigfaltigen und immer neuen Ausformungen dieser Technologie führt – und damit einhergehend zu vielschichtigen Risikoaspekten und Risikolagen. Deshalb stammen die Autoren dieses Buches aus unterschiedlichsten fachlichen Sphären und beleuchten das Thema aus ihrer jeweils ganz eigenen Sachexpertise. Behandelt wird die KI in einzelnen Sektoren, namentlich im justiziellen, sicherheitsbehördlichen, medizinischen sowie psychologisch-therapeutischen Bereich. Die KI-Technologie selbst wird anhand ihrer Halluzinationen sowie der synthetischen Kommunikation zwischen Künstlichen Intelligenzen thematisiert. Dargestellte Möglichkeiten der KI-Risikomitigation umfassen die außerstaatliche Regelsetzung ebenso wie das Konzept eines Computerprogramms, das Verhaltensweisen von Künstlichen Intelligenzen überwachen soll. Das Verhältnis des Menschen zur KI ist Thema von Untersuchungen zu autonomen Künstlichen Intelligenzen und menschlichem Entscheidungshandeln. Risiken der KI-Regulierung wiederum liegen einer Untersuchung des Spannungsverhältnisses von AI-Act und der geostrategischen Wettbewerbsfähigkeit Europas zugrunde. Der Begriff der Cyberresilienz wird im Lichte der Künstlichen Intelligenz ergänzt um einen proaktiven und präventiven Begriff der Cybervigilanz. In ethischer Hinsicht wird das strukturelle Verhältnis von Bias, Diskriminierung und Fairness analysiert, eine umfassende weltanschaulich-religiöse Risikoperspektive entwickelt sowie die Prägung unserer moralisch-normativen Einstellungen durch synthetische KI-Realitäten untersucht. Durch all dies entsteht ein aufgefächerter Blick auf mannigfaltige Problemlagen, was bei der Leserschaft ein umfassendes und ganzheitliches Begreifen ermöglicht.

Inhaltsverzeichnis

  1. Frontmatter

  2. Theorie und Ethik

    1. Frontmatter

    2. 1. Die normative Kraft des synthetischen Faktischen

      Maximilian Wanderwitz
      In diesem Kapitel wird die normative Kraft des Faktischen, wie sie von Georg Jellinek beschrieben wurde, mit der synthetischen Faktizität durch KI-generierte Inhalte und Technologien verbunden. Es wird untersucht, wie diese synthetische Faktizität normative Kraft entfalten kann und welche Risiken daraus entstehen können. Der Text beginnt mit einer Erklärung der normativen Kraft des Faktischen im Sinne Jellineks, gefolgt von einer Darstellung der normativen Kraft des synthetischen Faktischen. Es werden verschiedene synthetische Technologien wie humanoide Roboter, Deepfakes, Augmented Reality und Virtual Reality sowie synthetische Daten und ihre Erzeugung durch statistische und Simulationsansätze vorgestellt. Anschließend wird die normative Kraftentfaltung synthetischer Faktizität anhand von Persuasive Technology, Automation Bias und KI-Psychose erläutert. Abschließend werden die Risiken der Entkopplung des Synthetischen vom Realen und mögliche Gegenmaßnahmen wie Kopplungsgebote diskutiert. Der Text bietet eine umfassende Analyse der normativen Kraft des synthetischen Faktischen und der damit verbundenen Herausforderungen und Risiken.
    3. 2. Die Dualität des KI-Risikoeffekts Verzerrung – zum strukturellen Verhältnis von Bias, Diskriminierung und Fairness im Lichte der Künstlichen Intelligenz

      Maximilian Wanderwitz, Francesca Hepp
      Der Fachbeitrag untersucht die Dualität des KI-Risikoeffekts Verzerrung und analysiert das strukturelle Verhältnis von Bias, Diskriminierung und Fairness im Kontext Künstlicher Intelligenz. Es werden die verschiedenen Biasvarianten und deren Ursachen detailliert dargestellt, darunter Aggregation Bias, Algorithmic Bias, Evaluation Bias, Historical Bias, Measurement Bias und Representation Bias. Der Beitrag beleuchtet auch die unterschiedlichen Diskriminierungsvarianten und deren Ursachen, einschließlich direkter und indirekter Diskriminierung sowie systemischer und statistischer Diskriminierung. Ein weiterer Schwerpunkt liegt auf den verschiedenen Fairnesskategorien und -varianten, wie Group Fairness, Individual Fairness, Separation Metrics, Treatment Equality und Counterfactual Fairness. Abschließend wird die Struktur der Dualität des KI-Risikoeffekts Verzerrung skizziert und die Bedeutung der Fairness für die Mitigation moralisch verwerflicher Diskriminierung hervorgehoben. Der Beitrag bietet eine umfassende Analyse der komplexen Zusammenhänge und liefert wertvolle Einblicke in die ethischen und praktischen Herausforderungen der KI-Entwicklung und -Nutzung.
    4. 3. Von Resilienz zu Vigilanz. Über die Verantwortung von Maschinen

      Christian Hummert
      In diesem Kapitel wird die Verantwortung von Maschinen im Kontext von Künstlicher Intelligenz (KI) diskutiert. Es wird zwischen Resilienz und Vigilanz unterschieden, wobei Resilienz die Fähigkeit eines Systems beschreibt, sich trotz Störungen selbst aufrechtzuerhalten, während Vigilanz die Wachsamkeit und Sorgfalt umfasst. Der Text beleuchtet die Bedeutung dieser Begriffe für den Umgang mit KI, insbesondere in Bereichen wie Medizin, Cybersicherheit und Gesichtserkennung. Ein zentrales Thema ist die Delegation von Aufgaben an KI-Systeme und die damit verbundenen ethischen und gesellschaftlichen Herausforderungen. Der Autor diskutiert auch die Rolle von KI in kriegerischen Auseinandersetzungen und die Notwendigkeit einer regulierten Nutzung. Abschließend wird die Frage aufgeworfen, wie die Menschheit die Verantwortung für KI-Systeme tragen kann und welche Technologien wie Gehirn-Computer-Schnittstellen dabei helfen könnten, die Vigilanz zu stärken. Der Text bietet eine umfassende Analyse der aktuellen Entwicklungen und Herausforderungen im Bereich der Künstlichen Intelligenz und regt dazu an, über die zukünftige Rolle von Maschinen in unserer Gesellschaft nachzudenken.
    5. 4. Künstliche Intelligenz – Eine ethische Risikoperspektive

      Dieter Budde
      Der Fachbeitrag untersucht die ethischen Risiken und Herausforderungen der Künstlichen Intelligenz (KI) und deren Auswirkungen auf Gesellschaft und Individuum. Es werden die grundlegenden ethischen Prinzipien wie Autonomie, Freiheit, Menschenwürde und Menschenrechte analysiert. Der Text beleuchtet verschiedene philosophische Theorien und glaubensfundierte Ethiken, die als Grundlage für die Bewertung von KI dienen können. Zudem werden die Risiken und möglichen Auswirkungen von KI auf das Individuum und die Gesellschaft detailliert dargestellt. Abschließend werden Lösungsansätze und ethische Rahmenbedingungen für die Entwicklung und Anwendung von KI diskutiert. Der Beitrag bietet eine umfassende und detaillierte Analyse der ethischen Implikationen von KI, die sowohl philosophische Theorien als auch glaubensfundierte Ethiken berücksichtigt. Er bietet eine breite Perspektive auf die Auswirkungen von KI auf Individuum und Gesellschaft und diskutiert Lösungsansätze und ethische Rahmenbedingungen für die Entwicklung und Anwendung von KI.
    6. 5. Das Spannungsverhältnis von EU AI Act und geostrategischer Wettbewerbsfähigkeit Europas

      Diane Robers, Bernard B. Bråten
      Der Fachbeitrag beleuchtet das Spannungsverhältnis zwischen dem EU AI Act und der geostrategischen Wettbewerbsfähigkeit Europas. Künstliche Intelligenz (KI) wird als Schlüsseltechnologie betrachtet, die Wirtschaft, Politik und Gesellschaft transformiert. Der EU AI Act zielt darauf ab, Risiken zu minimieren und Innovationen zu fördern, steht jedoch vor Herausforderungen wie Bürokratie und globalem Wettbewerb. Europa muss seine digitale Souveränität stärken, um im globalen Wettbewerb mit den USA und China mitzuhalten. Der Beitrag analysiert die regulatorischen Ansätze der drei Wirtschaftsblöcke und zeigt auf, wie Europa durch gezielte Maßnahmen seine Position im KI-Sektor verbessern kann. Besonders betont wird die Notwendigkeit einer risikobasierten Regulierung, die Innovation fördert, ohne Sicherheitsstandards zu opfern. Zudem werden die wirtschaftlichen und geopolitischen Implikationen der KI-Regulierung diskutiert, einschließlich der Auswirkungen auf die Wettbewerbsfähigkeit und die digitale Souveränität Europas. Der Beitrag schließt mit einem Ausblick auf notwendige Maßnahmen, um Europas Position im globalen KI-Wettbewerb zu stärken.
  3. KI-Technologien

    1. Frontmatter

    2. 6. Wesen und Risiken synthetischer KI-Interaktionen

      Matthias Memmesheimer Mainz, Maximilian Wanderwitz
      In diesem Kapitel wird das Wesen und die Risiken synthetischer KI-Interaktionen untersucht. Synthetische Daten, die von KI-Systemen generiert werden, können selbst wieder Gegenstand von KI-Verarbeitung sein, was mit verschiedenen Risiken verbunden ist. Der Text analysiert unterschiedliche Konstellationen, bei denen synthetische Daten von KI-Systemen verwendet werden, einschließlich der Verwendung als Trainingsdaten, einfacher und komplexer Verarbeitungsketten sowie selbstlernender Systeme. Ein zentraler Fokus liegt auf der Untersuchung von Fehlerhaftigkeiten in algorithmischen und synthetischen Verarbeitungsketten. Es wird gezeigt, wie sich Fehler in solchen Ketten fortsetzen und welche Auswirkungen sie haben können. Zudem werden die Besonderheiten synthetischer Verarbeitungsketten, wie die Möglichkeit von Datenverzerrungen und die Schwierigkeit exakter Ergebnisprognosen, detailliert erläutert. Der Text diskutiert auch die Rolle menschlicher Feedback-Mechanismen und autonom lernender KI-Systeme zur Risikominderung. Abschließend werden die Vor- und Nachteile synthetischer Daten sowie die Notwendigkeit technischer und organisatorischer Kontrollmechanismen hervorgehoben. Das Kapitel bietet einen umfassenden Überblick über die Herausforderungen und Lösungsansätze im Umgang mit synthetischen KI-Interaktionen und zeigt auf, wie diese Technologien sicher und effektiv eingesetzt werden können.
    3. 7. Wenn KI träumt – Halluzinationen als Risikoaspekt Künstlicher Intelligenzen

      Klaus Meffert
      In diesem Kapitel wird das Phänomen der Halluzinationen in Künstlicher Intelligenz (KI) untersucht. Es wird erklärt, wie KI-Systeme durch die Verarbeitung von semantischen Vektoren falsche Antworten erzeugen können, obwohl sie auf korrektem Faktenwissen basieren. Die Entstehung von Halluzinationen wird detailliert beschrieben, wobei die Rolle von künstlichen neuronalen Netzen und der Transformer-Ansatz hervorgehoben werden. Der Text analysiert verschiedene Arten von Halluzinationen, wie faktische, konzeptuelle, Quellen- und logische Halluzinationen, und zeigt auf, wie diese zu falschen Entscheidungen führen können. Zudem werden die Risiken von Halluzinationen in verschiedenen Anwendungsbereichen, wie Bildverarbeitung, Videoanalyse und Agentensystemen, diskutiert. Abschließend wird eine Risikobewertung vorgenommen, die die potenziellen negativen Auswirkungen von KI-Halluzinationen aufzeigt. Das Kapitel bietet einen umfassenden Überblick über die Funktionsweise von KI-Modellen und die Herausforderungen, die mit Halluzinationen verbunden sind.
  4. Autonomie und Entscheidungen

    1. Frontmatter

    2. 8. Die Bedeutung von Unsicherheitsmodellierung für KI-Entscheidungsprozesse von autonomen Systemen

      Christoph Steup
      In diesem Fachbeitrag wird die Bedeutung der Unsicherheitsmodellierung für autonome Systeme untersucht, insbesondere im Kontext von KI-Entscheidungsprozessen. Es wird die Notwendigkeit einer unsicherheitsbewussten Datenpipeline betont, um die Zuverlässigkeit und Sicherheit in dynamischen Umgebungen zu gewährleisten. Der Text diskutiert die Herausforderungen der Funktionalen Sicherheit und die Notwendigkeit von standardisierten Regularien für autonome Systeme. Es werden verschiedene Ansätze zur Unsicherheitsmodellierung vorgestellt, darunter die Bayesianische Fusion und PyramidEnsembles, die dazu beitragen, die Robustheit und Genauigkeit von KI-Modellen zu verbessern. Zudem wird die Bedeutung von hochwertigen und vielfältigen Trainingsdaten für die Weiterentwicklung autonomer Systeme hervorgehoben. Der Beitrag schließt mit der Feststellung, dass die Standardisierung und Normierung von Trainingsdaten sowie eine Verpflichtung zu Open Data entscheidend für die zukünftige Entwicklung autonomer Systeme sind.
    3. 9. Wenn die KI mitentscheidet – ein praxisnahes Bewertungskonzept für datenbasierte Smart City Technologien als Grundlage für besseres Verständnis und transparente Kommunikation

      Julia Mayer, Martin Memmel
      Das Kapitel widmet sich der Analyse kommunaler Entscheidungstypologien und datenbasierter Decision Support Systems (DSS) im Kontext der Smart City. Es wird ein Bewertungsschema entwickelt, das sowohl Potenziale als auch Risiken dieser Systeme berücksichtigt. Vier konkrete Projekte aus der DACH-Region werden anhand dieses Schemas untersucht und beschrieben. Das Kapitel betont die Bedeutung von Transparenz, ethischen Überlegungen und rechtlichen Rahmenbedingungen bei der Implementierung und Nutzung von DSS. Es wird gezeigt, wie diese Systeme die Qualität und Transparenz von Entscheidungsprozessen fördern können, und welche Herausforderungen dabei zu beachten sind. Abschließend wird die Notwendigkeit einer reflektierten, verantwortungsbewussten und transparenten Nutzung digitaler Entscheidungssysteme betont, deren Auswirkungen potenziell alle Einwohnenden betreffen.
  5. Risikomitigation

    1. Frontmatter

    2. 10. Bewältigung der Risiken von KI durch außerstaatliche Regelsetzung

      Filiz Elmas-Arslan, Amelie Leipprand
      Der Fachbeitrag beleuchtet die zentrale Rolle von Normen und Standards bei der Bewältigung der Risiken von Künstlicher Intelligenz (KI). Er erklärt die Bedeutung der außerstaatlichen Regelsetzung, insbesondere der technischen Normung und Standardisierung, und zeigt auf, wie diese Prozesse funktionieren und welche Akteure daran beteiligt sind. Ein Schwerpunkt liegt auf der Deutschen Normungsroadmap KI, die im Auftrag des Bundesministeriums für Wirtschaft und Klimaschutz erarbeitet wurde. Diese Roadmap gibt einen umfassenden Überblick über bestehende Normen, laufende Normungsaktivitäten und identifizierte Bedarfe im Bereich KI. Der Beitrag diskutiert auch die Zusammenarbeit zwischen staatlicher und außerstaatlicher Regelsetzung, insbesondere im Kontext des europäischen AI-Acts. Es wird aufgezeigt, wie Normen und Standards dazu beitragen können, Vertrauen und Markterfolg zu fördern, und wie sie als Werkzeug für die Umsetzung regulatorischer Vorgaben dienen. Abschließend wird die Bedeutung der Normung für die Zukunft der KI-Technologie und die Notwendigkeit einer aktiven Beteiligung von Unternehmen und Experten betont.
    3. 11. Automating Lifecycle Compliance: A Continuous Assessment Framework for High-Risk and GPAI Obligations in the EU AI Act

      Dorian Knoblauch, Jürgen Großmann
      Der Fachbeitrag behandelt die Umsetzung der EU-KI-Verordnung, insbesondere die lebenslange Compliance für Hochrisiko-KI-Systeme und allgemeine KI-Modelle mit systemischem Risiko. Er unterscheidet zwischen systemischem Risiko und Hochrisiko und erläutert die jeweiligen regulatorischen Implikationen. Der Beitrag stellt den Continuous Auditing-Based Conformity Assessment (CABCA) Rahmen vor, der die Compliance durch Automatisierung und lebenslange Überwachung sicherstellt. CABCA integriert Systemebenen- und Modellebenen-Audit-Trails in eine einheitliche, maschinenlesbare Konformitäts-Pipeline. Der Beitrag beschreibt die Kernverpflichtungen für Hochrisiko-KI-Systeme, einschließlich Risikomanagement, technischer Dokumentation, Qualitätsmanagementsystemen und Nachmarktüberwachung. Zudem werden die Kernverpflichtungen für allgemeine KI-Modelle mit systemischem Risiko behandelt, wie Modellbewertung, Risikobewertung und -minderung, Vorfallverfolgung und -meldung, Cybersicherheit und technische Dokumentation. Der Beitrag zeigt, wie CABCA diese Verpflichtungen erfüllt und die Compliance für Anbieter von Hochrisiko-KI-Systemen und allgemeinen KI-Modellen mit systemischem Risiko vereinfacht und effizienter gestaltet. Abschließend wird die Bedeutung von CABCA für die Einhaltung der EU-KI-Verordnung und die Notwendigkeit eines kontinuierlichen und automatisierten Ansatzes zur Compliance betont.
  6. KI in einzelnen Sektoren

    1. Frontmatter

    2. 12. Varianten und Risikoaspekte des psychologisch-therapeutischen KI-Einsatzes

      Maximilian Wanderwitz, Emily Weber
      Der Fachbeitrag beleuchtet die vielfältigen Einsatzmöglichkeiten von Künstlicher Intelligenz (KI) im psychologisch-therapeutischen Bereich und die damit verbundenen Risiken. Es werden drei Kategorien des KI-Einsatzes unterschieden: enge Ersetzung, Ersetzung mittleren Ausmaßes und weitreichende Ersetzung. Die enge Ersetzung umfasst beispielsweise Entscheidungsunterstützungssysteme in der Diagnostik, während die weitreichende Ersetzung den vollständigen Ersatz menschlicher Therapeuten durch KI-Systeme, wie Chatbots, beinhaltet. Der Beitrag diskutiert auch die Risiken des KI-Einsatzes, darunter Verzerrungen in der Diagnostik und die Disruption des Patient-Therapeut-Verhältnisses. Zudem werden Beispiele für den diagnostischen, prognostischen und therapeutischen Einsatz von KI-Systemen vorgestellt, einschließlich der Verwendung von KI-gestützten Apps und virtuellen Therapeuten. Abschließend wird die Bedeutung einer kritischen Überprüfung und ethischen Reflexion des KI-Einsatzes im psychologisch-therapeutischen Bereich betont.
    3. 13. Personalised Medicine? The Risks of Patient-Facing Medical AI for Human Personal Identity

      Stephen Milford
      Patientenorientierte medizinische KI-Systeme, insbesondere Chatbots, revolutionieren die Gesundheitsversorgung durch personalisierte Diagnosen und Behandlungspläne. Diese Systeme versprechen verbesserte Gesundheitsversorgung, bergen aber Risiken für die menschliche persönliche Identität. Der Fachbeitrag untersucht fünf potenzielle Risiken: ontologische Verwirrung, Isolation durch personalisierte Selbstversorgung, das Gefühl, von einer KI gesehen zu werden, delegierte moralische Arbeit und die Erosion gemeinschaftlicher Gesundheitsnarrative. Die ontologische Verwirrung entsteht durch die Tendenz, KI-Systeme als persönliche Wesen zu behandeln, was zu relationalen Fehlschüssen führen kann. Die Isolation durch personalisierte Selbstversorgung kann die relationalen Interaktionen untergraben, die für die Bildung und Aufrechterhaltung der persönlichen Identität entscheidend sind. Das Gefühl, von einer KI gesehen zu werden, kann zu einer oberflächlichen und klinischen Sichtweise führen, die die persönliche Identität nicht wirklich anerkennt. Die Delegation moralischer Arbeit an KI-Systeme kann die moralische Verantwortung und die persönliche Identität untergraben. Schließlich kann die Erosion gemeinschaftlicher Gesundheitsnarrative die persönliche Identität und die gemeinschaftliche Bedeutung von Krankheit und Heilung untergraben. Der Fachbeitrag betont die Bedeutung der relationalen und narrativen Aspekte der Gesundheitsversorgung und warnt vor den Risiken der Integration von KI-Systemen in die Gesundheitsversorgung. Er plädiert für eine sorgfältige und verantwortungsvolle Integration von KI-Systemen in die Gesundheitsversorgung, die die relationalen und narrativen Aspekte der Gesundheitsversorgung nicht untergräbt.
    4. 14. Der Einsatz von KI-Systemen bei den Gerichten – Versuch einer chancenorientierten Risikobetrachtung

      Dennis Müller
      In diesem Kapitel wird der Einsatz von KI-Systemen in der Justiz umfassend analysiert, wobei der Fokus auf den tatsächlichen Potentialen und nicht auf dem oft diskutierten Robo Judge liegt. Es werden aktuelle KI-Projekte in der deutschen Justiz vorgestellt, die sich auf verschiedene Bereiche wie Automatisierung im Unterstützungsbereich, KI als Rechercheassistenz, Datenstrukturierung und KI-Assistenzsysteme für Richter konzentrieren. Die rechtlichen Grundlagen einer Risikobetrachtung werden detailliert dargestellt, wobei insbesondere die verfassungsrechtlichen Aspekte und die KI-Verordnung betrachtet werden. Es werden Risikoklassen gebildet und konkrete Vorhaben diesen zugeordnet, um die verschiedenen Anforderungen an das Risikomanagement und die Risikoprävention zu verdeutlichen. Abschließend wird die Bedeutung des KI-Einsatzes für die Justiz betont, wobei die Notwendigkeit einer verantwortungsvollen und risikobewussten Nutzung von KI-Systemen hervorgehoben wird. Der Text bietet einen detaillierten Überblick über den aktuellen Stand und die zukünftigen Perspektiven des KI-Einsatzes in der Justiz.
    5. 15. Die Bedrohung der menschlichen Erfinderstellung durch Künstliche Intelligenz

      Michael Zapf
      Der Fachbeitrag untersucht die rechtlichen Aspekte des Einsatzes von Künstlicher Intelligenz (KI) bei technischen Entwicklungen, insbesondere im Hinblick auf die Anerkennung von KI-Systemen als Erfinder im Patentrecht. Es wird die Frage aufgeworfen, ob KI-Systeme wie DABUS als Erfinder im Sinne des geltenden Patentrechts anerkannt werden können. Der Text analysiert die DABUS-Testfälle, die von Dr. S. Thaler eingereicht wurden und die weltweit von Patentbehörden zurückgewiesen wurden, da eine KI nicht als Erfinder im Sinne der gesetzlichen Regelungen in Betracht kommt. Die Autoren diskutieren die patentrechtlichen Hintergründe und die Differenzierung zwischen KI-assistierten und KI-generierten technischen Entwicklungen. Es wird hervorgehoben, dass das geltende Patentrecht einen menschlichen Erfinder voraussetzt und dass KI-Systeme derzeit nicht als Erfinder anerkannt werden können. Der Beitrag beleuchtet auch die potenziellen Auswirkungen auf den Schutz geistigen Eigentums und die Erfindervergütung, insbesondere im Hinblick auf die zunehmende Nutzung von KI-Systemen in der Technologieentwicklung. Abschließend wird die Frage aufgeworfen, wie das Patentrecht und das Arbeitnehmererfinderrecht mit den sich ändernden technischen Gegebenheiten umgehen können und welche Herausforderungen sich daraus ergeben. Der Text bietet eine fundierte und umfassende Analyse der aktuellen Rechtsprechung und der potenziellen Auswirkungen auf das Patentrecht und die Technologieentwicklung.
    6. 16. KI für eine sichere Gesellschaft

      Christoph Tobias Wirth, Mihai Maftei, Hartmut Hilpert, Lisa-Marie Goltz, Iris Merget
      KI-Systeme revolutionieren die Arbeit von Polizei und Strafverfolgungsbehörden, indem sie Daten aus Notrufen, Polizeiberichten und sozialen Medien analysieren, um Muster zu erkennen und Risikobewertungen zu erstellen. Diese Technologien ermöglichen es, potenzielle Straftaten vorherzusagen und präventive Maßnahmen zu ergreifen. Ein Beispiel ist die Verwendung von KI-gestützter Videoüberwachung, die verdächtige Bewegungsmuster erkennt und menschliche Entscheidungsträger alarmiert. Auch Big Data spielt eine Rolle, indem Fluggastdaten analysiert werden, um potenzielle Risiken im Zusammenhang mit Terrorismus oder schwerer Kriminalität zu erkennen. Trotz der Vorteile werfen diese Technologien ethische und rechtliche Fragen auf, insbesondere in Bezug auf Datenschutz und Privatsphäre. Der Einsatz von KI in der Strafverfolgung erfordert eine sorgfältige Abwägung zwischen Sicherheit und Grundrechten. Der Text beleuchtet die verschiedenen Anwendungsbereiche von KI in der Strafverfolgung und diskutiert die damit verbundenen Herausforderungen. Er zeigt auf, wie KI-Systeme die Arbeit der Sicherheitsbehörden unterstützen können, ohne dabei die Grundrechte und Privatsphäre der Bürger zu gefährden. Der Text bietet eine fundierte Analyse und zeigt auf, wie KI-Systeme die Arbeit der Sicherheitsbehörden unterstützen können, ohne dabei die Grundrechte und Privatsphäre der Bürger zu gefährden.
Titel
Risikoanalyse Künstliche Intelligenz
Herausgegeben von
Maximilian Wanderwitz
Copyright-Jahr
2026
Verlag
Springer Berlin Heidelberg
Electronic ISBN
978-3-662-72661-7
Print ISBN
978-3-662-72660-0
DOI
https://doi.org/10.1007/978-3-662-72661-7

Die PDF-Dateien dieses Buches wurden gemäß dem PDF/UA-1-Standard erstellt, um die Barrierefreiheit zu verbessern. Dazu gehören Bildschirmlesegeräte, beschriebene nicht-textuelle Inhalte (Bilder, Grafiken), Lesezeichen für eine einfache Navigation, tastaturfreundliche Links und Formulare sowie durchsuchbarer und auswählbarer Text. Wir sind uns der Bedeutung von Barrierefreiheit bewusst und freuen uns über Anfragen zur Barrierefreiheit unserer Produkte. Bei Fragen oder Bedarf an Barrierefreiheit kontaktieren Sie uns bitte unter accessibilitysupport@springernature.com.