Skip to main content

Open Access 14.04.2022 | Aufsätze

Digitale Ordnungspolitik – Haftung und Verantwortung

verfasst von: Gerhard Wagner

Erschienen in: List Forum für Wirtschafts- und Finanzpolitik

Aktivieren Sie unsere intelligente Suche um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

Privatrechtliche Haftung ist ein wichtiges Steuerungsinstrument einer dezentral organisierten Wirtschaftsordnung. Anders als Regulierung, die potenziell gefährliche Tätigkeiten ex ante steuert, greift Haftung ex post ein, nachdem ein Schaden oder eine Gefährdungslage bereits eingetreten ist. Die wohlfahrtsmindernde Überregulierung von Tätigkeiten, die in Wahrheit gar nicht oder nur in geringem Umfang schadensträchtig sind, lässt sich dadurch vermeiden. Trotzdem generiert auch Haftung Anreize zum sorgfältigen, schadensvermeidenden Verhalten ex ante. Für die Wirksamkeit des Steuerungseffekts ist es essentiell, dass diejenigen Akteure haftungsrechtlich adressiert werden, die zur Kontrolle der jeweiligen Gefahr am besten in der Lage sind. Die Digitalisierung stellt das Haftungsrecht insofern vor Herausforderungen als neue Akteure die Bühne betreten, die als potenzielle Haftungssubjekte infrage kommen, nämlich Roboter und andere autonome Systeme sowie Plattformen, die das Internet erschließen und Nutzer miteinander in Kontakt bringen. Der folgende Beitrag analysiert die Haftungsverfassung digitaler Märkte im Hinblick auf die Verantwortung für autonome Systeme und digitale Plattformen.
Hinweise
Überarbeitete und erweiterte Fassung eines Vortrags, den der Verfasser am 28. September 2020 bei der von Prof. Dr. Armin Steinbach organisierten Tagung „Digitale Ordnungspolitik“ beim Walter Eucken Institut in Freiburg gehalten hat.

1 Technologische Revolutionen und haftungsrechtliche Verantwortung

Die Digitalisierung von Wirtschaft und Gesellschaft bewirkt fundamentale Umwälzungen. Ganze Produktkategorien, wie etwa Schallplatten und Tonbänder sowie Schallplattenspieler und Kassettenrekorder werden obsolet und durch andere ersetzt, nämlich CDs, DVDs und sodann Streaming-Dienstleistungen samt der dazu gehörigen Abspielgeräte. Andere Güter werden grundlegend verändert oder wandeln sich zu Dienstleistungen. Ein gutes Beispiel ist der Kraftfahrzeugverkehr und das autonome Fahren. Wo zuvor stolze Fahrer Kraftfahrzeuge mit Verbrennermotor durch den Verkehr steuerten, sollen in nicht allzu ferner Zukunft elektrisch getriebene, voll automatisierte Fahrzeuge „bloße“ Passagiere von einem Ort zum anderen befördern. Das Automobil als Statussymbol, für dessen Erwerb erhebliche finanzielle Mittel freigemacht werden, wandelt sich zum „Robotaxi“. Ein weiterer Schwerpunkt der Digitalisierung ist die Umgestaltung vor allem von Dienstleistungsmärkten durch Eliminierung von Intermediären. Online-Shops umgehen den stationären Handel und machen diesen zum Teil überflüssig, Fintecs zielen darauf, dem Bankwesen ein Ende zu bereiten, Transportdienstleister wie Uber umgehen die Taxibranche und Nachrichtenportale machen im Verein mit Suchmaschinen Presseverlage, Radio- und Fernsehsender überflüssig.
In den Anfangszeiten des Internet herrschte Euphorie, und zwar Freiheitseuphorie.1 Man glaubte, mit der Abschüttelung der Intermediäre einen höheren Grad von Freiheit realisieren zu können. Diese Hoffnung richtete sich sowohl auf die Märkte für Güter und Dienstleistungen, die von den Fesseln des stationären Einzelhandels ebenso befreit werden würden wie von den Beschränkungen des regionalen oder nationalen Großhandels. Im Internet lassen sich Produkte und Dienstleistungen finden, die man in der realen Welt nur unter Aufwand sehr erheblicher Transaktionskosten ausgemacht hätte. Die Long-tail-Strategie des Internethandels verspricht, die Freiheit und den Wohlstand der Kunden wesentlich zu erhöhen. Ähnliche Hoffnungen richteten sich auf die Informationsmärkte. Ganz offensichtlich eröffnet das Internet seinen Nutzern Zugang zu einem nahezu unbeschränkten Informationsraum unter gleichzeitigem Ausschluss der etablierten Torwächter, also von Verlagen sowie Sendern.2
Wie so häufig in der Geschichte, so war auch im Fall der digitalen Revolution die Vorstellung, es ließe sich Freiheit ohne Verantwortung realisieren bzw. maximieren, eine Täuschung.3 An die Stelle der alten Intermediäre sind neue getreten, nämlich Suchmaschinen, Online-Marktplätze, soziale Netzwerke und Plattformen sonstiger Art, die verschiedene Nutzergruppen zueinander bringen, dabei aber Informationen und Angebote von Gütern und Dienstleistungen kuratieren und damit auch limitieren.4 Je aktiver die Plattform wird und die Peer-to-peer-Kommunikation strukturiert und kuratiert, desto dringender stellt sich die Frage nach ihrer Verantwortung für die – nun womöglich auch der Plattform zuzurechnenden – Inhalte.5
Digitale Produkte und Dienstleistungen, die analoge Pendants abgelöst haben, fordern die etablierten Kategorien von Verantwortung und Haftung ebenfalls heraus. Ein naheliegendes Beispiel ist die Produkthaftung, also die Verantwortlichkeit des Herstellers von Produkten für Personen- und Sachschäden, die diese Produkte im Feld, bei ihren Nutzern und Dritten verursachen. Das europäische Produkthaftungsrecht ist 1985 in der Richtlinie 85/374/EWG kodifiziert worden, also zu einer Zeit noch vor der massenhaften Einführung des Personal Computers.6 Digitale Produkte spielten bei den Vorarbeiten zu der Richtlinie daher keine Rolle. Art. 2 der Richtlinie definiert als „Produkt“ jede bewegliche Sache und fügt dann Erläuterungen für Naturprodukte und Jagderzeugnisse hinzu. In Satz 2 der Vorschrift wird klargestellt, dass auch Elektrizität als Produkt zu qualifizieren sei. Doch wie steht es um Software? Computerprogramme sind der Lebensnerv der Digitalisierung, denn ohne sie läuft buchstäblich „nichts“. Kommt es zu Fehlfunktionen digitaler Produkte oder geht im Internet etwas „schief“, liegt das nur allzu oft an fehlerhafter oder zumindest fehleranfälliger Software. Software ist keine bewegliche Sache und daher prima facie auch kein Produkt iSd Art. 2 der Richtlinie.7 Dieses einfache Beispiel zeigt, wie ein etabliertes und in der Praxis vielfach angewandtes Haftungsregime mit der Digitalisierung einen wesentlichen Teil seines Anwendungsbereichs und seiner praktischen Wirksamkeit zu verlieren droht. Grund genug also, Verantwortung und Haftung im digitalen Zeitalter zu durchdenken.

2 Ordnungspolitik und Haftung

2.1 Ausgangspunkt

Ordnungspolitik ist der Versuch, einen Rechtsrahmen für die Wirtschaft zu schaffen, der auf den Prinzipien von Freiheit, Eigentumsschutz und Wettbewerb beruht. Der ordoliberale Ansatz ist für soziale Absicherung ebenso offen wie für Maßnahmen der Umverteilung, aber unvereinbar mit einer Politik staatlicher Eingriffe in das Wirtschaftsgeschehen, die einzelne Akteure fördert oder benachteiligt oder den Wirtschaftsprozess im Hinblick auf bestimmte, vorab definierte Ziele zu lenken sucht.8
Was folgt aus dieser vorläufigen und naturgemäß groben Begriffsbestimmung für das Haftungsrecht? Insoweit erweist sich der ordoliberale Ansatz als durchaus ergiebig. Denn er spricht gegen eine Instrumentalisierung des Haftungsrechts für die Förderung bestimmter Technologien (unten 2) sowie für die Wahrung eines engen Zusammenhangs zwischen Kontrolle und Haftung (unten 3).

2.2 Innovation und Haftungsrecht

Der Zusammenhang zwischen Haftungsrecht und Innovation war schon immer eng.9 1838 wurde keine zwei Jahre nach der Fahrt der ersten preußischen Eisenbahn ein entsprechendes Gesetz auf den Weg gebracht, das die Betreiber von Eisenbahnen einer strengen, verschuldensunabhängigen Haftung unterwarf.10 Als in den achtziger Jahren des vergangenen Jahrhunderts die Gentechnik weit genug entwickelt war, um industriell genutzt werden zu können, reagierte der deutsche Gesetzgeber mit dem Gentechnikgesetz, das ebenfalls eine scharf eingestellte Haftungsregelung enthielt.11 In diesen Fällen reagierte die Politik auf neue technische Möglichkeiten mit einer Haftungsverschärfung. Während Bürger und Unternehmen im Normalfall nur für schuldhaftes, d. h. gegen eine Sorgfaltspflicht verstoßendes Verhalten einzustehen haben, haften die Betreiber von Eisenbahnen und von gentechnischen Anlagen strikt, d. h. ohne Rücksicht auf eine Sorgfaltspflichtverletzung. In der aktuellen Diskussion um die Haftung für künstliche Intelligenz denkt auch die EU-Kommission über die Fortentwicklung des Haftungsrechts nach, verfolgt dabei aber ein doppeltes Ziel. Die neu zu erarbeitenden Haftungsregeln sollen nicht nur die Verbraucher und sonstige Nutzer von Digitalprodukten schützen, sondern zugleich auch die Einführung neuer Technologien erleichtern.12 Die Vorstellung, Haftungsregeln beeinflussten die Innovationsgeschwindigkeit einer Volkswirtschaft und müssten daher so gefasst werden, dass Innovationen gefördert würden, ist auch sonst weit verbreitet. Dahinter steht die Annahme, dass streng eingestellte Haftungsregeln Innovationen behindern und dass diese Behinderung nicht wünschenswert ist. Beides gilt es zu hinterfragen.
Es ist offensichtlich und soll hier nicht weiter begründet werden, dass die strikte Regulierung bestimmter Aktivitäten deren Entfaltung und Entwicklung Grenzen setzt, die sonst, d. h. bei großzügiger Zulassung oder Regulierung derselben Aktivitäten nicht existierten. Regulierung in diesem technischen Sinne erfolgt ex ante, legt also vor Entwicklung oder Implementierung einer bestimmten Technologie fest, unter welchen Voraussetzungen und mit welchen Kautelen bestimmte Aktivitäten überhaupt durchgeführt werden dürfen.13 Davon unterscheidet sich das Haftungsrecht fundamental. Haftungsregeln kommen überhaupt nur zur Anwendung, wenn tatsächlich ein Schaden eingetreten ist. Sie sanktionieren niemals Verhalten „als solches“, ohne Rücksicht auf den Eintritt eines Schadens. Die in Deutschland und anderen europäischen Ländern verbreiteten Haftungsregeln sind zudem überwiegend auf Personen- und Sachschäden bezogen, gelten also von vornherein nur, wenn es zu echten Verlusten an wirtschaftlichen Ressourcen (Eigentum) oder zu Verletzungen von Leben, Körper und Gesundheit gekommen ist. Dieses Charakteristikum des Haftungsrechts ist für seine ordnungspolitische Einordnung von entscheidender Bedeutung.
Das Haftungsrecht kann jedenfalls nicht in dem Sinne „überregulieren“, dass es Aktivitäten beschränkt oder mit Kosten belastet, die überhaupt keine oder wesentlich geringere Einbußen verursachen. Eine überstrikte Regulierung, die völlig harmlose Aktivitäten im Lichte fehlerhafter Annahmen oder irrationaler Ängste beschränkte, kann es mit Haftungsrecht überhaupt nicht geben. Das Haftungsrecht kommt erst zum Zuge, wenn ein Schaden bereits eingetreten ist und es nur noch um seine Verteilung geht. Insofern ist es ein vorzügliches Instrument für den Umgang mit noch unbekannten Risiken.14 Wirtschaft, Gesellschaft und Politik können mit Hilfe des Haftungsrechts lernen, welches Schädigungspotential mit der Nutzung neuer Technologien verbunden ist, ohne den Schutz von Person und Eigentum der Bürger völlig zur Disposition zu stellen bzw. zu riskieren. Dies ist der wesentliche Vorteil des Haftungsrechts gegen Überregulierung ex ante.
Allerdings, und dies ist nicht zu bestreiten, belegt das Haftungsrecht bestimmte Aktivitäten mit Kosten, macht sie also teurer als sie ohne Haftung wären. Nach allgemeinen ökonomischen Gesetzen führt eine Belastung mit Kosten zu einer Erhöhung der Preise und in der Folge zu einem Rückgang der Nachfrage nach der jeweiligen Aktivität oder dem jeweiligen Gut. In der ökonomischen Analyse des Haftungsrechts ist dieser Zusammenhang unter dem Begriff des Aktivitätsniveaus geläufig.15 Insbesondere eine verschuldensunabhängige Haftung, die den Akteur für alle von ihm verursachten Schäden ohne weitere Voraussetzungen verantwortlich macht, ist dazu geeignet, die Menge der schadensträchtigen Aktivität auf das effiziente Niveau einzustellen. Muss der Schädiger damit rechnen, für jeden von ihm verursachten Schaden zur Verantwortung gezogen zu werden, wird er die jeweilige Aktivität nur bis zu demjenigen Punkt ausdehnen, an dem der marginale Nutzen einer weiteren Einheit gleich den Gestehungskosten dieser Einheit, zuzüglich den Sorgfaltskosten und zuzüglich den Schadenskosten ist. Mit diesem Verhalten maximiert der jeweilige Akteur nicht nur seinen eigenen Nutzen, sondern, die Abwesenheit weiterer Externalitäten unterstellt, zugleich den Nutzen aller, also der Volkswirtschaft im Ganzen.
Angesichts dieser Zusammenhänge ist es nicht richtig, wenn Haftung mitunter als Innovationshemmnis hingestellt wird.16 Zwar lässt sich nicht ausschließen, dass bei scharf eingestellter Haftung bestimmte Aktivitäten nicht mehr oder nicht in gleichem Umfang ausgeführt werden wie bei Abwesenheit jeder Haftung oder bei einer restriktiv eingestellten Haftungsregel. Dies ist jedoch kein Nachteil. Eine strikte Haftung zwingt den Schädiger dazu, die negativen externen Effekte seines Verhaltens für die Rechtsgüter anderer in Rechnung zu stellen. Wenn sich dabei ergibt, dass die eigene Aktivität mehr Schäden verursacht als sie Nutzen stiftet, dann ist es volkswirtschaftlich effizient, wenn sie nicht ausgeführt wird. Das gilt unverkürzt auch für neue Technologien. Speziell die Digitalisierung verspricht in vielen Bereichen massive Sicherheitsgewinne, weil sie menschliche Entscheidungen, die naturgemäß fehleranfällig sind, durch Rechenprozesse ersetzt, die sich viel besser planen und kontrollieren lassen.17 Der Einsatz dieser Technologien wird dazu führen, dass die Schadenskosten sinken. Dementsprechend wird durch Haftungsrecht ein Verhalten prämiert, das innovative technische Lösungen, die zu einer Reduktion von Schadenskosten führen, implementiert. Umgekehrt liegt es mit Blick auf Technologien, deren Einsatz den Eintritt und den Umfang von Schäden ceteris paribus erhöht. Diese Aktivitäten werden mit einer Art „Steuer“ belegt, die in Gestalt von Ersatzzahlungen an den Geschädigten zu entrichten ist.
Wie gesehen, führt Haftungsrecht also zu einer Steuerung des Technikeinsatzes und der Innovationen in Richtung auf Schadensvermeidung. Dabei geht es nicht um Schadensvermeidung um jeden Preis, sondern um die Vermeidung von Schäden, denen kein überwiegender Nutzen gegenübersteht. Dieser Mechanismus ist mit einer ordoliberalen Rechtspolitik bestens vereinbar. Mit Haftungsregeln schränkt der Staat nicht ex ante die Freiheit der Wirtschaftssubjekte ein, sondern reagiert ex post auf die Verursachung nachgewiesener Schäden für andere Bürger und Unternehmen. Dies wiederum geschieht nicht im Interesse einer „bloßen“ Umverteilung von Schadenskosten von einem Subjekt zum anderen. Vielmehr ist mit dem Einsatz von Haftungsrecht die Erwartung verbunden, dass die Adressaten ihr eigenes Verhalten auf die Haftungsandrohung einstellen werden. Rationale Akteure werden darum bemüht sein, die Haftung zu vermeiden. Die Mittel, die ihnen dafür zur Verfügung stehen, sind Investitionen in Sorgfalt und die Einschränkung des Aktivitätsniveaus. Insofern führt also die Anordnung einer Haftung ex post zu einer Änderung des Verhaltens ex ante, und zwar in der Weise, dass Sorgfalts- und Aktivitätsniveau auf das effiziente Maß eingestellt werden. Dabei macht sich das Haftungsrecht das dezentral vorhandene Wissen der Rechtssubjekte über die Möglichkeit und die Kosten von Sorgfaltsmaßnahmen sowie das Ausmaß drohender Schäden zunutze.

2.3 Haftung folgt Kontrolle

Die Herausforderung der Digitalisierung für das Haftungsrecht besteht vor allem darin, dass mit autonomen Systemen, die ihr eigenes Verhalten steuern, ein neuer Akteur die Bühne des Haftungsrechts betritt: das autonome Artefakt.18 Ob diese Systeme über künstliche Intelligenz verfügen, ist für das Haftungsrecht irrelevant. Entscheidend ist, dass ihr Verhalten nicht im strengen Sinne determiniert ist, d. h., dass die Steuerungs-Software nicht aus Verhaltensbefehlen von einer „Wenn…Dann“-Struktur besteht. Neben Menschen und Kooperationen, die bisher als Haftungssubjekte anerkannt waren, treten nunmehr autonome digitale Systeme. Die entscheidende Frage ist, wie das Haftungsrecht darauf reagieren soll.
Eine besonders weitreichende und mutige Lösung bestünde darin, das autonome System selbst zum Haftungssubjekt zu machen. Diese Idee einer sog. ePerson als Haftungssubjekt hat das Europäische Parlament mit einer Entschließung aus dem Jahre 2017 ins Spiel gebracht.19 Dieser Vorschlag wirft eine Fülle von Fragen auf, auf die zurückzukommen sein wird.20
Das Faszinosum einer sich selbst steuernden Maschine darf nicht den Blick darauf verstellen, dass digitale autonome Systeme nicht vom Himmel fallen und auch nicht in einem naturwüchsigen Prozess „auf die Welt kommen“, sondern von Menschen geschaffen und in den Verkehr gebracht werden.21 Wer sind diese Menschen? – Aus haftungsrechtlicher Sicht ist der Hersteller des digitalen autonomen Systems in den Blick zu nehmen. Damit sind sämtliche Personen gemeint, die an der Konstruktion und Fabrikation eines Roboters oder sonstigen autonomen Systems beteiligt waren, also der Endhersteller, Zulieferer von Hardwarekomponenten sowie Programmierer der Computerprogramme, die das Artefakt steuern. Soweit ein digitales autonomes System der menschlichen Kontrolle überhaupt unterliegt, ist der Hersteller angesprochen. Wenn das Haftungsrecht dazu dienen soll, Anreize zu schadensvermeidendem Verhalten im Sinne effizienter Sorgfalt und effizienten Aktivitätsniveaus zu generieren, dann ist es zwingend, die Verhaltensanreize an diejenigen Personen zu adressieren, die Kontrolle über das schadensträchtige Geschehen ausüben. Diese Kontrolle liegt bei den Herstellern des Systems bzw. bei den mehreren Unternehmen, die auf die eine oder andere Weise an der Konstruktion und der Fabrikation des digitalen autonomen Systems mitgewirkt haben. Der Hersteller ist die Zentralfigur des Unfallgeschehens bei Beteiligung digitaler autonomer Systeme. Deshalb müssen die haftungsrechtlichen Anreize vor allem an den Hersteller adressiert werden.
Die Digitalisierung führt zur Aufwertung des Herstellers im Haftungsrecht und parallel zur Abwertung des Nutzers. Während die Produkte der analogen Welt von den Nutzern eingesetzt und in ihrem konkreten Verhalten kontrolliert werden, gilt dies für digitale Produkte nicht. Der Fahrer eines autonomen Automobils wird zum Passagier, und der Eigentümer eines digitalen Rasenmäherautomaten kann nicht mehr tun, als das Gerät ein- und auszuschalten. Gleichzeitig ist der Nutzer nach wie vor, d. h. wie bei Produkten der analogen Welt, am häufigsten und stärksten von Produktfehlern betroffen. Der Nutzer ist das Unfallopfer par excellence.22 Aus diesen Prämissen folgt für die Ausgestaltung des Haftungsrechts für digitale autonome Systeme zweierlei: (1) Da der Nutzer das Verhalten des Systems nicht kontrollieren kann, scheidet er als primärer Adressat der schadensrechtlichen Haftungsandrohung aus. Wer keine Kontrolle ausübt, ist kein geeignetes Haftungssubjekt. (2) Der Nutzer ist in der digitalen Welt nicht so sehr als Schädiger, sondern als Opfer anzusprechen. Haftungsrechtliche Lösungen müssen so kontrolliert sein, dass sie nicht nur externe Dritte, sondern vor allem auch den Nutzer schützen.

3 Herstellerhaftung

Die Haftung des Herstellers für von ihm in Verkehr gebrachte Produkte ist Gegenstand besonderer Regelungen, die als Produkthaftungsrecht geläufig sind.23 Die Produkthaftung ist in Deutschland und den meisten anderen europäischen Ländern zweigleisig ausgestaltet. Neben die Verantwortlichkeit des Herstellers nach dem nationalen Deliktsrecht tritt die Haftung nach der einschlägigen EU-Richtlinie 85/374/EWG. Deren Haftungskonzept war als verschuldensunabhängige Einstandspflicht für Schäden durch fehlerhafte Produkte gemeint,24 ist inzwischen jedoch als eine Variante der Verschuldenshaftung identifiziert worden.25 Für eine Verschuldenshaftung ist kennzeichnend, dass der Schädiger nur dann in Anspruch genommen werden kann, wenn er gegen eine Sorgfaltspflicht verstoßen hat. Die im Verkehr erforderliche Sorgfalt verlangt es, solche Sicherheitsmaßnahmen zu ergreifen, deren Grenzkosten niedriger sind als die, durch sie vermiedenen, Grenzschäden. Wird der Hersteller diesem Standard gerecht, ist er für gleichwohl eintretende Schäden nicht verantwortlich.
Die Produkthaftungs-Richtlinie der EU knüpft die Haftung nicht an eine Pflichtverletzung, und sie definiert auch keine Sorgfaltspflichten, sondern sie erfordert den Nachweis eines Produktfehlers. Der produkthaftungsrechtliche Fehlerbegriff inkorporiert genau diejenigen Maßstäbe, die auch für die Feststellung einer Sorgfaltspflichtverletzung relevant sind. Gemäß Art. 6 ist ein Produkt fehlerhaft, wenn es nicht die Sicherheit bietet, die man unter Berücksichtigung aller Umstände zu erwarten berechtigt ist. Art. 6 Abs. 2 der Richtlinie fügt hinzu, ein Produkt sei nicht allein deshalb fehlerhaft, weil später ein verbessertes Produkt in den Verkehr gebracht wurde. Der Fehlerbegriff des Produkthaftungsrechts ist also auf den Zeitpunkt ex ante, auf das In-Verkehr-Bringen bezogen, und er sanktioniert die Verfehlung des in diesem Zeitpunkt maßgeblichen Sicherheitsstandards. Dieser Sicherheitsstandard wird nun in Deutschland, in Übereinstimmung mit der Rechtslage im US-amerikanischen Produkthaftungsrecht, mit Hilfe des sog. Risk/Utility-Test bestimmt. Danach ist ein Produkt fehlerhaft, wenn es möglich gewesen wäre, ein sichereres Produkt in den Verkehr zu bringen, dessen Mehrkosten geringer gewesen wären als die dadurch vermiedenen Schäden.26 In ihrem Kernbereich der Konstruktionsfehler ist die Produkthaftung somit eine Verschuldenshaftung und dies gilt, wie der Bundesgerichtshof entschieden hat, für die deliktische Produkthaftung nach nationalem Recht genauso wie für die harmonisierte Produkthaftung nach EU-Recht.27
Unter diesen Prämissen lässt sich die Herausforderung des Produkthaftungsrechts durch digitale autonome Systeme zu der Frage verdichten, ob der produkthaftungsrechtliche Fehlerbegriff dem neuen Phänomen gewachsen ist. Genau dies ist zu bezweifeln.28 Zum einen wird der Geschädigte vor massive Beweisprobleme gestellt, denn nach Art. 4 der Richtlinie 85/374/EWG ist er es, der den Schaden, den Fehler und den ursächlichen Zusammenhang zwischen Fehler und Schaden zu beweisen hat. Für die deliktische Produkthaftung gilt Entsprechendes.29 Der Nachweis, dass ein komplexes Softwareprogramm, das das digitale autonome System gesteuert hat, fehlerhaft war, wird in vielen Fällen nur mit Hilfe aufwändiger Sachverständigengutachten von Software-Experten zu führen sein. Dies gilt nicht, wenn die Software an leicht identifizierbaren „Bugs“ leidet, doch mit diesen ist bei autonomen Fahrzeugen und anderen komplexen Produkten ohnehin nicht zu rechnen. Die Hersteller werden darum bemüht sein, die Steuerungssoftware ausreichend lang zu trainieren, sodass sie von vornherein einen hohen Sicherheitsstandard bietet. Das ist gut für die Sicherheit, aber hochproblematisch für den Versuch, dem Hersteller gleichwohl einen Fehler nachzuweisen.
Das zentrale Problem der Fehlerfeststellung bei digitalen autonomen Systemen liegt jedoch nicht im Bereich der Beweislast. Vielmehr gerät der relevante Vergleichsmaßstab ins Wanken. Sofern das digitale System im Aggregat weniger Schäden verursacht als ein analoges Pendant, das vom Nutzer gesteuert wird, erscheint es zweifelhaft, einzelne Unfälle an einem Vergleichsszenario zu messen, bei dem der Nutzer die Kontrolle ausübt. Autonome Fahrzeuge z. B. werden erwartungsgemäß wesentlich weniger Unfälle verursachen als von menschlichen Fahrern gesteuerte Fahrzeuge, schon deshalb, weil Trunkenheit und überhöhte Geschwindigkeit als die wichtigsten Unfallursachen eliminiert werden. Allerdings wird auch der Verkehr mit autonomen Fahrzeugen nicht völlig unfallfrei über die Bühne gehen. Der springende Punkt ist nun, dass die von autonomen Fahrzeugen verursachten Unfälle andere sein werden als diejenigen, die ein menschlicher Fahrer verursacht hätte.30 Ein aufmerksamer Mensch auf dem Fahrersitz würde niemals einen weiß gestrichenen LKW im Sonnenlicht übersehen und daher ungebremst weiterfahren, doch dem Autopiloten von Tesla ist genau das passiert.31 Kommt es zu Unfällen dieser Art, wäre auf der Grundlage eines „Human Driver Test“ die Haftung stets zu bejahen. Dies würde dazu führen, dass nahezu die gesamten Kosten von Verkehrsunfällen zu den Herstellern autonomer Fahrzeuge verlagert würden. Dies ist nicht so sehr ein Verteilungsproblem, sondern es hat Konsequenzen für die Verkehrssicherheit: Hersteller autonomer Fahrzeuge werden mit Kosten belastet, die den Produzenten herkömmlicher Automobile erspart bleiben, was die Preise in die Höhe treibt und die Einführung autonomer Fahrzeuge verzögert. Einen Ausweg bietet die Verabschiedung des anthropozentrischen Fehlerbegriffs zugunsten eines systembezogenen Fehlerbegriffs.32 Dieser würde die Steuerungssoftware autonomer Fahrzeuge nicht am Verhalten eines vernünftigen menschlichen Fahrers messen, sondern an den Sicherheitseigenschaften vergleichbarer bzw. konkurrierender Steuerungssysteme. Ein solcher systembezogener Sorgfaltsbegriff, der Gleiches mit Gleichem vergleicht und nicht so tut, als sei die Software ein Mensch, wirft allerdings seinerseits wieder Probleme auf. Anhand der Unfallstatistik wird sich feststellen lassen, welche Steuerungssoftware im Markt die besten Ergebnisse erzielt, also die niedrigste Unfallquote hat. Wird diese Software als Standard definiert, sind die Programme aller übrigen Hersteller fehlerhaft, sodass diese konkurrierenden Hersteller mit den vollen Unfallkosten ihrer Fahrzeuge konfrontiert werden. Damit wird der Wettbewerb auf dem Markt für autonome Fahrzeuge zugunsten des Herstellers mit der besten Steuerungssoftware verzerrt und dessen Startvorteil als „first mover“ zementiert. Aus wettbewerblicher Sicht ist dies kein attraktives Szenario. Es wird nur geringfügig gemildert, wenn statt der besten Steuerungssoftware eine mittlere Steuerungssoftware als Standard definiert wird, denn dann tritt derselbe Effekt mit Blick auf diejenigen Hersteller ein, deren Software unterhalb des Standards bleibt.
Aus diesen Dilemmata gibt es kein leichtes Entkommen. Zum gegenwärtigen Zeitpunkt ist es aus ordnungspolitischer Sicht empfehlenswert, die weitere Entwicklung abzuwarten und darauf zu setzen, dass sich die zentrale Haftungsvoraussetzung des Produktfehlers auch bei komplexer Steuerungssoftware als leistungsfähig erweist. Sollte sich der produkthaftungsrechtliche Fehlerbegriff als ungeeignet für digitale autonome Systeme erweisen, wäre über Alternativen nachzudenken. Eine naheliegende Option bestünde darin, die EU-Produkthaftung vom Fehlerbegriff abzukoppeln und in eine echte verschuldensunabhängige Haftung umzuwandeln.33 Der Hersteller eines digitalen autonomen Systems haftete dann für jeden Schaden, den das System verursacht, nicht bloß für Schäden, die durch Fehler des digitalen Systems eintreten. Eine strikte Produkthaftung in diesem, eigentlichen Sinne ist bei Produkten der analogen Welt unvertretbar, weil Schäden durch Gebrauch herkömmlicher Produkte weit mehr als 90 % auf dem Fehlverhalten der Nutzer beruhen und nicht auf einer Fehlfunktion des Geräts. Bei Kraftfahrzeugen ist dies statistisch belegt, denn nur ein winziger Anteil aller Verkehrsunfälle ist auf vom Hersteller zu verantwortende Fehler zurückzuführen.34 In einer solchen Welt hätte eine superstrikte Haftung des Herstellers die absurde Konsequenz, dass dieser sich gegen von den Nutzern erhobene Schadensersatzansprüche jeweils mit dem Mitverschuldenseinwand (§ 254 BGB, Art. 8 Abs. 2 Richtlinie 85/374/EWG) verteidigen müsste. Bei Schädigungen externer Dritter hätte der Hersteller im Regresswege gegen den eigentlich verantwortlichen Nutzer vorzugehen. In beiden Fällen würden administrative Kosten erheblichen Umfangs verursacht, denen kein volkswirtschaftlicher Nutzen gegenübersteht. Bei digitalen autonomen Systemen hingegen fallen keine erhöhten administrativen Kosten für die Verteidigung gegen Ansprüche der Nutzer und für den Regress wegen Schadensersatzansprüchen Dritter an. Eben weil der Nutzer keinerlei Kontrolle über das Verhalten des digitalen autonomen Systems hat, ist der Hersteller der richtige Adressat für die Internalisierung der beim Betrieb dieser Produkte verursachten Schadenskosten. Wenn sich also die quasi-deliktische Produkthaftung der digitalen Revolution nicht als gewachsen erweisen sollte, wäre über eine Reform nachzudenken, die den Fehlerbegriff streichen und das Haftungsregime zu einer echten verschuldensunabhängigen Haftung fortentwickeln würde.

4 Nutzerhaftung

Nach den bisherigen Überlegungen steht fest, dass mit dem Fortschreiten der digitalen Transformation der Nutzer mit Digitaltechnik ausgestatteter Maschinen, Geräte und Anlagen aus dem Zentrum des Haftungsgeschehens an dessen Rand rückt. Wenn und soweit der Nutzer keinerlei Kontrolle über das „Verhalten“ eines Digitalprodukts hat, ist er als Haftungssubjekt ungeeignet. In der Realität wird der Nutzer immer einen Rest an Kontrolle behalten, und wenn dieser nur darin besteht, dass er das System an- und ausschalten kann. Deshalb ist es denkbar, dass der Nutzer mit Blick auf das digitale autonome System pflichtwidrig handelt, etwa, indem er es unter Bedingungen einsetzt, für die es nicht geeignet ist, indem er Sicherheitsvorkehrungen des Herstellers umgeht oder ausschaltet oder sonst einen Fehlgebrauch von dem Produkt macht. In diesen Fällen greift allerdings die allgemeine deliktische Verschuldenshaftung ein, die jedermann dazu verpflichtet, beim eigenen Tun und Lassen die Gebote der im Verkehr erforderlichen Sorgfalt einzuhalten, also die von einem vernünftigen Menschen für notwendig gehaltenen Sicherheitsvorkehrungen zu ergreifen.35 Die eben genannten Beispielsfälle, in denen der Nutzer in schadensträchtiger Weise auf das Produkt einwirkt, wären sämtlich unter dem Gesichtspunkt der deliktischen Verschuldenshaftung zu würdigen und eine Pflichtverletzung des Nutzers unproblematisch zu bejahen. Deshalb ist ein Reformbedarf bei der Nutzerhaftung nicht zu erkennen.
Vor diesem Hintergrund ist es zu bedauern, dass die Gesetzgebungspläne auf europäischer Ebene in eine ganz andere Richtung weisen.36 Das Europäische Parlament hat im Oktober 2020 eine Entschließung verabschiedet, in der die Kommission aufgefordert wird, die Haftung für künstliche intelligente Systeme gesetzlich zu regeln.37 Die Entschließung enthält einen voll ausformulierten Entwurf einer entsprechenden EU-Verordnung, die die Haftung nicht der Hersteller, sondern der als „Betreiber“ angesprochenen Nutzer regelt. Im Weiteren unterscheidet der Gesetzentwurf zwischen Hochrisikosystemen, für die eine verschuldensunabhängige Haftung eingeführt werden soll, und allen übrigen Systemen künstlicher Intelligenz, denen kein signifikant erhöhtes Schadenspotenzial innewohnt. Für letztere soll es bei der etablierten Verschuldenshaftung nach Maßgabe des jeweiligen nationalen Rechts bleiben.
Der Verordnungsentwurf wirft eine Vielzahl von Fragen auf, denen hier nicht im Einzelnen nachgegangen werden kann.38 Aus ordnungspolitischer Sicht ist entscheidend, dass der Parlamentsentwurf das falsche Haftungssubjekt ins Visier nimmt. Dabei ist zu berücksichtigen, dass die europäische Neuregelung nur für solche „KI-Systeme“ gelten soll, die „mit einem gewissen Maß an Autonomie“ ausgestattet sind (Art. 3 lit a VO-Entwurf). Dann aber liegt auf der Hand, dass der Nutzer gerade keinen Einfluss auf das Verhalten des Systems hat, und es ist ein ordnungspolitischer Fehler, die Haftung an eine Partei zu adressieren, die den Schaden durch eigene Anstrengungen gar nicht vermeiden kann. Der Entwurf kaschiert die Wahl des falschen Haftungssubjekts, indem er zwischen dem sog. „Frontend-Betreiber“ und dem sog. „Backend-Betreiber“ unterscheidet (Art. 3 lit e, f VO-Entwurf). Dabei ist der Frontend-Betreiber so definiert, dass er dem im deutschen Recht geläufigen Halterbegriff entspricht.39 Unter dem Backend-Betreiber versteht der VO-Entwurf hingegen diejenige natürliche oder juristische Person, die auf kontinuierlicher Basis die Merkmale der Technologie definiert, sowie Daten bereitstellt und Support-Dienstleistungen erbringt. Beim Backend-Betreiber wird es sich demnach in aller Regel um den Hersteller handeln. Damit stellt sich die Frage nach dem Verhältnis der Haftung nach dem VO-Entwurf zur Produkthaftung nach der einschlägigen Richtlinie 85/374/EWG. Gemäß Art. 11 S. 2 des VO-Entwurfs ist in diesem Fall die Produkthaftungsrichtlinie vorrangig und abschließend für die Haftung des Herstellers. Damit bestätigt im Grunde der Entwurf selbst, dass die Produkthaftung das eigentliche Thema der Haftungsordnung für autonome digitale Systeme ist.

5 Roboter als Haftungssubjekte

Die Herausforderung des Haftungsrechts durch digitale autonome Systeme besteht darin, dass ein neuer Akteur die Bühne betritt: Ein von Menschen hergestelltes Artefakt, das in konkreten Handlungssituationen seine „eigenen“ Entscheidungen trifft und sich dabei menschlicher Kontrolle und Determination entzieht. Wenn das Problem der Autonomie eines Artefakts richtig beschrieben ist, drängt sich als Lösung auf, das Artefakt selbst zum Haftungssubjekt zu machen. Dieser Schritt mag auf den ersten Schritt mindestens kühn, vielleicht sogar abwegig erscheinen, doch für das Europäische Parlament war er interessant genug, um die Kommission dazu aufzufordern, über diese Lösung nachzudenken.40
Aus ordnungspolitischer Sicht ist zunächst festzuhalten, dass eine Promotion digitaler autonomer Systeme zu Haftungssubjekten in isolierter Form nicht in Betracht kommt, weil sie zu einer vollständigen Externalisierung der durch das System verursachten Schadensrisiken führen würde.41 Schließlich verfügt ein Roboter über keinerlei finanzielle Ressourcen, aus denen er allfällige Schadensersatzansprüche bedienen könnte. Ein Rückgriff auf die „hinter“ dem Roboter stehenden Unternehmen und Individuen wäre indessen nicht möglich, wenn das digitale autonome System selbst zum Haftungsrecht befördert würde. Dann läge es nämlich genauso wie bei juristischen Personen, deren Existenz nach dem gesellschaftsrechtlichen Trennungsprinzip den Durchgriff auf die Geschäftsleiter und Anteilseigner verhindert. Insofern wirkt die Anerkennung digitaler autonomer Systeme als Rechtssubjekte wie eine Haftungsentlastung für Hersteller und Nutzer dieser Systeme. Diese Wirkungen sind untragbar und unbedingt zu vermeiden.
Eine vollständige Externalisierung der mit dem Betrieb eines digitalen autonomen Systems verbundenen Schadenskosten lässt sich vermeiden, wenn die ePerson finanziell in den Stand gesetzt wird, gegen sie gerichtete Schadensersatzansprüche zu erfüllen. Dies kann auf zweierlei Wegen geschehen: Wie im Gesellschaftsrecht gang und gäbe, könnte das Inverkehrbringen des Roboters an die Erfüllung bestimmter Mindestkapitalerfordernisse geknüpft werden. Die ePerson wäre dann mit einem bestimmten Fond auszustatten, aus dem heraus Kompensationsansprüche Dritter, die durch das Verhalten des Roboters in ihren geschützten Interessen verletzt wurden, bedient würden. Alternativ dazu käme es in Frage, das Inverkehrbringen des autonomen Systems nur unter der Voraussetzung zu erlauben, dass eine Haftpflichtversicherung nachgewiesen wird, die für die Deckung berechtigter Schadensersatzansprüche zuständig wäre. Dieses System erinnert an die Rechtslage im Verkehrsunfallrecht, denn die Zulassung eines Kraftfahrzeugs ist ebenfalls nur möglich, wenn der Halter eine Haftpflichtversicherung nachweist. In diesem Fall bleibt allerdings die natürliche oder juristische Person, die als Halter anzusprechen ist, Haftungssubjekt. Nicht etwa wird das Kraftfahrzeug selbst zum Schädiger.
Mindestkapitalerfordernisse und obligatorische Haftpflichtversicherungen sind demnach dazu geeignet, die vollständige Externalisierung der mit dem Betrieb eines Roboters verbundenen Schadensrisiken trotz Anerkennung seiner Haftungsrechtsfähigkeit zu vermeiden. Diese Überlegung liefert noch kein Argument dafür, den Roboter als Haftungssubjekt anzuerkennen. Dann aber stellen sich die Mindestkapitalerfordernisse und obligatorischen Versicherungslösungen als verkappte Haftungshöchstgrenzen heraus. Schließlich liegt auf der Hand, dass die Beschaffung der genannten Deckungen, also die Aufbringung des Mindestkapitals und die Zahlung der Prämien für die Haftpflichtversicherung, von denjenigen Parteien zu schultern wären, die haften würden, wenn sie nicht durch die ePerson vor Inanspruchnahme geschützt würden. Die Hersteller und Nutzer der als haftungsrechtsfähig vorgestellten digitalen autonomen Systeme wären demnach in der Pflicht, die entsprechenden Mittel aufzubringen. Im Gegenzug blieben sie vor Haftung geschützt, und zwar auch insoweit, als die aufgebrachten Finanzmittel für die Deckung von Schadensersatzansprüchen nicht ausreichen, insbesondere, wenn die mit der Haftpflichtversicherung vereinbarte Deckungshöchstgrenze erreicht ist. In diesem Punkt wird deutlich, dass die Anerkennung digitaler autonomer Systeme als Haftungssubjekte selbst dann, wenn für eine gewisse Kapitalausstattung oder sonstige Deckung auffälliger Schadensersatzansprüche gesorgt ist, zu einer – wenn auch nur partiellen – Risikoexternalisierung führt. Einstweilen ist kein Grund ersichtlich, der eine solche Risikoexternalisierung rechtfertigen könnte.
Diese Beurteilung wäre zu korrigieren, wenn die Marktentwicklung dazu führen würde, dass digitale autonome Systeme nicht als Bündel aller relevanten Hard- und Software-Komponenten vermarktet, sondern die Einzelkomponenten gesondert vertrieben würden.42 Bei besonders risikoträchtigen Maschinen, wie etwa Kraftfahrzeuge und Luftfahrzeuge, ist davon auszugehen, dass sie als geschlossene Systeme in den Verkehr gebracht werden, die von den Nutzern jedenfalls nicht auf legalem Wege modifiziert werden können. Bei Personal Computern nach dem Windows/Intel-Standard verhält es sich bekanntlich umgekehrt und auch Mobiltelefone nach dem Android-Standard sind offene Systeme. Sollte sich mit Blick auf autonome Digitalprodukte, deren Betrieb mit erheblichen Schadensrisiken verbunden ist, ein offener Vermarktungsansatz durchsetzen, böte es sich an, die ePerson als Instrument zur Bündelung von Haftungslasten einzusetzen. In diesem Fall erhielten die Geschädigten einen Ansprechpartner, der für sämtliche Schäden verantwortlich gemacht werden kann, die das Gesamtsystem verursacht hat, und sie wären so der Aufgabe enthoben, den Hersteller derjenigen Hard- oder Software-Komponente ausfindig zu machen, der die Fehlfunktion des Roboters zu verantworten hat.

6 Internet-Plattformen als Gatekeeper des Internet

6.1 Haftungsprivilegien für den herrschaftsfreien Raum

Das Internet eröffnete einen neuen, grenzenlosen und quasi rechtsfreien Kommunikationsraum und weckte Erwartungen, urheberrechtlich geschützte Werke sowie Informationen jeder Art praktisch völlig unbekümmert von Rechten Dritter konsumieren zu können. Diese Erwartungen wurden durch die Politik noch geschürt. In Europa wurden den Internet-Intermediären durch die E‑commerce-Richtlinie 2000/31/EG weitreichende Haftungsprivilegien gewährt. Gemäß Art. 15 Abs. 1 RL 2000/31/EG dürfen die Mitgliedstaaten Internet-Dienstleistern „keine allgemeine Verpflichtung auf[erlegen], die von ihnen übermittelten oder gespeicherten Informationen zu überwachen oder aktiv nach Umständen zu forschen, die auf eine rechtswidrige Tätigkeit hinweisen.“ Art. 12 Abs. 1 der Richtlinie stellt Access-Provider, die lediglich den Zugang zum Internet vermitteln, von der Haftung frei, sofern sie sich auf die reine Durchleitung fremder Informationen beschränken. Eine ähnliche Haftungsbeschränkung für Host-Provider, die fremde Informationen speichern und zum Abruf anbieten, enthält Art. 14 Abs. 1 der Richtlinie. Danach haftet der Speicherplatzanbieter nicht für rechtswidrige Inhalte Dritter, sofern er von der Rechtsverletzung weder positive Kenntnis hatte noch die Rechtsverletzung aufgrund der Umstände offensichtlich war. Welchen Beitrag die gesetzliche Begrenzung der Haftung der Internet-Intermediäre zur Entwicklung des Internet geleistet hat, lässt sich schwer einschätzen, zumal in den USA noch weiter reichende Privilegierungen eingeführt wurden,43 sodass ein Vergleich mit der Entwicklung, die sich bei Fehlen eines entsprechenden Rechtsrahmens ergeben hätte, nicht möglich ist.

6.2 Die Herausbildung marktmächtiger Plattformen

Die Vorstellung des Internet als herrschaftsfreier Kommunikations- und Informationsraum hat sich inzwischen als Illusion entpuppt.44 Insbesondere hat die Internetwirtschaft nicht nur die Geschäftsmodelle der traditionellen Intermediäre, also der Presseverlage, Sendeanstalten und -unternehmen, erschüttert, sondern zugleich neue Arten von Intermediären hervorgebracht, die die Kommunikation zwischen den einzelnen Nutzern verwalten, gestalten und zunehmend auch kuratieren und kontrollieren. Dabei ist in den Wirtschaftswissenschaften und auch im rechtswissenschaftlichen Diskurs der Begriff des Intermediärs zunehmend durch denjenigen der Plattform ersetzt worden.
Plattformen sind gewinnorientierte Wirtschaftsunternehmen. Für die internetbasierten Plattformen ist typisch, dass sie ihr Geld nicht in bilateralen Kundenbeziehungen verdienen, sondern mehrseitige Märkte etablieren, in denen die Leistung der einen Seite, die „Gegenleistung“ hingegen von der anderen Seite erbracht wird.45 Ein soziales Netzwerk wie Facebook beispielsweise erbringt Leistungen an seine Nutzer und finanziert sich über Entgelte, die von Unternehmen an Facebook für personalisierte Werbung gezahlt werden. Einige dieser Plattformen verfügen über sehr erhebliche Marktmacht, weil Märkte mit starken Netzwerkeffekten zum sog. Tipping neigen, d. h. die nutzerstärkste Plattform zieht praktisch die gesamte Nachfrage an.46 Diese Effekte zusammen genommen haben den sog. Super-Plattformen einen märchenhaften Aufstieg in kürzester Zeit beschert, der sich in hohen Gewinnen niederschlägt.

6.3 Haftung der Plattformen für rechtswidrige Nutzerinhalte

In Reaktion auf diese Entwicklungen ertönt auf allen Kontinenten der Ruf nach Regulierung der Plattformen.47 Die EU-Kommission hat Ende 2020 zwei Gesetzesentwürfe vorgelegt, mit denen digitale Märkte und digitale Dienste reguliert werden sollen.48 Das Gesetz über digitale Dienste lässt die Haftungsprivilegien der e‑Commerce-Richtlinie allerdings unangetastet.49 Auf der nationalen Ebene hat das Haftungsrecht indessen weit früher die Zügel angezogen. Dies war möglich, weil die e‑Commerce-Richtlinie zwar die Schadensersatzhaftung begrenzt, die sog. negatorische Haftung insbesondere der Speicherplatzanbieter (hosts) aber unberührt lässt. Gemäß Art. 14 Abs. 3 RL 2000/31/EG bleibt die Verpflichtung der Speicherplatzanbieter zur Beseitigung bereits eingetretener und zur Vermeidung zukünftiger Rechtsverletzungen unberührt. Sie sind also gehalten, rechtswidrige Informationen zu löschen oder den Zugang zu diesen zu sperren.
Diese Lücken in dem durch die e‑Commerce-Richtlinie errichteten Haftungsschild hat der BGH dazu genutzt, die Privilegien der Internet-Intermediäre in wesentlichen Punkten zu relativieren und den Plattformen eine Mitverantwortung für rechtswidrige Nutzerinhalte zuzuschreiben.50 Nach einer ständigen Formulierung des I. Zivilsenats kann als Störer „bei der Verletzung absoluter Rechte auf Unterlassung in Anspruch genommen werden, wer – ohne Täter oder Teilnehmer zu sein – in irgendeiner Weise willentlich und adäquat-kausal zur Verletzung des geschützten Rechtsguts beiträgt“.51 Diese Haftung bezieht sich allerdings nicht auf rechtswidrige Nutzerinhalte schlechthin. Vielmehr setzt sie die Verletzung von Prüfpflichten voraus, deren Umfang sich danach bestimmt, inwieweit der Plattform eine Prüfung zuzumuten ist.52 Maßgebend ist im Ergebnis eine Kosten/Nutzen-Abwägung, die in Rechnung stellt, dass eine flächendeckende Durchsicht fremder Inhalte unmöglich ist bzw. exorbitante Kosten verursachen würde. Die Störerhaftung setzt deshalb voraus, dass der Intermediär von der Rechtsverletzung Kenntnis erlangt hat, und diese Kenntnis wird ihm normalerweise von dem Rechtsinhaber verschafft, der sich mit einer Beschwerde an die Plattform wendet. Hat die Plattform auf diese oder andere Weise Kenntnis erlangt, ist sie nicht nur verpflichtet, das inkriminierte Angebot zu sperren, sondern hat dafür Sorge zu tragen, dass es in der Zukunft möglichst nicht zu gleichartigen Rechtsverletzungen kommt.53 Es gilt also eine Haftung nach dem Prinzip des „Notice and take down“, wie sie auch in den USA für online begangene Urheberrechtsverletzungen gilt.54

6.4 Das Plattformverhältnis als Dreieck

Die Inpflichtnahme der Plattformen für Internetdelikte darf nicht verdecken, dass die Plattform nicht der Primärschädiger ist, sondern das Verletzungsverhältnis zwischen zwei anderen Privatpersonen besteht. Die Internethaftung betrifft ein Dreiecksverhältnis, mit der Plattform in der einen Ecke sowie dem Autor des rechtsverletzenden Inhalts und dem davon betroffenen Geschädigten und Rechtsinhabers in den anderen beiden Ecken. In dieser Konstellation ist die Legitimation der Intermediärshaftung durchaus problematisch, denn sie begründet eine Verantwortlichkeit der Plattform für schädigendes Verhalten Dritter, nämlich der Plattformnutzer.
Nach einem allgemeinen haftungsrechtlichen Prinzip ist jede Person grundsätzlich nur für ihren eigenen Wirkungskreis, d. h. für ihr eigenes Verhalten und ihre eigenen Sachen zuständig, nicht hingegen für – uU rechtswidrige – Aktivitäten Dritter.55 Die Haftung wegen Nichtverhinderung von Rechtsgutsverletzungen Dritter ist die begründungsbedürftige Ausnahme. In Bezug auf Dritte gilt der Vertrauensgrundsatz, nach dem jeder Akteur davon ausgehen kann, dass sich alle übrigen Akteure rechtmäßig verhalten.56 Eine Plattform darf also grundsätzlich darauf vertrauen, dass ihre Nutzer keine rechtswidrigen Inhalte zugänglich machen.
Im Übrigen ist die Plattform die „falsche Prozesspartei“ für die Verteidigung von Nutzerinhalten, die von Dritten beanstandet werden. Der Streit um die Zulässigkeit solcher Nutzerinhalte sollte zwischen denjenigen Parteien ausgetragen werden, deren Interessen auf dem Spiel stehen. Dies ist auf der einen Seite der Inhaber des (vermeintlich) verletzten Immaterialgüter‑, Persönlichkeits- oder sonstigen Rechts und auf der anderen Seite Urheber des vermeintlich rechtsverletzenden Inhalts, sei es Text, Bild oder Ton. Bei der Prüfung der Rechtmäßigkeit bzw. Rechtswidrigkeit des beanstandeten Inhalts sind bei Persönlichkeitsrechtsverletzungen die Grundrechtspositionen der Betroffenen, also des Geschädigten und des Nutzers abzuwägen.57 Die Interessen der Plattform sind hingegen nicht wesentlich tangiert.58 Der Betreiber der Plattform verfügt in aller Regel auch nicht über die für eine effektive Rechtsverteidigung erforderlichen Informationen. Geht es um die Verletzung des allgemeinen Persönlichkeitsrechts, hängt die Entscheidung häufig an der Wahrheit einer Tatsachenbehauptung,59 die der Betreiber der Plattform gar nicht beurteilen kann.60 Folglich ist er nicht im Stande nachzuweisen, dass die inkriminierte Behauptung des Nutzers der Wahrheit entspricht.
Die Verantwortlichkeit der Intermediäre für rechtswidrige Nutzerinhalte wird mitunter auf das ökonomische Prinzip des „cheapest cost avoider“ gestützt,61 nach dem diejenige Partei für einen Schaden verantwortlich ist, die ihn auf die günstigste Weise vermeiden kann.62 Auf dieser Linie liegt das BVerfG, wenn es die Haftung einer Suchmaschine für fremde Inhalte u. a. mit der Erwägung begründet, es sei „effizienter“, statt des für den Inhalt Verantwortlichen die Suchmaschine in Anspruch zu nehmen.63 Demgegenüber liegt auf der Hand, dass die Rechtsverletzung mit den einfachsten und günstigsten Mitteln von dem Primärschädiger vermieden werden kann, von dem der rechtswidrige Inhalt stammt, nicht von der Plattform, über die er abrufbar ist.

6.5 Legitimation der Plattformhaftung

Trotz dieser Bedenken gegenüber einer Haftung der Plattform für rechtswidriges Verhalten ihrer Nutzer ist sie im Ergebnis gerechtfertigt, und zwar auch aus ordnungspolitischer Perspektive. Hinter der Klassifizierung der Plattformen als „cheapest cost avoiders“ steht wohl die – zutreffende – Erwägung, dass der Rechtsschutz gegenüber dem Primärschädiger, dem Urheber des rechtswidrigen Inhalts, in vielen Fällen versagt, weil eine Rechtsverfolgung gegen diesen zu spät kommt, unverhältnismäßigen Aufwand verursacht oder schlicht nicht möglich ist.64 Die Inanspruchnahme scheitert oft bereits an der Anonymität der Kommunikationsakte im Internet, die eine Identifikation des Verursachers verhindert. Die Befugnis zur anonymen Nutzung des Internet wird in der E‑Commerce Richtlinie 2000/31/EG bekräftigt,65 und die deutsche Regelung des § 13 Abs. 6 TMG gewährleistet dieses Recht ausdrücklich. Für das Interesse an effektivem Rechtsschutz gegenüber rechtsverletzenden Äußerungen im Internet ist dies fatal, denn wenn sich deren Urheber nicht zu identifizieren braucht, ist eine Rechtsverfolgung diesem gegenüber faktisch ausgeschlossen. Doch selbst wenn die Identifikation des Urhebers eines rechtswidrigen Inhalts möglich ist, bleibt der Rechtsschutz gegen den Primärschädiger defizitär. Gerichtlicher Rechtsschutz braucht unweigerlich Zeit, und während diese vergeht, vertieft sich die Rechtsverletzung. Wenn urheberrechtlich geschützte Werke oder persönlichkeitsrechtsverletzende Bilder Tage, Wochen oder Monate lang im Internet frei zugänglich bleiben, hilft ein danach durchgesetzter Abwehranspruch nicht mehr viel. Der internationale Charakter des Internet ermöglicht es den beteiligten Akteuren zudem, ihren Sitz in weit entfernten Jurisdiktionen zu nehmen, in denen der Gerichtsschutz nicht gut funktioniert. Vor diesem Hintergrund ist die Verantwortung der Plattform für rechtswidrige Nutzerinhalte im Interesse eines wirksamen Rechtsschutzes notwendig.
Die Inpflichtnahme der Plattform ist darüber hinaus legitim, weil sie die Verletzung der Rechte Dritter durch das Internet zum eigenen Nutzen ermöglicht und Kontrolle über die inkriminierten Kommunikationsakte hat. Ohne Internetplattformen wäre es überhaupt nicht möglich, fremde Urheberrechte in dem Umfang zu verletzen, wie dies tatsächlich geschieht. Genauso war die Herabsetzung anderer durch ehrverletzende Äußerungen vor dem Aufkommen des Internet auf den sozialen Nahbereich beschränkt, der allenfalls durch Beschmieren von Wänden in öffentlichen Räumen auf ein größeres Publikum ausgedehnt werden konnte. Schmähungen im Internet hingegen erreichen Millionen von Menschen.66 Die Plattformen schaffen erst den Raum für massenhafte Rechtsverletzungen, sie tun dies zum eigenen Nutzen und sie haben Mittel und Wege, die Verletzung fremder Rechte durch nutzergenerierte Inhalte zu vermeiden oder zumindest zu reduzieren. Genauso wie dem Betreiber eines Drogenhilfezentrums, die Beeinträchtigungen zuzurechnen sind, die Drogensüchtige und -dealer in der Nachbarschaft verursachen,67 und der Betreiber einer in einem Wohngebiet gelegenen Diskothek für die Lärmimmissionen verantwortlich ist, die von Gästen verursacht werden, die draußen vor der Tür rauchen, trinken und sich unterhalten,68 genauso haften Plattformen für Rechtsverletzungen, die von ihren Nutzern „über die Plattform“ begangen werden.
Die Inanspruchnahme des Intermediärs erfolgt zu dem Zweck, das Verhalten des Primärschädigers zu kontrollieren. Diese Funktionszuschreibung weist den Intermediären eine ähnliche Rolle zu wie Wirtschaftsprüfungsgesellschaften und Ratingagenturen.69 Genau wie in diesen Fällen geht es auch hier darum, das Verhalten eines Rechtssubjekts durch ein anderes kontrollieren zu lassen. In Bezug auf das Internet funktionieren die Intermediäre ähnlich wie die Gatekeeper des Kapitalmarktrechts. Deshalb ist es nur folgerichtig, wenn sie in dem EU-Entwurf eines Gesetzes über digitale Märkte auch so angesprochen werden – als Gatekeeper.70

6.6 Ausgestaltung der Plattformhaftung

Die Rolle der Plattformen als Gatekeeper steht einer strengen Haftung für nutzergenerierte Inhalte entgegen. Insbesondere sind sie nicht dazu verpflichtet, die Rechtmäßigkeit der Internetkommunikation ex ante sicherzustellen, etwa durch sog. Upload-Filter. Nach dem Prinzip des „Notice and take down“ müssen sie allerdings reagieren, wenn sie von dem Betroffenen auf eine klare Rechtsverletzung hingewiesen werden.
Die Haftung nach dem Prinzip des „Notice and take down“ gilt nur für fremde, nicht für eigene Inhalte. Für eigenes Verhalten und eigene Inhalte ist der Betreiber einer Plattform genauso verantwortlich wie jedes andere Rechtssubjekt auch. Jedermann ist verpflichtet, das eigene Verhalten so einzurichten, dass Gefahren für Rechtsgüter Dritter im Rahmen des Möglichen und Zumutbaren vermieden werden.71 Eine Reduktion der Sorgfaltspflichten auf eine ex-post-Kontrolle kommt in Bezug auf eigenes Verhalten und eigene Inhalte deshalb nicht in Betracht. Beispielsweise ist die Autocomplete-Funktion der Suchmaschine Google von diesem Unternehmen voll zu verantworten, die Verletzung von Persönlichkeitsrechten Dritter also durch Sorgfaltsmaßnahmen ex ante zu vermeiden.72 Die von der Suchmaschine generierten Ergänzungsvorschläge sind weder den Nutzern zuzurechnen, aus deren früheren Suchanfragen sie generiert worden sind noch dem – möglicherweise künstlich intelligenten – Algorithmus, der diese Suchanfragen ausgewertet hat, sondern sie sind eigene Inhalte des Betreibers der Suchmaschine.
Die volle Haftung für eigene Inhalte greift auch dann ein, wenn sich die Plattform fremde Inhalte der Nutzer zu Eigen gemacht hat. Dies setzt voraus, dass der Intermediär nach außen zu erkennen gegeben hat, dass er die inhaltliche Verantwortung für die von ihm bereit gehaltenen Fremdinhalte übernommen oder sich mit ihnen identifiziert hat.73 Dafür reicht es nicht aus, wenn lediglich der Zugang zu fremden Inhalten hergestellt, die Nutzerinhalte also nicht kuratiert werden.74 Eine Prüfung der eingestellten Fremdbeiträge auf Vollständigkeit und Richtigkeit durch den Betreiber eines Internetportals soll hingegen für ein Zueigenmachen ausreichen.75 Auf der Basis dieser Grundsätze hat der BGH ein Zueigenmachen bei Bewertungsportalen anerkannt,76 hingegen für die von einer Suchmaschine erschlossenen Internetseiten verneint.77 Betreiber von Online-Marktplätzen wie Ebay sind für die über ihr Portal angebotenen Produkte nicht verantwortlich solange sie sich auf die Rolle eines neutralen Mittlers zwischen den beiden Marktseiten beschränken.78

6.7 Haftung von Plattformen zum Teilen von Inhalten

Die Anfang 2019 verabschiedete Richtlinie (EU) 2019/790 über das Urheberrecht im digitalen Binnenmarkt verändert das Verantwortungssystem der E‑Commerce Richtlinie 2000/31/EG in einem wichtigen Punkt.79 Den sog. „Diensteanbietern für das Teilen von Online-Inhalten“ (content-sharing service providers) nach Maßgabe des Art. 2 Abs. 6 der Richtlinie 2019/790 – gemeint sind insbesondere die Plattformen YouTube und Instagram80 – wird durch Art. 17 Abs. 3 das Haftungsprivileg des Art. 14 der e‑Commerce-Richtlinie 2000/31/EG entzogen. Zugleich macht Art. 17 Abs. 1 Richtlinie 2019/790 diese Intermediäre für Verletzungen von Urheberrechten verantwortlich, die von Nutzern auf der Plattform verursacht wurden. Allerdings ist der europäische Gesetzgeber nicht so weit gegangen, der Plattform die Inhalte ihrer Nutzer in vollem Umfang als eigene zuzurechnen und sie für Rechtsverletzungen durch Nutzerinhalte ohne Weiteres verantwortlich zu machen. Das ausführliche und im Detail komplizierte Pflichtenprogramm insbesondere des Art. 17 Abs. 1, 2, 4 Richtlinie 2019/790 beschreitet einen Mittelweg zwischen den Standards, die für eigene bzw. zu eigen gemachte Inhalte und denjenigen, die für nutzergenerierte Inhalte gelten.
Gemäß Art. 17 Abs. 1, 2 Richtlinie 2019/790 sind Plattformen für das Teilen von Inhalten primär dazu verpflichtet, die Einwilligung der Rechteinhaber einzuholen und sich mit diesen auf eine Lizenzgebühr zu einigen. Kommt es zu keiner Einigung und werden von den Nutzern der Plattform urheberrechtsverletzende Inhalte hochgeladen, ist die Plattform grundsätzlich in der Haftung. Von dieser kann sie sich gemäß Art. 17 Abs. 4 Richtlinie 2019/790 durch den Nachweis entlasten, sich redlich um eine Lizenz bemüht (lit. a) und die im Verkehr erforderliche Sorgfalt aufgebracht zu haben, um rechtsverletzende Inhalte zu sperren, nachdem sie von den betroffenen Rechteinhabern entsprechend informiert wurde (lit. b) sowie nach Verschaffung der Kenntnis von der Rechtsverletzung durch die Rechteinhaber unverzüglich gehandelt zu haben, um den Zugang zu den geschützten Werken zu sperren, und alle Anstrengungen unternommen zu haben, um das künftige Hochladen dieser Werke zu verhindern (lit. c). Diese differenzierten Maßstäbe sind eindrucksvoller Beleg dafür, dass auch eine „täterschaftliche“ Haftung von Plattformen für nutzergenerierte Inhalte, wie sie in Art. 17 Abs. 1 Richtlinie 2019/790 proklamiert wird, keineswegs eine strikte Zurechnung jedweder Rechtsverletzung erzwingt.81 Vielmehr ist die allgemeine Fahrlässigkeitshaftung offen für Konkretisierungen und Differenzierungen mit Rücksicht auf Kosten und Nutzen von Sorgfaltsmaßnahmen, die bei Internet-Intermediären zu der fundamentalen Unterscheidung zwischen Prüfmaßnahmen ex ante und Reaktionspflichten nach Kenntniserlangung von einer Rechtsverletzung führen.
Der deutsche Umsetzungsakt zu Art. 17 Richtlinie 2019/790, das Urheberrechts-Diensteanbieter-Gesetz (UrhDaG) vom 31.05.2021, bestätigt diese Einschätzung.82 Das UrhDaG gestaltet die Sorgfaltspflichten der Plattformen in hochdifferenzierter Weise aus, indem es zwischen qualifizierter Blockierung (§ 7 UrhDaG), einfacher Blockierung (§ 8 UrhDaG), mutmaßlich erlaubten Nutzungen (§ 9 UrhDaG), geringfügigen (und deshalb mutmaßlich erlaubten) Nutzungen (§ 10 UrhDaG), gesetzlich erlaubten Nutzungen (§ 5 UrhDaG) und schließlich lizensierten und deshalb erlaubten Nutzungen (§ 5 UrhDaG) unterscheidet und jeweils spezielle Pflichten anknüpft.
Die normative Legitimation für das mit Art. 17 Richtlinie 2019/790 bewirkte Abgehen von dem Grundsatz des „Notice and take down“ und die stattdessen eingeführte und zugleich beschränkte Pflicht zur Prüfung fremder Inhalte ex ante beruht auf einer besonderen Relation von Schadens- und Sorgfaltskosten bei Plattformen zum Teilen nutzergenerierter Inhalte. Solche Plattformen bergen ein erhöhtes Gefährdungspotential für fremde Urheberrechte, da die rechtswidrige Nutzung geschützter Werke durch die Nutzer der Plattform auf technisch leichtestem Wege möglich ist. Auf der anderen Seite ist es Plattformen zum Teilen von Online-Inhalten, anders als sonstigen Intermediären, möglich, ex ante kostengünstige Vorkehrungen gegen rechtswidrige Werknutzungen zu treffen. Insbesondere können Lizenzen der Rechteinhaber eingeholt und damit Nutzungen geschützter Werke von vornherein legalisiert werden, und in Zusammenarbeit mit den Rechteinhabern können Rechtsverletzungen durch Einsatz von Software-Filtern kostengünstig identifiziert und verfolgt werden.83 Schließlich fällt ins Gewicht, dass Plattformen zum Teilen von Inhalten kommerziell betrieben werden, sodass die Kosten gesteigerter Sorgfaltsmaßnahmen von dem Betreiber zurückverdient werden können. In der Terminologie des Deliktsrechts trägt der Pflichtenmaßstab des Art. 17 Abs. 4 Richtlinie 2019/790 dem Umstand Rechnung, dass – jedenfalls bei Content-Sharing Plattformen – inzwischen Technologien zur Verfügung stehen, die einen ex-ante-Schutz von Urheberrechten zu vertretbaren Kosten ermöglichen.
Auf die Verletzung anderer Rechtspositionen als Urheberrechte, etwa Verletzungen des allgemeinen Persönlichkeitsrechts durch Beleidigungen, falsche Tatsachenbehauptungen oder Reportagen aus dem Bereich der Privat- oder Intimsphäre, lassen sich diese Erwägungen nicht übertragen. Beim allgemeinen Persönlichkeitsrecht geht es nicht so sehr um die Erlangung einer Vergütung nach Lizenzerteilung, sondern um die Abwehr bzw. Beendigung der Rechtsverletzung durch Unterlassungs- und Beseitigungsansprüche. Vor allem aber kann die Plattform die Rechtswidrigkeit von Eingriffen in das allgemeine Persönlichkeitsrecht, etwa die Wahrheit einer beanstandeten Tatsachenbehauptung, nicht mit vertretbarem Aufwand verifizieren. Eine Zurechnung nutzergenerierter Inhalte „als eigene“ wäre dysfunktional und daher nicht gerechtfertigt.

6.8 Prozeduralisierung der Haftungsfolgen

Nach allem ist die Verantwortung von Plattformen für nutzergenerierte Inhalte in einem beschränkten Umfang gut begründet. Zwar ist die Plattform nicht selbst Urheber der rechtswidrigen Inhalte und insofern auch nicht „cheapest cost avoider“, doch sie stellt einen Kommunikationsraum zur Verfügung, der die Rechtsverletzung erst ermöglicht, sie kann diesen Raum kontrollieren, und sie tut beides zum eigenen Nutzen.
Allerdings bleibt es dabei, dass die Plattform für rechtswidriges Verhalten anderer – ihrer Nutzer – haftbar gemacht wird. Hinzu kommt, dass die Blockierung eines Inhalts, den ein Nutzer hochgeladen und ein Dritter beanstandet hat, unweigerlich die Interessen dieses Nutzers tangiert. Die Blockade von Inhalten mit Rücksicht auf die Rechte Dritter schränkt die Äußerungsfreiheiten des Nutzers ein und berührt die grundrechtlichen Gewährleistungen des Art. 5 GG. Die Plattform wiederum hat kein starkes Eigeninteresse daran, unberechtigten Beanstandungen von Inhalten durch Dritte zu widerstehen. Darüber hinaus fehlt ihr in Fällen vermeintlicher Persönlichkeitsrechtsverletzungen der für eine erfolgreiche Verteidigung des Inhalts erforderliche Zugang zu Informationen und Beweismitteln. Die daraus resultierende Gefahr einer übermäßigen Rechtsdurchsetzung ist unter dem Begriff Overblocking geläufig.84
Der Gefahr des Overblocking lässt sich begegnen, wenn das Dreiecksverhältnis zwischen Plattform, Nutzer und Drittem erkannt wird, innerhalb dessen die Plattform die Rolle einer Streitmittlerin zwischen den Parteien des primären Verletzungsverhältnisses spielt.85 Bei der Entscheidung von Internet-Plattformen über die Sperrung von Nutzerinhalten müssen nicht nur die Interessen der potenziell in ihren Rechten Verletzten, sondern auch diejenigen der betroffenen Nutzer, also der Autoren der inkriminierten Inhalte, in den Blick genommen werden. Der Schutz der Rechte der Verletzten bedingt einen Eingriff in die Freiheit der Nutzer, die ebenfalls grundrechtlich abgesichert ist. Somit obliegt der Plattform der Ausgleich zwischen konfligierenden Rechtspositionen im grundrechtssensiblen Bereich.86
Dem Dreiecksverhältnis zwischen der Plattform, dem Nutzer, der den inkriminierten Inhalt hochgeladen hat, und dem Dritten, der die Verletzung seiner Rechte durch den Inhalt behauptet, lässt sich durch Prozeduralisierung der Rechtsfolgen der Haftung Rechnung tragen. Der BGH hat einen solchen Ansatz auf richterrechtlicher Grundlage entwickelt, indem er den Betreibern von Blogs und von Bewertungsportalen aufgegeben hat, dem Autor des beanstandeten Inhalts eine Art rechtliches Gehör zu gewähren.87 Anschließend muss die Plattform den in seinen Persönlichkeitsrechten Betroffenen mit dieser Stellungnahme konfrontieren.88 Notfalls muss über die Berechtigung der Beanstandung „Beweis erhoben“ werden.89 Ist der Sachverhalt geklärt, muss die Plattform bei ihrer Entscheidung über die Beschwerde die Grundrechtspositionen der betroffenen „Streitparteien“ berücksichtigen und zu einem schonenden Ausgleich bringen.90
Dieser Ansatz einer Prozeduralisierung der Haftungsfolgen hat der deutsche Gesetzgeber mit dem gegen Hassrede im Internet gerichteten Netzwerkdurchsetzungsgesetz (NetzDG) aufgenommen und mit dessen Reform 2021 in § 3–§ 3c NetzDG massiv ausgebaut.91 Der europäische Gesetzgeber hat sich diesem Ansatz in Art. 17 Abs. 9 Unterabs. 1 Richtlinie 2019/790 angeschlossen, dessen Vorgaben durch die Transformationsnormen der §§ 13 ff. UrhDaG ausbuchstabiert werden. Gemäß § 14 Abs. 1 UrhDaG sind die Plattformen verpflichtet, den Nutzern und Rechteinhabern ein „wirksames, kostenfreies und zügiges Beschwerdeverfahren“ zur Verfügung zu stellen, in dem über Blockierung oder Stehenlassen eines Inhalts entschieden wird. Das Beschwerdeverfahren ist für die Nutzer und Rechteinhaber freiwillig und schließt den Rechtsweg zu den ordentlichen Gerichten nicht aus (§ 13 Abs. 2, 4 UrhDaG). Die Plattform kann das Beschwerdeverfahren entweder intern durchführen oder aber eine anerkannte externe Beschwerdestelle einschalten (§ 15 UrhDaG). Unabhängig von der Entscheidung der Beschwerdestelle können Nutzer und Rechteinhaber vor eine private Schlichtungsstelle ziehen, wie sie auch für Streitigkeiten über die Sperrung von Inhalten nach dem NetzDG zur Verfügung steht (§ 16 UrhDaG).
Außerhalb der Urheberrechts-Richtlinie zielt auch der europäische Gesetzgeber weiterhin auf eine Stärkung der außergerichtlichen Streitbeilegung. Der Entwurf einer EU-Verordnung über digitale Dienste verpflichtet die Mitgliedstaaten dazu, die Plattformen zur Einrichtung interner Beschwerdeverfahren anzuhalten, gegen deren Entscheidungen wiederum externe Schlichtungsstellen angerufen werden können.92 An diesem Regelungsvorschlag ist zu bemängeln, dass die Befugnis zur Initiierung des internen Beschwerdeverfahrens und zur Anrufung der Schlichtungsstelle asymmetrisch ausgestaltet wird: Zwar kann sich der Autor des inkriminierten Inhalts gegen dessen Sperrung zur Wehr setzen, nicht aber umgekehrt der vermeintlich Verletzte gegen das Stehenlassen des Inhalts.93
Ungeachtet der Kritik im Detail weist die Prozeduralisierung der Rechtsfolgen bei der Haftung der Plattform für nutzergenerierte Inhalte in die richtige Richtung. Aus ordnungspolitischer Sicht ist die Haftung der Plattform geboten, weil sie die breitflächige Verletzung der Rechte Dritter erst ermöglicht, indem sie zum eigenen Nutzen einen Raum für die Kommunikation nutzergenerierter Inhalte schafft.94 Die Verantwortlichkeit der Plattform führt aber unweigerlich dazu, dass ein privater Akteur über die Zulässigkeit der Internetkommunikation im Verhältnis zweier anderer Parteien entscheidet – und dies sicher nicht ohne Berücksichtigung seiner Eigeninteressen tun wird. Die öffentliche Diskussion ist widersprüchlich, wenn sie einerseits die Macht der Plattformen beklagt, diese aber andererseits in die Verantwortung für Hassrede und rechtswidrige nutzergenerierte Inhalte sonstiger Art nimmt und damit erst recht zu Torwächtern der Internetkommunikation macht.95 Diese Zwickmühle lässt sich einstweilen nicht vermeiden, sondern nur abmildern, indem die Entscheidung über die Zulässigkeit inkriminierter Inhalte so gut es geht aus dem forum internum der Plattform herausgelöst und zum Gegenstand transparenter Beschwerdeverfahren gemacht oder – noch besser – vor externe Streitbeilegungsstellen verwiesen wird96.

7 Schluss

Die digitale Transformation beschert dem Haftungsrecht vor allem zwei neue Arten von Akteuren: digitale autonome Systeme und Plattformen, die die Kommunikation im Internet ermöglichen, aber auch beherrschen. Der vorliegende Beitrag galt dem Ziel, ordnungspolitische Maßstäbe für den Umgang mit diesen Akteuren zu gewinnen und diese für digitale autonome Systeme und Plattformen zu konkretisieren. Dabei ist deutlich geworden, wie unterschiedlich die beiden Problemkomplexe liegen. Zentrale Grundprinzipien haben sie jedoch gemeinsam: Haftung setzt Kontrolle voraus und muss folgerichtig an diejenigen Akteure adressiert werden, die über Kontrolle verfügen. Diese Akteure sind es, die zur Steuerung von Gefahren in der Lage sind und über die Mittel und Möglichkeiten verfügen, Schädigungen Dritter durch effiziente Sorgfaltsaufwendungen sowie durch Reduktion des Aktivitätsniveaus auf das effiziente Niveau zu vermeiden. Und dies ist genau das, worum das Haftungsrecht bemüht ist – oder jedenfalls bemüht sein sollte.
Open Access Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Lizenz veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Artikel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Weitere Details zur Lizenz entnehmen Sie bitte der Lizenzinformation auf http://​creativecommons.​org/​licenses/​by/​4.​0/​deed.​de.
Fußnoten
1
Vgl. Lessig, Code, 2. Aufl. 2006, S. 2 ff. Speziell in Bezug auf Intermediäre Klonick, The New Governors: The People, Rules, and Processes Governing Online Speech, 131 Harv. L. Rev. 1598, 1603 (2018); weiter Balkin, Digital Speech and Democratic Culture: A Theory of Freedom of Expression for the Information Society, 79 N.Y.U. L. Rev. 1 (2004).
 
2
Eingehend Wagner GRUR 2020, 329, 330 f.
 
3
Gillespie, Custodians of the Internet, 2018, S. 24 ff.
 
4
Vgl. oben, Fn. 1.
 
5
Dazu unten, VI.
 
6
Richtlinie 85/374/EWG zur Angleichung der Rechts- und Verwaltungsvorschriften der Mitgliedstaaten über die Haftung für fehlerhafte Produkte, ABl. L 210, 29.
 
7
Wagner AcP 217 (2017), 707 (716 ff.); Report from the Expert Group on Liability and New Technologies, 2019, 43, im Internet abrufbar unter https://​ec.​europa.​eu/​transparency/​regexpert/​index.​cfm?​do=​groupDetail.​groupMeetingDoc&​docid=​36608.
 
8
Vgl., trotz vieler Unterschiede im Einzelnen, von Hayek, The Use of Knowledge in Society, 35 Am. Econ. Rev. 519, 524 ff. (1945); Lippmann, The Good Society, 1937/2005, S. 29 ff., 174 ff.; Mestmäcker, Europäische Prüfsteine der Herrschaft und des Rechts, 2016, insb. die Beiträge S. 149 ff., 171 ff., 305 ff.
 
9
Eingehend dazu Wagner, Roboter als Haftungssubjekte? Konturen eines Haftungsrechts für autonome Systeme, in Faust/Schäfer (Hrsg.), Zivilrechtliche und rechtsökonomische Probleme des Internet und der künstlichen Intelligenz, 2019, S. 1, 3 ff.; ders. VersR 2020, 717 f.
 
10
Gesetz-Sammlung für die Königlichen Preußischen Staaten, Nr. 35, vom 24.11.1838, S. 505 ff., 510; eingehend zur Entstehungsgeschichte Baums, Die Einführung der Gefährdungshaftung durch F. C. von Savigny, SavZRG GA 104 (1987), 277.
 
11
Gesetz zur Regelung der Gentechnik, 20.06.1990, BGBl. I, S. 1080, dort §§ 32 ff.
 
12
Europäische Kommission, Call for Applications for the Selection of Members of the Expert Group on Liability and New Technologies, 4, im Internet abrufbar unter https://​ec.​europa.​eu/​transparency/​regexpert/​index.​cfm?​do=​news.​open_​doc&​id=​12065. Genauso Lohsse/Schulze/Staudenmeyer, Liability for Artificial Intelligence, in: dies. (Hrsg.), Liability for Artificial Intelligence and the Internet of Things, 2019, S. 11, 18.
 
13
Zu diesem grundlegenden Unterschied zwischen Regulierung und Haftung bahnbrechend Shavell, Liability for Harm versus Regulation of Safety, 13 J. Legal Stud. 357 (1984); vgl. auch Wagner in Faust/Schäfer (Hrsg.), Zivilrechtliche und rechtsökonomische Probleme des Internet und der künstlichen Intelligenz, 2019, S. 1, 9 ff.
 
14
Eingehend Wagner VersR 1999, 1441, 1450 ff.
 
15
Vgl. nur Shavell, Strict Liability versus Negligence, 9 J. Legal Stud. 1 (1984); Wagner, Deliktsrecht, 14. Aufl. 2021, Kap. 4, Rn. 16 ff.
 
16
Vgl. Wagner VersR 2020, 717, 718 f.
 
17
Zu Verkehrsunfällen Geistfeld, A Roadmap for Autonomous Vehicles: State Tort Liability, Automobile Insurance, and Federal Safety Regulation, 105 Cal. L. Rev. 1611, 1614 (2017); Wagner AcP 217 (2017), 707, 709.
 
18
Dazu eingehend Wagner in Faust/Schäfer (Hrsg.), Zivilrechtliche und rechtsökonomische Probleme des Internet und der künstlichen Intelligenz, 2019, S. 1, 29 ff.; ders., Robot, Inc., 88 Fordham L. Rev. 591 (2019).
 
19
Europäisches Parlament, Zivilrechtliche Regelungen im Bereich Robotik, Entschließung vom 16.02.2017, P8_TA-PROV (2017) 0051, Rn. 59, unter f).
 
20
Vgl. unten, V.
 
21
Zum folgenden Wagner VersR 2020, 717, 724 f.
 
22
Wagner VersR 2020, 717, 725.
 
23
Zum folgenden eingehend Wagner AcP 217 (2017), 707.
 
24
Richtlinienvorschlag der EG-Kommission vom 09.09.1976, abgedruckt in BT-Drucks. 7/5812, 5 f.; Präambel zur RL 85/374/EWG; Begründung zum ProdHaftG, BT-Drucks. 11/2447, 8, 11 (13); auf der Qualifikation als Gefährdungshaftung insistiert insbes. Taschner NJW 1986, 611 f.; Taschner ZEuP 2012, 560.
 
25
Kötz, Ist die Produkthaftung eine vom Verschulden abhängige Haftung?, in Pfister/Will (Hrsg.), FS W. Lorenz, 1991, S. 109, 113 ff.; v. Bar, Neues Haftungsrecht durch Europäisches Gemeinschaftsrecht, in Medicus/Mertens/Nörr/Zöllner (Hrsg.), FS Hermann Lange, 1992, S. 373, 389; Schlechtriem, Dogma und Sachfrage – Überlegungen zum Fehlerbegriff des Produkthaftungsgesetzes, in Löwisch/Schmidt-Leithoff/Schmiedel, FS Rittner, 1991, S. 545, 547 ff.; MünchKommBGB-Wagner, 8. Aufl. 2020, Einl. ProdHaftG Rn. 19 ff.
 
26
Wagner AcP 217 (2017), 707, 732 mwNachw.
 
27
BGHZ 181, 253 Rn. 12 = VersR 2009, 1125 – Airbags.
 
28
Eingehend Geistfeld 105 Cal. L. Rev. 1611, 1651 ff. (2017); Wagner AcP 217 (2017), 707, 733 ff.; Zech, Entscheidungen digitaler autonomer Systeme: Empfehlen sich Regelungen zu Verantwortung und Haftung?, Verhandlungen des 73. Deutschen Juristentags, Bd. I, 2020, S. 47.
 
29
MünchKommBGB-Wagner, 8. Aufl. 2020, § 823 Rn. 1016 ff.
 
30
Geistfeld 105 Cal. L. Rev. 1611, 1651 ff. (2017); Wagner AcP 217 (2017), 707, 736; Zech, Entscheidungen digitaler autonomer Systeme: Empfehlen sich Regelungen zu Verantwortung und Haftung?, Verhandlungen des 73. Deutschen Juristentags, Bd. I, 2020, S. 47.
 
32
Dazu Wagner AcP 217 (2017), 707, 735 ff.
 
33
Dazu Wagner in Faust/Schäfer (Hrsg.), Zivilrechtliche und rechtsökonomische Probleme des Internet und der künstlichen Intelligenz, 2019, S. 1, 33 ff.
 
34
Wagner AcP 217 (2017), 707, 709.
 
35
Wagner in Faust/Schäfer (Hrsg.), Zivilrechtliche und rechtsökonomische Probleme des Internet und der künstlichen Intelligenz, 2019, S. 1, 22.
 
36
Dazu eingehend Wagner ZEuP 2021, 545.
 
37
Europäisches Parlament, Regelung der zivilrechtlichen Haftung bei künstlicher Intelligenz vom 20.10.2020, P9_TA-PROV (2020) 0276; dazu der Bericht mit Empfehlungen an die Kommission für eine Regelung der zivilrechtlichen Haftung beim Einsatz künstlicher Intelligenz, Berichterstatter Axel Voss, v. 05.10.2020, A9-0178/2020.
 
38
Eingehend dazu Wagner ZEuP 2021, 545 ff.
 
39
Wagner ZEuP 2021, 545, 551 ff.
 
40
Europäisches Parlament, Zivilrechtliche Regelungen im Bereich Robotik, Entschließung vom 16.02.2017, P8_TA-PROV (2017) 0051, Rn. 59, unter f).
 
41
Wagner in Faust/Schäfer (Hrsg.), Zivilrechtliche und rechtsökonomische Probleme des Internet und der künstlichen Intelligenz, 2019, S. 1, 29 ff.; ders., Robot, Inc., 88 Fordham L. Rev, 591 (2019).
 
42
Wagner in Faust/Schäfer (Hrsg.), Zivilrechtliche und rechtsökonomische Probleme des Internet und der künstlichen Intelligenz, 2019, S. 1, 26 ff.
 
43
Vgl. Wagner GRUR 2020, 329, 333.
 
44
Wagner GRUR 2020, 329, 331 ff.
 
45
BGH, 23.06.2020, KVR 69/19, BGHZ 226, 67 Rn. 28 ff.; Evans/Schmalensee, The Antitrust Analysis of Multisided Platform Businesses, in Blair/Sokol (Hrsg.), Oxford Handbook of International Antitrust Economics, Bd. 1, 2014, S. 404, 408 f.; Engert AcP 218 (2018), 304, 305.
 
46
Engert AcP 218 (2018), 304, 306; Eifert/Metzger/Schweitzer/Wagner, Taming the giants: The DMA/DSA package, 58 Common Mkt. L. Rev. 987, 990 f. (2021); Crémer/de Montjoye/Schweitzer, Competition Policy for the Digital Era, 2019, S. 19 ff., im Internet abrufbar unter http://​ec.​europa.​eu/​competition/​publications/​reports/​kd0419345enn.​pdf.
 
47
Für die EU: Crémer/Montjoye/Schweitzer, Competition Policy for the Digital Era, 2019, im Internet abrufbar unter http://​ec.​europa.​eu/​competition/​publications/​reports/​kd0419345enn.​pdf; für das UK: Furman/Coyle/Fletcher/McAuley/Marsden, Unlocking Competition: Report of the Digital Competition, 2019, im Internet abrufbar unter https://​assets.​publishing.​service.​gov.​uk/​government/​uploads/​system/​uploads/​attachment_​data/​file/​785547/​unlocking_​digital_​competition_​furman_​review_​web.​pdf; für Deutschland: Bundesministerium für Wirtschaft und Energie, Ein neuer Wettbewerbsrahmen für die Digitalwirtschaft, 2019, im Internet abrufbar unter https://​www.​bmwi.​de/​Redaktion/​EN/​Publikationen/​Wirtschaft/​a-new-competition-framework-for-the-digital-economy.​html.; für die USA: Chicago Booth School of Business/Stigler Center for the Study of the Economy and the State, Stigler Committee on Digital Platforms, 2019, S. 23 ff., im Internet unter https://​research.​chicagobooth.​edu/​-/​media/​research/​stigler/​pdfs/​digital-platforms---committee-report---stigler-center.​pdf?​la=​en&​hash=​2D23583FF8BCC560​B7FEF7A81E1F95C1​DDC5225E; für Australien: Australian Competition & Consumer Commission (ACCC), Digital Platforms Inquiry, 2019, im Internet abrufbar unter https://​www.​accc.​gov.​au/​system/​files/​Digital%20​platforms%20​inquiry%20​-%20​final%20​report.​pdf.
 
48
Vorschlag für eine Verordnung über einen Binnenmarkt für digitale Dienste (Gesetz über digitale Dienste) und zur Änderung der Richtlinie 2000/31/EG, 15.12.2020, COM (2020) 825; final; Vorschlag für eine Verordnung über bestreitbare und faire Märkte im digitalen Sektor (Gesetz über digitale Märkte), 15.12.2020, COM (2020) 842 final; dazu Eifert/Metzger/Schweitzer/Wagner 58 CML Rev. 987 (2021).
 
49
Eifert/Metzger/Schweitzer/Wagner 58 CML Rev. 987, 1005 ff. (2021).
 
50
Grundlegend BGHZ 158, 236, 246 ff.; eingehend Wagner GRUR 2020, 329, 333 ff.; MünchKommBGB-Wagner, 8. Aufl. 2020, § 823 Rn. 837 ff., 852 ff., 869 ff.
 
51
BGH NJW 2018, 3779 Rn. 15; vgl. auch BGHZ 158, 236, 251 = NJW 2004, 3102, 3103 f. = JZ 2005, 33 mit Anm. Spindler; genauso BGHZ 172, 119 Rn. 40 = NJW 2007, 2636; BGHZ 173, 188 Rn. 43 = NJW 2008, 758.
 
52
BGH NJW 2018, 3779 Rn. 15; vgl. auch BGHZ 158, 236, 251 = NJW 2004, 3102, 3103 f. = JZ 2005, 33 mit Anm. Spindler; genauso BGHZ 172, 119 Rn. 40 = NJW 2007, 2636; BGHZ 173, 188 Rn. 43 = NJW 2008, 758.
 
53
BGHZ 158, 236, 252 = JZ 2005, 53 m. Anm. Spindler; BGHZ 173, 188 Rn. 43.
 
54
Section 512 (a) Copyright Act; dazu Wagner GRUR 2020, 329, 333.
 
55
MünchKommBGB-Wagner, 8. Aufl. 2020, § 823 Rn. 403 ff.
 
56
MünchKommBGB-Wagner, 8. Aufl. 2020, § 823 Rn. 427.
 
57
BVerfG GRUR 2020, 74 Rn. 77, 88 – Recht auf Vergessenwerden I.
 
58
EuGH C‑131/12 Rn. 81 – Google Spain = NJW 2014, 2257 = JZ 2014, 1009 mit Bespr. Spindler JZ 2014, 981; EuGH C‑136/17 Rn. 53 – CNIL = NJW 2019, 3503; EuGH C‑507/17 Rn. 45 – Google LLC = NJW 2019, 3499; BVerfG GRUR 2020, 88 Rn. 120 = GRUR 2020, 88 – Recht auf Vergessen II.
 
59
BVerfGE 54, 208, 219 = NJW 1980, 2072 – Böll; BVerfGE 90, 241, 247 = NJW 1994, 1779 – Auschwitzlüge; BGHZ 199, 237 Rn. 23 = NJW 2014, 2029; Wagner, Deliktsrecht, 14. Aufl. 2021, Kap. 7, Rn. 23 mwNachw.
 
60
OLG Dresden NJW-RR 2019, 676 Rn. 15.
 
61
Leistner GRUR Beilage 2010, 1, 32; ders. ZUM 2012, 722, 723; ders., Intermediary Liability in a Global World, in: Synodinou (Hrsg.), Pluralism or Universalism in International Copyright Law, S. 471, 509, bei Fn. 171.
 
62
Calabresi, The Costs of Accidents, 1970, S. 135 ff.; Shavell, Economic Analysis of Accident Law, 1987, S. 17; Landes/Posner, The Economic Structure of Tort Law, 1987, S. 198 ff.
 
63
BVerfG GRUR 2020, 88 Rn. 119 – Recht auf Vergessenwerden II.
 
64
BGHZ 173, 188 Rn. 40 = NJW 2008, 758; BGHZ 208, 82 Rn. 82 = NJW 2016, 794.
 
65
Richtlinie 2000/31/EG über den elektronischen Geschäftsverkehr, ABl. L 178, S. 1, 3, Erwägungsgrund Nr. 14.
 
66
Levmore, „The Internet’s Anonymity Problem“, in Levmore/Nussbaum (Hrsg.), The Offensive Internet, 2010, S. 50 ff., 53: „When the offensive graffitist uses the bathroom wall he runs up against the medium’s constraints; the Internet now provides a superior medium for one who wishes to spread juvenile or malicious speech.“.
 
67
BGH NJW 2000, 2901, 2902; Grüneberg-Herrler, BGB, 81. Aufl. 2022, § 1004 Rn. 18.
 
68
BGH NJW 1963, 2020; MünchKommBGB-Raff, 8. Aufl. 2020, § 1004 Rn. 185.
 
69
Dazu Wagner, Gatekeeper Liability: A Response to the Financial Crisis, in Kahl/Schwartze/Schmidt (Hrsg.), FS Kirchner, 2014, S. 1067 ff.; ders., Die mangelhafte Haftungsverfassung der Finanzmärkte: Verantwortlichkeit von Wirtschaftsprüfern gegenüber dem Anlegerpublikum, in Callies (Hrsg.), Transnationales Recht, 2014, S. 307, 319 ff.
 
70
Vorschlag für eine Verordnung über bestreitbare und faire Märkte im digitalen Sektor (Gesetz über digitale Märkte), 15.12.2020, COM (2020) 842 final, Art. 3 ff.; dazu Eifert/Metzger/Schweitzer/Wagner 58 CML Rev. 987, 989 f. (2021).
 
71
MünchKommBGB-Wagner, 8. Aufl. 2020, § 823 Rn. 408 f.
 
72
BGHZ 197, 213 Rn. 15 = NJW 2013, 2348 = VersR 2013, 771.
 
73
BGHZ 209, 139 Rn. 17 = NJW 2016, 2106; BGH NJW-RR 2010, 1276, Rn. 24; NJW 2012, 2345 Rn. 11; NJW 2015, 3443 Rn. 25; NJW 2017, 2029 Rn. 18; F. Hofmann JuS 2017, 713, 717 f.
 
74
BGHZ 209, 139 Rn. 17 = NJW 2016, 2106; BGH NJW-RR 2010, 1276 Rn. 24.
 
75
BGH NJW 2015, 3443 Rn. 25; NJW 2017, 2029 Rn. 18.
 
76
BGH NJW 2017, 2029 Rn. 19 ff. Zuletzt BGH NJW 2020, 1587 Rn. 39.
 
77
BGHZ 217, 350 Rn. 27 ff.
 
78
BGHZ 191, 19 Rn. 20 ff.
 
79
ABl. 2019 L 130/92.
 
80
Spindler CR 2019, 277, 283 f.
 
81
So auch Hofmann ZUM 2019, 617, 619 f.; ders. GRUR 2019, 1219, 1222 f.
 
82
Art. 3 des Gesetzes zur Anpassung des Urheberrechts an die Erfordernisse des digitalen Binnenmarkts v. 31.05.2021, BGBl I, 1204, 1215 ff.; dazu BT-Drucks. 19/27426, S. 130 ff.; BT-Drucks. 19/29894; Hofmann NJW 2021, 1905; ders. GRUR 2021, 895, 901 ff.; von Welser GRUR-Prax 2021, 463.
 
83
Wagner GRUR 2020, 329, 333.
 
84
Lüdemann, Privatisierung der Rechtsdurchsetzung in sozialen Netzwerken?, in Eifert/Gostomzyk (Hrsg.), Netzwerkrecht, 2018, S. 157; Pille NJW 2018, 3545, 3548; F. Hofmann ZUM 2017, 102, 105; kritisch Eifert, Das Netzwerkdurchsetzungsgesetz und Plattformregulierung, in Eifert/Gostomzyk (Hrsg.), Netzwerkrecht, 2018, S. 26 ff.
 
85
Vgl. oben, V.
 
86
Ähnlich wie nach der Lehre von der „mittelbaren Drittwirkung“ strahlen auch die Unionsgrundrechte auf das Privatrecht aus, BVerfG GRUR 2020, 88 Rn. 97 – Recht auf Vergessenwerden II.
 
87
BGHZ 191, 219 Rn. 25 ff. = NJW 2012, 148 = VersR 2012, 114; BGHZ 209, 139 Rn. 40 ff.
 
88
BGHZ 191, 219 Rn. 27 = NJW 2012, 148 = VersR 2012, 114.
 
89
BGHZ 209, 139 Rn. 42 ff.
 
90
BGHZ 209, 239 Rn. 40 ff.
 
91
Gesetz v. 03.06.2021, BGBl. I, 441; dazu Cornils NJW 2021, 2465; aus den Vorarbeiten Eifert, Gutachten zur Evaluierung des NetzDG, BT-Drucks. 19/2261, Anhang 1, S. 18 ff., 91 ff.
 
92
Vorschlag für eine Verordnung über einen Binnenmarkt für digitale Dienste (Gesetz über digitale Dienste) und zur Änderung der Richtlinie 2000/31/EG, 15.12.2020, COM (2020) 825 final, Art. 17, 18.
 
93
Eifert/Metzger/Schweitzer/Wagner 58 CML Rev. 987, 1010 ff. (2021).
 
94
Oben, VI. 5.
 
95
Dazu eingehend Wagner GRUR 2020, 329 f., 447, 452 ff.
 
96
Ausführlich Wagner GRUR 2020, 447, 454 ff.
 
Literatur
2.
Zurück zum Zitat Balkin, J. M. (2004). Digital speech and democratic culture: a theory of freedom of expression for the information society. New York University Law Review, 79, 1–58. Balkin, J. M. (2004). Digital speech and democratic culture: a theory of freedom of expression for the information society. New York University Law Review, 79, 1–58.
4.
Zurück zum Zitat Calabresi, G. (1970). The costs of accidents: a legal and economic analysis. Yale: Yale University Press. Calabresi, G. (1970). The costs of accidents: a legal and economic analysis. Yale: Yale University Press.
6.
Zurück zum Zitat Cornils, M. (2021). Präzisierung, Vervollständigung und Erweiterung: Die Änderungen des Netzwerkdurchsetzungsgesetzes 2021. Neue Juristische Wochenschrift, 2465–2471. Cornils, M. (2021). Präzisierung, Vervollständigung und Erweiterung: Die Änderungen des Netzwerkdurchsetzungsgesetzes 2021. Neue Juristische Wochenschrift, 2465–2471.
8.
Zurück zum Zitat Eifert, M. (2018). Das Netzwerkdurchsetzungsgesetz und Plattformregulierung. In M. Eifert & T. Gostomzyk (Hrsg.), Netzwerkrecht (S. 9–44). Baden-Baden: Nomos. CrossRef Eifert, M. (2018). Das Netzwerkdurchsetzungsgesetz und Plattformregulierung. In M. Eifert & T. Gostomzyk (Hrsg.), Netzwerkrecht (S. 9–44). Baden-Baden: Nomos. CrossRef
9.
Zurück zum Zitat Eifert, M., Metzger, A., Schweitzer, H., & Wagner, G. (2021). Taming the giants: the DMA/DSA package. Common Market Law Review, 58, 987–1028. CrossRef Eifert, M., Metzger, A., Schweitzer, H., & Wagner, G. (2021). Taming the giants: the DMA/DSA package. Common Market Law Review, 58, 987–1028. CrossRef
10.
Zurück zum Zitat Engert, A. (2018). Digitale Plattformen. In R. Bork, J. Taupitz & G. Wagner (Hrsg.), Archiv für die civilistische Praxis (S. 304–376). Tübingen: Mohr Siebeck. Engert, A. (2018). Digitale Plattformen. In R. Bork, J. Taupitz & G. Wagner (Hrsg.), Archiv für die civilistische Praxis (S. 304–376). Tübingen: Mohr Siebeck.
13.
Zurück zum Zitat Europäisches Parlament (2017). Zivilrechtliche Regelungen im Bereich Robotik, Entschließung vom 16.02.2017, P8_TA-PROV(2017)0051 Europäisches Parlament (2017). Zivilrechtliche Regelungen im Bereich Robotik, Entschließung vom 16.02.2017, P8_TA-PROV(2017)0051
14.
Zurück zum Zitat Europäisches Parlament (2020). Regelung der zivilrechtlichen Haftung bei künstlicher Intelligenz vom 20.10.2020, P9_TA-PROV(2020)0276 Europäisches Parlament (2020). Regelung der zivilrechtlichen Haftung bei künstlicher Intelligenz vom 20.10.2020, P9_TA-PROV(2020)0276
15.
Zurück zum Zitat Evans, D., & Schmalensee, R. (2014). The antitrust analysis of multisided platform businesses. In R. Blair & D. Sokol (Hrsg.), Oxford handbook of international antitrust economics. Oxford: Oxford University Press. Evans, D., & Schmalensee, R. (2014). The antitrust analysis of multisided platform businesses. In R. Blair & D. Sokol (Hrsg.), Oxford handbook of international antitrust economics. Oxford: Oxford University Press.
17.
Zurück zum Zitat Geistfeld, M. (2017). A roadmap for autonomous vehicles: state tort liability, automobile insurance, and federal safety regulation. California Law Review, 105, 1611–1694. Geistfeld, M. (2017). A roadmap for autonomous vehicles: state tort liability, automobile insurance, and federal safety regulation. California Law Review, 105, 1611–1694.
18.
Zurück zum Zitat Gillespie, T. (2018). Custodians of the Internet: platforms, content moderation, and the hidden decisions that shape social media. Yale: Yale University Press. Gillespie, T. (2018). Custodians of the Internet: platforms, content moderation, and the hidden decisions that shape social media. Yale: Yale University Press.
19.
Zurück zum Zitat Hofmann, F. (2017). Mittelbare Verantwortlichkeit im Internet – Eine Einführung in die Intermediärshaftung. Juristische Schulung, 713–719. Hofmann, F. (2017). Mittelbare Verantwortlichkeit im Internet – Eine Einführung in die Intermediärshaftung. Juristische Schulung, 713–719.
20.
Zurück zum Zitat Hofmann, F. (2017). Prozeduralisierung der Haftungsvoraussetzungen im Medienrecht – Vorbild für die Intermediärshaftung im Allgemeinen? Zeitschrift für Urheber- und Medienrecht, 102–109. Hofmann, F. (2017). Prozeduralisierung der Haftungsvoraussetzungen im Medienrecht – Vorbild für die Intermediärshaftung im Allgemeinen? Zeitschrift für Urheber- und Medienrecht, 102–109.
21.
Zurück zum Zitat Hofmann, F. (2019). Die Plattformverantwortlichkeit nach dem neuen europäischen Urheberrecht – „Much Ado About Nothing“? Zeitschrift für Urheber- und Medienrecht, 617–627. Hofmann, F. (2019). Die Plattformverantwortlichkeit nach dem neuen europäischen Urheberrecht – „Much Ado About Nothing“? Zeitschrift für Urheber- und Medienrecht, 617–627.
22.
Zurück zum Zitat Hofmann, F. (2019). Fünfzehn Thesen zur Plattformhaftung nach Art. 17 DSM-RL. In Gewerblicher Rechtsschutz und Urheberrecht (S. 1219–1229). Hofmann, F. (2019). Fünfzehn Thesen zur Plattformhaftung nach Art. 17 DSM-RL. In Gewerblicher Rechtsschutz und Urheberrecht (S. 1219–1229).
23.
Zurück zum Zitat Hofmann, F. (2021). Das neue Urheberrechts-Diensteanbieter-Gesetz. Neue Juristische Wochenschrift, 1905–1910. Hofmann, F. (2021). Das neue Urheberrechts-Diensteanbieter-Gesetz. Neue Juristische Wochenschrift, 1905–1910.
24.
Zurück zum Zitat Hofmann, F. (2021). Update für das Urheberrecht. Einführung in das Gesetz zur Anpassung des Urheberrechts an die Erfordernisse des digitalen Binnenmarktes. In Gewerblicher Rechtsschutz und Urheberrecht (S. 895–903). Hofmann, F. (2021). Update für das Urheberrecht. Einführung in das Gesetz zur Anpassung des Urheberrechts an die Erfordernisse des digitalen Binnenmarktes. In Gewerblicher Rechtsschutz und Urheberrecht (S. 895–903).
25.
Zurück zum Zitat Klonick, K. (2018). The new governors: the people, rules, and processes governing online speech. Harvard Law Review, 131, 1598–1670. Klonick, K. (2018). The new governors: the people, rules, and processes governing online speech. Harvard Law Review, 131, 1598–1670.
26.
Zurück zum Zitat Kötz, H. (1991). Ist die Produkthaftung eine vom Verschulden abhängige Haftung? In B. Pfister & M. Will (Hrsg.), Festschrift für Werner Lorenz zum siebzigsten Geburtstag (S. 109–122). Tübingen: Mohr Siebeck. Kötz, H. (1991). Ist die Produkthaftung eine vom Verschulden abhängige Haftung? In B. Pfister & M. Will (Hrsg.), Festschrift für Werner Lorenz zum siebzigsten Geburtstag (S. 109–122). Tübingen: Mohr Siebeck.
27.
Zurück zum Zitat Landes, W., & Posner, R. (1987). The economic structure of tort law. Harvard: Harvard University Press. CrossRef Landes, W., & Posner, R. (1987). The economic structure of tort law. Harvard: Harvard University Press. CrossRef
28.
Zurück zum Zitat Lessig, L. (2006). Code: Version 2.0 (2. Aufl.). New York: Basic Books. Lessig, L. (2006). Code: Version 2.0 (2. Aufl.). New York: Basic Books.
29.
Zurück zum Zitat Leistner, M. (2010). Störerhaftung und mittelbare Schutzrechtsverletzung. In Gewerblicher Rechtsschutz und Urheberrecht Beilage zu Heft 1. Leistner, M. (2010). Störerhaftung und mittelbare Schutzrechtsverletzung. In Gewerblicher Rechtsschutz und Urheberrecht Beilage zu Heft 1.
30.
Zurück zum Zitat Leistner, M. (2012). Grundlagen und Perspektiven der Haftung für Urheberrechtsverletzungen im Internet. Zeitschrift für Urheber- und Medienrecht, 722–740. Leistner, M. (2012). Grundlagen und Perspektiven der Haftung für Urheberrechtsverletzungen im Internet. Zeitschrift für Urheber- und Medienrecht, 722–740.
31.
Zurück zum Zitat Leistner, M. (2019). Intermediary liability in a global world. In Synodinou (Hrsg.), Pluralism or universalism in international copyright law. Kluwer Law. Leistner, M. (2019). Intermediary liability in a global world. In Synodinou (Hrsg.), Pluralism or universalism in international copyright law. Kluwer Law.
32.
Zurück zum Zitat Levmore, S. (2010). The Internet’s anonymity problem. In S. Levmore & M. Nussbaum (Hrsg.), The offensive Internet. Harvard: Harvard University Press. Levmore, S. (2010). The Internet’s anonymity problem. In S. Levmore & M. Nussbaum (Hrsg.), The offensive Internet. Harvard: Harvard University Press.
33.
Zurück zum Zitat Lippmann, W. (1937). The good society. Boston: Little, Brown and Company. Lippmann, W. (1937). The good society. Boston: Little, Brown and Company.
34.
Zurück zum Zitat Lohsse, S., Schulze, R., & Staudenmeyer, D. (2019). Liability for artificial intelligence and the Internet of things. Baden-Baden: Nomos. CrossRef Lohsse, S., Schulze, R., & Staudenmeyer, D. (2019). Liability for artificial intelligence and the Internet of things. Baden-Baden: Nomos. CrossRef
35.
Zurück zum Zitat Lüdemann, J. (2018). Privatisierung der Rechtsdurchsetzung in sozialen Netzwerken? In M. Eifert & T. Gostomzyk (Hrsg.), Netzwerkrecht (S. 153–168). Baden-Baden: Nomos. CrossRef Lüdemann, J. (2018). Privatisierung der Rechtsdurchsetzung in sozialen Netzwerken? In M. Eifert & T. Gostomzyk (Hrsg.), Netzwerkrecht (S. 153–168). Baden-Baden: Nomos. CrossRef
36.
Zurück zum Zitat Mestmäcker, E. (2016). Europäische Prüfsteine der Herrschaft und des Rechts. Baden-Baden: Nomos. CrossRef Mestmäcker, E. (2016). Europäische Prüfsteine der Herrschaft und des Rechts. Baden-Baden: Nomos. CrossRef
37.
Zurück zum Zitat Münchener Kommentar zum BGB – Wagner (2020). Einl. ProdHaftG Rn. 19 ff. Münchener Kommentar zum BGB – Wagner (2020). Einl. ProdHaftG Rn. 19 ff.
38.
Zurück zum Zitat Pille, J. (2018). Der Grundsatz der Eigenverantwortlichkeit im Internet. Neue Juristische Wochenschrift, 3545–3550. Pille, J. (2018). Der Grundsatz der Eigenverantwortlichkeit im Internet. Neue Juristische Wochenschrift, 3545–3550.
39.
Zurück zum Zitat Schlechtriem, P. (1991). Dogma und Sachfrage – Überlegungen zum Fehlerbegriff des Produkthaftungsgesetzes. In M. Löwisch, C. Schmidt-Leithoff & B. Schmiedel (Hrsg.), Festschrift für Fritz Rittner zum siebzigsten Geburtstag. München: Beck. Schlechtriem, P. (1991). Dogma und Sachfrage – Überlegungen zum Fehlerbegriff des Produkthaftungsgesetzes. In M. Löwisch, C. Schmidt-Leithoff & B. Schmiedel (Hrsg.), Festschrift für Fritz Rittner zum siebzigsten Geburtstag. München: Beck.
40.
Zurück zum Zitat Shavell, S. (1980). Strict liability versus negligence. The Journal of Legal Studies, 9, 1–26. CrossRef Shavell, S. (1980). Strict liability versus negligence. The Journal of Legal Studies, 9, 1–26. CrossRef
41.
Zurück zum Zitat Shavell, S. (1987). Economic analysis of accident law. Harvard: Harvard University Press. CrossRef Shavell, S. (1987). Economic analysis of accident law. Harvard: Harvard University Press. CrossRef
43.
Zurück zum Zitat Spindler, G. (2014). Durchbruch für ein Recht auf Vergessen(werden)? Juristen Zeitung, 981–991. Spindler, G. (2014). Durchbruch für ein Recht auf Vergessen(werden)? Juristen Zeitung, 981–991.
44.
Zurück zum Zitat Spindler, G. (2019). Die neue Urheberrechts-Richtlinie der EU, insbesondere „Upload-Filter“ – Bittersweet? Analyse der Änderungen beim Text- und Datamining, Leistungsschutz für Presseerzeugnisse und Pflichtenkreis für Hostprovider. Computer und Recht, 277–291. Spindler, G. (2019). Die neue Urheberrechts-Richtlinie der EU, insbesondere „Upload-Filter“ – Bittersweet? Analyse der Änderungen beim Text- und Datamining, Leistungsschutz für Presseerzeugnisse und Pflichtenkreis für Hostprovider. Computer und Recht, 277–291.
45.
Zurück zum Zitat Taschner, H. (1986). Die künftige Produzentenhaftung in Deutschland. Neue Juristische Wochenschrift, 611–615. Taschner, H. (1986). Die künftige Produzentenhaftung in Deutschland. Neue Juristische Wochenschrift, 611–615.
46.
Zurück zum Zitat Taschner, H. (2012). Produkthaftung – Noch einmal: Verschuldenshaftung oder vom Verschulden unabhängige Haftung? Zeitschrift für europäisches Privatrecht, 560–566. Taschner, H. (2012). Produkthaftung – Noch einmal: Verschuldenshaftung oder vom Verschulden unabhängige Haftung? Zeitschrift für europäisches Privatrecht, 560–566.
47.
Zurück zum Zitat Voss, A. (2020). Bericht mit Empfehlungen an die Kommission für eine Regelung der zivilrechtlichen Haftung beim Einsatz künstlicher Intelligenz, A9-0178/2020 Voss, A. (2020). Bericht mit Empfehlungen an die Kommission für eine Regelung der zivilrechtlichen Haftung beim Einsatz künstlicher Intelligenz, A9-0178/2020
48.
Zurück zum Zitat Wagner, G. (1999). Haftung und Versicherung als Instrumente der Techniksteuerung. Versicherungsrecht, 1441–1453. Wagner, G. (1999). Haftung und Versicherung als Instrumente der Techniksteuerung. Versicherungsrecht, 1441–1453.
49.
Zurück zum Zitat Wagner, G. (2014). Gatekeeper Liability: A Response to the Financial Crisis. In W. Kaal, A. Schwartze & M. Schmidt (Hrsg.), Festschrift zu Ehren von Christian Kirchner (S. 1067–1093). Tübingen: Mohr Siebeck. Wagner, G. (2014). Gatekeeper Liability: A Response to the Financial Crisis. In W. Kaal, A. Schwartze & M. Schmidt (Hrsg.), Festschrift zu Ehren von Christian Kirchner (S. 1067–1093). Tübingen: Mohr Siebeck.
50.
Zurück zum Zitat Wagner, G. (2014). Die mangelhafte Haftungsverfassung der Finanzmärkte: Verantwortlichkeit von Wirtschaftsprüfern gegenüber dem Anlegerpublikum. In G. Callies (Hrsg.), Transnationales Recht. Tübingen: Mohr Siebeck. Wagner, G. (2014). Die mangelhafte Haftungsverfassung der Finanzmärkte: Verantwortlichkeit von Wirtschaftsprüfern gegenüber dem Anlegerpublikum. In G. Callies (Hrsg.), Transnationales Recht. Tübingen: Mohr Siebeck.
51.
Zurück zum Zitat Wagner, G. (2017). Produkthaftung für autonome Systeme. In Archiv für die civilistische Praxis (S. 707–765). Wagner, G. (2017). Produkthaftung für autonome Systeme. In Archiv für die civilistische Praxis (S. 707–765).
52.
Zurück zum Zitat Wagner, G. (2019). Robot, inc.: personhood for autonomous systems? Fordham Law Review, 88, 591–612. Wagner, G. (2019). Robot, inc.: personhood for autonomous systems? Fordham Law Review, 88, 591–612.
53.
Zurück zum Zitat Wagner, G. (2019). Roboter als Haftungssubjekte? Konturen eines Haftungsrechts für autonome Systeme. In F. Faust & H. Schäfer (Hrsg.), Zivilrechtliche und rechtsökonomische Probleme des Internet und der künstlichen Intelligenz (S. 1–40). Tübingen: Mohr Siebeck. Wagner, G. (2019). Roboter als Haftungssubjekte? Konturen eines Haftungsrechts für autonome Systeme. In F. Faust & H. Schäfer (Hrsg.), Zivilrechtliche und rechtsökonomische Probleme des Internet und der künstlichen Intelligenz (S. 1–40). Tübingen: Mohr Siebeck.
54.
Zurück zum Zitat Wagner, G. (2020). Haftung von Plattformen für Rechtsverletzungen. In Gewerblicher Rechtsschutz und Urheberrecht (S. 329–337). Wagner, G. (2020). Haftung von Plattformen für Rechtsverletzungen. In Gewerblicher Rechtsschutz und Urheberrecht (S. 329–337).
55.
Zurück zum Zitat Wagner, G. (2020). Verantwortlichkeit im Zeichen digitaler Techniken. Versicherungsrecht, 717–741. Wagner, G. (2020). Verantwortlichkeit im Zeichen digitaler Techniken. Versicherungsrecht, 717–741.
56.
Zurück zum Zitat Wagner, G. (2021). Deliktsrecht. München: Vahlen. Wagner, G. (2021). Deliktsrecht. München: Vahlen.
57.
Zurück zum Zitat Wagner, G. (2021). Haftung für Künstliche Intelligenz – Eine Gesetzesinitiative des Europäischen Parlaments. Zeitschrift für Europäisches Privatrecht, 545–572. Wagner, G. (2021). Haftung für Künstliche Intelligenz – Eine Gesetzesinitiative des Europäischen Parlaments. Zeitschrift für Europäisches Privatrecht, 545–572.
58.
Zurück zum Zitat Von Bar, C. (1992). Neues Haftungsrecht durch Europäisches Gemeinschaftsrecht: Die Verschuldens- und die Gefährdungshaftung des deutschen Rechts und das haftungsrechtliche Richtlinienrecht der EG. In D. Medicus, H.-J. Mertens, K. W. Nörr & W. Zöllner (Hrsg.), Festschrift für Hermann Lange zum 70. Geburtstag am 24. Januar 1992. Stuttgart: Kohlhammer. Von Bar, C. (1992). Neues Haftungsrecht durch Europäisches Gemeinschaftsrecht: Die Verschuldens- und die Gefährdungshaftung des deutschen Rechts und das haftungsrechtliche Richtlinienrecht der EG. In D. Medicus, H.-J. Mertens, K. W. Nörr & W. Zöllner (Hrsg.), Festschrift für Hermann Lange zum 70. Geburtstag am 24. Januar 1992. Stuttgart: Kohlhammer.
59.
Zurück zum Zitat Von Hayek, F. (1945). The use of knowledge in society. American Economic Review, 35, 519–524. Von Hayek, F. (1945). The use of knowledge in society. American Economic Review, 35, 519–524.
60.
Zurück zum Zitat von Welser, M. (2021). Plattformhaftung nach dem Urheberrechts-Diensteanbieter-Gesetz. In Gewerblicher Rechtsschutz und Urheberrecht, Praxis im Immaterialgüter und Wettbewerbsrecht (S. 463–465). von Welser, M. (2021). Plattformhaftung nach dem Urheberrechts-Diensteanbieter-Gesetz. In Gewerblicher Rechtsschutz und Urheberrecht, Praxis im Immaterialgüter und Wettbewerbsrecht (S. 463–465).
61.
Zurück zum Zitat Zech, H. (2020). Entscheidungen digitaler autonomer Systeme: Empfehlen sich Regelungen zu Verantwortung und Haftung? Verhandlungen des 73. Deutschen Juristentags, Bd. 1. Leipzig: C.H. Beck. Zech, H. (2020). Entscheidungen digitaler autonomer Systeme: Empfehlen sich Regelungen zu Verantwortung und Haftung? Verhandlungen des 73. Deutschen Juristentags, Bd. 1. Leipzig: C.H. Beck.
Metadaten
Titel
Digitale Ordnungspolitik – Haftung und Verantwortung
verfasst von
Gerhard Wagner
Publikationsdatum
14.04.2022
Verlag
Springer Berlin Heidelberg
Erschienen in
List Forum für Wirtschafts- und Finanzpolitik
Print ISSN: 0937-0862
Elektronische ISSN: 2364-3943
DOI
https://doi.org/10.1007/s41025-022-00237-8