Vortrag: Haftung für Persönlichkeitsrechtsverletzungen durch Künstliche Intelligenz

IMK-Vortrag: Haftung für Persönlichkeitsrechtsverletzungen durch Künstliche Intelligenz

Künstliche Intelligenz (KI) ist eine Meta-Technologie, die fähig ist, ein strategisches Ziel zu erreichen und dafür in einer komplexen Situation autonome Entscheidungen zu treffen und die selbstlernend ist. Das war der Untersuchungsgegenstand im Vortrag von Dr. Jan Oster. Dabei geht es nicht um eine „KI als solche, sondern um verschiedene Erscheinungsformen“. Ein Schachcomputer bedarf anderer rechtlicher Regulierung als selbstfahrende Autos oder Erscheinungsformen, die die Massenkommunikation berühren. Dem liegt die Auffassung zugrunde, dass es eine „starke KI“ nicht gibt, die jegliche kognitive Aufgaben ebenso gut wie ein Mensch erledigen kann. Was wir kennen, ist „schwache KI“, die eben nur einzelne Aufgaben erledigt.

Die Anwendungen treffen autonome Entscheidungen. Sie verarbeiten also Informationen und Einflüsse, die nach dem Start eintreten und unterscheiden sich damit von vorab programmierten Anwendungen. Damit ist nicht ganz klar, wie sie Erscheinungsformen der KI in bestimmten Situationen verhalten. Für die Frage nach der Haftung ist diese Annahme essentiell.

Ein vermutetes Verschulden schließt Dr. Jan Oster zum Beispiel deshalb aus, weil keine willentliche Handlung vorliegt – das ist eine menschliche Kategorie, weshalb das Argument tief in die Grundlagen des Rechts führt. Ebenso sind Haftungsnormen ausgeschlossen, die an einer Person ansetzen, denn „die KI“ ist keine Person, eine „E- Person“ lehnt der Referent ab. Bei der deliktischen Haftung schlägt ebenfalls durch, dass „die KI“ nicht „handeln“ kann, wohl aber sind die Ergebnisse der Algorithmen einem Verursacher zurechenbar. Damit ist man bei Verkehrssicherungspflichten. Wenn die Gefahr im Algorithmus selbst angelegt ist, dann ist das einfach. In der Praxis ist dieser Fall allerdings schon vom Beweisrecht her kaum zu schaffen. Damit stellt sich die Frage, welche konkreten Verkehrssicherungspflichten erforderlich sind, um autonom getroffene und im Detail unvorhersehbare Ergebnisse der „KI“ möglichst so erstellen zu lassen, dass – im Bereich der Kommunikation – keine Persönlichkeitsrechtsverletzungen vorkommen. Hier spielt die im Äußerungsrecht bekannte Abwägung zwischen dem allgemeinen Persönlichkeitsrecht einerseits und dem Kommunikationsgrundrechten andererseits eine Rolle. Womit man wieder bei der Frage ist, ob „die KI“ sich auf eine Meinungsfreiheit beziehen kann, die wiederum für natürliche Personen vorgesehen ist. Dr. Jan Oster lehnt das ab, weist aber darauf hin, dass der Kommunikationsprozess als solcher objektiv geschützt ist und der Einsatz von KI für die Arbeit beispielsweise von Medien darunterfällt. Allerdings sieht er, dass bei datengetriebenen Anwendungen eher das Datenschutzrecht und weniger das Äußerungsrecht im Fokus steht. Er fordert zukünftig eine Beweislastumkehr beim Einsatz von KI: Nicht der Betroffene muss beweisen, dass die Verkehrssicherungspflichten verletzt sind, sondern derjenige muss die Erfüllung der Verkehrssicherungspflichten beweisen, der KI einsetzt.

Die Diskussion unter der Moderation von Prof. Dr. Georg Borges wurde lang, intensiv und kontrovers geführt. Sie kreiste unter anderem um grundsätzliche Fragen, ob KI nicht doch eine Art von eigener Persönlichkeit zugebilligt werden müsse zwischen der natürlichen und der juristischen Person – mit all den Konsequenzen, die sich hieraus ergeben würden. Diskutiert wurde auch, ob die Algorithmen einen Bias haben und wie stark er ist und ob nicht möglicherweise bei selbstlernenden Systemen diejenigen größere Verantwortung tragen, die die Daten zum Anlernen der Maschinen zur Verfügung stellen. Schließlich wurde die Diskussion geführt, ob eine unterschiedliche Behandlung von KI einerseits und solchen Programmierungen andererseits sinnvoll sei, die das gleiche Ziel auf einem eher klassischen Weg der Programmierung erreichen.

Bericht: Rechtsanwalt Prof. Dr. Stephan Ory