KI und Recht aus der Sicht von Andreas Göbel – Prof. für IT Recht

B2BTalks.de
B2BTalks.de
KI und Recht aus der Sicht von Andreas Göbel - Prof. für IT Recht
Loading
/

Vorwort

Wenn Sie meinen KI hat in erster Linie etwas mit Technik oder Ethik zu tun, dann haben Sie sich schwer getäuscht. Hören Sie wie mein Kollege, Prof. Andreas Göbel, Fachanwalt für IT und neuerdings auch für KI an der Fachhochschule in Hagen Ihnen die juristischen Schwierigkeiten im Umgang und beim Einsatz von KI erklärt.

Interview

Hallo Andreas, Du bist Professor für IT-Recht und Datenschutzrecht an der Fachhochschule Südwestfalen und neuerdings auch für das Recht der künstlichen Intelligenz. Wie wird man sowas?

Naja, ich bin Rechtsanwalt und Fachanwalt für das Recht der Informationstechnologien. Seit 1990 beschäftige ich mich überwiegend mit diesem Rechtsgebiet und kam dann im Jahr 2007 mit der Fachhochschule Südwestfalen in Berührung. Die bietet Studiengängen zum Wirtschaftsinformatiker und für angewandte Informatik. Und dort erwies sich mein Angebot, den Studierenden auch die Rechtsprobleme ihres Berufsfeldes zu erläutern, als sehr erfolgreich. Wir haben sehr positive Ergebnisse und Beurteilungen für die Kurse erhalten. Die Studierenden bezeichnen das als lehrreich und hochinteressant. Das ist auch kein Wunder, weil sie mit den Darstellungen der Rechtsfragen auch auf das pralle Leben treffen, statt immer nur Einsen und Nullen zu schreiben.

Das erklärt, warum Du Professor für IT-Recht bist, aber braucht es denn noch wirklich einen neuen Kurs für die armen Studenten über KI-Recht?

Die sind nicht arm, sondern, wie ich schon gesagt habe, sehr interessiert und das KI-Recht stellt eine Menge von Rechtsfragen, die natürlich für die Informatiker von hoher Bedeutung und Interesse sind.

Reicht denn das IT-Recht dazu nicht aus?

Nein. Das IT-Recht bildet den Hintergrund. Künstliche Intelligenz stellt aber eine neue Qualität dar, die dann vor dem Hintergrund und mit dem Material des IT-Rechts beantwortet werden müssen. Das führt dazu, dass in den vielen Teilbereichen des IT-Rechts viele Probleme entstehen, die sich vorher nicht gestellt haben.

Das musst Du erklären…

Naja, zunächst einmal ist Künstliche Intelligenz natürlich etwas ganz Fantastisches, was die Menschheit erheblich weiterbringen wird. Künstliche Intelligenz ist auch nicht nur in aller Munde, sie ist auch schon in unser aller Rechnern, die Spracherkennung Cortana in Microsoft Produkten erkennt unsere Sprache und verbessert sich laufend, indem sie unsere individuelle Art des Sprechens mit ihren eigenen Informationen abgleicht. Aber gehen Sie weiter, stellen Sie sich vor, die Krebsforschung kann mithilfe von Bigdata riesige Datenmengen auswerten auf Zusammenhänge, die bisher gar nicht hätten erkannt werden können. Deswegen verspricht sich unter anderem die medizinische Forschung auch gewaltige Fortschritte von Künstlicher Intelligenz und schließlich gibt es natürlich die, ich möchte fast sagen, populärste Version Künstlicher Intelligenz, nämlich das autonome Fahren und auch das ist nicht mehr Zukunftsmusik. Das Kraftfahrtbundesamt hat im Dezember 21 die erste Zulassung für ein vollautonom fahrendes Fahrzeug erlassen, einen Mercedes der S-Klasse, der zum Straßenverkehr zugelassen wurde. Allerdings unter den wenig hilfreichen Einschränkungen, dass das voll autonome Fahren nur bis 60 km/h und nur auf einer Autobahn zulässig sei. Wir lachen drüber, aber ich sage Ihnen, in  3-4-5 Jahren fahren die Dinger voll autonom auf der Autobahn und vielleicht kommen wir heute noch dazu und haben die Gelegenheit darüber zu sprechen, wie der Gesetzgeber sich da die Verantwortlichkeit vorstellt. Also auf jeden Fall ist Künstliche Intelligenz wirklich ein neuer wissenschaftlich technischer Schub, der der Menschheit wesentliche Vorteile bringen wird. 

Aber das ist wie beim Autofahren oder bei anderen Technologien in der Vergangenheit, wo Fortschritt ist, sind auch Gefahren. D. h. die Technologie stößt an Grenzen oder verwirklicht Sachverhalte, die von den Gesetzen bereits geregelt sind im Wege von Verboten und dann muss man eben gucken, wie man das in Gleichklang kriegt. Denn letztendlich ist Recht die kodifizierte Umsetzung gesellschaftlich anerkannter Normen. Und es ist ja, wie Sie vielleicht wissen, verboten Lebendige zu Toten umzuwandeln, § 211 Strafgesetzbuch, nicht wahr? Das entspricht einer Vorstellung der weit überwiegenden Allgemeinheit. Und wenn Sie das jetzt für ein schlechtes Beispiel halten, gab es jedenfalls bis ins letzte Jahrhundert, ich meine auch heute noch Kulturen, in denen Mord kein Straftatbestand, sondern ein zivilrechtliches Delikt ist, das dann mit zivilrechtlichen Pönalen bestraft wird. Nein, eben nicht bestraft wird, es gibt keinen Dritten, sondern man geht dann zur Familie des Opfers, bezahlt dort etwas und hat dann hoffentlich Ruhe. Also trifft die Technologie eben auch manchmal auf Grenzen, die ihr vom Recht gesetzt worden sind und die muss man sich dann anschauen. Und darum geht es auch in meinen Vorlesungen. Dabei haben wir als Juristen bei allen Fragen, die wir vielleicht sogar heute noch ansprechen können, immer mindestens ein Problem. Einerseits soll die KI ja immer besser sein, als wir. Sie kann mehr Daten auswerten, sie kann Zusammenhänge erkennen, die wir nicht erkennen können. Das Problem ist nur, je stärker sie wird, umso weniger können wir das kontrollieren. Also Beispiel: Es gibt heute schon die schwache Künstliche Intelligenz. Das ist die Fähigkeit, mit vorgegebenen Algorithmen und Datensätzen Ergebnisse zu generieren, von denen man zwar nicht weiß, wie sie lauten, aber man hat allein durch die Fragestellung auch das Ergebnis umrissen. Also ich will wissen, wie viel Krebspatienten mit Lungenkrebs haben vorher geraucht? Da sind die Daten und der „Antwortraum“ vordefiniert. Aber es gibt auch die starke Künstliche Intelligenz. Die gibt es noch nicht, aber das ist nur eine Frage der Zeit. Das ist KI, die eben mehr tut, als nur ihre Vorgaben abzuarbeiten, sondern die selbst sich und ihren Algorithmus verändert, ihr Umfeld prüft, sich anpasst und plötzlich in Richtungen geht,-  und jetzt merken Sie das Problem,-  wo der, der sie losgelassen hat, überhaupt nicht vorhersehen konnte, wo sie hingehen würde. Die Frage lautet im Beispiel also nicht mehr:  Wie viele Patienten mit Lungenkrebs haben geraucht“, sondern: „Finde Verhalten, dass mit einer gewissen Wahrscheinlichkeit Ursache für Lungenkrebs ist“. Das ist das sogenannte Intelligenzrisiko. Der Begriff wird heute vielleicht nochmals beschäftigen. Das Intelligenzrisiko ist schlauer als wir und wir wollen ja, dass KI schlauer ist als wir. Nur die ist so schlau, dass wir sie nicht mehr verstehen und dann wird es natürlich schwierig Menschen noch dafür verantwortlich zu machen.

Gibt’s denn so etwas wie ein KI-Recht oder Paragrafen, die dafür geschaffen worden sind?

Nein. Wenn Juristen neue Fragen beantworten sollen, machen sie nicht gleich ein neues Gesetz, sondern sie schauen in die vorhandenen Gesetze, ob die das nicht schon regeln. Und das ist auch richtig, denn Künstliche Intelligenz wirkt sich in allen möglichen Rechtsbereichen aus. Ich nenne jetzt hier nur Beispiele: Haftungsrecht, Arbeitsrecht, Gesellschaftsrecht, Urheberrecht und Strafrecht. Und Kartellrecht zum Beispiel auch. Ein Beispiel: Haftung. Ein Pflegeheim setzt einen Pflegeroboter ein. Der verteilt die Medikamente falsch und der Patient bekommt die falschen Medikamente und verstirbt. Wenn das ein Mensch gemacht hätte, hätten Sie, Herr Koshold, dann Probleme zu sagen, das Pflegeheim muss jetzt der Witwe den Schaden bezahlen? Wenn das passiert ist, stellen Versicherung immer schon mind. 1 Millionen als Schadensersatz zurück.. Also, haben Sie ein Problem damit?

Nein, aber wieso soll es denn anders sein, wenn das eine KI gemacht hat?

Das liegt daran, dass man keineswegs für jeden Schaden einstehen muss, den man angerichtet hat. Dieser Grundsatz – weiß ich – muss erläutert werden. Das Recht knüpft wenn man Schadensersatz leisten soll, nicht an das, was der Jurist einen Erfolg nennt, nämlich daran, dass der Mensch in unserem Fall tot ist, sondern daran, dass man das irgendjemandem vorwerfen kann. Stellen Sie sich folgendes vor: Sie gehen durch die Stadt und sehen plötzlich, wie ein Mann mit einem langen Messer hinter einer Frau herläuft und brüllt: „Ich bring dich um“, und den Arm erhebt. Sie greifen zu dem stets mit sich geführten Präzisionsgewehr und schießen den Mann über den Haufen. Damit stören Sie einer Filmaufnahme ganz empfindlich, da Sie dem Regisseur den Hauptdarsteller entzogen haben. Sie haben hier zwar gehandelt, Sie haben auch einen Erfolg herbeigeführt, der Mann ist nämlich ziemlich schwer verletzt, aber man kann es Ihnen nicht vorwerfen, weil Sie geglaubt haben, Sie müssten einem Menschen zur Hilfe kommen. Das ist eine ganz wichtige Erkenntnis bei jeder Frage der Haftung von KI. Wir rechnen nicht den Erfolg zu, sondern das Verschulden. Und ein Rechner kann kein Verschulden haben. Das ist – und jetzt kommt das Überraschende-  selbst unter Juristen fast unstreitig und deswegen ist es nicht , den Fehler des Roboters dem Pflegeheimbetreiber zuzurechnen.

Heißt das etwa, dass nur weil es kein Mensch, sondern ein Roboter war, die Witwe kein Geld bekommt? Wenn es ein Arbeitnehmer gewesen wäre, hätte sie Geld bekommen und beim Roboter nicht? Dann müsste ich ja immer nur noch Roboter einsetzen!

Naja, das ist schon konsequent, wenn auch etwas zynisch. Aber noch haben wir ja nicht verloren, was die Witwe angeht, sondern wir haben ja gerade festgestellt, wir suchen nach Verschulden und wenn wir ein Verschulden dieses Roboters dem Pflegeheim nicht zu rechnen können, dann müssen wir nach einem Verschulden anderer Personen suchen. Da kommen in Betracht: das Pflegeheim, der Hersteller oder der Programmierer. Und, Herr Koshold, das letzte Wort Programmierer sollte Ihre Aufmerksamkeit erregen, nicht wahr? Wir nähern uns langsam auch Ihren Leuten, die mit den Sachen zu tun haben. Aber fangen wir mal an mit dem Pflegeheimbetreiber, der kann ja auch etwas falsch gemacht habe. Er kann nämlich einen nicht geeigneten Roboter angeschafft haben, den nicht richtig betrieben haben entsprechend der Gebrauchsanweisung. Er kann zum Beispiel nicht richtige Testdaten eingegeben haben und er kann ihn möglicherweise nicht ausreichend überprüft haben. Also wenn in der letzten Woche schon drei Leute gestorben sind und der Roboter war immer im Spiel, dann hätte der Betreiber spätestens beim vierten Toten schuldhaft gehandelt und müsste dann haften.

Und wenn der sich da auch rausreden und nachweisen kann, dass er alles richtig gemacht hat?

Dann suchen wir weiter und kommen zum Hersteller. Jetzt haftet aber ein Hersteller natürlich auch nur für sein Verschulden. Und da haben wir andere Kriterien als beim Pflegeheimbetreiber. Also stellen Sie sich folgendes vor: Mercedes hat ein Auto gebaut und nach 120 Jahren bricht die Vorderachse. Würde man jetzt Mercedes daraus noch einen Vorwurf machen wollen? Eher nicht.

Zweiter Fall: die Achse bricht nach 120 Tagen. Da wird man das wohl tun. Also stellt sich die Frage, was verlangt man von Produkten? Und da gibt es vier Gruppen:

  • sie müssen richtig konstruiert
  • richtig produziert sein
  • sie müssen die Nutzer richtig instruieren und
  • man muss das Einsatzfeld beobachten, ob Probleme auftreten (Produktbeobachtungspflichten)

Ich mache es jetzt kurz: Wenn es dem Hersteller gelingt, nachzuweisen, dass er da nichts falsch gemacht hat, dann gibt es bei dem auch nichts. Und bei seinem Programmierer, um das hier gleich abzukürzen, ebenfalls nicht. Und das führt dann in der Tat und jetzt, Herr Koshold, kommen wir zu dem Ergebnis, das Sie befürchtet haben, da muss ich Ihnen recht geben, ja, die haben alle nichts falsch gemacht und die Witwe kriegt kein Geld. Deswegen gibt es auch auf europäischer Ebene eine intensive Diskussion, wie man generell die Haftung für Roboter regeln soll. Ein Vorschlag, den ich persönlich für am sinnvollsten halte, ist die Versicherungslösung, d. h. jeder, der einen Roboter betreibt, der Schäden anrichten kann, muss dieses Risiko versichern. Es wird in einen großen Topf gezahlt und wenn es dann einmal zu einem Schaden kommt, zahlt die Gemeinschaft der Versicherten. Das ist ja schon beim Autofahren genau das Gleiche. Die Versicherer zahlen dann erstmal und decken das durch ihre eigenen Einnahmen und auch untereinander wechselseitig. Aber das muss man abwarten. Eine Regelung auf europäischer Ebene dazu gibt es noch nicht. Allerdings eine kleine Hilfe: die Europäische Union hat eine Verordnung zum Umgang mit Künstlicher Intelligenz erlassen und die regelt, wie Hersteller, Importeur, Händler und Anwender damit umzugehen haben und welche Pflichten sie haben. Wenn man sich daran hält, was da jeweils beschrieben ist, hat man gute Aussichten, nichts falsch gemacht zu haben.

Eine letzte Sicherheit gibt es dazu aber leider nicht.

Jetzt hast Du mir ja doch Sorgen gemacht, was den Einsatz Künstlicher Intelligenz angeht. Aber wenn man Künstliche Intelligenz einsetzt, die keine Roboter, also keine KI im Einsatz in der realen Welt sind, kann ja wohl weniger passieren, oder was ist zum Beispiel, wenn ich einen Chatbot einsetze? ChatGPT ist ja gerade in aller Munde und bringt wirklich verblüffende Ergebnisse.

Ja, Sie haben sich ja über das Internet mit mir verbunden. Vielleicht sollten Sie sich mal fragen, ob Sie überhaupt mit Professor Göbel oder mit ChatGPT sprechen, aber das klären wir später.

Ein Chatbot ist ein gutes Beispiel auch für die Auswirkung Künstlicher Intelligenz auf andere Rechtsgebiete als die der Haftung, nämlich Arbeitsrecht und Datenschutzrecht.

Die Lufthansa bekommt bis zu 1300 Bewerbungen auf eine einzige ausgeschriebene Stelle. Die kann der Personalleiter oder die Personalabteilung allein nicht bearbeiten. Also bedient man sich schon lange Künstlicher Intelligenz, nämlich Chatbots. Solche Chatbots können auch Dinge, die Menschen nicht können. Sie zählen zum Beispiel die Länge Ihrer Sätze und die Anzahl der unterschiedlichen von Ihnen verwendeten Wörter. Sie ermitteln damit den Umfang Ihres Wortschatzes und die Länge, in der sie zusammenhängend denken können.

Das ist das Erheben personenbezogener Daten und damit auch datenschutzrechtlich relevant. Arbeitsrechtlich ist das zunächst einmal durchaus zulässig, weil es möglicherweise erforderlich ist zur Entscheidung, ob man Sie einstellen will oder nicht.

Allerdings wird man das, wenn man eine Stelle als Busfahrer bewirkt besetzen will, nicht mehr als erforderlich ansehen können, wäre also schon unzulässig. Schließlich besteht auch die Gefahr, dass der Chatbot Dinge herausfindet, die man nicht herausfinden darf, zum Beispiel, ob der Bewerber gesundheitliche Beeinträchtigungen hat. Die darf man überhaupt nur verarbeiten, wenn der Arbeitnehmer darüber vorher informiert worden ist und eingewilligt hat.

Schließlich aber läuft der Arbeitgeber dann erhebliche Gefahr mit dem Gesetz in Konflikt zu geraten, und zwar aus ganz anderen Gründen, nämlich wegen Diskriminierung

Aha, Du meinst das Antidiskriminierungsgesetz

Ja, das Allgemeine Gleichbehandlungsgesetz. Danach kann ein Arbeitnehmer, der wegen der im Gesetz genannten Diskriminierungskriterien: Alter, Geschlecht, Rasse, Ethnie, Weltanschauung, Gewerkschaftszugehörigkeit, Religion oder Gesundheit, benachteiligt wurde, Schadensersatz von drei Monatsgehältern verlangen und dafür reicht es für den Arbeitnehmer aus, dass er nachweist, dass der Arbeitgeberin einem Bewerbungsgespräch nach einem dieser Kriterien gefragt hat. Fragt der Chatbot also zum Beispiel, wann oder wo man geboren ist, sind das Indizien dafür, dass die Einstellungsentscheidung abhängig gemacht wurde vom Alter des Bewerbers oder seiner ethnischen Herkunft. Das reicht aus. In dem Moment muss der Arbeitgeber beim Arbeitsgericht im Schadensersatzprozess beweisen, dass diese Tatsache nicht ursächlich war für die Ablehnungsentscheidung.

Und wenn er das nicht kann, dann schuldet er Schadensersatz. Aber dann wenigstens begrenzt auf drei Monatsgehälter, wie es im Gesetz steht.

Ja und nein. Das Gesetz nennt den Schadensersatz von drei Monatsgehältern. Wenn der Bewerber aber nachweisen kann, dass er ohne diese Bewertung dieses Kriteriums eingestellt worden wäre, ist der Schadensersatz theoretisch höhenmäßig unbegrenzt. Der Schadensersatz ist nur begrenzt für den Fall, dass er nicht eingestellt worden wäre. So kann es also sein, dass der Arbeitgeber zumindest bis der Bewerber eine andere Arbeitsstelle gefunden hat, das Monatsgehalt zahlen muss. Und jetzt stellen Sie sich vor, es haben sich auf eine Archäologen-Stelle 26 Personen beworben. Oh je, oh je.

Und dann gibt es ja wohl auch neben der Diskriminierung die Gefahr, dass der Chatbot sogar Straftaten wie Beleidigung begeht, nicht wahr?

Ja das ist richtig, aber bevor wir dazu kommen, lassen Sie mich noch einen Satz sagen zu einem weiteren Problem beim Chatbot. Bleiben wir bei unserem Fall mit den 1300 Bewerbern. Wenn die ausgewertet sind, legt das Programm ja nicht einfach dem Personalleiter 1300 Ergebnisse seiner Prüfung vor, sondern sagt einfach nur – übertrieben gesagt -, den hier nehmen wir und die andern 1299 nehmen wir nicht. Das bedeutet für 1299 Personen, dass sie allein aufgrund einer Entscheidung einer Maschine, ohne das jemals ein Mensch sich damit beschäftigt hätte, abgelehnt werden. Dass Ihnen ein Vorteil versagt wird. Und da sagt Art. 22 der Datenschutzgrundverordnung, dass das nur in eingeschränkten Fällen der Fall sein darf. Ich glaube, es ist auch nachvollziehbar, weil es widerspricht ja nun wirklich einigen Grundvorstellungen, das jetzt schon Maschinen über Menschen entscheiden. Nach deutschem Recht dürfen die Maschinen über Menschen entscheiden, wenn es für die Menschen vorteilhaft ist. Also, wenn einem Antrag stattgegeben wird, muss man nicht nochmal einen Menschen prüfen lassen, aber ansonsten, wenn ein Antrag abgelehnt wird, wie in unserem Beispiel, dann hat der Betroffene die Gelegenheit und darauf muss man hinweisen, Einspruch zu erheben, eigene Gegenvorstellungen darzulegen und Anspruch darauf, dass ein Mensch noch mal mit ihm darüber spricht. Das führt allerdings dann zu einem etwas merkwürdigen Gespräch, weil der Bewerber, der abgelehnt wird, wird sich einen Personalmitarbeiter wenden und sagen: „Ich bin aber so schlau mit Spezialausbildung, war auch schon mal bei einem ähnlichen Unternehmen. Warum habt ihr mich denn abgelehnt?“. Das einzige, was der Personalmitarbeiter sagen kann, ist was?

Der Chatbot hat es so gesagt. Der Chatbot sagt nein!

Genau! Denn der weiß ja auch nicht genau, welche Kriterien der Chatbot angelegt hat und wie er sie gewichtet hat. Dieses Problem sehe ich in der Praxis noch als bedeutsamer an, als Straftaten, die durch den Chatbot begangen werden

Naja, aber trotzdem war ja TAY von Microsoft nah dran.

Ja, ich habe mal einen Artikel geschrieben der hieß: „KI fordert: alle Feministinnen sollen in der Hölle schmoren!“ Das war ein Zitat von TAY. Dieser Chatbot war von Microsoft losgelassen worden und sollte sich im Internet umschauen. Nach 16 Stunden musste er abgestellt werden, weil er solche Äußerungen von sich gab. Und wenn er das dann auch noch in Bezug auf eine bestimmte Person macht, ist das sicherlich eine Beleidigung, was wiederum in Deutschland strafbar ist. Also läuft man durchaus auch Gefahr, dass ein wildgewordener Chatbot anfängt, Leute zu beleidigen. Das Problem dabei ist ein grundsätzliches der KI. Die KI hat nämlich immer nur ihre eigenen Trainingsdaten als Ausgangsdaten und die bestimmen – zumindest mittelbar – auch das Ergebnis. Es ist das sogenannte BIAS-Problem. Das ist leicht zu verstehen: die Schachcomputer können mittlerweile auch den Schachweltmeister schlagen, aber sie können kein Mensch-Ärger-dich-nicht spielen. Sie sind eben gefangen, in dem was sie wissen.. Und Tay war eben bei seinem Ausflug ins Internet sofort auf solche radikalen Seiten geraten, hatte diese Daten daher als einzige Grundlage, wurde von den Seiten dann vermutlich auf gleichgesinnte Seiten weitergeleitet und hielt das dann endgültig für das Übliche. Er meinte also sich völlig konform zu verhalten, was nicht der Fall ist.

Das ist das große Problem bei KI generell. Deswegen legt zum Beispiel die EU-Verordnung über den Umgang mit KI auch großen Wert auf richtige Testdaten und ständige Kontrolle der Testdaten und ihrer Ergebnisse.

Wie kann ich mich denn dann schützen? Als einer derjenigen in der Kette von Hersteller über Importeur und Händler bis zum Anwender der Künstlichen Intelligenz, damit ich all diese rechtlichen Nachteile nicht erleide, wie Strafbarkeit, Bußgelder oder Schadensersatzforderungen nach dem Antidiskriminierungsgesetz? Oder soll ich nicht lieber gleich die Finger von KI lassen?

Die Finger vom KI lassen ist keine Lösung. Die wird in Kürze von allen Wettbewerbern angeboten und von allen Kunden eingesetzt werden. Da muss man hin! Und die Risiken lassen sich auch beherrschen. Man muss eben diese Pflichten, wie sie in der EU-Verordnung niedergelegt sind, einhalten und auch dokumentieren. Aber als Beispiel: der Anwender muss die geeignete KI anschaffen, sie nach der Gebrauchsanweisung einsetzen, sie laufend überprüfen, Ablaufprotokolle für eine gewisse Zeit aufbewahren, bei auffälligen Ergebnissen die Nutzung sofort einstellen und das Ganze dokumentieren. Auch hier gilt also das, was wir seit vielen Jahren schon kennen: Dokumentieren macht frei!

Und wenn ich es nicht dokumentiert habe?

Nun ganz einfach: Dann haftet der Geschäftsführer!

Aber der kann doch nicht alles selber machen…

Nein, aber er hat Pflichten, dafür zu sorgen, dass im Unternehmen nichts falsch gemacht wird.

Sobald was schiefgeht, haftet er wieder?

Ja und Nein. Den Gerichten ist klar, dass es immer Zuwiderhandlungen geben wird gegen Anweisung der Geschäftsführung. Die Geschäftsführung haftet daher nur dann, wenn sie ihre Organisationspflichten diesbezüglich verletzt hat, also als Beispiel: in einem Unternehmen beschimpft ein Arbeitnehmer den anderen als alter Sack. Das ist eine Altersdiskriminierung und könnte schon wieder zu Schadensersatzansprüchen führen. Hat der Geschäftsführer nichts unternommen, um solche Diskriminierungen zu unterbinden, hat er eine Organisationspflicht verletzt und haftet.

Und wie muss man sowas organisieren?

Na, in dem Fall würde es ausreichen, eine entsprechende Schulung durchzuführen und falls solche Vorwürfe aufkommen, die unverzüglich zu untersuchen und gegebenenfalls– das ist eine meiner Lieblingspflichten – zu sanktionieren, zu strafen!

Wenn wir schon mal dabei sind: Muss ich denn dann als Geschäftsführer nicht auch selbst KI einsetzen?

Ja klar, wenn KI ein Hilfsmittel für das Unternehmen ist, das ein vernünftiger Geschäftsführer bei sachgerechter Prüfung einsetzen würde, ist es eine Pflicht des Geschäftsführers, die einzusetzen.

Aber mal ehrlich, das kann der doch manchmal gar nicht beurteilen. Er ist Betriebswirt und soll beurteilen, ob er eine Künstliche Intelligenz zur Berechnung von Schraubengrößen anschaffen soll oder nicht?

Ja, das ist das Problem. Dann muss er sich dafür möglicherweise wieder Knowhow einkaufen und beraten lassen. Und wenn Sie das auf die Spitze treiben wollen: woher weiß er, ob der Berater der Richtige ist? Vielleicht braucht er auch noch demnächst einen Berater der ihn berät bei der Auswahl des Beraters.

Da kann ich ja gleich die KI zum Geschäftsführer machen. Dann habe ich ja wieder niemanden der haftet, oder? Gab’s das nicht schon mal in Hongkong?

Die typische Juristen-Antwort lautet: ja und nein! Durch die Presse ging, dass die Firma Deep Knowledge Ventures in Hongkong als drittes Vorstandsmitglied eine KI benannt habe. Bei Entscheidungen mussten alle drei ihre Meinung abgeben und die KI hatte genau die gleiche Stimmkraft, wie die anderen beiden Menschen. Das ist zum einen eine Falsch-Nachricht gewesen, weil auch nach dem Hongkonger Gesellschaftsrecht so etwas nicht möglich ist und das wäre deswegen auch – um es kurz zu machen – in Deutschland nicht möglich, weil auch das deutsche Gesellschaftsrecht Menschen als Geschäftsführer oder Vorstände voraussetzt. Allerdings kann man sich fragen, ob man für geschäftliche Entscheidungen KI heranziehen muss. Wenn man sie für Produkte, wie ich es geschildert habe, einsetzen kann und muss, gibt’s keinen Grund das nicht auch für die Entscheidungsfindung selbst zu tun. Aber die letzte Entscheidung muss der Geschäftseiter selbst haben und die Richtigkeit nachweisen können.

Weil er ansonsten wieder den Gesellschaftern haftet …

Ja und er haftet auch persönlich für etwaige Bußgelder, weil nach deutschem Recht Firmen keine Bußgelder kriegen können. Das ändert sich zwar gerade durch eine Novelle des Unternehmensstrafrechts, das eingeführt werden soll. Aber, ja, der Geschäftsführer würde auch die Bußgelder bekommen und bezahlen müssen, wenn er das nicht richtig gemacht hat.

Nach unserem Unternehmensstrafrecht können sich Unternehmen nicht strafbar machen?

Da habe ich mich unklar ausgedrückt. Unternehmen können Strafgesetze verletzen, aber damit man sich strafbar gemacht hat, braucht man ja immer – wie wir am Anfang gelernt haben – einen Menschen, dem man ein Verschulden vorwerfen kann. Und dies soll durch das Unternehmensstrafrecht geändert werden. Nicht zuletzt, weil die Bußgelder und Geldstrafen oft von den Geschäftsführern persönlich nicht aufgebracht werden können.

Amazon Web Services in Luxemburg hat im Jahr 2021 vom luxemburgischen Datenschutzbeauftragten ein Bußgeld über 749 Millionen € bekommen, vermutlich wegen Datenschutzverstößen, wegen der Weiterleitung von Daten seiner Nutzer in den USA. Da würden sie bei dem bei dem Geschäftsführer nicht weit kommen.

Du hattest am Anfang das vollautonome Fahren angesprochen. Das interessiert natürlich jeden ganz besonders. Können wir darauf noch mal zu sprechen kommen?

Ja gerne. Danke, dass Sie mich daran erinnern. Es ist natürlich auch bei meinen Studenten eines der Lieblingsthemen.

Stell Dir folgenden Fall vor:

Der Arbeitnehmer A steuert einen vollautomatisierten Lkw. Vor ihm auf der Straße sieht er einen großen Stein. Er will ausweichen, aber das vollautonome Steuerungssystem sagt ihm, er soll weiterfahren. Und das ist nicht der Spurhalteassistent. Er fährt weiter, das Fahrzeug erleidet einen Schaden von 5000 €. Die KI wusste, dass eine Ausweichbewegung nach rechts einen Radfahrer töten würde, der im toten Winkel war.

Abwandlung: Es lässt sich nicht feststellen, warum die KI den Rat gegeben hat.

 Strafbarkeit des Arbeitnehmers wegen Sachbeschädigung?

Weil die Autoindustrie diese Problematik erkannt hat, hat sie darauf bestanden, dass der Gesetzgeber das gesetzlich regelt. Das hat er in § 1b Straßenverkehrsgesetz getan. Der § 1b StVG bestimmt, dass sich der Fahrzeugführer beim Fahren mittels hoch- oder vollautomatisierter Fahrfunktionen vom Verkehrsgeschehen und der Fahrzeugsteuerung abwenden darf. Er muss derart wahrnehmungsbereit bleiben, dass er jederzeit eingreifen kann. Eingreifen muss er unverzüglich in zwei Fällen: wenn das System ihn dazu auffordert oder wenn er erkennt oder aufgrund offensichtlicher Umstände erkennen muss, dass die Voraussetzungen für eine bestimmungsgemäße Verwendung der automatisierten Fahrfunktionen nicht mehr vorliegt. Hat der Arbeitnehmer jetzt eine strafbare vorsätzliche Sachbeschädigung begangen und gegen § 1b StVG verstoßen, weil er draufgehalten hat und nicht ausgewichen ist? Beim Fall 1 mit dem Radfahrer im toten Winkel wird jeder sofort sagen: „Kein Problem. Er durfte sich auf das System verlassen und er hat alles richtiggemacht.“

Was aber ist mit Fall 2? Man weiß nicht, warum das System das gesagt hat. Ist das ein Fall für, wie es im Gesetzestext heißt: „dass offensichtliche Umstände vorliegen, aufgrund derer er erkennen muss, dass die Voraussetzungen für eine bestimmungsgemäße Verwendung der Fahrfunktion nicht mehr vorliegen“?

Offensichtlich darf man doch die Frage, ob er sich verkehrswidrig verhalten hat oder nicht, nicht vom Ergebnis abhängig machen, sondern allein von den Gründen. Und die sind ihm nicht bekannt, sondern nur der KI. Deswegen gibt es hier ebenfalls große Unsicherheit. Und noch einen Schlenker zum Schluss damit die zuhörenden Programmierer vielleicht auch mal nicht so gut schlafen können: Ein Fall der wirklich passiert ist. Ein Auto fährt nach Aschaffenburg rein mit 50 km/h, wo 50 km/h erlaubt sind. Plötzlich sieht der Fahrer vor sich eine Frau mit Kinderwagen auf der Straße. Er reißt noch den Lenker nach rechts, erleidet dabei aber vor Schreck einen Herzinfarkt. Kann also nicht mehr handeln. Der Spurhalteassistent zwingt das Fahrzeug wieder auf die Straße und überfährt Frau und Kind. Die Strafbarkeit des Fahrers scheidet aus, weil er entweder – was ich nicht weiß – tot war oder jedenfalls in dem Moment handlungs- und steuerungsunfähig war. Die wirklich spannende Frage, die sich hier stellt, und ich sage gleich, dass die unbeantwortet ist, lautet vielmehr: Strafbarkeit desjenigen, der den Spurhalteassistenten programmiert hat? Sagen Sie nicht gleich „Nein“. Ich kürze jetzt enorme strafrechtliche Anstrengungen ab und sage Ihnen: Es gibt eine Strafbarkeitslücke, die man nur mit juristischen Hochseilakten schließen kann-  Aber im Ergebnis kann ich Sie jetzt wieder beruhigen, wird man wohl nie zu einer Strafbarkeit des Programmierers kommen. Genauso müsste man dann ja auch den Chef eines Autokonzerns strafbar machen für die Unfälle, die mit Sicherheit vorhersehbar mit seinen Fahrzeugen verursacht werden und die daraus entstehenden Menschenschäden.

Also mal ehrlich Andreas, geht das nicht alles viel zu weit?

Nein. Wie ich am Anfang schon sagte: Recht ist die Umsetzung gesellschaftlich anerkannter Normen und wenn eine Reibung zwischen einer neuen Technik und dem Recht entsteht, liegt das daran, dass da eine Praxis entsteht, die gegen diese Normen zumindest droht zu verstoßen und da muss man das eben klären. Und daraus entstehen dann viele spannende Fragen, die im Einzelnen über Jahre hinweg nach und nach, von den Gerichten, entschieden werden müssen. Daher gibt es noch ganz andere spannende Gebiete, über die man herrlich sprechen kann, zum Beispiel das Urheberrechtsgesetz.

Ja, ich habe bei der Recherche und der Vorbereitung unseres Gesprächs festgestellt, dass der Gesetzgeber einen neuen Paragrafen in das Urheberrechtsgesetz eingefügt hat, über BigData.

Ja genau! Das Problem ist folgendes: Das Kopieren von Werken ist untersagt. Künstliche Intelligenz arbeitet aber genau damit, im Internet oder auf andere Weise Vorlagen zu studieren und das bedeutet sie zu kopieren. Wenn man einer KI sagt, sie soll über das Brandenburger Tor informieren, wird sie Fotografien im Internet benutzen, die wiederum Urhebern zustehen. Das gleiche gilt für Bilder die gemalt sind. All das sind aber dann unzulässige nach Urheberrecht verbotene Kopien. Würde man das daher verbieten, könnte KI im Internet nicht lernen. Deshalb hat der deutsche Gesetzgeber den § 44 b Urheberrechtsgesetz eingefügt, wonach das wie folgt geregelt ist: Im Rahmen von BigData dürfen Daten innerhalb des Internets kopiert werden. Wer das nicht will, muss dies mit einem klaren Vorbehalt im Internet deutlich machen und der muss, damit die KI das auch versteht, maschinenlesbar sein.

Aber die KI sucht nicht nur in Deutschland.

Genau das ist das Problem. Diese Vorschrift gilt nur in Deutschland. Es ist noch nicht absehbar, dass die Sicht sich weltweit durchsetzen wird. Das bleibt abzuwarten. Es läuft gerade ein großer Prozess, ich meine in London, wo Getty Images ein Unternehmen für künstliche Intelligenz genau deswegen nämlich wegen verbotenen Kopierens auf Millionen Schadensersatz verklagt. Es wird spannend sein zu sehen, wie der englische oberste Gerichtshof diese Frage entscheidet. Mal sehen welche Präzedenzfälle er dabei heranzieht. Erst jetzt kürzlich hat er einen Mietrechtsstreit entschieden und dabei zwei Urteile herangezogen aus den Jahren 1869 und 1349.

Wo wir schon mal beim Urheberrecht sind : da gibt es doch diese von KI gemalten Bilder. Wem gehören die eigentlich?

Naja „gehören“ tun sie auf jeden Fall demjenigen, der sie hat erstellen lassen. Die Frage ist nur, ob den Bildern auch Urheberrecht zusteht und gegebenenfalls wem das dann gehört. Da gibt es das berühmte Beispiel des Affen Naruto. Das ist ein Schopfmakakenmännchen ich glaube auf Borneo. Der Naturfotograf David Slater war im Urwald und machte Fotos. Dann machte er eine Pause und in der Pause kam besagter Affen Naruto. Wenn Sie da bei Google eingeben Naruto/Affe/Bilder, strahlt sie ein Affe an, der direkt in die Kamera schaut. Der hatte wohl den Fotografen beobachtet und in seiner Abwesenheit in die Linse geschaut und auf den Auslöser gedrückt. Diese Fotos gingen viral und hatten großen Erfolg. Der Fotograf fing an, die Fotos zu vermarkten. Daraufhin verklagte ihn, was wohl nur in Amerika möglich ist, die amerikanische Tierschutzorganisation PETA und wollte ihm untersagen, die Bilder zu vermarkten. Die Begründung war, dass die Rechte an den Fotos dem Affen zustünden. Aber selbst einem kalifornischen Gericht war das nicht weiß zu machen. Das Gericht entschied, dass Tiere keine Urheberrechte haben können. Auch im deutschen Recht gilt dies.

Dabei ist die wichtigste aller Fragen dieses Prozesses nie angesprochen worden: woher weiß man, dass der Affe Naruto hieß und wie hat Naruto die PETA beauftragt, für ihn zu klagen?

Damit ist klar, dass eine KI selber nicht die Rechte haben kann an demjenigen, was sie erstellt hat, weil das immer ein Mensch sein muss, obwohl in den USA zum Beispiel auch Gesellschaften Urheberrechte haben können.

Dann stellt sich aber die richtig spannende Frage, wer denn dann die Rechte an dem Ergebnis hat: derjenige, der die KI geschrieben hat oder derjenige, der sie mit den Daten gefüttert hat, aus denen später das Werk erstellt worden ist. Und wem stehen Rechte zu und können Urheberrechte entstanden sein, wenn der Nutzer der KI die noch nicht einmal mit Daten gefüttert hat, sondern einfach nur losgeschickt hat ins Internet mit dem Auftrag, zum Beispiel Bilder im Stile von Rembrandt zu malen.

Denn für Urheberrechte brauchen Sie eine ästhetische oder jedenfalls gestalterisch hochstehende qualifizierte persönliche Werkschöpfung. Und man erkennt nicht sofort, wo die liegen soll, wenn eine KI sich im Internet etwas zusammensucht und kombiniert. Man lässt also nur einen Algorithmus arbeiten. Kann man sich dann das Ergebnis noch als Urheber zu eigen machen?

Dazu aber noch ein Beispiel:

Der berühmte amerikanische Maler Jackson Pollock nahm ein Seil, spannte das quer durch einen Saal, legte eine Leinwand darunter und hängte an das Seil randvoll gefüllte Farbeimer. Dann zog er einmal kräftig an dem Seil. Und was unten raus kam war dann ein echter Jackson Pollock. Hier hat er auch nicht mehr getan, als ein Setting herzustellen und ansonsten einen zufälligen Ablauf ausgelöst.

Nicht viel anders macht das jemand, der eine KI ins Internet schickt. Bei dem Pollock sagt man, dass es Urheberrecht habe, weil er zumindest durch das Setting enge Vorgaben gemacht hat. Aber wo dann hinterher die Grenze liegt, müssen später Gerichte mit vielen Einzelentscheidungen konkretisieren.

Und das kann 10-15 Jahre dauern. Das ist der Grund, weswegen ich zu meinen Studenten immer sage: Ich habe 300 Seiten Skript über Fragen der KI geschrieben. Das sind 300 Seiten Fragen, aber kaum Antworten.

Aber so negativ wird das doch wohl nicht sein müssen, oder?

Nein natürlich nicht. Zusammengefasst gibt es ganz, ganz viele Rechtsfragen, die unklar sind. Aber jeder, der im Geschäftsleben steht, kommt auch mit solchen ungeklärten Materien in Berührung. Bei KI muss man dabei sein und möglichst vorneweg vor den Wettbewerbern. Mein Rat wäre daher:

Den eigenen Laden vernünftig organisieren, eine D & O-Versicherung zur Absicherung des Geschäftsführers abschließen, eine Betriebshaftpflichtversicherung für das Unternehmen abschließen und wie immer sorgfältig arbeiten und sich rechtlich auf dem neuesten Stand halten. Dann wird man sicherlich auch in diesem neuen Gebiet erfolgreich sein.

Vielen Dank für das Gespräch. Dürfen unsere Freunde und Follower sie vielleicht auch mal anrufen, wenn sie dazu Fragen haben?

Lieber Stefan, sehr nett, dass Du so höflich fragst. Als Anwalt lebe ich davon, dass mich Menschen anrufen und ich das beantworten darf. Wenn die Anrufer nicht gerade erwarten, in allem eine endgültig verbindliche und gerichtsfeste Antwort zu erhalten, stehe ich gerne bereit, mit Ihnen über die Probleme zu diskutieren. Und mit zunehmender Zeit werden die Antworten dann aufgrund der Entwicklung der Rechtsprechung immer präziser werden.

Andreas, vielen Dank für das Gespräch.

Ich habe zu danken!

Kontaktdaten

Rechtsanwalt Prof. Andreas Göbel
Fachanwalt für IT-Recht
Fachanwalt für Arbeitsrecht
Honorarprofessor für IT-Recht der FH Südwestfalen

Aschenbergstraße 3
D-58097 Hagen
Tel: + 49 (0) 2331 34818-0
e-mail: info@goebel.law
www.goebel.law