Thomas Klindt: Können wir Roboter bestrafen?

"Kann der Roboter unterscheiden, was richtig und was falsch ist? Jetzt können wir natürlich auf die Idee kommen, dass Sie quasi den Menschen hinter dem Algorithmus suchen und den Programmierer verantwortlich machen wollen."

Video abspielen
Thomas Klindt: Können wir Roboter bestrafen? (Video)
Youtube

Was passiert eigentlich, wenn ein Mensch durch Software, durch einen Algorithmus zu Schaden kommt – verklagt man dann den Programmierer? Oder gibt es so etwas wie die Tücke des Objekts? Das Aufkommen selbstlernender Computersysteme stellt das Recht vor ganz neue Fragen, erklärt Thomas Klindt, Professor für europäisches Produkt- und Technikrecht an den Universitäten Kassel und Bayreuth. Und am Ende könnte eine zutiefst menschliche Denkweise eine Lösung eröffnen.

Jede Woche neu beim Stifterverband: 
Die Zukunftsmacher und ihre Visionen für Bildung und Ausbildung, Forschung und Technik

Autorin: Corina Niebuhr
Produktion: Webclip Medien Berlin
für den YouTube-Kanal des Stifterverbandes

Das Interview entstand am Rande des Zukunftskonkgresses 2016 des 2b AHEAD ThinkTanks.

Transkript des Videos

Die Frage danach, was eigentlich passiert, wenn künstliche Intelligenz bösartig wird, aggressiv wird, ist ein bisschen Science-fiction, befürchte ich. Interessanterweise hatte die Science-fiction die erste Antwort darauf gegeben.

Isaac Asimov mit seinen drei Robotergesetzen war ja ein früher literarischer und vielleicht ganz weiser Versuch, da im Grunde sozusagen ein in die Genetik der Robotik einprogrammiertes Schutzziel gegenüber dem Menschen und der Menschheit vorzuschlagen. Also, was wir derzeit ja sehen, ist eher, dass Menschen Technik benutzen, um etwas zu tun (vielleicht auch etwas Bösartiges), also Drohneneinsätze sind ja immer noch ferngesteuerte Drohnen und keine autonom agierenden Drohnen. Hackerangriffe sind ganz klar Menschen, die über irgendwelche Trojaner und Schadsoftware dahinter stecken. Die kriegen wir vielleicht nicht, derer werden wir nicht griffig, aber würden wir sie kriegen, hätte das Recht alle Möglichkeiten, diese Leute von vorne bis hinten zu verklagen und anzuklagen. Die Idee, dass also sozusagen digitale Intelligenz per se absichtlich etwas falsch macht, fällt mir noch schwer. Da bin ich auch Kind unserer Zeit. Noch fällt es mir schwer. Wenn es das eines Tages so geben wird, signifikant geben wird, habe ich keinen Zweifel, wird sofort eine gesellschaftspolitische Debatte losbrechen, wie man damit umgeht. Und wie immer wird jede gesellschaftspolitische Debatte, die sich verdichtet, irgendwann in rechtliche Vorschriften sich verdichten, und dann wird man das sehen.

Juristerei ist großgeworden in der Strafe, mit der Idee, dass bestraft wird, weil jemand etwas falsch gemacht hat. Falsch machen muss man aber können, sonst kann man nicht bestraft werden. Darum glauben wir zum Beispiel, dass man Kleinkinder nicht bestrafen kann, weil man denen gar nicht zubilligt, dass sie schon eine Vorstellung haben von Falsch und Richtig, Gut und Böse. Das Kleinkind ist nicht strafmündig, wie der Terminus technicus ist. Ist es der Roboter? Kann der unterscheiden, was richtig und was falsch ist? Und wenn er das nicht kann, werden wir ihn kaum bestrafen können. Jetzt können wir, Sie haben das in Ihrer Frage angedeutet, natürlich auf die Idee kommen, dass Sie quasi den Menschen hinter dem Algorithmus suchen und den Programmierer verantwortlich machen wollen für eine falsche Entscheidung seines späteren Algorithmus-Kindes. Ja, kann man darüber nachdenken, Juristen denken über alles nach. Ich glaube daran nicht. Erstens, glaube ich, ist das keine praktikable Lösung. Dann wird niemand mehr Programme schreiben, wenn das ernsthaft mit einem Strafrisiko verbunden wäre. Zweitens, das wird spätestens hinter der Übergangsphase enden können, dass wir irgendwann selbstlernende Algorithmen haben. Denn bei diesen selbstlernenden Algorithmen, auch in der Medizintechnik, auch in der Big-Data-Analyse, überall wird es ja nicht mal mehr den Programmierer geben, den Sie finden. Und deswegen glaube ich: Wir werden da mit dem Strafrecht nicht weit kommen.

Ich habe mal bei einer anderen Gelegenheit als Frage formuliert, nicht als Vorschlag, aber als Frage formuliert, ob wir nicht so etwas wie eine E-Person erfinden müssen, eine electronical person. Dazu müssen Sie juristisch folgenden Hintergrund sehen: Völlig klar, jede Person, jede menschliche Person ist Träger von Rechten und Pflichten. Das nennt man, das ist das, was wir Rechtsfähigkeit nennen. Wir sind Träger von Rechten und Pflichten, wir können Verträge eingehen, uns kann etwas geschenkt werden, wir können uns verheiraten, wir können schuld an etwas sein, wir können Rechte haben, aber auch Pflichten haben müssen. Und glauben Sie mal, es war nicht nur juristisch, auch eine kulturelle Erfindung, eine juristische Person zu erfinden. Was heute jedermann selbstverständlich ist. Ich gründe eine GmbH, da denkt man gar nicht mehr lange darüber nach. Ich gründe eine Aktiengesellschaft. Das ist vielleicht wirtschaftlich etwas spannender, aber juristisch ... Es ist völlig etabliert angekommen im Selbstverständnis moderner Menschen in Zivilgesellschaften, dass es juristische Personen gibt, die auch Rechte haben können und Pflichten haben können. Auch eine GmbH kann etwas erben. Auch eine GmbH kann nach einem Vertrag etwas schulden, nämlich Geldzahlungen. Das ist für uns völlig klar. Wir wissen auch, dass wir die verklagen können oder dass die uns verklagen können. Denn juristische Personen, die ja eigentlich nur eine Entität ist, die man sich erdacht hat, ist tauglicher Träger von Rechten und Pflichten gemacht. Das ist ja ein Kunstprodukt und war damals, Juristen kennen das Stichwort Savigny, das war eine umkämpfte, ich will nicht sagen: angefeindete, aber umkämpfte Idee in der juristischen Landschaft, die selbst im deutschen Sprachraum nicht überall gleich aufgenommen wurde. Und das, was denen damals abenteuerlich erschien, dass ein Nullum Rechte haben kann, vielleicht brauchen wir nochmal den gleichen Mut. Vielleicht brauchen wir nochmal den gleichen Erfindermut, juristisch zu sagen: Jetzt erfinden wir eine E-Person, der wir zutrauen, Träger von Rechten und Pflichten zu sein, die wir dann bestimmen können und konfigurieren können. Und innerhalb dieser Rechte- und Pflichtenträgerschaft ist es dann möglicherweise eine Weiterentwicklung über einen Algorithmus uns egal, denn es gibt ja den regulativen Rahmen der Rechte und der Pflichten, und die Rechte hat es, und die Pflichten hat es auch. Und wenn mich dann jemand fragt "Und wie soll man dann eine solche E-Person bestrafen?", dann weiß ich das noch nicht, denn noch hat das keiner erfunden, aber möglicherweise ist für diese E-Person die Drohung mit der endgültigen Abschaltung eine Drohung. Also, spätestens dann jedenfalls, wenn wir selbstlernende, künstliche Intelligenz war Ihr Stichwort, also, wenn Sie selbstlernende Algorithmen haben werden, werden wir uns etwas überlegen müssen, weil da etwas qualitativ Neues kommt. Und da ist dann irgendwann Schluss, glaube ich, mit der 23. Analogie und dem Versuch, irgendwie eine gesetzliche Vorschrift noch durch ganz weites Auslegen passfähig zu machen. Das wird nicht mehr passen.

Jetzt bestellt der Kühlschrank Milch. Das ist ja ein gar nicht so fernes Zukunftsbeispiel, wird auch viele, sehr praxisrelevante Anwendungsbereiche haben, dass Haushaltsgegenstände insofern ein Eigenleben haben, dass sie Ihnen etwas abnehmen. Das kann ja bis hin zu Mobilität im hohen Alter ein Faktor von Lebensqualität sein. Trotzdem, in Zeitlupe betrachtet, fragt sich der Jurist schon: Was passiert da eigentlich, wenn der Kühlschrank einen Liter Milch bestellt? Und er auch noch geliefert wird. Ist das wirklich ein Vertrag gewesen? Oder ist das etwas Neues? Weil es beide so machen, war es das wohl so. Und Juristen denken in Katastrophen. Auf den Punkt gebracht sieht man es ja besonders dann, wenn der Kühlschrank tausend Liter Milch bestellt. Und die werden auch geliefert. Können Sie dann sagen: Der wollte ja nur spielen? Oder ist das dann ein ernster Vertrag geworden? Das sind so Fragen, die klingen etwas, die kann man entweder ganz trivial finden oder ganz philosophisch, aber am Ende rühren sie natürlich in einer Wirtschaftsnation an ganz grundlegende Fragen, nämlich: Wie entstehen eigentlich bindende Abreden in einer industrialisierten, digitalisierten Umwelt? Und das, was wir immer als Antwort hatten, nämlich den klassischen Vertrag zwischen zwei Personen, selbst zwischen zwei juristischen Personen, wird mit einem digitalisierten Player neu zu erfinden sein. Ein Beispiel, das wir heute ja schon diskutiert hatten, ist der Hochfrequenzhandel an den Börsen. Da bestellen algorithmische Entscheider, entscheiden über den Verkauf, das Abstoßen und das Ankaufen von Aktienpaketen. Auf der anderen Seite im übrigen sitzt dann auch ein Computer und akzeptiert die Order. Da mag man sich noch mit Lösungen helfen wie, dass am Ende des Tages menschlich zuständige Personen die ganzen Entscheidungen des Computers über den Tag ausgedruckt abzeichnen, genehmigen, nachträglich. Der Jurist mit seiner Präzision muss das Wort genehmigen aber schon in Anführungszeichen setzen, denn genehmigen kann ich nur Willenserklärungen. Ich kann aber keine Maschinenerklärung genehmigen. Ich mache sie mir dann irgendwie anders zu eigen, aber sicher ist das ja kein Rollenmodell für eine digitalisierte Wirtschaft mit all ihren Entscheidungen. Da muss also irgendetwas anderes her. So, etwas schärfer wird es dann, auch etwas pikanter wird es dann bei der Frage, wenn der Computer jetzt nicht tausend Liter bestellt, also in Anführungszeichen einen finanziellen Schaden anrichtet, sondern veritabel Menschen verletzt. Das wird gerne und viel durchgespielt am Beispiel des Autos, das autonom steuert, in eine krisenhafte Situation kommt, sich dann nur noch entscheiden kann zwischen rechts und links, und so oder so fährt es in Menschen rein. Und was entscheidet es dann? Das ist plakativ, das Beispiel mit dem Auto. Man könnte seriös auch andere Beispiele aus der ganz normalen Industrieumgebung machen, aber das ist das Beispiel, was viel gewählt wird. Was habe ich als Jurist darauf für Antworten? Meine erste ist eine nichtjuristische: Ich glaube, dieser Zustand wird weniger häufig vorkommen als alle glauben, die darüber derzeit philosophieren. Dieses Problem wird sich möglicherweise rechtlich nicht so oft stellen, weil es sich technisch seltener stellt. Ich will damit nicht sagen, das ist ein Elfenbeinturmbeispiel, aber die praktische Relevanz dürfte nicht so groß sein wie die Obszönität der Frage. Man muss aber sozusagen vergleichen: Wie machen wir Menschen das? Also, wenn ein Mensch in der Situation fahren würde, und jetzt fällt ihm ein Stein vom Himmel vor die Straße, und er fährt rechts in eine Menschengruppe rein oder links in eine Menschengruppe rein, und er verletzt oder tötet die, dann passiert juristisch Folgendes: Ja, er begeht das, was im Gesetz eine Körperverletzung genannt wird. Aber: Nein, er wird nicht bestraft, denn er ist entschuldigt über einen anderen Paragrafen. Wir sagen ihm also: Du hast das schon getan, das ist nicht leugnenbar, aber es ist nicht vorwerfbar, denn ... Und dann kommt sozusagen die schuldrechtliche Begründung, dann kommt der Hinweis darauf, dass man es hätte nicht vermeiden können und dass man nicht für etwas bestraft werden soll, was man ja gar nicht hätte vermeiden können. Wenn also sozusagen kein ethisches Versagen drinsteckt, dann ist es kein Unrecht, dann ist es ein Unglück. Wenn der Computer die gleiche Entscheidung treffen muss, dann ist jedenfalls dieser Gedanke nicht fruchtbar zu machen, denn da gibt es ja keinem, dem wir sagen könnten: Ja, du hast etwas Falsches gemacht, aber aus übergeordneten ethischen Gesichtspunkten entschuldigen wir dich dafür, denn das hätte man ja anders machen können. Das ist menschliches Denken und passt nicht auf einen Roboter. Ich glaube, das kann seriös derzeit keiner beantworten, wohin das gehen wird. Ich kann mir nicht vorstellen, dass es so trivialisiert wird, dass es auf eine Bestrafung des damaligen Algorithmus-Verfassers dieser einen Programmierzeile gehen wird. Möglicherweise, ich bin kein Strafrechtler, aber möglicherweise werden wir Zufallselemente einbauen. Möglicherweise muss ein Zufallsgenerator entscheiden, denn wir brauchen ja in jedem Fall in diesen Maschinenethiken am Ende eine Entscheidung, die die Sozialgemeinschaft Menschheit akzeptieren wird. Und den Fatalismus eines Zufalls, der ich, glaube ich, emotional und atmosphärisch leichter zu akzeptieren als eine blindwütig falsche Programmierung. Und ich meine, wir kennen auch, wir Juristen kennen Zufallsentscheidungen immer wieder von so abwegigen Bereichen wie dem kommunalen Wahlrecht bei Stimmengleichheit bis zu sportrechtlichen Münzentscheidungen. Jeder versteht, dass wenn der Zufall es so entschieden hat, dann war es so. Möglicherweise werden wir also selbst da eine technische Lösung finden müssen, weil wir eine rechtliche nicht finden oder jedenfalls nicht sehen oder eine neue Generation von Juristen brauchen, die darauf eine Antwort hat.