Wenn gewissenlose Roboter kriminell werden

11. November 2019 Kurt Bracharz
Bildteil

„Man könnte zum Beispiel ein selbstfahrendes Auto, das ein Kind überrollt hat, öffentlich zerstören, indem ein Panzer mehrere Male drüberfährt. Man könnte auch darüber nachdenken, dass andere Roboter dabei zuschauen sollen, damit sie daraus lernen und nicht den gleichen Fehler machen.“

Wo sind wir hier? In einer Parodie auf Isaac Asimovs Roboter-Erzählungen? Der amerikanische Schriftsteller russischer Abkunft hatte 1942 in seiner Kurzgeschichte „Runaround“, veröffentlicht im SF-Magazin „Astounding“, die „Grundregeln des Roboterdienstes“ in drei Gesetze („Three Laws of Robotic“) gegossen: 1.) Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zulassen, dass dem Menschen ein Schaden geschieht. 2.) Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl widerspricht Regel eins. 3.) Ein Roboter muss seine eigene Existenz beschützen, solange das nicht mit Regel eins oder zwei kollidiert. Das waren gut ausgedachte Regeln für etwas damals noch fast völlig Inexistentes – die KI steckte nicht einmal in den Kinderschuhen und man nahm an, dass Roboter vor allem äußerlich wie Menschen aussehen würden, also z. B. einen Kopf mit den üblichen Sinnesorganen haben und auf zwei Beinen gehen (was extrem schwer zu verwirklichen wäre und völlig überflüssig ist). Viele andere SF-Autoren haben Kurzgeschichten, Romane und schließlich Filme aus Abweichungen von Asimovs später erweiterten Regeln gemacht. Asimov hätte übrigens einen die Regeln verletzenden Roboter nicht öffentlich aufs Rad flechten und andere Maschinen zusehen lassen, sondern ihn einfach neu programmiert.

Das Zitat am Beginn stammt aus einem Artikel „Roboter haben kein Gewissen“ in einer durchaus seriösen Zeitschrift, dem schweizerischen „Beobachter“, eine Art Konsumentenmagazin, das normalerweise mit Fakten argumentiert. Die Basler Juristin Sabine Gless, Professorin für Strafrecht und Strafprozessrecht, macht sich im Interview Gedanken über die Frage, wer schuld ist, wenn ein Roboter eine Straftat begeht. Sie hat sich mit Experten des römischen Rechts zusammengesetzt, ob die antiken Haftungsregeln für Sklaven für Roboter adaptierbar wären. Trotz einiger Gemeinsamkeiten von Roboter und Sklaven („Beide können klüger sein als ihre Besitzer, beide sind Teil einer Wertschöpfungskette“) sieht es nicht so aus, als ob die Sklaverei ein Modell für die KI sein kann. Die Römer hatten keine Unterscheidung zwischen Zivil- und Strafrecht, sondern nur ein Deliktrecht, und hier haftete nach außen hin ausschließlich der Hausherr. Aber Gless kam zum Schluss: „Weder Sklaven noch Roboter sind Rechtspersonen, sie können also nicht haften. Wenn im alten Rom eine Brücke einstürzte, weil der Sklave sie falsch baute, haftete der Halter.“

Und wer haftet nun wirklich, wenn ein selbstfahrendes Auto jemanden verletzen oder töten sollte? Man könnte annehmen, dass bei einem Programmier- oder Materialfehler als Grund der Hersteller haftet, wenn aber alles in Ordnung war (was durchaus denkbar ist, ein unglücklicher Zufall oder höhere Gewalt könnten im Spiel sein), dann ist das selbstfahrende Auto fein raus, es wird kein Panzer darüber rollen. Während den ganzen Artikel hindurch unklar bleibt, ob KI nun irgendwann, irgendwie kriminell werden kann, hat die Professorin Gless eine positive Einstellung zur Zukunft. Auf die Frage „Lassen sich alle Rechtsfragen um Roboter und künstliche Intelligenz in nützlicher Frist beantworten?“ sagt sie: „Ich denke schon. Die Frage ist: Wer ist schneller, die Technik oder das Recht?“ Früher hieß das: Der Hase oder der Igel?