Der Urahn der Roboter-Ethik: die drei Asimov’schen Gesetze
Eine erste Antwort auf diese Frage ist alt: Schon in seinem Science-Fiction-Band „Ich, der Robot“ aus dem Jahr 1950 stellt Isaac Asimov die heute als Asimov’sche Gesetze bekannten Regeln auf:
1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.
Über den menschlichen Horizont hinausdenken: Das vierte Gesetz
Asimov behandelte mit seinen Gesetzen Fragen, die in deren Entstehungszeit in ferner Zukunft lagen. Heute sind diese Fragen real. Wie wichtig und schwierig dieses Thema ist, zeigen konkrete Anwendungsfälle: Was soll beispielsweise ein autonom fahrendes Auto tun, wenn ein Kind auf die Straße läuft und ein Bremsen nicht mehr möglich ist? Soll es das Kind überfahren oder ausweichen und die Gesundheit und das Leben der Personen im Fahrzeuginneren riskieren? Die Entscheidung des Systems hat dann möglicherweise fatale Konsequenzen für die betroffenen Menschen. In dem Fall handelt es sich aber nur um einige wenige Menschen. Doch solche Fragen kann und muss man auf größere Dimensionen skalieren: Es gibt auf unserem Planeten einige Menschen, die die Ambition und die Mittel haben, erst unsere Nachbarplaneten und dann das ganze Universum zu erobern. Unerlässlich dafür: Roboter, die durch den Einsatz Künstlicher Intelligenz autonom im Weltall agieren und sich gegenseitig reparieren und selbst reproduzieren können.
Das hebt die möglichen Schäden, die Roboter anrichten können, auf eine neue Stufe und geht über die Existenz der Menschheit hinaus.
Das macht es nötig, die drei Asimov’schen Gesetze um ein viertes Gesetz zu erweiterten. Die neuen Gesetze der Robotik müssen deshalb wie folgt lauten:
1. Ein Roboter darf dem Universum und Planeten Erde nicht (wissentlich) Schaden zufügen oder durch Untätigkeit (wissentlich) zulassen, dass dem Planeten Erde und dem Universum Schaden zugefügt werden.
2. Ein Roboter darf kein menschliches Wesen und in Summe die Menschheit (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen beziehungsweise der Menschheit Schaden zugefügt wird – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
3. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins oder zwei kollidieren.
4. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins, zwei oder drei kollidiert.
Die pi4_robotics GmbH aus Berlin entwickelt und baut seit vielen Jahren Roboter. Die „4“ im Namen steht für genau diese vier Gesetze.
Werden diese grundlegenden Gesetze in den Robotern der Zukunft konsequent implementiert, sollte das ein Stück weit sicherstellen, dass die Menschheit und unser Sonnensystem nicht durch von Menschen geschaffenes maschinelles Leben ausgelöscht werden.