Das darf ja wohl nicht wahr sein: wir machen uns Gedanken über Roboter-Schutzgesetze! Es gibt einen neuen Forschungsbereich, der untersucht, warum wir mit einbeinigen und zerbeulten Robotern Mitleid empfinden, wie wir mithilfe eines angewandten Anthropomorphismus Objekte vermenschlichen und Gefühle auf sie übertrage. Dass im unten genannten Artikel von Johannes Wendt Tiere und Roboter in einem Atemzug genannt werden, ist absolut unzulässig. Interessant ist ein Schlüsselbegriff für die Entstehung unseres Mitleidens: autonomes Verhalten. Wenn man den Eindruck bekommt, dass eine Maschine selbständig Informationen verknüpft und daraus eine eigene Beurteilung der Situation ableitet, neigt man zur Zuschreibung von Urteilsfähigkeit. Aber halt: weder die ideelle Freiheit noch die Urteilsfähigkeit ist für ein Programm denkbar. Also die Vorstellung von autonomem Verhalten ist keine Begründung.
Aber die Vorstellung, mit allem Handeln seien Emotionen verknüpft, die genügt irrigerweise wider besseres Wissen, weil wir unser emotionales Handeln darin spiegeln. Es macht uns etwas aus, einen Roboter „leiden“ zu sehen, deshalb brauchen wir zum Schutz unserer Emotionen und Urteile Roboter-Schutzgesetze (?!)
Kate Darling im ZEIT online Artikel von Johannes Wendt, vom 10.05.2013:
Für sie, die auch Juristin ist, stellt sich daher die Frage, ob es nicht entsprechende Roboter-Rechte brauche. „Gesetze sind eine soziale Entscheidung, wie wir unser Leben gestalten wollen. Wenn wir nicht wollen, dass Pferde und Katzen gequält werden, verbieten wir das.“ Eine ähnliche Entscheidung werde auch bei Robotern bevorstehen, die mit uns sozial interagieren. „Es geht nicht darum, die Objekte zu schützen“, sagt Darling. „Es geht darum, die Werte unserer Gesellschaft und uns selbst zu schützen.“
http://www.zeit.de/digital/internet/2013-05/roboter-ethik-kate-darling/seite-1
Kommentar verfassen