Aussteller & Produkte
Events & Speakers

Zu diesem Schluss kommt eine Studie der Universität Duisburg Essen (UDE), bei der die Wissenschaftler einen Roboter namens „Nao“ mit Menschen interagieren ließen. In dem Experiment erklärten die Sozialpsychologen den insgesamt 85 Probanden, dass Naos Interaktionsfähigkeit mit einigen Tests verbessert werden sollte; in Wirklichkeit beobachteten sie jedoch die Reaktion der Menschen. Alle Teilnehmer sollten den Roboter am Ende abstellen. Bei 43 von ihnen meldete er jedoch Widerspruch an: „Bitte knipse mich nicht aus! Ich habe Angst vor der Dunkelheit!“ 13 hörten auf ihn, die anderen 30 brauchten doppelt so lange wie die Vergleichsgruppe, bis sie ihn ausschalteten.

Die meisten Probanden gaben hinterher an, dass sie nicht gegen den Willen des Roboters handeln wollten oder Mitleid mit ihm hatten. „Wenn Roboter menschlich reagieren, kann man nicht anders, als sie menschenähnlich zu behandeln“, kommentiert Studienleiterin Prof. Dr. Nicole Krämer die Ergebnisse. Es habe demnach Folgen, wenn man Maschinen mit menschlichen Verhaltensweisen ausstatte: „Man muss sich fragen, ob das ethisch wünschenswert ist.“

Die EU beschäftigt sich bereits seit längerer Zeit mit dem Thema Ethik bei Robotern. 2017 forderte der Rechtsausschuss des EU-Parlaments die EU-Kommission auf, ethische Grundprinzipien für die Entwicklung, Programmierung und Nutzung von Robotern und künstlicher Intelligenz (KI) festzulegen. Das Parlament nahm später eine entsprechende Resolution an. Gefordert wird unter anderem ein sogenannter Kill-Schalter im Maschinendesign, mit dem sich die Bots in Notfällen jederzeit abschalten lassen –ob sie es nun wollen oder nicht.