Düsseldorf Wie Roboter über Menschenleben entscheiden

Düsseldorf · Ob im Verkehr oder in der Pflege - überall könnten in Zukunft Roboter moralische, manchmal tödliche Entscheidungen treffen.

Ein außer Kontrolle geratener Sattelschlepper rast auf ein selbstfahrendes Auto zu. Das kann in diesem Gedankenexperiment seinen Besitzer nur retten, indem es auf den Bürgersteig ausweicht, dabei aber einen Spaziergänger tötet. Wie soll der Roboter reagieren?

Seit der Antike konstruieren Philosophen Dilemmata und versuchen diese moralischen Zwickmühlen zu lösen. Auf einer Tagung der Daimler und Benz Stiftung diskutierten Philosophen und Ingenieure in Berlin jetzt über die Roboterethik. Schon seit vielen Jahren überlegen Forscher, wie sich Roboter in komplexen Situationen verhalten sollen - heute geht es um selbstfahrende Autos, Pflegeroboter und militärische Drohnen. Kann es eine Maschinenethik geben, in der Menschenleben nicht gegeneinander aufgewogen werden?

Die selbstfahrenden Autos haben ein Vertrauensproblem: Gerade die Deutschen betrachten sie skeptischer als Menschen anderer Nationen. Das ergab eine Umfrage der Strategieberatung Boston Consulting Group, an der 5500 Menschen aus zehn Ländern teilnahmen. 58 Prozent der Befragten erklärten, sie würden in einem solchen Fahrzeug mitfahren. Hierzulande lag der Anteil mit 44 Prozent viel niedriger.

Im Kern geht es in der aktuellen Diskussion auch darum, inwieweit der Mensch bereit ist, Kontrolle abzugeben: Soll der Roboter selbst aus seinen Erfahrungen lernen und damit einen eigenständigen Moralkodex ausbilden? Oder wollen die Menschen den autonomen Maschinen strikte Regeln einprogrammieren? In diesem Fall wäre immer klar, warum eine Maschine diese und keine andere Wahl getroffen hat. Andererseits bleibt dieser Regelkodex immer unvollständig. Eine Möglichkeit kann es in beiden Fällen immer geben: ein Notprogramm, so dass am Ende immer der Mensch entscheiden muss. Ein Unfall ist für einen Menschen nicht zwangläufig eine moralische Frage, für den Roboter mit seiner schnellen Reaktionszeit in jedem Fall. Zynisch ist, dass einige Forscher daher für einen Zufallsgenerator plädieren.

Oliver Bendel, Experte für Maschinenethik an der Fachhochschule Nordwestschweiz, will eine andere Lösung. Auch er hält es für gefährlich, wenn Maschinen rational entscheiden: "Ich rate von Maschinen ab, die über Leben und Tod entscheiden", sagt Bendel und wirbt dafür, nur einfache moralische Maschinen zu entwickeln. Nicht alles, was Forscher erdenken, sollte demnach umgesetzt werden.

In einem anderen Bereich wird es vermutlich schon eher einen Lösungsansatz geben: In der Pflege ist der wirtschaftliche Druck höher. Das Fraunhofer-Institut für Produktionstechnik und Automatisierung (IPA) hat beispielsweise den Pflegeroboter Care-O-bot entwickelt, der Patienten mit Nahrung und Medikamenten versorgt. Auch er kann schnell in ein Dilemma geraten: Wie soll er reagieren, wenn der Patient die Medizin nicht nehmen will? Soll er nichts tun - und das Leben des ihm anvertrauten Patienten aufs Spiel setzten? Oder soll er den Patienten zwingen, die Medikamente zu nehmen und damit in dessen Selbstbestimmungsrecht eingreifen? Catrin Misselhorn, Direktorin des Instituts für Philosophie an der Universität Stuttgart entwickelt derzeit ein hybrides Modell, das die Sicht des Patienten und seine Werte wie Selbstständigkeit und Gesundheit berücksichtigt, dabei gleichzeitig moralisch lernt. Misselhorn will die Betroffenen nach ihrer Sichtweise fragen. Trotzdem sollte niemand "gezwungen werden, solche Systeme zu nutzen." Auch sollten die Roboter die menschliche Pflege nicht ersetzen.

Wie lange es noch dauert, bis Roboter sich um Menschen kümmern? Catrin Misselhorn erklärt: "Vor Kurzem hätte ich gesagt, bis das umgesetzt wird, dauert es noch. Aber jetzt im Moment erlebt die Branche einen großen Auftrieb durch die Diskussion um autonom fahrende Autos."

(RP)
Meistgelesen
Neueste Artikel
Zum Thema
Aus dem Ressort