Analyse Wenn Maschinen Menschen ersetzen

Berlin/Saarbrücken · Politik, Wirtschaft und Forschung sind sich einig: Deutschland darf in der Entwicklung künstlicher Intelligenz nicht Letzter sein. Risiken, die die Technologie mit sich bringt, werden heruntergespielt. Das ist gefährlich.

„Self-Driving Car“: Google entwickelt seit 2015 Technologien für autonom fahrende Autos.

„Self-Driving Car“: Google entwickelt seit 2015 Technologien für autonom fahrende Autos.

Foto: dpa

Die Fans von "Game of Thrones", der erfolgreichsten Fantasy-Serie, sind erlöst. Erste Kapitel des mit Spannung erwarteten sechsten Buchs der Reihe, auf der die TV-Serie basiert, sind im Internet erschienen. Sprache und Aufbau ähneln dem unverkennbaren Stil des Autors George R. R. Martin, der durch die ersten fünf Bücher berühmt wurde. Doch die jetzt veröffentlichten Texte stammen nicht aus seiner Feder - sondern von einem Algorithmus, den ein US-amerikanischer Programmierer mit den bisherigen Büchern "fütterte". Der Inhalt, den diese "künstliche Intelligenz" (KI) erzeugt hat, lässt zwar zu wünschen übrig - bereits gestorbene Charaktere tauchen wieder auf, Sinnvolles sagen sie nicht -, dennoch ist der Versuch ein überraschendes Beispiel für das Potenzial künstlicher Intelligenzen.

Maschinen haben Schachprofis und Meister des Brettspiels Go geschlagen, sie haben Bilder gemalt, Texte geschrieben und sind derzeit dabei, Arbeitsmarkt und Gesellschaft zu revolutionieren, ohne dass dies öffentlich wirklich wahrgenommen wird. Dabei wird die Frage, was KI in Zukunft können wird und was sie tun soll, immer drängender. Die Debatte darüber wird weltweit geführt - in Deutschland steht sie noch an der Startlinie.

Nicht viele kennen das 1988 gegründete Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI), in dem bundesweit fast 500 Wissenschaftler und Verwaltungsangestellte arbeiten. Sie forschen an Sprachsoftware, Bilderkennung und Kommunikation zwischen Mensch und Maschine. Zu ihren Gesellschaftern zählen VW und BMW, die Telekom, aber auch Microsoft, Google und der Chip-Hersteller Intel. Rund 25 Prozent des Geldes kommen neben EU- und Bundesmitteln aus Aufträgen von der Wirtschaft, sagt DFKI-Sprecher Reinhard Karger. Auch die Bundeswehr hat bereits Interesse gezeigt: Das DFKI hat für sie eine Software entwickelt, die ihren Hacker-Schutz verbessern soll. Waffenforschung, betont er, gebe es im DFKI nicht - und werde es dort auch nie geben.

Die Risiken, die von intelligenter Technologie ausgehen, werden in Deutschland meist nur anhand selbstfahrender Autos (wer haftet, wenn es Unfälle gibt?) oder dem Arbeitsmarkt (wie viele Arbeitsplätze verlieren wir?) behandelt. Die großen Fragen aber wurden bislang weder vom Bundestagsausschuss für Digitale Agenda noch vom Ethikrat beantwortet. Welche Entscheidungen muss letztlich ein Mensch treffen? Welche Nutzung von KI wollen wir verbieten, welche unterstützen? Oft wird mangels Antworten auf die noch begrenzten Fähigkeiten der Maschinen verwiesen. Bleibt uns also noch Zeit?

"Piloten werden schon jetzt darauf trainiert, im Zweifelsfall nicht auf ihr Bauchgefühl, sondern auf die Instrumente zu hören", sagt Karger. "Wir müssen unsere Urteilsfähigkeit schärfen, wofür wir Menschen die Verantwortung behalten sollen." Zur Eile mahnte auch der Philosoph und Ex-Kulturstaatsminister Julian Nida-Rümelin auf einer Tagung des Ethikrats. Auf den Einwand, die Entwicklungen der KI in der Wirtschaft seien überschaubar, sagte er: "Sie haben sich zum Teil schon verselbstständigt."

Da alle Facetten menschlicher Intelligenz nicht programmierbar sind, nutzen Informatiker "Deep Learning"-Programme (Tiefenlernen): Netzwerken, die das Gehirn imitieren können, werden Informationen zugeführt, wodurch sie allein "lernen" und sich so eigenständig verbessern können.

Online-Konzerne streben nach dem Monopol auf Kommunikation. Sie haben wachsende Datenberge mit Informationen über die Erdbevölkerung. Die Urteilsgewalt über das, was richtig und falsch ist, liegt immer weniger in den Händen der Nutzer, der gemeinnützigen Institutionen oder der Politik, sondern bei Unternehmen, die eine der bedeutendsten Technologien der Menschheitsgeschichte am Ende dazu benutzen, mehr Kunden zu bekommen. Die Gesellschaft braucht beim Einsatz von KI eine Tür, durch die sie schreiten und mitreden kann.

"Wir haben in Deutschland eine lange Tradition, Dinge aus der Risiko-Perspektive zu sehen", sagt Thomas Jarzombek, Internet-Experte der CDU im Bundestag. Man dürfe nicht "endlos über ethische Standards diskutieren", um dann zu erleben, wie die USA und China den KI-Markt an sich rissen. "Das einzige Risiko ist, nicht mitzumachen", warnt Jarzombek.

Im Silicon Valley, wo die meisten Software-Entwickler arbeiten, haben sich Amazon, Facebook, Apple zu einer Partnerschaft zur künstlichen Intelligenz zusammengeschlossen. Diese hat sich bei der KI-Entwicklung dem Menschenwohl verschrieben: keine Waffenentwicklung, transparente Forschung, Sicherheit beim Einsatz in der Medizin. Gesetze, die diese Werte festschreiben, gibt es weder in den USA noch in Deutschland.

Dabei bedeutet KI für den Menschen eine existenzielle Gefahr, sagen Microsoft-Gründer Bill Gates, Elon Musk, Tesla-Geschäftsführer und Gründer des Raumfahrtprogramms SpaceX, oder der Physiker Stephen Hawking. Dreh- und Angelpunkt der Debatte ist die sogenannte technologische Singularität, der Zeitpunkt, an dem sich Maschinen ohne Kontrolle oder Zutun des Menschen weiterentwickeln. Raymond Kurzweil, technischer Entwicklungsleiter bei Google, sieht diesen Tag in weniger als 30 Jahren gekommen. Kurzweils Thesen sind umstritten, etwas viel Science-Fiction. Doch das rechtfertigt nicht das politische Desinteresse.

Arbeitsministerin Andrea Nahles (SPD) steht für viele, die trotz der Gefahren wenig besorgt sind. Bei einer Veranstaltung zur KI brachte sie eine verbreitete Haltung auf den Punkt: "KI ist nicht die Baustelle, die wir gerade haben."

(bur)
Meistgelesen
Neueste Artikel
Zum Thema
Aus dem Ressort