Chance oder Risiko? Wie Künstliche Intelligenz unsere Welt verändern wird

Düsseldorf · Ist Künstliche Intelligenz eine Chance, oder kann sie zu einer Gefahr für die Menschheit werden? Die Wissenschaft ist seit vielen Jahren mit dieser Debatte beschäftigt. Auf jeden Fall stehen wir vor einer Revolution.

 Roboter und Computer können in 48 Stunden eine Fremdsprache erlernen. Selbst Ironie ist ihnen nicht mehr fremd. (Archiv)

Roboter und Computer können in 48 Stunden eine Fremdsprache erlernen. Selbst Ironie ist ihnen nicht mehr fremd. (Archiv)

Foto: dpa, Sebastian Kahnert

Der britische Astrophysiker Stephen Hawking ist eine der wenigen Stimmen aus der Wissenschaft, die auch in einer breiten Öffentlichkeit Gehör finden. Hawkings Reden kreisten in diesem Jahr immer um das Thema Künstliche Intelligenz (KI). "Wir stehen an einer Schwelle zu einer neuen, mutigen Welt", sagte der 75-Jährige auf der "Web Summit", der größten Technologie-Konferenz Europas. Doch Hawking steht den kreativen Super-Computern sehr kritisch gegenüber. "Die Entwicklung Künstlicher Intelligenz könnte entweder das schlimmste oder das beste Ereignis in der Geschichte unserer Zivilisation sein", sagte der Physiker. Nach seiner Ansicht könnten Computer der menschlichen Intelligenz nacheifern und sie sogar übertreffen. KI könnte einen eigenen Willen entwickeln. "Wir wissen nicht, ob wir von der KI unendlich unterstützt oder vielleicht ignoriert oder möglicherweise sogar zerstört werden", beschreibt Hawking die möglichen Szenarien.

Viele Wissenschaftler, die im Bereich der selbstlernenden Computer arbeiten, sehen das ganz anders. "KI liefert Hilfsmittel, die unsere Probleme lösen", sagt Reinhard Karger, "die starke KI, so wie Hawking sie beschreibt, die gibt es nur in Hollywood." Der Sprecher des Deutschen Forschungszentrums für Künstliche Intelligenz in Saarbrücken verweist auf einen großen Unterschied. "Maschinen erkennen etwas, aber Menschen können etwas verstehen", sagt Karger. Die Stuttgarter Technikphilosophin Catrin Misselhorn ist des Untergangsszenarios längst überdrüssig: "Die Debatte um die Superintelligenz der Maschinen verstellt den Blick auf die wichtigen Fragen", sagt sie.

Selbst Ironie ist ihnen nicht mehr fremd

Künstliche Intelligenz kann Dinge mit hoher Geschwindigkeit erledigen, die Menschen nicht beherrschen oder die ihnen schwerfallen. Sie muss nur ein paar Takte eines Liedes hören, um den Interpreten und ähnliche Musikstücke zu identifizieren. Sie kombiniert Bilder aus der realen Welt mit Elementen aus Datenbanken. Sie liest Dokumente, erkennt deren wichtigste Aussagen und liefert Vorschläge für das weitere Vorgehen. Selbst das Aufspüren von Ironie ist den Maschinen nicht mehr fremd. Die Computer lernen binnen 48 Stunden eine fremde Sprache und übersetzen sie. Menschen werden bald kaum eine Chance haben, irgendeine Wissensfertigkeit ähnlich gut wie oder gar besser als eine Maschine zu beherrschen.

Diese einfache Erkenntnis wird die Arbeitswelt revolutionieren. Zunächst wird die KI bestimmte Berufsfelder begleitend unterstützen. Doch konsequenterweise kann das nur der Anfang eines Prozesses sein, an dessen Ende die Abschaffung eines Berufsbilds steht. Zunächst überwiegen noch Angst und Skepsis, ob die Bewertung eines Computers mit den Einschätzungen und dem Erfahrungsschatz eines Menschen mithalten kann. Unsere Bereitschaft, Aufgaben an Computer abzugeben, ist unterschiedlich ausgeprägt. Nur zwei Beispiele: Es ist keine Frage, dass Computer viel sicherer erkennen, ob der Ball beim Fußball die Torauslinie überschritten hat. Doch vermutlich können sie auch Röntgenbilder besser analysieren als ein Mensch. Sollte nicht besser ein Rechner entscheiden, ob das MRT eines Patienten den Beginn einer Krankheit oder einen Tumor zeigt? Dafür müssen große Datenmengen ausgewertet werden, und bei solchen Aufgaben sind auch gut ausgebildete Menschen fehlerbehaftet.

Wer kann besser Autofahren

Künstliche Intelligenz ist immer dann erfolgreich, wenn die Lösungen einer Aufgabe mehr oder weniger eindeutig sind. Aber können Maschinen besser Auto fahren als Menschen? Wenn man die Teilnahme am Straßenverkehr auf die Einhaltung von Regeln und eine unfallfreie Fahrt beschränkt, dann dürfte der Autopilot gewinnen. Doch dass Maschinen in vielen Fällen andere Entscheidungen treffen als Menschen, ist kein Geheimnis, und es ist höchste Zeit, sich damit zu beschäftigen. Das zeigt schon das Beispiel eines Staubsauger-Roboters, der eine vergleichsweise einfache Aufgabe erfüllt. Die Maschine würde einen Marienkäfer dabei überrollen. Viele Menschen würden anders handeln, aber ihre Entscheidung womöglich davon abhängig machen, ob eine Spinne oder ein Marienkäfer auf dem Teppich hockt.

Zudem ist die Künstliche Intelligenz längst nicht immer so erfolgreich, wie es bei der Ankündigung erscheint. Die Gesichtserkennung am Berliner Bahnhof Südkreuz macht beispielsweise Probleme. Sie soll gesuchte Personen in der vorbeieilenden Menge der Passanten identifizieren. Nach ersten Ergebnissen liegt die Fehlerquote bei etwa 0,1 Prozent. Wenn täglich 100.000 Menschen von den Kameras untersucht werden, werden etwa 100 Passanten fälschlicherweise als gesuchte Person erkannt. So entsteht viel Arbeit für den Menschen, weil der Computer Fehler macht.

Pessimisten machen sich Sorgen

Trotzdem haben die KI-Entwickler auch 2017 wieder aufhorchen lassen. Der Erfolg eines Computers beim Go war eines der Ereignisse, das Pessimisten beim Blick auf die Zukunft der Menschheit nervös macht. Das Brettspiel gilt als das komplizierteste Spiel der Welt. Bereits im März 2016 hatte Go-Weltmeister Lee Sedol im Duell Mensch gegen Maschine keine Chance gegen einen im Google-Imperium entwickelten Rechner. Doch die damalige Version Alpha Go hat noch die Partien von Spitzenspielern analysiert. Der in diesem Jahr vorgestellte Nachfolger, Alpha Go Zero, kommt ohne den Erfahrungsschatz des Menschen aus. Er stellt die fast schon unverschämte Prämisse auf, dass es vielleicht einen besseren Weg zum Sieg gibt als den, der über Jahrhunderte hinweg von Go-Spielern entwickelt wurde.

Unsere Angst vor diesen Rechnern entsteht auch dadurch, dass der Algorithmus im Inneren oft eine Blackbox ist. Wir wissen nicht genau, wie die Künstliche Intelligenz ihre Strategie entwickelt hat und was sie als nächstes tun wird. Dabei ist der Umgang mit solchen Situationen für uns nicht neu. Arjan Kuijper vom Fraunhofer-Institut in Darmstadt verweist darauf, dass auch ein Arzt, der eine Diagnose stellt, aus der Sicht eines Patienten häufig wie eine Blackbox arbeitet.

(rai)
Meistgelesen
Neueste Artikel
Zum Thema
Aus dem Ressort