Nutzer tricksten Software aus Microsoft schaltet Chatbot nach rassistischen Tweets ab

Seattle · Microsoft hat mit seiner neuen Chatbot-Software "Tay" bei Twitter eine Pleite erlebt: Innerhalb kürzester Zeit brachten Nutzer das Programm mit Tricks dazu, rassistische Tweets abzusetzen.

Microsoft hat eine Chatbot-Software nach kurzer Zeit von Netz nehmen müssen, nachdem Nutzer sie durch Tricks massenhaft zu rassischen Entgleisungen verleiten konnten.

Das am Mittwoch eingeschaltete Programm mit dem Namen "Tay" sollte mit Hilfe einfacher Antwort-Algorithmen über Twitter den Anschein einer Konversation mit Menschen aufrechterhalten. Nutzer brachten "Tay" unter anderem dazu, Adolf Hitler zu preisen, den Holocaust zu verneinen und Schwarze zu beleidigen. Ein Großteil dieser Tweets wurde später gelöscht.

Nach einigen Stunden verkündete die Maschine über ihren Twitter-Account, sie müsse nach so vielen Gesprächen schlafen und ging vom Netz.

(jco/dpa)
Meistgelesen
Neueste Artikel
Zum Thema
Aus dem Ressort