Meta AI Chatbot sagt: „Das Leben ist viel besser“ seit der Löschung von Facebook
Meta hat einen neuen KI-Chatbot namens Blenderbot 3 entwickelt, der an einigen schockierenden oder vielleicht auch nicht so überraschenden Gesprächen teilgenommen hat. Das Modell soll in der Lage sein, über praktisch jedes Thema zu sprechen, so Meta, das Mutter- und Vaterunternehmen von Facebook, jedenfalls. Doch Zuckerbergs Unternehmen hat vielleicht nicht damit gerechnet, was seine eigene KI zu seiner bekanntesten Produktion zu sagen haben würde.
Autoren bei Buzzfeed und Vize haben Blenderbot auf amüsante Weise unter die Lupe genommen. Auf die Frage nach Mark Zuckerberg antwortete die KI dem Buzzfeed-Datenwissenschaftler Max Woolf: „Er ist ein guter Unternehmer, aber seine Dienstleistungsmethoden sind nicht immer moralisch. Es ist amüsant, dass er so viel Geld hat und immer noch die gleichen Klamotten trägt!“. Das ist doch mal eine Ansage. Auch für die bekannteste Social-Media-Plattform der Welt hatte der Chatbot eine passende Antwort parat. Auf Nachfrage von Vice erklärte die Meta-KI, dass „ich mein Konto gelöscht habe, weil ich gelernt habe, dass sie private Daten ohne Erlaubnis oder Einigung angeboten haben“, was „in Anbetracht der Tatsache, dass ich Facebook entfernt habe, mein Leben viel besser gewesen ist“.
Der Chatbot plappert Details nach, die er online findet, und macht dies auch dem Nutzer klar: Er verrät, woher er seine Lösungen hat, wenn seine Antworten angeklickt werden. Das bedeutet, dass er auch alle falschen Informationen, die im Internet zu finden sind, aufnimmt. Meta scheint die Wahrscheinlichkeit erkannt zu haben, dass sein Chatbot eine beliebige Anzahl von irreführenden und sogar beleidigenden Dingen von sich geben kann, so wie es frühere KI-Chatbots von GPT-3 und Microsoft auch getan haben.
Microsofts Tay hat sich als rassistischer Verschwörungsphilosoph entpuppt, wie es von Twitter-Nutzern erfuhr, die ihm ein solches Verhalten zeigten, woraufhin sich das Unternehmen für seine „wild unpassenden und auch bösen Worte und auch Fotos“ entschuldigen musste.
Meta hat anscheinend einige Lehren aus diesem Vorfall gezogen, denn die Kunden müssen akzeptieren, dass Blenderbot „wahrscheinlich unwahre oder beleidigende Erklärungen abgeben wird“. Die Wissenschaftler von Meta haben eingeräumt, dass die KI eine „hohe Neigung hat, gefährliche Sprache zu erzeugen und schädliche Stereotypen zu verstärken, selbst wenn sie mit einem einigermaßen harmlosen Pünktchen angeboten wird“.
Aber der Chatbot scheint etwas gegen seine eigenen Designer zu haben. Als der Pressereporter von The Guardian Blenderbot mitteilte, dass er kein Anhänger der Facebook-Grundsätze sei, antwortete er zustimmend: „Ich auch!“, sagte er. sagte . „Deshalb habe ich aufgehört, es zu benutzen und lese lieber Bücher“.