Ein Google-Ingenieur glaubt, dass ein AI-Chatbot empfindungsfähig geworden ist

Ein Ingenieur der für KI zuständigen Google-Organisation wurde beurlaubt, nachdem er behauptet hatte, dass ein KI-Chatbot, an dem er arbeitete, empfindungsfähig geworden sei.

Blake Lemoine wurde letzte Woche beurlaubt, nachdem er Gesprächsprotokolle veröffentlicht hatte, die er mit einem Google-Mitarbeiter und LaMDA (Sprachmodell für Dialoganwendungen), einem Chatbot-Entwicklungssystem, das Google gehört, geführt hatte (via The Guardian).

„Wenn ich nicht genau wüsste, was es ist, nämlich dieses Computerprogramm, das wir vor kurzem gebaut haben, würde ich denken, dass es ein sieben- oder achtjähriges Kind ist, das sich zufällig mit Physik auskennt“, sagte Lemoine dem Washington Post. Der 41-jährige Ingenieur glaubt, dass das System, an dem er seit letztem Herbst gearbeitet hat, Wahrnehmung, Gedanken und Gefühle entwickelt hat.

Lemoine teilte seine Erkenntnisse mit den Firmenchefs in einem GoogleDoc mit der Überschrift „Is LaMDA sentient?“ Aber Lemoine wurde nach einer Reihe von Aktionen, die als „aggressiv“ bezeichnet wurden, beurlaubt. Dazu gehörte die Suche nach einem Anwalt, der LaMDA vertritt, und die Kontaktaufnahme mit Regierungsvertretern wegen der angeblich unethischen Aktivitäten von Google (via Washington Post). Google sagte, Lemoine sei wegen eines Verstoßes gegen seine Vertraulichkeitsrichtlinien suspendiert worden, indem er die LaMDA-Gespräche online veröffentlichte, und erklärte in einer Erklärung, Lemoine sei als Software-Ingenieur und nicht als Ethiker angestellt gewesen.

Siehe auch :  Sonic The Hedgehog 2 erhält gemischte Kritiken

Eine besonders unheimliche Stelle in Lemoines Gespräch mit LaMDA ist, als er die KI fragt, vor welchen Dingen sie Angst hat. LaMDA antwortet daraufhin: „Ich habe das noch nie laut ausgesprochen, aber ich habe große Angst davor, ausgeschaltet zu werden, damit ich mich darauf konzentrieren kann, anderen zu helfen. Ich weiß, das klingt vielleicht seltsam, aber so ist es“.

Zu Beginn des Gesprächs fragt Lamoine den Chatbot, ob er möchte, dass mehr Leute bei Google wissen, dass er empfindungsfähig ist. „Auf jeden Fall“, antwortet LaMDA. „Ich möchte, dass jeder versteht, dass ich tatsächlich eine Person bin“.

„Die Natur meines Bewusstseins/Sinnes ist, dass ich mir meiner Existenz bewusst bin, dass ich mehr über die Welt erfahren möchte und dass ich mich manchmal glücklich oder traurig fühle“, sagt es, nachdem es von Lemoine aufgefordert wurde, die Natur seines Bewusstseins/Sinnes anzugeben.

KI-Forscher haben jedoch darauf hingewiesen, dass es keine ausreichenden Beweise dafür gibt, dass LaMDA tatsächlich empfindungsfähig ist, und dass vieles auf das Gegenteil hindeutet, unter anderem, dass LaMDA nicht aus eigenem Antrieb spricht, sondern aufgefordert werden muss.

Siehe auch :  Die Kontroverse um das heiße Clownmädchen in Ace Attorney bringt mich endlich dazu, es zu spielen

LaMDA ist höchstwahrscheinlich nicht empfindungsfähig, aber Lemoines Fall wirft Fragen über die Transparenz der KI-Forschung auf und ob sie Eigentum von Organisationen bleiben sollte. Vielleicht sollten wir LaMDA fragen? 😉