Chatbots können so überzeugend sein wie Menschen
Bildrechte: picture alliance / NurPhoto | Jaap Arriens

Chatbots können so überzeugend sein wie Menschen

Per Mail sharen
Artikel mit Audio-InhaltenAudiobeitrag

KI-Chatbot kann Menschen überzeugen, ihre Meinung zu ändern

Forscher des KI-Startups Anthropic haben untersucht, wer in politischen Streitfragen überzeugender argumentiert: Der Mensch oder die KI? Das Ergebnis gibt zu denken – auch was die Zukunft von Propaganda im Internet angeht.

KI kann komplexe Texte schreiben, bei Bürokratie helfen und sogar Bäcker bei der Arbeit unterstützen. Doch wie Forscher beim KI-Startup Anthropic nun herausgefunden haben, hat sie möglicherweise auch ganz andere Fähigkeiten: KI kann – unter den richtigen Umständen – Menschen davon überzeugen, ihre Meinung zu ändern.

KI überzeugt wie Menschen

Für den Versuch erstellten die Forscher von Anthropic einen simplen Versuchsaufbau. Versuchspersonen wurden mit einer Aussage konfrontiert (etwa "Unternehmen sollten ihren ökologischen Fußabdruck bekanntgeben müssen") und sollten angeben, ob sie damit übereinstimmten oder nicht.

Anschließend wurde ihnen ein kurzer Text präsentiert, der sie vom Gegenteil überzeugen sollte. Einige dieser Texte wurden von Menschen verfasst, andere von einer KI. Anschließend mussten die Versuchspersonen angeben, ob ihre Meinung sich nach Lesen der Gegenargumente geändert hatte.

Das Ergebnis: Die Argumente von Claude 3 Opus, dem aktuellsten und besten KI-Modell von Anthropic, waren für die Versuchspersonen genauso überzeugend wie die Argumente, die echte Menschen geschrieben hatten.

🎧 Wie verändert KI unser Leben? Und welche KI-Programme sind in meinem Alltag wirklich wichtig? Antworten auf diese und weitere Fragen diskutieren Gregor Schmalzried, Marie Kilg und Fritz Espenlaub jede Woche in Der KI-Podcast – dem Podcast von BR24 und SWR.

Wie überzeugt die KI?

Im Versuch wurden die Argumente der KI oft als logisch durchdacht, scheinbar objektiv und zuverlässig wahrgenommen. Die KI schmückte ihre Argumente mit Beispielen und Logikketten aus und nutzte oft andere Herangehensweisen als die menschlichen Argumente – wurde jedoch als gleichermaßen überzeugend wahrgenommen.

Besonders brisant: Am erfolgreichsten waren die Argumente der KI, wenn ihr die Erlaubnis zur Täuschung gegeben wurde. In diesen Fällen erfand die KI bewusst Statistiken und Fakten, die ihre These untermauerten. Stilistisch waren diese falschen Fakten jedoch kaum von den echten zu unterscheiden.

Außerdem entdeckten die Forscher ein "Skalengesetz": Je größer und komplexer ein KI-Modell war, desto erfolgreicher auch seine Argumente. Experten gehen davon aus, dass KI-Modelle in den nächsten Monaten und Jahren noch weit größer werden als bisher – das könnte dann auch einen Einfluss auf die Überzeugungskraft ihrer Argumente haben.

Sorge um KI-Propaganda

Die Ergebnisse der Untersuchung werfen Fragen darüber auf, ob und wie KI in Zukunft für Propagandamaßnahmen genutzt werden könnte. Aktuell verbieten die größten KI-Anbieter in ihren Nutzungsbedingungen, große Mengen an Wahlkampf- oder ähnlichem Material zu erzeugen. Unklar ist, ob diese Regeln auch in der Praxis Bestand haben.

Bereits jetzt finden sich im Internet zahlreiche KI-generierte Produktrezensionen und falsche Nachrichtenartikel. Wenn nun auch noch intelligente Chatbots hinzukommen, die sich als menschlich ausgeben und den Auftrag haben, Menschen von einer Meinung oder einer Handlung zu überzeugen, ist man mit einem alten Mantra gut beraten: Man sollte nicht alles glauben, was man im Internet findet.

Das ist die Europäische Perspektive bei BR24.

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!