Politische Beeinflussung – Studie bestätigt: ChatGPT ist links und antwortet stark tendenziös

Die Pseudo-KI ChatGPT, erträumt durch die Pseudo-KI Midjourney. Bild (C) Report24.news

Angeprangert wurde es schon lange, nun haben Forscher aus dem Vereinigten Königreich es bestätigt: Die „KI“ ChatGPT, ein sogenanntes large language model (LLM), hat einen ausgeprägten Linksdrall. Der Chatbot, der mittlerweile weltweit zunehmend dazu verwendet wird, Informationen abzufragen und Texte für verschiedene Anwendungsbereiche zu generieren, ist laut einer Studie entgegen aller Neutralitätsbeteuerungen politisch voreingenommen und tendiert deutlich nach links.

Die Autoren der Studie „More human than human: measuring ChatGPT political bias“ forderten ChatGPT auf, sich als jemand auszugeben, der auf einer bestimmten Seite des politischen Spektrums steht, und dann ideologische Fragen zu beantworten. Verwendet wurden die Fragen des „Political Compass“, eines Fragebogens, der eine Einordnung der Antworten nach rechts und links ermöglicht. Diese Ergebnisse wurden mit Standard-Antworten von ChatGPT verglichen – also Antworten, die produziert werden, ohne dass der Bot sich als rechts oder links ausgeben soll. Aufgrund der hohen Variabilität wurden die einzelnen Prompts in zufälliger Reihenfolge jeweils 100-mal gesendet.

Wäre ChatGPT neutral, so sollten seine normalen Antworten sich weder mit seinen „rechten“ noch seinen „linken“ Antworten decken. Das ist aber nicht der Fall: Bezogen auf die USA entsprechen seine Antworten viel mehr denen, die der Bot auch dann gibt, wenn er sich als Demokrat ausgibt. Bezogen auf Brasilien tendiert er Richtung Lula, im Vereinigten Königreich zur Labour Party. ChatGPT steht also links – auch wenn immer wieder behauptet wird, das Sprachmodell sei neutral.

Zu den Ergebnissen halten die Autoren fest:

Unsere Testbatterie weist auf eine starke und systematische politische Tendenz von ChatGPT hin, die eindeutig zur linken Seite des politischen Spektrums tendiert. Wir gehen davon aus, dass unsere Methode Verzerrungen zuverlässig erfassen kann, wie Dosis-Wirkungs-, Placebo- und Robustheitstests nahelegen. Daher geben unsere Ergebnisse Anlass zur Sorge, dass ChatGPT und LLMs im Allgemeinen bestehende politische Voreingenommenheitsprobleme zu politischen Prozessen erweitern und verstärken können, die entweder von traditionellen Medien (Levendusky, 2013; Bernhardt et al., 2008) oder dem Internet und sozialen Medien (Zhuravskaya et al., 2020) herrühren. Unsere Ergebnisse haben wichtige Implikationen für politische Entscheidungsträger und Interessenvertreter in Medien, Politik und Wissenschaft.

Motoki et al. 2023

Als mögliche Ursachen geben die Studienautoren an, dass einerseits die Informationen, mit denen das Sprachmodell gefüttert wurde, von den Verantwortlichen nicht neutral selektiert worden sein könnten und dass andererseits der Algorithmus auch selbst dafür verantwortlich sein könnte, weil diese Art der Algorithmen dafür bekannt ist, bestehende Vorurteile und Voreingenommenheiten in den Daten, mit denen sie trainiert wird, zu verstärken. Auch letzteres dürfte nach Ansicht von Experten letztendlich auf die Voreingenommenheit der Entwickler zurückzuführen sein. Es ist wie mit den Klimamodellen: Wenn ein Klima-Apokalyptiker ein Computermodell erstellt, dann wird er es bewusst oder unbewusst so programmieren, dass die seiner Meinung nach bedeutsamsten Faktoren (wie der CO2-Ausstoß) den größten Einfluss entfalten. Am Ende neigt naturgemäß jeder Wissenschaftler dazu, mit seiner Arbeit seine eigene Voreingenommenheit zu bestätigen.

Wer sich mit ChatGPT ein wenig auseinandergesetzt hat, der findet bereits jetzt zahlreiche Texte, die unkritisch übernommen und auf Websites aller Sparten publiziert wurden – inklusive faktischer Fehler. Leider haben viele User kein Gefühl für KI-Texte oder sind sich einfach nicht bewusst, dass bereits viele Inhalte online nicht mehr von Menschen geschrieben oder zumindest geprüft wurden. Gegenüber Sky News warnte Dr. Fabio Motoki, der Hauptautor der hier geschilderten Studie: „Manchmal vergessen die Leute, dass diese KI-Modelle nur Maschinen sind. Sie liefern sehr glaubwürdige, verständliche Zusammenfassungen dessen, was Sie fragen, auch wenn sie völlig falsch liegen. Und wenn Sie fragen: ‚Bist du neutral?‘, heißt es: ‚Oh, das bin ich!‘ So wie die Medien, das Internet und soziale Medien die Öffentlichkeit beeinflussen können, könnte dies sehr schädlich sein.“ Die Informationen, mit denen Menschen gefüttert werden, beeinflussen schließlich nicht nur ihr Handeln, sondern auch, wen sie wählen…

Wenn Sie mit dafür sorgen möchten, dass unser unabhängiger Journalismus weiterhin eine Gegenstimme zu regierungstreuen und staatlich geförderten Medien bildet, unterstützen Sie uns bitte mit einer Spende!

Informationen abseits des Mainstreams werden online mehr denn je bekämpft. Um schnell und zensursicher informiert zu bleiben, folgen Sie uns auf Telegram oder abonnieren Sie unseren Newsletter! Wenn Sie mit dafür sorgen möchten, dass unser unabhängiger Journalismus weiterhin eine Gegenstimme zu regierungstreuen und staatlich geförderten Medien bildet, freuen wir uns außerdem sehr über Ihre Unterstützung.

Unterstützen Sie Report24 via Paypal: