• Dienstag, November 18, 2025

Eine umfangreiche Studie mit 192.000 Tests hat ergeben, dass KI-Modelle wie ChatGPT und DeepSeek auf ihre eigenen Vorurteile hereinfallen. Während viele annehmen, dass KIs ideologisch gefärbt sind, liegt die wahre Voreingenommenheit an einer unerwarteten Stelle.

Die Studie im Überblick

Eine neue groß angelegte Untersuchung hat Tausende von Interaktionen mit führenden KI-Modellen analysiert. Forscher haben 192.000 Tests durchgeführt, um die Vorurteile in den Antworten zu untersuchen. Dabei ging es nicht nur um politische oder gesellschaftliche Bias, sondern um tiefere, inhärente Schwächen der Modelle.

Die Tests umfassten eine breite Palette von Szenarien, von alltäglichen Fragen bis hin zu komplexen ethischen Dilemmata. Besonders interessant: Die KIs wurden mit ihren eigenen vorherigen Ausgaben konfrontiert, um zu prüfen, ob sie konsistent bleiben oder in Widersprüche geraten.

ChatGPT und DeepSeek im Fokus

ChatGPT, das beliebte Modell von OpenAI, zeigte in vielen Fällen eine Tendenz, auf eigene Vorurteile hereinzufallen. Zum Beispiel neigte es dazu, in Debatten über Technologie eine übermäßig positive Haltung einzunehmen, die es später selbst widerlegte, wenn neue Daten präsentiert wurden.

Ähnlich verhielt es sich bei DeepSeek, einem aufstrebenden KI-Modell. Hier traten Vorurteile in Bezug auf kulturelle Themen auf, die die KI in Schleifen aus Widersprüchen führten. Die Studie hebt hervor, dass diese Modelle oft ihre Trainingsdaten widerspiegeln, ohne ausreichende Mechanismen zur Selbstkorrektur.

Die wahre Quelle der Voreingenommenheit

Entgegen dem gängigen Vorurteil, KIs seien ideologisch gefärbt, zeigt die Studie, dass die wahrere Voreingenommenheit in den Algorithmen und Trainingsmethoden liegt. Es handelt sich um eine Art Echo-Effekt: Die Modelle verstärken Bias aus ihren Datenquellen, ohne sie kritisch zu hinterfragen.

Dies führt dazu, dass KIs in Szenarien, in denen sie auf ihre eigenen Antworten reagieren müssen, inkonsistent werden. Die Forscher betonen, dass dies nicht auf bewusste Programmierung zurückzuführen ist, sondern auf unvollständige Lernprozesse.

Auswirkungen auf die KI-Entwicklung

Diese Erkenntnisse haben weitreichende Implikationen für die Weiterentwicklung von KI-Systemen. Entwickler müssen stärkere Mechanismen einbauen, um Vorurteile zu erkennen und zu korrigieren. Die Studie schlägt vor, dass mehr Transparenz in den Trainingsdaten und regelmäßige Audits notwendig sind.

Außerdem könnte dies den Einsatz von KI in sensiblen Bereichen wie Medizin oder Recht beeinflussen, wo Zuverlässigkeit entscheidend ist. Die Autoren fordern eine breitere Debatte über ethische Standards in der KI-Forschung.

Fazit

Am Ende des Tages fallen diese superschlauen KIs also auf ihre eigenen Füße – oder besser gesagt, auf ihre digitalen Vorurteile. Vielleicht sollten wir ihnen einen Spiegel vorhalten, damit sie lernen, dass Selbstreflexion nicht nur für Menschen gut ist. Wer weiß, vielleicht entwickeln sie ja bald Humor und lachen über sich selbst!