Studie der European Broadcasting Union

KI-Plattformen verzerren Nachrichten

27. Oktober 2025, 15:57 Uhr | Karin Zühlke
© rookielion/stock.adobe.com

Eine neue Untersuchung, koordiniert von der European Broadcasting Union (EBU) und unter Leitung der BBC, hat ergeben, dass KI-Assistenten Nachrichteninhalte regelmäßig verzerren. Dies gilt unabhängig von Sprache, Region oder der getesteten KI-Plattform.

Diesen Artikel anhören

Die internationale Studie ist die bislang größte ihrer Art und wurde kürzlich auf der EBU News Assembly vorgestellt. An der Untersuchung beteiligten sich 22 öffentlich-rechtliche Medienorganisationen aus 18 Ländern, die in 14 Sprachen arbeiten. Dabei wurden zahlreiche systemische Probleme bei vier führenden KI-Tools identifiziert.

Professionelle Journalisten bewerteten über 3000 Antworten von ChatGPT, Copilot, Gemini und Perplexity. Sie prüften unter anderem Genauigkeit, Quellenangaben, die Unterscheidung von Meinung und Fakt sowie die Bereitstellung von Kontext.

Hauptbefunde:

  • 45 % aller KI-Antworten wiesen mindestens ein gravierendes Problem auf.
  • 31 % hatten schwerwiegende Quellenprobleme – fehlende, irreführende oder falsche Angaben. 
  • 20 % enthielten grundlegende Fehler, darunter erfundene Details oder veraltete Informationen. Besonders Gemini schnitt schlecht ab: 76 % der Antworten wiesen signifikante Probleme auf – vor allem aufgrund mangelhafter Quellenangaben. 

Vergleicht man die Ergebnisse mit einer BBC-Studie vom Anfang des Jahres, zeigen sich zwar Verbesserungen, die Fehlerquote bleibt jedoch hoch.

Warum diese Verzerrungen gefährlich sind

KI-Assistenten ersetzen für viele Nutzer:innen zunehmend klassische Suchmaschinen. Laut dem Digital News Report 2025 des Reuters Institute greifen bereits 7 % aller Online-Nachrichtenkonsumenten auf KI-Assistenten zurück – bei den unter 25-Jährigen sogar 15 %.

„Die Studie zeigt eindeutig: Es handelt sich nicht um Einzelfälle“, sagt Jean Philip De Tender, EBU-Mediendirektor und stellvertretender Generalsekretär. „Die Probleme sind systemisch, grenzüberschreitend und mehrsprachig. Das untergräbt das Vertrauen der Öffentlichkeit. Wenn Menschen nicht wissen, wem sie vertrauen können, vertrauen sie am Ende gar nichts – und das kann die demokratische Teilhabe einschränken.“

Peter Archer, BBC-Programmleiter für Generative KI, ergänzt: „KI bietet enormes Potenzial, um Inhalte für das Publikum noch wertvoller zu machen. Aber Menschen müssen darauf vertrauen können, was sie lesen, sehen oder hören. Trotz einiger Fortschritte gibt es weiterhin erhebliche Schwächen. Wir möchten, dass diese Tools erfolgreich sind, und arbeiten daher eng mit KI-Unternehmen zusammen, um den Nutzen für Publikum und Gesellschaft zu maximieren.“

Nächste Schritte

Das Forschungsteam hat außerdem ein „News Integrity in AI Assistants Toolkit“ veröffentlicht. Es soll Lösungen für die identifizierten Probleme bieten, etwa durch bessere Antworten der KI und die Förderung von Medienkompetenz bei Nutzer:innen. Das Toolkit beantwortet zwei zentrale Fragen: „Was macht eine gute KI-Antwort auf Nachrichten aus?“ und „Welche Probleme müssen dringend behoben werden?“.

Zudem setzen sich die EBU und ihre Mitglieder dafür ein, dass EU- und nationale Aufsichtsbehörden bestehende Gesetze zu Informationsintegrität, digitalen Diensten und Medienpluralismus durchsetzen. Angesichts der schnellen Entwicklungen im KI-Bereich betonen sie, dass eine kontinuierliche unabhängige Überwachung unerlässlich ist, und planen eine langfristige Fortsetzung der Forschung.

Über das Projekt

Die aktuelle Studie baut auf einer BBC-Untersuchung vom Februar 2025 auf, die erstmals die Probleme von KI im Umgang mit Nachrichten aufzeigte. Die zweite Runde erweitert den Umfang international und bestätigt: Das Problem ist systemisch und betrifft weder einzelne Sprachen, Märkte noch spezifische KI-Assistenten.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Componeers GmbH

Weitere Artikel zu Künstliche Intelligenz