Eine aktuelle Untersuchung der BBC hat ergeben, dass KI-gestützte Chatbots häufig Nachrichten zusammenfassen, dabei jedoch erhebliche Ungenauigkeiten und Verzerrungen enthalten. Die Studie analysierte die Ergebnisse von KI-Tools wie OpenAI’s ChatGPT, Google’s Gemini, Microsoft’s Copilot und Perplexity und stellte fest, dass mehr als die Hälfte der KI-generierten Zusammenfassungen gravierende Mängel aufwiesen.

Besonders besorgniserregend: 19 % der Antworten enthielten fehlerhafte BBC-Zitate, und 13 % verfälschten Aussagen. Gemini erwies sich dabei als besonders problematisch – 46 % der Antworten wurden wegen erheblicher Ungenauigkeiten beanstandet. Ein Beispiel ist die falsche Behauptung von Gemini, dass der britische Gesundheitsdienst NHS vom Dampfen abrät – tatsächlich empfiehlt der NHS das Dampfen als Mittel zur Raucherentwöhnung. Ebenso berichtete ChatGPT fälschlicherweise, dass Ismail Haniyeh weiterhin zur Hamas-Führung gehöre, obwohl er bereits im Juli 2024 getötet wurde.

Diese Ergebnisse verdeutlichen die potenziellen Gefahren von KI-Fehlinformationen in der Nachrichtenverbreitung und unterstreichen die Notwendigkeit für Technologieunternehmen, diese Probleme anzugehen. Deborah Turness, CEO von BBC News, forderte eine Zusammenarbeit zwischen der Nachrichtenbranche, Technologieunternehmen und Regierungen, um das Problem zu lösen.

Eine wachsende Sorge in der KI-generierten Berichterstattung

Das Problem ist Teil einer umfassenderen Diskussion über KI-generierte Inhalte im Journalismus. Es wurden bereits Fälle gemeldet, in denen KI-generierte Artikel Fehler enthielten und zur Verbreitung von Fehlinformationen führten. CNET stellte beispielsweise fest, dass mehr als die Hälfte seiner KI-geschriebenen Artikel fehlerhaft waren. Zudem wurden KI-generierte Nachrichtenartikel unter falschen Autorenangaben veröffentlicht, was Zweifel an der Authentizität und Zuverlässigkeit solcher Inhalte aufwirft.

Das Phänomen, dass KI-Systeme falsche oder irreführende Informationen generieren, wird oft als „Halluzination“ bezeichnet. Diese „Halluzinationen“ führen dazu, dass KI-Modelle plausibel klingende, aber falsche oder unsinnige Inhalte erstellen – eine große Herausforderung für ihre Anwendung in der realen Welt.

Bedenken über die Verbreitung von Fehlinformationen

Die Integration von KI in Nachrichtenplattformen hat auch Bedenken hinsichtlich der möglichen Verbreitung von Fehlinformationen aufgeworfen. Ein Beispiel ist Meta AI’s Chatbot (basierend auf Llama 3), der Sätze aus Nachrichtenartikeln kopierte, ohne die Originalquellen direkt anzugeben. Dies könnte dazu führen, dass der Traffic auf Nachrichten-Websites sinkt und die Glaubwürdigkeit der Originalquellen untergraben wird.

Richtlinien für den verantwortungsvollen Einsatz von KI

Als Reaktion auf diese Herausforderungen haben mehrere Medienorganisationen Richtlinien für den Einsatz von KI im Journalismus aufgestellt, um Genauigkeit und Vertrauenswürdigkeit zu gewährleisten. Publikationen wie Wired, The Associated Press und The Guardian haben eigene Maßnahmen zur verantwortungsvollen Integration von KI-Tools definiert und betonen die Bedeutung menschlicher Kontrolle und Überprüfung im journalistischen Prozess.

Die Ergebnisse der BBC dienen als dringende Erinnerung an die Notwendigkeit strenger Standards und enger Zusammenarbeit zwischen Technologieunternehmen und Nachrichtenorganisationen, um die Zuverlässigkeit von Informationen im Zeitalter der KI zu sichern.