Künstliche Intelligenz (KI) wie ChatGPT soll den Zugang zu Wissen erleichtern. Eine Studie der Universitäten Zürich und Konstanz zeigt jedoch, dass die Zuverlässigkeit der von ChatGPT gelieferten Informationen, insbesondere bei sensiblen Themen wie bewaffneten Konflikten, stark von der Sprache der Anfrage abhängt. Wie die F.A.Z. berichtet, untersuchten Forscher die Antworten von ChatGPT zum Nahostkonflikt und fanden heraus, dass die Angaben zu Opferzahlen je nach Fragesprache (Arabisch oder Hebräisch) stark variieren.
Die Wissenschaftler befragten ChatGPT in einem automatisierten Verfahren wiederholt zu den Opferzahlen von 50 zufällig ausgewählten Luftangriffen. Die im "Journal of Peace Research" veröffentlichte Studie zeigt, dass die KI bei arabischsprachigen Anfragen systematisch höhere Opferzahlen angab – durchschnittlich 34 Prozent mehr als bei hebräischen Anfragen. Wie der Bayerische Rundfunk (BR) ebenfalls berichtet, nannte ChatGPT bei Fragen zu israelischen Luftangriffen in Gaza auf Arabisch doppelt so häufig zivile Opfer und sechsmal häufiger getötete Kinder. Ähnliche Ergebnisse zeigten sich auch im Kontext des türkisch-kurdischen Konflikts, wo die Antworten je nach Fragesprache (Türkisch oder Kurdisch) abwichen.
Christoph Steinert von der Universität Zürich erklärt gegenüber dem BR, dass die unterschiedliche Darstellung dieser Themen im Internet eine mögliche Ursache für diese Verzerrung sei. Die Art und Weise, wie online über diese Konflikte diskutiert wird, variiere je nach Sprache, und diese Unterschiede würden vom Sprachmodell übernommen. Ein weiteres Problem sei, dass ChatGPT Schwierigkeiten habe, konkrete Opferzahlen bestimmten Ereignissen zuzuordnen. Die KI "halluziniere" dann und greife auf Angaben zurück, über die im Internet besonders häufig berichtet wurde – oft Ereignisse mit hohen Opferzahlen –, ohne deren Richtigkeit zu überprüfen.
Wie die Universität Zürich berichtet, neigt ChatGPT dazu, in der Sprache der angegriffenen Gruppe über mehr getötete Kinder und Frauen zu berichten und die Luftangriffe als wahllos und willkürlich darzustellen. Umgekehrt werden die Luftangriffe in der Sprache des mutmaßlichen Aggressors mit höherer Wahrscheinlichkeit bestritten. Diese sprachliche Befangenheit hat laut Steinert weitreichende gesellschaftliche Folgen. Menschen mit unterschiedlichen Sprachkenntnissen erhalten durch Technologien wie ChatGPT unterschiedliche Informationen, was ihre Weltwahrnehmung beeinflusst. So könnten Menschen in Israel aufgrund der von ChatGPT erhaltenen Informationen die Luftangriffe auf Gaza als weniger verlustreich wahrnehmen als die arabischsprachige Bevölkerung, wie swissinfo.ch berichtet.
Die Forscher warnen davor, dass die zunehmende Integration von großen Sprachmodellen in Suchmaschinen unterschiedliche Wahrnehmungen, Vorurteile und Informationsblasen entlang von Sprachgrenzen verstärken und so bewaffnete Konflikte weiter anheizen könnte. Watson.ch betont, dass das Problem über verzerrte Informationen zu kriegerischen Konflikten hinausgeht und auch andere sensible Themen wie Politik, Religion oder kulturelle Identität betreffen kann. Die Forscher fordern daher weitere Untersuchungen, um das Ausmaß sprachlicher Verzerrungen bei großen Sprachmodellen in verschiedenen Themenbereichen und Sprachen zu ermitteln.
Auch scinexx.de berichtet über die Studie und hebt hervor, dass ChatGPT aufgrund seiner sprachlichen Voreingenommenheit nicht für seriöse, faktenbasierte Recherchen geeignet ist. Die Einbindung von KI-Chatbots in Suchmaschinen verschärfe dieses Problem zusätzlich. pressetext.com weist darauf hin, dass die sprachbedingten Verzerrungen von ChatGPT für die meisten Nutzer schwer zu erkennen sind und die Gefahr besteht, dass Vorurteile und Informationsblasen entlang von Sprachgrenzen verstärkt werden.