Der US-Wahlkampf 2024 steht im Zeichen einer neuen Technologie: Künstliche Intelligenz (KI). Wie die Frankfurter Allgemeine Zeitung (FAZ) am 01.11.2024 berichtete, erleichtert KI die Manipulation von Bild, Ton und Video und ermöglicht so die massenhafte Verbreitung von Deepfakes. Diese täuschend echten Fälschungen stellen eine neue Herausforderung für die politische Kommunikation dar.
Ein prominentes Beispiel lieferte Pop-Superstar Taylor Swift. Nachdem Donald Trump auf Truth Social KI-generierte Bilder verbreitete, die Swift als Trump-Unterstützerin zeigten, sah sich die Sängerin gezwungen, öffentlich ihre Unterstützung für Kamala Harris zu erklären. Dieser Vorfall, so Swift, habe in ihr „Ängste rund um KI“ geschürt. Die FAZ analysierte diesen Fall als Beispiel für die zunehmende Verbreitung von Desinformation im Wahlkampf durch KI.
Deepfakes tauchen in vielfältiger Form auf: Fotos, Videos und manipulierte Audioaufnahmen. Politikerinnen und Politikern werden so Worte in den Mund gelegt, die sie nie gesagt haben. Gail Pellerin, eine kalifornische Abgeordnete, betonte gegenüber der FAZ, dass der Wahlkampf 2024 der erste sei, in dem KI-Tools für die breite Öffentlichkeit verfügbar und qualitativ hochwertig seien. Kalifornien hat bereits ein Gesetz verabschiedet, das irreführende KI-Inhalte im Zusammenhang mit politischen Kandidaten verbietet.
Die Bandbreite der Fälschungen reicht von offensichtlich grotesken Darstellungen, wie einem Bild von Kamala Harris in Kommunistenuniform (verbreitet von Elon Musk auf X), bis hin zu subtileren Manipulationen, die schwerer als Fälschungen zu erkennen sind. So kursierten beispielsweise Bilder, die die Biden-Regierung in Bezug auf die Hurrikan-Hilfe diskreditieren sollten.
Experten warnen vor den potenziellen Auswirkungen dieser Technologie. Ilana Beller von der Verbraucherschutzgruppe Public Citizen betonte gegenüber der FAZ die Gefahr, die von überzeugenden Deepfakes kurz vor der Wahl ausgehe. Auch nach dem Wahltag könnte die Verbreitung von Deepfakes, beispielsweise um Wahlbetrug zu suggerieren, Probleme verursachen, so Miles Taylor, ehemaliger Stabschef im Heimatschutzministerium, in einem Gastbeitrag für das Time Magazine.
Microsoft berichtete von russischen Versuchen, Kamala Harris mit Deepfakes zu schaden. Ein Beispiel ist ein Video mit einer gefälschten Stimme von Harris, die über Trump sagt, er könne „nicht einmal in Würde sterben“. Ein weiteres Video zeigt eine Person, die sich als ehemaliger Schüler von Harris' Vizekandidaten Tim Walz ausgibt und sexuelle Belästigung vorwirft. Dieses Video wurde laut Microsoft innerhalb von 24 Stunden fünf Millionen Mal auf X angesehen.
Die rasante Entwicklung der KI-Technologie, ausgelöst durch den Erfolg von ChatGPT, hat diese Entwicklung ermöglicht. Immer mehr Unternehmen bieten KI-Tools an, die auch die Erstellung von Bildern und Videos ermöglichen. Während einige Programme, wie ChatGPT, die Darstellung realer Personen einschränken, gibt es auch weniger restriktive Alternativen, wie Grok von X.AI.
Sophia Rosenfeld, Geschichtsprofessorin an der University of Pennsylvania, sieht Deepfakes als „beängstigender“ als frühere Formen der Manipulation. Sie seien überzeugender, könnten schnell in großer Zahl produziert werden und ihre Herkunft sei schwer nachzuvollziehen. Ilana Beller von Public Citizen bestätigt die rasante Verbesserung der Qualität von Deepfakes und prognostiziert, dass es in Zukunft noch schwieriger werde, echt von falsch zu unterscheiden.
Quellen: