JKCM News
Startseite
Amerika

AI‑generierte Lego‑Videos und weitere manipulierte Clips verschärfen Informationslage im Iran‑US‑Konflikt

Forscher warnen, dass KI‑generierte Propagandainhalte – von Lego‑Animationen bis zu dramatischen Deepfakes – gezielt Emotionen und Wahrnehmungen beeinflussen und die Informationslage im Iran‑US‑Konflikt verschärfen.

Mark Alfano, Michał Klincewicz 2 Min Lesezeit
Titelbild: AI‑generierte Lego‑Videos und weitere manipulierte Clips verschärfen Informationslage im Iran‑US‑Konflikt
Experten nennen das Phänomen ‚slopaganda‘: expressive, KI‑generierte Clips sollen Stimmungen und Misstrauen schüren, nicht primär realistische Falschdarstellungen liefern.

Nach Angaben der Autoren haben seit Beginn der jüngsten Eskalation zwischen den USA und dem Iran verschiedene Akteure soziale Medien systematisch mit KI‑generierten Inhalten überschwemmt. Neben authentischen Aufnahmen realer Angriffe kursierten demnach Clips, die angeblich Angriffe auf Tel Aviv und US‑Stützpunkte zeigten; dazu traten surreal anmutende Szenen, in denen politische Figuren als Lego‑Figuren erscheinen.

Die Forscher prägen für diese Form der Manipulation den Begriff slopaganda und beschreiben damit KI‑erzeugten ‚Schlamm‘, der propagandistische Zwecke erfüllt. Anders als klassische Desinformation ziele diese Slopaganda weniger auf eine plausible Fälschung konkreter Ereignisse als auf expressive Assoziationen: Kurzvideos und Bilder sollen Gefühle wecken, Feindbilder verstärken und Aufmerksamkeit erzwingen, selbst wenn der Inhalt offenkundig fiktiv ist.

Die Analyse führt konkrete Fälle an, darunter einen im Oktober 2025 verbreiteten KI‑Clip, der den ehemaligen US‑Präsidenten in einem Fantasieszenario zeigt. Solche Produktionen funktionieren primär als symbolische Botschaften; sie verknüpfen politische Gegner mit negativen Bildern und bilden damit eine emotionale Brücke, die rationale Einordnungen erschwert. Deshalb sei die Herausforderung nicht nur technischer Natur, sondern betreffe die gesellschaftliche Fähigkeit, emotional gesteuerte Manipulation zu erkennen und einzuordnen.

Die Autoren fordern eine Versachlichung der Debatte um generative KI im geopolitischen Kontext und raten, die Wirkmechanismen dieser Inhalte stärker in den Blick zu nehmen. Gegenmaßnahmen müssten über technische Filter hinausgehen und kommunikative Strategien einschließen, die Öffentlichkeit und Medienkompetenz stärken. Nur so lasse sich verhindern, dass expressive KI‑Inhalte Vertrauen untergraben und öffentliche Diskussionen verzerren.