AI‑generierte Lego‑Videos und verwandte Propagandastücke prägen Informationslage im Iran‑US‑Konflikt
Forscher prägen den Begriff slopaganda für expressive, manipulative KI‑Inhalte; virale Lego‑Clips und frühere Trump‑Deepfakes illustrieren, wie generative KI die Wahrnehmung im Iran‑US‑Konflikt beeinflusst.
Nach Angaben der Autoren hat sich die Informationslage rund um den jüngsten Iran‑US‑Konflikt durch eine Welle AI‑erstellter und verfremdeter Videos deutlich verschärft. In den ersten Märztagen kombinierten US‑Veröffentlichungen echte Aufnahmen mit Clips aus Filmen, Serien, Videospielen und Animationen, woraufhin iranische Nutzer und Sympathisanten sowohl veraltetes Kriegsfußage als auch neu erzeugte KI‑Clips verbreiteten, die Angriffe auf Tel Aviv und US‑Stützpunkte zeigten. Diese Vermischung von Originalmaterial und künstlich erzeugten Szenen erhöhte die Verwirrung über die tatsächlichen Ereignisse.
Im Mittelpunkt der Analyse stehen viral gegangenes Material und besonders auffällige Beispiele: Kurzfilme, die prominente Figuren als Lego‑Figuren zeigen. Die Autoren fassen solche Produktionen unter dem Begriff slopaganda zusammen — ein Portmanteau für KI‑generierte Inhalte, deren Zweck weniger die präzise Darstellung von Fakten als die Erzeugung starker Assoziationen und Gefühle ist. Slopaganda umfasst demnach nicht nur Videos, sondern auch Bilder und Texte, die gezielt symbolische Verknüpfungen herstellen sollen.
Nach dem Schritt in die öffentliche Debatte verweisen die Verfasser auf frühere Fälle, die das mögliche Spektrum verdeutlichen. So tauchten in der zweiten Jahreshälfte 2025 AI‑Videos auf, in denen bekannte Politiker in überzeichneten, karikativen Szenen dargestellt wurden. Diese Produktionen seien häufig nicht darauf angelegt, wörtlich geglaubt zu werden; trotzdem schafften sie symbolische Verknüpfungen zwischen Personen und moralisch aufgeladenen Bildern, die Wahrnehmungen nachhaltig beeinflussen können.
Zugleich warnen die Autoren vor drei Wirkmechanismen, die slopaganda besonders gefährlich machen: Erstens dringen spektakuläre KI‑Clips leicht in die Aufmerksamkeit zerstreuter Nutzer ein. Zweitens verwischen sie Grenzen zwischen Fakten und Fiktionen und schwächen so das epistemische Umfeld. Drittens können solche Inhalte, ob beabsichtigt irreführend oder aus dem Kontext gerissen, in Krisenzeiten sehr schnell weite Verbreitung finden. Diese Dynamiken erhöhen die Anfälligkeit der Öffentlichkeit für manipulative Deutungen.
Daneben betonen die Autoren eine paradoxe Folge: Die Sichtbarkeit offenkundiger Fälschungen könne zwar die Sensibilität für manipulierte Inhalte stärken, gleichzeitig aber das Vertrauen in authentische Quellen untergraben. Wenn große Teile der öffentlichen Kommunikation als potenzielle slopaganda wahrgenommen werden, bestehe die Gefahr einer generellen Erosion des Vertrauens in verlässliche Informationen und in Institutionen, die diese bereitstellen.