JKCM News
Startseite
Amerika

KI‑gestützte 'Slopaganda': Iranische Lego‑Videos und frühere AI‑Posts Trumps prägen Informationskrieg

Forscher warnen, dass AI‑generierte Clips, montierte Kriegsszenen und virale Meme die Unterscheidung von Wahrheit und Fiktion in der Berichterstattung über die Iran‑USA‑Spannungen weiter verwässern.

JKCM News Redaktion 2 Min Lesezeit
Titelbild: KI‑gestützte 'Slopaganda': Iranische Lego‑Videos und frühere AI‑Posts Trumps prägen Informationskrieg
Viral verbreitete, KI‑erstellte Videos und kombinierte Kriegsausschnitte vermischen Symbolik, Satire und Desinformation und erschweren die Einordnung von Ereignissen.

Nach Angaben von Forschern haben AI‑generierte Inhalte die Informationslage in der Auseinandersetzung zwischen Iran und den USA erheblich verkompliziert. In den frühen Märzwochen mischte ein vom Weißen Haus verbreitetes Video reale Angriffe mit Szenen aus Filmen, Serien und Videospielen. Daraufhin verbreiteten Nutzer in sozialen Netzwerken sowohl alte Kriegsaufnahmen, die als aktuelle Einsätze dargestellt wurden, als auch neu erzeugte Clips, die Angriffe auf Tel Aviv und US‑Stützpunkte zeigen.

Im Mittelpunkt der Debatte stehen inzwischen auch viral gewordene Clips, die politische Figuren – darunter Donald Trump und internationale Akteure – als Lego‑Figuren darstellen. Die Autoren verwenden dafür den Begriff »slopaganda«: KI‑generierter Content, der weniger auf faktische Information als auf Gefühle, Assoziationen und Aufmerksamkeit ausgerichtet ist. Solche Beiträge sind oft expressiv und symbolisch, nicht primär darauf angelegt, überprüfbare Tatsachen zu vermitteln.

Nach dem Schritt analysieren die Forscher mehrere Wirkmechanismen dieses Phänomens. Erstens erzeugt wiederholte Exposition gegenüber emotional aufgeladenen Clips eine Durchschlagskraft, die kognitive Abwehrmechanismen umgeht. Zweitens verändert die Flut generierter Inhalte die epistemische Umwelt, indem Halbwahrheiten und Falschinformationen verbreitet werden. Drittens entsteht Verwirrung, wenn humoristische oder satirische Formate außerhalb ihres Kontextes als reale Nachrichten verstanden werden.

Zugleich verweisen die Autoren auf frühere Beispiele, die die Bandbreite der Entwicklung zeigen: Im Oktober 2025 erschienen AI‑erstellte Videos, die den damaligen US‑Präsidenten in spektakulären, offensichtlich konstruierten Szenen darstellten. Diese Fälle illustrieren, wie generierte Medien politisch eingesetzt werden können — nicht nur als Täuschung, sondern auch als expressive Symbolik, die gesellschaftliche Deutungen erzeugt.

Daneben warnen die Beobachter vor längerfristigen Folgen für das Vertrauen in Informationsquellen. Wenn Publikum und Medien zunehmend unsicher sind, welche Inhalte authentisch sind, besteht die Gefahr, dass auch glaubwürdige Berichterstattung pauschal infrage gestellt wird. Die Herausforderung bestehe daher nicht allein in technischen Erkennungsinstrumenten, sondern in einer gesellschaftlichen Debatte darüber, wie expressive KI‑Medien öffentlich eingeordnet werden sollten.

Unterdessen rufen die Forscher zu einer differenzierten Auseinandersetzung mit generierten Inhalten auf. Es gelte, sowohl die Mechanismen emotionaler Manipulation zu verstehen als auch Wege zu entwickeln, die Grenzen zwischen satirischer Symbolik und irreführender Propaganda klarer kenntlich zu machen.