Das US-Militär strebt eine KI-Technologie an, um auf Social Media Narrative zu beeinflussen. Es bezeichnet das Vorhaben als "Schutzschild" gegen ausländische Akteure. Kritiker warnen vor einer "Waffe" gegen die eigene Bevölkerung.
Hochmoderne Kameras, Sensoren, Energiewaffen – und eine Software für maschinelles Lernen zum Einsatz der Informationskriegsführung. Das soll auf der Wunschliste des US-Sonderkommandos für Spezialeinsätze (SOCOM) für die nächsten fünf bis sieben Jahre stehen, berichtet das Enthüllungsmagazin "The Intercept". SOCOM ist das Kommando für alle Spezialkräfte des US-Militärs.
Aus dem Dokument geht hervor, dass es sich erhofft, mithilfe von maschinellem Lernen Propaganda zu erstellen und zu verbreiten, um "ausländische Zielgruppen zu beeinflussen" und "abweichende Meinungen zu unterdrücken".
In anderen Worten: Das Pentagon will künstliche Intelligenz (KI) für globale Propaganda instrumentalisieren. SOCOM argumentiert, es könne mit der Geschwindigkeit der Online-Diskussionen nicht Schritt halten. "Die Informationslandschaft verändert sich zu schnell, als dass das Militär in der Lage wäre, das Publikum im Internet angemessen anzusprechen und zu beeinflussen", heisst es. Um dem entgegenzuwirken, braucht es ein Programm, um Narrative zu kontrollieren und das Publikum in Echtzeit zu beeinflussen. Es soll eine Art "Schutzschild" gegen ausländische Propagandakampagnen bilden – etwa aus Russland und China.
USA: KI-Experte bezeichnet Pentagon-Plan als "Eskalation"
Auf Anfrage von "The Intercept" bestätigt SOCOM-Sprecher Dan Lessard, dass das US-Sonderkommando für Spezialeinsätze "modernste, KI-gestützte Fähigkeiten" anstrebt. In der Praxis würden diese Systeme zum Beispiel Online-Konversationen auswerten, auf Einzelpersonen oder Gruppen zugeschnittene Nachrichten generieren und offenbar diejenigen ins Visier nehmen, die versuchen, die Propaganda aufzudecken.
"Dieses Programm sollte auch in der Lage sein, auf Profile, Netzwerke und Systeme von Personen zuzugreifen, die versuchen, unseren Botschaften entgegenzuwirken oder sie zu diskreditieren", fordert das US-Militär im Dokument, das dem Online-Magazin vorliegt.
Für den KI-Experten im Bereich Social Media, Tim Weninger, kommt dieses Vorhaben nicht völlig unerwartet, wie er auf Anfrage unserer Redaktion sagt. Er selbst hat das Dokument nicht eingesehen und bezieht sich auf den Bericht von "The Intercept".
Für ihn sei das Vorhaben eine "Eskalation" seitens der USA. Die Taktik, Feuer mit Feuer zu bekämpfen, gehe nicht auf. Denn der Professor an der Universität von Notre Dame bezweifelt, dass KI-generierte Propagandakampagnen als Abwehrschild wirksam sind.
"Effektiver wäre es, ihr zuvorzukommen und die Menschen gegen die Botschaft des Gegners zu immunisieren", schlägt er vor. Für diesen Zweck wäre KI-generierte Propaganda nützlich. Aber Weninger kennt keinen Fall, bei dem eine KI-generierte Kampagne als wirksame Verteidigung eingesetzt wurde.
Es fehlt an klaren Richtlinien für staatlich gelenkte Einflusskampagnen in den USA
Um auf ausländische Propagandakampagnen zu reagieren, empfehlen Brett Benson, Professor für Politikwissenschaft an der Vanderbilt University, und Brett Goldstein, ehemaliger Beamter des Verteidigungsministeriums, eine "koordinierte Reaktion" von Regierung, Wissenschaft und Privatwirtschaft.
In einem Meinungsartikel in der New York Times warnen sie: "Das Zeitalter der KI-Propaganda ist angebrochen, und Amerika muss handeln". Dabei verweisen die Autoren auf die Software GoLaxy, die von der chinesischen Firma Beijing Thinker ursprünglich für das Brettspiel Go entwickelt wurde. Heute gilt sie als Marktführer für staatlich gelenkte Einflusskampagnen. Nach Ansicht von "The Intercept" will SOCOM eine ähnliche Technologie entwickeln, wobei Bots grosse Mengen an Internet-Chats durchsuchen und auswerten, um eine bestimmte Bevölkerungsgruppe oder eine Einzelperson besser von einem bestimmten Thema zu überzeugen.
Kritiker wie die "Know Your Rights Camp"-Organisation warnen, dass es sich bei dem Vorhaben um eine "nach innen gerichtete Waffe" handeln würde, um oppositionelle Stimmen zum Schweigen zu bringen. Auch Weninger sieht Grund zur Sorge. Grundsätzlich lehnt er es nicht ab, dass die Trump-Regierung KI-generierte Informationskampagnen entwickelt, aber der US-Kongress müsse dazu klare Richtlinien festlegen. Denn derzeit sind ihm keine gesetzlichen Beschränkungen bekannt, die den "nach innen gerichteten” Einsatz dieser Technologie verbieten.
"Ein US-Militärgewehr kann sowohl auf einen Gegner als auch auf einen Bürger gerichtet werden", sagt er. Um das zu verhindern, sei eine strenge Rechtsdoktrin nötig sowie eine klare Erwartung der Bürger an die Regierung und das Militär, dass ein solcher Einsatz nach innen hin inakzeptabel wäre. Dass das US-Militär seit Langem verdeckte Informations- und Propagandaoperationen führt, ist nichts Neues.
KI-Propaganda: USA wollen Russland und China aufholen – mit Risiken
Reuters brachte 2024 ans Licht, dass das Verteidigungsministerium mit einer geheimen Anti-Impf-Kampagne auf Social Media das Vertrauen in den chinesischen Covid-Impfstoff untergraben wollte, aus Angst, dessen Wirksamkeit könnte asiatische Länder näher an den geopolitischen Rivalen heranführen. Auch im Kampf gegen die Terrororganisation des sogenannten "Islamischen Staates" (IS) überwachten die USA die Rhetorik und Kommunikation auf Social Media.
"Der Einsatz von KI-Systemen zur automatischen Übermittlung von Nachrichten scheint eine natürliche Weiterentwicklung im Kampf um die Herzen und Köpfe in zukünftigen Militäroperationen zu sein", meint Weninger.
Es sei nicht zu leugnen, dass die USA anderen Ländern in dieser Hinsicht hinterherhinken, führt der KI-Experte aus. In modernen bewaffneten Konflikten ist heute der "Online-Kampf" genauso wichtig wie das Schlachtfeld selbst. Das zeigen der Krieg in Gaza und der russische Angriffskrieg in der Ukraine. Weninger verweist auf die Zeit vor der Grossinvasion, als er und seine Kollegen einen Anstieg der Kriegsrhetorik von ausländischen Akteuren um 8.000 Prozent auf Social Media feststellten.
Empfehlungen der Redaktion
Das Pentagon will auf diesem Feld aufholen, schlägt aber nach Ansicht von Kritikern den falschen Weg ein. KI-Experten äussern gegenüber "The Intercept", es sei irreführend, diese Systeme lediglich als "defensiv" darzustellen. Grosse Sprachmodelle erfinden häufig Unwahrheiten und verstärken Vorurteile. Die Tools seien unzuverlässig, daher könnte KI-Propaganda mehr Schaden als Nutzen bringen. Zudem fehlt es derzeit an Transparenz, wie die Technologie zum Einsatz kommt – oder: gegen wen.
Über den Gesprächspartner
- Tim Weninger lehrt als Professor an der Ingenieur-Fakultät der University of Notre Dame im US-Bundesstaat Indiana. Er ist Mitglied des "Lucy Family Institute for Data and Society", des "Pulte Institute for Global Development" sowie des "Technology Ethics Center". Sein Forschungsschwerpunkt sind künstliche Intelligenz und Social Media.
Verwendete Quellen
- theintercept.com: Pentagon Document: U.S. Wants to ‚Suppress Dissenting Arguments‘ Using AI Propaganda
- nytimes.com: The Era of A.I. Propaganda Has Arrived, and America Must Act
- Instagram-Beitrag von der "Know Your Rights Camp"-Organisation
- reuters.com: Pentagon ran secret anti-vax campaign to undermine China during pandemic
- tandfonline.com: Visual narratives and political instability: a case study of visual media prior to the Russia-Ukraine conflict