
Das soziale Netzwerk X wird die Monetarisierung für Nutzer, die generierte Videos von militärischen Konflikten ohne entsprechende Kennzeichnung veröffentlichen, vorübergehend deaktivieren, gab Nikita Beer, Produktleiterin für algorithmische Feeds der Plattform, bekannt.
Heute überprüfen wir unsere Richtlinien zur Umsatzbeteiligung der Content-Ersteller, um die Authentizität der Inhalte im Feed zu gewährleisten und eine Manipulation des Programms zu verhindern.
In Kriegszeiten ist es entscheidend, dass die Bevölkerung Zugang zu verlässlichen Informationen vom Kriegsschauplatz hat. Mit den heutigen KI-Technologien…
– Nikita Bier (@nikitabier) 3. März 2026
Zuwiderhandlungen führen zu einem 90-tägigen Ausschluss vom Umsatzbeteiligungsprogramm. Wiederholte Verstöße ziehen einen dauerhaften Ausschluss vom Monetarisierungssystem nach sich. Die Plattform plant jedoch nicht, die Beiträge und Konten selbst zu löschen.
Beer betonte, dass der Zugang zu verlässlichen Informationen in Kriegszeiten von entscheidender Bedeutung sei und dass moderne neuronale Netze es leicht machten, das Publikum in die Irre zu führen.
Es gibt zwei Möglichkeiten, gefälschte soziale Netzwerke zu erkennen:
- unter Verwendung des Crowdsourcing-Faktenprüfungssystems Community Notes;
- durch KI-basierte Inhaltserkennungsalgorithmen auf Grundlage von Metadaten.
Die Regelaktualisierung erfolgte inmitten einer Flut von Videos, die über aktuelle geopolitische Konflikte kursierten.
Bislang haben die Iraner bewusst ihre alten Raketen und Drohnen eingesetzt und diese als entbehrliche Köder verwendet, um die Luftverteidigung der USA und Israels zu schwächen.
Diese Strategie hat eindeutig funktioniert.Nun eskalieren sie und bringen fortschrittlichere ballistische Raketen und Drohnen auf das Schlachtfeld.
Also… pic.twitter.com/0w1RiT0guC
— Richard (@ricwe123) 3. März 2026
Das Problem mit Fälschungen bestand auf der Plattform bereits vor der breiten Anwendung neuronaler Netze – Nutzer gaben regelmäßig Aufnahmen aus dem Videospiel Arma 3 als echte Kampfszenen aus. Verfügbare KI-Generatoren haben die Erstellung und Verbreitung von Desinformation jedoch deutlich vereinfacht.
Informationsminister Ataullah Tarrar lobte das Vorgehen der pakistanischen Streitkräfte für ihre zeitnahe und verheerende Reaktion auf Indiens Aggression und feigen Angriff und prangerte öffentlich Indiens militärischen Chauvinismus und Narzissmus an.
„Indien fängt an, liefert aber keinerlei Beweise und gibt sich dann als Opfer aus… pic.twitter.com/KRmcGGJ4il
— Regierung von Pakistan (@GovtofPakistan) 8. Mai 2025
Gleichzeitig belohnt das Auszahlungssystem von X Content-Ersteller finanziell für hohe Interaktionsraten. Dies animiert Premium-Kontoinhaber dazu, virale Deepfakes zu veröffentlichen, ungeachtet der Fakten, um schnell Geld zu verdienen.
Lösung X verlagert die Aufgabe der Erkennung von Fälschungen effektiv auf die Benutzergemeinschaft, wobei die Strafe auf einen vorübergehenden Einnahmeverlust beschränkt ist, anstatt die Fehlinformationen selbst von der Plattform zu entfernen.
Zur Erinnerung: Im Februar wurde bekannt, dass die US-Armee Claude von Anthropic bei der Operation zur Gefangennahme des venezolanischen Präsidenten Nicolás Maduro eingesetzt hat.
