X wird die Monetarisierung für die Veröffentlichung unbeschrifteter KI-Videos von militärischen Konflikten abschaffen.

Das soziale Netzwerk X wird die Monetarisierung für Nutzer, die generierte Videos von militärischen Konflikten ohne entsprechende Kennzeichnung veröffentlichen, vorübergehend deaktivieren, gab Nikita Beer, Produktleiterin für algorithmische Feeds der Plattform, bekannt.

Zuwiderhandlungen führen zu einem 90-tägigen Ausschluss vom Umsatzbeteiligungsprogramm. Wiederholte Verstöße ziehen einen dauerhaften Ausschluss vom Monetarisierungssystem nach sich. Die Plattform plant jedoch nicht, die Beiträge und Konten selbst zu löschen.

Beer betonte, dass der Zugang zu verlässlichen Informationen in Kriegszeiten von entscheidender Bedeutung sei und dass moderne neuronale Netze es leicht machten, das Publikum in die Irre zu führen.

Es gibt zwei Möglichkeiten, gefälschte soziale Netzwerke zu erkennen:

  • unter Verwendung des Crowdsourcing-Faktenprüfungssystems Community Notes;
  • durch KI-basierte Inhaltserkennungsalgorithmen auf Grundlage von Metadaten.

Die Regelaktualisierung erfolgte inmitten einer Flut von Videos, die über aktuelle geopolitische Konflikte kursierten.

Das Problem mit Fälschungen bestand auf der Plattform bereits vor der breiten Anwendung neuronaler Netze – Nutzer gaben regelmäßig Aufnahmen aus dem Videospiel Arma 3 als echte Kampfszenen aus. Verfügbare KI-Generatoren haben die Erstellung und Verbreitung von Desinformation jedoch deutlich vereinfacht.

Gleichzeitig belohnt das Auszahlungssystem von X Content-Ersteller finanziell für hohe Interaktionsraten. Dies animiert Premium-Kontoinhaber dazu, virale Deepfakes zu veröffentlichen, ungeachtet der Fakten, um schnell Geld zu verdienen.

Lösung X verlagert die Aufgabe der Erkennung von Fälschungen effektiv auf die Benutzergemeinschaft, wobei die Strafe auf einen vorübergehenden Einnahmeverlust beschränkt ist, anstatt die Fehlinformationen selbst von der Plattform zu entfernen.

Zur Erinnerung: Im Februar wurde bekannt, dass die US-Armee Claude von Anthropic bei der Operation zur Gefangennahme des venezolanischen Präsidenten Nicolás Maduro eingesetzt hat.

No votes yet.
Please wait...

Leave a Reply

Your email address will not be published. Required fields are marked *