WSJ: US-Armee setzte Anthropics Claude bei Maduro-Gefangennahmeoperation ein

Laut einem Bericht des WSJ unter Berufung auf Quellen setzte die US-Armee Claude von Anthropic bei der Operation zur Gefangennahme des venezolanischen Präsidenten Nicolás Maduro ein.

Die Mission umfasste die Bombardierung mehrerer Ziele in Caracas. Die Verwendung des Modells für solche Zwecke verstößt gegen die Unternehmensrichtlinien von Anthropic. Die Unternehmensregeln verbieten ausdrücklich den Einsatz von KI für Gewalt, Waffenentwicklung oder Überwachung.

„Wir können keine Auskunft darüber geben, ob Claude oder ein anderes Modell in einer konkreten Operation – ob verdeckt oder nicht – eingesetzt wurde. Jegliche Nutzung von LLM – ob im privaten Sektor oder im öffentlichen Bereich – muss unseren Richtlinien für den Einsatz neuronaler Netze entsprechen. Wir arbeiten eng mit unseren Partnern zusammen, um die Einhaltung dieser Richtlinien zu gewährleisten“, so ein Sprecher von Anthropic.

Die Integration von Claude in das Verteidigungsministerium wurde durch die Partnerschaft von Anthropic mit Palantir Technologies ermöglicht, deren Software von Militär und Bundesbehörden weit verbreitet eingesetzt wird.

Nach dem Einsatz fragte ein Mitarbeiter von Anthropic einen Kollegen von Palantir, welche Rolle das neuronale Netzwerk bei der Operation zur Festnahme Maduros gespielt habe, berichtet das WSJ. Ein Vertreter des Startups erklärte, das Unternehmen habe die Verwendung seiner Modelle in konkreten Missionen „mit keinem Partner, einschließlich Palantir“, besprochen und sich auf technische Fragen beschränkt.

„Anthropic setzt sich dafür ein, mithilfe fortschrittlicher KI die nationale Sicherheit der USA zu unterstützen“, fügte der Sprecher des Unternehmens hinzu.

Anthropic gegen das Pentagon?

Pentagon-Sprecher Sean Parnell kündigte eine Überprüfung der Beziehungen zum KI-Labor an.

„Unser Land braucht Partner, die bereit sind, den Kämpfern zum Sieg in jedem Krieg zu verhelfen“, sagte er.

Im Juli 2025 vergab das US-Verteidigungsministerium Aufträge im Wert von bis zu 200 Millionen US-Dollar an Anthropic, Google, OpenAI und xAI zur Entwicklung von KI-Lösungen für die Sicherheit. Die Direktion für Digitales und Künstliche Intelligenz des Ministeriums plante, die Ergebnisse zur Entwicklung agentenbasierter Sicherheitssysteme zu nutzen.

Im Januar 2026 berichtete das Wall Street Journal jedoch, dass der Vertrag mit Anthropic gefährdet sei. Die Meinungsverschiedenheiten entstanden aufgrund der strengen Ethikrichtlinien des Startups. Diese verbieten den Einsatz des Claude-Modells für Massenüberwachung und autonome Tötungsoperationen, was dessen Nutzung durch Geheimdienste wie ICE und das FBI einschränkt.

Die Unzufriedenheit der Beamten hat sich durch die Integration des Chatbots Grok in das Netzwerk des Pentagons verstärkt. Verteidigungsminister Pete Hegseth betonte in Bezug auf die Partnerschaft mit xAI, dass das Ministerium „keine Modelle verwenden wird, die keine Kriegsführung ermöglichen“.

Druck auf die Entwickler

Axios berichtete unter Berufung auf Quellen, dass das Pentagon Druck auf vier große KI-Unternehmen ausübt, damit diese dem US-Militär die Nutzung der Technologie für „alle legitimen Zwecke“ gestatten. Dies umfasst Waffenentwicklung, Informationsbeschaffung und Kampfeinsätze.

Anthropic weigert sich, die Beschränkungen für die Überwachung von US-Bürgern und die Entwicklung vollautonomer Waffensysteme aufzuheben. Die Verhandlungen sind in einer Sackgasse, doch aufgrund der technologischen Überlegenheit des Modells bei bestimmten Regierungsaufgaben ist ein schneller Ersatz für Claude schwierig.

Neben dem Anthropic-Chatbot nutzt das Pentagon für nicht-klassifizierte Aufgaben auch ChatGPT von OpenAI, Gemini von Google und Grok von xAI. Alle drei haben zugestimmt, die Beschränkungen für reguläre Nutzer zu lockern.

Derzeit wird darüber diskutiert, LLMs in einen geheimen Kreislauf zu überführen und sie „für alle legitimen Zwecke“ zu nutzen. Eines der drei Unternehmen hat dem bereits zugestimmt, die anderen beiden zeigen im Vergleich zu Anthropic „größere Flexibilität“.

Militarisierung der KI

Die Vereinigten Staaten sind nicht das einzige Land, das künstliche Intelligenz aktiv im Verteidigungssektor einsetzt.

China

Im Juni 2024 führte die Volksrepublik China einen KI-Kommandanten für großangelegte Militärsimulationen mit allen Truppentypen der Volksbefreiungsarmee ein. Der virtuelle Stratege verfügt über weitreichende Befugnisse, lernt schnell und optimiert seine Taktiken während digitaler Übungen.

Im November berichteten Medien, dass chinesische Forscher das Llama-13B-Modell von Meta angepasst und daraus das Tool ChatBIT entwickelt hatten. Das neuronale Netzwerk wurde für die Informationsbeschaffung und -analyse sowie für die operative Entscheidungsunterstützung optimiert.

Indien

Neu-Delhi setzt ebenfalls auf KI als Motor der nationalen Sicherheit. Die Regierung hat Strategien und Programme auf nationaler Ebene entwickelt, spezielle Institutionen und Gremien für die Implementierung von KI geschaffen und Projekte zur Anwendung der Technologie in verschiedenen Sektoren initiiert.

Großbritannien

London hat künstliche Intelligenz zu einer Priorität erklärt. In seiner „KI-Strategie für die Verteidigung“ (2022) sieht das Verteidigungsministerium KI als Schlüsselkomponente der zukünftigen Streitkräfte. In seiner „Strategischen Verteidigungsüberprüfung“ (2025) wird die Technologie als grundlegendes Element moderner Kriegsführung bezeichnet.

Wurde künstliche Intelligenz im militärischen Kontext früher als Hilfsinstrument betrachtet, planen die britischen Streitkräfte nun eine Transformation zu einer „technologisch integrierten Streitkraft“, bei der KI-Systeme auf allen Ebenen eingesetzt werden sollen – von der Stabsanalyse bis zum Schlachtfeld.

Erinnern wir uns daran, dass das Pentagon im März 2025 den Einsatz von KI-Agenten zur Simulation von Zusammenstößen mit ausländischen Gegnern angekündigt hat.

No votes yet.
Please wait...

Leave a Reply

Your email address will not be published. Required fields are marked *