Medienberichten zufolge führt Google Gespräche mit dem Pentagon über die Integration von Gemini.
Der Anthropische Skandal
Der jüngste Konflikt zwischen dem Pentagon und dem KI-Startup Anthropic nahm genau auf diesem Boden seinen Anfang. Er eskalierte zu einer Klage und einem Verbot des Einsatzes der Technologie des Unternehmens in allen Bundesbehörden durch US-Präsident Donald Trump.
Die Voraussetzungen dafür ergaben sich im Juli 2025. Zu diesem Zeitpunkt schloss das US-Verteidigungsministerium Verträge im Wert von bis zu 200 Millionen US-Dollar mit Anthropic, Google, OpenAI und xAI zur Entwicklung von KI-Lösungen für die Sicherheit ab. Die Direktion für Digitales und KI des Ministeriums plante, deren Entwicklungen zur Erstellung von Agentensystemen zu nutzen. Von allen Auftragnehmern wurden aufgrund ihrer hohen Qualität lediglich die Tools von Anthropic in klassifizierte Umgebungen integriert.
Im Januar 2026 berichtete das WSJ jedoch über das Risiko einer Kündigung des Vertrags. Die Meinungsverschiedenheiten entstanden aufgrund der strengen Ethikrichtlinien des Startups: Die Regeln von Anthropic verbieten den Einsatz des Claude-Modells für Massenüberwachung und autonome Tötungsoperationen.
Die Unzufriedenheit der Beamten hat sich durch die Integration des Grok-Chatbots in das Netzwerk des Pentagons verstärkt. Verteidigungsminister Pete Hegseth betonte in Bezug auf die Partnerschaft mit xAI, dass das Ministerium „keine Modelle verwenden wird, die keine Kriegsführung ermöglichen“.
Die Situation eskalierte im Februar 2026, als die US-Armee Claude in eine Operation zur Gefangennahme des venezolanischen Präsidenten Nicolás Maduro einbezog.
Der CEO des Startups, Dario Amodei, erklärte, Anthropic würde lieber nicht mit dem Pentagon zusammenarbeiten, als seine Technologie so einzusetzen, dass sie „demokratische Werte eher untergräbt als schützt“. Er bestätigte, dass das Problem im potenziellen Einsatz von Tools wie Claude für zwei Zwecke liege: „Massenüberwachung innerhalb eines Landes“ und „vollautonome Waffensysteme“.
Die prinzipienfeste Haltung von Anthropic steigerte die Popularität der Produkte des Startups – die Nutzer schätzten die Bereitschaft der Entwickler, ihre Interessen zu verteidigen.
Gleichzeitig wurde OpenAI für seinen Vertrag mit dem Verteidigungsministerium kritisiert, eine Entscheidung, die Sam Altman später als überhastet bezeichnete.
Zurück zum Anfang
Die aktuellen Verhandlungen von Google mit dem Pentagon erinnern an die Ereignisse von 2018. Damals zog sich der Konzern aus dem Projekt Maven zurück, einem Programm, bei dem künstliche Intelligenz zur Analyse von Drohnenvideos eingesetzt wurde.
Aufgrund massiver Unzufriedenheit der Belegschaft zog sich das Unternehmen aus dem Projekt zurück. Über 3.000 Menschen unterzeichneten einen offenen Appell an die Geschäftsleitung, in dem sie die Einstellung der Entwicklung von KI für Kampfdrohnen forderten. Der Vorfall löste in der Technologiebranche eine breite Diskussion über die Zulässigkeit des Einsatzes von Algorithmen für militärische Zwecke aus.
Seitdem hat Google seine Beziehungen zur Regierung kontinuierlich wieder aufgebaut. Im Jahr 2022 richtete das Unternehmen eine spezielle Abteilung für die Zusammenarbeit mit dem öffentlichen Sektor ein.
Im Jahr 2024 unterzeichnete das Unternehmen ein Abkommen mit dem Verteidigungsministerium über die Zusammenarbeit im Bereich KI. Die Nutzung der Technologie war auf den nicht-klassifizierten Bereich beschränkt.
Anfang 2025 entfernte Google eine Klausel aus seinen internen KI-Richtlinien, die den Einsatz der Technologie in „Waffen und Überwachungssystemen“ ausdrücklich verbot.
Die mögliche Unterzeichnung eines Vertrags, der die Arbeit in geheimdienstlichen Bereichen beinhaltet, bedeutet mehr als die übliche „Zusammenarbeit“. Ein solcher Schritt signalisiert die Bereitschaft zur umfassenden Integration der Technologien des Unternehmens in wichtige Verteidigungsoperationen.
Arbeitnehmer gegen
Googles Beteiligung an Rüstungsaufträgen sorgt weiterhin für interne Unzufriedenheit.
Im Jahr 2018 versprach das Unternehmen, niemals an Militärtechnologie zu arbeiten. Im April 2024 wurde jedoch bekannt, dass es dem israelischen Verteidigungsministerium Cloud-Computing-Dienste und Zugang zu KI-Diensten anbietet.
Vor diesem Hintergrund haben rund 200 Mitarbeiter von DeepMind, der KI-Abteilung von Google, offiziell protestiert. Sie fordern die Kündigung der Verträge mit Verteidigungsbehörden. Die Initiatoren befürchten, dass die fortschrittlichen Entwicklungen des Labors an Armeen weitergegeben werden, die in Kampfeinsätzen eingesetzt sind.
„Jegliche Beteiligung an der Militär- und Waffenproduktion beeinträchtigt unsere Position als führendes Unternehmen im Bereich ethischer und verantwortungsvoller KI und steht zudem im Widerspruch zu unserer Mission und unseren erklärten Grundsätzen der künstlichen Intelligenz“, heißt es in dem Dokument, das von etwa 5 % der Mitarbeiter unterzeichnet wurde.
Das Pentagon beharrt darauf
Im Februar erfuhren die Medien, dass das Pentagon führende KI-Unternehmen auffordert, ihre Tools in klassifizierten Umgebungen ohne die üblicherweise für Benutzer geltenden Einschränkungen zur Verfügung zu stellen.
Diese Netzwerke werden für eine Vielzahl sensibler Aufgaben eingesetzt, von der Operationsplanung bis zur Zielerfassung von Waffen. Das Militär möchte die Fähigkeit der KI zur Informationssynthese nutzen, um die Entscheidungsfindung zu unterstützen.
Neuronale Netze können jedoch Fehler machen und Fakten verfälschen. Der Einsatz solcher Werkzeuge unter Kampfbedingungen birgt die Gefahr fataler Folgen.
KI-Unternehmen versuchen, die negativen Aspekte ihrer Produkte zu minimieren, doch das Pentagon ist über solche Einschränkungen empört.
Zur Erinnerung: Das Verteidigungsministerium beabsichtigt, die Entscheidungsfindung mithilfe künstlicher Intelligenz zu beschleunigen und sie zu einem zentralen Element der Strategie für die Kombination von Sensoren und Angriffssystemen in Kampfeinsätzen zu machen.
