Anthropic lockert KI-Sicherheitsregeln inmitten eines harten Ultimatums des Pentagons

Anthropic hat wichtige Sicherheitsrichtlinien gelockert und begründet dies mit der Notwendigkeit, wettbewerbsfähig zu bleiben, während das Pentagon Druck auf das Unternehmen ausübt, den Einsatz von KI zur Spionage gegen US-Bürger und zur Entwicklung autonomer Waffen zu gestatten.

Das Unternehmen positionierte sich zuvor als eines der sicherheitsorientiertesten KI-Labore auf dem Markt, doch nun hat sich das Management von einer zentralen Verpflichtung in diesem Bereich distanziert.

Im Jahr 2023 führte das Unternehmen die Responsible Scaling Policy (RSP) ein, eine Reihe freiwilliger Regeln zur Reduzierung katastrophaler Risiken bei der Arbeit mit neuronalen Netzen. Ursprünglich sah das Dokument vor, dass ein Entwickler die Entwicklung künstlicher Intelligenz aussetzen sollte, wenn er diese als potenziell gefährlich einstufte.

„Wir kamen zu dem Schluss, dass wir niemandem helfen würden, wenn wir einfach aufhören würden, KI-Modelle zu trainieren. Angesichts der rasanten Fortschritte in der Branche erschien es unklug, einseitige Verpflichtungen einzugehen, während die Konkurrenz voranschreitet“, sagte Jared Kaplan, Chief Scientific Officer bei Anthropic.

In der dritten Version des RSP heißt es, dass Anthropic die KI weiter verbessern wird, wenn das Unternehmen der Ansicht ist, dass sie keinen signifikanten Vorteil gegenüber Wettbewerbern hat.

„Das politische Umfeld hat sich dahingehend verschoben, dass Wettbewerbsfähigkeit und Wirtschaftswachstum Priorität haben, und Diskussionen über die Sicherheit von KI haben auf Bundesebene keine nennenswerte Unterstützung erfahren“, heißt es im Blog des Startups.

Die neue Strategie sieht mehr Transparenz vor, unter anderem durch die detaillierte Veröffentlichung von Modelltestergebnissen. Das Unternehmen verspricht, im Bereich Systemsteuerung mit den Wettbewerbern Schritt zu halten. Anthropic ist nur dann bereit, die Entwicklung zu verlangsamen, wenn es unangefochtener Marktführer wird und gleichzeitig ein erhebliches Katastrophenrisiko sieht.

Als Anthropic 2023 RSP einführte, hoffte das Unternehmen, dass die Konkurrenz nachziehen würde. Doch niemand hat bisher ein ebenso eindeutiges Versprechen abgegeben, die KI-Entwicklung zu stoppen.

Anthropic steht unter Druck des Pentagons

Anthropic und das US-Verteidigungsministerium streiten über die Pläne des Militärs, KI zur Überwachung von Bürgern und zur Entwicklung autonomer Waffensysteme einzusetzen. Das Startup lehnt diesen Ansatz ab, doch Pentagon-Beamte erklärten, sie beabsichtigten, LLM „für alle legitimen Szenarien“ ohne Einschränkungen zu nutzen und ließen die Möglichkeit einer Vertragsbeendigung durchblicken.

Der CEO des Startups, Dario Amodei, traf sich mit Verteidigungsminister Pete Hegseth, um die Situation zu besprechen. Das Ministerium stellte ein Ultimatum: Das Startup muss die Bedingungen der Regierung bis zum 27. Februar akzeptieren.

Sollte das Unternehmen sich weigern, könnte die Regierung es als Bedrohung für die Lieferketten einstufen, was die Geschäftsbeziehungen von Anthropic mit anderen US-Regierungsauftragnehmern gefährden würde. Alternativ könnte sie den Defense Production Act anwenden, der es dem Pentagon erlauben würde, die Technologie des Startups zwangsweise zu nutzen.

„Dieses Szenario ist beispiellos und wird mit ziemlicher Sicherheit zu einer Klagewelle führen, wenn die Regierung negative Maßnahmen gegen Anthropic ergreift“, sagte Franklin Turner, Anwalt für Regierungsverträge bei McCarter & English.

In einer entsprechenden Stellungnahme betonten Vertreter des KI-Unternehmens, dass die Parteien „weiterhin einen Dialog in gutem Glauben führen“.

Anthropisch standhaft

Reuters hat erfahren, dass Anthropic keinerlei Absicht hat, seine Beschränkungen für die Nutzung der Technologie zu militärischen Zwecken zu lockern.

Die Position des Startups wurde von Ethereum-Mitbegründer Vitalik Buterin unterstützt.

„Wenn sie nicht einlenken und die Konsequenzen ehrenhaft tragen, wird sich meine Meinung über Anthropic deutlich verbessern“, sagte er.

Im Februar wurde bekannt, dass das KI-Modell Claude bei einer Operation zur Gefangennahme des venezolanischen Präsidenten Nicolás Maduro eingesetzt wurde. Laut der Nachrichtenagentur äußerte der CEO von Anthropic, Hegseth, in einem Treffen keine Bedenken hinsichtlich des Einsatzes der Produkte des Unternehmens bei dieser Initiative.

Eine derart ernste Bedrohung für das Pentagon deutet laut „The Economist“ darauf hin, dass man Claude im Verteidigungssektor nicht im Stich lassen will. Journalisten merken an, dass sich die Technologien des Startups für militärische Aufgaben als unverzichtbar erweisen könnten.

Zur Erinnerung: SpaceX und seine Tochtergesellschaft, das KI-Unternehmen xAI, nehmen an einer geheimen Ausschreibung des Pentagons zur Entwicklung autonomer, sprachgesteuerter Drohnenschwärme teil.

No votes yet.
Please wait...

Leave a Reply

Your email address will not be published. Required fields are marked *