OpenAI reagierte auf Anthropic mit der Einführung des GPT-5.4-Cyber-KI-Modells.

OpenAI hat sein neues KI-Modell GPT-5․4-Cyber einer begrenzten Anzahl von Nutzern zur Verfügung gestellt. Es wird als effektives Werkzeug zum Auffinden von Sicherheitslücken in Software positioniert.

OpenAI erweitert sein im Februar gestartetes Trusted Access for Cyber-Programm, indem es Einzelpersonen verifiziert und mit einer begrenzten Anzahl von Organisationen zusammenarbeitet, um Modellen „liberalere Cybersicherheitsbeschränkungen“ bereitzustellen.

Für Benutzer, die ihre Qualifikation als Cybersicherheitsexperten bestätigen möchten, wurden zusätzliche Zugriffsebenen hinzugefügt.

Kunden mit dem höchsten Status erhalten GPT‑5.4‑Cyber, ein Spezialmodell mit erweiterter Funktionalität und weniger grundlegenden Einschränkungen.

„Dies ist GPT-5.4, das die Schwelle für das Scheitern legitimer Cybersicherheitsarbeit senkt und neue Möglichkeiten für fortgeschrittene defensive Arbeitsabläufe eröffnet“, heißt es in der Ankündigung.

Zu den weiteren Funktionen des neuronalen Netzes gehört das Reverse Engineering von Binärdateien. Es ermöglicht Experten, kompilierte Software auf Schwachstellen und Schadcode zu analysieren sowie den allgemeinen Schutzgrad zu bewerten, ohne direkten Zugriff auf den Quellcode zu haben.

Das Tool erschien eine Woche nach der großen Ankündigung von Mythos. Anthropic weigerte sich aufgrund der fortschrittlichen Schwachstellenerkennungsfunktionen und der hohen Sicherheitsrisiken, das Modell zu veröffentlichen.

Um GPT‐5.4‐Cyber nutzen zu können, müssen Benutzer ihre Identität verifizieren, und Organisationen müssen den Zugriff über ihren Vertreter beantragen.

Erinnern wir uns daran, dass das dänische Unternehmen Novo Nordisk A/S im April die Integration der KI-Technologie von OpenAI zur Beschleunigung der Arzneimittelentwicklung angekündigt hatte.

No votes yet.
Please wait...

Leave a Reply

Your email address will not be published. Required fields are marked *