OpenAI bringt GPT-5.4 in ChatGPT, Codex und die API und rückt Computersteuerung in den Kern
OpenAI hat GPT-5.4 als neues Hauptmodell für professionelle Wissensarbeit veröffentlicht, bringt es in ChatGPT, Codex und die API und verbindet verbesserte Faktentreue mit nativer Computersteuerung für Agenten.
- GPT-5.4 startet in ChatGPT als GPT-5.4 Thinking sowie in Codex und der API; eine Pro-Variante kommt zusätzlich für komplexe Aufgaben.
- Das Modell ist OpenAIs erstes allgemeines Modell mit nativen Computer-Use-Fähigkeiten und unterstützt in Codex experimentell bis zu ein Million Kontext-Tokens.
- Auf GDPval erreicht GPT-5.4 laut OpenAI 83,0 Prozent der Vergleiche gegen 70,9 Prozent bei GPT-5.2.
- Auf OSWorld-Verified kommt GPT-5.4 auf 75,0 Prozent und liegt damit deutlich über GPT-5.2 sowie knapp über dem in der Veröffentlichung genannten Menschenwert.
- OpenAI beziffert die Fehlerrate bei markierten Faktenproblemen niedriger als bei GPT-5.2 und koppelt die Einführung an zusätzliche Cyber-Sicherheitsmaßnahmen.
Mit GPT-5.4 zieht OpenAI die Trennlinie zwischen Chatbot und Arbeitsmodell weiter nach hinten. Der Start ist nicht nur ein gewöhnliches Modellupdate, sondern eine Neuordnung der Produktrolle: GPT-5.4 soll Dokumente, Tabellen, Präsentationen, Recherche und Coding nicht mehr als voneinander getrennte Aufgaben behandeln, sondern als zusammenhängende Wissensarbeit. Genau deshalb führt OpenAI das Modell gleichzeitig in ChatGPT, Codex und der API ein. Das Unternehmen signalisiert damit, dass die stärksten Funktionen nicht mehr an einen einzelnen Kanal gebunden sind, sondern als Kern für Endnutzer, Entwickler und Agenten-Workflows dienen sollen.
Zwei Punkte stechen besonders hervor. Erstens die native Computersteuerung: GPT-5.4 kann in Codex und der API Bildschirmzustände interpretieren, Maus- und Tastaturaktionen erzeugen und längere Abläufe über Anwendungen hinweg planen. Zweitens der Kontextumfang von bis zu einer Million Tokens in Codex, wenn Entwickler den experimentellen Modus aktivieren. Zusammen macht das GPT-5.4 zu einem Modell, das nicht nur Inhalte erzeugen, sondern auch längere Arbeitsketten in Softwareumgebungen organisieren soll. Das passt in den übergreifenden Trend des Jahres 2026, bei dem fast alle großen Anbieter versuchen, agentische Bedienung und klassische Modellnutzung zusammenzuführen.
OpenAI legt den Schwerpunkt in der Vermarktung klar auf professionelle Arbeit. In den veröffentlichten Vergleichswerten steigt GPT-5.4 auf GDPval deutlich gegenüber GPT-5.2, und auch bei Benchmarks für Computersteuerung und Browsernutzung legt das Modell zu. Besonders wichtig ist dabei die Kombination aus Leistung und Konsistenz. OpenAI beschreibt GPT-5.4 als faktentreuer und tokeneffizienter als GPT-5.2, also als Modell, das nicht nur häufiger richtige Resultate produziert, sondern dies mit weniger Rechenaufwand und weniger Korrekturschleifen tun soll. Für Unternehmen ist das oft wertvoller als reine Spitzenwerte in Einzeltests.
Der Rollout zeigt gleichzeitig, wie stark OpenAI inzwischen Produkt- und Plattformstrategie verzahnt. In ChatGPT ersetzt GPT-5.4 Thinking das bisherige 5.2-Modell für zahlende Nutzer schrittweise, während Enterprise- und Edu-Kunden Frühzugang über Admin-Einstellungen aktivieren können. In Codex und der API wird GPT-5.4 zum Baustein für Entwickler, die längere Agentenabläufe, Connector-Nutzung und computerbasierte Automatisierung kombinieren wollen. Das verschiebt auch die Erwartung an ChatGPT selbst: Wer ein reasoningfähiges Modell mit Plan-Vorschau, Recherche und Tool-Nutzung bekommt, erwartet zunehmend Arbeitsresultate statt bloßer Antworten.
Bemerkenswert ist, dass OpenAI die Einführung erneut eng mit Sicherheitskommunikation koppelt. Die System Card ordnet GPT-5.4 Thinking als erstes allgemeines Modell der Reihe mit Maßnahmen für hohe Cyber-Fähigkeiten ein. Das zeigt, wie nah Leistungsfortschritt und Risikosteuerung inzwischen beieinanderliegen. Je besser Modelle reale Software bedienen, desto wichtiger werden Freigabegrenzen, Protokollierung, Richtlinien und Missbrauchsfilter. GPT-5.4 markiert deshalb nicht nur einen Leistungszuwachs, sondern einen weiteren Schritt in Richtung Arbeitsagenten, bei denen Produktivität, Sicherheit und Governance im selben Paket gedacht werden müssen.