GPT-5.4 — Thinking
ProgrammierungEin Generalisten-Frontier-Modell, das zufällig Coding-Spezialisten bei den Benchmarks schlägt, die am meisten zählen. Denken Sie an einen Zehnkämpfer, der auch den 100m-Weltrekord hält.
SWE-Bench Pro 57,7% — ein Generalisten-Modell schlägt GPT-5.3-Codex (56,8%). 1M-Token-Kontext lädt ganze Repos. 47% Token-Einsparung durch native Tool-Nutzung. 1,5x schneller in Codex.
Höhere API-Kosten (2,50$/M Input, 15$/M Output). Voller Kontext kostet in Codex zum doppelten Token-Tarif. Opus 4.6 produziert bei massiven Refactorings noch immer architektonisch kohärenteren Code.