NISHIO Hirokazu[Translate]
CodexのGPT-5.2-codexとClaude CodeのOpusのコンテキスト長
>400,000 context window
>All evals were run with a 64K thinking budget, interleaved scratchpads, 200K context window, default effort (high), default sampling settings (temperature, top_p), and averaged over 5 independent trials.
GPT5つまり コンテキスト窓だけ見れば GPT-5.2-Codex が Opus の約2倍です。一方で、Claude 側はモデル/プランによって 1M tokens(beta)が案内されているケースもあります(ただし「Opusが常に1M」という意味ではなく、提供形態・対象モデルが限定されがち)。


"Engineer's way of creating knowledge" the English version of my book is now available on [Engineer's way of creating knowledge]

(C)NISHIO Hirokazu / Converted from [Scrapbox] at [Edit]