9to5googleによると、OpenAIは新たに「GPT-5.4 mini」と「GPT-5.4 nano」を発表し、特にminiモデルはChatGPTの無料ユーザー向けにも提供を開始した。今回のモデルは従来の小型モデルから大幅に進化しており、コーディング、推論、マルチモーダル理解、ツール操作といった分野で性能が向上している。さらに、GPT-5系の高性能を維持しつつ、従来比で2倍以上の高速応答を実現している点も特徴だ。

これらのモデルは、リアルタイム性が求められる用途を重視して設計されており、コード生成やデバッグ、フロントエンド構築などの開発作業に適している。また、スクリーンショットの解析やツール連携など、コンピュータ操作を伴うワークフローにも対応する。

GPT-5.4 miniはChatGPTの無料・GoプランやAPI、Codexで利用可能で、nanoはAPI限定ながらより低コストで提供される。高性能モデルを軽量化しつつ広く普及させる流れが、今回のアップデートの大きなポイントといえる。



今回のアップデートで最も重要なのは、「高性能=重いモデル」という常識が崩れつつある点だと思う。従来は高性能モデルほど遅く高価になりがちだったが、GPT-5.4 miniは性能と速度を両立し、しかも無料ユーザーにも開放された。これは単なる性能向上ではなく、AIの使われ方そのものを変える可能性がある。

特にコーディング支援やエージェント的なタスクでは「待ち時間」が体験を大きく左右するため、軽量かつ高速なモデルの価値は非常に高い。今後は「最大性能」ではなく、「最適な性能×速度×コスト」のバランスを競う時代に入り、開発者やサービス設計にも大きな影響を与えそうだ。