OpenAI 本週正式推出全新的輕量化模型 GPT‑5.4 mini 與 GPT‑5.4 nano,標誌著 AI 應用正式進入「高效率、低延遲」的新賽道。這兩款小型模型不僅繼承了旗艦級 GPT‑5.4 的推理能力,GPT‑5.4 mini 的運行速度更比前代提升超過兩倍,且在程式編寫與多模態理解的基準測試中,展現逼近大型模型的實力。
根據官方說法,這系列模型設計初衷是為了滿足對「速度」與「成本」極度敏感的開發情境。GPT‑5.4 mini 在處理精準程式碼修改、前端生成與自動化偵錯方面表現卓越;而最輕量的 GPT‑5.4 nano 則鎖定高頻率的基礎任務,如資料擷取與分類。科技業界開始擁抱「大帶小」的協作架構:由 GPT‑5.4 進行戰略規劃,並將執行層面的細節交給多個 GPT‑5.4 mini 子智慧體(Sub-agents)同步處理。
值得關注的是,GPT‑5.4 mini 在 OSWorld-Verified 評測中表現驚人,能精準解析螢幕截圖並執行複雜的電腦操作任務。Hebbia 技術長 Aabhas Sharma 指出,在實際的端到端任務中,GPT‑5.4 mini 的來源標註能力與輸出通過率甚至超越了體積更大的模型,這代表在許多專業場景下,選擇「對的模型」比「大的模型」更為重要。
目前 GPT‑5.4 mini 已在 API、Codex 及 ChatGPT 平台全面上線。API 定價為每百萬 Token 輸入 0.75 美元,輸出 4.50 美元,並提供 400k 的超長上下文視窗。專為極致成本控制設計的 GPT‑5.4 nano 則僅透過 API 提供,輸入價格壓低至每百萬 Token 0.20 美元;ChatGPT 免費版用戶現在也能透過「思考」功能,體驗這款小型模型帶來的流暢互動。
責任編輯:Claire
核稿編: Mia
本文初稿由 INSIDE 使用 AI 協助編撰,並經人工審校確認;加入 INSIDE 會員,獨享 INSIDE 科技趨勢電子報,點擊立刻成為會員!
延伸閱讀:


