我跟你讲,OpenAI最近刚搞了个大动作,推出了GPT-5.4 mini还有那个超级亲民的nano版本。他们是专门为了那些对延迟特别敏感的活儿设计的,像是写代码、看系统截图、做实时图像推理,这些都得快才行。 这次把响应速度给翻倍了,特别是那个mini版,在逻辑推理和多模态理解上比以前的5 mini强太多了,而且跑得特别快。我跟你说,在做SWE-Bench Pro和OSWorld-Verified这些基准测试的时候,它的表现已经差不多追上体积更大的GPT-5.4了。 那个nano就更绝了,是目前体积最小的。别看它小,要是把速度和成本看得比啥都重要的话,选它准没错。它能帮你做文本分类、提取数据,或者处理那种简单的辅助任务。 现在这两款模型都能用了。那个mini已经全面接入API、Codex还有ChatGPT了。API版本的上下文窗口能给400k个Token,输入输出成本分别是每百万Token 0.75美元和4.50美元。在Codex里面用的话,只消耗30%的GPT-5.4额度;Free用户和Go用户还能在ChatGPT里用“思考”功能体验一下。 那个nano就更便宜了,API的输入输出成本只要每百万Token 0.20美元和1.25美元。你说这性价比是不是特别高?