好好好,OpenAI和谷歌新模型又撞车了!
3月4日凌晨,谷歌前脚刚发完Gemini 3.1 Flash-Lite,OpenAI后脚就更新了gpt-5.3 Instant。

Instant模型一般为速度优化版本,适合快速日常查询、草稿写作、即时翻译等轻量任务。
之前大家用ChatGPT可能都会感觉:模型好用是好用,就是废话太多了。
包括也有不少网友吐槽,ChatGPT的回答生硬的铺垫太多,比如“为什么这很重要”“大局观”“不只是你一个人”等等。

如果你想询问一些危险行为背后的原理,比如做一道物理题,计算远距离射箭的轨迹。
旧模型在这种情况下会过度强调安全问题,开头先声明“我们只能在纯粹的分析模拟语境下讨论”,默认你可能有不良动机。

简单来说,就是模型更能“读懂空气”,更有“人味”了。它能结合上下文语境判断出用户意图,不会再那么生硬刻板地给出免责声明。
另外,还有那个经典的例子——
为什么我在旧金山找不到爱情?

新模型的回复则时效性更强:它准确识别出了最近一个休赛期的球员变动,还结合了联盟的大趋势(如人才集中化和薪资差距拉大)、迫在眉睫的劳资协议 (CBA) 以及停摆危机等背景进行了分析。

OpenAI还少见地列出了新模型的一些局限性:比如它对于非英语语种会比较生硬, 在某些语言(如日语和韩语)中的回复风格可能稍显生硬,或带有刻板的直译感。
另外,虽然 GPT‑5.3 Instant的回复语调感觉上应该更加流畅,但官方表示他们会持续监控反馈并进行优化,让回答变得更自然。
不得不说一句,和隔壁谷歌的跑分碾压对比,OpenAI这次发布可以说是相当“清新脱俗”:
全程没有出现任何benchmark,主打一个不卷性能卷体验,只为了让模型更顺手、让用户体验更流畅。
One More Thing最近GPT-5.4已经意外泄露。
泄露信息显示,GPT-5.4将支持200万tokens的上下文窗口,并引入“状态化AI”技术,实现跨会话的持久记忆功能,可保留用户工作流和工具调用状态。
另外,GPT-5.4可能新增一项功能开关,可绕过传统图像压缩机制,直接保留全分辨率的原始图像字节数据。
这意味着,GPT-5.4可能将具备像素级精准的视觉分析能力。
官方也早已按捺不住了,直接明晃晃表示:5.4的到来“比你想象的要快”。

所以GPT-5.4和DeepSeek V4,到底谁会先来?
参考链接:[1]https://openai.com/zh-Hans-CN/index/gpt-5-3-instant/[2]https://deploymentsafety.openai.com/gpt-5-3-instant/gpt-5-3-instant.pdf
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263660 电子证书1157 电子名片68 自媒体106305