OpenAI,亟需一场翻身仗!全网最大的爆料:GPT-5基石实为GPT-4o。自4o发布之后,内部预训练屡屡受挫,几乎沦为「弃子」。
OpenAI核心预训练,接连翻车?
传言称,GPT-5的基石仍是GPT-4o,且GPT-4.5之后的预训练版本,都被OpenAI放弃了!

文章中,高级分析师强调:谷歌正手持TPUv7这把利剑,向英伟达王座发起冲锋,或将终结CUDA护城河。
众所周知,OpenAI全栈模型是在纯英伟达GPU上炼出的。
然而,圈内人的焦点,大都放在了大模型「推理」和「后训练」的硬件之上。
殊不知,没有前沿模型的预训练,一切皆是「无米之炊」。恰恰这一环节,成为了AI硬件里最难、最耗资源的一关。
如今,一个不为人知的内幕爆出了:
事实证明,谷歌TPU彻底经受住了这一考验;
相较之下,自2024年5月GPT-4o诞生之后,OpenAI的预训练却毫无进展.....

GPT的预训练,或许在GPT-4o之后触及了天花板,由此也解释了GPT-5性能未达业界预期的关键原因。
有网友表示,那不正是Ilya离开的时候吗.....
恰在昨天,Ilya最新发文称,Scaling不会停,但某个重要的东西仍然会缺失。

情商,成为了GPT-4.5的关键词。代码虽有提升,但并非主菜。
这一切的一切,从侧面印证了,此前外媒关于「Orion遇挫」爆料的准确性——
LLM有提升,但不大。

OpenAI主动放弃了这一范式,为劲敌让出了一条速通道。


据泄露的内部备忘录,奥特曼坦言:「近期, 从各方面来看,谷歌在大语言模型表现出色」,特别是预训练。
这番表态标志OpenAI的重大转变——它终于承认,一个重新崛起的竞争对手与逐渐降温的企业需求,已彻底打破了其「天下无敌」的光环。
所谓预训练,是训练生成式AI模型(无论是文本还是图像)过程中的第一阶段。在这一阶段,研究人员会用网页等大量数据「投喂」模型,让它掌握数据之间的各种关联。

这让不少AI研究者颇感意外——
毕竟,OpenAI去年曾屡屡碰壁,而谷歌自己过去也曾陷入瓶颈。

据知情人士透露,该模型的设计目标之一,就是专门修复OpenAI在预训练过程中遇到的种种「疑难杂症」。
OpenAI:内部的风向变了GPT-5发布的实质是什么?
对现有ChatGPT用户而言,GPT-5是个好消息,但这并未开启新时代。
它只是进化历程中的一小步,而非革命性飞跃。
既然更多算力通常意味着更强性能,为何OpenAI会反其道而行?这对未来模型发展意味着什么?
在与a16z合伙人Martin Casado对话中,OpenAI平台工程负责人Sherwin Wu,深度拆解了OpenAI当前平台架构、定价逻辑与未来方向。

在这次访谈中,他们深入探讨了为何开发者往往会长期依赖某个「值得信赖」的模型系列,信任感是如何建立的,以及为什么行业已经逐步放弃了「一个模型通吃所有任务」的幻想。
Sherwin还讲解了从提示词工程到上下文设计的演变过程,以及企业如何借助OpenAI的微调(fine-tuning)和RFT API,利用自有数据定制模型行为。
共识已变几年前,OpenAI内部认为:未来会有一个「统治一切」的超级模型。但现在行业共识已经转变为「模型的专业化和多样化」。
虽然会有强大的通用模型,但也需要针对特定任务(如编程Codex、视频Sora)的专用模型。

文本、图像、视频背后的技术堆栈各不同。目前,在后台。这些模型往往是分开优化的独立系统,很难简单地「一锅炖」。
顺便提一句,正是DALL-E 2的出现让Sherwin决定加入OpenAI,因为那是他第一次感受到AI的魔力。
参考资料https://the-decoder.com/as-google-pulls-ahead-openais-comeback-plan-is-codenamed-shallotpeat/
https://x.com/jasondeanlee/status/1994616079751286855?s=20
https://x.com/koltregaskes/status/1994836507694436628?s=20
本文来自微信公众号“新智元”,作者:KingHZ 桃子,36氪经授权发布。
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263660 电子证书1157 电子名片68 自媒体105789