> 自媒体 > (AI)人工智能 > 金钟:OpenAI大内斗,对中国AI大模型发展有哪些启示?
金钟:OpenAI大内斗,对中国AI大模型发展有哪些启示?
来源:观察者网
2023-12-01 21:29:19
587
管理

【文/观察者网专栏作者 金钟】

相信大家这几天已经吃饱了关于美国科技新星企业OpenAI内部人事斗争的大瓜了。短短几天内,公司创始人阿尔特曼被董事会开除,跳槽入职微软,最后再胜利归来,驱逐了其他董事会成员。剧情一波三折,演员表现自然,台词真情投入,好莱坞大片也不过如此。

11月23日又有爆料称,阿尔特曼被解雇之前,几名研究人员向公司董事会发出了一封信,警告一项被称为“Q*”的人工智能可能威胁到人类。这封信件也是促使董事会罢免Altman的原因之一。对此,阿尔特曼和OpenAI公司还没有回应,相信未来我们还会看到更多的幕后故事。

抛开八卦不提,OpenAI内部激烈的权力斗争背后是今年以来狂热的AI市场迅猛发展,各方都已经认准了这个利益广阔的投资风口,才导致对行业当前的领头羊企业的控制权进行如此激烈的争夺。

在OpenAI的人事斗争背景下,AI淘金热潮中最关键的“卖铲子”的芯片企业英伟达发布第三季度财报,在AI芯片和游戏芯片需求高涨的推动下,英伟达三季度收入达到去年同期的3倍。但是美国政府最新的芯片禁运命令,将导致相当一部分以前可以出售给中国的芯片将无法继续卖给国内企业。

而对于这些行业来说,他们在应用AI时很有一些共性。

比如说企业训练AI模型的数据往往来自于企业内部,而且格式和语言类型相对标准固定。律师事务所日常面对的法律条款和法律文书,金融企业面对的各种财务报表,IT企业面对的程序代码和技术文档等等,这些数据往往有着相当标准的格式和大量反复使用、定义明确的专业名词。因此,单个企业自身的业务数据库从数据量到语言复杂程度上,都远远小于整个互联网上几十亿网民创造出来的繁杂内容。

另一个应用特点则是企业内部用户向AI模型提问的问题类型也相对严肃集中,基本局限在技术和业务方面的疑问,不像广大网民对网上已经公布的通用型AI大语言模型五花八门的提问,天南海北无所不包,甚至有人专门选择偏僻晦涩的知识点和逻辑复杂的问题来找乐子。

以上应用场景的差别也带来了一个“to B”和“to C”之间的重要区别:训练数据库之间的量级差距。面向通用场景下的ChatGPT 4大语言模型共有1750亿个参数,训练数据库据说有13万亿个离散文本单元(token)。而英伟达的内部大语言模型公司训练数据则只包含了240亿个token,规模只有ChatGPT 4的0.2%左右。

据说国内目前几个公开测试的大语言模型,训练数据库规模也大多在万亿token以上,已经远远超越英伟达这样的业界龙头企业的需求了。而除了几个互联网平台企业之外,国内大部分企业自身产品研发过程积累的数据量,恐怕没有英伟达这么多。

数据规模和复杂程度在很大程度上决定了训练模型所需算力的多少,而算力需求又很大程度上决定了对于硬件设备尤其是芯片性能的需求。所以,企业内部自用的AI模型所需的算力和芯片性能,也远远不如类似ChatGPT 4这样的通用型模型那么夸张。

国内的AI芯片虽然因遭到禁运而落后于欧美先进水平,导致在运算成本和时间上都比国外训练AI模型花费更高,但是国内企业已经进口的现有AI芯片,包括国内自主设计、制造的AI芯片,已经足以完成这些针对企业内部提高生产效率的专门AI大语言模型的训练和应用。用一个比喻来描述这个现象,游戏玩家们必须要买最新的4090显卡来流畅运行最新的3A大作,因为老显卡往往带不动这些游戏。但如果只是玩一些如仙剑奇侠传1这样的老游戏,显卡对于游戏运行流畅度的影响就不那么重要了,玩家们也没必要一定要去血拼4090。

从英伟达这样的龙头科技企业的投入方向来看,目前AI模型对于生产力刺激最明显最有效的应用方向,依旧是应用在企业内部的这些场景项目。而这些方向也恰恰是用国内算力完全可以实现,受到国外芯片禁运影响最小的应用场景。

当然,这并不是说国内和国外在企业内部AI应用上就没有差距了,从大语言模型软件的开发和调试,以及企业内部数据、知识的整理和将AI模型应用与实际科研结合这些问题上,国内知识密集型企业大多还是落后一些距离,但是相比“to C”的通用消费者应用上,这个方向受到的硬件制约最少,追上国际先进水平的阻力最小,而产生的潜在经济回报却最大。

与“to B”领域的相对乐观前景不同,由于起步晚、财力有限,再加上芯片禁运的影响,国内在大语言模型“to C”的通用性应用上差距更大,短期追赶难度也更高。当OpenAI在刚刚结束的开发者大会上提出要搞应用商店平台,类似十几年前移动互联网刚开始发展时候的苹果应用商城,在形成产业生态和抢占商业应用市场方面占了先河。国内的通用型大语言模型在技术上还落后OpenAI一至两代,加上硬件受限严重,短期内虽然可以抢占国内市场,但是依然无力在国际市场上与国外的厂商进行竞争。

在“to C”领域,目前最现实的策略依然是尽量紧紧跟随,从国外探索验证过的通用领域里面选择商业最成熟的模式再进行投入,这样可以最好发挥有限资本的使用效果。

面对现实,在继续推动国内自身半导体软硬件和设备研发国产化的同时,在知识密集型企业中推动利用专门的AI模型来提高研发效率,是符合中国经济挑战的最有效应对策略。一方面中国产业升级和向高端产品攻关的重任恰好落在这些知识密集型企业身上,如果AI模型的应用可以提升企业研发和生产效率,这就有助于国内加速突破外部封锁,完成产业升级的主要战略目标。另一方面,这些企业开发适合自身的AI模型,本身也会为国内半导体软硬件厂商提供宝贵的需求和产品验证的机会,这和美国各个科技大厂向英伟达下单,为英伟达的产品持续升级换代提供了大量资金是一个道理。

因此,目前在AI产业化的进程上,中国还处在追赶世界先进水平的地位上。面对外部封堵持续升级的现状,最现实有效的从AI发展中获益的方式,恐怕就是加快推动研发AI模型在企业层面的应用落地,切实利用AI促进实体经济的生产力进步,为AI大语言模型的应用从PPT上落地到实际生产研发过程中寻找突破口,这反过来也可以支持AI领域更快更好的发展。

本文系观察者网独家稿件,文章内容纯属作者个人观点,不代表平台观点,未经授权,不得转载,否则将追究法律责任。关注观察者网微信guanchacn,每日阅读趣味文章。

0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
相关文章
NeurIPS 2025放榜:阿里Qwen门控注意力获最佳论文
嘻疯 发自 凹非寺量子位 | 公众号 QbitAI刚刚,NeurIPS 2025最佳论文奖、..
阿里千问开源4款Qwen3.5小尺寸模型,满足资源受限至轻量应用不同需求..
【太平洋科技快讯】3月3日消息,阿里千问近日开源四款Qwen3.5更小尺寸模..
实测Qwen3.6-27B:4分钟做了个跑酷游戏,验证码识别正确率超90%..
它用时四分钟左右,写完了1200多行代码。从实测结果来看,游戏设计与前端..
阿里亲身入局具身智能!Qwen内部组团,通义千问技术负责人带队..
衡宇 发自 凹非寺量子位 | 公众号 QbitAIQwen团队内部组建了一个全新的具..
Qwen紧追OpenAI开源4B端侧大模型,AIME25得分超越Claude 4 Opus..
衡宇 发自 凹非寺量子位 | 公众号 QbitAI三天不开源,Qwen团队手就痒。昨..
Qwen又立功,全球最快开源模型诞生,超2000 tokens/秒
全球最快的开源大模型来了——速度达到了每秒2000个tokens!虽然只有320..
激活170亿参数 Qwen3.5实测 重构大模型性价比逻辑
2月16日Qwen3.5正式开源,以3970亿总参数、仅170亿激活参数的架构实现性..
Qwen最新闭源模型曝光!实测夸克“对话助手”
10月23日,阿里旗下夸克正式上线“对话助手”。从界面上看,它像是“塞进..
林俊旸离职后,Qwen的变与不变
来源:视觉中国OpenAI早期也曾采用垂直整合的架构模式,并集中资源完成了..
关于作者
吴月(普通会员)
文章
1982
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40418 企业收录2986 印章生成263660 电子证书1157 电子名片68 自媒体106516

0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索