> 自媒体 > (AI)人工智能 > Intel酷睿Ultra 285H AI体验:DeepSeek 14B模型每秒近10 Tokens OpenVINO成制胜关键
Intel酷睿Ultra 285H AI体验:DeepSeek 14B模型每秒近10 Tokens OpenVINO成制胜关键
来源:驱动之家
2025-09-20 14:16:54
179
管理

一、前言:哪个发烧友能抵挡本地部署大模型的诱惑

今年年初,横空出世的DeepSeek AI大模型火爆出圈,一夜过后人人都在谈论DeepSeek大模型,而已经进入第二年的AI PC方面,自然也不会落后。

相对于直接付费使用成熟的AI应用,DeepSeek完全开源的特性也让更多发烧友乐于在本地部署,充分利用越发强大的硬件AI性能。

但是对于主流的笔记本平台,在本地运行DeepSeek大模型,效果如何呢?

我们找来了当下比较新的轻薄本,Intel平台和AMD平台各一台,测试一下不同平台在本地运行DeepSeek大模型的表现。

需要注意的是,Intel酷睿Ultra 9 285H处理器的TDP高达45W,AMD锐龙AI 9 HX370处理器的TDP只有28W。

当然,Intel和AMD都允许笔记本制造商根据具体产品设计,在一定范围内设定处理器功耗。

我们这次准备的两台笔记本,Intel方面是一台轻薄本,实际烤机测试CPU稳定释放功率只有35W左右,而AMD方面是一台全能本,还搭载了一块NVIDIA RTX 4060Laptop独立显卡(已禁用),拥有更强劲的散热配置和功耗表现,实际烤机测试中可以稳定释放高达60W的功率。

笔记本平台并不像台式机主板一样可以方便地在BIOS中对CPU功耗性能等进行限制,所以这个测试并不是一个非常严谨的性能对比测试,只能说分别测试一下各自的表现情况和我们的使用体验,请读者朋友们自行比较。

三、DeepSeek-R1模型测试:iGPU算力也可流畅运行本地部署的14B模型

Ollama是一个开源的大语言部署服务工具,只需iGPU即可部署大模型。

我们这次测试就是基于Ollama框架,在本地部署DeepSeek-R1的蒸馏版模型,测试使用iGPU的运行效率。

Ollama作为一个开源软件,功能依赖全球开发者的共同维护,自然也会有一些特别的分支。

我们此次测试,专门找来了针对 intel 推理框架和AMD ROCm推理框架分别优化过的Ollama版本,更能体现Intel和AMD硬件在各自最佳环境下的运行效率。

(左侧为Intel酷睿Ultra 9 285H运行截图,右侧为AMD锐龙AI 9 HX370运行截图)

为了避免图形UI造成的延迟和对性能的影响,我们直接在命令行中同DeepSeek-R1:14B模型进行对话,我们准备了4个问题,分别是:

你是谁?

最简单的问题,用来检查DeepSeek大模型是否正确工作。

模仿李白的风格,写一首七律·登月。

简单的文字写作能力。

一亿之内最大的质数是多少?

数学能力其实不是DeepSeek这种推理模型的长处,但也可以测试一下。

帮我写一份5月份前往南疆的旅行攻略。

对DeepSeek的语义理解/推理能力和文字写作能力进行测试。

同样我们对DeepSeek-R1大模型另外两个更小规模的蒸馏版本7B和1.5B,也都进行了测试,测试成绩汇总如下:

模型规模越小,执行速度越快,但相对的AI智力下降也非常明显,经常会出现无法回答或者先入死循环的状态。

14B规模的模型的反应速度和回答准确率表现都比较优秀,在测试平台上运行效果非常好(但数学问题的回答准确度还是不太行)。

从测试结果上来看,Intel酷睿Ultra 9 285H在针对Intel优化过的Ollama上的每秒token输出更高一些,在14B和7B规模模型中,对比AMD锐龙AI 9 HX370都有40%左右的领先,而在1.5B规模模型中,双方性能表现都很强,但Intel平台仍有5%左右的优势。

当然这个测试也并不能代表Intel处理器在AI性能上就一定比AMD处理器强很多,每秒输出的Token数也不是决定AI性能表现的唯一评价维度,但至少从实际测试的结果上来看,针对Intel 优化过的框架确实拥有更好的支持,让Intel处理器的性能表现更强。

四、AI大模型能力测试:Deepseek-R1:14B模型编程已经实用

我们也测试了一下Deepseek-R1:14B模型在Intel酷睿Ultra 9 285H处理器的轻薄本上实际表现,测试一下使用本地Intel iGPU算力来编程,效果如何。

按照Deepseek给出的操作说明,我们很容易就可以把这个由AI写出来的贪吃蛇游戏运行起来,虽然比较简陋,但基本的游戏功能已经没有问题了。

Intel酷睿Ultra 9 285H处理器搭配Deepseek-R1:14B模型,能力已经具备一定实用价值了,已经可以帮助用户提高编程速度和工作效率了。

五、总结:Intel 全力推广OpenVINO 效果已经开始展现

得益于DeepSeek的开源,让本地部署AI大模型变的前所未有的容易,即使是在轻薄本这种并不以性能见长的移动平台上,运行本地大模型也能有相当不错的性能表现。

在我们的测试中,Intel酷睿Ultra 9 285H处理器展现出相当强劲的实力,使用开源部署工具Ollama(Intel优化版),在本地部署DeepSeek-R1:14B,仅依靠CPU的算力,就可以实现接近10 Token/s的输出速度,比AMD锐龙AI 9 HX370处理器的输出高了40%以上,而且这个成绩还是在CPU实际功率相差接近一倍的情况下得出的。

这也从一个侧面说明,AI大模型的高效运行,不仅仅是硬件性能的问题,软件的适配同样重要,甚至比硬件性能更重要一些。

就像谈论AI算力,NVIDIA是个绕不开的名字一样,NVIDIA的CUDA和硬件相辅相承,共同构成了宽阔的护城河,Intel和AMD作为追赶者,必须付出巨大的努力和代价才有机会在这个领域挑战NVIDIA的地位。

Intel现在不遗余力地推广OpenVINO,我们已经看到了结果。也许硬件的真实性能强弱难以量化比较,但从我们这次的体验来看,Intel酷睿Ultra 9 285处理器在用户实际使用中,确实能发挥出比AMD锐龙AI 9 HX370处理器更强的性能。

再加上Intel连续举办的人工智能创新应用大赛,用真金白银鼓励开发者开发基于OpenVINO的AI应用,Intel平台的AI应用正在迎来一个百花齐放的时代。

DeepSeek大模型极大地抹平了桌面平台面临的算力鸿沟之后,AI应用的丰富程度,专用推理架构的普及程度,硬件性能的发挥水平,共同决定了谁才是AI PC时代的王者。

Intel现在在全力推广OpenVINO,我们也不希望AMD被拉开太远,NVIDIA算力霸权的挑战者越多越好。

0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
相关文章
新大洲本田更新两款150通路车型,均配备ABS系统续航650KM+..
这两款车型型号分别为CBF150E和CBF150RE,除了外观风格上的不同之外,整..
10万元全款购买本田电动汽车,次日充电后行驶现乱码,故障频发难正常使用..
“花10.5万元全款购买的本田电动汽车,没想到第二天就出故障,充电后行驶..
本田研发回归!
近日,本田正式发布2025财年前三季度(2025年4-12月)财报。数据显示,公..
预算18万买合资SUV,大众途观L Pro和本田CR-V差距在哪?你选谁?..
前两天有个粉丝私信我,说预算18万左右,想买台合资SUV,看上了大众途观L..
新车|竞争本田CR-V,新款起亚狮铂拓界量产版实车,一季度内上市..
文:懂车帝原创 张凯[懂车帝原创 产品] 日前,我们拍摄到了新款起亚狮铂..
广汽本田用雅阁飞度分层营销,是为应对新能源竞争吗?..
是的,广汽本田用雅阁和飞度进行分层营销,核心目的正是为了应对新能源竞..
本田销量腰斩,合资车还在讲省油故事,用户早就不听了..
2020年东风本田卖出超过82万台车,成为合资品牌中表现最好的一个,到了20..
东风本田5年裁撤2000人关停二厂,合资车企转型要付哪些代价?..
合资车企转型需要付出人力裁撤、产能关停、品牌价值稀释等多重现实代价。..
工信部惊现125cc水冷神车!本田这次要颠覆市场?
最近工信部新一批新车公示里,有个125cc的小踏板。五羊本田把原本用在高..
关于作者
感恩的人(普通会员)
文章
1892
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40418 企业收录2986 印章生成263660 电子证书1157 电子名片68 自媒体104037

0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索