芯片厂商的下一个风口:AI+场景革命?

发布时间:2024年05月08日 来源:芯师爷 作者: Kelvin 浏览量:43

2023年是大家公认的AI元年,大量的AI大模型、AI应用问世。随着人工智能和深度学习的迅速发展,业界已达成共识——终端与AI的融合是大势所趋。不少人认为,2024年或将是“AI硬件元年”。

当狂热的情绪从生成式AI领域蔓延至各类终端场景,人们开始期待看得见、摸得着的“实体”产生质变,“AI+可穿戴设备”、“AI+PC”、“AI+手机”等概念火爆硬件产业链。但热潮底下,真正变革性的应用似乎还有待探索。

尚未成熟的“AI+”目前在上述领域的应用表现,也让人不禁深思,这个“加”真的“加上了”吗?这股人工智能的风,究竟是盘活市场的概念炒作,还是真的吹到了硬件?AI+场景革命,会是芯片厂商的下一个风口吗?

今天,我们试图探讨:人工智能涌向各类终端应用场景后,产业链上的各类硬件将会朝着何种方向前进?身处不同赛道的厂商们,是否已找到了相对清晰的发力方向,亦或者仍在微光中摸索未来的轮廓?

  • Part 01 AI+可穿戴设备:传感器

  • Part 02 AI+PC:处理器/计算外围芯片/存储器

  • Part 03 AI+手机:SoC芯片/UFS 4.0闪存

PART 01

AI+可穿戴设备

传感器

在诸多人工智能与硬件融合的场景中,可穿戴设备被认为是创新空间最为广阔、最有可能催生出全新硬件品类的赛道。

事实也确实如此,ChatGPT引发AI狂潮后,仅仅一年多时间,市面上就涌现出一大批全新的可穿戴AI产品,从形态、功能等层面探索“AI+可穿戴设备”的方向:搭载ChatGPT表盘的智能手表、集成了多模态AI助手的AR眼镜、深度融合AI的智能戒指、号称“AI时代iPhone”的AI Pin、聚焦在对话场景的AI吊坠……

但遗憾的是,尽管智能穿戴全产业链都在积极融入AI技术,但真正具有颠覆性的硬件还未被找到。就算是前段时间被《时代》杂志评为2023年最佳发明之一的AI Pin,也在正式发货后翻车了,用户们的吐槽重点集中于“反应速度过慢、手势识别不准确、发热严重”等问题。

实际上,这也是其他智能可穿戴设备所苦恼的技术难点。从技术层面来看,要实现AI技术的深度融合及应用,可穿戴设备必然需要更强的数据感知、采集、处理和交互能力,而这些需求共同指向了一项技术——传感器技术

在过往的可穿戴设备解决方案中,传感器仅负责感知与采集信号,计算处理环节则交由MCU,MCU分析后产出控制信号,复杂运算则上传云端处理。但随着AI技术的融入,越来越多厂商开始尝试不依赖MCU,让搭载于可穿戴设备的传感器更加智能,承载部分计算处理的功能。

“在传感器本身做一些简单的处理,实现一些既定的功能,这是必然的趋势。”Bosch Sensortec亚太区总裁王宏宇表示:“不能说所有的传感器都需要智能,但为了提升更好的用户体验,我们认为传感器未来是要有一定的计算能力、一定的思考能力,即具备智能的功能。

而在AI处理能力部署的位置上,许多厂商都会选择让边缘AI在MEMS上进行边缘端处理。“对于智能可穿戴设备,边缘AI是很好的选择。”Bosch Sensortec应用工程总监Ruschmeier Frank指出,边缘AI与传感器的融合处理,可以形成分布式的智能支持,使设备在几毫秒内作出决策,从而更好地实现及时响应。

另一方面,数据传输的选择、数据处理及训练也成为了传感器的重要演进方向。不同行业对数据传输的需求各异,例如游戏行业就特别强调数据传输的实时性,绝不允许出现任何延迟。Ruschmeier Frank认为,传感器制造商在未来需要深入思考并解决两个核心问题:第一,应该传输哪些数据;第二,需要传输多少数据,才能确保满足特定行业的需求。

部分厂商不仅仅满足于提供传感器本身,更是开始构建智能传感器的解决方案平台,让可穿戴设备厂商的开发者能够在传感器本身植入一些本地AI算法。传感器厂商将一部分训练的工作交给终端客户,既可以在离线的时候训练传感器,也可以在在线的时候通过传感器、通过算法的融合去训练。

此外,传感器技术的发展还聚焦于降低功耗提供定制化服务。目前,智能可穿戴设备行业正致力于寻找最适合集成AI技术的产品形态,这导致了对传感器需求的多样化。在激烈的市场竞争中,打造具有差异化的产品特性至关重要。因此,根据客户需求进行定制化处理,已成为传感器制造商普遍面临的挑战。

PART 02

AI+PC

处理器/计算外围芯片/存储器

2023年9月,英特尔首次提出了“AI PC”概念,将其誉为PC产业20年一遇的重大革新。此后,PC厂商和芯片厂商开始对此大举发力,相继推出了一系列相关产品。

IDC预测,AI PC在中国PC市场中新机的装配比例将在未来几年中快速攀升,将于2027年达到85%,成为PC市场主流。

事实上,早在AI PC概念面世之前,市场部分产品已嵌入了一些AI技术,比如AI降噪、AI绘图等。但时至今日,市面上的AI PC所具备的功能,和市面上的AI应用并没有本质差别,且供应链对此概念尚未形成统一明确的定义。

联想与IDC联合提出,AI PC是一个以AI大模型、用户个人数据、本地AI算力及AI生态等软硬件的结合体,并定义只有具备五个特征的产品才算是真正的AI PC。华为则认为AI PC是“非常不错的端侧大模型+端侧的数据整合和融合能力+端侧和云侧算力的整合”,即万物互联和端云协同。


图源:联想与IDC的《AI PC产业(中国)白皮书》

尽管定义上尚未达成一致,但业界普遍认可,端侧AI部署所带来的零部件规格升级将是必然趋势。“AI PC的硬件要求必然越来越高,无论是核心的处理器芯片,还是EC等计算外围芯片,对高算力、存储容量、低功耗等需求都会不断提升。”芯海科技副总裁杨丽宁指出。

因此我们会看到,这波AI PC浪潮中,芯片公司的吆喝声最为响亮。英特尔CEO帕特·基辛格喊出“我们正迈向AI PC的新时代”;英伟达CEO黄仁勋更是宣称“PC行业正迎来一次重生的机遇”;AMD董事长苏姿丰甚至将公司Slogan从“AMD Yes”更新为“AI PC Yes!”。

AI PC产业链的第一批受益者也是他们。为了解决AI本地化运行的首要需求——“算力”,处理器成为了PC产业第一波AI化的核心硬件。

处理器

NPU(神经网络处理器)是第一个卖点。以英特尔、AMD、高通为代表的处理器大厂,纷纷推出了支持本地AI大模型运行的AI PC处理器,并都着重强调NPU性能。

例如,英特尔在2023年12月发布了酷睿Ultra处理器,该处理器首次集成了NPU,能够支持高达200亿参数的大模型在终端设备上运行;高通的骁龙X Elite处理器,号称“为AI PC量身定制”,其NPU的算力高达45 TOPS,能够本地处理超过130亿参数的大模型;

AMD则推出了全球首款集成NPU的x86处理器,并宣布其下一代“Strix Point”处理器将重点强化NPU性能,预计AI性能将实现超过3倍的提升;即使是以自研芯片为卖点的苹果,也被曝M4芯片将主打AI性能,重点放在AI运算核心数、效能及NPU数量。

从处理器功能来看,CPU擅长顺序控制,适用于需要低延时的场景,同时也能够处理较小的传统模型,如卷积神经网络或特定大语言模型;GPU更擅长处理高精度格式的并行任务,例如对画质要求极高的视频和游戏。相比之下,NPU采用数据驱动并行计算架构,模拟人类神经元和突触,特别擅长处理视频、图像等海量多媒体数据,可以快速处理AI算法和大数据集。

针对PC端的计算需求,以CPU为核心的算力架构在处理AI神经网络所需的并行计算任务时显得力不从心,且成本效益不高。因此,采用“CPU+GPU+NPU”的异构计算方案已成为业界的主流选择。随着人工智能的日益重要,未来处理器市场可能会形成CPU与NPU并驾齐驱的局面。

同时,AI PC的浪潮也再次卷起了X86和Arm的架构之争。Arm架构凭借其在低功耗、长续航、AI加速和定制化方面的优势,自2023年起吸引了英伟达、英特尔、高通和AMD等行业巨头的投入,他们计划最早在2025年推出基于Arm的PC处理器。此外,微软与高通也展开了合作,致力于将x86架构的Windows核心功能移植到Windows on Arm上。

计算外围芯片

“AI PC至少需要经历三个阶段。”芯海科技副总裁杨丽宁认为,当下PC产业链的硬件升级尚且处于第一个阶段,即以处理器为核心的AI化。下一阶段则是AI应用迎来井喷式发展,从而带动PC生态,但同时海量应用场景也会逐步加重处理器的负荷。

“当负荷足够重时,就需要进入第三个阶段,即必须将一些智能化任务外延给计算外围芯片,这是必然的趋势。而计算外围芯片的未来形态,我们始终认为会朝高性能、高安全、高算力的方向发展。”

从PC硬件的角度来看,最核心且最适合承担PC处理器外延AI功能的就是EC芯片。“2023年12月,我们提出了AI EC芯片的设想,并陆续和客户进行了AI EC芯片的探讨。尽管目前还处于初步产品定义阶段,但已探索出了更多的可能性,比如承担AI PC外部的智能温控、智能语音识别、身份认证等重要的人机交互功能。”杨丽宁分享到。

以语音唤醒功能为例,当计算外围芯片具备分布式智能支持时,处理器甚至解码芯片都可以保持关闭状态,仅激活传感器的接收端。只有在AI完成人声检测后,才会激活编解码器进行深度识别,此时才会采集声音并进行初步处理,随后唤醒CPU进一步处理。他强调:“只有这种分级分段式的智能识别机制,才能真正把PC整体功耗降下来。”

因此,杨丽宁赞同王宏宇的观点,认为在AI处理能力部署方面,AI PC的外围计算芯片应与智能穿戴设备的传感器一样,具备一定的智能处理能力,以实现分布式智能支持,并与边缘AI进行融合处理。

AI PC未来会形成不同层级的算力网络,比如云端的大模型、端侧处理器的中等模型、边缘侧EC芯片的小模型、以及传感器上的更小模型,每个层级所承担的功能以及传输、计算数据的量级都会有较大的差异。且不同层级之间,还会存在着自上而下或自下而上的,模型的训练、优化和更新。”

存储器

随着算力的提升,AI PC对存储器提出了更高要求。为了有效处理AI产生的大量数据和复杂指令,特别是在运行大语言模型等应用时,内存大小决定模型上限,因此PC存储产品性能和容量必须同步升级。

对于AI PC的存储配置,微软计划在Windows12为AI PC设置最低门槛——需要至少40TOPS算力和16GB内存。英特尔中国区技术部总经理高宇则认为,未来的AI PC的标配是32GB内存,2025年将看到搭载64GB内存的PC开始出货。

尽管目前业界对此还没有统一的标准,但可以肯定的是,AI PC对单台PC的DRAM和NAND Flash容量需求呈现出上升趋势。其中,DDR5内存和QLC NAND SSD正成为满足AI PC存储需求的关键技术。

DDR5可以提供更快的数据传输速率、更大的内存容量、更低的功耗以及更高的系统性能,这些都是AI PC在执行数据密集型任务时所必需的关键特性。随着AI PC渗透率提升,预计将推动DDR5子代迭代以及增加更高速率DDR5内存的需求。目前,三星电子和SK海力士正在计划增加DDR5内存的产量,而美光也宣布将加快向DDR5内存的过渡。

“QLC NAND是解决容量问题的重要路径。”美光企业副总裁暨存储部门总经理Jeremy Werner指出,QLC技术可以做到非常低的产品成本,并不断提升存储容量;在性能上,既可以确保产品的功耗维持在非常低的水平,同时在需要调取相关数据进行读取和写入的时候,又能够迅速唤醒整个系统。

美光估计,目前QLC NAND SSD导入PC渗透率约20-25%,2024年将可望加速成长推动,AI PC将带动SSD搭载容量快速提升,朝向TB等级需求迈进。

PART 03

AI+手机

SoC芯片/UFS 4.0闪存

AI手机的概念其实并不新鲜,其流行可追溯至2017年。那一年,苹果发布了搭载A11芯片的iPhone 8,引领了将专用NPU集成到SoC中的潮流。荣耀View 10甚至打出了“你的第一台AI手机”口号,卖点是搭载了海思麒麟970。

据中国电信2018年发布的《AI终端白皮书》,当时的AI手机被定义为搭载AI芯片、能运行AI应用,具备人脸识别、语音助手、场景识别、系统优化等功能。

到了2024年,AI手机的概念再次成为焦点。与以往不同,这次厂商们将搭载大模型功能的手机称为“AI手机”。一时间,所有主流手机厂都推出了自家的“AI手机”及端侧大模型:华为盘古大模型,OPPO安第斯大模型,vivo蓝心大模型,小米MiLM-6B,三星Galaxy AI……

但手机上有大模型,就是AI手机吗?这一点在手机厂商之间也没有达成共识。OPPO将此视为手机行业的第三个重大变革阶段,并宣布“OPPO正式迈入AI手机时代”;魅族采取了更为激进的策略,宣布“停止制造传统手机,All in AI”,并将新发布的魅族PRO 21称为“开放式AI终端”;

另一方面,小米集团总裁卢伟冰持谨慎态度,他认为“AI是未来,是无处不在的能力,但AI手机是噱头”;荣耀CEO赵明更是直言不讳“能够提供生成式AI能力的手机并不等于AI手机,甚至相去甚远。”

那么,究竟什么是AI手机?这个问题至今还没有结论。IDC和OPPO联合发布的《AI手机白皮书》,用4种能力定义了“AI手机”——算力高效利用、真实世界感知、自学习和创作能力。Counterpoint和联发科发布的《生成式AI手机产业白皮书》则提出:生成式AI手机是利用大规模、预训练的生成式AI模型,实现多模态内容生成、情境感知,并具备不断增强的类人能力。

硬件方面,Counterpoint提出5点规格:基于领先工艺和先进架构设计的移动计算平台,拥有集成或者独立的神经网络运算单元(如APU/NPU/TPU),大容量和高带宽的内存,以及稳定和高速的连接,硬件级和系统级的安全防御。

在此,我们重点探讨两类硬件:SoC芯片和UFS 4.0闪存。

SoC芯片

正如AI PC一样,AI手机面临的首要挑战也是提升算力。Counterpoint估算显示,2027年生成式AI手机端侧整体AI算力将会达到50000EOPS以上。因此,在当前阶段,手机SoC芯片的性能提升仍是关键。

图源:《生成式AI手机产业白皮书》

目前,在手机SoC领域,高通、联发科和苹果是三大主要竞争者,它们都在各自的SoC中集成了多个不同的处理器单元,包括CPU、GPU、DSP,以及APU/NPU等独立的AI计算单元,专门负责处理重载的AI任务。

其中,联发科主打“全大核CPU架构+硬件生成式AI引擎”,其最新推出的天玑9300+在端侧支持AI推测解码加速技术,支持主流的生成式AI大模型,同时兼容Al框架ExecuTorch。

高通骁龙8 Gen 3则号称“专为生成式AI设计”,将Hexagon DSP升级为Hexagon NPU,融合调度各个单元的算力,支持在终端侧运行高达100亿参数的生成式AI模型。

作为多代最强手机SoC的推出者,苹果的AI手机SoC方案虽然尚未揭晓,但已经激发了业界和消费者的期待。

Counterpoint判断,未来,专用AI计算单元和异构计算架构将共存于手机SoC中,这也意味着,不同运算单元之间通信带宽的重要性将日益凸显。

UFS 4.0闪存

同样的,AI手机也面临着存储容量和速率的挑战。为了适应端侧AI大模型的需求,传输速度更快、功耗效率更优的UFS 4.0闪存已成为旗舰手机的标配。

UFS是一种为计算和移动系统设计的高性能接口,它通过高速串行接口和优化的协议显著提升了吞吐量和系统性能。其全双工接口支持同步读写操作,进一步提高了数据传输的效率;双通道的数据传输,增加了整体的吞吐量。

2022年8月,JEDEC推出了UFS 4.0标准,理论上其传输速率可达4640MB/s,是UFS 3.1的两倍,是eMMC的十倍以上,同时功耗降低了46%,存储容量高达1TB,满足了AI手机对存储容量、运行速度和电池续航的要求,可以实现更流畅、更即时的人机交互体验。

而在UFS 4.0基础上,存储厂商也在积极进行升级迭代。例如,美光推出了增强版UFS 4.0移动解决方案,与前代UFS 3.1相比,生成式AI应用中的大语言模型加载速度可提高40%。铠侠发布了第二代UFS 4.0,相比第一代产品,提升了18%顺序写入性能、30%随机写入速度和13%随机读取性能,并支持高速链路启动序列(HS-LSS)特性,将启动时间缩短70%。三星也在计划推出UFS 4.0 4通道产品,据称其传输速度和功耗效率相较UFS4.0会有两倍的提升。

同时,业界正在积极参与UFS 5.0标准的讨论,这预示着未来AI手机的大模型载入时间有望进一步缩短。当然,UFS 4.0的应用范围不仅限于手机,还扩展到了虚拟现实和自动驾驶等需要处理大量数据的场景。

PART 04

还在等待

杀手级应用及颠覆性时刻

回到开头的问题,随着AI技术向各类终端应用场景的广泛渗透,产业链中相关硬件的发展方向已经出现雏形,但尚未完全明确。尽管如此,各大厂商正基于各自的理解,积极地与产业链上下游讨论、碰撞,不断探索更多可能性,推动硬件之外的创新。

观察“AI+可穿戴设备”、“AI+PC”、“AI+手机”三大场景,我们可以发现,尽管不同形态的AI终端产品对AI性能、功耗、精度的要求各异,但它们对硬件的感知能力、计算力、存储容量、智能化水平和数据安全性的需求趋势是一致的。

同时,如何在发挥硬件优势的基础上,串联和构建应用生态,形成不同场景、不同终端间的连接互联,为用户带来更多AI使用场景,也成为了厂商共同的期待与考验。

回到当下,大模型落地仍在探索阶段,AI可穿戴设备、AI PC和AI手机的面貌还很模糊。无论是厂商还是消费者,都在等待真正意义上的杀手级应用以及颠覆性时刻的到来。

但值得庆祝的是,随着人工智能与终端场景的深度融合,AI时代又离我们普通人更近了一步。

期待“AI Everything”的到来!

参考资料:

AI不再是高端手机特有,将向中端手机普及;IT时报

AI浪潮之巅系列:AIPC,AI端侧落地第一站;中金公司

AI PC元年有望开启,领航存储市场步入“价值”长景气新周期;天风证券

AI时代:PC巨头们的未来战争;经济观察报

首款无屏幕AI可穿戴设备Ai Pin评测“翻车”:看不到未来,只有报时功能不出错;澎湃新闻

AI手机,只是噱头?;定焦

免责声明:本文来自芯师爷客户端,不代表超天才网的观点和立场。文章及图片来源网络,版权归作者所有,如有投诉请联系删除。

0 0 0
有话要说  人讨论    43 人阅读
发表

游客

这位投稿者太神秘了,什么都没留下~

超天才网©2017 www.supergenius.cn All Rights Reserved ICP备09005826号 京ICP证130304号

联系我们| 加入我们| 法律声明| 关于我们| 评论互动

超天才网©2013-2014 All Rights Reserved ICP备09005826号 京ICP证130304号

关注我们: