加入星计划,您可以享受以下权益:

  • 创作内容快速变现
  • 行业影响力扩散
  • 作品版权保护
  • 300W+ 专业用户
  • 1.5W+ 优质创作者
  • 5000+ 长期合作伙伴
立即加入
  • 正文
    • 一、AI PC一触即发,半导体大厂瞄准NPU
    • 二、存储器需求上涨,DRAM、SSD等受益
    • 三、结语
  • 推荐器件
  • 相关推荐
  • 电子产业图谱
申请入驻 产业图谱

AI PC一触即发,存储器、NPU等大放异彩!

04/16 10:10
2405
阅读需 9 分钟
加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

AI浪潮正持续改变各行各业,此前历经下行周期的PC市场也开始迎来新的机会。今年以来,无论是美国消费电子展(CES)还是巴塞罗那世界移动通信大会(MWC),AI PC都成为了当之无愧的焦点,包括英特尔、AMD英伟达芯片大厂,以及联想、戴尔、宏碁、华硕、荣耀等下游厂商纷纷推出相关产品,布局AI PC。业界直言,2024年或是AI PC元年,这一风口下,半导体领域NPU以及存储器等有望持续受益。

一、AI PC一触即发,半导体大厂瞄准NPU

ChatGPT的横空出世,让人见识到了AI大模型的威力,随后,AI内容生成逐渐从云端向PC、手机等终端靠近,业界也开始意识到PC将是支持AI大模型的重要平台。毕竟,与手机相比,PC拥有更高存储容量与物理空间,更适合复杂度高、参数规模大的AI大模型。这一背景下,AI PC一触即发。

当前行业对AI PC尚未有明确定义,业界普遍认为,AI PC指的是具备AI加速计算能力或能在本地运行AI大模型的PC产品,其具备深度学习以及自然语言处理等能力,可以完成多种复杂AI任务。

传统PC采用CPU+GPU架构,聚焦本地计算与存储,虽然也能运行大语言模型,但AI时代数据量庞大,传统PC算力不足发展受限。与之相比,AI PC采用的是CPU+GPU+NPU(神经网络处理单元)异构方案,NPU作为AI PC算力中枢,主要用于加速人工智能机器学习任务,包括图像识别语音识别、自然语言处理等,与传统的通用处理器相比,NPU在神经网络计算方面具备更高的计算效率和能耗效率,可以令AI大模型在本地化运行变得更加高效,从而满足PC用户对AI能力的需求。

2023年以来,围绕CPU+GPU+NPU异构方案,AMD、英特尔与高通纷纷展开布局。

AMD于2023年5月推出锐龙7040系列移动处理器,集成了专门负责处理AI任务的NPU,首次将x86平台带向AI时代。同年12月,AMD又推出了锐龙8040系列移动处理器,提供高达16TOPS的NPU算力和高达39TOPS的整体算力,对比上代7040,可带来60%的AI性能提升。

2023年12月,英特尔正式推出酷睿Ultra处理器,基于Intel 4制程工艺以及先进的Foveros 3D封装技术,并采用了英特尔首个用于客户端的片上AI加速器“NPU”,带来2.5倍于上一代产品的能效表现。酷睿Ultra处理器率先在消费级AI PC上应用,随后于2024年3月,英特尔又宣布基于酷睿Ultra处理器的AI特性延展到商用领域。在今年4月举办的Intel Vision 2024创新大会上,英特尔披露了下一代酷睿Ultra客户端处理器家族(代号Lunar Lake),产品AI算力将超过100TOPS,NPU单元提供超过45TOPS的算力,该款处理器将于2024年推出,届时AI PC性能将可进一步提升。

高通2023年也推出了为AI PC设计的处理器产品骁龙 X Elite SoC,采用4纳米工艺,集成了高通定制的 Oryon CPU,AI引擎算力达到75TOPS,NPU提供45TOPS算力,首批搭载骁龙X Elite 芯片的PC制造商包括荣耀、联想、小米等。

除此之外,GPU大厂英伟达也在发力NPU。今年2月英伟达发布RTX 500和RTX 1000系列笔记本显卡,适用于笔记本电脑和移动工作站,上述系列产品全部配备NPU,主要负责处理轻型AI任务。

二、存储器需求上涨,DRAM、SSD等受益

“来势汹汹”的AI PC浪潮,推动了存储器市场需求上涨,也对存储器性能、容量、功耗等方面提出了更高的要求。

为支持AI大模型运行,AI PC需要有足够大和足够快的内存。与DDR4相比,DDR5内存具有更高的性能、更低的功耗和更大的容量,因而有望在AI PC时代下得到快速发展。

微软针对AI PC的规格要求来看,DRAM基本需求为16GB起跳,不过16GB可能难以满足AI大模型海量数据需求。近期,英特尔中国区技术部总经理高宇对外表示,未来AI PC的入门级标配将是32GB内存,16GB内存将面临淘汰,预计在明年,64GB内存的PC将开始进入市场。

TrendForce集邦咨询认为,AI PC将有机会带动PC DRAM的位元需求年成长,后续伴随着消费者的换机潮,进而加大产业对PC DRAM的位元需求。TrendForce集邦咨询预期,今年LPDDR占PC DRAM需求约30~35%,未来将受到AI PC的CPU厂商的规格支援,从而拉高LPDDR导入比重再提升。

值得一提的是,原厂正开发LPCAMM内存,具备高带宽、低功耗、大容量、模块化设计特点,有望在未来更好助力AI PC发展。

美光科技今年1月推出了业界首款标准低功耗压缩附加内存模块(LPCAMM2),采用LPDDR5X DRAM,与SODIMM产品相比,能在网页浏览和视频会议等PCMark?10重要工作负载中将功耗降低高达61%,性能提升高达71%,空间节省达64%。LPCAMM2提供从16GB至64GB的容量选项,该模块已出样,计划于今年上半年量产。美光表示,LPCAMM2将为具备AI功能的笔记本电脑提供更强性能,且内存容量可随着技术和客户需求的发展而不断升级。

闪存领域,SSD是PC必不可少的存储介质,AI PC需要更高性能、更大容量以及更低功耗的SSD。业界认为,PCIe 5.0具备高速低延迟的性能,将更适合AI大模型时代数据中心的需求,因此PCIe 5.0 SSD将大有可为。

围绕AI PC,已经有存储厂商推出相关SSD产品。今年3月,SK海力士正式发布AI PC端高性能消费级SSD新产品PCB01,将在上半年内完成开发,并将于今年内正式推出。该款产品采用PCIe 5.0接口,连续读取速度可达到14GB/秒(千兆字节),连续写入速度为12GB/秒。相较于上一代产品,PCB01速度提升了2倍,相当于可在1秒内实现加载需要用于人工智能学习和推理的大型语言模型;功耗效率提升了30%,可有效管理大规模AI计算的功耗需求。

三、结语

随着生成式AI技术不断迭代,应用从云端扩展至终端,AI与PC紧密结合已经是大势所趋。AI PC风口下,产业迎来新一轮发展机会,半导体厂商们,你们准备好了吗?

推荐器件

更多器件
器件型号 数量 器件厂商 器件描述 数据手册 ECAD模型 风险等级 参考价格 更多信息
SFH756V 1 Avago Technologies FIBER OPTIC TRANSMITTER, 10Mbps, THROUGH HOLE MOUNT, PLASTIC PACKAGE-4
$13.92 查看
TLE6250GV33XUMA1 1 Infineon Technologies AG Interface Circuit, BICMOS, PDSO8, GREEN, PLASTIC, SOP-8

ECAD模型

下载ECAD模型
$1.22 查看
FOD817C300W 1 Fairchild Semiconductor Corporation 4-Pin DIP Phototransistor Optocouplers, 4LD, MDIP, .300" WIDE, 10.16MM LEADSPREAD FORM,OVER-UNDER, 2000/BOX
$0.23 查看

相关推荐

电子产业图谱

DRAMeXchange(全球半导体观察)官方订阅号,专注于半导体晶圆代工、IC设计、IC封测、DRAM、NAND Flash、SSD、移动装置、PC相关零组件等产业,致力于提供半导体产业资讯、行情报价、市场趋势、产业数据、研究报告等。