过去40年,芯片技术历经巨变。20世纪80至90年代,超大规模集成电路(VLSI)和极大规模集成电路(ULSI)技术为芯片设计奠定了基础,推动晶体管数量每两年翻倍,实现了算力与能效的指数级增长。这一趋势促进了芯片组的小型化,尤其是移动芯片的兴起,使得半导体产业将目光聚焦于移动芯片组。随后在2000年代中期,智能手机的诞生,进一步推动了如今市场上更强大、更复杂的移动芯片——系统级芯片(SoC)的发展。
然而,随着对计算功能与组件需求的增加以及摩尔定律逼近极限,现代SoC设计重新聚焦性能提升与高能效计算的协同实现。AI时代,AI计算工作负载的规模与复杂性都持续攀升,带来了能源消耗激增与成本不断攀升的压力。为此,行业正推动AI领域的高能效计算,覆盖从大型数据中心到边缘设备的所有技术触点。在必要和相关的应用场景中,边缘端处理AI工作负载可优化网络带宽、强化数据隐私、提升用户体验,但也要求在空间和功耗受限的小型设备上实现更高效AI处理能力。
最近,Arm推出了一份报告——《芯片新思维:人工智能时代的新根基》,该报告聚焦四大关键趋势:一是打造专用架构以应对特定工作负载,尤其是AI领域;二是计算密集度提升,能效至关重要;三是安全技术演进,应对AI驱动型威胁;四是软件生态系统在释放芯片潜能中扮演关键角色。
Arm 解决方案工程部执行副总裁Kevork Kechichian表示,随着摩尔定律驱动的传统半导体缩放技术逼近物理与经济极限,产业正加速向定制芯片、计算子系统(CSS)及芯粒(chiplet)等创新方案转型,以突破性能与能效瓶颈。
AI计算的能效与可持续性
挑战首先来自于能效与可持续性。AI工作负载从训练庞大模型到执行复杂推理任务,对能效、可扩展性和成本效益带来重大挑战。
AI计算需求极大,需大量电力支持,且未来将持续增长。从芯片设计的角度来看,能耗主要源于计算和数据传输,还需处理热量冷却。高盛预计,AI将推动数据中心电力需求增长达160%。为降低能源成本,芯片设计正集成优化内存层次结构与协同通信机制,减少数据传输,并利用芯片堆叠、高带宽内存及先进互连技术降低能耗。同时,AI框架和算法也针对每瓦性能和单位成本性能进行微调,实现算力与经济可持续性平衡。
另一方面,针对特定市场需求打造的定制芯片正在成为行业趋势。不仅谷歌、微软,AWS等有自己的定制加速器,中小企业也在积极研发定制芯片。Arm Neoverse CSS经过验证的核心计算功能以及灵活的内存与I/O接口配置,加快了产品的上市进程,在确保软件一致性的同时,保留了系统级优化的灵活性。
先进的封装技术和工艺是近期芯片演进的另一个重要方向,同时也推动了芯粒的发展。这些技术允许多个半导体晶粒的堆叠和互连,在提升性能和能效的同时,开创了现代芯片设计的可能性,如晶粒间接口以及新的 2.5D 和 3D 封装解决方案。芯粒市场的蓬勃发展为定制芯片的崛起铺平道路,从而降低成本,并可利用现有的组件作为芯片的构建模块,加速开发速度并助力企业实现差异化优势。
安全技术的挑战与应对
在AI技术领域,AI驱动的网络威胁日益严峻,能够自我进化、识别系统漏洞并发动复杂攻击。DarkTrace 2024年的一份报告指出,近74%的受访者表示AI驱动的网络威胁对其组织有显著冲击,60%的受访者担心组织未做好充分准备。
Kevork Kechichian表示,“尽管由AI驱动的网络攻击正成为新兴的威胁前沿,行业正在构建多层级的软硬件防护体系,从嵌入在芯片中的加密技术,到经AI强化的安全监测系统,现代SoC架构正不断加固防线,以抵御传统攻击与新一代威胁。”目前,现代SoC 已经集成了复杂的安全机制,如硬件信任根(RoT)、可信执行环境(TEE)、安全内存管理单元(MMU)、安全飞地等。
此外,定制芯片的兴起对安全性提出了更高要求。目前,PSA Certified认证项目已成为安全芯片设计领域的黄金标准,而作为该认证项目补充的物联网平台安全评估标准(SESIP)则为定制芯片提供了安全评估的结构化方法。此外,监管环境如针对车辆网络安全的UNECE R155和针对汽车系统的ISO/SAE 21434标准,也为定制芯片设定了严格的行业特定要求。
芯片设计的变革
在AI技术的推动下,芯片设计领域正经历着前所未有的剧变。这一变革源自AI工作负载激增和半导体缩放技术放缓的双重作用。传统芯片技术在28纳米节点开始遇到瓶颈,在向7纳米及更先进工艺推进的过程中,挑战加剧。进入2纳米及以下的全环绕栅极时代,传统缩放技术的优势变得愈发难以维持,且成本高昂。
尤为明显的是SRAM缩放进程的放缓:从5纳米到2纳米工艺节点,SRAM单元面积并未出现显著缩减,尽管其在功耗和性能方面仍有所改进。此外,如今所谓的“缩放”主要是通过一些被称为“缩放助推器”的结构性创新来实现,诸如连续有源区/氧化扩散区、有源栅极上接触、全环绕栅极晶体管及背面供电技术等,也成为提升晶体管密度的途径。
随着片上内存缩放速度放缓,先进AI工作负载等新型计算范式应运而生,其对内存带宽的需求大幅增长。这一趋势推动了内存架构的创新,包括高带宽存储器(HBM)集成新方案的出现。由此催生的近存计算架构能够帮助减少数据在内存与处理器之间传输所需的时间和功耗。内存也因此成为计算架构中不可或缺的组成部分。
AI 的发展促使芯片设计设计的不断变革。AI工作负载需要针对大规模并行处理和内存带宽优化的差异化架构,推动了包括新型专用加速器、内存子系统创新、能效聚焦及封装与集成方式的演进等。
Kevork Kechichian表示,我们正在见证芯片设计与制造模式的根本性变革——随着新工艺节点需要更紧密的合作,芯片设计与制造之间的传统界限正在逐渐消失。新的时代需要具备创造力、系统级思维,以及对能效的不懈追求。
软件生态的挑战
在软件生态系统需求及AI框架迅速发展的推动下,AI的芯片生态系统正处于持续演进的过程。
当前,将AI模型移植到定制硬件面临成本高、耗时长的挑战。而CPU凭借其广泛的普及性和对大多数AI推理工作负载的良好适配性,广受开发者青睐。CPU的一致性有效避免了定制硬件可能出现的碎片化和低效率问题。此外,AI框架间的互操作性至关重要,CPU的普及性也有助于确保广泛的兼容性。
由于AI开发缺乏标准化实践,大量AI模型仍属于私有模型,这不仅限制了开发者优化性能的能力,也减缓了发展进程。开放标准在打破这些壁垒的过程中发挥了关键作用,它使开发者能够在不同平台之间实现无缝迁移。
为培育一个蓬勃发展的开发者生态系统,企业必须优先通过强大的后端支持来赋能硬件,并积极拥抱不断演进的AI框架。Arm 在报告中给出了四点建议:善用通用工具以简化开发流程,减少开发碎片化;提供预构建的后端支持,通过为定制芯片提供“开箱即用”的兼容性,有助于加快其采用;积极参与开源框架的开发,有助于确保兼容性并避免技术发展停滞不前;最后,随着AI框架的快速演进,保持与最新技术同步对于维持竞争力至关重要。
结语
计算的未来,尤其是 AI 的未来,依赖于不断拓展芯片技术的可能性边界,依赖于软硬件之间的协同。Kevork Kechichian强调,拥抱开放标准、实现互操作性、提供强大工具支持,将加快创新步伐,释放芯片技术与AI框架潜能。
他认为,未来AI芯片解决方案的演进将建立在一个统一、以开发者为中心的生态系统上,注重一致性、易获取性和前瞻适应性。而未来芯片设计的成功将越发依赖于五大关键点:横跨IP提供商、晶圆代工厂与系统集成商的紧密合作,计算-内存-电源传输的系统级优化,接口的标准化,面向特定负载的专用架构,以及能灵活应对新兴威胁的强大安全框架。
655