大模型的能力边界在不断拓宽,主流云端大模型普遍具备了多模态推理能力。技术路线上,也不再局限于算力堆叠,而是探索强化学习、符号推理、类脑计算等新路径。并且,投入更小、更垂直的小模型涌现,为特定领域的应用提供了更高效的解决方案。
与此同时,我国大模型领域仍然存在多方面痛点,例如:云端训练成本高、高端算力存在“卡脖子”风险、优质数据匮乏、人才缺口、AI算法开源生态仍需强化、数据安全和隐私问题等等,仍是市场进一步发展和应用落地的不确定因素。
芯片侧也掀起范式之争。尽管GPU仍是基于Transformer框架及多种AI工作负载的不二之选,不过,近来先有博通AI芯片收入飙升220%、市值首破万亿美元大关,接着寒武纪市值一度突破3000亿、问鼎“AI股王”,业界关于“GPU到ASIC范式大转变”的声音开始不绝于耳。
种种迹象显示,2025年的AI应用市场正处在关键转折点上,商业变现的可能性与不确定性并存。
AI变现,哪些背景和预期?
Arm中国区业务全球副总裁邹挺认为,AI工作负载大幅增加,对计算资源的需求同步激增。同时,AI模型的复杂性和应用场景的多样化导致了能源消耗的增加,特别是AI训练和推理中,需要使用大量能源和电力。因此,整个产业对能效问题表现出了前所未有的关注,行业正在寻求更高性能、更低功耗的解决方案,以应对这些挑战。
Imagination公司产品管理副总裁Dennis Laudick表示,2024 年是边缘AI成为主流的一年。在过去的 18 个月里,围绕基于Transformer框架的模型数量激增,彻底改变了自然语言处理等AI应用的能力。正因如此,使得实时翻译和对话式个人助手等应用能够在消费类设备上运行,而非依靠云端。
中存算董事长陈巍比较关注视频大模型应用的崛起和下沉。在他看来,视频是人类自然交互的主流模式,视频大模型也是通向未来世界模型的必经之路。相对传统的文本类大模型和Chatbot,视频大模型对计算芯片有更高的要求,对传统的GPGPU架构提出了新的巨大挑战。他认为,视频大模型的需求爆发很可能会重构算力芯片产业的格局,博通DSA(ASIC)芯片的需求上涨可能只是前奏。
安谋科技产品总监鲍敏祺则谈到,2024年可以被视作端侧AI元年,目前这一趋势已成为行业普遍共识,并逐步成为芯片、终端制造、操作系统、大模型、AI应用等各大厂商争相投入的重点领域。同时,全球科技巨头也纷纷在AI手机、AIPC、智驾智舱等新兴应用场景进行“重兵部署”,极大地带动了端侧AI创新浪潮的高速演进。
2025年,AI应用变现的关键转折?
随着多模态AI、推理AI等发展,以及大模型能力的普及,2025年会是AI应用变现的关键转折点吗?
陈巍认为,2025年会出现明显的剪刀差。一方面是AI应用大规模渗透到编程、政企办公、教育、工业场景带来的增量,另一方面是全球的需求变缓和区域冲突带来的紧缩,这也就意味着机遇和风险并存,对企业决策层的市场感知能力和趋势预见能力提出很高的要求。
不过,乐观的方面在于,中国大陆依然具备全世界最完备的产业链,相对全球可以具备更好的成本优势。挑战在于,中国产业界需要进一步提升在AI生态的话语权。
Dennis Laudick谈到了AI商业化变现途径的多元化,他认为会因行业而异,比如在移动领域,AI正被用作提升设备销量的品牌差异化策略,以推动销量增长并增强用户忠诚度。在汽车等其他市场,软件定义汽车使得汽车制造商(OEM)能够根据消费者偏好的价格点来提供不同级别的新功能,例如自动驾驶功能,并且能够通过OTA更新,升级AI功能来拓展商业化路径。
鲍敏祺认为,2025年有望成为端侧AI商业化落地的关键节点,更多端侧AI芯片解决方案将陆续面世,支撑端侧AI应用的快速演化与落地,期待涌现更多成熟、商业化路径清晰的AI解决方案。但挑战依然严峻,主要问题在于不同技术架构下AI算法开发的理念存在差异,传统CNN模式下的能效比思维惯性已难以适用于当前快速迭代、部署的新要求,进而影响算法使用者能否快速将算法部署到端侧。因此,聚焦前沿AI算法演进趋势,并实现快速响应,将成为端侧AI研发工作的关键。
后摩智能联合创始人、产品副总裁信晓旭对2025年AI应用变现持相对乐观态度,认为AI技术进步、市场需求增长,提供了商业化的基础和空间。特别是在端侧AI方面,有望迎来爆发,比如AI PC等应用的扩展,需要支持端侧AI大模型运行的芯片提供强大算力支持。同时,落地传统行业,需要AI解决方案提供商需具备技术能力和行业知识,这对许多技术公司是挑战。
AI变现,哪些机遇和挑战?
正如多位受访人对<与非网>所说,端侧和边缘AI落地已经成为业界关注的焦点。综合各方观点来看,变现挑战主要在于以下两方面:第一,成本控制、算法快速迭代与实时性要求;第二,AI生态与技术协同。
成本、算法与实时性
Dennis Laudick认为,软件开发成本是目前企业实施AI的一大障碍,特别是边缘AI系统中专用AI加速器的软件难度更大,它虽能实现高TOPS性能,但面临两大挑战:第一,可能不适用于汽车等产品生命周期内的AI算法;第二,缺乏通用软件栈和工具,代码移植困难。Imagination在这方面的AI策略是,基于成熟GPU和并行计算架构,提供高性能、灵活、易编程的计算平台,支持高度并行的AI加速,并配备了基于开放标准和广泛支持框架的计算软件栈。
在陈巍看来,目前AI落地的大挑战主要有两个,一个是AI应用的准确度,或者说是相对人类智力的水平;另一个是AI应用的性价比,也就是能不能比人工更便宜。事实上,后者是目前阻碍AI应用落地的最大因素,例如GPT-o3的解题成本据说高达3000美元,这使得标准o3的落地受到成本挤压的闲置。在降成本方面,中存算目前借助自研的大模型来辅助芯片设计,以降低研发成本;另一方面,使用存算一体和先进封装集成技术降低AI芯片的单位Token成本。
鲍敏祺则认为,大模型在端侧部署的一大挑战在于如何实现算法的快速迭代。在当前以Transformer架构为主流的大模型时代,算法更加多样、迭代更加快速。此前,端侧AI算法的设计思路侧重于极尽所能去优化功耗、性能和面积,例如将计算精度限定于int8甚至更低,导致算法迁移成本攀升。尤其是将云端开发好的算法部署到端侧时,需要进行大量的剪枝、量化等处理,所需周期会非常长,严重影响了实时性。安谋科技正在研发的下一代“周易”NPU通过增加高精度fp16算力并支持包括int8/int16/fp16等在内的多精度计算,以及W4A16硬件加速、带宽压缩加速技术和多核高性能协同等一系列调优措施,能更好地兼容传统视觉及语音模型的轻算力场景和大模型的中算力场景。
信晓旭认为,AI应用的下一个爆发点极有可能在端侧出现。当前,AI落地和传统行业转型的最大挑战在于满足端边侧大模型部署的“三高三低”要求:即对硬件的高算力、高带宽、高精度需求,以及对低功耗、低延时、低成本的追求。传统的CPU和GPU在这些方面存在局限,尤其是在成本和功耗方面,端边侧大模型需要更高性能、更高效率的AI芯片来支持。后摩智能利用存算一体技术打造的AI芯片,在保持低功耗的同时,能够实现与传统GPU相当的算力,并且无需占用系统内存,在成本和性能上都具有优势。
AI生态与技术协同
邹挺表示,行业对于算力、性能、能效以及缩短上市时间的需求都在不断攀升。因此,构建计算的方式需要随之演变,芯片不再是一个由离散模块或组件以模块化的方式构建的简单集合,需要从整体解决方案的角度进行设计,也需要更深度的集成,更多的功能需要协作共存,以实现更低的延迟、更高的带宽,以及更高的能效。为充分释放AI的潜力,Arm从系统层面思考问题,将硬件、软件和生态无缝集成到一个全面的解决方案,通过Arm计算子系统(CSS)和软件生态系统来推动行业发展。
他指出,由于专用AI处理器开发周期较长,高能效CPU在AI初期成为推理核心;随着技术发展和场景多样化,定制化专用AI加速器兴起,CPU与GPU、NPU等异构单元协同工作,平衡推理性能、成本和功耗。在AI推理及应用的各个阶段,高能效CPU都发挥着关键作用。
阿里巴巴达摩院资深技术专家李春强认为,AI技术落地催生的模型推理需求,对硬件提出了更高要求,他强调RISC-V作为新兴芯片架构,其开放性和可定制性具有独特优势。达摩院玄铁团队针对AI模型定制的Matrix扩展指令集,提升基于RISC-V芯片的端侧AI能效,已首次应用于玄铁C907处理器;并且针对当前的主流网络特征,进行了端到端推理优化,通过创新硬件架构提升算力利用效率。软硬件一体的玄铁AI平台解决方案,可以为芯片厂家提供通用的、高效的AI算力基础设施,已应用于云端视频转码卡、AI边缘计算盒子、RISC-V笔记本电脑等终端产品。
变现去!国产AI芯片与大模型如何互为促进?
纵观大模型的商业落地,高度集成的软硬件一体化方案在满足特定需求方面有优势。那么,国产AI芯片与大模型在商业落地方面如何互为促进?有哪些新趋势?
李春强表示,AI芯片与大模型互为促进,具体表现为:大模型需求驱动芯片创新,推动芯片开发高效硬件架构,如支持并行计算的NPU、多模态协同处理的IP设计;同时,AI芯片加速大模型训练和推理,提供本地化、高性价比算力,降低硬件成本,缩短研发周期。
三大趋势正在发生:第一,大模型专用加速芯片兴起,支持稀疏矩阵运算、低精度计算等,优化Transformer模型训练和推理效率,提升GPT、BERT等模型性能;第二,AI芯片从通用算力走向定制算力,满足不同场景大模型应用的多样化算力需求;第三,芯片-模型-算法的三位一体优化,通过硬件加速深度学习模型的注意力机制、动态路由技术等,实现芯片算力最优利用。
鲍敏祺则看到,高度集成的软硬件一体化方案过去多用于智能眼镜、低功耗手机摄像头等ISP相关场景,追求极致成本控制,投入产出比并不理想。
而端侧AI领域,正在从专适专用芯片或IP设计方法,逐步转变为具备更通用大模型支持能力的方式。大模型时代,AI算法加速迭代,这就需要快速部署、找到用户高频使用热点并获取反馈以调优算法。并且,云端到端侧部署更看重快速迭代能力而非极致成本控制,只有快速部署、抓住用户才是实现良好商业落地的关键。
陈巍谈到,目前看到的大部分情况是大模型需要迁就国产AI芯片,进行相对复杂的适配,但国产AI芯片确实在规避算力禁运方面起到了非常大的作用。尽管大部分国产AI芯片和大模型还处于各自为战的情况,预计未来会有更多的国产AI芯片与大模型进行深度适配和架构优化,降低大模型的部署成本。
写在最后
对AI应用变现的预期,是多年来技术发展与市场需求共振的结果,显示出市场对AI应用价值的认可和期待。
尽管AI领域的竞争比任何时候都更为激烈,但技术迭代的速度在加快,大模型赋能的AI应用正在多种场景迅速普及,AI的实际渗透率在逐步增长,这也预示着AI应用变现的潜力和广阔前景。