今日,英特尔数据中心与人工智能集团副总裁兼中国区总经理陈葆立在2023年中国国际服务贸易交易会的中国AIGC创新发展论坛上,发表题为“面向中国市场的英特尔AI战略”的演讲。陈葆立从通用计算和加速计算两个维度出发,详细阐述了英特尔如何通过全面的异构产品组合以及开放的软件栈,与广泛的中国生态伙伴持续探索和创新,以把握AI时代机遇,创造无限可能。
陈葆立指出,“致力于创造改变世界的技术,英特尔自1985年进入中国以来,始终通过不断的技术变革,为中国客户创造更高价值,推动更深层的本地创新和发展。在AI‘黄金时代’的初期,凭借在芯片制造和创新领域的深厚积累,英特尔也正利用自身的行业领先优势,通过在云、网络、边缘、客户端等领域的全方位布局,为行业的持续发展提供助力。”
AI的数据流包括广泛而复杂的工作负载和多模态数据集。而面对AI的计算需求,并没有一种通用的解决方案。如今,受多重技术和经济因素影响,很大一部分AI工作负载是在通用处理器上运行。x86架构的大规模普及和其内置的AI能力使通用处理器已经成为
解决AI数据流的理想解决方案。
基于此,英特尔在企业级硬件方面,打造内置英特尔®高级矩阵扩展(英特尔® AMX)加速引擎的第四代英特尔®至强®可扩展处理器,提供比上一代高达10倍的AI推理和训练性能提升,并实现对大多数大型AI模型,包括实时、中等吞吐量、低延迟稀疏推理,以及中、小型规模的训练和边缘推理的支持。此外,还通过广泛的生态系统、专用于简化流程的软件工具以及优化的编译器,让客户能够更轻松部署英特尔解决方案,以及持续对更高级别软件堆栈的投入,如oneAPI和OpenVINO,让开发者更轻松地使用其所熟悉的AI框架。
基于集成英特尔®AMX的第四代英特尔®至强®可扩展处理器,百度也打造自身的人工智能自然语言处理模型ERNIE-Tiny。这款百度在飞桨文心大模型核心产品上推出的轻量化版本,在引入英特尔® AMX之后,整体推理性能得到多倍提升,同时也使其在通用CPU平台上获得令人满意的推理效能,从而能进一步扩大普范围,帮助更多用户在既有IT设施中更为方便地部署文心模型。
而面临爆炸式增长的个人电脑AI应用,英特尔在提供强大硬件的同时,也通过可扩展的软件栈加持,让更多开源模型能够运行在个人的客户端上。一方面,第13代英特尔®酷睿Ô处理器通过XPU加速、低位量化、软件优化以及对16GB及以上内存容量的支持,使得高达160亿参数的大型语言模型能够通过BigDL-LLM框架在个人电脑上运行。而英特尔®锐炬®Xe显卡和英特尔锐炫Ô显卡通过硬件优化和精度控制,能够稳定地支持FP16精度的深度学习模型推理。这对于加速深度学习工作负载,提高计算效率具有重要意义。另一方面,英特尔亦通过可扩展的软件栈支持通用AI框架,使得用户可以轻松地在不同框架中进行模型推理。
尽管英特尔至强®可扩展®处理器可以运行诸多AI工作负载,但为支持更大的模型规模和满足广泛的系统需求,需要采用异构计算的方法,使用不同的计算架构。对于这些应用场景,英特尔®数据中心GPU Max系列和Gaudi深度学习加速器可提供硬件支持。其中,英特尔全新Gaudi2处理器于今年7月面世中国市场。作为英特尔从云到端产品组合的重要组成,为深度学习而生的Gaudi2致力于以多方位性能与能效比提升,加速AI训练及推理。值得注意的是,其出色的性能表现亦在近期公布的MLCommons® MLPerf®基准测试1中得到充分验证,与其他同类产品相比,是大规模部署AI的更优解。而得益于SynapseAI®软件套件的优化,Gaudi2在简化模型的开发和迁移方面也独具优势。
一直以来,英特尔始终在中国积极推动技术转型,不仅加速PC在中国的普及率,也通过与广大本地生态伙伴的深入合作,推动云计算和边缘计算发展,赋能行业的数字化转型。在人工智能浪潮呈席卷之势的当下,英特尔也将利用自身的深厚积淀与前沿洞察,与生态伙伴一同紧抓行业发展新机遇,为AI在中国的全面绽放注入源源不断的动力。