近期,第五代英特尔®至强®可扩展处理器通过了中国电子技术标准化研究院组织的人工智能服务器系统性能测试(AISBench)。英特尔成为首批通过AISBench大语言模型(LLM)推理性能测试的企业。
中国电子技术标准化研究院赛西实验室依据国家标准《人工智能服务器系统性能测试规范》(征求意见稿)相关要求,使用AISBench 2.0测试工具,完成了第五代英特尔至强可扩展处理器的AI大模型推理性能和精度测试。测试中,第五代英特尔至强在ChatGLM V2-6B(60亿参数)以及 Llama2-13B(130亿参数)两个模型上均展现出卓越推理性能,能够满足轻量级大语言模型的实时推理要求。
测试结果:此次单机性能测试中,在满足人类正常阅读速度要求(生成延迟小于100毫秒)的情况下,在封闭测试场景中构造数据集,基于第五代英特尔至强的服务器可实现:
- 在60亿参数的ChatGLM V2模型通用推理中,当输入输出序列为256时可达每秒 2493 token的性能,当输入输出序列为2048时可达每秒926 token。
- 在130亿参数的Llama2模型通用推理中,当输入输出为256时可达每秒513 token,当输入输出序列为2048时可达每秒 132 token1。
作为通用处理器,第五代英特尔至强在人工智能、网络、存储、数据库等关键工作负载均能提供出色性能。AISBench 2.0的测试结果验证了英特尔至强在运行轻量级大语言模型时展现出的优异推理性能,使得客户可以使用基于至强的服务器,构建一个通用AI系统进行数据预处理、模型推理和部署,从而获得兼具AI性能、效率、准确性和可扩展性的组合。这也彰显了英特尔至强可以为企业提供“开箱即用”的功能,即可以在通用系统上部署一部分AI工作负载,从而为客户带来更佳的总体拥有成本(TCO)优势。
软硬结合,至强展现AI优势
英特尔至强的内置AI加速器使其成为在通用处理器上运行部分AI工作负载的理想解决方案,不仅如此,英特尔还配备了经过优化的、易于编程的开放软件,可降低客户和生态伙伴在数据中心部署从云到智能边缘各种基于AI的解决方案的门槛。