加入星计划,您可以享受以下权益:

  • 创作内容快速变现
  • 行业影响力扩散
  • 作品版权保护
  • 300W+ 专业用户
  • 1.5W+ 优质创作者
  • 5000+ 长期合作伙伴
立即加入
  • 正文
    • AI芯片的当前格局
    • 英伟达身价水涨船高
    • 全球科技巨头卷向AI芯片赛道
    • 国内AI芯片企业百花齐放
  • 推荐器件
  • 相关推荐
  • 电子产业图谱
申请入驻 产业图谱

AI芯片之争,群雄围攻英伟达

06/28 16:25
2513
阅读需 11 分钟
加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

6月26日,科技圈迎来了一个重要新闻。美国新兴的芯片创业公司Etched发布其首款AI芯片——Sohu。这款芯片在运行大型模型时展现出了惊人的性能,其速度超越了行业巨头英伟达的H100高达20倍,即便是与今年3月才面世的顶尖芯片B200相比,Sohu也展现出超过10倍的优越性能。

近两年的人工智能繁荣,让英伟达凭借GPU登上了芯片之巅。包括AMD、Intel、Graphcore、Cerebras和Tenstorrent等在内的传统和新贵芯片企业也在各施奇招,试图在这个领域将英伟达拉下马。

AI芯片当前格局

AI芯片也被称为AI加速器或计算卡,是专门用于处理人工智能应用中的大量计算任务的模块,主要包括图形处理器(GPU)、现场可编程门阵列FPGA)、专用集成电路(ASIC)等。根据Gartner的数据,2022年全球AI芯片市场规模为442亿美元,预计2027年增长至1194亿美元

GPU,图形处理器,又称显示核心、视觉处理器、显示芯片,是一种专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑智能手机等)上做图像和图形相关运算工作的微处理器。FPGA是一种半定制芯片,提供了一种灵活的解决方案。用户可以根据自身的需求进行重新编程配置硬件

ASIC,即专用集成电路,相当于把某种特定的程序“硬件化”,并且只为一种任务优化,去掉不必要的功能,以达到比通用芯片更快并且功耗更低的目的。特别值得一提的是ASIC中的TPU,如Google的TPU、SOPHGO的高性能TPU,它们是为特定类型的机器学习任务而优化的处理器。TPU的设计针对深度学习算法的特定数学运算进行了优化,提供了高性能的计算能力,同时保持了较低的能耗。

对比来看,GPU的计算能力最强,但是成本高、功耗高;FPGA可编程,最灵活,但是计算能力不强;ASIC体积小、功耗低,适合量产,但是研发时间长,且不可编辑,前期投入成本高,带来一定的技术风险。AI芯片的选择取决于多种因素,包括应用场景、性能需求、成本考量以及开发时间。随着AI技术的不断进步和市场需求的日益增长,AI芯片的格局也在不断演变。

英伟达身价水涨船高

自2022年11月开始,OpenAI公司发布AI聊天机器人ChatGPT迅速风靡全球,并掀起了一场围绕AI大模型的竞赛和热潮

作为AI底层算力“霸主”的英伟达,是这轮热潮中最大的受益者之一,其GPU产品在大模型训练上几乎无替代品。随着亚马逊、微软和谷歌等公司之间 AI “军备竞赛”升温,英伟达的A100和H100芯片成为大模型训练的“硬通货”。人工智能领域研究机构Gartner今年1月的数据表明,英伟达在全球人工智能芯片市场的市占率已超90%,创下新纪录。

今年3月,英伟达创始人兼CEO黄仁勋表示,英伟达 AI 超级计算机 DGX 是大模型背后的引擎,他曾亲手将全球首款DGX交给OpenAI 公司。自此之后,全球超100家头部企业中有一半安装了这款产品。6月2日,黄仁勋宣布,Blackwell芯片现已开始投产。

Blackwell GPU目前号称是“世界最强大的芯片”,集成2080亿颗晶体管,采用定制台积电4NP工艺,承袭“拼装芯片”的思路,采用统一内存架构+双芯配置,共有192GB HBM3e内存、8TB/s显存带宽,单卡AI训练算力可达 20000 TFLOPS。

这个算力可以说非常夸张了,黄仁勋对此表示称,仅用了八年时间,英伟达就使得 AI 算力从2016年Pascal的19 TFLOPS 提升到了2024年Blackwell的20000 TFLOPS,整整提升了1000倍,这一速度几乎超越了摩尔定律在最佳时期的增长。目前,英伟达的人工智能芯片出现供不应求的局面。AWS、戴尔、谷歌、Meta、微软、OpenAI、甲骨文、特斯拉、xAI都将采用Blackwell产品。甚至特斯拉CEO马斯克直言:“目前在AI领域,没有比英伟达硬件更好的。”

全球科技巨头卷向AI芯片赛道

从市场竞争的角度来看,黄仁勋的对手也在加速追赶的过程中,都想来争夺AI芯片爆发的美味蛋糕。

ChatGPT的开发者OpenAI正在探索自研AI芯片,同时开始评估潜在收购目标。AWS自研AI芯片阵容包括推理芯片Inferentia和训练芯片Trainium。特斯拉也积极参与AI加速器芯片的开发。特斯拉主要围绕自动驾驶需求,迄今为止推出了两款AI芯片:全自动驾驶(FSD)芯片和Dojo D1芯片。

6月3日,AMD公司CEO苏姿丰(Lisa Su)宣布,更新Instinct GPU系列路线图,将在每一代产品中带来年度领先的 AI 性能和内存功能,从而加速AMD在数据中心AI创新和领导地位。其中,全新 AMD Instinct MI325X AI加速器(芯片),将配备288GB HBM3E内存和 6TB/秒的内存带宽,采用与MI300系列相同设计。相比英伟达最强 AI 芯片H200,MI325X内存容量提高2倍、带宽提升1.3倍、计算性能提升1.3倍,最快2024年四季度上市。

同时,此次AMD还预览下一代AMD Instinct MI350系列——首款MI350X加速器,基于全新AMD CDNA 4架构,采用台积电3nm工艺,具有高达288 GB的HBM3E内存。相比MI300系列,新的MI350系列的 AI 推理性能将提高惊人的35倍(3500%),预计将于2025年上市。

Google早在2013年就秘密研发专注AI机器学习算法芯片,并用于云计算数据中心,取代英伟达 GPU。这款TPU自研芯片2016年公开,为深度学习模型执行大规模矩阵运算,如自然语言处理、计算机视觉和推荐系统模型。Google 其实在2020年的资料中心便建构 AI 芯片 TPU v4,直到2023年4月才首次公开细节。前面也有提到,TPU是一种定制化的ASIC芯片,它由谷歌从头设计,并专门用于机器学习工作负载。

国内AI芯片企业百花齐放

聚焦国内市场,去年上半年中国本土AI芯片品牌出货超5万张,市占率为10%。市占率鸿沟的背后,是英伟达深耕GPU市场三十余年建立起的强大壁垒。当下,国内AI芯片厂商在政策和需求的双重拉动下奋起直追,华为海思、寒武纪、地平线等也在各施奇招,争夺登上前往AI时代的一张新船票,为算力之争增添新动能。

寒武纪:AI芯片独角兽,中国ASIC路线先行者,成立于2016年,是全球AI芯片领域第一个独角兽初创公司,研发团队成员主要来自中科院。寒武纪产品布局全面覆盖云端、边缘端和终端场景。

华为海思海思半导体成立于2004年10月,是华为的全资子公司。得益于母公司的全力支持和高研发投入。多年的技术积累使海思掌握了国际一流的IC设计与验证技术,拥有先进的EDA设计平台、开发流程和规范。产品覆盖智慧视觉、AIoT、智慧媒体、智慧交通及汽车电子、显示、手机终端、数据中心及光收发器等多个领域。

地平线:成立于2015年,专注于边缘智能驾驶芯片的研发,拥有领先的AI算法和芯片设计能力,通过“芯片+算法+工具链+开放平台”的商业模式,为智能驾驶和AIoT领域提供强大的算力支持和开放的开发生态。

对于互联网大厂来说,腾讯百度阿里巴巴等均在AI芯片领域大力布局。其中,腾讯投资燧原科技、百度投资昆仑芯、阿里巴巴则孵化了平头哥。

除此之外,原AMD全球GPGPU设计总负责人陈维良成立了沐曦集成电路,两位CTO均为前AMD首席科学家;原AMD首席工程师郑金山成立了天数智芯,首席技术官曾任三星全球副总裁;原商汤科技总裁张文成立了壁仞科技,CTO曾任职于海思的GPU自研团队。

不难看出,AI 芯片市场出现了越来越多的新鲜血液,有望形成“百花齐放”的局面,我们也更期待看到国内企业的突飞猛进。对于这个赛道未来的发展,仍然会有很多的可能性。

推荐器件

更多器件
器件型号 数量 器件厂商 器件描述 数据手册 ECAD模型 风险等级 参考价格 更多信息
ATXMEGA128D4-CU 1 Microchip Technology Inc IC MCU 8BIT 128KB FLASH 49VFBGA
$16.33 查看
ATXMEGA128A4U-MHR 1 Atmel Corporation RISC Microcontroller, 16-Bit, FLASH, AVR RISC CPU, 32MHz, CMOS, PQCC44, 7 X 7 MM, 1 MM HEIGHT, 0.50 MM PITCH, GREEN, PLASTIC, MO-220VKKD-3, VQFN-44
$4.48 查看
STM32F207IGH6TR 1 STMicroelectronics High-performance Arm Cortex-M3 MCU with 1 Mbyte of Flash memory, 120 MHz CPU, ART Accelerator, Ethernet

ECAD模型

下载ECAD模型
$69.82 查看

相关推荐

电子产业图谱