加入星计划,您可以享受以下权益:

  • 创作内容快速变现
  • 行业影响力扩散
  • 作品版权保护
  • 300W+ 专业用户
  • 1.5W+ 优质创作者
  • 5000+ 长期合作伙伴
立即加入
  • 正文
    • TPU“攻入”AI主流市场
    • 性价比优势成为“焦点”
    • 探索市场新可能
  • 相关推荐
  • 电子产业图谱
申请入驻 产业图谱

TPU正面挑战GPU:果然“天命人”?

09/15 10:30
654
阅读需 9 分钟
加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

作者丨杨鹏岳

编辑丨张心怡

美编丨马利亚

监制丨连晓东

CPU诞生,让英特尔在PC时代长期独占鳌头;GPU崛起,让英伟达一跃而起风光无二。xPU时代正在到来,由谷歌TPU衍生而出的未来,谁又将乘势而起?在全球科技产业将目光紧紧锁定人工智能领域之际,TPU(Tensor Processing Unit,张量处理器)正在悄悄成长为AI时代的“弄潮儿”。GPU用于大模型训练、推理存在高能耗、高成本等问题,由AI算力需求增长带来的种种问题,或许可以从TPU身上找到更为理想的答案。

TPU“攻入”AI主流市场

由于入局早、算力强,由英伟达提供的GPU芯片几乎已成为各大企业训练、推理模型,处理AI相关算力需求的标配。但当前,TPU芯片也正在逐步进入AI算力主流芯片市场。TPU由谷歌率先推出。从初代芯片推出至今,TPU的应用范围正逐步扩大,谷歌以外的市场也逐渐打开。

最初,TPU是谷歌专为加速机器学习深度学习任务而设计的专用芯片,特别是针对深度学习模型的训练和推理。2013年,谷歌开始研发TPUv1,这是全球首款专为AI打造的加速器。2017年,谷歌推出CloudTPU,用于处理云端计算任务。

自2022年底生成式人工智能获得产业界广泛关注以来,TPU在生成式人工智能领域的应用范围也逐步拓宽。例如,2023年12月,谷歌推出多模态通用大模型Gemini的三个不同版本,该模型的训练大量使用了Cloud TPU v5p芯片。

谷歌曾表示,TPU是其推出许多服务的最大功臣之一,要是少了它,如即时语音搜寻、相片物件辨识及互动式语言翻译等无法丝滑运行,还有最先进的Gemini、Gemma、Imagen模型等也无法顺利问世。

今年5月谷歌发布第六代TPU芯片Trillium今年5月,谷歌又发布了第六代TPU芯片Trillium。

据悉,Trillium能在单个高带宽、低延迟Pod中扩展为多达256个TPU的集群,相较于前代产品,Trillium在适配模型训练方面的功能更强。

同时,TPU芯片也逐渐走出谷歌公司,获得更大范围的市场青睐。一如,7月30日苹果公司发布的一篇研究论文称,苹果在训练Apple Intelligence生态中的人工智能模型AFM时,选择了谷歌的两种张量处理单元(TPU)云集群。

性价比优势成为“焦点”

在以英伟达产品为代表的GPU在算力基础设施市场“一骑绝尘”的情况下,TPU何以崭露头角,又何以赢得苹果等全球知名企业的青睐?

市场分析师表示,以GPU为代表的通用计算架构和针对特定领域的DSA(DomainSpecific Architecture,面向特定领域)计算架构是目前两大主流AI芯片设计思路。但在市场容量巨大的应用领域,计算芯片的架构演进总呈现出从通用型向专用型转变的规律。随着大模型训练的计算量和复杂度的指数级增长,传统GPU成本昂贵、算力利用率低、能耗大的局限日益凸显。

今年1月,扎克伯格发帖公布了一组数字:到2024年底,Meta“大规模的计算基础设施”将包括高达35万张英伟达H100显卡,为Meta在人工智能领域的突破提供强大支持。如果将其他GPU计算在内,Meta的计算基础设施将拥有“相当于近60万张H100的算力”。这将是一笔巨大的开销。

与此同时,马斯克表示,2024年特斯拉仅仅在英伟达的人工智能芯片上就将耗费超过5亿美元,特斯拉未来还需要价值“数十亿美元”的硬件才能赶上最大规模的竞争对手。高昂的算力成本,使一众全球顶尖的科技企业望而生畏。

在此背景下,作为AI专用芯片之一的TPU被业界期待能够从新的技术路线上另辟蹊径。在这方面,谷歌已经提供了成功经验。据谷歌副总裁兼工程院士Norm Jouppi透露,TPU的出现足足让谷歌省下了15 个数据中心的建设成本。

探索市场新可能

从产品逻辑来看,作为一种专用集成电路 (ASIC),TPU专为单一特定目的而设计,用以运行构建AI模型所需的独特矩阵和基于矢量的数学运算。而GPU的设计初衷是处理图像信息。因此,从架构设计的角度来看,相比于适合处理高度并行任务的GPU, TPU更适用于处理矩阵乘法等神经网络算法。“TPU具有为AI大模型而生的天然优势架构。”

TPU架构AI芯片公司中昊芯英创始人兼CEO杨龚轶凡在接受《中国电子报》记者采访时表示,TPU专为神经网络结构而设计,在相同制造工艺、能耗和芯片尺寸条件下,性能优于GPU3~5倍。在适用场景上,TPU为已有的算法和框架进行优化,性能和功耗表现均优于GPU,更适用于深度学习模型的大规模部署。

深度学习无疑仍是AI领域的主导力量,深度学习的某个分支将承载着未来100%的AI应用。从长远来看,TPU比GPU在AI赛道上更具竞争力。

中昊芯英自研的中国首枚高性能TPU训练芯片在TPU芯片领域,产业界正在进行不同的尝试。

一方面,“先行者”谷歌探索出了自己的专属路线。咨询公司D2D Advisory首席执行官Jay Goldberg直言,今天只有两家公司有着成熟的芯片研发体系来训练人工智能模型,一个是英伟达的GPU,另一个是谷歌的TPU。但区别于英伟达,谷歌并不会以独立产品的形态单独出售自己的TPU芯片,而是通过谷歌云平台向外部客户提供基于TPU的算力服务。

另一方面,更多芯片从业者仍在探索基于TPU架构的新产品。今年2月,美国AI芯片初创公司Groq凭借其开发的新型AI处理器LPU(LanguageProcessing Unit)引发关注,使用的TSP(张量流处理器)源头是谷歌研发的TPU。今年4月,英特尔推出了专攻深度学习神经网络推理的类TPU芯片Gaudi 3。

值得关注的是,国内初创AI芯片企业中昊芯英历时近五年,已成功量产全自研的国内首枚TPU AI训练芯片,并自研AIGC预训练大模型,正在与行业伙伴进行金融、教育、医疗等垂直领域专业大模型的探索落地。

业界普遍认为,TPU芯片在中国市场的应用,更有助于TPU这一产品门类的成熟。当然,无论从技术还是生态角度,TPU和类TPU芯片都处于“婴儿期”,需要进一步发展。但是,AI时代已经到来,算力需求才露出冰山一角。

在庞大需求下,新生事物更有施展拳脚的可能。

相关推荐

电子产业图谱