加入星计划,您可以享受以下权益:

  • 创作内容快速变现
  • 行业影响力扩散
  • 作品版权保护
  • 300W+ 专业用户
  • 1.5W+ 优质创作者
  • 5000+ 长期合作伙伴
立即加入
  • 正文
  • 相关推荐
  • 电子产业图谱
申请入驻 产业图谱

AI服务器需求带动, HBM供应龙头SK海力士今年市占率将逾五成

2023/04/18
2109
阅读需 4 分钟
加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

AI服务器出货动能强劲带动HBM(high bandwidth memory)需求提升,据TrendForce集邦咨询研究显示,2022年三大原厂HBM市占率分别为SK海力士(SK hynix)50%、三星(Samsung)约40%、美光(Micron)约10%。此外,高阶深度学习AI GPU的规格也刺激HBM产品更迭,2023下半年伴随NVIDIA H100与AMD MI300的搭载,三大原厂也已规划相对应规格HBM3的量产。因此,在今年将有更多客户导入HBM3的预期下,SK海力士作为目前唯一量产新世代HBM3产品的供应商,其整体HBM市占率可望藉此提升至53%,而三星、美光则预计陆续在今年底至明年初量产,HBM市占率分别为38%及9%。

预估2023年AI服务器出货量年增15.4%

目前NVIDIA所定义的DL/ ML型AI服务器平均每台均搭载4张或8张高端显卡,搭配两颗主流型号的x86 服务器CPU,而主要拉货力道来自于美系云端业者Google、AWS、Meta与Microsoft。据TrendForce集邦咨询统计,2022年高端搭载GPGPU的服务器出货量年增约9%,其中近80%的出货量均集中在中、美系八大云端业者。展望2023年,Microsoft、Meta、Baidu与ByteDance相继推出基于生成式AI衍生的产品服务而积极加单,预估今年AI服务器出货量年增率可望达15.4%,2023~2027年AI 服务器出货量年复合成长率约12.2%。

AI服务器刺激Server DRAM、SSD与HBM需求同步上升

根据TrendForce集邦咨询调查,AI服务器可望带动存储器需求成长,以现阶段而言, Server DRAM普遍配置约为500~600GB左右,而AI服务器在单条模组上则多采64~128GB,平均容量可达1.2~1.7TB之间。以Enterprise SSD而言,由于AI服务器追求的速度更高,其要求优先满足DRAM或HBM需求,在SSD的容量提升上则呈现非必要扩大容量的态势,但在传输接口上,则会为了高速运算的需求而优先采用PCIe 5.0。而相较于一般服务器而言,AI服务器多增加GPGPU的使用,因此以NVIDIA A100 80GB配置4或8张计算,HBM用量约为320~640GB。未来在AI模型逐渐复杂化的趋势下,将刺激更多的存储器用量,并同步带动Server DRAM、SSD以及HBM的需求成长。

SK海力士

SK海力士

SK海力士将通过全球科技领域的领导地位为客户、合作伙伴、投资者、社区、成员等利益相关者创造更大价值。SK海力士将致力于与全球合作伙伴推进突破现有格局的超级合作,成为引领全球ICT生态的解决方案提供商。SK海力士将摆脱只聚焦经济利益的传统经营模式,加强“ESG经营”积极探索社会价值和健全的企业治理结构,以创造更大价值。SK海力士将致力于成为全球科技的领先企业,为人类与社会的发展做出贡献。

SK海力士将通过全球科技领域的领导地位为客户、合作伙伴、投资者、社区、成员等利益相关者创造更大价值。SK海力士将致力于与全球合作伙伴推进突破现有格局的超级合作,成为引领全球ICT生态的解决方案提供商。SK海力士将摆脱只聚焦经济利益的传统经营模式,加强“ESG经营”积极探索社会价值和健全的企业治理结构,以创造更大价值。SK海力士将致力于成为全球科技的领先企业,为人类与社会的发展做出贡献。收起

查看更多

相关推荐

电子产业图谱