• 正文
  • 相关推荐
申请入驻 产业图谱

沐曦也要上市,来看看为什么GPU公司都想上市?

11小时前
421
加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

为什么最近一两年GPU芯片公司启动IPO的越来越多?分析完文末给答案。

目前燧原科技、壁仞、摩尔线程等都在辅导IPO。16号沐曦正式启动A股上市进程。今天我们看看AI芯片市场,以及GPGPU公司-沐曦。

首先了解一下AI芯片的概念,实际上所有面向人工智能领域的芯片都可以称为 AI 芯片。

广义上讲,目前市场上说的AI 芯片,主要指用于处理人工智能应用场景中大量计算任务的模块,除了以 GPU、FPGA、ASIC 为代表的 AI 加速芯片,还有比较前沿性的研究,例如:类脑芯片、可重构通用 AI 芯片等。

狭义上AI 芯片指的是针对人工智能算法做了特殊加速设计的芯片。以 AI 芯片为载体实现的算力是人工智能发展水平的重要衡量标准,发展更注重超速运算能力的 AI 芯片成为推动人工智能产业爆发的关键核心要素之一,其快速发展对人工智能技术的进步和行业应用起到了决定性的作用。

目前AI芯片主要有下面几类形式:

AI 芯片的兴起源于 AI 对算力的高需求。算力是实现 AI 产业化的核心力量,随着人工智能应用场景的不断拓展和数据规模的急剧增长,算法模型的参数量呈指数级增加,特别是深度学习成为当前 AI 研究和运用的主流方式,加速计算成为不可或缺的需求。

虽然 CPU 可以执行 AI 算法,但因为CPU内部有大量其他逻辑,比如控制单元,而这些逻辑对于 AI 算法来说是用不上的,所以,使用 CPU 并不能达到最优的性价比。因此,AI 芯片应运而生,它们被设计出来适配海量并行计算能力,进而可以加速 AI 计算。

AI 芯片的维度。根据部署位置(云端、终端)和承担任务(训练、推理)的不同,可以划分出 AI 芯片的市场领域。比如百度的昆仑芯、字节的AI芯片等都是云端的芯片。

根据部署的位置不同,AI 芯片可以分为:云侧AI 芯片、端侧AI 芯片。

云端即数据中心,在深度学习的训练阶段需要极大的数据量和大运算量,单一处理器无法独立完成,因此训练环节只能在云端实现。

云端 AI 芯片的特点是性能强大,同时能够支持大量运算、并且能灵活地支持图片、语音、视频等不同 AI 应用。基于云 AI 芯片的技术,能让各种智能设备和云端服务器进行快速的连接,并且连接能够保持最大的稳定。

终端即手机、安防摄像头、汽车、智能家居设备、各种 IoT 设备等执行边缘计算的智能设备。终端的数量庞大,而且需求差异较大。

端 AI 芯片的特点是体积小、耗电少,而且性能不需要特别强大,通常只需要支持一两种 AI 能力。

根据承担任务的不同,AI 芯片可以分成:训练芯片、推理芯片。

训练芯片主要用于构建神经网络模型,即用大量标记过的数据来“训练”相应的系统,使之可以适应特定的功能。训练需要极高的计算性能,需要较高的精度,需要能处理海量的数据,需要有一定的通用性,以便完成各种各样的学习任务。对于训练芯片来说,更注重绝对的计算能力;

推理芯片主要用于利用神经网络模型进行推理预测,指利用训练好的模型,使用新数据推理出各种结论。即借助现有神经网络模型进行运算, 利用新的输入数据来一次性获得正确结论的过程。推理芯片更注重综合指标,需要全面考虑单位能耗算力、时延、成本等等。

第一波人工智能浪潮是基于 ASIC(专用集成电路)架构。在算法稳定的情况下,专用芯片的性能和功耗优势显而易见,能够满足企业对极致算力和能效的需求。然而,下游 AI 算法的演进速度远远超过了人们的想象。专用芯片在特定场景下能够实现更高的算力和能效,但难以适应算法种类快速增加和迭代速度的情况。因此,通用性更强的 GPGPU(通用图形处理器)长期是 AI 芯片的首选。

第二波浪潮中主流技术路径是 GPGPU(通用 GPU)。国内初创公司集中于2017 年-2020 年期间启动自研 GPGPU 芯片的研发,其中诞生了不少公司,壁仞、沐曦等都在这里面。由于 GPGPU 难解高功耗与低算力利用率问题,ASIC 和 GPGPU 在应对生成式 AI 及大模型正对算力基础设施提出的新要求时都显得有些捉襟见肘。

第三波浪潮的基础是存算一体等新兴技术。不同于 ASIC 与 GPGPU,这些新兴技术路线跳出了冯·诺依曼架构体系,理论上拥有得天独厚的高能效比优势,又能绕过先进制程封锁,兼顾更强通用性与更高性价比,算力发展空间巨大。随着新型存储器件走向量产,存算一体 AI 芯片已经挺进 AI 大算力芯片落地竞赛。

国内各科技巨头都在这个领域展开布局。例如,百度于 2011 年成立了昆仑芯,开始探索芯片领域;阿里巴巴在 2018 年成立了平头哥,其中含光就是专注于 AI 芯片,字节也在近几年做云端的AI芯片研发,涉足芯片领域。

国内 AI芯片厂商以中小公司为主,多集中于设备端 AI ASIC 的开发,其中寒武纪成为全国 AI 芯片领域独角兽公司。

全球 GPU 领域处于寡头垄断的局面,市场由英特尔英伟达AMD 三分天下。英伟达凭借其自身 CUDA 生态占据绝对主导地位。从细分市场来看,英伟达和 AMD 在独立 GPU 芯片市场基本包揽全场,英特尔占比极小。

GPGPU 方面,国内外厂商仍存在较大差距。

制程方面,目前 Nvidia 已率先到达 4nm,国内厂商多集中在 7nm;算力方面,国内厂商大多不支持双精度(FP64)计算,在单精度(FP32)及定点计算(INT8)方面与国外中端产品持平;

生态方面,与 Nvidia CUDA 的成熟生态相比,差距较为明显。海光 DCU 系列产品以 GPGPU架构为基础,兼容通用的“类 CUDA”环境以及国际主流商业计算软件和人工智能软件,对标目前国际主流 NVIDIA A100 产品,海光 DCU 单芯片产品基本能达到其70%的性能水平,但是公司 DCU 产品的片间互联性能还有较大的提升空间。

以上关于AI芯片的介绍告一段落,下面看看沐曦这家公司。

沐曦于 2020 年 9 月成立于上海,致力于为异构计算提供全栈 GPU 芯片及解决方案,可广泛应用于人工智能、智慧城市、数据中心、云计算自动驾驶数字孪生元宇宙等前沿领域,为数字经济发展提供强大的算力支撑。

沐曦的创始团队主要来自AMD。创始人陈维良是清华大学微电子学研究所硕士,曾长期就职于AMD,担任AMD全球GPGPU设计总负责人,负责全球通用计算GPU产品线的整体设计与管理,主导并完成15款高性能GPU产品的流片与量产

沐曦推出 MXN 系列 GPU(曦思)用于 AI 推理,MXC 系列 GPU(曦云)用于 AI 训练及通用计算,以及 MXG 系列 GPU(曦彩)用于图形渲染,满足数据中心对“高能效”和“高通用性”的算力需求。

沐曦产品均采用完全自主研发的 GPU IP,拥有完全自主知识产权的指令集和架构,配以兼容主流 GPU 生态的完整软件栈(MXMACA),具备高能效和高通用性的天然优势。能够为客户构建软硬件一体的全面生态解决方案,是“双碳”背景下推动数据中心建设和产业数字化、智能化转型升级的算力基石。

我们看看沐曦的发展历程!

下面是对沐曦合作的情况进行分享,这也是很重要的部分,主要适合百度、优刻得等公司的合作,整理于官网以及公开渠道。

详细介绍完,我们再来说一下,为什么很多芯片公司都要上市!

因为没有钱,公司的发展是从投资人拿钱,前几年基本上都是靠着融资活着,如果没有融资,自己有没有造血能力,那大部分公司就会发不起工资导致欠薪或裁员甚至解散,去年有很多芯片公司就是这样,就不列举了。

几年之后,公司越来越庞大,之前融资太多,再想融资以及相当困难,因为同样10亿,几年前投资的,可能拿了很多股份占比,现在投资却只能拿很少一部分,回报低风险高,所以越来越多投资机构不会投这种公司,反而会投一下些早期的公司。

没有了融资的钱,自己造血能力又不足,怎么办呢?就到股市去找钱!

如果想看市场机会,及时联系我,基本都能内推和辅导推荐!!!

更多芯片行业精彩,关注一起学习、成长

沐曦

沐曦

沐曦致力于为异构计算提供全栈GPU芯片及解决方案,可广泛应用于人工智能、智慧城市、数据中心、云计算、自动驾驶、数字孪生、元宇宙等前沿领域,为数字经济发展提供强大的算力支撑。

沐曦致力于为异构计算提供全栈GPU芯片及解决方案,可广泛应用于人工智能、智慧城市、数据中心、云计算、自动驾驶、数字孪生、元宇宙等前沿领域,为数字经济发展提供强大的算力支撑。收起

查看更多

相关推荐

登录即可解锁
  • 海量技术文章
  • 设计资源下载
  • 产业链客户资源
  • 写文章/发需求
立即登录