过去的一年,国内AI产业面临巨大挑战,大算力AI芯片和板卡被“卡”,AI芯片软件生态也面临巨大困难。业界普遍认为,除了美国英伟达等产品外,使用其他产品进行大模型开发难度极大。
这种形势其实也反映了市场需求的大幅增长和技术进步的迫切需求。大模型尤其是多模态大模型的出现,正在将AI带到更多领域,对AI技术发展起到巨大的推动作用。
近期,英伟达“中国特供版”芯片遇冷的局面,也给国产AI芯片带来更大的想象空间。国产AI芯片是否有望开启新格局、并深远影响AI技术的发展?<与非网>对话AI明星企业,探寻产业的关键动力和发展趋势。
Imagination:AI SoC设计灵活性是关键
过去几年,Transformer已经取代传统卷积神经网络成为AI的首选,这在硬件方面产生了重大影响,尤其是对那些通常只针对少数算法优化进行定制的AI加速器。
这给硬件设计师带来了挑战,他们往往希望能够面向未来工作负载继续进行优化。这在产品生命周期较长的市场中尤其明显,例如在汽车行业,随着车辆连接性的增强,汽车甚至可以在车载SoC设计后十年内接收软件更新。
Imagination副总裁、中国区总经理刘国军认为,“鉴于AI软件的持续进化,将设计灵活性整合到SoC中可能比仅专注于固定功能性能更为理想。”
Imagination副总裁、中国区总经理 刘国军
行业呼唤芯片架构突破“三角束缚”
后摩智能联合创始人项之初谈到,如何让大模型更广泛落地,形成商业闭环,为大众带来经济价值和福祉,是需要进一步探索的。从支撑大模型底层的算力芯片角度看,目前并没有找到特别好的方案,能够在性能、功耗、成本等方面都能满足大模型在更广泛场景的落地需求。
“显然不能到处去部署大几百瓦、几万美元一颗的GPU。所以我们需要更创新的芯片架构,去突破冯诺依曼架构对算力、功耗、成本这个不可能三角的束缚”,项之初表示。
后摩智能联合创始人 项之初
大模型不是“万金油”,算力是关键
鲲云科技合伙人、COO王少军博士认为,2023年,国产大模型爆发式增长,但真正实现产业落地还需要时间。目前,许多行业仍然主要使用传统的深度学习方法,如CV和NLP类算法。而新应用场景更加具体化,AI技术需要与具体业务需求结合得更紧密。
他指出,AI企业不仅需要具备技术能力,还要与各行业合作,深入了解业务场景,才能真正发挥AI技术的实际作用。
在AI的发展过程中,如何将产品落地到实际场景一直是一个挑战,大模型能否改变这一现状?王少军表示,对于常规场景,大模型有望解决这一问题,但对于一些长尾、稀缺场景,大模型仍存在局限性。在他看来,算力才是大模型时代最基础、优先级最高的问题,如果没有足够的算力,其他技术得以有效应用的基础也不存在。
鲲云科技合伙人、COO 王少军博士
全面突围:多元芯片架构+软硬件生态
AI芯片竞争日趋激烈,而沿用原有技术路线、依靠先进工艺来提升芯片性能,不论是从技术发展角度、还是在当前的国际背景下,都变得越来越难。
“单纯依赖芯片工艺并不能确保产业的持久发展,在国内可控工艺条件下,通过架构创新来实现性能更优、性价比更高的芯片,应该是国内大多数芯片公司努力的方向”,王少军谈到,“只有当产品性价比足够高,满足市场竞争需求时,行业才算真正做好,从业者的能力才算真正提升。当前,产业界应该积极探索底层技术创新和产业发展的新路径。数据流架构就是一个备受关注的方向,国内外一些大型公司也在致力于可重构数据流的研究。这个方向具有广泛的应用场景,适用于云、边、端各种场景。”
除了数据流架构,存算一体AI芯片架构也被认为有潜力承担大模型时代的底层算力支撑。项之初表示,“存算一体作为一种新的芯片架构,需要资本、人才和社会资源的共同投入,促进研发和落地,同时也需要更多的应用机会进行迭代。”
刘国军认为,随着边缘AI无处不在,对于那些要求快速响应、高度安全或在网络连接不稳定的情况下运行的应用,直接在设备上处理AI工作负载的能力变得至关重要。并且,赋予AI芯片设计灵活性至关重要,特别是在边缘设备有限的面积、内存和功耗条件下。他介绍,Imagination GPU IP能以高性能和高效率处理计算工作负载,而且支持包括OpenCL在内的常用API,具备高度可编程性。通过持续投资软件领域,包括工具、库、模型和驱动程序等,希望提供最优的计算编程环境。“人工智能的普及预计将主导半导体行业及Imagination未来的业务发展”,他补充道。
行业或将洗牌,大模型持续进化
千芯科技董事长陈巍认为,大模型主要有以下四大趋势:首先,大模型还会进一步进化。从目前看来,Transformer结构虽好,但对于超长token生成时,算力资源呈几何级数增长,对于编程等长文的自动生成并不友好。有较大概率会有新的结构替代,或者Transformer自己进化,形成新一代的大模型基础结构。
千芯科技董事长 陈巍
第二,多模态大模型和混合专家(MoE)模型会逐渐成为新的主流模型。目前文本模态的大模型是主流,但随着技术的进步,多模态大模型会提供更多的功能、落地应用。另外大模型的主体会逐渐演变到MoE模式,而这两者都会对算力有更高要求。
第三,大模型逐渐具备自学习能力。目前的大模型训练还是离线的,这使得模型训练后就固化,难以随着应用场景自动适应。预估1-2年,自适应学习的大模型会逐渐进入应用领域,更好地服务人类社会。
第四,CUDA生态有一定概率被其他开源生态取代。目前来看,CUDA生态是主流,但由于CUDA编程模型本身是以缓存为中心的,与目前大模型的分层结构有一定的调度矛盾。从这个角度看,现有的CUDA生态也是大模型算力发展的障碍。随着微软、Google、特斯拉等巨头自研大模型芯片的进度加快,预计这些巨头也会协力推动新的并行硬件编程生态。
王少军则从算力和大模型角度提出两大值得关注的方向:一是推理的重要性,随着大模型应用在更多场景,推理将成为关键,需要关注推理芯片的计算诉求和系统要求,以降低成本并提高易用性,从而推动大模型在行业中的快速落地。二是大模型轻量化的趋势,大模型走向轻量化、并且在边缘和终端进行部署,将成为值得关注的领域。
2023年10月,工业和信息化部等六部门印发了《算力基础设施高质量发展行动计划》,要求到2025年国内算力达到300EFLOPS。其中,不仅包括云端算力,也强调了边缘算力的协同发展。“这对于国产AI芯片企业来说是一个积极的信号,意味着存在巨大的市场和丰富的应用场景。对于从业者来说,每个人都有机会在这个市场中分得一杯羹,为整个行业带来利好”, 王少军表示。
项之初认为,虽然国内AI产业目前是被客观因素限制的状态,并没有完全展示出应有的潜力。但总体上看,因为庞大的应用场景和数据量,还是会让中国成为全球唯二的AI产业市场,这个预期将会长期存在。总体上,大模型的下沉、在更多垂直领域的落地,将会给行业带来新的增长契机,比如Transformer上车对自动驾驶的意义等趋势都值得关注。
当然,AI芯片未来一两年还是会有很多挑战,比如资本市场过山车般的态度转变,会让很多暂时没实现融资、前期扩张又过于激进的公司陷入困境。
“但硬币总有另外一面,市场态度的转冷,能够让芯片人才安静下来,而不是频繁跳槽抬高短期收入,这对行业的健康发展,对有长期价值的公司反而是好事”,项之初补充。
写在最后
自去年10月,美国发布新规阻止英伟达向中国出售尖端AI芯片以来,英伟达陆续推出几款“特供”芯片,以便在合规情况下继续在中国的生意。
不过,几家头部云厂商近期表明,订购的芯片数量远远少于原计划购买的已被禁的高性能芯片。知情人士称,一方面,这些云厂商将先进半导体订单转移给了本土芯片公司;另一方面,他们也在更多依赖公司内部开发的芯片。
短期来看,国产AI芯片与英伟达降级版芯片的性能差距在缩小,但论及中美芯片局势实现逆转还为时过早。正如几位受访人所指出,AI当前面临的形势是极其复杂的,既需要底层技术的根本变革,也需要软硬件生态、上下游供应链的合力发展,同时,也要充分看到AI大模型的发展方向,下沉到边缘、端侧是必然方向,也将给多元算力发展带来全新机遇。