7月4-6日,2024世界人工智能大会暨人工智能全球治理高级别会议(简称“WAIC 2024”)在上海成功举办,芯原作为人工智能生态的重要组成部分参展,同期在上海世博中心举办了以《“智”由“芯”生——RISC-V和生成式AI论坛》,重点讨论了RISC-V在生成式AI中的变革力量。
图 | 上海市经济和信息化委员会副主任汤文侃,来源:芯原
上海市经济和信息化委员会副主任汤文侃在开场致辞中表示:“上海已经培育了一系列RISC-V的企业,基于前期形成的成果,上海将加快RISC-V专利池的建设,推动行业共建共享,加强前沿技术的研究和人才的培养,加强与RISC-V基金会的合作,积极参与新指令集的扩展、新技术的探索,研究建立新型的产学研合作机制,推动将RISC-V纳入大学教材,以及上海集成电路紧缺人才的培训计划,进一步优化营商环境,不断完善服务和制度供给,与大家携手同行,共同打造全球领先的绿色发展的产业高地。”
图 | 乌镇智库理事长张晓东,来源:芯原
乌镇智库理事长张晓东在以《大语言模型的原理与发展应用》主题报告中指出:“丘奇-图灵论题是计算机科学的基石,人工智能的起源来自于图灵机,而学习就是图灵机的求逆,学习就是Solomonoff归纳,去年全世界除了OpenAI之外的非常多的企业都在研究BERT,而今天GPT成为主流。要说两者的区别,BERT是双向的,比如给出X1到XN,然后将X2拿掉,再猜出X2;而GPT是给出X1到XN,预测出XN+1,所以说GPT的机制相对BERT会简单一些。”
此外,张晓东认为人工智能主要有三大发展路线,分别为:一、从专家系统到知识图谱的逻辑主义;二、神经网络和深度学习的联结派;三、从细胞自动机到强化学习。
至于未来是大模型主导还是小模型主导,张晓东表示:“当人工智能走向成熟,是少数超级大模型monarchy还是多个模型的democracy?还需要时间去验证,暂时还不能下定论。”
图 | 中国RISC-V产业联盟理事长;芯原创始人、董事长兼总裁戴伟民,来源:芯原
这几年,ChatGPT和Sora让人工智能成功出圈,并产生了全球性的“大模型和AIGC热”。
对此,中国RISC-V产业联盟理事长;芯原创始人、董事长兼总裁戴伟民表示:“在GPT出来之前,人工智能还是弱智水平;到2025-2026年,人工智能将超过大学生水平;而到2027年,AI模型将能够完成人工智能研究人员/工程师的工作,一个领先的人工智能实验室将能在1分钟内训练处一个GPT-4级别的模型。”
从集群部署的角度来看,目前AI大模型“百模大战”其实是“群模乱舞”,预计到2028年,中国基础大模型的数量将少于10个,且用于端侧微调卡和推理卡的销售额将超过用于云侧的训练卡。
聚焦到硬件层面,近期已经有初创团队推出了首款Transformer专用ASIC芯片。戴伟民强调:“到2030年,生成式AI将使智能手机领域的半导体收入增至近两倍。”而芯原的极低功耗IP和FLEXA IP能够为轻量式穿戴和消费电子市场提供更具竞争力的底层基座。
此外,戴伟民还指出:“未来Chiplet、2.5D/3D封装、SIP将成为大芯片的主流解决方案,当前苹果和台积电合作的M系列芯片是最佳的案例展示,下一步当大模型向端侧演变,汽车市场将是发挥Chiplet技术优势的重要战场。”
图 | RISC-V国际基金会理事长戴路,来源:芯原
RISC指令集并不是新生事物,ARM也是其中之一,而RISC-V是第五代,也是最新的RISC指令集。
RISC-V国际基金会理事长戴路表示:“虽然目前加入RISC-V国际基金会大都是小公司,但体量极其客观。”
为什么RISC-V指令集非常适合AI领域,戴路给出了几大理由:“首先RISC-V是开源、免费的;其次是RISC-V的灵活性,AI公司在使用RISC-V架构时确实拥有很大的灵活性,可以根据自己的特定需求添加自定义或特色指令,同时还能保持其兼容性,且如果公司开发的自定义指令集对其他用户也有价值,可以通过RISC-V社区的流程提交提案,争取将其纳入未来的官方标准中;此外RISC-V的生态今天也在茁壮成长,工程师们都很拥抱RISC-V生态。”
根据RISC-V国际基金会的数据统计,当前AI加速器是RISC-V下游生态中市占比最高且增速最快的领域。另根据SHD Group的数据显示,AI加速市场的规模达到26亿美元,占RISC-V SoC市场的42.6%,预计到2030年,AI加速器在RISC-V SoC市场中的占比将继续上升至49.2%,这也佐证了RISC-V国际基金会的结论。
图 | Tenstorrent Inc首席CPU架构师;机器学习硬件架构资深院士练维汉,来源:芯原
AI无疑是改变未来的重要技术,从2012年开始大模型逐渐发展起来,今天几个大模型架构已经趋于成熟,但算力的问题一直没有得到很好的解决,这个挑战必须攻克。
对此,Tenstorrent Inc首席CPU架构师;机器学习硬件架构资深院士练维汉认为:“算力的需求会出现在方方面面,也会分布在各个硬件需求阶段,当前除了数据中心的需求外,Tenstorrent也接到了很多其他市场的需求,面对这种需求,Tenstorrent会采取IP授权的模式去推进。同时,公司开发了基于RISC-V架构和Chiplet技术的AI加速器,这种开放源代码的指令集架构(ISA)已成为Tenstorrent技术的核心,使得公司能够开发出高效率和灵活性的AI处理器,从2021年的Grayskull到2024年的Aegis,当前已经和三星、LG、LSTC等多家国际大厂展开合作。未来,开源的RISC-V还有很多想象的空间,尤其是在算力硬件上,将会发挥更多的赋能作用。”
图 | MIPS CTO Durgesh Srivastava,来源:芯原
众所周知,MIPS曾经是RISC阵营中的早期冲锋者之一,也曾在2018年尝试过开源策略,所以MIPS在AI时代还有哪些可发挥的地方?
对此,MIPS CTO Durgesh Srivastava在以《生成式AI的释放:MIPS和RISC-V的变革力量》为题的演讲中表示:“AI正在驱动未来,赋能千行百业,但算力的支持当前是跟不上算力需求的,提升算力势在必行,而谁又将在AI时代主导硬件的发展呢?MIPS将参与到AI的变革中,在实时自适应的处理器、混合AI/ML和静电处理器、AI驱动的动态电源管理、加速产品定制和AI驱动的安全芯片方面发挥作用。”
与此同时,Durgesh Srivastava呼吁更多的专业人士参与到RISC-V AI社区,利用开放标准进行创新,并通过硬件芯片的架构创新来推动AI算力增长,从而进一步推动AIGC的产业化,促进企业的收入增长。
本次论坛还特设以《生成式AI和RISC-V的融合与创新》主题的圆桌论坛环节,戴伟民主持论坛,以下记录了重点讨论话题与专家们的洞察。
图 | 《生成式AI和RISC-V的融合与创新》论坛,来源:芯原
1、Aschenbrenner(前openAl的安全研究员)于2024年6月发布了《醒世预言(situation Awareness)》,分析了AI从当前状态进化到AGI,并进一步发展到超人工智能(ASI)的路径和潜在影响。基于国内外AI产业发展现状和趋势,请问预计何时可以达到超级智能?会给能源、环境、人类安全带来哪些潜在影响?
华东政法大学政治学研究院院长;人工智能与大数据指数研究院院长高奇琦:当前人工智能发展非常迅速,与此同时2027年可能带来一些“超智”问题。如果这个事情真的到来,一定会带来失业危机;此外还会带来信息泡沫,失去信息信任,影响秩序,包括政治秩序;此外,AGI还会带来失控危机,包括恶意分子利用AI来制作超级武器、超级病毒的风险。因此,大模型必须要做好分级,当前以1000万张H100卡的超级大模型,一定要用控制核武器同样的方法,不能有太多的行为体拥有这样的超能力,否则控制就会非常的困难。此外,还可以参考碳排放的治理模式,用交税的方法来调节速度,并解决它产生的问题。
2、关于少数几个大模型的“专制”问题,是否会出现集中使用少数几个非常强大的大型语言模型(LLMs),如Google的PaLM 2和Gemini模型;这些模型通过大规模数据和计算资源进行训练,能够处理广泛的任务,并在多个基准测试中表现出色?
乌镇智库理事长张晓东:我认为全球AI发展下去,可能有两种结果,一种是极少数的巨型模型主导;另一种是多个较大的模型共存。如果4年之后只有几个大模型,就像全球控制核扩散的手段一样,只有几个大模型的情况其实是有利于管理的。此外,未来超级人工智能超越人类智力的可能性很大,而是否有办法来控制超级人工智能,现在来看,不容乐观。
华东政法大学政治学研究院院长;人工智能与大数据指数研究院院长高奇琦:大模型是知识的基础,会产生一个问题,加入一个世界只有几个非常流行的大模型,都是以英文预料训练的,对于非英语的国家会形成边缘化,消灭知识的多样化,所以近期产生了“主权AI”的概念,所以如何平衡是一个难题。
3、AI和RISC-V如何结合?到底是什么关系?
知合计算CEO 孟建熠:RISC-V始于CPU,但胜于AI领域。今天的架构已经不能满足AI算力需求的上升速度,所以必须要做架构的创新。在过去的10-20年,一个CPU加上很多加速器的架构是主流,而今天“X”PU的繁荣,只有RISC-V的架构能满足其未来的发展趋势,这也是RISC-V生命力的展现。初创公司Etched Al推出Transformer专用ASIC"Sohu"跑出来的性能是英伟达产品的20倍,也是非常好的尝试,而如果他们使用RISC-V会有更多的突破。
4、【投票】针对具体AI模型的ASIC会取代GPU,成为未来AI推理芯片的发展趋势吗?
投票结果:
来源:芯原
5、x86、Arm、RISC-V三角鼎力,哪一种架构做CPU更有优势,在AI PC时代,是否有ARM、RISC-V的机会?
RISC-V国际基金会理事长戴路:AI生态上面最具优势的是CUDA,很多公司做GPU,其实不是因为真正要做GPU,而是为了做AI。Arm和RISC-V都是属于RISC这一条线上的,两者都有它自己独特的优势。与x86相比,Arm和RISC-V更具功耗优势。至于Arm和RISC-V之间的区别,RISC-V可以做到基础模型是一样的,同时还能保留每家公司自己的模型特色;此外,在安全方面,各个国家的AI 保护都是不想被其他国家破解的,所以这也是只有RISC-V才能实现的。
投票结果:
来源:芯原
6、服务器级RISC-V处理器,与Arm和x86竞争未来汽车架构,是否有优势?
芯来智融半导体科技(上海)有限公司CEO彭剑英:我们做处理器很多年,其实架构变化一直不大,确实是因为AI,不管是在服务器还是在端侧,比如汽车,都带来了很大的增量市场。如今,大部分初创公司都在做一件事,就是在所谓的DSA上和通用CPU或者通用GPU之间做更好的平衡。就芯来而言,我们认为汽车式未来一个比较好的增长市场,当然智能驾驶、智能座舱的快速发展有目共睹,这个变化不仅是算力的增强,还需要更好的体验,更优秀的APP赋能。但从这些不同之中,又可以找到一些共性,比如通用安全的AI软件、功能安全、信息安全和及时响应等,这些芯片的融合需要一个统一的软件生态。
那么,为什么会给到RISC-V这样的一个机会呢?这是因为RISC-V架构可以满足汽车电子从低到高所有的需求,满足汽车电子从传统到软件定义的变化,所以我认为RISC-V是汽车电子未来发展的一个趋势。