加入星计划,您可以享受以下权益:

  • 创作内容快速变现
  • 行业影响力扩散
  • 作品版权保护
  • 300W+ 专业用户
  • 1.5W+ 优质创作者
  • 5000+ 长期合作伙伴
立即加入
  • 正文
    • 身位之先,大模型的效率竞赛
    • 技术做厚,大模型的技术差异化积累
    • 应用需广,如何将大模型带到应用一线?
    • 生态需盛,大模型生态建设刻不容缓
    • 从大模型元年到AGI曙光
  • 推荐器件
  • 相关推荐
  • 电子产业图谱
申请入驻 产业图谱

重读AI大模型元年:“百模赶考,文心夺魁”

02/15 09:55
2157
阅读需 15 分钟
加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

把时间倒回一年之前,那时很多媒体和网友讨论,中国能做出来类ChatGPT大模型应用吗?

当时我们就说,不用慌,不用忙,中国一定能做成大模型。转瞬间,被称为“大模型元年”的2023年即将在爆竹声中结束。中国AI大模型,举头已觉千山绿。

根据相关数据,到2023年10月中国市场已经发布了超过230个大模型。“百模赶考”实至名归。但是,大模型数量并不是做成大模型的终点,甚至不是做大模型的目的。

在今天这个阶段,我们必须回答新的问题:大模型有了,怎么才能把大模型做好,用好?怎么才能让大模型为社会经济做出巨大价值?

想回答这个问题,就必须知道大模型的“好”是什么。

评价大模型的质量好坏,不是靠参数,靠规模,而是比效率,比技术,比应用,比生态,最终比谁最好用,谁最有用。

在探讨这些问题时,我们会发现国产大模型格局的另一面:大模型虽多,但普通人知道,用到的却并不多。随便找个朋友问一问,会发现他大概率只知道一个国产大模型,那就是文心一言与其背后的文心大模型。

虽然有数量过百的大模型策马奔腾,但却是文心大模型一骑绝尘。为什么会这样?

理解这个问题,才能理解大模型的本质规律:只有厚积薄发,做深做强,才是国产大模型的未来之路。

岁末回首,重新审视“百模赶考,文心夺魁”的行业格局,能看到AGI的曙光正悄然来到这片土地上。

身位之先,大模型的效率竞赛

在AI大模型刚刚兴起之际,用户对它有好奇,行业对它有渴望,社会经济对它有广泛多元的期待。这时,谁能够率先将大模型带给用户与产业,谁就能够立下先锋之功,通过身位领先来确定自身的行业优势。

回望过去一年大模型行业的发展,会发现文心大模型每次都在扮演先锋的角色。最终将大模型技术最快交到用户、开发者以及千行百业手中。文心大模型的高效率、快节奏,以及这背后的技术领先与产品自信,是其能够保持“一骑绝尘”的首要关键。

2023年3月,百度率先发布了文心一言大语言模型。这得益于百度十余年布局和深耕深度学习技术,并进行了广泛的AI业务实践。从2019年开始,百度就深耕预模型研发,打造了文心大模型体系。厚积薄发,做足准备的文心,在开年之际就达成了一路领先。

2023年7月,在2023世界人工智能大会期间,国家人工智能标准化总体组宣布了中国首个大模型标准化专题组组长单位名单,百度担任联合组长单位。至此,文心大模型正式进入“大模型国家队”,为国产大模型标准化事业探寻航道,确立方向。

接下来,在8月31日,文心一言正式面向全社会开放,成为中国公众能够最早体验到的大语言模型,真正将大模型能力带到千家万户,寻常巷陌。

2013年12月,中国首个官方“大模型标准符合性评测”结果出炉。文心一言成为首批通过评测,符合《人工智能大规模预训练模型 第2部分:评测指标与方法》语言大模型的相关技术要求,通用性、智能性等维度全面达到国家相关标准。

最先推出,最新开放,最先符合国家标准,“先”已经成为文心大模型的关键词。深耕AI核心技术,打造AI生态,带来的是厚积薄发下的高效率与快节奏。

文心之先,一骑绝尘,可以为整个AI行业所借鉴。

技术做厚,大模型的技术差异化积累

在我们讨论AI大模型数量过多,行业饱和的问题时,经常会注意到一个现象:数百个大模型问世,但我们却很难找到这些大模型之间的技术差异化有哪些?更遑论体会到技术差异带来了应用差异。

这个现象出现的原因,在于大模型盲目追求数据量与模型参数,忽视了核心技术的研发与积累。文心大模型之所以反响好,用户认同高,就在于它选择了最厚重,最扎实的技术研发之路。每一代文心大模型升级,都建立在新技术能力的研发与运用基础上。这就导致文心越升级,与其他大模型的技术能力差距就越大。技术的滚雪球现象开始显现,最终形成了文心大模型在技术方面“人无我有,人有我优”的战略优势。堆山百仞,起于垒土。

2023年发布的文心一言背后,是文心大模型3.0。当时文心已经凭借知识增强技术确立了大模型领域的技术差异化,具备知识增强、检索增强和对话增强的优势。

随后到5月,文心大模型3.5版本发布。其在基础模型、精调技术、知识点增强、逻辑推理、插件机制等方面进行了创新,取得了生成效果和效率的全面提升。

到了10月,文心大模型4.0版本正式推出。其在多个关键技术方向上实现了突破,在理解、生成、逻辑、记忆四大能力上都有显著提升。尤其逻辑和记忆能力大幅提升,带给用户非常直观的帮助。

文心大模型能够实现如此高效率、大幅度的技术升级,离不开其背后高效算力、自研框架,以及数据处理机制的协同优化。尤其文心飞桨联合调优,成为业界著名的大模型高速发展案例,在过去一年受到了AI行业的广泛讨论。

文心大模型在万卡算力上基于飞桨平台,通过集群基础设施和调度系统、飞桨框架的软硬协同优化,支持了大模型的稳定高效训练。自2023年3月发布以来,文心大模型的训练效率已提升数倍,周均训练有效率已经超过98%。

对核心技术的探索,对技术差异化的积累,让文心大模型有了技术之厚。这是文心持续领先的底牌与底色。只要在技术上有更高追求,很多问题就自然会有答案。

应用需广,如何将大模型带到应用一线?

想要知道一棵树是不是栋梁之材,不能仅仅坐而论道,把它夸得天花乱坠,而是要把它真正用起来,让它去架梁持屋,发挥自己的价值。

对于AI大模型来说也是如此。大模型是否有用,不是在发布会和测试数据里说出来的,而是在亿万用户,在千行百业手里用出来的。

审视过往一年的大模型行业发展,我们会发现在应用的广度上,文心是其他大模型难以望其项背的。在C端用户,只有文心一言实现了亿级用户规模;在B端应用,文心大模型的调用量超过了其他200家大模型的总和。

跨越数量级的应用领先,让文心大模型在行业用户、开发者、普通用户手中探索出了无数种价值可能。在百度业务当中,文心大模型已大规模应用于搜索、信息流、智能音箱互联网产品;在对外开放过程中,文心大模型通过飞桨开源开放平台、百度智能云赋能制造、能源、金融、通信、媒体、城市、教育等各行各业。文心大模型已与各行业头部企业、机构共建了超过10个行业大模型,加速行业智能化升级。

在国家跳水队,文心大模型对AI辅助训练系统进行了全面升级,不仅能够理解和执行教练与运动员的复杂指令,还可以对动作实时打分、精准量化分析。2023年,中国游泳协会授予百度“中国国家跳水队人工智能合作伙伴”称号。

在与国家图书馆的合作中,文心大模型通过大量学习古代方志和家谱数据,并进行文字识别和理解,打造了“古文今问”服务。用户只需输入寻根信息,就能得到相应的线索反馈,帮助全球华人寻根访祖。

在声桥 AI 语训团队手中,基于飞桨和文心大模型打造的 AI 口语康复应用,可以提供文字形式的反馈指导,帮助听障人士进行语言训练。

桃李不言,下自成蹊。文心的应用之广,是其价值最好的证明。同时也证明了中国的AI大模型并不只有数量,更有应用的质量,有真材实料的智能化探索。

生态需盛,大模型生态建设刻不容缓

我们都知道,做软件最难的就是做生态。生态决定了基础软件技术的探索上限,也决定了其未来长期发展的可能性。在AI技术刚刚发展起来时,做AI必须做生态就成为产业共识。

但在目前阶段,我们可以看到中国有数量过百的大模型,却很少有厂商关注生态建设。长此以往,容易导致大模型变成没人会用,也没人想用的“孤品”。

文心大模型之所以能保持领先,很大一部分原因来自生态的支持与推动。只有千万人共建、共创的大模型,才是有生命力和持久力的大模型。

为此,百度推进飞桨与文心生态共同创新、相互促进。截止2023年12月,飞桨已凝聚1070万开发者,服务23.5万家企事业单位,基于飞桨创建了86万个模型。飞桨生态与文心生态互为助力,推动彼此高速发展。

开发者社区是生态发展的关键支撑,百度打造了中国最大AI社区“星河社区”,伴随大模型的发展,百度正式推出星河大模型社区,为开发者提供一体化大模型开发体验,以及丰富的产品功能。截至2023年12月,星河大模型社区已经推出了超过4000个基于文心大模型的创新AI应用

在生态共创方面,百度发布了文心大模型星河共创计划,希望与开发者和生态伙伴合作,实现AI应用的广泛创新。

与开发者生态的相辅相成的,是人才生态的建设。2020年,百度提出“5年为全社会培养500万人工智能人才”的目标。截至2023年10月,百度已经培养了420万AI人才。面对大模型技术巨大的人才需求,2023年百度发布了全新的人才培养星河计划,将与产学研各界合作,为社会再培养500万大模型人才。

无论从开发者聚合、应用创新、人才培养等任何维度来看,文心大模型的生态建设都已经展现出了繁盛的一面。生态起步快,活力高,受众广,真正实现文心大模型的土壤上“千树万树梨花开”。

可以说,文心生态的兴起,为国产大模型生态的整体建设奠定了典范,拓宽了边界。

从大模型元年到AGI曙光

经过风起云涌的一年,大模型领域的问题,从“有没有大模型”,变成了“能不能做好大模型”“能不能用好大模型”。

面对新问题,新考验,文心大模型在身位、技术、应用、生态四个方面的领先就是答案。

根据IDC《AI大模型技术能力评估报告,2023》显示,文心大模型在14个参评模型中拿下12项指标的7个满分,综合评分位列国内主流大模型第一,并在算法模型、行业覆盖两大关键指标上拿下唯一满分。

在人民数据发布的《AI大模型综合能力测评报告》中显示,文心一言不仅综合评分超越ChatGPT,位居全球第一,更在内容生态、数据认知、知识问答三大维度评分超越ChatGPT。并且六大维度评分均位列国内大模型榜首。

如果说,在大模型元年,我们看到的是大模型的数量。

那么在更远的未来,在我们所期待的大模型之春,需要看到的是大模型的应用质量和普惠价值。

如何才能实现这个进化?文心大模型已经在过去一年,用“先”“厚”“广”“盛”这四个字做出了回答。只有整个行业都以这样的路径发展,去芜存菁,避虚务实,国产大模型才能持续向好,打开行业之春,走向AGI之夏。

2023年8月16日,WAVE SUMMIT深度学习开发者大会2023在北京举行。期间,百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰表示,人工智能具有多种典型能力,理解、生成、逻辑、记忆是其中的基础能力,这四项能力越强,越接近通用人工智能,而大语言模型具备了这四项能力,为通用人工智能带来曙光。

在这场人类科技面向星辰大海的航行中,我们已经见到了曙光,只有找到正确的方向,选择技术长跑,选择生态共赢,才能让漫长的征程一步步落地,让AGI的曙光点点化为现实。

“百模赶考,文心夺魁”的行业格局,本质上是对技术主义与务实精神的肯定。

理解了这一点,也就找到了AI技术发展的前路。

推荐器件

更多器件
器件型号 数量 器件厂商 器件描述 数据手册 ECAD模型 风险等级 参考价格 更多信息
MK64FN1M0VLL12R 1 NXP Semiconductors FLASH, 120MHz, RISC MICROCONTROLLER, PQFP100
暂无数据 查看
ATXMEGA128A1U-AUR 1 Atmel Corporation RISC Microcontroller, 16-Bit, FLASH, AVR RISC CPU, 32MHz, CMOS, PQFP100, TQFP-100
$73.57 查看
STM32F429ZIT6XXXTR 1 STMicroelectronics IC,MICROCONTROLLER,32-BIT,CORTEX-M4F CPU,CMOS,QFP,144PIN,PLASTIC
暂无数据 查看
百度

百度

百度是拥有强大互联网基础的领先AI公司。是全球为数不多的提供AI芯片、软件架构和应用程序等全栈AI技术的公司之一,被国际机构评为全球四大AI公司之一。百度以“用科技让复杂的世界更简单”为使命,坚持技术创新,致力于“成为最懂用户,并能帮助人们成长的全球顶级高科技公司”。

百度是拥有强大互联网基础的领先AI公司。是全球为数不多的提供AI芯片、软件架构和应用程序等全栈AI技术的公司之一,被国际机构评为全球四大AI公司之一。百度以“用科技让复杂的世界更简单”为使命,坚持技术创新,致力于“成为最懂用户,并能帮助人们成长的全球顶级高科技公司”。收起

查看更多

相关推荐

电子产业图谱

你的困惑,来自于无路贴近未知。我们在技术、思想、传播的异界,贩来极限脑量下的TMT。