“我们总是高估两年后的变化,低估未来十年的变革。”
在这个科学与资本和聚光灯紧密结合的时代,比尔·盖茨的这句话非常贴切,尤其是过去几年来的人工智能领域:
一方面,去年底今年初ChatGPT横空出世,妇孺皆知,“所有业务都值得用人工智能重新做一遍”;
另一方面,对已经真正在赛道上坚持了十几年、甚至几十年长跑的选手来说,利用好当下的聚光灯,在关键节点咬牙冲刺,为今后的赛程积攒更多能量和资源,才是内行的门道。
对真正关心这项技术发展和竞争格局的朋友们来说,上月末国内有一件大事,那就是科大讯飞一年一度的1024开发者节大会。
两个背景让这次大会更加引人注目,一是近期美国政府更新了出口管制规定,计划阻止英伟达等公司向中国出口先进算力芯片;二是在“一带一路”大会上,中方提出《全球人工智能治理倡议》,站在国际社会大多数的立场上,宣示西方并非全球人工智能技术和生态的唯一选择。
01. 科大讯飞的深耕与产业生态的共建
说回讯飞1024大会本身,会上气氛热烈,干货很多,科工力量的小伙伴也受邀来到现场,也参与了董事长刘庆峰和研究院院长刘聪的闭门采访,务实、坦诚、高效是这些技术大佬给人的印象。
我们在这一期希望把看到的亮点做一个简单梳理,加上一些自己的理解,希望了解更完整内容的小伙伴,可以移步科工力量B站官方,有一个半小时的发布会全程回顾。
首先是通用大模型技术本身。
本次,星火认知大模型V3.0亮相,第三方评测认定对标ChatGPT(GPT3.5版本)实现整体能力超越,讯飞如期到达今年的第三座里程碑,刘庆峰在发布会上情绪激动,立下新的flag:明年上半年要对标GPT-4。
为什么情绪激动?因为这件事情很难,很重要。
我们先从澄清一个说法开始。
过去一段时间,很多报道喜欢渲染“百模大战”,好像做大模型很容易,很多人都在做,这是很大的误导。从技术角度,把大语言(LLM)底座模型、开源微调模型、行业垂直模型等不同类型大模型放在一起比较。是把不在一个难度级别的事情强拉在一起。
底座模型(LLM)是一种基础的大模型,它已经掌握了大量的通用知识,可以应用于多个领域;开源微调模型是在底座模型基础上进行微调的模型;行业垂直模型针对特定行业或领域,如医疗、金融、法律、教育等。
在实际应用中,如果只强调通用性,底座模型(LLM)更为合适;如果任务专注于某一特定领域,那么基于底座模型进一步提炼行业垂直模型会有更好的表现;而开源微调模型是更灵活的解决方案,可以在通用性和专业性之间取得平衡。
可见,对AI应用来说,底座模型(LLM)是一种基础设施,参数量巨大,需要的训练数据量也极多。
不说必须的人才和工程师队伍,单说资金成本,有机构今年2月估算,以ChatGPT今年1月的水平,需要3万多块英伟达A100卡( GPU),初始投入成本8亿美元,每天电费5万美元。GPT3训练一次成本140万美元,更大的模型每次训练成本在200万美元到1200万美元之间。
既然是基础设施,它就有边际成本递减的特点,基于一个底座模型开发的实际业务用途越多,越有利于摊薄庞大的训练成本,也越有利于底座模型能力的进化迭代和生态繁荣。
因此,如果是在别人的底座模型上去提炼行业垂直模型和做开源微调模型,不仅关乎数据安全和自主可控的问题,而且是在给别人的生态添砖加瓦。
今天,英伟达GPU+CUDA开发工具+OpenAI的算法和大众影响力+优质英语语料数据+全球优秀开发者+成熟的资本市场的大模型生态,无疑是一个强势生态。
在这个基础上,对潜在竞争者掐紧底层,开放上层,复刻wintel生态的一统江湖,是对方早已摆上棋盘的变化图。但这对中国和广大发展中国家意味着什么,不言而喻。
对此如何破局,是我们要讲的第二个重点。
在发布会现场,科大讯飞携手华为,发布基于昇腾生态的“飞星一号”大模型算力平台,科大讯飞董事长刘庆峰、科大讯飞总裁吴晓如和华为轮值董事长徐直军、华为公司董事质量流程IT总裁陶景文、华为董事ICT产品与解决方案总裁杨超斌共同宣示,将致力于为世界“提供第二种选择”。
刚才已经讲过,底座大模型(LLM)是AI行业应用的基础设施,算力平台则是更底层的,训练底座大模型的基础设施。要训练对标GPT-4的大模型,就需要更高性能的底座,聪院(讯飞研究院院长刘聪)在采访中给出了一个数字,“一两千张卡不够,需要3000-4000P的算力,也就是说万卡级别。”
一方面,需要这么大的算力,另一方面,这种规模的算力不可能即插即用。算力平台、算法和框架之间的协同和优化极其重要。
合作分工上,科大讯飞更专注应用和算法,华为负责算力平台,双方共同研发了高性能的算子库,使同样的算力、带宽条件下,训练效率得以提升一倍以上。
所以,徐直军这次是作为星火V3.0大模型的幕后团队代表亮相的。从5月6日开始,华为的团队就常驻合肥,跟讯飞团队一起熬夜加班,刘庆峰把双方的攻关团队亲切称呼为“联合特战队”。今年中秋节,这支队伍都没有休息,讯飞把华为团队的家属都接到合肥一起过节。
刘庆峰在采访中说得很坦率,也很动容。
他说,使用英伟达成熟的算力产品可能一个月就能干成的事情,用国产的可能要三个月。那边市场上又在打仗,别人用的是最豪华的武器;我们一边在打仗,一边磨练武器,在这个过程中要投入的就更多,压力可想而知。
但这一步非走不可。因为,不管是国产操作系统,国产算力平台,还是大模型,都有一个从打磨、到可用、逐步到好用,再到整个生态繁荣的过程,早期一定会花费更多成本,这是事物的客观规律。如果谁都不肯往前走一步,国家始终就无法自立自强。
第三个重点是应用和生态。
如何寻找和解决“刚需”,实现社会价值和商业逻辑,都在这一part。
刘聪有一个锤子和钉子的比喻,“当你有一把锤子的时候,你看所有的东西都像是钉子”。这就是我们曾经尝试用AI技术的通用能力解决各种场景与问题。
但慢慢发现,通用能力在实际应用中往往难以适应不同的场景需求,这就像发现每个钉子的形状都不同。
于是衍生出两个尝试方向:一是继续强化锤子的通用性,尝试打造一把万能的雷神的锤子;二是尝试根据不同的钉子定制锤子,这伴随了行业定制的复杂性、高成本等问题。
后来又发现第三条思路,就是把锤子的改造和应用的探索开放给大家,来适应更多样的需求。
这恰好能对应讯飞的“1+N+X”的战略,其中,“1”是通用认知智能大模型算法研发及高效训练底座平台;“N”是应用于教育、医疗、人机交互等各个领域的自有产品;“X”是开放生态。
分别展开一下,首先是万能锤子,徐直军在现场非常实诚地为讯飞打了一个广告。他说,华为在全球所有智能终端上使用的语音技术,都来自于科大讯飞,不仅是中文,是几十种语言。
翻译,恐怕是近年来人工智能发展最让普通人拥有获得感的方向之一。
这次讯飞展示的另一把“万能锤子”:代码能力,说到底也是一种翻译能力。
因为“最好的编程语言是自然语言”,今天,千行百业都说数字化转型,数字化转型离不开IT部门,但IT部门不是转型主导者,IT的工作是把主导者的思路翻译成软件,如果这个翻译过程能被机器取代,将节约大量的沟通和摩擦成本。
讯飞总裁吴晓如和代码产品负责人张致江在代码论坛现场演示了大模型如何从拆解和分析需求开始,一步步生成软件产品,有兴趣的朋友可以去看看录播。
其次是定制锤子,现场既展示了讯飞多年深耕的教育、医疗、人机互动等赛道的升级,也发布了科研、金融、工业等领域的12个行业大模型。
现场演示的医疗大模型和科研大模型令人印象深刻,值得一提的是,医疗大模型并非要取代医生,而是致力于帮助亿万普通人触达基本的医疗知识;科研大模型并非取代科研工作,而是帮助人提升获得知识和前沿信息的效率。
这里顺便回应一下关于人工智能会带来失业、毁灭人类等常见大众焦虑:
我们认为,这种焦虑并非来自人工智能本身,而是来自于这个强大变量被注入后,有的人担心既有格局被冲击,有的人担心既有格局被加强。人工智能究竟被用于更好地控制大众,还是更好地赋能和服务大众,恐怕这也是徐直军说的“第二种选择”的题中之义。
再来讲讲大家一起玩锤子,也就是生态建设。当下,发现锤子的用途和改造方式急需千行百业的“脑洞”和“奇思妙想”,也需要各种各样轻巧创新的工具和小部件。
比如大模型知名工具LangChain,将提示词(Prompt)的管理和编排做得很好;ELMo工具具有根据上下文动态调整词向量的能力,使得对话系统的表现更加流畅。
LangChain页面
刘聪在采访中透露了一组星火大模型生态开发者的数据:从5月6日至今,生态开发者数量从400万迅速上升到530多万,增速是去年同期的三倍多。他估计,其中已经跟讯飞链接,比较认真在做大模型相关研发的开发者数量已达10万左右。这个规模是比较狭义的星火生态。
更广义的生态,不但包括整个“1+N+X”的体系,还包括作为支撑的整个社会外部环境,从逻辑上来说,1是N和X的基础,有了足够扎实的1,才能有N和X的衍生,N和X繁荣带来的数据、人才、资金等资源会反哺1,形成正向循环,也会出现强者愈强的先发优势和马太效应。
今天我们看到,OpenAI的GPT-4大模型是世界领先的,不管是刘庆峰还是刘聪,都坦诚面对这个事实。但是,当前中美两大市场因为种种原因处于割裂状态,大大削弱了这种先发优势,中国市场足够大,足以支撑起一套自有生态的起步和起旋。这是站在中国视角来说。
站在人类命运共同体视角来说,大教堂和集市要结合,绝对的集中和绝对的自由都不可取。对所有用户和消费者而言,存在两种以上AI生态的多极化竞争,才可能在更高层次上形成共赢博弈,这是我们理解的“为世界提供第二种选择”的另一层意义。
02. 升华
在当前的热闹喧嚣中,我们还想谈一点历史。
就像我们在开头说的,人工智能并非始于当下,而是一场从上世纪50年代就开始的马拉松,它是一个螺旋式前进的过程,已经经历了三波浪潮和两次低谷。日本的五代机路线失败了,今天聚光灯下神经网络路线和OpenAI,也长期经受打压和质疑。
在这个过程中,大量资源投入可能是必要条件,但越用力,在方向上的把握就越重要,就如刘聪所说,“对算法没把握的话,错一个东西,三个月就过去了。”更宏观的层面上,也是这样。
中国人工智能研究始于上世纪70年代末的第二波浪潮,当时不仅在符号主义的研究上取得了世界级的成果,也赶上了神经网络研究的浪潮。更重要的是,在大方向上始终保持大致正确,尤其在上世纪90年代全球人工智能研究进入低谷的时候,国家主导的863(-306)计划孕育了一大批人才,也孵化了科大讯飞、汉王、寒武纪、中科信利等一大批领军企业,使我们追赶到今天的位置。
对于中国发展人工智能的长处和短处,鹏城实验室主任、中国工程院高文院士有一个高度概括的论述。
总体来讲,我国发展人工智能有优势也有短板,优势有四个:强有力的政策支持、庞大的数据、丰富的应用场景、非常多的有潜力的年轻人。同时有四个短板:基础理论和原创算法薄弱、关器核心元器件薄弱、开源开放平台建立不足、高端人才不足。
实际上,科技部在新一代人工智能发展规划方面已经有了一个很好的前瞻性考虑,基本原则有四个:一是科技引领,二是系统布局,三是市场主导,四是开源开放。目标是在 2020年中国的人工智能能够和世界同步,到2025年其中一部分能够达到领先水平,到2030年总体上能够走在前面。
今天我们说了那么多,也是希望弥合一点信息差,让更多人认识到这件关乎所有人命运的事情,减少误解,凝聚共识,使更多的关注和资源配置到正确的方向上。我们一定能够以星星之火,成就燎原之势,引领新一轮通用人工智能带来的变革。