7月8日,2023世界人工智能大会期间,科大讯飞总裁吴晓如出席,带来题为"人工智能促进金融创新"的主旨演讲并接受了媒体的采访。
他指出,大模型描述的语义空间和人类语义空间越来越逼近,已经产生“类人”智慧,产生了智慧涌现,通用人工智能曙光已现,这可以极大地把我们从很多脑力劳动中解放出来。
作为中国人工智能的头部企业之一,讯飞此前提出,中国AI大模型既要“弯道超车”,也要“直道冲锋”。
吴晓如认为,目前国内大模型与国际顶尖的认知智能大模型对比还存在综合实力、平台能力等差距。在“直道冲锋”的过程中,芯片、高质量数据、系统迭代等方面仍然挑战严峻;但国内在大模型各技术领域方面有长期的探索与积累,核心技术方面的系统性创新也“开花结果”,在认知智能大模型的长跑中要有底气和信心。
以下是演讲和采访实录(有删减,小标题为编者添加)。
吴晓如:现在大家都在说又迎来人工智能一个新的技术革命,而且是一个颠覆性的技术革命。我们觉得虽然目前还不是通用人工智能,但是它已经出现通用人工智能曙光,或者我们看到通向人工智能的桥梁,对我们未来十年、二十年工作和生活产生多大影响。
其实现在的通用人工智能,或者说通用人工智能的前奏,大模型,差不多是万亿级参数来模拟我们人的大脑,虽然它的工作机制不完全一样,但是刚刚前几位专家都已经说过,它产生了智慧涌现。
讯飞1999年成立,过去24年一直聚焦在人工智能这一件事情上,起初的使命是让机器能听会说、能理解会思考。很长时间以来,我们感觉非常遗憾,因为机器能够听得清,经常却听不懂,这是认知智能不足,严重影响人工智能的价值链创造。前面张院士专门说到了,十年前的语音识别、图像识别也面临很多领域应用的问题。所以在前几年,我们看到认知智能、自然语言处理很多方面需要大规模定制,很多计算机学院学生做自然语言理解,肯定要做分词断句、摘要、机器翻译,分成很多门类,现在,可能都被大模型一统天下。
它的下一步会很好地去解决很多信息处理问题,原来语音到文本以后,它经过自然语言理解就会遇到一个很大的槛,这个槛就是能不能理解。理解之后,能不能再进行一些逻辑的推理?能不能经过长思维链条推理?能不能经过推理以后生成一些内容?实际上这些在之前都是非常困难的。但是这次大模型的出现,使得很多信息处理的全流程形成了一个闭环。
我们认为,它会带来更加猛烈的第四次浪潮,技术上下一步还有更高天花板,还有非常大潜力。同时它采用循序渐进的方式,将很快进入应用和技术双轮驱动,技术会更快发展,对应用上会产生越来越大的变化。
大模型解决了对整个信息深度理解、推理和生成问题,产生了智慧涌现,实际上可以极大地把我们人类从很多脑力劳动中解放出来。我们先把人类未来的工作、伦理问题放在一边,下一步它一定会产生巨大生产力。尤其通过人机协同以后,这种生产力的释放,我想是非常巨大的。有19%工作可能直接被替换掉,还有50%以上的工作,或多或少有工作场景需要人和机器进行深度协同,我们看一下背后的技术,一般分成三步:
第一,无监督或者自监督的训练,只要给它大量的有质量的文本,它就会自动去训练,就像一个人埋头苦读一样。
第二,有监督下的精细参数调整,一般叫SFT。它经过大量高质量的提示和提示下的答案,对某个问题进行修正,参数修正以后产生的模型,就能在具体的行业领域应用,相当于拜师学艺。
第三,它生成答案怎么更好符合我们人的预期?我们用一种强化学习的函数进行调整,可以使得最后的模型更加符合我们的预期。
总体来说,预训练大模型的语义空间和人类语义空间越来越逼近,这就是正在产生类人的智慧,后续可以通过多模态使它的学习能力和生成能力越来越强,给我们解决越来越多的问题。
我们当时把这个大模型叫作星火,是因为期待它可能是通用人工智能的曙光,或者是一个火花,接下来,星星之火可以燎原,我们想它会非常快地在应用和技术上发展。
人工智能的生态之争
目前我们模型没有全方面的开放,我们还等待监管机构最后的认证。最近从星火大模型应用体验看,我们得到各种不同的报告。
首先,使用人的特点是一线城市、高学历和年轻化;使用时间上,和我们工作时间段比较吻合,工作提效需求成为它最核心的场景。另外比较有意思的是,星火大模型6月9日开放应用助手创新空间,不再需要写程序,只需要给提示,它就能根据你的提示产生各种各样应用,比如写一些政府公文,比如写一些企业文案,这种新的应用创新形式极大地把我们非IT人士的创新动力和需求释放出来。
星火大模型在接下来的过程中,要注意这几个方面。
第一,我们坚持整个星火大模型自主可控。首先坚持算法自主可控。
第二,考虑到现在国际产业链的不确定性,我们现在和国内的一些优秀算力合作。目前我们和昇腾深度合作,在算力资源调度上达到行业领先水平。我们要推动星火大模型,首先,它要是完全自主可控。其次,技术的生命力在于运用,我们把它用到我们自己的产品里,比如学习机、办公本和翻译机已经融入了星火的模型。
第三,我们要和交通银行这样头部企业共同打造行业大模型。昨天在钱行长亲自见证下,我们已经和交通银行共同成立了人工智能的创新实验室,我们要加快使得星火大模型能够赋能我们的行业。
第四,继续坚持平台开放原则。作为2017年我们国内第一批人工智能开放企业,一旦国家认证放开以后,我们就会把星火大模型全面加入科大讯飞人工智能开放平台里面。目前开放平台集聚近500万个人开发者和企业。下一步是将星火大模型理解和思考能力融入业务流程里面。之前很多的人工智能感知能力更多的是一种工具性应用,所以它和整个业务流程耦合性并不深。下一步,随着认知技术成为我们底层能力的一部分,它会为我们整个企业的各种应用创新带来更大的变化。
如何克服大模型“一本正经地胡说八道”?
大模型的不足之处,在于它的技术原理,有可能是一本正经地胡说八道。它如果不和行业专业数据库或者专业应用插件进行对接,那么可能它提供的是过时或者不专业的答案。同时现在这个技术需要做进一步的技术突破,让我们的大模型更有“自知之明”。大模型提供一个答案时候,它并不能意识到自己说得不对。
要解决大模型在行业中的问题,还要把它优秀的语言理解能力和推理概括表达能力,与一些优秀APP、行业知识库结合起来。我们推出一些技术方案,把行业知识大模型训练中自监督和有监督过程中进行融合,同时把一些类搜索技术结合起来,这样让我们大模型在行业应用中可以扬长避短。
接下来简单说一下我们在金融应用创新中的初步考虑,这个目前还不是很成熟。
讯飞一直把金融中的应用作为我们非常重要的一个方向,下面是它几个重要的价值点。
第一,获得客户和维系客户或者说营销获客。
第二,运营降本,怎么在一系列金融环节中让机器能够做更多事情,把整个成本降下来。
第三,怎么做风险防控。这次大模型提供的技术能力和这三个未来我们要产生价值的方面非常吻合。在每一个需要产生价值点的地方,对输入信息做理解、抽取和推理,最后我们给不同用户提供不同产品和解决方案。我们看到人工智能,尤其以新的大模型为代表的新人工智能的出现带来了非常多新的应用机会。
对大模型有几个展望。
第一,大模型是一个质的突破,也是颠覆式、里程碑式的突破,而且它的后续潜力还会很大。因为大模型向应用界产生应用也不到一年的时间,未来的需求导向对这个技术产生优化作用会更大的。
第二,我们觉得大模型的生命力在于应用,我们不会等到大模型完全成熟后,才开始应用。虽然它有一系列问题需要解决,但是我们可以从一些稳定的高价值场景,先切进去循序渐进,然后在应用中我们和学界共同去解决一系列的问题。
第三,大模型支撑下的数字化应用将推动人和机器更加紧密协同。我们之前讲19%的工作可能在以后几年内逐渐被替代掉,还有50%多的只能部分替代他工作中的场景。而这部分就需要人和机器更加紧密协同。下一步不仅要技术创新,模式创新和流程创新变得更加重要。
采访记录整理:
问:应用是今年大会期间针对大模型都比较关心的问题。讯飞星火目前已经是国内应用生态比较完备的,但似乎还不够。您认为大模型下一阶段的发展方向是什么?尤其是如何实现商业化的落地?
吴晓如:首先,大模型一些基础能力已经可以开始用了,像它的理解和逻辑推理这些,已经可以解决很多行业中的一些问题,比如说客服、营销、文案的书写等。但它里面也还有一些问题,比如提供的知识不够专业,可能会过时。这些就需要我们和一些行业知识库做一些紧密的融合,让机器更好地对接行业知识库。大模型背后的机理,除了学习大量的文本外,还要进行一些针对行业知识的精细的调整,像交通银行这样的机构都可以参与进来。最近一段时间在金融领域,我们和中国人民保险集团、交通银行都建立了联合的创新机构。昨天我们和交通银行建立了人工智能创新实验室,把讯飞的大模型能力和行业知识库、行业应用能力结合起来。这样很快就会有应用推出,然后在此基础上,它会反向牵引,然后大家再做进一步的融合和深化,这是一个层面。第二个层面就是,现在对外互联网或者公开的开放平台上,还需要等到监管机构发牌以后,我们才能正式运作。但是现在有很多的开发者通过预体验的形式,已经把他们的应用和我们的系统做了一些对接了,包含了我们提出的一个概念叫应用助手,它通过写一些提示词就可以创作各种各样的一些新的应用。这两种模式都在往前推进了,一个是现有的APP怎么接进来,第二个是它怎么基于现在的大模型产生一些新的应用。所以我们一旦等到监管机构发牌以后,我们就会在讯飞开放平台上向开发者和中小用户开放。所以同时有两条线,一个是大的行业,一个是一般性的企业。
问:科大讯飞在这次大会上成为国家人工智能标准化总体组大模型专题组的联合组长单位,然后也和华为、腾讯一起加入到了大模型合作生态共同体。您个人是如何判断一个好的大模型有哪些标准?以及在这种生态共同体或者工作组里面,不同企业之间的协同和竞争关系又是怎样的?
吴晓如:现在是一个大模型满天飞的时代,有些大模型是自主研发的,有些是开源的。但是想要未来让它更加有价值的话,还是要在应用中产生价值,尤其是怎么让应用端来了解大模型,否则他们的理解可能会比较抽象。在这里面就涉及一系列的对大模型的评测。这种评测既有基础能力的评测,比如语言理解能力、逻辑推理能力、思维链,以及长文本的生成过程中,生成的内容怎样才算比较合理,都需要一系列的评价标准。我们讯飞是属于比较学院派的做法,在讯飞启动大模型攻关专项之初,认知智能全国重点实验室就牵头设计了通用人工智能的7个重要维度能力能力的一整套的测试方法。在这套体系出来之后,便与中国科学院人工智能产学研产业联盟(侧重产学研源头技术创新)和长三角人工智能产业链联盟(侧重产业链应用落地)的众多的专家、合作伙伴进行共同探讨,达成广泛共识。这些评价标准也被友商和合作伙伴引用。因为整个行业刚刚开始,处于非常早期的阶段,为了大模型更加健康地发展,行业内需要一个标准,通过健康的引导来实现协同发展。这就是为什么工信部信通院牵头成立了一个标准工作组,旨在形成一套覆盖多任务的大模型能力客观评测体系,引导中国认知大模型技术和产业健康发展。下一步希望与联盟单位基于通用评测体系,共同推动行业评测方案落地,让认知大模型技术真正解决社会刚需。行业中很多合作伙伴的协同关系非常强。我们昨天和华为正式发布了基于昇腾算力的底层算力平台。虽然华为有类似的盘古模型,但是大家仍有很多可以协同的地方。比如腾讯在应用服务上有非常成熟的生态,也是交通银行的安全合作的伙伴。所以行业内现在主要玩家的协同大于竞争。
问:现在有个说法是“百模大战”,我们讯飞有什么独特的优点,以及我们目前需要攻克的难点有哪些?
吴晓如:我觉得讯飞的优势在以下几个方面,第一,长期聚焦于人工智能。讯飞自1999年成立以后一直都是在搞人工智能。比如说,现在很多大模型好像是刚刚出现,但实际上这与讯飞以前在医疗、教育里面做各种模型的方法都是一样,只是以前模型的参数规模没有这么大。第二,讯飞有一个非常有经验、也非常强大的团队。讯飞的模型根本就不用开源,因为我们完全自主完成。这样未来形成一个技术优化的闭环,我们上升的空间才会更快。一旦某一些东西受制于人,就会存在非常多的问题。第三,和应用的结合。长期来看,讯飞是一个to B型的企业。大模型下一步的应用是要形成深度、有价值的应用,其所以B端的牵引还是非常重要的。我们虽然不是一个互联网企业,但是B端一些牵引对大模型下一步成熟是非常重要的。
问:科大讯飞和昇腾在哪些方面有具体合作,国产算力支撑的大模型,它的优势在哪里,又有哪些地方需要加强?
吴晓如:第一,国外的算力,做了那么多年,肯定更有优势,但问题是,它们现在是不可控的,搞不清哪天可能不可用。所以我们必须自己做,国内一些算法领先的的企业和战略企业必须要投入。第二,芯片制造、设计的工作昇腾在做,但实际上一个算力平台更强的方面可能在于软件和生态,比如工具链、算法优化。高通、英伟达强大的原因,不仅仅是硬件,更多的是软的方面强。所以和昇腾合作时,我们擅长做算法优化。在各种硬件上,我们天然地知道怎么在一个平台上把算法优化的非常好。现在和昇腾合作后,把我们的软优势和他们的硬优势结合起来,我相信我们会很快给市场提供结合以后比较强大的技术平台。具体合作中昇腾提供底层的算力平台。利用昇腾的卡并搭建基础的算力平台。讯飞在它的基础战略平台上,把大模型的算法从训练站到推理站,把它性能优化好,这样就形成了一个未来联合的创新体。
问:有一个观点是未来通用大模型的提供者可能只有1到2个厂商,您怎么看这个观点?
吴晓如:这东西很难说,到底未来是3到5家,还是6到7家。如果只有1到2家,是不是意味着以后的竞争更是巨头之间的较量?我觉得基础平台可能要有一些大企业,但是很多垂直领域有行业数据,一旦融合以后,它可以产生很好的垂直效果。所以可能也有一些在行业领域内非常有优势的企业可以做得很好。
问:目前大模型的竞争格局日渐白热化,但是产业端特别是传统产业发展节奏却没有大模型那么快。您怎么看大模型和这种产业结合的落地节奏?
吴晓如:其实整个产业端的介入,它是需要一个过程的。因为AI需要数据,所以首先从一些数字化技术好、应用价值大的公司开始,比如金融、汽车,因为这些行业本身对数字化的重视程度都比较高。大模型与产业结合后有比较直接的效果。比如说在民生里面的教育和医疗,大模型产生的价值非常直接。这样结合起来就会比较快。但是在一些传统的制造业里,估计需要一个循序渐进的时间。其实现在无论是我们还是一些制造端企业,都没有找到马上能落地的结合点。目前,讯飞有羚羊工业互联网平台,我们在平台上和一些比较成熟的工业企业开始做对接了。我们认为,人工智能价值兑现有三大标准:真实可见的实际应用案例、能规模化推广的对应产品,以及可用统计数据证明的应用成效,大模型也是如此。星火认知大模型从攻关启动便已明确“1+N”的体系,其中1是指通用认知大模型,N指的是大模型在教育、医疗、工业、汽车、办公等各个领域的落地。之所以“1+N”同步进行,一方面是此前在“N”的行业领域中有较好的业务和场景基础,第二也是因为“N”会让“1”的能力持续迭代进化,所以双方是互相促进、共同进步的。
问:有观点认为在一些垂直领域里,我们用一些参数量比较小的专业模型也能解决问题。也有观点认为,通用大模型的能力起来后,会对行业产生一个淹没的效果,它什么都可以做,您对这两个路线是怎么看的?
吴晓如:我举个例子。10年前我们做语音识别时,有电话场景模型、汽车场景模型、办公场景模型。随着语音识别的通用大模型越做越好,大家就不用专用模型了。但是在通用大模型没有出现之前,或者它的效果比专用模型差的时候,大家还是会用专业模型。目前可能也会经过这么一个阶段。
问:未来人工智能大模型还会是一个生态之争,GPT是在利用全球的优质语料进行迭代,建立中国力量和影响力的时间紧迫,能否展开讲讲这个问题?讯飞最近还提到,中国AI大模型既要“弯道超车”,也要“直道冲锋”,怎么理解?怎么做?
吴晓如:第一个问题,大模型的出现也让数据迭代与以往不同了。ChatGPT作为先行者,全世界优秀的科技成果、经验和专业人士都在给ChatGPT和GPT-4贡献智慧。大模型的智慧能力自进化需要全世界知识和用户反馈的喂养,这对于大模型进化来说非常关键。
第二个问题,首先,目前国内与国际顶尖的认知智能大模型对比还存在综合实力、平台能力等差距,要正视差距,并且以最先进水平为目标奋起直追。在“直道冲锋”的过程中,我们会遇到各种困难与阻碍,例如芯片、高质量数据、系统迭代等方面仍然挑战严峻;但国内在大模型各技术领域方面有长期的探索与积累,核心技术方面的系统性创新也“开花结果”,加上国家对这一领域的高度关注,我们在认知智能大模型的长跑中要有底气和信心。
“直道冲锋”是一场“持久战”,这条道路上产业需要先行,创新应用后带动生态圈的整体发展;但想要对标目标并保持差距不断缩小,“后劲”也至关重要。在做出阶段性成果之后,产业发展与科研创新必须协同并进,彼此范式持续迭代、相互促进,才能为我国自主大模型的发展源源不断注入长跑动力,实现革新和蜕变。
在后续的“长跑”过程中,通过产业界和学术界的紧密协同,科研领域也会诞生多方面的开源大模型,让科研界的各位科学家可以在这些模型平台基础上进行更加前沿的创新性工作,语音、图像、自然语言处理等领域的科研任务和目标可能也会出现新的变化。大模型除了对产业界实现生态的革新外,协同并进的方式可能也会为以高校、院所、新型研发机构为代表的科研生态圈带来新的变化。