作者:林偕
【摘要】百度AI正经历战略关键转折。2025年3月,百度宣布文心大模型4.5及X1全面开源免费,标志其十年闭源逻辑向开源生态的急转。
这一妥协背后,是始终难逃的战略摇摆质疑。从IDL重心的偏移到“起大早赶晚集”的智驾布局,一个经典的“重投入-低ROI-战略暧昧”公式出现了。
当然,百度这次似乎只要里子,毕竟,自研昆仑芯万卡集群和最大的生态资源足够让其有充分的发挥空间。
百度不是机会主义者,AI也不是,因此耐心和里子最重要。
搜索添加芯流微信Andrew_7251,深入交流更多人工智能行业新进展。市场与项目咨询、人才服务、决策研判,添加Aristodemus0403。
以下为正文:
2013年初,AI还未成为全球热点,李彦宏在年会上豪言:百度将建立初期专注于Deep Learning(深度学习)的研究院,并命名为Institute of Deep Learning(以下简称IDL),后者成为AI界乃至智驾界的黄埔军校。
12年后,各家大模型当道、DeepSeek席卷全球之时,百度和李彦宏却还在摸索一条让百度重铸荣光的生命线。
2025年3月16日,百度发布文心大模型4.5和文心大模型X1,并抛出一个重磅消息,所有用户免费开放。除此之外,文心大模型4.5还是百度首个原生多模态大模型。
很难想象,一个在AI界深耕10年的巨头公司,会在短短不到两个月内,经历了从"闭源才是未来"到“全面开源”、从内部业务养模型到全面拥抱DeepSeek。
过去的深耕不一定失误,眼下闪电般的转变也尚需等待雷霆效果,唯一可以确定的事,百度似乎终于要“听劝”了。
不过,百度向来都是一个逻辑自洽后愿意放手一搏的公司,在经历了数次“起早赶集”的命题后,大手笔、高速度并不能救百度,接下来的策略才是百度AI的中场核心。
从闭源到开源,李彦宏错了吗
国内厂商中,百度是闭源派龙头,李彦宏本人也多次公开表明立场。
去年7月的世界人工智能大会上,李彦宏表示开源大模型在学术研究、教学领域等特定场景下有存在的价值,但并不适用于大多数应用场景。他认为,在同样参数规模下,开源模型的能力不如闭源,“如果开源能力要追平闭源,它需要有更大的参数规模,这意味着推理成本更高、反应速度更慢。”
而在今年2月的迪拜峰会上,李彦宏的口径则来了个紧急转弯,“开源有助于技术传播和创新孵化”,此时距离DeepSeek发布大模型R1仅仅过去半个月。
业内盛传,是DeepSeek击穿了百度的闭源逻辑,恐怕并不全面。如此大幅的转变是李彦宏和百度一次彻底的决策失误吗?恐怕也很难下定论。
通俗来讲,百度此前闭源逻辑声称的“更有效率”是从综合成本来看的。
按照此前李彦宏本人的说法,闭环的商业化是无数个用户在共享同样的资源,在分摊研发成本、分摊推理用的机器资源和GPU。而资源集中在一家、付费使用是能让有限的推理卡发挥出最大的价值。
DeepSeek是开源的,成本也几乎已经降到了业内最低,但用户和开发者自己部署、部署之后GPU的使用率都要被算进成本模型里面,在各大公司尚且在囤卡的时节,一个普通用户自行部署是相对更没有效率的。
从实际效果上看,一个颇具代表性的现象是,尽管不少组织甚至高校第一时间宣称适配的DeepSeek模型,但喧嚣过后真正能够实现满血版的寥寥无几,一个72B的模型显然不能击溃闭环的优势。
而李彦宏的“开源有助于技术传播和创新孵化”则颇有深意,其背后大概率代表百度意识到一个重要问题:大模型普及得先让用户用起来,有了接受度才有后续的一切故事。这个逻辑和比亚迪做智驾普惠是一个道理。
越来越多的厂商也纷纷尊重了这一铁律。
曾经的闭源王者OpenAI透露“免费加开源”消息,阿里通义千问、腾讯混元早一步布局开源,智谱公司也于今年3月宣布全系列大模型开源。
大势所趋之下,百度很难独善其身,在祸不单行般经历数轮舆论风波之后,开源也是个挽救声量和产品使用率的重要办法。
反复中的百度
对于百度而言,“坚持”是褒义还是贬义?
之所以这么问,是因为百度3月宣布开源的举动,透露了一股熟悉的“妥协”气息。
百度的转变,往往伴随着一套“重资本投入远大目标——ROI不佳——被后起之秀逼宫——对目标暧昧不清”的经典循环。
2013年就成立的众星云集的IDL,很早就首次系统性地展示了深度学习的"幂律增长",为后来的大语言模型发展奠定了重要的理论基础,但当时百度的重点在自动驾驶乃至造车。
ChatGPT爆火后,紧接着推出的文心一言够快,但不够先进。
汽车智驾轰轰烈烈的时候,百度曾瞄准过乘用车辅助驾驶,多次宣称不会放弃L2级别智能驾驶,但在量产上少有动作,并战略性放弃了极越汽车。
正因如此,才有了业内盛传的“起大早赶晚集”。
亡羊补牢为时未晚是真理,咬定青山不放松也是真理,关键在于百度要选哪一个。因为从效果上看,这种无大功也无大过的打法似乎并没有拿下足够优质的市场声量。
一个典型的例子是马云和阿里云。2009年阿里云刚刚创办时,云计算还是一门新技术,不被很多人看好,带队的前微软亚洲研究院副院长王坚经常一筹莫展。
而马云则直接在2012年的阿里年会上放话:“我每年给阿里云投 10 个亿,投个十年,做不出来再说。”
也正是有了马云的支持和在内部强化的信心,阿里云的研发后续一路高歌猛进,成就了一段没有马云就没有阿里云的案例。
百度也并非没有过成功的版块,一直坚持下来的萝卜快跑目前已经打造了国内第一批真正意义上的无人出租车,并成了推动L4路权放开的标杆带头企业。
从这个角度看,无论用户给不给百度耐心,百度首先得给自己耐心。
百度如何打下半场
日前发布的文心大模型4.5,是百度首个原生多模态大模型。
技术层面,市场应该相信百度的理解,原生多模态大模型相较于普通的多模态大模型胜在以统一的架构,去实现对复杂世界的统一理解。
推理成本上,文心 4.5 的推理成本是 GPT-4.5 的 1%,而 X1 的推理成本是 Deepseek R1 的一半左右。
能做到这一点,与其背后的昆仑芯也有关系。
须知,大模型难以降价和开源的其中一个原因是算力紧张导致大模型训练成本、推理成本,乃至使用成本居高不下。而要想降低大模型的算力成本,自研芯片成了一条困难但成效极好的路径。
这一点上,百度智能云今年已经官宣成功点亮了昆仑芯三代万卡集群,这也是国内首个正式点亮的自研万卡集群,不仅解决了百度自身大模型发展的算力问题,也为国内大模型产业发展提供了资源。
大规模GPU集群的构建天然存在高成本、难运维两大挑战,也只有作为国内大模型领域的头部玩家,才能用重资本思考如何构建管理和维护这样庞大的GPU集群,这一点是百度的优势。
除此之外,相较于单打独斗的厂商,百度的原生AI产品还是已经建立了一部分受众的,渠道也远比中小厂商丰富。
对于百度来说,哪怕跟着跑,也绝对超过了大部分同类公司。
但在刚刚起跑时,思考这场跟跑的持续性和坚定性很重要。
按照李彦宏在百度2024年四季度及全年财报电话会上的解释,百度希望通过开源推动文心大模型的性能升级与成本降低,提升市场对文心一言能力的认知,促进其在更多行业的广泛应用。
明显的是,大模型到最小用户单元普及的距离仍然很远,此次的转向能坚持多久是个战略问题。
尾声
不仅仅是从闭源到开源的急转,百度此前的每一步都踩在AI的浪尖上,却也深陷争议漩涡中。
如今的转变,是技术单点升级为生态全域厮杀的大势所趋,好消息是百度的AI叙事从不缺硬核技术,但也仍然需要警惕曾经多次的战略反复。
百度不是机会主义者,AI也不是,因此耐心和里子最重要。
搜索添加芯流微信Andrew_7251,深入交流更多人工智能行业新进展。市场与项目咨询、人才服务、决策研判,添加Aristodemus0403。