• 正文
    • “R1让实际情况恰恰相反”
    • 市场是否“买单”?
  • 相关推荐
申请入驻 产业图谱

黄仁勋首次公开回应DeepSeek影响,原因是……

02/24 12:50
1286
加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

英伟达股价因受DeepSeek影响而经历了一轮过山车般的起伏后,黄仁勋终于站了出来。

2月21日,一段黄仁勋的受访视频出现在其合作伙伴DataDirect Networksg公司举办的线上活动。在访谈中,他首次公开回应了DeepSeek是否利好英伟达的相关话题。

“R1让实际情况恰恰相反”

“DeepSeep-R1作为全球首个开源的推理模型,令人十分兴奋。R1模型的开源,让全球的热情也变得非常高涨。”黄仁勋表示。

他首先否定了一个既有认知:从投资者的角度来看,有这样一种思维定式——AI世界就是先做预训练,然后就是推理。而“推理”就是给AI提出一个问题,它立刻给出答案。

“虽然不知道这种思维源自哪里,但它显然是错误的。”黄仁勋强调。

为此,黄仁勋给出了详细的解释:正确的模式是先进行预训练,让模型对信息有一个基础的理解,预训练后要持续保持严谨。第二个阶段是最为重要的后训练(post training),也就是模型学会解决问题的过程。在这一阶段,模型已经有了基础的信息,而后运用这些基础知识去解决实际问题。后训练阶段与一系列不同的学习范式相关。在这些范式的推动下,AI技术在过去五年发展得非常迅猛,计算需求也因而变得极为密集。“大家会觉得预训练要少得多,但是他们忘记了预训练之后的第二部分——后训练其实(计算需求量)是相当大的。”他表示。

黄仁勋提到了第三条缩放定律(scaling law)。推理越多,回答问题前思考得就越多,推理效果就会越好,这是一个计算量相当大的过程。

“所以市场对DeepSeek R1问世的反应是‘天呐,AI到头了!’,就好像有了它,我们便不再需要进行任何计算了,但实际情况恰恰相反。”黄仁勋表示。

市场是否“买单”?

2025年1月,DeepSeek推出低算力成本的开源大语言模型R1,以仅560万美元的训练成本实现了与OpenAI o1等闭源模型相当的性能。这一成果挑战了传统AI训练依赖高算力芯片堆料的商业模式。

受此影响,英伟达市值曾一度下跌,尤其在1月27日跌去近17%,一夜蒸发近6000亿美元,创美股单日市值蒸发纪录。当时,投资者们担忧AI行业对英伟达芯片的需求可能大幅减少,导致市场对算力泡沫的恐慌。

事实上,英伟达官方在股价暴跌后迅速发声,指出DeepSeek的成功恰恰证明了其芯片的实用性,并强调“推理阶段需要大量英伟达GPU和高性能网络”,未来市场需求将随着AI应用扩展而增长。但当时的发声并未对其股价回升起到实际效果。

随后市场逐渐认识到,DeepSeek的创新可能推动更多中小型企业进入AI领域,反而刺激对GPU等算力芯片的增量需求。英伟达股价在接下来近一个月里震荡回升,目前已逐渐“收复失地”。

值得关注的是,此次黄仁勋的发声在英伟达财报公布之前,2月26日美股盘后,英伟达将公布四季度财报。虽然此次黄仁勋正面表达了对于DeepSeek问世将利好英伟达未来的信心,但市场的真正反映将有赖于其财报给出的关键数据。

作者丨杨鹏岳编辑丨张心怡美编丨马利亚监制丨连晓东

英伟达

英伟达

NVIDIA(中国大陆译名:英伟达,港台译名:辉达),成立于1993年,是一家美国跨国科技公司,总部位于加利福尼亚州圣克拉拉市,由黄仁勋、克里斯·马拉科夫斯基(Chris Malachowsky)和柯蒂斯·普里姆(Curtis Priem)共同创立。公司早期专注于图形芯片设计业务,随着公司技术与业务发展,已成长为一家提供全栈计算的人工智能公司,致力于开发CPU、DPU、GPU和AI软件,为建筑工程、金融服务、科学研究、制造业、汽车等领域的计算解决方案提供支持。

NVIDIA(中国大陆译名:英伟达,港台译名:辉达),成立于1993年,是一家美国跨国科技公司,总部位于加利福尼亚州圣克拉拉市,由黄仁勋、克里斯·马拉科夫斯基(Chris Malachowsky)和柯蒂斯·普里姆(Curtis Priem)共同创立。公司早期专注于图形芯片设计业务,随着公司技术与业务发展,已成长为一家提供全栈计算的人工智能公司,致力于开发CPU、DPU、GPU和AI软件,为建筑工程、金融服务、科学研究、制造业、汽车等领域的计算解决方案提供支持。收起

查看更多
点赞
收藏
评论
分享
加入交流群
举报

相关推荐

登录即可解锁
  • 海量技术文章
  • 设计资源下载
  • 产业链客户资源
  • 写文章/发需求
立即登录