加入星计划,您可以享受以下权益:

  • 创作内容快速变现
  • 行业影响力扩散
  • 作品版权保护
  • 300W+ 专业用户
  • 1.5W+ 优质创作者
  • 5000+ 长期合作伙伴
立即加入
  • 正文
    • AI落地的冰与火
    • 端、边AI将成为硬件厂商布局重点
    • 人才、高性价比算力是当前竞争核心
    • 前景远大光明,道路曲折漫长
  • 推荐器件
  • 相关推荐
  • 电子产业图谱
申请入驻 产业图谱

AI 2024:回望哇声一片,前瞻道阻且长

01/05 10:21
3756
阅读需 10 分钟
加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

过去的一年,ChatGPT拉开全民AI的序幕,AI经历“iPhone时刻”。这一年,大佬入局、独角兽“宫斗”、千模大战;这一年,AI芯片已经成为不容忽视的产业力量,对于国产芯片来说,如何“戴着镣铐”前进成为产业突围的重点……这是AI狂奔的一年,也是AI不断刷新认知的一年。

高涨也好,低潮也罢,我们不能孤立地看待这些现象。AI这一波发展背后,是应用的快速变焦,炙手可热的计算机视觉、智能语音等赛道暂时平静,AIGC站上风口,相伴而来的还有无止境的算力焦虑……

只有直面困难,才能更好地走向未来。新年伊始,<与非网>对话AI芯片领域几家明星公司,听他们聊聊AI的难处和新机遇。

AI落地的冰与火

2023年,AI产业在生成式AI驱动下迈向新台阶,迎来了爆发式增长,大语言模型以及多模态大模型成为AI产业发展的重要推手。火爆的同时,国内外大模型在大规模应用和落地时也遇到了实际困难。

千芯科技董事长陈巍认为主要有三类:

第一,实际模型与客户场景的匹配问题。由于大模型精度和幻觉问题,好的大模型业务产品需要与客户协作深度打磨,单纯使用RAG方法和向量数据库增强可能还不够,需要结合Pre-train使用Fine-tune或Instruct-tune,并且模型参数量较大且训练时间较长。

第二,大模型部署的成本问题。大部分AI厂商面临大模型部署成本较高的问题,通常需要7nm或工艺更先进的算力芯片、12GB以上的存储,部署越多可能利润越低。

第三,国际大环境的客户需求下降和下行问题,当然这也是国际和国内普遍遇到的情况,不仅限于AI产业。

千芯科技董事长 陈巍

“受到大的经济形势、芯片行业周期的影响,整体来看,AI行业的落地和发展,今年还是低于预期的,不少下游环节反映,AI特性在应用中并非强需求,市场导入的意愿,在目前的大背景下,并不强烈”,时擎科技总裁于欣表示,“AI还是需要算法和芯片更紧密的耦合,相对而言,前期的一次性投入会比较大。这对AI加速落地,形成了一定的障碍。”

时擎科技总裁 于欣

安谋科技市场总监钱电生认为,大模型带来的挑战主要体现在软硬件两方面:

硬件方面,由于主流的AI芯片都是针对并行计算而设计的,更适用于以卷积神经网络(CNN)为主的架构。而如今到了以Transformer架构为主流的时代,则需要更多串行计算的能力以及足够的存储带宽支持;此外,除了硬件算力的提升以外,如何提升计算的效率以及对内存的利用和优化,是众多硬件厂商在大模型时代所面临的最大挑战。

软件方面,大模型的轻量化、如何兼顾性能及精度、实现大模型在端侧设备的部署等问题,有待进一步解决。

安谋科技市场总监 钱电生

端、边AI将成为硬件厂商布局重点

在Transformer大模型热战于云端之际,业界已经看到了它在端侧、边缘侧的市场机会。如何使Transformer在硬件设备尤其是端侧和边缘侧硬件高效运行,将成为硬件厂商未来的重点方向。

于欣表示,对于人工智能算法而言,模型的“大”和“小”,“专用”和“通用”都是相对的。很多垂直领域,十亿参数量级的“大模型”开始在边、端部署。未来1-2年,时擎科技会继续基于语音、视觉、影像等多模态智能交互和信号处理的应用落地。同时,也会密切关注并积极布局大模型在端侧推理的进展。

钱电生认为,未来一到两年,在硬件及架构层面,伴随着算力低成本、隐私、及时响应等需求攀升,大模型的推理会逐步从云端向端侧及边缘侧转移,未来大模型推理市场规模远远大于训练市场已成为业内共识。

Transformer仍是大模型的主流基础架构,业界需要重点关注端侧硬件对Transformer架构的持续优化所带来的算力效率提升。同时,也需要关注下一代新架构的动态,例如微软的RetNet、斯坦福的Mamba等,是否有机会挑战Transformer的主流地位以及可能对硬件架构设计产生的影响有待进一步关注。

软件层面,钱电生强调,“大模型轻量化将成为规模化扩展的关键,有望进一步降低应用成本并带动端侧算力发展,业界需要重点关注大模型轻量化前沿技术与公司产品的深度融合,例如大语言模型推理框架、模型量化压缩的最新算法等。”

同时,面临Meta公司LLaMA为代表的大模型引领的开源风潮,他认为需要继续重点关注新的开源大模型,特别是面向端侧的大模型(参数量<70亿)的性能表现,以及在手机、PC、智能汽车智能终端上落地的应用场景。

在多模态领域,以Stable Diffusion为代表的开源扩散模型已成为文生图领域的主流,未来,需要进一步关注多模态领域文生图、文生视频的最新技术趋势及端侧落地的应用场景。

人才、高性价比算力是当前竞争核心

结合AI产业当前的现实因素,哪些是稀缺动力?陈巍认为,核心是人才和高性价比的算力。从OpenAI的“宫斗戏”可以看到,人才是极力争夺的关键,而不是数据和算法。对国内市场来说,缺乏的不仅是算法人才,更多是算法应用和工程人才。虽然很多开源大模型已经做得很不错了,但是落地时缺少合适的人才把大模型的优势发挥出来。

此外是高性价比的算力。国内很多厂商已经开始大举进入AI领域,但在算力方面,受限于成本和可用的计算卡,推进速度相对慢一些。特别是国内有些优秀的开源大模型团队,由于缺乏算力支持,有些很好的想法可能不一定有条件尝试。

“也正因算力受限,国内的AI产业,特别是大模型技术的发展有些延缓”,陈巍谈到,“尽管我们开玩笑是‘百模大战’、‘千模大战’,但实际上针对国内场景进行了大规模底层Pre-train的国内模型还较少,这使得国内大模型的落地速度也有一定的延缓。”

前景远大光明,道路曲折漫长

辩证看待AI产业当前的发展现状,其实困难往往也意味着新的机会。

陈巍谈到,目前来看,解决大模型的精度和幻觉都需要更大的算力。积极效应是对新架构技术的发展产生了明显推动作用:一方面,越来越多国内AI产业玩家在寻找能代替GPGPU的高性价比方案;另一方面,也在积极研究能降低算力需求的新型模型。在市场客户需求带动下,同时给国内AI产业和算力芯片的快速发展带来了契机。

IP层面如何克服大模型的挑战?钱电生表示,布局大模型相关的技术路线是必不可少的举措,产品层面要更好地支持以Transformer为主的模型架构,比如在下一代“周易”NPU的设计上,安谋科技将会从精度、带宽、调度管理、算子支持等多方面对主流大模型架构进行迭代优化。同时,IP厂商还需要联合大模型算法厂商、模型轻量化厂商、OS/应用侧厂商等产业链合作伙伴在生态层面进行深入合作,打造软硬一体的端侧大模型解决方案。

于欣认为,只有把技术、场景和成本三者进行更深度的有机融合,形成自己的技术壁垒,才能避免陷入到单纯的价格战,从而有利于行业长期的发展。未来,一定还是场景驱动技术,而不是相反。这要求上游从业者深刻理解场景和业务模式,甄别形形色色的需求,去伪存真,在这个基础上去打磨底层的算法、处理器、芯片,形成自己的差异化的竞争优势,才有可能在激烈的市场竞争中破局突围。

“随着AIGC元年的到来,未来5-10年会是AI行业发展的一个崭新阶段,AI芯片作为算力的基石,也一定会有更多的机会等待从业者去挖掘”,于欣强调,“用一句话来形容目前AI产业的发展,我认为是‘前景远大光明,道路曲折漫长’。”

推荐器件

更多器件
器件型号 数量 器件厂商 器件描述 数据手册 ECAD模型 风险等级 参考价格 更多信息
ATXMEGA256D3-AUR 1 Microchip Technology Inc IC MCU 8BIT 256KB FLASH 64TQFP
$6.07 查看
ATSAMA5D35A-CN 1 Atmel Corporation RISC Microprocessor, 536MHz, CMOS, PBGA324, 15 X 15 MM, 1.40 MM HEIGHT, 0.80 MM PITCH, GREEN, MO-275KAAE-1, LFBGA-324
$13.79 查看
FT2232HL-REEL 1 FTDI Chip USB Bus Controller, CMOS, PQFP64, LEAD FREE, LQFP-64

ECAD模型

下载ECAD模型
$6.27 查看

相关推荐

电子产业图谱

与非网资深行业分析师。主要关注人工智能、智能消费电子等领域。电子科技领域专业媒体十余载,善于纵深洞悉行业趋势。欢迎交流~