加入星计划,您可以享受以下权益:

  • 创作内容快速变现
  • 行业影响力扩散
  • 作品版权保护
  • 300W+ 专业用户
  • 1.5W+ 优质创作者
  • 5000+ 长期合作伙伴
立即加入
  • 正文
  • 相关推荐
  • 电子产业图谱
申请入驻 产业图谱

Arteris 的片上网络瓦格化创新加速面向人工智能应用的半导体设计

10/16 10:41
649
阅读需 5 分钟
加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

致力于加速系统级芯片(SoC)创建的领先的系统IP提供商Arteris, Inc.(纳斯达克股票代码: AIP),今日宣布其片上网络(NoC)IP产品实现创新演进,使该产品具有了瓦格化(tiling)功能和扩展的网状拓扑支持,可加快系统级芯片(SoC)设计中人工智能(AI)和机器学习(ML)计算的开发速度。新功能使设计团队能够将计算性能提升 10 倍以上,同时满足项目进度以及功耗、性能和面积(PPA)目标。

片上网络瓦格化(tiling)是 SoC 设计的新兴趋势。这种演进式方法使用经过验证的、稳健的片上网络 IP 来促进扩展、缩短设计时间、加快测试速度并降低设计风险。它允许 SoC 架构师通过在芯片上复制软瓦格(tile)来创建模块化、可扩展的设计。每个软瓦格(tile)代表一个独立的功能单元,从而实现更快的集成、验证和优化。

在Arteris的旗舰NoC IP产品FlexNoC和Ncore中,将瓦格化(tiling)技术与网状拓扑相结合,对于将AI计算日益纳入大多数SoC中具有革命性意义。AI系统的规模和复杂性都在不断增长,但通过增加软瓦格(tile),可以在不中断整个 SoC 设计的情况下实现快速扩展。瓦格化(tiling)和网状拓扑的结合为进一步缩短辅助处理单元(XPU)子系统设计时间和整个 SoC 连接执行时间提供了一种方法,与手动集成的非瓦格化设计相比,可以将设计时间和执行时间减少高达 50%。

NoC 瓦格化(tiling)技术的首次迭代将网络接口单元 (NIU) 组织成模块化、可重复的区块,提高了 SoC 设计的可扩展性、效率和可靠性。这些SoC设计带来了越来越大、越来越先进的AI计算,为视觉、机器学习(ML)模型、深度学习(DL)、自然语言处理(NLP)(包括大型语言模型(LLM))和生成式AI(GAI)等快速增长的复杂AI工作负载提供支持,用于进行训练和推理,包括在边缘进行训练和推理。

“得益于Arteris高度可扩展和灵活的基于网状网络的NoC IP,我们的SoC团队能够更高效地实现对更大AI数据量和复杂算法的支持。与Arteris的密切合作使我们能够创建一个基于Arm、多模态、以软件为中心的边缘AI平台,该平台支持从CNN到多模态GenAI以及介于两者之间的所有模型,并具有可扩展的每瓦性能。”SiMa.ai硬件工程副总裁Srivi Dhruvanarayan表示,“我们期待部署扩展的Arteris NoC瓦格化(tiling)和网状功能,这将进一步增强我们为边缘创建高度可扩展的AI芯片平台的能力。”

Arteris总裁兼首席执行官K. Charles Janac表示:“Arteris一直在不断创新,这种由大型网状拓扑支持的革命性NoC软瓦格化(tiling)功能是SoC设计技术的一大进步。我们的客户已经在构建领先的AI SoC,他们将进一步获得能力,以更高的效率加速开发更大、更复杂的AI系统,同时保持在他们的项目时间表和 PPA 目标范围内。”

通过瓦格化(tiling)和扩展的网状拓扑功能,FlexNoC和Ncore NoC IP产品能提供更多AI支持,现已向早期客户和合作伙伴提供。

相关推荐

电子产业图谱