加入星计划,您可以享受以下权益:

  • 创作内容快速变现
  • 行业影响力扩散
  • 作品版权保护
  • 300W+ 专业用户
  • 1.5W+ 优质创作者
  • 5000+ 长期合作伙伴
立即加入
  • 正文
  • 相关推荐
  • 电子产业图谱
申请入驻 产业图谱

分布式架构助推AR

2023/01/13
776
阅读需 8 分钟
加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

在过去的40年里,移动电子产品芯片组的演进路径一直不可阻挡地朝着越来越高的功能集成水平发展,最终达到了SoC架构。有时是单片集成,有时是通过高级封装实现,移动SoC将多种功能(包括但不限于基带应用处理器射频收发器、WLAN(即Wi-Fi)和WPAN(即蓝牙通信)集成到单个芯片或封装中。这样的架构对于实现手机的轻薄但功能强大的特点来说是理想的。然而,当我们超越智能手机进入一个全新的AR世界时,SoC架构更像是一个阻碍而不是促进因素。

为了将AR眼镜的视觉效果变成现实,不仅需要获得大众市场的接受,还必须方便在日常生活中佩戴。为了实现这一点,眼镜需要比智能手机更精简。它们还需要具备时尚的外形因素。此外,为了最大限度地减少佩戴者的疲劳,他们不仅要尽可能轻,且要在重量分布方面更加平衡。

过去和现在的设计通常把电子设备放在眼镜的太阳穴或眼镜腿的位置,这仍然是一个合乎逻辑的地方。然而,移动SoC并不能解决上述挑战,考虑到它们的芯片和封装尺寸,以及作为单个芯片不允许任何形式的重量分布,除了可能在另一个腿上增加更笨重的组件,比如电池

在今年的Snapdragon峰会上,Qualcomm宣布脱离SoC演进路径,这可能会让AR眼镜成为现实。为了扭转这一趋势,Qualcomm提出了一种分布式架构方法,不仅适用于眼镜内部的电子设备,还适用于眼镜和智能手机或PC等主机设备之间,为蜂窝通信和一些图形处理分配一些重要的工作。

在Snapdragon峰会的第二天,Qualcomm宣布了新的Snapdragon AR2 Gen 1平台。该平台将不同的芯片块分成三个模块,这些模块围绕眼镜间隔,使设计更加精简和平衡。这些模块包括一个AR处理器、一个AR协处理器和一个Wi-Fi连接模块。

正如所宣布的,AR处理器负责典型的GPU类型的功能,如图像/视频捕获、计算机视觉和显示驱动,但通过整合ISP、Adreno Video、Adreno Display和视觉分析引擎IP模块,以硬件加速的方式实现这些功能。

与此同时,AR协处理器将专注于提供AI加速,以及聚合传感器摄像头数据,以完成眼球跟踪、物体检测和生物特征认证等任务。
最后同样重要的是,连接模块负责高速、低延迟的通信,以使分布式架构可行。该模块使用了Qualcomm的FastConnect XR 2.0软件套件。Qualcomm声称,与以前的版本相比,该套件可以降低40%的功耗,同时提供所需的性能。

AR处理器和协同处理器与智能手机、PC甚至网络中的主机处理器协同工作,提供一个分布式计算架构,该架构具有Snapdragon平台原生的异构处理、传感器融合和AI处理功能。连接模块使用Wi-Fi 7作为高频、同步多链路,在眼镜和处理主机之间提供高达5.8-Gbps的高速/高带宽连接。

与SoC架构的骁龙XR2平台相比,骁龙AR2 Gen 1平台不仅将平台拆分成多个组件,为AR眼镜提供了更好的重量分配和平衡,还将布线要求降低了45%,PCB面积降低了40%,处理器功耗降低了50%,Wi-Fi功耗降低了40%,因此占用的空间更少,这也使得眼镜更时尚、更舒适。

当把这种新的分布式架构与现有的SoC解决方案进行比较时,其中一些参数的降低可能是违反直觉的。

乍一看,布线似乎会随着分布式架构中不同模块的互连需求而增加,而在SoC中,它都是片上互连。如果这些应用的主要布线的主要原因是芯片上不同IP块之间的连接,这将是正确的。

然而,在AR眼镜等应用中,绝大多数布线需求实际上是用于组件的I/O接口,无论它是一个SoC还是分布式架构中的多个模块,这些组件都会在芯片外部。

这些类型的外部组件的例子是连接到处理器的传感器和摄像头。在分布式架构中,这些外部(到芯片)组件之间的布线运行被最小化,因为组件可以被放置在最靠近适当模块的位置,而不是所有运行都必须去SoC所在的地方。

当考虑到可能需要为三个模块供电而不是一个模块时,功耗的降低可能也违反直觉。但Qualcomm声称,硬件加速器的广泛使用以及先进节点技术的使用确实可以降低功耗

最后,可以说重量不是一个因素,因为即使是这种类型的SoC在重量和质量方面也可以忽略不计。虽然只比较SoC和分布式模块可能是正确的,但计算公式中PCB面积和配线的减少确实会对重量,更具体地说,重量分布对眼镜佩戴者的影响产生重大影响,特别是在全天使用的情况下。

Qualcomm在其主机AR处理器上使用了TSMC 4nm工艺,并针对AR工作负载和需求进行了优化,Qualcomm声称,Snapdragon AR2 Gen 1平台在功耗低于1 W的情况下,AI处理能力提高了2.5倍。该平台还提供低于2毫秒的Wi-Fi延迟和9毫秒的动作到光子延迟(用户做出动作和显示在显示屏上之间的延迟)。这种高速、低延迟的链接使眼镜到主机分布式架构变得可行。如果没有快速的Wi-Fi 7连接,所有的处理都需要在眼镜上完成,这在尺寸、重量、美观和可穿戴性方面都是令人望而却步的。其他解决方案可能会在主机和AR眼镜之间使用有线连接,但无线连接在美学和可穿戴性方面都更优越。

分布式设备架构并不是一个新概念;这是大约十年前在一个项目中提出的假设,该项目设想了移动设备以及支持它们的半导体和网络的未来。

然而,随着Qualcomm最新发布的Snapdragon AR2 Gen 1平台,这一概念也被扩展到实际的芯片架构中,并有可能将曾经只是理论的东西变成现实。

[参考文章]Distributed Architecture Puts the ‘Reality’ in AR — Francis Sideco

 

相关推荐

电子产业图谱

C.A.S.E.及大出行领域学习及知识分享。欢迎业内朋友交流~!