据说,今年秋季全国将有533所高校开设人工智能(AI)本科专业。人工智能可与各个专业交叉融合,成了最大的一个交叉学科。那么AI在通信中具体是怎么应用的呢?基于目前的AI研究是否都是有效的呢?
38.743 Study on enhancements for Artificial Intelligence (AI)/Machine Learning (ML) for NG-RAN;
38.744 Study on Artificial Intelligence (AI)/Machine Learning (ML) for mobility in NR;
38.843 Study on Artificial Intelligence (AI)/Machine Learning (ML) for NR air interface;
负责这三个研究报告的3GPP group分别是RAN3、RAN2和RAN1,我们顺便再来复习一下3GPP各个group负责制定的标准内容方向,如下图所示。也就是说这三个标准分别是针对NG-RAN、移动性(层2层3)、空口物理层(层1)的AI研究。
01、TR 38.743
标准的下载链接:https://portal.3gpp.org/desktopmodules/Specifications/SpecificationDetails.aspx?specificationId=4286
38.743 | Study on enhancements for Artificial Intelligence (AI)/Machine Learning (ML) for NG-RAN |
38.743是今年3月份启动的一个R19的研究项目,由RAN3负责。内容是针对基于人工智能/机器学习的网络切片(network slicing)和覆盖及容量优化(CCO:Coverage and Capacity Optimization)用例及其相应解决方案提供描述和研究,以及对Rel-18遗留问题进行分析。
我们举网络切片的例子来学习一下看看加入AI的流程是怎样的。网络切片是一种根据不同客户要求进行区别对待的概念。有了切片技术,移动网络运营商(MNO:Mobile Network Operators)就可以将客户视为不同的租户类型,每种租户类型都有不同的服务要求,并根据服务等级协议(SLA:Service Level Agreement )和订阅情况确定每个租户有资格使用的切片类型。
那么由于NG-RAN在移动性、负载平衡和无线资源管理决策方面发挥着关键作用,其目的就是要满足每个受支持网络切片的SLA的目标要求。AI/ML功能可以分析与网络和UE级性能相关的指标,从而为网络切片执行最佳资源管理和移动性决策,来满足要求。
解决方案:
1. 关于AI/ML模型训练和模型推理的位置
支持基于AI/ML的网络切片可考虑以下解决方案:
- AI/ML模型训练位于OAM,AI/ML模型推理位于gNB;
- AI/ML模型训练和AI/ML模型推理都位于gNB。
OAM是指Operation、 Administration、Maintenance,操作管理维护。
如果采用 CU-DU 分离架构,则可采用以下解决方案:
- AI/ML模型训练位于OAM,AI/ML模型推理位于gNB-CU;
- AI/ML模型训练和模型推理都位于gNB-CU。
2. 基于AI/ML网络切片的输入数据
为了预测优化的网络切片决策,gNB可能需要以下信息作为基于AI/ML的网络切片的输入数据:
来自本地节点:
- 每个切片测量/预测的无线资源状态
- 测量/预测的切片可用容量
- 传统预测的UE轨迹
来自邻近gNB:
- 每个切片测量/预测的无线资源状态
- 测量/预测的切片可用容量
来自UE:
- UE 测量报告(如UE RSRP、RSRQ、SINR测量等),包括小区级和波束级UE测量值
3. 基于AI/ML网络切片的输出数据
gNB中基于AI/ML的网络切片模型可生成以下输出信息:
- 每个切片的无线资源状态预测
- 切片可用容量预测
- RRM 策略内资源的资源管理决策(由gNB内部使用)
- 切片感知移动性决策(由gNB内部使用)
4. 基于AI/ML网络切片的反馈为了优化基于AI/ML的网络切片模型的性能,可以考虑从gNB 收集以下反馈:
- 每个切片测量的无线资源状态
- 测量切片可用容量
- 从源gNB切换的UE的传统UE性能反馈
- 从源gNB切换的UE的更细颗粒度UE性能反馈,以确定某个UE使用的某个切片的UE性能。
5. 标准的潜在影响与Rel-18期间的规范相比,Rel-19后续规范性工作的影响如下:
Xn 接口:
- 增强现有程序,以收集gNB之间的预测信息:
■ 每个切片的无线资源状态预测
■ 切片可用容量预测
NR覆盖和容量优化(CCO:Coverage and Capacity Optimization)功能的目标是检测和解决或减轻CCO问题。NG-RAN节点可在覆盖配置内自主调整和切换。当执行变更时,NG-RAN节点可通知其邻近的NG-RAN节点,并提供已修改覆盖的小区和 SSB 列表。在传统的CCO解决方案中,使用的是一种被动方法:当 gNB(在 CU-DU 分离架构中为 gNB-CU)检测到对网络和 UE 性能有负面影响的 CCO 问题发生后,gNB(在 CU-DU 分离架构中为 gNB-DU)会尝试解决或缓解该问题。而基于 AI/ML 的 CCO 则采用更积极主动的方法来防止(或在早期阶段限制)CCO问题的出现以及随之而来的网络和UE性能的下降。
02、TR 38.744
标准的下载链接:https://portal.3gpp.org/desktopmodules/Specifications/SpecificationDetails.aspx?specificationId=4288
38.744 | Study on Artificial Intelligence (AI)/Machine Learning (ML) for mobility in NR |
38.744是今年6月刚刚启动的研究项目,由RAN2负责。它是关于mobility的AI研究。用例侧重于 RRC_CONNECTED 模式,涵盖SA NR场景中PCell变化流程的RRM测量预测、测量事件预测和 RLF/HOF 预测。RLF是指Radio link failure;HOF是指Handover failure。
主要有两个研究目标。第一个研究目标是通过使用预测测量来减少时间、空间或频率域的测量工作。第二个研究目标是提高切换性能(例如,乒乓 HO、HOF/RLF、短时停留、切换中断)。可在找到具有良好测量预测准确性的评估场景后讨论切换性能。
采用的通用评估方法是:使用基于信道模型和部署的合成数据集,也可选择使用现场数据。原则上,一旦确定了一组仿真参数和假设,就应将其用于基线情况(即无人工智能模型)、模型训练(如数据集生成)、模型验证、模型测试和推理操作等。在训练数据集和测试数据集之间,至少在信道建模和UE轨迹方面使用不同的随机种子。
那么报告中具体的关于RRM预测、RLF预测等的方法和结论,还有待进一步补充。
03、TR 38.843
标准的下载链接:https://portal.3gpp.org/desktopmodules/Specifications/SpecificationDetails.aspx?specificationId=3983
38.843 | Study on Artificial Intelligence (AI)/Machine Learning (ML) for NR air interface |
38.843是R18期间的研究项目,内容相对详细。上面的38.743和38.744两个R19的标准也是基于38.843。38.843是由RAN1工作组也就是层1物理层工作组来负责研究的。在这本报告中,我们可以了解到AI在通信应用中更加基本的概念和流程。
例如,AI/ML 模型的生命周期管理(LCM:life cycle management)可能包括以下:
- 数据采集 注:如适用,还包括相关的辅助信息。
- 模型训练
- 功能/模型识别
- 模型交付/传输
- 模型推理操作
- 功能/模型选择、激活、停用、切换和回退操作。
包括 网络决定(网络启动或UE启动并向网络请求)、
UE 决定(网络配置的事件触发、UE向网络报告决定或UE自主向网络报告决定或不报告决定)
- 功能/模型监控
- 模型更新
- UE 能力
下图所示是用于NR空中接口的AI/ML功能框架。这是一个通用的功能架构,因此,图中显示的某些功能或数据/信息/指令流可能并不总是与特定的LCM方法相关。
38.843中主要对以下3个用例进行了分析和评估:
- CSI 反馈增强
- 利用双面人工智能模型进行空间-频率域CSI压缩
- 利用UE侧模型预测时域CSI
- 波束管理
- 根据波束组B的测量结果对波束组A进行空间域下行链路波束预测
- 根据波束组B的历史测量结果对波束组A进行时间域下行链路波束预测
- 定位精度增强
- 直接AI/ML定位
- AI/ML辅助定位
我们选择Beam management(波束管理,简称BM)来看一下具体情况。
下图举例说明了BM-Case1和BM-Case2的波束管理推理过程。基于波束集B 的测量结果被用作模型输入。此外,波束ID信息也可作为 AI/ML 模型的输入。根据模型输出(例如,集合A中每个波束成为Top-1波束的概率、预测的L1-RSRPs),可以预测出波束集合A中的Top-1/N波束和/或可能具有预测的L1-RSRP的波束。在评估中,对于BM-Case1,将集合B的测量值作为模型输入,以预测集合A中的Top-1/N波束;对于BM-Case2,将历史时间实例的测量值作为模型输入,以预测集合A中的波束的时域DL波束。在评估中,BM-Case1 和 BM-Case2 均考虑了集合A和集合B不同(集合B不是集合A的子集)和集合B是集合A的子集的情况,以及 BM-Case2 中集合A和集合B相同的情况。并评估了DL Tx波束预测和DL Tx-Rx波束对儿(beam pair)预测的性能。在BM-Case1和BM-Case2中,UE可以根据UE端模型的输出向NW报告预测结果,NW也可以根据NW端模型的Set B报告测量结果预测Top-1/N波束。
那么在BM的AI建模中要考虑的KPI有哪些呢?
模型的复杂度和计算复杂度;
波束预测的精确度;
系统性能例如UE吞吐量、RS(参考信号)overhead降低等;
做AI评估,要比较加入前与加入后的性能,就要做很多场景和参数的假设,评估假设包括系统级(system level simulation assumptions)和链路级(link level simulation assumptions)。我们分别来举例看一下:
首先波束管理评估中AI/ML 的基准系统级仿真假设参数如下:
参数 | 取值 |
频率 | FR2 @ 30 GHz; SCS: 120 kHz |
网络部署 | 200 米 ISD,2 层环绕模式(7 个站点,每个站点 3 个扇区/蜂窝) 不排除其他部署假设 |
信道模型 | UMa 采用 TR 38.901 表 7.4.2-1 中定义的与距离有关的 LoS 概率函数。 |
系统带宽 | 80MHz |
UE 速度 | 空间域波束预测: 3km/h
时域: 30km/h 不排除其他值 |
UE分布 | 每个扇区/小区 10 个 UE,用于系统性能相关 KPI[如吞吐量]的全缓冲流量评估(模型推理)。
每个扇区/小区 X 个 UE,用于 FTP 流量的系统性能相关关键绩效指标评估(模型推理)。 不排除其他值。 报告数据收集(培训/测试)期间每个扇区/小区的 UE 数量(如果相关)。
用于空间域波束预测(可选,用于比较不同的 UE 分布假设): - 方案 1:80% 室内,20% 室外,如 TR 38.901 - 方案 2:100% 室外 时域预测:100% 室外 |
发射功率 | 按照38.802 中相应方案给出的基站和 UE 的最大功率和最大 EIRP(表 A.2.1-1 和表 A.2.1-2) |
基站天线配置 | gNB 的天线设置和端口布局: (4, 8, 2, 1, 1, 1, 1), (dV, dH) = (0.5, 0.5) λ
不排除其他假设。 需解释 TXRU 权重映射和波束选择。BS 波束数:NW 侧 32 或 64 个下行 Tx 波束(可用波束的最大数量)。不排除其他值,如 256。 |
基站天线方向图 | TR 38.802 表 A.2.1-6, 表 A.2.1-7 |
UE天线配置 | UE 上的天线设置和端口布局:(1、4、2、1、2、1、1),2 个面板(左、右) 。不排除其他假设。
需解释 TXRU 权重映射。解释波束和面板的选择。UE 波束数:每个 UE 面板在 UE 侧有 4 或 8 个下行 Rx 波束(可用波束的最大数量)。不排除其他值,如 16。 |
UE天线方向图 | TR 38.802 表A.2.1-8, 表A.2.1-10 |
波束对应 | 厂家解释波束对应假设(根据 RAN4 中商定的两种类型) |
链路适配 | 基于CSI-RS |
流量模型 | 对于与系统性能相关的KPI评估(模型推断),报告以下任一流量模型:选项 1:完全缓冲 选项 2:带有详细假设的 FTP 模型(如 FTP 模型 1、FTP 模型 3 |
UE的panel间校准 | 根据38.802的理想、非理想(可选) - 解释任何错误 |
控制和参考信号overhead | 报告假设详情 |
控制通道解码 | 理想或非理想(解释如何建立模型) |
UE接收类型 | 以 MMSE-IRC 为基准,不排除其他高级接收器的可能性 |
BF 方案 |
应解释所使用的方案 |
发射方案 | 多天线端口发射方案,解释使用方案的详情。 |
其他仿真假设 | 解释服务 TRP 选择、调度算法。
TRP这里指的是transmission reception points |
其他潜在损伤 | 未模拟(假定为理想状态)。如果包含,应报告假定损伤的详细情况。 |
基站发射功率 | 40 dBm (baseline)
其他值(例如, 34 dBm) 不排除 |
UE最大发射功率 | 23 dBm |
基站接收机噪声系数 | 7 dB |
UE接收机噪声系数 | 10 dB |
站间距离 | 200 m |
基站天线高度 | 25 m |
UE天线高度 | 1.5 m |
汽车穿透损失 | 按照38.901章节7.4.3.2: μ = 9 dB, σp = 5 dB |
UE 测量/报告 |
至少对于时域下行链路波束预测是如此:
- T1 中每次测量/报告的时间周期:20ms、40ms、80ms、[100ms]、160ms、[960ms]。也可报告其他值。- 可报告 T1 测量/报告的时间数。可报告用于预测的时间实例。 |
场景 | 密集城市(仅宏观层,TR 38.913)是数据集生成和性能评估的基本场景。不排除其他场景。 |
空间一致性 | 至少在 BM-case 1 中,报告空间一致性程序之一:- TR38.901 中的程序 A - TR38.901 中的程序 B |
UE轨迹模型 | 在评估的初始阶段,至少要为时间波束预测定义 UE 轨迹模型。
在评估的初始阶段,不一定要定义 UE 轨迹模型,至少对于空间域波束预测而言。 |
UE旋转 | 要报告的 UE 速度。注:不排除 UE 旋转速度 = 0 的情况,即 UE 不旋转。 |
性能评估基准 | 时间波束预测:
- 方案 1:根据对 T2 时刻内波束集合 A 中所有 RS 资源或所有可能波束的测量结果,在波束集合 A 中为 T2 选择最佳波束 - 方案 2:根据对 T1 时刻内波束集合 B 中所有 RS 资源的测量结果,在波束集合 A 中为 T2 选择最佳波束 - 详细解释如何根据 T1 中的测量结果,从集合 A 中为 T2 选择最佳波束。其中,T2 是选择最佳波束的持续时间,T1 是从波束集合 B 中获取所有 RS 资源的测量结果的持续时间。T1 和 T2 与基于 AI/ML 的方法一致。集合 A 和集合 B 是相同还是不同,取决于子用例情况。不排除其他选择。
对于空间域波束预测: - 方案 1:根据对所有 RS 资源或波束集 A 中所有可能波束的测量结果,在波束集 A 中选择最佳波束(穷举式波束扫描) - 方案 2:根据对波束集 B 中 RS 资源的测量结果,在波束集 A 中选择最佳波束 - 不排除其他方案。 |
链路仿真参数如下:
参数 | 取值 |
频率 | 30GHz. |
子载波间隔 | 120kHz |
数据采集 | 以 [8 个 RB] 为基准,可报告更多的 RB PDCCH 的前 2 个 OFDM 符号和数据信道的后 12 个 OFDM 符号 |
PDCCH解码 | 理想或非理想 |
信道模型 | FFS:
LOS 信道:CDL-D 扩展,DS = 100ns NLOS 信道:CDL-A/B/C 扩展,DS = 100ns 详细解释考虑空间一致性的扩展方法。不排除其他信道模型。 |
基站天线配置 | 一个panel: (M, N, P, Mg, Ng) = (4, 8, 2, 1, 1), (dV, dH) = (0.5, 0.5) λ 作为基准。这里M和N分别是天线水平垂直的阵子数,P极化数,Mg, Ng分别是天线水平垂直的panel数。 不排除其他信道模型。 解释 TXRU 权重映射和波束选择、BS波束数量。 |
基站天线阵子辐射方向图 | 同上表SLS |
基站天线高度和天线阵列下倾角 | 25m, 110° |
UE天线配置 | Panel面板结构: (M, N, P) = (1, 4, 2), - 以 (Mg, Ng) = (1, 2) 为基线的 2 个panel(左,右) - 1 个面板为可选项 - 不排除其他假设 解释 TXRU 权重映射、波束和面板选择、UE波光束数量 |
UE天线阵子辐射方向图 | 同上表SLS |
UE移动速度 | 同上表SLS |
原始数据收集格式 | 取决于子用例和厂家的选择。 |
方法有了,参数也有了,结论是什么呢?结论说起来也是很复杂的,首先看一下在波束管理中应用AI/ML模型的复杂度/计算复杂度参数:包括以模型参数数量表示的模型复杂度;以模型大小数量表示的模型复杂度;以浮点运算次数表述的计算复杂度。
结论也很复杂,与非AI相比,并不是所有加入了AI/ML的case性能都会有所提升。对于波束管理分为两种情况:
在 BM-Case1 中,当集合 B 是集合 A 的子集或集合 B 与集合 A 不同时,在没有 UE 旋转的情况下,AI/ML 可以在 DL Tx 波束预测中使用最佳 Rx 波束测得的波束集合 A 的 1/4 或 1/8 的固定集合 B 进行测量,并在波束对预测中使用集合 A 的 1/4 或 1/8 或 1/16 的固定集合 B 进行测量,从而实现良好的性能。此外,根据 2 或 3 个来源的评估结果,对于 BM-Case1 DL Tx 波束预测,在测量/RS 开销为 1/4 或 1/8 的情况下,根据 AI/ML 预测的波束,可实现 96%~99% 或 85%~98% 的 UE 平均吞吐量和 95%~97% 或 70%~84% 的 UE 5%ile 吞吐量的非 AI 基线方案 1(对 Set A 波束进行穷举搜索)。请注意,在评估中假设了理想的测量:无论信噪比如何,都能测量波束,无测量误差,在单次实例(信道相干时间间隔内)中获得测量,无量化,对 UCI 有效载荷无限制(对于 NW 端模型)。
但是对于BM-Case2,与非AI基线相比的波束预测精度性能,在没有 UE 旋转的情况下,对于80毫秒或160毫秒的预测时间:- 某些评估结果表明 AI/ML 的性能可能相似或有所下降。对于160毫秒或更长的预测时间:- 大多数评估结果表明 AI/ML 可提高一些波束预测精度 - 预测时间越长,AI/ML 可提高的波束预测精度就越高。但是从减少测量/RS 开销的角度看,AI/ML 可实现良好的波束预测,同时减少测量/RS 开销。