通信最近开源文章笔记:基于梯度的流形元学习RIS辅助波束赋形

大家好,今天为大家介绍一篇RIS辅助波束赋形的文献:

IEEE版本

arxiv版本

文章代码已开源,欢迎下载!点击链接下载

GMML: 文章 "Robust Beamforming for RIS-aided Communications: Gradient-based Manifold Meta Learning".会议 "Energy-efficient Beamforming for RIS-aided Communications: Gradient Based Meta Learning", 被IEEE ICC接收.

FenghaoZhu/GMML: This is the code implementation for the GMML algorithm. (github.com)

概述

在本项研究中,作者提出了一种名为基于梯度的流形元学习波束赋形(GMML)的算法,旨在解决RIS辅助的多用户多输入单输出(MU-MISO)波束赋形问题。

研究背景与动机

1. 可重构智能表面(RIS)已成为一项很有潜力的新技术,它通过利用可重构无源元件以完全可自定义的方式控制电磁波的反射,从而创建可编程无线环境。然而,RIS 辅助通信的一个主要挑战是如何同时设计最优的基站(BS)预编码矩阵以及RIS 的相移矩阵。这是一个高度非凸的NP困难问题。

2. 近年来已经有很多基于人工智能(AI)的RIS辅助通信方案,然而在非完美信道信息(CSI)下面它们不能够保持鲁棒性,性能下降严重,如何让AI方案更加鲁棒成为一个亟待解决的问题。

3. 无线环境是变化的,如何在动态的场景下实现算法的高度自适应性,实现快速切换模式,对于算法落地具有重要意义

需求难点:在一个获取准确信道困难的动态环境中,对一个高度非凸的NP困难问题进行优化求解。

提出的方案亮点如下

1. 不需要训练:提出的RIS辅助的波束赋形框架不需要训练,它以一种即插即用的方式工作,只需小规模的神经网络即可达到较高的频谱效率,显示出其在各种场景和设置中的鲁棒性。

2. 引入全新元学习架构:优化的目标不再是单个或者多个变量,而是整个优化过程。它以一种非贪婪的方式累积并且更新梯度,极力避免陷入局部最优点,能比传统贪婪的alternating minimization(交替最小化方法) 获得更好的性能。

3. 基于梯度优化:传统神经网络优化方法的输入为原始变量,输出为更新的变量。本文提出的方法输入为梯度,输出为更新后的增量,模仿了梯度下降过程,但是可解释性,拓展性以及鲁棒性更强。

4. 引入流形学习降低复杂度:通过挖掘RIS波束赋形问题的数学本质,得出基站端的预编码矩阵实际上位于级联信道矩阵的一个很小的值域空间内,从而可以用一个低维度的矩阵代替原来高维度的预编码矩阵,降低了运算复杂度,非常适合大规模天线部署场景。

问题数学模型

考虑一个多用户多进单出(MU-MISO)系统,有一个 M根天线的基站与一个 N个反射单元的RIS,同时服务于K 个单天线的用户,我们假设直连信道都被挡住了,用户与基站之间只能通过RIS反射建立的虚拟信道通信。

我们假设RIS到第k个用户的信道为 \mathbf{h}_k ,RIS到基站的信道为 \mathbf \Theta=\text{diag}[e^{j\theta_1}, e^{j\theta_2}, \cdots, e^{j\theta_N}],其中 \theta_n是第 n 个RIS反射单元的相位。\mathbf{w}_k 是基站预编码矩阵 \mathbf W\in \mathbb{C}^{M\times K}的第 k 列, s_k 是第 k 个用户的数据流满足 E\left\{| {s}_k |^2 \right\}=1 。

k 个用户的接收到的信号为: y_k=\mathbf{h}^H_k\mathbf{\Theta G w}_k s_k+\sum_{i\neq k}^K \mathbf{h}^H_k \mathbf{\Theta G w}_i s_i + n_k.

第 k 个用户的信干噪比(SINR)可以表示成:\gamma_k = \frac{|\mathbf{h}_k^H\mathbf{\Theta G w}_k|^2}{\sigma^2 + \sum_{j \neq k}^K|\mathbf{h}_k^H\mathbf{\Theta G w}_j|^2}.

于是优化问题就可以表示为:

\begin{split}         \mathop{\rm {max}}\limits_{\substack{\mathbf{W}\in \mathcal{W}\; \\ \mathbf{\Theta}\in\mathcal{O}}} & R(\mathbf{W,\Theta;H,G}),\\ 	     \mathrm{s.t.\ \ }&\mathrm{Tr}(\mathbf{W}^{H}\mathbf{W})\leq P,\\ 	    &\mathbf{\Theta}=\mathrm{diag}[e^{j\theta_1},e^{j\theta_2},\cdots,e^{j\theta_N}],\\ 	    &|\theta_j|=1,j=1,2,3,\cdots,N.     \end{split}

假设估计的信道为 \hat {\mathbf{h}} ,真实的信道为 {\mathbf{h}} 。为了衡量信道误差,我们定义信道估计误差(CEE), 如下所示:

\mathrm{CEE} = 10\log_{10}\left(\frac{\mathbb{E}[\| \mathbf{h} -  \hat{\mathbf{h}} \|_2^2]}{\mathbb{E}[\| \mathbf{h} \|_2^2]}\right).

优化难点1:由于相移矩阵和预编码矩阵深度耦合,直接优化非常困难,而且会容易陷入局部最优点,亟需一种能够对函数有着全局最优导向的方法,能跳出局部最优点。

优化难点2:在大规模MIMO和拥有很多反射单元的RIS配置下,优化空间很大,时间复杂度很高,开销很大。

优化难点3:在实际场景中,有信道误差,以及信道是动态变化的,这对算法鲁棒性提出了很高的要求。

算法介绍


通过流形学习降低维度


流形学习

由于数据的内部特性,高维空间中通常存在冗余。 因此,我们观察到的数据通常是从低维流形到高维流形的投影。 因此,在许多情况下,一些较低维度的数据可以由高维度情况唯一表示。

定义级联信道为 \mathbf{h}_{c,k}=\mathbf{h}^H_k \mathbf{\Theta G},以及 \mathbf{H}_c=[\mathbf{h}_{c,1}^H, \mathbf{h}_{c,2}^H,\cdots,\mathbf{h}_{c, K}^H]^H \in \mathbb{C}^{K \times M}

则任何满足|\mathbf{h}_k^H\mathbf{\Theta G w}_k|^2=0, \forall k\mathbf{W}被定义为平凡点,则原优化问题的非平凡点 \{\mathbf{w}^*_k\} 必须以等号满足功率约束,且 \{\mathbf{w}^*_k\} 必须位于 \mathbf{H}_c^H 的值域空间内,满足\mathbf{w}^*_k = \mathbf{H}_c^H\mathbf{X}_k ,其中 \mathbf{X}_k \in \mathbb{C}^{K \times 1} 是唯一的。

证明详情见原文。

这样原来的优化问题就被转化成以下形式:

\begin{split}                  \mathop{\rm {max}}\limits_{\substack{\mathbf{W}\in \mathcal{W}\; \\ \mathbf{\Theta}\in\mathcal{O}}} & R(\mathbf{H}_c^H \mathbf{X,\Theta;H,G}),\\ 	     \mathrm{s.t.\ \ }&\mathrm{Tr}(\mathbf{X}^H \mathbf{H}_c\mathbf{H}_c^H\mathbf{X}) = P,\\ 	    &\mathbf{\Theta}=\mathrm{diag}[e^{j\theta_1},e^{j\theta_2},\cdots,e^{j\theta_N}],\\ 	    &|\theta_j|=1,j=1,2,3,\cdots,N.     \end{split}

优化空间从 \mathbf{W} \in \mathbb{C}^{M \times K} 降低成了 \mathbf{X}=[\mathbf{X}_1,\mathbf{X}_2,\cdots,\mathbf{X}_K] \in \mathbb{C}^{K \times K} ,这个是因为常规大规模天线部署的场景下 M 远远大于K ,比如基站有64根天线,有4个用户,那么用流形学习,优化搜索空间就降低了64/4=16倍!


GMML的具体架构


基于梯度的元学习

首先讲一下梯度输入,传统的AI算法是输入为原始变量,输出为更新的变量。本文提出的方法输入为梯度,输出为更新后的增量,模仿了梯度下降过程,但是可解释性,拓展性以及鲁棒性更强。并且提取了 \mathbf{X}\mathbf{\Theta} 的更高阶信息,能达成更好的优化效果。

再讲一下无需训练的元学习架构,它有三个嵌套的层次:内循环,外循环以及迭代轮次循环。

内循环:如上图所示,有两个网络分别优化RIS相移矩阵 \mathbf{\Theta}以及压缩后的基站预编码矩阵 \mathbf{X} ,分别称为Theta Network (TN)Precoding Network (PN)。则在第 j 个外循环中的更新过程可以表示为: \begin{align}     \mathbf{X}^* & = {PN}(\mathbf{X}^{(0,j)}, \mathbf{\Theta}^*), \\     \mathbf{\Theta}^* & = {TN}(\mathbf{X}^*, \mathbf{\Theta}^{(0,j)}), \end{align} 其中 \mathbf{X}^{(i,j)}\mathbf{\Theta}^{(i,j)}代表在第 个�个 内循环和第 � 个外循环中的变量。

外循环:这部分的作用是积累损失函数,每个外循环有 N_i 个内循环,在第 j 个外循环中的损失函数为: \mathcal{L}^j= - R(\mathbf{W}^*,\mathbf{\Theta}^{*};\mathbf{H}, \mathbf{G}).它是频谱效率的相反数,能够起到无监督学习的作用。

迭代轮次循环:这部分主要负责更新神经网络(DNN)的参数,在每个迭代轮次循环中有 N_o 个外循环,积累并且取平均数得到损失函数: \overline{\mathcal{L}}= \frac{1}{N_o}\sum_{j = 1}^{N_o}\mathcal{L}^j.用Adam优化器反向传播,得到新的神经网络参数。


神经网络的参数

仿真结果


仿真场景


仿真参数设定

GMML代表提出的算法,GML代表去掉流形学习的算法,Random Phase代表仅仅用WMMSE算法优化基站预编码向量而令RIS相移矩阵随机,DNN代表用纯DNN算法同时输出基站预编码向量以及RIS相移矩阵。


频谱效率关于发射功率


频谱效率与迭代轮次


算法运行时间与基站天线数量


非完美CSI下频谱效率与信道估计误差程度


在动态场景下测试各种算法的鲁棒性


总结

本文提出了一种无需训练的流形元学习算法,能够在RIS辅助的波束赋形任务中保持高性能与强鲁棒性。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容