为了实现与频分双工(FDD)模式的大规模多输入多输出(MIMO)系统的高数据速率的可靠通信,接收器处的估计信道状态信息(CSI)需要送回发射机。然而,通过越来越多的天线,反馈开销变得过高。在本文中,提出了一种用于毫米波(MMWAVE)大规模MIMO系统的两个阶段低级(TSLR)CSI反馈方案,以减少基于模型驱动的深度学习的反馈开销。此外,我们通过展开快速迭代收缩阈值算法(Fista)来设计一个名为Fista-Net的深度迭代神经网络,以实现更高效的CSI反馈。此外,基于注意机构,在Fista-Net中设计了收缩阈值网络(ST-Net),其可以自适应地选择阈值。仿真结果表明,所提出的TSLR CSI反馈方案和Fista-Net在各种场景中优于现有的算法。
translated by 谷歌翻译
In frequency-division duplexing (FDD) massive multiple-input multiple-output (MIMO) systems, downlink channel state information (CSI) needs to be sent from users back to the base station (BS), which causes prohibitive feedback overhead. In this paper, we propose a lightweight and adaptive deep learning-based CSI feedback scheme by capitalizing on deep equilibrium models. Different from existing deep learning-based approaches that stack multiple explicit layers, we propose an implicit equilibrium block to mimic the process of an infinite-depth neural network. In particular, the implicit equilibrium block is defined by a fixed-point iteration and the trainable parameters in each iteration are shared, which results in a lightweight model. Furthermore, the number of forward iterations can be adjusted according to the users' computational capability, achieving an online accuracy-efficiency trade-off. Simulation results will show that the proposed method obtains a comparable performance as the existing benchmarks but with much-reduced complexity and permits an accuracy-efficiency trade-off at runtime.
translated by 谷歌翻译
通过大量多输入和多重输出实现的许多性能增长取决于发射机(基站)下链路通道状态信息(CSI)的准确性,这通常是通过在接收器(用户终端)估算并馈入的。到发射器。 CSI反馈的开销占据了大量的上行链路带宽资源,尤其是当传输天线数量较大时。基于深度学习(DL)的CSI反馈是指基于DL的自动编码器的CSI压缩和重建,并且可以大大减少反馈开销。在本文中,提供了有关该主题的最新研究的全面概述,首先是在CSI反馈中广泛使用的基本DL概念,然后对一些现有的基于DL的反馈作品进行分类和描述。重点是新型的神经网络体系结构和沟通专家知识的利用来提高CSI反馈准确性。还介绍了有关CSI反馈和CSI反馈与其他通信模块的联合设计的作品,并讨论了一些实际问题,包括培训数据集收集,在线培训,复杂性,概括和标准化效果。在本文的最后,确定了与未来无线通信系统中基于DL的CSI反馈相关的一些挑战和潜在的研究方向。
translated by 谷歌翻译
In massive multiple-input multiple-output (MIMO) systems, the user equipment (UE) needs to feed the channel state information (CSI) back to the base station (BS) for the following beamforming. But the large scale of antennas in massive MIMO systems causes huge feedback overhead. Deep learning (DL) based methods can compress the CSI at the UE and recover it at the BS, which reduces the feedback cost significantly. But the compressed CSI must be quantized into bit streams for transmission. In this paper, we propose an adaptor-assisted quantization strategy for bit-level DL-based CSI feedback. First, we design a network-aided adaptor and an advanced training scheme to adaptively improve the quantization and reconstruction accuracy. Moreover, for easy practical employment, we introduce the expert knowledge of data distribution and propose a pluggable and cost-free adaptor scheme. Experiments show that compared with the state-of-the-art feedback quantization method, this adaptor-aided quantization strategy can achieve better quantization accuracy and reconstruction performance with less or no additional cost. The open-source codes are available at https://github.com/zhangxd18/QCRNet.
translated by 谷歌翻译
CSI反馈是大规模多输入多输出(MIMO)技术的重要问题,因为反馈开销与亚渠道的数量和天线数量成正比,这两种数量均与大型MIMO系统的大​​小相规。基于深度学习的CSI反馈方法由于其出色的性能而被广泛采用。尽管取得了成功,但目前的方法并未完全利用CSI数据的特征与深度学习框架之间的关系。在本文中,我们提出了一种拼图拼图帮助培训策略(JPTS),以通过最大程度地提高原始CSI和压缩CSI之间的相互信息来增强基于深度学习的大型MIMO CSI反馈方法。我们将JPT应用于现有的最新方法。实验结果表明,通过采用这种训练策略,在室内和室外环境中,精度平均可以提高12.07%和7.01%。提出的方法准备采用大量MIMO CSI反馈的现有深度学习框架。 JPT的代码可在GitHub上获得可重现性。
translated by 谷歌翻译
在多输入的多输出频率划分双工(MIMO-FDD)系统中,用户设备(UE)将下行链路通道状态信息(CSI)发送到基础站以报告链接状态。由于MIMO系统的复杂性,发送此信息产生的高架对系统带宽产生负面影响。尽管在文献中已广泛考虑了这个问题,但先前的工作通常假定理想的反馈渠道。在本文中,我们介绍了PRVNET,这是一种受差异自动编码器(VAE)启发的神经网络体系结构,以压缩CSI矩阵,然后再将其发送回噪声通道条件下的基站。此外,我们提出了一种定制的损失功能,该功能最适合所解决的问题的特殊特征。我们还为学习目标引入了另外的正规化超参数,这对于实现竞争性能至关重要。此外,我们还提供了一种有效的方法,可以使用kl耗电来调整此超参数。实验结果表明,在无噪声反馈通道假设中,提出的模型优于基准模型,包括两个基于深度学习的模型。此外,提议的模型在不同的噪声水平下为加性白色高斯噪声反馈通道实现了出色的性能。
translated by 谷歌翻译
深度学习已被广泛应用于频划分双工(FDD)中的通道状态信息(CSI)反馈,大量多输入多输出(MIMO)系统。对于反馈模型的典型监督培训,几乎无法满足大量特定于任务标记的数据的要求,并且在多种情况下,模型的巨大培训成本和存储使用是用于模型应用的障碍。在这封信中,提出了一种基于多任务学习的方法,以提高反馈网络的可行性。进一步提出了编码者共享的反馈体系结构和相应的培训计划,以促进实施多任务学习方法。实验结果表明,提出的多任务学习方法可以实现全面的反馈绩效,而反馈模型的培训成本和存储使用情况大大降低。
translated by 谷歌翻译
在空中杂种大规模多输入多输出(MIMO)和正交频施加多路复用(OFDM)系统中,如何设计具有有限的飞行员和反馈开销的光谱效率宽带多用户混合波束,这是具有挑战性的。为此,通过将关键传输模块建模为端到端(E2E)神经网络,本文提出了一个数据驱动的深度学习(DL)基于时间划分双工(TDD)的基于数据驱动的深度学习(DL)的统一混合边际框架和具有隐式通道状态信息(CSI)的频分隔双链(FDD)系统。对于TDD系统,提出的基于DL的方法共同对上行链路飞行员组合和下行链路混合光束模块作为E2E神经网络。在FDD系统中,我们将下行链路飞行员传输,上行链路CSI反馈和下行链路混合光束形成模块作为E2E神经网络建模。与分别处理不同模块的常规方法不同,提出的解决方案同时以总和速率作为优化对象优化了所有模块。因此,通过感知空对地面大规模MIMO-OFDM通道样本的固有属性,基于DL的E2E神经网络可以建立从通道到波束形式的映射函数,以便可以避免使用显式通道重建,以减少飞行员和反馈开销。此外,实用的低分辨率相变(PSS)引入了量化约束,从而导致训练神经网络时棘手的梯度反向传播。为了减轻阶段量化误差引起的性能损失,我们采用转移学习策略,以基于假定理想的无限分辨率PSS的预训练网络来进一步调整E2E神经网络。数值结果表明,我们的基于DL的方案比最先进的方案具有相当大的优势。
translated by 谷歌翻译
可重新配置的智能表面(RIS)可以显着增强TERA-HERTZ大量多输入多输出(MIMO)通信系统的服务覆盖范围。但是,获得有限的飞行员和反馈信号开销的准确高维通道状态信息(CSI)具有挑战性,从而严重降低了常规空间分裂多次访问的性能。为了提高针对CSI缺陷的鲁棒性,本文提出了针对RIS辅助TERA-HERTZ多用户MIMO系统的基于深度学习的(DL)基于速率的多访问(RSMA)方案。具体而言,我们首先提出了基于DL的混合数据模型驱动的RSMA预编码方案,包括RIS的被动预编码以及模拟主动编码和基本站(BS)的RSMA数字活动预码。为了实现RIS的被动预码,我们提出了一个基于变压器的数据驱动的RIS反射网络(RRN)。至于BS的模拟主动编码,我们提出了一个基于匹配器的模拟预编码方案,因为BS和RIS采用了Los-Mimo天线阵列结构。至于BS的RSMA数字活动预码,我们提出了一个低复杂性近似加权的最小均方误差(AWMMSE)数字编码方案。此外,为了更好地编码性能以及较低的计算复杂性,模型驱动的深层展开的主动编码网络(DFAPN)也是通过将所提出的AWMMSE方案与DL相结合的。然后,为了在BS处获得准确的CSI,以实现提高光谱效率的RSMA预编码方案,我们提出了一个CSI采集网络(CAN),具有低飞行员和反馈信号开销,下行链接飞行员的传输,CSI在此处使用CSI的CSI反馈。 (UES)和BS处的CSI重建被建模为基于变压器的端到端神经网络。
translated by 谷歌翻译
6G无线网络可以预见,以加快物理和网络世界的融合,并以我们部署和利用通信网络的方式实现范式换档。机器学习,尤其是深度学习(DL),将通过提供具有高水平智能的网络的新范式来成为6G的关键技术推动力之一。在本文中,我们介绍了一种新兴的DL体系结构,称为Transformer,并讨论了其对6G网络设计的潜在影响。我们首先讨论变压器和经典DL体系结构之间的差异,并强调变压器的自我发挥机制和强大的代表能力,这使其在应对无线网络设计的各种挑战方面特别有吸引力。具体而言,我们提出了基于变压器的解决方案,用于大规模多输入多输出(MIMO)系统和6G网络中的各种语义通信问题。最后,我们讨论了基于变压器的解决方案中的关键挑战和开放问题,并确定未来在智能6G网络中部署的研究方向。
translated by 谷歌翻译
为了减轻阴影衰落和障碍物阻塞的影响,可重新配置的智能表面(RIS)已经成为一种有前途的技术,通过控制具有较少硬件成本和更低的功耗来改善无线通信的信号传输质量。然而,由于大量的RIS被动元件,准确,低延迟和低导频和低导架频道状态信息(CSI)采集仍然是RIS辅助系统的相当大挑战。在本文中,我们提出了一个三阶段的关节通道分解和预测框架来要求CSI。所提出的框架利用了基站(BS)-RIS通道是准静态的两次时间段属性,并且RIS用户设备(UE)通道快速时变。具体而言,在第一阶段,我们使用全双工技术来估计BS的特定天线和RIS之间的信道,解决信道分解中的关键缩放模糊问题。然后,我们设计了一种新型的深度神经网络,即稀疏连接的长短期存储器(SCLSTM),并分别在第二和第三阶段提出基于SCLSTM的算法。该算法可以从级联信道同时分解BS-RIS信道和RIS-UE信道,并捕获RIS-UE信道的时间关系以进行预测。仿真结果表明,我们所提出的框架具有比传统信道估计算法更低的导频开销,并且所提出的基于SCLSTM的算法也可以鲁棒地和有效地实现更准确的CSI采集。
translated by 谷歌翻译
受到深度神经网络(DNN)的显着学习和预测性能的启发,我们应用了一种特殊类型的DNN框架,称为模型驱动的深度展开神经网络,可重新配置智能表面(RIS) - 提出的毫米波(MMWAVE)单个-Input多输出(SIMO)系统。我们专注于上行链路级联信道估计,其中考虑了已知和固定基站组合和RIS相位控制矩阵用于收集观察。为了提高估计性能并降低训练开销,可以在深度展开方法中利用MMWave通道的固有通道稀疏性。验证所提出的深度展开网络架构可以优于最小二乘(LS)方法,其具有相对较小的训练开销和在线计算复杂性。
translated by 谷歌翻译
在带有频划分双链体(FDD)的常规多用户多用户多输入多输出(MU-MIMO)系统中,尽管高度耦合,但已单独设计了通道采集和预编码器优化过程。本文研究了下行链路MU-MIMO系统的端到端设计,其中包括试点序列,有限的反馈和预编码。为了解决这个问题,我们提出了一个新颖的深度学习(DL)框架,该框架共同优化了用户的反馈信息生成和基础站(BS)的预编码器设计。 MU-MIMO系统中的每个过程都被智能设计的多个深神经网络(DNN)单元所取代。在BS上,神经网络生成试验序列,并帮助用户获得准确的频道状态信息。在每个用户中,频道反馈操作是由单个用户DNN以分布方式进行的。然后,另一个BS DNN从用户那里收集反馈信息,并确定MIMO预编码矩阵。提出了联合培训算法以端到端的方式优化所有DNN单元。此外,还提出了一种可以避免针对可扩展设计的不同网络大小进行重新训练的培训策略。数值结果证明了与经典优化技术和其他常规DNN方案相比,提出的DL框架的有效性。
translated by 谷歌翻译
深度无形的神经网络(NNS)受到了极大的关注,因为它们的复杂性相对较低。通常,这些深度折​​叠的NN仅限于所有输入的固定深度。但是,收敛所需的最佳层随着不同的输入而变化。在本文中,我们首先开发了一个深层确定性策略梯度(DDPG)驱动的深度无折叠的框架,并针对不同输入进行自适应深度,在该框架中,DDPG学习了可训练的深度NN的可训练参数,而不是由随机梯度更新下降算法直接。具体而言,DDPG的状态,动作和状态过渡分别将优化变量,可训练的参数和架构分别设计为DDPG的状态,动作和状态过渡。然后,使用此框架来处理大量多输入多输出系统中的通道估计问题。具体而言,首先,我们通过离网基准制定了通道估计问题,并开发了稀疏的贝叶斯学习(SBL)基于基于的算法来解决它。其次,将基于SBL的算法展开为一组带有一组可训练参数的层结构。第三,采用了提出的DDPG驱动的深度解释框架来基于基于SBL的算法的展开结构来解决此通道估计问题。为了实现自适应深度,我们设计了停止分数以指示何时停止,这是通道重建误差的函数。此外,提出的框架被扩展到实现一般深度神经网络(DNNS)的适应性深度。仿真结果表明,所提出的算法的表现优于固定深度的常规优化算法和DNN,层数量大多。
translated by 谷歌翻译
我们通过基于压缩感测和多输出(MIMO)无线雷达来解决材料缺陷的检测,这些材料缺陷在层状材料结构内部。这里,由于层状结构的表面的反射导致的强杂波通常经常使缺陷挑战的缺陷。因此,需要改进的缺陷检测所需的复杂信号分离方法。在许多情况下,我们感兴趣的缺陷的数量是有限的,并且分层结构的信令响应可以被建模为低秩结构。因此,我们提出了对缺陷检测的关节等级和稀疏最小化。特别是,我们提出了一种基于迭代重量的核和$ \ ell_1- $规范(一种双重重量方法)的非凸法方法,与传统的核规范和$ \ ell_1- $常态最小化相比获得更高的准确性。为此,迭代算法旨在估计低级别和稀疏贡献。此外,我们建议深入学习来学习算法(即,算法展开)的参数,以提高算法的准确性和汇聚速度。我们的数值结果表明,该方法在恢复的低级别和稀疏组分的均方误差和收敛速度方面优于常规方法。
translated by 谷歌翻译
Tomographic SAR technique has attracted remarkable interest for its ability of three-dimensional resolving along the elevation direction via a stack of SAR images collected from different cross-track angles. The emerged compressed sensing (CS)-based algorithms have been introduced into TomoSAR considering its super-resolution ability with limited samples. However, the conventional CS-based methods suffer from several drawbacks, including weak noise resistance, high computational complexity, and complex parameter fine-tuning. Aiming at efficient TomoSAR imaging, this paper proposes a novel efficient sparse unfolding network based on the analytic learned iterative shrinkage thresholding algorithm (ALISTA) architecture with adaptive threshold, named Adaptive Threshold ALISTA-based Sparse Imaging Network (ATASI-Net). The weight matrix in each layer of ATASI-Net is pre-computed as the solution of an off-line optimization problem, leaving only two scalar parameters to be learned from data, which significantly simplifies the training stage. In addition, adaptive threshold is introduced for each azimuth-range pixel, enabling the threshold shrinkage to be not only layer-varied but also element-wise. Moreover, the final learned thresholds can be visualized and combined with the SAR image semantics for mutual feedback. Finally, extensive experiments on simulated and real data are carried out to demonstrate the effectiveness and efficiency of the proposed method.
translated by 谷歌翻译
In this paper, we investigate the joint device activity and data detection in massive machine-type communications (mMTC) with a one-phase non-coherent scheme, where data bits are embedded in the pilot sequences and the base station simultaneously detects active devices and their embedded data bits without explicit channel estimation. Due to the correlated sparsity pattern introduced by the non-coherent transmission scheme, the traditional approximate message passing (AMP) algorithm cannot achieve satisfactory performance. Therefore, we propose a deep learning (DL) modified AMP network (DL-mAMPnet) that enhances the detection performance by effectively exploiting the pilot activity correlation. The DL-mAMPnet is constructed by unfolding the AMP algorithm into a feedforward neural network, which combines the principled mathematical model of the AMP algorithm with the powerful learning capability, thereby benefiting from the advantages of both techniques. Trainable parameters are introduced in the DL-mAMPnet to approximate the correlated sparsity pattern and the large-scale fading coefficient. Moreover, a refinement module is designed to further advance the performance by utilizing the spatial feature caused by the correlated sparsity pattern. Simulation results demonstrate that the proposed DL-mAMPnet can significantly outperform traditional algorithms in terms of the symbol error rate performance.
translated by 谷歌翻译
Most Deep Learning (DL) based Compressed Sensing (DCS) algorithms adopt a single neural network for signal reconstruction, and fail to jointly consider the influences of the sampling operation for reconstruction. In this paper, we propose unified framework, which jointly considers the sampling and reconstruction process for image compressive sensing based on well-designed cascade neural networks. Two sub-networks, which are the sampling sub-network and the reconstruction sub-network, are included in the proposed framework. In the sampling sub-network, an adaptive full connected layer instead of the traditional random matrix is used to mimic the sampling operator. In the reconstruction sub-network, a cascade network combining stacked denoising autoencoder (SDA) and convolutional neural network (CNN) is designed to reconstruct signals. The SDA is used to solve the signal mapping problem and the signals are initially reconstructed. Furthermore, CNN is used to fully recover the structure and texture features of the image to obtain better reconstruction performance. Extensive experiments show that this framework outperforms many other state-of-the-art methods, especially at low sampling rates.
translated by 谷歌翻译
混合模拟和数字波束成形收发器在解决下一代毫米波(MM波)大规模MIMO(多输入多输出)系统中的昂贵硬件和高训练开销的挑战。然而,在混合架构中缺乏完全数字波束成形和MM波的短相干时间对信道估计施加了额外的约束。在解决这些挑战的前提是,主要集中在窄带信道上,其中采用基于优化的或贪婪算法来导出混合波束形成器。在本文中,我们介绍了用于频率选择,宽带MM波系统的信道估计和混合波束形成的深度学习(DL)方法。特别地,我们考虑大规模的MIMO正交频分复用(MIMO-OFDM)系统,并提出包括卷积神经网络(CNN)的三种不同的DL框架,其接受接收信号的原始数据作为输入和产生信道估计和混合波束形成器在输出。我们还介绍了离线和在线预测方案。数值实验表明,与目前的最先进的优化和DL方法相比,我们的方法提供了更高的频谱效率,较小的计算成本和更少的导频信号,以及对接收的导频数据中的偏差较高的差异,损坏的信道矩阵和传播环境。
translated by 谷歌翻译
Deep unfolding networks (DUNs) have proven to be a viable approach to compressive sensing (CS). In this work, we propose a DUN called low-rank CS network (LR-CSNet) for natural image CS. Real-world image patches are often well-represented by low-rank approximations. LR-CSNet exploits this property by adding a low-rank prior to the CS optimization task. We derive a corresponding iterative optimization procedure using variable splitting, which is then translated to a new DUN architecture. The architecture uses low-rank generation modules (LRGMs), which learn low-rank matrix factorizations, as well as gradient descent and proximal mappings (GDPMs), which are proposed to extract high-frequency features to refine image details. In addition, the deep features generated at each reconstruction stage in the DUN are transferred between stages to boost the performance. Our extensive experiments on three widely considered datasets demonstrate the promising performance of LR-CSNet compared to state-of-the-art methods in natural image CS.
translated by 谷歌翻译