巨大的多输入多输出(MIMO)通信系统在数据速率和能效方面具有巨大的潜力,尽管信道估计对于大量天线变得具有挑战性。使用物理模型允许通过基于传播物理来注入先验信息来缓解问题。然而,这种模型依赖于简化假设,并且需要精确地了解系统的配置,这在实践中是不现实的。在本文中我们呈现了MPNET,该展开神经网络专为大规模的MIMO信道估计而设计。它以无人监督的方式在线培训。此外,MPNET正在计算上高效,并自动将其深度与信噪比(SNR)相互作用。我们提出的方法通过允许基于传入数据自动校正其信道估计算法来增加物理信道模型的灵活性,而无需单独的离线训练阶段。它应用于现实毫米波通道并显示表现出色,实现频道估计误差几乎与一个完美校准的系统一起获得的频道估计误差。它还允许入射检测和自动校正,使BS弹性能够自动适应其环境的变化。
translated by 谷歌翻译
Channel estimation is a critical task in multiple-input multiple-output (MIMO) digital communications that substantially effects end-to-end system performance. In this work, we introduce a novel approach for channel estimation using deep score-based generative models. A model is trained to estimate the gradient of the logarithm of a distribution and is used to iteratively refine estimates given measurements of a signal. We introduce a framework for training score-based generative models for wireless MIMO channels and performing channel estimation based on posterior sampling at test time. We derive theoretical robustness guarantees for channel estimation with posterior sampling in single-input single-output scenarios, and experimentally verify performance in the MIMO setting. Our results in simulated channels show competitive in-distribution performance, and robust out-of-distribution performance, with gains of up to $5$ dB in end-to-end coded communication performance compared to supervised deep learning methods. Simulations on the number of pilots show that high fidelity channel estimation with $25$% pilot density is possible for MIMO channel sizes of up to $64 \times 256$. Complexity analysis reveals that model size can efficiently trade performance for estimation latency, and that the proposed approach is competitive with compressed sensing in terms of floating-point operation (FLOP) count.
translated by 谷歌翻译
混合模拟和数字波束成形收发器在解决下一代毫米波(MM波)大规模MIMO(多输入多输出)系统中的昂贵硬件和高训练开销的挑战。然而,在混合架构中缺乏完全数字波束成形和MM波的短相干时间对信道估计施加了额外的约束。在解决这些挑战的前提是,主要集中在窄带信道上,其中采用基于优化的或贪婪算法来导出混合波束形成器。在本文中,我们介绍了用于频率选择,宽带MM波系统的信道估计和混合波束形成的深度学习(DL)方法。特别地,我们考虑大规模的MIMO正交频分复用(MIMO-OFDM)系统,并提出包括卷积神经网络(CNN)的三种不同的DL框架,其接受接收信号的原始数据作为输入和产生信道估计和混合波束形成器在输出。我们还介绍了离线和在线预测方案。数值实验表明,与目前的最先进的优化和DL方法相比,我们的方法提供了更高的频谱效率,较小的计算成本和更少的导频信号,以及对接收的导频数据中的偏差较高的差异,损坏的信道矩阵和传播环境。
translated by 谷歌翻译
由于其快速和低功率配置,可重新配置的智能表面(RISS)最近被视为未来无线网络的节能解决方案,这在实现大规模连通性和低延迟通信方面具有增加的潜力。基于RIS的系统中的准确且低空的通道估计是通常的RIS单元元素及其独特的硬件约束,这是最关键的挑战之一。在本文中,我们专注于RIS授权的多用户多用户多输入单输出(MISO)上行链路通信系统的上行链路,并根据并行因子分解提出了一个通道估计框架,以展开所得的级联通道模型。我们为基站和RIS之间的渠道以及RIS与用户之间的渠道提供了两种迭代估计算法。一个基于交替的最小二乘(ALS),而另一个使用向量近似消息传递到迭代的迭代中,从估计的向量重建了两个未知的通道。为了从理论上评估基于ALS的算法的性能,我们得出了其估计值CRAM \'ER-RAO BOND(CRB)。我们还通过估计的通道和基本站的不同预码方案讨论了可实现的总和率计算。我们的广泛仿真结果表明,我们的算法表现优于基准方案,并且ALS技术可实现CRB。还证明,使用估计通道的总和率总是在各种设置下达到完美通道的总和,从而验证了提出的估计算法的有效性和鲁棒性。
translated by 谷歌翻译
给定有限数量的训练数据样本的分类的基本任务被考虑了具有已知参数统计模型的物理系统。基于独立的学习和统计模型的分类器面临使用小型训练集实现分类任务的主要挑战。具体地,单独依赖基于物理的统计模型的分类器通常遭受它们无法适当地调整底层的不可观察的参数,这导致系统行为的不匹配表示。另一方面,基于学习的分类器通常依赖于来自底层物理过程的大量培训数据,这在最实际的情况下可能不可行。本文提出了一种混合分类方法 - 被称为亚牙线的菌丝 - 利用基于物理的统计模型和基于学习的分类器。所提出的解决方案基于猜想,即通过融合它们各自的优势,刺鼠线将减轻与基于学习和统计模型的分类器的各个方法相关的挑战。所提出的混合方法首先使用可用(次优)统计估计程序来估计不可观察的模型参数,随后使用基于物理的统计模型来生成合成数据。然后,培训数据样本与基于学习的分类器中的合成数据结合到基于神经网络的域 - 对抗训练。具体地,为了解决不匹配问题,分类器将从训练数据和合成数据的映射学习到公共特征空间。同时,培训分类器以在该空间内找到判别特征,以满足分类任务。
translated by 谷歌翻译
最近在无线通信领域的许多任务中考虑了机器学习算法。以前,我们已经提出了使用深度卷积神经网络(CNN)进行接收器处理的使用,并证明它可以提供可观的性能提高。在这项研究中,我们专注于发射器的机器学习算法。特别是,我们考虑进行波束形成并提出一个CNN,该CNN对于给定上行链路通道估计值作为输入,输出下链路通道信息用于波束成形。考虑到基于UE接收器性能的损失函数的上行链路传输和下行链路传输,CNN以有监督的方式进行培训。神经网络的主要任务是预测上行链路和下行链路插槽之间的通道演变,但它也可以学会处理整个链中的效率低下和错误,包括实际的光束成型阶段。提供的数值实验证明了波束形成性能的改善。
translated by 谷歌翻译
在带有频划分双链体(FDD)的常规多用户多用户多输入多输出(MU-MIMO)系统中,尽管高度耦合,但已单独设计了通道采集和预编码器优化过程。本文研究了下行链路MU-MIMO系统的端到端设计,其中包括试点序列,有限的反馈和预编码。为了解决这个问题,我们提出了一个新颖的深度学习(DL)框架,该框架共同优化了用户的反馈信息生成和基础站(BS)的预编码器设计。 MU-MIMO系统中的每个过程都被智能设计的多个深神经网络(DNN)单元所取代。在BS上,神经网络生成试验序列,并帮助用户获得准确的频道状态信息。在每个用户中,频道反馈操作是由单个用户DNN以分布方式进行的。然后,另一个BS DNN从用户那里收集反馈信息,并确定MIMO预编码矩阵。提出了联合培训算法以端到端的方式优化所有DNN单元。此外,还提出了一种可以避免针对可扩展设计的不同网络大小进行重新训练的培训策略。数值结果证明了与经典优化技术和其他常规DNN方案相比,提出的DL框架的有效性。
translated by 谷歌翻译
最近,基于深层神经网络(DNN)的物理层通信技术引起了极大的兴趣。尽管模拟实验已经验证了它们增强通信系统和出色性能的潜力,但对理论分析的关注很少。具体而言,物理层中的大多数研究都倾向于专注于DNN模型在无线通信问题上的应用,但理论上不了解DNN在通信系统中的工作方式。在本文中,我们旨在定量分析为什么DNN可以在物理层中与传统技术相比,并在计算复杂性方面提高其成本。为了实现这一目标,我们首先分析基于DNN的发射器的编码性能,并将其与传统发射器进行比较。然后,我们理论上分析了基于DNN的估计器的性能,并将其与传统估计器进行比较。第三,我们调查并验证在信息理论概念下基于DNN的通信系统中如何播放信息。我们的分析开发了一种简洁的方式,可以在物理层通信中打开DNN的“黑匣子”,可用于支持基于DNN的智能通信技术的设计,并有助于提供可解释的性能评估。
translated by 谷歌翻译
全球导航卫星系统通常在城市环境中表现较差,在城市环境中,设备和卫星之间的视线条件的可能性很低,因此需要替代的定位方法才能良好准确。我们提出了Locunet:用于本地化任务的卷积,端到端训练的神经网络,能够从少数基站(BSS)的接收信号强度(RSS)中估算用户的位置。在提出的方法中,要本地化的用户只需将测量的RSS报告给可能位于云中的中央处理单元。使用BSS和RSS测量值的Pathloss无线电图的估计,Locunet可以以最先进的精度定位用户,并在无线电图估计中享有高度鲁棒性。所提出的方法不需要对新环境进行预采样,并且适用于实时应用。此外,提供了两个新颖的数据集,可以在现实的城市环境中对RSS和TOA方法进行数值评估,并为研究社区公开提供。通过使用这些数据集,我们还提供了密集的城市场景中最先进的RSS和基于TOA的方法的公平比较,并以数值显示Locunet优于所有比较方法。
translated by 谷歌翻译
本文提出了一种对无线通信中的一类主动感测问题的深度学习方法,其中代理在预定数量的时间帧上与环境顺序地交互以收集信息,以便为最大化一些实用程序函数来执行感测或致动任务。在这样的主动学习设置中,代理需要根据到目前为止所做的观察结果来依次设计自适应感测策略。为了解决如此挑战的问题,其中历史观察的维度随着时间的推移而增加,我们建议使用长期短期记忆(LSTM)网络来利用观察序列中的时间相关性,并将每个观察映射到固定的尺寸状态信息矢量。然后,我们使用深神经网络(DNN)将LSTM状态映射到每个时间帧到下一个测量步骤的设计。最后,我们采用另一个DNN将最终的LSTM状态映射到所需的解决方案。我们调查了无线通信中建议框架的性能框架的性能。特别地,我们考虑用于MMWAVE光束对准的自适应波束形成问题和反射对准的自适应可重构智能表面感测问题。数值结果表明,所提出的深度主动传感策略优于现有的自适应或非一种非应用感测方案。
translated by 谷歌翻译
随着数据生成越来越多地在没有连接连接的设备上进行,因此与机器学习(ML)相关的流量将在无线网络中无处不在。许多研究表明,传统的无线协议高效或不可持续以支持ML,这创造了对新的无线通信方法的需求。在这项调查中,我们对最先进的无线方法进行了详尽的审查,这些方法是专门设计用于支持分布式数据集的ML服务的。当前,文献中有两个明确的主题,模拟的无线计算和针对ML优化的数字无线电资源管理。这项调查对这些方法进行了全面的介绍,回顾了最重要的作品,突出了开放问题并讨论了应用程序方案。
translated by 谷歌翻译
在本文中,提出了一种新的方法,该方法允许基于神经网络(NN)均衡器的低复杂性发展,以缓解高速相干光学传输系统中的损伤。在这项工作中,我们提供了已应用于馈电和经常性NN设计的各种深层模型压缩方法的全面描述和比较。此外,我们评估了这些策略对每个NN均衡器的性能的影响。考虑量化,重量聚类,修剪和其他用于模型压缩的尖端策略。在这项工作中,我们提出并评估贝叶斯优化辅助压缩,其中选择了压缩的超参数以同时降低复杂性并提高性能。总之,通过使用模拟和实验数据来评估每种压缩方法的复杂性及其性能之间的权衡,以完成分析。通过利用最佳压缩方法,我们表明可以设计基于NN的均衡器,该均衡器比传统的数字背部传播(DBP)均衡器具有更好的性能,并且只有一个步骤。这是通过减少使用加权聚类和修剪算法后在NN均衡器中使用的乘数数量来完成的。此外,我们证明了基于NN的均衡器也可以实现卓越的性能,同时仍然保持与完整的电子色色散补偿块相同的复杂性。我们通过强调开放问题和现有挑战以及未来的研究方向来结束分析。
translated by 谷歌翻译
In this paper, we investigate the joint device activity and data detection in massive machine-type communications (mMTC) with a one-phase non-coherent scheme, where data bits are embedded in the pilot sequences and the base station simultaneously detects active devices and their embedded data bits without explicit channel estimation. Due to the correlated sparsity pattern introduced by the non-coherent transmission scheme, the traditional approximate message passing (AMP) algorithm cannot achieve satisfactory performance. Therefore, we propose a deep learning (DL) modified AMP network (DL-mAMPnet) that enhances the detection performance by effectively exploiting the pilot activity correlation. The DL-mAMPnet is constructed by unfolding the AMP algorithm into a feedforward neural network, which combines the principled mathematical model of the AMP algorithm with the powerful learning capability, thereby benefiting from the advantages of both techniques. Trainable parameters are introduced in the DL-mAMPnet to approximate the correlated sparsity pattern and the large-scale fading coefficient. Moreover, a refinement module is designed to further advance the performance by utilizing the spatial feature caused by the correlated sparsity pattern. Simulation results demonstrate that the proposed DL-mAMPnet can significantly outperform traditional algorithms in terms of the symbol error rate performance.
translated by 谷歌翻译
传统上,信号处理,通信和控制一直依赖经典的统计建模技术。这种基于模型的方法利用代表基本物理,先验信息和其他领域知识的数学公式。简单的经典模型有用,但对不准确性敏感,当真实系统显示复杂或动态行为时,可能会导致性能差。另一方面,随着数据集变得丰富,现代深度学习管道的力量增加,纯粹的数据驱动的方法越来越流行。深度神经网络(DNNS)使用通用体系结构,这些架构学会从数据中运行,并表现出出色的性能,尤其是针对受监督的问题。但是,DNN通常需要大量的数据和巨大的计算资源,从而限制了它们对某些信号处理方案的适用性。我们对将原则数学模型与数据驱动系统相结合的混合技术感兴趣,以从两种方法的优势中受益。这种基于模型的深度学习方法通​​过为特定问题设计的数学结构以及从有限的数据中学习来利用这两个部分领域知识。在本文中,我们调查了研究和设计基于模型的深度学习系统的领先方法。我们根据其推理机制将基于混合模型/数据驱动的系统分为类别。我们对以系统的方式将基于模型的算法与深度学习以及具体指南和详细的信号处理示例相结合的领先方法进行了全面综述。我们的目的是促进对未来系统的设计和研究信号处理和机器学习的交集,这些系统结合了两个领域的优势。
translated by 谷歌翻译
受到深度神经网络(DNN)的显着学习和预测性能的启发,我们应用了一种特殊类型的DNN框架,称为模型驱动的深度展开神经网络,可重新配置智能表面(RIS) - 提出的毫米波(MMWAVE)单个-Input多输出(SIMO)系统。我们专注于上行链路级联信道估计,其中考虑了已知和固定基站组合和RIS相位控制矩阵用于收集观察。为了提高估计性能并降低训练开销,可以在深度展开方法中利用MMWave通道的固有通道稀疏性。验证所提出的深度展开网络架构可以优于最小二乘(LS)方法,其具有相对较小的训练开销和在线计算复杂性。
translated by 谷歌翻译
Channel charting (CC) is an unsupervised learning method allowing to locate users relative to each other without reference. From a broader perspective, it can be viewed as a way to discover a low-dimensional latent space charting the channel manifold. In this paper, this latent modeling vision is leveraged together with a recently proposed location-based beamforming (LBB) method to show that channel charting can be used for mapping channels in space or frequency. Combining CC and LBB yields a neural network resembling an autoencoder. The proposed method is empirically assessed on a channel mapping task whose objective is to predict downlink channels from uplink channels.
translated by 谷歌翻译
低成本毫米波(MMWAVE)通信和雷达设备的商业可用性开始提高消费市场中这种技术的渗透,为第五代(5G)的大规模和致密的部署铺平了道路(5G) - 而且以及6G网络。同时,普遍存在MMWAVE访问将使设备定位和无设备的感测,以前所未有的精度,特别是对于Sub-6 GHz商业级设备。本文使用MMWAVE通信和雷达设备在基于设备的定位和无设备感应中进行了现有技术的调查,重点是室内部署。我们首先概述关于MMWAVE信号传播和系统设计的关键概念。然后,我们提供了MMWaves启用的本地化和感应方法和算法的详细说明。我们考虑了在我们的分析中的几个方面,包括每个工作的主要目标,技术和性能,每个研究是否达到了一定程度的实现,并且该硬件平台用于此目的。我们通过讨论消费者级设备的更好算法,密集部署的数据融合方法以及机器学习方法的受过教育应用是有前途,相关和及时的研究方向的结论。
translated by 谷歌翻译
研究界,工业和社会中地面移动机器人(MRS)和无人机(UAV)的重要性正在迅速发展。如今,这些代理中的许多代理都配备了通信系统,在某些情况下,对于成功完成某些任务至关重要。在这种情况下,我们已经开始见证在机器人技术和通信的交集中开发一个新的跨学科研究领域。该研究领域的意图是将无人机集成到5G和6G通信网络中。这项研究无疑将在不久的将来导致许多重要的应用。然而,该研究领域发展的主要障碍之一是,大多数研究人员通过过度简化机器人技术或通信方面来解决这些问题。这阻碍了达到这个新的跨学科研究领域的全部潜力的能力。在本教程中,我们介绍了一些建模工具,从跨学科的角度来解决涉及机器人技术和通信的问题所需的一些建模工具。作为此类问题的说明性示例,我们将重点放在本教程上,讨论通信感知轨迹计划的问题。
translated by 谷歌翻译
Link-Adaptation(LA)是无线通信的最重要方面之一,其中发射器使用的调制和编码方案(MCS)适用于通道条件,以满足某些目标误差率。在具有离细胞外干扰的单用户SISO(SU-SISO)系统中,LA是通过计算接收器处计算后平均值 - 交换后噪声比(SINR)进行的。可以在使用线性探测器的多用户MIMO(MU-MIMO)接收器中使用相同的技术。均衡后SINR的另一个重要用途是用于物理层(PHY)抽象,其中几个PHY块(例如通道编码器,检测器和通道解码器)被抽象模型取代,以加快系统级级别的模拟。但是,对于具有非线性接收器的MU-MIMO系统,尚无等效于平衡后的SINR,这使LA和PHY抽象都极具挑战性。这份由两部分组成的论文解决了这个重要问题。在这一部分中,提出了一个称为检测器的称为比特 - 金属解码速率(BMDR)的度量,该指标提出了相当于后平等SINR的建议。由于BMDR没有封闭形式的表达式可以启用其瞬时计算,因此一种机器学习方法可以预测其以及广泛的仿真结果。
translated by 谷歌翻译
稀疏的盲源分离(BSS)已成为广泛应用的成熟工具 - 例如,在天体物理学和遥感中。古典稀疏BSS方法,例如近端交替线性化最小化(Palm)算法,然而经常遭受困难的封路数据计选择,其破坏了它们的结果。为了绕过这个陷阱,我们建议在这项工作中建立在展开/展开的历程中的繁荣领域。通过学习Palm HyperParameters和变量,展开手掌可以利用从现实模拟或地面真实数据中源的数据驱动的知识。与大多数现有的展开算法相比,在训练和测试阶段之前假设一个固定的已知字典,本文进一步强调处理可变混合矩阵(A.k.a.字典)。因此,提出的学习棕榈(LPALM)算法使得能够执行半盲源分离,这是增加现实世界应用中学习模型的概括的关键。我们说明了LPALM在天体物理多光谱成像中的相关性:算法不仅需要高达10美元的迭代率,而且还提高了分离质量,同时避免了繁琐的高参数和初始化的手掌选择。我们进一步表明,LPALM在半盲设置中优于其他展开的源分离方法。
translated by 谷歌翻译