车辆可见光通信(V-VLC)是一种有前途的智能运输系统(ITS)技术,用于车辆到车辆(V2V)和基础设施(V2I)通信,利用发光二极管(LED)。 V-VLC系统性能的主要劣化因子是噪声。与传统的射频(RF)为基础的系统不同,V-VLC系统包括许多噪声源:太阳辐射,车辆,街道,停车车库和隧道灯的背景照明。传统的V-VLC系统噪声建模基于射击和热噪声形式的添加剂白色高斯噪声假设。在本文中,为了研究V-VLC信道的时间相关和白噪声分量,我们提出了基于Allan方差(AVAR)的噪声分析,该分析提供了一个时间序列分析方法来识别数据的噪声。我们还提出了一种基于广义的维纳流程的V-VLC信道噪声合成方法,以产生不同的噪声分量。我们进一步提出了一种基于卷积的自动化器(CAE)的去噪方案,以减少V-VLC信号噪声,分别实现0.0442和0.0474的重建根均方误差(RMSE),用于室内和室外通道。
translated by 谷歌翻译
第五代(5G)网络和超越设想巨大的东西互联网(物联网)推出,以支持延长现实(XR),增强/虚拟现实(AR / VR),工业自动化,自主驾驶和智能所有带来的破坏性应用一起占用射频(RF)频谱的大规模和多样化的IOT设备。随着频谱嘎嘎和吞吐量挑战,这种大规模的无线设备暴露了前所未有的威胁表面。 RF指纹识别是预约的作为候选技术,可以与加密和零信任安全措施相结合,以确保无线网络中的数据隐私,机密性和完整性。在未来的通信网络中,在这项工作中,在未来的通信网络中的相关性,我们对RF指纹识别方法进行了全面的调查,从传统观点到最近的基于深度学习(DL)的算法。现有的调查大多专注于无线指纹方法的受限制呈现,然而,许多方面仍然是不可能的。然而,在这项工作中,我们通过解决信号智能(SIGINT),应用程序,相关DL算法,RF指纹技术的系统文献综述来缓解这一点,跨越过去二十年的RF指纹技术的系统文献综述,对数据集和潜在研究途径的讨论 - 必须以百科全书的方式阐明读者的必要条件。
translated by 谷歌翻译
Visible light positioning has the potential to yield sub-centimeter accuracy in indoor environments, yet conventional received signal strength (RSS)-based localization algorithms cannot achieve this because their performance degrades from optical multipath reflection. However, this part of the optical received signal is deterministic due to the often static and predictable nature of the optical wireless channel. In this paper, the performance of optical channel impulse response (OCIR)-based localization is studied using an artificial neural network (ANN) to map embedded features of the OCIR to the user equipment's location. Numerical results show that OCIR-based localization outperforms conventional RSS techniques by two orders of magnitude using only two photodetectors as anchor points. The ANN technique can take advantage of multipath features in a wide range of scenarios, from using only the DC value to relying on high-resolution time sampling that can result in sub-centimeter accuracy.
translated by 谷歌翻译
鉴于无线频谱的有限性和对无线通信最近的技术突破产生的频谱使用不断增加的需求,干扰问题仍在继续持续存在。尽管最近解决干涉问题的进步,但干扰仍然呈现出有效使用频谱的挑战。这部分是由于Wi-Fi的无许可和管理共享乐队使用的升高,长期演进(LTE)未许可(LTE-U),LTE许可辅助访问(LAA),5G NR等机会主义频谱访问解决方案。因此,需要对干扰稳健的有效频谱使用方案的需求从未如此重要。在过去,通过使用避免技术以及非AI缓解方法(例如,自适应滤波器)来解决问题的大多数解决方案。非AI技术的关键缺陷是需要提取或开发信号特征的域专业知识,例如CycrationArity,带宽和干扰信号的调制。最近,研究人员已成功探索了AI / ML的物理(PHY)层技术,尤其是深度学习,可减少或补偿干扰信号,而不是简单地避免它。 ML基于ML的方法的潜在思想是学习来自数据的干扰或干扰特性,从而使需要对抑制干扰的域专业知识进行侧联。在本文中,我们审查了广泛的技术,这些技术已经深入了解抑制干扰。我们为干扰抑制中许多不同类型的深度学习技术提供比较和指导。此外,我们突出了在干扰抑制中成功采用深度学习的挑战和潜在的未来研究方向。
translated by 谷歌翻译
物理过程引起的随机噪声是测量的固有特征,也是大多数信号处理任务的限制因素。鉴于最近对数据驱动信号建模的生成对抗网络(GAN)的兴趣,重要的是要确定甘恩在目标数据集中忠实地再现噪声的程度。在本文中,我们提出了一项实证研究,旨在阐明时间序列的这个问题。也就是说,我们检查了两个通用时间序列gans,一种直接的时间序列模型和使用短时傅立叶变换(STFT)表示的基于图像的模型的能力,可以学习常见的广泛噪声类型在电子和通信系统中:带限制的热噪声,功率定律噪声,射击噪声和冲动噪声。我们发现,甘斯有能力学习许多噪声类型,尽管当gan架构不太适合噪音的某些方面,例如具有极端异常值的冲动时间序列时,它们可以预见。我们的发现提供了有关当前时间序列gan的能力和潜在局限性的见解,并突出了进一步研究的领域。此外,我们的一系列测试提供了一个有用的基准,可帮助开发时间序列的深层生成模型。
translated by 谷歌翻译
低成本毫米波(MMWAVE)通信和雷达设备的商业可用性开始提高消费市场中这种技术的渗透,为第五代(5G)的大规模和致密的部署铺平了道路(5G) - 而且以及6G网络。同时,普遍存在MMWAVE访问将使设备定位和无设备的感测,以前所未有的精度,特别是对于Sub-6 GHz商业级设备。本文使用MMWAVE通信和雷达设备在基于设备的定位和无设备感应中进行了现有技术的调查,重点是室内部署。我们首先概述关于MMWAVE信号传播和系统设计的关键概念。然后,我们提供了MMWaves启用的本地化和感应方法和算法的详细说明。我们考虑了在我们的分析中的几个方面,包括每个工作的主要目标,技术和性能,每个研究是否达到了一定程度的实现,并且该硬件平台用于此目的。我们通过讨论消费者级设备的更好算法,密集部署的数据融合方法以及机器学习方法的受过教育应用是有前途,相关和及时的研究方向的结论。
translated by 谷歌翻译
在IEEE 802.11基于WiFi的波形中,接收器使用称为传统短训练场(L-STF)的前导码的第一字段执行粗略的时间和频率同步。 L-STF占据前导码长的40%,占用的通话时间为32美元。通过降低通信开销的目标,我们提出了一种修改的波形,通过消除L-STF来降低前导码长度。为了解码这种修改的波形,我们提出了一种被称为PRONTO的机器学习(ML)方案,其使用其他前导字段执行粗略时间和频率估计,特别是传统的长训练字段(L-LTF)。我们的贡献是三倍:(i)我们展示了Pronto,用于数据包检测和粗CFO估计的定制卷积神经网络(CNN),以及用于稳健训练的数据增强步骤。 (ii)我们提出了一种广义决策流程,使PRONTO与包括标准L-STF的传统波形兼容。 (iii)我们从软件定义的无线电(SDR)的测试平面上验证了空中WiFi数据集的结果。我们的评估表明,PRONTO可以以100%的精度执行数据包检测,并且粗略CFO估计,误差小于3%。我们证明Pronto提供高达40%的前导码减少,没有误码率(BER)劣化。最后,我们通过通过相应的CPU实现,通过GPU并行化进行实验地显示通过GPU并行化实现的加速。
translated by 谷歌翻译
正交频分复用(OFDM)已广泛应用于当前通信系统。人工智能(AI)addm接收器目前被带到最前沿替换和改进传统的OFDM接收器。在这项研究中,我们首先比较两个AI辅助OFDM接收器,即数据驱动的完全连接的深神经网络和模型驱动的COMNet,通过广泛的仿真和实时视频传输,使用5G快速原型制作系统进行跨越式-Air(OTA)测试。我们在离线训练和真实环境之间的频道模型之间的差异差异导致的模拟和OTA测试之间找到了性能差距。我们开发一种新颖的在线培训系统,称为SwitchNet接收器,以解决此问题。该接收器具有灵活且可扩展的架构,可以通过在线训练几个参数来适应真实频道。从OTA测试中,AI辅助OFDM接收器,尤其是SwitchNet接收器,对真实环境具有鲁棒,并且对未来的通信系统有前途。我们讨论了本文初步研究的潜在挑战和未来的研究。
translated by 谷歌翻译
无人机尚未完全信任。他们对导航的无线电和摄像机的依赖提高了安全性和隐私问题。这些系统可能会失败,导致事故,或滥用未经授权的录音。考虑到最近的法规,允许商业无人机仅在晚上运营,我们提出了一种从完全新的方法,无人机从人工照明中获得导航信息。在我们的系统中,标准灯泡调制其强度发送信标,无人机用简单的光电二极管解码此信息。该光学信息与无人机中的惯性和高度传感器组合,以提供定位,而无需无线电,GPS或相机。我们的框架是第一个提供3D无人机定位的灯光,我们用一个由四个光标记和迷你无人机组成的试验台来评估它。我们表明,我们的方法允许将无人机定位在实际位置的几个小叠内,并与最先进的定位方法相比,将本地化误差降低42%。
translated by 谷歌翻译
随着Terahertz(THZ)信号产生和辐射方法的最新进展,关节通信和传感应用正在塑造无线系统的未来。为此,预计将在用户设备设备上携带THZ光谱,以识别感兴趣的材料和气态组件。 THZ特异性的信号处理技术应补充这种对THZ感应的重新兴趣,以有效利用THZ频带。在本文中,我们介绍了这些技术的概述,重点是信号预处理(标准的正常差异归一化,最小值 - 最大归一化和Savitzky-Golay滤波),功能提取(主成分分析,部分最小二乘,t,T,T部分,t部分,t部分正方形,T - 分布的随机邻居嵌入和非负矩阵分解)和分类技术(支持向量机器,k-nearest邻居,判别分析和天真的贝叶斯)。我们还通过探索他们在THZ频段的有希望的传感能力来解决深度学习技术的有效性。最后,我们研究了在联合通信和传感的背景下,研究方法的性能和复杂性权衡;我们激励相应的用例,并在该领域提供未来的研究方向。
translated by 谷歌翻译
最近,基于深层神经网络(DNN)的物理层通信技术引起了极大的兴趣。尽管模拟实验已经验证了它们增强通信系统和出色性能的潜力,但对理论分析的关注很少。具体而言,物理层中的大多数研究都倾向于专注于DNN模型在无线通信问题上的应用,但理论上不了解DNN在通信系统中的工作方式。在本文中,我们旨在定量分析为什么DNN可以在物理层中与传统技术相比,并在计算复杂性方面提高其成本。为了实现这一目标,我们首先分析基于DNN的发射器的编码性能,并将其与传统发射器进行比较。然后,我们理论上分析了基于DNN的估计器的性能,并将其与传统估计器进行比较。第三,我们调查并验证在信息理论概念下基于DNN的通信系统中如何播放信息。我们的分析开发了一种简洁的方式,可以在物理层通信中打开DNN的“黑匣子”,可用于支持基于DNN的智能通信技术的设计,并有助于提供可解释的性能评估。
translated by 谷歌翻译
雷达传感器逐渐成为道路车辆的广泛设备,在自主驾驶和道路安全中发挥着至关重要的作用。广泛采用雷达传感器增加了不同车辆的传感器之间干扰的可能性,产生损坏的范围曲线和范围 - 多普勒地图。为了从范围 - 多普勒地图中提取多个目标的距离和速度,需要减轻影响每个范围分布的干扰。本文提出了一种全卷积神经网络,用于汽车雷达干扰缓解。为了在真实的方案中培训我们的网络,我们介绍了具有多个目标和多个干扰的新数据集的现实汽车雷达信号。为了我们的知识,我们是第一个在汽车雷达领域施加体重修剪的施加量,与广泛使用的辍学相比获得了优越的结果。虽然最先前的作品成功地估计了汽车雷达信号的大小,但我们提出了一种可以准确估计相位的深度学习模型。例如,我们的新方法将相对于普通采用的归零技术的相位估计误差从12.55度到6.58度降低了一半。考虑到缺乏汽车雷达干扰缓解数据库,我们将释放开源我们的大规模数据集,密切复制了多次干扰案例的现实世界汽车场景,允许其他人客观地比较他们在该域中的未来工作。我们的数据集可用于下载:http://github.com/ristea/arim-v2。
translated by 谷歌翻译
基于深度学习(DL)的联合源通道编码(DEEPJSCC)的最新进展导致了语义通信的新范式。基于DEEPJSCC的语义通信的两个显着特征是直接从源信号中对语义感知功能的开发以及这些功能的离散时间模拟传输(DTAT)。与传统的数字通信相比,与DEEPJSCC的语义通信在接收器上提供了出色的重建性能,并具有较高的频道质量降解,但在传输信号中也表现出较大的峰值功率比(PAPR)。一个空旷的问题是,DeepJSCC的收益是否来自高PAPR连续振幅信号带来的额外自由。在本文中,我们通过在图像传输的应用中探索三种PAPR还原技术来解决这个问题。我们确认,基于DEEPJSCC的语义通信的出色图像重建性能可以保留,而传输的PAPR被抑制至可接受的水平。该观察是在实用语义通信系统中实施DEEPJSCC的重要一步。
translated by 谷歌翻译
从调制选择到多安滕纳策略,由于物理层的连续决策而实现了通信,并且每个决策都会影响通信系统的性能。未来的通信系统必须包括广泛的功能,因为它们将涵盖各种设备和应用。常规的物理层决策机制可能无法满足这些要求,因为它们通常是基于不切实际和过度简化的假设,这些假设导致复杂性和效率之间的权衡。通过利用过去的经验,学习驱动的设计是有希望的解决方案,即使在特殊情况下也能够快速响应。相应的设计解决方案应按照学习驱动的范例的线发展,这些范式提供了更多的自主性和鲁棒性。必须通过考虑现实世界系统的事实而不限制假设来实现这种进化。在本文中,提出了物理层中的共同假设,以突出它们在实用系统中的差异。作为解决方案,通过考虑实施步骤和挑战来检查学习算法。此外,通过使用软件定义的无线电节点进行实时案例研究来讨论这些问题,以证明潜在的性能改善。提出了一个网络物理框架,以纳入未来的补救措施。
translated by 谷歌翻译
Human Activity Recognition (HAR) is an emerging technology with several applications in surveillance, security, and healthcare sectors. Noninvasive HAR systems based on Wi-Fi Channel State Information (CSI) signals can be developed leveraging the quick growth of ubiquitous Wi-Fi technologies, and the correlation between CSI dynamics and body motions. In this paper, we propose Principal Component-based Wavelet Convolutional Neural Network (or PCWCNN) -- a novel approach that offers robustness and efficiency for practical real-time applications. Our proposed method incorporates two efficient preprocessing algorithms -- the Principal Component Analysis (PCA) and the Discrete Wavelet Transform (DWT). We employ an adaptive activity segmentation algorithm that is accurate and computationally light. Additionally, we used the Wavelet CNN for classification, which is a deep convolutional network analogous to the well-studied ResNet and DenseNet networks. We empirically show that our proposed PCWCNN model performs very well on a real dataset, outperforming existing approaches.
translated by 谷歌翻译
大气效应(例如湍流和背景热噪声)抑制了在开关键控自由空间光学通信中使用的相干光的传播。在这里,我们介绍并实验验证了卷积神经网络,以降低后处理中自由空间光学通信的位错误率,而自由空间光学通信的位比基于高级光学器件的现有解决方案明显简单,更便宜。我们的方法由两个神经网络组成,这是第一个确定在热噪声和湍流中存在相干位序列以及第二个解调相干位序列的存在。通过生成连贯的光线,将它们与热灯结合在一起,并通过湍流的水箱将其结合起来,通过生成开关的键入键流,可以通过实验获得我们网络的所有数据,从而获得了模拟的湍流,并将其传递给了最终的光线。高度准确性。我们的卷积神经网络提高了与阈值分类方案相比的检测准确性,并具有与当前解调和误差校正方案集成的能力。
translated by 谷歌翻译
Channel estimation is a critical task in multiple-input multiple-output (MIMO) digital communications that substantially effects end-to-end system performance. In this work, we introduce a novel approach for channel estimation using deep score-based generative models. A model is trained to estimate the gradient of the logarithm of a distribution and is used to iteratively refine estimates given measurements of a signal. We introduce a framework for training score-based generative models for wireless MIMO channels and performing channel estimation based on posterior sampling at test time. We derive theoretical robustness guarantees for channel estimation with posterior sampling in single-input single-output scenarios, and experimentally verify performance in the MIMO setting. Our results in simulated channels show competitive in-distribution performance, and robust out-of-distribution performance, with gains of up to $5$ dB in end-to-end coded communication performance compared to supervised deep learning methods. Simulations on the number of pilots show that high fidelity channel estimation with $25$% pilot density is possible for MIMO channel sizes of up to $64 \times 256$. Complexity analysis reveals that model size can efficiently trade performance for estimation latency, and that the proposed approach is competitive with compressed sensing in terms of floating-point operation (FLOP) count.
translated by 谷歌翻译
Communication and computation are often viewed as separate tasks. This approach is very effective from the perspective of engineering as isolated optimizations can be performed. On the other hand, there are many cases where the main interest is a function of the local information at the devices instead of the local information itself. For such scenarios, information theoretical results show that harnessing the interference in a multiple-access channel for computation, i.e., over-the-air computation (OAC), can provide a significantly higher achievable computation rate than the one with the separation of communication and computation tasks. Besides, the gap between OAC and separation in terms of computation rate increases with more participating nodes. Given this motivation, in this study, we provide a comprehensive survey on practical OAC methods. After outlining fundamentals related to OAC, we discuss the available OAC schemes with their pros and cons. We then provide an overview of the enabling mechanisms and relevant metrics to achieve reliable computation in the wireless channel. Finally, we summarize the potential applications of OAC and point out some future directions.
translated by 谷歌翻译
惯性导航系统与全球导航卫星系统之间的融合经常用于许多平台,例如无人机,陆地车辆和船舶船只。融合通常是在基于模型的扩展卡尔曼过滤框架中进行的。过滤器的关键参数之一是过程噪声协方差。它负责实时解决方案的准确性,因为它考虑了车辆动力学不确定性和惯性传感器质量。在大多数情况下,过程噪声被认为是恒定的。然而,由于整个轨迹的车辆动力学和传感器测量变化,过程噪声协方差可能会发生变化。为了应对这种情况,文献中建议了几种基于自适应的Kalman过滤器。在本文中,我们提出了一个混合模型和基于学习的自适应导航过滤器。我们依靠基于模型的Kalman滤波器和设计深神网络模型来调整瞬时系统噪声协方差矩阵,仅基于惯性传感器读数。一旦学习了过程噪声协方差,就可以将其插入建立的基于模型的Kalman滤波器中。在推导了提出的混合框架后,提出了使用四极管的现场实验结果,并给出了与基于模型的自适应方法进行比较。我们表明,所提出的方法在位置误差中获得了25%的改善。此外,提出的混合学习方法可以在任何导航过滤器以及任何相关估计问题中使用。
translated by 谷歌翻译
在本文中,我们提出了一种一般稳健的子带自适应滤波(GR-SAF)方案,以防止冲动噪声,通过在随机步行模型下以各个重量不确定性最小化均方根偏差。具体而言,通过选择不同的缩放因子,例如在GR-SAF方案中从M-估计和最大correntropy robust标准中选择,我们可以轻松获得不同的GR-SAF算法。重要的是,所提出的GR-SAF算法可以简化为可变的正则化鲁棒归一化的SAF算法,从而具有快速的收敛速率和低稳态误差。在系统识别的背景下,用冲动噪声和回声取消进行双词的模拟已证实,所提出的GR-SAF算法的表现优于其对应物。
translated by 谷歌翻译