单通道盲源分离(SCBS)是指从由单个传感器收集的混合信号分离多个源。 SCBS的现有方法主要集中在分离两个来源并具有较弱的泛化性能。为了解决这些问题,在本文中提出了一种算法,通过设计并行双生成的对冲网络(PDUPGAN)来分离来自混合的多个源,其可以构建混合和相应的多个源之间的关系以实现一对多跨域映射。该算法可以应用于任何混合模型,例如线性瞬时混合模型和卷积混合模型。此外,创建了一对多数据集,包括该研究的混音和相应来源。实验在四个不同的数据集上进行,并用不同比例混合的信号进行测试。实验结果表明,该算法可以实现高性能的峰值信噪比(PSNR)和相关性,其优于最先进的算法。
translated by 谷歌翻译
在最近对基于听觉的诱发电位(AEP)的脑电器界面(BCI)的研究中,显示出具有编码器解码器框架,可以将人的神经活动转化为语音(T-CAS)。然而,基于当前的编码器 - 解码器的方法实现T-CAS通常具有两步方法,其中信息在编码器和解码器之间传递,利用共享尺寸还原向量,这可能导致信息丢失。解决这个问题的潜在方法是通过使用双生成的对抗性网络(Dualgan)来设计端到端的方法,而无需尺寸减少传递信息,但它无法实现一对一的信号到信号转换(参见图1(a)和(b))。在本文中,我们提出了一个端到端模型,将人类神经活动转化为直接语音,创建一个新的脑电图(EEG)数据集,为参与者设计了一个良好的关注,设计了一种检测参与者的注意力,并引入了双重 - 双生成对抗网络(Dual-Dualgan)(参见图1(c)和(d)),以通过组标记EEG信号和语音来解决人类神经活动的端到端平衡对语音(et-CAS)问题信号,插入过渡域以实现跨域映射。在过渡域中,转换信号由相应的EEG和语音信号级联,并且可以以一定比例构建脑电图和语音信号的桥梁而不相应的特征,并实现一对一跨域EEG-语音翻译。该方法可以将神经活动的单词长度和句子长度序列转换为语音。已经进行了实验评估,表明该方法显着优于听觉刺激的单词和句子的最先进方法。
translated by 谷歌翻译
Conditional Generative Adversarial Networks (GANs) for cross-domain image-to-image translation have made much progress recently [7,8,21,12,4,18]. Depending on the task complexity, thousands to millions of labeled image pairs are needed to train a conditional GAN. However, human labeling is expensive, even impractical, and large quantities of data may not always be available. Inspired by dual learning from natural language translation [23], we develop a novel dual-GAN mechanism, which enables image translators to be trained from two sets of unlabeled images from two domains. In our architecture, the primal GAN learns to translate images from domain U to those in domain V , while the dual GAN learns to invert the task. The closed loop made by the primal and dual tasks allows images from either domain to be translated and then reconstructed. Hence a loss function that accounts for the reconstruction error of images can be used to train the translators. Experiments on multiple image translation tasks with unlabeled data show considerable performance gain of Du-alGAN over a single GAN. For some tasks, DualGAN can even achieve comparable or slightly better results than conditional GAN trained on fully labeled data.
translated by 谷歌翻译
以时间序列形式出现的信号测量是医疗机学习应用中使用的最常见数据类型之一。这样的数据集的大小通常很小,收集和注释昂贵,并且可能涉及隐私问题,这阻碍了我们培训用于生物医学应用的大型,最先进的深度学习模型的能力。对于时间序列数据,我们可以用来扩展数据集大小的数据增强策略套件受到维护信号的基本属性的限制。生成对抗网络(GAN)可以用作另一种数据增强工具。在本文中,我们提出了TTS-CGAN,这是一种基于变压器的条件GAN模型,可以在现有的多级数据集上进行训练,并生成特定于类的合成时间序列序列的任意长度。我们详细介绍了模型架构和设计策略。由我们的模型生成的合成序列与真实的序列无法区分,可以用来补充或替换相同类型的真实信号,从而实现了数据增强的目标。为了评估生成的数据的质量,我们修改小波相干度量指标,以比较两组信号之间的相似性,还可以进行案例研究,其中使用合成和真实数据的混合来训练深度学习模型用于序列分类。与其他可视化技术和定性评估方法一起,我们证明TTS-CGAN生成的合成数据类似于真实数据,并且我们的模型的性能优于为时间序列数据生成而构建的其他最先进的GAN模型。
translated by 谷歌翻译
从人体中获取广泛的体征,称为生物医学体征或生物信号,它们可以处于细胞水平,器官水平或亚原子水平。脑电图来自大脑的电活动,心电图是心脏的电活动,来自肌肉声信号的电动作用,称为肌电图,眼睛的电视图等。研究这些信号对医生非常有帮助,它可以帮助他们检查和预测和治愈许多疾病。
translated by 谷歌翻译
脑电图(EEG)信号通常被伪影污染。必须开发一种实用可靠的伪影清除方法,以防止神经信号的误解和脑计算机接口的表现。本研究开发了一种新的伪影拆除方法,IC-U-NET,其基于U-Net架构,用于去除普遍的EEG伪像和重建脑源。使用独立分量分析分解的大脑和非大脑源的混合物接受了IC-U-Net培训,并使用损失功能的集合来模拟EEG记录中的复杂信号波动。在恢复脑源和去除各种伪影中的提出方法(例如,眼睛闪烁/运动,肌肉活动和线/沟道噪声)的有效性在模拟研究中展示,并在休息时收集了三个现实世界EEG数据集走路。 IC-U-Net是用户友好的和公开可用的,不需要参数调整或工件类型名称,并且对通道编号没有限制。鉴于在移动设置中越来越需要图像自然脑动力学,IC-U-Net提供了一个有希望的端到端解决方案,用于自动从EEG录像中删除伪影。
translated by 谷歌翻译
Objective: Despite numerous studies proposed for audio restoration in the literature, most of them focus on an isolated restoration problem such as denoising or dereverberation, ignoring other artifacts. Moreover, assuming a noisy or reverberant environment with limited number of fixed signal-to-distortion ratio (SDR) levels is a common practice. However, real-world audio is often corrupted by a blend of artifacts such as reverberation, sensor noise, and background audio mixture with varying types, severities, and duration. In this study, we propose a novel approach for blind restoration of real-world audio signals by Operational Generative Adversarial Networks (Op-GANs) with temporal and spectral objective metrics to enhance the quality of restored audio signal regardless of the type and severity of each artifact corrupting it. Methods: 1D Operational-GANs are used with generative neuron model optimized for blind restoration of any corrupted audio signal. Results: The proposed approach has been evaluated extensively over the benchmark TIMIT-RAR (speech) and GTZAN-RAR (non-speech) datasets corrupted with a random blend of artifacts each with a random severity to mimic real-world audio signals. Average SDR improvements of over 7.2 dB and 4.9 dB are achieved, respectively, which are substantial when compared with the baseline methods. Significance: This is a pioneer study in blind audio restoration with the unique capability of direct (time-domain) restoration of real-world audio whilst achieving an unprecedented level of performance for a wide SDR range and artifact types. Conclusion: 1D Op-GANs can achieve robust and computationally effective real-world audio restoration with significantly improved performance. The source codes and the generated real-world audio datasets are shared publicly with the research community in a dedicated GitHub repository1.
translated by 谷歌翻译
脑电图(EEG)解码旨在识别基于非侵入性测量的脑活动的神经处理的感知,语义和认知含量。当应用于在静态,受控的实验室环境中获取的数据时,传统的EEG解码方法取得了适度的成功。然而,开放世界的环境是一个更现实的环境,在影响EEG录音的情况下,可以意外地出现,显着削弱了现有方法的鲁棒性。近年来,由于其在特征提取的卓越容量,深入学习(DL)被出现为潜在的解决方案。它克服了使用浅架构提取的“手工制作”功能或功能的限制,但通常需要大量的昂贵,专业标记的数据 - 并不总是可获得的。结合具有域特定知识的DL可能允许开发即使具有小样本数据,也可以开发用于解码大脑活动的鲁棒方法。虽然已经提出了各种DL方法来解决EEG解码中的一些挑战,但目前缺乏系统的教程概述,特别是对于开放世界应用程序。因此,本文为开放世界EEG解码提供了对DL方法的全面调查,并确定了有前途的研究方向,以激发现实世界应用中的脑电图解码的未来研究。
translated by 谷歌翻译
脑电图(EEG)录音通常被伪影污染。已经开发了各种方法来消除或削弱伪影的影响。然而,大多数人都依赖于先前的分析经验。在这里,我们提出了一个深入的学习框架,以将神经信号和伪像在嵌入空间中分离并重建被称为DeepSeparator的去噪信号。 DeepSeparator采用编码器来提取和放大原始EEG中的特征,称为分解器的模块以提取趋势,检测和抑制伪像和解码器以重建去噪信号。此外,DeepSeparator可以提取伪像,这在很大程度上增加了模型解释性。通过半合成的EEG数据集和实际任务相关的EEG数据集进行了所提出的方法,建议DeepSepater在EoG和EMG伪像去除中占据了传统模型。 DeepSeparator可以扩展到多通道EEG和任何长度的数据。它可能激励深入学习的EEG去噪的未来发展和应用。 DeepSeparator的代码可在https://github.com/ncclabsustech/deepseparator上获得。
translated by 谷歌翻译
当通过玻璃等半充实介质进行成像时,通常可以在捕获的图像中找到另一个场景的反射。它降低了图像的质量并影响其后续分析。在本文中,提出了一种新的深层神经网络方法来解决成像中的反射问题。传统的反射删除方法不仅需要长时间的计算时间来解决不同的优化功能,而且不能保证其性能。由于如今的成像设备可以轻松获得数组摄像机,因此我们首先在本文中建议使用卷积神经网络(CNN)采用基于多图像的深度估计方法。提出的网络避免了由于图像中的反射而引起的深度歧义问题,并直接估计沿图像边缘的深度。然后,它们被用来将边缘分类为属于背景或反射的边缘。由于具有相似深度值的边缘在分类中易于误差,因此将它们从反射删除过程中删除。我们建议使用生成的对抗网络(GAN)来再生删除的背景边缘。最后,估计的背景边缘图被馈送到另一个自动编码器网络,以帮助从原始图像中提取背景。实验结果表明,与最先进的方法相比,提出的反射去除算法在定量和定性上取得了出色的性能。与使用传统优化方法相比,所提出的算法还显示出比现有方法相比的速度要快得多。
translated by 谷歌翻译
The efficient segmentation of foreground text information from the background in degraded color document images is a hot research topic. Due to the imperfect preservation of ancient documents over a long period of time, various types of degradation, including staining, yellowing, and ink seepage, have seriously affected the results of image binarization. In this paper, a three-stage method is proposed for image enhancement and binarization of degraded color document images by using discrete wavelet transform (DWT) and generative adversarial network (GAN). In Stage-1, we use DWT and retain the LL subband images to achieve the image enhancement. In Stage-2, the original input image is split into four (Red, Green, Blue and Gray) single-channel images, each of which trains the independent adversarial networks. The trained adversarial network models are used to extract the color foreground information from the images. In Stage-3, in order to combine global and local features, the output image from Stage-2 and the original input image are used to train the independent adversarial networks for document binarization. The experimental results demonstrate that our proposed method outperforms many classical and state-of-the-art (SOTA) methods on the Document Image Binarization Contest (DIBCO) dataset. We release our implementation code at https://github.com/abcpp12383/ThreeStageBinarization.
translated by 谷歌翻译
生成的对抗网络(GANS)已经促进了解决图像到图像转换问题的新方向。不同的GANS在目标函数中使用具有不同损耗的发电机和鉴别器网络。仍然存在差距来填补所生成的图像的质量并靠近地面真理图像。在这项工作中,我们介绍了一个名为循环辨别生成的对抗网络(CDGAN)的新的图像到图像转换网络,填补了上述空白。除了加速本的原始架构之外,所提出的CDGAN通过结合循环图像的附加鉴别器网络来产生高质量和更现实的图像。所提出的CDGAN在三个图像到图像转换数据集上进行测试。分析了定量和定性结果,并与最先进的方法进行了比较。在三个基线图像到图像转换数据集中,所提出的CDGAN方法优于最先进的方法。该代码可在https://github.com/kishankancharagunta/cdgan获得。
translated by 谷歌翻译
由于技术成本的降低和卫星发射的增加,卫星图像变得越来越流行和更容易获得。除了提供仁慈的目的外,还可以出于恶意原因(例如错误信息)使用卫星数据。事实上,可以依靠一般图像编辑工具来轻松操纵卫星图像。此外,随着深层神经网络(DNN)的激增,可以生成属于各种领域的现实合成图像,与合成生成的卫星图像的扩散有关的其他威胁正在出现。在本文中,我们回顾了关于卫星图像的产生和操纵的最新技术(SOTA)。特别是,我们既关注从头开始的合成卫星图像的产生,又要通过图像转移技术对卫星图像进行语义操纵,包括从一种类型的传感器到另一种传感器获得的图像的转换。我们还描述了迄今已研究的法医检测技术,以对合成图像伪造进行分类和检测。虽然我们主要集中在法医技术上明确定制的,该技术是针对AI生成的合成内容物的检测,但我们还审查了一些用于一般剪接检测的方法,这些方法原则上也可以用于发现AI操纵图像
translated by 谷歌翻译
工作记忆(WM)表示在脑海中存储的信息,是人类认知领域的一个基本研究主题。可以监测大脑的电活动的脑电图(EEG)已被广泛用于测量WM的水平。但是,关键的挑战之一是个体差异可能会导致无效的结果,尤其是当既定模型符合陌生主题时。在这项工作中,我们提出了一个具有空间注意力(CS-DASA)的跨主题深层适应模型,以概括跨科目的工作负载分类。首先,我们将EEG时间序列转换为包含空间,光谱和时间信息的多帧EEG图像。首先,CS-DASA中的主题共享模块从源和目标主题中接收多帧的EEG图像数据,并学习了共同的特征表示。然后,在特定于主题的模块中,实现了最大平均差异,以测量重现的内核希尔伯特空间中的域分布差异,这可以为域适应增加有效的罚款损失。此外,采用主题对象的空间注意机制专注于目标图像数据的判别空间特征。在包含13个受试者的公共WM EEG数据集上进行的实验表明,所提出的模型能够达到比现有最新方法更好的性能。
translated by 谷歌翻译
在本文中,我们介绍了一种快速运动脱棕色条件的生成对抗网络(FMD-CGAN),其有助于单个图像的盲运动去纹理。 FMD-CGAN在去修改图像后提供令人印象深刻的结构相似性和视觉外观。与其他深度神经网络架构一样,GAN也遭受大型模型大小(参数)和计算。在诸如移动设备和机器人等资源约束设备上部署模型并不容易。借助MobileNet基于MobileNet的架构,包括深度可分离卷积,我们降低了模型大小和推理时间,而不会丢失图像的质量。更具体地说,我们将模型大小与最近的竞争对手相比将3-60倍。由此产生的压缩去掩盖CGAN比其最接近的竞争对手更快,甚至定性和定量结果优于各种最近提出的最先进的盲运动去误紧模型。我们还可以使用我们的模型进行实时映像解擦干任务。标准数据集的当前实验显示了该方法的有效性。
translated by 谷歌翻译
现实的高光谱图像(HSI)超分辨率(SR)技术旨在从其低分辨率(LR)对应物中产生具有更高光谱和空间忠诚的高分辨率(HR)HSI。生成的对抗网络(GAN)已被证明是图像超分辨率的有效深入学习框架。然而,现有GaN的模型的优化过程经常存在模式崩溃问题,导致光谱间不变重建容量有限。这可能导致所生成的HSI上的光谱空间失真,尤其是具有大的升级因子。为了缓解模式崩溃的问题,这项工作提出了一种与潜在编码器(Le-GaN)耦合的新型GaN模型,其可以将产生的光谱空间特征从图像空间映射到潜在空间并产生耦合组件正规化生成的样本。基本上,我们将HSI视为嵌入在潜在空间中的高维歧管。因此,GaN模型的优化被转换为学习潜在空间中的高分辨率HSI样本的分布的问题,使得产生的超分辨率HSI的分布更接近其原始高分辨率对应物的那些。我们对超级分辨率的模型性能进行了实验评估及其在缓解模式崩溃中的能力。基于具有不同传感器(即Aviris和UHD-185)的两种实际HSI数据集进行了测试和验证,用于各种升高因素并增加噪声水平,并与最先进的超分辨率模型相比(即Hyconet,LTTR,Bagan,SR-GaN,Wgan)。
translated by 谷歌翻译
With the development of convolutional neural networks, hundreds of deep learning based dehazing methods have been proposed. In this paper, we provide a comprehensive survey on supervised, semi-supervised, and unsupervised single image dehazing. We first discuss the physical model, datasets, network modules, loss functions, and evaluation metrics that are commonly used. Then, the main contributions of various dehazing algorithms are categorized and summarized. Further, quantitative and qualitative experiments of various baseline methods are carried out. Finally, the unsolved issues and challenges that can inspire the future research are pointed out. A collection of useful dehazing materials is available at \url{https://github.com/Xiaofeng-life/AwesomeDehazing}.
translated by 谷歌翻译
海面地下温度,水上野生动物,水下动力和海面热传递的基本组成部分受到气候变化的全球变暖的影响。现有的研究通常基于基于物理的数值模型或基于数据的模型。物理建模和机器学习传统上被认为是海上地下温度预测任务的两个无关字段,具有较为不同的科学范式(物理驱动和数据驱动)。但是,我们认为这两种方法都互相互补。物理建模方法可以提供超出观察条件的外推的潜力,而数据驱动方法在适应数据时是灵活的,并且能够检测意外模式。两种方法的组合非常有吸引力,并提供潜在的性能改进。在本文中,我们提出了一种基于生成对抗网络(GAN)的新型框架与数值模型相结合预测海地下温度。首先,基于GaN的模型用于在数值模型中学习表面温度和目标地下温度之间的简化物理学。然后,使用观察数据来校准基于GaN的模型参数以获得更好的预测。我们通过预测南海的日常海面温度来评估拟议的框架。与现有最先进的方法相比,广泛的实验证明了所提出的框架的有效性。
translated by 谷歌翻译
数字全息图是一种3D成像技术,它通过向物体发射激光束并测量衍射波形的强度,称为全息图。对象的3D形状可以通过对捕获的全息图的数值分析并恢复发生的相位来获得。最近,深度学习(DL)方法已被用于更准确的全息处理。但是,大多数监督方法都需要大型数据集来训练该模型,由于样本或隐私问题的缺乏,大多数DH应用程序都很少获得。存在一些基于DL的恢复方法,不依赖配对图像的大数据集。尽管如此,这些方法中的大多数经常忽略控制波传播的基本物理法。这些方法提供了一个黑盒操作,无法解释,可以推广和转移到其他样本和应用程序。在这项工作中,我们提出了一种基于生成对抗网络的新DL体系结构,该架构使用判别网络来实现重建质量的语义度量,同时使用生成网络作为函数近似器来建模全息图的倒数。我们使用模拟退火驱动的渐进式掩蔽模块将恢复图像的背景部分强加于回收图像的背景部分,以增强重建质量。所提出的方法是一种表现出高传递性对类似样品的可传递性的方法之一,该方法促进了其在时间敏感应用程序中的快速部署,而无需重新培训网络。结果表明,重建质量(约5 dB PSNR增益)和噪声的鲁棒性(PSNR与噪声增加率降低约50%)的竞争者方法有了显着改善。
translated by 谷歌翻译
Generating multivariate time series is a promising approach for sharing sensitive data in many medical, financial, and IoT applications. A common type of multivariate time series originates from a single source such as the biometric measurements from a medical patient. This leads to complex dynamical patterns between individual time series that are hard to learn by typical generation models such as GANs. There is valuable information in those patterns that machine learning models can use to better classify, predict or perform other downstream tasks. We propose a novel framework that takes time series' common origin into account and favors channel/feature relationships preservation. The two key points of our method are: 1) the individual time series are generated from a common point in latent space and 2) a central discriminator favors the preservation of inter-channel/feature dynamics. We demonstrate empirically that our method helps preserve channel/feature correlations and that our synthetic data performs very well in downstream tasks with medical and financial data.
translated by 谷歌翻译