引力波天文学是一个充满活力的领域,它利用经典和现代数据处理技术来理解宇宙。已经提出了各种方法来提高检测方案的效率,层次匹配的过滤是一个重要的策略。同时,深度学习方法最近已经证明了与匹配的过滤方法和显着统计性能的一致性。在这项工作中,我们提出了分层检测网络(HDN),这是一种新型的有效检测方法,结合了分层匹配和深度学习的思想。使用新型损失函数对网络进行了训练,该功能同时编码统计准确性和效率的目标。我们讨论了提出的模型的复杂性降低的来源,并描述了专门在不同区域的每个层的初始化的一般配方。我们使用开放的LiGO数据和合成注射的实验证明了HDN的性能,并使用两层型号观察$ 79 \%$ $效率的增益,而匹配的过滤率则以$ 0.2 \%$ $的匹配过滤率。此外,我们展示了如何使用两层模型初始化的三层HDN训练三层HDN可以进一步提高准确性和效率,从而突出了多个简单层在有效检测中的功能。
translated by 谷歌翻译
我们介绍了第一个机器学习引力波搜索模拟数据挑战(MLGWSC-1)的结果。在这一挑战中,参与的小组必须从二进制黑洞合并中识别出复杂性和持续时间逐渐嵌入在逐渐更现实的噪声中的引力波信号。 4个提供的数据集中的决赛包含O3A观察的真实噪声,并发出了20秒的持续时间,其中包含进动效应和高阶模式。我们介绍了在提交前从参与者未知的1个月的测试数据中得出的6个输入算法的平均灵敏度距离和运行时。其中4个是机器学习算法。我们发现,最好的基于机器学习的算法能够以每月1个的错误警报率(FAR)的速度(FAR)实现基于匹配过滤的生产分析的敏感距离的95%。相反,对于真实的噪音,领先的机器学习搜索获得了70%。为了更高的范围,敏感距离缩小的差异缩小到某些数据集上选择机器学习提交的范围$ \ geq 200 $以优于传统搜索算法的程度。我们的结果表明,当前的机器学习搜索算法可能已经在有限的参数区域中对某些生产设置有用。为了改善最新的技术,机器学习算法需要降低他们能够检测信号并将其有效性扩展到参数空间区域的虚假警报率,在这些区域中,建模的搜索在计算上很昂贵。根据我们的发现,我们汇编了我们认为,将机器学习搜索提升到重力波信号检测中的宝贵工具,我们认为这是最重要的研究领域。
translated by 谷歌翻译
先进的Ligo和先进的处女座地面干涉仪有望探测前所未有的大量空间,从而增强了观测值的发现能力,甚至是重力波发射器的新来源。在这种情况下,高度优化的重力波检测算法的发展至关重要。我们提出了一个新型的分层框架,用于实时检测受语音处理技术启发的引力波,以及在本实施中,基于一种最新的机器学习方法,涉及遗传编程和神经网络的杂交。新提出的框架的关键方面是:结构良好的分层方法和低计算复杂性。本文描述了框架的基本概念和前三层的推导。即使在当前的实现中,这些层是基于使用机器学习方法得出的模型,拟议的分层结构具有普遍的性质。为了训练和测试模型,我们在合成高斯噪声中使用了模拟的二进制黑洞重力波形,代表了高级Ligo灵敏度设计。与更复杂的方法(例如卷积神经网络)相比,我们的框架,即使使用论文中描述的简单地面模型,具有相似的性能,但计算复杂性较低,模块化程度较高。此外,对短期特征的潜在剥削使新框架的结果几乎独立于引力波信号的时间位置,从而在第二代干涉仪中简化了其在实时多层管道中对重力波检测的实时多层管道的未来剥削。
translated by 谷歌翻译
随着我们感知增强的能力,我们正在经历从数据贫困问题的过渡,其中中心问题是缺乏相关数据,即数据越来越多的问题,其中核心问题是确定一个中的一些相关功能海洋观察。通过在重力波天体物理学中应用的激励,我们研究了从检测器及其环境中丰富的测量值收集的引力波检测器中瞬时噪声伪影的存在。我们认为,功能学习 - 从数据中优化了哪些相关功能 - 对于实现高精度至关重要。我们引入的模型将错误率降低60%以上,而不是先前使用固定的手工制作功能的最新现状。功能学习不仅有用,因为它可以提高预测任务的性能;结果提供了有关与感兴趣现象相关的模式的宝贵信息,否则这些现象将是无法发现的。在我们的应用程序中,发现与瞬态噪声相关的功能提供了有关其起源的诊断信息,并建议缓解策略。在高维环境中学习具有挑战性。通过使用各种体系结构的实验,我们确定了成功模型中的两个关键因素:稀疏性,用于在高维观测中选择相关变量;和深度,这赋予了处理复杂相互作用和相对于时间变化的鲁棒性的灵活性。我们通过对实际检测器数据进行系统的实验来说明它们的意义。我们的结果提供了对机器学习社区中常见假设的实验性佐证,并具有直接适用于提高我们感知引力波的能力以及许多其他具有类似高维,嘈杂或部分无关数据的问题的问题。
translated by 谷歌翻译
我们介绍了基于深频自动化器的异常检测技术在激光干涉仪中检测重力波信号的问题。在噪声数据上接受训练,这类算法可以使用无监督的策略来检测信号,即,不瞄准特定类型的来源。我们开发了自定义架构,以分析来自两个干涉仪的数据。我们将所获得的性能与其他AutoEncoder架构和卷积分类器进行比较。与更传统的监督技术相比,拟议战略的无监督性质在准确性方面具有成本。另一方面,在预先计算信号模板的集合之外,存在定性增益。经常性AutoEncoder超越基于不同架构的其他AutoEncoder。本文呈现的复发性自动额片的类可以补充用于引力波检测的搜索策略,并延长正在进行的检测活动的范围。
translated by 谷歌翻译
迄今为止,引力波发现的所有科学主张都依赖于候选观测值的离线统计分析,以量化相对于背景过程的重要性。 Ligo实验中这种离线检测管道中的当前基础是匹配的滤波器算法,该算法产生了基于信噪比的基于信噪比的统计量,用于对候选观测进行排名。现有的基于深度学习的尝试检测引力波,这些尝试在信号灵敏度和计算效率(计算效率)中都表现出了输出概率分数。但是,概率分数不容易集成到发现工作流程中,从而将深度学习的使用限制为迄今为止的非发现的应用程序。在本文中,引入了深度学习信噪比(DEEPSNR)检测管道,该检测管道使用了一种新方法来从深度学习分类器中生成信噪比排名统计量,从而为使用提供了第一个使用的基础在面向发现的管道中的深度学习算法。通过从第一次观察运行中识别二进制黑洞合并候选者与噪声源相对于噪声源来证明DeepSNR的性能。使用Ligo检测器响应的高保真模拟用于在物理观察物方面介绍深度学习模型的第一个灵敏度估计。还研究了在各种实验方面的DeepSNR的鲁棒性。结果为DeepSNR用于在更广泛的背景下的引力波和罕见信号的科学发现铺平了道路,从而有可能检测到昏迷的信号和从未被观察到的现象。
translated by 谷歌翻译
基于空间的重力波(GW)检测器将能够观察到来自当前基于地面检测的来源几乎不可能的信号。因此,建立的信号检测方法(匹配的过滤)将需要一个复杂的模板库,从而导致计算成本在实践中过于昂贵。在这里,我们为所有空间GW来源开发了高准确的GW信号检测和提取方法。作为概念的证明,我们表明,科学驱动和统一的多阶段深神经网络可以识别出浸入高斯噪声中的合成信号。与目标信号相比,我们的方法具有超过99%的信号检测准确性,同时获得至少95%的相似性。我们进一步证明了几种扩展场景的解释性和强烈的概括行为。
translated by 谷歌翻译
我们证明了Yolov5模型(一种基于通用卷积的单杆对象检测模型)的应用,在从当前生成干涉仪检测器的重力数据中检测到二进制中子星(BNS)聚合事件的任务。我们还基于用于模型训练,验证和测试步骤的大概波形模型对合成数据生成和准备任务的详尽说明。使用这种方法,我们实现平均平均精度($ \ text {map} _ {[0.50]} $)的单个类验证数据集的值为0.945,测试数据集的平均值为0.945,高达0.978。此外,训练有素的模型成功地识别了LIGO H1检测器数据中的GW170817事件。 LIGO L1检测器数据也可以通过附加的预处理步骤进行识别,而无需在Inspiral的最后阶段消除大故障。 GW190425事件的检测不太成功,这证明了信噪比的性能退化。我们的研究表明,Yolov5模型是第一阶段检测警报管道的有趣方法,并且在整合到更复杂的管道中时,用于实时推断物理源参数。
translated by 谷歌翻译
超参数优化构成了典型的现代机器学习工作流程的很大一部分。这是由于这样一个事实,即机器学习方法和相应的预处理步骤通常只有在正确调整超参数时就会产生最佳性能。但是在许多应用中,我们不仅有兴趣仅仅为了预测精度而优化ML管道;确定最佳配置时,必须考虑其他指标或约束,从而导致多目标优化问题。由于缺乏知识和用于多目标超参数优化的知识和容易获得的软件实现,因此通常在实践中被忽略。在这项工作中,我们向读者介绍了多个客观超参数优化的基础知识,并激励其在应用ML中的实用性。此外,我们从进化算法和贝叶斯优化的领域提供了现有优化策略的广泛调查。我们说明了MOO在几个特定ML应用中的实用性,考虑了诸如操作条件,预测时间,稀疏,公平,可解释性和鲁棒性之类的目标。
translated by 谷歌翻译
在2015年和2019年之间,地平线的成员2020年资助的创新培训网络名为“Amva4newphysics”,研究了高能量物理问题的先进多变量分析方法和统计学习工具的定制和应用,并开发了完全新的。其中许多方法已成功地用于提高Cern大型Hadron撞机的地图集和CMS实验所执行的数据分析的敏感性;其他几个人,仍然在测试阶段,承诺进一步提高基本物理参数测量的精确度以及新现象的搜索范围。在本文中,在研究和开发的那些中,最相关的新工具以及对其性能的评估。
translated by 谷歌翻译
我们考虑以持续的错误警报率(CFAR)学习检测器的问题。基于经典模型的复合假设检验解决方案对不完美的模型敏感,并且通常在计算上昂贵。相比之下,数据驱动的机器学习通常更强大,并产生具有固定计算复杂性的分类器。在许多应用中,学到的探测器通常没有CFAR。为了缩小这一差距,我们引入了CFARNET,其中损失函数受到惩罚,以在任何零假设的情况下促进检测器的类似分布。在具有一般高斯噪声的线性模型的情况下,渐近分析表明,经典的广义似然比检验(GLRT)实际上是CFAR约束贝叶斯风险的最小化器。合成数据和实际超光谱图像的实验表明,CFARNET导致近CFAR检测器的精度与竞争对手相似。
translated by 谷歌翻译
Deep neural networks provide unprecedented performance gains in many real world problems in signal and image processing. Despite these gains, future development and practical deployment of deep networks is hindered by their blackbox nature, i.e., lack of interpretability, and by the need for very large training sets. An emerging technique called algorithm unrolling or unfolding offers promise in eliminating these issues by providing a concrete and systematic connection between iterative algorithms that are used widely in signal processing and deep neural networks. Unrolling methods were first proposed to develop fast neural network approximations for sparse coding. More recently, this direction has attracted enormous attention and is rapidly growing both in theoretic investigations and practical applications. The growing popularity of unrolled deep networks is due in part to their potential in developing efficient, high-performance and yet interpretable network architectures from reasonable size training sets. In this article, we review algorithm unrolling for signal and image processing. We extensively cover popular techniques for algorithm unrolling in various domains of signal and image processing including imaging, vision and recognition, and speech processing. By reviewing previous works, we reveal the connections between iterative algorithms and neural networks and present recent theoretical results. Finally, we provide a discussion on current limitations of unrolling and suggest possible future research directions.
translated by 谷歌翻译
鉴于无线频谱的有限性和对无线通信最近的技术突破产生的频谱使用不断增加的需求,干扰问题仍在继续持续存在。尽管最近解决干涉问题的进步,但干扰仍然呈现出有效使用频谱的挑战。这部分是由于Wi-Fi的无许可和管理共享乐队使用的升高,长期演进(LTE)未许可(LTE-U),LTE许可辅助访问(LAA),5G NR等机会主义频谱访问解决方案。因此,需要对干扰稳健的有效频谱使用方案的需求从未如此重要。在过去,通过使用避免技术以及非AI缓解方法(例如,自适应滤波器)来解决问题的大多数解决方案。非AI技术的关键缺陷是需要提取或开发信号特征的域专业知识,例如CycrationArity,带宽和干扰信号的调制。最近,研究人员已成功探索了AI / ML的物理(PHY)层技术,尤其是深度学习,可减少或补偿干扰信号,而不是简单地避免它。 ML基于ML的方法的潜在思想是学习来自数据的干扰或干扰特性,从而使需要对抑制干扰的域专业知识进行侧联。在本文中,我们审查了广泛的技术,这些技术已经深入了解抑制干扰。我们为干扰抑制中许多不同类型的深度学习技术提供比较和指导。此外,我们突出了在干扰抑制中成功采用深度学习的挑战和潜在的未来研究方向。
translated by 谷歌翻译
人类生理学中的各种结构遵循特异性形态,通常在非常细的尺度上表达复杂性。这种结构的例子是胸前气道,视网膜血管和肝血管。可以观察到可以观察到可以观察到可以观察到可以观察到空间排列的磁共振成像(MRI),计算机断层扫描(CT),光学相干断层扫描(OCT)等医学成像模式(MRI),计算机断层扫描(CT),可以观察到空间排列的大量2D和3D图像的集合。这些结构在医学成像中的分割非常重要,因为对结构的分析提供了对疾病诊断,治疗计划和预后的见解。放射科医生手动标记广泛的数据通常是耗时且容易出错的。结果,在过去的二十年中,自动化或半自动化的计算模型已成为医学成像的流行研究领域,迄今为止,许多计算模型已经开发出来。在这项调查中,我们旨在对当前公开可用的数据集,细分算法和评估指标进行全面审查。此外,讨论了当前的挑战和未来的研究方向。
translated by 谷歌翻译
The International Workshop on Reading Music Systems (WoRMS) is a workshop that tries to connect researchers who develop systems for reading music, such as in the field of Optical Music Recognition, with other researchers and practitioners that could benefit from such systems, like librarians or musicologists. The relevant topics of interest for the workshop include, but are not limited to: Music reading systems; Optical music recognition; Datasets and performance evaluation; Image processing on music scores; Writer identification; Authoring, editing, storing and presentation systems for music scores; Multi-modal systems; Novel input-methods for music to produce written music; Web-based Music Information Retrieval services; Applications and projects; Use-cases related to written music. These are the proceedings of the 3rd International Workshop on Reading Music Systems, held in Alicante on the 23rd of July 2021.
translated by 谷歌翻译
大多数机器学习算法由一个或多个超参数配置,必须仔细选择并且通常会影响性能。为避免耗时和不可递销的手动试验和错误过程来查找性能良好的超参数配置,可以采用各种自动超参数优化(HPO)方法,例如,基于监督机器学习的重新采样误差估计。本文介绍了HPO后,本文审查了重要的HPO方法,如网格或随机搜索,进化算法,贝叶斯优化,超带和赛车。它给出了关于进行HPO的重要选择的实用建议,包括HPO算法本身,性能评估,如何将HPO与ML管道,运行时改进和并行化结合起来。这项工作伴随着附录,其中包含关于R和Python的特定软件包的信息,以及用于特定学习算法的信息和推荐的超参数搜索空间。我们还提供笔记本电脑,这些笔记本展示了这项工作的概念作为补充文件。
translated by 谷歌翻译
开发有效的自动分类器将真实来源与工件分开,对于宽场光学调查的瞬时随访至关重要。在图像差异过程之后,从减法伪像的瞬态检测鉴定是此类分类器的关键步骤,称为真实 - 博格斯分类问题。我们将自我监督的机器学习模型,深入的自组织地图(DESOM)应用于这个“真实的模拟”分类问题。 DESOM结合了自动编码器和一个自组织图以执行聚类,以根据其维度降低的表示形式来区分真实和虚假的检测。我们使用32x32归一化检测缩略图作为底部的输入。我们展示了不同的模型训练方法,并发现我们的最佳DESOM分类器显示出6.6%的检测率,假阳性率为1.5%。 Desom提供了一种更细微的方法来微调决策边界,以确定与其他类型的分类器(例如在神经网络或决策树上构建的)结合使用时可能进行的实际检测。我们还讨论了DESOM及其局限性的其他潜在用法。
translated by 谷歌翻译
The occurrence of vacuum arcs or radio frequency (rf) breakdowns is one of the most prevalent factors limiting the high-gradient performance of normal conducting rf cavities in particle accelerators. In this paper, we search for the existence of previously unrecognized features related to the incidence of rf breakdowns by applying a machine learning strategy to high-gradient cavity data from CERN's test stand for the Compact Linear Collider (CLIC). By interpreting the parameters of the learned models with explainable artificial intelligence (AI), we reverse-engineer physical properties for deriving fast, reliable, and simple rule-based models. Based on 6 months of historical data and dedicated experiments, our models show fractions of data with a high influence on the occurrence of breakdowns. Specifically, it is shown that the field emitted current following an initial breakdown is closely related to the probability of another breakdown occurring shortly thereafter. Results also indicate that the cavity pressure should be monitored with increased temporal resolution in future experiments, to further explore the vacuum activity associated with breakdowns.
translated by 谷歌翻译
我们介绍了深度学习模型,以估计黑洞兼并的二元组件的群众,$(m_1,m_2)$,以及合并后巧妙剩余滞留的三个天体性质,即最终旋转,$ a_f $,以及ringdown振荡的频率和阻尼时间为基础$ \ ell = m = 2 $酒吧模式,$(\ OMEGA_R,\ OMEGA_I)$。我们的神经网络将修改的$ \ texttt {wavenet} $架构与对比学习和标准化流相结合。我们将这些模型验证在先前分布通过闭合的分析表达描述后的高斯缀合物的先前家庭。确认我们的模型产生统计上一致的结果,我们使用它们来估计五个二进制黑洞的天体物理参数$(m_1,m_2,a_f,\ oomega_r,\ omega_i):$ \ texttt {gw150914},\ texttt {gw170104 },\ texttt {gw170814},\ texttt {gw190521} $和$ \ texttt {gw190630} $。我们使用$ \ texttt {pycbc推理} $直接比较传统的贝叶斯方法进行参数估计与我们的深度学习的后部分布。我们的研究结果表明,我们的神经网络模型预测编码物理相关性的后分布,以及我们的数据驱动的中值结果和90美元\%$置信区间与引力波贝叶斯分析产生的数据相似。此方法需要单个V100 $ \ TextTT {NVIDIA} $ GPU,以在每次事件中生成2毫秒内的中位值和后部分布。这个神经网络和使用的教程,可在$ \ texttt {scounty} $ \ texttt {scounty hub} $。
translated by 谷歌翻译
Multilayer Neural Networks trained with the backpropagation algorithm constitute the best example of a successful Gradient-Based Learning technique. Given an appropriate network architecture, Gradient-Based Learning algorithms can be used to synthesize a complex decision surface that can classify high-dimensional patterns such as handwritten characters, with minimal preprocessing. This paper reviews various methods applied to handwritten character recognition and compares them on a standard handwritten digit recognition task. Convolutional Neural Networks, that are specifically designed to deal with the variability of 2D shapes, are shown to outperform all other techniques.Real-life document recognition systems are composed of multiple modules including eld extraction, segmentation, recognition, and language modeling. A new learning paradigm, called Graph Transformer Networks (GTN), allows such multi-module systems to be trained globally using Gradient-Based methods so as to minimize an overall performance measure.Two systems for on-line handwriting recognition are described. Experiments demonstrate the advantage of global training, and the exibility of Graph Transformer Networks.A Graph Transformer Network for reading bank check is also described. It uses Convolutional Neural Network character recognizers combined with global training techniques to provides record accuracy on business and personal checks. It is deployed commercially and reads several million checks per day.
translated by 谷歌翻译