到目前为止,我们的太阳系超出了未经证实的月亮(令人瞩目的魅力)。exoMoons为我们提供了新的可能居住的地方,这些地方也可能在古典居住区之外。但到目前为止,寻找exoMoons需要多种计算能力,因为采用经典统计方法。结果表明,通过使用深度学习和卷积神经网络(CNNS),可以使用与合成光曲线的卷曲曲线训练来找到膨胀型签名,与没有运输的真实光曲线合并。发现通过组合合成和观察的光曲线训练的CNN可以用于在开普勒数据集或比较数据集中找到更大或等于大约2-3个地球半径的卫星。在未来的任务中使用神经网络,如行星横向和恒星(柏拉图)可能能够检测exoMoons。
translated by 谷歌翻译
传输定时变化(TTV)可以提供用于通过运输观察的系统的有用信息,因为它们允许我们对观察到的行星的质量和偏心的限制,甚至限制存在非过转化伴侣的存在。然而,TTV也可以用作检测偏压,可以防止在运输调查中检测小行星,否则将被标准算法(如盒装最小二乘算法(BLS)检测到)如果它们的轨道没有扰乱。这种偏差特别存在于具有长基线的调查,例如开普勒,其中一些苔丝扇区以及即将到来的柏拉图任务。在这里,我们介绍了一种对大型TTV的稳健的检测方法,并通过恢复和确认围绕开普勒-1705的十个TTV的一对谐振超级地球来说明其使用。该方法基于培训的神经网络,以恢复河图中的低信噪比比(S / N)扰动行星的轨道。我们通过拟合光线曲线来恢复这些候选人的传输参数。电孔-1705b和c的各个运输S / n大约比具有3小时或更长时间的所有先前已知的行星低的三倍,推动这些小型动态活动行星的恢复中的边界。恢复这种类型的物体对于获得观察到的行星系统的完整图谱是必不可少的,并且解决在外产群体的统计研究中不经常考虑的偏差。此外,TTV是获得质量估计的方法,这对于研究通过过境调查发现的行星的内部结构是必不可少的。最后,我们表明,由于强大的轨道扰动,开普勒-1705的外谐振行星的旋转可能被捕获在子或超级同步的旋转轨道共振中。
translated by 谷歌翻译
目前,由精确的径向速度(RV)观察结果受到恒星活性引入的虚假RV信号的限制。我们表明,诸如线性回归和神经网络之类的机器学习技术可以有效地从RV观测中删除活动信号(由于星形/张图引起的)。先前的工作着重于使用高斯工艺回归等建模技术仔细地过滤活性信号(例如Haywood等人,2014年)。取而代之的是,我们仅使用对光谱线平均形状的更改进行系统地删除活动信号,也没有有关收集观测值的信息。我们对模拟数据(使用SOAP 2.0软件生成; Dumusque等人,2014年生成)和从Harps-N太阳能望远镜(Dumusque等,2015; Phillips等人2015; 2016; Collier训练)培训了机器学习模型。 Cameron等人2019)。我们发现,这些技术可以从模拟数据(将RV散射从82 cm/s提高到3 cm/s)以及从HARPS-N太阳能望远镜中几乎每天进行的600多种真实观察结果来预测和消除恒星活动(将RV散射从82 cm/s提高到3 cm/s)。 (将RV散射从1.753 m/s提高到1.039 m/s,提高了约1.7倍)。将来,这些或类似的技术可能会从太阳系以外的恒星观察中去除活动信号,并最终有助于检测到阳光状恒星周围可居住的区域质量系外行星。
translated by 谷歌翻译
我们开发了卷积神经网络(CNNS),快速,直接从无线电尘埃连续图像中推断出行星质量。在原始板块中的年轻行星引起的子结构可用于推断潜在的年轻行星属性。流体动力模拟已被用于研究地球属性与这些磁盘特征之间的关系。然而,这些尝试了微调的数值模拟,以一次适合一个原始磁盘,这是耗时的,或者四方平均模拟结果,以导出间隙宽度/深度和行星质量之间的一些线性关系,这丢失了信息磁盘中的不对称功能。为了应对这些缺点,我们开发了行星间隙神经网络(PGNET),以推断出2D图像的行星质量。我们首先符合张等人的网格数据。 (2018)作为分类问题。然后,通过使用近随机采样参数运行额外的模拟来分布数据集,并将行星质量和磁盘粘度一起作为回归问题衍生在一起。分类方法可以达到92 \%的准确性,而回归方法可以达到1 $ \ Sigma $ AS 0.16 DEX,用于行星质量和0.23°D磁盘粘度。我们可以在线性拟合方法中重现退化缩放$ \ alpha $ $ \ propto $ $ m_p ^ 3 $。这意味着CNN方法甚至可以用于寻找退化关系。梯度加权类激活映射有效地确认PGNETS使用适当的磁盘特征来限制行星质量。我们为张等人提供了PGNETS和传统配件方法的计划。 (2018),并讨论各种方法的优缺点。
translated by 谷歌翻译
尽管地面望远镜已经发现了许多近地的物体,但观测值却错过了一些快速移动的物体,尤其是那些近地检测限制的物体。我们开发了一个卷积神经网络,用于检测微弱的快速移动近地物体。它是通过模拟产生的人造条纹训练的,并且能够在模拟数据上找到这些小行星条纹的精度为98.7%,虚假正率为0.02%。该程序用于在2019年的四个晚上搜索来自Zwicky瞬态设施(ZTF)的图像数据,并确定了六个先前未被发现的小行星。我们的检测的视觉幅度范围为〜19.0-20.3,运动速率范围为〜6.8-24 dEG/天,与其他ZTF检测相比,这非常微弱。我们的小行星的大小也〜1-51 m,在近距离接近时〜5-60个月距距离〜5-60个月距离距离,假设其反照率值遵循已知的小行星的反照率分布函数。使用纯模拟的数据集来训练我们的模型,使该程序能够在检测微弱和快速移动的对象方面获得灵敏度,同时仍然能够恢复几乎所有使用真实检测来训练神经网络的神经网络几乎所有发现。我们的方法可以被任何观测员用于检测快速移动的小行星条纹。
translated by 谷歌翻译
我们提出了一种基于机器学习的新型方法,用于从干涉数据中检测出星系尺度的重力透镜,特别是使用国际Lofar望远镜(ILT)采用的方法,该镜头是在150 MHz的频率上观察到北部无线电天空,该频率是350的角度分辨率。 MAS和90 Ujy Beam-1(1 Sigma)的灵敏度。我们开发并测试了几个卷积神经网络,以确定给定样品被归类为镜头或非镜头事件的概率和不确定性。通过对包括逼真的镜头和非镜头无线电源的模拟干涉成像数据集进行训练和测试,我们发现可以恢复95.3%的镜头样品(真正的正速率),仅污染仅为0.008来自非静态样品(假阳性速率)的含量。考虑到预期的镜头概率,结果导致了92.2%的镜头事件的样品纯度。我们发现,当镜头图像之间的最大图像分离大于合成光束尺寸的3倍时,网络结构是最健壮的,并且镜头图像具有至少与20个Sigma(点源)的总磁通密度相等)检测。对于ILT,这对应于爱因斯坦半径大于0.5 ARCSEC和一个无线电源群体的镜头样品,其150 MHz通量密度超过2 MJY。通过应用这些标准和我们的镜头检测算法,我们希望发现Lofar两米天空调查中包含的绝大多数星系尺度重力透镜系统。
translated by 谷歌翻译
射频干扰(RFI)缓解仍然是寻找无线电技术的主要挑战。典型的缓解策略包括原点方向(DOO)滤波器,如果在天空上的多个方向上检测到信号,则将信号分类为RFI。这些分类通常依赖于信号属性的估计,例如频率和频率漂移速率。卷积神经网络(CNNS)提供了对现有过滤器的有希望的补充,因为它们可以接受培训以直接分析动态光谱,而不是依赖于推断的信号属性。在这项工作中,我们编译了由标记的动态谱的图像组组成的几个数据集,并且我们设计和训练了可以确定在另一扫描中检测到的信号是否在另一扫描中检测到的CNN。基于CNN的DOO滤波器优于基线2D相关模型以及现有的DOO过滤器在一系列指标范围内,分别具有99.15%和97.81%的精度和召回值。我们发现CNN在标称情况下将传统的DOO过滤器施加6-16倍,减少了需要目视检查的信号数。
translated by 谷歌翻译
系外行星的检测为发现新的可居住世界的发现打开了大门,并帮助我们了解行星的形成方式。 NASA的目的是寻找类似地球的宜居行星,推出了开普勒太空望远镜及其后续任务K2。观察能力的进步增加了可用于研究的新鲜数据的范围,并且手动处理它们既耗时又困难。机器学习和深度学习技术可以极大地帮助降低人类以经济和公正的方式处理这些系外行星计划的现代工具所产生的大量数据的努力。但是,应注意精确地检测所有系外行星,同时最大程度地减少对非外界星星的错误分类。在本文中,我们利用了两种生成对抗网络的变体,即半监督的生成对抗网络和辅助分类器生成对抗网络,在K2数据中检测传播系外行星。我们发现,这些模型的用法可能有助于用系外行星的恒星分类。我们的两种技术都能够在测试数据上以召回和精度为1.00的光曲线分类。我们的半监督技术有益于解决创建标签数据集的繁琐任务。
translated by 谷歌翻译
The occurrence of vacuum arcs or radio frequency (rf) breakdowns is one of the most prevalent factors limiting the high-gradient performance of normal conducting rf cavities in particle accelerators. In this paper, we search for the existence of previously unrecognized features related to the incidence of rf breakdowns by applying a machine learning strategy to high-gradient cavity data from CERN's test stand for the Compact Linear Collider (CLIC). By interpreting the parameters of the learned models with explainable artificial intelligence (AI), we reverse-engineer physical properties for deriving fast, reliable, and simple rule-based models. Based on 6 months of historical data and dedicated experiments, our models show fractions of data with a high influence on the occurrence of breakdowns. Specifically, it is shown that the field emitted current following an initial breakdown is closely related to the probability of another breakdown occurring shortly thereafter. Results also indicate that the cavity pressure should be monitored with increased temporal resolution in future experiments, to further explore the vacuum activity associated with breakdowns.
translated by 谷歌翻译
由于耗时的光曲线计算和高维参数空间中的病理可能性景观,通过基于标准的采样方法对二进制微透镜曲线进行建模可能具有挑战性。在这项工作中,我们提出了魔术,这是一个机器学习框架,可有效,准确地推断出具有现实数据质量的二进制事件的微透镜参数。在魔术中,将二进制微透镜参数分为两组,并通过不同的神经网络分别推断。魔术的关键特征是引入神经控制的微分方程,该方程提供了通过不规则采样和较大数据差距处理光曲线的能力。基于模拟的光曲线,我们表明魔术可以在二进制质量比和分离上达到几%的分数不确定性。我们还在真实的微透镜事件中测试魔术。即使引入了较大的数据差距,魔术也能够找到退化的解决方案。由于不规则的采样在天文学调查中很常见,因此我们的方法还对涉及时间序列的其他研究具有影响。
translated by 谷歌翻译
We present a machine-learning framework to accurately characterize morphologies of Active Galactic Nucleus (AGN) host galaxies within $z<1$. We first use PSFGAN to decouple host galaxy light from the central point source, then we invoke the Galaxy Morphology Network (GaMorNet) to estimate whether the host galaxy is disk-dominated, bulge-dominated, or indeterminate. Using optical images from five bands of the HSC Wide Survey, we build models independently in three redshift bins: low $(0<z<0.25)$, medium $(0.25<z<0.5)$, and high $(0.5<z<1.0)$. By first training on a large number of simulated galaxies, then fine-tuning using far fewer classified real galaxies, our framework predicts the actual morphology for $\sim$ $60\%-70\%$ host galaxies from test sets, with a classification precision of $\sim$ $80\%-95\%$, depending on redshift bin. Specifically, our models achieve disk precision of $96\%/82\%/79\%$ and bulge precision of $90\%/90\%/80\%$ (for the 3 redshift bins), at thresholds corresponding to indeterminate fractions of $30\%/43\%/42\%$. The classification precision of our models has a noticeable dependency on host galaxy radius and magnitude. No strong dependency is observed on contrast ratio. Comparing classifications of real AGNs, our models agree well with traditional 2D fitting with GALFIT. The PSFGAN+GaMorNet framework does not depend on the choice of fitting functions or galaxy-related input parameters, runs orders of magnitude faster than GALFIT, and is easily generalizable via transfer learning, making it an ideal tool for studying AGN host galaxy morphology in forthcoming large imaging survey.
translated by 谷歌翻译
在2015年和2019年之间,地平线的成员2020年资助的创新培训网络名为“Amva4newphysics”,研究了高能量物理问题的先进多变量分析方法和统计学习工具的定制和应用,并开发了完全新的。其中许多方法已成功地用于提高Cern大型Hadron撞机的地图集和CMS实验所执行的数据分析的敏感性;其他几个人,仍然在测试阶段,承诺进一步提高基本物理参数测量的精确度以及新现象的搜索范围。在本文中,在研究和开发的那些中,最相关的新工具以及对其性能的评估。
translated by 谷歌翻译
我们介绍了第一个机器学习引力波搜索模拟数据挑战(MLGWSC-1)的结果。在这一挑战中,参与的小组必须从二进制黑洞合并中识别出复杂性和持续时间逐渐嵌入在逐渐更现实的噪声中的引力波信号。 4个提供的数据集中的决赛包含O3A观察的真实噪声,并发出了20秒的持续时间,其中包含进动效应和高阶模式。我们介绍了在提交前从参与者未知的1个月的测试数据中得出的6个输入算法的平均灵敏度距离和运行时。其中4个是机器学习算法。我们发现,最好的基于机器学习的算法能够以每月1个的错误警报率(FAR)的速度(FAR)实现基于匹配过滤的生产分析的敏感距离的95%。相反,对于真实的噪音,领先的机器学习搜索获得了70%。为了更高的范围,敏感距离缩小的差异缩小到某些数据集上选择机器学习提交的范围$ \ geq 200 $以优于传统搜索算法的程度。我们的结果表明,当前的机器学习搜索算法可能已经在有限的参数区域中对某些生产设置有用。为了改善最新的技术,机器学习算法需要降低他们能够检测信号并将其有效性扩展到参数空间区域的虚假警报率,在这些区域中,建模的搜索在计算上很昂贵。根据我们的发现,我们汇编了我们认为,将机器学习搜索提升到重力波信号检测中的宝贵工具,我们认为这是最重要的研究领域。
translated by 谷歌翻译
纯粹后的损害评估对于管理资源分配和执行有效响应至关重要。传统上,这种评估是通过野外侦察进行的,该侦察速度缓慢,危险且艰巨。取而代之的是,在本文中,我们进一步提出了通过卷积神经网络实施深度学习的想法,以便将建筑物的后卫星卫星图像分类为被洪水/损坏或未损坏的。该实验是在2017年哈维飓风之后使用的,该数据集采用了一个包含大休斯顿地区的纯种后卫星图像的数据集进行。本文实施了三个卷积神经网络模型体系结构,并配对了其他模型考虑,以实现高精度(超过99%),(超过99%),,超过99%),(超过99%)加强在殖民后灾难评估中有效使用机器学习。
translated by 谷歌翻译
这是一门专门针对STEM学生开发的介绍性机器学习课程。我们的目标是为有兴趣的读者提供基础知识,以在自己的项目中使用机器学习,并将自己熟悉术语作为进一步阅读相关文献的基础。在这些讲义中,我们讨论受监督,无监督和强化学习。注释从没有神经网络的机器学习方法的说明开始,例如原理分析,T-SNE,聚类以及线性回归和线性分类器。我们继续介绍基本和先进的神经网络结构,例如密集的进料和常规神经网络,经常性的神经网络,受限的玻尔兹曼机器,(变性)自动编码器,生成的对抗性网络。讨论了潜在空间表示的解释性问题,并使用梦和对抗性攻击的例子。最后一部分致力于加强学习,我们在其中介绍了价值功能和政策学习的基本概念。
translated by 谷歌翻译
随着天文学中检测到的瞬变数量的迅速增加,基于机器学习的分类方法正在越来越多地使用。他们的目标通常是要获得瞬态的确定分类,并且出于良好的性能,他们通常需要存在大量观察。但是,精心设计,有针对性的模型可以通过更少的计算资源来达到其分类目标。本文介绍了Snguess,该模型旨在找到高纯度附近的年轻外乳旋转瞬变。 Snguess可以使用一组功能,这些功能可以从天文警报数据中有效计算。其中一些功能是静态的,并且与警报元数据相关联,而其他功能必须根据警报中包含的光度观测值计算。大多数功能都足够简单,可以在其检测后的瞬态生命周期的早期阶段获得或计算。我们为从Zwicky Transient设施(ZTF)的一组标记的公共警报数据计算了这些功能。 Snguess的核心模型由一组决策树组成,这些集合是通过梯度提升训练的。 SNGUESS建议的候选人中约有88%的ZTF从2020年4月至2021年8月的一组警报中被发现是真正的相关超新星(SNE)。对于具有明亮检测的警报,此数字在92%至98%之间。自2020年4月以来,Snguess确定为ZTF Alert流中潜在SNE的瞬变已发布到AMPEL_ZTF_NEW组标识符下的瞬态名称服务器(TNS)。可以通过Web服务访问ZTF观察到的任何暂时性的SNGUESS分数。 Snguess的源代码可公开使用。
translated by 谷歌翻译
通过图像差异发现新瞬态的能力而无需直接人类干预是观察天文学的重要任务。对于此类图像分类问题,机器学习技术(例如卷积神经网络(CNN))表现出了显着的成功。在这项工作中,我们介绍了来自Dark Energy Survey Supernova计划(DES-SN)的CNN上的图像上自动瞬态识别的结果,其主要重点是使用IA型超新星用于宇宙学。通过对CNN进行架构搜索,我们可以从工件(图像缺陷,错误分配等)中确定有效选择非艺术的网络(例如,超新星,可变星,AGN等),可实现先前工作的效率在随机的森林中,无需花费任何特征识别的努力。 CNN还可以帮助我们确定一个标记错误的图像的子集。在此子集中对图像进行重新标记,与CNN的结果分类明显优于以前的结果。
translated by 谷歌翻译
迄今为止,引力波发现的所有科学主张都依赖于候选观测值的离线统计分析,以量化相对于背景过程的重要性。 Ligo实验中这种离线检测管道中的当前基础是匹配的滤波器算法,该算法产生了基于信噪比的基于信噪比的统计量,用于对候选观测进行排名。现有的基于深度学习的尝试检测引力波,这些尝试在信号灵敏度和计算效率(计算效率)中都表现出了输出概率分数。但是,概率分数不容易集成到发现工作流程中,从而将深度学习的使用限制为迄今为止的非发现的应用程序。在本文中,引入了深度学习信噪比(DEEPSNR)检测管道,该检测管道使用了一种新方法来从深度学习分类器中生成信噪比排名统计量,从而为使用提供了第一个使用的基础在面向发现的管道中的深度学习算法。通过从第一次观察运行中识别二进制黑洞合并候选者与噪声源相对于噪声源来证明DeepSNR的性能。使用Ligo检测器响应的高保真模拟用于在物理观察物方面介绍深度学习模型的第一个灵敏度估计。还研究了在各种实验方面的DeepSNR的鲁棒性。结果为DeepSNR用于在更广泛的背景下的引力波和罕见信号的科学发现铺平了道路,从而有可能检测到昏迷的信号和从未被观察到的现象。
translated by 谷歌翻译
来自Exoplanet转运的原始光线数据太复杂,无法胆量应用传统的异常检测方法。我们提出了一种架构,其估计与一对变形自身额外的主要传输和剩余偏差的潜在表示。我们使用两个制造的数据集显示,我们的异常传输残差的潜在表示比原始数据或传统变分性AutoEncoder的潜在代表更具可均衡的差异。然后,我们将方法应用于真实的Exoplanet Transit数据。我们的研究是第一个自动识别异常外延传输光线曲线。我们还释放了三个首次的数据集以实现进一步的研究。
translated by 谷歌翻译
The upcoming large scale surveys like LSST are expected to find approximately $10^5$ strong gravitational lenses by analysing data of many orders of magnitude larger than those in contemporary astronomical surveys. In this case, non-automated techniques will be highly challenging and time-consuming, even if they are possible at all. We propose a new automated architecture based on the principle of self-attention to find strong gravitational lenses. The advantages of self-attention-based encoder models over convolution neural networks are investigated, and ways to optimise the outcome of encoder models are analysed. We constructed and trained 21 self-attention based encoder models and five convolution neural networks to identify gravitational lenses from the Bologna Lens Challenge. Each model was trained separately using 18,000 simulated images, cross-validated using 2,000 images, and then applied to a test set with 100,000 images. We used four different metrics for evaluation: classification accuracy, area under the receiver operating characteristic curve (AUROC), the TPR$_0$ score and the TPR$_{10}$ score. The performances of self-attention-based encoder models and CNNs participating in the challenge are compared. They were able to surpass the CNN models that participated in the Bologna Lens Challenge by a high margin for the TPR$_0$ and TPR_${10}$. Self-Attention based models have clear advantages compared to simpler CNNs. They have highly competing performance in comparison to the currently used residual neural networks. Compared to CNNs, self-attention based models can identify highly confident lensing candidates and will be able to filter out potential candidates from real data. Moreover, introducing the encoder layers can also tackle the over-fitting problem present in the CNNs by acting as effective filters.
translated by 谷歌翻译