尽管地面望远镜已经发现了许多近地的物体,但观测值却错过了一些快速移动的物体,尤其是那些近地检测限制的物体。我们开发了一个卷积神经网络,用于检测微弱的快速移动近地物体。它是通过模拟产生的人造条纹训练的,并且能够在模拟数据上找到这些小行星条纹的精度为98.7%,虚假正率为0.02%。该程序用于在2019年的四个晚上搜索来自Zwicky瞬态设施(ZTF)的图像数据,并确定了六个先前未被发现的小行星。我们的检测的视觉幅度范围为〜19.0-20.3,运动速率范围为〜6.8-24 dEG/天,与其他ZTF检测相比,这非常微弱。我们的小行星的大小也〜1-51 m,在近距离接近时〜5-60个月距距离〜5-60个月距离距离,假设其反照率值遵循已知的小行星的反照率分布函数。使用纯模拟的数据集来训练我们的模型,使该程序能够在检测微弱和快速移动的对象方面获得灵敏度,同时仍然能够恢复几乎所有使用真实检测来训练神经网络的神经网络几乎所有发现。我们的方法可以被任何观测员用于检测快速移动的小行星条纹。
translated by 谷歌翻译
我们采用自我监督的代表性学习来从深色能源仪器遗产成像调查的数据释放9中从7600万个星系图像中提取信息9.针对新的强力引力镜头候选者的识别,我们首先创建了快速的相似性搜索工具,以发现新的搜索工具强镜仅给出一个单个标记的示例。然后,我们展示如何在自我监督的表示上训练简单的线性分类器,仅需几分钟即可在CPU上进行几分钟,可以自动以极高的效率对强镜进行分类。我们提出了1192个新的强镜候选者,我们通过简短的视觉标识活动确定,并释放一种基于Web的相似性搜索工具和顶级网络预测,以促进众包快速发现额外的强力镜头和其他稀有物体:HTTPS:https://github.com/georgestein/ssl-legacysurvey。
translated by 谷歌翻译
我们提出了一种基于机器学习的新型方法,用于从干涉数据中检测出星系尺度的重力透镜,特别是使用国际Lofar望远镜(ILT)采用的方法,该镜头是在150 MHz的频率上观察到北部无线电天空,该频率是350的角度分辨率。 MAS和90 Ujy Beam-1(1 Sigma)的灵敏度。我们开发并测试了几个卷积神经网络,以确定给定样品被归类为镜头或非镜头事件的概率和不确定性。通过对包括逼真的镜头和非镜头无线电源的模拟干涉成像数据集进行训练和测试,我们发现可以恢复95.3%的镜头样品(真正的正速率),仅污染仅为0.008来自非静态样品(假阳性速率)的含量。考虑到预期的镜头概率,结果导致了92.2%的镜头事件的样品纯度。我们发现,当镜头图像之间的最大图像分离大于合成光束尺寸的3倍时,网络结构是最健壮的,并且镜头图像具有至少与20个Sigma(点源)的总磁通密度相等)检测。对于ILT,这对应于爱因斯坦半径大于0.5 ARCSEC和一个无线电源群体的镜头样品,其150 MHz通量密度超过2 MJY。通过应用这些标准和我们的镜头检测算法,我们希望发现Lofar两米天空调查中包含的绝大多数星系尺度重力透镜系统。
translated by 谷歌翻译
射频干扰(RFI)缓解仍然是寻找无线电技术的主要挑战。典型的缓解策略包括原点方向(DOO)滤波器,如果在天空上的多个方向上检测到信号,则将信号分类为RFI。这些分类通常依赖于信号属性的估计,例如频率和频率漂移速率。卷积神经网络(CNNS)提供了对现有过滤器的有希望的补充,因为它们可以接受培训以直接分析动态光谱,而不是依赖于推断的信号属性。在这项工作中,我们编译了由标记的动态谱的图像组组成的几个数据集,并且我们设计和训练了可以确定在另一扫描中检测到的信号是否在另一扫描中检测到的CNN。基于CNN的DOO滤波器优于基线2D相关模型以及现有的DOO过滤器在一系列指标范围内,分别具有99.15%和97.81%的精度和召回值。我们发现CNN在标称情况下将传统的DOO过滤器施加6-16倍,减少了需要目视检查的信号数。
translated by 谷歌翻译
我们介绍了第一个机器学习引力波搜索模拟数据挑战(MLGWSC-1)的结果。在这一挑战中,参与的小组必须从二进制黑洞合并中识别出复杂性和持续时间逐渐嵌入在逐渐更现实的噪声中的引力波信号。 4个提供的数据集中的决赛包含O3A观察的真实噪声,并发出了20秒的持续时间,其中包含进动效应和高阶模式。我们介绍了在提交前从参与者未知的1个月的测试数据中得出的6个输入算法的平均灵敏度距离和运行时。其中4个是机器学习算法。我们发现,最好的基于机器学习的算法能够以每月1个的错误警报率(FAR)的速度(FAR)实现基于匹配过滤的生产分析的敏感距离的95%。相反,对于真实的噪音,领先的机器学习搜索获得了70%。为了更高的范围,敏感距离缩小的差异缩小到某些数据集上选择机器学习提交的范围$ \ geq 200 $以优于传统搜索算法的程度。我们的结果表明,当前的机器学习搜索算法可能已经在有限的参数区域中对某些生产设置有用。为了改善最新的技术,机器学习算法需要降低他们能够检测信号并将其有效性扩展到参数空间区域的虚假警报率,在这些区域中,建模的搜索在计算上很昂贵。根据我们的发现,我们汇编了我们认为,将机器学习搜索提升到重力波信号检测中的宝贵工具,我们认为这是最重要的研究领域。
translated by 谷歌翻译
通过图像差异发现新瞬态的能力而无需直接人类干预是观察天文学的重要任务。对于此类图像分类问题,机器学习技术(例如卷积神经网络(CNN))表现出了显着的成功。在这项工作中,我们介绍了来自Dark Energy Survey Supernova计划(DES-SN)的CNN上的图像上自动瞬态识别的结果,其主要重点是使用IA型超新星用于宇宙学。通过对CNN进行架构搜索,我们可以从工件(图像缺陷,错误分配等)中确定有效选择非艺术的网络(例如,超新星,可变星,AGN等),可实现先前工作的效率在随机的森林中,无需花费任何特征识别的努力。 CNN还可以帮助我们确定一个标记错误的图像的子集。在此子集中对图像进行重新标记,与CNN的结果分类明显优于以前的结果。
translated by 谷歌翻译
拒绝宇宙射线(CRS)对于CCD捕获数据的科学解释至关重要,但是单曝光图像中检测CRS仍然具有挑战性。传统的CR探测器需要针对不同仪器进行实验参数调整,而最近的深度学习方法仅产生特定于仪器的模型,这些模型遭受了未包括训练数据中未包括的望远镜的性能损失。在这项工作中,我们介绍了宇宙conn,这是在LAS Cumbres天文台(LCO)部署24个望远镜的通用CR探测器。我们首先利用来自LCO的全球望远镜网络的数千张图像来构建一个大型,不同的基于地面的CR数据集,以丰富覆盖仪器和CR功能。然后,我们优化了一个神经网络,并提出了一种新型的CR检测中间加权损耗函数,以训练在LCO成像数据上达到99.91%的真实阳性检测率的通用模型,并在Gemini GMOS-N-n. /s,假阳性率为0.01%。我们还构建了一套工具,包括交互式CR面膜可视化和编辑界面,控制台命令和Python API,以使天文学家社区广泛访问自动,可靠的CR检测。我们的数据集,开源代码库和训练有素的模型可在https://github.com/cy-xu/cosmic-conn上找到。
translated by 谷歌翻译
随着天文学中检测到的瞬变数量的迅速增加,基于机器学习的分类方法正在越来越多地使用。他们的目标通常是要获得瞬态的确定分类,并且出于良好的性能,他们通常需要存在大量观察。但是,精心设计,有针对性的模型可以通过更少的计算资源来达到其分类目标。本文介绍了Snguess,该模型旨在找到高纯度附近的年轻外乳旋转瞬变。 Snguess可以使用一组功能,这些功能可以从天文警报数据中有效计算。其中一些功能是静态的,并且与警报元数据相关联,而其他功能必须根据警报中包含的光度观测值计算。大多数功能都足够简单,可以在其检测后的瞬态生命周期的早期阶段获得或计算。我们为从Zwicky Transient设施(ZTF)的一组标记的公共警报数据计算了这些功能。 Snguess的核心模型由一组决策树组成,这些集合是通过梯度提升训练的。 SNGUESS建议的候选人中约有88%的ZTF从2020年4月至2021年8月的一组警报中被发现是真正的相关超新星(SNE)。对于具有明亮检测的警报,此数字在92%至98%之间。自2020年4月以来,Snguess确定为ZTF Alert流中潜在SNE的瞬变已发布到AMPEL_ZTF_NEW组标识符下的瞬态名称服务器(TNS)。可以通过Web服务访问ZTF观察到的任何暂时性的SNGUESS分数。 Snguess的源代码可公开使用。
translated by 谷歌翻译
目前,由精确的径向速度(RV)观察结果受到恒星活性引入的虚假RV信号的限制。我们表明,诸如线性回归和神经网络之类的机器学习技术可以有效地从RV观测中删除活动信号(由于星形/张图引起的)。先前的工作着重于使用高斯工艺回归等建模技术仔细地过滤活性信号(例如Haywood等人,2014年)。取而代之的是,我们仅使用对光谱线平均形状的更改进行系统地删除活动信号,也没有有关收集观测值的信息。我们对模拟数据(使用SOAP 2.0软件生成; Dumusque等人,2014年生成)和从Harps-N太阳能望远镜(Dumusque等,2015; Phillips等人2015; 2016; Collier训练)培训了机器学习模型。 Cameron等人2019)。我们发现,这些技术可以从模拟数据(将RV散射从82 cm/s提高到3 cm/s)以及从HARPS-N太阳能望远镜中几乎每天进行的600多种真实观察结果来预测和消除恒星活动(将RV散射从82 cm/s提高到3 cm/s)。 (将RV散射从1.753 m/s提高到1.039 m/s,提高了约1.7倍)。将来,这些或类似的技术可能会从太阳系以外的恒星观察中去除活动信号,并最终有助于检测到阳光状恒星周围可居住的区域质量系外行星。
translated by 谷歌翻译
开发有效的自动分类器将真实来源与工件分开,对于宽场光学调查的瞬时随访至关重要。在图像差异过程之后,从减法伪像的瞬态检测鉴定是此类分类器的关键步骤,称为真实 - 博格斯分类问题。我们将自我监督的机器学习模型,深入的自组织地图(DESOM)应用于这个“真实的模拟”分类问题。 DESOM结合了自动编码器和一个自组织图以执行聚类,以根据其维度降低的表示形式来区分真实和虚假的检测。我们使用32x32归一化检测缩略图作为底部的输入。我们展示了不同的模型训练方法,并发现我们的最佳DESOM分类器显示出6.6%的检测率,假阳性率为1.5%。 Desom提供了一种更细微的方法来微调决策边界,以确定与其他类型的分类器(例如在神经网络或决策树上构建的)结合使用时可能进行的实际检测。我们还讨论了DESOM及其局限性的其他潜在用法。
translated by 谷歌翻译
集中的动物饲养业务(CAFOS)对空气,水和公共卫生构成严重风险,但已被证明挑战规范。美国政府问责办公室注意到基本挑战是缺乏关于咖啡馆的全面的位置信息。我们使用美国农业部的国家农产病程(Naip)1M / Pixel Acial Imagerery来检测美国大陆的家禽咖啡馆。我们培养卷积神经网络(CNN)模型来识别单个家禽谷仓,并将最佳表现模型应用于超过42 TB的图像,以创建家禽咖啡座的第一个国家开源数据集。我们验证了来自加利福尼亚州的10个手标县的家禽咖啡馆设施的模型预测,并证明这种方法具有填补环境监测中差距的显着潜力。
translated by 谷歌翻译
到目前为止,我们的太阳系超出了未经证实的月亮(令人瞩目的魅力)。exoMoons为我们提供了新的可能居住的地方,这些地方也可能在古典居住区之外。但到目前为止,寻找exoMoons需要多种计算能力,因为采用经典统计方法。结果表明,通过使用深度学习和卷积神经网络(CNNS),可以使用与合成光曲线的卷曲曲线训练来找到膨胀型签名,与没有运输的真实光曲线合并。发现通过组合合成和观察的光曲线训练的CNN可以用于在开普勒数据集或比较数据集中找到更大或等于大约2-3个地球半径的卫星。在未来的任务中使用神经网络,如行星横向和恒星(柏拉图)可能能够检测exoMoons。
translated by 谷歌翻译
We present a machine-learning framework to accurately characterize morphologies of Active Galactic Nucleus (AGN) host galaxies within $z<1$. We first use PSFGAN to decouple host galaxy light from the central point source, then we invoke the Galaxy Morphology Network (GaMorNet) to estimate whether the host galaxy is disk-dominated, bulge-dominated, or indeterminate. Using optical images from five bands of the HSC Wide Survey, we build models independently in three redshift bins: low $(0<z<0.25)$, medium $(0.25<z<0.5)$, and high $(0.5<z<1.0)$. By first training on a large number of simulated galaxies, then fine-tuning using far fewer classified real galaxies, our framework predicts the actual morphology for $\sim$ $60\%-70\%$ host galaxies from test sets, with a classification precision of $\sim$ $80\%-95\%$, depending on redshift bin. Specifically, our models achieve disk precision of $96\%/82\%/79\%$ and bulge precision of $90\%/90\%/80\%$ (for the 3 redshift bins), at thresholds corresponding to indeterminate fractions of $30\%/43\%/42\%$. The classification precision of our models has a noticeable dependency on host galaxy radius and magnitude. No strong dependency is observed on contrast ratio. Comparing classifications of real AGNs, our models agree well with traditional 2D fitting with GALFIT. The PSFGAN+GaMorNet framework does not depend on the choice of fitting functions or galaxy-related input parameters, runs orders of magnitude faster than GALFIT, and is easily generalizable via transfer learning, making it an ideal tool for studying AGN host galaxy morphology in forthcoming large imaging survey.
translated by 谷歌翻译
Asteroids are an indelible part of most astronomical surveys though only a few surveys are dedicated to their detection. Over the years, high cadence microlensing surveys have amassed several terabytes of data while scanning primarily the Galactic Bulge and Magellanic Clouds for microlensing events and thus provide a treasure trove of opportunities for scientific data mining. In particular, numerous asteroids have been observed by visual inspection of selected images. This paper presents novel deep learning-based solutions for the recovery and discovery of asteroids in the microlensing data gathered by the MOA project. Asteroid tracklets can be clearly seen by combining all the observations on a given night and these tracklets inform the structure of the dataset. Known asteroids were identified within these composite images and used for creating the labelled datasets required for supervised learning. Several custom CNN models were developed to identify images with asteroid tracklets. Model ensembling was then employed to reduce the variance in the predictions as well as to improve the generalisation error, achieving a recall of 97.67%. Furthermore, the YOLOv4 object detector was trained to localize asteroid tracklets, achieving a mean Average Precision (mAP) of 90.97%. These trained networks will be applied to 16 years of MOA archival data to find both known and unknown asteroids that have been observed by the survey over the years. The methodologies developed can be adapted for use by other surveys for asteroid recovery and discovery.
translated by 谷歌翻译
$ \ Texit {Fermi} $数据中的银河系中多余(GCE)的两个领先假设是一个未解决的微弱毫秒脉冲条件(MSP)和暗物质(DM)湮灭。这些解释之间的二分法通常通过将它们建模为两个单独的发射组分来反映。然而,诸如MSP的点源(PSS)在超微弱的极限中具有统计变质的泊松发射(正式的位置,预期每个来源平均贡献远低于一个光子),导致可能提出问题的歧义如排放是否是PS样或性质中的泊松人。我们提出了一种概念上的新方法,以统一的方式描述PS和泊松发射,并且刚刚从此获得的结果中获得了对泊松组件的约束。为了实现这种方法,我们利用深度学习技术,围绕基于神经网络的方法,用于直方图回归,其表达量数量的不确定性。我们证明我们的方法对许多困扰先前接近的系统,特别是DM / PS误操作来稳健。在$ \ texit {fermi} $数据中,我们发现由$ \ sim4 \ times 10 ^ {-11} \ \ text {counts} \ {counts} \ text {counts} \ text {counts} \ \ text {cm} ^ { - 2} \ \ text {s} ^ { - 1} $(对应于$ \ sim3 - 4 $每pL期望计数),这需要$ n \ sim \ mathcal {o}( 10 ^ 4)$源来解释整个过剩(中位数价值$ n = \文本{29,300} $横跨天空)。虽然微弱,但这种SCD允许我们获得95%信心的Poissonian比赛的约束$ \ eta_p \ leq 66 \%$。这表明大量的GCE通量是由于PSS 。
translated by 谷歌翻译
面部特征跟踪是成像跳芭式(BCG)的关键组成部分,其中需要精确定量面部关键点的位移,以获得良好的心率估计。皮肤特征跟踪能够在帕金森病中基于视频的电机降解量化。传统的计算机视觉算法包括刻度不变特征变换(SIFT),加速强大的功能(冲浪)和LUCAS-KANADE方法(LK)。这些长期代表了最先进的效率和准确性,但是当存在常见的变形时,如图所示,如图所示,如此。在过去的五年中,深度卷积神经网络对大多数计算机视觉任务的传统方法表现优于传统的传统方法。我们提出了一种用于特征跟踪的管道,其应用卷积堆积的AutoEncoder,以将图像中最相似的裁剪标识到包含感兴趣的特征的参考裁剪。 AutoEncoder学会将图像作物代表到特定于对象类别的深度特征编码。我们在面部图像上培训AutoEncoder,并验证其在手动标记的脸部和手视频中通常验证其跟踪皮肤功能的能力。独特的皮肤特征(痣)的跟踪误差是如此之小,因为我们不能排除他们基于$ \ chi ^ 2 $ -test的手动标签。对于0.6-4.2像素的平均误差,我们的方法在所有情况下都表现出了其他方法。更重要的是,我们的方法是唯一一个不分歧的方法。我们得出的结论是,我们的方法为特征跟踪,特征匹配和图像配准比传统算法创建更好的特征描述符。
translated by 谷歌翻译
传输定时变化(TTV)可以提供用于通过运输观察的系统的有用信息,因为它们允许我们对观察到的行星的质量和偏心的限制,甚至限制存在非过转化伴侣的存在。然而,TTV也可以用作检测偏压,可以防止在运输调查中检测小行星,否则将被标准算法(如盒装最小二乘算法(BLS)检测到)如果它们的轨道没有扰乱。这种偏差特别存在于具有长基线的调查,例如开普勒,其中一些苔丝扇区以及即将到来的柏拉图任务。在这里,我们介绍了一种对大型TTV的稳健的检测方法,并通过恢复和确认围绕开普勒-1705的十个TTV的一对谐振超级地球来说明其使用。该方法基于培训的神经网络,以恢复河图中的低信噪比比(S / N)扰动行星的轨道。我们通过拟合光线曲线来恢复这些候选人的传输参数。电孔-1705b和c的各个运输S / n大约比具有3小时或更长时间的所有先前已知的行星低的三倍,推动这些小型动态活动行星的恢复中的边界。恢复这种类型的物体对于获得观察到的行星系统的完整图谱是必不可少的,并且解决在外产群体的统计研究中不经常考虑的偏差。此外,TTV是获得质量估计的方法,这对于研究通过过境调查发现的行星的内部结构是必不可少的。最后,我们表明,由于强大的轨道扰动,开普勒-1705的外谐振行星的旋转可能被捕获在子或超级同步的旋转轨道共振中。
translated by 谷歌翻译
当前对火星(新鲜)影响的库存表现出对低热惯性区域的强烈偏见。这些区域通常在视觉上明亮,影响会产生黑暗的冲浪和射线,从而使它们更易于检测。预计在较高的热惯性区域以类似的速度发生影响,但这些影响不足。这项研究调查了使用训练有素的机器学习分类器,以使用CTX数据来增加对火星新鲜影响的检测。这种方法发现了69种新的新鲜影响,这些影响已通过后续的Hirise图像得到了证实。我们发现,检查由热惯性(TI)值分区的候选物值,仅由于大量的机器学习候选物而可能有助于减少观察偏置并增加已知的高TI影响的数量。
translated by 谷歌翻译
The International Workshop on Reading Music Systems (WoRMS) is a workshop that tries to connect researchers who develop systems for reading music, such as in the field of Optical Music Recognition, with other researchers and practitioners that could benefit from such systems, like librarians or musicologists. The relevant topics of interest for the workshop include, but are not limited to: Music reading systems; Optical music recognition; Datasets and performance evaluation; Image processing on music scores; Writer identification; Authoring, editing, storing and presentation systems for music scores; Multi-modal systems; Novel input-methods for music to produce written music; Web-based Music Information Retrieval services; Applications and projects; Use-cases related to written music. These are the proceedings of the 3rd International Workshop on Reading Music Systems, held in Alicante on the 23rd of July 2021.
translated by 谷歌翻译
Lobster eye telescopes are ideal monitors to detect X-ray transients, because they could observe celestial objects over a wide field of view in X-ray band. However, images obtained by lobster eye telescopes are modified by their unique point spread functions, making it hard to design a high efficiency target detection algorithm. In this paper, we integrate several machine learning algorithms to build a target detection framework for data obtained by lobster eye telescopes. Our framework would firstly generate two 2D images with different pixel scales according to positions of photons on the detector. Then an algorithm based on morphological operations and two neural networks would be used to detect candidates of celestial objects with different flux from these 2D images. At last, a random forest algorithm will be used to pick up final detection results from candidates obtained by previous steps. Tested with simulated data of the Wide-field X-ray Telescope onboard the Einstein Probe, our detection framework could achieve over 94% purity and over 90% completeness for targets with flux more than 3 mCrab (9.6 * 10-11 erg/cm2/s) and more than 94% purity and moderate completeness for targets with lower flux at acceptable time cost. The framework proposed in this paper could be used as references for data processing methods developed for other lobster eye X-ray telescopes.
translated by 谷歌翻译