Climate change has increased the intensity, frequency, and duration of extreme weather events and natural disasters across the world. While the increased data on natural disasters improves the scope of machine learning (ML) in this field, progress is relatively slow. One bottleneck is the lack of benchmark datasets that would allow ML researchers to quantify their progress against a standard metric. The objective of this short paper is to explore the state of benchmark datasets for ML tasks related to natural disasters, categorizing them according to the disaster management cycle. We compile a list of existing benchmark datasets introduced in the past five years. We propose a web platform - NADBenchmarks - where researchers can search for benchmark datasets for natural disasters, and we develop a preliminary version of such a platform using our compiled list. This paper is intended to aid researchers in finding benchmark datasets to train their ML models on, and provide general directions for topics where they can contribute new benchmark datasets.
translated by 谷歌翻译
Observational studies have recently received significant attention from the machine learning community due to the increasingly available non-experimental observational data and the limitations of the experimental studies, such as considerable cost, impracticality, small and less representative sample sizes, etc. In observational studies, de-confounding is a fundamental problem of individualised treatment effects (ITE) estimation. This paper proposes disentangled representations with adversarial training to selectively balance the confounders in the binary treatment setting for the ITE estimation. The adversarial training of treatment policy selectively encourages treatment-agnostic balanced representations for the confounders and helps to estimate the ITE in the observational studies via counterfactual inference. Empirical results on synthetic and real-world datasets, with varying degrees of confounding, prove that our proposed approach improves the state-of-the-art methods in achieving lower error in the ITE estimation.
translated by 谷歌翻译
人类广泛利用视觉和触摸作为互补的感官,视觉提供有关场景的全球信息,并在操纵过程中触摸当地信息而不会受到阻塞。在这项工作中,我们提出了一个新颖的框架,用于以一种自我监督的方式学习多任务视觉执行表示。我们设计了一种机制,该机制使机器人能够自主收集空间对齐的视觉和触觉数据,这是下游任务的关键属性。然后,我们使用交叉模式对比损失训练视觉和触觉编码器将这些配对的感觉输入嵌入共享潜在空间中。对学习的表示形式进行评估,而无需对5个感知和控制任务进行微调,涉及可变形表面:触觉分类,接触定位,异常检测(例如,手术幻影肿瘤触诊),触觉搜索,例如,视觉疑问(例如,在遮挡的情况下,都可以从视觉询问中进行触觉搜索),以及沿布边缘和电缆的触觉伺服。博学的表示形式在毛巾功能分类上达到了80%的成功率,手术材料中异常检测的平均成功率为73%,视觉引导触觉搜索的平均成功率和87.8%的平均伺服距离沿电缆和服装的平均伺服距离为87.8%。接缝。这些结果表明,学习的表示形式的灵活性,并朝着对机器人控制的任务不合时宜的视觉表达表示迈出了一步。
translated by 谷歌翻译
使用虚拟现实(VR)系统时,Cyber​​sickness的特征是恶心,眩晕,头痛,眼睛疲劳和其他不适。先前报道的机器学习(ML)和深度学习(DL)算法用于检测(分类)和预测(回归)VR Cyber​​sickness使用黑盒模型;因此,他们缺乏解释性。此外,VR传感器会产生大量数据,从而产生复杂的模型。因此,在Cyber​​sickness检测模型中具有固有的解释性可以显着提高该模型的可信度,并洞悉为什么ML/DL模型如何制定特定决定。为了解决此问题,我们提出了三个可解释的机器学习(XML)模型来检测和预测Cyber​​sickness:1)可解释的提升机(EBM),2)决策树(DT)和3)逻辑回归(LR)。我们通过公开可用的生理和游戏数据集评估了基于XML的模型。结果表明,EBM可以分别以99.75%和94.10%的精度检测Cyber​​sickness,分别为生理和游戏数据集检测到Cyber​​ness。另一方面,在预测Cyber​​sickness的同时,EBM导致生理数据集的均方根误差(RMSE)为0.071,游戏玩法数据集的根部误差(RMSE)为0.27。此外,基于EBM的全球解释揭示了曝光的长度,旋转和加速度作为在游戏玩法数据集中引起Cyber​​sickness的关键特征。相反,电流皮肤反应和心率在生理数据集中最为重要。我们的结果还表明,基于EBM的局部解释可以鉴定单个样本的引起网络核管的因素。我们认为,提出的基于XML的Cyber​​sickness检测方法可以帮助未来的研究人员理解,分析和设计更简单的Cyber​​sickness检测和还原模型。
translated by 谷歌翻译
当今世界受到新颖的冠状病毒(Covid-19)的严重影响。使用医疗套件来识别受影响的人非常慢。接下来会发生什么,没人知道。世界正面临不稳定的问题,不知道在不久的将来会发生什么。本文试图使用LSTM(长期记忆)对冠状病毒恢复病例进行预后。这项工作利用了258个地区的数据,其纬度和经度以及403天的死亡人数范围为22-01-2020至27-02-2021。具体而言,被称为LSTM的先进基于深度学习的算法对为时间序列数据(TSD)分析提取高度必不可少的特征产生了极大的影响。有很多方法已经用于分析传播预测。本文的主要任务最终在分析使用基于LSTM深度学习的体系结构分析冠状病毒在全球恢复案例中的传播。
translated by 谷歌翻译
全球一百多个国家的主食是大米(Oryza sativa)。大米的种植对于全球经济增长至关重要。但是,农业产业面临的主要问题是水稻疾病。农作物的质量和数量下降了,这是主要原因。由于任何国家的农民对水稻疾病都没有太多了解,因此他们无法正确诊断稻叶疾病。这就是为什么他们不能适当照顾米叶的原因。结果,生产正在减少。从文献调查中,Yolov5表现出更好的结果与其他深度学习方法相比。由于对象检测技术的不断发展,Yolo家族算法具有非常高的精度和更好的速度,已在各种场景识别任务中使用,以构建稻叶疾病监测系统。我们已经注释了1500个收集的数据集,并提出了基于Yolov5深学习的水稻疾病分类和检测方法。然后,我们训练并评估了Yolov5模型。模拟结果显示了本文提出的增强Yolov5网络的对象检测结果的改进。所需的识别精度,召回,MAP值和F1得分的水平分别为90 \%,67 \%,76 \%和81 \%\%被视为性能指标。
translated by 谷歌翻译
系统变化是代谢组学数据分析中的常见问题。因此,使用不同的缩放和归一化技术来预处理数据进行代谢组学数据分析。尽管文献中有几种缩放方法可用,但是缩放,转换和/或归一化技术的选择会影响进一步的统计分析。选择适当的缩放技术进行下游分析以获得准确的结果或做出正确的决定是一项挑战。此外,现有的缩放技术对离群值或极值敏感。为了填补空白,我们的目标是引入不受异常值影响的强大缩放方法,并为下游分析提供了更准确的结果。在这里,我们引入了一种新的加权缩放方法,该方法对异常值具有强大的功能,但是,在数据预处理中不需要其他异常检测/治疗步骤,并将其与通过人工和实际代谢组学数据集进行了比较与常规缩放和归一化技术。我们在不存在和存在不同百分比的异常值的情况下,使用代谢组学数据分析评估了所提出的方法的性能与其他现有的常规缩放技术相比。结果表明,在大多数情况下,在不存在和存在异常值的情况下,提出的缩放技术的性能比传统的缩放方法更好。提出的方法改善了进一步的下游代谢组学分析。提出的强大缩放方法的R函数可在https://github.com/nishithkumarpaul/robustscaling/blob/main/main/wscaling.r.r
translated by 谷歌翻译
在最近的工作中已显示出一种模式指导的对话管理方法,可以有效地创建能够充当友好同行或任务助理的强大定制虚拟代理。但是,这些方法在开放式,混合初始性领域中的成功应用仍然难以捉摸 - 尤其是在诸如虚拟标准化患者之类的医疗领域,在这种复杂的互动很常见的情况下 - 比以前的系统需要更广泛,更灵活的对话管理能力提供。在本文中,我们描述了用于开发索菲(Sophie)的通用架构指导的对话管理框架,Sophie是一种虚拟标准化的癌症患者,可让医生方便地练习与患者的互动。我们对医学生和索菲之间的对话进行了众包评估。我们的经纪人被认为是自然,情感上适当的反应,并且与她作为癌症患者的角色一致。此外,它大大优于对人类标准化患者语料库进行微调的端到端神经模型,这证明了模式引导方法的优势。
translated by 谷歌翻译
模拟到现实的转移已成为一种流行且非常成功的方法,用于培训各种任务的机器人控制政策。但是,确定在模拟中训练的政策何时准备将其转移到物理世界通常是一个挑战。部署经过很少的模拟数据训练的策略可能会导致物理硬件的不可靠和危险行为。另一方面,模拟中的过度训练会导致策略过度拟合模拟器的视觉外观和动力学。在这项工作中,我们研究了自动确定在模拟中训练的策略何时可以可靠地转移到物理机器人的策略。我们在机器人织物操纵的背景下专门研究了这些思想,因为成功建模织物的动力学和视觉外观的困难,成功的SIM2Real转移尤其具有挑战性。导致织物平滑任务表明我们的切换标准与实际的性能很好地相关。特别是,我们基于信心的切换标准在培训总预算的55-60%之内达到了87.2-93.7%的平均最终面料覆盖率。有关代码和补充材料,请参见https://tinyurl.com/lsc-case。
translated by 谷歌翻译
机器人舰队的商业和工业部署在处决期间通常会落在遥远的人类遥控者身上,当时机器人处于危险之中或无法取得任务进展。通过持续学习,随着时间的推移,从偏远人类的干预措施也可以用来改善机器人机队控制政策。一个核心问题是如何有效地将人类关注分配给单个机器人。先前的工作在单机器人的单人类设置中解决了这一点。我们正式化了交互式车队学习(IFL)设置,其中多个机器人可以交互查询并向多个人类主管学习。我们提出了一个完全实施的开源IFL基准套件,以评估IFL算法的GPU加速ISAAC健身环境。我们提出了Fleet-Dagger,这是一个IFL算法的家庭,并将一种新颖的Fleet Dagger算法与模拟中的4个基准进行了比较。我们还使用4个ABB Yumi机器人臂进行了1000个物理块式实验试验。实验表明,人类向机器人的分配显着影响机器人车队的性能,并且我们的算法比基线的算法获得了人类努力回报的8.8倍。有关代码,视频和补充材料,请参见https://tinyurl.com/fleet-dagger。
translated by 谷歌翻译