对于前列腺癌患者,Gleason评分是最重要的预后因素之一,可能决定独立于分期的治疗。然而,Gleason评分基于肿瘤形态的主观显微镜检查并且具有较差的再现性。在这里,我们提出了一个深度学习系统(DLS),用于Gleason评分前列腺切除术的全幻灯片图像。我们的系统是使用来自1,226张幻灯片的1.12亿个病理学家注释的图像片段开发的,并在331个幻灯片的独立验证数据集上进行评估,其中参考标准由泌尿生殖专家病理学家建立。在验证数据集中,29名一般病理学家的平均准确度为0.61。 DLS的诊断准确率显着提高0.70(p = 0.002),并且与临床随访数据的相关性趋向于更好的患者风险分层。我们的方法可以提高格里森评分的准确性和随后的治疗决策,特别是在专业知识不可用的情况下。 DLS还超越了当前的格里森系统,以更精细地表征和定量肿瘤形态,为格里森系统本身的细化提供了机会。
translated by 谷歌翻译
相机图像中的物体检测和语义分割都是自动车辆的重要任务。对象检测是必要的,以便规划和行为模块可以推断其他道路使用者。语义分割提供了例如自由空间信息和关于环境的静态和动态部分的信息。使用卷积神经网络解决这两项任务已经有很多研究。这些方法给出了良好的结果,但计算要求很高。在实践中,可以在检测性能,检测质量和任务数量之间找到折衷方案。否则,无法满足自动车辆的实时要求。在这项工作中,我们提出了一个神经网络架构同时解决这两个任务。该架构设计为在当前硬件上以1 MP图像运行10 Hz。我们的方法在具有挑战性的Cityscapesbenchmark上实现语义分割任务的平均IU为61.2%。它还实现了汽车平均精度69.3%和KITTI基准中等难度水平67.7%。
translated by 谷歌翻译
缺失数据如何影响我们学习信号结构的能力?已经表明,根据主成分学习信号结构取决于样本大小和维数的比率,并且在学习开始之前需要一个关键的观察数量(Biehl和Mietzner,1993)。在这里,我们推广此分析以包括缺失的数据。概率主成分分析经常用于估计缺失数据的数据集中的信号结构。我们的分析结果表明,丢失数据的效果是有效地降低信噪比,而不是 - 通常认为 - 减少样本量。该理论预测了学习曲线中的相位转换,这在模拟数据和真实数据集中确实都可以找到。
translated by 谷歌翻译
随机森林是用于估计机器学习分类任务中的概率的流行工具。然而,实现这一目标的手段是无原则的:人们只需计算投票给某一类的森林中树木的比例。在本文中,我们在随机森林和核回归之间建立了联系。这将随机森林概率估计置于更有效的统计基础之上。作为我们调查的一部分,我们开发了邻近内核的模型,并将其与估计问题的几何和稀疏性联系起来。我们还提供直觉和建议,以避免随机森林,以提高其概率估计。
translated by 谷歌翻译
我们通过观察他们在阅读过程中的眼球运动来研究推断读者身份并估计他们的文本理解水平的问题。我们开发了一种个体凝视模式(扫描路径)的生成模型,该模型利用固定单词的词汇特征。使用这种生成模型,我们推导出眼动序列的Fisher-score表示。 Westudy是否具有Fisher内核的Fisher-SVM和几种参考方法能够识别读者并基于眼睛跟踪数据估计他们的文本理解水平。虽然没有一种方法能够准确地估计文本理解,但我们发现带有Fisher kernelex的SVM可以识别读者。
translated by 谷歌翻译
深度强化学习(RL)已在各种领域中显示出令人印象深刻的结果,直接从高维感觉流中学习。然而,当神经网络在固定环境中训练时,例如在视频游戏中的单一级别,它们通常会过度拟合并且无法概括到新的水平。当RL模型过度拟合时,即使对环境的轻微修改也会导致代理性能不佳。在本文中,我们探讨了在训练过程中程序生成的水平如何提高一般性。我们表明,对于某些游戏,程序级别的生成可以在同一分布中推广到新的级别。另外,通过响应于代理的性能来操纵级别的难度,可以用更少的数据实现更好的性能。学习行为的一般性也在一组人为设计的水平上进行评估。我们的结果表明,推广到人类设计水平的能力很大程度上取决于水平发生器的设计。我们应用降维和聚类技术来可视化生成器的水平分布,并分析哪些程度可以产生与人类设计的水平类似的水平。
translated by 谷歌翻译
奖励塑造允许强化学习(RL)代理通过接收额外的奖励信号来加速学习。但是,这些信号很难手动设计,特别是对于复杂的RL任务。我们提出简单而通用的方法,仅通过稀有性来确定预定义事件的回报。在这里,事件变得不那么有价值,因为它们经常被经历,这鼓励代理人在学习时不断探索新类型的事件。该奖励功能的适应性导致自动化课程学习的形式,其不必由实验者指定。我们证明了这个\ emph {Rarity of Events}(RoE)可以让代理成功地挑战VizDoom场景而无需访问来自环境的外在奖励。此外,结果表明,RoE学习了一种更加通用的政策,可以很好地适应环境中的关键变化。根据稀有事件奖励事件可能有助于许多已解决的RL环境,这些环境的特点是稀疏的外在奖励,但过多的已知事件类型。
translated by 谷歌翻译
In this article, we review recent Deep Learning advances in the context of how they have been applied to play different types of video games such as first-person shooters, arcade games, and real-time strategy games. We analyze the unique requirements that different game genres pose to a deep learning system and highlight important open challenges in the context of applying these machine learning methods to video games, such as general game playing, dealing with extremely large decision spaces and sparse rewards.
translated by 谷歌翻译
智能辅导系统可以通过提供有关下一步操作的提示来支持学生解决多步骤任务。然而,如果可能状态的空间太大,则手动或通过专家模型设计这样的下一步提示变得不可行。因此,出现了几种方法,可以根据过去学生的数据自动推断下一步的提示。特别是,提示工厂(Barnes&Stamper,2008)建议编辑,这些编辑最有可能引导学生从他们当前的状态转向纠正解决方案,这取决于过去成功的学生在同一情况下做了什么。尽管如此,提示工厂还依赖于学生在解决任务时可能访问的学生数据,而某些学习任务(例如开放式编程任务)并非如此。在这个贡献中,我们为基于编辑的提示策略提供了一个数学框架,并基于这个理论,提出了一个新的提示策略来提供编辑提示的invast和稀疏填充的状态空间。特别是,我们通过考虑所有州的过去学生的数据来扩展HintFactory,这些数据与学生的当前状态相似,并创建近似于所有这些参考状态的加权平均值的提示。由于可能的加权平均空间是连续的,我们称这种方法为连续提示工厂。在我们的实验评估中,我们证明连续提示工厂可以更准确地预测学生在两个学习任务中与现有预测方案相比会做什么,特别是在开放式编程任务中,并且连续提示工厂与再现辅导员的现有提示政策相当提示简单的UML图任务。
translated by 谷歌翻译