对于前列腺癌患者,Gleason评分是最重要的预后因素之一,可能决定独立于分期的治疗。然而,Gleason评分基于肿瘤形态的主观显微镜检查并且具有较差的再现性。在这里,我们提出了一个深度学习系统(DLS),用于Gleason评分前列腺切除术的全幻灯片图像。我们的系统是使用来自1,226张幻灯片的1.12亿个病理学家注释的图像片段开发的,并在331个幻灯片的独立验证数据集上进行评估,其中参考标准由泌尿生殖专家病理学家建立。在验证数据集中,29名一般病理学家的平均准确度为0.61。 DLS的诊断准确率显着提高0.70(p = 0.002),并且与临床随访数据的相关性趋向于更好的患者风险分层。我们的方法可以提高格里森评分的准确性和随后的治疗决策,特别是在专业知识不可用的情况下。 DLS还超越了当前的格里森系统,以更精细地表征和定量肿瘤形态,为格里森系统本身的细化提供了机会。
translated by 谷歌翻译
我们研究了随机梯度下降所发现的最终参数如何受到过度参数化的影响。我们通过增加基础网络中的通道数来生成模型族,然后执行大型超参数搜索以研究测试错误如何取决于学习速率,批量大小和网络宽度。我们发现最佳SGD超参数由“归一化噪声标度”确定,“标准化噪声标度”是批量化,学习速率和初始化条件的函数。在没有球形归一化的情况下,最佳归一化噪声标度与纬度成正比。更宽的网络具有更高的最佳噪声标度,也可以实现更高的测试精度。这些观察结果适用于MLP,ConvNets和ResNets,以及两种不同的参数化方案(“标准”和“NTK”)。我们通过ResNets的批量标准化来保持类似的趋势。令人惊讶的是,由于最大的稳定学习速率是有界的,因此随着宽度的增加,与最佳归一化噪声尺度一致的最大批量尺寸减小。
translated by 谷歌翻译
自主无人机比赛最近成为一个有趣的研究问题。梦想是在这项新的快节奏运动中击败人类。一种常见的方法是学习端到端策略,通过模仿专家来直接预测来自图像的控制。然而,这样的政策受限于它模仿和扩展到其他环境的专家,并且车辆动力学很难。克服端到端策略缺点的一种方法是仅在感知任务上构建网络并使用PID或MPC控制器处理控制。但是,必须对单个控制器进行广泛调整,并且通常不能覆盖整个状态空间。在本文中,我们建议使用融合多个控制器的DNN来学习优化控制器。该网络学习了一个具有在线轨迹滤波功能的鲁棒控制器,可以抑制噪声轨迹和各个控制器的缺陷。 Theresult是一个能够学习来自不同控制器的过滤轨迹的良好融合的网络,从而显着改善整体性能。我们将经过训练的网络与其从实际模拟中获得的控制器,端到端基线和人类飞行员进行比较;我们的网络在广泛的实验中击败所有基线并接近专业人员飞行员的表现。 https://youtu.be/hGKlE5X9Z5U上提供了总结此工作的视频
translated by 谷歌翻译
在本文中,我们考虑计算格子规划器的最佳运动图元集的问题。我们考虑的目标是计算跨越配置空间网格的最小运动基元集。如果给定的实数t大于1,则可以通过一系列运动基元到达晶格中的任何配置,其成本不超过该配置的最优路径的成本的t倍,运动基元的一组t跨越晶格。 。确定最小的t跨越运动原语集允许在机器人运动规划的背景下快速遍历状态点阵,同时保持对理论上最佳路径的t因子依从性。虽然存在几种启发式方法来确定跨越运动基元集,但是这些基本上没有保证相对于最优的集合的大小。本文提供了一个证据,证明在任意机器人配置空间上定义的格子的最小t跨越控制集问题是NP完全的,并且提出了一种紧凑的混合整数线性规划公式来计算最优t-扳手。我们表明,混合整数线性程序获得的解决方案具有比现有启发式算法少得多的运动原语,并且执行机器人路径规划中使用的一组标准基元。
translated by 谷歌翻译
在本文中,我们介绍了一种通过学习车辆路径的代表性数据集来计算适合于特定任务的稀疏点阵规划器控制集的方法。为此,我们使用与Fr \'echet距离类似的评分指标,并提出一种根据评分指标评估agiven控制集的算法。然后根据目标函数从密集控制集中选择控制动作,该目标函数提高了匹配数据集的改进,同时也鼓励稀疏性。该方法在涉及实际和合成数据集的若干实验中进行评估,并且与之前的数据集相比,它显示生成更小的控制集。最先进的网格控制集计算技术,这些较小的控制集在所需任务中保持高度的可操作性。当使用学习的控制集而不是最先进的计算控制集时,这导致计划时间加速高达4.31x。此外,我们展示了学习的控制集可以在路径曲率方面捕获数据集的驾驶风格。
translated by 谷歌翻译
在确保良好的机器人性能的同时指定复杂的任务行为对于未经训练的用户来说可我们研究了一个框架,供用户在共享环境(如工业设施)中指定可接受行为的规则。由于非专业用户可能对这些规范如何影响机器人的性能几乎没有直觉,我们设计了一个与用户交互的学习系统,以找到最佳解决方案。使用主动偏好学习,我们迭代地显示机器人可以在接口上采用的替代路径。从用户反馈排名的替代方案中,我们了解用户对其规范的每个部分的权重。我们将用户模型从我们以前的工作扩展到离散贝叶斯学习模型,并引入了一种贪婪算法,用于提出对用户权重等价区域进行操作的替代算法。我们证明了使用该算法,修订主动学习过程收敛于用户最优路径。在现实工业环境的模拟中,我们展示了我们方法的收敛性和稳健性。
translated by 谷歌翻译
我们开发了一种卷积神经网络(CNN),它可以首次对液氩时间投影室(LArTPC)记录的图像数据中的物体进行像素级预测。我们描述了为培训该网络而开发的网络设计,培训技术和软件工具。这项工作的目的是为MicroBooNE探测器开发一个完整的基于深度神经网络的数据构建链。我们使用MicroBooNEcollection平面图像显示网络在实际LArTPC数据上的有效性的第一次演示。演示用于停止μ子和$ \ nu_ \ mu $充电电流中性π介数数据样本。
translated by 谷歌翻译
我们证明,当训练集上的模型预测接近给定输入的标签的真实条件分布时,固有的微观梯度噪声导致自然梯度下降的静态分布接近贝叶斯后部近局部最小值作为学习率$ \ epsilon \ rightarrow 0 $。此后部的温度$ T \ approx \ epsilon N /(2B)$由学习率,训练集大小$ N $和batchsize $ B $控制。然而,小批量NGD不是参数化不变的,因此引入“随机自然梯度下降”,其通过向平稳分布引入乘法偏差来保持参数化不变性。我们将这种偏见视为众所周知的Jeffreysprior。为了支持我们的说法,我们表明,当$ T = 1 $时,来自NGD的样本分布接近拉普拉斯近似值。此外,使用NGD绘制的集合的测试损失迅速下降,因为我们增加批量大小直到$ B \大约是eps / N $ 2,而在此点之上,测试损失是恒定的或缓慢上升。
translated by 谷歌翻译
Recent work has explored the problem of autonomous navigation by imitating a teacher and learning an end-to-end policy, which directly predicts controls from raw images. However, these approaches tend to be sensitive to mistakes by the teacher and do not scale well to other environments or vehicles. To this end, we propose Observational Imitation Learning (OIL), a novel imitation learning variant that supports online training and automatic selection of optimal behavior by observing multiple imperfect teachers. We apply our proposed methodology to the challenging problems of autonomous driving and UAV racing. For both tasks, we utilize the Sim4CV simulator [18] that enables the generation of large amounts of synthetic training data and also allows for online learning and evaluation. We train a perception network to predict waypoints from raw image data and use OIL to train another network to predict controls from these waypoints. Extensive experiments demonstrate that our trained network outperforms its teachers , conventional imitation learning (IL) and reinforcement learning (RL) baselines and even humans in simulation.
translated by 谷歌翻译
It is common practice to decay the learning rate. Here we show one canusually obtain the same learning curve on both training and test sets byinstead increasing the batch size during training. This procedure is successfulfor stochastic gradient descent (SGD), SGD with momentum, Nesterov momentum,and Adam. It reaches equivalent test accuracies after the same number oftraining epochs, but with fewer parameter updates, leading to greaterparallelism and shorter training times. We can further reduce the number ofparameter updates by increasing the learning rate $\epsilon$ and scaling thebatch size $B \propto \epsilon$. Finally, one can increase the momentumcoefficient $m$ and scale $B \propto 1/(1-m)$, although this tends to slightlyreduce the test accuracy. Crucially, our techniques allow us to repurposeexisting training schedules for large batch training with no hyper-parametertuning. We train ResNet-50 on ImageNet to $76.1\%$ validation accuracy in under30 minutes.
translated by 谷歌翻译