以顺序方式学习任务的能力对于人工智能的发展至关重要。一般而言,神经网络不具备此功能,并且人们普遍认为灾难性遗忘是连接模型的必然特征。我们表明,有可能克服这种限制并培养能够保持他们长期没有经历过的专业知识的网络。我们的方法通过有选择地减慢重量重要任务的权重学习来记住任务。我们通过基于MNIST手写数字数据集解决一组分类任务并依次学习几个Atari 2600游戏,证明我们的方法是可扩展和有效的。
translated by 谷歌翻译
从表面心电图(ECG)无创重建心脏跨膜电位(TMP)涉及一个不适定的逆问题。模型约束正则化对于结合关于时空TMP动力学的丰富的生理学知识是有力的。这些模型由高维物理参数控制,如果固定,则可以引入模型误差并降低TMP重建的准确性。然而,由于它们的高维度,在TMP重建期间同时适应这些参数是困难的。我们引入了一种新的模型约束推理框架,该框架用经过训练的深度生成模型取代传统的生理模型,以从低维生成因子生成TMP序列。使用具有长期短期记忆(LSTM)网络的变分自动编码器(VAE),我们训练VAE解码器以学习TMP的条件可能性,同时编码器学习生成因子的先前分布。这两个组件使我们能够开发出一种有效的算法来同时推断来自ECG数据的生成因子和TMP信号。综合和实际数据实验表明,与传统生理模型约束或没有生理学约束的方法相比,所提出的方法显着提高了TMP重建的准确性。
translated by 谷歌翻译
我们承担了将基于词典的情感分类内容审查与机器学习方法进行比较的任务。我们研究现有的方法,并尝试使用'given'lexicon和词袋方法来模拟和改进它们。我们还利用句法信息,如词性和依赖关系。我们将展示基于simplelexicon的分类可以获得良好的结果,但机器学习技术被证明是优秀的工具。我们还表明,更多功能不一定能提供更好的性能,并详细说明本文未经测试的三个进一步增强功能。
translated by 谷歌翻译
概率计划是处理不确定性的关键。 controllersynthesis。它们通常很小但很复杂。它们的发展很复杂且容易出错,需要对无数替代设计进行定量推理。为了减轻这种复杂性,我们采用反例引导的归纳法(CEGIS)来自动合成有限状态概率程序。我们的方法利用高效的模型检查,现代SMT求解以及程序级的反例生成。实际相关案例研究的实验表明,使用几千个验证查询可以充分探索具有数百万候选设计的设计空间。
translated by 谷歌翻译
本文在无监督场景中使用分支分类器机制,使其能够将数据自组织为未知类别。然后,教学阶段能够帮助分类器使用减少数量的训练步骤来学习每个输入行的真实类别。模式集合是以不使用最近距离聚类的方式学习的。这是在不知道实际输出类别是什么的情况下完成的,并且导致每个实际类别具有与其相关联的若干群集。成功的一个衡量标准是这些子集中的每一个都是连贯的,这意味着集群中的每个数据行都属于同一类别。群集的总数也很重要,然后教学阶段可以教授分类器正确的实际类别。在此阶段,任何分类器还可以从其他分类器的知识中学习或推断正确的分类,从而减少所需的演示数量。随着信息的添加,两个结构之间的交叉引用允许它被更广泛地使用。通过这个过程,可以建立一个独特的结构,这是任何一种方法都无法单独实现的。较低级别是由自组织创建的嵌套的模式集合。上层是一个分层树,whereeach端节点仅代表一个类别,因此存在从混合集合块到特定类别的过渡。该结构还具有类似大脑的建模关系。
translated by 谷歌翻译
本文提出了一个统计框架,用于描述大脑模型的物理和概念实体之间的关系。特别是,特征和概念实例被置于上下文中。这可能有助于理解或实现类似的模型。该论文表明,特征实际上是布线。有了这个想法,连接的实际长度很重要,因为它与神经元同步有关。然后该论文表明这些概念是基于神经元的,而发射神经元是概念实例。因此,特征成为互联神经系统的静态框架,概念是这些的组合,由外部刺激和神经关联决定。除了这个统计模型,还可以为神经元本身提出简化设计,但基于它可以改变其输入和输出信号的想法。一些测试结果也有助于支持该理论。
translated by 谷歌翻译
报道了一种新颖的中心线提取框架,其结合了端到端可训练的多任务完全卷积网络(FCN)和最小路径提取器。 FCN同时计算中心线距离图并检测分支端点。该方法生成没有伪分支的单像素宽中心线。它处理任意树形结构对象,没有关于树的深度或其分叉模式的先验假设。它对于目标对象的不同部分的大量尺度变化以及对象的分割掩模的微小缺陷也是稳健的。据我们所知,这是第一个基于深度学习的中心线提取方法,其保证了单像素宽的中心线。 Complextree结构对象。所提出的方法在620名患者(其中400名用作测试集)的数据集上的冠状动脉中心线提取中得到验证。由于大量冠状动脉支管,分支弯曲度以及长度,厚度,形状等的大的变化,因此该应用具有挑战性。所提出的方法产生定位良好的中心线,显示较少数量的缺失分支,并且在存在对象分割掩模的微小缺陷的情况下更加稳健。根据独立的人工专家评论,与最先进的传统最小路径方法相比,我们的方法将患者级中心线提取的成功率从54.3%提高到88.8%。
translated by 谷歌翻译
本文描述了神经网络,一个用于神经网络和深度学习的并行Fortran框架。它具有简单的界面,可构建任意结构和大小的前馈神经网络,severalactivation函数和随机梯度下降作为默认优化算法。 Neural-fortran还利用Fortran 2018标准集合子程序在共享或分布式内存机器上实现基于数据的并行性。首先,我描述了使用Fortran派生类型,全数组算法和集体命令广播操作实现神经网络以实现并行性。其次,我在一个从图像中识别手写数字的例子中演示了使用neur-fortran。最后,我评估了串行和并行模式的计算性能。易用性和计算性能类似于现有的流行机器学习框架,使得神经堡垒成为进一步开发和用于生产的可行候选者。
translated by 谷歌翻译
我们展示了AMOS Patches,一组大量的图像切口,主要用于将可训练的局部特征描述符强化为照明和外观变化。有助于AMOS补丁的图像源自大量户外网络摄像头录制的AMOS数据集。描述了用于生成AMOS补丁的半自动方法。它包括摄像机选择,视点聚类和补丁选择。 Fortraining,我们提供注册的完整源图像以及补丁。引入了一个新的描述符,该描述符是在AMOS补丁和6Brown数据集上训练的。它在标准基准的照明变化下实现了最先进的匹配。
translated by 谷歌翻译
我们展示了梯度下降和MM算法的紧密收敛速度界限,用于广义Bradley-Terrymodel的流行贝叶斯推断方法的最大似然估计和最大后验概率估计。这类模型包括配对比较的Bradley-Terry模型,配对比较的Rao-Kupper模型,Lucechoice模型和Plackett-Luce排名模型。我们的结果表明,MM算法具有与梯度下降算法相同的收敛速度。对于最大似然估计,收敛是线性的,其速率主要由观察到的比较数据中项目对共现矩阵的代数连通性决定。对于贝叶斯推断,收敛速度也是线性的,速率由先验分布的参数确定,其方式可以使该参数的小值的收敛任意慢。我们提出了简单的一阶加速方法来解决缓慢的收敛问题。
translated by 谷歌翻译