正式道德领域正在经历从独特或标准方法到规范推理的转变,例如所谓的标准化学,以及各种特定应用理论。然而,正如义务,许可,禁止和道德承诺这样的规范性概念的充分处理是具有挑战性的,正如臭名昭着的道德逻辑悖论所说明的那样。在本文中,我们介绍了一种设计和评估规范推理理论的方法。特别是,我们提出了一个基于高阶逻辑的正式框架,一个设计方法,并讨论了工具支持。此外,我们使用一个实现的例子说明了这个方法,我们演示了使用它的不同方法,并讨论了如何设计现在,非专业用户和开发人员可以访问规范理论。
translated by 谷歌翻译
We propose to learn a hierarchical prior in the context of variational autoencoders to avoid over-regularisation resulting from a standard normal prior distribution. To incentivise an informative latent representation of the data by learning a rich hierarchical prior, we formulate the objective function as the Lagrangian of a constrained-optimisation problem and propose an optimisation algorithm inspired by Taming VAEs. To validate our approach, we train our model on the static and binary MNIST, Fashion-MNIST, OMNIGLOT, CMU Graphics Lab Motion Capture, 3D Faces, and 3D Chairs datasets, obtaining results that are comparable to state-of-the-art. Furthermore, we introduce a graph-based interpolation method to show that the topology of the learned latent representation correspond to the topology of the data manifold.
translated by 谷歌翻译
与以前的工作不同,这种开放式数据采集包括专为机器学习应用和高锥角人工制品减少而设计的X射线锥束(CB)计算机断层扫描(CT)数据集。用实验室X射线设置扫描42个核桃,不仅提供来自单个物体的数据,而且提供具有自然变化的一类物体的数据。对于每个核桃,获得了三个不同源轨道上的CB投影,提供了具有不同锥角的CB数据,并且能够从可以用于监督学习的组合数据中计算无物质,高质量的地面实况图像。我们提供完整的图像重建管道:原始投影数据,扫描几何描述,使用开放软件的预处理和重建脚本,以及构建的体积。因此,数据集不仅可以用于高角度伪影减少,还可以用于其他任务的算法开发和评估,例如从有限或稀疏角度(低剂量)扫描,超分辨率或分割的图像重建。
translated by 谷歌翻译
由于最近在处理速度和数据采集和存储方面的进步,机器学习(ML)正在渗透我们生活的方方面面,并从根本上改变了许多领域的研究。无线通信是另一个成功的故事 - 在我们的生活中无处不在,从手持设备到可穿戴设备,智能家居和汽车。虽然近年来在为各种无线通信问题利用ML工具方面看到了一系列研究活动,但这些技术对实际通信系统和标准的影响还有待观察。在本文中,我们回顾了无线通信系统中ML的主要承诺和挑战,主要关注物理层。我们提出了ML技术在经典方法方面取得的一些最令人瞩目的近期成就,并指出了有希望的研究方向,其中ML可能在不久的将来产生最大的影响。我们还强调了在无线网络边缘设计物理层技术以实现分布式ML的重要问题,这进一步强调了理解和连接ML与无线通信中的基本概念的需要。
translated by 谷歌翻译
颅骨剥离被定义为从全头磁共振图像〜(MRI)分割脑组织的任务。它是神经图像处理管道中的关键组件。下游可变形配准和全脑分割性能高度依赖于准确的颅骨剥离。由于该年龄段头部和大脑的显着大小和形状可变性,因此对于婴儿〜(年龄范围0-18个月)头部MRI图像来说,刀片剥离是一项特别具有挑战性的任务。范围。随着时间的推移,婴儿脑组织的发育也会改变$ T_1 $加权图像的对比度,这使得一致的人们难以接受任务。用于成人脑部MRIsullstripping的现有工具不具备处理这些变化的能力,并且需要专门的婴儿MRI头部剥离算法。在本文中,我们描述了asupervised skullstripping算法,该算法利用三个训练的完全卷积神经网络〜(CNN),每个神经网络分别在轴向,冠状和矢状视图中分割2D $ T_1 $加权的视图。三个视图中的三个概率分割是线性融合和阈值化以产生最终的大脑掩模。我们将我们的方法与现有成人和婴儿颅骨剥离算法进行了比较,并且基于骰子重叠度量〜(平均骰子为0.97)和手动标记的背景真实数据集显示出显着的改善。在多个未标记的数据集上进行标签融合实验表明,我们的方法是一致的,故障模式较少。此外,我们的方法计算速度非常快,在NVidia P40 / P100 / Quadro 4000 GPU上运行时间为30秒。
translated by 谷歌翻译
对于我们提交到ZeroSpeech 2019挑战,我们将离散的变量神经网络应用于未标记的语音,并将发现的单元用于语音合成。无监督离散子字建模可用于婴儿语音类别学习的研究或需要符号输入的低资源语言技术。我们使用具有中间离散化的自动编码器(AE)架构。我们通过调整AE的解码器来训练扬声器身份,从而将声学单元发现与扬声器建模分离。在测试时,对来自未见扬声器的语音进行单元发现,然后以已知目标扬声器为条件进行单元解码,以获得重建的滤波器组。该输出被馈送到神经调节器以合成目标讲话者的语音中的语音。对于离散化,分类变量自动编码器(CatVAE),矢量量化VAE(VQ-VAE)和直通估计在两种语言的不同压缩级别进行比较。我们的最终模型使用卷积编码,VQ-VAE分散,反卷积解码和FFTNet声码器。我们表明,耦合扬声器调节本质上改善了离散声学表示,与挑战基线相比产生了竞争性合成质量。
translated by 谷歌翻译
最近的大量工作表明,卷积网络并不是对抗图像:通过扰乱数据分布中的样本而创建的图像,以最大化扰动示例的损失。在这项工作中,我们假设对抗性扰动使图像远​​离图像流形,因为不存在可能产生对抗性图像的物理过程。该假设表明,针对对抗性图像的成功防御机制应旨在将图像投射回图像流形。我们研究了这样的防御机制,其通过对包含数十亿个图像的网络级图像数据库的最近邻搜索来近似投影到未知图像流形上。对ImageNets的这种防御策略的实证评估表明,它在攻击设置中非常有效,在攻击设置中攻城者无法访问图像数据库。我们还提出了两种新的攻击方法来打破最近邻防御,并展示最近邻防御失败的条件。我们进行了一系列的消融实验,这表明我们的防御在稳健性和准确性之间存在权衡,大型图像数据库(具有数亿个图像)对于获得良好性能至关重要,并且仔细构建图像数据库非常重要能够抵御攻击,以规避我们的防御。
translated by 谷歌翻译
深度学习是图像分类大幅改进的基础。为了提高预测的稳健性,贝叶斯近似已被用于学习深度神经网络中的参数。我们采用另一种方法,通过使用高斯过程作为贝叶斯深度学习模型的构建模块,由于卷积和深层结构的推断,这种模型最近变得可行。我们研究了深度卷积高斯过程,并确定了一个保持逆流性能的问题。为了解决这个问题,我们引入了一个转换敏感卷积内核,它消除了对相同补丁输入的要求相同输出的限制。我们凭经验证明,这种卷积核可以改善浅层和深层模型的性能。在ONMNIST,FASHION-MNIST和CIFAR-10上,我们在准确性方面改进了以前的GP模型,增加了更简单的DNN模型的校准预测概率。
translated by 谷歌翻译
目的:评估基于深度学习的高分辨率合成CT生成的可行性,从下臂的MRI扫描进行矫形应用。方法:训练条件生成性对抗网络从多回波MR图像合成CT图像。获得了9个离体下臂的MRI和CT扫描训练集,并将CT图像记录在MRI图像上。应用三重交叉验证以生成整个数据集的独立结果。合成CT图像用平均绝对误差度量和骰子相似度和皮质骨分割的表面距离进行定量评估。结果:总体组织体积的平均绝对误差为63.5HU,皮质骨的平均绝对误差为144.2HU。皮质骨分割的平均Dice相似性为0.86。骨与实验CT之间的平均表面与表面之间的距离为0.48mm。定性地,合成CT图像与实际CT扫描相对应,并且在骨小梁中部分维持高分辨率结构。合成CT图像上的骨分割显示肌腱有一些假阳性,但骨的一般形状被精确重建。结论:本研究表明,可以从下臂的MRI扫描中生成高质量的合成CT。骨骼分割的良好对应性表明,合成CT可以与依赖于这种分割的真实CT应用竞争,例如规划骨科手术和3D打印。
translated by 谷歌翻译
在本文中,我们提出了一种贝叶斯方法来估计神经网络的架构参数,即层大小和网络深度。我们通过学习这些参数的具体分布来做到这一点。我们的结果表明,具有学习结构的常规网络可以在小数据集上更好地推广,而完全随机网络可以更加稳健地参数初始化。所提出的方法依赖于标准的神经变分学习,并且与随机化架构搜索不同,不需要对模型进行训练,因此将计算开销保持在最小。
translated by 谷歌翻译