在产生无形的后门攻击中毒数据期间,特征空间转换操作往往会导致一些中毒特征的丧失,并削弱了与触发器和目标标签之间的源图像之间的映射关系,从而导致需要更高的中毒率以实现相应的后门攻击成功率。为了解决上述问题,我们首次提出了功能修复的想法,并引入了盲水印技术,以修复在中毒数据中损失的中毒特征。在确保一致的标签的前提下,我们提出了基于功能维修的低毒速率看不见的后门攻击,名为FRIB。从上面的设计概念中受益,新方法增强了源图像与触发器和目标标签之间的映射关系,并增加了误导性DNN的程度,从而获得了高后门攻击成功率,中毒率非常低。最终,详细的实验结果表明,在所有MNIST,CIFAR10,GTSRB和Imagenet数据集中实现了高成功攻击成功率的高成功率的目标。
translated by 谷歌翻译
环境的语义(例如地形类型和属性)揭示了腿部机器人调整其行为的重要信息。在这项工作中,我们提出了一个框架,该框架从对四足动物的知觉中学习语义感知的运动技能,以便使用感知信息的机器人可以以适当的速度和步态穿越复杂的越野地形。由于缺乏高保真性户外模拟,我们的框架需要直接在现实世界中进行培训,这带来了数据效率和安全性的独特挑战。为了确保样本效率,我们使用越野驾驶数据集预先培训感知模型。为了避免现实世界政策探索的风险,我们利用人类演示来训练速度政策,从相机图像中选择所需的前进速度。为了获得最大的遍历性,我们将速度策略与步态选择器配对,该步态选择器为每个前进速度选择了强大的运动步态。仅使用40分钟的人类演示数据,我们的框架就可以根据感知的地形语义来调整机器人的速度和步态,并使机器人能够以近距离的速度行驶超过6公里。
translated by 谷歌翻译
生成对抗网络的广泛应用受益于成功的训练方法,保证对象功能会聚到本地最小值。然而,由于基于梯度的方式的循环行为和基于Hessian矩阵的这些方法的昂贵计算成本,设计了高效竞争的训练方法仍然是一个具有挑战性的任务。本文提出了自适应复合梯度(ACG)方法,在合适的设置下线性收敛。理论和玩具功能实验表明,我们的方法可以缓解循环行为,并比最近提出的算法更快地收敛。值得注意的是,ACG方法不仅用于在双线性游戏以及一般游戏中找到稳定的固定点。 ACG方法是一种新的半渐变算法,因为它不需要计算每个步骤的梯度,通过利用未来迭代中的预测信息来降低梯度和黑森州的计算成本。我们通过将ACG与线性GANS集成到现有算法来进行高斯实验的两种混合。结果显示ACG与先前的算法具有竞争力。具有DCGANS的四个普遍数据集(Mnist,Fashion-Mnist,CIFAR-10和Celeba)的现实实验表明我们的ACG方法优于多个基线,说明了我们方法的优越性和功效。
translated by 谷歌翻译
我们提出了一种新的频谱分配策略,在无监督的学习中为多源Terahertz通信系统提供了帮助。在此策略中,自适应子频段带宽被认为是使感兴趣的频谱可以分为具有不等带宽的子兰。该策略减少了用户分子吸收损失的变化,从而改善了数据速率的性能。我们首先制定了一个优化问题,以确定最佳的子频段带宽并传输功率,然后提出了基于学习的方法,以获取针对此问题的近乎最佳解决方案。在拟议的方法中,我们首先训练一个深神经网络(DNN),同时利用损失函数,该损失功能受到法式问题的拉格朗日的启发。然后使用训练有素的DNN,我们近似近乎最佳的解决方案。数值结果表明,与现有方法相比,我们提出的基于学习的方法达到了更高的数据速率,尤其是当感兴趣频谱内的分子吸收系数以高度非线性的方式变化时。
translated by 谷歌翻译
在过去的几年中,对MPMRI的恶性前列腺癌患者进行了自动诊断。模型解释和域漂移一直是临床利用的主要路障。作为我们以前的工作的扩展,我们在公共队列上培训了一个定制的卷积神经网络,其中有201名患者和感兴趣区域周围的裁剪2D斑块作为输入,将前列腺的2.5d片用作前列腺的2.5d片。使用Autokeras在模型空间中搜索了输入和最佳模型。外围区(PZ)和中央腺(CG)分别进行了训练和测试,有效地证明了一些不同的东西,PZ探测器和CG探测器有效地展示了序列中最可疑的切片,希望极大地减轻医生的工作量。
translated by 谷歌翻译
目的:在手术规划之前,CT图像中肝血管的分割是必不可少的,并引起了医学图像分析界的广泛兴趣。由于结构复杂,对比度背景下,自动肝脏血管分割仍然特别具有挑战性。大多数相关的研究采用FCN,U-Net和V-Net变体作为骨干。然而,这些方法主要集中在捕获多尺度局部特征,这可能导致由于卷积运营商有限的地区接收领域而产生错误分类的体素。方法:我们提出了一种强大的端到端血管分割网络,通过将SWIN变压器扩展到3D并采用卷积和自我关注的有效组合,提出了一种被称为电感偏置的多头注意船网(IBIMHAV-NET)的稳健端到端血管分割网络。在实践中,我们介绍了Voxel-Wise嵌入而不是修补程序嵌入,以定位精确的肝脏血管素,并采用多尺度卷积运营商来获得局部空间信息。另一方面,我们提出了感应偏置的多头自我关注,其学习从初始化的绝对位置嵌入的归纳偏置相对位置嵌入嵌入。基于此,我们可以获得更可靠的查询和键矩阵。为了验证我们模型的泛化,我们测试具有不同结构复杂性的样本。结果:我们对3Dircadb数据集进行了实验。四种测试病例的平均骰子和敏感性为74.8%和77.5%,超过现有深度学习方法的结果和改进的图形切割方法。结论:拟议模型IBIMHAV-Net提供一种具有交错架构的自动,精确的3D肝血管分割,可更好地利用CT卷中的全局和局部空间特征。它可以进一步扩展到其他临床数据。
translated by 谷歌翻译
6D在杂乱的场景中抓住是机器人操纵中的长期存在。由于状态估计不准确,开环操作管道可能会失败,而大多数端到端的掌握方法尚未缩放到具有障碍物的复杂场景。在这项工作中,我们提出了一种新的杂乱场景掌握的最终学习方法。我们的分层框架基于部分点云观测学习无碰撞目标驱动的抓取性。我们学习嵌入空间来编码培训期间的专家掌握计划和一个变形式自动化器,以在测试时间上采样不同的抓握轨迹。此外,我们培训批评网络的计划选择和选项分类器,用于通过分层加强学习切换到实例掌握策略。我们评估我们的方法并与仿真中的几个基线进行比较,并证明我们的潜在规划可以概括为真实的杂乱场景掌握任务。我们的视频和代码可以在https://sites.google.com/view/latent-grasping中找到。
translated by 谷歌翻译
分子动力学模拟是许多科学领域中的宝贵工具。但是,无处不在的经典力场无法描述反应性系统,量子分子动力学在计算上要求太大,无法处理大型系统或长时间尺度。基于物理或机器学习的反应力场可以在时间和长度尺度上弥合差距,但是这些力场需要大量努力来构建,并且对给定的化学组成和应用高度特异性。机器学习模型的一个重要局限性是使用特定于元素的功能,导致模型随着元素数量而缩小范围很差。这项工作介绍了高斯多极(GMP)特征化方案,该方案利用了原子周围电子密度的物理相关的多极膨胀,以产生特征向量,这些向量在元素类型之间插值并且具有固定尺寸,而不管存在的元素数量。我们将GMP与神经网络相结合,将其直接与MD17数据集的广泛使用的Beller-Parinello对称函数进行比较,从而表明它表现出提高的准确性和计算效率。此外,我们证明了基于GMP的模型可以实现QM9数据集的化学准确性,即使推断到新元素时,它们的准确性仍然是合理的。最后,我们测试了基于GMP的开放式催化项目(OCP)数据集的模型,揭示了与图形卷积深度学习模型相当的性能。结果表明,这种特征方案填补了有效且可转移的机器学习力场的构建方面的关键空白。
translated by 谷歌翻译
近年来,机器学习(ML)在化学信息学和电子结构理论领域中广受欢迎。这些技术通常需要研究人员来设计摘要的“特征”,这些特征将化学概念编码为与机器学习模型的输入兼容的数学形式。但是,没有现有的工具可以将这些抽象功能连接回实际的化学系统,从而使诊断失败并建立有关功能含义的直觉变得困难。我们提出了Electrolens,这是一种新的可视化工具,用于高维空间分辨的特征,以解决此问题。该工具通过一系列链接的3D视图和2D图可视化原子和电子环境特征的高维数据集。该工具能够通过交互式选择在3D中连接不同的派生功能及其相应区域。它的构建是可扩展的,并与现有基础架构集成。
translated by 谷歌翻译
Masked image modeling (MIM) performs strongly in pre-training large vision Transformers (ViTs). However, small models that are critical for real-world applications cannot or only marginally benefit from this pre-training approach. In this paper, we explore distillation techniques to transfer the success of large MIM-based pre-trained models to smaller ones. We systematically study different options in the distillation framework, including distilling targets, losses, input, network regularization, sequential distillation, etc, revealing that: 1) Distilling token relations is more effective than CLS token- and feature-based distillation; 2) An intermediate layer of the teacher network as target perform better than that using the last layer when the depth of the student mismatches that of the teacher; 3) Weak regularization is preferred; etc. With these findings, we achieve significant fine-tuning accuracy improvements over the scratch MIM pre-training on ImageNet-1K classification, using all the ViT-Tiny, ViT-Small, and ViT-base models, with +4.2%/+2.4%/+1.4% gains, respectively. Our TinyMIM model of base size achieves 52.2 mIoU in AE20K semantic segmentation, which is +4.1 higher than the MAE baseline. Our TinyMIM model of tiny size achieves 79.6% top-1 accuracy on ImageNet-1K image classification, which sets a new record for small vision models of the same size and computation budget. This strong performance suggests an alternative way for developing small vision Transformer models, that is, by exploring better training methods rather than introducing inductive biases into architectures as in most previous works. Code is available at https://github.com/OliverRensu/TinyMIM.
translated by 谷歌翻译