关于神经网络验证的先前工作集中于作为网络输出的线性函数的规范,例如,在输入的对抗扰动下的分类器输出的不变性。在本文中,我们扩展了验证算法,以便能够证明神经网络的更丰富的属性。为此,我们引入了一类凸 - 松弛规范,它构成了非线性规范,可以通过凸松弛来验证。我们表明,兴趣的一些重要属性可以在这个类中建模,包括在物理系统的学习动力学模型中保存能量;在预测手写数字总和的系统中,在对抗性扰动下的分类器输出标签的语义一致性和边界误差。我们的实验评估表明,我们的方法能够有效地验证这些规范。此外,我们的评估揭示了无法验证以满足这些规范的模型中的故障模式。因此,强调训练模型的重要性不仅仅是为了适应训练数据,还要与规范保持一致。
translated by 谷歌翻译
虽然深度学习已经在许多具有挑战性的问题上取得了显着的成果,但研究人员发现了神经网络在对抗设置中的脆弱性,其中对输入的小但精心选择的扰动可能使模型产生极不准确的输出。这使得这些模型特别不适用于安全性非常重要的安全关键应用领域(例如自动驾驶汽车)。最近的工作表明,用对抗生成的数据增强训练可以提供一定程度的抗测试时间攻击的稳健性。在本文中,我们研究了这种方法如何随着我们增加给予防御者的计算预算而扩展。我们表明,增加对象训练模型的参数数量会增加它们的鲁棒性,特别是对于较小的模型来说,而对抗整个集合作为单个模型是比单纯使用更大的单个模型更有效的花费预算的方式。至关重要的是,我们表明它是整体的对抗性训练,而不是对抗训练的模型的集合,它提供了强大的功能。
translated by 谷歌翻译
我们提出了一类优化方法,它们使用一阶梯度信息和一类凸函数实现线性收敛,这些凸函数比平滑和强凸函数大得多。这个较大的类包括其二阶导数在其最小值处可以是单数或无限的函数。我们的方法是共形哈密顿动力学的离散化,它概括了经典动量方法来模拟具有暴露于附加力的非标准动能的粒子运动和感兴趣函数的梯度场。它们是第一级的,因为它们只需要梯度计算。然而,关键的是,动力学梯度图可以被设计成以允许在非平滑或非强凸的凸函数上的线性会聚的方式结合关于凸共轭的信息。我们研究了一种隐式和两种显式方法。对于一种显式方法,我们提供了收敛到非凸函数静止点的条件。总而言之,我们提供了保证线性收敛的凸函数和kineticenergy对的条件,并表明这些条件可以通过功率增长的函数来满足。总之,这些方法扩展了可以通过一阶计算进行线性收敛的凸函数类。
translated by 谷歌翻译
我们考虑在强化学习中进行勘探 - 开发权衡,并且我们表明,充满风险寻求效用函数的代理人能够有效地进行探索,遗憾的是。控制寻求代理的寻求方法的参数可以精确优化,或根据计划退火。我们将得到的算法K学习称为并且表明相应的K值对于每个状态 - 动作对的预期Q值是乐观的。 K值引发了一个自然的玻尔兹曼探索策略,其中“温度”参数等于寻求风险的参数。该策略实现了预期的后悔限制:$ \ tilde O(L ^ {3/2} \ sqrt {S AT }),其中$ L $是时间范围,$ S $是状态数,$ A $是行动的数量,$ T $是经过时间步数的总数。这个边界只比建立的下限大$ L $ .K-learning可以解释为政策空间中的镜像下降,它与文献中其他众所周知的方法类似,包括Q-learning,soft- Q学习和最大熵策略梯度,与基于乐观和计数的探索方法密切相关。 K学习很容易实现,因为它只需要在每个状态动作中为奖励添加奖励然后解决Bellman等式。我们以数字示例结束,证明K-learning在实践中与其他最先进的算法竞争。
translated by 谷歌翻译
本文研究了最近提出的防御对抗性实例和评估对抗性稳健性的方法。我们将“对抗性风险”作为实现对最坏情况输入具有鲁棒性的模型的目标。然后,我们将常用的攻击和评估指标框定为真正的对抗风险的可控制的替代目标。这表明模型可以优化这种代理而不是真正的对抗风险。我们将这一概念形式化为“对对手的默默无闻”,并开发用于识别模糊模型和设计透明模型的工具和启发式。我们通过将无梯度优化技术重新用于对抗性攻击来证明这在实践中是一个重大问题,我们使用这种技术将最近提出的几种防御措施的准确性降低到接近零。我们希望我们的配方和结果能够帮助研究人员开发出更强大的防御能力。
translated by 谷歌翻译
我们考虑强化学习中的探索/开发问题。对于开发,众所周知,Bellman方程将任何时间步长的值连接到后续时间步长的期望值。在本文中,我们考虑了一个类似的\ textit {不确定} Bellman方程(UBE),它将任何时间步长的不确定性与后续时间步长的预期不确定性联系起来,从而将超越个人时间步长的潜在探索性利益扩展到各个时间步骤。我们证明了UBE的唯一不动点产生了任何政策引起的Q值后验分布方差的上界。这种约束可以比传统的基于计数的奖金更加严格,这种奖励会增加标准差而不是方差。重要的是,与现有的乐观方法不同,这种方法自然地扩展到具有复杂泛化的大型系统。在Atari套件中,57个游戏中的51个中,我们的UBE探索策略为$ \ epsilon $ -greedy提高了DQNperformance。
translated by 谷歌翻译
In this paper we demonstrate a simple heuristic adaptive restart techniquethat can dramatically improve the convergence rate of accelerated gradientschemes. The analysis of the technique relies on the observation that theseschemes exhibit two modes of behavior depending on how much momentum isapplied. In what we refer to as the 'high momentum' regime the iteratesgenerated by an accelerated gradient scheme exhibit a periodic behavior, wherethe period is proportional to the square root of the local condition number ofthe objective function. This suggests a restart technique whereby we reset themomentum whenever we observe periodic behavior. We provide analysis to showthat in many cases adaptively restarting allows us to recover the optimal rateof convergence with no prior knowledge of function parameters.
translated by 谷歌翻译
评估图像处理技术功效的传统指标无法理解现代图像处理方法的能力和局限性 - 特别是那些通过深度学习实现的方法。在工程解决方案中应用图像处理时,科学家或工程师需要使用clearmetrics来证明他们的设计决策。通过在图像处理之前和之后应用盲/无参考图像空间质量(BRISQUE),结构相似性(SSIM)指数得分和峰值信噪比(PSNR),我们可以以有意义的方式量化质量改进并确定给定方法的最低可恢复图像质量。
translated by 谷歌翻译
在这项研究中,我们介绍了EdgeSegNet,一种紧凑的深度卷积神经网络,用于语义分割任务。利用人机协同设计策略创建EdgeSegNet,其中原则性网络设计原型与机器驱动的设计探索相结合,创建具有针对任务定制的定制模块级宏架构和微架构设计的网络。实验结果表明,EdgeSegNet可以实现与更大和计算复杂的网络(比RefineNet更小的模型大小)相当的语义分割精度,以及在NVidia Jetson AGXXavier上实现~38.5 FPS的推理速度。因此,拟议的EdgeSegNet非常适合低功耗边缘场景。
translated by 谷歌翻译
我们引入了一种新的自适应裁剪技术,用于训练具有用户级差异隐私的学习模型,从而无需进行广泛的参数调整。此问题的先前方法使用FederatedStochastic Gradient Descent或Federated Averaging算法以及noisedupdates,并使用MomentsAccountant计算差异隐私保证。这些方法依赖于为模型选择每个用户更新的范数,需要仔细调整。最佳值取决于学习速率,模型架构,对每个用户数据的传递次数以及可能的各种其他参数。我们表明,基于对剪切规范的分布的目标分位数的不同的私有估计,自适应地设置应用于每个用户的更新的剪辑范数,足以消除对这种广泛的参数调整的需要。
translated by 谷歌翻译