未经授权远程访问来自网络摄像机的流式视频的风险突显了对更强大的隐私保护的需求。为此,我们模拟了一个无镜头编码孔径(CA)相机作为外观编码器,即第一层隐私保护。我们的目标是从编码孔径视频中进行人类动作识别,其编码孔径掩模未知并且不需要重建。我们通过使用基于相位相关和对数极坐标变换的不可逆运动特征来插入第二层隐私保护。相位相关对转换进行编码,而对数极坐标变换对面内旋转和缩放进行编码。 Weshow翻译功能的关键属性是掩码不变的。该属性允许我们通过消除对特定掩模设计的依赖来简化分类器的训练。基于UCF和NTUdatasets子集的结果显示了我们系统的可行性。
translated by 谷歌翻译
We present a framework to learn privacy-preserving en-codings of images that inhibit inference of chosen private attributes, while allowing recovery of other desirable information. Rather than simply inhibiting a given fixed pre-trained estimator, our goal is that an estimator be unable to learn to accurately predict the private attributes even with knowledge of the encoding function. We use a natural adversarial optimization-based formulation for this-training the encoding function against a classifier for the private attribute, with both modeled as deep neural networks. The key contribution of our work is a stable and con-vergent optimization approach that is successful at learning an encoder with our desired properties-maintaining utility while inhibiting inference of private attributes, not just within the adversarial optimization, but also by classifiers that are trained after the encoder is fixed. We adopt a rigorous experimental protocol for verification wherein clas-sifiers are trained exhaustively till saturation on the fixed encoders. We evaluate our approach on tasks of real-world complexity-learning high-dimensional encodings that inhibit detection of different scene categories-and find that it yields encoders that are resilient at maintaining privacy.
translated by 谷歌翻译
尽管在许多应用中通过深度学习获得了惊人的结果,但是在复杂环境中作用的代理人的真实智能行为可能需要某种更高级别的符号推断。因此,显然需要一般性的定义。低级任务之间的紧密集成,处理可以使用深度学习技术进行详细阐述的感官数据,以及允许人们在复杂环境中做出决策的逻辑推理。本文介绍了LYRICS,它是AI的通用接口层,在TersorFlow(TF)中实现。 LYRICS提供了一种输入语言,允许定义任意一阶逻辑(FOL)背景知识。 FOL知识的谓词和函数可以绑定到任何TF计算图,并且公式被转换成一组实值约束,其参与整体优化问题。这允许在先前知识所施加的约束下学习学习者的权重。框架是非常通用的,因为它对可以集成哪些模型或知识没有施加任何限制。在本文中,我们展示了该方法的一般性,显示了所提出语言的一些使用案例,包括生成模型,逻辑推理,模型检查和监督学习。
translated by 谷歌翻译
随着功能强大,低成本的物联网系统的出现,处理数据的数据越来越多,称为边缘计算,已成为一种越来越可行的选择。除了降低网络基础设施的成本之外,边缘计算还可以减少边缘云延迟,这是关键的关键应用。在本文中,我们展示了使用物联网设备进行图像分类的可行性和研究。具体来说,我们探讨了可能影响能耗的图像分类算法的各种因素之间的关系,如数据集大小,图像分辨率,算法类型,算法阶段和设备硬件。 Ourexperiments在三个预测变量之间显示出强烈的正线性关系,即模型复杂度,图像分辨率和数据集大小,与能耗有关。另外,为了提供预测执行图像分类的边缘设备的能量消耗的手段,我们使用从我们的实验产生的数据来研究三种机器学习算法的使用。讨论和验证了使用线性回归,高斯过程和随机森林的表现以及交易。我们的结果表明随机森林模型优于前两种算法,两个不同验证数据集的R平方值为0.95和0.79。
translated by 谷歌翻译
皮质突触组织支持多种空间和时间尺度上的一系列动态状态,从同步慢波活动(SWA),深度睡眠或麻醉的特征,到清醒期间的波动,异步活动(AW)。这种动态多样性对于产生有效的大规模模拟提出了挑战,这些模拟体现了短程和远程突触连接的真实隐喻。实际上,在SWA和AW期间,皮质组织的不同空间范围在给定的时间跨度和不同的水平上是活跃的,这意味着各种各样的局部计算和通信负荷。因此,对模拟性能和稳健性的平衡评估应包括各种皮质动态状态的测试。在这里,我们展示了我们专有的分布式塑料尖峰神经网络(DPSNN)仿真引擎在SWA和AW中的性能扩展,用于神经群体的二维网格,这反映了皮层的模块化组织。我们探索了高达192x192模块的网络,每个模块由1250个集成和激发神经元组成,具有尖峰频率自适应,并且指数衰减模块间突触连接,具有变化的空间衰减常数。对于最大的网络,突触总数超过700亿。执行平台包括多达64个双插槽节点,每个插槽安装8个Intel Xeon Haswell处理器内核@ 2.40GHzclock。网络初始化时间,内存使用和执行时间显示从1到1024个进程的良好扩展性能,使用标准消息传递接口(MPI)协议实现。对于模块间互连的探索范围内的两个皮质状态,我们实现了每秒2.3x10 ^ 9到4.1x10 ^ 9个突触事件的模拟速度。
translated by 谷歌翻译
自动学习任务的最佳激活功能是神经网络研究的一个活跃主题。目前,尽管结果很有希望,但仍然难以确定学习激活功能的方法,同时理论上简单且易于实现。此外,到目前为止提出的大多数方法都引入了新的参数或采用了不同的学习技术。在这项工作中,我们提出了一种简单的方法来获得训练的激活函数,该函数将神经网络局部子网络与少量神经元相加。实验表明,这种方法可以在使用预定义的激活函数方面获得更好的结果,而不需要引入需要学习的大量额外参数。
translated by 谷歌翻译
随机梯度下降(SGD)在机器学习中发挥了核心作用。然而,它需要精心挑选的步骤以实现快速收敛,这是非常繁琐且耗时的调整。在过去的几年中,大量基于自适应梯度的算法已经出现,以改善这一问题。事实证明,它们在实践中有效地减少了调整,但是即使在凸面设置中,它们中的许多也缺乏理论保证。在本文中,我们提出了新的替代损失,以便将学习非凸 - 平滑目标函数随机优化的最优步长的问题转化为在线凸优化问题。这允许使用无后悔的在线算法来动态计算最佳步长。反过来,这导致具有自调整步长的SGD算法保证了自动适应噪声水平的收敛速率。
translated by 谷歌翻译
我们考虑一个更高层次的两极抽象论证,用于非基本论证,例如:X反对Ys诚意与Y提出他的论点得出结论C的事实,通过省略其他无法证实的事实C.涉及这些论证的论证要求我们可能将一个论证视为一个连贯的论证块,即一个论证本身可能是一个论证。在这项工作中,我们将块论证作为具有论证双重性质的粪式双重抽象论证的具体实例。我们考虑在一组约束,图形(句法)和语义性质下的参数(ation)的内部一致性,并在与它们相关的条件下形成可接受的语义。我们发现经典的可接受性语义并不总是与约束相吻合。特别是,对于未经批准的论点的可接受性并不总是有理由的。此外,在完整语义中可能没有唯一的最小成员,因此怀疑(基础)语义可能不是其子集。为了保持理论上最小的语义作为完整语义的子集,我们定义了半接地语义。通过比较,我们展示了块论证的概念如何进一步推广结构化论证。
translated by 谷歌翻译
因子图缩减范式(FGrn)中的贝叶斯网络是实现推理图的强大范例。不幸的是,这些网络的计算和内存成本可能相当大,即使是相对较小的网络,这也是这些结构在实践中经常被充分利用的主要原因之一。在这项工作中,通过详细的算法和结构分析,提出了各种降低成本的解决方案。还分析了经典批量学习算法的在线版本,显示了非常相似的结果(在无监督的上下文中);即使要建造多层结构,这也是必不可少的。提出的解决方案以及可能的在线学习算法包含在C ++库中,该库非常有效,特别是与直接使用众所周知的和积和最大似然(ML)算法相比。结果将特别参考LatentVariable Model(LVM)结构进行讨论。
translated by 谷歌翻译
深度学习在联合学习特征表示和分类模型方面非常有效,特别是在处理高维输入模式时。另一方面,概率逻辑推理能够在复杂环境中采取一致且稳健的决策。深度学习和逻辑推理的整合仍然是一个开放性研究问题,它被认为是真正智能代理发展的关键。本文介绍了深度逻辑模型,它是深度图形模型,集成了学习和推理的深度学习和逻辑推理。 Deep LogicModels创建了一个端到端的可区分架构,深度学习者可以嵌入到网络中,实现对logicknowledge的持续放松。学习过程允许共同学习解析者的权重和控制高级推理的元参数。实验结果表明,所提出的方法取代了其他方法的局限性,这些方法已被提出用于桥接深度学习和推理。
translated by 谷歌翻译