事件相机是生物灵感的传感器,与传统相机完全不同。它们不是以固定速率捕获图像,而是以异步方式测量像素亮度变化。这导致了一系列事件,它们对亮度变化的时间,位置和符号进行编码。与传统相机相比,事件相机具有出色的性能:非常高的动态范围(140 dB与60 dB),高时间分辨率(按照微秒),低功耗,不受运动障碍的影响。因此,事件相机在传统相机的挑战场景中具有很大的机器人和计算机视觉潜力,例如高速和高动态范围。然而,需要新颖的方法来处理这些传感器的非常规输出以释放它们的潜力。本文全面概述了基于事件的视觉新兴领域,重点介绍了为解锁事件摄像机的突出特性而开发的应用程序和算法。我们从他们的工作原理,可用的实际传感器和他们已经使用的任务,从低级视觉(特征检测和跟踪,光流等)到高级视觉(重建,分割,识别)呈现事件摄像机)。我们还讨论了为处理事件而开发的技术,包括基于学习的技术,以及这些新型传感器的专用处理器,例如尖峰神经网络。此外,我们还要强调仍有待解决的挑战,以及寻求更有效,生物启发的方式,使机器能够接受世界并与之互动的机会。
translated by 谷歌翻译
神经网络捕获关系知识的能力是一个长期存在争议的问题。最近,PDP的一些研究人员认为,(1)经典PDP模型可以处理关系结构(Rogers&McClelland,2008,2014)和(2)深度学习方法对文本处理的成功表明结构化表示是不必要的。捕捉人类语言的要点(Rabovsky等,2018)。在目前的研究中,我们测试了Story Gestalt模型(St. John,1992),一个经典的文本理解PDP模型,以及一个带有注意力模型的序列到序列(Bahdanau等,2015),一个当代深度学习架构的文本处理。两个模型都经过培训,可以根据几个概念在故事中扮演的主题角色回答有关故事的问题。在三个关键测试中,我们改变了新故事的统计结构,同时保持他们的关系结构在训练数据方面保持不变。每个模型都容易受到每个统计结构操纵到不同程度的影响,他们的表现低于机会,至少不能操纵。我们认为两种模型的失败都是由于它们无法对独立角色和填充物进行动态绑定这一事实。最后,这些结果使传统神经网络模型适用于解释基于关系推理的现象,包括语言处理。
translated by 谷歌翻译
ArCo是意大利文化遗产知识图,由七个词汇网络和1.69亿个三倍体组成,约有82万个文化实体。它与SPARQL端点,用于将目录记录转换为RDF的软件以及丰富的文档材料(测试,评估,操作方法,示例等)共同分发。 ArCo基于意大利文化遗产和活动部(MiBAC)的官方总目录 - 及其相关的编码规则 - 收集和验证(理想情况下)CH管理员提供的所有意大利文化遗产特性(不包括图书馆和档案馆)的目录记录。遍布意大利。我们介绍其结构,设计方法和工具,其增长社区,并描述其重要性,质量和影响。
translated by 谷歌翻译
作为实例级识别问题,人员重新识别(ReID)依赖于判别特征,其不仅捕获不同的空间尺度而且还封装多个尺度的任意组合。 Wecall同构和异构尺度的全尺度特征的这些特征。在本文中,设计了一种新的深度CNN,称为Omni-ScaleNetwork(OSNet),用于ReID中的全方位特征学习。这是通过设计由多个卷积特征流组成的残差块来实现的,每个卷积特征流检测特定尺度的特征。重要的是,引入了一种新颖的统一聚集门,以动态融合多尺度特征的输入相关的信道方向权重。为了有效地学习空间 - 通道相关并避免过度拟合,构建块使用逐点和深度卷积。通过逐层堆叠这些块,我们的OSNet非常轻巧,可以在现有的ReIDbenchmarks上从头开始进行培训。尽管模型尺寸较小,但我们的OSNet在六人ReID数据集上实现了最先进的性能。
translated by 谷歌翻译
真实世界的自动驾驶车辆通常在先验的非知识环境中运行。由于这些系统中的大多数都是安全关键的,因此确保它们在面对环境不确定性(例如看不见的障碍物)时安全运行非常重要。当前的安全分析工具使得自治系统能够在给出有关环境状态的完整信息的情况下对安全性进行审查。但是,这些工具无法很好地适应实时感测环境的情况,例如在导航任务期间。在这项工作中,我们提出了一种基于哈密尔顿 - 雅可比可达性的新型实时安全分析方法,该方法在环境不确定的情况下提供了强有力的安全保证。我们的安全方法与计划者无关,并为各种测绘传感器提供保证。我们展示了我们的方法模拟和硬件,以围绕最先进的基于视觉的,基于学习的规划器提供安全保障。
translated by 谷歌翻译
人工智能(AI)应用程序被用于预测和评估多个领域的行为,例如刑事司法和消费者财务,这直接影响人类福祉。但是,如果AI是为了改善人们的生活,那么人们必须能够信任AI,这意味着能够理解系统正在做什么以及为什么。尽管在这种情况下透明度通常被视为要求,但实际上它可能并不总是可行的或可取的,而确保系统在设定的道德范围内运行的需要仍然存在。在本文中,我们提出了一种方法,在监测其输入和输出的基础上,评估人工智能系统的道德界限。我们通过将道德价值映射到限制输入和输出的明确可验证规范,在系统周围放置一个“玻璃盒子”,这样如果这些仍然在框内,我们可以保证系统坚持价值。对输入和输出的关注允许对完全不同的智能系统进行验证和比较;来自深度神经网络的基于代理的系统。将抽象道德价值观明确转化为具体规范,在可解释性方面带来了巨大的好处;利益相关者确切地知道该制度如何解释和运用相关的抽象道德人类价值并相应地校准他们的信任。此外,通过在更高级别操作,我们可以检查系统是否符合相同值的不同解释。这些优势将对人工智能系统用户的福祉产生影响,建立他们的信任并为他们提供有关系统如何遵守道德价值观的具体知识。
translated by 谷歌翻译
用于无监督表示学习的最先进方法可以训练标准卷积神经网络的前几层,但是它们不如针对更深层的监督学习那么好。这可能是由于浅层的一般性和相对简单的性质;然而,这些方法被应用于数百万张图像,由于未标记的数据收集起来很便宜,因此可扩展性被宣传为主要优势。在本文中,我们质疑这种做法,并询问是否真的需要这么多图像才能容忍无监督学习效果最好的图层。我们的主要结果是,一些甚至单个图像以及强大的数据增强功能足以使性能几乎达到饱和。具体来说,我们提供了三种不同的自我监督特征学习方法(BiGAN,RotNet,DeepCluster)与训练图像数量(1,10,1000)的分析,并表明我们只使用公共网络的前两个卷积层的准确性。单个未标记的训练图像,并获得其他层的竞争结果。我们进一步研究和可视化学习表示作为哪个(单个)图像用于训练的功能。我们的结果也可以通过浅层不同网络捕获哪种类型的信息。
translated by 谷歌翻译
考虑到i.i.d,我们考虑在$ d $ -dimensional球体上学习关于平方损失的未知函数$ f _ {\ star} $的问题。 samples $ \ {(y_i,{\ boldsymbol x} _i)\} _ {i \ le n} $其中$ {\ boldsymbol x} _i $是一个均匀分布在球体上的特征向量,$ y_i = f _ {\ star} ({\ boldsymbolx} _i)$。我们研究了两种流行的模型,可以看作围绕随机初始化的两层神经网络的线性化:(RF)Rahimi-Recht的随机特征模型; (NT)Jacot-Gabriel-Hongler的神经切线核模型。这两种方法也可以被视为核岭回归(相对于不同内核)的随机近似,因此当神经元$ N $的数量发散时,对于固定维度$ d $,它们享有通用近似属性。我们证明,如果$ d $和$ N $都很大,这些模型的行为就非常简单了。如果$ N = o(d ^ 2)$,那么就原始特征$ {\ boldsymbol x} _i $而言,RF的表现并不比线性回归更好,而且对于一级和二级的一级和二级,NT的表现并不比线性回归好。 $ {\ boldsymbol x} _i $。更一般地说,如果$ N = o(d ^ {\ ell + 1})$那么RF最多适合一个度 - 原始特征中的$ \ ell $多项式,以及最多一度的NTfits - $(\ ell + 1 )$多项式。
translated by 谷歌翻译
最近在许多不同的应用领域中对机器学习(ML)技术给予了极大的关注。本文提供了ML在电力线通信(PLC)中可以做什么的愿景。我们首先简要描述ML的经典公式,并将确定性问题与通信相关的统计问题区分开来。然后,我们讨论PLC中每层的ML应用,即表征和建模,物理层算法,媒体访问控制和网络算法。最后,分析了可以从ML的使用中受益的PLC的其他应用,如网格诊断。举例说明了数字示例,以便在该刺激信号/数据处理领域中验证想法并激励未来的研究工作。
translated by 谷歌翻译
面部标志被用于许多研究领域,如面部识别,颅面识别,年龄和性别估计等重要性。在法医领域,重点是分析面部地标的细节,定义为头部测量标志。以前的工作证明,这些解剖学参考文献的间接应用(照片 - 人体测量学描述)的描述性充分性提高了这些点的标记精度,有助于提高这些分析的可靠性。但是,大多数都是手动执行的,并且专家审查员固有的所有主观性。从这个意义上讲,这项工作的目的是开发和验证自动技术,从法医领域的正面数字图像中检测头部测量标志。所提出的方法在监督学习过程中使用计算机视觉和图像处理技术的组合。所提出的方法获得与一组人类手动头部测量参考标记类似的精确度,并且导致更准确地对抗其他最先进的面部标志检测框架。它实现了0.014的标准化平均距离(以像素为单位)误差,类似于平均专家间离散度(0.009),并且明显优于其他自动方法,也分析了这项工作(0.026和0.101)。
translated by 谷歌翻译