贝叶斯优化(BO)是用于解决挑战优化任务的流行算法。它适用于目标函数评估成本昂贵的问题,可能无法以精确的形式提供,没有梯度信息并且可能返回噪声值。不同版本的算法在采集功能的选择上有所不同,它建议点在下一步查询目标。最初,研究人员专注于基于改进的收购,而最近注意力已经转移了计算上昂贵的信息理论措施。在本文中,我们提出了两个主要的文献贡献。首先,我们提出了一种新的基于改进的采集功能,该功能可以推荐高可信度提高的查询点。所提出的算法在全局优化文献的大量基准函数上进行评估,其中至少与当前最先进的采集函数一样,并且通常更好。这表明它是BO的强大默认选择。然后将新颖的策略与有用的全局优化求解器进行比较,以确认BO方法通过保持数量的函数评估较小来降低优化的计算成本。第二个主要贡献代表了对精准医学的应用,其中兴趣在于估计人肺血循环系统的偏微分方程模型的参数。一旦推断,这些参数可以帮助临床医生诊断患有肺动脉高压的患者,而无需通过右心导管插入术的标准侵入性程序,这可导致toside效应和并发症(例如严重疼痛,内出血,血栓形成)。
translated by 谷歌翻译
我们提出了一种技术,可以对存在不确定性的数据进行降维。我们的方法是传统的主成分分析(PCA)到多变量概率分布的推广。与非线性方法相比,线性降维技术具有以下优点:这种概率分布的特征在投影后保持完整。我们推导出协方差矩阵的表示,它尊重每个观测中的潜在不确定性,为我们的新方法不确定性感知PCA建立数学基础。除了我们的方法基于过采样的策略所获得的准确性和性能,我们的公式允许我们对数据的不确定性进行灵敏度分析。为此,我们提出将痕迹视为一种新颖的可视化,使我们能够更好地理解不确定性对所选主成分的影响。我们使用真实世界的数据集提供了我们的技术的多个例子,并展示了如何通过PCA以封闭形式拓展多变量正态分布。此外,我们讨论了我们方法的扩展和局限性。
translated by 谷歌翻译
机器视觉对机器人技术至关重要,因为它依赖于视觉传感器(如自动移动机器人和智能生产系统)的广泛应用。为了创建明天的智能家居和系统,对研究领域当前挑战的概述将用于识别以系统化和可再现的方式创建的进一步可能的方向。在这项工作中,进行了系统的文献回顾,涵盖了过去10年的研究。我们从四个数据库中筛选了172篇论文,并选出了52篇相关论文。虽然稳健性和计算时间得到了很大改善,但遮挡和光照变化仍然是最大的问题。根据最近出版物的数量,我们得出结论,观察领域与研究界具有相关性和关注性。在该领域的许多领域中出现了进一步的挑战。
translated by 谷歌翻译
在几个月的时间内收集的Sentinel-2多光谱图像用于估算加蓬(瑞士)的植被高度。训练了陡峭的卷积网络,从反射图像中提取合适的光谱和纹理特征,并回归每像素植被高度。在加蓬,训练和验证的参考高度来自机载LiDAR测量。在瑞士,参考高度取自现有的通过摄影测量表面重建得到的冠层高度模型。得到的地图在瑞士的平均绝对误差(MAE)为1.7米,加蓬的平均绝对误差为4.3米,并且正确地再现了高达> 50米的植被高度。它们与现有植被高度图也显示出良好的定性一致性。我们的工作表明,给定适量的参考数据,可以从Sentinel-2图像在国家范围内推导出具有10米地面采样距离(GSD)的密集植被高度图。
translated by 谷歌翻译
算法配置器是一种自动化方法,用于优化算法的参数以解决一类问题。我们评估一个简单随机局部搜索配置器(ParamRLS)的性能,用于调整RLS $ _k $算法的邻域大小$ k $。我们将性能测量为确定参数最佳值所需的预期配置评估数。我们分析截止时间$ \ kappa $(评估问题实例的配置的时间)对查找最佳参数值所需的预期配置评估次数的影响,我们使用最佳找到的适应值比较配置(ParamRLS-F) )或优化时间(ParamRLS-T)。我们考虑为Ridge函数类(Ridge *)的变体调整RLS $ _k $,其中每个参数值的性能在运行期间不会改变,而对于OneMax函数类,其中较长的运行有利于较小的$ k $。我们严格证明ParamRLS-F可以为任何$ \ kappa $有效地为Ridge *调整RLS $ _k $,而ParamRLS-T至少需要aquadratic。对于OneMax,ParamRLS-F将$ k = 1 $标识为线性$ \ kappa $的最佳值,而ParamRLS-T需要$ \ kappa $至少$ \ Omega(n \ log n)$。对于较小的$ \ kappa $ ParamRLS -F标识$ k> 1 $表现更好而paramRLS-T返回随机均匀选择的$ k $。
translated by 谷歌翻译
研究人员和金融专业人员需要强大的计算机化工具,使用户能够快速操作和评估财经新闻中的语义文本内容。然而,现有方法通常在文献层面工作,而对个别句子的实际结构和情感的深入洞察仍然模糊。因此,投资者需要应用最高的关注度和详细的,特定领域的知识,以便在细粒度的基础上评估信息。为了促进这种手动过程,本文提出使用分布式文本表示和多实例学习将信息从文档级转移到句子级。与替代方法相比,该方法具有优越的预测性能,同时保留了背景和可解释性。我们对手动标记数据集的分析产生了高达69.90%的预测准确度,超过了替代方法的性能至少3.80个百分点。因此,这项研究不仅有利于投资者的财务决策,而且还有助于公司按照预期传达他们的信息。
translated by 谷歌翻译
该研究提出了一种用于信息处理和信息融合的框架,该框架用于理解城市环境中人类生理变化的模式的时空多传感器数据。该框架包括信号频率统一,信号配对,信号滤波,信号量化和数据标记。此外,本文还有助于人类 - 环境相互作用研究,其中提出了一项实地研究,以了解环境特征的影响,如不同的声级,照度,视野或环境条件对人类的感知。在研究中,参与者各种人口背景在瑞士苏黎世的城市环境中穿行,同时佩戴生理环境传感器。除信号处理外,还应用四种机器学习技术,分类,基于模糊规则的推理,特征选择和聚类,发现参与者的生理反应和环境条件之间的相关模式和关系。具有高精度的预测模型表明,视野的变化对应于参与者唤醒的增加。在所有特征中,参与者的生理反应主要受环境条件和视野的变化影响。
translated by 谷歌翻译
我们提出了一种方法来超越(空中)图像的像素方式,语义分割并直接预测矢量表示中的对象。 PolyMapperpredicts城市地图从航拍图像作为多边形的集合与可用的框架。我们的方法不是通常的语义分割,形状改进,多边形转换和多边形细化的多步骤过程,而是学习单一网络架构的映射并直接输出映射。我们证明了我们的方法能够绘制建筑物和道路网络的多边形,这些多边形非常接近现有在线地图(如OpenStreetMap)的结构,并且它以非常自动化的方式实现。对几个城市现有和新颖的大规模数据集的验证表明,我们的方法可以达到良好的性能水平。
translated by 谷歌翻译
我们在先前的噪声模型中分析了众所周知的进化算法(1 + 1)EA和(1 + $ \ lambda $)EA的性能,其中在每个适应度评估中,在评估之前改变了研究点,概率为$ p $。我们在函数LeadingOnes上提供了(1 + 1)EA和(1 + $ \ lambda $)EA的预期优化时间的定义结果,其中位必须是优化的序列。之前的工作表明,如果$ p = O((\ log n)/ n ^ 2)$,则LeadingOnes上的(1 + 1)EA运行在多项式预期时间内,如果$ p = \ omega((\ log n),则需要超多项式时间/ n)$,留下了一个巨大的差距,其中noresults已知。我们通过显示预期的优化时间是$ \ Theta(n ^ 2)\ cdot \ exp(\ Theta(\ min \ {pn ^ 2,n \}))$来解决这个差距所有$ p \ le 1/2 $,允许第一次在$ p = \ Theta((\ log n)/ n ^ 2)$中找到多项式和超多项式预期时间之间的阈值。因此,(1 + 1)EAon LeadingOnes比以前认为的对噪声更敏感。我们还发现,大小为$ \ lambda \ ge 3.42 \ log n $的后代种群可以有效地处理比以前更高的噪音。最后,我们提供了一个崎岖景观的例子,其中先前的噪声可以通过模糊景观并允许登山者看到下面的梯度来帮助逃离局部最佳。我们证明,在这个细节中,噪音可以对性能产生非常有益的影响。
translated by 谷歌翻译
计算机视觉社区目睹了图像中场景分类的最新进展,最先进的系统现在在诸如Places365dataset等具有挑战性的基准测试中实现了令人印象深刻的识别率。这些系统已经在包括颜色,纹理和阴影线索的照片上进行了训练。由thecenene轮廓传达的形状和表面的几何形状没有明确地考虑用于该任务。值得注意的是,人类可以准确地识别线条图中的自然场景,其中包括基于轮廓的形状线索。在这里,我们报告了第一个关于线图的场景分类的计算机视觉研究,该线图来自流行的数据库,包括艺术家场景数据库,MIT67和Places365。具体来说,我们使用现成的预先培训的CNN来执行场景分类,仅将会议信息作为输入,并且发现性能水平远高于机会。我们还表明,基于内侧轴的轮廓显着性方法可用于选择轮廓像素的更多信息子集,并且CNN分类性能对这些子集的各种选择的变化在人类表现中观察到的定性相似。此外,当使用健康措施来对轮廓进行加权时,与修剪它们相反,我们发现这些权重可以将我们的CNN性能提升到高于非加权轮廓输入的性能。也就是说,基于中轴的显着性权重似乎是当CNN被训练为单独使用等高线时不可用的有用信息。
translated by 谷歌翻译