目前,没有一致的模型用于在视觉上或正式地表示AI系统的架构。这种缺乏代表性在现有模型和系统的描述中带来了解释性,正确性和完整性挑战。 DIAL(图解人工智能语言)是为人工智能系统作为“工程原理图”的愿望而创建的。它在此作为AI系统的通用图解语言的社区对话的起点。
translated by 谷歌翻译
在这项工作中,我们提出了一种在时间图中嵌入节点的方法。我们提出了一种算法,该算法随时间学习时间图的节点的渐变,并将该动态结合在用于不同图形预测任务的时间节点嵌入框架中。我们提出了一种联合损失函数,其通过学习组合其历史时间嵌入​​来创建节点的时间嵌入,使得它优化每个给定任务(例如,链接预测)。该算法使用静态节点嵌入进行初始化,然后静态节点嵌入在不同时间点的节点表示上对齐,并最终在联合优化中适应给定任务。我们评估了我们的方法在各种时间图上的有效性,用于时间链路预测和多标签节点分类这两个基本任务,与竞争基线和算法替代方案相比较。我们的算法显示了许多数据集和基线的性能改进,并且对于具有较低聚类系数的无粘性图形尤其有效。
translated by 谷歌翻译
加权模型集成(WMI)将加权模型计数(WMC)扩展到混合离散连续域上的函数集成。它在解决图形模型和概率编程中的推理问题方面具有显着的前景。然而,WMI的最先进工具是有限的性能间隔,忽略了对提高效率至关重要的独立结构。为了解决这个局限性,我们提出了一种有效的模型积分算法,用于具有树原始图的理论。我们通过使用搜索来执行集成来利用稀疏图结构。我们的算法大大提高了这些问题的计算效率,并利用了变量之间的特定于文本的独立性。实验结果表明,与现有的WMI求解器相比,树形依赖性问题的实际加速比较。
translated by 谷歌翻译
本文提出了一种新的分类模型,称为逻辑电路。在ONMNIST和Fashion数据集中,我们的学习算法优于具有更多参数数量级的神经网络。然而,逻辑电路在符号AI中具有明显的起源,形成区别对应的拓扑逻辑电路,例如AC,SPN和PSDD。我们证明了逻辑电路的参数学习是凸优化,而简单的局部搜索算法可以从数据中引出强大的模型结构。
translated by 谷歌翻译
越来越多的可用数据导致了对代表大规模概率知识库的更高需求。一种方法是使用概率数据库,这是一种具有强大假设的模型,可以有效地回答许多有趣的查询。最近关于开放世界概率数据库的工作通过抛弃数据中不存在的任何信息必须是假的假设来加强这些概率数据库的语义。虽然直观,但这些语义并不足以为查询提供合理的答案。我们建议通过使用约束来限制这个开放世界来克服这些问题。我们为一类查询提供了算法,并建立了基本的硬度结果。最后,我们为大类查询提出了一种有效且紧密的近似。
translated by 谷歌翻译
In the general submatrix detection problem, the task is to detect the presence of a small k × k subma-trix with entries sampled from a distribution P in an n × n matrix of samples from Q. This formulation includes a number of well-studied problems, such as biclustering when P and Q are Gaussians and the planted dense subgraph formulation of community detection when the submatrix is a principal minor and P and Q are Bernoulli random variables. These problems all seem to exhibit a universal phenomenon: there is a statistical-computational gap depending on P and Q between the minimum k at which this task can be solved and the minimum k at which it can be solved in polynomial time. Our main result is to tightly characterize this computational barrier as a tradeoff between k and the KL divergences between P and Q through average-case reductions from the planted clique conjecture. These computational lower bounds hold given mild assumptions on P and Q arising naturally from classical binary hypothesis testing. In particular, our results recover and generalize the planted clique lower bounds for Gaussian biclustering in [MW15, BBH18] and for the sparse and general regimes of planted dense subgraph in [HWX15, BBH18]. This yields the first universality principle for computational lower bounds obtained through average-case reductions. To reduce from planted clique to the submatrix detection for a specific pair P and Q, we introduce two techniques for average-case reductions: (1) multivariate rejection kernels which perform an algorithmic change of measure and lift to a larger submatrix while obtaining an optimal tradeoff in KL divergence, and (2) a technique for embedding adjacency matrices of graphs as principal minors in larger matrices that handles distributional issues arising from their diagonal entries and the matching row and column supports of the k × k submatrix. We suspect that these techniques have applications in average-case reductions to other problems and are likely of independent interest. We also characterize the statistical barrier in our general formulation of submatrix detection.
translated by 谷歌翻译
我们通过实证研究探索和竞争之间的相互作用。从与用户交互中学习的系统经常参与探索:做出潜在的次优决策,以获取未来决策的新信息。然而,当多个系统竞争同一个用户市场时,探索可能会在短期内损害系统的声誉,从而产生不利的竞争效应。特别是,当短期声誉成本减少系统要学习的用户数量时,系统可能输入“死亡螺旋”,这会降低其相对于竞争的性能并进一步降低其市场份额。我们询问是否有更好的探索算法在竞争中受到激励。我们在一个程式化的双寡头模型中进行了广泛的数值实验,其中两家公司部署多臂强盗算法并竞争近视用户。我们发现,垄断和垄断倾向于支持一种原始的“贪婪算法”,这种“贪婪算法”不会探索并导致低消费者福利,而当代垄断(具有早期参与者的双寡头)可能会激励更好的带宽算法并导致更高的消费者福利。我们的研究结果通过探索数据可以作为进入在线市场的障碍的角色,揭示了数字经济中的先发优势。
translated by 谷歌翻译
我们提出了一个框架,用于在自适应命令和控制接口的上下文中从话语中引入语义帧。系统根据个人用户的话语和表示控件的相应语义框架进行训练。在训练期间,没有关于话语片段与帧时隙和值之间的对齐的先验信息。此外,训练数据中的语义帧可以包含未在话语中表达的信息。为了解决这种弱监督分类任务,我们提出了一个基于隐马尔可夫模型(HMM)的框架。引入了导致分层HMM的结构修改和称为表达共享的扩展,以最小化用户所需的训练时间和精力。用于本研究的数据集是PATCOR,其包含在声音引导的纸牌游戏Patience的上下文中的命令。实验是在命令的正交和语音转录上进行的,在不同水平的n-gram粒度上进行分段。实验结果表明所有研究的系统扩展都有正面影响,不同输入表示之间存在一些影响差异。此外,对具有最佳系统配置的保持数据的评估实验表明,扩展系统能够以相对较小的训练数据实现高精度。
translated by 谷歌翻译
大规模有效的河流洪水预报受到众多因素的阻碍,最明显的是需要依靠当前方法中的人体校准,特定地点的有限数据量以及建立足够准确的大陆/全球水平模型的计算难度。机器学习(ML)在这种情况下非常有用:学习模型在复杂的高维场景中经常超越人类专家,而传递或多任务学习框架是利用本地信号来提高全局性能的有吸引力的解决方案。我们建议在这些优势的基础上,开发MLsystems,以便及时准确地预测河流洪水。
translated by 谷歌翻译
原型分析是一种因子分析,其中数据由aconvex多面体拟合,其角是数据的“原型”,数据表示为这些原型点的凸组合。虽然典型分析已用于生物数据,但尚未实现广泛采用,因为大多数数据不适合环境空间或标准数据转换后的凸多胞形。我们提出了一种新的原型分析方法。我们不是在数据上或在特定数据转换后对多边形进行拟合,而是训练神经网络(AAnet)来学习数据最适合多面体的转换。我们在合成数据上验证了这种方法,其中我们添加了非线性。在这里,AAnet是唯一正确识别原型的方法。我们还在两个生物数据集上展示了AAnet。在用单细胞RNA测序测量的T celldataset中,AAnet识别对应于幼稚,记忆和细胞毒性T细胞的半鞘状态。在肠道微生物组概况的adataset中,AAnet恢复了先前描述的微生物状态并且识别数据中的新极值。最后,我们展示了AAnet具有生成属性,允许我们从数据几何中均匀地采样,即使输入数据不均匀分布。
translated by 谷歌翻译