Neyman-Scott processes (NSPs) are point process models that generate clusters of points in time or space. They are natural models for a wide range of phenomena, ranging from neural spike trains to document streams. The clustering property is achieved via a doubly stochastic formulation: first, a set of latent events is drawn from a Poisson process; then, each latent event generates a set of observed data points according to another Poisson process. This construction is similar to Bayesian nonparametric mixture models like the Dirichlet process mixture model (DPMM) in that the number of latent events (i.e. clusters) is a random variable, but the point process formulation makes the NSP especially well suited to modeling spatiotemporal data. While many specialized algorithms have been developed for DPMMs, comparatively fewer works have focused on inference in NSPs. Here, we present novel connections between NSPs and DPMMs, with the key link being a third class of Bayesian mixture models called mixture of finite mixture models (MFMMs). Leveraging this connection, we adapt the standard collapsed Gibbs sampling algorithm for DPMMs to enable scalable Bayesian inference on NSP models. We demonstrate the potential of Neyman-Scott processes on a variety of applications including sequence detection in neural spike trains and event detection in document streams.
translated by 谷歌翻译
自20世纪90年代初以来,Ransomware一直是正在进行的问题。最近的时间赎金软件从传统的计算资源传播到网络物理系统和工业控制。我们设计了一系列实验,其中虚拟实例被勒索软件感染。我们通过各种指标(CPU,内存,磁盘实用程序)来介绍该实例并收集资源利用数据。我们设计一个识别赎金软件执行的变更点检测和学习方法。最后,我们评估并展示其在培训在最小的样本集上时及时地检测勒索软件的能力。我们的结果代表了辩护的一步,我们的结论是对前进路径的进一步评论。
translated by 谷歌翻译
估计值函数是增强学习算法的核心组件。时间差异(TD)学习算法使用自引导,即,它们在随后的时间步骤中使用值估计更新朝向学习目标的值函数。或者,可以朝着通过单独预测继承人特征(SF)构成的学习目标来更新值函数 - 依赖于策略的模型 - 并将它们与瞬时奖励相结合。我们专注于在估计值函数时使用的自举目标,并提出新的备份目标,它是\ eta $ -return混合的混合,它隐含地结合了价值预测知识(由TD方法使用)与(继承人)特征预测知识 - 使用参数$ \ eta $捕获每个依赖的多少。我们说明通过$ \ eta \ gamma $ -dicounted sf模型结合了预测知识使得更有效地利用采样体验,而不是完全在价值函数估计上,或者在单独估计的继承功能的乘积上启动。和瞬时奖励模型。我们经验显示这种方法导致更快的政策评估和更好的控制性能,用于表格和非线性函数近似,指示可扩展性和一般性。
translated by 谷歌翻译
本文提出了一种以直接非凸起的方式解决社区检测和组同步问题的广义电力方法(GPM)。在随机组块模型(SGBM)下,理论分析表明该算法能够在$ O(n \ log ^ 2n)$ time中完全恢复地面真相,急剧优化了SEMIDEfinite编程(SDP)的基准方法O(n ^ {3.5})$时间。此外,参数的下限作为精确恢复GPM的必要条件。新界违反了随机块模型(SBM)下纯社区检测的信息 - 理论阈值,从而展示了我们在连续执行两个任务的琐碎的两级方法上的同时优化算法的优越性。我们还对GPM和SDP进行了数值实验,以证据和补充我们的理论分析。
translated by 谷歌翻译
我们开发了一种利用无模型增强学习(RL)解决时间一致风险敏感随机优化问题的方法。具体地,我们假设代理商使用动态凸面风险措施评估一系列随机变量的风险。我们采用时间一致的动态编程原则来确定特定策略的值,并开发策略渐变更新规则。我们进一步开发了一个使用神经网络的演员批评风格算法,以优化策略。最后,我们通过将其应用于统计套利交易和障碍避免机器人控制中的优化问题来证明我们的方法的性能和灵活性。
translated by 谷歌翻译
我们将机器学习应用于寻找数值卡拉比市度量的问题。我们在使用Donaldson算法计算近似Ricci-FLAN度量的学习近似Ricci-Flat度量,以更加准确的“最佳”度量标准的“最佳”的“最佳”指标来扩展。我们表明,机器学习能够预测只有一个小型训练数据样本的Calabi-yau度量的K \“Ahler潜力。
translated by 谷歌翻译
在贝叶斯网络(BNS)中,边缘方向对于因果推理和推理至关重要。然而,马尔可夫等价类考虑因素意味着它并不总是可以建立边缘方向,这就是许多BN结构学习算法不能从纯粹观察数据定向所有边缘的原因。此外,潜在的混乱会导致假阳性边缘。已经提出了相对较少的方法来解决这些问题。在这项工作中,我们介绍了从涉及观察数据集的离散数据和一个或多个介入数据集的离散数据的结构学习的混合MFGS-BS(Meance规则和快速贪婪等价搜索)算法。该算法假设存在潜在变量的因果不足,并产生部分祖先图形(PAG)。结构学习依赖于混合方法和新的贝叶斯评分范式,用于计算添加到学习图表的每个定向边缘的后验概率。基于众所周知的网络的实验结果高达109个变量和10K样本大小表明,MFGS-BS相对于最先进的结构提高了结构学习准确性,并且它是计算效率的。
translated by 谷歌翻译
我们研究了在几个课程之一的未知会员的对手对对手的反复游戏中保证对反对者的低遗憾的问题。我们添加了我们的算法是非利用的约束,因为对手缺乏使用算法的激励,我们无法实现超过一些“公平”价值的奖励。我们的解决方案是一组专家算法(LAFF),该算法(LAFF)在一组子算法内搜索每个对手课程的最佳算法,并在检测对手剥削证据时使用惩罚政策。通过依赖对手课的基准,我们展示了除了剥削者之外的可能对手统一地掩盖了Lublinear的遗憾,我们保证对手有线性遗憾。为了我们的知识,这项工作是第一个在多智能经纪人学习中提供遗憾和非剥削性的保证。
translated by 谷歌翻译
准确的真实量子系统模型对于调查其行为很重要,但难以弥补经验。在这里,我们报告了一种算法 - 量子模型学习代理(QMLA) - 逆向工程师Hamiltonian对目标系统的描述。我们在许多模拟实验中测试QMLA的性能,展示了候选人汉密尔顿模型设计的几种机制,同时娱乐了许多关于治疗研究系统的物理相互作用的性质的许多假设。当提供有限的先验信息和控制实验设置时,显示QMLA在大多数实例中识别真实模型。我们的协议可以探索ising,Heisenberg和Hubbard系列的模型并行,可靠地识别最能描述系统动态的家庭。我们通过纳入遗传算法制定新的假设模型,展示在大型模型空间上运行的QMLA。该特征传播到下一代的模型的选择基于ELO评级方案启发的客观函数,通常用于评估竞争对手,例如国际象棋和足球。在所有情况下,我们的协议查找与真实模型相比展出$ f_1 $ -score $ \ ge 0.88 $的型号,并且精确地识别了72%的案件中的真实模型,同时探索超过250,000美元的潜在模型的空间。通过测试目标系统实际发生的相互作用,QMLA是一种可行的工具,用于探索基本物理和量子器件的表征和校准。
translated by 谷歌翻译
基础培训数据的质量对于建立具有更广泛的Generalizabilty的表演机器学习模型非常重要。但是,当前机器学习(ML)工具缺乏简化的流程,用于提高数据质量。因此,获取数据质量见解并迭代地修剪以获取最大代表下游使用情况的数据集的错误仍然是Ad-hoc手动过程。我们的工作解决了这种数据工具差距,需要纯粹通过以数据为中心的技术构建改进的ML工作流程。更具体地说,我们介绍了(1)在数据集中找到嘈杂或错误标记的样本的系统框架,(2)识别最具信息丰富的样本,当包含在训练中时,该样本将提供最大的模型性能提升。我们展示了我们在公共场合的框架以及两家财富500强公司的私营企业数据集的效果,并确信这项工作将形成ML团队执行更智能的数据发现和修剪的基础。
translated by 谷歌翻译