人们对利用置换推理来搜索定向的无环因果模型的方法越来越兴趣,包括Teysier和Kohler和Solus,Wang和Uhler的GSP的“订购搜索”。我们通过基于置换的操作Tuck扩展了后者的方法,并开发了一类算法,即掌握,这些算法在越来越弱的假设下比忠诚度更有效且方向保持一致。最放松的掌握形式优于模拟中许多最新的因果搜索算法,即使对于具有超过100个变量的密集图和图形,也可以有效,准确地搜索。
translated by 谷歌翻译
In this paper we prove the so-called "Meek Conjecture". In particular, we show that if a DAG H is an independence map of another DAG G, then there exists a finite sequence of edge additions and covered edge reversals in G such that (1) after each edge modification H remains an independence map of G and ( 2) after all modifications G = H. As shown by Meek (1997), this result has an important consequence for Bayesian approaches to learning Bayesian networks from data: in the limit of large sample size, there exists a twophase greedy search algorithm that-when applied to a particular sparsely-connected search space-provably identifies a perfect map of the generative distribution if that perfect map is a DAG. We provide a new implementation of the search space, using equivalence classes as states, for which all operators used in the greedy search can be scored efficiently using local functions of the nodes in the domain. Finally, using both synthetic and real-world datasets, we demonstrate that the two-phase greedy approach leads to good solutions when learning with finite sample sizes.
translated by 谷歌翻译
In this review, we discuss approaches for learning causal structure from data, also called causal discovery. In particular, we focus on approaches for learning directed acyclic graphs (DAGs) and various generalizations which allow for some variables to be unobserved in the available data. We devote special attention to two fundamental combinatorial aspects of causal structure learning. First, we discuss the structure of the search space over causal graphs. Second, we discuss the structure of equivalence classes over causal graphs, i.e., sets of graphs which represent what can be learned from observational data alone, and how these equivalence classes can be refined by adding interventional data.
translated by 谷歌翻译
我们研究了在存在潜在变量存在下从数据重建因果图形模型的问题。感兴趣的主要问题是在潜在变量上恢复因果结构,同时允许一般,可能在变量之间的非线性依赖性。在许多实际问题中,原始观测之间的依赖性(例如,图像中的像素)的依赖性比某些高级潜在特征(例如概念或对象)之间的依赖性要小得多,这是感兴趣的设置。我们提供潜在表示和潜在潜在因果模型的条件可通过减少到混合甲骨文来识别。这些结果突出了学习混合模型的顺序的良好研究问题与观察到和解开的基础结构的问题之间的富裕问题之间的有趣连接。证明是建设性的,并导致几种算法用于明确重建全图形模型。我们讨论高效算法并提供说明实践中算法的实验。
translated by 谷歌翻译
我们考虑代表代理模型的问题,该模型使用我们称之为CSTREES的阶段树模型的适当子类对离散数据编码离散数据的原因模型。我们表明,可以通过集合表达CSTREE编码的上下文专用信息。由于并非所有阶段树模型都承认此属性,CSTREES是一个子类,可提供特定于上下文的因果信息的透明,直观和紧凑的表示。我们证明了CSTREEES承认全球性马尔可夫属性,它产生了模型等价的图形标准,概括了Verma和珍珠的DAG模型。这些结果延伸到一般介入模型设置,使CSTREES第一族的上下文专用模型允许介入模型等价的特征。我们还为CSTREE的最大似然估计器提供了一种封闭式公式,并使用它来表示贝叶斯信息标准是该模型类的本地一致的分数函数。在模拟和实际数据上分析了CSTHEELE的性能,在那里我们看到与CSTREELE而不是一般上演树的建模不会导致预测精度的显着损失,同时提供了特定于上下文的因果信息的DAG表示。
translated by 谷歌翻译
我们研究在有关系统的结构侧信息时学习一组变量的贝叶斯网络(BN)的问题。众所周知,学习一般BN的结构在计算上和统计上具有挑战性。然而,通常在许多应用中,关于底层结构的侧面信息可能会降低学习复杂性。在本文中,我们开发了一种基于递归约束的算法,其有效地将这些知识(即侧信息)纳入学习过程。特别地,我们研究了关于底层BN的两种类型的结构侧信息:(i)其集团数的上限是已知的,或者(ii)它是无菱形的。我们为学习算法提供理论保证,包括每个场景所需的最坏情况的测试数量。由于我们的工作,我们表明可以通过多项式复杂性学习有界树木宽度BNS。此外,我们评估了综合性和现实世界结构的算法的性能和可扩展性,并表明它们优于最先进的结构学习算法。
translated by 谷歌翻译
我们分析了在没有特定分布假设的常规设置中从观察数据的学习中学循环图形模型的复杂性。我们的方法是信息定理,并使用本地马尔可夫边界搜索程序,以便在基础图形模型中递归地构建祖先集。也许令人惊讶的是,我们表明,对于某些图形集合,一个简单的前向贪婪搜索算法(即没有向后修剪阶段)足以学习每个节点的马尔可夫边界。这显着提高了我们在节点的数量中显示的样本复杂性。然后应用这一点以在从文献中概括存在现有条件的新型标识性条件下学习整个图。作为独立利益的问题,我们建立了有限样本的保障,以解决从数据中恢复马尔可夫边界的问题。此外,我们将我们的结果应用于特殊情况的Polytrees,其中假设简化,并提供了多项识别的明确条件,并且在多项式时间中可以识别和可知。我们进一步说明了算法在仿真研究中易于实现的算法的性能。我们的方法是普遍的,用于无需分布假设的离散或连续分布,并且由于这种棚灯对有效地学习来自数据的定向图形模型结构所需的最小假设。
translated by 谷歌翻译
在观察性研究中,经常遇到有关存在或缺乏因果边缘和路径的因果背景知识。由于背景知识而导致的马尔可夫等效dag的子类共享的指向边缘和链接可以由因果关系最大部分定向的无循环图(MPDAG)表示。在本文中,我们首先提供了因果MPDAG的声音和完整的图形表征,并提供了因果MPDAG的最小表示。然后,我们介绍了一种名为Direct Causal子句(DCC)的新颖表示,以统一形式表示所有类型的因果背景知识。使用DCC,我们研究因果背景知识的一致性和等效性,并表明任何因果背景知识集都可以等效地分解为因果MPDAG,以及最小的残留DCC。还提供了多项式时间算法,以检查一致性,等效性并找到分解的MPDAG和残留DCC。最后,有了因果背景知识,我们证明了一个足够且必要的条件来识别因果关系,并且出人意料地发现因果效应的可识别性仅取决于分解的MPDAG。我们还开发了局部IDA型算法,以估计无法识别效应的可能值。模拟表明因果背景知识可以显着提高因果影响的识别性。
translated by 谷歌翻译
我们介绍并研究了分布的邻居晶格分解,这是有条件独立性的紧凑,非图形表示,在没有忠实的图形表示的情况下是有效的。这个想法是将变量的一组社区视为子集晶格,并将此晶格分配到凸sublattices中,每个晶格都直接编码有条件的独立关系集合。我们表明,这种分解存在于任何组成型绘画中,并且可以在高维度中有效且一致地计算出来。 {特别是,这给了一种方法来编码满足组合公理的分布所隐含的所有独立关系,该分布严格比图形方法通常假定的忠实假设弱弱。}我们还讨论了各种特殊案例,例如图形模型和投影晶格,每个晶格都有直观的解释。一路上,我们看到了这个问题与邻域回归密切相关的,该回归已在图形模型和结构方程式的背景下进行了广泛的研究。
translated by 谷歌翻译
We study experiment design for unique identification of the causal graph of a system where the graph may contain cycles. The presence of cycles in the structure introduces major challenges for experiment design as, unlike acyclic graphs, learning the skeleton of causal graphs with cycles may not be possible from merely the observational distribution. Furthermore, intervening on a variable in such graphs does not necessarily lead to orienting all the edges incident to it. In this paper, we propose an experiment design approach that can learn both cyclic and acyclic graphs and hence, unifies the task of experiment design for both types of graphs. We provide a lower bound on the number of experiments required to guarantee the unique identification of the causal graph in the worst case, showing that the proposed approach is order-optimal in terms of the number of experiments up to an additive logarithmic term. Moreover, we extend our result to the setting where the size of each experiment is bounded by a constant. For this case, we show that our approach is optimal in terms of the size of the largest experiment required for uniquely identifying the causal graph in the worst case.
translated by 谷歌翻译
研究了与隐藏变量有关的非循环图(DAG)相关的因果模型中因果效应的识别理论。然而,由于估计它们输出的识别功能的复杂性,因此未耗尽相应的算法。在这项工作中,我们弥合了识别和估算涉及单一治疗和单一结果的人口水平因果效应之间的差距。我们派生了基于功能的估计,在大类隐藏变量DAG中表现出对所识别的效果的双重稳健性,其中治疗满足简单的图形标准;该类包括模型,产生调整和前门功能作为特殊情况。我们还提供必要的和充分条件,其中隐藏变量DAG的统计模型是非分子饱和的,并且意味着对观察到的数据分布没有平等约束。此外,我们推导了一类重要的隐藏变量DAG,这意味着观察到观察到的数据分布等同于完全观察到的DAG等同于(最高的相等约束)。在这些DAG类中,我们推出了实现兴趣目标的半导体效率界限的估计估计值,该估计是治疗满足我们的图形标准的感兴趣的目标。最后,我们提供了一种完整的识别算法,可直接产生基于权重的估计策略,以了解隐藏可变因果模型中的任何可识别效果。
translated by 谷歌翻译
也称为(非参数)结构方程模型(SEMS)的结构因果模型(SCM)被广泛用于因果建模目的。特别是,也称为递归SEM的无循环SCMS,形成了一个研究的SCM的良好的子类,概括了因果贝叶斯网络来允许潜在混淆。在本文中,我们调查了更多普通环境中的SCM,允许存在潜在混杂器和周期。我们展示在存在周期中,无循环SCM的许多方便的性质通常不会持有:它们并不总是有解决方案;它们并不总是诱导独特的观察,介入和反事实分布;边缘化并不总是存在,如果存在边缘模型并不总是尊重潜在的投影;他们并不总是满足马尔可夫财产;他们的图表并不总是与他们的因果语义一致。我们证明,对于SCM一般,这些属性中的每一个都在某些可加工条件下保持。我们的工作概括了SCM的结果,迄今为止仅针对某些特殊情况所知的周期。我们介绍了将循环循环设置扩展到循环设置的简单SCM的类,同时保留了许多方便的无环SCM的性能。用本文,我们的目标是为SCM提供统计因果建模的一般理论的基础。
translated by 谷歌翻译
Linear structural causal models (SCMs)-- in which each observed variable is generated by a subset of the other observed variables as well as a subset of the exogenous sources-- are pervasive in causal inference and casual discovery. However, for the task of causal discovery, existing work almost exclusively focus on the submodel where each observed variable is associated with a distinct source with non-zero variance. This results in the restriction that no observed variable can deterministically depend on other observed variables or latent confounders. In this paper, we extend the results on structure learning by focusing on a subclass of linear SCMs which do not have this property, i.e., models in which observed variables can be causally affected by any subset of the sources, and are allowed to be a deterministic function of other observed variables or latent confounders. This allows for a more realistic modeling of influence or information propagation in systems. We focus on the task of causal discovery form observational data generated from a member of this subclass. We derive a set of necessary and sufficient conditions for unique identifiability of the causal structure. To the best of our knowledge, this is the first work that gives identifiability results for causal discovery under both latent confounding and deterministic relationships. Further, we propose an algorithm for recovering the underlying causal structure when the aforementioned conditions are satisfied. We validate our theoretical results both on synthetic and real datasets.
translated by 谷歌翻译
We present a new algorithm for Bayesian network structure learning, called Max-Min Hill-Climbing (MMHC). The algorithm combines ideas from local learning, constraint-based, and search-and-score techniques in a principled and effective way. It first reconstructs the skeleton of a Bayesian network and then performs a Bayesian-scoring greedy hill-climbing search to orient the edges. In our extensive empirical evaluation MMHC outperforms on average and in terms of various metrics several prototypical and state-of-the-art algorithms, namely the PC, Sparse Candidate, Three Phase Dependency Analysis, Optimal Reinsertion, Greedy Equivalence Search, and Greedy Search. These are the first empirical results simultaneously comparing most of the major Bayesian network algorithms against each other. MMHC offers certain theoretical advantages, specifically over the Sparse Candidate algorithm, corroborated by our experiments. MMHC and detailed results of our study are publicly available at http://www.dsl-lab.org/supplements/mmhc paper/mmhc index.html.
translated by 谷歌翻译
我们建议在没有观察到的变量的情况下,提出基于订购的方法,用于学习结构方程模型(SEM)的最大祖先图(MAG),直到其Markov等效类(MEC)。文献中的现有基于订购的方法通过学习因果顺序(C-order)恢复图。我们提倡一个名为“可移动顺序”(R-rorder)的新颖订单,因为它们比结构学习的C端口有利。这是因为R-orders是适当定义的优化问题的最小化器,该问题可以准确解决(使用强化学习方法)或大约(使用爬山搜索)。此外,R-orders(与C-orders不同)在MEC中的所有图表中都是不变的,并将C-orders包括为子集。鉴于一组R-orders通常明显大于C-orders集,因此优化问题更容易找到R级而不是C级。我们评估了在现实世界和随机生成的网络上提出的方法的性能和可伸缩性。
translated by 谷歌翻译
概括指向的最大祖先图形,我们介绍了一类图形模型,用于表示与未观察的变量的多变量时间序列的多变量时间序列的多变量的多种定样和定期分配时间步骤中的时间滞后特定因果关系和独立性。我们完全阐述了这些图表,并表明他们需要超出以前在文献中被考虑的那些的限制。这允许在没有强加的额外假设的情况下更强的因果推断。在指向部分祖先图的概括中,我们进一步介绍了新颖类型的图表的马尔可夫等同类的图形表示,并显示这些比当前最先进的因果发现算法学习的更具信息量。我们还通过增加观察时间步骤的数量来分析所获得的附加信息。
translated by 谷歌翻译
定向的无环图(DAG)模型已在统计和机器学习中广泛研究和应用 - 实际上,它们的简单性促进了有效的学习和推理程序。不幸的是,这些模型在边缘化下并未关闭,使其能够处理具有潜在混杂的系统。无环向混合图(ADMG)模型表征了DAG模型的边缘,使它们更适合处理此类系统。但是,ADMG模型由于其复杂性和用于分析的统计工具的短缺而没有看到广泛使用。在本文中,我们介绍了M连接IMSET,该IMSET为ADMG引起的独立模型提供了替代表示。此外,我们定义了以单个方程为特征的ADMG模型的M连接分数标准,并证明了其与全球Markov属性的等效性。 M-连接IMSET和分解标准提供了两个新的统计工具,用于使用ADMG模型进行学习和推断。我们通过使用封闭形式解决方案制定和评估一致的评分标准来证明这些工具的有用性。
translated by 谷歌翻译
We consider the problem of recovering the causal structure underlying observations from different experimental conditions when the targets of the interventions in each experiment are unknown. We assume a linear structural causal model with additive Gaussian noise and consider interventions that perturb their targets while maintaining the causal relationships in the system. Different models may entail the same distributions, offering competing causal explanations for the given observations. We fully characterize this equivalence class and offer identifiability results, which we use to derive a greedy algorithm called GnIES to recover the equivalence class of the data-generating model without knowledge of the intervention targets. In addition, we develop a novel procedure to generate semi-synthetic data sets with known causal ground truth but distributions closely resembling those of a real data set of choice. We leverage this procedure and evaluate the performance of GnIES on synthetic, real, and semi-synthetic data sets. Despite the strong Gaussian distributional assumption, GnIES is robust to an array of model violations and competitive in recovering the causal structure in small- to large-sample settings. We provide, in the Python packages "gnies" and "sempler", implementations of GnIES and our semi-synthetic data generation procedure.
translated by 谷歌翻译
贝叶斯网络是一组$ N $随机变量的定向非循环图(DAG)(用顶点标识);贝叶斯网络分布(BND)是RV的概率分布,即在图中是马尔可夫的。这种模型的有限混合物是在较大的图表上对这些变量的投影,其具有额外的“隐藏”(或“隐藏”(或“潜伏”)随机变量$ U $,范围在$ \ {1,\ ldots,k \ $,以及从$ U $到其他每个其他顶点的指示边。这种类型的模型是对因因果推理的基础,其中$ U $模型是一种混杂效果。一个非常特殊的案例一直是在理论文学中的长期兴趣:空图。这种分布只是$ k $产品分布的混合。考虑到k $产品分布的混合物的联合分布,以识别产物分布及其混合重量,这一直是长期的问题。我们的结果是:(1)我们改善了从$ \ exp(o(k ^ 2))$到$ \ exp(o(k \ log k)的$ k $产品分布的混合物的示例复杂性(和运行时) )$。鉴于已知的$ \ exp(\ omega(k))$下限,这几乎可以最好。 (2)我们为非空图表提供了第一算法。最大程度为$ \ delta $的图表的复杂性为$ \ exp(o(k(\ delta ^ 2 + \ log k)))$。 (上述复杂性是近似和抑制辅助参数的依赖性。)
translated by 谷歌翻译
转移学习中最关键的问题之一是域适应的任务,其中目标是将在一个或多个源域中培训的算法应用于不同(但相关)的目标域。本文在域内存在协变量转变时,涉及域适应。解决此问题的现有因果推断方法的主要限制之一是可扩展性。为了克服这种困难,我们提出了一种避免穷举搜索的算法,并识别基于Markov毯子发现的源和目标域的不变因果特征。 SCTL不需要先前了解因果结构,干预措施的类型或干预目标。有一个与SCTL相关的内在位置,使其实现实际上可扩展且稳健,因为本地因果发现增加了计算独立性测试的力量,并使域适配的任务进行了计算地进行了易行的。我们通过低维和高维设置中的合成和实际数据集显示SCTL的可扩展性和稳健性。
translated by 谷歌翻译