不观察到的混淆是观测数据的因果效应估计的主要障碍。仪器变量(IVS)广泛用于存在潜在混淆时的因果效应估计。利用标准IV方法,当给定的IV有效时,可以获得无偏估计,但标准IV的有效性要求是严格和不可能的。已经提出了通过调节一组观察变量(称为条件IV的调节装置)来放松标准IV的要求。然而,用于查找条件IV的调节集的标准需要完整的因果结构知识或指向的非循环图(DAG),其代表观察到和未观察的变量的因果关系。这使得无法发现直接从数据设置的调节。在本文中,通过利用潜在变量的因果推断中的最大祖先图(MAGS),我们提出了一种新型的MAG中的IV,祖先IV,并开发了支持给定祖传的调节装置的数据驱动的发现iv在mag。基于该理论,我们在MAG和观测数据中开发了一种与祖先IV的非偏见因果效应估计的算法。与现有IV方法相比,对合成和实际数据集的广泛实验表明了算法的性能。
translated by 谷歌翻译
在科学研究和现实世界应用的许多领域中,非实验数据的因果效应的无偏估计对于理解数据的基础机制以及对有效响应或干预措施的决策至关重要。从不同角度对这个具有挑战性的问题进行了大量研究。对于数据中的因果效应估计,始终做出诸如马尔可夫财产,忠诚和因果关系之类的假设。在假设下,仍然需要一组协变量或基本因果图之类的全部知识。一个实用的挑战是,在许多应用程序中,没有这样的全部知识或只有某些部分知识。近年来,研究已经出现了基于图形因果模型的搜索策略,以从数据中发现有用的知识,以进行因果效应估计,并具有一些温和的假设,并在应对实际挑战方面表现出了诺言。在这项调查中,我们回顾了方法,并关注数据驱动方法所面临的挑战。我们讨论数据驱动方法的假设,优势和局限性。我们希望这篇综述将激励更多的研究人员根据图形因果建模设计更好的数据驱动方法,以解决因果效应估计的具有挑战性的问题。
translated by 谷歌翻译
The instrumental variable (IV) approach is a widely used way to estimate the causal effects of a treatment on an outcome of interest from observational data with latent confounders. A standard IV is expected to be related to the treatment variable and independent of all other variables in the system. However, it is challenging to search for a standard IV from data directly due to the strict conditions. The conditional IV (CIV) method has been proposed to allow a variable to be an instrument conditioning on a set of variables, allowing a wider choice of possible IVs and enabling broader practical applications of the IV approach. Nevertheless, there is not a data-driven method to discover a CIV and its conditioning set directly from data. To fill this gap, in this paper, we propose to learn the representations of the information of a CIV and its conditioning set from data with latent confounders for average causal effect estimation. By taking advantage of deep generative models, we develop a novel data-driven approach for simultaneously learning the representation of a CIV from measured variables and generating the representation of its conditioning set given measured variables. Extensive experiments on synthetic and real-world datasets show that our method outperforms the existing IV methods.
translated by 谷歌翻译
公平的机器学习旨在避免基于\ textit {敏感属性}(例如性别和种族)对个人或子人群的治疗。公平机器学习中的那些方法是基于因果推理确定的歧视和偏见的。尽管基于因果关系的公平学习吸引了越来越多的关注,但当前的方法假设真正的因果图是完全已知的。本文提出了一种一般方法,以实现反事实公平的概念时,当真实的因果图未知。为了能够选择导致反事实公平性的功能,我们得出了条件和算法,以识别\ textit上变量之间的祖先关系{部分定向的无循环图(pdag)},具体来说,可以从一类可学到的dag中学到。观察数据与域知识相结合。有趣的是,我们发现可以实现反事实公平,就好像真正的因果图是完全知道的一样,当提供了特定的背景知识时:敏感属性在因果图中没有祖先。模拟和实际数据集的结果证明了我们方法的有效性。
translated by 谷歌翻译
在观察性研究中,经常遇到有关存在或缺乏因果边缘和路径的因果背景知识。由于背景知识而导致的马尔可夫等效dag的子类共享的指向边缘和链接可以由因果关系最大部分定向的无循环图(MPDAG)表示。在本文中,我们首先提供了因果MPDAG的声音和完整的图形表征,并提供了因果MPDAG的最小表示。然后,我们介绍了一种名为Direct Causal子句(DCC)的新颖表示,以统一形式表示所有类型的因果背景知识。使用DCC,我们研究因果背景知识的一致性和等效性,并表明任何因果背景知识集都可以等效地分解为因果MPDAG,以及最小的残留DCC。还提供了多项式时间算法,以检查一致性,等效性并找到分解的MPDAG和残留DCC。最后,有了因果背景知识,我们证明了一个足够且必要的条件来识别因果关系,并且出人意料地发现因果效应的可识别性仅取决于分解的MPDAG。我们还开发了局部IDA型算法,以估计无法识别效应的可能值。模拟表明因果背景知识可以显着提高因果影响的识别性。
translated by 谷歌翻译
在个性化决策中,需要证据来确定诉讼(治疗)是否适合个人。可以通过对亚组中的治疗效应异质性进行建模来获得此类证据。现有的可解释的建模方法采用自上而下的方法来寻找具有异质治疗效果的亚组,它们可能会错过个人最具体和最相关的环境。在本文中,我们设计了\ emph {治疗效果模式(TEP)}来表示数据中的治疗效果异质性。为了实现TEP的可解释呈现,我们使用围绕结果的局部因果结构,以明确说明如何在建模中使用这些重要变量。我们还得出了一个公正估计\ emph {条件平均因果效应(CATE)}的公式,它使用我们的问题设置中的局部结构进行了估计。在发现过程中,我们旨在最大程度地减少以模式表示的每个子组中的异质性。我们提出了一种自下而上的搜索算法,以发现适合个性化决策的最具体情况的最特定模式。实验表明,所提出的方法模型治疗效果的异质性比合成和现实世界数据集中的其他三种基于树的方法更好。
translated by 谷歌翻译
研究了与隐藏变量有关的非循环图(DAG)相关的因果模型中因果效应的识别理论。然而,由于估计它们输出的识别功能的复杂性,因此未耗尽相应的算法。在这项工作中,我们弥合了识别和估算涉及单一治疗和单一结果的人口水平因果效应之间的差距。我们派生了基于功能的估计,在大类隐藏变量DAG中表现出对所识别的效果的双重稳健性,其中治疗满足简单的图形标准;该类包括模型,产生调整和前门功能作为特殊情况。我们还提供必要的和充分条件,其中隐藏变量DAG的统计模型是非分子饱和的,并且意味着对观察到的数据分布没有平等约束。此外,我们推导了一类重要的隐藏变量DAG,这意味着观察到观察到的数据分布等同于完全观察到的DAG等同于(最高的相等约束)。在这些DAG类中,我们推出了实现兴趣目标的半导体效率界限的估计估计值,该估计是治疗满足我们的图形标准的感兴趣的目标。最后,我们提供了一种完整的识别算法,可直接产生基于权重的估计策略,以了解隐藏可变因果模型中的任何可识别效果。
translated by 谷歌翻译
解决了选择最佳后门调整集的问题,以解决隐藏和条件变量的图形模型中的因果效应。以前的工作已经定义了实现最小的渐近估计方差,并且在没有隐藏变量的情况下派生的最佳集。对于隐藏变量的情况,可以有设置在没有最佳集合的情况下,并且目前仅导出有限适用性的足够的图形最优标准。在本工作中,最优性的特征在于最大化某个调整信息,该信息允许导出用于存在最佳调整集的必要和足够的图形标准和构造它的定义和算法。此外,如果仅存在有效调整集并且具有比Perkovi {\'C}等所提出的调整集更高(或等于)调整信息,则最佳集是有效的。 [机器学习研究学报,18:1--62,2018]任何图表。结果转化为一类估计的渐近估计差异,其渐近方差遵循某种信息理论关系。数值实验表明,渐近结果也适用于相对较小的样本尺寸,并且最佳调整集或其最小化变体通常也会产生更好的方差,也超出该估计类。令人惊讶的是,在随机创建的设置中,超过90 \%满足最优性条件,指示在许多现实世界场景中也可以保持。代码可用作Python Package \ URL {https://github.com/jakobrunge/tigramite}的一部分。
translated by 谷歌翻译
尽管在治疗和结果之间存在未衡量的混杂因素,但前门标准可用于识别和计算因果关系。但是,关键假设 - (i)存在充分介导治疗对结果影响的变量(或一组变量)的存在,(ii)同时并不遭受类似的混淆问题的困扰 - outcome对 - 通常被认为是难以置信的。本文探讨了这些假设的可检验性。我们表明,在涉及辅助变量的轻度条件下,可以通过广义平等约束也可以测试前门模型中编码的假设(以及简单的扩展)。我们基于此观察结果提出了两个合适性测试,并评估我们对真实和合成数据的提议的疗效。我们还将理论和经验比较与仪器可变方法处理未衡量的混杂。
translated by 谷歌翻译
因果关系是理解世界的科学努力的基本组成部分。不幸的是,在心理学和社会科学中,因果关系仍然是禁忌。由于越来越多的建议采用因果方法进行研究的重要性,我们重新制定了心理学研究方法的典型方法,以使不可避免的因果理论与其余的研究渠道协调。我们提出了一个新的过程,该过程始于从因果发现和机器学习的融合中纳入技术的发展,验证和透明的理论形式规范。然后,我们提出将完全指定的理论模型的复杂性降低到与给定目标假设相关的基本子模型中的方法。从这里,我们确定利息量是否可以从数据中估算出来,如果是的,则建议使用半参数机器学习方法来估计因果关系。总体目标是介绍新的研究管道,该管道可以(a)促进与测试因果理论的愿望兼容的科学询问(b)鼓励我们的理论透明代表作为明确的数学对象,(c)将我们的统计模型绑定到我们的统计模型中该理论的特定属性,因此减少了理论到模型间隙通常引起的规范不足问题,以及(d)产生因果关系和可重复性的结果和估计。通过具有现实世界数据的教学示例来证明该过程,我们以摘要和讨论来结论。
translated by 谷歌翻译
本文研究了通过机器学习模型估计特征对特定实例预测的贡献的问题,以及功能对模型的总体贡献。特征(变量)对预测结果的因果效应反映了该特征对预测的贡献。一个挑战是,如果没有已知的因果图,就无法从数据中估算大多数现有的因果效应。在本文中,我们根据假设的理想实验定义了解释性因果效应。该定义给不可知论的解释带来了一些好处。首先,解释是透明的,具有因果关系。其次,解释性因果效应估计可以数据驱动。第三,因果效应既提供了特定预测的局部解释,又提供了一个全局解释,显示了一个特征在预测模型中的总体重要性。我们进一步提出了一种基于解释性因果效应来解释的方法和组合变量的方法。我们显示了对某些现实世界数据集的实验的定义和方法。
translated by 谷歌翻译
估计平均因果效应的理想回归(如果有)是什么?我们在离散协变量的设置中研究了这个问题,从而得出了各种分层估计器的有限样本方差的表达式。这种方法阐明了许多广泛引用的结果的基本统计现象。我们的博览会结合了研究因果效应估计的三种不同的方法论传统的见解:潜在结果,因果图和具有加性误差的结构模型。
translated by 谷歌翻译
考虑基于AI和ML的决策对这些新兴技术的安全和可接受的使用的决策的社会和道德后果至关重要。公平,特别是保证ML决定不会导致对个人或少数群体的歧视。使用因果关系,可以更好地实现和衡量可靠的公平/歧视,从而更好地实现了敏感属性(例如性别,种族,宗教等)之间的因果关系,仅仅是仅仅是关联,例如性别,种族,宗教等(例如,雇用工作,贷款授予等) )。然而,对因果关系解决公平性的最大障碍是因果模型的不可用(通常表示为因果图)。文献中现有的因果关系方法并不能解决此问题,并假设可获得因果模型。在本文中,我们没有做出这样的假设,并且我们回顾了从可观察数据中发现因果关系的主要算法。这项研究的重点是因果发现及其对公平性的影响。特别是,我们展示了不同的因果发现方法如何导致不同的因果模型,最重要的是,即使因果模型之间的轻微差异如何对公平/歧视结论产生重大影响。通过使用合成和标准公平基准数据集的经验分析来巩固这些结果。这项研究的主要目标是强调因果关系使用因果关系适当解决公平性的因果发现步骤的重要性。
translated by 谷歌翻译
我们介绍了一种声音和完整的算法,称为迭代因果发现(ICD),用于在存在潜在混杂器和选择偏压的情况下恢复因果图。 ICD依赖于因果性马尔可夫和忠诚的假设,并恢复潜在因果图的等价类别。它以完整的图形开始,由单个迭代阶段组成,通过识别连接节点之间的条件独立性(CI)逐渐改进该图。任何迭代后都需要的独立性和因果关系是正确的,随时渲染ICD。基本上,我们将CI调节的大小与测试节点绑定到图表上的距离,并在连续迭代中提高此值。因此,每次迭代都改进了通过具有较小调节集的先前迭代恢复的图 - 一种更高的统计功率 - 这有助于稳定性。我们凭经验证明ICD需要较少的CI测试,并与FCI,FCI +和RFCI算法相比,学习更准确的因果图。
translated by 谷歌翻译
A common assumption in causal inference from observational data is that there is no hidden confounding. Yet it is, in general, impossible to verify the presence of hidden confounding factors from a single dataset. Under the assumption of independent causal mechanisms underlying the data generating process, we demonstrate a way to detect unobserved confounders when having multiple observational datasets coming from different environments. We present a theory for testable conditional independencies that are only absent during hidden confounding and examine cases where we violate its assumptions: degenerate & dependent mechanisms, and faithfulness violations. Additionally, we propose a procedure to test these independencies and study its empirical finite-sample behavior using simulation studies and semi-synthetic data based on a real-world dataset. In most cases, our theory correctly predicts the presence of hidden confounding, particularly when the confounding bias is~large.
translated by 谷歌翻译
In this review, we discuss approaches for learning causal structure from data, also called causal discovery. In particular, we focus on approaches for learning directed acyclic graphs (DAGs) and various generalizations which allow for some variables to be unobserved in the available data. We devote special attention to two fundamental combinatorial aspects of causal structure learning. First, we discuss the structure of the search space over causal graphs. Second, we discuss the structure of equivalence classes over causal graphs, i.e., sets of graphs which represent what can be learned from observational data alone, and how these equivalence classes can be refined by adding interventional data.
translated by 谷歌翻译
We explore how observational and interventional causal discovery methods can be combined. A state-of-the-art observational causal discovery algorithm for time series capable of handling latent confounders and contemporaneous effects, called LPCMCI, is extended to profit from casual constraints found through randomized control trials. Numerical results show that, given perfect interventional constraints, the reconstructed structural causal models (SCMs) of the extended LPCMCI allow 84.6% of the time for the optimal prediction of the target variable. The implementation of interventional and observational causal discovery is modular, allowing causal constraints from other sources. The second part of this thesis investigates the question of regret minimizing control by simultaneously learning a causal model and planning actions through the causal model. The idea is that an agent to optimize a measured variable first learns the system's mechanics through observational causal discovery. The agent then intervenes on the most promising variable with randomized values allowing for the exploitation and generation of new interventional data. The agent then uses the interventional data to enhance the causal model further, allowing improved actions the next time. The extended LPCMCI can be favorable compared to the original LPCMCI algorithm. The numerical results show that detecting and using interventional constraints leads to reconstructed SCMs that allow 60.9% of the time for the optimal prediction of the target variable in contrast to the baseline of 53.6% when using the original LPCMCI algorithm. Furthermore, the induced average regret decreases from 1.2 when using the original LPCMCI algorithm to 1.0 when using the extended LPCMCI algorithm with interventional discovery.
translated by 谷歌翻译
数据科学任务可以被视为了解数据的感觉或测试关于它的假设。从数据推断的结论可以极大地指导我们做出信息做出决定。大数据使我们能够与机器学习结合执行无数的预测任务,例如鉴定患有某种疾病的高风险患者并采取可预防措施。然而,医疗保健从业者不仅仅是仅仅预测的内容 - 它们也对输入特征和临床结果之间的原因关系感兴趣。了解这些关系将有助于医生治疗患者并有效降低风险。通常通过随机对照试验鉴定因果关系。当科学家和研究人员转向观察研究并试图吸引推论时,这种试验通常是不可行的。然而,观察性研究也可能受到选择和/或混淆偏差的影响,这可能导致错误的因果结论。在本章中,我们将尝试突出传统机器学习和统计方法中可能出现的一些缺点,以分析观察数据,特别是在医疗保健数据分析域中。我们将讨论因果化推理和方法,以发现医疗领域的观测研究原因。此外,我们将展示因果推断在解决某些普通机器学习问题等中的应用,例如缺少数据和模型可运输性。最后,我们将讨论将加强学习与因果关系相结合的可能性,作为反击偏见的一种方式。
translated by 谷歌翻译
概括指向的最大祖先图形,我们介绍了一类图形模型,用于表示与未观察的变量的多变量时间序列的多变量时间序列的多变量的多种定样和定期分配时间步骤中的时间滞后特定因果关系和独立性。我们完全阐述了这些图表,并表明他们需要超出以前在文献中被考虑的那些的限制。这允许在没有强加的额外假设的情况下更强的因果推断。在指向部分祖先图的概括中,我们进一步介绍了新颖类型的图表的马尔可夫等同类的图形表示,并显示这些比当前最先进的因果发现算法学习的更具信息量。我们还通过增加观察时间步骤的数量来分析所获得的附加信息。
translated by 谷歌翻译
在涉及互连单元之间相互影响或因果关系的现实现象中,平衡状态通常用图形模型中的循环表示。 \ textIt {关系因果模型}的表达性图形模型可以表示和理由,这些动态系统表现出此类周期或反馈循环。从观察数据中学习因果模型的现有循环因果发现算法假定,数据实例是独立的且分布相同的,这使得它们不适合关系因果模型。同时,关系因果模型的因果发现算法假定循环。在这项工作中,我们研究了基于约束的关系因果发现算法的必要条件,对于\ textit {Cyclic {Cyclicit {Cyclication {Cyclication {Cyclication {Cyclication {Cyclication {Cyclication {Cyclication {cyclication {Cyclication {Cyclication {Cyclication {Cyclication {Cyclication {cyclical otalational otinational Causal Models}}。我们介绍了\ textit {关系clclification},这是专门为关系模型设计的操作,可实现有关循环关系因果模型的可识别性的推理。我们表明,在关系周期性和$ \ sigma $ - 信仰的假设下,关系因果发现算法RCD(Maier等人,2013年)是合理的,对于环状模型而言是完整的。我们提出了实验结果以支持我们的主张。
translated by 谷歌翻译