As causal inference becomes more widespread the importance of having good tools to test for causal effects increases. In this work we focus on the problem of testing for causal effects that manifest in a difference in distribution for treatment and control. We build on work applying kernel methods to causality, considering the previously introduced Counterfactual Mean Embedding framework (\textsc{CfME}). We improve on this by proposing the \emph{Doubly Robust Counterfactual Mean Embedding} (\textsc{DR-CfME}), which has better theoretical properties than its predecessor by leveraging semiparametric theory. This leads us to propose new kernel based test statistics for distributional effects which are based upon doubly robust estimators of treatment effects. We propose two test statistics, one which is a direct improvement on previous work and one which can be applied even when the support of the treatment arm is a subset of that of the control arm. We demonstrate the validity of our methods on simulated and real-world data, as well as giving an application in off-policy evaluation.
translated by 谷歌翻译
随着混凝剂的数量增加,因果推理越来越复杂。给定护理$ x $,混淆器$ z $和结果$ y $,我们开发一个非参数方法来测试\ texit {do-null}假设$ h_0:\; p(y | \ text {\它do}(x = x))= p(y)$违反替代方案。在Hilbert Schmidt独立性标准(HSIC)上进行边缘独立性测试,我们提出了后门 - HSIC(BD-HSIC)并证明它被校准,并且在大量混淆下具有二元和连续治疗的力量。此外,我们建立了BD-HSIC中使用的协方差运算符的估计的收敛性质。我们研究了BD-HSIC对参数测试的优点和缺点以及与边缘独立测试或有条件独立测试相比使用DO-NULL测试的重要性。可以在\超链接{https:/github.com/mrhuff/kgformula} {\ texttt {https://github.com/mrhuff/kgformula}}完整的实现。
translated by 谷歌翻译
There is intense interest in applying machine learning to problems of causal inference in fields such as healthcare, economics and education. In particular, individual-level causal inference has important applications such as precision medicine. We give a new theoretical analysis and family of algorithms for predicting individual treatment effect (ITE) from observational data, under the assumption known as strong ignorability. The algorithms learn a "balanced" representation such that the induced treated and control distributions look similar. We give a novel, simple and intuitive generalization-error bound showing that the expected ITE estimation error of a representation is bounded by a sum of the standard generalization-error of that representation and the distance between the treated and control distributions induced by the representation. We use Integral Probability Metrics to measure distances between distributions, deriving explicit bounds for the Wasserstein and Maximum Mean Discrepancy (MMD) distances. Experiments on real and simulated data show the new algorithms match or outperform the state-of-the-art.
translated by 谷歌翻译
负面对照是在存在未衡量混杂的情况下学习治疗与结果之间因果关系的策略。但是,如果有两个辅助变量可用:阴性对照治疗(对实际结果没有影响),并且可以确定治疗效果,并且可以识别出负面对照的结果(不受实际治疗的影响)。这些辅助变量也可以看作是一组传统控制变量的代理,并且与仪器变量相似。我提出了一种基于内核脊回归的算法系列,用于学习非参数治疗效果,并具有阴性对照。例子包括剂量反应曲线,具有分布转移的剂量反应曲线以及异质治疗效果。数据可能是离散的或连续的,并且低,高或无限的尺寸。我证明一致性均匀,并提供有限的收敛速率。我使用宾夕法尼亚州1989年至1991年之间在宾夕法尼亚州的单身人士出生的数据集对婴儿的出生体重进行了吸烟的剂量反应曲线,以调整未观察到的混杂因素。
translated by 谷歌翻译
我们提出了基于内核Ridge回归的估计估算师,用于非参数结构功能(也称为剂量响应曲线)和半甲酰胺处理效果。治疗和协变量可以是离散的或连续的,低,高或无限的尺寸。与其他机器学习范例不同,降低了具有闭合形式解决方案的内核脊回归组合的因果估计和推理,这些ridge回归的组合,并通过矩阵操作轻松计算。这种计算简单允许我们在两个方向上扩展框架:从意味着增加和分布反事实结果;从完整人口参数到群体和替代人口的参数。对于结构函数,我们证明了具有有限样本速率的均匀一致性。对于治疗效果,我们通过新的双光谱鲁棒性属性证明$ \ sqrt {n} $一致性,高斯近似和半甲效率。我们对美国职能培训计划进行仿真和估计平均,异构和增量结构职能。
translated by 谷歌翻译
我提出了长期因果推断的内核脊回归估计,其中包含随机治疗和短期替代品的短期实验数据集与包含短期替代和长期结果的长期观测数据集融合。在核矩阵操作方面,我提出了治疗效果,剂量反应和反事实分布的估算方法。我允许协变量,治疗和替代品是离散的或连续的,低,高或无限的尺寸。对于长期治疗效果,我证明$ \ sqrt {n} $一致性,高斯近似和半占用效率。对于长期剂量反应,我证明了具有有限样品速率的均匀稠度。对于长期反事实分布,我证明了分布的收敛性。
translated by 谷歌翻译
我们解决了在没有观察到的混杂的存在下的因果效应估计的问题,但是观察到潜在混杂因素的代理。在这种情况下,我们提出了两种基于内核的方法,用于非线性因果效应估计:(a)两阶段回归方法,以及(b)最大矩限制方法。我们专注于近端因果学习设置,但是我们的方法可以用来解决以弗雷霍尔姆积分方程为特征的更广泛的逆问题。特别是,我们提供了在非线性环境中解决此问题的两阶段和矩限制方法的统一视图。我们为每种算法提供一致性保证,并证明这些方法在合成数据和模拟现实世界任务的数据上获得竞争结果。特别是,我们的方法优于不适合利用代理变量的早期方法。
translated by 谷歌翻译
加权方法是偏离因果效应的估计的常见工具。虽然越来越多的看似不同的方法,但其中许多可以折叠成一个统一的制度:因果最佳运输。这种新方法通过最小化治疗和对照组之间的最佳运输距离,或者更一般地,在源和目标群体之间直接针对分布平衡。我们的方法是半富集的有效和无模型,但也可以包含研究人员希望平衡的协变量的时刻或任何其他重要的功能。我们发现因果最佳运输优于竞争对手的方法,当错过倾向分数和结果模型时,表明它是一种稳健的替代普通加权方法。最后,我们证明了我们在外部对照研究中的效用检查米索前列醇与催产素治疗后骨髓出血的影响。
translated by 谷歌翻译
观察数据中估算单个治疗效果(ITE)在许多领域,例如个性化医学等领域。但是,实际上,治疗分配通常被未观察到的变量混淆,因此引入了偏见。消除偏见的一种补救措施是使用仪器变量(IVS)。此类环境在医学中广泛存在(例如,将合规性用作二进制IV的试验)。在本文中,我们提出了一个新颖的,可靠的机器学习框架,称为MRIV,用于使用二进制IV估算ITES,从而产生无偏见的ITE估计器。与以前的二进制IV的工作不同,我们的框架通过伪结果回归直接估算了ITE。 (1)我们提供了一个理论分析,我们表明我们的框架产生了多重稳定的收敛速率:即使几个滋扰估计器的收敛缓慢,我们的ITE估计器也会达到快速收敛。 (2)我们进一步表明,我们的框架渐近地优于最先进的插件IV方法,以进行ITE估计。 (3)我们以理论结果为基础,并提出了一种使用二进制IVS的ITE估算的定制的,称为MRIV-NET的深度神经网络结构。在各种计算实验中,我们从经验上证明了我们的MRIV-NET实现最先进的性能。据我们所知,我们的MRIV是第一个机器学习框架,用于估算显示出倍增功能的二进制IV设置。
translated by 谷歌翻译
找到与治疗效果差异相关的特征对于揭示基本因果机制至关重要。现有方法通过测量特征属性如何影响{\ iT条件平均治疗效果}(CATE)的程度来寻求此类特征。但是,这些方法可能会忽略重要特征,因为CATE是平均治疗效果的度量,无法检测到平均值以外的其他分布参数(例如方差)的差异。为了解决现有方法的这种弱点,我们提出了一个特征选择框架,以发现{\ IT分布处理效果修饰符}。我们首先制定特征重要性度量,该指标量化特征属性如何影响潜在结果分布之间的差异。然后,我们得出其计算高效的估计器,并开发了一个功能选择算法,该算法可以将I型错误率控制为所需级别。实验结果表明,我们的框架成功地发现了重要特征,并优于现有的基于均值的方法。
translated by 谷歌翻译
我提出了用于非参数剂量响应曲线和半造型处理效果的内核脊回归估计,在分析师可以访问所选样品而不是随机样品的情况下;仅供选择观察,观察结果。我假设选择与治疗的随机条件一样好,并且具有足够丰富的观察协变量,其中允许协变量引起治疗或由治疗引起的 - 失踪 - 随机(MAR)的延伸。我提出了在核矩阵操作方面具有封闭形式解决方案的手段,增量和分布的估算,允许治疗和协调因子是离散的或连续的,低,高或无限尺寸。对于连续处理箱,我证明了具有有限样本速率的均匀一致性。对于离散处理案例,我证明了根 - N一致性,高斯近似和半占效率。
translated by 谷歌翻译
因果推断能够估计治疗效果(即,治疗结果的因果效果),使各个领域的决策受益。本研究中的一个基本挑战是观察数据的治疗偏见。为了提高对因果推断的观察研究的有效性,基于代表的方法作为最先进的方法表明了治疗效果估计的卓越性能。基于大多数基于表示的方法假设所有观察到的协变量都是预处理的(即,不受治疗影响的影响),并学习这些观察到的协变量的平衡表示,以估算治疗效果。不幸的是,这种假设往往在实践中往往是太严格的要求,因为一些协调因子是通过对治疗的干预进行改变(即,后治疗)来改变。相比之下,从不变的协变量中学到的平衡表示因此偏置治疗效果估计。
translated by 谷歌翻译
我们提出了用于中介分析和动态治疗效果的内核脊回归估计。我们允许治疗,协变量和介质是离散或连续的,低,高或无限的尺寸。我们在内核矩阵操作方面提出了具有封闭式解决方案的依据,增量和分布的估算者。对于连续治疗案例,我们证明了具有有限样本速率的均匀一致性。对于离散处理案例,我们证明了根 - N一致性,高斯近似和半占用效率。我们进行仿真,然后估计美国职务团计划的介导和动态治疗效果,弱势青少年。
translated by 谷歌翻译
在制定政策指南时,随机对照试验(RCT)代表了黄金标准。但是,RCT通常是狭窄的,并且缺乏更广泛的感兴趣人群的数据。这些人群中的因果效应通常是使用观察数据集估算的,这可能会遭受未观察到的混杂和选择偏见。考虑到一组观察估计(例如,来自多项研究),我们提出了一个试图拒绝偏见的观察性估计值的元偏值。我们使用验证效应,可以从RCT和观察数据中推断出的因果效应。在拒绝未通过此测试的估计器之后,我们对RCT中未观察到的亚组的外推性效应产生了保守的置信区间。假设至少一个观察估计量在验证和外推效果方面是渐近正常且一致的,我们为我们算法输出的间隔的覆盖率概率提供了保证。为了促进在跨数据集的因果效应运输的设置中,我们给出的条件下,即使使用灵活的机器学习方法用于估计滋扰参数,群体平均治疗效应的双重稳定估计值也是渐近的正常。我们说明了方法在半合成和现实世界数据集上的特性,并表明它与标准的荟萃分析技术相比。
translated by 谷歌翻译
Causal learning is the key to obtaining stable predictions and answering \textit{what if} problems in decision-makings. In causal learning, it is central to seek methods to estimate the average treatment effect (ATE) from observational data. The Double/Debiased Machine Learning (DML) is one of the prevalent methods to estimate ATE. However, the DML estimators can suffer from an \textit{error-compounding issue} and even give extreme estimates when the propensity scores are close to 0 or 1. Previous studies have overcome this issue through some empirical tricks such as propensity score trimming, yet none of the existing works solves it from a theoretical standpoint. In this paper, we propose a \textit{Robust Causal Learning (RCL)} method to offset the deficiencies of DML estimators. Theoretically, the RCL estimators i) satisfy the (higher-order) orthogonal condition and are as \textit{consistent and doubly robust} as the DML estimators, and ii) get rid of the error-compounding issue. Empirically, the comprehensive experiments show that: i) the RCL estimators give more stable estimations of the causal parameters than DML; ii) the RCL estimators outperform traditional estimators and their variants when applying different machine learning models on both simulation and benchmark datasets, and a mimic consumer credit dataset generated by WGAN.
translated by 谷歌翻译
我们引入了一个灵活的框架,该框架可为因果推理产生高质量的几乎享用的匹配。匹配中的大多数先前工作都使用临时距离指标,通常会导致质量差,尤其是在有无关的协变量时。在这项工作中,我们学习了一个可解释的距离度量,以实现更高质量的匹配。学到的距离度量标准根据每个协变量对结果预测的贡献延伸协变量空间:这种拉伸意味着,对重要协变量的不匹配比对无关协变量的不匹配的惩罚更大。我们学习柔性距离指标的能力会导致匹配,这些匹配对于估计有条件的平均治疗效果有用。
translated by 谷歌翻译
当并非观察到所有混杂因子并获得负面对照时,我们研究因果参数的估计。最近的工作表明,这些方法如何通过两个所谓的桥梁函数来实现识别和有效估计。在本文中,我们使用阴性对照来应对因果推断的主要挑战:这些桥梁功能的识别和估计。先前的工作依赖于这些功能的完整性条件,以识别因果参数并在估计中需要进行独特性假设,并且还集中于桥梁函数的参数估计。相反,我们提供了一种新的识别策略,以避免完整性条件。而且,我们根据最小学习公式为这些功能提供新的估计量。这些估计值适合通用功能类别,例如重现Hilbert空间和神经网络。我们研究了有限样本收敛的结果,既可以估计桥梁功能本身,又要在各种假设组合下对因果参数进行最终估计。我们尽可能避免桥梁上的独特条件。
translated by 谷歌翻译
In the new era of personalization, learning the heterogeneous treatment effect (HTE) becomes an inevitable trend with numerous applications. Yet, most existing HTE estimation methods focus on independently and identically distributed observations and cannot handle the non-stationarity and temporal dependency in the common panel data setting. The treatment evaluators developed for panel data, on the other hand, typically ignore the individualized information. To fill the gap, in this paper, we initialize the study of HTE estimation in panel data. Under different assumptions for HTE identifiability, we propose the corresponding heterogeneous one-side and two-side synthetic learner, namely H1SL and H2SL, by leveraging the state-of-the-art HTE estimator for non-panel data and generalizing the synthetic control method that allows flexible data generating process. We establish the convergence rates of the proposed estimators. The superior performance of the proposed methods over existing ones is demonstrated by extensive numerical studies.
translated by 谷歌翻译
我们在右审查的生存时间和协变量之间介绍一般的非参数独立测试,这可能是多变量的。我们的测试统计数据具有双重解释,首先是潜在无限的重量索引日志秩检验的超级索引,具有属于函数的再现内核HILBERT空间(RKHS)的重量函数;其次,作为某些有限措施的嵌入差异的规范,与Hilbert-Schmidt独立性标准(HSIC)测试统计类似。我们研究了测试的渐近性质,找到了足够的条件,以确保我们的测试在任何替代方案下正确拒绝零假设。可以直截了当地计算测试统计,并且通过渐近总体的野外自注程序进行拒绝阈值。对模拟和实际数据的广泛调查表明,我们的测试程序通常比检测复杂的非线性依赖的竞争方法更好。
translated by 谷歌翻译
在TAN(2006)边缘敏感模型下,在不观察到的混淆存在下构建平均处理效应的界限问题。结合涉及对冲倾向分数的现有表征具有对问题的新的分布稳健特征,我们提出了我们称之为“双重有效/双重尖锐”(DVD)估计的这些界限的新颖估算器。双重清晰度对应于DVD估计始终估计灵敏度模型所暗示的最有可能(即,夏普)的界限,即使当所有滋扰参数都适当一致时,即使在两个滋扰参数中的一个被击败并实现半污染参数之一。双倍有效性是部分识别的全新财产:DVD估计仍然提供有效,但即使在大多数滋扰参数都被遗漏时,仍然没有锐利。实际上,即使在DVDS点估计无法渐近正常的情况下,标准沃尔德置信区间也可能保持有效。在二进制结果的情况下,DVD估计是特别方便的并且在结果回归和倾向评分方面具有闭合形式的表达。我们展示了模拟研究中的DVD估计,以及对右心导管插入的案例研究。
translated by 谷歌翻译