Distributionally robust optimization (DRO) can improve the robustness and fairness of learning methods. In this paper, we devise stochastic algorithms for a class of DRO problems including group DRO, subpopulation fairness, and empirical conditional value at risk (CVaR) optimization. Our new algorithms achieve faster convergence rates than existing algorithms for multiple DRO settings. We also provide a new information-theoretic lower bound that implies our bounds are tight for group DRO. Empirically, too, our algorithms outperform known methods
translated by 谷歌翻译
Segmentation of regions of interest (ROIs) for identifying abnormalities is a leading problem in medical imaging. Using Machine Learning (ML) for this problem generally requires manually annotated ground-truth segmentations, demanding extensive time and resources from radiologists. This work presents a novel weakly supervised approach that utilizes binary image-level labels, which are much simpler to acquire, to effectively segment anomalies in medical Magnetic Resonance (MR) images without ground truth annotations. We train a binary classifier using these labels and use it to derive seeds indicating regions likely and unlikely to contain tumors. These seeds are used to train a generative adversarial network (GAN) that converts cancerous images to healthy variants, which are then used in conjunction with the seeds to train a ML model that generates effective segmentations. This method produces segmentations that achieve Dice coefficients of 0.7903, 0.7868, and 0.7712 on the MICCAI Brain Tumor Segmentation (BraTS) 2020 dataset for the training, validation, and test cohorts respectively. We also propose a weakly supervised means of filtering the segmentations, removing a small subset of poorer segmentations to acquire a large subset of high quality segmentations. The proposed filtering further improves the Dice coefficients to up to 0.8374, 0.8232, and 0.8136 for training, validation, and test, respectively.
translated by 谷歌翻译
训练机器学习(ML)模型以分割肿瘤和医学图像中的其他异常是一个越来越受欢迎的研究领域,但通常需要手动注释的地面真实分段,这需要大量的时间和资源来创建。这项工作提出了一个使用二进制分类标签的ML模型的管道,可以轻松获取,以分割ROI,而无需进行地面真实注释。我们使用了来自多模式脑肿瘤分割挑战(BRAT)的2D磁共振成像(MRI)脑扫描2020数据集,标签表明存在高级神经胶质瘤(HGG)肿瘤来训练管道。我们的管道还引入了基于深度学习的超级像素生成的新颖变体,该变体能够以聚类的超像素为指导,并同时训练超像素聚类模型。在我们的测试集中,我们的管道的分割达到了61.7%的骰子系数,当使用流行的局部局部可解释的模型 - 敏捷解释(LIME)方法时,获得的42.8%骰子系数是一个实质性的改善。
translated by 谷歌翻译
可推广性是机器学习(ML)图像分类器的最终目标,其中噪声和有限的数据集大小是主要问题。我们通过利用深度多任务学习(DMTL)的框架来应对这些挑战,并将图像深度估计作为一项辅助任务。在MNIST数据集的自定义和深度增强的推导下,我们显示a)多任务损耗功能是实施DMTL的最有效方法,b)有限的数据集大小主要导致分类不准确,并且c)深度估计主要受到噪声的影响。 。为了进一步验证结果,我们手动将NYU深度V2数据集标记为场景分类任务。作为对该领域的贡献,我们以Python Antial Format公开提供了作为开源数据集的数据,并提供了场景标签。我们对MNIST和NYU-DEPTH-V2的实验显示了DMTL在数据集嘈杂并且示例的数量受到限制时提高了分类器的普遍性。
translated by 谷歌翻译
深度学习的概括分析通常假定训练会收敛到固定点。但是,最近的结果表明,实际上,用随机梯度下降优化的深神经网络的权重通常无限期振荡。为了减少理论和实践之间的这种差异,本文着重于神经网络的概括,其训练动力不一定会融合到固定点。我们的主要贡献是提出一个统计算法稳定性(SAS)的概念,该算法将经典算法稳定性扩展到非convergergent算法并研究其与泛化的联系。与传统的优化和学习理论观点相比,这种崇高的理论方法可导致新的见解。我们证明,学习算法的时间复杂行为的稳定性与其泛化有关,并在经验上证明了损失动力学如何为概括性能提供线索。我们的发现提供了证据表明,即使训练无限期继续并且权重也不会融合,即使训练持续进行训练,训练更好地概括”的网络也是如此。
translated by 谷歌翻译
放射学诊断的传统数据集倾向于在放射学报告旁边提供放射学图像。但是,放射科医生进行的放射学读数是一个复杂的过程,在阅读过程中,放射科医生的眼睛固定等信息有可能成为可从中学习的宝贵数据源。但是,此类数据的收集既昂贵又耗时。这导致了一个问题,即此类数据是否值得投资收集。本文利用最近发表的Eye Gaze数据集对面对不同级别的输入功能的影响的影响和解释性(DL)分类的影响进行详尽的研究,即:放射学图像,放射学报告文本和放射学家眼睛凝视数据。我们发现,通过放射学报告自由文本和放射学图像的组合,可以实现X射线图像的最佳分类性能,而眼睛凝视数据没有提供性能的提升。尽管如此,与培训的模型相比,与从事分类和注意力图的模型相比,眼睛凝视数据将作为次级基础真理以及类标签以及类似于辅助图的模型产生更好的注意力图。
translated by 谷歌翻译
由于深度学习在放射学领域被广泛使用,因此在使用模型进行诊断时,这种模型的解释性越来越成为获得临床医生的信任至关重要的。在这项研究中,使用U-NET架构进行了三个实验集,以改善分类性能,同时通过在训练过程中结合热图生成器来增强与模型相对应的热图。所有实验均使用包含胸部X光片的数据集,来自三个条件之一(“正常”,“充血性心力衰竭(CHF)”和“肺炎”)的相关标签,以及有关放射科医师眼神坐标的数值信息在图像上。引入该数据集的论文(A. Karargyris和Moradi,2021年)开发了一个U-NET模型,该模型被视为这项研究的基线模型,以显示如何将眼目光数据用于多模式培训中的眼睛凝视数据以进行多模式培训以进行多模式训练。解释性改进。为了比较分类性能,测量了接收器操作特征曲线(AUC)下面积的95%置信区间(CI)。最佳方法的AUC为0.913(CI:0.860-0.966)。最大的改进是“肺炎”和“ CHF”类别,基线模型最努力地进行分类,导致AUCS 0.859(CI:0.732-0.957)和0.962(CI:0.933-0.989)。所提出的方法的解码器还能够产生概率掩模,以突出模型分类中确定的图像部分,类似于放射科医生的眼睛凝视数据。因此,这项工作表明,将热图发生器和眼睛凝视信息纳入训练可以同时改善疾病分类,并提供可解释的视觉效果,与放射线医生在进行诊断时如何看待胸部X光片。
translated by 谷歌翻译
近年来,现代机器学习系统已成功应用于各种任务,但使此类系统对输入实例的对抗完全选择的修改似乎是一个更难的问题。可能会说没有完全满足的解决方案已经找到最新的解决方案,如果标准配方甚至允许原则的解决方案,则尚不清楚。因此,不是遵循有界扰动的经典路径,我们考虑类似于Bshouty和杰克逊引入的量子Pac学习模型[1995]。我们的第一款主要贡献表明,在该模型中,我们可以减少两个经典学习理论问题的结合的对抗性鲁棒性,即(问题1)找到生成模型的问题和(问题2)对尊重的鲁棒分类器的设计问题分配转移。我们的第二个关键贡献是考虑的框架不依赖于特定的(并且因此也有些任意的)威胁模型,如$ \ ell_p $界扰动。相反,我们的减少保证,为了解决我们模型中的对抗鲁棒性问题,它足以考虑一个距离概念,即Hellinger距离。从技术角度来看,我们的协议严重是基于近期量子计算代表团的进步,例如, Mahadev [2018]。虽然被认为的模型是量子,因此没有立即适用于“真实世界”的情况,但可能希望在未来可以找到一种方法可以找到将“真实世界”问题融入量子框架或者可以找到经典算法,其能够模仿其强大的量子对应物。
translated by 谷歌翻译
我们研究了具有预处理结果数据的实验研究的最佳设计。估计平均处理效果是治疗和控制单元的加权平均结果之间的差异。许多常用的方法符合该配方,包括差分估计器和各种合成控制技术。我们提出了几种方法,用于结合重量选择一组处理的单位。观察问题的NP硬度,我们介绍了混合整数编程配方,可选择处理和控制集和单位权重。我们证明,这些提出的方法导致定性不同的实验单元进行治疗。我们根据美国劳动统计局的公开数据使用模拟,这些数据在与随机试验等简单和常用的替代品相比时,表现出平均平方误差和统计功率的改进。
translated by 谷歌翻译