We study the task of training regression models with the guarantee of label differential privacy (DP). Based on a global prior distribution on label values, which could be obtained privately, we derive a label DP randomization mechanism that is optimal under a given regression loss function. We prove that the optimal mechanism takes the form of a ``randomized response on bins'', and propose an efficient algorithm for finding the optimal bin values. We carry out a thorough experimental evaluation on several datasets demonstrating the efficacy of our algorithm.
translated by 谷歌翻译
差异隐私通常使用比理论更大的隐私参数应用于理想的理想。已经提出了宽大隐私参数的各种非正式理由。在这项工作中,我们考虑了部分差异隐私(DP),该隐私允许以每个属性为基础量化隐私保证。在此框架中,我们研究了几个基本数据分析和学习任务,并设计了其每个属性隐私参数的算法,其较小的人(即所有属性)的最佳隐私参数比最佳的隐私参数。
translated by 谷歌翻译
我们引入了一种用于隐私随机变量数值组成的新算法,可用于计算机制组成的准确差分隐私参数。我们的算法实现了$ \ mathrm {polylog}(k)$的运行时间和内存使用量,用于从广泛的机制($ k $ times)中进行自我组合的任务;该类别包括在分析差异私有随机梯度下降中出现的亚采样高斯机制。相比之下,Gopi等人的最新工作。(Neurips 2021)在同一任务中获得了$ \ widetilde {o}(\ sqrt {k})$的运行时间。我们的方法扩展到在同一类中撰写$ k $不同机制的情况,从$ \ wideTilde {o}(k^{1.5})$改善其运行时间和内存使用量到$ \ widetilde {o}(k)$。
translated by 谷歌翻译
隐私损失分配(PLD)在差异隐私(DP)的背景下对机制的隐私损失进行了严格的特征。最近的工作表明,与其他已知方法相比,基于PLD的会计允许更紧密的$(\ Varepsilon,\ delta)$ - DP保证。基于PLD的会计中的一个关键问题是如何在任何指定的离散支持上近似任何(潜在的连续)PLD。我们提出了解决这个问题的新方法。我们的方法都支持悲观的估计,它高估了曲棍球刺激的差异(即$ \ delta $)的任何值的$ \ varepsilon $和乐观的估计,从而低估了曲棍球粘贴的分歧。此外,我们表明,在所有悲观估计中,我们的悲观估计是最好的。实验评估表明,与以前的方法相比,我们的方法可以在更大的离散时间间隔内工作,同时保持相似的误差,但比现有方法更近似。
translated by 谷歌翻译
使用差异隐私(DP)学习的大多数工作都集中在每个用户具有单个样本的设置上。在这项工作中,我们考虑每个用户持有M $ Samples的设置,并且在每个用户数据的级别强制执行隐私保护。我们展示了,在这个设置中,我们可以学习少数用户。具体而言,我们表明,只要每个用户收到足够多的样本,我们就可以通过$(\ epsilon,\ delta)$ - dp算法使用$ o(\ log(1 / \ delta)来学习任何私人学习的课程/ \ epsilon)$用户。对于$ \ epsilon $ -dp算法,我们展示我们即使在本地模型中也可以使用$ o _ {\ epsilon}(d)$用户学习,其中$ d $是概率表示维度。在这两种情况下,我们在所需用户数量上显示了几乎匹配的下限。我们的结果的一个关键组成部分是全局稳定性的概括[Bun等,Focs 2020]允许使用公共随机性。在这种轻松的概念下,我们采用相关的采样策略来表明全局稳定性可以在样品数量的多项式牺牲中被提升以任意接近一个。
translated by 谷歌翻译
Federated learning (FL) is a machine learning setting where many clients (e.g. mobile devices or whole organizations) collaboratively train a model under the orchestration of a central server (e.g. service provider), while keeping the training data decentralized. FL embodies the principles of focused data collection and minimization, and can mitigate many of the systemic privacy risks and costs resulting from traditional, centralized machine learning and data science approaches. Motivated by the explosive growth in FL research, this paper discusses recent advances and presents an extensive collection of open problems and challenges.
translated by 谷歌翻译
临床实践中使用的医学图像是异质的,与学术研究中研究的扫描质量不同。在解剖学,伪影或成像参数不寻常或方案不同的极端情况下,预处理会分解。最需要对这些变化的方法可靠。提出了一种新颖的深度学习方法,以将人脑快速分割为132个区域。提出的模型使用有效的U-NET型网络,并从不同视图和分层关系的交点上受益,以在端到端训练期间融合正交2D平面和脑标签。部署了弱监督的学习,以利用部分标记的数据来进行整个大脑分割和颅内体积(ICV)的估计。此外,数据增强用于通过生成具有较高的脑扫描的磁共振成像(MRI)数据来扩展模型训练,同时保持数据隐私。提出的方法可以应用于脑MRI数据,包括头骨或任何其他工件,而无需预处理图像或性能下降。与最新的一些实验相比,使用了不同的Atlases的几项实验,以评估受过训练模型的分割性能,并且与不同内部和不同内部和不同内部方法的现有方法相比,结果显示了较高的分割精度和鲁棒性。间域数据集。
translated by 谷歌翻译
将神经表示与语言因素联系起来至关重要,对于人类可以解释的NLP模型。在这些因素中,句法角色(例如主题,直接对象,$ \ dots $)及其实现是必不可少的标记,因为它们可以理解为谓语结构的分解,因此可以理解为句子的含义。从引起注意的深层概率生成模型开始,我们衡量潜在变量与句法角色实现之间的相互作用,并表明可以在不监督的情况下获得句子的表示,而不同的语法角色对应于清晰识别不同的潜在变量。我们提出的概率模型是注意力驱动的变异自动编码器(Advae)。从基于变压器的机器翻译模型中汲取灵感,可以通过注意力分析潜在变量和输入令牌之间的相互作用。我们还制定了一个评估协议,以衡量句法角色的实现。该协议基于对编码器的注意最大值和解码器的潜在变量扰动。我们在SNLI数据集中对原始英语文本进行的实验表明,可以在没有监督的情况下诱导$ \ textit {i)} $ dentangement句法角色,$ \ textit {ii)} $ advae分离句法角色比经典序列VAE和Transferaler sequence VAE和Transformer Vaes更好,$ \ textit {iii)} $句法角色的实现可以通过仅仅干预相关的潜在变量在句子中分别修改。我们的工作构成了无监督的可控内容生成的第一步。我们的工作代码公开可用。
translated by 谷歌翻译