随着机器学习在整个社会中变得越来越普遍,必须仔细考虑包括数据隐私和公平性在内的各个方面,对于高度监管的行业的部署至关重要。不幸的是,增强隐私技术的应用可能会使模型中的不公平趋势恶化。尤其是用于私人模型训练,私人随机梯度下降(DPSGD)的最广泛使用的技术之一,通常会加剧对数据中的组的不同影响。在这项工作中,我们研究了DPSGD中不公平性的细粒度原因,并确定由于不公平的梯度剪辑而导致的梯度未对准是最重要的来源。该观察结果使我们采取了一种新的方法,可以通过防止DPSGD中的梯度未对准来减少不公平。
translated by 谷歌翻译