基于变分粒子的贝叶斯学习方法的优点是不受影响更多传统参数化技术的偏差的限制。本文建议利用非参数贝叶斯近似推理的灵活性,以开发一种新颖的贝叶斯联邦无学习方法,称为遗忘 - 斯坦变分梯度下降(忘记-SVGD)。忘记SVGD在SVGD上构建 - 一种基于粒子的近似贝叶斯推理方案,使用基于梯度的确定性更新 - 以及称为分布式SVGD(DSVGD)的分布式(联合)扩展名。在完成联合学习后,作为一个或多个参与代理人要求他们的数据被“忘记”,忘记-SVGD在数据需要“未解析”的代理商处执行本地SVGD更新,其与通信回合进行交错参数服务器。通过与非参数化方案通过捕获要遗忘的数据以及现有的参数贝叶斯未经学习方法来验证该方法,以及从头开始训练。
translated by 谷歌翻译