彩票票证假设(LTH)引起了人们的关注,因为它可以解释为什么过度参数化模型通常显示出很高的概括能力。众所周知,当我们使用迭代幅度修剪(IMP)时,这是一种算法,可以找到具有高概括能力的稀疏网络,可以独立从初始权重训练,称为获胜票,最初的大型学习率在深层神经网络,例如重新连接。但是,由于最初的较大学习率通常有助于优化器收敛到平坦的最小值,因此我们假设获胜票的最小值相对较高,这在概括能力方面被认为是不利的。在本文中,我们证实了这一假设,并表明Pac-Bayesian理论可以对LTH与概括行为之间的关系有明确的理解。根据我们的实验发现,平坦度可用于提高标签噪声的准确性和稳健性,并且与初始权重的距离深深涉及获胜的门票,我们提供了使用尖峰和slab分布的PAC-Bayes绑定到的pac-bayes分析获胜门票。最后,我们重新审视了现有的算法,以从Pac-Bayesian的角度查找获奖门票,并对这些方法提供新的见解。
translated by 谷歌翻译
Transparency of Machine Learning models used for decision support in various industries becomes essential for ensuring their ethical use. To that end, feature attribution methods such as SHAP (SHapley Additive exPlanations) are widely used to explain the predictions of black-box machine learning models to customers and developers. However, a parallel trend has been to train machine learning models in collaboration with other data holders without accessing their data. Such models, trained over horizontally or vertically partitioned data, present a challenge for explainable AI because the explaining party may have a biased view of background data or a partial view of the feature space. As a result, explanations obtained from different participants of distributed machine learning might not be consistent with one another, undermining trust in the product. This paper presents an Explainable Data Collaboration Framework based on a model-agnostic additive feature attribution algorithm (KernelSHAP) and Data Collaboration method of privacy-preserving distributed machine learning. In particular, we present three algorithms for different scenarios of explainability in Data Collaboration and verify their consistency with experiments on open-access datasets. Our results demonstrated a significant (by at least a factor of 1.75) decrease in feature attribution discrepancies among the users of distributed machine learning.
translated by 谷歌翻译
多源数据融合,共同分析了多个数据源以获得改进的信息,引起了广泛的研究关注。对于多个医疗机构的数据集,数据机密性和跨机构沟通至关重要。在这种情况下,数据协作(DC)分析通过共享维数减少的中间表示,而无需迭代跨机构通信可能是合适的。在分析包括个人信息在内的数据时,共享数据的可识别性至关重要。在这项研究中,研究了DC分析的可识别性。结果表明,共享的中间表示很容易识别为原始数据以进行监督学习。然后,这项研究提出了一个非可读性可识别的直流分析,仅共享多个医疗数据集(包括个人信息)的非可读数据。所提出的方法基于随机样本排列,可解释的直流分析的概念以及无法重建的功能的使用来解决可识别性问题。在医学数据集的数值实验中,提出的方法表现出非可读性可识别性,同时保持了常规DC分析的高识别性能。对于医院的数据集,提出的方法在仅使用本地数据集的本地分析的识别性能方面表现出了9个百分点的改善。
translated by 谷歌翻译
游戏中的学习理论在AI社区中很突出,这是由多个不断上升的应用程序(例如多代理增强学习和生成对抗性网络)的动机。我们提出了突变驱动的乘法更新(M2WU),以在两人零和零正常形式游戏中学习平衡,并证明它在全面和嘈杂的信息反馈设置中都表现出了最后的题融合属性。在全信息反馈设置中,玩家观察了实用程序功能的确切梯度向量。另一方面,在嘈杂的信息反馈设置中,他们只能观察到嘈杂的梯度向量。现有的算法,包括众所周知的乘法权重更新(MWU)和乐观的MWU(OMWU)算法,未能收敛到具有嘈杂的信息反馈的NASH平衡。相反,在两个反馈设置中,M2WU表现出最后的近期收敛到NASH平衡附近的固定点。然后,我们证明它通过迭代地适应突变项来收敛到精确的NASH平衡。我们从经验上确认,M2WU在可剥削性和收敛速率方面胜过MWU和OMWU。
translated by 谷歌翻译
在这项研究中,我们考虑了两个玩家零和游戏中的正规领导者(FTRL)动力学的变体。在时间平衡策略时,FTRL保证会融合到NASH平衡,而许多变体都遭受了极限自行车行为的问题,即缺乏最后的介质收敛保证。为此,我们提出了一种突变FTRL(M-FTRL),该算法引入了用于动作概率扰动的突变。然后,我们研究了M-FTRL的连续时间动力学,并提供了强大的收敛保证,可以向固定点提供近似于NASH平衡的固定点。此外,我们的仿真表明,M-FTRL比FTRL和乐观的FTRL在全信息反馈下享有更快的收敛速度,并且在强盗反馈下表现出明显的收敛性。
translated by 谷歌翻译
本文提出了一个新的语音转换(VC)任务,从人类语音到类似狗的语音,同时保留语言信息,作为人类到非人类生物语音转换(H2NH-VC)任务的一个例子。尽管大多数VC研究都涉及人类VC,但H2NH-VC旨在将人类的言论转变为非人类生物式的言语。非平行VC允许我们开发H2NH-VC,因为我们无法收集非人类生物说人类语言的并行数据集。在这项研究中,我们建议将狗用作非人类生物目标域的一个例子,并定义“像狗一样说话”任务。为了阐明“像狗一样说话”任务的可能性和特征,我们使用现有的代表性非平行VC方法进行了比较实验,以声学特征(Mel-Cepstral系数和MEL-SPECTROGINS),网络体系结构(五个不同的kernel- kernel--尺寸设置)和训练标准(基于差异自动编码器(VAE)基于对抗性网络)。最后,使用平均意见分数评估了转换后的声音:狗的声音,声音质量和可理解性以及字符错误率(CER)。该实验表明,梅尔光谱图的使用改善了转换后的语音的类似狗,而保留语言信息则具有挑战性。强调了H2NH-VC当前VC方法的挑战和局限性。
translated by 谷歌翻译