通过允许多个临床站点在不集中数据集的情况下协作学习全球模型,在联邦学习(FL)下进行的医学图像分割是一个有希望的方向。但是,使用单个模型适应来自不同站点的各种数据分布非常具有挑战性。个性化的FL仅利用来自Global Server共享的部分模型参数来解决此问题,同时保留其余部分以适应每个站点本地培训中的数据分布。但是,大多数现有方法都集中在部分参数分裂上,而在本地培训期间,不考虑\ textit {textit {site Inter-inter insteriscisies},实际上,这可以促进网站上的知识交流,以使模型学习有益于改进模型学习本地准确性。在本文中,我们提出了一个个性化的联合框架,使用\ textbf {l} ocal \ textbf {c}启动(lc-fed),以利用\ textIt {feftrict-and prediction-lactic}中的位置间暂停。提高细分。具体而言,由于每个本地站点都对各种功能都有另一种关注,因此我们首先设计嵌入的对比度位点,并与通道选择操作结合以校准编码的功能。此外,我们建议利用预测级别的一致性的知识,以指导模棱两可地区的个性化建模,例如解剖界限。它是通过计算分歧感知图来校准预测来实现的。我们的方法的有效性已在具有不同方式的三个医学图像分割任务上进行了验证,在该任务中,我们的方法始终显示出与最先进的个性化FL方法相比的性能。代码可从https://github.com/jcwang123/fedlc获得。
translated by 谷歌翻译
联合学习是一种新兴的范式,允许大规模分散学习,而无需在不同的数据所有者中共享数据,这有助于解决医学图像分析中数据隐私的关注。但是,通过现有方法对客户的标签一致性的要求很大程度上缩小了其应用程序范围。实际上,每个临床部位只能以部分或没有与其他站点重叠的某些感兴趣的器官注释某些感兴趣的器官。将这种部分标记的数据纳入统一联邦是一个未开发的问题,具有临床意义和紧迫性。这项工作通过使用新型联合多重编码U-NET(FED-MENU)方法来应对挑战,以进行多器官分割。在我们的方法中,提出了一个多编码的U-NET(菜单网络),以通过不同的编码子网络提取器官特异性功能。每个子网络都可以看作是特定风琴的专家,并为该客户培训。此外,为了鼓励不同子网络提取的特定器官特定功能具有信息性和独特性,我们通过设计辅助通用解码器(AGD)来规范菜单网络的训练。四个公共数据集上的广泛实验表明,我们的Fed-Menu方法可以使用具有优越性能的部分标记的数据集有效地获得联合学习模型,而不是由局部或集中学习方法培训的其他模型。源代码将在纸质出版时公开提供。
translated by 谷歌翻译
联合学习(FL)可用于通过使多个机构协作,改善磁共振(MR)图像重建的数据隐私和效率,而无需聚合本地数据。然而,由不同MR成像协议引起的域移位可以显着降低FL模型的性能。最近的流程倾向于通过增强全局模型的概括来解决这一点,但它们忽略了特定于域的特征,这可能包含有关设备属性的重要信息,并且对本地重建有用。在本文中,我们提出了一种针对MR图像重建(FEDMRI)的特异性保存流算法。核心思想是将MR重建模型划分为两个部分:全局共享编码器,以在全局级别获取概括的表示,以及客户特定的解码器,以保留每个客户端的特定于域的属性,这对于协作很重要当客户具有独特的分发时重建。此外,为了进一步提高全局共享编码器的收敛,当存在域移位时,引入加权对比正规化以在优化期间直接校正客户端和服务器之间的任何偏差。广泛的实验表明,我们的Fedmri的重建结果是最接近多机构数据的地面真理,并且它优于最先进的FL方法。
translated by 谷歌翻译
一方(服务器)培训的检测模型可能会在分发给其他用户(客户)时面临严重的性能降解。例如,在自主驾驶场景中,不同的驾驶环境可能会带来明显的域移动,从而导致模型预测的偏见。近年来出现的联合学习可以使多方合作培训无需泄漏客户数据。在本文中,我们专注于特殊的跨域场景,其中服务器包含大规模数据,并且多个客户端仅包含少量数据。同时,客户之间的数据分布存在差异。在这种情况下,传统的联合学习技术不能考虑到所有参与者的全球知识和特定客户的个性化知识的学习。为了弥补这一限制,我们提出了一个跨域联合对象检测框架,名为FedOD。为了同时学习不同领域的全球知识和个性化知识,拟议的框架首先执行联合培训,以通过多教老师蒸馏获得公共全球汇总模型,并将汇总模型发送给每个客户端以供应其个性化的个性化模型本地模型。经过几轮沟通后,在每个客户端,我们可以对公共全球模型和个性化本地模型进行加权合奏推理。通过合奏,客户端模型的概括性能可以胜过具有相同参数量表的单个模型。我们建立了一个联合对象检测数据集,该数据集具有基于多个公共自主驾驶数据集的显着背景差异和实例差异,然后在数据集上进行大量实验。实验结果验证了所提出的方法的有效性。
translated by 谷歌翻译
U-shaped networks are widely used in various medical image tasks, such as segmentation, restoration and reconstruction, but most of them usually rely on centralized learning and thus ignore privacy issues. To address the privacy concerns, federated learning (FL) and split learning (SL) have attracted increasing attention. However, it is hard for both FL and SL to balance the local computational cost, model privacy and parallel training simultaneously. To achieve this goal, in this paper, we propose Robust Split Federated Learning (RoS-FL) for U-shaped medical image networks, which is a novel hybrid learning paradigm of FL and SL. Previous works cannot preserve the data privacy, including the input, model parameters, label and output simultaneously. To effectively deal with all of them, we design a novel splitting method for U-shaped medical image networks, which splits the network into three parts hosted by different parties. Besides, the distributed learning methods usually suffer from a drift between local and global models caused by data heterogeneity. Based on this consideration, we propose a dynamic weight correction strategy (\textbf{DWCS}) to stabilize the training process and avoid model drift. Specifically, a weight correction loss is designed to quantify the drift between the models from two adjacent communication rounds. By minimizing this loss, a correction model is obtained. Then we treat the weighted sum of correction model and final round models as the result. The effectiveness of the proposed RoS-FL is supported by extensive experimental results on different tasks. Related codes will be released at https://github.com/Zi-YuanYang/RoS-FL.
translated by 谷歌翻译
使用联合学习(FL)协作培训模型的多个医疗机构已成为最大化数据驱动模型的潜力的有希望的解决方案,但医学图像中的非独立性和相同分布的(非IID)数据仍然是一个突出的挑战在真实的练习中。由不同扫描仪或协议引起的特征异质性在本地(客户端)和全局(服务器)优化中引入了学习过程中的漂移,这损害了收敛以及模型性能。许多以前的作品已经尝试通过在本地或全球范围内解决漂移来解决非IID问题,但如何共同解决两个基本耦合的漂移仍然不清楚。在这项工作中,我们专注于处理本地和全球漂移,并介绍一个名为HARMOFL的新协调框架。首先,我们建议通过将变换到频域的图像的幅度归一化以模仿统一的成像设置来减轻本地更新漂移,以便在跨本地客户端生成统一的特征空间。其次,基于谐波功能,我们设计了引导每个本地模型的客户重量扰动,以达到平坦的最佳状态,其中局部最佳解决方案的邻域面积具有均匀低损耗。如果没有任何额外的沟通成本,则扰动协助全局模型通过聚合几个局部平面OptimA来优化融合的最佳解决方案。理论上,我们已经分析了所提出的方法和经验上对三种医学图像分类和分割任务进行了广泛的实验,表明HARMOFL优于一系列具有有前途的收敛行为的最近最先进的方法。
translated by 谷歌翻译
联合学习(FL)可以在不共享参与网站的数据的情况下协作学习深层学习模型。在医学图像分析中的FL相对较新,可开放增强功能。在这项研究中,我们提出了一种新的联邦学习方法,用于培训更广泛的模型。所提出的方法利用了客户选择中的随机性,也利用了联合平均过程。我们将FedDropOutvg与FL情景中的几种算法进行比较,用于现实世界多站点组织病理学图像分类任务。我们展示了通过FEDDROPOUDAVG,最终模型可以比其他FL方法更好地实现性能,并且更接近经典的深度学习模型,需要为集中培训共享所有数据。我们在大型数据集上测试训练有素的模型,由21个不同中心组成的120万像素瓷砖。为了评估所提出的方法的泛化能力,我们使用来自FL中的中心的中心的RET-OUT测试集,并且来自其他独立中心的看不见的数据,其数据未在联邦培训中使用。我们表明,拟议的方法比其他最先进的联邦培训方法更广泛。据我们所知,我们的是第一个在医学图像分析任务的联合设置中使用随机客户端和本地模型参数选择过程的研究。
translated by 谷歌翻译
目前最先进的基于深度学习的面部识别(FR)模型需要大量的核心训练身份。然而,由于隐私意识不断增长,禁止访问用户设备上的面部图像以不断改进面部识别模型。联合学习(FL)是一种解决隐私问题的技术,可以在不共享客户端之间的数据的情况下协作优化模型。在这项工作中,我们提出了一个基于FLIS的框架,称为FEDFR,以通过隐私感知方式改进通用面部表示。此外,该框架通过所提出的解耦特征定制模块共同优化相应客户端的个性化模型。客户特定的个性化模型可以服务于本地设备的注册标识所需的优化面部识别体验。据我们所知,我们是第一个探索FL Setup中的个性化脸部识别的人。拟议的框架被验证,优于以前的几种通用和个性化的面部识别基准与多种情景的识别基准。源代码和我们提出的个性化FR基准下的FL Setup可用于https://github.com/jackie840129/fedfr。
translated by 谷歌翻译
皮肤病学疾病对全球健康构成了重大威胁,影响了世界上近三分之一的人口。各种研究表明,早期诊断和干预通常对预后和预后至关重要。为此,在过去的十年中,基于深度学习的智能手机应用程序的快速发展,该应用程序使用户可以方便,及时地识别出围绕皮肤出现的问题。为了收集深度学习所需的足够数据,同时保护患者的隐私,经常使用联合学习,在该数据集合数据集本地的同时汇总了全球模型。但是,现有的联合学习框架主要旨在优化整体性能,而常见的皮肤病学数据集则严重不平衡。在将联合学习应用于此类数据集时,可能会出现明显的诊断准确性差异。为了解决这样的公平问题,本文提出了一个公平意识的联邦学习框架,用于皮肤病学诊断。该框架分为两个阶段:在第一个FL阶段,具有不同皮肤类型的客户在联合学习过程中接受了训练,以构建所有皮肤类型的全球模型。在此过程中,使用自动重量聚合器将更高的权重分配给损失较高的客户,并且聚合器的强度取决于损失之间的差异水平。在后一个FL阶段,每个客户根据FL阶段的全球模型微调了其个性化模型。为了获得更好的公平性,为每个客户选择了来自不同时期的模型,以在0.05内保持不同皮肤类型的准确性差异。实验表明,与最先进的框架相比,我们提出的框架有效地提高了公平性和准确性。
translated by 谷歌翻译
联邦学习(FL)是一种分布式学习方法,它为医学机构提供了在全球模型中合作的前景,同时保留患者的隐私。尽管大多数医疗中心执行类似的医学成像任务,但它们的差异(例如专业,患者数量和设备)导致了独特的数据分布。数据异质性对FL和本地模型的个性化构成了挑战。在这项工作中,我们研究了FL生产中间半全球模型的一种自适应分层聚类方法,因此具有相似数据分布的客户有机会形成更专业的模型。我们的方法形成了几个群集,这些集群由具有最相似数据分布的客户端组成;然后,每个集群继续分开训练。在集群中,我们使用元学习来改善参与者模型的个性化。我们通过评估我们在HAM10K数据集上的建议方法和极端异质数据分布的HAM10K数据集上的我们提出的方法,将聚类方法与经典的FedAvg和集中式培训进行比较。我们的实验表明,与标准的FL方法相比,分类精度相比,异质分布的性能显着提高。此外,我们表明,如果在群集中应用,则模型会更快地收敛,并且仅使用一小部分数据,却优于集中式培训。
translated by 谷歌翻译
联合学习(FL),使不同的医疗机构或客户能够在没有数据隐私泄漏的情况下进行协作培训模型,最近在医学成像社区中引起了极大的关注。尽管已经对客户间数据异质性进行了彻底的研究,但由于存在罕见疾病,阶级失衡问题仍然不足。在本文中,我们提出了一个新型的FL框架,用于医学图像分类,尤其是在处理罕见疾病的数据异质性方面。在Fedrare中,每个客户在本地训练一个模型,以通过客户内部监督对比度学习提取高度分离的潜在特征,以进行分类。考虑到有限的稀有疾病数据,我们建立了积极的样本队列以进行增强(即数据重采样)。 Fedrare中的服务器将从客户端收集潜在功能,并自动选择最可靠的潜在功能作为发送给客户的指南。然后,每个客户都会通过局部间的对比损失共同训练,以使其潜在特征与完整课程的联合潜在特征保持一致。通过这种方式,跨客户的参数/特征差异有效地最小化,从而可以更好地收敛和性能改进。关于皮肤病变诊断的公共可用数据集的实验结果表明,Fedrare的表现出色。在四个客户没有罕见病样本的10客户联合环境下,Fedrare的平均水平准确度平均增长了9.60%和5.90%,与FedAvg和FedAvg的基线框架和FedArt方法分别相比。考虑到在临床情况下存在罕见疾病的董事会,我们认为Fedrare将使未来的FL框架设计受益于医学图像分类。本文的源代码可在https://github.com/wnn2000/fedrare上公开获得。
translated by 谷歌翻译
联合学习(FL)是一个分散的学习范式,其中多个客户在不集中其本地数据的情况下进行培训深度学习模型,因此保留数据隐私。现实世界中的应用程序通常涉及在不同客户端的数据集上进行分发转换,这损害了客户从各自的数据分布中看不见样本的概括能力。在这项工作中,我们解决了最近提出的功能转移问题,其中客户具有不同的功能分布,而标签分布相同。我们建议联邦代表性扩大(FRAUG)来解决这个实用且具有挑战性的问题。我们的方法在嵌入空间中生成合成客户端特定的样本,以增加通常小客户端数据集。为此,我们训练一个共享的生成模型,以融合客户从其不同功能分布中学习的知识。该发电机合成了客户端 - 不合时式嵌入,然后通过表示转换网络(RTNET)将其局部转换为特定于客户端的嵌入。通过将知识转移到客户端,生成的嵌入式作为客户模型的正常化程序,并减少对本地原始数据集的过度拟合,从而改善了概括。我们对公共基准和现实医学数据集的经验评估证明了该方法的有效性,该方法在包括Partialfed和FedBN在内的非IID特征的当前最新FL方法大大优于最新的FL方法。
translated by 谷歌翻译
Federated Learning有望在不访问数据的情况下与多个客户进行协作培训模型的能力,但是当客户的数据分布彼此差异时脆弱。这种差异进一步导致了困境:“我们是否应该优先考虑学习模型的通用性能(用于服务器的将来使用)或其个性化绩效(对于每个客户端)?”这两个看似竞争的目标使社区分裂了专注于一个或另一个,但在本文中,我们表明可以同时实现这两者。具体而言,我们提出了一个新颖的联邦学习框架,该框架将模型的双重职责与两个预测任务相结合。一方面,我们介绍了一个损失家族,这些损失家庭对非相同的班级分布,使客户能够培训一个通用的预测指标,并以一致的目标培训。另一方面,我们将个性化预测变量作为一种轻巧的自适应模块,以最大程度地减少每个客户在通用预测指标上的经验风险。借助我们将联合强大的脱钩(FED-ROD)命名的两个损失的两次挑战框架,学识渊博的模型可以同时实现最先进的通用和个性化的性能,从而实质上弥补了这两个任务。
translated by 谷歌翻译
联合学习的目的是从多个分散设备(即客户)培训全球模型,而无需交换其私人本地数据。关键挑战是处理非i.i.d。 (独立分布的)数据,这些数据可能引起其本地功能的差异。我们介绍了超球联邦学习(球形)框架,以解决非i.i.d。通过限制学习数据点的学习表示,以在客户共享的单位超孔上。具体而言,所有客户都通过最大程度地减少固定分类器的损失来学习其本地表示,其权重跨度跨越了单位。在联合培训改善了全球模型后,通过最大程度地减少平方平方损失,通过封闭形式的解决方案进一步校准了该分类器。我们表明,可以有效地计算校准解决方案,而无需直接访问本地数据。广泛的实验表明,我们的球形方法能够通过相当大的利润率(在具有挑战性的数据集中达到6%)来提高多个现有联合学习算法的准确性,并具有增强的计算和跨数据集和模型架构的通信效率。
translated by 谷歌翻译
联合学习(FL)是分布式学习范例,可以从边缘设备上的分散数据集中学习全局或个性化模型。然而,在计算机视觉域中,由于统一的流行框架缺乏探索,FL的模型性能远远落后于集中培训。在诸如物体检测和图像分割之类的高级计算机视觉任务中,FL很少有效地说明。为了弥合差距并促进电脑视觉任务的流动,在这项工作中,我们提出了一个联邦学习库和基准框架,命名为FEDCV,评估了三个最具代表性的计算机视觉任务:图像分类,图像分割,和物体检测。我们提供非I.I.D。基准测试数据集,模型和各种参考FL算法。我们的基准研究表明,存在多种挑战值得未来的探索:集中式培训技巧可能不会直接申请fl;非i.i.d。 DataSet实际上将模型精度降级到不同的任务中的某种程度;给出了联合培训的系统效率,具有挑战性,鉴于大量参数和每个客户端记忆成本。我们认为,这种图书馆和基准以及可比的评估设置是必要的,以便在计算机视觉任务中进行有意义的进展。 Fedcv公开可用:https://github.com/fedml-ai/fedcv。
translated by 谷歌翻译
通信技术和互联网的最新进展与人工智能(AI)启用了智能医疗保健。传统上,由于现代医疗保健网络的高性性和日益增长的数据隐私问题,AI技术需要集中式数据收集和处理,这可能在现实的医疗环境中可能是不可行的。作为一个新兴的分布式协作AI范例,通过协调多个客户(例如,医院)来执行AI培训而不共享原始数据,对智能医疗保健特别有吸引力。因此,我们对智能医疗保健的使用提供了全面的调查。首先,我们在智能医疗保健中展示了近期进程,动机和使用FL的要求。然后讨论了近期智能医疗保健的FL设计,从资源感知FL,安全和隐私感知到激励FL和个性化FL。随后,我们对关键医疗领域的FL新兴应用提供了最先进的综述,包括健康数据管理,远程健康监测,医学成像和Covid-19检测。分析了几个最近基于智能医疗保健项目,并突出了从调查中学到的关键经验教训。最后,我们讨论了智能医疗保健未来研究的有趣研究挑战和可能的指示。
translated by 谷歌翻译
联合学习(FL)是一种机器学习范式,允许分散的客户在不共享其私人数据的情况下进行协作学习。但是,过度的计算和沟通要求对当前的FL框架构成挑战,尤其是在训练大型模型时。为了防止这些问题阻碍FL系统的部署,我们提出了一个轻巧的框架,客户共同学习融合由多个固定预训练的模型生成的表示形式,而不是从SCRATCH培训大型模型。这通过考虑如何从预先训练的模型中捕获更多特定于客户的信息,并共同提高每个客户利用这些现成模型的能力,从而导致我们解决了一个更实用的FL问题。在这项工作中,我们设计了一种联合原型对比度学习(FEDPCL)方法,该方法通过其类原型共享客户的知识,并以原型对比度方式构建特定于客户的表示。共享原型而不是可学习的模型参数可以使每个客户以个性化的方式融合表示表示,同时以紧凑的形式保持共享知识以进行有效的通信。我们在轻量级框架中对拟议的FEDPCL进行了彻底的评估,以测量和可视化其在流行的FL数据集上融合各种预训练模型的能力。
translated by 谷歌翻译
作为包含结构和特征信息的特殊信息载体,图被广泛用于图挖掘中,例如图形神经网络(GNNS)。但是,在某些实际情况下,图形数据分别存储在多个分布式各方中,由于利益冲突,可能不会直接共享。因此,提出了联合图神经网络来解决此类数据孤岛问题,同时保留各方(或客户)的隐私。然而,各方之间的不同图形数据分布(称为统计异质性)可能会降低诸如fedAvg之类的幼稚联合学习算法的性能。在本文中,我们提出了一个基于自我图形的联合图形学习框架Fedego,以应对上述挑战,每个客户将在此培训其本地模型,同时也为全球模型的培训做出贡献。 Fedego应用图形上的自我图形来充分利用结构信息,并利用混音来实现隐私问题。为了处理统计异质性,我们将个性化整合到学习中,并提出一种自适应混合系数策略,使客户能够实现最佳个性化。广泛的实验结果和深入分析证明了联邦的有效性。
translated by 谷歌翻译
个性化联合学习(FL)是佛罗里达州的一个新兴研究领域,在客户之间存在数据异质性的情况下,可以学习一个易于适应的全球模型。但是,个性化FL的主要挑战之一是,由于客户数据与服务器隔离以确保隐私,因此非常依赖客户的计算资源来计算高阶梯度。为了解决这个问题,我们专注于服务器可以独立于客户数据独立于客户数据的问题设置,这是各种应用程序中普遍的问题设置,但在现有文献中相对尚未探索。具体而言,我们提出了FedSim,这是一种针对个性化FL的新方法,该方法积极利用此类服务​​器数据来改善服务器中的元梯度计算以提高个性化性能。在实验上,我们通过各种基准和消融证明了FEDSIM在准确性方面优于现有方法,通过计算服务器中的完整元梯度,在计算上更有效,并且收敛速度高达34.2%。
translated by 谷歌翻译
近年来,个性化联邦学习(PFL)引起了越来越关注其在客户之间处理统计异质性的潜力。然而,最先进的PFL方法依赖于服务器端的模型参数聚合,这需要所有模型具有相同的结构和大小,因此限制了应用程序以实现更多异构场景。要处理此类模型限制,我们利用异构模型设置的潜力,并提出了一种新颖的培训框架,为不同客户使用个性化模型。具体而言,我们将原始PFL中的聚合过程分为个性化组知识转移训练算法,即KT-PFL,这使得每个客户端能够在服务器端维护个性化软预测以指导其他人的本地培训。 KT-PFL通过使用知识系数矩阵的所有本地软预测的线性组合更新每个客户端的个性化软预测,这可以自适应地加强拥有类似数据分布的客户端之间的协作。此外,为了量化每个客户对他人的个性化培训的贡献,知识系数矩阵是参数化的,以便可以与模型同时培训。知识系数矩阵和模型参数在每轮梯度下降方式之后的每一轮中可替代地更新。在不同的设置(异构模型和数据分布)下进行各种数据集(EMNIST,Fashion \ _Mnist,CIFAR-10)的广泛实验。据证明,所提出的框架是第一个通过参数化群体知识转移实现个性化模型培训的联邦学习范例,同时实现与最先进的算法比较的显着性能增益。
translated by 谷歌翻译