U-shaped networks are widely used in various medical image tasks, such as segmentation, restoration and reconstruction, but most of them usually rely on centralized learning and thus ignore privacy issues. To address the privacy concerns, federated learning (FL) and split learning (SL) have attracted increasing attention. However, it is hard for both FL and SL to balance the local computational cost, model privacy and parallel training simultaneously. To achieve this goal, in this paper, we propose Robust Split Federated Learning (RoS-FL) for U-shaped medical image networks, which is a novel hybrid learning paradigm of FL and SL. Previous works cannot preserve the data privacy, including the input, model parameters, label and output simultaneously. To effectively deal with all of them, we design a novel splitting method for U-shaped medical image networks, which splits the network into three parts hosted by different parties. Besides, the distributed learning methods usually suffer from a drift between local and global models caused by data heterogeneity. Based on this consideration, we propose a dynamic weight correction strategy (\textbf{DWCS}) to stabilize the training process and avoid model drift. Specifically, a weight correction loss is designed to quantify the drift between the models from two adjacent communication rounds. By minimizing this loss, a correction model is obtained. Then we treat the weighted sum of correction model and final round models as the result. The effectiveness of the proposed RoS-FL is supported by extensive experimental results on different tasks. Related codes will be released at https://github.com/Zi-YuanYang/RoS-FL.
translated by 谷歌翻译
计算机断层扫描(CT)在临床实践中非常重要,因为它强大的能力在没有任何侵入性检查的情况下提供患者的解剖信息,但其潜在的辐射风险引起了人们的关注。基于深度学习的方法在CT重建中被认为是有希望的,但是这些网络模型通常是通过从特定扫描协议获得的测量数据进行训练的,并且需要集中收集大量数据,这将导致严重的数据域移动,并引起隐私问题。 。为了缓解这些问题,在本文中,我们提出了一种基于超网络的联合学习方法,用于个性化CT成像,称为超fed。超fed的基本假设是,每个机构的优化问题可以分为两个部分:本地数据适应问题和全局CT成像问题,这些问题分别由机构特定的超网络和全球共享成像网络实现。全球共享成像网络的目的是从不同机构学习稳定而有效的共同特征。特定于机构的超网络经过精心设计,以获取超参数,以调节用于个性化本地CT重建的全球共享成像网络。实验表明,与其他几种最先进的方法相比,超档在CT重建中实现了竞争性能。它被认为是提高CT成像质量并达到没有隐私数据共享的不同机构或扫描仪的个性化需求的有希望的方向。这些代码将在https://github.com/zi-yuanyang/hyperfed上发布。
translated by 谷歌翻译
联合学习(FL)可用于通过使多个机构协作,改善磁共振(MR)图像重建的数据隐私和效率,而无需聚合本地数据。然而,由不同MR成像协议引起的域移位可以显着降低FL模型的性能。最近的流程倾向于通过增强全局模型的概括来解决这一点,但它们忽略了特定于域的特征,这可能包含有关设备属性的重要信息,并且对本地重建有用。在本文中,我们提出了一种针对MR图像重建(FEDMRI)的特异性保存流算法。核心思想是将MR重建模型划分为两个部分:全局共享编码器,以在全局级别获取概括的表示,以及客户特定的解码器,以保留每个客户端的特定于域的属性,这对于协作很重要当客户具有独特的分发时重建。此外,为了进一步提高全局共享编码器的收敛,当存在域移位时,引入加权对比正规化以在优化期间直接校正客户端和服务器之间的任何偏差。广泛的实验表明,我们的Fedmri的重建结果是最接近多机构数据的地面真理,并且它优于最先进的FL方法。
translated by 谷歌翻译
联合学习(FL)和分裂学习(SL)是两种新兴的协作学习方法,可能会极大地促进物联网(IoT)中无处不在的智能。联合学习使机器学习(ML)模型在本地培训的模型使用私人数据汇总为全球模型。分裂学习使ML模型的不同部分可以在学习框架中对不同工人进行协作培训。联合学习和分裂学习,每个学习都有独特的优势和各自的局限性,可能会相互补充,在物联网中无处不在的智能。因此,联合学习和分裂学习的结合最近成为一个活跃的研究领域,引起了广泛的兴趣。在本文中,我们回顾了联合学习和拆分学习方面的最新发展,并介绍了有关最先进技术的调查,该技术用于将这两种学习方法组合在基于边缘计算的物联网环境中。我们还确定了一些开放问题,并讨论了该领域未来研究的可能方向,希望进一步引起研究界对这个新兴领域的兴趣。
translated by 谷歌翻译
使用联合学习(FL)协作培训模型的多个医疗机构已成为最大化数据驱动模型的潜力的有希望的解决方案,但医学图像中的非独立性和相同分布的(非IID)数据仍然是一个突出的挑战在真实的练习中。由不同扫描仪或协议引起的特征异质性在本地(客户端)和全局(服务器)优化中引入了学习过程中的漂移,这损害了收敛以及模型性能。许多以前的作品已经尝试通过在本地或全球范围内解决漂移来解决非IID问题,但如何共同解决两个基本耦合的漂移仍然不清楚。在这项工作中,我们专注于处理本地和全球漂移,并介绍一个名为HARMOFL的新协调框架。首先,我们建议通过将变换到频域的图像的幅度归一化以模仿统一的成像设置来减轻本地更新漂移,以便在跨本地客户端生成统一的特征空间。其次,基于谐波功能,我们设计了引导每个本地模型的客户重量扰动,以达到平坦的最佳状态,其中局部最佳解决方案的邻域面积具有均匀低损耗。如果没有任何额外的沟通成本,则扰动协助全局模型通过聚合几个局部平面OptimA来优化融合的最佳解决方案。理论上,我们已经分析了所提出的方法和经验上对三种医学图像分类和分割任务进行了广泛的实验,表明HARMOFL优于一系列具有有前途的收敛行为的最近最先进的方法。
translated by 谷歌翻译
联邦学习(FL)是利用属于患者,人,公司或行业的敏感数据的合适解决方案,这些数据在刚性隐私约束下工作的难题。 FL主要或部分地支持数据隐私和安全问题,并提供促进促进多个边缘设备或组织的模型问题的替代方案,以使用许多本地数据培训全局模型而不具有它们。由其分布式自然引起的FL的非IID数据具有显着的性能下降和稳定性偏斜。本文介绍了一种新颖的方法,通过增强图像动态平衡客户端的数据分布,以解决FL的非IID数据问题。介绍的方法非常稳定模型培训,并将模型的测试精度从83.22%提高到89.43%,对于高度IID FL设定中的胸部X射线图像的多胸疾病检测。 IID,非IID和非IID的结果,联合培训表明,该方法可能有助于鼓励组织或研究人员开发更好的系统,以获得与数据隐私的数据的价值不仅适用于医疗保健,而且领域。
translated by 谷歌翻译
联合学习,该学习,跨越客户的神经网络的重量,在医疗领域中获得了注意力,因为它可以在维护数据隐私的同时对分散数据的大型语料库进行培训。例如,这使得Covid-19对胸部X射线(CXR)图像进行Covid-19诊断的神经网络训练,而不会在多家医院收集患者CXR数据。遗憾的是,如果采用高度富有富有富有富有富有富有富有富有富有富有富有富有富有富有富有富有富有富有效率的网络架构,权重的交换会很快消耗网络带宽。所谓的分流学习通过将神经网络划分为客户端和服务器部分来部分解决此问题,使得网络的客户端占用较少的广泛计算资源和带宽。但是,目前尚不清楚如何在不牺牲整体网络性能的情况下找到最佳分裂。为了合并这些方法,从而最大限度地提高了它们的不同优势,这里我们表明视觉变压器,最近开发的具有直接可分解配置的深度学习架构,理想地适合分裂学习而不会牺牲性能。即使在使用来自多个来源的CXR数据集之间模拟医院之间实际协作的非独立性和相同的数据分布,也能够实现与数据集中培训相当的性能。此外,提出的框架以及异构多任务客户端还改善了包括Covid-19诊断的单独任务性能,消除了与无数参数共享大权重的需求。我们的业绩肯定了变压器在医学成像中的协作学习的适用性,并为未来的现实界限铺平了前进的方式。
translated by 谷歌翻译
联邦学习(FL)和分裂学习(SL)是两个流行的分布式机器学习方法。遵循模型到数据方案;客户培训和测试机器学习模型而不共享原始数据。由于客户端和服务器之间的机器学习模型架构,SL提供比FL更好的模型隐私。此外,分割模型使SL成为资源受限环境的更好选择。然而,由于基于中继的训练,SL表现在多个客户端的继电器训练引起的速度。在这方面,本文提出了一种名为Splitfed Learning(SFL)的新方法,该方法可分摊两种方法消除其固有缺点,以及包含差异隐私和PIXELD的精制架构配置,以增强数据隐私和模型鲁棒性。我们的分析和经验结果表明,(纯)SFL提供了类似的测试精度和通信效率,作为SL,同时每个全球时代显着降低其用于多个客户端的SL中的计算时间。此外,如SL在SL中,它的通信效率随着客户的数量而改善。此外,在扩展实验环境下进一步评估了具有隐私和鲁棒性度量的SFL的性能。
translated by 谷歌翻译
联合学习是一种新兴的范式,允许大规模分散学习,而无需在不同的数据所有者中共享数据,这有助于解决医学图像分析中数据隐私的关注。但是,通过现有方法对客户的标签一致性的要求很大程度上缩小了其应用程序范围。实际上,每个临床部位只能以部分或没有与其他站点重叠的某些感兴趣的器官注释某些感兴趣的器官。将这种部分标记的数据纳入统一联邦是一个未开发的问题,具有临床意义和紧迫性。这项工作通过使用新型联合多重编码U-NET(FED-MENU)方法来应对挑战,以进行多器官分割。在我们的方法中,提出了一个多编码的U-NET(菜单网络),以通过不同的编码子网络提取器官特异性功能。每个子网络都可以看作是特定风琴的专家,并为该客户培训。此外,为了鼓励不同子网络提取的特定器官特定功能具有信息性和独特性,我们通过设计辅助通用解码器(AGD)来规范菜单网络的训练。四个公共数据集上的广泛实验表明,我们的Fed-Menu方法可以使用具有优越性能的部分标记的数据集有效地获得联合学习模型,而不是由局部或集中学习方法培训的其他模型。源代码将在纸质出版时公开提供。
translated by 谷歌翻译
通过允许多个临床站点在不集中数据集的情况下协作学习全球模型,在联邦学习(FL)下进行的医学图像分割是一个有希望的方向。但是,使用单个模型适应来自不同站点的各种数据分布非常具有挑战性。个性化的FL仅利用来自Global Server共享的部分模型参数来解决此问题,同时保留其余部分以适应每个站点本地培训中的数据分布。但是,大多数现有方法都集中在部分参数分裂上,而在本地培训期间,不考虑\ textit {textit {site Inter-inter insteriscisies},实际上,这可以促进网站上的知识交流,以使模型学习有益于改进模型学习本地准确性。在本文中,我们提出了一个个性化的联合框架,使用\ textbf {l} ocal \ textbf {c}启动(lc-fed),以利用\ textIt {feftrict-and prediction-lactic}中的位置间暂停。提高细分。具体而言,由于每个本地站点都对各种功能都有另一种关注,因此我们首先设计嵌入的对比度位点,并与通道选择操作结合以校准编码的功能。此外,我们建议利用预测级别的一致性的知识,以指导模棱两可地区的个性化建模,例如解剖界限。它是通过计算分歧感知图来校准预测来实现的。我们的方法的有效性已在具有不同方式的三个医学图像分割任务上进行了验证,在该任务中,我们的方法始终显示出与最先进的个性化FL方法相比的性能。代码可从https://github.com/jcwang123/fedlc获得。
translated by 谷歌翻译
分布式深度学习框架,如联合学习(FL)及其变体都是在广泛的Web客户端和移动/ IOT设备上实现个性化体验。然而,由于模型参数的爆炸增长(例如,十亿参数模型),基于FL的框架受到客户的计算资源的限制。拆分学习(SL),最近的框架,通过拆分客户端和服务器之间的模型培训来减少客户端计算负载。这种灵活性对于低计算设置非常有用,但通常以带宽消耗的增加成本而实现,并且可能导致次优化会聚,尤其是当客户数据异构时。在这项工作中,我们介绍了adasplit,通过降低带宽消耗并提高异构客户端的性能,使得能够将SL有效地缩放到低资源场景。为了捕获和基准的分布式深度学习的多维性质,我们还介绍了C3分数,是评估资源预算下的性能。我们通过与强大联邦和分裂学习基线的大量实验比较进行了大量实验比较,验证了adasplit在有限的资源下的有效性。我们还展示了adasplit中关键设计选择的敏感性分析,该选择验证了adasplit在可变资源预算中提供适应性权衡的能力。
translated by 谷歌翻译
个性化联合学习(FL)是佛罗里达州的一个新兴研究领域,在客户之间存在数据异质性的情况下,可以学习一个易于适应的全球模型。但是,个性化FL的主要挑战之一是,由于客户数据与服务器隔离以确保隐私,因此非常依赖客户的计算资源来计算高阶梯度。为了解决这个问题,我们专注于服务器可以独立于客户数据独立于客户数据的问题设置,这是各种应用程序中普遍的问题设置,但在现有文献中相对尚未探索。具体而言,我们提出了FedSim,这是一种针对个性化FL的新方法,该方法积极利用此类服务​​器数据来改善服务器中的元梯度计算以提高个性化性能。在实验上,我们通过各种基准和消融证明了FEDSIM在准确性方面优于现有方法,通过计算服务器中的完整元梯度,在计算上更有效,并且收敛速度高达34.2%。
translated by 谷歌翻译
随着对用户数据隐私的越来越关注,联合学习(FL)已被开发为在边缘设备上训练机器学习模型的独特培训范式,而无需访问敏感数据。传统的FL和现有方法直接在云服务器的同一型号和培训设备的所有边缘上采用聚合方法。尽管这些方法保护了数据隐私,但它们不能具有模型异质性,甚至忽略了异质的计算能力,也可以忽略陡峭的沟通成本。在本文中,我们目的是将资源感知的FL汇总为从边缘模型中提取的本地知识的集合,而不是汇总每个本地模型的权重,然后将其蒸馏成一个强大的全局知识,作为服务器模型通过知识蒸馏。通过深入的相互学习,将本地模型和全球知识提取到很小的知识网络中。这种知识提取使Edge客户端可以部署资源感知模型并执行多模型知识融合,同时保持沟通效率和模型异质性。经验结果表明,在异质数据和模型中的通信成本和概括性能方面,我们的方法比现有的FL算法有了显着改善。我们的方法将VGG-11的沟通成本降低了102美元$ \ times $和Resnet-32,当培训Resnet-20作为知识网络时,最多可达30美元$ \ times $。
translated by 谷歌翻译
联邦学习(FL)试图在本地客户端分发模型培训,而无需在集中式数据中心收集数据,从而消除了数据私人关系问题。 FL的一个主要挑战是数据异质性(每个客户的数据分布可能会有所不同),因为它可能导致本地客户的权重差异并减慢全球融合。当前专为数据异质性设计的SOTA FL方法通常会施加正则化以限制非IID数据的影响,并且是状态算法,即它们随着时间的推移维持局部统计数据。尽管有效,但这些方法只能用于FL的特殊情况,仅涉及少数可靠的客户。对于fl的更典型应用,客户端数量很大(例如,边缘设备和移动应用程序),这些方法无法应用,激发了对任何可用于任何数量客户端使用的无状态方法的无状态方法的需求。我们得出了一阶梯度正则化,以惩罚由于本地数据异质性而导致的本地更新不一致。具体而言,为了减轻权重差异,我们将全局数据分布的一阶近似引入本地目标,该目标凭直觉地惩罚了与全局更新相反方向的更新。最终结果是一种无状态的FL算法,可实现1)在非IID数据分布下,比SOTA方法明显更快地收敛(即较少的通信回合)和2)总体融合性能更高。重要的是,我们的方法不会对客户大小施加不切实际的限制,从而可以从大多数FL应用程序中向大量客户学习。
translated by 谷歌翻译
通信技术和互联网的最新进展与人工智能(AI)启用了智能医疗保健。传统上,由于现代医疗保健网络的高性性和日益增长的数据隐私问题,AI技术需要集中式数据收集和处理,这可能在现实的医疗环境中可能是不可行的。作为一个新兴的分布式协作AI范例,通过协调多个客户(例如,医院)来执行AI培训而不共享原始数据,对智能医疗保健特别有吸引力。因此,我们对智能医疗保健的使用提供了全面的调查。首先,我们在智能医疗保健中展示了近期进程,动机和使用FL的要求。然后讨论了近期智能医疗保健的FL设计,从资源感知FL,安全和隐私感知到激励FL和个性化FL。随后,我们对关键医疗领域的FL新兴应用提供了最先进的综述,包括健康数据管理,远程健康监测,医学成像和Covid-19检测。分析了几个最近基于智能医疗保健项目,并突出了从调查中学到的关键经验教训。最后,我们讨论了智能医疗保健未来研究的有趣研究挑战和可能的指示。
translated by 谷歌翻译
自从联合学习(FL)被引入具有隐私保护的分散学习技术以来,分布式数据的统计异质性是实现FL应用中实现稳健性能和稳定收敛性的主要障碍。已经研究了模型个性化方法来克服这个问题。但是,现有的方法主要是在完全标记的数据的先决条件下,这在实践中是不现实的,由于需要专业知识。由部分标记的条件引起的主要问题是,标记数据不足的客户可能会遭受不公平的性能增益,因为他们缺乏足够的本地分销见解来自定义全球模型。为了解决这个问题,1)我们提出了一个新型的个性化的半监督学习范式,该范式允许部分标记或未标记的客户寻求与数据相关的客户(助手代理)的标签辅助,从而增强他们对本地数据的认识; 2)基于此范式,我们设计了一个基于不确定性的数据关系度量,以确保选定的帮助者可以提供值得信赖的伪标签,而不是误导当地培训; 3)为了减轻助手搜索引入的网络过载,我们进一步开发了助手选择协议,以实现有效的绩效牺牲的有效沟通。实验表明,与其他具有部分标记数据的相关作品相比,我们提出的方法可以获得卓越的性能和更稳定的收敛性,尤其是在高度异质的环境中。
translated by 谷歌翻译
联合学习(FL)根据多个本地客户端协同聚合共享全球模型,同时保持培训数据分散以保护数据隐私。但是,标准的FL方法忽略了嘈杂的客户问题,这可能会损害聚合模型的整体性能。在本文中,我们首先分析了嘈杂的客户声明,然后用不同的噪声分布模型噪声客户端(例如,Bernoulli和截断的高斯分布)。要使用嘈杂的客户,我们提出了一个简单但有效的FL框架,名为联邦嘈杂的客户学习(FED-NCL),它是一个即插即用算法,并包含两个主要组件:动态的数据质量测量(DQM)量化每个参与客户端的数据质量,以及噪声鲁棒聚合(NRA),通过共同考虑本地训练数据和每个客户端的数据质量来自适应地聚合每个客户端的本地模型。我们的FED-NCL可以轻松应用于任何标准的流行流以处理嘈杂的客户端问题。各种数据集的实验结果表明,我们的算法提高了具有嘈杂客户端的不同现实系统的性能。
translated by 谷歌翻译
近年来,与私人数据的分散学习领域有很大进展。联合学习(FL)和分裂学习(SL)是两个拥有其优点和缺点的矛头,并分别适用于许多用户客户和大型型号。为了享受这两个好处,斯普利特这样的混合方法已经出现了迟到,但他们的基本面仍然是虚幻的。在这项工作中,我们首先识别SL的基本瓶颈,从而提出可伸缩的SL框架,被卷曲的SGLR。 SGLR下的服务器在分裂层上广播了平均的公共梯度,在没有横跨客户端的情况下仿真FL而没有任何额外的通信。同时,SGLR将学习率分解为服务器端和客户端速率,并单独调整它们以支持许多客户端。仿真结果证实了SGLR实现比其他基线SL方法更高的精度,包括分裂,这甚至是与耗能更高的能量和通信成本的影响。作为次要结果,我们通过使用SLGR通过基线通过相互信息观察更大的敏感信息泄漏。
translated by 谷歌翻译
联合学习(FL)是一种分布式机器学习技术,可以在避免明确的数据共享的同时进行协作模型培训。 FL算法的固有保护属性使其对医疗领域特别有吸引力。但是,如果有异质的客户数据分布,则标准FL方法是不稳定的,需要密集的超参数调整以实现最佳性能。常规的超参数优化算法在现实世界中的FL应用中是不切实际的,因为它们涉及大量的培训试验,而计算预算有限,这些试验通常是不起作用的。在这项工作中,我们提出了一种有效的增强学习(RL)的联合次数超参数优化算法,称为自动FEDRL,其中在线RL代理可以根据当前的培训进度动态调整每个客户的超参数。进行了广泛的实验以研究不同的搜索策略和RL代理。该方法的有效性在CIFAR-10数据集的异质数据分配以及两个现实世界中的医学图像分割数据集上进行了验证,用于胸部CT中的COVID-19变病变分段,腹部CT中的胰腺细分。
translated by 谷歌翻译
The growing interest in intelligent services and privacy protection for mobile devices has given rise to the widespread application of federated learning in Multi-access Edge Computing (MEC). Diverse user behaviors call for personalized services with heterogeneous Machine Learning (ML) models on different devices. Federated Multi-task Learning (FMTL) is proposed to train related but personalized ML models for different devices, whereas previous works suffer from excessive communication overhead during training and neglect the model heterogeneity among devices in MEC. Introducing knowledge distillation into FMTL can simultaneously enable efficient communication and model heterogeneity among clients, whereas existing methods rely on a public dataset, which is impractical in reality. To tackle this dilemma, Federated MultI-task Distillation for Multi-access Edge CompuTing (FedICT) is proposed. FedICT direct local-global knowledge aloof during bi-directional distillation processes between clients and the server, aiming to enable multi-task clients while alleviating client drift derived from divergent optimization directions of client-side local models. Specifically, FedICT includes Federated Prior Knowledge Distillation (FPKD) and Local Knowledge Adjustment (LKA). FPKD is proposed to reinforce the clients' fitting of local data by introducing prior knowledge of local data distributions. Moreover, LKA is proposed to correct the distillation loss of the server, making the transferred local knowledge better match the generalized representation. Experiments on three datasets show that FedICT significantly outperforms all compared benchmarks in various data heterogeneous and model architecture settings, achieving improved accuracy with less than 1.2% training communication overhead compared with FedAvg and no more than 75% training communication round compared with FedGKT.
translated by 谷歌翻译