联合学习是一种在网络边缘训练机器学习模型的方法以及数据隐私问题。这种学习范式需要对设备异质性和数据异质性的鲁棒算法。本文提出MODFL作为联合学习框架,将模型分为配置模块和操作模块,从而实现了各个模块的联合学习。这种模块化方法使从一组异质设备以及用户产生的非IID数据中提取知识。该方法可以看作是通过个性化层FEDPER框架来解决数据异质性的范围的联合学习的扩展。我们表明,使用CNN的MODFL优于CIFAR-10和STL-10的非IID数据分区的FEDPER。我们在使用RNN的Hapt,RWHAR和WISDM数据集的时间序列数据上的结果尚无定论,我们认为所选数据集并未突出MODFL的优势,但在最坏的情况下,它和FedPer一样。
translated by 谷歌翻译
Federated learning is a popular paradigm for machine learning. Ideally, federated learning works best when all clients share a similar data distribution. However, it is not always the case in the real world. Therefore, the topic of federated learning on heterogeneous data has gained more and more effort from both academia and industry. In this project, we first do extensive experiments to show how data skew and quantity skew will affect the performance of state-of-art federated learning algorithms. Then we propose a new algorithm FedMix which adjusts existing federated learning algorithms and we show its performance. We find that existing state-of-art algorithms such as FedProx and FedNova do not have a significant improvement in all testing cases. But by testing the existing and new algorithms, it seems that tweaking the client side is more effective than tweaking the server side.
translated by 谷歌翻译
随着对数据隐私和数据量迅速增加的越来越关注,联邦学习(FL)已成为重要的学习范式。但是,在FL环境中共同学习深层神经网络模型被证明是一项非平凡的任务,因为与神经网络相关的复杂性,例如跨客户的各种体系结构,神经元的置换不变性以及非线性的存在每一层的转换。这项工作介绍了一个新颖的联合异质神经网络(FEDHENN)框架,该框架允许每个客户构建个性化模型,而无需在跨客户范围内实施共同的架构。这使每个客户都可以优化本地数据并计算约束,同时仍能从其他(可能更强大)客户端的学习中受益。 Fedhenn的关键思想是使用从同行客户端获得的实例级表示,以指导每个客户的同时培训。广泛的实验结果表明,Fedhenn框架能够在跨客户的同质和异质体系结构的设置中学习更好地表现客户的模型。
translated by 谷歌翻译
跨不同边缘设备(客户)局部数据的分布不均匀,导致模型训练缓慢,并降低了联合学习的准确性。幼稚的联合学习(FL)策略和大多数替代解决方案试图通过加权跨客户的深度学习模型来实现更多公平。这项工作介绍了在现实世界数据集中遇到的一种新颖的非IID类型,即集群键,其中客户组具有具有相似分布的本地数据,从而导致全局模型收敛到过度拟合的解决方案。为了处理非IID数据,尤其是群集串数据的数据,我们提出了FedDrl,这是一种新型的FL模型,它采用了深厚的强化学习来适应每个客户的影响因素(将用作聚合过程中的权重)。在一组联合数据集上进行了广泛的实验证实,拟议的FEDDR可以根据CIFAR-100数据集的平均平均为FedAvg和FedProx方法提高了有利的改进,例如,高达4.05%和2.17%。
translated by 谷歌翻译
联合学习是一种分布式的机器学习方法,其中单个服务器和多个客户端在不共享客户端数据集的情况下协作构建机器学习模型。联合学习的一个具有挑战性的问题是数据异质性(即,数据分布在客户端可能有所不同)。为了应对这个问题,众多联合学习方法旨在为客户提供个性化的联合学习,并为客户建立优化的模型。尽管现有研究通过经验评估了自己的方法,但这些研究中的实验环境(例如比较方法,数据集和客户设置)彼此不同,目前尚不清楚哪种个性化的联邦学习方法可以实现最佳性能,以及取得多少进展,可以进行多大进展。通过使用这些方法而不是标准(即非个人化)联合学习来制作。在本文中,我们通过全面的实验基准了现有的个性化联合学习的性能,以评估每种方法的特征。我们的实验研究表明,(1)没有冠军方法,(2)大数据异质性通常会导致高准确的预测,并且(3)具有微调的标准联合学习方法(例如FedAvg)通常超过了个性化的联邦学习方法。我们为研究人员开放基准工具FedBench,以通过各种实验环境进行实验研究。
translated by 谷歌翻译
Modern mobile devices have access to a wealth of data suitable for learning models, which in turn can greatly improve the user experience on the device. For example, language models can improve speech recognition and text entry, and image models can automatically select good photos. However, this rich data is often privacy sensitive, large in quantity, or both, which may preclude logging to the data center and training there using conventional approaches. We advocate an alternative that leaves the training data distributed on the mobile devices, and learns a shared model by aggregating locally-computed updates. We term this decentralized approach Federated Learning.We present a practical method for the federated learning of deep networks based on iterative model averaging, and conduct an extensive empirical evaluation, considering five different model architectures and four datasets. These experiments demonstrate the approach is robust to the unbalanced and non-IID data distributions that are a defining characteristic of this setting. Communication costs are the principal constraint, and we show a reduction in required communication rounds by 10-100× as compared to synchronized stochastic gradient descent.
translated by 谷歌翻译
With the development and progress of science and technology, the Internet of Things(IoT) has gradually entered people's lives, bringing great convenience to our lives and improving people's work efficiency. Specifically, the IoT can replace humans in jobs that they cannot perform. As a new type of IoT vehicle, the current status and trend of research on Unmanned Aerial Vehicle(UAV) is gratifying, and the development prospect is very promising. However, privacy and communication are still very serious issues in drone applications. This is because most drones still use centralized cloud-based data processing, which may lead to leakage of data collected by drones. At the same time, the large amount of data collected by drones may incur greater communication overhead when transferred to the cloud. Federated learning as a means of privacy protection can effectively solve the above two problems. However, federated learning when applied to UAV networks also needs to consider the heterogeneity of data, which is caused by regional differences in UAV regulation. In response, this paper proposes a new algorithm FedBA to optimize the global model and solves the data heterogeneity problem. In addition, we apply the algorithm to some real datasets, and the experimental results show that the algorithm outperforms other algorithms and improves the accuracy of the local model for UAVs.
translated by 谷歌翻译
Continuous behavioural authentication methods add a unique layer of security by allowing individuals to verify their unique identity when accessing a device. Maintaining session authenticity is now feasible by monitoring users' behaviour while interacting with a mobile or Internet of Things (IoT) device, making credential theft and session hijacking ineffective. Such a technique is made possible by integrating the power of artificial intelligence and Machine Learning (ML). Most of the literature focuses on training machine learning for the user by transmitting their data to an external server, subject to private user data exposure to threats. In this paper, we propose a novel Federated Learning (FL) approach that protects the anonymity of user data and maintains the security of his data. We present a warmup approach that provides a significant accuracy increase. In addition, we leverage the transfer learning technique based on feature extraction to boost the models' performance. Our extensive experiments based on four datasets: MNIST, FEMNIST, CIFAR-10 and UMDAA-02-FD, show a significant increase in user authentication accuracy while maintaining user privacy and data security.
translated by 谷歌翻译
联邦学习(FL)是一种分布式学习方法,它为医学机构提供了在全球模型中合作的前景,同时保留患者的隐私。尽管大多数医疗中心执行类似的医学成像任务,但它们的差异(例如专业,患者数量和设备)导致了独特的数据分布。数据异质性对FL和本地模型的个性化构成了挑战。在这项工作中,我们研究了FL生产中间半全球模型的一种自适应分层聚类方法,因此具有相似数据分布的客户有机会形成更专业的模型。我们的方法形成了几个群集,这些集群由具有最相似数据分布的客户端组成;然后,每个集群继续分开训练。在集群中,我们使用元学习来改善参与者模型的个性化。我们通过评估我们在HAM10K数据集上的建议方法和极端异质数据分布的HAM10K数据集上的我们提出的方法,将聚类方法与经典的FedAvg和集中式培训进行比较。我们的实验表明,与标准的FL方法相比,分类精度相比,异质分布的性能显着提高。此外,我们表明,如果在群集中应用,则模型会更快地收敛,并且仅使用一小部分数据,却优于集中式培训。
translated by 谷歌翻译
Personalized Federated Learning (PFL) which collaboratively trains a federated model while considering local clients under privacy constraints has attracted much attention. Despite its popularity, it has been observed that existing PFL approaches result in sub-optimal solutions when the joint distribution among local clients diverges. To address this issue, we present Federated Modular Network (FedMN), a novel PFL approach that adaptively selects sub-modules from a module pool to assemble heterogeneous neural architectures for different clients. FedMN adopts a light-weighted routing hypernetwork to model the joint distribution on each client and produce the personalized selection of the module blocks for each client. To reduce the communication burden in existing FL, we develop an efficient way to interact between the clients and the server. We conduct extensive experiments on the real-world test beds and the results show both the effectiveness and efficiency of the proposed FedMN over the baselines.
translated by 谷歌翻译
The statistical heterogeneity of the non-independent and identically distributed (non-IID) data in local clients significantly limits the performance of federated learning. Previous attempts like FedProx, SCAFFOLD, MOON, FedNova and FedDyn resort to an optimization perspective, which requires an auxiliary term or re-weights local updates to calibrate the learning bias or the objective inconsistency. However, in addition to previous explorations for improvement in federated averaging, our analysis shows that another critical bottleneck is the poorer optima of client models in more heterogeneous conditions. We thus introduce a data-driven approach called FedSkip to improve the client optima by periodically skipping federated averaging and scattering local models to the cross devices. We provide theoretical analysis of the possible benefit from FedSkip and conduct extensive experiments on a range of datasets to demonstrate that FedSkip achieves much higher accuracy, better aggregation efficiency and competing communication efficiency. Source code is available at: https://github.com/MediaBrain-SJTU/FedSkip.
translated by 谷歌翻译
联合学习可以使许多应用程序受益于大量潜在数据持有客户的分布式和私人数据集。但是,不同客户通常就可以从数据中学到的任务具有自己的特定目标。因此,使用元学习工具(例如多任务学习和转移学习)来支持联合学习,将通过让不同但相关任务的客户共享可以进一步更新和更新和相关任务的客户来帮助扩大联合学习的潜在应用程序。由每个客户为其特定任务量身定制。在联合的多任务学习问题中,应对每个客户的各个目标进行训练的深度神经网络模型,同时共享一些参数以提高概括性。我们建议训练一个深层的神经网络模型,其更广泛的层更接近输入,并且更具个性化的层贴在输出中。我们通过引入层类型(例如预训练,常见,特定于任务和个人层)来实现这一目标。我们提供仿真结果,以突出特定的方案,在这种情况下,基于元学习的联合学习被证明是有用的。
translated by 谷歌翻译
联合学习允许一组分布式客户端培训私有数据的公共机器学习模型。模型更新的交换由中央实体或以分散的方式管理,例如,由一个区间的。但是,所有客户端的强大概括都使得这些方法不合适,不合适地分布(非IID)数据。我们提出了一个统一的统一方法,在联合学习中的权力下放和个性化,该方法是基于模型更新的定向非循环图(DAG)。客户端代替培训单个全局模型,客户端专门从事来自其他客户端的模型更新的本地数据,而不是依赖于各自数据的相似性。这种专业化从基于DAG的沟通和模型更新的选择隐含地出现。因此,我们启用专业模型的演变,它专注于数据的子集,因此覆盖非IID数据,而不是在基于区块的基于区块的设置中的联合学习。据我们所知,拟议的解决方案是第一个在完全分散的联邦学习中团结的个性化和中毒鲁棒性。我们的评价表明,模型的专业化直接从基于DAG的模型更新通信到三个不同的数据集。此外,与联合平均相比,我们在客户端展示稳定的模型精度和更少的方差。
translated by 谷歌翻译
联合学习(FL)可以对机器学习模型进行分布式培训,同时将个人数据保存在用户设备上。尽管我们目睹了FL在移动传感领域的越来越多的应用,例如人类活动识别(HAR),但在多设备环境(MDE)的背景下,尚未对FL进行研究,其中每个用户都拥有多个数据生产设备。随着移动设备和可穿戴设备的扩散,MDE在Ubicomp设置中越来越受欢迎,因此需要对其中的FL进行研究。 MDE中的FL的特征是在客户和设备异质性的存在中并不复杂,并不是独立的,并且在客户端之间并非独立分布(非IID)。此外,确保在MDE中有效利用佛罗里达州客户的系统资源仍然是一个重要的挑战。在本文中,我们提出了以用户为中心的FL培训方法来应对MDE中的统计和系统异质性,并在设备之间引起推理性能的一致性。火焰功能(i)以用户为中心的FL培训,利用同一用户的设备之间的时间对齐; (ii)准确性和效率感知设备的选择; (iii)对设备的个性化模型。我们还提出了具有现实的能量流量和网络带宽配置文件的FL评估测试,以及一种基于类的新型数据分配方案,以将现有HAR数据集扩展到联合设置。我们在三个多设备HAR数据集上的实验结果表明,火焰的表现优于各种基准,F1得分高4.3-25.8%,能源效率提高1.02-2.86倍,并高达2.06倍的收敛速度,以通过FL的公平分布来获得目标准确性工作量。
translated by 谷歌翻译
Federated learning is a collaborative model training method by iterating model updates at multiple clients and aggregation of the updates at a central server. Device and statistical heterogeneity of the participating clients cause performance degradation so that an appropriate weight should be assigned per client in the server's aggregation phase. This paper employs deep unfolding to learn the weights that adapt to the heterogeneity, which gives the model with high accuracy on uniform test data. The results of numerical experiments indicate the high performance of the proposed method and the interpretable behavior of the learned weights.
translated by 谷歌翻译
在存在参与者的非IID数据分布的情况下,经典联合学习方法会产生明显的绩效降解。当每个本地数据集的分布与全局数据集有很大不同时,每个客户端的本地目标将与全局Optima不一致,从而导致本地更新中的漂移。这种现象极大地影响了客户的表现。这是为了让客户参加联合学习的主要动力是获得更好的个性化模型。为了解决上述问题,我们提出了一种新的算法弗利斯(Flis),该算法通过利用客户模型的推理相似性,将客户人口与可共同训练数据分布的群集分组。该框架捕获了设置,其中不同的用户组具有自己的目标(学习任务),但通过在同一集群(相同的学习任务)中汇总其数据以执行更有效和个性化的联合学习。我们提出了实验结果,以证明FLIS比CIFAR-100/10,SVHN和FMNIST数据集的最先进基准的好处。我们的代码可在https://github.com/mmorafah/flis上找到。
translated by 谷歌翻译
作为一种有希望的隐私机器学习方法,联合学习(FL)可以使客户跨客户培训,而不会损害其机密的本地数据。但是,现有的FL方法遇到了不均分布数据的推理性能低的问题,因为它们中的大多数依赖于联合平均(FIDAVG)基于联合的聚合。通过以粗略的方式平均模型参数,FedAvg将局部模型的个体特征黯然失色,这极大地限制了FL的推理能力。更糟糕的是,在每一轮FL培训中,FedAvg向客户端向客户派遣了相同的初始本地模型,这很容易导致对最佳全局模型的局限性搜索。为了解决上述问题,本文提出了一种新颖有效的FL范式,名为FEDMR(联合模型重组)。与传统的基于FedAvg的方法不同,FEDMR的云服务器将收集到的本地型号的每一层层混合,并重组它们以实现新的模型,以供客户端培训。由于在每场FL比赛中进行了细粒度的模型重组和本地培训,FEDMR可以迅速为所有客户找出一个全球最佳模型。全面的实验结果表明,与最先进的FL方法相比,FEDMR可以显着提高推理准确性而不会引起额外的通信开销。
translated by 谷歌翻译
联合学习是一种新颖的框架,允许多个设备或机构在保留其私有数据时协同地培训机器学习模型。这种分散的方法易于遭受数据统计异质性的后果,无论是在不同的实体还是随着时间的推移,这可能导致缺乏会聚。为避免此类问题,在过去几年中提出了不同的方法。然而,数据可能在许多不同的方式中是异构的,并且当前的建议并不总是确定他们正在考虑的异质性的那种。在这项工作中,我们正式地分类数据统计异质性,并审查能够面对它的最显着的学习策略。与此同时,我们介绍了其他机器学习框架的方法,例如持续学习,也处理数据异质性,并且可以很容易地适应联邦学习设置。
translated by 谷歌翻译
联合学习(FL)是数据是私人且敏感时的有前途的分布式学习框架。但是,当数据是异质且非独立且相同分布的(非IID)时,此框架中最新的解决方案并不是最佳的。我们提出了一种实用且强大的佛罗里达州个性化方法,该方法通过平衡探索和利用几种全球模型来适应异质和非IID数据。为了实现我们的个性化目标,我们使用了专家(MOE)的混合,这些专家(MOE)学会了分组彼此相似的客户,同时更有效地使用全球模型。我们表明,与病理非IID环境中的本地模型相比,我们的方法的准确性高达29.78%,高达4.38%,即使我们在IID环境中调整了方法。
translated by 谷歌翻译
联合学习是一种机器学习方法,其中未在服务器上汇总数据,而是根据安全性和隐私性分配给边缘。 Resnet是一个经典但代表性的神经网络,通过学习将输入和输出加在一起的残留功能,成功地加深了神经网络。在联合学习中,服务器和边缘设备之间执行交流以交换权重参数,但是Resnet具有深层和大量参数,因此通信大小变得很大。在本文中,我们将神经颂歌用作重新设计的轻量级模型,以减少联合学习中的沟通规模。此外,我们使用具有不同数量的迭代的神经ODE模型新引入了灵活的联合学习,这与具有不同深度的重新连接相对应。 CIFAR-10数据集用于评估中,与RESNET相比,神经ODE的使用将通信大小降低了约90%。我们还表明,提出的灵活联合学习可以与不同的迭代计数合并模型。
translated by 谷歌翻译