「隐语小课」联邦学习之通信优化

本文涉及的产品
密钥管理服务KMS,1000个密钥,100个凭据,1个月
简介: 「隐语小课」联邦学习之通信优化



1、引言

联邦学习将传统机器学习中的数据聚合转换成模型聚合,即clientserver在联邦训练过程中需要进行模型传输或梯度传输。随着任务复杂性和对模型性能要求的逐渐提升,神经网络的层数呈逐渐加深的趋势,模型参数也相应的越来越多。以人脸识别ResNET-50为例,原始模型拥有超过2000万个参数,模型大小超过100MB在模型参数较多、通信带宽有限、client较多等联邦学习场景中,服务器接收的数据量非常庞大,造成较大的通信压力,严重影响了整体训练效率。因此,联邦学习中降低传输数据量,并保证整体性能效果和收敛速度成为一个热门的研究方向。

2、优化方法

目前常见联邦学习数据压缩方法分为两大类:client-based(减少参与聚合的client数量)和model-based(减少每个client上传的数据量)。

2.1 client-based methods

1)异步更新 [1]

传统的FedAVG算法是同步更新算法,即所有client需要同步上传模型/梯度信息更新server模型。因此在每次进行模型聚合时,server端都需要接受大部分或者全部client的模型数据,极大增加了server端的数据通信压力。

异步联邦学习是指client依次上传并更新server端模型。如图1所示,[2]提出一种基于同态加密的异步联邦学习,client之间首先利用第三方服务器设定相同同态加密公钥和私钥,并将公钥上传至联邦训练server中;在client每次进行训练之前,先从server获取最新的加密模型,并利用私钥解密得到明文模型更新client模型;clienti进行本地训练得到梯度,结合学习α和同态加密公钥得到,上传至server;进而更新server模型得到完成一次异步训练过程。


1异步联邦学习


2client采样 [3]

与异步联邦相类似,client采样法通过减少每次聚合过程中client的数量来减少server端接收的数据量。利用Ornstein-Uhlenbeck过程对联邦聚合的client进行采样,从而减少单次聚合时数据上传的总量。

3)减少联邦聚合频率 [4]

增加FedAVGclient本地的训练次数,从而减少整体的上传频率,达到减少整体通信数据量的目的。本地训练次数不能无限增加,否则会影响整体的收敛速度。

2.2 model-based methods

1矩阵分解法 [4]

将原始模型权重矩阵W分解成两个矩阵的乘积,即W=,其中矩阵B的行数小于W的行数,列数等于W的列数,将因子矩阵A作为基矩阵,上传另外一个矩阵B,从而减少模型大小。该方法受限于基矩阵的选择,由于基矩阵不一定是方矩阵,可能不存在相应的逆矩阵,因此无法求得矩阵B;当基矩阵A为列满秩矩阵时,存在相应的左逆矩阵,但矩阵B相比于W的压缩比有限,模型上传的通信压力依然较大。

2模型稀疏法

即在进行模型上传时,按照某种方法(例如随机稀疏法[4]Topk稀疏法[5][6]、模型剪枝[7][8]等方法)选择模型或者梯度中一定比例的元素,仅将训练成员的这些元素上传至服务器中,按照元素的实际位置在服务器端进行安全聚合,进而更新模型。

3模型量化法

即对训练成员的上传模型进行量化处理,减少元素的位数,从而减少数据通信量,实现模型压缩的效果。常见的方法主要有:1-bitbinary量化[9]multi-bit量化[10]。模型量化一般将上传模型的元素位数进行删减,当保留位数较多时,压缩比例有限;当保留位数较少时,模型更新的信息受损,影响模型的收敛速度。

4混合法

为了进一步降低上传数据量的大小,可将模型稀疏法和量化法进行结合,即对sparse模型中的元素再进行量化处理。该类方法的paper主要有:[11][12][13]。

3、具体实践

我们基于隐语/fascia框架利用联邦学习在Drgs医疗场景下进行了多方联合训练和业务落地。由于client端上传带宽有限,通信时间较长成为制约整体训练效率的瓶颈。我们基于Tok-Sparse算法设计了联邦学习个性化稀疏算法,降低了模型数据传输的压力,提高了Non-IID下的模型准确性。利用该方法,我们将通信量压缩至原通信量的1/10时,模型的准确性保持不变,极大提高了联邦学习的性能。

4、结语

对联邦学习进行通信压缩有助于降低通信压力,提高训练效率,增加用户数量,对于业务落地具有较为明显的增益。我们将会在目前算法的基础上探索训练速度更快、压缩比更高、鲁棒性更好的优化算法,欢迎大家一起探讨。

Reference

【1】XieC, Koyejo S, Gupta I. Asynchronous federated optimization[J]. arXivpreprint arXiv:1903.03934, 2019.

【2】AonoY, Hayashi T, Wang L, et al. Privacy-preserving deep learning viaadditively homomorphic encryption[J]. IEEE Transactions onInformation Forensics and Security, 2017, 13(5): 1333-1345.

【3】RiberoM, Vikalo H. Communication-efficient federated learning via optimalclient sampling[J]. arXiv preprint arXiv:2007.15197, 2020.

【4】KonečnýJ, McMahan H B, Yu F X, et al. Federated learning: Strategies forimproving communication efficiency[J]. arXiv preprintarXiv:1610.05492, 2016.

【5】AsadM, Moustafa A, Ito T. FedOpt: Towards communication efficiency andprivacy preservation in federated learning[J]. Applied Sciences,2020, 10(8): 2864.

【6】HaddadpourF, Kamani M M, Mokhtari A, et al. Federated learning withcompression: Unified analysis and sharp guarantees[J]. arXiv preprintarXiv:2007.01154, 2020.

【7】LiA, Sun J, Wang B, et al. Lotteryfl: Personalized andcommunication-efficient federated learning with lottery tickethypothesis on non-iid datasets[J]. arXiv preprint arXiv:2008.03371,2020.

【8】LinS, Wang C, Li H, et al. ESMFL: Efficient and Secure Models forFederated Learning[J]. arXiv preprint arXiv:2009.01867, 2020.

【9】BernsteinJ, Wang Y X, Azizzadenesheli K, et al. signSGD: Compressedoptimisation for non-convex problems[C]//International Conference onMachine Learning. PMLR, 2018: 560-569.

【10】MagnssonS, Shokri-Ghadikolaei H, Li N. On maintaining linear convergence ofdistributed learning and optimization under limited communication[J].IEEE Transactions on Signal Processing, 2020, 68: 6101-6116.

【11】BeguierC, Tramel E W. SAFER: Sparse secure Aggregation for FEderatedleaRning[J]. arXiv preprint arXiv:2007.14861, 2020.

【12】SattlerF, Wiedemann S, Müller K R, et al. Robust andcommunication-efficient federated learning from non-iid data[J]. IEEEtransactions on neural networks and learning systems, 2019, 31(9):3400-3413.

【13】SunJ, Chen T, Giannakis G B, et al. Lazily Aggregated Quantized GradientInnovation for Communication-Efficient Federated Learning[J]. IEEETransactions on Pattern Analysis and Machine Intelligence, 2020.


相关文章
|
7月前
|
算法 数据挖掘 调度
隐语实训营-第3讲:详解隐私计算框架的架构和技术要点
主要介绍隐语的隐私计算架构,并对每个模块进行拆解、分析,以期望不同使用者找到适合自己的模块,快速入手。
121 4
|
7月前
|
分布式计算 算法 调度
课3-详解隐私计算框架的架构和技术要点
隐语架构涵盖产品、算法、计算、资源和硬件五层,旨在实现互联互通和跨域管控。产品层包括SecretPad等,简化用户和集成商体验。算法层涉及PSI/PIR、SCQL和联邦学习,提供隐私保护的数据分析和学习。计算层如RayFed、SPU、HEU等,支持分布式计算和密态处理。资源层的KUSCIA用于跨机构任务编排,硬件层涉及FPGA等加速器。互联互通支持黑盒和白盒模式,确保不同平台协作。跨域管控则强调数据流转控制,保护数据权益。
|
2天前
|
机器学习/深度学习 人工智能 算法
Optima:清华联合北邮推出优化通信效率和任务有效性的训练框架
Optima是由清华大学和北京邮电大学联合推出的一个优化通信效率和任务有效性的训练框架。该框架通过迭代生成、排名、选择和训练范式,显著提高了基于大型语言模型(LLM)的多智能体系统(MAS)的通信效率和任务效果。Optima不仅减少了令牌使用,还为改进推理时间扩展法则提供了新的可能性。
19 6
Optima:清华联合北邮推出优化通信效率和任务有效性的训练框架
|
4月前
|
监控
揭秘:为何多年经验的网工还对光模块的光衰正常范围一知半解?这个秘密可能彻底改变你的网络优化策略!
【8月更文挑战第19天】在信息化时代,光纤通信至关重要,光模块作为其核心组件,其性能直接影响数据传输质量。光衰,即光信号在光纤中传输时的功率损失,是评估光模块性能的关键指标。本文将阐述光衰的基本概念、测量方法及对网络性能的影响,并提供光衰正常范围的标准,帮助网络工程师更好地理解与应用这一重要知识点,确保网络稳定可靠。
447 0
|
7月前
第8讲:隐语SCQL的开发实践丨隐私计算实训营 第1期
SCQL 提供中心化和P2P两种部署架构。中心化依赖第三方的SCDB,各数据方仅需SCQLEngine;P2P模式无第三方,各数据方需SCQLEngine和SCQLBroker。使用流程包括配置、注册、启动和执行查询。P2P部署实践展示详细步骤。[查看部署教程](https://www.secretflow.org.cn/zh-CN/docs/scql/0.5.0b2/intro/p2p-tutorial)。
108 0
|
7月前
|
SQL 安全 数据挖掘
隐私计算实训营第7讲:隐语SCQL的架构详细拆解丨隐私计算实训营 第1期
SCQL是安全协作查询语言,让不信任的多方能在保护隐私的前提下进行联合数据分析。它假设参与者半诚实,支持多方(N>=2)合作,且具备SQL语法支持和性能优化。SCQL提供类似SQL的用户界面,通过CCL机制允许数据所有者控制数据使用权限。系统基于SPU的MPC框架运行,适用于多个应用场景。
146 0
|
7月前
|
机器学习/深度学习 算法 安全
2024.3.20隐语训练营第3讲笔记:详解隐私计算框架及技术要点
隐语架构是一个分层设计,支持不同技术路线,确保高内聚、低耦合,增强开放性。它包括产品层(如SecretPad和SecretNote)、算法层(如PSI和PIR协议)、计算层(RayFed和SPU)、资源层(KUSCIA)和互联互通及跨域管控机制。该架构旨在提供高性能、易用的隐私计算解决方案,支持MPC、TEE、SCQL等,并允许不同背景的研究人员参与。
197 0
|
7月前
|
机器学习/深度学习 安全 物联网
安全多方计算之十:联邦学习与安全多方计算
安全多方计算之十:联邦学习与安全多方计算
|
机器学习/深度学习 安全 算法
一文详解「隐私计算系统的安全攻防和实践」
摩斯科技技术负责人殷山,从安全攻防的角度解读隐私计算系统的安全性,通过分析攻击手段使我们对隐私计算安全有个系统全面的认识。点击查看全文~
一文详解「隐私计算系统的安全攻防和实践」
|
存储 机器学习/深度学习 算法
一文概述联邦持续学习最新研究进展(3)
一文概述联邦持续学习最新研究进展
502 0
一文概述联邦持续学习最新研究进展(3)
下一篇
无影云桌面