可信联邦学习 (Trustworthy federated learning) 是一种增强型的联邦学习,它除了保证原始数据的隐私安全和模型的可证安全,还保证学习过程的高效率和模型的可用性,模型决策机制的可解释性、及模型的可溯源和审计监管。
为了帮助读者了解可信联邦学习前沿进展,机器之心机动组组织策划了最新一期视频分享。
在此次分享中,加拿大工程院及加拿大皇家科学院两院院士,微众银行首席人工智能官杨强老师将首先为我们系统回顾联邦学习的进展和挑战,并展望几个重要发展方向。而后以下四篇论文作者将从不同角度介绍可信联邦学习的最新研究成果。
其中,《联邦学习中隐私与模型性能没有免费午餐定理》首次从信息论的角度,分析揭示了联邦学习的模型效用与隐私保护之间的内在约束关系,该论文所阐述的定量分析可以为设计可信联邦学习算法提供有效的指导。
《FedSVD:10 亿规模数据上的无损联邦奇异值分解》提出了基于随机掩码的奇异值分解方案,应用于多方生物信息数据分析、多方金融数据建模等场景,在 SVD 任务中,该方案的效率比同态加密提高 10000 倍,误差比差分隐私方案小 10 个数量级,同时提供了安全性分析和实验验证。
《FedCG: 联邦生成对抗网络保护隐私保障性能》在横向联邦学习中将生成对抗网络与分割学习相结合,有效保护了参与方的数据隐私,同时保障了各参与方模型性能的竞争力。
《FedIPR:联邦学习模型所属权验证》提出了首个联邦学习模型版权验证框架,在不牺牲模型可用性前提下,提供了可靠且鲁棒的模型反盗版机制,保护了模型拥有者的合法权利和商业利益。