1. 联邦学习
联邦学习(FL,Federated Learning)是谷歌于2016年提出的一种分布式机器学习框架,可以在保护个人数据隐私的前提下,联合多方用户的数据实现模型训练。
联邦学习用于解决“数据孤岛”问题,核心思想是“数据不动模型动,数据可用不可见”。
- 传统机器学习中,数据需集中在一起进行模型训练,这样会暴露个人隐私,且数据共享也面临信任问题。
- 联邦学习中,数据被分散在多个地方,每个地方的数据在本地进行处理形成本地模型,本地模型通过联邦学习算法进行汇聚和更新,最终得到一个全局模型。这样既保护了隐私,同时也避免了数据共享的信任问题。
联邦学习的应用场景非常广泛,如医疗领域,由于涉及到患者的隐私数据,传统的中心化机器学习方法难以实现,而联邦学习可以实现不同医院之间模型的共享和更新,从而提高诊断和治疗的准确性和效率;金融领域,联邦学习可用于风险控制、欺诈检测等,提高金融机构的业务效率和风险管理能力;智能物联网领域,联邦学习可用于实现不同设备之间的智能交互和协作,提高智能物联网系统的性能和可靠性。
2. 安全多方计算
安全多方计算(SMC,Secure Multi-party Computation)由由中国计算机科学家、2000年图灵奖获得者姚启智教授于1982年在论文《Protocols for secure computations》中以百万富翁问题(两个百万富翁Alice和Bob想知道他们两个谁更富有,但他们都不想让对方及其他第三方知道自己财富的任何信息),开创了密码学研究的新领域。
安全多方计算定义:是指在一个互不信任的多用户网络中,n nn个参与者P 1 , P 2 , . . . , P n P_1,P_2,...,P_nP1,P2,...,Pn,每个持有秘密数据x i x_ixi,希望共同计算出函数f ( x 1 , x 2 , . . . , x n ) = ( y 1 , y 2 , . . . , y n ) f(x_1,x_2,...,x_n)=(y_1,y_2,...,y_n)f(x1,x2,...,xn)=(y1,y2,...,yn),P i P_iPi仅得到结果y i y_iyi,并且不泄露x i x_ixi给其他参与者。
安全多方计算同样广泛应用于政务、医疗、金融、交通等各个领域中保护隐私的数据统计、数据分析、数据挖掘。如用户画像要从多个数据源中获取用户的身份、属性、行为、关系等各类数据,并进行群体的分析挖掘。但在数据的获取与计算过程中会导致用户隐私泄露,可使用安全多方计算技术,在保护隐私的情况下,对数据进行分析计算。
3. 联系与区别
(1)联系
联邦学习和安全多方计算都是解决数据隐私保护问题的技术,有以下共同点:
- 都是在多个参与方之间进行数据计算和交互
- 都是在不共享原始数据的情况下进行数据计算
- 都需要使用加密算法和协议来保障数据安全性
(2)区别
- 目的不同。联邦学习的目的是使用多方数据进行模型训练,从而提高模型的准确性和性能;安全多方计算的目的是在多个参与方之间进行数据计算,共同得出结果。
- 数据处理方式不同。联邦学习中,各方将自己的本地模型参数上传进行聚合,从而得到全局模型;安全多方计算中,数据计算是通过密文交互实现的。