怎么解决数据屏障?杨强教授提出联邦迁移学习

简介: 2018中国人工智能大会今天28日在深圳举行。会上,国际人工智能联合会(IJCAI)主席、AAAI/ACM/IEEE Fellow、香港科技大学教授杨强发表了题为《AI面临的挑战和迁移学习所带来的机遇》的演讲,谈到了AI发展遇到的大数据的困境以及解决办法。

image

2018中国人工智能大会今天28日在深圳举行。会上,国际人工智能联合会(IJCAI)主席、AAAI/ACM/IEEE Fellow、香港科技大学教授杨强发表了题为《AI面临的挑战和迁移学习所带来的机遇》的演讲,谈到了AI发展遇到的大数据的困境以及解决办法。

杨强表示,我们正处于大数据驱动的AI时代,人们将工作数字化,然后通过人工智能自动化,从而提高效率。但是,现在我们越来越多的遇到了数据的困扰,很多企业的数据都是孤岛没有办法打通,同时受制于欧盟GDPR等法案的制约,增大了这种困境。

杨强教授具体讲解了大数据面临的两大困境。

一大困境是面临隐私、安全和监督。以欧盟的GDPR为例,GDPR明文规定了用户的“被遗忘权”,对使用自动化模型决策全面禁止,这对机器学习有重大影响,因为让用户同意使用并不容易,使用自主决策合法要满足三点,包括合同处理的必要性、其他法律另行授权,数据主体明确同意。

在数据隐私的监管的大趋势下,解决这一问题并不容易。杨强教授提出了联邦迁移学习思路,这种思路希望建立起机器学习的企业生态,各个企业自有数据不出本地,模型效果不变,在不违规的情况下建立一个虚拟模型。杨强教授表示,利用联邦迁移学习加密技术,协同建模,学习模型过程不交换用户数,不侵犯隐私。

另一大困境是小数据的困境,杨强教授提出了迁移学习,并列举了跨领域舆情分析的案例。

杨强最后表示,面对数据发展的困扰,希望利用联邦迁移学习技术建立联合建模解决方案,克服数据障碍。在法律规范的基础上,各个参与方理解一致的共识机制,保障安全合规性。比如在金融领域,可以建立金融业联邦迁移学习联盟。

原文发布时间为:2018-07-29
本文作者:专知
本文来自云栖社区合作伙伴“专知”,了解相关信息可以关注“专知

相关文章
|
8月前
|
机器学习/深度学习 人工智能 安全
调查分析两百余篇大模型论文,数十位研究者一文综述RLHF的挑战与局限
调查分析两百余篇大模型论文,数十位研究者一文综述RLHF的挑战与局限
232 0
|
11月前
|
人工智能 搜索推荐 算法
AAAI 2023杰出论文一作分享:新算法加持的大批量学习加速推荐系统训练
AAAI 2023杰出论文一作分享:新算法加持的大批量学习加速推荐系统训练
225 0
|
11月前
|
人工智能 安全 算法
可信联邦学习线上分享:杨强教授带领四篇论文解读最前沿研究
可信联邦学习线上分享:杨强教授带领四篇论文解读最前沿研究
|
11月前
|
机器学习/深度学习 存储 并行计算
超快、超低能耗!北大团队提出基于卷积神经网络的全光计算
超快、超低能耗!北大团队提出基于卷积神经网络的全光计算
248 0
|
机器学习/深度学习 算法 数据挖掘
NeurIPS 2019杰出论文深度解读:窥视机器学习的核心问题
在NeurIPS 2019一千多篇入选论文中,有那么1篇杰出论文值得长时间、深入、反复学习。
108 0
NeurIPS 2019杰出论文深度解读:窥视机器学习的核心问题
|
机器学习/深度学习 算法 数据可视化
NeurIPS 2019分享:清华大学孙富春组提出全新模仿学习理论
在 NeurIPS 2019正式召开以前,机器之心精心策划了 NeurIPS 2019 专题,包括线上分享、论文解读、现场报道等内容。11月14日,第一期分享已经圆满结束。本文介绍的是「全新智能体观测模仿学习」,这是清华计算机系类脑计算与认知团队最新提出的一种学习理论,也是学界首次将生成式对抗方法推广到观测模仿学习中。
321 0
 NeurIPS 2019分享:清华大学孙富春组提出全新模仿学习理论
|
机器学习/深度学习 人工智能 算法
南大周志华、俞扬、钱超最新力作:《演化学习:理论与算法进展》正式上线
梯度下降或最速下降法,是机器学习最为重要的模块之一。尤其是在深度学习时代,梯度下降已成为不可或缺的组成部分。但同时,梯度下降也限制了机器学习推广到更广泛的一些任务中,例如不可微的目标函数。这一缺陷,却正好能被本书的主题「演化学习」解决。
383 0
南大周志华、俞扬、钱超最新力作:《演化学习:理论与算法进展》正式上线
|
人工智能 数据挖掘
热议:大脑功能磁共振数据不可靠?杜克大学教授对自己15年的工作提出质疑
脑部图像显示了不同的两天完成3个任务所对应的功能磁共振成像。图中,暖色显示一组人激活级别的一致性,冷色表明独特的激活模式被检测的可靠性有多糟糕。
|
机器学习/深度学习 测试技术
十年机器学习结果不可靠?伯克利&MIT研究质疑了30个经典模型
我们对机器学习的发展认识,很大程度上取决于少数几个标准基准,比如CIFAR-10,ImageNet或MuJoCo。这提出了一个至关重要的问题:我们对目前机器学习进展的衡量有多可靠?
10012 1