五篇论文,追踪可信联邦学习医疗领域研究前沿

简介: 五篇论文,追踪可信联邦学习医疗领域研究前沿

可信联邦学习 (Trustworthy federated learning) 是一种增强型的联邦学习,它除了保证原始数据的隐私安全和模型的可证安全,还保证学习过程的高效率和模型的可用性,模型决策机制的可解释性、及模型的可溯源和审计监管。

在近期的诸多研究中,可信联邦学习在医疗领域获得了哪些拓展?解决了哪些新的问题?

为了帮助读者了解面向医疗的可信联邦学习研究进展,机器之心机动组组织策划了最新一期直播分享。

在 10 月 20 日的分享中,微众银行人工智能首席科学家范力欣博士将首先进行主题分享。之后,五篇论文作者将从不同角度介绍可信联邦学习在医疗领域的最新研究成果。

其中,《MetaFed》论文提出了元联邦既联邦的联邦概念及 MetaFed 层次化动态环联邦学习框架,以较小通信代价,达到在无中心服务端参与情形下获取精度提升及个性化学习。

《scPrivacy》论文提出了基于联邦深度度量学习的单细胞细胞类型识别框架 scPrivacy,解决了整合多个机构的单细胞转录组数据集中的数据隐私保护问题。

《FedDUAP》论文利用服务器上的不敏感数据和边缘设备中的分散数据来提高训练效率,同时进行基于各层自适应的模型剪枝,实现效率和有效性之间的良好平衡。

《FeARH》论文提出了具有匿名随机杂交的联邦学习算法来训练电子病历数据。与集中式机器学习和传统联邦学习相比,新算法具有相似的 AUCROC 和 AUCPR 结果。

最后一篇论文的研究目标是同时处理联邦学习中两种不同类型的攻击威胁,拜占庭攻击和隐私威胁。研究者利用了一种鲁棒模型聚合,同时实现对拜占庭攻击的鲁棒性和对本地数据的隐私保护。

相关文章
|
机器学习/深度学习 人工智能 算法
目标检测的国内外研究现状
作为计算机领域的一个重要的研究成果,深度卷积神经网络已经广泛用于图像分类问题。随着图像分类的准确度提高,基于卷积神经网络的图像目标检测算法已逐渐成为当前的研究热点。
5935 0
|
2月前
|
人工智能 自然语言处理 安全
调研219篇文献,全面了解GenAI在自适应系统中的现状与研究路线图
【10月更文挑战第22天】生成式人工智能(GenAI)在自适应系统(SASs)中展现出巨大潜力,尤其是在数据理解、逻辑推理和自主性增强方面。GenAI可以提升SASs的自主性和人机交互效率,但也面临技术多样性、数据需求、隐私问题及模型可解释性和鲁棒性的挑战。研究路线图包括解决关键挑战、模型评估优化、改善人机交互和探索实际应用。论文链接:https://dl.acm.org/doi/10.1145/3686803
45 7
|
存储 机器学习/深度学习 算法
一文概述联邦持续学习最新研究进展(3)
一文概述联邦持续学习最新研究进展
520 0
一文概述联邦持续学习最新研究进展(3)
|
存储 数据可视化 数据安全/隐私保护
一文概述联邦持续学习最新研究进展(2)
一文概述联邦持续学习最新研究进展
586 0
|
机器学习/深度学习 存储 人工智能
一文概述联邦持续学习最新研究进展(1)
一文概述联邦持续学习最新研究进展
600 0
|
机器学习/深度学习 算法 安全
CVPR 2022 | 联邦学习审计隐私新手段,田纳西大学等提出生成式梯度泄露方法GGL
CVPR 2022 | 联邦学习审计隐私新手段,田纳西大学等提出生成式梯度泄露方法GGL
242 0
|
机器学习/深度学习 传感器 自动驾驶
数据驱动的自动驾驶系统算法最新论文合集(27篇)
感知:2-D/3-D 目标检测和分割基本是采用深度学习模型,无论激光雷达、摄像头或者传感器融合的形式;跟踪基本是tracking-by-detection方式,不过把跟踪和检测集成在一起做深度学习模型也是大家讨论的热点之一。
数据驱动的自动驾驶系统算法最新论文合集(27篇)
|
传感器 算法 安全
车距检测的国内外研究现状
车距测量技术对于减少交通安全事故,提高行车安全具有重要的意义。目前车距检测技术多是以车辆为参照进行测距,检测结果为两车的直线距离,但在弯道情况下则与实际车间距误差较大。
1116 0
车距检测的国内外研究现状
|
机器学习/深度学习 人工智能 自然语言处理
年度回顾 | 从九大国际AI顶会接收论文一窥ML算法趋势(上)
本文节选自机器之心《2021-2022年度 AI科技发展趋势报告 · 研究篇》,详细数据及分析过程在完整报告中进行收录。报告将于2022年开春正式发布,点击阅读原文获得免费获取报告机会。
342 0
年度回顾 | 从九大国际AI顶会接收论文一窥ML算法趋势(上)
|
机器学习/深度学习 算法 数据可视化
NeurIPS 2019:两种视角带你了解网络可解释性的研究和进展
一直以来,深度网络在图像识别,检测,语言等领域都有强大的能力。研究者们的重点都在如何提升网络性能上,很少有人能说清楚深度神经网络为何能够得到较好的泛化能力,有的研究者习惯从原理上来说明这个问题,有的研究者则会从中间结果来解释,当然这些观点都各有千秋。在 NeurIPS 2019 上,有些学者在网络的可解释性上发表了自己的研究。
258 0
NeurIPS 2019:两种视角带你了解网络可解释性的研究和进展

热门文章

最新文章