一周AI最火论文 | 给你的AI模型一张名片,谷歌发布MCT

简介: 一周AI最火论文 | 给你的AI模型一张名片,谷歌发布MCT

呜啦啦啦啦啦啦啦大家好,本周的AI Scholar Weekly栏目又和大家见面啦!
AI ScholarWeekly是AI领域的学术专栏,致力于为你带来最新潮、最全面、最深度的AI学术概览,一网打尽每周AI学术的前沿资讯。
每周更新,做AI科研,每周从这一篇开始就够啦!

本周关键词:迁移学习、Deepfake、联合学习

本周最佳学术研究

Google AI:用于AI模型透明化的Model Card Toolkit

Google最近发布了Model Card Toolkit(MCT),该工具包旨在为开发人员、监管人员和下游用户提供透明化的AI模型。Google表示,模型透明度在影响人们生活的各个领域(从医疗保健到个人理财再到就业)都发挥着重要作用。

Google过去公开发布了Model Cards来公开特定的模型架构,并为一些用例深入分析了有助于确保其最佳性能的因素。

MCT基于Google的Model Cards框架来报告模型的来源、使用情况和评估结果,并旨在通过收集必要信息和协助用户创建界面,来为第三方创建Model Cards带来便利。

Google正在共享MCT以简化所有ML从业人员Model Cards的创建过程。

Github传送门:
MCT:
https://github.com/tensorflow/model-card-toolkit
MCT demo:
https://github.com/tensorflow/model-card-toolkit/blob/master/model_card_toolkit/documentation/examples/MLMD_Model_Card_Toolkit_Demo.ipynb.

原文:
https://ai.googleblog.com/2020/07/introducing-model-card-toolkit-for.html

内存有效的终端设备学习

这项工作提出了一种微小迁移学习方法(Tiny-Transfer-Learning(TinyTL))以实现内存有效的终端设备学习,旨在使预训练的模型在边缘设备新收集的数据上表现良好。

现有迁移学习方法固定了架构,基本上是通过细微调整权重以适合不同的目标数据集。不同的是,TinyTL固定了权重,通过调整特征提取器的架构并学习内存有效的精简残差模块和偏差,来适应不同的目标数据集 。因此,TinyTL不需要存储中间激活值,而这正是终端设备学习的主要存储瓶颈。

在基准迁移学习数据集上进行的大量实验一致表明了TinyTL的有效性和存储效率,这为高效的终端设备机器学习铺平了道路。

原文:
https://arxiv.org/abs/2007.11622v2

用于Deepfakes创建和检测的深度学习方法

Deepfake算法能伪造图像和视频而生成大量虚假内容,人眼无法将它们与真实的图像和视频区分开来,因此开发能够自动检测和评估数字视觉媒体真实性的算法至关重要。

本文对deepfakes的创建算法和最新文献中更为重要的deepfakes的检测方法进行了调查。研究人员针对挑战、研究趋势以及深层伪造技术的发展方向进行了详细讨论,可以为你在这个领域的工作和研究提供帮助。

通过回顾deepfakes的背景和最新的检测方法,本文提供了对该技术的全面概述并促进了新的更稳健的方法的开发,来应对日益严峻的伪造现象。

原文:
https://arxiv.org/abs/1909.11573v2

语音编码器表征的自我监督学习

自我监督学习作为一种学习大量未标记数据中知识的有效方法,近年来发展迅速。但是,最近的方法经常通过制定单个辅助任务来学习,例如对比预测\自回归预测或蒙版重建。

在本文中,一组研究人员提出了一种自我监督的语音预训练方法,称为“变形编码器表征法”(TERA)。与以前的技术不同,TERA使用多目标辅助任务对大量未标记的语音进行变压器编码器的预训练。

该模型通过从变化后的副本中重建声帧来学习,研究人员在其中使用随机策略沿三个维度进行变化:时间,通道和幅度。TERA可用于提取语音表示或与下游模型(包括音素分类,说话者识别和语音识别)进行微调。

TERA通过改善表面特征的方法在这些任务上实现了强大的性能。此外,研究人员表明,这一新方法可以轻松地转移到未在预训练中使用的另一个数据集。

阅读更多:
https://arxiv.org/abs/2007.06028v2

友好的联合学习研究框架

本文提出了一个名为Flower的新的联合学习(FL)框架,该框架支持在移动和无线设备上实施FL模型的实现和试验。FL(也称为协作学习)是一种机器学习(ML)技术,可跨多个分散的边缘设备或保存本地数据样本的服务器训练算法。FL专为应用于移动设备以及连接这些设备的无线链接而设计。

该研究描述了Flower的设计原理和实现细节,以及将其与基于云的移动客户端集成的几个示例。研究人员认为,这将是FL移动应用中真正改变者。

Flower通过Apache 2.0 License2的开放源代码,希望它能帮助研究社区快速试验以FL为重点的研究问题,并且社区成员将进一步扩展框架以支持新的通信协议和移动客户端。

原文:
https://arxiv.org/abs/2007.14390v1

其他爆款论文

Google推出了ScaNN开源软件,可进行有效的矢量相似度搜索:
https://github.com/google-research/google-research/tree/master/scann

致力于改善现有的CNN,高效的深度CNN Dropout:
https://arxiv.org/pdf/1904.03392v5.pdf

一种新颖的样式转移算法,可从特征中完全提取特征:
https://arxiv.org/abs/2007.13010v1

逼真的室内场景数据集的端到端开放框架:OpenRooms:
https://arxiv.org/pdf/2007.12868v1.pdf

学习资源

与MIT和Microsoft的专家一起探索数据可视化,并获得机器学习入门课程:
https://www.edx.org/course/data-science-essentials

哈佛的免费数据科学课程:讲座、视频、实验课:
http://cs109.github.io/2015/pages/videos.html

AI大事件

微软表示,我们正在从Facebook手中接管Windows 10 PyTorch AI库:
https://www.zdnet.com/article/microsoft-were-taking-over-windows-10-pytorch-ai-library-from-facebook/

英特尔发布了使用AI的道德框架:
https://www.c4isrnet.com/artificial-intelligence/2020/07/23/intel-community-releases-framework-for-ethically-using-artificial-intelligence/?utm_campaign=Artificial%2BIntelligence%2BWeekly&utm_medium=email&utm_source=Artificial_Intelligence_Weekly_172

相关文章
|
1月前
|
机器学习/深度学习 人工智能 算法
AI音乐生成创企发新模型 几秒生成两分钟歌曲
Suno公司推出AI音乐生成模型,基于深度学习和大数据,快速创作符合用户喜好的歌曲,简化音乐创作流程,让业余爱好者也能参与。该模型高度可定制,支持二次创作,引发行业关注。创始人强调,目标是辅助而非取代人类音乐家,旨在促进音乐产业创新与发展。
58 1
AI音乐生成创企发新模型 几秒生成两分钟歌曲
|
2天前
|
人工智能 搜索推荐 决策智能
【AI Agent系列】【阿里AgentScope框架】1. 深入源码:详细解读AgentScope中的智能体定义以及模型配置的流程
【AI Agent系列】【阿里AgentScope框架】1. 深入源码:详细解读AgentScope中的智能体定义以及模型配置的流程
27 0
|
2天前
|
数据采集 存储 人工智能
【AI大模型应用开发】【LangChain系列】实战案例4:再战RAG问答,提取在线网页数据,并返回生成答案的来源
【AI大模型应用开发】【LangChain系列】实战案例4:再战RAG问答,提取在线网页数据,并返回生成答案的来源
26 0
|
2天前
|
数据采集 存储 人工智能
【AI大模型应用开发】【LangChain系列】实战案例2:通过URL加载网页内容 - LangChain对爬虫功能的封装
【AI大模型应用开发】【LangChain系列】实战案例2:通过URL加载网页内容 - LangChain对爬虫功能的封装
10 0
|
2天前
|
人工智能 Python
【AI大模型应用开发】【LangChain系列】实战案例1:用LangChain写Python代码并执行来生成答案
【AI大模型应用开发】【LangChain系列】实战案例1:用LangChain写Python代码并执行来生成答案
6 0
|
2天前
|
人工智能 监控 数据处理
【AI大模型应用开发】【LangSmith: 生产级AI应用维护平台】1. 快速上手数据集与测试评估过程
【AI大模型应用开发】【LangSmith: 生产级AI应用维护平台】1. 快速上手数据集与测试评估过程
14 0
|
2天前
|
人工智能 监控 数据可视化
【AI大模型应用开发】【LangSmith: 生产级AI应用维护平台】0. 一文全览Tracing功能,让你的程序运行过程一目了然
【AI大模型应用开发】【LangSmith: 生产级AI应用维护平台】0. 一文全览Tracing功能,让你的程序运行过程一目了然
7 0
|
2天前
|
人工智能 API 开发者
【AI大模型应用开发】0.2 智谱AI API接入详细步骤和简单应用
【AI大模型应用开发】0.2 智谱AI API接入详细步骤和简单应用
8 0
|
2天前
|
数据采集 人工智能 数据可视化
【AI大模型应用开发】【LangChain系列】4. 从Chain到LCEL:探索和实战LangChain的巧妙设计
【AI大模型应用开发】【LangChain系列】4. 从Chain到LCEL:探索和实战LangChain的巧妙设计
14 0
|
2天前
|
存储 人工智能 JSON
【AI大模型应用开发】【LangChain系列】3. 一文了解LangChain的记忆模块(理论实战+细节)
本文介绍了LangChain库中用于处理对话会话记忆的组件。Memory功能用于存储和检索先前的交互信息,以便在对话中提供上下文。目前,LangChain的Memory大多处于测试阶段,其中较为成熟的是`ChatMessageHistory`。Memory类型包括:`ConversationBufferMemory`(保存对话历史数组)、`ConversationBufferWindowMemory`(限制为最近的K条对话)和`ConversationTokenBufferMemory`(根据Token数限制上下文长度)。
11 0

热门文章

最新文章