一周AI最火论文 | 使用图形界面就能搭建的强化学习模型

简介: 一周AI最火论文 | 使用图形界面就能搭建的强化学习模型

本周关键词:自动驾驶、强化学习、GANs

本周最佳学术研究

Waymo开放数据集挑战赛

今年3月,Alphabet旗下的自动驾驶公司Waymo发起公开挑战赛,参赛者可以使用其自动驾驶数据集(包括2D和3D检测、2D和3D跟踪以及域适应数据)来建立和测试机器学习模型。挑战赛收到来自世界各地的上百份代码提交,最终入围决赛的选手来自中国、英国、新加坡、美国等多个国家。

最近公开的Waymo开放数据集(Waymo Open Dataset,WOD)是用于自动驾驶研究的大型数据集,提供了1000个用于训练和验证以及150个用于测试的驾驶片段。每个片段包含拍摄自不同摄像机的镜头,平均每部摄像机约200帧图像,这其中还包括5台分辨率为1280×1920或886×1920的高分辨率摄像机。总而言之,该数据集包含约115万张关于车辆、行人和骑自行车的人的图像,以及990万张2D边界框。

本论文给出了Waymo开放数据集(WOD)2020挑战赛的最佳解决方案。作者采用FPN(Feature pyramid networks)作为基本框架,而级联RCNN、堆叠PAFPN(Path aggregation FPN)和多头RCNN则用于提高性能。为了处理WOD中的小目标检测问题,训练和测试都使用了超大尺寸的图像,本文的方案在2D对象检测跟踪中排名第一。作者们计划持续增加数据集,希望这将有助于国际研究界在机器感知和自动驾驶技术方面取得进步。

原文:
https://arxiv.org/abs/2008.01365v1

MusPy - 用于生成符号音乐的工具包

本文介绍了MusPy,一个用于生成符号音乐的开源Python库。MusPy为音乐生成系统中的基本组件提供了易于使用的工具,包括数据集管理,数据I / O,数据预处理和模型评估等。

为了展示模型能力,作者对MusPy当前支持的11个数据集进行了统计分析。此外,他们还进行了跨数据集的泛化实验,通过在每个数据集上训练自回归模型,测量其他数据集上的留存可能性(MusPy的数据集管理系统使此过程变得更加容易)。

源码及文档:
https://github.com/salu133445/muspy
原文:
https://arxiv.org/abs/2008.01951v1

深度轻量级Transformer模型

在本论文中,Facebook人工智能实验室和艾伦人工智能研究所的研究人员提出了一种名为DeLighT的极深度轻量级Transformer模型。他们认为,与其他基于Transformer的模型相比,DeLighT可以提供类似或更好的性能,并且参数要少得多。

DeLighT可以高效地分配参数,它使用DExTra(一种深度轻量级转换)在每个Transformer编码器层中分配参数,而在各层之间使用逐层缩放的方法,这种方法允许在输入附近使用较浅较窄的DeLighT层,在输出附近使用较宽较深的DeLighT层。

总体而言,DeLighT网络的深度可以是标准Transformer模型的2.5至4倍,但参数和操作却少得多。在机器翻译和语言建模任务上进行的实验表明,DeLighT可以用更少的参数达到Transformer基线模型的性能。

源码:
https://github.com/sacmehta/delight
原文:
https://arxiv.org/abs/2008.00623v1

一个新型、简单并且可扩展性高的强化学习框架

强化学习(RL)已成为当下主流之一的研究领域,前沿的人工智能公司都会将其作为重要工具来对待。因此,许多研究人员建立了RL框架,例如openAI Gym和KerasRL,以简化其他人的使用。

为了降低RL新手的入门障碍,本文提出了一个新框架——EasyRL。EasyRL是一个通过交互式GUI来构建、训练和评估RL代理的框架。

由于EasyRL完全以GUI呈现,因此不需要有关于训练或测试其内置RL代理的编程知识。该框架还支持自定义RL代理和环境,这对于RL研究人员评估和比较其RL模型非常有帮助。

原文:
https://arxiv.org/abs/2008.01700v1

用于图像和视频合成的GANs:算法与应用

GANs现在是执行各种图像和视频合成任务的强大工具。它们能生成高分辨率的逼真图像和视频,而在此之前这是一项艰巨甚至不可能的任务。GANs还能在内容创作中生成一些新内容。

在这项工作中,研究人员提供了GANs的概述,着重于视觉合成的算法和应用。它们涵盖了稳定GANs训练的几种重要技术,尤其是一些臭名昭著的技术难点。他们还讨论了其在图像翻译,图像处理,视频合成和神经渲染中的应用。

原文:
https://arxiv.org/abs/2008.02793v1

其他爆款论文

简单的Modulo可以大大胜过基于深度学习的代码:
https://arxiv.org/abs/2008.01686v1

一种用于有效标记的主动图像合成方法,可提高使用小数据进行学习任务时的性能:
https://arxiv.org/abs/1902.01522v4

引入Cylinder3D进行驾驶场景LiDAR语义分割:
https://arxiv.org/abs/2008.01550v1

单个示例生成连贯的层级样式:
https://arxiv.org/abs/2008.01531v1

学习资源

机器学习简单的自学资源:
https://developers.google.com/machine-learning/crash-course

吴恩达讲授斯坦福机器学习课程:
http://www.holehouse.org/mlclass/?fbclid=IwAR1XmS0CtIXUDg0s2bxeTUpiv2Dh08L_DaDQqA2HCXqafUFfcWays6S07UI

AI大事件

AI可能会创造的20种严重犯罪:
https://www.zdnet.com/article/evil-ai-these-are-the-20-most-dangerous-crimes-that-artificial-intelligence-will-create/

Julia 1.5发布:
https://www.zdnet.com/article/programming-language-julia-version-1-5-is-out-lots-of-new-features-better-performance/

相关文章
|
1月前
|
机器学习/深度学习 人工智能 并行计算
"震撼!CLIP模型:OpenAI的跨模态奇迹,让图像与文字共舞,解锁AI理解新纪元!"
【10月更文挑战第14天】CLIP是由OpenAI在2021年推出的一种图像和文本联合表示学习模型,通过对比学习方法预训练,能有效理解图像与文本的关系。该模型由图像编码器和文本编码器组成,分别处理图像和文本数据,通过共享向量空间实现信息融合。CLIP利用大规模图像-文本对数据集进行训练,能够实现zero-shot图像分类、文本-图像检索等多种任务,展现出强大的跨模态理解能力。
98 2
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
当语言遇见智慧火花:GPT家族历代模型大起底,带你见证从平凡到卓越的AI进化奇迹!
【10月更文挑战第6天】随着自然语言处理技术的进步,GPT系列模型(Generative Pre-trained Transformers)成为该领域的明星。从GPT-1的开创性工作,到GPT-2在规模与性能上的突破,再到拥有1750亿参数的GPT-3及其无需微调即可执行多种NLP任务的能力,以及社区驱动的GPT-NeoX,这些模型不断进化。虽然它们展现出强大的语言理解和生成能力,但也存在如生成错误信息或偏见等问题。本文将对比分析各代GPT模型的特点,并通过示例代码展示其部分功能。
114 2
|
25天前
|
人工智能
AI科学家太多,谁靠谱一试便知!普林斯顿新基准CORE-Bench:最强模型仅有21%准确率
【10月更文挑战第21天】普林斯顿大学研究人员提出了CORE-Bench,一个基于计算可重复性的AI代理基准,涵盖计算机科学、社会科学和医学领域的270个任务。该基准旨在评估AI代理在科学研究中的准确性,具有多样性、难度级别和现实相关性等特点,有助于推动AI代理的发展并提高计算可重复性。
43 4
|
1月前
|
人工智能 自然语言处理
从迷茫到精通:揭秘模型微调如何助你轻松驾驭AI新热点,解锁预训练模型的无限潜能!
【10月更文挑战第13天】本文通过简单的问题解答形式,结合示例代码,详细介绍了模型微调的全流程。从选择预训练模型、准备新任务数据集、设置微调参数,到进行微调训练和评估调优,帮助读者全面理解模型微调的技术细节和应用场景。
73 6
|
1月前
|
人工智能 自然语言处理 安全
【通义】AI视界|Adobe推出文生视频AI模型,迎战OpenAI和Meta
本文精选了过去24小时内的重要科技新闻,包括微软人工智能副总裁跳槽至OpenAI、Adobe推出文本生成视频的AI模型、Meta取消高端头显转而开发超轻量设备、谷歌与核能公司合作为数据中心供电,以及英伟达股价创下新高,市值接近3.4万亿美元。这些动态展示了科技行业的快速发展和激烈竞争。点击链接或扫描二维码获取更多资讯。
|
1月前
|
机器学习/深度学习 人工智能 TensorFlow
解锁AI潜力:让开源模型在私有环境绽放——手把手教你搭建专属智能服务,保障数据安全与性能优化的秘密攻略
【10月更文挑战第8天】本文介绍了如何将开源的机器学习模型(如TensorFlow下的MobileNet)进行私有化部署,包括环境准备、模型获取与转换、启动TensorFlow Serving服务及验证部署效果等步骤,适用于希望保护用户数据并优化服务性能的企业。
56 4
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
揭开模型微调Fine-Tuning的神秘面纱:如何在预训练基础上巧妙调整,解锁定制AI解决方案的秘密武器
【10月更文挑战第8天】模型微调是在预训练模型基础上,利用特定领域数据进一步训练,以优化模型在特定任务上的表现。此方法广泛应用于自然语言处理和计算机视觉等领域,通过调整预训练模型的部分或全部参数,结合适当的正则化手段,有效提升模型性能。例如,使用Hugging Face的Transformers库对BERT模型进行微调,以改善文本匹配任务的准确率。
57 1
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
【AI大模型】BERT模型:揭秘LLM主要类别架构(上)
【AI大模型】BERT模型:揭秘LLM主要类别架构(上)
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
【AI大模型】ChatGPT模型原理介绍(下)
【AI大模型】ChatGPT模型原理介绍(下)
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
【AI大模型】ChatGPT模型原理介绍(上)
【AI大模型】ChatGPT模型原理介绍(上)

热门文章

最新文章

下一篇
无影云桌面