还在熬夜憋思路?这12篇最新论文打包送给你 | 本周值得读

简介:
Baseline Needs More Love: On Simple Word-Embedding-Based Models and Associated Pooling Mechanisms

@EricShen 推荐

#Word Embedding

这篇发表在 ACL 2018 上的论文来自于杜克大学 Lawrence Carin 教授的实验室。文章重新审视了 deep learning models(例如 CNN, LSTM)在各类 NLP tasks 中的的必要性

通过大量的实验探究(17 个数据集),作者发现对于大多数的 NLP 问题,在 word embedding 矩阵上做简单的 pooling 操作就达到了比 CNN encoder 或者 LSTM encoder 更好的的结果。这类模型被作者命名为 SWEM (Simple Word-Embedding-based Models)。

文章进一步提出了一种新型的 hierarchical pooling 操作:在考虑到部分 word-order 信息的同时,保持了模型的简单性。值得一提的是,SWEM 模型相较于 LSTM 模型在训练速度上提高了 10 倍之多,在参数量上也大大减少。

论文链接

https://www.paperweekly.site/papers/1987

代码链接

https://github.com/dinghanshen/SWEM

Deep Reinforcement Learning For Sequence to Sequence Models

@guohao916 推荐

#Seq2Seq

针对 Seq2Seq 模型中存在的两类问题:1. exposure bias; 2. inconsistency between train/test measurement,本文从强化学习的角度出发,结合强化学习方法在决策上的优势和 Seq2Seq 模型在长期记忆方面的优势,提出了基于深度强化学习的序列到序列的模型,从而能够更好地解决复杂情况下的 Seq2Seq任务。

论文链接

https://www.paperweekly.site/papers/1973

代码链接

https://github.com/yaserkl/RLSeq2Seq

Training Classifiers with Natural Language Explanations

@erutan 推荐

#Relation Extraction

本文是斯坦福大学发表于 ACL 2018 的工作。在关系抽取中,本文利用标注时标注者提供的自然语言解释,使用极弱的基于规则的领域无关的 parser 将其转化为标注规则,并自动去除了大多数矛盾的规则,将其运用在大量未标注数据中获取弱标注信息,利用 weakly-supervised 的方法训练并取得不错的效果。

比较有意思的点在于,一个是利用了标注者给出的基于自然语言的解释,这是一种相对而言可以较为廉价获得(相对于更专业的结构化语言)的资源。另一个是使用了领域无关的弱 parser,却非常简单地筛掉了大多数错误规则并且指出部分“细微的错误”还会带来一些泛化能力上的提升。

论文链接

https://www.paperweekly.site/papers/1986

代码链接

https://github.com/HazyResearch/babble

What you can cram into a single vector: Probing sentence embeddings for linguistic properties

@lipaper9527 推荐

#Sentence Embedding

本文是 Facebook AI Research 发表于 ACL 2018 的工作,文章构建了一系列的句子级别的任务来检测不同模型获得的句子向量的质量

任务包含表层的信息如预测句子长度或某个字是否出现在句子中,也包含句法信息如句法树的深度,语义信息如时态、主语个数、宾语个数等。论文旨在比较不同模型获得的句子向量的质量。非常有意思且有价值。

论文链接

https://www.paperweekly.site/papers/1977

Learning Semantic Textual Similarity from Conversations

@xwzhong 推荐

#Sentence Embedding

本文来自 Google Research,文章提出使用对话数据+迁移学习(此处使用了 SNLI 数据集)来生成句向量,从而用于 QA 中 question rerank,answer rerank 和 sentence 相似度计算等任务中。

论文链接

https://www.paperweekly.site/papers/1984

论文笔记

https://www.paperweekly.site/papers/notes/397

R-VQA: Learning Visual Relation Facts with Semantic Attention for Visual Question Answering

@xiaolu 推荐

#Visual Question Answering

本文是清华大学和微软发表在 KDD ’18 的工作近来一些 VQA 工作引入了高级语义概念,例如利用计算机视觉领域的一些方法挖掘图像中的语义实体和属性,从而为 VQA 模型提供丰富的语义信息。

相比于一元形式的实体和属性,关系事实(Relation Fact)由主体实体、关系、对象实体三个要素组成,可以构造大量的事实组合,因此具有更强大的语义表达能力。

然而,这些工作存在着明显的局限性。一方面,它们使用高层次的语义概念为一元形式的实体或属性的,只能表达有限的语义知识。另一方面,利用在其它任务或数据集中训练得到的模型提取图像的候选概念,可能 VQA 任务中的问题内容无关。

为了更好地利用隐含在图像中的语义知识,本文提出了一个新的模型框架用来学习 VQA 任务中的视觉关系事实。具体而言,本文基于 Visual Genome 数据集,通过计算文本之间的语义相似度构建 Relation-VQA(R-VQA)数据集,其中每一个数据由问题、正确答案和相关的支持关系事实组成。本文设计了一种关系事实检测器可以预测与给定视觉问题相关的关系事实。

本文进一步提出了由视觉注意力机制和语义注意力机制组成的多步注意力模型,分别提取图像中的视觉知识和语义知识。本文在两个公开的 VQA 数据集上进行了全面的实验,证明本文的模型实现了目前最好的性能,同时验证了视觉关系事实在 VQA 任务中的效果。

论文链接

https://www.paperweekly.site/papers/1970

Explicit Reasoning over End-to-End Neural Architectures for Visual Question Answering

@huilyu 推荐

#Visual Question Answering

本文是亚利桑那州立大学发表于 AAAI 2018 的工作。VQA 的 reasoning 方面有待加强。本文利用 PSL(Probabilistic Soft Logic)engine 来定义 inputs 和 rules 并列出 top evidences 提供解释。其中,inputs 由三部分构成:image captioning and parsing into relation triples;question parsing into relation triples;phrasal similarity。

论文链接

https://www.paperweekly.site/papers/1988

代码链接

https://github.com/adityaSomak/PSLQA

SSD-6D: Making RGB-based 3D detection and 6D pose estimation great again

@SOC1 推荐

#Pose Estimation

本文是慕尼黑工业大学发表于 ICCV 2017 的工作,论文贡献如下:

1. 基于扩展 SSD 的 6D 姿态估计;

2.不需要深度信息,只通过单幅 RGB 图像就能估计出 6D 姿态。

论文链接

https://www.paperweekly.site/papers/1954

代码链接

https://github.com/wadimkehl/ssd-6d

Multi-modal Factorized Bilinear Pooling with Co-Attention Learning for Visual Question Answering

@xaj 推荐

Visual Question Answering

本文是杭州电子科技大学发表于 ICCV 2017 的工作,论文提出了一种新的 bilinear pooling 方法,即 MFB。此外,论文还引入了 co-attention 机制,来学习 image 和 question 的 attention。

论文链接

https://www.paperweekly.site/papers/1989

代码链接

https://github.com/yuzcccc/vqa-mfb

H-DenseUNet: Hybrid Densely Connected UNet for Liver and Liver Tumor Segmentation from CT Volumes

@yunfeinihao 推荐

#Image Segmentation

本文来自香港中文大学,论文使用 U-Net 分割三维医学图像,可以借鉴到其他的医学图像中。此外,论文还使用了混合 dense 优化网络,进一步提升效果。

论文链接

https://www.paperweekly.site/papers/1968

Aesthetic-based Clothing Recommendation

@somtian 推荐

#Recommender System

本文是清华大学发表于 WWW 18 的工作,论文利用图片增强效果,传统的方法只考虑 CNN 抽取的图像特征;而本文考虑了图片中的美学特征对于推荐的影响;作者利用 BDN 从图片中学习美学特征,然后将其融合到 DCF 中,增强用户-产品,产品-时间矩阵,从而提高了推荐效果;在亚马逊和 AVA 数据集上都取得了良好的效果。

论文链接

https://www.paperweekly.site/papers/1975

Hindsight Experience Replay
@ChenjiaBai 推荐
#Reinforcement Learning

本文来自 OpenAI,论文提供了解决强化学习 Multi-Goal 问题的思路,扩展了 Universal Value Function,并提供了实验环境。

论文链接

https://www.paperweekly.site/papers/1992

代码链接

https://github.com/openai/baselines



原文发布时间为:2018-06-4

本文作者:让你更懂AI

本文来自云栖社区合作伙伴“PaperWeekly”,了解相关信息可以关注“PaperWeekly”。

相关文章
|
11天前
|
存储 算法 安全
2024重生之回溯数据结构与算法系列学习之串(12)【无论是王道考研人还是IKUN都能包会的;不然别给我家鸽鸽丟脸好嘛?】
数据结构与算法系列学习之串的定义和基本操作、串的储存结构、基本操作的实现、朴素模式匹配算法、KMP算法等代码举例及图解说明;【含常见的报错问题及其对应的解决方法】你个小黑子;这都学不会;能不能不要给我家鸽鸽丢脸啊~除了会黑我家鸽鸽还会干嘛?!!!
2024重生之回溯数据结构与算法系列学习之串(12)【无论是王道考研人还是IKUN都能包会的;不然别给我家鸽鸽丟脸好嘛?】
|
11天前
|
算法 安全 搜索推荐
2024重生之回溯数据结构与算法系列学习(8)【无论是王道考研人还是IKUN都能包会的;不然别给我家鸽鸽丢脸好嘛?】
数据结构王道第2.3章之IKUN和I原达人之数据结构与算法系列学习x单双链表精题详解、数据结构、C++、排序算法、java、动态规划你个小黑子;这都学不会;能不能不要给我家鸽鸽丢脸啊~除了会黑我家鸽鸽还会干嘛?!!!
|
11天前
|
存储 人工智能 算法
2024重生之回溯数据结构与算法系列学习(7)【无论是王道考研人还是IKUN都能包会的;不然别给我家鸽鸽丢脸好嘛?】
IKU达人数据结构与算法系列学习之队列的基本概念、如何判断队列已满/已空、队列的链式存储结构[头的出入队]、双端队列、中缀、后缀、前缀表达式、特殊矩阵和一二维数组的压缩储存等具体操作详解步骤;举例说明、注意点及常见报错问题所对应的解决方法 你个小黑子;这都学不会;能不能不要给我家鸽鸽丢脸啊~除了会黑我家鸽鸽还会干嘛?!!!
|
11天前
|
存储 算法 安全
2024重生之回溯数据结构与算法系列学习【无论是王道考研人还真爱粉都能包会的;不然别给我家鸽鸽丢脸好嘛?】
数据结构的基本概念;算法的基本概念、特性以及时间复杂度、空间复杂度等举例说明;【含常见的报错问题及其对应的解决方法】
|
11天前
|
存储 算法 安全
2024重生之回溯数据结构与算法系列学习(11)【无论是王道考研人还是IKUN都能包会的;不然别给我家鸽鸽丟脸好嘛?】
数据结构王道第3章之IKUN和I原达人之数据结构与算法系列学习栈与队列精题详解、数据结构、C++、排序算法、java、动态规划你个小黑子;这都学不会;能不能不要给我家鸽鸽丢脸啊-除了会黑我家鸽鸽还会干嘛?!!!
|
人工智能 算法 架构师
再现神作!字节算法小抄官方整版,已助1000+应届生拿到25w+年薪
2023年经济下行趋势明显,程序员出路在哪儿? 今年,毕业人数将达到1158万,导致很多公司招聘非常谨慎、要求也变得非常更高。
再现神作!字节算法小抄官方整版,已助1000+应届生拿到25w+年薪
|
人工智能 自然语言处理 机器人
ChatGPT被玩疯,问“如果美国倒了,世界会怎样?”回答太吓人了
ChatGPT被玩疯,问“如果美国倒了,世界会怎样?”回答太吓人了
106 0
|
C语言
我读书少,你们得帮帮我
我读书少,你们得帮帮我
|
算法 NoSQL API
到底该不该看源码(懂这三点儿就够了)
1、不要为了看源码而看源码 2、代码积累到一定程度,遇到问题自然就去查源码了,然后你就看懂了 3、两年内不要刻意去看源码,可以点开简单了解一下就行,前两年疯狂做项目就行了,后期项目做的多了,你自己就会有疑问,每次写代码就会问自己为什么要这样写?底层的原理是什么?很自觉的带着问题就去看源码了,如果你没有这样的疑问,那说明你也不适合去看源码了,写写业务代码,了了一生
187 0
|
存储 机器学习/深度学习 算法
大逆不道,从天界偷下来的算法修仙秘籍竟然传到你手上~~(结尾有彩蛋)
这有可能是你见过最离谱的标题 这有可能是你没见过的技术文章模式 我不知道我的选择是否正确,但是我的想法就是: 不再让技术冷冰冰,让所有人学习中获得快乐!
266 1
下一篇
无影云桌面