论文 5:Self-supervised Transparent Liquid Segmentation for Robotic Pouring
- 作者:Gautham Narasimhan 等
- 论文链接:https://arxiv.org/pdf/2203.01538.pdf
摘要:近期,在 CMU 和圣母大学的一篇论文中,研究者提出了一种在透明容器中感知透明液体(水)的方法。与以往方法相比,本研究提出的方法减轻了对操作域的限制。具体地,他们在单个图像上进行操作,不需要液体运动或多帧,也不需要在训练期间进行手动注释或加热液体。研究者使用一个生成模型来学习将有色液体的图像转换为透明液体的合成图像,这种做法可以用来训练透明的液体细分模型。
论文一作 Gautham Narasimhan 现为 CMU 机器人研究所的助理研究员,2020 年在 CMU 拿到了硕士学位。目前,他致力于研究用于机器人倒水任务的强化学习模型。该研究由 LG Electronics 和美国国家科学基金会提供资助,并于 5 月份发表在 IEEE 国际机器人和自动化会议上。该论文已被机器人领域国际顶会 ICRA 2022 接收。
有色液体图像转换成透明液体图像的详细流程图。
透明液体细分流程图。
推荐:将有色液体图像转换成透明液体,CMU 教机器人准确掌控向杯中倒多少水。
论文 6:Neural Label Search for Zero-Shot Multi-Lingual Extractive Summarization
- 作者:Ruipeng Jia 等
- 论文链接:https://aclanthology.org/2022.acl-long.42.pdf
摘要:抽取式文本摘要目前在英文上已经取得了很好的性能,这主要得益于大规模预训练语言模型和丰富的标注语料。但是对于其他小语种语言,目前很难得到大规模的标注数据。中国科学院信息工程研究所和微软亚洲研究院联合提出一种是基于 Zero-Shot 的多语言抽取式文本摘要模型。具体方法是使用在英文上预训练好的抽取式文本摘要模型来在其他低资源语言上直接进行摘要抽取;并针对多语言 Zero-Shot 中的单语言标签偏差问题,提出了多语言标签标注算法和神经标签搜索模型。
实验结果表明,模型 NLSSum 在多语言摘要数据集 MLSUM 的所有语言上大幅度超越 Baseline 模型的分数。其中在俄语(Ru)数据集上,零样本模型性能已经接近使用全量监督数据得到的模型。该研究发表在了 ACL 2022 会议主会长文上。
多语言 Zero-Shot 中的单语言标签偏差问题。
多语言标签。
多语言神经标签搜索摘要模型。
推荐:基于神经标签搜索,中科院 & 微软亚研零样本多语言抽取式摘要入选 ACL 2022。
论文 7:Evolution through Large Models
- 作者:Joel Lehman 等
- 论文链接:https://arxiv.org/abs/2206.08896
摘要:很难想象,让大型语言模型辅助一下智能体机器人,它就自己成精了...... 深度学习和进化计算两种方法都适用于计算,都可以产生有用的发现和有意义的进展。不过,二者之间到底是相互竞争的模式,还是互补的模式?最近一篇论文中,来自 OpenAI 的研究者探讨了第二种情况,即互补模式的可能性。他们研究了大语言模型 (LLM; [1,2]) 在基因编程 (GP; [3,4]) 和开放性 [5-7] 上的潜在意义,发现了二者间的协同作用。
该研究选择使用 MAP-Elite 算法进行实验。
来自 OpenAI API 的模型优于论文中的 diff 模型。
一个单独的 Sodaracer 由一个大小可变的点质量(point mass)集合 (每个点质量都由其初始的 2D 位置描述) 和将质量连接在一起的振荡弹簧组成。
推荐:大型语言模型教会智能体进化,OpenAI 这项研究揭示了二者的互补关系。
ArXiv Weekly Radiostation
机器之心联合由楚航、罗若天发起的ArXiv Weekly Radiostation,在 7 Papers 的基础上,精选本周更多重要论文,包括NLP、CV、ML领域各10篇精选,并提供音频形式的论文摘要简介,详情如下:
10 NLP Papers音频:00:0020:18
本周 10 篇 NLP 精选论文是:
1. CHEF: A Pilot Chinese Dataset for Evidence-Based Fact-Checking. (from Philip S. Yu)2. DP-Parse: Finding Word Boundaries from Raw Speech with an Instance Lexicon. (from Abdelrahman Mohamed, Emmanuel Dupoux)3. GODEL: Large-Scale Pre-Training for Goal-Directed Dialog. (from Jianfeng Gao)4. GEMv2: Multilingual NLG Benchmarking in a Single Line of Code. (from Dragomir Radev)5. Offline RL for Natural Language Generation with Implicit Language Q Learning. (from Sergey Levine)6. BenchCLAMP: A Benchmark for Evaluating Language Models on Semantic Parsing. (from Jason Eisner)7. The Problem of Semantic Shift in Longitudinal Monitoring of Social Media: A Case Study on Mental Health During the COVID-19 Pandemic. (from Mark Dredze)8. Theory-Grounded Measurement of U.S. Social Stereotypes in English Language Models. (from Hal Daumé III)9. Questions Are All You Need to Train a Dense Passage Retriever. (from Joelle Pineau)10. Hierarchical Context Tagging for Utterance Rewriting. (from Daniel Gildea)
10 CV Papers音频:00:0022:11
本周 10 篇 CV 精选论文是:
1. MaskViT: Masked Visual Pre-Training for Video Prediction. (from Li Fei-Fei)2. CMT-DeepLab: Clustering Mask Transformers for Panoptic Segmentation. (from Alan Yuille, Liang-Chieh Chen)3. PromptPose: Language Prompt Helps Animal Pose Estimation. (from Dacheng Tao)4. Rectify ViT Shortcut Learning by Visual Saliency. (from Dinggang Shen)5. Design of Supervision-Scalable Learning Systems: Methodology and Performance Benchmarking. (from C.-C. Jay Kuo)6. Parallel Pre-trained Transformers (PPT) for Synthetic Data-based Instance Segmentation. (from Ming Li, Jie Wu)7. Improving Generalization of Metric Learning via Listwise Self-distillation. (from Zheng Wang)8. SATBench: Benchmarking the speed-accuracy tradeoff in object recognition by humans and dynamic neural networks. (from Denis G. Pelli)9. The ArtBench Dataset: Benchmarking Generative Models with Artworks. (from Kurt Keutzer)10. Scaling Autoregressive Models for Content-Rich Text-to-Image Generation. (from Vijay Vasudevan, Yonghui Wu)
10 ML Papers音频:00:0020:34
本周 10 篇 ML 精选论文是:
1. AutoML Two-Sample Test. (from Bernhard Schölkopf)2. Variational Causal Dynamics: Discovering Modular World Models from Interventions. (from Bernhard Schölkopf)3. The Role of Depth, Width, and Activation Complexity in the Number of Linear Regions of Neural Networks. (from Michael Unser)4. Channel-wise Mixed-precision Assignment for DNN Inference on Constrained Edge Nodes. (from Luca Benini)5. LED: Latent Variable-based Estimation of Density. (from Michael J. Black)6. $\texttt{FedBC}$: Calibrating Global and Local Models via Federated Learning Beyond Consensus. (from Dinesh Manocha)7. How robust are pre-trained models to distribution shift?. (from Philip H.S. Torr)8. FINGER: Fast Inference for Graph-based Approximate Nearest Neighbor Search. (from Inderjit S. Dhillon)9. Optimally Weighted Ensembles of Regression Models: Exact Weight Optimization and Applications. (from Thomas Bäck)10. Fighting Fire with Fire: Avoiding DNN Shortcuts through Priming. (from Yang Gao)