推荐:自动驾驶权威评测世界第一,鉴智机器人推出纯视觉 3D 感知新范式
论文 4:Quantifying the Effect of Public Activity Intervention Policies on COVID-19 Pandemic Containment Using Epidemiologic Data From 145 Countries
作者:JichaoSun、YefengZheng、WenhuaLiang 等
论文地址:https://www.sciencedirect.com/science/article/pii/S1098301521017940
摘要:日前,钟南山院士团队与腾讯公司披露了一项利用大数据与人工智能技术,定量评估不同公共防控政策对新冠疫情控制效果的研究。研究团队开发了一种新的反事实推理模型框架,通过引入隐含交互因子项,最大程度排除了随时间变化的混杂因素的影响,对包含 145 个国家和地区、8 种公共防控政策的动态数据,进行更加准确,且符合真实世界运转的量化分析。研究结果表明,更快、更精准地实施疫情防控,才能有效遏制新冠肺炎疫情的发展。这也是新冠防控领域首次引入该技术进行研究。这项研究成果已在国际著名医学期刊 Value in Health(《健康价值》)刊出。
反事实推理模型计算出 8 项防控措施实施后不同时间段对 Rt (有效传播数)的抑制效应。
反事实推理模型对 8 项管控措施效果的定量评估结果。
推荐:钟南山团队、腾讯联合研究:AI 模型评估这三项措施最有助于防控疫情
论文 5:Boosting the Transferability of Video Adversarial Examples via Temporal Translation
作者:Zhipeng Wei、Jingjing Chen、Zuxuan Wu 等
论文地址:https://arxiv.org/pdf/2110.09075.pdf
摘要:近年来,深度学习在一系列任务中(例如:图像识别、目标识别、语义分割、视频识别等)取得了巨大成功。因此,基于深度学习的智能模型正逐渐广泛地应用于安防监控、无人驾驶等行业中。但最近的研究表明,深度学习本身非常脆弱,容易受到来自对抗样本的攻击。对抗样本指的是由在干净样本上增加对抗扰动而生成可以使模型发生错误分类的样本。对抗样本的存在为深度学习的应用发展带来严重威胁,尤其是最近发现的对抗样本在不同模型间的可迁移性,使得针对智能模型的黑盒攻击成为可能。具体地,攻击者利用可完全访问的模型(又称白盒模型)生成对抗样本,来攻击可能部署于线上的只能获取模型输出结果的模型(又称黑盒模型)。此外,目前的相关研究主要集中在图像模型中,而对于视频模型的研究较少。因此,亟需开展针对视频模型中对抗样本迁移性的研究,以促进视频模型的安全发展。
与图片数据相比,视频数据具有额外的时序信息,该类信息能够描述视频中的动态变化。目前已有多种不同的模型结构(例如:Non-local,SlowFast,TPN)被提出,以捕获丰富的时序信息。然而多样化的模型结构可能会导致不同模型对于同一视频输入的高响应区域不同,也会导致在攻击过程中所生成的对抗样本针对白盒模型产生过拟合而难以迁移攻击其他模型。为了进一步剖析上述观点,来自复旦大学姜育刚团队的研究人员首先针对多个常用视频识别模型(video recognition model)的时序判别模式间的相似性展开研究,发现不同结构的视频识别模型往往具有不同的时序判别模式。基于此,研究人员提出了基于时序平移的高迁移性视频对抗样本生成方法。
不同视频模型间判别模式的相似程度。
时序平移攻击算法。
推荐:首个基于时序平移的视频迁移攻击算法,复旦大学研究入选 AAAI 2022
论文 6:In Vitro Neurons Learn and Exhibit Sentience when Embodied in a Simulated Game-world
作者:Brett J. Kagan、Andy C. Kitchen、Nhi T. Tran 等
论文地址:https://www.biorxiv.org/content/10.1101/2021.12.02.471005v2.full
摘要:计算机再厉害,在很多方面仍然比不上人类神经元,比如能耗、学习效率等方面。于是就有研究者提出:既然人类神经元那么高效,为什么不拿来用呢?澳大利亚生物科技初创公司 Cortical Labs 一直都持有这种想法。早在两年前就有媒体报道称,这家公司正致力于把真正的生物神经元嵌入到一个特殊的计算机芯片中,构成一个微型的体外大脑。
他们希望这些合成迷你大脑能够在消耗较少能量的同时,完成很多人工智能软件可以执行的任务。他们使用两种方法来制造硬件:或从胚胎中提取小鼠神经元,或使用某种技术将人类的皮肤细胞逆向转化为干细胞,然后诱导它发育成人类神经元。当时,该公司的联合创始人兼首席执行官钟宏文(Hon Weng Chong)说,开发人员正尝试教迷你大脑玩雅达利经典乒乓游戏 Pong。两年过去,他们果然做到了:在该公司实验室的培养皿里,上百万个人类大脑细胞组成的「迷你大脑」正乐此不疲地玩乒乓。
Brett Kagan 等人还给这个系统取了个名字——「DishBrain(碟脑)」。这使人联想到了《黑客帝国》等电影中描述的缸中之脑。
推荐:黑客帝国「缸中之脑」有眉目了?培养皿中百万人脑细胞学会打乒乓球,仅用了 5 分钟
论文 7:Learning to Compose Visual Relations
作者:Nan Liu、Shuang Li、Yilun Du 等
论文地址:https://arxiv.org/abs/2111.09297
摘要:人们观察场景通常是观察场景中的物体和物体之间的关系。比如我们经常这样描述一个场景:桌面上有一台笔记本电脑,笔记本电脑的右边是一个手机。但这种观察方式对深度学习模型来说很难实现,因为这些模型不了解每个对象之间的关系。如果不了解这些关系,功能型机器人就很难完成它们的任务,例如一个厨房机器人将很难执行这样的命令:「拿起炒锅左侧的水果刀并将其放在砧板上」。
为了解决这个问题,在一篇 NeurIPS 2021 Spotlight 论文中,来自 MIT 的研究者开发了一种可以理解场景中对象之间潜在关系的模型。该模型一次表征一种个体关系,然后结合这些表征来描述整个场景,使得模型能够从文本描述中生成更准确的图像。现实生活中人们并不是靠坐标定位物体,而是依赖于物体之间的相对位置关系。这项研究的成果将应用于工业机器人必须执行复杂的多步骤操作任务的情况,例如在仓库中堆叠物品、组装电器。此外,该研究还有助于让机器能够像人类一样从环境中学习并与之交互。
模型概览。
CLEVR 和 iGibson 数据集上生成图像或编辑图像中物体关系的准确率评估。
推荐:理解物体之间潜在关系,MIT 新研究让 AI 像人一样「看」世界
ArXiv Weekly Radiostation
机器之心联合由楚航、罗若天发起的ArXiv Weekly Radiostation,在 7 Papers 的基础上,精选本周更多重要论文,包括NLP、CV、ML领域各10篇精选,并提供音频形式的论文摘要简介,详情如下:
10 NLP Papers音频:00:0020:34
本周 10 篇 NLP 精选论文是:
1. How Should Pre-Trained Language Models Be Fine-Tuned Towards Adversarial Robustness?. (from Shuicheng Yan)2. Adapting BERT for Continual Learning of a Sequence of Aspect Sentiment Classification Tasks. (from Bing Liu)3. Achieving Forgetting Prevention and Knowledge Transfer in Continual Learning. (from Bing Liu)4. CLASSIC: Continual and Contrastive Learning of Aspect Sentiment Classification Tasks. (from Bing Liu)5. Continual Learning with Knowledge Transfer for Sentiment Classification. (from Bing Liu)6. ERNIE 3.0 Titan: Exploring Larger-scale Knowledge Enhanced Pre-training for Language Understanding and Generation. (from Yu Sun, Wen Gao)7. Explain, Edit, and Understand: Rethinking User Study Design for Evaluating Model Explanations. (from Norman Sadeh, William W. Cohen)8. Improving scripts with a memory of natural feedback. (from Yiming Yang)9. Mixed Precision Low-bit Quantization of Neural Network Language Models for Speech Recognition. (from Xunying Liu)10. Mixed Precision of Quantization of Transformer Language Models for Speech Recognition. (from Xunying Liu)