7 Papers & Radios | MIT爆出苹果M1芯片重大漏洞;斯坦福CS博士新作:BERT单节点训练最快(2)

本文涉及的产品
NLP自然语言处理_基础版,每接口每天50万次
NLP 自学习平台,3个模型定制额度 1个月
NLP自然语言处理_高级版,每接口累计50万次
简介: 7 Papers & Radios | MIT爆出苹果M1芯片重大漏洞;斯坦福CS博士新作:BERT单节点训练最快

论文 5:PACMAN: Attacking ARM Pointer Authentication with Speculative Execution


摘要:近日,来自 MIT CSAIL 的学者们重点介绍了一种可禁用苹果 M1 芯片指针身份验证机制的新型硬件攻击,名为「PACMAN」,这种攻击能够阻止 M1 芯片检测到软件漏洞攻击。


该研究团队由 MIT 电气工程与计算机科学系助理教授 Mengjia Yan 领导,成员包括 Joseph Ravichandran、Weon Taek Na、Jay Lang。他们将在本月即将举行的计算机体系结构顶会 ISCA 2022 会议上重点介绍「PACMAN」。

「PACMAN」能够削弱 PAC 防御能力的攻击模式,从而使得计算机操作系统变得易受攻击。由于 PAC 可能会集成到未来基于 64 位 Arm 架构构建的处理器中,因此该漏洞可能会变得更加普遍。团队表示,他们尚未对新发布的同样支持指针身份验证的 M2 芯片进行测试。

对于越来越多采用苹果设备的企业而言,这一漏洞值得重视。据调查,美国企业中约有 23% 的用户目前使用 Mac 设备。「如果不能缓解这种情况,我们的攻击将影响到大多数移动设备,甚至可能在未来几年影响到桌面设备。」论文中写道。

在 MIT 这项研究中,团队探索了内存损坏漏洞和微架构边信道漏洞之间的协同作用,展示了如何使用硬件攻击来协助软件攻击,以绕过强大的安全防御机制。

这个名为 「PACMAN」 的漏洞,会假设计算机上已经存在一个软件错误,可以读取和写入不同的内存地址。然后,它利用 M1 硬件架构的一个细节,赋予漏洞执行代码并可能接管操作系统的能力。

推荐:MIT 爆出苹果 M1 芯片重大漏洞:硬件级安全机制被攻破,补丁无法修复。

论文 6:Multi-Game Decision Transformers


摘要:在自然语言处理、计算机视觉和二者的交叉领域中,通过训练大量与任务无关的数据集,建立大规模的通用模型来解决许多任务,已经成为主流方法。这些模型可以适应新的任务 (例如翻译) ,利用不相关的数据 (例如使用高资源语言来改进低资源语言的翻译) ,甚至可以通过将图像投影到语言空间来纳入新的模式。这些方法的成功很大程度上来自于可扩展模型架构、大量未标注的任务无关数据以及高性能计算基础设施的不断改进。至关重要的是,标度律表明,规模带来的性能提升尚未达到饱和点。

在最近的一项工作中,谷歌研究院的成员们提出,类似的进展在强化学习领域是可能发生的,并且他们采取可扩展的方法的初步步骤,生成了表现优越的通才型智能体。与视觉和语言领域相反,强化学习通常倡导使用更小的模型,模型也通常用于解决单一任务,或在同一环境中的多个任务。重要的是,跨越多种环境的训练的研究数量并不多,很少有人研究横跨不同动力学、奖励、视觉效果和智能体实施方式的东西。

具体地说,研究者调研了是否可以从大量的专家和非专家经验中训练一个单一的模型(具有单一的一组参数)在多种环境中行动。他们在一组 41 个 Atari 游戏上进行训练,用来满足多样性方面的要求,并提出了一个问题:「模型能从玩很多视频游戏的过程中学到一些通用的东西吗?」

为了训练这个模型,研究者只使用了先前从 Agarwal et al. [1] 中收集到的轨迹,但是交互式地评估了本研究的智能体。研究者表示,他们并不是在追求特定游戏智能体所能达到的精通程度或效率,因为这项研究仍处于早期阶段。相反,他们要探索的是,在语言和视觉领域观察到的相同趋势,是否也适用于大规模的通才型强化学习?

研究发现,在对离线专家数据集和非专家数据集进行训练之后,智能体可以在所有游戏中同时达到人类级别性能的 126%,如图 1 所示。此外,研究者还发现了与语言和视觉领域相似的趋势:用很少的数据快速适应从未见过的游戏 (第 4.5 节) ,性能和模型大小之间的幂律关系 (第 4.4 节) ,以及为更大的模型提供更快的训练进度。

推荐:Gato 之后,谷歌也推出「通才型」智能体 Multi-Game Decision Transformers。

论文 7:End-to-end Generative Pretraining for Multimodal Video Captioning


摘要:在 CVPR 2022 大会上发表的论文《End-to-end Generative Pretraining for Multimodal Video Captioning》上,谷歌研究人员为多模态视频字幕引入了一种全新的预训练框架,被称为多模态视频生成预训练或 MV-GPT,它从未标记的视频中联合训练多模态视频编码器和句子解码器,以输出未来语句文本,制定新的双向生成任务作为目标。

实验证明 MV-GPT 的能力可以有效地转移到多模态视频字幕上,在各种基准测试中取得了 SOTA 结果。此外,多模态视频编码器在多种视频理解任务方面具有竞争力,例如 VideoQA、文本视频检索和动作识别。

MV-GPT 中的双向生成损失允许对编码器和解码器进行训练以处理基于视觉的文本。

MV-GPT 中的双向生成,已训练两代损失。在前向生成中,模型在给定帧和当前话语(红色框)的情况下生成未来话语(蓝色框),而现在是从后向生成中的未来话语生成的。两个特殊的句首标记([BOS-F] 和 [BOS-B])为解码器启动前向和后向生成。
MV-GPT 在 YouCook2 上不同预训练损失的四个指标(Bleu-4、Cider、Meteor 和 Rouge-L)。「预训练部分」表示模型的哪些部分是预训练的 —— 仅编码器或编码器和解码器。作者重新实现了现有方法的损失函数,但使用新模型和训练策略进行公平比较。

推荐:谷歌多模态预训练框架:视频字幕、动作分类、问答全部实现 SOTA。

ArXiv Weekly Radiostation

机器之心联合由楚航、罗若天发起的ArXiv Weekly Radiostation,在 7 Papers 的基础上,精选本周更多重要论文,包括NLP、CV、ML领域各10篇精选,并提供音频形式的论文摘要简介,详情如下:
10 NLP Papers音频:00:0021:22

本周 10 篇 NLP 精选论文是:
1. DIRECTOR: Generator-Classifiers For Supervised Language Modeling.  (from Jason Weston)2. FETILDA: An Effective Framework For Fin-tuned Embeddings For Long Financial Text Documents.  (from Mohammed J. Zaki)3. Fine-tuning Pre-trained Language Models with Noise Stability Regularization.  (from Jiebo Luo)4. MPI: Evaluating and Inducing Personality in Pre-trained Language Models.  (from Song-Chun Zhu)5. Enhanced Knowledge Selection for Grounded Dialogues via Document Semantic Graphs.  (from Yang Liu, Dilek Hakkani-Tur)6. Accelerating Inference and Language Model Fusion of Recurrent Neural Network Transducers via End-to-End 4-bit Quantization.  (from Brian Kingsbury)7. A Simple Yet Efficient Method for Adversarial Word-Substitute Attack.  (from Yi Yang)8. The Case for a Single Model that can Both Generate Continuations and Fill in the Blank.  (from Chris Callison-Burch)9. Improving the Adversarial Robustness of NLP Models by Information Bottleneck.  (from Kai-Wei Chang, Cho-Jui Hsieh)10. Alexa Teacher Model: Pretraining and Distilling Multi-Billion-Parameter Encoders for Natural Language Understanding Systems.  (from Dilek Hakkani-Tur)


本周 10 篇 CV 精选论文是:1. Zero-Shot Video Question Answering via Frozen Bidirectional Language Models.  (from Josef Sivic, Ivan Laptev, Cordelia Schmid)2. AVATAR: Unconstrained Audiovisual Speech Recognition.  (from Cordelia Schmid)3. Structured Video Tokens @ Ego4D PNR Temporal Localization Challenge 2022.  (from Trevor Darrell)4. Object Scene Representation Transformer.  (from Leonidas J. Guibas)5. Disentangling visual and written concepts in CLIP.  (from Antonio Torralba)6. Virtual Correspondence: Humans as a Cue for Extreme-View Geometry.  (from Raquel Urtasun, Antonio Torralba)7. Multimodal Event Graphs: Towards Event Centric Understanding of Multimodal World.  (from Shih-Fu Chang)8. A Simple Data Mixing Prior for Improving Self-Supervised Learning.  (from Alan Yuille)9. SP-ViT: Learning 2D Spatial Priors for Vision Transformers.  (from Lei Zhang, Xiansheng Hua)10. APT-36K: A Large-scale Benchmark for Animal Pose Estimation and Tracking.  (from Dacheng Tao)


本周 10 篇 ML 精选论文是:
1. SGD Noise and Implicit Low-Rank Bias in Deep Neural Networks.  (from Tomaso Poggio)2. Communication-Efficient Robust Federated Learning with Noisy Labels.  (from Jian Pei, Heng Huang)3. Weighted Ensembles for Active Learning with Adaptivity.  (from Georgios B. Giannakis)4. Diffeomorphic Counterfactuals with Generative Models.  (from Klaus-Robert Müller)5. Contrastive Learning as Goal-Conditioned Reinforcement Learning.  (from Ruslan Salakhutdinov, Sergey Levine)6. Learning to Accelerate Partial Differential Equations via Latent Global Evolution.  (from Jure Leskovec)7. Learning Large-scale Subsurface Simulations with a Hybrid Graph Network Simulator.  (from Jure Leskovec)8. Towards Understanding How Machines Can Learn Causal Overhypotheses.  (from John Canny)9. Feature Overcorrelation in Deep Graph Neural Networks: A New Perspective.  (from Charu Aggarwal, Jiliang Tang)10. Lessons learned from the NeurIPS 2021 MetaDL challenge: Backbone fine-tuning without episodic meta-learning dominates for few-shot learning image classification.  (from Frank Hutter, Isabelle Guyon)

相关文章
|
6月前
|
机器学习/深度学习 人工智能 开发工具
如何快速部署本地训练的 Bert-VITS2 语音模型到 Hugging Face
Hugging Face是一个机器学习(ML)和数据科学平台和社区,帮助用户构建、部署和训练机器学习模型。它提供基础设施,用于在实时应用中演示、运行和部署人工智能(AI)。用户还可以浏览其他用户上传的模型和数据集。Hugging Face通常被称为机器学习界的GitHub,因为它让开发人员公开分享和测试他们所训练的模型。 本次分享如何快速部署本地训练的 Bert-VITS2 语音模型到 Hugging Face。
如何快速部署本地训练的 Bert-VITS2 语音模型到 Hugging Face
|
6月前
|
机器学习/深度学习 异构计算 Python
Bert-vits2最终版Bert-vits2-2.3云端训练和推理(Colab免费GPU算力平台)
对于深度学习初学者来说,JupyterNoteBook的脚本运行形式显然更加友好,依托Python语言的跨平台特性,JupyterNoteBook既可以在本地线下环境运行,也可以在线上服务器上运行。GoogleColab作为免费GPU算力平台的执牛耳者,更是让JupyterNoteBook的脚本运行形式如虎添翼。 本次我们利用Bert-vits2的最终版Bert-vits2-v2.3和JupyterNoteBook的脚本来复刻生化危机6的人气角色艾达王(ada wong)。
Bert-vits2最终版Bert-vits2-2.3云端训练和推理(Colab免费GPU算力平台)
|
3月前
|
机器学习/深度学习 存储 自然语言处理
【NLP-新闻文本分类】3 Bert模型的对抗训练
详细介绍了使用BERT模型进行新闻文本分类的过程,包括数据集预处理、使用预处理数据训练BERT语料库、加载语料库和词典后用原始数据训练BERT模型,以及模型测试。
60 1
|
3月前
|
算法 异构计算
自研分布式训练框架EPL问题之帮助加速Bert Large模型的训练如何解决
自研分布式训练框架EPL问题之帮助加速Bert Large模型的训练如何解决
|
3月前
|
数据采集 人工智能 数据挖掘
2021 第五届“达观杯” 基于大规模预训练模型的风险事件标签识别】3 Bert和Nezha方案
2021第五届“达观杯”基于大规模预训练模型的风险事件标签识别比赛中使用的NEZHA和Bert方案,包括预训练、微调、模型融合、TTA测试集数据增强以及总结和反思。
42 0
|
5月前
|
机器学习/深度学习 自然语言处理 数据可视化
BERT-IMDB电影评论情感分类实战:SwanLab可视化训练
这篇文章介绍了使用BERT模型进行IMDB电影评论情感分类的实战教程,涉及SwanLab、transformers和datasets库。作者提供了一键安装库的命令,并详细解释了每个库的作用。文章展示了如何加载BERT模型和IMDB数据集,以及如何利用SwanLab进行可视化训练。训练过程在SwanLab平台上进行,包括模型微调、指标记录和结果可视化。此外,还提供了完整代码、模型与数据集的下载链接,以及相关工具的GitHub仓库地址。
BERT-IMDB电影评论情感分类实战:SwanLab可视化训练
|
6月前
|
机器学习/深度学习 自然语言处理 数据格式
训练你自己的自然语言处理深度学习模型,Bert预训练模型下游任务训练:情感二分类
训练你自己的自然语言处理深度学习模型,Bert预训练模型下游任务训练:情感二分类
|
6月前
|
PyTorch 算法框架/工具
Bert Pytorch 源码分析:五、模型架构简图 REV1
Bert Pytorch 源码分析:五、模型架构简图 REV1
87 0
|
6月前
|
PyTorch 算法框架/工具
Bert Pytorch 源码分析:五、模型架构简图
Bert Pytorch 源码分析:五、模型架构简图
65 0
|
1月前
|
自然语言处理 PyTorch 算法框架/工具
掌握从零到一的进阶攻略:让你轻松成为BERT微调高手——详解模型微调全流程,含实战代码与最佳实践秘籍,助你应对各类NLP挑战!
【10月更文挑战第1天】随着深度学习技术的进步,预训练模型已成为自然语言处理(NLP)领域的常见实践。这些模型通过大规模数据集训练获得通用语言表示,但需进一步微调以适应特定任务。本文通过简化流程和示例代码,介绍了如何选择预训练模型(如BERT),并利用Python库(如Transformers和PyTorch)进行微调。文章详细说明了数据准备、模型初始化、损失函数定义及训练循环等关键步骤,并提供了评估模型性能的方法。希望本文能帮助读者更好地理解和实现模型微调。
60 2
掌握从零到一的进阶攻略:让你轻松成为BERT微调高手——详解模型微调全流程,含实战代码与最佳实践秘籍,助你应对各类NLP挑战!

热门文章

最新文章