2024年2月深度学习的论文推荐

本文涉及的产品
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
实时计算 Flink 版,5000CU*H 3个月
实时数仓Hologres,5000CU*H 100GB 3个月
简介: 我们这篇文章将推荐2月份发布的10篇深度学习的论文

Beyond A*: Better Planning with Transformers via Search Dynamics Bootstrapping.

https://arxiv.org/abs/2402.14083

Searchformer是一个基于Transformer架构的人工智能模型,经过训练可以模拟A星寻路算法,在复杂的规划任务中实现更高的效率。它在Sokoban谜题中的表现优于A星,解决问题的准确率为93.7%,所需步骤减少26.8%。

这是一个很有意思的研究,对寻路算法感兴趣的可以仔细研究一下

LongRoPE: Extending LLM Context Window Beyond 2 Million Tokens.

https://arxiv.org/abs/2402.13753

LongRoPE使用位置插值将上下文窗口从256k扩展到2048k。论文在在不同llm和各种长上下文任务中进行的大量实验强调了LongRoPE的有效性。它在4k到2048k的评估长度范围内保持了较低的困惑度,实现了超过90%的passkey检索精度,并在4096上下文窗口内设计的标准基准测试中提供了相当的精度。LongRoPE可以应用于任何基于RoPE嵌入的llm。

ImplicitDeepfake: Plausible Face-Swapping through Implicit Deepfake Generation using NeRF and Gaussian Splatting.

https://arxiv.org/abs/2402.06390v1

这项工作提出了ImplicitDeepfake1可以产生逼真3D化身,这是一种将Deepfake 技术与Gaussian Splatting和神经辐射场(NeRF )混合在一起的新方法。

Skill Set Optimization: Reinforcing Language Model Behavior via Transferable Skills

https://arxiv.org/pdf/2402.03244.pdf

在RL代理之间转移专业知识已被证明是相当困难的。这项工作优化了一套与环境无关的技术,SSO的其泛化性能非常有前途。

Self-Play Fine-Tuning (SPIN)

https://github.com/uclaml/SPIN

论文提出了一种新的微调方法,称为Self-Play Fine-Tuning(SPIN),它从监督微调模型开始。SPIN的核心是一种自我游戏机制,LLM通过对抗自身实例来完善自己的能力。LLM从之前的迭代中生成训练数据,通过识别这些自生成的响应和从人类注释数据中获得的响应来改进策略。

Real-World Fluid Directed Rigid Body Control via Deep Reinforcement Learning

https://arxiv.org/abs/2402.06102

“Box o Flows”通过引入一个独特的实验系统,在动态的现实环境中测试强化学习(RL)算法,解决了为强化学习(RL)应用程序复制复杂流体动力学的困难。它展示了无模型强化学习算法如何从简单的奖励中产生复杂的行为,通过离线强化学习提高数据效率,并为在复杂系统中更广泛地使用强化学习打开了大门。

World Model on Million-Length Video and Language with RingAttention

模型使用ring attention和经过微调优化的7B个参数模型。它在检索基准上的表现异常准确,优于商用vlm。

Extreme Video Compression with Pre-trained Diffusion Models

https://arxiv.org/abs/2402.08934v1

使用扩散模型来创建一种新的视频压缩技术,该技术可以在低数据速率下产生高质量的视频帧。

Complete Instances Mining for Weakly Supervised Instance Segmentation.

https://arxiv.org/abs/2402.07633v1

研究人员提出了一种新的图像分割方法,该方法仅使用简单的图像标签来识别图像的特定部分,例如狗。通过弱监督实例分割,不仅提高了效率,降低了错误率,还克服了网络识别同一物体多次出现的困难。

ZLUDA

ZLUDA可以在AMD gpu上运行未经修改的CUDA应用程序,

ZLUDA目前虽然是alpha 阶段,但它已被证实可以与各种原生CUDA应用程序一起工作:Geekbench, 3DF Zephyr, Blender, Reality Capture, LAMMPS, NAMD, waifu2x, OpenFOAM,等等。

https://avoid.overfit.cn/post/b21e16feab8247c1946addcf2dc1aa8f

目录
相关文章
|
9月前
|
机器学习/深度学习 自然语言处理 数据挖掘
【论文精读】TNNLS 2022 - 基于深度学习的事件抽取研究综述
【论文精读】TNNLS 2022 - 基于深度学习的事件抽取研究综述
|
4月前
|
机器学习/深度学习 自然语言处理 算法
深度学习-生成式检索-论文速读-2024-09-14(下)
深度学习-生成式检索-论文速读-2024-09-14(下)
147 0
|
4月前
|
机器学习/深度学习 存储 自然语言处理
深度学习-生成式检索-论文速读-2024-09-14(上)
深度学习-生成式检索-论文速读-2024-09-14(上)
106 0
|
4月前
|
机器学习/深度学习 搜索推荐 算法
深度学习-点击率预估-研究论文2024-09-14速读
深度学习-点击率预估-研究论文2024-09-14速读
73 0
|
机器学习/深度学习 自然语言处理 算法
【论文精读】TNNLS 2022 - 基于深度学习的事件抽取研究综述
事件抽取是从海量文本数据中快速获取事件信息的一项重要研究任务。随着深度学习的快速发展,基于深度学习技术的事件抽取已成为研究热点。文献中提出了许多方法、数据集和评估指标,这增加全面更新调研的需求。
646 0
|
9月前
|
机器学习/深度学习 自然语言处理 前端开发
2024年3月最新的深度学习论文推荐
现在已经是3月中旬了,我们这次推荐一些2月和3月发布的论文。
509 0
|
机器学习/深度学习 编解码 固态存储
深度学习论文阅读目标检测篇(五)中文版:YOLOv2《 YOLO9000: Better, Faster, Stronger》
 与分类和标记等其他任务的数据集相比,目前目标检测数据集是有限的。最常见的检测数据集包含成千上万到数十万张具有成百上千个标签的图像[3][10][2]。分类数据集有数以百万计的图像,数十或数十万个类别[20][2]。
193 0
深度学习论文阅读目标检测篇(五)中文版:YOLOv2《 YOLO9000: Better, Faster, Stronger》
|
机器学习/深度学习 自然语言处理
十年来论文量激增,深度学习如何慢慢推开数学推理的门(2)
十年来论文量激增,深度学习如何慢慢推开数学推理的门
137 0
|
机器学习/深度学习 消息中间件 人工智能
十年来论文量激增,深度学习如何慢慢推开数学推理的门(1)
十年来论文量激增,深度学习如何慢慢推开数学推理的门
253 0
|
机器学习/深度学习 自然语言处理 算法

相关实验场景

更多