2023年12月 论文推荐

本文涉及的产品
实时数仓Hologres,5000CU*H 100GB 3个月
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
简介: 12月已经过了一半了,还有2周就是2024年了,我们来推荐下这两周我发现的一些好的论文,另外再推荐2篇很好的英文文章。

Mamba: Linear-Time Sequence Modeling with Selective State Spaces

该研究介绍了Mamba,一种硬件感知并行算法,克服了Transformers 在语言处理任务中长序列的低效率。通过实现选择性状态空间,Mamba实现了快速推理、线性可伸缩性以及与大型transformer模型相比具有竞争力的性能。

https://arxiv.org/abs/2312.00752

Text Embeddings Reveal (Almost) As Much As Text

研究了“嵌入反转”的概念,从密集文本嵌入中重构完整文本。研究人员使用多步骤方法在生成受控文本方面取得了很高的成功率。该研究还揭示了从文本嵌入中提取敏感个人数据的潜力,强调了在机器学习中改进隐私措施的必要性。

https://arxiv.org/abs/2310.06816

Diffusion Models Without Attention

DiffuSSM是一个新的模型,可以加速扩散模型生成高分辨率图像,而不牺牲细节质量。它用一个可伸缩的状态空间模型主干取代了注意力机制,从而在节省计算资源的同时提高了ImageNet和LSUN数据集的性能。

https://arxiv.org/abs/2311.18257

SparQ Attention: Bandwidth-Efficient LLM Inference

SparQ Attention是一种通过减少内存带宽需求来提高大型语言模型效率的技术。它不需要改变预训练或微调,可以显著降低注意力记忆要求而不影响准确性。

https://arxiv.org/abs/2312.04985

Chain of Code: Reasoning with a Language Model-Augmented Code Emulator

代码链(CoC),一种集成了代码仿真的方法来提高语言模型的推理能力。CoC比以前的技术性能提高了12%,解决了lm复杂逻辑和语言任务的挑战。

https://arxiv.org/abs/2312.04474

文章推荐

最后再推荐两篇文章

The GenAI Frontier: 10 Transformative LLM Research Papers of 2023 from LLaMA to GPT-4

https://www.topbots.com/top-llm-research-papers-2023/

2023年是大模型快速发展的一年。这些llm以其巨大的参数大小和能力给人们留下了深刻的印象。这篇文章介绍了在该领域展开的变革性研究,其中语言模型已经被改进、缩小,甚至与外部工具集成以处理各种各样的任务。主要介绍了一下的一些主要的模型和研究:

  • LLaMA by Meta AI
  • LLaMA 2 by Meta AI
  • GPT-4 by OpenAI
  • Sparks of AGI by Microsoft
  • BLIP-2 by Salesforce
  • InstructBLIP by Salesforce
  • PALM-E by Google
  • PALM-2 by Google
  • Toolformer by Meta AI

RAG vs. Context-Window in GPT-4: accuracy, cost, & latency

https://ai88.substack.com/p/rag-vs-context-window-in-gpt4-accuracy-cost

这个文章对于应用来说非常有帮助,它对GPT-4中上下文窗口填充和检索增强生成(RAG)的比较表明,RAG仅以4%的成本获得了更好的性能。与上下文窗口填充相比,具有128k上下文窗口的RAG在成本、延迟和准确性方面都优于上下文窗口填充。所以如果需要在实际应用中使用RAG或者Context-Window做选择的话,推荐看看这篇文章。

https://avoid.overfit.cn/post/4a878fde9a3f4cf3a29de4e742580d6b

目录
相关文章
|
7月前
|
机器学习/深度学习 决策智能
2024年1月论文推荐
2024年1月论文推荐
93 1
|
机器学习/深度学习 编解码 算法
【论文理解】ICCV2021-视频中小目标检测Dogfight
论文地址:https://arxiv.org/abs/2108.02092目标:在无人机飞行过程中捕获的背景杂乱的画面中检测其他无人机挑战:任意的移动(相机移动,目标也移动)小尺寸,只占画面像素的0.05%~0.07%(PASCAL VOC (22.62%) and ImageNet (19.94%))形状变换(拍摄角度不同,拍摄的无人机形状不同)遮挡基于region-proposal的方法无法捕
|
7月前
|
机器学习/深度学习 传感器 自动驾驶
2024年1月的论文推荐
又到月底了,在月初推荐论文的基础上又整理了10篇推荐阅读的论文
98 2
|
机器学习/深度学习 自然语言处理 算法
WikiRank论文解读
WikiRank是2018年提出来的,作者认为背景知识可以提供文档的有价值信息,但是它们很少呗应用到关键词抽取任务中来。
96 0
|
算法 搜索推荐 数据挖掘
CollabRank论文解读
以前的方法通常对单个文档单独执行关键字短语提取任务,而不对每个文档进行交互,假设文档被视为彼此独立。
89 0
|
机器学习/深度学习 编解码 自然语言处理
Segmenter论文解读
图像分割通常在单个图像patch的级别上是模糊的,并且需要上下文信息来达成标签共识。本文介绍了一种用于语义分割的transformer模型——segmenter。
330 0
|
自然语言处理 并行计算 算法
PositionRank论文解读
PositionRank是2017年提出的论文,是一种用于从学术文档中提取关键短语的无监督模型,它将单词出现的所有位置的信息合并到有偏置的PageRank中。
130 0
|
算法 数据挖掘
TopicRank论文解读
TopicRank是2013年的一种无监督关键词抽取算法,其还是一种基于图的关键词抽取算法,主要创新点在于会依赖文档的主题进行辅助辅助排序。候选关键词将以主题进行划分,被用作完整的词图节点。
173 0
|
自然语言处理 算法
EmbedRank论文解读
EmbedRank筛选关键词是通过关键词句子的嵌入和完整文档的嵌入之间的距离获得的信息量
139 0
|
算法 搜索推荐 Windows
ExpandRank论文解读
ExpandRank是出自北京大学2008年的老论文,其实现思想为:现有的单文档关键字短语提取方法通常只使用指定文档中包含的信息。
76 0