2024年1月的论文推荐

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
大数据开发治理平台 DataWorks,不限时长
简介: 又到月底了,在月初推荐论文的基础上又整理了10篇推荐阅读的论文

1、MosaicBERT

https://mosaicbert.github.io/

一种用于快速预训练的双向编码器。MosaicBERT是针对快速预训练优化的自定义BERT架构。主要架构修改:FlashAttention, ALiBi,门控线性单元和低精度的LayerNorm。

2、Improving Text Embeddings with Large Language Models.

https://arxiv.org/abs/2401.00368

微软研究人员训练了一个基于Mistral的纯解码器,他们使用GPT-4和两步提示技术创建了合成检索训练数据。

3、Images altered to trick machine vision can influence humans too

https://deepmind.google/discover/blog/images-altered-to-trick-machine-vision-can-influence-humans-too/

为了欺骗机器视觉而改变的图像也可以影响人类。新的研究表明,即使是为了迷惑计算机视觉系统而对数字图像进行的细微改变,也会影响人类的感知,这个研究很有意思。

4、Boundary Attention: Learning to Find Faint Boundaries at Any Resolution.

https://arxiv.org/abs/2401.00935

识别图像中的边缘和曲线是传统的计算机视觉挑战。但是当引入噪声、质量变化或分布外实例时,许多现有的方法表现不佳。这种新发现的方法只有207k个参数并且在传感器读数上工作得非常好。

5、Auffusion: Leveraging the Power of Diffusion and Large Language Models for Text-to-Audio Generation

https://auffusion.github.io/

利用扩散和大型语言模型进行文本到音频的生成。受文本到图像扩散模型的启发,Auffusion系统在文本到音频(TTA)创作方面取得了突破。它非常擅长将文本转换成高质量的音频,尤其是复杂的输入。

6、Context-Aware Interaction Network for RGB-T Semantic Segmentation

https://arxiv.org/abs/2401.01624v1

CAINet是研究人员开发的一种用于改进RGB-T语义分割的创新技术,这对自动驾驶至关重要。该系统以独特的方式混合了许多数据类型,强调了每种数据形式的互补性。

7、RAG makes LLMs better and equal

https://www.pinecone.io/blog/rag-study/

一项研究评估了在检索增强生成(RAG)任务中开源语言模型与闭源等效模型的性能。关键研究结果表明,GPT4-Turbo优于其他方法,而Mixtral-8x7B的性能与GPT3.5-turbo相当,即使在超过10亿个块的庞大数据集上,RAG方法的有效性仍然保持稳健。

8、Transformers are Multi-State RNNs

https://arxiv.org/abs/2401.06104

Transformers是多状态rnn。新的研究表明,只有解码器的Transformers可以类似于具有无限隐藏状态的rnn,或者作为具有特定数量隐藏状态的有限rnn。

9、Scalable Pre-training of Large Autoregressive Image Models.

https://arxiv.org/abs/2401.08541

苹果发布了一项研究,详细介绍了被称为AIM的自回归视觉模型的开发,该模型显示了类似于llm的缩放特征。这些模型已经证明,它们的性能随着模型大小和数据量的增加而提高。

10、Quantifying Language Models’ Sensitivity to Spurious Features in Prompt Design or: How I learned to start worrying about prompt formatting

https://arxiv.org/abs/2310.11324

目前的大语言模型对提示格式非常敏感,如果修改提示,在不影响含义的情况下显示出显著的性能变化。尽管模型大小或样本数量增加,这种敏感性仍然存在。所以论文建议对具有不同提示格式的模型进行评估,以准确衡量其能力,因为具有统一提示格式的模型之间缺乏性能相关性,这对直接模型比较的有效性提出了挑战。

https://avoid.overfit.cn/post/596699031b604a53b42293212dc738ee

目录
相关文章
|
4月前
|
机器学习/深度学习 决策智能
2024年1月论文推荐
2024年1月论文推荐
52 1
|
5月前
|
机器学习/深度学习 人工智能 计算机视觉
2023年12月 论文推荐
12月已经过了一半了,还有2周就是2024年了,我们来推荐下这两周我发现的一些好的论文,另外再推荐2篇很好的英文文章。
110 1
|
9月前
|
机器学习/深度学习 自然语言处理 算法
WikiRank论文解读
WikiRank是2018年提出来的,作者认为背景知识可以提供文档的有价值信息,但是它们很少呗应用到关键词抽取任务中来。
64 0
|
9月前
|
算法 搜索推荐 数据挖掘
CollabRank论文解读
以前的方法通常对单个文档单独执行关键字短语提取任务,而不对每个文档进行交互,假设文档被视为彼此独立。
56 0
|
4月前
|
机器学习/深度学习 算法 固态存储
【论文泛读】 Deep Learning 论文合集
【论文泛读】 Deep Learning 论文合集
|
9月前
|
机器学习/深度学习 编解码 自然语言处理
Segmenter论文解读
图像分割通常在单个图像patch的级别上是模糊的,并且需要上下文信息来达成标签共识。本文介绍了一种用于语义分割的transformer模型——segmenter。
209 0
|
9月前
|
自然语言处理 并行计算 算法
PositionRank论文解读
PositionRank是2017年提出的论文,是一种用于从学术文档中提取关键短语的无监督模型,它将单词出现的所有位置的信息合并到有偏置的PageRank中。
66 0
|
9月前
|
自然语言处理 算法
EmbedRank论文解读
EmbedRank筛选关键词是通过关键词句子的嵌入和完整文档的嵌入之间的距离获得的信息量
78 0
|
9月前
|
算法 数据挖掘
TopicRank论文解读
TopicRank是2013年的一种无监督关键词抽取算法,其还是一种基于图的关键词抽取算法,主要创新点在于会依赖文档的主题进行辅助辅助排序。候选关键词将以主题进行划分,被用作完整的词图节点。
98 0
|
9月前
|
算法 搜索推荐 Windows
ExpandRank论文解读
ExpandRank是出自北京大学2008年的老论文,其实现思想为:现有的单文档关键字短语提取方法通常只使用指定文档中包含的信息。
43 0