如何寻找论文及其相关代码?

简介: 如何寻找论文及其相关代码?

如何寻找论文及其相关代码?


文章目录

专业的论文网站

Papers with Code

官方网址:https://paperswithcode.com

这是 Reddit 的一个用户 rstoj 做的一个网站,将 ArXiv 上的最新机器学习论文与 Github 上的代码(TensorFlow/PyTorch/MXNet/等)对应起来。

有关联代码,非常的nice!而且界面也很好,推荐指数:⭐⭐⭐⭐⭐

Browse state-of-the-art

官方网址:https://paperswithcode.com/sota

这个网站主要是解决另一个问题——寻找一个领域目前最好的(State of the art, Sota)算法的论文以及实现代码,也算是paperswithcode下的一个子模块,相关需求的同学帮助非常打,推荐指数:⭐⭐⭐⭐。

这也是刚接触到一个新领域时候,必须要做的事情,先找到最新最好的算法论文,然后根据这篇论文的代码实现,先跑下代码,接着再去了解细节,或者是根据它的参考论文,来学习这个领域最近几年的论文(一般是 3 年到 5 年内的),逐渐熟悉这个领域的研究方向和难点所在。

arxiv

官方网址:https://arxiv.org/

arXiv是一个向任何人开放的策划研究共享平台。作为数字开放获取的先驱,目前在八个主题领域拥有200多万篇学术文章,由我们强大的志愿者版主社区策划。arXiv为研究人员提供广泛的服务:文章提交,编译,生产,检索,搜索和发现,人类读者的Web分发,机器的API访问,以及内容管理和保存。我们对开放性、协作性和学术性的重视为arXiv的蓬勃发展奠定了坚实的基础。arXiv目前服务于物理,数学,计算机科学,定量生物学,定量金融,统计学,电气工程和系统科学以及经济学等领域。arXiv由Paul Ginsparg于1991年创立,现在由康奈尔理工学院维护和运营。

专业性很强,但是页面不够没观,有的没有其他资料,只有PDF,找论文指数:⭐⭐⭐⭐⭐,代码推荐指数:⭐⭐⭐

Google学术:

Google学术搜索:https://code.google.com/archive/

没玩明白,推荐指数:⭐⭐

ResearchCode

官方地址:https://researchcode.com/

一个很好用的查找论文代码的网站,当您在https://arxiv.org/或Google Scholar中搜索浏览论文时,还可以用http://researchcode.com提供的google chrome扩展程序”ResearchCode code finder“查找代码。

推荐指数:⭐⭐⭐⭐

CatalyzeX

官方地址:https://www.catalyzex.com/

CatalyzeX可以方便快速找论文代码,还可以直观看到论文代码是否开源,也可以下载插件方便使用

Code Ocean

官方地址:https://codeocean.com/

Code Ocean用于创建、共享、发布、保存和重用可执行代码和数据的集中式平台。借助Code Ocean,研究人员可以轻松地分析、组织和执行研究工作,并将其发表到机构库和期刊中,推荐指数:⭐⭐⭐⭐。

ReadPaper

ReadPaper是论文阅读管理工具,理工科科研人的专属福音

推荐指数:⭐⭐⭐⭐⭐

GitHub

挺好的,不用多说。

直接搜有技巧或者知道作者容易搜索一些,直接搜论文名比较难,推荐指数:⭐⭐⭐⭐,会查的推荐指数:⭐⭐⭐⭐⭐

知乎/csdn

找到自己要用的论文的解析,通常博主会关联相关的代码地址(不过现在这环境大部分是不会了😅😅😅)。

推荐指数:⭐


相关文章
|
9月前
|
机器学习/深度学习 决策智能
2024年1月论文推荐
2024年1月论文推荐
106 1
|
9月前
|
机器学习/深度学习 人工智能 计算机视觉
2023年12月 论文推荐
12月已经过了一半了,还有2周就是2024年了,我们来推荐下这两周我发现的一些好的论文,另外再推荐2篇很好的英文文章。
189 1
|
9月前
|
机器学习/深度学习 人工智能 搜索推荐
11月推荐阅读的12篇大语言模型相关论文
现在已经是12月了,距离2024年只有一个月了,本文总结了11月的一些比较不错的大语言模型相关论文
216 0
|
9月前
|
机器学习/深度学习 自然语言处理 PyTorch
【传知代码】transformer-论文复现
Transformer模型,革新NLP的里程碑,摒弃CNN/RNN,采用自注意力机制解决长距离依赖问题,加速训练。模型包含编码器和解码器,用位置编码补充序列信息。关键组件包括:嵌入层(位置编码增强词向量)、多头注意力层(捕获不同侧面的上下文)、前馈层(非线性变换)及残差连接和层归一化(提升训练稳定性)。Transformer的创新应用,推动了现代大语言模型的发展。
209 1
【传知代码】transformer-论文复现
|
机器学习/深度学习 自然语言处理 算法
【论文】SimCLS:一个简单的框架 摘要总结的对比学习(1)
【论文】SimCLS:一个简单的框架 摘要总结的对比学习(1)
107 0
|
9月前
|
机器学习/深度学习 传感器 自动驾驶
2024年1月的论文推荐
又到月底了,在月初推荐论文的基础上又整理了10篇推荐阅读的论文
106 2
|
算法 搜索推荐 数据挖掘
CollabRank论文解读
以前的方法通常对单个文档单独执行关键字短语提取任务,而不对每个文档进行交互,假设文档被视为彼此独立。
96 0
【论文】论文中参考文献的引用
【论文】论文中参考文献的引用
314 0
|
机器学习/深度学习 编解码 自然语言处理
Segmenter论文解读
图像分割通常在单个图像patch的级别上是模糊的,并且需要上下文信息来达成标签共识。本文介绍了一种用于语义分割的transformer模型——segmenter。
362 0
|
算法 数据挖掘
TopicRank论文解读
TopicRank是2013年的一种无监督关键词抽取算法,其还是一种基于图的关键词抽取算法,主要创新点在于会依赖文档的主题进行辅助辅助排序。候选关键词将以主题进行划分,被用作完整的词图节点。
190 0