OpenScholar:华盛顿大学联合艾伦研究所开源的学术搜索工具

简介: OpenScholar是由华盛顿大学和艾伦AI研究所联合开发的开源学术搜索工具,旨在通过检索和综合科学文献中的相关论文来回答用户问题。该工具利用大规模科学论文数据库、定制的检索器和重排器,以及一个优化的8B参数语言模型,生成基于实际文献的准确回答。OpenScholar在提供事实性回答和准确引用方面超越了现有的专有和开源模型,所有相关代码和数据均已开源,支持并加速科学研究。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦


🚀 快速阅读

功能:检索大量科学文献并综合相关信息回答用户查询。
技术:基于专门的检索器和重排器,提高检索效率和准确性。
应用:适用于多个科学领域,包括计算机科学、生物医学、物理学和神经科学等。

正文(附运行示例)

OpenScholar 是什么

公众号: 蚝油菜花 - OpenScholar

OpenScholar是由华盛顿大学和艾伦AI研究所共同推出的检索增强型语言模型(LM),旨在帮助科学家基于检索和综合科学文献中的相关论文回答问题。该系统利用大规模的科学论文数据库,通过定制的检索器和重排器,以及一个优化的8B参数语言模型,生成基于实际文献的、准确的回答。

OpenScholar在提供事实性回答和准确引用方面超越了现有的专有和开源模型。在ScholarQABench上,OpenScholar-8B在正确性方面比GPT-4o高出5%,比PaperQA2高出7%。所有相关代码和数据均已开源,支持和加速科学研究。

OpenScholar 的主要功能

  • 文献检索与合成:检索大量的科学文献,并综合相关信息回答用户查询。
  • 生成基于引用的回答:生成的回答包含准确的引用,提高回答的可靠性和透明度。
  • 跨学科应用:适用于多个科学领域,包括计算机科学、生物医学、物理学和神经科学等。
  • 提高检索效率:基于专门的检索器和重排器,提高检索相关科学文献的效率和准确性。
  • 自我反馈迭代:通过自我反馈机制迭代改进回答,提高回答质量和引用的完整性。

OpenScholar 的技术原理

  • 数据存储(OpenScholar Datastore):包含超过4500万篇科学论文及其对应的2.37亿段落嵌入,为检索提供基础数据。
  • 专门化的检索器和重排器:针对科学文献数据存储训练的检索器和重排器,用于识别和排序相关文献段落。
  • 8B参数语言模型:一个为科学文献合成任务优化的8B参数大型语言模型,平衡性能和计算效率。
  • 自我反馈生成:在推理时,基于自然语言反馈迭代细化模型输出,每次迭代可能涉及额外的文献检索,改善回答质量并填补引用空白。
  • 迭代检索增强:在生成初始回答后,模型生成反馈,指导进一步的检索,以迭代方式改进回答,直到所有反馈都被处理。

如何运行 OpenScholar

安装环境

首先,确保所有必要的库已安装:

conda create -n os_env python=3.10.0
conda activate os_env
pip install -r requirements.txt
python -m spacy download en_core_web_sm

设置API密钥:

export S2_API_KEY=YOUR_S2_API_KEY
export YOUR_API_KEY=YOUR_YOU_COM_API_KEY

运行推理

使用OpenScholar进行推理的示例代码如下:

python run.py \
    --input_file YOUR_INPUT_FILE \
    --model_name OpenScholar/Llama-3.1_OpenScholar-8B \
    --use_contexts \
    --output_file OUTPUT_FILE_PATH \
    --top_n 10 --llama3 --zero_shot

详细配置

  • top_n:输入到基础语言模型的段落数量,默认使用10个段落。
  • feedback:如果希望在生成过程中使用自我反馈循环,设置为true。
  • posthoc_at:如果希望运行事后引用归属,设置为true。
  • zero_shot:如果希望以零样本方式运行推理,设置为true。
  • ranking_ce:使用重排序模型对top_n段落进行重排序;如果未设置为true,则从提供的输入文件中的ctxs中获取top_n段落。
  • reranker:指定重排序模型文件的路径(本地或HF hub)。如果使用OpenScholar重排序器,设置为OpenScholar/OpenScholar_Reranker
  • min_citation:可以设置最小引用数。如果给定一个整数,我们将排除引用数低于min_citation的论文。默认设置为None,所有论文均被考虑,无论其引用数。
  • ss_retriever:在反馈生成循环中使用语义学者API来增强反馈结果。
  • use_abstract:考虑摘要以增强重排序结果。
  • max_per_paper:设置在推理时从同一篇论文中使用的最大段落数。
  • task_name:指定任务名称,当运行单篇论文任务时。对于SciFact、PubmedQA和QASA,相应的任务名称分别是claim_fullboolean_question_fullsingle_qa

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦

相关文章
|
11月前
|
人工智能 数据可视化 数据挖掘
AI竟能独立完成顶会论文!The AI Scientist-v2:开源端到端AI自主科研系统,自动探索科学假设生成论文
The AI Scientist-v2 是由 Sakana AI 等机构开发的端到端自主科研系统,通过树搜索算法与视觉语言模型反馈实现科学假设生成、实验执行及论文撰写全流程自动化,其生成论文已通过国际顶会同行评审。
802 34
AI竟能独立完成顶会论文!The AI Scientist-v2:开源端到端AI自主科研系统,自动探索科学假设生成论文
|
缓存 Kubernetes Docker
kubernetes 部署工具:sealos(2)
kubernetes 部署工具:sealos(2)
kubernetes 部署工具:sealos(2)
|
17天前
|
人工智能 自然语言处理 JavaScript
2026年Windows+Ollama本地部署OpenClaw保姆级教程:本地AI Agent+阿里云上快速搭建
2026年OpenClaw凭借本地部署、私有化运行的特性,成为打造个人智能体的核心工具,而Ollama作为轻量级本地大模型管理工具,能让OpenClaw摆脱对云端大模型的依赖,实现**本地推理、数据不泄露、全流程私有化**的智能体验。本文基于Windows 11系统,从硬件环境准备、Ollama安装与模型定制、OpenClaw部署配置、技能扩展到常见问题排查,打造保姆级本地部署教程,同时补充阿里云OpenClaw(Clawdbot)快速部署步骤,兼顾本地私有化需求与云端7×24小时运行需求,文中所有代码命令均可直接复制执行,确保零基础用户也能快速搭建属于自己的本地智能体。
18758 116
|
安全 物联网 云计算
等保2.0正式实施,阿里云发布全国首个《阿里公共云用户等保2.0合规能力白皮书》
面对大量的咨询和疑惑,阿里云在公安部信息安全等级保护评估中心指导下,发布全国首个《阿里公共云用户等保2.0合规能力白皮书》,为您一一解答。白皮书从云服务商和云上用户安全合规责任划分出发,首次公开阐述公共云上用户在不同服务模式下的安全合规责任和等保2.0适用条款,基于最典型的IaaS服务模式场景,为您提供最佳安全合规实践指引,首次深度解读云计算、物联网扩展要求合规实践。
3213 0
等保2.0正式实施,阿里云发布全国首个《阿里公共云用户等保2.0合规能力白皮书》
|
6月前
|
机器学习/深度学习 传感器 安全
2025年华为杯E题|高速列车轴承智能故障诊断问题|思路、代码、论文|持续更新中....
2025年华为杯E题|高速列车轴承智能故障诊断问题|思路、代码、论文|持续更新中....
593 0
|
存储 运维 Kubernetes
正式开源,Doris Operator 支持高效 Kubernetes 容器化部署方案
飞轮科技推出了 Doris 的 Kubernetes Operator 开源项目(简称:Doris Operator),并捐赠给 Apache 基金会。该工具集成了原生 Kubernetes 资源的复杂管理能力,并融合了 Doris 组件间的分布式协同、用户集群形态的按需定制等经验,为用户提供了一个更简洁、高效、易用的容器化部署方案。
712 16
正式开源,Doris Operator 支持高效 Kubernetes 容器化部署方案
|
机器学习/深度学习 存储 人工智能
【AI系统】训练后量化与部署
本文详细介绍了训练后量化技术,涵盖动态和静态量化方法,旨在将模型权重和激活从浮点数转换为整数,以优化模型大小和推理速度。通过KL散度等校准方法和量化粒度控制,文章探讨了如何平衡模型精度与性能,同时提供了端侧量化推理部署的具体实现步骤和技术技巧。
1004 2
【AI系统】训练后量化与部署
|
数据采集 存储 人工智能
ChatPaper全流程加速科研:论文阅读+润色+优缺点分析与改进建议+审稿回复
ChatPaper全流程加速科研:论文阅读+润色+优缺点分析与改进建议+审稿回复
如何微信公众号中的视频保存下来
如何微信公众号中的视频保存下来
1655 0

热门文章

最新文章