迈向AI4S 2.0,上海AI实验室开源书生1T Moe 科学大模型Intern-S1-Pro!

简介: 2月4日,上海AI实验室开源万亿参数科学多模态大模型Intern-S1-Pro,全球开源社区中规模最大的AI4S模型。基于SAGE“通专融合”架构与MoE设计,融合傅里叶位置编码与创新路由机制,科学推理达奥赛金牌水平,综合能力稳居国际第一梯队,赋能AGI for Science范式革命。(239字)

2月4日,上海人工智能实验室开源基于“通专融合”技术架构SAGE打造的万亿参数科学多模态大模型 Intern-S1-Pro,为AI4S从“工具革命”的1.0阶段迈向以“革命的工具”驱动科学发现的2.0时代,提供创新的系统性开源基座。


作为当前全球开源社区中参数规模最大的科学多模态模型,Intern-S1-Pro的核心科学能力实现了质的跃升,高难度综合学科评测稳居AI4S领域国际领先水平,复杂数理逻辑推理能力达奥赛金牌水平,面向真实科研流程的智能体能力位居开源模型第一梯队。


此次发布的Intern-S1-Pro是通过SAGE实现 “可深度专业化通用模型” 的关键实践。该模型基于混合专家架构(MoE),共拥有512个专家,总参数达1T,每次调用仅激活8个专家、22B参数。其通用能力和科学能力协同演进,并在底层架构实现了两大核心突破:在SAGE的基础模型层,通过引入傅里叶位置编码并重构时序编码器,赋予模型统一理解从微观生命信号到宏观宇宙波动的“物理直觉”;通过高效路由机制,系统攻克了训练万亿参数MoE模型在稳定性与算力效率上的瓶颈,为超大规模模型的训练提供了关键的工程基础。


与此同时,Intern-S1-Pro验证了从原创模型架构到国产算力基座自主技术的完整链路,为构建开放共享的AGI4S基础设施奠定了坚实底座。通过开源开放,Intern-S1-Pro旨在降低全球科研门槛,与学术界和产业界共同推动以通用人工智能驱动科学发现的范式革命。


创空间体验链接:

https://www.modelscope.cn/studios/AI-ModelScope/InternLM-Demo


GitHub:

https://github.com/InternLM/Intern-S1


Model:

https://www.modelscope.cn/models/Shanghai_AI_Laboratory/Intern-S1-Pro

Intern-S1-Pro在评测基准中的表现:通用能力表现出色,科学能力达国际领先水平

创新底层架构

研究团队提出,可深度专业化通用模型(Specializable Generalist)是实现AGI的可行路径,其关键挑战在于:专家化模型在训练过程中需要低成本、能规模化的密集反馈;能够持续不断地学习与主动探索,并具备为同一个问题提供多视角、多种解决方案的能力;并能引入对物理世界规律的考量,兼顾多项差异化能力的学习效率与性能。


Intern-S1-Pro通过多项SAGE基础模型层的技术创新,拓宽了模型应用边界、提升了超大规模训练可行性,推进了可深度专业化通用模型的探索。


为构建能更深层次理解物理世界规律的科学大模型,研究团队引入了傅里叶位置编码(FoPE) 并重构时序编码器。FoPE为AI赋予双重视角:既能像看“粒子”一样捕捉文字之间的相对距离,又能像分析“波”一样把握科学信号的整体规律与频率。科学数据与语言的差异还体现在多尺度上,基于能自动适应数据密度的时序编码器,模型首次能统一处理从寥寥数个到百万级采样的各类信号,支持的分析对象从天文、地理直接拓展至生理信号、生物声学等领域,从而实现感知能力的重大跃迁。


为了高效训练承载这些能力的万亿参数超大规模模型,研究团队革新了其内部的“路由机制”。传统方法存在训练低效和算力浪费两大痛点。新技术通过 “路由稠密估计” ,让模型在高效运行的同时能进行更充分的学习,提升了稳定性;进而通过 “分组路由” 策略,像智能交通系统一样使海量计算芯片实现负载均衡,避免了资源闲置。通过算法与系统的协同创新,同时攻克了超大规模模型训练在“学习效率”和“资源调度”上的核心瓶颈,为高效、稳健地训练下一代万亿参数模型提供了关键基础。


通过上述底层架构的创新,Intern-S1-Pro不仅在规模上刷新了科学多模态模型的参数规模上限,也为SAGE架构所提出的“通用能力与专业能力协同演进”提供了可落地的实现路径。

科学能力再进化,通用能力协同演进

得益于创新的底层架构设计与万亿参数超大规模训练策略,Intern-S1-Pro的科学能力进一步升级。


在国际数学奥林匹克IMO-Answer-Bench和国际物理奥林匹克IPhO2025两大权威基准测试中,Intern-S1-Pro均展现出竞赛级别的解题能力。


在AI4S关键垂类领域,Intern-S1-Pro成功构建了一个跨越化学、材料、生命、地球、物理五大核心学科的全谱系能力矩阵,涵盖100多个专业子任务,不仅在Mol-Instruction、Biology-Instruction等单学科垂类评测中表现优异,更在SciReasoner等高难度的综合学科评测基准中,取得了与闭源商业大模型及垂类SOTA模型相当,甚至更优的成绩,稳居AI4S领域的第一梯队。


在基础理解维度,Intern-S1-Pro基于高精度多模态感知能力,能够精准解析复杂的分子结构图及各类实验图表,深入到逻辑推理层面 ,Intern-S1-Pro能够处理高阶科学问答,如反应条件推断、理化性质预测,精准捕捉数据背后的因果规律等。随着理解与推理能力的持续增强,Intern-S1-Pro的能力边界不断向真实科研场景延伸,其应用范围从微观层面的化学逆合成、蛋白质序列生成,拓展至宏观尺度的遥感图像分析等复杂任务。通过XLRS-Bench等真实科研场景评测,模型展现出从“解题”迈向“解决问题”的科研生产力价值,为前沿科学探索提供了坚实支撑。


同时,借助通专融合技术路线,Intern-S1-Pro在通用能力与专业科学能力上实现协同进阶:在图文跨模态理解、科学图表逻辑推理、多场景视觉感知,以及高质量自然语言生成和复杂指令精准遵循等核心维度,Intern-S1-Pro均稳居开源模型阵营第一梯队,展现出扎实而全面的综合实力。


通过通专融合的训练策略,Intern-S1-Pro不仅补齐了传统前沿模型在专业推理上的短板,还实现了多模态与文本通用能力的均衡发展,真正将通用能力与专业科学能力的协同演进落到实处,为科研场景下复杂问题的理解、推理与应用提供了可靠支撑。

在智能体能力方面,Intern-S1-Pro实现了从“静态任务规划”到“动态环境交互”的跨越式进阶。在以动态环境与复杂交互为核心的Tau-2评测中达到了国际一流水平,为赋能复杂科学智能体打下了坚实基础。

模型部署实践

硬件准备与配置建议

由于模型规模超过1T,基础硬件要求如下:

  • 最低配置:至少 2 块 8-GPU H200 节点。
  • 存储格式:FP8。
  • 并行策略
  1. TP (Tensor Parallelism) 张量并行。
  2. DP + EP (Data + Expert Parallelism) 数据并行 + 专家并行。


模型下载

modelscope download --model Shanghai_AI_Laboratory/Intern-S1-Pro --local_dir ./Intern-S1-Pro

LMDeploy 部署方案

要求版本lmdeploy >= 0.12.0

方案 A:张量并行 (TP)

在 Node 0 和 Node 1 上启动 Ray 后,于 Node 0 执行:

# start ray on node 0 and node 1
# node 0
lmdeploy serve api_server  ./Intern-S1-Pro --backend pytorch --tp 16

方案 B:混合并行 (DP + EP)

# node 0, proxy server
lmdeploy serve proxy --server-name ${proxy_server_ip} --server-port ${proxy_server_port} --routing-strategy 'min_expected_latency' --serving-strategy Hybrid
# node 0
export LMDEPLOY_DP_MASTER_ADDR=${node0_ip}
export LMDEPLOY_DP_MASTER_PORT=29555
lmdeploy serve api_server \
    ./Intern-S1-Pro \
    --backend pytorch \
    --tp 1 \
    --dp 16 \
    --ep 16 \
    --proxy-url http://${proxy_server_ip}:${proxy_server_port} \
    --nnodes 2 \
    --node-rank 0 \
    --reasoning-parser intern-s1 \
    --tool-call-parser qwen3
# node 1
export LMDEPLOY_DP_MASTER_ADDR=${node0_ip}
export LMDEPLOY_DP_MASTER_PORT=29555
lmdeploy serve api_server \
    ./Intern-S1-Pro \
    --backend pytorch \
    --tp 1 \
    --dp 16 \
    --ep 16 \
    --proxy-url http://${proxy_server_ip}:${proxy_server_port} \
    --nnodes 2 \
    --node-rank 1 \
    --reasoning-parser intern-s1 \
    --tool-call-parser qwen3

vLLM 部署方案

vLLM 在处理长文本和视频推理时具有出色表现,但需注意内存管理。

# Node 0 执行
export VLLM_USE_MODELSCOPE=true
export VLLM_ENGINE_READY_TIMEOUT_S=10000
# node 0
export VLLM_ENGINE_READY_TIMEOUT_S=10000
vllm serve internlm/Intern-S1-Pro \
    --tensor-parallel-size 16 \
    --enable-expert-parallel \
    --distributed-executor-backend ray \
    --max-model-len 65536 \
    --trust-remote-code \
    --reasoning-parser deepseek_r1 \
    --enable-auto-tool-choice \
    --tool-call-parser hermes

SGLang 部署方案

SGLang 方案推荐开启 FlashAttention 3 (fa3) 后端以获得极致性能。

配置环境

export SGLANG_USE_MODELSCOPE=true
export DIST_ADDR=${master_node_ip}:${master_node_port}
# node 0
python3 -m sglang.launch_server \
  --model-path internlm/Intern-S1-Pro \
  --tp 16 \
  --ep 16 \
  --mem-fraction-static 0.85 \
  --trust-remote-code \
  --dist-init-addr ${DIST_ADDR} \
  --nnodes 2 \
  --attention-backend fa3 \
  --mm-attention-backend fa3 \
  --keep-mm-feature-on-device \
  --node-rank 0 \
  --reasoning-parser qwen3 \
  --tool-call-parser qwen
# node 1
python3 -m sglang.launch_server \
  --model-path internlm/Intern-S1-Pro \
  --tp 16 \
  --ep 16 \
  --mem-fraction-static 0.85 \
  --trust-remote-code \
  --dist-init-addr ${DIST_ADDR} \
  --nnodes 2 \
  --attention-backend fa3 \
  --mm-attention-backend fa3 \
  --keep-mm-feature-on-device \
  --node-rank 1 \
  --reasoning-parser qwen3 \
  --tool-call-parser qwe

模型API Inference体验

可以通过魔搭社区的推理 API-Inference体验Intern-S1-Pro模型

示例代码:

from openai import OpenAI
client = OpenAI(
    base_url='https://api-inference.modelscope.cn/v1',
    api_key='<MODELSCOPE_TOKEN>', # ModelScope Token
)
response = client.chat.completions.create(
    model='Shanghai_AI_Laboratory/Intern-S1-Pro', # ModelScope Model-Id, required
    messages=[
        {
            'role': 'user',
            'content': '你好'
        }
    ],
    stream=True
)
done_reasoning = False
for chunk in response:
    if chunk.choices:
        reasoning_chunk = chunk.choices[0].delta.reasoning_content
        answer_chunk = chunk.choices[0].delta.content
        if reasoning_chunk != '':
            print(reasoning_chunk, end='', flush=True)
        elif answer_chunk != '':
            if not done_reasoning:
                print('\n\n === Final Answer ===\n')
                done_reasoning = True
            print(answer_chunk, end='', flush=True)

高质量开源赋能创新生态

自2023年书生大模型首次发布以来,上海AI实验室已逐步构建起丰富的书生大模型家族,包括科学多模态模型Intern-S1、大语言模型书生·浦语InternLM、多模态模型书生·万象InternVL、强推理模型书生·思客InternThinker等。同时首创并开源了面向大模型研发与应用的全链路开源工具体系,覆盖数据处理、预训练、微调、部署、评测与应用等关键环节,包含训练框架XTuner、部署推理框架LMDeploy、评测框架OpenCompass、高效文档解析工具MinerU,以及思索式AI搜索应用MindSearch等在内的核心工具已全面开源,形成覆盖数十万开发者参与的活跃开源社区。


自发布以来,Intern-S1累计下载超41万次,并获得近200家科研机构和企业的合作申请。其卓越的跨模态科学理解能力不仅为科研提供了高效工具,也通过开源降低了全球科研团队迈入AGI for Science的门槛。未来,在研究范式创新及模型能力提升的基础上,上海AI实验室将推进Intern-S1及其全链条工具体系持续开源,支持免费商用,同时提供线上开放服务,与全球合作伙伴共建更加开放、高效的科学AI生态。


点击即可跳转模型链接:https://www.modelscope.cn/models/Shanghai_AI_Laboratory/Intern-S1-Pro


目录
相关文章
|
9天前
|
人工智能 自然语言处理 Shell
🦞 如何在 OpenClaw (Clawdbot/Moltbot) 配置阿里云百炼 API
本教程指导用户在开源AI助手Clawdbot中集成阿里云百炼API,涵盖安装Clawdbot、获取百炼API Key、配置环境变量与模型参数、验证调用等完整流程,支持Qwen3-max thinking (Qwen3-Max-2026-01-23)/Qwen - Plus等主流模型,助力本地化智能自动化。
🦞 如何在 OpenClaw (Clawdbot/Moltbot) 配置阿里云百炼 API
|
6天前
|
人工智能 机器人 Linux
保姆级 OpenClaw (原 Clawdbot)飞书对接教程 手把手教你搭建 AI 助手
OpenClaw(原Clawdbot)是一款开源本地AI智能体,支持飞书等多平台对接。本教程手把手教你Linux下部署,实现数据私有、系统控制、网页浏览与代码编写,全程保姆级操作,240字内搞定专属AI助手搭建!
4247 13
保姆级 OpenClaw (原 Clawdbot)飞书对接教程 手把手教你搭建 AI 助手
|
5天前
|
人工智能 安全 机器人
OpenClaw(原 Clawdbot)钉钉对接保姆级教程 手把手教你打造自己的 AI 助手
OpenClaw(原Clawdbot)是一款开源本地AI助手,支持钉钉、飞书等多平台接入。本教程手把手指导Linux下部署与钉钉机器人对接,涵盖环境配置、模型选择(如Qwen)、权限设置及调试,助你快速打造私有、安全、高权限的专属AI助理。(239字)
3392 9
OpenClaw(原 Clawdbot)钉钉对接保姆级教程 手把手教你打造自己的 AI 助手
|
8天前
|
人工智能 JavaScript 应用服务中间件
零门槛部署本地AI助手:Windows系统Moltbot(Clawdbot)保姆级教程
Moltbot(原Clawdbot)是一款功能全面的智能体AI助手,不仅能通过聊天互动响应需求,还具备“动手”和“跑腿”能力——“手”可读写本地文件、执行代码、操控命令行,“脚”能联网搜索、访问网页并分析内容,“大脑”则可接入Qwen、OpenAI等云端API,或利用本地GPU运行模型。本教程专为Windows系统用户打造,从环境搭建到问题排查,详细拆解全流程,即使无技术基础也能顺利部署本地AI助理。
6908 15
|
6天前
|
存储 人工智能 机器人
OpenClaw是什么?阿里云OpenClaw(原Clawdbot/Moltbot)一键部署官方教程参考
OpenClaw是什么?OpenClaw(原Clawdbot/Moltbot)是一款实用的个人AI助理,能够24小时响应指令并执行任务,如处理文件、查询信息、自动化协同等。阿里云推出的OpenClaw一键部署方案,简化了复杂配置流程,用户无需专业技术储备,即可快速在轻量应用服务器上启用该服务,打造专属AI助理。本文将详细拆解部署全流程、进阶功能配置及常见问题解决方案,确保不改变原意且无营销表述。
4482 4
|
3天前
|
人工智能 机器人 Linux
OpenClaw(Clawdbot、Moltbot)汉化版部署教程指南(零门槛)
OpenClaw作为2026年GitHub上增长最快的开源项目之一,一周内Stars从7800飙升至12万+,其核心优势在于打破传统聊天机器人的局限,能真正执行读写文件、运行脚本、浏览器自动化等实操任务。但原版全英文界面对中文用户存在上手门槛,汉化版通过覆盖命令行(CLI)与网页控制台(Dashboard)核心模块,解决了语言障碍,同时保持与官方版本的实时同步,确保新功能最快1小时内可用。本文将详细拆解汉化版OpenClaw的搭建流程,涵盖本地安装、Docker部署、服务器远程访问等场景,同时提供环境适配、问题排查与国内应用集成方案,助力中文用户高效搭建专属AI助手。
2299 5
|
8天前
|
人工智能 JavaScript API
零门槛部署本地 AI 助手:Clawdbot/Meltbot 部署深度保姆级教程
Clawdbot(Moltbot)是一款智能体AI助手,具备“手”(读写文件、执行代码)、“脚”(联网搜索、分析网页)和“脑”(接入Qwen/OpenAI等API或本地GPU模型)。本指南详解Windows下从Node.js环境搭建、一键安装到Token配置的全流程,助你快速部署本地AI助理。(239字)
4548 23
|
14天前
|
人工智能 API 开发者
Claude Code 国内保姆级使用指南:实测 GLM-4.7 与 Claude Opus 4.5 全方案解
Claude Code是Anthropic推出的编程AI代理工具。2026年国内开发者可通过配置`ANTHROPIC_BASE_URL`实现本地化接入:①极速平替——用Qwen Code v0.5.0或GLM-4.7,毫秒响应,适合日常编码;②满血原版——经灵芽API中转调用Claude Opus 4.5,胜任复杂架构与深度推理。
8333 12