OpenAI 重返开源!gpt-oss系列社区推理、微调实战教程到!

本文涉及的产品
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
交互式建模 PAI-DSW,每月250计算时 3个月
模型训练 PAI-DLC,100CU*H 3个月
简介: 时隔N年,OpenAI开放模型权重啦!欢迎使用gpt-oss 系列,专为强大的推理、代理任务和多用途开发场景设计。

 01.前言

时隔N年,OpenAI开放模型权重啦!欢迎使用gpt-oss 系列,专为强大的推理、代理任务和多用途开发场景设计。

OpenAI本次发布了两种开放模型:

 

  • gpt-oss-120b —— 适用于生产环境、通用目的和高推理需求的场景,可以装入单个 H100 GPU(117B 参数,其中 5.1B 激活参数)
  • gpt-oss-20b —— 适用于低延迟以及本地或特定用途的场景(21B 参数,其中 3.6B 激活参数)

模型链接

  • gpt-oss-120b:

https://modelscope.cn/models/openai-mirror/gpt-oss-120b

  • gpt-oss-20b:

https://modelscope.cn/models/openai-mirror/gpt-oss-20b

02.亮点

宽松的 Apache 2.0 许可证:

自由构建,无 copyleft 限制或专利风险——非常适合实验、定制和商业部署。

 

可配置的推理努力:

根据您的具体使用场景和延迟需求轻松调整推理努力(低、中、高)。

 

完整的思维链:

完全访问模型的推理过程,便于调试并增加对输出的信任。它不打算向最终用户展示。

 

可微调:

通过参数微调完全自定义模型以适应您的特定使用场景。

 

代理能力:

 

使用模型的原生功能进行函数调用、网页浏览(https://github.com/openai/gpt-oss/tree/main?tab=readme-ov-file#browser)、Python 代码执行(https://github.com/openai/gpt-oss/tree/main?tab=readme-ov-file#python) 和结构化输出。

 

原生 MXFP4 量化:

 

模型使用原生 MXFP4 精度训练 MoE 层,使得 gpt-oss-120b 可以在单个 H100 GPU 上运行,而 gpt-oss-20b 模型可以在 16GB 内存内运行。

03.推理示例

Transformers

您可以使用 gpt-oss-120bgpt-oss-20b 与 Transformers。

要开始,请安装必要的依赖项以设置您的环境:

pip install -U transformers kernels torch

image.gif

设置完成后,您可以通过运行以下代码片段来运行模型:

from modelscope import pipeline
import torch
model_id = "openai-mirror/gpt-oss-120b"
pipe = pipeline(
    "text-generation",
    model=model_id,
    torch_dtype="auto",
    device_map="auto",
)
messages = [
    {"role": "user", "content": "Explain quantum mechanics clearly and concisely."},
]
outputs = pipe(
    messages,
    max_new_tokens=256,
)
print(outputs[0]["generated_text"][-1])

image.gif

 

vLLM

vLLM推荐使用uv进行Python依赖管理。您可以使用vLLM来启动一个与OpenAI兼容的web服务器。以下命令将自动下载模型并启动服务器。

uv pip install --pre vllm==0.10.1+gptoss \
    --extra-index-url https://wheels.vllm.ai/gpt-oss/ \
    --extra-index-url https://download.pytorch.org/whl/nightly/cu128 \
    --index-strategy unsafe-best-match
VLLM_USE_MODELSCOPE=true vllm serve openai-mirror/gpt-oss-120b

image.gif

Ollama

如果您想在消费级硬件上运行gpt-oss,可以在安装Ollama后通过运行以下命令来使用Ollama。

# gpt-oss-120b
ollama run gpt-oss:120b

image.gif

或者你也可以直接使用ModelScope社区上的众多GGUF版本的模型,例如

# gpt-oss-20b
ollama run modelscope.cn/ggml-org/gpt-oss-20b-GGUF

image.gif

LM Studio

如果您正在使用LM Studio(https://lmstudio.ai/),可以使用以下命令下载模型。

# gpt-oss-120b
lms get openai/gpt-oss-120

image.gif

 

04.下载模型

您可以直接从ModelScope SDK在ModelScope上下载模型权重:

modelscope download openai-mirror/gpt-oss-120b --local_dir gpt-oss-120b/
pip install gpt-oss
python -m gpt_oss.chat model/

image.gif

05.推理级别

您可以根据任务需求调整三个级别的推理水平:

  • 低: 适用于一般对话的快速响应。
  • 中: 平衡速度与细节。
  • 高: 深入且详细的分析。

推理级别可以在系统提示中设置,例如,“Reasoning: high”。

06.工具使用

gpt-oss模型非常适合于:

  • 网页浏览(使用内置浏览工具)
  • 带有定义模式的功能调用
  • 如浏览器任务等代理操作

07.微调

我们介绍使用ms-swift对gpt-oss-20b进行自我认知训练。ms-swift是魔搭社区官方提供的大模型与多模态大模型训练部署框架。

ms-swift开源地址:

https://github.com/modelscope/ms-swift

我们将展示可运行的微调demo,并给出自定义数据集的格式。

在开始微调之前,请确保您的环境已准备妥当。

# pip install git+https://github.com/modelscope/ms-swift.git
git clone https://github.com/modelscope/ms-swift.git
cd ms-swift
pip install -e .
pip install "transformers>=4.55"

image.gif

 

自定义数据格式

如果您需要自定义数据集微调模型,我们建议将数据准备成以下格式。

快思考:

{"messages": [{"role": "user", "content": "浙江的省会在哪?"}, {"role": "assistant", "content": "浙江的省会在杭州。"}]}

image.gif

慢思考:

{"messages": [{"role": "user", "content": "浙江的省会在哪?"}, {"role": "assistant", "content": "<|channel|>analysis<|message|>thinking content...<|end|><|start|>assistant<|channel|>final<|message|>浙江的省会在杭州。"}]}

image.gif

使用ms-swift推理原始模型自我认知:

CUDA_VISIBLE_DEVICES=0 \
swift infer \
    --model openai-mirror/gpt-oss-20b \
    --stream true

image.gif

 

image.gif 编辑

 

自我认知微调训练脚本:

# 42GB
CUDA_VISIBLE_DEVICES=0 \
swift sft \
    --model openai-mirror/gpt-oss-20b \
    --train_type lora \
    --dataset 'AI-ModelScope/alpaca-gpt4-data-zh#500' \
              'AI-ModelScope/alpaca-gpt4-data-en#500' \
              'swift/self-cognition#500' \
    --torch_dtype bfloat16 \
    --num_train_epochs 1 \
    --per_device_train_batch_size 1 \
    --per_device_eval_batch_size 1 \
    --router_aux_loss_coef 1e-3 \
    --learning_rate 1e-4 \
    --lora_rank 8 \
    --lora_alpha 32 \
    --target_modules all-linear \
    --gradient_accumulation_steps 16 \
    --eval_steps 50 \
    --save_steps 50 \
    --save_total_limit 2 \
    --logging_steps 5 \
    --max_length 2048 \
    --output_dir output \
    --warmup_ratio 0.05 \
    --dataloader_num_workers 4 \
    --model_author swift \
    --model_name swift-robot

image.gif

显存占用:

 

image.gif 编辑

 

训练完成后,使用以下命令进行推理:

CUDA_VISIBLE_DEVICES=0 \
swift infer \
    --model output/vx-xxx/checkpoint-xxx \
    --stream true \
    --max_new_tokens 2048

image.gif

 

image.gif 编辑

 

推送模型到ModelScope:

swift export \
    --model output/vx-xxx/checkpoint-xxx \
    --push_to_hub true \
    --hub_model_id '<your-model-id>' \
    --hub_token '<your-sdk-token>'

image.gif

点击链接, 即可跳转模型链接

https://modelscope.cn/models/openai-mirror/gpt-oss-120b

相关实践学习
通义万相文本绘图与人像美化
本解决方案展示了如何利用自研的通义万相AIGC技术在Web服务中实现先进的图像生成。
目录
相关文章
|
存储 监控 API
oss教程
oss教程
1293 1
|
2月前
|
人工智能 自然语言处理 API
快速集成GPT-4o:下一代多模态AI实战指南
快速集成GPT-4o:下一代多模态AI实战指南
353 101
|
3月前
|
存储 监控 调度
阿里云对象存储OSS之间进行数据转移教程
讲解如何在阿里云对象存储OSS之间进行跨账号、跨地域、以及同地域内的数据迁移,包括数据迁移之前的准备工作和实施数据迁移以及一些后续操作
|
2月前
|
人工智能 自然语言处理 算法
现代AI工具深度解析:从GPT到多模态的技术革命与实战应用
蒋星熠Jaxonic,AI技术探索者,深耕代码生成、多模态AI与提示词工程。分享AI工具架构、实战应用与优化策略,助力开发者提升效率,共赴智能编程新纪元。
|
3月前
|
人工智能 监控 Shell
通过 Cursor CLI 使用 GPT-5 的教程
Cursor CLI 是一款轻量级命令行工具,让开发者在终端中直接调用 GPT-5,实现代码生成、文本处理和快速查询,无需切换环境。它支持 Shell 脚本集成,适用于自动化任务,如代码注释生成、日志分析等。本文详解其安装配置、核心功能与高效使用技巧,助你提升开发效率。
|
3月前
|
人工智能 并行计算 API
全网最全的GPT-5测评文章!1.8万字详细实战测评!国内直接使用!
OpenAI 发布了期待已久的 GPT-5,其在数学、编程、视觉理解和健康等领域表现卓越,推理能力媲美 Gemini 2.5 Pro,代码能力媲美 Claude 4。GPT-5 与 GPT-5-thinking 双模型协同工作,带来更高效体验。国内用户可通过指定平台直接访问,提供免费授权码体验。
667 0
|
存储 Java 开发工具
【三方服务集成】最新版 | 阿里云OSS对象存储服务使用教程(包含OSS工具类优化、自定义阿里云OSS服务starter)
阿里云OSS(Object Storage Service)是一种安全、可靠且成本低廉的云存储服务,支持海量数据存储。用户可通过网络轻松存储和访问各类文件,如文本、图片、音频和视频等。使用OSS后,项目中的文件上传业务无需在服务器本地磁盘存储文件,而是直接上传至OSS,由其管理和保障数据安全。此外,介绍了OSS服务的开通流程、Bucket创建、AccessKey配置及环境变量设置,并提供了Java SDK示例代码,帮助用户快速上手。最后,展示了如何通过自定义starter简化工具类集成,实现便捷的文件上传功能。
3248 7
【三方服务集成】最新版 | 阿里云OSS对象存储服务使用教程(包含OSS工具类优化、自定义阿里云OSS服务starter)
|
机器学习/深度学习 人工智能 IDE
Cursor免费 GPT-4 IDE 工具的保姆级使用教程
本文介绍了Cursor这一基于人工智能技术的代码生成工具,包括其特点(利用自然语言处理和深度学习算法,可生成高质量代码,支持多种编程语言,能在多种操作系统上运行)及使用教程。教程内容涵盖下载(通过官网获取对应系统版本并安装)、初始化配置(如配置快捷键、AI指定语言,导入VS Code扩展,设置数据偏好,登录/注册)、安装插件(设置Cursor中文、配置gitee)、配置模型和Key(选择模型、配置密钥、自定义模型并进行测试)以及如何使用(打开提示词面板)等步骤。
11974 6
 Cursor免费 GPT-4 IDE 工具的保姆级使用教程
|
机器学习/深度学习 弹性计算 人工智能
大模型进阶微调篇(三):微调GPT2大模型实战
本文详细介绍了如何在普通个人电脑上微调GPT2大模型,包括环境配置、代码实现和技术要点。通过合理设置训练参数和优化代码,即使在无独显的设备上也能完成微调,耗时约14小时。文章还涵盖了GPT-2的简介、数据集处理、自定义进度条回调等内容,适合初学者参考。
2478 6
|
数据可视化 Swift
小钢炮进化,MiniCPM 3.0 开源!4B参数超GPT3.5性能,无限长文本,超强RAG三件套!模型推理、微调实战来啦!
旗舰端侧模型面壁「小钢炮」系列进化为全新 MiniCPM 3.0 基座模型,再次以小博大,以 4B 参数,带来超越 GPT-3.5 的性能。并且,量化后仅 2GB 内存,端侧友好。
小钢炮进化,MiniCPM 3.0 开源!4B参数超GPT3.5性能,无限长文本,超强RAG三件套!模型推理、微调实战来啦!

热门文章

最新文章