Windows版来啦!Qwen3+MCPs,用AI自动发布小红书图文/视频笔记!

本文涉及的产品
模型训练 PAI-DLC,100CU*H 3个月
交互式建模 PAI-DSW,每月250计算时 3个月
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
简介: 上一篇用 Qwen3+MCPs实现AI自动发小红书的最佳实践 有超多小伙伴关注,同时也排队在蹲Windows版本的教程。

01.前言

上一篇用 Qwen3+MCPs实现AI自动发小红书的最佳实践 有超多小伙伴关注,同时也排队在蹲Windows版本的教程。

这不,小编立马给安排上!

如果没有看过上一篇内容的同学,看这里 👇

用Qwen3+MCPs实现AI自动发布小红书笔记!支持图文和视频

本部分教程是完全从0开始,包括python环境的安装,非常适合小白上手。

windows系统相比mac而言,环境安装会困难一些,请大家多一点点耐心。小编已经填平了大部分的坑,照着一步步做,基本上不会有太大问题。如果还是遇到问题,自行搜索也解决不了的,那就评论区见吧~

 

下面让我们开始!

准备工作

  • 准备一台Windows电脑,本文的测试电脑系统版本为Windows 11
  • 下载Cherry Studio最新版本,作为MCP客户端

02.让AI自动发布小红书笔记

小红书发布MCP魔搭地址:https://www.modelscope.cn/mcp/servers/@XGenerationLab/xhs_mcp_server

Step1:打开PowerShell,运行以下命令安装环境

# 1、安装python
python # 如果你没有python环境,直接输入python+回车,win10会自动在Microsoft Store中下载
# 2、安装Node.js
# Node.js安装参考https://help.aliyun.com/zh/sdk/developer-reference/install-node-js-in-windows
# 安装完成后,用node -v检查
# 3、安装uv
irm https://astral.sh/uv/install.ps1 | iex
# 4、安装xhs-mcp-server
pip install xhs-mcp-server
# 5、安装chromedriver
npx @puppeteer/browsers install chromedriver@136.0.7103.49
# 版本号请与自己的chrome浏览器版本号保持一致,chrome版本号在浏览器地址中输入chrome://settings/help查询

image.gif

 

Step2:登陆小红书账号(只需1次)

  • 在PowerShell运行以下命令,后台会自动弹出浏览器,并打开小红书创作平台的登陆页面,自动发送验证码。
# 设置环境变量
$env:phone = "YOUR_PHONE_NUMBER"
$env:json_path = "PATH_TO_STORE_YOUR_COOKIES"
# 检查环境变量是否设置成功
echo $env:phone
echo $env:json_path
# 登录账号
uvx --from xhs_mcp_server@latest login

image.gif

⚠️将YOUR_PHONE_NUMBER改成自己的手机号

⚠️将PATH_TO_STORE_YOUR_COOKIES改成cookies的保存目录,比如"C:\Users\xxx"

  • 检查手机收到的验证码,在终端中输入
无效的cookies,已清理
请输入验证码:

image.gif

⚠️“请输入验证码:”的出现可能需要一会,耐心等待一下。

  • 再次运行上面的那行命令,如果显示“使用cookies登录成功”就登陆成功啦。

Step3(可选):用inspector调试一下发布功能

  • 启动inspector调试界面
npx @modelcontextprotocol/inspector -e phone=YOUR_PHONE_NUMBER -e json_path="PATH_TO_STORE_YOUR_COOKIES" uvx xhs_mcp_server@latest

image.gif

⚠️同样需要设置YOUR_PHONE_NUMBER和PATH_TO_STORE_YOUR_COOKIES,后者请用上面登陆时的cookies的目录,比如'C:\Users\xxx'

⚠️启动inspector调试界面之前,要确保chrome浏览器已关闭并退出,否则有可能遇到链接错误

  • 打开inspector调试界面,点击connect,首次连接耗时比较长, 需要等待一会
  • 连接成功后,进入Tools->List Tools里面,你会发现有两个tool,create_note和create_video_note,前者是发布图片笔记,后者是发布视频笔记。
  • 点击create_note,输入标题、内容和图片,其中图片支持网络图片URL,也支持本地图片路径。

以下是网络图片的路径的例子:

image.gif 编辑

  • 点击Run Tool,后台会自动拉起浏览器,打开创作服务平台的发布入口,自动上传图片和填写文字内容并发布出去。

image.gif 编辑

03.让Qwen3帮我们生成文案,自动发布小红书

在Cherry Studio客户端上配置小红书发布助手,借助Qwen3-235B模型的强大能力来帮我们生成标题和正文的文案。

魔搭最近上新的Qwen3-235B-A22B模型已部署为API服务,可通过API-Inference免费调用。

 

模型地址:

https://modelscope.cn/models/Qwen/Qwen3-235B-A22B

 

我们在Cherry Studio上配上Qwen3:

image.gif 编辑

 

再在MCP服务器里配置小红书发布MCP

小红书MCP魔搭地址:

https://www.modelscope.cn/mcp/servers/@XGenerationLab/xhs_mcp_server

找到MCP服务器管理页面,点击MCP服务器编辑,会弹出一个json编辑框

image.gif 编辑

 

将以下配置json内容复制后插入上面弹出的窗口中。

"xhs-mcp-server": {
      "name": "xhs-mcp-server",
      "type": "stdio",
      "isActive": true,
      "registryUrl": "",
      "command": "uvx",
      "args": [
        "xhs_mcp_server@latest"
      ],
      "env": {
        "phone": "YOUR_PHONE_NUMBER",
        "json_path": "PATH_TO_STORE_YOUR_COOKIES"
      }
    }

image.gif

⚠️注意是在第二个花括号中插入,并且在最后的位置加上英文逗号。

⚠️同样需要设置YOUR_PHONE_NUMBER和PATH_TO_STORE_YOUR_COOKIES,cookies路径请用上面登陆时的cookies的目录,比如"C:\\Users\\xxx",注意这里一定要用双反斜杠。

⚠️如果需要上传视频,记得将“timeout"超时限制该长一些,默认100秒,我这里设成了500秒

image.gif 编辑

⚠️如果遇到右上角有红色三角图标提示,请点击进行安装。

image.gif 编辑

到这里就配置完成啦!

 

让它写个小红书发布器出windows版本教程的文案:

image.gif 编辑

 

再打开MCP服务器,配上我自己的本地图片地址:

image.gif 编辑

 

然后它就刷刷刷开始干活了~

自动打开浏览器发布视频,发布成功后自动关闭浏览器,整个过程非常丝滑。

这个是发布成功的样子。

 

image.gif 编辑

04.让AI帮我们生成图片或视频,自动发布小红书

本部分与mac版本完全一致,本文就不重复展开啦

再来一遍👉 Qwen3+MCPs实现AI自动发小红书的最佳实践

如果实践过程中遇到问题,并想要得到更及时的回复,请加魔搭答疑钉钉群咨询👇

image.gif 编辑

点击链接,可跳转魔搭文生图MCP服务

https://www.modelscope.cn/mcp/servers/@XGenerationLab/xhs_mcp_server

 

 

 


相关实践学习
如何快速创建插件agent
阿里云百炼应用基于Assistant API技术架构,结合大语言模型(LLM)的推理、知识检索增强、插件调度等能力,构建应对各类复杂场景任务的场景应用。通过集成化、直观易用的产品界面,为开发者提供了丰富的应用配置选项,包括大型语言模型(LLM)选择、Pro
目录
相关文章
|
17天前
|
人工智能 自然语言处理 算法
AI智能混剪视频大模型开发方案:从文字到视频的自动化生成·优雅草卓伊凡
AI智能混剪视频大模型开发方案:从文字到视频的自动化生成·优雅草卓伊凡
86 0
AI智能混剪视频大模型开发方案:从文字到视频的自动化生成·优雅草卓伊凡
|
8天前
|
机器学习/深度学习 人工智能 算法
通义OmniAudio大模型,让 AI 看懂 360° 视频,并“听”出对应的空间音频
OmniAudio 是一项突破性的空间音频生成技术,能够直接从 360° 视频生成 FOA(First-order Ambisonics)空间音频,为虚拟现实和沉浸式娱乐带来全新可能。通过自监督 coarse-to-fine 预训练和双分支视频表示微调,OmniAudio 在非空间音频质量和空间定位准确性上显著优于现有方法。项目包含超过 103,000 个视频片段的 Sphere360 数据集,支持高质量的模型训练与评估。代码、数据及论文均已开源,助力沉浸式体验技术发展。
|
19天前
|
传感器 人工智能 搜索推荐
【通义灵码 2.5 + Qwen3 + MCP Sever】AI总结微信提取聊天记录!再也不怕错过重要信息!
本文介绍了一套基于通义灵码2.5、Qwen3模型和开源chatlog工具的微信聊天记录提取与总结方案。通过智能体模式能力,AI可自主完成任务规划与执行,支持环境感知及多种内置工具使用。结合MCP协议,实现与chatlog无缝集成,轻松查询群聊数量、总结特定成员发言内容等功能。未来可拓展至个性化画像分析、自动纪要生成等场景,助力信息管理与知识沉淀。文末附有详细操作步骤及多平台链接,适合开发者与职场人实践使用。
703 13
【通义灵码 2.5 + Qwen3 + MCP Sever】AI总结微信提取聊天记录!再也不怕错过重要信息!
|
25天前
|
人工智能 调度
【MCP教程系列】在阿里云百炼上用Qwen3+且慢MCP,用AI重新定义资产管理效率
通义千问Qwen3通过MCP协议,在Agent中具备强大的工具调度与复杂任务拆解能力,成为构建复杂AI应用的核心引擎。以“基金助手”为例,集成且慢MCP服务后,可一键调用多源金融数据并动态组合分析工具,实现精准调度。在阿里云百炼平台上,只需4步即可构建一个“金融顾问”智能体:开通且慢MCP服务、新建智能体、添加MCP技能、测试效果。此外,还可增加提示词规范输出内容,完成更复杂的任务。
【MCP教程系列】在阿里云百炼上用Qwen3+且慢MCP,用AI重新定义资产管理效率
|
7天前
|
机器学习/深度学习 编解码 缓存
通义万相首尾帧图模型一键生成特效视频!
本文介绍了阿里通义发布的Wan2.1系列模型及其首尾帧生视频功能。该模型采用先进的DiT架构,通过高效的VAE模型降低运算成本,同时利用Full Attention机制确保生成视频的时间与空间一致性。模型训练分为三个阶段,逐步优化首尾帧生成能力及细节复刻效果。此外,文章展示了具体案例,并详细说明了训练和推理优化方法。目前,该模型已开源。
|
22天前
|
人工智能 编解码 搜索推荐
通义万相新模型开源,首尾帧图一键生成特效视频!
通义万相首尾帧生视频14B模型正式开源,作为首个百亿级参数规模的开源模型,可依据用户提供的开始与结束图片生成720p高清衔接视频,满足延时摄影、变身等定制化需求。用户上传两张图片或输入提示词即可完成复杂视频生成任务,支持运镜控制和特效变化。该模型基于Wan2.1架构改进,训练数据专门构建,确保高分辨率和流畅性。
|
18天前
|
机器学习/深度学习 自然语言处理 算法框架/工具
实战 | Qwen2.5-VL模型目标检测(Grounding)任务领域微调教程
在目标检测领域,众多神经网络模型早已凭借其卓越的性能,实现了精准的目标检测与目标分割效果。然而,随着多模态模型的崛起,其在图像分析方面展现出的非凡能力,为该领域带来了新的机遇。多模态模型不仅能够深入理解图像内容,还能将这种理解转化为文本形式输出,极大地拓展了其应用场景。
1297 74
|
29天前
|
人工智能 负载均衡 数据可视化
10分钟上手全球开源模型冠军 Qwen3
阿里通义千问Qwen3在最新全球AI基准测试中智能水平位列全球前五,开源第一,且成本优势显著,推理成本仅为DeepSeek-R1的1/3、Claude 3.7的1/20。Qwen3支持119种语言,具备强大的代码和数学能力,同时提供思考与非思考两种模式无缝切换,适合复杂与简单任务。通过阿里云百炼平台,用户可在10分钟内快速搭建Qwen3模型服务,结合Cherry Studio客户端实现便捷交互。本文详细介绍了Qwen3的部署、体验及工具调用能力,帮助用户轻松上手。
622 78
|
30天前
|
数据可视化 API Swift
全模态图像模型Nexus-Gen对齐GPT-4o!同时搞定,数据、训练框架、模型全面开源
OpenAI GPT-4o发布强大图片生成能力后,业界对大模型生图能力的探索向全模态方向倾斜,训练全模态模型成研发重点。
156 17
|
7天前
|
自然语言处理 开发者 iOS开发
📢通义千问Qwen3大模型新成员:Embedding系列模型登场!可在阿里云百炼直接体验
通义实验室正式发布Qwen3-Embedding系列模型,专为文本表征、检索与排序任务设计。该系列基于Qwen3基础模型训练,支持多语言和代码检索,具备卓越的泛化性、灵活的架构以及全面的语言支持。模型提供0.6B到8B参数规模选择,支持表征维度自定义和指令适配优化。训练采用三阶段架构,结合对比学习与监督训练,提升性能与效率。目前,Qwen3-Embedding已在Hugging Face、ModelScope和GitHub开源,并可通过阿里云百炼平台使用相关服务。未来将持续优化并拓展多模态语义理解能力。
📢通义千问Qwen3大模型新成员:Embedding系列模型登场!可在阿里云百炼直接体验

热门文章

最新文章