window 部署 coze-loop

简介: 本教程介绍了如何在 Linux 系统上安装 Go 环境、Docker 以及 Coze Loop,并配置多模型运行。内容包括安装步骤、环境变量设置、代码拉取、模型配置及服务启动等关键流程,适用于搭建本地化的 AI 模型服务环境。

参考链接

https://github.com/coze-dev/cozeloop/wiki/2.-%E5%BF%AB%E9%80%9F%E5%BC%80%E5%A7%8B

https://github.com/coze-dev/cozeloop/wiki/5.-%E6%A8%A1%E5%9E%8B%E9%85%8D%E7%BD%AE

第一步 安装 Go 环境

参考链接:https://go.dev/doc/install

1)下载安装包

# 1.24.5 版本
wget https://dl.google.com/go/go1.24.5.linux-amd64.tar.gz

2)删除旧的 go 运行环境,并解压缩到 /usr/local

rm -rf /usr/local/go && tar -C /usr/local -xzf go1.24.5.linux-amd64.tar.gz

3)添加到环境变量

echo 'export PATH=$PATH:/usr/local/go/bin' >> ~/.profile
# 用于加载环境变量
source ~/.profile

4)验证是否安装成功

go version

第二步 安装 docker

参考安装即可:https://blog.csdn.net/a2497_282263/article/details/148584594

第三步 安装 coze Loop

参考链接:https://github.com/coze-dev/cozeloop/wiki/2.-%E5%BF%AB%E9%80%9F%E5%BC%80%E5%A7%8B

1)拉取代码

git clone https://github.com/coze-dev/coze-loop.git
# 如果服务器访问不了,可以试试 https://gh-proxy.com/, 进去转换链接

3)切换到配置目录

# 切换到配置目录
cd cozeloop/

4)配置模型

参考:https://github.com/coze-dev/cozeloop/wiki/5.-%E6%A8%A1%E5%9E%8B%E9%85%8D%E7%BD%AE

vim conf/default/app/runtime/model_config.yaml

以下为 model_config.yaml 内容,仅供参考,其中的 api_key 需要改成自己的

注:qwen 的模型我配置了 function call,其他的配置参考官方配置即可

配置了四个模型:

  • doubao-seed-1-6-250615
  • qwen3-235b-a22b-instruct-2507
  • qwen3-235b-a22b-thinking-2507
  • DeepSeek-R1-0528
models:
  - id: 1
    name: "doubao"
    frame: "eino"
    protocol: "ark"
    protocol_config:
      api_key: "727exxxxxx"  # 火山方舟 API Key,获取方式可参考 https://www.volcengine.com/docs/82379/1541594
      model: "doubao-seed-1-6-250615"    # 火山方舟模型接入点的 Endpoint ID,获取方式可参考 https://www.volcengine.com/docs/82379/1099522
    param_config:
      param_schemas:
        - name: "temperature"
          label: "生成随机性"
          desc: "调高温度会使得模型的输出更多样性和创新性,反之,降低温度会使输出内容更加遵循指令要求但减少多样性。建议不要与 “Top p” 同时调整。"
          type: "float"
          min: "0"
          max: "1.0"
          default_val: "0.7"
        - name: "max_tokens"
          label: "最大回复长度"
          desc: "控制模型输出的 Tokens 长度上限。通常 100 Tokens 约等于 150 个中文汉字。"
          type: "int"
          min: "1"
          max: "4096"
          default_val: "2048"
        - name: "top_p"
          label: "核采样概率"
          desc: "生成时选取累计概率达 top_p 的最小 token 集合,集合外 token 被排除,平衡多样性与合理性。"
          type: "float" #
          min: "0.001"
          max: "1.0"
          default_val: "0.7"
  - id: 2
    name: "qwen3-235b-a22b-instruct-2507"
    frame: "eino"
    protocol: "qwen"
    protocol_config:
      base_url: "https://dashscope.aliyuncs.com/compatible-mode/v1"
      api_key: "***"  # qwen API Key
      model: "qwen3-235b-a22b-instruct-2507"
    ability:
      function_call: true
    param_config:
      param_schemas:
        - name: "temperature"
          label: "生成随机性"
          desc: "调高温度会使得模型的输出更多样性和创新性,反之,降低温度会使输出内容更加遵循指令要求但减少多样性。建议不要与 “Top p” 同时调整。"
          type: "float"
          min: "0"
          max: "1.0"
          default_val: "0.7"
        - name: "max_tokens"
          label: "最大回复长度"
          desc: "控制模型输出的 Tokens 长度上限。通常 100 Tokens 约等于 150 个中文汉字。"
          type: "int"
          min: "1"
          max: "4096"
          default_val: "2048"
        - name: "top_p"
          label: "核采样概率"
          desc: "生成时选取累计概率达 top_p 的最小 token 集合,集合外 token 被排除,平衡多样性与合理性。"
          type: "float" #
          min: "0.001"
          max: "1.0"
          default_val: "0.7"
  - id: 3
    name: "qwen3-235b-a22b-thinking-2507"
    frame: "eino"
    protocol: "qwen"
    protocol_config:
      base_url: "https://dashscope.aliyuncs.com/compatible-mode/v1"
      api_key: "***"  # qwen API Key
      model: "qwen3-235b-a22b-thinking-2507"  
    ability:
      function_call: true
    param_config:
      param_schemas:
        - name: "temperature"
          label: "生成随机性"
          desc: "调高温度会使得模型的输出更多样性和创新性,反之,降低温度会使输出内容更加遵循指令要求但减少多样性。建议不要与 “Top p” 同时调整。"
          type: "float"
          min: "0"
          max: "1.0"
          default_val: "0.7"
        - name: "max_tokens"
          label: "最大回复长度"
          desc: "控制模型输出的 Tokens 长度上限。通常 100 Tokens 约等于 150 个中文汉字。"
          type: "int"
          min: "1"
          max: "4096"
          default_val: "2048"
        - name: "top_p"
          label: "核采样概率"
          desc: "生成时选取累计概率达 top_p 的最小 token 集合,集合外 token 被排除,平衡多样性与合理性。"
          type: "float" #
          min: "0.001"
          max: "1.0"
          default_val: "0.7"
   - id: 4
    name: "DeepSeek-R1-0528"
    frame: "eino"
    protocol: "deepseek"
    protocol_config:
      base_url: "https://api.deepseek.com"
      api_key: "deepseek API Key"  # deepseek API Key
      model: "deepseek-reasoner"
    ability:
      function_call: true  
    param_config:
      param_schemas:
        - name: "temperature"
          label: "生成随机性"
          desc: "调高温度会使得模型的输出更多样性和创新性,反之,降低温度会使输出内容更加遵循指令要求但减少多样性。建议不要与 “Top p” 同时调整。"
          type: "float"
          min: "0"
          max: "1.0"
          default_val: "0.7"
        - name: "max_tokens"
          label: "最大回复长度"
          desc: "控制模型输出的 Tokens 长度上限。通常 100 Tokens 约等于 150 个中文汉字。"
          type: "int"
          min: "1"
          max: "4096"
          default_val: "2048"
        - name: "top_p"
          label: "核采样概率"
          desc: "生成时选取累计概率达 top_p 的最小 token 集合,集合外 token 被排除,平衡多样性与合理性。"
          type: "float" #
          min: "0.001"
          max: "1.0"
          default_val: "0.7"

5)启动服务

# 以后台的方式启动服务,默认为开发模式
docker compose up --build -d

6)查看日志,确保服务正常启动

docker compose logs

显示这个就代表启动成功

7)开放端口 8082

我的服务器是 腾讯云的,所以我要去安全组开放 8082 端口

# 查看防火墙状态
sudo firewall-cmd --state
# 开放 8082 端口(临时+永久)
sudo firewall-cmd --zone=public --add-port=8082/tcp --permanent
# 重新加载防火墙配置
sudo firewall-cmd --reload


最后:使用

访问 http://ip:8082 就可以正常使用了

注:初次使用,直接输入账号密码注册就可以了

使用例子:

我发现 qwen3-235b-a22b-thinking-2507 的思考内容不能正常显示, 而 deepseek r1 以及 doubao-seed-1-6-250615 思考内容都能正常显示, 不知道是不是最近出的模型没有适配


启动、停止命令

# 切换到配置目录(我放在 /root/cozeloop 目录下)
cd /root/cozeloop
# 启动
docker compose up -d
# 停止
docker compose stop


Q&A

Get "https://registry-1.docker.io/v2/": net/http: request canceled while waiting for connection (Client.Timeout exceeded while awaiting headers)

解决

1)备份原来的配置

cp /etc/docker/daemon.json{,.bak}

2)删除原先的配置

rm -rf /etc/docker/daemon.json

3)写入镜像源信息

sudo tee /etc/docker/daemon.json <<-'EOF'
{
   "registry-mirrors":[
        "https://docker-0.unsee.tech",
        "https://hub.rat.dev",
        "https://hub.fast360.xyz",
        "https://docker.1panel.live"
    ]
}
EOF

4)重启 docker

sudo systemctl daemon-reload
sudo systemctl restart docker
目录
相关文章
|
6月前
|
人工智能 运维 开发工具
10分钟无痛部署!字节Coze开源版喂饭教程
字节跳动开源AI智能体平台Coze(含Studio开发工具+Loop运维系统),仅需2核CPU/4GB内存即可本地运行,48小时GitHub星标破9000。本文提供10分钟极速部署指南,涵盖Docker配置、模型服务调优及Qwen模型切换实战,零成本实现商用级AI开发,彻底降低智能体创作门槛。
|
4月前
|
人工智能 测试技术 Docker
Coze平台指南(2):开发环境的搭建与配置
Coze(扣子)是字节跳动开源的AI智能体开发平台,包含开发工具和运维系统,支持本地部署且硬件要求低。本文将手把手带你完成Coze开发环境的搭建与配置,让你能快速开始本地化的AI智能体开发
|
6月前
|
网络协议 Linux C++
Window 部署 coze-stdio(coze 开发平台)
本指南介绍了如何在本地环境部署 Coze Studio,包括环境配置、镜像源设置、模型配置及服务启动步骤。内容涵盖 Docker 配置、模型添加方法及常见问题解决方案,适用于 Windows 11 系统,需最低 2 核 CPU 和 4GB 内存。
2136 8
Window 部署 coze-stdio(coze 开发平台)
|
2月前
|
人工智能 运维 Go
对比评测Dify vs Coze:谁才是“AI工作流”的终极答案?
Dify与Coze是两大热门开源低代码AI工作流平台。本文从架构、功能、部署、适用场景等维度全面对比:Dify为集成化Python平台,适合快速开发;Coze采用Go语言微服务架构,灵活性强,支持多Agent协同。助你根据技术栈与业务需求优选方案,还可组合使用实现前后端协同。
|
1月前
|
Linux Docker 容器
docker下部署 vLLM 启动Qwen3-VL-32B-Instruct模型
本文介绍在CentOS系统、A10 6×24G显卡环境下,通过Docker部署vLLM并启动Qwen3-VL-32B-Instruct大模型的完整流程,涵盖镜像拉取、容器配置、多卡并行与显存优化设置,支持32K上下文,附带启动脚本及调用验证示例。
2447 2
|
6月前
|
数据安全/隐私保护
阿里云的国内云与国际云差异
本文对比了阿里云国内云与国际云的核心差异,从用户群体、合规要求、数据安全、延迟等方面提供决策参考,帮助企业根据业务需求选择合适的云服务。
阿里云的国内云与国际云差异
|
6月前
|
小程序 安全 关系型数据库
专业打造一款圈子源码软件系统 / 后端 PHP 搭建部署一样实现利益化
本教程详解基于PHP后端与Uni-app的小程序开发全流程,涵盖技术选型、环境搭建、源码导入、接口对接及功能实现。采用Laravel/Symfony框架,结合MySQL/PostgreSQL数据库,使用WebSocket实现实时通信,并集成IM SDK实现音视频聊天。前端使用Uni-app开发,支持跨平台运行。教程包含完整部署流程与安全优化方案,助力快速搭建高性能、安全稳定的小程序系统。
469 5