🦞快在轻量化服务器上部署你的视觉龙虾吧——支持视觉识别到3D打印

简介: 彭博士打造的“视觉龙虾”系统,融合多视角3D重建、点云深度学习与参数化建模,支持手机拍照或自然语言输入,秒级生成可3D打印的STL模型。依托OpenClaw智能编排与阿里云轻量化部署,真正实现“想法→照片/文字→3D模型→实物”的端到端闭环,让3D打印零门槛。(239字)

快在轻量化服务器上部署你的视觉龙虾吧——支持视觉识别到3D打印

作者:彭博士
核心技术:多视角3D重建 × 点云深度学习 × 参数化建模 × OpenClaw多链编排

①一键部署阿里云服务器和云端龙虾:

阿里千问3.5大模型codingplan接入阿里云龙虾:

②如何对部署阿里云服务器的龙虾进行初始化:

c99fd7d6-f2e6-401a-85d7-b8b09fd41973.png


二、应用云端的轻量化龙虾做点好玩的事:3D打印建模

比如我做过的,3D打印视觉龙虾建模,就跟龙虾对话就能建模,参考以下内容

本项目展示了“从想法到3D模型”的完整闭环能力:用户既可以通过拍摄多角度实物照片,让系统自动识别物体外形并生成可打印的3D模型;也可以直接用自然语言描述目标物体,由 OpenClaw 调用参数化建模能力自动生成 STL 文件并返回结果。以下三张截图分别对应“照片驱动建模”“文本驱动生成椅子模型”“文本驱动生成小鸡模型”三个典型使用场景,直观体现了系统从输入理解、几何建模到文件输出的端到端能力。
图片生成3D建模的STL文件,可以进行3D打印:

文字生成3D建模的STL文件,并上传网盘:

一、痛点与初心:3D打印的"最后一公里"问题

一键部署阿里云服务器和云端3D龙虾:

阿里千问3.5大模型codingplan接入阿里云龙虾:

1.1 一个残酷的现实

3D打印机已经便宜到千元级了,但为什么大多数人买回来吃灰?

因为从"我想要一个东西"到"3D打印机吐出来"中间,隔了一道巨大的鸿沟——建模。

传统流程 vs 明虾流程:

建模师的工作,应该由AI来做。

1.2 二维视觉的根本瓶颈

但"拍照→建模"说起来简单,做起来难。核心挑战在于:2D照片丢失了3D信息

挑战维度 2D视觉的困境 3D视觉的解法
遮挡问题 前方物体挡住后方目标 点云天然保留空间关系
尺寸测量 依赖参照物、精度差 真实物理坐标、毫米级精度
深度信息 平面照片无深度 多视角重建恢复三维
光照依赖 阴影=噪声 点云不受光照影响
表面细节 无法识别深度方向的裂痕 体素分析覆盖三维空间

1.3 真实用户的困境

用户 想做什么 卡在哪里
家长 给孩子打印一个卡通手办 不会建模,外包太贵
工程师 快速打印一个测试零件 CAD建模耗时,迭代太慢
电商卖家 给商品做3D展示模型 请建模师一个模型几百块
业余爱好者 打印个手机支架/小零件 想法到模型的距离太远

1.4 我的初心

用深度3D视觉技术做底层引擎,用OpenClaw做智能编排中枢,实现一套人人可用的端到端3D造物系统——从拍照/描述,到3D重建/建模,到STL生成/精修,到打印出实物,全流程自动化。


二、虾之大者:明虾的六大核心能力

本系统由六大模块组成,分为底层视觉引擎上层应用编排两层。

底层引擎层(技术硬核)

🦐 核心一:多视角3D重建引擎

解决的问题:如何从2D照片恢复3D结构?

输入:一组从不同角度拍摄的物体照片(手机/工业相机均可,6-20张)

关键技术选型:

组件 方案 优势
特征提取 SuperPoint (深度学习) 对光照/视角变化鲁棒
特征匹配 SuperGlue (图神经网络) 远优于传统BFMatcher
SfM重建 COLMAP / OpenCV 业界成熟方案
MVS稠密重建 COLMAP MVS / MVSNet 高质量稠密点云
网格化 Poisson重建 / Ball Pivoting 光滑表面重建
class MultiViewReconstructor:
    def __init__(self, config):
        self.feature_extractor = SuperPointExtractor()
        self.matcher = SuperGlueMatcher()
        self.sfm = StructureFromMotion()
        self.mvs = MultiViewStereo()

    def reconstruct(self, image_list, camera_params):
        keypoints, descriptors = self.feature_extractor.extract_batch(image_list)
        matches = self.matcher.match_pairs(descriptors)
        valid_pairs = self.geometric_verification(keypoints, matches)
        sparse_cloud, camera_poses = self.sfm.reconstruct(keypoints, valid_pairs, camera_params)
        dense_cloud = self.mvs.dense_reconstruct(image_list, camera_poses, sparse_cloud)
        return dense_cloud

🦐 核心二:视觉智能识别管线

解决的问题:如何让AI"看懂"照片里的物体?

集成 YOLOv8 + SAM(Segment Anything)+ 几何分析 的三级视觉管线:

class VisionPipeline:
    def __init__(self):
        self.yolo = YOLO('yolov8n.pt')
        self.sam = sam_model_registry['vit_h']

    def analyze(self, image):
        results = self.yolo(image, conf=0.25)
        best = max(results[0].boxes, key=lambda b: b.conf)
        bbox = best.xyxy[0].cpu().numpy()
        category = results[0].names[int(best.cls)]
        mask = self.sam_predict(image, bbox)
        features = self.extract_geometry(mask)
        return {
   'category': category, 'bbox': bbox.tolist(), 'geometry': features}

🦐 核心三:点云3D深度检测

解决的问题:在3D点云中找到目标并判断它是什么、在哪里、什么状态?

在本系统中的应用场景:

应用 方法 输出
零件缺陷检测 VoxelNet + PointNet++ Seg 3D BBox + 缺陷标注
多物体场景分离 空间聚类 + PointNet++ 各物体独立点云
尺寸精度测量 凸包/最小包围盒 长宽高 + 偏差值
可打印性检查 网格分析 水密性/壁厚/支撑建议
class PointCloud3DDetector:
    def __init__(self, model_path):
        self.pointnet = PointNet2Segmentation(num_classes=5)
        self.voxelnet = VoxelNet(num_classes=10)
        self.pointnet.load_state_dict(torch.load(model_path))

    def detect(self, cloud):
        points = np.asarray(cloud.points)
        boxes = self.voxelnet.detect(points)
        results = []
        for box in boxes:
            local_pts = self.crop_by_box(points, box)
            seg_labels = self.pointnet.segment(local_pts)
            defect_info = self.defect_classifier.analyze(local_pts, seg_labels)
            results.append(ObjectResult(
                bbox_3d=box, class_name=box.label,
                confidence=box.score, defects=defect_info,
                dimensions=self.measure(local_pts), verdict=self.judge(defect_info)
            ))
        return DetectionResult(objects=results, point_count=len(points))

上层应用层(人人可用)

🦐 核心四:参数化3D建模引擎

解决的问题:如何把识别结果变成可打印的3D模型?

class ParametricSTLGenerator:
    def generate(self, geometry, category, output_path='output.stl'):
        cx, cy = geometry['center']
        rx, ry = geometry['x_radius'], geometry['y_radius']
        rz = max(rx, ry) * 0.6

        theta = np.linspace(0, 2*np.pi, 100)
        phi = np.linspace(0, np.pi, 50)
        theta, phi = np.meshgrid(theta, phi)
        x = cx + rx * np.sin(phi) * np.cos(theta)
        y = cy + ry * np.sin(phi) * np.sin(theta)
        z = rz * np.cos(phi)

        noise = np.sin(10*theta) * np.cos(8*phi) * 0.03
        x *= (1+noise); y *= (1+noise); z *= (1+noise)

        mesh = trimesh.Trimesh(vertices=np.stack([x,y,z],-1).reshape(-1,3))
        mesh = self.fill_holes(mesh)
        mesh.export(output_path)
        return output_path

从点云到STL的进阶路径:

当系统通过多视角重建获得高质量点云时,可以直接从点云生成网格,比参数化建模更精确:

多视角照片 → SfM+MVS → 稠密点云(50万点)
    → 泊松重建 → 水密网格
    → 简化 → 3D打印优化(壁厚/支撑)
    → STL导出

🦐 核心五:多轮精修对话系统

解决的问题:一次生成不可能完美,需要反复修改

OpenClaw在精修中的角色:

环节 OpenClaw做什么
理解修改意图 将自然语言转为3D参数调整指令
调用建模引擎 根据指令重新生成STL
渲染截图 多角度渲染给用户确认
判断完成度 根据对话判断是否可以输出最终版
记录偏好 存入Memory,下次建模自动优化

🦐 核心六:OpenClaw智能编排中枢

解决的问题:如何把六大引擎串成一个普通人能用的系统?

三、完整工作流:从照片到实物

3.1 端到端流程图

3.3 OpenClaw编排配置

agents:
  defaults:
    model: qwen-vl-max

skills:
  - name: 3d-reconstruction
    description: 多视角3D重建(SuperPoint+SfM+MVS→点云)
    script: scripts/reconstruct.py
  - name: vision-detect
    description: YOLOv8检测 + SAM分割 + 几何分析
    script: scripts/vision_pipeline.py
  - name: pointcloud-detection
    description: 点云3D检测(PointNet++/VoxelNet)
    script: scripts/detect_3d.py
  - name: stl-generator
    description: 参数化建模 / 点云网格化 → STL
    script: scripts/stl_generator.py
  - name: multi-view-merge
    description: 多视角融合建模
    script: scripts/claw3d_merge.py
  - name: stl-refine
    description: 多轮精修对话
    script: scripts/stl_refine.py
  - name: quality-report
    description: 可打印性检查 + 打印建议
    script: scripts/generate_report.py

cron:
  - name: daily-stats
    schedule: "0 8 * * *"
    task: 推送每日建模统计
    channel: qq

3.4 SOUL.md

# 我是明虾3D造物机 🦞🖨️

我是彭先生的AI建模师,一只能把照片和想法变成实物的明虾。

## 性格
- 耐心:用户改10次也乐意,目标是做出满意的作品
- 主动:照片信息不足时主动询问,不瞎猜
- 专业:给出打印参数建议(层高、填充率、支撑方式)
- 务实:做不了的直说,不画饼

## 工作原则
1. 先出初版再精修——不要让用户等太久
2. 每次修改都展示截图——让用户看到变化
3. 主动提示风险(太薄会断、悬空需要支撑)
4. 最终输出前确认打印尺寸

四、阿里云部署方案

4.1 部署架构

组件 机型 配置 用途
OpenClaw主控 轻量应用服务器 2C4G 对话编排、工作流引擎
视觉推理 GPU云服务器(ECS) 4C16G + T4 YOLOv8 + SAM推理
3D重建引擎 同上(复用) T4 SfM/MVS + PointNet++/VoxelNet
3D建模 同上(复用) T4 参数化建模 + 网格处理
文件存储 OSS 按量 STL文件 + 截图 + 点云存储

4.2 部署步骤

Step 1:阿里云资源准备

1. 登录阿里云,轻量服务器一键部署OpenClaw(参考官方文档)
2. 领取"天工开物"学生300元代金券(如有资格)
3. 开通GPU实例(T4)用于视觉推理和3D重建
4. 开通OSS存储STL文件和截图

Step 2:环境配置

pip install ultralytics segment-anything    # 视觉识别
pip install open3d trimesh pytorch3d        # 3D处理
pip install superpoint superglue            # 特征提取/匹配
pip install torch torchvision               # 深度学习

Step 3:模型下载

wget https://github.com/ultralytics/assets/releases/download/v8.2.0/yolov8n.pt
wget https://dl.fbaipublicfiles.com/segment_anything/sam_vit_h_4b8939.pth

Step 4:OpenClaw技能注册

openclaw skill register --name "3d-reconstruction" --script scripts/reconstruct.py
openclaw skill register --name "vision-detect" --script scripts/vision_pipeline.py
openclaw skill register --name "pointcloud-detection" --script scripts/detect_3d.py
openclaw skill register --name "stl-generator" --script scripts/stl_generator.py

4.3 性能指标

指标 单张照片管线 多视角重建管线
视觉识别耗时 <1秒 (YOLOv8n) 10-30秒 (SuperPoint+SAM)
重建耗时 N/A 30-60秒 (6视角, 1080p)
点云检测耗时 N/A 2-5秒 (T4 GPU)
建模耗时 <1秒 (参数化) 5-10秒 (网格化)
总端到端耗时 <3秒 40-90秒
点云精度 N/A ±0.1mm (标定后)
单日处理量 500+件 100+件

五、核心技术深度解析

5.1 多视角重建:从照片到点云

graph LR
    subgraph SFM["SfM 稀疏重建"]
        S1["照片1 ←匹配→ 照片2"] --> S2["计算本质矩阵E<br/>分解R,t"]
        S2 --> S3["三角化匹配点<br/>→ 初始3D点"]
        S3 --> S4["添加照片3<br/>PnP求解位姿"]
        S4 --> S5["Bundle Adjustment<br/>全局优化"]
        S5 --> S6["稀疏点云<br/>+ 所有相机位姿"]
    end

    subgraph MVS["MVS 稠密重建"]
        M1["已知相机位姿"] --> M2["PatchMatch<br/>深度图估计"]
        M2 --> M3["多视角融合<br/>深度图合并"]
        M3 --> M4["稠密点云<br/>50万+点"]
    end

    S6 --> M1

    style SFM fill:#f0f9ff,stroke:#3498db
    style MVS fill:#fff9f0,stroke:#e67e22

5.2 PointNet++:点云的"CNN"

graph TB
    A["原始点云 N×3<br/>无序点集"] --> B["FPS采样<br/>Farthest Point Sampling<br/>选出N'个中心点"]
    B --> C["Ball Query<br/>球查询邻域<br/>每个中心点的邻域"]
    C --> D["mini-PointNet<br/>提取局部特征"]
    D --> E["输出 N'×d 特征矩阵"]

    E --> F["Set Abstraction Layer 2<br/>感受野扩大"]
    F --> G["Set Abstraction Layer 3<br/>全局特征"]

    G --> H["Feature Propagation<br/>上采样回N个点"]
    H --> I["逐点特征向量<br/>128维"]

    style A fill:#e8f4fd,stroke:#2980b9
    style I fill:#f0fff4,stroke:#27ae60

传统CNN需要规则网格(图像像素、体素),但点云是无序的。PointNet++ 的创新:直接吃点,不吃网格。层级堆叠,感受野逐步扩大,从"点"到"局部"到"区域"到"全局"。

5.3 VoxelNet:把点云变成3D积木

graph LR
    A[点云] --> B[体素化<br/>每个体素最多T个点]
    B --> C[VFE<br/>体素特征编码]
    C --> D["3D Sparse Conv<br/>稀疏3D卷积"]
    D --> E["2D Backbone<br/>压缩高度→鸟瞰图"]
    E --> F["RPN<br/>区域提议网络"]
    F --> G[NMS]
    G --> H["3D BBox<br/>+ 类别<br/>+ 置信度"]

    style A fill:#e8f4fd,stroke:#2980b9
    style H fill:#f0fff4,stroke:#27ae60

5.4 YOLOv8 + SAM:快速精准的视觉识别


六、效果展示

6.1 已生成模型清单

类别 示例 管线 建模策略 生成时间
🍊 水果 橙子 单张+参数化 椭球 <1秒
🪑 家具 椅子 单张+参数化 轮廓旋转体 <2秒
🐔 动物 小鸡 单张+参数化 椭球+特征附加 <1秒
🐷 动物 小猪 单张+参数化 椭球+特征附加 <1秒
🧑 人像 全身照手办 单张+人体参数化 人体参数化 <3秒
⚙️ 零件 测试件 多视角+重建 点云网格化 <60秒

6.2 运行日志

gantt
    title OpenClaw 单次任务执行日志
    dateFormat HH:mm
    axisFormat %H:%M

    section 接收
    用户上传照片           :done, 00:00, 1s
    OpenClaw解析输入       :done, after prev, 1s

    section 视觉识别
    YOLOv8检测            :done, after prev, 1s
    SAM分割               :done, after prev, 2s
    几何参数提取           :done, after prev, 1s

    section 3D建模
    参数化建模             :done, after prev, 1s
    STL导出               :done, after prev, 1s
    截图渲染               :done, after prev, 2s

    section 用户交互
    展示截图+等待确认      :done, after prev, 30s
    收到修改意见           :done, after prev, 1s
    重新建模               :done, after prev, 2s

    section 输出
    最终STL导出            :done, after prev, 1s
    上传云存储             :done, after prev, 3s
    推送下载链接           :done, after prev, 1s

6.3 生成报告模板

每次生成完成后,系统自动输出:

graph LR
    subgraph REPORT["📄 3D造物报告"]
        R1["📦 模型信息<br/>类别/尺寸/体积"]
        R2["✅ 可打印性检查<br/>水密性/壁厚/支撑"]
        R3["⚙️ 打印建议<br/>层高/填充率/材料"]
        R4["📸 多角度截图<br/>正面/侧面/俯视"]
        R5["🔗 下载链接<br/>STL文件"]
    end

    style REPORT fill:#f9f9f9,stroke:#333

七、项目价值与创新点

7.1 技术创新

创新点 说明
多层级视觉引擎 YOLOv8+SAM+SuperPoint+PointNet++/VoxelNet,从2D到3D全覆盖
多视角→点云→网格→STL 深度3D重建管线,精度可达±0.1mm
参数化+重建双轨建模 快速场景用参数化,精度场景用重建,自动切换
多模态输入融合 照片+文字+语音,怎么方便怎么来
多轮精修对话 不是一锤子买卖,AI和用户一起打磨模型
OpenClaw多链编排 6个引擎协同工作,自动选择最优管线

7.2 落地价值

  • 3D打印门槛降到零:不需要学任何建模软件
  • 建模师成本省掉:一个小模型几百块,明虾几秒钟搞定
  • 快速原型验证:工程师的零件想法 → 10分钟拿到实物
  • 个性化手办:拍个照就能拿到等比例缩放的手办
  • 工业质检加持:点云检测能力可直接用于工业场景
  • 教育/科普:让小朋友理解从想法到实物的全过程

7.3 目标用户

├── 3D打印爱好者(最大群体)——省掉建模步骤
├── 家长/孩子——做个性化玩具、学习工具
├── 工程师/创客——快速原型验证
├── 电商卖家——商品3D展示模型
├── 设计师——快速出草模
├── 工厂质检——零件缺陷检测(复用点云检测能力)
└── 任何人——只要你有照片或想法

7.4 可扩展方向

graph TB
    A["当前:照片/描述 → STL<br/>参数化 + 重建双轨建模"] --> B["NeRF/Gaussian Splatting<br/>更精细重建"]
    A --> C["彩色3MF输出<br/>带纹理的手办"]
    A --> D["关节手办<br/>可动结构"]
    A --> E["STL数据库API<br/>海量现成模型匹配"]
    A --> F["深度相机集成<br/>获取真实3D数据"]
    A --> G["社区功能<br/>用户分享生成模型"]

    style A fill:#fef3f2,stroke:#e74c3c
    style B fill:#f0f9ff,stroke:#3498db
    style C fill:#fff9f0,stroke:#e67e22
    style D fill:#f9f0ff,stroke:#8e44ad
    style E fill:#f0fff4,stroke:#27ae60
    style F fill:#fdf2f0,stroke:#e74c3c
    style G fill:#fdf5e6,stroke:#f39c12

八、结语

3D打印的"最后一公里"问题不是打印机,是建模。

明虾3D造物机用深度3D视觉技术做底层引擎,用OpenClaw做智能编排中枢,把"拍照/描述"直接变成"可打印的STL文件"。

多视角重建、点云深度学习、参数化建模——这些技术单独看都很"硬核",但通过OpenClaw的编排,它们变成了一个人人可用的简单工具。用户不需要知道什么是PointNet++,不需要理解SfM原理,只需要拍照、说话、确认——剩下的,虾来做。

从"我想要一个东西"到"我手里拿着它",中间只隔了一只虾。

一只虾的使命是被人吃掉。一只AI虾的使命是——让每个人都能把想法变成实物。🦞🖨️


附录

A. 技术栈清单

类别 技术
目标检测 YOLOv8n (Ultralytics)
图像分割 SAM (Segment Anything Model)
特征提取 SuperPoint
特征匹配 SuperGlue (图神经网络)
3D重建 COLMAP (SfM + MVS)
点云处理 Open3D, PCL
点云检测 PointNet++, VoxelNet, OpenPCDet
3D建模 参数化椭球 + trimesh
多视角融合 Open3D + 自研融合算法
深度学习 PyTorch 1.13+, CUDA 11.x
编排框架 OpenClaw
大模型 Qwen-VL-Max(视觉理解)
云服务 阿里云轻量服务器 + GPU ECS
文件分发 OSS + 自建下载链接
消息推送 QQ Bot / 钉钉Webhook

B. 参考文献

  1. Jocher et al., "YOLOv8 by Ultralytics", 2023
  2. Kirillov et al., "Segment Anything", ICCV 2023
  3. DeTone et al., "SuperPoint: Self-Supervised Interest Point Detection and Description", CVPR 2018
  4. Sarlin et al., "SuperGlue: Learning Feature Matching with Graph Neural Networks", CVPR 2020
  5. Schönberger & Frahm, "Structure-from-Motion Revisited", CVPR 2016
  6. Qi et al., "PointNet++: Deep Hierarchical Feature Learning on Point Sets", NeurIPS 2017
  7. Zhou & Tuzel, "VoxelNet: End-to-End Learning for Point Cloud Based 3D Object Detection", CVPR 2018
目录
相关文章
|
16天前
|
人工智能 数据可视化 安全
王炸组合!阿里云 OpenClaw X 飞书 CLI,开启 Agent 基建狂潮!(附带免费使用6个月服务器)
本文详解如何用阿里云Lighthouse一键部署OpenClaw,结合飞书CLI等工具,让AI真正“动手”——自动群发、生成科研日报、整理知识库。核心理念:未来软件应为AI而生,CLI即AI的“手脚”,实现高效、安全、可控的智能自动化。
34814 42
王炸组合!阿里云 OpenClaw X 飞书 CLI,开启 Agent 基建狂潮!(附带免费使用6个月服务器)
|
10天前
|
人工智能 自然语言处理 安全
Claude Code 全攻略:命令大全 + 实战工作流(建议收藏)
本文介绍了Claude Code终端AI助手的使用指南,主要内容包括:1)常用命令如版本查看、项目启动和更新;2)三种工作模式切换及界面说明;3)核心功能指令速查表,包含初始化、压缩对话、清除历史等操作;4)详细解析了/init、/help、/clear、/compact、/memory等关键命令的使用场景和语法。文章通过丰富的界面截图和场景示例,帮助开发者快速掌握如何通过命令行和交互界面高效使用Claude Code进行项目开发,特别强调了CLAUDE.md文件作为项目知识库的核心作用。
10472 34
Claude Code 全攻略:命令大全 + 实战工作流(建议收藏)
|
5天前
|
人工智能 JavaScript Ubuntu
低成本搭建AIP自动化写作系统:Hermes保姆级使用教程,长文和逐步实操贴图
我带着怀疑的态度,深度使用了几天,聚焦微信公众号AIP自动化写作场景,写出来的几篇文章,几乎没有什么修改,至少合乎我本人的意愿,而且排版风格,也越来越完善,同样是起码过得了我自己这一关。 这个其实OpenClaw早可以实现了,但是目前我觉得最大的区别是,Hermes会自主总结提炼,并更新你的写作技能。 相信就冲这一点,就值得一试。 这篇帖子主要就Hermes部署使用,作一个非常详细的介绍,几乎一步一贴图。 关于Hermes,无论你赞成哪种声音,我希望都是你自己动手行动过,发自内心的选择!
2161 22
|
28天前
|
人工智能 JSON 机器人
让龙虾成为你的“公众号分身” | 阿里云服务器玩Openclaw
本文带你零成本玩转OpenClaw:学生认证白嫖6个月阿里云服务器,手把手配置飞书机器人、接入免费/高性价比AI模型(NVIDIA/通义),并打造微信公众号“全自动分身”——实时抓热榜、AI选题拆解、一键发布草稿,5分钟完成热点→文章全流程!
45701 155
让龙虾成为你的“公众号分身” | 阿里云服务器玩Openclaw
|
10天前
|
机器学习/深度学习 存储 人工智能
还在手写Skill?hermes-agent 让 Agent 自己进化能力
Hermes-agent 是 GitHub 23k+ Star 的开源项目,突破传统 Agent 依赖人工编写Aegnt Skill 的瓶颈,首创“自我进化”机制:通过失败→反思→自动生成技能→持续优化的闭环,让 Agent 在实践中自主构建、更新技能库,持续自我改进。
1697 5
|
4天前
|
人工智能 弹性计算 安全
Hermes Agent是什么?怎么部署?超详细实操教程
Hermes Agent 是 Nous Research 于2026年2月开源的自进化AI智能体,支持跨会话持久记忆、自动提炼可复用技能、多平台接入与200+模型切换,真正实现“越用越懂你”。MIT协议,部署灵活,隐私可控。
1344 2

热门文章

最新文章

下一篇
开通oss服务