短短时间,疯狂斩获1.9k star,开源AI神器AingDesk:一键部署上百模型,本地运行还能联网搜索!

简介: AingDesk 是一款开源的本地 AI 模型管理工具,已获 1.9k Star。它支持一键部署上百款大模型(如 DeepSeek、Llama),适配 CPU/GPU,可本地运行并联网搜索。五大核心功能包括零门槛模型部署、实时联网搜证、私人知识库搭建、跨平台共享和智能体工厂,满足学术、办公及团队协作需求。相比 Ollama 和 Cherry Studio,AingDesk 更简单易用,适合技术小白、团队管理者和隐私敏感者。项目地址:https://github.com/aingdesk/AingDesk。

嗨,大家好,我是小华同学,关注我们获得“最新、最全、最优质”开源项目和高效工作学习方法 image.png

「AingDesk」是什么?

这是一款开箱即用的本地AI模型管理工具,只需点击鼠标,就能将DeepSeek、Llama、Gemma等上百款AI大模型部署到你的电脑上。无论是学术研究、办公自动化,还是团队协作,它都能让AI能力像安装普通软件一样简单。

为什么你需要AingDesk?

想象一下:无需云端账号、不依赖网络延迟,直接在本地电脑运行AI模型,还能实时联网搜索最新资讯——这就是AingDesk带来的革命性体验。它的出现彻底解决了传统AI部署中「环境配置复杂」「模型管理混乱」「隐私泄露风险」三大痛点,尤其适合以下人群:

  • 技术小白:完全告别命令行,安装模型比下载游戏还简单
  • 团队管理者:一键分享模型链接,成员无需重复配置
  • 隐私敏感者:所有数据处理均在本地完成,彻底杜绝数据外泄

五大核心功能揭秘

零门槛模型部署

从DeepSeek到Llama,上百款模型任君挑选。系统会根据你的电脑配置(CPU/GPU/内存)自动推荐适配版本,7B到32B不同参数模型随心切换,安装过程全程可视化进度条展示。

实时联网搜证

独家集成百度/搜狗/360三大搜索引擎,让AI回答不再局限于「知识截止日期」。勾选「联网搜索」后提问「2025年最新AI政策」,立即获取带实时数据源的深度解析。

私人知识库搭建

支持PDF/TXT/Markdown等格式文档一键导入,通过语义标签自动分类。上传公司产品手册后,AI能精准定位「第32页的售后服务条款」,检索速度比人工快200倍。

跨平台共享黑科技

在办公室电脑部署32B大模型后,生成专属分享链接发送给团队成员。对方即使使用手机4G网络,也能流畅调用你本地的AI算力,彻底打破硬件限制。

智能体工厂

内置商务写作、多语种翻译等20+模板,更支持自定义工作流。例如创建「新媒体运营助手」,自动完成「热点抓取→标题生成→违规词检测」全流程,工作效率提升90%。

技术架构解析

技术模块 实现方案 用户感知价值
模型管理引擎 基于Ollama二次开发 自动处理依赖环境与版本冲突
知识库系统 BGE-M3向量模型+语义检索算法 秒级检索百万级文档
多语言支持 国际化(i18n)框架 21种语言无缝切换
网络通信协议 WebSocket长连接 模型分享延迟低于0.5秒
安全体系 MIT开源协议+本地数据加密 企业级隐私保护

八大应用场景实测

场景1:论文写作加速器

上传200篇PDF文献后,输入「帮我对比CNN和Transformer在图像识别中的优缺点」,AI自动提取各文献核心观点并生成对比表格。

场景2:企业知识中枢

某科技公司将产品文档、售后案例导入知识库后,客服人员提问「X型号设备报错E1024解决方案」,3秒内定位到最新版维修手册第15章。

场景3:跨部门协作样板

市场部部署的「营销文案生成器」,通过分享链接被技术部直接调用,避免重复部署节省50%服务器资源。

五、与同类工具对比

功能维度 AingDesk Ollama Cherry Studio
部署难度 ⭐⭐⭐⭐⭐(一键安装) ⭐⭐(需命令行) ⭐⭐⭐(云端依赖)
模型数量 100+ 80+ 30+
联网搜索 支持三大引擎 不支持 仅支持Google
知识库管理 本地语义检索 基础关键词匹配
硬件要求 自动适配配置 手动调整参数 固定云服务器规格

三步极速上手教程

普通方式

  1. 安装客户端
    访问官网下载对应系统安装包,全程点击「下一步」直至完成(约2分钟)。
  2. 部署首个模型
    打开软件→选择「DeepSeek-7B」→点击「安装」→泡杯咖啡等待自动完成(网速决定时长)。
  3. 开启智能问答
    在聊天框输入「用李白风格写首关于AI的诗」,勾选「百度搜索」获取最新文学研究数据辅助创作。

Docker方式

Docker Compose 复制下方命令,使用 Docker Compose 部署镜像

mkdir -p aingdesk
cd aingdesk
wget https://cnb.cool/aingdesk/AingDesk/-/git/raw/server/docker-compose.yml
# 新版 Docker 请运行以下命令
docker compose up -d
# 旧版 Docker 请运行以下命令
docker-compose up -d

Docker Run 复制下方命令,映射指定端口部署镜像。

docker run -d \
 --name node \
 -v $(pwd)/data:/data \
 -v $(pwd)/uploads:/uploads \
 -v $(pwd)/logs:/logs \
 -v $(pwd)/bin:/aingdesk/bin \
 -v $(pwd)/sys_data:/sys_data \
 -p 7071:7071 \
 -w /aingdesk \
 aingdesk/aingdesk

国内用户可使用腾讯云原生构建镜像进行部署。

docker run -d \
 --name node \
 -v $(pwd)/data:/data \
 -v $(pwd)/uploads:/uploads \
 -v $(pwd)/logs:/logs \
 -v $(pwd)/bin:/aingdesk/bin \
 -v $(pwd)/sys_data:/sys_data \
 -p 7071:7071 \
 -w /aingdesk \
 docker.cnb.cool/aingdesk/aingdesk

同类项目推荐

  1. Ollama
    开源模型管理框架,适合开发者深度定制,但需要较强的技术背景。
  2. Cherry Studio
    主打云端AI协作,适合中小团队快速搭建,但存在数据隐私顾虑。
  3. AnyDesk
    虽然主要定位远程控制工具,但其文件传输和低延迟特性可辅助AI部署。

项目地址

https://github.com/aingdesk/AingDesk

相关文章
|
6月前
|
人工智能 物联网 调度
边缘大型AI模型:协作部署与物联网应用——论文阅读
论文《边缘大型AI模型:协作部署与物联网应用》系统探讨了将大模型(LAM)部署于边缘网络以赋能物联网的前沿框架。针对传统云端部署高延迟、隐私差的问题,提出“边缘LAM”新范式,通过联邦微调、专家混合与思维链推理等技术,实现低延迟、高隐私的分布式智能。
1097 6
边缘大型AI模型:协作部署与物联网应用——论文阅读
|
6月前
|
人工智能 测试技术 API
构建AI智能体:二、DeepSeek的Ollama部署FastAPI封装调用
本文介绍如何通过Ollama本地部署DeepSeek大模型,结合FastAPI实现API接口调用。涵盖Ollama安装、路径迁移、模型下载运行及REST API封装全过程,助力快速构建可扩展的AI应用服务。
2027 7
|
6月前
|
机器学习/深度学习 人工智能 监控
Java与AI模型部署:构建企业级模型服务与生命周期管理平台
随着企业AI模型数量的快速增长,模型部署与生命周期管理成为确保AI应用稳定运行的关键。本文深入探讨如何使用Java生态构建一个企业级的模型服务平台,实现模型的版本控制、A/B测试、灰度发布、监控与回滚。通过集成Spring Boot、Kubernetes、MLflow和监控工具,我们将展示如何构建一个高可用、可扩展的模型服务架构,为大规模AI应用提供坚实的运维基础。
498 0
|
机器学习/深度学习 人工智能 算法
如果能在1分钟内训练出个AI模型,你想要什么?
随着人工智能的技术不断成熟,AI逐渐在各行业内落地,比如:在常见的安防监控领域,我们可以通过人脸识别去抓捕逃犯;在教育领域,我们可以使用OCR识别做拍题识别;在新零售领域,我们通过物体识别判断货品位置和数量;甚至在养猪场,我们都能用AI技术检测养猪的位置及数量。
2024 0
如果能在1分钟内训练出个AI模型,你想要什么?
|
6月前
|
消息中间件 人工智能 安全
云原生进化论:加速构建 AI 应用
本文将和大家分享过去一年在支持企业构建 AI 应用过程的一些实践和思考。
1608 65
|
7月前
|
人工智能 安全 中间件
阿里云 AI 中间件重磅发布,打通 AI 应用落地“最后一公里”
9 月 26 日,2025 云栖大会 AI 中间件:AI 时代的中间件技术演进与创新实践论坛上,阿里云智能集团资深技术专家林清山发表主题演讲《未来已来:下一代 AI 中间件重磅发布,解锁 AI 应用架构新范式》,重磅发布阿里云 AI 中间件,提供面向分布式多 Agent 架构的基座,包括:AgentScope-Java(兼容 Spring AI Alibaba 生态),AI MQ(基于Apache RocketMQ 的 AI 能力升级),AI 网关 Higress,AI 注册与配置中心 Nacos,以及覆盖模型与算力的 AI 可观测体系。
1439 75
|
6月前
|
人工智能 运维 Kubernetes
Serverless 应用引擎 SAE:为传统应用托底,为 AI 创新加速
在容器技术持续演进与 AI 全面爆发的当下,企业既要稳健托管传统业务,又要高效落地 AI 创新,如何在复杂的基础设施与频繁的版本变化中保持敏捷、稳定与低成本,成了所有技术团队的共同挑战。阿里云 Serverless 应用引擎(SAE)正是为应对这一时代挑战而生的破局者,SAE 以“免运维、强稳定、极致降本”为核心,通过一站式的应用级托管能力,同时支撑传统应用与 AI 应用,让企业把更多精力投入到业务创新。
698 30
|
6月前
|
设计模式 人工智能 自然语言处理
3个月圈粉百万,这个AI应用在海外火了
不知道大家还记不记得,我之前推荐过一个叫 Agnes 的 AI 应用,也是当时在 WAIC 了解到的。
715 2
|
6月前
|
存储 人工智能 NoSQL
AI大模型应用实践 八:如何通过RAG数据库实现大模型的私有化定制与优化
RAG技术通过融合外部知识库与大模型,实现知识动态更新与私有化定制,解决大模型知识固化、幻觉及数据安全难题。本文详解RAG原理、数据库选型(向量库、图库、知识图谱、混合架构)及应用场景,助力企业高效构建安全、可解释的智能系统。
下一篇
开通oss服务