快速部署 MaxKB 社区版

简介: MaxKB = Max Knowledge Base,是一款基于 LLM 大语言模型的开源知识库问答系统,旨在成为企业的最强大脑。本文介绍如何使用计算巢快速部署 MaxKB 社区版。

概述

maxkb_d.jpg
MaxKB = Max Knowledge Base,是一款基于 LLM 大语言模型的开源知识库问答系统,旨在成为企业的最强大脑。详情请查看MaxKB官网

  • 开箱即用:支持直接上传文档、自动爬取在线文档,支持文本自动拆分、向量化、RAG(检索增强生成),智能问答交互体验好;
  • 模型中立:支持对接各种大语言模型,包括本地私有大模型(Llama 3 / Qwen 2 等)、国内公共大模型(通义千问 / 智谱 AI / 百度千帆 / Kimi / DeepSeek 等)和国外公共大模型(OpenAI / Azure OpenAI / Gemini 等);
  • 灵活编排:内置强大的工作流引擎,支持编排 AI 工作过程,满足复杂业务场景下的需求;
  • 无缝嵌入:支持零编码快速嵌入到第三方业务系统,让已有系统快速拥有智能问答能力,提高用户满意度。

计费说明

MaxKB 社区版上的费用主要涉及:

  • 所选vCPU与内存规格
  • 系统盘类型及容量
  • 公网带宽

RAM账号所需权限

部署MaxKB 社区版,需要对部分阿里云资源进行访问和创建操作。因此您的账号需要包含如下资源的权限。
说明:当您的账号是RAM账号时,才需要添加此权限。

权限策略名称 备注
AliyunECSFullAccess 管理云服务器服务(ECS)的权限
AliyunVPCFullAccess 管理专有网络(VPC)的权限
AliyunROSFullAccess 管理资源编排服务(ROS)的权限
AliyunComputeNestUserFullAccess 管理计算巢服务(ComputeNest)的用户侧权限

部署流程

  1. 访问MaxKB 社区版服务官网正式创建,按提示填写部署参数:
    1.jpg

  2. 参数填写完成后可以看到对应询价明细,确认参数后点击下一步:确认订单。确认订单完成后同意服务协议并点击立即创建进入部署阶段。

  3. 等待部署完成后进入服务实例管理, 在控制台找到MaxKB服务访问链接。
    2.jpg

  4. 单击链接访问服务。
    3.jpg

更多服务

计算巢还提供了众多优质服务,请移步计算巢官网查看。

相关实践学习
2048小游戏
基于计算巢&ECS云服务器快速部署,带您畅玩2048小游戏。
相关文章
|
11月前
|
弹性计算 网络安全
快速部署 RAGFlow 社区版
RAGFlow是一个基于深度文档理解的开源RAG(检索增强生成)引擎。当与LLM集成时,它能够提供真实的问答功能,并得到各种复杂格式数据的充分引用的支持。本文介绍如何通过计算巢快速部署 RAGFlow社区版。
快速部署 RAGFlow 社区版
|
4月前
|
数据采集 数据可视化 机器人
FastGPT 社区版快速部署指南
FastGPT 是一款基于大语言模型的智能知识库系统,具备开箱即用、可视化编排和多场景适配(客服机器人、知识检索等)的核心能力。通过阿里云计算巢,用户可在 2-3 分钟内完成快速部署,实现复杂问答逻辑设计与高效数据处理。
|
9月前
|
人工智能 数据安全/隐私保护 虚拟化
Docker部署MaxKB详细步骤(window系统)
这篇文章详细介绍了如何在Windows系统上使用Docker部署MaxKB,并提供了从安装Docker到运行MaxKB容器的详细步骤,以及如何通过浏览器访问和配置MaxKB来使用ollama和llama3模型进行问答。
2509 1
Docker部署MaxKB详细步骤(window系统)
|
9月前
|
弹性计算 Ubuntu Linux
快速部署 Docker 社区版
Docker Community Edition (CE) 是Docker项目的免费版本,面向广大开发者、爱好者以及希望利用容器技术的个人和组织。它是Docker企业版(Docker Enterprise Edition, EE)的社区驱动对应版,提供了强大的容器化应用构建、部署和运行能力。本文解释如何通过计算巢快速部署Docker社区版。
快速部署 Docker 社区版
|
10月前
|
人工智能
快速部署 Xinference 社区版
Xorbits Inference (Xinference) 是一个开源平台,用于简化各种 AI 模型的运行和集成。借助 Xinference,您可以使用任何开源 LLM、嵌入模型和多模态模型在云端或本地环境中运行推理,并创建强大的 AI 应用。本文介绍如何使用计算巢快速部署Xinference服务。
快速部署 Xinference 社区版
|
10月前
|
人工智能 JSON 数据格式
RAG+Agent人工智能平台:RAGflow实现GraphRA知识库问答,打造极致多模态问答与AI编排流体验
【9月更文挑战第6天】RAG+Agent人工智能平台:RAGflow实现GraphRA知识库问答,打造极致多模态问答与AI编排流体验
2720 9
RAG+Agent人工智能平台:RAGflow实现GraphRA知识库问答,打造极致多模态问答与AI编排流体验
|
9月前
|
人工智能 API 弹性计算
在阿里云快速启动LibreChat轻松玩转AI对话
本文介绍了LibreChat的基本信息,并通过阿里云计算巢完成了LibreChat的快速部署,使用者不需要自己下载代码,不需要自己安装复杂的依赖,不需要了解底层技术,只需要在控制台图形界面点击几下鼠标就可以快速部署并启动LibreChat,非技术同学也能轻松搞定。
|
9月前
|
搜索推荐
对MaxKB进行个性化设置
这篇文章讲解了如何对MaxKB进行个性化设置,包括修改图标的步骤,以帮助用户定制更加符合个人或企业品牌形象的知识库界面。
831 0
对MaxKB进行个性化设置
|
9月前
|
搜索推荐 数据库
MaxKB创建本地知识库
这篇文章详细介绍了如何使用MaxKB创建本地知识库,并通过上传文档来构建个性化的问答系统,使得大模型可以根据上传的知识内容来回答问题。
542 0
MaxKB创建本地知识库
|
人工智能 Linux Docker
一文详解几种常见本地大模型个人知识库工具部署、微调及对比选型(1)
近年来,大模型在AI领域崭露头角,成为技术创新的重要驱动力。从AlphaGo的胜利到GPT系列的推出,大模型展现出了强大的语言生成、理解和多任务处理能力,预示着智能化转型的新阶段。然而,要将大模型的潜力转化为实际生产力,需要克服理论到实践的鸿沟,实现从实验室到现实世界的落地应用。阿里云去年在云栖大会上发布了一系列基于通义大模型的创新应用,标志着大模型技术开始走向大规模商业化和产业化。这些应用展示了大模型在交通、电力、金融、政务、教育等多个行业的广阔应用前景,并揭示了构建具有行业特色的“行业大模型”这一趋势,大模型知识库概念随之诞生。
152326 30