大语言模型 LLM 管理功能特点解析

简介: 大语言模型领域正快速发展,涵盖技术革新、跨领域应用及行业影响。随着技术进步,更多创新性AI应用和服务涌现。Botnow加速迭代AI应用开发平台,赋能各行各业。新发布的模型管理功能包括模型仓库和模型服务,支持模型文件托管、部署及推理服务,提升使用效率,降低成本。模型服务具备本地推理和接入外部模型的能力,满足中大型企业对大语言模型自主可控的需求。

大语言模型领域正处于快速发展阶段,涉及技术革新、跨领域应用以及行业影响等多个方面。随着技术的进步,我们预计会看到更多创新性的AI应用和服务涌现出来。为此,Botnow 正在加速迭代 AI 应用开发平台,赋能千行百业的 AI 应用落地。


近日,Botnow 正式发布模型管理功能,包含模型仓库和模型服务两部分:


模型仓库


模型仓库支持模型文件托管,用户可以通过上传本地模型文件,也可以从魔搭(ModelScope)或HuggingFace上拉群模型文件并保存在模型仓库,模型仓库帮助用户免去了频繁下载远程模型文件,节省了运维和资源成本,提升了用户使用大语言模型的效率,同时方便用户将大语言模型部署并发布模型推理服务,供业务中使用。


下面让我们详细了解一下模型仓库的功能特点:

新增模型

左侧菜单选择“模型管理” -> “模型仓库”,点击“创建模型”,即可进行新增模型操作。平台支持模型来源包括:魔搭社区、Hugging Face、本地模型



新建完成后,点击”确定“,即可保存模型信息。

  • 魔搭社区:需要录入模型文件的地址以及对应的分支。当创建完成时,平台会自动根据填写的模型地址、分支自动获取模型文件。
  • Hugging Face:需要录入模型文件的地址、对应的分支,以及 Token(非必填)。当创建完成时,平台会自动根据填写的模型地址、分支自动获取模型文件。
  • 本地模型:需要上传本地文件。当创建完成时,需要您手动上传本地模型文件。


模型详情


用户可在模型详情页面查看模型介绍以及模型文件:




其他功能


  • 模型部署。在模型列表以及详情页面中,支持本地模型快捷部署操作,点击“部署”按钮,即可跳转至 “模型服务 / 新增模型服务” 页面。
  • 编辑模型。支持编辑模型基本信息与接入信息。
  • 模型文件管理。如果是模型来源是本地模型,在详情页面中,支持对模型文件进行管理操作,包含:上传文件、删除文件。
  • 删除模型仓库


模型服务


模型服务具备本地模型推理和接入外部模型的能力。本地模型推理服务旨在为用户提供开箱即用的模型推理加速引擎,它大幅降低大型模型的部署成本,本地模型推理服务具备简单易用、易于扩展、性能优化等特点,并支持Llama系列模型、Qwen、Embedding、Reranking模型等。外部模型服务支持无缝接入第三方模型服务API,支持Qwen、Moonshot、OpenAI、Gemini、Zhipu、DeepSeek等第三方模型服务。


新增模型服务

进入模型服务页面,点击 “新增模型服务” 按钮,进入新增模型服务页面。新增模型服务时 ,需要填写服务基本信息,以及选择模型来源,来源包括:本地模型、外部模型。


本地模型推理服务部署

部署本地模型服务时,需要配置的内容如下:


  • 选择要部署的模型文件
  • 配置服务规格:配置服务规格时,支持选择指定的节点。



  • 高级配置:模型推理服务支持 vLLM 推理加速和分布式多 GPU 调度能力



接入外部模型服务


部署本地模型服务时,需要配置的内容如下:

  • 输入模型服务名称,例如 “OpenAI”。
  • 输入模型服务别名,例如 “OpenAI GPT-4o 模型服务”。
  • 模型来源选择 “外部模型”
  • 填写描述,例如 “OpenAI GPT-4o 模型服务”。
  • 选择模型服务供应商



  • 填写对应的 Token
  • 完成填写后,点击【确定】按钮,即可完成创建操作。


模型服务详情


点击模型服务卡片,可进入模型服务详情页面,查看模型服务详情。


  • 外部模型服务



  • 本地模型服务


其他功能

  • 上线 / 下线(仅本地模型服务支持)。本地模型服务部署成功后,支持上线 / 下线操作。下线之后,将停止提供服务
  • 编辑模型服务。本地模型服务支持编辑模型以及服务规格;外部模型服务支持编辑基本信息以及外部服务配置。
  • 删除模型服务


应用场景


中大型企业大多要求对大语言模型自主可控,主要体现在两方面的使用场景:


  • 接入第三方大模型服务的API,这类场景一般是数据不敏感的业务,且对模型回答的质量有较高的要求,是一般开源大模型或微调大模型无法达到的效果。
  • 本地部署开源模型或经微调后的模型,这类场景企业基本可以实现端到端的管理大模型,从模型文件的管理 -> 模型部署推理 -> 接入智能体 Bot -> AI 加持的业务上线运营 -> 产生效益。这是企业落地大模型较理想的形态,兼具了成本和自主可控的特点。


Botnow 模型管理能力的推出,加上 Botnow 已具备的强大的智能体编排能力,能较好得满足上述企业用户的需求和使用场景。

相关文章
|
1月前
|
监控
新功能上线:云解析DNS-重点域名监控功能发布
新功能上线:云解析DNS-重点域名监控功能发布
|
1月前
|
存储 监控 安全
132_API部署:FastAPI与现代安全架构深度解析与LLM服务化最佳实践
在大语言模型(LLM)部署的最后一公里,API接口的设计与安全性直接决定了模型服务的可用性、稳定性与用户信任度。随着2025年LLM应用的爆炸式增长,如何构建高性能、高安全性的REST API成为开发者面临的核心挑战。FastAPI作为Python生态中最受青睐的Web框架之一,凭借其卓越的性能、强大的类型安全支持和完善的文档生成能力,已成为LLM服务化部署的首选方案。
|
1月前
|
机器学习/深度学习 缓存 PyTorch
131_推理加速:ONNX与TensorRT深度技术解析与LLM模型转换优化实践
在大语言模型(LLM)时代,高效的推理加速已成为部署高性能AI应用的关键挑战。随着模型规模的不断扩大(从BERT的数亿参数到GPT-4的数千亿参数),推理过程的计算成本和延迟问题日益突出。ONNX(开放神经网络交换格式)和TensorRT作为业界领先的推理优化框架,为LLM的高效部署提供了强大的技术支持。本文将深入探讨LLM推理加速的核心原理,详细讲解PyTorch模型转换为ONNX和TensorRT的完整流程,并结合2025年最新优化技术,提供可落地的代码实现与性能调优方案。
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
37_开源LLM:LLaMA与Mistral的突破_深度解析
在人工智能领域,2025年已经成为开源大语言模型的黄金时代。从Meta的LLaMA系列到欧洲初创公司Mistral AI的创新突破,开源LLM正在重塑整个AI生态系统的格局。截至2025年4月,Meta的LLaMA系列已成为全球下载量最高、社区使用最活跃的开源大语言模型之一,并被集成于数百个学术项目、创业平台和AI产品之中
|
1月前
|
存储 机器学习/深度学习 人工智能
46_LLM幻觉问题:来源与早期研究_深度解析
大型语言模型(LLM)在自然语言处理领域展现出了令人惊叹的能力,能够生成连贯的文本、回答复杂问题、进行创意写作,甚至在某些专业领域提供见解。然而,这些强大模型的一个根本性缺陷——幻觉问题,正成为限制其在关键应用中广泛部署的主要障碍。幻觉(Hallucination)指的是LLM生成的内容与事实不符、上下文矛盾、逻辑错误,或者完全虚构信息的现象。
|
3月前
|
数据可视化 物联网 开发者
深度解析四大LLM微调工具:从单卡到千亿级训练的四大解决方案
本文详解大语言模型微调四大工具——Unsloth、Axolotl、LlamaFactory、DeepSpeed,覆盖从单卡实验到万亿参数分布式训练场景,助你掌握主流框架选型策略,提升微调效率。建议点赞收藏。
1217 1
|
8月前
|
人工智能 监控 算法
销售易CRM:功能与优势全解析
销售易CRM是国内领先的客户关系管理(CRM)系统,提供强大的销售管理、全方位客户管理、丰富的营销自动化工具、智能AI赋能及灵活的开放性平台。其功能涵盖线索获取、商机管理、客户画像、营销活动策划、智能预测等,支持企业高效管理客户、优化业务流程、提升销售效率和客户满意度。通过灵活的二次开发和API接口,销售易CRM可无缝集成企业现有系统,助力企业在数字化转型中实现业绩高质量增长。
|
8月前
|
弹性计算 运维 安全
优化管理与服务:操作系统控制平台的订阅功能解析
本文介绍了如何通过操作系统控制平台提升系统效率,优化资源利用。首先,通过阿里云官方平台开通服务并安装SysOM组件,体验操作系统控制平台的功能。接着,详细讲解了订阅管理功能,包括创建订阅、查看和管理ECS实例的私有YUM仓库权限。订阅私有YUM仓库能够集中管理软件包版本、提升安全性,并提供灵活的配置选项。最后总结指出,使用阿里云的订阅和私有YUM仓库功能,可以提高系统可靠性和运维效率,确保业务顺畅运行。
|
5月前
|
人工智能 算法 PyTorch
MindIE-LLM ATB模型推理全流程解析
最近,有很多小伙伴问我,如果他们想自己基于MindIE镜像中的文件适配新模型,可以怎么做? 为了实现这个目标,首先需要了解MindIE-LLM模型在推理过程中的代码调用流程,然后根据新模型的算法进行适配。
202 1
|
7月前
|
存储 前端开发 JavaScript
调用DeepSeek API增强版纯前端实现方案,支持文件上传和内容解析功能
本方案基于DeepSeek API增强版,提供纯前端实现的文件上传与内容解析功能。通过HTML和JavaScript,用户可选择文件并调用API完成上传及解析操作。方案支持多种文件格式(如PDF、TXT、DOCX),具备简化架构、提高响应速度和增强安全性等优势。示例代码展示了文件上传、内容解析及结果展示的完整流程,适合快速构建高效Web应用。开发者可根据需求扩展功能,满足多样化场景要求。
2526 64

推荐镜像

更多
  • DNS
  • 下一篇
    oss云网关配置