魔搭llamafile集成:让大模型开箱即用

本文涉及的产品
模型训练 PAI-DLC,100CU*H 3个月
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
交互式建模 PAI-DSW,每月250计算时 3个月
简介: Llamafile是一个将大模型和其所需运行环境,全封装在一个可执行文件中的开源创新项目。为了方便广大开发者能以更低的门槛使用大模型,魔搭社区上提供了大量优秀模型的llamafile格式。

01.背景

Llamafile是一个将大模型和其所需运行环境,全封装在一个可执行文件中的开源创新项目。为了方便广大开发者能以更低的门槛使用大模型,魔搭社区上提供了大量优秀模型的llamafile格式。而现在,通过ModelScope命令行,就能在包括Linux/MacOS/Windows等不同操作系统上,直接上手使用社区上的这些优秀模型。

02.上手魔搭llamafile

当前只需要安装ModelScope库,不需要其他额外的配置,就可以不同的操作系统平台上,运行所有魔搭上提供的丰富的Llamafile模型。以Qwen2.5-3B-Instruct模型为例步骤如下:

  1. 确保安装了最新的ModelScope库,方便使用ModelScope的命令行
pip install modelscope -U
  1. 运行ModelScope命令行:
modelscope  llamafile --model Qwen-Llamafile/Qwen2.5-3B-Instruct-llamafile

在不同的操作系统上,运行的体验如下:

在Linux环境上:

在Mac笔记本上:

只需要有ModelScope命令行,以及与ModelScope站点的网络连接,无需其他任何本地机器上的安装配置,拉起和使用大模型,就是如此的简单。

03.模型选择

从上面的范例里,大家可以看到使用ModelScope命令行运行llamafile,只需按照如下格式

modelscope  llamafile --model {model-id}

其中model-id就是魔搭上的模型ID,格式为 {org}/{model},比如:

  • Qwen-Llamafile/Qwen2.5-3B-Instruct-llamafile
  • Qwen-Llamafile/QwQ-32B-Preview-llamafile
  • bartowski-llamafile/gemma-2-9b-it-llamafil

等等。

当前魔搭平台上提供了数百个Llamafile格式的大模型,基本涵盖了所有头部的开源大模型。您可以如同下图所示,在模型页面左侧的框架选项中,选中Lllamfile,即可以直接筛选出平台上的Llamafile格式的模型。

当然您也可以通过对应的链接(https://www.modelscope.cn/models?libraries=Llamafile) 直达Llamafile模型列表页。

可以看看用llamafiel运行QwQ-32B-Preview模型的效果:

04.运行选项

除了上述基本用法以外,使用ModelScope命令行拉起llamafile大模型时,还可以指定精度,或指定模型库里的llamafile文件等配置。例如如果要使用不同精度的llamafile文件,可以通过--accuracy参数来指定,例如Q2_K,Q5_0等等。同时也可以通过--file参数,来直接指定模型库里的llamafile文件名,比如如下两种调用方式,是等效的,都是选择模型库里,精度为“Q2_K”的模型。

modelscope  llamafile --model Qwen-Llamafile/Qwen2.5-3B-Instruct-llamafile --accuracy Q2_K

modelscope  llamafile --model Qwen-Llamafile/Qwen2.5-3B-Instruct-llamafile --file qwen2.5-3b-instruct-q2_k.llamafile

更多的命令行选项,可以参见通过命令行帮助modelscope llamafile --help,或者参考ModelScope命令行工具的具体文档:https://www.modelscope.cn/docs/sdk/cli

05.多种调用方式

llamafile底层基于llama.cpp搭建。所以其也天然支持了llama.cpp的调用生态,包括在运行的同时,可以通过默认的http://127.0.0.1:8080/ 地址访问其WebUI,或者通过OpenAI兼容的API来进行模型调用。

06.One More Thing

魔搭平台上,当前已经支持了业界最为丰富的llamafile生态,如果还有什么模型的llamafile格式是你需要的,也欢迎留言里举手,我们会第一时间补充。

点击链接阅读原文:命令行介绍

相关文章
|
8月前
|
分布式计算 测试技术 Spark
通过Langchain实现大模型完成测试用例生成的代码(可集成到各种测试平台)
通过Langchain实现大模型完成测试用例生成的代码(可集成到各种测试平台)
2027 0
|
4月前
|
人工智能 自然语言处理 机器人
谷歌将大模型集成在实体机器人中,能看、听、说执行57种任务
【9月更文挑战第17天】近年来,人工智能在多模态大模型领域取得显著进展。谷歌最新研发的Mobility VLA系统,将大模型与实体机器人结合,实现了视觉、语言和行动的融合,使机器人能理解并执行复杂多模态指令,如“我应该把这个放回哪里?”系统在真实环境测试中表现出色,但在计算资源、数据需求及伦理问题上仍面临挑战。相关论文发布于https://arxiv.org/abs/2407.07775。
82 9
|
5月前
|
前端开发 Linux API
无缝融入,即刻智能[一]:Dify-LLM大模型平台,零编码集成嵌入第三方系统,42K+星标见证专属智能方案
【8月更文挑战第3天】无缝融入,即刻智能[一]:Dify-LLM大模型平台,零编码集成嵌入第三方系统,42K+星标见证专属智能方案
无缝融入,即刻智能[一]:Dify-LLM大模型平台,零编码集成嵌入第三方系统,42K+星标见证专属智能方案
|
5月前
|
人工智能
LLama+Mistral+…+Yi=? 免训练异构大模型集成学习框架DeePEn来了
【8月更文挑战第6天】DeePEn是一种免训练异构大模型集成学习框架,旨在通过融合多个不同架构和参数的大模型输出概率分布,提升整体性能。它首先将各模型输出映射至统一概率空间,然后进行聚合,并最终反转回单一模型空间以生成输出。实验证明,在知识问答和推理任务上,DeePEn相比单一大模型如LLaMA和Mistral有显著提升,但其效果受模型质量和数量影响,并且计算成本较高。[论文: https://arxiv.org/abs/2404.12715]
48 1
|
8月前
|
弹性计算 前端开发 Java
通义千问API:让大模型写代码和跑代码
基于前面三章的铺垫,本章我们将展示大模型Agent的强大能力。我们不仅要实现让大模型同时使用多种查询工具,还要实现让大模型能查询天气情况,最后让大模型自己写代码来查询天气情况。
通义千问API:让大模型写代码和跑代码
|
7月前
|
存储 缓存 安全
LLM应用实战:当图谱问答(KBQA)集成大模型(三)
本文主要是针对KBQA方案基于LLM实现存在的问题进行优化,主要涉及到响应时间提升优化以及多轮对话效果优化,提供了具体的优化方案以及相应的prompt。
375 1
|
8月前
|
机器学习/深度学习 算法
大模型开发:描述集成学习以及它如何工作。
【4月更文挑战第24天】集成学习通过结合多个模型预测提升整体性能,减少偏差和方差。主要分为Bagging和Boosting两类。Bagging中,模型并行在数据子集上训练,如随机森林,通过投票或平均聚合预测。Boosting则顺序训练模型,聚焦纠正前一个模型的错误,如AdaBoost,加权组合所有模型预测。Stacking则是用基础模型的输出训练新模型。关键在于模型多样性以捕捉数据不同模式。集成学习广泛应用于分类、回归等任务,能提高泛化能力,降低过拟合风险。
66 3
|
人工智能 自然语言处理 测试技术
支持80+编程语言、集成VSCode,HuggingFace代码大模型来了
支持80+编程语言、集成VSCode,HuggingFace代码大模型来了
541 0
|
存储 弹性计算 安全
从大模型到大降价,阿里云被集成战略背后的底气
“过去几个月,我碰到的所有客户、所有伙伴,包括我们所有的企业都在思考一个问题,就是如何用新一代的人工智能技术来武装自己。” 4月26日,当阿里巴巴董事会主席兼CEO张勇第一次以阿里云智能CEO的身份出现在阿里云合作伙伴大会上时指出,大模型让所有企业站在了同一起跑线上,再次激活了千行百业。
621 0
|
3月前
|
Java Maven Docker
gitlab-ci 集成 k3s 部署spring boot 应用
gitlab-ci 集成 k3s 部署spring boot 应用

热门文章

最新文章