前端大模型应用笔记(二):最新llama3.2小参数版本1B的古董机测试 - 支持128K上下文,表现优异,和移动端更配

本文涉及的产品
NLP自然语言处理_基础版,每接口每天50万次
NLP 自学习平台,3个模型定制额度 1个月
NLP自然语言处理_高级版,每接口累计50万次
简介: llama3.1支持128K上下文,6万字+输入,适用于多种场景。模型能力超出预期,但处理中文时需加中英翻译。测试显示,其英文支持较好,中文则需改进。llama3.2 1B参数量小,适合移动端和资源受限环境,可在阿里云2vCPU和4G ECS上运行。

llama3.1开始就支持了128K上下文,差不多有5万字的输入,可用于很多场景啦!模型能力比预想会好不少,但处理中文时,切记加上中英翻译!

话不多说,先抛出一个benchMark,对比了下最近比较火的Gemma2 2B和 Phi-3.5。

944664bb1cf747ac99ffe38365d95387.png

测试环境

  • windows 10
  • Intel(R) Core(TM) i5-9500 CPU @ 3.00GHz   3.00 GHz
  • 内存 32.0 GB (31.9 GB 可用)
  • 集成显卡
  • 非stream输出
  • ollama 0.3.12
  • 模型全称 : llama3.2:1b

因为设备比较差,基本上是CPU被榨干,100%的跑,输出时间还可接受,5-30s,设备越好提示词越短响应更快!

文本理解测试

这部分主要是测试模型的上下文长度支持情况

prompt使用了论文Attention is all you need 1706.03762 (arxiv.org) ,整个输入达到40kb,远没达到上下文长度上线,毕竟token长度是会比英文字符少不少。但我怕老古董设备扛不住蓝屏啊

summarize following paper: \n  {{论文内容}}

得到的回复 (....代表省略的部分)

The text appears to be a written representation of a visual attention visualization in the context of natural language processing (NLP) and machine translation. Here's a breakdown of what each section might represent:.......... By highlighting specific examples of attention work at various levels of language processing, these illustrations provide a deeper insight into the capabilities of neural machine translation models.

我特意搜索了关键字,对比了内容,整个回复未出现截断,真的是支持超大的上下文,一开始我还以为看错了嘞,毕竟是一个1B的模型。


中文知识简测 - 中文缺点意思

提示: 西红柿炒鸡蛋的做法

回复:西红柿炒鸡蛋是一道 flavorful 和营养丰富的 breakfast Dish,特别适合 brunch 或早餐。以下是这个recipes 的步骤:\n\n### Ingredients:\n\n- 2 个鸡蛋\n- 1/2 杯西红柿(可以使用半个)\n- 1 tablespoon 高脂奶油或低脂牛乳油\n- 1 问题小的生姜,切碎\n- 1 问题小的蒜汁脆末,切碎\n- 1/4 问题小的黄 hành丝,切碎.... Enjoy your delicious and nutritious Wester Nogarcie Egg!

(...省略了一部分)可以看到中英文混杂,可能修改提示词会有改进,但对于中文的支持应该一般,查看了默认语言八种并没中文,毕竟中文有点复杂,很多模型也是对中文掌握不佳,期待微调版本,但其实也可以外挂一个翻译模型(毕竟翻译模型现在都可以做的很小)

逻辑推理简测

提示:The ratio of the inner angles of the triangle is 2:3:4, so what are the degrees of the inner angles of each corner of the triangle?(三角形内角比例为2:3:4,那么三角形各个角的内角各为多少度?)

回答:To find the degrees of the inner angles of each corner of the triangle, we need to know that the sum of all interior angles in a triangle is 180 degrees.\n\nLet's assume the ratio of the angles is 2x:3x:4x. We can set up an equation based on this:\n\n2x + 3x + 4x = 180\n\nCombine like terms:\n\n9x = 180\n\nDivide by 9:\n\nx = 20\n\nNow that we have x, we can find the degrees of each angle:\n\n* The smallest angle is 2x = 2(20) = 40 degrees\n* The medium-sized angle is 3x = 3(20) = 60 degrees\n* The largest angle is 4x = 4(20) = 80 degrees\n\nSo, the degrees of the inner angles of each corner of the triangle are 40, 60, and 80 degrees.(中文回答错误)

从这里可以看出对于英文的支持确实比较好,我把中文问题翻译成英文,它就回答正确了,但中文提问一开始分析的对,后面就越来越错了...

如何使用

1. 翻译模型 +

可以作为一个更人性的翻译助手

2. 知识库 +

可以用于深度搜索总结

3. 多模态+

让其它模型转化成文字,再本地处理

4. 隐私数据处理

非隐私数据可交由其它大模型处理,尤其是复杂的部分,然后让它结合隐私输出给出最后的结果

总结

llama3.2 1B因为其参数量很小,对于运行需求也不高,所以会很适合在移动端执行部分任务。不要期待它万能,但应该也是有很多场景下可用的,如果在阿里云上运行2vCPU和4G的ECS就可以跑起来啦!

相关文章
|
2月前
|
存储 人工智能 前端开发
前端大模型应用笔记(三):Vue3+Antdv+transformers+本地模型实现浏览器端侧增强搜索
本文介绍了一个纯前端实现的增强列表搜索应用,通过使用Transformer模型,实现了更智能的搜索功能,如使用“番茄”可以搜索到“西红柿”。项目基于Vue3和Ant Design Vue,使用了Xenova的bge-base-zh-v1.5模型。文章详细介绍了从环境搭建、数据准备到具体实现的全过程,并展示了实际效果和待改进点。
196 2
|
1月前
|
前端开发
如何解决前端工程化中出现的版本冲突问题?
如何解决前端工程化中出现的版本冲突问题?
55 4
|
1月前
|
运维 Prometheus 监控
如何在测试环境中保持操作系统、浏览器版本和服务器配置的稳定性和一致性?
如何在测试环境中保持操作系统、浏览器版本和服务器配置的稳定性和一致性?
|
1月前
|
安全 Linux 虚拟化
|
2月前
|
JavaScript 前端开发 程序员
前端学习笔记——node.js
前端学习笔记——node.js
56 0
|
1月前
|
Java 测试技术 持续交付
【入门思路】基于Python+Unittest+Appium+Excel+BeautifulReport的App/移动端UI自动化测试框架搭建思路
本文重点讲解如何搭建App自动化测试框架的思路,而非完整源码。主要内容包括实现目的、框架设计、环境依赖和框架的主要组成部分。适用于初学者,旨在帮助其快速掌握App自动化测试的基本技能。文中详细介绍了从需求分析到技术栈选择,再到具体模块的封装与实现,包括登录、截图、日志、测试报告和邮件服务等。同时提供了运行效果的展示,便于理解和实践。
116 4
【入门思路】基于Python+Unittest+Appium+Excel+BeautifulReport的App/移动端UI自动化测试框架搭建思路
|
1月前
|
监控 测试技术 开发工具
移动端性能测试工具
移动端性能测试工具
53 2
|
2月前
|
人工智能 自然语言处理 运维
前端大模型应用笔记(一):两个指令反过来说大模型就理解不了啦?或许该让第三者插足啦 -通过引入中间LLM预处理用户输入以提高多任务处理能力
本文探讨了在多任务处理场景下,自然语言指令解析的困境及解决方案。通过增加一个LLM解析层,将复杂的指令拆解为多个明确的步骤,明确操作类型与对象识别,处理任务依赖关系,并将自然语言转化为具体的工具命令,从而提高指令解析的准确性和执行效率。
|
2月前
|
存储 弹性计算 算法
前端大模型应用笔记(四):如何在资源受限例如1核和1G内存的端侧或ECS上运行一个合适的向量存储库及如何优化
本文探讨了在资源受限的嵌入式设备(如1核处理器和1GB内存)上实现高效向量存储和检索的方法,旨在支持端侧大模型应用。文章分析了Annoy、HNSWLib、NMSLib、FLANN、VP-Trees和Lshbox等向量存储库的特点与适用场景,推荐Annoy作为多数情况下的首选方案,并提出了数据预处理、索引优化、查询优化等策略以提升性能。通过这些方法,即使在资源受限的环境中也能实现高效的向量检索。
|
2月前
|
前端开发 算法 测试技术
前端大模型应用笔记(五):大模型基础能力大比拼-计数篇-通义千文 vs 文心一言 vs 智谱 vs 讯飞vsGPT
本文对比测试了通义千文、文心一言、智谱和讯飞等多个国产大模型在处理基础计数问题上的表现,特别是通过链式推理(COT)提示的效果。结果显示,GPTo1-mini、文心一言3.5和讯飞4.0Ultra在首轮测试中表现优秀,而其他模型在COT提示后也能显著提升正确率,唯有讯飞4.0-Lite表现不佳。测试强调了COT在提升模型逻辑推理能力中的重要性,并指出免费版本中智谱GLM较为可靠。
前端大模型应用笔记(五):大模型基础能力大比拼-计数篇-通义千文 vs 文心一言 vs 智谱 vs 讯飞vsGPT

热门文章

最新文章