谷歌发布MediaPipe LLM Inference API,28亿参数模型本地跑

简介: 【2月更文挑战第24天】谷歌发布MediaPipe LLM Inference API,28亿参数模型本地跑

e6246b5df078536acaf715a8a1710da3.jpeg
在人工智能领域,模型的规模和性能一直是推动技术进步的关键因素。随着计算能力的提升和算法的优化,AI模型变得越来越庞大,它们能够处理更复杂的任务,提供更精准的服务。然而,这些大模型往往需要强大的硬件支持,限制了它们在移动设备和个人电脑上的应用。谷歌最新发布的MediaPipe LLM Inference API,正是为了打破这一限制,让28亿参数的大模型也能在本地设备上流畅运行。

这一API的推出,是谷歌在跨设备AI技术领域的又一重要里程碑。它不仅简化了开发者在不同设备上部署AI模型的过程,还通过一系列技术创新,实现了模型在不同平台上的高效运行。这些技术包括新的操作、量化、缓存和权重共享等,它们共同作用,使得AI大模型能够在网页、安卓、iOS等设备上无缝运行。谷歌的这一举措,无疑为AI技术的普及和应用开辟了新的道路。

MediaPipe LLM Inference API目前支持的模型包括Gemma、Phi 2、Falcon和Stable LM,这些模型的参数规模从1B到3B不等。这些模型不仅能够在网页上运行,还能在安卓和iOS设备上提供服务。开发者可以根据需要选择使用基本模型权重,或者利用社区微调版,甚至使用自己的数据进行微调,以适应特定的应用场景。这种灵活性,使得AI模型能够更好地服务于用户,满足多样化的需求。

在iOS设备上,尽管目前只有Gemma 2B(int4)模型能够运行,但谷歌正在积极努力,以期让更多模型能够在iOS平台上启用。这一努力,体现了谷歌对于跨平台兼容性的重视,也预示着未来AI技术将更加普及和便捷。

为了确保模型能够在设备上高效运行,谷歌对MediaPipe LLM Inference API进行了细致的优化。这些优化措施包括权重共享、优化的全连接操作、平衡计算和内存使用、自定义操作符、伪动态性和优化的KV缓存布局等。这些技术的应用,不仅提高了模型的运行效率,还保证了在不同设备上的兼容性和稳定性。

谷歌的这一创新,不仅仅是技术上的突破,更是对AI大模型跨设备运行的一次大胆尝试。它将推动AI技术在更多领域的应用,为用户带来更加智能化的体验。随着谷歌计划将MediaPipe LLM Inference API扩展到更多平台和模型,未来的AI技术将更加强大,更加贴近人们的生活。

目录
相关文章
|
2月前
|
人工智能 自然语言处理
公理训练让LLM学会因果推理:6700万参数模型比肩万亿参数级GPT-4
【8月更文挑战第3天】新论文提出“公理训练”法,使仅有6700万参数的语言模型掌握因果推理,性能媲美万亿级GPT-4。研究通过大量合成数据示例教授模型因果公理,实现有效推理并泛化至复杂图结构。尽管面临合成数据需求大及复杂关系处理限制,此法仍为语言模型的因果理解开辟新途径。[链接: https://arxiv.org/pdf/2407.07612]
54 1
|
1月前
|
人工智能 Serverless API
一键服务化:从魔搭开源模型到OpenAI API服务
在多样化大模型的背后,OpenAI得益于在领域的先发优势,其API接口今天也成为了业界的一个事实标准。
一键服务化:从魔搭开源模型到OpenAI API服务
|
17天前
|
存储 机器学习/深度学习 物联网
CGE:基于Causal LLM的Code Embedding模型
CodeFuse-CGE 项目在外滩大会展出,吸引众多技术与产品从业者的关注。“文搜代码”功能备受好评,模型表现令人期待。CodeFuse-CGE 采用大语言模型,通过 LoRA 微调提取文本与代码嵌入,实现在多个 NL2Code 基准测试中超越现有 SOTA 模型。现已开源 CGE-Large 与 CGE-Small 两种模型,欢迎访问 GitHub 页并支持本项目。[项目地址](https://github.com/codefuse-ai/CodeFuse-CGE)
42 1
|
22天前
|
安全 测试技术
世界模型又近了?MIT惊人研究:LLM已模拟现实世界,绝非随机鹦鹉!
【9月更文挑战第14天】麻省理工学院最近的研究揭示了大型语言模型(LLM)展现出的新潜能,其不仅能模仿真实环境,更在一定程度上理解并模拟程序在特定环境下的运作。通过使用Transformer模型并结合特定探测分类器,研究团队发现模型能逐步掌握程序的形式语义。为了验证这一发现,团队创建了一个独特的干预基准测试,进一步证实了模型的仿真能力,为世界模型的发展提供了新方向。尽管存在模型可能仅习得统计规律而非真正理解语义的争议,这项研究依然为理解复杂系统提供了新工具与视角。论文详情见:https://arxiv.org/abs/2305.11169。
27 1
|
2月前
|
运维 Serverless API
函数计算产品使用问题之如何通过API传递ControlNet参数
函数计算产品作为一种事件驱动的全托管计算服务,让用户能够专注于业务逻辑的编写,而无需关心底层服务器的管理与运维。你可以有效地利用函数计算产品来支撑各类应用场景,从简单的数据处理到复杂的业务逻辑,实现快速、高效、低成本的云上部署与运维。以下是一些关于使用函数计算产品的合集和要点,帮助你更好地理解和应用这一服务。
|
2月前
|
测试技术 API
【API管理 APIM】如何查看APIM中的Request与Response详细信息,如Header,Body中的参数内容
【API管理 APIM】如何查看APIM中的Request与Response详细信息,如Header,Body中的参数内容
|
3月前
|
人工智能 JSON 自然语言处理
国内大模型LLM选择以及主流大模型快速使用教程[GLM4/Qwen/Baichuan/Coze/Kimi]
【7月更文挑战第7天】国内大模型LLM选择以及主流大模型快速使用教程[GLM4/Qwen/Baichuan/Coze/Kimi]
176 10
国内大模型LLM选择以及主流大模型快速使用教程[GLM4/Qwen/Baichuan/Coze/Kimi]
|
2月前
|
Java API 数据格式
Spring Boot API参数读取秘籍大公开!6大神器助你秒变参数处理大师,让你的代码飞起来!
【8月更文挑战第4天】Spring Boot凭借其便捷的开发和配置特性,成为构建微服务的热门选择。高效处理HTTP请求参数至关重要。本文介绍六种核心方法:查询参数利用`@RequestParam`;路径变量采用`@PathVariable`;请求体通过`@RequestBody`自动绑定;表单数据借助`@ModelAttribute`或`@RequestParam`;请求头使用`@RequestHeader`;Cookie则依靠`@CookieValue`。每种方法针对不同场景,灵活运用可提升应用性能与用户体验。
50 9
|
2月前
|
SQL Shell API
python Django教程 之 模型(数据库)、自定义Field、数据表更改、QuerySet API
python Django教程 之 模型(数据库)、自定义Field、数据表更改、QuerySet API
|
3月前
|
JSON API 定位技术
AppFlow:让通义千问大模型调用你的任意API
在阿里云AppFlow中,通过自定义插件连接器可使通义千问获取特定功能,如旅游规划或投资辅助。登录AppFlow控制台,选择“自定义连接器”,上传图标,设定基本信息,选“插件连接器”。支持Basic、Bearer Token、AppCode等鉴权。精确配置API名称、描述及请求参数,确保模型调用准确。参考示例curl命令调整参数结构,填写响应体帮助模型解析。发布后,在模型Agent搭建中选用自定义连接器增强功能。
下一篇
无影云桌面