|
6月前
|
人工智能 自然语言处理 TensorFlow
|

134_边缘推理:TensorFlow Lite - 优化移动端LLM部署技术详解与实战指南

在人工智能与移动计算深度融合的今天,将大语言模型(LLM)部署到移动端和边缘设备已成为行业发展的重要趋势。TensorFlow Lite作为专为移动和嵌入式设备优化的轻量级推理框架,为开发者提供了将复杂AI模型转换为高效、低功耗边缘计算解决方案的强大工具。随着移动设备硬件性能的不断提升和模型压缩技术的快速发展,2025年的移动端LLM部署已不再是遥远的愿景,而是正在成为现实的技术实践。

1340 39
|
6月前
|
自然语言处理 搜索推荐 数据可视化
|

49_选择框架:任务类型与模型匹配

在大语言模型(LLM)应用开发的早期阶段,选择合适的模型架构和框架往往是项目成功的关键第一步。随着2025年LLM技术的快速发展,市场上可用的模型和框架数量激增,如何基于特定任务类型选择最匹配的解决方案成为开发者面临的重要挑战。本文将深入探讨任务类型与LLM模型匹配的方法论,重点介绍基于决策树的模型选择框架,并通过实际代码示例演示如何构建和应用这一框架。

426 0
|
7月前
|
存储 人工智能 文字识别
|

PDF解析迎来技术革新!阿里新产品实现复杂文档端到端结构化处理

前言9月24日云栖大会现场,由阿里巴巴爱橙科技数据技术及产品团队自主研发的 PDF解析神器正式亮相并同步开源模型。这款基于Logics-Parsing模型构建的AI工具直指当前PDF解析领域的技术痛点,显著提升复杂文档的结构…

984 0
|
9月前
|
人工智能 数据可视化 前端开发
|

蚂蚁的可视化图表 MCP 首发上线!支持超过 25 种的可视化图表生成,也支持生成路书!

蚂蚁 AntV 团队推出可视化图表 MCP 插件,支持 25+ 种图表类型,涵盖统计图、关系图及地图标注、路径地图等,用户只需输入文本即可生成炫酷图表,大幅简化数据可视化流程,提升数据展示效率。

1408 23
|
12月前
|
人工智能 自然语言处理 监控
|

Cooragent:清华 LeapLab 开源 AI Agent 协作框架,一句话召唤AI军团!

Cooragent 是清华大学 LeapLab 团队推出的开源 AI Agent 协作框架,支持基于简单描述快速创建 Agent 并实现多 Agent 协作,具备 Prompt-Free 设计和本地部署能力。

1290 6
来自: 自然语言处理  版块
|
12月前
|
人工智能 自然语言处理 监控
|

LongPort MCP:证券业首个券商MCP,AI赋能智能投资新时代,散户也能玩转机构级交易

LongPort MCP是长桥集团推出的证券行业首个券商模型上下文协议,通过标准化接口实现AI与金融服务的无缝对接,支持自然语言交互的智能投资服务。

1815 8
来自: 自然语言处理  版块
|
12月前
|
人工智能 开发框架 决策智能
|

谷歌开源多智能体开发框架 Agent Development Kit:百行代码构建复杂AI代理,覆盖整个开发周期!

谷歌开源的Agent Development Kit(ADK)是首个代码优先的Python工具包,通过多智能体架构和灵活编排系统,支持开发者在百行代码内构建复杂AI代理,提供预置工具库与动态工作流定义能力。

2185 3
来自: 自然语言处理  版块
|
2月前
|
人工智能 API 调度
|

别再只依赖 ChatGPT 了:多模型协同,才是 AI 项目走向生产的关键一步

本文剖析AI项目落地困局:ChatGPT Agent类应用用户流失率超70%,根源不在模型不够强,而在于单模型架构难以支撑生产环境——稳定性差、成本高、难治理。文章从数据冲击、痛点直击等五维度论证,提出“多模型协同”是破局关键:按场景选模、统一调度、动态兜底,构建可控、可替换、可长期运行的AI系统架构。

412 3
来自: 多模态  版块
|
4月前
|
人工智能 安全 前端开发
|

写单元测试太痛苦?教你用DeepSeek/通义千问一键生成高质量测试代码

单元测试难写且枯燥?本文分享一套经过验证的AI生成指令,将DeepSeek/通义千问化身为10年经验的测试专家。支持自动Mock、全场景覆盖和参数化测试,让代码质量保障从"体力活"变成高效的"指挥活"。

919 3
|
4月前
|
Java Spring
|

跨域处理

本文介绍Spring Boot中两种CORS跨域解决方案:一是通过实现`WebMvcConfigurer`接口进行全局配置,允许指定域名、方法、请求头并支持凭证;二是使用自定义`Filter`拦截请求,动态添加CORS相关响应头。两种方案均附详细代码示例,并验证有效性,适用于前后端分离项目开发。

193 0
|
8月前
|
人工智能 算法 测试技术
|

轻量高效,8B 性能强劲书生科学多模态模型Intern-S1-mini开源

继 7 月 26 日开源『书生』科学多模态大模型 Intern-S1 之后,上海人工智能实验室(上海AI实验室)在8月23日推出了轻量化版本 Intern-S1-mini。

1169 50
|
8月前
|
Apache 开发工具 数据格式
|

OpenAI 重返开源!gpt-oss系列社区推理、微调实战教程到!

时隔N年,OpenAI开放模型权重啦!欢迎使用gpt-oss 系列,专为强大的推理、代理任务和多用途开发场景设计。

1909 0
|
12月前
|
机器学习/深度学习 人工智能 JSON
|

这个AI把arXiv变成代码工厂,快速复现顶会算法!Paper2Code:AI论文自动转代码神器,多智能体框架颠覆科研复现

Paper2Code是由韩国科学技术院与DeepAuto.ai联合开发的多智能体框架,通过规划、分析和代码生成三阶段流程,将机器学习论文自动转化为可执行代码仓库,显著提升科研复现效率。

1512 19
来自: 自然语言处理  版块
|
12月前
|
人工智能 编解码 算法
|

AI生成视频告别剪辑拼接!MAGI-1:开源自回归视频生成模型,支持一镜到底的长视频生成

MAGI-1是Sand AI开源的全球首个自回归视频生成大模型,采用创新架构实现高分辨率流畅视频生成,支持无限扩展和精细控制,在物理行为预测方面表现突出。

1291 1
来自: 多模态  版块
|
25天前
|
人工智能 安全 算法
|

从统计相关性到结构性必然性:一个解决AI幻觉与对齐问题的框架探讨

本文提出突破AI幻觉的新框架:以“三棱锥塔”预验(成本/风险/一致性三门)确保输出可靠,用“双螺旋”动态校准(表达链+安全链互锁)实现权责平衡。直指大模型困于统计相关、缺乏因果必然性的根源。两篇理论论文已发布Zenodo(DOI见文)。诚邀合作探讨!

233 12
来自: 多模态  版块
|
3月前
|
存储 人工智能 缓存
|

别再把大脑当成 /dev/null 了!用这套AI指令给记忆装个 "Redis 缓存层"

本文将大脑记忆比作数据库存储,指出传统记忆的"无索引"缺陷。通过一套"记忆架构师AI指令",利用数据预处理、建立索引和持久化策略(遗忘曲线),帮助开发者构建高效、稳固的知识记忆系统,实现认知的"架构升级"。

508 4
|
3月前
|
监控 搜索推荐 物联网
|

一文读懂LoRA微调原理:大模型高效适配的核心逻辑

通过冻结大模型参数、仅训练少量低秩矩阵,实现高效微调:成本低、周期短、不破坏通用能力。适配医疗、金融等垂直场景,支持多任务复用与边缘部署,成为大模型落地首选技术。

869 9
|
4月前
|
Java 开发工具 数据安全/隐私保护
|

项目《中州养老》

《中州养老》是一个面向养老院的后台管理系统,涵盖预约、入住、健康监测等核心功能。系统分为员工管理端与家属小程序端,采用Vue3、SpringBoot等技术栈,集成阿里云IOT实现智能设备数据采集与异常报警,并通过RBAC权限模型保障系统安全。

206 0
|
4月前
|
机器学习/深度学习 安全 算法
|

PPO最强,DPO一般?一文带你了解常见三种强化学习方法,文末推荐大模型微调神器!

大模型如何更懂人类?关键在于“对齐”。PPO、DPO、KTO是三大主流对齐方法:PPO效果强但复杂,DPO平衡高效,KTO低成本易上手。不同团队可根据资源选择路径。LLaMA-Factory Online让微调像浏览器操作一样简单,助力人人皆可训练专属模型。

902 3
来自: 多模态  版块
|
5月前
|
存储 数据采集 人工智能
|

最佳实践丨让苏东坡“复活”!我用Qwen3-8B实现了与千古文豪的跨时空对话

随着人工智能技术的不断发展,虚拟角色不再只是冰冷的对话机器,而是能够承载历史人物的气质、知识体系乃至精神风貌的“数字化身”。今天,我们将完整揭秘如何基于Qwen3-8B大模型,借助LLaMA-Factory Online平台,打造一个沉浸式的“苏东坡数字分身”,让前沿技术为文化传承注入新的活力。

887 10
来自: 自然语言处理  版块
|
12月前
|
数据采集 人工智能 自然语言处理
|

AI终于能听懂宝宝说话了!ChildMandarin:智源研究院开源的低幼儿童中文语音数据集,覆盖22省方言

ChildMandarin是由智源研究院与南开大学联合推出的开源语音数据集,包含41.25小时3-5岁儿童普通话语音数据,覆盖中国22个省级行政区,为儿童语音识别和语言发展研究提供高质量数据支持。

1244 20
来自: 语音  版块
|
26天前
|
人工智能 自然语言处理 IDE
|

跨百万token窗口记忆迁移:六种方法的系统对比与实证研究

随着大模型上下文窗口扩展到 百万 token 级别,如何将已填满窗口的完整记忆迁移至新窗口已成为长上下文人机协作的关键挑战。本文在首个百万 token 窗口的深度分析成果(18 张结构化表、4 张核心图表、词频演进数据)的基础上,设计并实现了 六种具有代表性的跨窗口记忆迁移方法。本研究提供了 可复现的操作手册,并通过实验验证了前期 “窗口解剖” 与本轮 “迁移验证” 的完整闭环。

205 7
|
1月前
|
网络协议 编译器 C语言
|

C语言深度解析:内存对齐与结构体填充的底层逻辑

C语言中,内存对齐是CPU硬件强制要求的底层规则,直接影响结构体大小、访问性能与硬件兼容性。合理排列成员可减少填充、节省内存;滥用`#pragma pack`则易致崩溃或性能暴跌。嵌入式、网络协议与跨平台开发必备核心知识。(239字)

244 14
|
4月前
|
存储 缓存 安全
|

One Trick Per Day

初始化Map应避免直接指定大小,建议使用Guava的newHashMapWithExpectedSize或手动计算容量。禁止使用Executors创建线程池,易导致OOM,推荐通过ThreadPoolExecutor或Guava方式,明确设置队列与线程数。Arrays.asList返回不可变集合,禁用增删操作。遍历Map优先使用entrySet或JDK8的forEach。SimpleDateFormat非线程安全,避免static共享,可使用ThreadLocal或Java 8新时间API。并发修改记录时,建议采用乐观锁(如version)或加锁机制,冲突概率低时优选乐观锁且重试不少于3次。

150 0
|
6月前
|
数据采集 人工智能 自然语言处理
|

52_领域模型:BioBERT与FinBERT

在大语言模型(LLM)快速发展的今天,通用模型如GPT-4、Claude 3和Gemini虽然在广泛任务上表现出色,但在专业领域如医疗、金融和法律等场景中,往往难以达到专业人员的期待精度。2025年的研究表明,领域特定的预训练模型在垂直领域任务中能够显著超越通用模型,为专业应用提供更可靠的支持。本文将深入剖析BioBERT、FinBERT等代表性领域模型的技术原理、训练方法、性能评估及实际应用案例,探讨垂直领域预训练的独特优势与未来发展趋势。

1006 0
|
6月前
|
存储 缓存 数据处理
|

71_数据版本控制:Git与DVC在LLM开发中的最佳实践

在2025年的大模型(LLM)开发实践中,数据和模型的版本控制已成为确保项目可重复性和团队协作效率的关键环节。与传统软件开发不同,LLM项目面临着独特的数据版本控制挑战:

661 0
|
8月前
|
测试技术 Swift 开发者
|

可调节推理预算,字节Seed团队开源大型语言模型 Seed-OSS 系列!

字节跳动 Seed 团队正式发布了 Seed-OSS 系列开源大型语言模型,提供强大的长上下文、推理、代理和通用功能,以及对开发者友好的多功能特性。

844 9
|
10月前
|
机器学习/深度学习 自然语言处理 监控
|

ms-swift 部分命令行参数说明

本资源介绍了机器学习训练中的关键参数设置及其影响,包括训练轮数、批量大小、学习率、梯度累积、模型微调等,并提供了针对不同任务和硬件配置的推荐值,帮助提升模型训练效率与性能。

1128 4
|
12月前
|
人工智能 机器人 Linux
|

把大模型变成微信私人助手,三步搞定!

随着大模型的应用越来越广泛,相信大家都对拥有一个自己的私人AI助手越来越感兴趣。然而基于大模型遵循的"规模效应"(Scaling Law)原理,传统部署方式面临三重阻碍:高昂的运维成本、复杂的技术门槛(需掌握模型部署、量化等技术概念)以及系统集成难题。

1196 0
|
12月前
|
机器学习/深度学习 人工智能 自然语言处理
|

这个模型让AI角色会说话还会演!MoCha:Meta联手滑铁卢大学打造对话角色视频生成黑科技

MoCha是由Meta与滑铁卢大学联合开发的端到端对话角色视频生成模型,通过创新的语音-视频窗口注意力机制实现精准的唇语同步和全身动作生成。

786 12
来自: 计算机视觉  版块
|
14天前
|
人工智能 Go API
|

忘记CLI命令行参数? agtm提示词工具帮助人和AI Agent更好记住各种 Agent-CLI命令行

agtm是一款专为AI/Agent开发者设计的CLI命令行提示与补全工具,支持Claude、Codex等Agent快速发现、补全并执行playwright、claude、codex等复杂CLI命令,避免记忆负担与Token浪费。开源免费,支持人机双模交互。

172 10
|
2月前
|
监控 前端开发 API
|

[大模型实战 07] 基于 LlamaIndex ReAct 框架手搓全自动博客监控 Agent

本节我们将理论付诸实践,利用 LlamaIndex 的 ReAct 框架和 Qwen3 模型,手搓一个全自动的博客监控 Agent。通过为大模型接入 RSS 读取、邮件与微信发送等外部工具,让它从‘聊天机器人’进化为‘能干活的数字员工’。

301 10
|
2月前
|
数据采集 人工智能 达摩院
|

达摩院开源RynnBrain:首个支持移动操作的具身大脑基础模型

达摩院发布首个可移动操作的具身基础模型RynnBrain,首创时空记忆与物理空间推理能力,支持视频/图像/文本多模态输入及区域、轨迹等具身输出。开源MOE架构RynnBrain-30B-A3B(仅3B激活参数),在16项基准全面SOTA,并推出全新评测集RynnBrain-Bench。

415 8
|
2月前
|
人工智能 JSON API
|

开源开放被集成:魔搭OpenAPI上新,广泛链接社区生态

ModelScope正式推出OpenAPI与OAuth 2.0开放服务,覆盖模型、数据集、MCP及用户信息四大核心板块,支持自动化发现、集成与管理AI资源。接口遵循OpenAPI规范,提供标准REST能力与安全授权机制,助力开发者低门槛构建AI应用、CI/CD流水线及Agentic智能体系统,践行“AI基础设施即代码”理念。(239字)

377 6
|
3月前
|
人工智能 安全 搜索推荐
|

你的错题本里藏着金矿,但你却只把它当成了回收站——用AI给大脑做一次深度Debug

把学习比作软件开发,错题就是Bug。大多数人只改答案(打补丁),却忽略了底层的逻辑漏洞。本文分享一套"错题分析AI指令",利用Root Cause Analysis(根因分析)思维,帮助你用AI深度Debug大脑,将每一个错误转化为认知的核心资产。

325 2
|
4月前
|
存储 编译器 开发工具
|

C 语言项目实战入门:从 0 到 1 搭建简易学生信息管理系统

本文以“简易学生信息管理系统”为例,系统讲解C语言项目开发全流程,涵盖需求分析、数据结构设计、模块化编码、文件操作与调试优化,帮助初学者掌握结构体、指针、动态内存管理等核心技能,实现学生信息的增删改查与持久化存储,是提升C语言实战能力的入门佳作。

140 0
|
4月前
|
JSON 缓存 前端开发
|

什么是跨域

CORS(跨域资源共享)是W3C标准,允许浏览器向跨源服务器发送XMLHttpRequest请求,突破同源限制。它分为简单请求与非简单请求,后者需预检。支持所有HTTP方法,较JSONP更强大灵活。

188 0
|
5月前
|
机器学习/深度学习 算法 物联网
|

Mcore Bridge:迈向Megatron训练"零门槛"时代

魔搭社区推出Mcore-Bridge与Megatron-SWIFT,显著降低大模型训练门槛。支持safetensors格式、一键启动、无需权重转换,兼容MoE等架构,实现高性能与易用性统一,让Megatron训练开箱即用。

975 10
|
6月前
|
存储 机器学习/深度学习 数据采集
|

101_参数高效微调_QLoRA技术深度解析与实践

在大型语言模型(LLM)时代,高效微调成为降低大模型应用门槛的关键技术。随着模型规模的不断扩大,传统的全参数微调方法面临着巨大的计算资源消耗和内存需求挑战。QLoRA(Quantized Low-Rank Adaptation)作为一种创新的参数高效微调技术,以其独特的量化+低秩适应双重策略,成功地在大幅降低资源消耗的同时保持了接近全精度微调的性能。本文将深入剖析QLoRA的技术原理、实现细节、性能特点,并提供丰富的实践案例,帮助读者全面掌握这一2025年仍然广泛应用的高效微调方法。

807 1
|
6月前
|
机器学习/深度学习 算法 PyTorch
|

125_训练加速:FlashAttention集成 - 推导注意力优化的独特内存节省

2025年,大型语言模型的训练面临着前所未有的挑战。随着模型参数量和序列长度的不断增加,传统注意力机制的内存瓶颈问题日益突出。FlashAttention作为一种突破性的注意力算法,通过创新的内存访问模式和计算优化,显著提升了训练效率和内存利用。

674 3
|
6月前
|
人工智能 Unix API
|

50_选择模型:开源vs闭源

在大型语言模型(LLM)技术快速发展的今天,企业和开发者面临着一个关键决策:是选择开源LLM模型还是闭源LLM服务?这个选择直接影响到项目的成本结构、开发灵活性、数据安全性以及长期战略规划。随着2025年LLM技术的进一步成熟,开源与闭源模型之间的竞争格局也发生了显著变化。

806 0
|
6月前
|
缓存 边缘计算 监控
|

89_批量推理:异步API调用

在当今数据密集型应用和大模型部署的时代,批量推理已成为提升系统性能和资源利用率的关键技术。随着深度学习模型规模的不断扩大和应用场景的日益复杂,如何高效地处理大量推理请求成为技术团队面临的重要挑战。传统的同步API调用方式在面对高并发、大规模数据处理时,往往会遇到响应延迟高、资源利用不充分等问题。异步API调用作为一种更高效的处理模式,通过非阻塞操作和并发处理能力,为批量推理场景提供了理想的解决方案。

485 0
|
6月前
|
存储 机器学习/深度学习 监控
|

67_Transformers库进阶:模型加载与配置优化

随着大型语言模型(LLM)技术的迅速发展,Hugging Face的Transformers库已经成为LLM开发和应用的标准工具包。作为一个开源的深度学习库,Transformers提供了丰富的预训练模型、统一的接口设计以及强大的生态系统,使得研究人员和开发者能够便捷地构建、训练和部署各类语言模型。2025年,Transformers库已经发展到5.x系列,不仅支持最新的GPU架构和量化技术,还提供了更完善的分布式训练能力和内存优化方案。

772 1
|
7月前
|
API 网络安全
|

调用Dashscope接口时报错

624 1
|
9月前
|
API 调度 决策智能
|

全新平台级 ModelScope MCP 实验场重磅上线!

还在为快速验证MCP在对话中的效果而烦恼? 希望更灵活地组合魔搭开源模型API-Inference与Hosted MCP服务?

529 2
|
9月前
|
编解码 文字识别 API
|

InternVL3开源:7种尺寸覆盖文、图、视频处理,多模态能力扩展至工业图像分析

4月11日,OpenGVLab开源发布InternVL3系列多模态大模型,涵盖1B至78B共7个尺寸。相比InternVL 2.5,其在多模态感知与推理能力上表现更优,并新增工具使用、GUI代理等功能。得益于原生多模态预训练,文本性能超越Qwen2.5系列。

1233 0
|
11月前
|
Web App开发 人工智能 JSON
|

Windows版来啦!Qwen3+MCPs,用AI自动发布小红书图文/视频笔记!

上一篇用 Qwen3+MCPs实现AI自动发小红书的最佳实践 有超多小伙伴关注,同时也排队在蹲Windows版本的教程。

1949 1
|
12月前
|
API 开发者 异构计算
|

实战 | Intel OpenVINO™ Day0 实现 Qwen3 快速部署

实战 | Intel OpenVINO™ Day0 实现 Qwen3 快速部署

1073 10

ModelScope模型即服务

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉答疑群:44837352

1
今日
15211
内容
6
活动
4104
关注
你好!
登录掌握更多精彩内容

相关产品

  • 人工智能平台 PAI
  • 文字识别
  • 智能语音交互