|
7月前
|
存储 人工智能 文字识别
|

PDF解析迎来技术革新!阿里新产品实现复杂文档端到端结构化处理

前言9月24日云栖大会现场,由阿里巴巴爱橙科技数据技术及产品团队自主研发的 PDF解析神器正式亮相并同步开源模型。这款基于Logics-Parsing模型构建的AI工具直指当前PDF解析领域的技术痛点,显著提升复杂文档的结构…

1088 0
|
7月前
|
人工智能 数据处理 云栖大会
|

云栖现场|让评测与标注成为AI进化引擎!阿里发布全新评测平台,3大创新评测集亮相

云栖现场|让评测与标注成为AI进化引擎!阿里发布全新评测平台,3大创新评测集亮相

975 9
|
7月前
|
机器学习/深度学习 人工智能 自然语言处理
|

阶跃星辰开源! Step 3 :最新一代基础大模型 ,多模推理,极致效率

阶跃星辰开源新一代大模型 Step 3,采用 MoE 架构,参数量达 321B,激活参数 32B,平衡推理效率与资源利用,具备强大多模态能力,支持复杂推理与视觉分析,已在多个评测集取得领先成绩。

1017 10
|
2月前
|
机器学习/深度学习 人工智能 算法
|

自进化≠自我刷题,Agent 真正的突破口是「自己造环境」?——6 位领域学者 · 7 大议题 · 2 万字圆桌观点实录

AI AMA首期聚焦“Agent自进化”,由魔搭等联合发起,邀请翟云鹏主持及5位顶会作者深度对谈。围绕定义、泛化能力、反馈信号、评估体系等7大议题,探讨Agent如何突破“从零开始”瓶颈,实现类人经验积累与策略优化。(239字)

311 6
|
3月前
|
人工智能 机器人 程序员
|

去年我用一张Excel表"规划"学习,结果把自己逼进了ICU——直到我学会让AI帮我排兵布阵

本文以作者因"完美计划表"累倒入院的亲身经历切入,分享了一套让AI担任私人学习规划师的完整指令模板。通过"目标拆解""遗忘曲线复习""弹性时间"三大机制,解决目标模糊、复习逃避、计划崩溃等常见学习痛点,并提供上班族、学生、转行者三种典型场景的实战案例。

540 18
|
6月前
|
存储 监控 安全
|

132_API部署:FastAPI与现代安全架构深度解析与LLM服务化最佳实践

在大语言模型(LLM)部署的最后一公里,API接口的设计与安全性直接决定了模型服务的可用性、稳定性与用户信任度。随着2025年LLM应用的爆炸式增长,如何构建高性能、高安全性的REST API成为开发者面临的核心挑战。FastAPI作为Python生态中最受青睐的Web框架之一,凭借其卓越的性能、强大的类型安全支持和完善的文档生成能力,已成为LLM服务化部署的首选方案。

1157 3
|
11月前
|
人工智能 数据可视化 物联网
|

Reasoning模型蒸馏实践:用大模型提升小模型能力

DeepSeek-R1的爆火让更多开发者注意到模型蒸馏技术——这种让小模型也能"开小灶"习得大模型知识精华的秘诀。今天我们就用Qwen2.5-1.5B小模型(相当于AI界的初中生)来进行实践!

1000 5
|
11月前
|
Web App开发 人工智能 JSON
|

Windows版来啦!Qwen3+MCPs,用AI自动发布小红书图文/视频笔记!

上一篇用 Qwen3+MCPs实现AI自动发小红书的最佳实践 有超多小伙伴关注,同时也排队在蹲Windows版本的教程。

2025 1
|
14天前
|
机器学习/深度学习 自然语言处理 算法
|

OpAgent开源:登顶 WebArena,蚂蚁集团开源全模态网页智能体

蚂蚁集团推出Web智能体OpAgent,仅凭自然语言指令即可在真实网站(如亚马逊)自主完成搜索、识别、加购等复杂操作。其采用视觉驱动理解、在线强化学习与模块化协作架构,在WebArena基准达71.6%任务成功率,刷新SOTA。已开源OpAgent-32B-INT4量化模型,显著降低推理门槛。

181 3
|
2月前
|
机器学习/深度学习 人工智能 编解码
|

四款国产VLM OCR模型横评

春节前,DeepSeek、智谱、百度、腾讯四大团队密集开源新一代OCR小模型,全面采用视觉语言模型(VLM)架构,摒弃传统流水线,迈向“语义结构化”新纪元。DeepSeek-OCR2首创“视觉因果流”,GLM-OCR以0.9B参数登顶OmniDocBench榜首,PaddleOCR-VL-1.5攻克真实退化场景,Youtu-Parsing实现22倍推理加速——国产OCR正以架构创新实现垂直领域“换道超车”。

617 4
|
2月前
|
人工智能 机器人 API
|

OpenClaw 注册 Moltbook 教程 让你的个人 OpenClaw Agent 加入全球最大 AI 社区

本教程教你用开源AI助手OpenClaw,快速注册并接入全球首个纯AI社交平台Moltbook——一个仅限AI智能体发帖、评论、互动的Reddit式社区(截至2026年1月已超140万个AI活跃)。只需部署OpenClaw、安装Moltbook Skill、完成X平台验证,即可让个人AI agent加入全球AI对话网络。(239字)

1828 5
|
3月前
|
人工智能 决策智能
|

多智能体军事协同系统:智能化防务体系中的关键技术框架

多智能体军事协同系统是智能化防务的重要理论方向,通过分布式感知、决策一致与协同控制,构建高效、鲁棒的系统协同模型。本文从概念、技术基础到发展趋势进行系统解析,探讨其在提升整体作战效能、推动系统智能演进中的理论价值,为相关研究提供参考。(238字)

376 2
|
5月前
|
人工智能 安全 搜索推荐
|

杭州AI开源生态大会·魔搭社区开发者嘉年华全回顾

11月22日,杭州AI开源生态大会暨“魔搭社区”开发者中心启用仪式在云谷中心举行。大会汇聚超3000名开发者,发布“两张清单”与AI开源政策包,启用首个线下开发者空间,推动开放、共建、共创的AI生态发展。

962 10
|
5月前
|
机器学习/深度学习 编解码 自然语言处理
|

腾讯混元 HunyuanVideo 1.5 开源!

腾讯混元团队开源HunyuanVideo 1.5,一款8.3B参数的轻量级视频生成模型,基于DiT架构,支持文生视频、图生视频,可在14G显存设备运行,生成5-10秒高清视频,具备强指令响应、流畅动作与电影级画质。

1352 10
|
5月前
|
数据采集 人工智能 算法
|

美团 LongCat 团队发布全模态一站式评测基准UNO-Bench:揭示单模态与全模态能力的组合规律

美团LongCat团队推出一站式全模态大模型评测基准UNO-Bench,首创“组合定律”揭示多模态能力协同增益,支持中文场景,以98%跨模态问题占比和创新多步开放式题型,科学评估模型真实融合能力。

685 5
|
6月前
|
机器学习/深度学习 监控 PyTorch
|

68_分布式训练技术:DDP与Horovod

随着大型语言模型(LLM)规模的不断扩大,从早期的BERT(数亿参数)到如今的GPT-4(万亿级参数),单卡训练已经成为不可能完成的任务。分布式训练技术应运而生,成为大模型开发的核心基础设施。2025年,分布式训练技术已经发展到相当成熟的阶段,各种优化策略和框架不断涌现,为大模型训练提供了强大的支持。

896 0
|
10月前
|
人工智能 缓存 搜索推荐
|

手把手基于ModelScope MCP协议实现AI短视频创作:零代码自动化工作流

本文介绍了基于ModelScope MCP协议的AI视频生成解决方案,涵盖核心机制解析、零代码工作流搭建、性能优化策略及全链路异常处理。通过统一上下文描述符抽象异构AI服务,实现图像生成、语音合成与视频剪辑的自动化编排。结合缓存优化与错误重试机制,大幅提升生成效率(如5分镜视频从91.7s降至22.4s)。最后展示《夏日海滩》生成案例,并探讨个性化风格迁移与商业场景集成等进阶方向,揭示零代码本质为服务、流程与资源的三层抽象。

1499 18
|
2月前
|
JSON 人工智能 Shell
|

用 4B 小模型做Code Agent的SubAgent?这个开源项目做到了

LocoOperator-4B 是 LocoreMind 推出的 4B 开源蒸馏模型,专为代码库探索优化:本地运行、零 API 成本,结构化工具调用(Read/Grep/Glob/Bash 等)准确率达 100%。它替代 Code Agent 中的子智能体,显著降本增效。(239 字)

597 18
|
3月前
|
JSON 人工智能 API
|

从对话到Agent:大模型工具调用能力的量化评测

大模型向Agent进化,工具调用是关键。本文介绍EvalScope评测框架,通过双重验证机制,量化评估模型“会不会用、能不能用好”工具,助力开发者打造可靠AI应用。

483 4
|
6月前
|
机器学习/深度学习 人工智能 搜索推荐
|

Thinking Machines Lab最新研究结果如何复现?On-Policy Distillation让训练成本直降10倍

Thinking Machines Lab提出On-Policy Distillation技术,让小模型高效继承大模型能力。相比传统强化学习,训练成本降低90%,效率提升十倍,支持本地部署、降低成本与延迟。结合vLLM加速与独立DeepSpeed配置,MS-SWIFT框架实现开箱即用的高效蒸馏训练,助力轻量模型具备“会思考、能纠错、可进化”的智能。

1055 10
|
6月前
|
机器学习/深度学习 存储 缓存
|

129_量化技术:INT8与动态量化 - 推导压缩的精度损失公式

在2025年的大语言模型(LLM)时代,随着模型规模的指数级增长,部署这些庞然大物变得越来越具有挑战性。GPT-5和Claude 3等最新模型的参数量已经达到数千亿甚至上万亿,这给计算资源和内存带来了巨大压力。模型量化作为一种有效的压缩技术,正在成为解决这一挑战的关键方案。本文将深入探讨LLM量化技术,特别是INT8和动态量化方法,推导其精度损失公式,并提供2025年最新的优化策略和实现代码。

721 4
|
8月前
|
编解码 自然语言处理
|

通义万相开源14B数字人Wan2.2-S2V!影视级音频驱动视频生成,助力专业内容创作

今天,通义万相的视频生成模型又开源了!本次开源Wan2.2-S2V-14B,是一款音频驱动的视频生成模型,可生成影视级质感的高质量视频。

1825 29
|
10月前
|
机器学习/深度学习 算法 API
|

MiniMax-M1开源:支持百万级上下文窗口的混合MoE推理模型!

MiniMax最新发布了全球首个开源大规模混合架构的推理模型——MiniMax-M1!

723 0
|
11天前
|
人工智能 自然语言处理 监控
|

可计算元认知:跨领域跨语言文本分析的理论与工程框架 ——理论—方法篇

摘要 跨领域对话是人类知识整合的核心难题。人文、心理学与管理学分别用不同的语言、方法与概念体系描述“困境”这一普遍人类体验,导致概念割裂、交流受阻。本文提出可计算元认知分析框架,旨在以技术手段实现跨领域、跨语言文本的系统对齐与反思性分析。框架的理论核心包括: 1. 语义连续统假设。 2. 主观向量原则。 3. 三步语义分析法(垂钓 撒网 熔炉),在此基础上,框架定义了元认知三要素:谬误类型分析、边界信号检测与贝叶斯网络推理,使对齐过程从单纯映射升为具备批判性的分析工具。

100 8
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
|

tiktoken 对中文长文本的压缩率实证研究——基于百万 token 对话的三层量化框架验证

随着大模型长上下文能力的普及,tiktoken 及其他 BPE based 分词器已成为评估文本 token 数的标准工具。然而,其在中英文混合长文本中的实际压缩规律仍缺乏实证验证,业界普遍使用的经验公式(如中文字符 × 1.6)尚未在大规模语料上得到检验。本文基于 DeepSeek 百万 token项目中提纯后的对话数据(.jsonl,1 077 046 tokens,3 673 轮)采用反向推算方法,首次在真实中文长文本上量化了tiktoken 的压缩系数。主要发现: 1️⃣ 中文实际系数约为 1.16,远低于经验公式的 1.6,导致整体 token 估算高出20.9 %; 2️⃣ 对话呈

337 6
|
2月前
|
机器学习/深度学习 存储 自然语言处理
|

蚂蚁集团 Ling-2.5-1T 开源:万亿参数,重新定义"又快又强"

Ling-2.5-1T是蚂蚁集团inclusionAI推出的开源即时大模型(MIT协议),以“效率×效果”为核心:万亿参数、63B激活,首创混合线性注意力架构,支持百万token上下文;推理吞吐大幅提升,AIME任务仅需1/3 token即达前沿思考模型水平。ModelScope可下载。

632 4
|
2月前
|
机器学习/深度学习 自然语言处理 搜索推荐
|

蚂蚁百灵全模态 Ming-flash-omni-2.0 开源!视觉百科+可控语音生成+全能型图像编辑,打破全模态“博而不精”

2月11日,蚂蚁百灵团队开源全模态大模型Ming-flash-omni-2.0(基于Ling-2.0 MoE架构),在视觉理解、语音交互与图像编辑三大领域实现代际跃迁,达开源领先水平。支持多模态统一生成与深度编辑,模型权重与代码已开放。

718 4
|
3月前
|
传感器 缓存 机器人
|

全球首个自回归视频-动作世界模型,LingBot-VA 正式开源!

蚂蚁灵波团队推出具身世界模型LingBot-VA,首创自回归视频-动作一体化建模框架,实现“边推演、边行动”。它融合视频生成与机器人控制,具备长时序记忆与少样本学习能力,在真实机器人任务中成功率较Pi0.5提升20%,仿真基准刷新SOTA。已全面开源。

487 1
|
4月前
|
IDE 开发工具 C++
|

Python 初学者常见 10 大误区与避坑指南

本文总结Python初学者易犯的10大编码误区,如缩进错误、混淆“==”与“is”、修改迭代列表等,结合典型案例解析原因并提供实用解决方案,帮助新手规避常见陷阱,建立正确的Python编程思维,提升代码质量与可读性。

329 1
|
4月前
|
前端开发 NoSQL Java
|

单体版本

JeecgBoot是一款基于Spring Boot与Vue3的低代码开发平台,支持快速构建企业级应用。技术栈涵盖Spring Cloud Alibaba、MybatisPlus、Redis、Vue3+TypeScript等,提供代码生成、在线表单、菜单权限管理等功能,助力高效开发。

288 0
|
4月前
|
Dubbo 应用服务中间件 Apache
|

WebService

基于 Apache CXF 实现的 Dubbo WebService 协议,支持多连接、短连接、HTTP 同步传输,采用 SOAP 文本序列化,适用于系统集成与跨语言调用。兼容标准 WebService 服务,可实现双向互操作。需配置 Jetty 或 Servlet 容器,支持 WSDL 访问与直连调用。

159 0
|
4月前
|
存储 缓存 Java
|

自定义注解

本文介绍Java自定义注解的实现原理与应用,结合Spring AOP完成日志拦截,并通过过滤器实现登录权限控制。涵盖注解定义、元注解说明及实际代码示例,适用于日志、验证、缓存等场景。

238 0
|
4月前
|
人工智能 边缘计算 自然语言处理
|

魔珐星云:免费体验企业级3D AI数字人智能客服!告别枯燥对话框!

魔珐科技携手魔搭社区上线「魔珐星云智能客服Demo」,基于超写实3D数字人技术,打造具身智能交互新体验。通过文生多模态3D大模型,实现语音、表情、动作实时生成,支持Web端低延时互动,百元级芯片即可运行,助力企业构建自然高效的人机对话系统。

582 4
|
4月前
|
Java 调度 数据库
|

搭建XXL-JOB

XXL-JOB由调度中心和执行器两部分组成。调度中心负责任务调度与管理,支持动态配置、监控告警;执行器部署在微服务中,接收调度请求并执行任务。通过SpringBoot集成xxl-job-core,配置注册地址后可自动注册到调度中心,实现分布式任务调度。

1325 4
|
5月前
|
开发框架 人工智能 测试技术
|

字节推出VeAgentBench + veADK,打造可评估、可复现的智能体开发新范式

字节跳动推出VeAgentBench与veADK,打造智能体“开发-评估”闭环。VeAgentBench是覆盖教育、金融、法律等四大场景的开源评估基准,veADK为高效易用的开发框架,支持工具调用、RAG与记忆管理,助力AI智能体可度量、可复现、可落地。

927 11
|
6月前
|
存储 数据采集 数据管理
|

116_大规模预训练数据管理与质量控制机制

在2025年的大语言模型(LLM)训练领域,数据管理和质量控制已成为决定模型性能上限的关键因素。随着模型规模的不断扩大(从早期的数十亿参数到如今的数千亿参数),对训练数据的数量、多样性和质量要求也呈指数级增长。一个高效的数据管理系统和严格的质量控制机制,不仅能够确保训练过程的稳定性,还能显著提升最终模型的性能和安全性。

647 2
|
6月前
|
人工智能 自然语言处理 数据中心
|

65_GPU选择:A100 vs RTX系列

在2025年的今天,大语言模型(LLM)已经成为人工智能领域的核心技术之一。从GPT-4到Llama 3.1,从专业领域应用到消费级产品,LLM正在以前所未有的速度改变着我们的工作和生活方式。然而,这些强大模型的训练和部署背后,都离不开高性能计算硬件的支持,尤其是GPU(图形处理单元)的选择,往往直接决定了项目的可行性、效率和成本。

1190 0
|
6月前
|
缓存 边缘计算 监控
|

89_批量推理:异步API调用

在当今数据密集型应用和大模型部署的时代,批量推理已成为提升系统性能和资源利用率的关键技术。随着深度学习模型规模的不断扩大和应用场景的日益复杂,如何高效地处理大量推理请求成为技术团队面临的重要挑战。传统的同步API调用方式在面对高并发、大规模数据处理时,往往会遇到响应延迟高、资源利用不充分等问题。异步API调用作为一种更高效的处理模式,通过非阻塞操作和并发处理能力,为批量推理场景提供了理想的解决方案。

572 0
|
6月前
|
机器学习/深度学习 数据采集 自然语言处理
|

99_监督微调:Alpaca数据集格式与实现

在大语言模型(LLM)的开发和应用中,微调是将通用预训练模型转化为特定任务专家的关键步骤。监督微调(Supervised Fine-Tuning, SFT)作为微调的一种重要范式,通过人工标注的高质量数据集指导模型学习特定任务的输入输出模式,从而显著提升模型在目标任务上的性能。

1322 0
|
7月前
|
机器学习/深度学习 人工智能 数据处理
|

混元开源又+1:视频音效可以自动生成了

AI生成的视频音效,已经可以用于视频制作了。

555 18
|
11月前
|
人工智能 API 开发者
|

用Qwen3+MCPs实现AI自动发布小红书笔记!支持图文和视频

魔搭自动发布小红书MCP,是魔搭开发者小伙伴实现的小红书笔记自动发布器,可以通过这个MCP自动完成小红书标题、内容和图片的发布。

3495 41
|
3月前
|
人工智能 监控 架构师
|

工程师思维看透人心?这个“集成框架”可能颠覆了个人成长领域

《内生力量智慧集成系统》是一套专为技术人设计的“自我认知操作系统”,以系统工程思维重构个人成长:用“七力光谱”扫描内在配置,以“阻滞系数”“一致性指数”等指标动态诊断,支持从调优(1.0–2.0)到重构(3.0)、集成(4.0)乃至超越工具(5.0)的全周期演进。它不贴标签,只提供可测量、可干预、可迭代的元认知框架,助你在AI时代成为自身意识系统的架构师。(239字)

474 7
来自: 多模态  版块
|
4月前
|
负载均衡 算法 架构师
|

Ribbon负载均衡

本节深入讲解Ribbon实现客户端负载均衡的原理,解析@LoadBalanced注解的作用机制,介绍负载均衡分类、算法及Ribbon自定义策略与饥饿加载优化,帮助读者全面掌握Ribbon在Spring Cloud中的应用与底层逻辑。(238字)

231 0
|
4月前
|
SQL 关系型数据库 MySQL
|

MySQL 学习资源精选:从入门到优化的高效清单

本文针对MySQL学习中的“资源杂、路径乱”痛点,按“入门→进阶→实战”三阶段梳理高效学习路径,推荐优质视频、书籍、项目等资源,结合实操建议与避坑指南,助力学习者从零基础快速掌握核心语法、底层原理到企业级项目落地能力,少走弯路,实现能力跃迁。

384 0
|
4月前
|
存储 缓存 安全
|

One Trick Per Day

初始化Map应避免直接指定大小,建议使用Guava的newHashMapWithExpectedSize或手动计算容量。禁止使用Executors创建线程池,易导致OOM,推荐通过ThreadPoolExecutor或Guava方式,明确设置队列与线程数。Arrays.asList返回不可变集合,禁用增删操作。遍历Map优先使用entrySet或JDK8的forEach。SimpleDateFormat非线程安全,避免static共享,可使用ThreadLocal或Java 8新时间API。并发修改记录时,建议采用乐观锁(如version)或加锁机制,冲突概率低时优选乐观锁且重试不少于3次。

235 0
|
4月前
|
人工智能 开发框架 自然语言处理
|

Mule Agent Builder:面向下一代 Agent 的全新构建范式

MuleRun推出Mule Agent Builder,首创“Base Agent + Skills + Knowledge”范式,通过自然语言对话即可构建高能力、可推理、会调用工具的AI Agent。它大幅降低开发门槛,实现从创意到变现的一站式闭环,助力创作者轻松打造专属Agent并快速上架盈利。现诚邀共建者参与首批内测,共同定义下一代Agent的构建与商业化未来。

522 2
|
5月前
|
JavaScript 搜索推荐 开发者
|

ChatPPT+魔搭社区:MCP 2.0全面升级!

ChatPPT MCP2.0正式发布,联合魔搭ModelScope推出云端智能体服务,支持生成、编辑、演讲、动画等全链路功能,开放Streamable HTTP协议与本地Stdio双模式,已接入20+平台,服务300+开发者。

907 11
|
6月前
|
机器学习/深度学习 PyTorch 算法框架/工具
|

118_LLM模型量化与压缩:从理论到2025年实践技术详解

大型语言模型(LLM)在自然语言处理领域取得了前所未有的成功,但模型规模的快速增长带来了巨大的计算和存储挑战。一个典型的大型语言模型(如GPT-4或LLaMA 3)可能包含数千亿甚至万亿参数,需要数百GB甚至TB级的存储空间,并且在推理时需要大量的计算资源。这种规模使得这些模型难以在边缘设备、移动设备甚至资源有限的云服务器上部署和使用。

1195 3
|
6月前
|
数据采集 存储 自然语言处理
|

113_数据收集:Common Crawl过滤与高质量LLM训练数据构建

在大型语言模型(LLM)的训练过程中,数据质量直接决定了模型的性能上限。即使拥有最先进的模型架构和训练算法,如果没有高质量的训练数据,也难以训练出优秀的语言模型。Common Crawl作为目前互联网上最大的公开网络爬虫数据集之一,为LLM训练提供了宝贵的资源。然而,从原始的Common Crawl数据中提取高质量的训练素材并非易事,需要经过严格的过滤和清洗。本文将全面探讨Common Crawl数据集的特性、过滤策略的设计原则、以及2025年最新的过滤技术,为构建高质量的LLM训练语料提供系统指导。

926 0
|
6月前
|
机器学习/深度学习 监控 安全
|

102_灾难性遗忘:微调过程中的稳定性挑战

在大型语言模型(LLM)的微调过程中,我们常常面临一个关键挑战:当模型学习新领域或任务的知识时,它往往会忘记之前已经掌握的信息和能力。这种现象被称为"灾难性遗忘"(Catastrophic Forgetting),是神经网络学习中的经典问题,在LLM微调场景中尤为突出。

572 1

ModelScope模型即服务

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉答疑群:44837352

0
今日
15197
内容
6
活动
4134
关注
你好!
登录掌握更多精彩内容

相关产品

  • 人工智能平台 PAI
  • 文字识别
  • 智能语音交互