|
17小时前
|
数据挖掘 数据库 供应链
|

数据分析模型

19 0
来自:自然语言处理 版块
|
23小时前
|
机器学习/深度学习 人工智能 搜索推荐
|

Thinking Machines Lab最新研究结果如何复现?On-Policy Distillation让训练成本直降10倍

Thinking Machines Lab提出On-Policy Distillation技术,让小模型高效继承大模型能力。相比传统强化学习,训练成本降低90%,效率提升十倍,支持本地部署、降低成本与延迟。结合vLLM加速与独立DeepSpeed配置,MS-SWIFT框架实现开箱即用的高效蒸馏训练,助力轻量模型具备“会思考、能纠错、可进化”的智能。

37 7
|
1天前
|
机器学习/深度学习 人工智能 自然语言处理
|

UI-Ins:让 GUI 智能体真正“看懂”用户指令的新范式

通义实验室联合人大发布全新GUI Grounding模型UI-Ins,首创“指令即推理”范式,通过多视角动态推理实现SOTA性能,在五大基准全面领先,支持开源复现与应用。

58 1
|
3天前
|
人工智能 缓存 自然语言处理
|

美团 LongCat-Video 视频生成模型正式发布,探索世界模型的第一步

美团LongCat团队发布LongCat-Video,基于DiT架构的统一视频生成模型,支持文生、图生及视频续写,实现5分钟级长视频连贯生成,具跨帧一致性与物理合理性,开源SOTA性能,助力世界模型与智能交互发展。

148 3
|
3天前
|
机器学习/深度学习 人工智能 文字识别
|

全新框架 Glyph 开源:用视觉理解文本,3–4 倍上下文压缩,近 5 倍推理提速!

清华CoAI与智谱AI提出Glyph新范式,将长文本渲染为图像,通过视觉语言模型实现高效长上下文处理。3-4倍压缩比,性能媲美主流大模型,显存占用降2/3,低成本支持百万token任务,开源可商用。

92 2
|
3天前
|
测试技术 API 开发工具
|

MiniMax-M2 发布!10B激活,专为高效编码与Agent工作流而生

MiniMax发布并开源轻量级MoE模型MiniMax-M2(230B总参,10B激活),专为编码与智能体任务优化。兼具卓越通用智能与高效推理能力,在多项基准测试中表现领先,支持本地部署与API调用,助力开发者实现高性能、低成本的端到端智能应用。

199 1
|
5天前
|
传感器 人工智能 API
|

仅100多元,他给视障人群装上AI“眼睛”

上海两名开发者为验证AI助盲实效,亲手打造百元AI眼镜,蒙眼实测过马路、识盲道,并开源项目鼓励更多人参与。技术导航,人心照亮。

225 4
|
5天前
|
编解码 调度 图形学
|

腾讯混元世界模型1.1开源:支持多视图及视频输入,单卡部署,秒级生成_魔搭ModelScope社区-ModelScope魔搭社区

混元世界模型1.1(WorldMirror)发布,支持多视图、视频输入,单卡秒级生成3D场景。兼容CG管线,开源可部署,实现点云、深度、相机等多任务统一预测,性能领先。

88 1
|
5天前
|
人工智能 程序员 开发者
|

「超级开发个体」在诞生:一份白皮书带你理解AI时代开发者

10月24日程序员节,魔搭社区联合知乎发布《THE NEXT WAVE:AI时代开发者生态白皮书》,揭示AI时代开发者新画像:以“超级个体”为核心,兼具技术与商业闭环能力,工具平权让个人开发者崛起。报告涵盖年龄、学历、组织分布及认知行为特征,展现开发者如何用AI提效、实现从“写代码”到“搭系统”的跃迁。点击下载完整报告。

95 0
|
8天前
|
文字识别 测试技术 开发者
|

Qwen3-VL新成员 2B、32B来啦!更适合开发者体质

Qwen3-VL家族重磅推出2B与32B双版本,轻量高效与超强推理兼备,一模型通吃多模态与纯文本任务!

682 11
|
11天前
|
机器学习/深度学习 人工智能 搜索推荐
|

万字长文深度解析最新Deep Research技术:前沿架构、核心技术与未来展望

近期发生了什么自 2025 年 2 月 OpenAI 正式发布Deep Research以来,深度研究/深度搜索(Deep Research / Deep Search)正在成为信息检索与知识工作的全新范式:系统以多步推理驱动大规模联网检索、跨源证据。

797 55
|
13天前
|
人工智能 编解码 芯片
|

【AI绘画】你有多久没有打开SD了?

曾几何时,Stable Diffusion的复杂参数令人崩溃,如今即梦、可灵等AI工具已让生成图片变得轻而易举。哩布哩布发布2.0升级公告,看似迈向更易用的未来,却也悄然为那个钻研模型、拼接工作流的“拓荒时代”奏响终章。技术迭代飞快,但那份对创造的热爱与探索精神,永不褪色。

348 9
|
13天前
|
人工智能
|

新手小白一枚,想训练一个专属的题库AI模型,求大佬带

想训练一个专属的题库AI模型

245 7
|
14天前
|
人工智能 物联网
|

Face-to-Photo 模型开源!联名麦橘MERJIC,遇见另一个你!

魔搭 DiffSynth-Studio 团队携手知名创作者麦橘MERJIC,正式开源全新 AI 图像生成模型——Face-to-Photo!该模型基于 Qwen-Image-Edit,采用 LoRA 的模型结构,专为人脸图像生成而优化,将一张普通的人脸照片转化…

228 13
|
15天前
|
存储 人工智能 算法
|

ModelScope魔搭社区发布月报 -- 25年10月

2025年10月,ModelScope密集发布多模态与大模型更新,并上线国际站、科学智能专区及AIGC工具FlowBench,加速开源生态发展。

208 9
|
16天前
|
编解码 自然语言处理 文字识别
|

Qwen3-VL再添丁!4B/8B Dense模型开源,更轻量,仍强大

凌晨,Qwen3-VL系列再添新成员——Dense架构的Qwen3-VL-8B、Qwen3-VL-4B 模型,本地部署友好,并完整保留了Qwen3-VL的全部表现,评测指标表现优秀。

890 7
|
17天前
|
存储 Java 关系型数据库
|

Spring Boot中Spring Data JPA的常用注解

Spring Data JPA通过注解简化数据库操作,实现实体与表的映射。常用注解包括:`@Entity`、`@Table`定义表结构;`@Id`、`@GeneratedValue`配置主键策略;`@Column`、`@Transient`控制字段映射;`@OneToOne`、`@OneToMany`等处理关联关系;`@Enumerated`、`@NamedQuery`支持枚举与命名查询。合理使用可提升开发效率与代码可维护性。(238字)

203 1
|
17天前
|
Docker 容器
|

创空间什么时候支持docker?

创空间目前尚未正式支持Docker,尽管界面已显示Beta选项,但暂不可用。具体上线时间请关注官方更新公告。

54 1
|
17天前
|
容器 Docker
|

创空间什么时候支持docker?

32 0
|
18天前
|
机器学习/深度学习 人工智能 API
|

用Macbook微调Qwen3!手把手教你用微调给Qwen起一个新名字

本文介绍如何在MacBook上使用苹果MLX框架高效微调Qwen3大模型。借助MLX的高性能计算与统一内存架构,仅需2分钟即可完成训练,内存占用低至2GB,推理速度达400 Token/s,并支持快速部署为本地API服务,展现Mac轻薄本的强大AI生产力潜力。

500 16
|
18天前
|
自然语言处理 物联网 vr&ar
|

图像理解与生成统一模型——前沿模型架构理解

前言生成式多模态模型近年来一直是业界的研究热点。视觉语言模型(VLM)一直是多模态文本生成领域的核心路线,能够完成图像理解任务;扩散模型(Diffusion Model)则一直是图像和视频生成领域的核心方法。

298 9
|
21天前
|
机器学习/深度学习 自然语言处理 前端开发
|

Ling-1T,智渊、思简

今天,我们正式发布Ling 2.0系列的第一款 旗舰非思考模型 - 拥有万亿参数的Ling-1T。推理,是智能的核心表达,更是通用智能体的认知基石。因此,我们持续扩展Ling 2.0 系列模型的自然语言推理能力。Ling-1T沿用 Li…

378 9
|
22天前
|
人工智能 测试技术 API
|

智谱旗舰模型GLM-4.6开源发布,代码能力对齐Claude Sonnet 4

作为GLM系列的最新版本,GLM-4.6是系列最强的代码Coding模型(较GLM-4.5提升27%)

721 14
|
28天前
|
机器学习/深度学习 存储 人工智能
|

106_模型合并:Task Arithmetic

在大语言模型(LLM)时代,模型合并技术正在成为高效整合不同模型能力的关键方法。随着开源模型的爆发式增长,如何在不进行昂贵的重新训练的情况下,将多个专用模型的知识整合到一个统一模型中,成为了研究和工业界的重要课题。Task Arithmetic作为一种新兴的模型合并方法,通过向量操作实现权重融合,为这一挑战提供了创新解决方案。

127 2
|
28天前
|
运维 监控 异构计算
|

142_故障容错:冗余与回滚机制 - 配置多副本的独特健康检查

在大语言模型(LLM)的生产环境部署中,系统的可靠性和稳定性至关重要。随着LLM应用场景的不断扩展,从简单的文本生成到复杂的多模态交互,用户对服务可用性和响应质量的要求也日益提高。据2025年最新的AI服务可用性报告显示,顶级AI服务提供商的SLA(服务级别协议)承诺已达到99.99%,这意味着每年的计划外停机时间不得超过52.56分钟。

341 11
|
28天前
|
存储 机器学习/深度学习 PyTorch
|

119_LLM训练的高效内存管理与优化技术:从ZeRO到Flash Attention

大型语言模型(LLM)的训练面临着前所未有的计算和内存挑战。随着模型规模达到数百亿甚至数千亿参数,高效的内存管理成为训练成功的关键因素之一。2025年,LLM训练的内存优化技术已经取得了显著进展,从ZeRO优化器到Flash Attention等创新技术,为训练超大规模模型提供了可能。

202 6
|
28天前
|
监控 安全 算法
|

137_安全强化:输入过滤与水印 - 实现输出水印的检测算法与LLM安全防护最佳实践

随着大语言模型(LLM)在各行业的广泛应用,安全问题日益凸显。从提示注入攻击到恶意输出生成,从知识产权保护到内容溯源,LLM安全已成为部署和应用过程中不可忽视的关键环节。在2025年的LLM技术生态中,输入过滤和输出水印已成为两大核心安全技术,它们共同构建了LLM服务的安全防护体系。

121 2
|
28天前
|
机器学习/深度学习 PyTorch 算法框架/工具
|

118_LLM模型量化与压缩:从理论到2025年实践技术详解

大型语言模型(LLM)在自然语言处理领域取得了前所未有的成功,但模型规模的快速增长带来了巨大的计算和存储挑战。一个典型的大型语言模型(如GPT-4或LLaMA 3)可能包含数千亿甚至万亿参数,需要数百GB甚至TB级的存储空间,并且在推理时需要大量的计算资源。这种规模使得这些模型难以在边缘设备、移动设备甚至资源有限的云服务器上部署和使用。

295 3
|
28天前
|
存储 自然语言处理 算法
|

109_噪声鲁棒微调:对抗训练

在当今大语言模型(LLM)的广泛应用中,模型的鲁棒性问题日益凸显。对抗性攻击通过在输入中添加微小但精心设计的扰动,能够误导模型产生错误输出,这对依赖LLM的关键系统构成了严重威胁。噪声鲁棒微调作为提升模型抵抗对抗攻击能力的重要技术,正成为大模型安全性研究的核心方向之一。

346 2
|
28天前
|
存储 数据采集 数据管理
|

116_大规模预训练数据管理与质量控制机制

在2025年的大语言模型(LLM)训练领域,数据管理和质量控制已成为决定模型性能上限的关键因素。随着模型规模的不断扩大(从早期的数十亿参数到如今的数千亿参数),对训练数据的数量、多样性和质量要求也呈指数级增长。一个高效的数据管理系统和严格的质量控制机制,不仅能够确保训练过程的稳定性,还能显著提升最终模型的性能和安全性。

118 2
|
28天前
|
存储 人工智能 数据中心
|

138_绿色计算:碳排放优化 - 估算部署的碳足迹与LLM环境友好型部署最佳实践

随着大语言模型(LLM)在各个行业的广泛应用,其计算需求和环境影响正日益受到关注。根据最新研究,训练一个大型LLM模型可能产生数百吨二氧化碳当量的排放,这相当于普通家庭几十年的碳足迹。在全球气候变化和可持续发展的背景下,如何优化LLM部署的碳足迹,实现环境友好型AI应用,已成为行业面临的重要挑战。

139 2
|
28天前
|
机器学习/深度学习 缓存 监控
|

139_剪枝优化:稀疏模型压缩 - 分析结构化剪枝的独特速度提升与LLM部署加速实践

随着大语言模型(LLM)规模的不断增长,模型参数量已从最初的数亿扩展到数千亿甚至万亿级别。这种规模的模型在推理过程中面临着巨大的计算和内存挑战,即使在最先进的硬件上也难以高效部署。剪枝优化作为一种有效的模型压缩技术,通过移除冗余或不重要的参数,在保持模型性能的同时显著减少计算资源需求。

392 6
|
28天前
|
数据采集 存储 自然语言处理
|

113_数据收集:Common Crawl过滤与高质量LLM训练数据构建

在大型语言模型(LLM)的训练过程中,数据质量直接决定了模型的性能上限。即使拥有最先进的模型架构和训练算法,如果没有高质量的训练数据,也难以训练出优秀的语言模型。Common Crawl作为目前互联网上最大的公开网络爬虫数据集之一,为LLM训练提供了宝贵的资源。然而,从原始的Common Crawl数据中提取高质量的训练素材并非易事,需要经过严格的过滤和清洗。本文将全面探讨Common Crawl数据集的特性、过滤策略的设计原则、以及2025年最新的过滤技术,为构建高质量的LLM训练语料提供系统指导。

253 0
|
28天前
|
机器学习/深度学习 数据采集 人工智能
|

112_跨模态微调:文本与图像联合优化

跨模态微调是指在预训练的多模态模型(如CLIP)基础上,针对特定任务进行的参数调整过程。与单一模态微调不同,跨模态微调需要同时考虑文本和图像两种模态之间的交互与对齐,这使得整个优化过程更加复杂但也更具潜力。

135 0
|
28天前
|
存储 监控 NoSQL
|

140_异步推理:队列管理框架 - 使用Celery处理高并发请求的独特设计

在大型语言模型(LLM)部署的实际场景中,推理服务的并发处理能力直接影响用户体验和系统稳定性。随着LLM应用的普及,如何高效处理大量并发请求成为部署优化中的关键挑战。传统的同步请求处理方式在面对突发流量时容易导致系统过载,响应延迟增加,甚至服务崩溃。异步推理通过引入队列管理机制,能够有效缓冲请求峰值,平滑系统负载,提高资源利用率,从而为LLM服务提供更稳定、更高效的并发处理能力。

143 6
|
28天前
|
机器学习/深度学习 存储 缓存
|

115_LLM基础模型架构设计:从Transformer到稀疏注意力

大型语言模型(LLM)的架构设计是其性能的核心决定因素。从2017年Transformer架构的提出,到如今的稀疏注意力和混合专家模型,LLM架构经历了快速的演进。本文将全面探讨LLM基础架构的设计原理,深入分析Transformer的核心机制,详细介绍稀疏注意力、MoE等创新架构,并展望未来架构发展方向。通过数学推导和实践案例,为构建高效、强大的LLM提供全面指导。

330 0
|
28天前
|
存储 监控 算法
|

117_LLM训练的高效分布式策略:从数据并行到ZeRO优化

在2025年,大型语言模型(LLM)的规模已经达到了数千亿甚至数万亿参数,训练这样的庞然大物需要先进的分布式训练技术支持。本文将深入探讨LLM训练中的高效分布式策略,从基础的数据并行到最先进的ZeRO优化技术,为读者提供全面且实用的技术指南。

247 2
|
28天前
|
数据采集 存储 人工智能
|

141_模型更新:在线学习策略 - 焦点在增量微调的独特无中断部署

在大语言模型(LLM)的实际生产环境中,模型更新是维持服务质量和持续改进的关键环节。随着业务需求的演变、数据分布的变化以及模型能力的提升,如何高效、安全地更新已部署的LLM成为技术团队面临的重要挑战。传统的全量模型替换方法往往伴随着服务中断风险、资源消耗大以及可能的性能波动等问题。为此,增量微调技术作为一种轻量级的模型更新策略,正逐渐成为2025年LLM部署领域的主流选择。

215 9
|
28天前
|
缓存 自然语言处理 PyTorch
|

114_预训练:Masked LM优化与动态掩码效率深度解析

在大型语言模型(LLM)的预训练阶段,训练目标函数的设计直接影响模型的学习效率和最终性能。Masked Language Modeling(MLM)作为BERT等模型采用的核心预训练任务,通过随机掩盖文本中的部分token并让模型预测这些被掩盖的token,有效地训练了模型的双向表示能力。然而,传统的静态掩码策略存在重复率高、训练效率低等问题。动态掩码技术的引入显著提升了预训练效率和模型性能。本文将全面探讨MLM优化策略,深入推导动态掩码的效率提升原理,并介绍2025年最新的MLM优化技术,为高效预训练LLM提供理论和实践指导。

272 0
|
28天前
|
存储 机器学习/深度学习 数据采集
|

101_参数高效微调_QLoRA技术深度解析与实践

在大型语言模型(LLM)时代,高效微调成为降低大模型应用门槛的关键技术。随着模型规模的不断扩大,传统的全参数微调方法面临着巨大的计算资源消耗和内存需求挑战。QLoRA(Quantized Low-Rank Adaptation)作为一种创新的参数高效微调技术,以其独特的量化+低秩适应双重策略,成功地在大幅降低资源消耗的同时保持了接近全精度微调的性能。本文将深入剖析QLoRA的技术原理、实现细节、性能特点,并提供丰富的实践案例,帮助读者全面掌握这一2025年仍然广泛应用的高效微调方法。

178 1
|
28天前
|
存储 机器学习/深度学习 自然语言处理
|

108_连续微调:链式任务适应

在大模型时代,如何让预训练模型高效地适应多个相关任务,同时保持知识的连贯性和完整性,成为了一个重要的研究方向。连续微调(Continual Fine-tuning)作为一种新兴的微调范式,通过链式任务适应(Sequential Task Adaptation)机制,实现了模型在顺序学习多个任务时的知识保留和迁移。本文将深入探讨连续微调的核心原理、实现方法、关键技术挑战以及2025年的最新研究进展,为读者提供全面的技术指导和实践指南。

71 1
|
28天前
|
机器学习/深度学习 监控 安全
|

102_灾难性遗忘:微调过程中的稳定性挑战

在大型语言模型(LLM)的微调过程中,我们常常面临一个关键挑战:当模型学习新领域或任务的知识时,它往往会忘记之前已经掌握的信息和能力。这种现象被称为"灾难性遗忘"(Catastrophic Forgetting),是神经网络学习中的经典问题,在LLM微调场景中尤为突出。

120 1
|
28天前
|
人工智能 自然语言处理 监控
|

110_微调数据集标注:众包与自动化

在大语言模型(LLM)的微调过程中,高质量的标注数据是模型性能提升的关键因素。随着模型规模的不断扩大和应用场景的日益多样化,如何高效、准确地创建大规模标注数据集成为了研究者和工程师面临的重要挑战。众包与自动化标注技术的结合,为解决这一挑战提供了可行的方案。

279 2

ModelScope模型即服务

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352

0
今日
14398
内容
6
活动
3680
关注
你好!
登录掌握更多精彩内容

相关产品

  • 人工智能平台 PAI
  • 文字识别
  • 智能语音交互