|
17天前
|
机器学习/深度学习 缓存 测试技术
|

DeepSeek-V4开源:百万上下文,Agent能力比肩顶级闭源模型

DeepSeek-V4正式开源!含V4-Pro(1.6T参数)与V4-Flash(284B参数)双版本,均支持百万token上下文。首创混合注意力架构,Agent能力、世界知识与推理性能全面领先开源模型,数学/代码评测比肩顶级闭源模型。

2798 10
|
10天前
|
人工智能 安全 API
|

Claude Cowork 支持第三方模型接入 开放而不开源

Claude Cowork 正式支持第三方推理平台接入(如Bedrock、Vertex AI、Azure Foundry及兼容/v1/messages的LLM网关),实现工具层与模型层解耦。用户可自由配置国产模型(如Qwen、GLM、DeepSeek等),降低使用门槛与成本,同时保留桌面端Agent工作流、MCP、插件及本地文件访问等核心体验——开放接口,不开放入口。

710 6
|
6月前
|
IDE 编译器 开发工具
|

嵌入式开发必备!Keil uVision5 C51 V9.61 安装激活 + 汉化完整教程, 含(Keil MDK 5.39)

Keil C51 V9.61是一款专用于8051系列单片机的集成开发环境,支持主流厂商芯片,集编辑、编译、仿真于一体,基于μVision5平台,操作便捷。提供C编译器、汇编器、调试器等全套工具,适用于嵌入式开发。附带安装与激活教程,可实现汉化界面,提升使用体验。(237字)

9001 7
|
18天前
|
机器学习/深度学习 物联网 Serverless
|

Qwen3.6发布27B Dense模型,提供旗舰级编程能力,魔搭Serverless训练服务Day0支持

Qwen3.6-27B是通义千问全新推出的27B Dense架构开源大模型,部署友好、推理高效,智能体编程能力达旗舰水平(Terminal-Bench打平Claude 4.5 Opus),原生支持多模态与思考/非思考双模式,已上线魔搭并获Serverless训练Day-0支持。

1112 3
|
2月前
|
编解码 物联网 数据处理
|

LTX-2.3开源: 视频生成引擎级升级

Lightricks开源LTX-2.3音视频大模型:重建VAE提升细节锐度,文本连接器扩容4倍增强Prompt遵循,大幅优化I2V运动自然性与音频质量,并首次原生支持1080×1920竖版视频生成。22B参数,支持文生视频、图生视频等多任务。

3263 4
|
20天前
|
人工智能 运维 前端开发
|

Kimi K2.6开源:编码能力比肩闭源顶级模型,支持300智能体协同

Moonshot AI开源Kimi K2.6,主打长时编码、智能体协同与前端设计生成。在Terminal-Bench 2.0、SWE-Bench Pro等基准上达开源SOTA,逼近GPT-5.4与Claude Opus 4.6;智能体集群扩展至300个子智能体、4000协调步。

832 5
|
3月前
|
人工智能 API 对象存储
|

Seedance vs Sora vs Kling:AI 视频生成模型深度对比

本文深度解析Sora、Kling、Runway Gen-3、Seedance等主流文生视频模型的底层原理、性能差异与生产适配性,直击开发者选型难、API碎片化、成本失控三大痛点,提供统一接入方案、智能路由策略与高并发部署实战指南。(239字)

2740 1
|
3月前
|
机器学习/深度学习 测试技术 API
|

Qwen3.5 中等规模模型系列正式开源:更强智能,更低算力

通义千问Qwen3.5发布四款中等规模多模态模型,支持256K原生上下文(可扩至1M)、201种语言及统一视觉语言训练。凭借Gated Delta+MoE混合架构与百万Agent强化学习,35B-A3B仅激活3B参数即超越旧旗舰,性能、效率与部署成本兼具。(239字)

7566 23
|
3月前
|
人工智能 Linux API
|

[大模型实战 01] 本地大模型初体验:Ollama 部署与 Python 调用指南

大模型实战系列第一篇。拒绝晦涩理论,直接上手!我会带着各位友人们零基础安装 Ollama,利用国内 ModelScope 极速下载模型,详解服务端口配置与 Python 脚本调用,涵盖显存计算与常见避坑指南。

5044 3
来自: 自然语言处理  版块
|
4月前
|
缓存 网络安全 语音技术
|

docker安装部署FunASR

本指南详解FunASR在线语音识别服务的外网部署与内网迁移全流程:先在外网拉取Docker镜像、自动下载模型并启动服务(端口10095),验证成功后,将镜像和缓存模型打包导出;再于内网服务器导入镜像、解压模型、挂载运行,全程禁用SSL,支持热词与标点恢复,开箱即用。

2102 3
来自: 语音  版块
|
6天前
|
开发框架 人工智能 分布式计算
|

蚂蚁百灵双响开源:万亿旗舰 Ling-2.6-1T 与 高效 Agent 主力 Ling-2.6-flash

蚂蚁百灵开源双模型:Ling-2.6-1T(万亿参数旗舰)专注复杂任务多步执行与高智效比;Ling-2.6-flash(104B/7.4B激活)主打极致推理速度与Agent场景,Token效率达业界领先。二者兼顾“强智能”与“真落地”,全面支持生产级AI工作流。

171 1
|
2月前
|
人工智能 并行计算 算法
|

video-subtitle-remover(VSR)--开源AI去字幕方案深度解析

VSR(video-subtitle-remover)是一款开源AI视频去字幕工具,支持本地运行,无需上传数据。它融合STTN、LaMa、ProPainter三大前沿修复模型,可智能检测并擦除硬字幕/水印,保持原分辨率与画质。兼容CUDA/DirectML,适配NVIDIA/AMD/Intel显卡,兼顾隐私性、可控性与高性能。

1940 6
来自: 计算机视觉  版块
|
3月前
|
自然语言处理 前端开发 测试技术
|

魔搭社区+OpenVINO™ 加速部署 Qwen3-ASR 实战

通义千问新推Qwen3-ASR语音识别模型(1.7B/0.6B),支持52种语言及方言,具备高鲁棒性与流式长音频转写能力。联合魔搭社区与Intel® OpenVINO™,实现Intel平台极致加速部署,提供完整开源教程、Notebook示例及Gradio交互Demo。(239字)

2185 6
|
4月前
|
编解码 物联网 测试技术
|

FLUX.2-Klein 4B/9B开源:亚秒级统一图像生成与编辑

Black Forest Labs开源FLUX.2 [klein]模型家族,兼具文生图、图像编辑与多参考生成能力,端到端推理低至0.5秒,4B版本仅需13GB显存,支持消费级GPU高效运行,量化后速度提升最高2.7倍,Apache 2.0许可商用友好。

2992 1
|
3月前
|
机器学习/深度学习 自然语言处理 API
|

Qwen3.5:迈向原生多模态智能体

除夕夜,通义千问发布Qwen3.5-397B-A17B:全球首个原生多模态MoE大模型,总参3970亿、仅激活170亿参数,性能媲美万亿模型;支持201种语言、超强视觉理解与GUI智能体能力,已开源至GitHub与ModelScope。

4183 4
|
2月前
|
人工智能 API 开发工具
|

Silly Tavern 免费API保姆级教学

本指南详解Windows下安装SillyTavern全流程:先安装Node.js与Git,再克隆仓库(推荐Gitee镜像),双击Start.bat启动;接着配置OpenAI兼容API(如Canopy Wave),填入Key与端点;最后下载导入角色卡,即可开启AI角色对话体验。(239字)

1819 1
|
3月前
|
机器学习/深度学习 JSON 文字识别
|

0.9B 小模型,OCR 大能力——GLM-OCR 模型实战教程

智谱开源多模态OCR模型GLM-OCR,基于GLM-V架构,融合CogViT视觉编码器与GLM-0.5B语言解码器,支持公式、表格、代码等复杂文档识别,性能达OmniDocBench榜首(94.62分),仅0.9B参数,轻量高效,开箱即用。

2435 3
|
6天前
|
人工智能 自然语言处理 算法
|

2026年运营岗正在分层:懂AI应用的运营和只会排期的运营差距有多大

2026年运营岗加速分层:一类陷于排期催单,另一类借AI做用户洞察、内容生成、活动复盘与工作流提效。效率、价值与晋升差距显著拉大。真正稀缺的是“AI协作力”——懂Prompt、会搭工作流、能落地RAG/Agent。推荐考取CAIE注册人工智能工程师(Level I),零基础友好、企业认可度高,助运营从执行者跃升为业务增长关键接口人。

127 1
|
3天前
|
存储 缓存 人工智能
|

当 Agent 从模型调用,走向系统工程:OpenAI 和 LangChain 的两种实践

OpenAI与LangChain最新实践揭示:AI Agent 正从“模型调用”迈向“系统工程”。前者以 WebSocket 优化API链路,提速40%;后者强调Feedback驱动Trace闭环,实现持续演进。效率与进化,缺一不可。

122 8
|
13天前
|
消息中间件 缓存 API
|

DeepSeek-V4 核心能力落地与实战应用指南:从底层机制到多智能体架构复盘

本文以SaaS架构师视角,深度解析DeepSeek-V4在真实生产环境中的工程落地:聚焦上下文缓存优化、强约束JSON输出、多智能体协同调度,并分享高并发下的三大避坑实战指南,助力开发者高效构建AI原生应用。

439 6
|
7月前
|
文字识别 测试技术 开发者
|

Qwen3-VL新成员 2B、32B来啦!更适合开发者体质

Qwen3-VL家族重磅推出2B与32B双版本,轻量高效与超强推理兼备,一模型通吃多模态与纯文本任务!

6718 12
|
4天前
|
物联网 测试技术
|

SenseNova U1开源:原生统一多模态理解与生成,8B参数达到同量级SOTA

商汤日日新开源SenseNova U1 Lite系列(8B参数),基于自研NEO-unify架构,原生统一多模态理解、推理与生成,摒弃VE/VAE,重构统一表征空间。性能达同量级开源SOTA,部分指标比肩大型闭源模型,并支持8步LoRA加速推理。

116 2
|
4天前
|
数据采集 人工智能 数据挖掘
|

论文解读:AI Agent 长任务为什么不稳定?从 Horizon Length 说起

本文解读论文《On Training Large Language Models for Long-Horizon Tasks》,聚焦AI Agent执行长链路任务时的“有效决策跨度”(effective horizon)问题。指出任务步骤越多,错误累积、归因困难与训练不稳越显著;提出两大实践策略:封装低层动作为高层工具(macro actions),及拆解目标为可验证子任务,以压缩有效horizon,提升可靠性与泛化性。

113 3
|
7月前
|
机器学习/深度学习 人工智能 搜索推荐
|

Thinking Machines Lab最新研究结果如何复现?On-Policy Distillation让训练成本直降10倍

Thinking Machines Lab提出On-Policy Distillation技术,让小模型高效继承大模型能力。相比传统强化学习,训练成本降低90%,效率提升十倍,支持本地部署、降低成本与延迟。结合vLLM加速与独立DeepSpeed配置,MS-SWIFT框架实现开箱即用的高效蒸馏训练,助力轻量模型具备“会思考、能纠错、可进化”的智能。

1332 10
|
7月前
|
机器学习/深度学习 人工智能 API
|

用Macbook微调Qwen3!手把手教你用微调给Qwen起一个新名字

本文介绍如何在MacBook上使用苹果MLX框架高效微调Qwen3大模型。借助MLX的高性能计算与统一内存架构,仅需2分钟即可完成训练,内存占用低至2GB,推理速度达400 Token/s,并支持快速部署为本地API服务,展现Mac轻薄本的强大AI生产力潜力。

2989 16
|
7天前
|
数据采集 自然语言处理 算法
|

可计算元认知文本分析:肿瘤生物物理学语义基线的构建与边界信号检测

本研究首次为肿瘤生物物理学提供可计算的语义基线,揭示该学科围绕力学信号与细胞行为的核心知识结构,并量化了力学/黏附/成像阈值作为学科边界信号。相比传统综述,本工作从“学科如何说话”的元认知视角实现了可复现、可扩展、跨层次对齐的计量基准,为肿瘤生物物理学在精准医学、组织工程及材料科学中的跨学科协作提供了方法学支撑。

151 4
|
3月前
|
SQL 人工智能 分布式计算
|

MaxCompute SQL AI 实践:电商用户评论情感洞察与关键词提取

本实践基于阿里云MaxCompute SQL AI功能,仅用SQL即可完成电商评论的情感分类(正/负/中性)与关键词提取,无需Python开发。内置模型开箱即用,业务人员零门槛上手,10万条评论分析仅需数秒,显著提升非结构化文本洞察效率。(239字)

377 4
|
8月前
|
XML 自然语言处理 数据可视化
|

免费!文本表格不会总结、分析?文本表格可视化!帮你轻松解决困扰,保姆级级教程。【附Coze工作流】

本文介绍了如何利用“扣子”平台创建资源,通过可视化工作流处理并分析文档、表格、PDF等内容,帮助用户快速获取文件核心信息。内容涵盖登录、资源创建、工作流配置及运行操作,适用于多种文件格式,如CSV、Excel、PDF等。

3537 4
|
5月前
|
机器学习/深度学习 人工智能 数据挖掘
|

Python 学习资源精选:从入门到精通的高效清单

本文系统梳理Python从入门到精通的学习路径,分阶段推荐优质资源:入门夯实语法,进阶掌握核心特性,定向深耕Web、数据、AI等领域,最终提升工程化能力。精选视频、书籍、项目与工具,助力高效学习。

1816 1
|
6月前
|
人工智能 物联网 测试技术
|

Qwen-Image-Edit:全能图像编辑,驱动内容创作提质增效

通义千问团队开源Qwen-Image-Edit,基于20B模型,支持语义与外观双重编辑、精准中英文文字修改,具备SOTA图像编辑能力,可用于IP创作、风格迁移、文字修复等。

5763 6
|
8月前
|
存储 人工智能 机器人
|

告别 “缸中之脑”:为何 Agent Runtime 至关重要?MuleRun 如何实现突破?

TL;DR:很多 AI Agent 被困在受限且一刀切的沙箱内,而 MuleRun 是全球首个通过提供可完全自定义且持久化的 Agent Runtime 来解决这一问题的平台——即你可以定义操作系统、访问原生软件、跨会话保留状态并分配硬件资源。这让你能打造真正的“数字化工人”,而不仅仅是受限的聊天机器人。

1191 9
|
3月前
|
安全 API Docker
|

[大模型实战 02] 图形化的大模型交互: Open WebUI部署指南

本文教你用 Docker 一键部署 Open WebUI,为本地 Ollama 模型打造媲美 ChatGPT 的图形化界面:支持流畅对话、本地知识库(RAG)检索增强、自定义角色(Agent),全程私有化、零数据上传,10分钟即可启用!

2189 3
|
6月前
|
机器学习/深度学习 人工智能 自然语言处理
|

AgentEvolver:让智能体系统学会「自我进化」

AgentEvolver 是一个自进化智能体系统,通过自我任务生成、经验导航与反思归因三大机制,推动AI从“被动执行”迈向“主动学习”。它显著提升强化学习效率,在更少参数下实现更强性能,助力智能体持续自我迭代。开源地址:https://github.com/modelscope/AgentEvolver

2355 38
|
4月前
|
并行计算 监控 安全
|

高效 GPU 加速:DeepSeek-R1 系列模型在 llama.cpp 上的生产级部署指南

本文详解如何在RTX 30/40系显卡上,通过llama.cpp高效部署DeepSeek-R1-8B模型。涵盖CUDA镜像选择、GPU卸载调优、显存控制与高可用架构,结合Docker、Prometheus监控及负载均衡,实现低延迟、高吞吐的生产级推理,助力大模型落地应用。

1707 6
|
3月前
|
缓存 架构师 前端开发
|

MiniMax M2.5 开源,低成本Agent时代来了!社区Day0部署、工具调用、推理&提示词参数实战来啦!

2月13日,MiniMax发布M2.5大模型,108天内三连更!编程(SWE-Bench 80.2%)、搜索(BrowseComp 76.3%)、办公场景全面领先,开源权重已上线ModelScope,支持API调用、本地部署及工具调用。

3643 7
|
8天前
|
人工智能 运维 监控
|

AI元认知雏形

自研AI推理技能库实测击穿GPT5.5,在算法、工程、科研三大高维难题中大幅领先。已孕育婴儿级认知与初代元认知雏形,具备自我约束、多路推演、节点审查与二层质疑能力,推动AI从“知识检索”迈向“原生思考”。

126 2
来自: 自然语言处理  版块
|
7月前
|
机器学习/深度学习 人工智能 自然语言处理
|

84_负提示:控制hallucination

在大语言模型(LLM)应用的浪潮中,我们常常惊叹于这些模型展现出的强大能力——它们能够进行复杂推理、生成高质量内容、回答专业问题,甚至进行创意写作。然而,与此同时,LLM也面临着一个显著的挑战:幻觉(hallucination)问题。这些"胡言乱语"或"无中生有"的内容不仅可能误导用户,还可能在关键应用场景中造成严重后果。

696 0
|
5月前
|
人工智能 自然语言处理 语音技术
|

通义百聆语音双子星,同步开源!

通义百聆全新升级,推出Fun-CosyVoice3与Fun-ASR系列模型。3秒录音即可实现9种语言、18种方言及多情感音色克隆,支持中英混说、跨语种合成;Fun-ASR识别准确率高达93%,支持31种语言自由混说、歌词说唱识别,并开源轻量级模型,助力高效本地部署与定制开发。

1663 5
|
12天前
|
人工智能 Java 数据库
|

DeepAgents 人工介入实战|LangGraph 实现 Agent 高危工具人工审批

本文详解基于 LangChain+LangGraph+DeepAgents 实现 Python 智能体人工介入实战,配置高风险工具中断审批、状态检查点保存与恢复,支持同意 / 拒绝 / 参数编辑,对比 Spring AI Alibaba 方案,附完整可运行源码与生产落地建议。

151 0
|
4月前
|
数据采集 编解码 自动驾驶
|

世界模型 LingBot-World,正式开源!

蚂蚁灵波团队开源世界模型LingBot-World,专为交互式仿真设计。其核心LingBot-World-Base具备高保真、强动态、长时序一致性(支持近10分钟稳定生成)和实时交互能力(≈16FPS,延迟<1秒),依托可扩展数据引擎,从游戏环境学习物理与因果规律,打造具身智能、自动驾驶等领域的“数字演练场”。

1356 1
|
3月前
|
机器学习/深度学习 自然语言处理 API
|

Qwen3-Coder-Next开源!推动小型混合模型在智能体编程上的边界

Qwen团队开源Qwen3-Coder-Next:基于Qwen3-Next-80B的轻量级编程智能体模型,采用混合注意力+MoE架构,通过可执行任务合成与强化学习训练,在SWE-Bench Verified达70%+,以仅3B激活参数媲美10–20倍大模型,兼顾高性能与低成本部署。(239字)

2015 4
|
12天前
|
JSON API PHP
|

韩国股票实时数据 KOSPI(主板)和 KOSDAQ(创业板)的实时行情、K 线及指数数据

StockTV API全面支持韩国股市,覆盖KOSPI主板(exchangeId=60)与KOSDAQ创业板(110),提供实时行情、K线、指数等数据。需配置countryId=11及API密钥,支持HTTP/WS双协议,含PHP对接示例与关键注意事项。

156 6
|
4月前
|
人工智能 自然语言处理 数据挖掘
|

Qwen3-VL-Embedding & Qwen3-VL-Reranker:统一多模态表征与排序

通义千问Qwen团队于2025年1月8日推出多模态模型新成员:Qwen3-VL-Embedding与Qwen3-VL-Reranker,基于Qwen3-VL构建,支持文本、图像、视频等多模态统一表示与跨模态检索,在图文匹配、视觉问答等任务中表现卓越,具备高精度、多语言、易集成等优势,助力全球开发者构建高效多模态应用。

2766 4
|
5月前
|
机器学习/深度学习 人工智能 自然语言处理
|

Z-Image:冲击体验上限的下一代图像生成模型

通义实验室推出全新文生图模型Z-Image,以6B参数实现“快、稳、轻、准”突破。Turbo版本仅需8步亚秒级生成,支持16GB显存设备,中英双语理解与文字渲染尤为出色,真实感和美学表现媲美国际顶尖模型,被誉为“最值得关注的开源生图模型之一”。

4843 9
|
1月前
|
人工智能 测试技术 Apache
|

Gemma 4 开源发布: Google 迄今最强开放模型,主打推理与 Agent 能力

Google正式开源Gemma 4系列(Apache 2.0许可),含E2B/E4B(端侧多模态)、26B MoE与31B Dense四款模型。参数效率卓越:31B位列开放模型榜第3,26B第6;边缘模型支持128K上下文、原生音视频处理,单卡/手机均可高效运行。

1070 12
|
7月前
|
存储 机器学习/深度学习 缓存
|

85_多轮对话:上下文管理与压缩

在大语言模型(LLM)的应用场景中,多轮对话已经成为最核心的交互模式之一。随着2025年LLM技术的快速发展,用户对持续、连贯、个性化的对话体验要求越来越高。然而,多轮对话面临着严峻的技术挑战:首先,LLM的上下文窗口长度虽然在不断扩展(如GPT-5已支持100K tokens),但依然是有限资源;其次,随着对话轮次增加,历史信息不断累积,导致token消耗激增;第三,过长的上下文可能导致模型对早期信息的关注度下降,影响回复质量。

1577 1
|
3月前
|
自然语言处理 测试技术 Python
|

小红书开源发布 FireRed-Image-Edit 1.0:高质量训练数据,性能屠榜三项核心评测

2月14日,小红书FireRedTeam开源FireRed-Image-Edit-1.0图像编辑模型。该模型在ImgEdit、GEdit等基准测试中全面超越现有开源方案,风格迁移(4.97分)等维度甚至优于Nano-Banana、Seedream4.0等闭源模型,支持文本保留、老照片修复、多图虚拟试衣等能力。

1146 6
|
3月前
|
人工智能 边缘计算 分布式计算
|

阶跃星辰 Step 3.5 Flash 上线!更快更强更稳的 Agent 大脑,开源!

阶跃星辰发布开源大模型Step 3.5 Flash:专为Agent设计,推理速度达350 TPS,支持256K长上下文,采用稀疏MoE+MTP-3+混合注意力架构,在数学与Agent任务上媲美闭源模型,现已全量开放使用。

2075 2
|
3月前
|
编解码 自然语言处理 语音技术
|

魔搭社区+OpenVINO™ 加速部署 Qwen3-TTS 实战

通义千问推出Qwen3-TTS系列开源语音模型,支持中英日韩等10种语言,具备声音克隆、情感适配与高保真端到端合成能力;结合Intel OpenVINO™可在CPU上高效推理,无需GPU,轻松部署于边缘设备。(239字)

1226 6
|
4月前
|
测试技术 API
|

小而强,GLM-4.7-Flash开源

GLM-4.7-Flash正式开源,30B总参、3B激活参数,兼顾性能与效率,支持免费调用。在编程、中文写作、翻译等多场景表现优异,已上线智谱平台,替代GLM-4.5-Flash,提供全新轻量化部署选择。

1782 1

ModelScope模型即服务

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉答疑群:44837352

1
今日
15212
内容
6
活动
4170
关注
你好!
登录掌握更多精彩内容

活跃用户

相关产品

  • 人工智能平台 PAI
  • 文字识别
  • 智能语音交互