Qwen3开源发布:Think Deeper, Act Faster!社区推理、部署、微调、MCP调用实战教程来啦!
Qwen3开源发布:Think Deeper, Act Faster!社区推理、部署、微调、MCP调用实战教程来啦!
基于阿里云通义千问开发智能客服与问答系统
在企业的数字化转型过程中,智能客服系统已成为提高客户满意度和降低运营成本的重要手段。阿里云的通义千问作为一款强大的大语言模型,具有自然语言理解、对话生成、知识检索等能力,非常适合用来开发智能客服与问答系统。 通过本博客,我们将演示如何基于阿里云的通义千问模型,结合阿里云相关产品如函数计算(FC)、API网关、RDS等,搭建一个功能齐全的智能客服系统。
大模型应用:大模型量化:INT4与INT8核心差异、选型指南及代码实现.53
本文深入解析大模型INT4与INT8量化技术:从“缩放+映射”本质出发,对比二者在压缩率(75% vs 87.5%)、精度(256 vs 16离散值)、显存占用及适用场景的差异;详解scale/zero_point参数原理,并提供BitsAndBytes实战代码,助力高效本地部署。
构建AI智能体:九十八、实践出真知:本地AI大模型部署的核心要点与经验总结
本文介绍了如何在个人电脑上加载和运行轻量级AI大语言模型。首先解析了大语言模型的基本概念和工作原理,包括Tokenizer、Prompt等关键术语。然后详细演示了三种模型加载方式:通过ModelSpace下载Qwen模型、使用HuggingFace加载BERT模型、利用SentenceTransformer获取句子嵌入。特别强调了在CPU环境下的配置技巧,如设置torch.float32数据类型和优化内存使用。文章还提供了完整的中文对话生成示例代码,展示了Qwen1.5-1.8B-Chat模型的实际应用效果
通义 CoGenAV 大模型音画同步感知,重新定义语音理解边界
CoGenAV 是一种创新的多模态语音理解模型,核心理念是实现“音画同步”的深度理解。通过学习 audio-visual-text 的时序对齐关系,构建更鲁棒、更通用的语音表征框架。它在视觉语音识别(VSR)、音视频语音识别(AVSR)、语音增强与分离(AVSE/AVSS)及主动说话人检测(ASD)等任务中表现出色,尤其在嘈杂环境下性能显著提升。仅需 223 小时数据训练即可媲美传统数千小时数据的效果,大幅降低训练成本。CoGenAV 支持主流平台如 GitHub、HuggingFace 和 ModelScope,助力多场景应用开发。
AI Agent 职业路线全解析:从入门到专家的体系化成长路径
本文系统解析AI Agent驱动的软件工程范式变革,面向阿里云开发者,从技术认知、能力图谱、岗位细分到进阶路径,全面梳理Agent时代的职业发展逻辑。涵盖提示工程、架构设计、多Agent协同、云原生落地等核心能力,助力技术人构建面向大模型时代的竞争力。(238字)
基于通义千问:全AI自动驱动合同审查系统的技术解构与实践
“律杏法务云+通义千问”实现合同审查智能化跃迁,融合法律知识图谱与大模型技术,构建生成、审查、交互、进化闭环。支持智能清单生成、风险识别、条款补漏与AI对话,审查效率提升10倍,漏检率低于0.3%,推动法律科技进入AI新范式。
Qwen模型角色扮演最佳实践
角色扮演大模型通过模拟特定角色的行为、语言风格和情感表达,实现高度拟人化和定制化的互动体验。与传统通用模型相比,角色扮演模型在语言风格、性格特征和情绪反应上更加细腻,提供更真实的交互体验。本文介绍了如何通过system prompt、few-shot学习和微调等技术实现大模型的拟人化,包括使用阿里云百炼平台进行角色扮演测试,以及如何通过合成数据和Lora微调提高模型的表演效果。最终,展示了如何通过优化数据质量和训练策略,显著提升角色扮演模型的表现。
向量数据库和嵌入模型
本文介绍了向量数据库和嵌入模型的概念及应用,重点探讨了两者在AI技术栈中的协作关系。向量数据库是一种用于存储高维向量数据的解决方案,支持相似性搜索而非传统的关系型数据库精确匹配。文中通过实例展示了如何使用阿里百炼的文本嵌入模型(text-embedding-v3)将文本向量化,并结合Qdrant向量数据库进行存储与检索。代码示例部分详细说明了从文本嵌入到向量存储及查询的完整流程,为开发者提供了实践参考。
VS Code 实操笔记:简介、对比与从零配置指南
VS Code是微软推出的免费开源跨平台编辑器,轻量灵活,通过插件可扩展为全功能IDE。支持多语言、IntelliSense智能补全、内置调试与Git集成,界面现代、效率卓越,适用于前端、后端及嵌入式开发,是Keil等传统IDE的理想升级之选。(239字)
实战分享 | 抛弃本地Whisper,我用“通义千问+Paraformer”构建了一套B站收藏视频RAG知识库
本文分享如何用阿里云DashScope“全家桶”(Paraformer语音转写+Qwen-Max推理+Text-Embedding-v4向量化)替代本地Whisper,构建轻量、高效、高精度的B站视频RAG知识库,解决显存不足、转写慢、中英识别差等痛点,实测速度提升20倍以上。
大模型应用:大模型运行全流程解析:从初始化加载→计算→结果输出.69
本文系统解析大模型推理全流程:从硬盘加载权重、CPU内存预处理、GPU显存计算,到自回归生成与自然语言解码。涵盖硬件协同(硬盘→内存→GPU)、软件步骤(分词、注意力、采样、后处理)及资源调度优化,揭示其软硬协同的本质。
我用半天时间,一行代码没写ai的一个开源软件 ”一个仓库,管理所有 AI 工具配置“
DotAI 是一个开源工具,通过 Git 统一管理 Cursor、Claude、Copilot 等十余款 AI 编程助手的原生配置,零格式转换、自动分发、支持用户/项目双作用域,并提供 CLI 与 VSCode 插件双界面。
【架构模式】解构多智能体协作:AI Agent “指挥官”与“调度官”的双层治理实践
本文提出“指挥官-调度官”双层架构,解决多智能体系统中的意图漂移、死循环与资源竞争问题。通过职能分离,实现高并发、高可用的复杂任务协同。
📢 我们发布了新一代端到端语音交互模型 Fun-Audio-Chat!
通义百聆开源Fun-Audio-Chat(8B),支持端到端语音交互,具备情感感知与任务执行能力。在多榜单同尺寸模型中排名第一,支持高精度语音理解、情感识别与Function Call,高效低延迟,已全面开放代码与权重,欢迎体验!
Qwen3 Next 在 TensorRT LLM 上的部署指南
本指南介绍如何在TensorRT LLM框架上部署Qwen3-Next-80B-A3B-Thinking模型,基于默认配置实现快速部署。涵盖环境准备、Docker容器启动、服务器配置与性能测试,支持BF16精度及MoE模型优化,适用于NVIDIA Hopper/Blackwell架构GPU。
2025年前端框架是该选vue还是react?有了大模型-例如通义灵码辅助编码,就不用纠结了!vue用的多选react,react用的多选vue
本文比较了Vue和React两大前端框架,从状态管理、数据流、依赖注入、组件管理等方面进行了详细对比。当前版本和下载量数据显示React更为流行,但Vue在国内用户量增长迅速。Vue 3通过组合式API提供了更灵活的状态管理和组件逻辑复用,适合中小型项目;React则更适合大型项目和复杂交互逻辑。文章还给出了选型建议,强调了多框架学习的重要性,认为技术问题已不再是选型的关键,熟悉各框架的最佳实践更为重要。
2026年的企业级 AI 应用:工作流的边界,与 Coding 的回归
2026年,企业级AI应用进入新分水岭:工作流解决启动快,代码承载长期复杂性。Dify、n8n等平台正补工程能力,LangGraph等框架则增强编排性。核心命题已非“二选一”,而是——**Workflow管编排,Code管核心**:低风险场景用可视化,高可靠需求回归代码优先。(239字)
【奶奶看了都会】ComfyUI+SVD制作AI视频教程,附效果演示
AI一天,人间一年。大家好啊,我是小卷,最近AI绘画又发展出一些新玩意了,小卷因为工作的关系有一个月没关注AI的发展了,都有点跟不上版本节奏了。。。
# Qwen3-8B 的 TTFT 性能分析:16K 与 32K 输入 Prompt 的推算公式与底层原理详解
Qwen3-8B 是通义实验室推出的 80 亿参数大模型,支持最长 32,768 token 上下文,适用于长文本处理场景。通过 FP8 量化、CUDA Kernel 优化及 RoPE 位置编码技术,提升推理效率与稳定性。模型在 16K 输入下 TTFT 约 150-200ms,32K 输入下约 250-300ms,适用于文档摘要与长对话交互。
阿里云 AI 产品免费试用:超30款 AI 产品和7000万大模型 tokens 免费体验
阿里云AI免费试用专区上线!新用户可享7000万大模型Tokens、30+款AI产品免费体验,覆盖大模型、AI开发、算力、文本与视觉全场景,支持通义千问系列、百炼平台及PAI开发工具,零门槛构建AI应用,助力个人学习与企业降本增效。
Gemini CLI 架构学习指南
本指南深入解析开源终端AI助手Gemini CLI的架构设计,涵盖项目结构、核心流程与技术栈(TypeScript/React+Ink/Node.js),并提供从环境搭建到贡献代码的四阶段学习路径,助力开发者掌握AI编程工具开发精髓。
一键部署开源Qwen3并集成到钉钉、企业微信
Qwen3系列模型现已正式发布并开源,包含8款“混合推理模型”,其中涵盖两款MoE模型(Qwen3-235B-A22B与Qwen3-30B-A3B)及六个Dense模型。阿里云计算巢已支持Qwen3-235B-A22B和Qwen3-32B的私有化部署,用户可通过计算巢轻松完成部署,并借助AppFlow集成至钉钉机器人或企业微信。文档详细介绍了从模型部署、创建应用到配置机器人的全流程,帮助用户快速实现智能助手的接入与使用。
大模型应用:大模型的词元化处理详解:BPE、WordPiece、Unigram.11
本文详解大模型中文词元化三大核心算法:BPE(基于频率合并)、WordPiece(基于似然增益合并)和Unigram(自顶向下概率筛选)。通过原理、流程、代码与示例对比,揭示其在中文分词中的适用性与优化要点,强调语料质量、参数配置及中文特性适配的关键作用。(239字)
下一代 IDE,没有文本编辑器
当AI自主写代码,开发者角色正从“编码者”转向“指挥官”。本文以独立开发者打造的CodexMonitor为切入点,揭示OpenAI Codex的平台野心——通过开放的App-Server协议,构建AI Agent时代的“操作系统”。它重新定义IDE:无需编辑器,重在多代理协同、安全审批与工作流编排。协议即权力,平台已启幕。(239字)
通义大模型使用指南之通义千问
本文介绍了如何注册并使用通义大模型,该平台提供了通义千问、通义万相和通义听悟三大功能。通义千问包含对话和百宝箱两个子功能。在对话中,用户需按照特定格式提问,如设定角色、背景等,但实际体验中,回复可能不够理想。百宝箱提供不同场景的应用,如健身教练和办公助理。通过示例展示了健身计划的生成,但与专业教练相比仍有差距。对于职场问题,通义千问的回答显得较为通用,难以满足个性化需求。
Agent Computer Interface 的终局,不会是 CLI
本文批判CLI-first范式,指出其本质缺陷在于将“发命令”误等同于“构建工作环境”。CLI仅提供静态快照,导致Agent需耗费大量推理资源在状态对齐与过期信息识别上。真正出路是构建带生命周期、可原地更新、能自动清理陈旧上下文的Agent App——即把IDE级工作空间嵌入Agent上下文,实现状态一致性与对象化操作。
大模型应用:语音转文本(ASR)实践:OpenAI Whisper精准转录解析.21
本文详解OpenAI Whisper语音转文本(ASR)技术,涵盖基础概念、模型选型(tiny至large-v3)、核心参数调优(language/temperature/beam_size等)、代码实战、词级时间戳、批量处理、说话人分离及音频降噪等进阶技巧,助力零基础用户快速上手并精准适配各类场景。
革命性突破!PathTree问世:AI病理诊断首次学会“像医生一样思考”
在精准医疗时代,清华、中山一院等联合发布PathTree技术,突破AI病理诊断瓶颈。它首创“树状诊断”范式,融合文本引导与双模态交互,让AI像医生一样逐层推理,显著提升肺癌、前列腺癌等复杂亚型判别精度与可解释性,推动AI从“看见”走向“理解”诊断逻辑。
大模型微调技术入门:从核心概念到实战落地全攻略
本课程系统讲解大模型微调核心技术,涵盖LoRA、QLoRA等高效方法,结合ComfyUI与主流工具实战,从数据准备到模型部署全流程落地,助力开发者低成本定制专属AI模型。
大模型应用:批量文档摘要与分类实践:本地合同、报告数据处理与导出.70
本方案基于Qwen 1.5 7B大模型,实现本地化批量文档处理:自动读取Word/PDF,经TextSplitter智能分块、Schema引导式提示,生成标准化摘要与多标签分类,最终导出CSV。全程离线运行,保障敏感数据安全,显著提升合同、报告等高频文档的处理效率与准确性。
基于Qwen 2.5的世界科学智能大赛冠军方案
本方案基于通义千问模型,采用多阶段的Easy-to-Hard数据合成方法,模拟人类学习的由简单到困难的思路,逐阶段构造多样化的训练数据。数据生成阶段,训练数据的标签,引入了“Chain-of-Thought”思维链模式,生成多样化的推理路径,逐步对齐推理Scaling Law。训练阶段,采用了LoRA对通义千问32B模型在合成数据集上进行参数高效微调。推理阶段,使用了4bit低精度量化,并结合vLLM框架进行推理加速,最终达到准确性、效率和显存利用率的统一。
通义千问API:让大模型写代码和跑代码
基于前面三章的铺垫,本章我们将展示大模型Agent的强大能力。我们不仅要实现让大模型同时使用多种查询工具,还要实现让大模型能查询天气情况,最后让大模型自己写代码来查询天气情况。
AI大模型分词器详解
分词器是将文本转为模型可处理数字序列的关键组件。本文详解BPE、WordPiece、SentencePiece三大主流算法原理与优劣,对比其在多语言支持、分词粒度等方面的差异,并提供中英文实战代码示例,助你掌握词汇表构建流程、特殊标记处理及常见面试问题应对策略。
通义万相2.5-图生视频-Preview,模型使用指南
该表格展示了多个设计场景,包括模型选择、复制粘贴提示词与图片、一键生成视频等步骤。每个步骤配有详细描述及示意图,呈现了不同主题和风格的设计构思与实现方式。
5大实战技巧:优化RAG召回质量,避免“召回不足”灾难!
本文分享了团队在金融风控系统开发中优化RAG系统的实战经验,涵盖文档处理、召回策略与生成优化三大环节,解决召回不准、数据噪声等问题,助力构建高效精准的RAG系统。
搞定!微信接入DeepSeek打造聊天机器人,1行代码就行!
程序员晚枫分享了一个有趣的Python项目,将DeepSeek大模型接入微信,实现自动聊天。通过PyOfficeRobot库,仅需1行代码即可完成接入,打造AI聊天机器人。该项目基于Windows API操作微信,目前仅支持Windows系统。用户需填写好友名称和API Key,轻松体验AI对话。此外,PyOfficeRobot还支持其他大模型如阿里通义、智谱等。欢迎尝试并参与改进开源项目。
大模型应用:上下文理解极限:Context Window 与注意力跨度的数学边界.57
本文深入解析大模型长文本处理的三大核心概念:上下文窗口(输入长度上限)、注意力跨度(有效关注范围)与数学边界(算力/显存制约)。三者共同决定模型真实能力,而非仅看“128K”等宣传数字。理解它们是合理选型、优化提示、评估性能的关键。
AI企业必看:最新结果标识合规要求及规范
随着《人工智能生成合成内容标识办法》及配套标准的发布,AI企业需快速掌握政策要求以确保合规运营。该办法明确指出,利用AI生成的内容(如文本、图片、音频、视频等)需通过显性标识(如“AI生成”字样)或隐性标识(如元数据、数字水印)进行标注。内容传播平台也需核验标识并提醒用户内容性质。此外,应用程序分发平台在审核时需确认是否提供AI生成服务及相关标识材料。对于AI企业而言,合规已成为必修课,需重点关注标识的规范性和溯源能力,以应对即将到来的监管要求。
vllm+vllm-ascend本地部署QwQ-32B
本指南介绍如何下载、安装和启动基于Ascend的vLLM模型。首先,可通过华为镜像或Hugging Face下载预训练模型;其次,安装vllm-ascend,支持通过基础镜像(如`quay.io/ascend/vllm-ascend:v0.7.3-dev`)或源码编译方式完成;最后,使用OpenAI兼容接口启动模型,例如运行`vllm serve`命令,设置模型路径、并行规模等参数。适用于大模型推理场景,需注意显存需求(如QwQ-32B需70G以上)。
通义千问API:找出两篇文章的不同
本章我们将介绍如何利用大模型开发一个文档比对小工具,我们将用这个工具来给互联网上两篇内容相近但版本不同的文档找找茬,并且我们提供了一种批处理文档比对的方案