大模型应用:大模型内存与显存深度解析:我们该如何组合匹配模型与显卡.63
本文深入解析大模型本地部署中内存与显存的核心逻辑,涵盖参数-显存精准计算公式、INT4/FP16等精度占用对比、RTX 4090/5090专属部署代码及多卡分片实践,破除“显存需等于内存”等常见误区,助你科学选型、高效落地。
阿里云Tokens是如何收费的?收费标准与万亿Tokens扶持和7000万 Tokens 免费体验活动介绍
阿里云Tokens是AI应用的核心计量单位,用于大模型处理、API授权等场景。文章详细阐述了Tokens的定义、计费逻辑与优惠活动:计费上,不同模型(如Qwen-Turbo、Qwen-Max)有不同阶梯计费标准,且输入输出分开计费;优惠活动方面,企业新客可参与“万亿Tokens扶持计划”,至高得2000元返现,还有“7000万Tokens免费体验”活动。企业合理利用可降低AI应用成本,加速商业化落地。
2026年OpenClaw(养龙虾)+ 钉钉对接:保姆级全链路操作指南
本指南详解2026年OpenClaw(AI智能体)与钉钉深度对接的全链路实践:从环境搭建、钉钉应用配置、OpenClaw本地部署,到中间件开发与内网穿透,实现“钉钉发令—龙虾执行—自动回传”的24小时数字员工闭环。安全、可控、零数据出域。
大模型应用:大模型与智能体(Agent)的核心差异:从定义到实践全解析.34
本文深入解析大模型(LLM)与智能体(AI Agent)的本质区别:大模型是“智能大脑”,专注语言理解与生成,被动响应、无记忆、无工具调用;智能体是“闭环系统”,以大模型为核心,集成规划、记忆、工具调用与反思能力,可主动执行复杂现实任务。通过概念、流程、实例多维对比,厘清二者在技术定位、能力边界与应用场景上的根本差异。
Docker+vLLM内网离线部署Qwen3 流程
本教程详解如何在A10四卡内网环境中,通过Docker+ vLLM离线部署Qwen3-32B/Qwen3-VL-30B-Instruct大模型。涵盖环境准备、镜像离线导入、模型下载、容器启动及参数调优,支持FP8/KV缓存/张量并行等高性能配置,助力安全高效私有化推理
阿里云2026年AI焕新季,马上用千问活动:先用后返至高500元、万亿Tokens扶持、AI焕新礼包规则介绍
阿里云2026年AI焕新季推出千问焕新计划,提供至高500元先用后返优惠,企业新客可享万亿Tokens扶持并申领至高2000元优惠券。领券下单再减1728元,覆盖文本、语音、视觉等全模型。活动包括低至9.9元快速部署OpenClaw,大模型服务节省计划低至4.5折。
全新开源通义千问Qwen3,它来了!
Qwen3是通义千问系列的最新模型,融合推理与非推理模式,兼具QwQ和Instruct模型能力。提供多种尺寸,包括235B-A22B、30B-A3B及六个Dense模型,大幅提升数学、代码、逻辑推理和对话能力,达到业界领先水平。旗舰模型Qwen3-235B-A22B在多场景测试中表现优异,小型模型如Qwen3-4B性能媲美大模型。用户可在阿里云百炼平台免费体验各100万Token。
阿里云快速部署OpenClaw活动,三种方案可选,仅需9.9元定制AI助理
阿里云快速部署OpenClaw活动正在进行中,9.9元起定制AI助理,三步快速部署。三种方案任选:轻量服务器(限量抢)、免运维云端服务、定制ECS部署。搭配百炼大模型享4.5折优惠,推荐组合套餐支持RPA、智能交互等场景。无论是开发者试水还是企业主转型,都能以超低成本打造7*24小时全能数字员工,助力用户以极低成本实现RPA自动化与智能交互,打造全能数字员工。
哪里不对改哪里!全能图像编辑模型Qwen-Image-Edit来啦
Qwen-Image-Edit基于20B Qwen-Image模型,融合视觉语义与外观控制,支持中英文文字精准编辑、风格迁移、IP创作等多重功能,具备SOTA性能,助力低门槛、高精度图像编辑。
MNN × Qwen 实战:离线运行大模型的正确姿势
本期教程带你用MNN+Qwen在手机端部署大模型,从安装MNN Chat体验离线对话,到源码编译、模型转换与推理测试,再到Android/iOS移动端部署全流程实战,并提供精度与性能调优秘籍,助力端侧AI创新挑战赛。
大模型应用:本地部署 vs 云端调用:成本、隐私、效率、方式的综合考量.60
本文深入对比大模型本地部署与云端调用:前者数据自主、隐私强、长期成本低,但需高性能硬件和运维能力;后者开箱即用、免维护、算力弹性,但存在隐私风险与持续费用。结合成本、隐私、效率三维度,提供清晰选型建议及代码示例。
一个提示词模板,搞定抖音短视频脚本创作
专为技术人打造的抖音脚本提示词模板,结构化拆解短视频创作套路,结合DeepSeek、通义千问等AI工具,快速生成可执行脚本框架,助力技术分享、产品演示高效落地,30秒讲清重点,开头抓人、节奏紧凑、完播率提升。
2026年智能体(Agent)怎么学?从入门到实战的全景避坑指南
2026年,AI进入“智能体元年”。本文系统解析智能体四大核心架构与Agentic Workflow设计模式,涵盖开发者、产品经理到业务人员的实战路径,助力把握AI代理红利期,实现从工具应用到架构创新的跃迁。
一句话生成拓扑图!AI+Draw.io 封神开源组合,工具让你的效率爆炸
一句话生成拓扑图!next-ai-draw-io 结合 AI 与 Draw.io,通过自然语言秒出架构图,支持私有部署、免费大模型接口,彻底解放生产力,绘图效率直接爆炸。
如何快速拥有OpenClaw?使用阿里云轻量应用服务器快速部署流程与常见问题参考
OpenClaw是一款开源的本地优先AI代理与自动化平台,可将AI转变为高效的“数字员工”。通过阿里云轻量应用服务器快速部署,集成阿里云百炼大模型,用户可享受强大的文本生成与任务处理能力,同时利用云服务器的稳定与自主可控优势,打造随时可通过钉钉操控的专属AI服务。文章详细介绍了计费方式、购买与配置流程、个性化配置能力,并解答一些常见问题。
大模型应用:拆解大模型算力需求:算力是什么?怎么衡量?如何匹配?.64
本文系统解析大模型算力核心概念:从基础定义(类比工厂效率)、核心指标(FLOPS、精度影响、显存带宽)到模型-硬件匹配公式与实战优化(量化、多卡分片、参数调优),覆盖RTX 4090/A100等主流显卡适配策略,助你精准选型、高效部署。
千问APP来咯!会聊天,能办事,还免费!!
千问APP公测上线!基于全新Qwen3模型,打造全能AI助手,覆盖办公、地图、健康、购物等多场景,免费畅享智能聊天与办事体验。即刻下载,让AI成为你的日常伙伴。
vLLM 架构学习指南
本指南深入解析vLLM高性能推理引擎架构,涵盖核心创新PagedAttention与连续批处理技术,结合代码结构、学习路径与实践建议,系统指导用户从入门到贡献源码的全过程。
大模型应用:大模型算力优化方案:识别突破隐性瓶颈达到效能最大化.65
本文深度剖析大模型落地中“算力跑不满”的隐性瓶颈,从系统(CUDA/驱动/OS)、模型(注意力冗余、激活函数、权重稀疏)、数据(加载、分词、格式)三维度拆解,并提供量化评估方法与场景化优化方案(个人开发/企业推理/边缘部署),助力榨干硬件潜力。
开发更可控,部署更便捷:AgentScope 迈入1.0时代
AgentScope 1.0 是通义实验室推出的开源多智能体开发框架,旨在打造稳定、安全、开箱即用的智能体生产级解决方案。通过“核心框架+运行时+可视化工具”三层架构,支持智能体的构建、部署、监控全生命周期管理,具备实时干预、高效工具调用与智能上下文管理能力,助力开发者实现从“能跑”到“可控、可落地”的跨越。
📣通义大模型新成员Qwen-VLo,重磅上线,它实现了从“看懂”世界到“描绘”世界
通义千问团队推出全新多模态统一理解与生成模型Qwen VLo,具备强大的图像理解与生成能力。它不仅能“看懂”图像内容,还能基于理解进行高质量再创造,实现从感知到生成的跨越。支持开放指令编辑、多语言交互及复杂任务处理,适用于图像生成、风格迁移、检测标注等多种场景。
手机也能跑通义Qwen3大模型,手把手教你部署!
全球开源模型冠军Qwen3与端到端全模态模型Qwen2.5-Omni现已成功在手机上跑通!借助MNN支持,适配Android、iOS及桌面端,实现低延迟、本地化、高安全的AI体验。用户可通过自定义Sampler设置、System Prompt和Max New Tokens调节模型输出风格与长度。
基于Spring AI Alibaba + Spring Boot + Ollama搭建本地AI对话机器人API
Spring AI Alibaba集成Ollama,基于Java构建本地大模型应用,支持流式对话、knife4j接口可视化,实现高隐私、免API密钥的离线AI服务。
最新版matlab r2025b安装图文教程(附安装包下载)方法
MATLAB R2025b发布:聚焦质量与稳定性提升,优化工具箱性能,修复R2025a已知Bug,增强可靠性。安装包已整合,可前往xu5软件库(www.xu5.cc)一键下载,附详细图文安装及激活教程。
大模型应用:CLIP 模型全维度解析:理解理论基础强化基础范例.16
CLIP是OpenAI提出的跨模态模型,通过对比学习将图像与文本映射至统一语义空间,实现零样本图文对齐。无需微调即可完成图像分类、图文检索等任务,显著降低标注成本,成为多模态AI的核心基础。
AgentScope 1.0 全面进化,从原型走向产业落地!
AgentScope全新升级,打造生产级智能体生态:推出开箱即用的Alias、EvoTraders等应用,支持多场景落地;强化基建,实现动态技能扩展、白盒化运行与多语言支持;集成语音交互、数据工程等能力,提供从开发到部署的全链路解决方案。
AI学习全景图:从大模型到RAG,从工具到变现,一条从0到1的路线
告别碎片化学习!本文系统梳理AI知识五层结构:从基础认知到商业变现,提供完整学习路径与优质资源链接。帮你构建AI知识网络,实现从工具使用到能力落地的跃迁。
解决 VSCode 安装通义灵码后左侧菜单栏不显示按钮的问题
在 VSCode 中安装通义灵码插件后,若左侧活动栏未显示图标,可通过右键选中代码触发插件面板,并将其图标拖至左侧栏固定,便于后续快速使用。
Node.js 快速上手:核心特点 + 安装指南
Node.js是Claude Code、OpenAI Codex等AI编程工具的必备运行环境。本文详解其JavaScript全栈、非阻塞I/O、跨平台等核心特性,覆盖Windows/macOS/Linux三端LTS版一键安装方法及常见问题排查,助开发者快速配置本地开发环境。(239字)
56.大模型应用:大模型瘦身:量化、蒸馏、剪枝的基础原理与应用场景深度解析.56
本文深入对比大模型轻量化三大核心技术:量化(降精度,快部署)、蒸馏(知识迁移,高精度)、剪枝(删冗余,结构精简)。详解原理、分类、适用场景、代码实现及选型建议,助开发者根据硬件条件、精度要求与落地周期科学决策。
阿里千问“驻桌”,阿里重构PC生产力
2025年11月26日,阿里巴巴宣布其AI大模型千问与夸克AI浏览器完成深度融合,做到了从手机端到PC端的无缝衔接,办公效率大大提升,同时夸克AI浏览器也释放了千问模型的能力。
大模型工程师基础之学会使用openai
本系列教程涵盖OpenAI API基础到高级应用,包括文本生成、图像处理、语音交互、会话管理、流式响应、文件输入、推理模型及性能评估等十大核心功能。适合新手入门与工程师实践,助您掌握大模型开发关键技术。从简单Prompt设计到复杂多模态任务,逐步深入,结合实例代码与最佳实践,提升实际开发能力。希望这些内容对您有帮助!
Qwen3技术报告首次全公开!“混合推理模型”是这样炼成的
近日,通义千问Qwen3系列模型已开源,其技术报告也正式发布。Qwen3系列包含密集模型和混合专家(MoE)模型,参数规模从0.6B到235B不等。该模型引入了“思考模式”与“非思考模式”的动态切换机制,并采用思考预算机制优化推理性能。Qwen3支持119种语言及方言,较前代显著提升多语言能力,在多个基准测试中表现领先。此外,通过强到弱蒸馏技术,轻量级模型性能优异,且计算资源需求更低。所有Qwen3模型均采用Apache 2.0协议开源,便于社区开发与应用。
别让你的大模型被忽悠了,聊聊prompt注入攻击
本文探讨了Prompt工程中的隐私与安全问题,重点分析了“奶奶漏洞”及更广泛的Prompt攻击现象,特别是Prompt注入的原理与防御手段。Prompt注入通过构造恶意输入突破模型限制,使LLM执行非预期操作。文章介绍了直接注入和间接注入类型,并提供了多种防御方案,如输入过滤、强化系统指令、接入第三方校验库及多模型协作防御。此外,还讨论了Prompt逆向工程及其正负影响,以及恶意MCP服务投毒的实际案例,如GitHub Copilot漏洞。最后提出了动态权限控制和持续安全监测等解决策略。
大模型应用:矩阵乘加(GEMM)全解析:大模型算力消耗的逻辑与优化.68
GEMM(矩阵乘加)是大模型算力核心,占Transformer计算量90%以上。本文系统解析其数学原理、高维适配、算力测算公式,并详解INT8/INT4量化、矩阵分块、硬件加速与批处理四大优化策略,结合代码示例与性能监控方法,助力高效推理落地。
大模型应用:GPU的黑盒拆解:可视化看透大模型并行计算的底层逻辑.67
本文深入解析GPU核心架构与大模型算力优化原理,涵盖SM流式多处理器、显存、显存控制器、PCIe接口等关键组件,详解线程级/指令级并行及张量核心加速机制,并通过全流程耗时分析与任务拆分可视化,揭示“数据传输是主要瓶颈”的核心结论,助力高效部署大模型。
深度测评:DeepSeek 对话导出工具 Top 3,公式不乱码、排版零折损的终极方案
本文为AI技术博主推荐三款高效导出DeepSeek对话的工具:专为iOS/macOS设计的“DS随心转”App,支持多格式且完美保留代码高亮与公式;轻量便捷的浏览器扩展“DeepSeek Share”,适用于Chrome等主流浏览器;以及内置在QQ浏览器中的导出功能,无需额外安装,适合日常快速存档。结合官方导出方式与使用建议,帮助用户根据设备与需求选择最佳方案,同时提醒注意数据隐私与兼容性问题。
Qwen3:小而强,思深,行速
Qwen3(千问3)于北京时间4月29日凌晨发布,是Qwen系列大型语言模型的最新成员,具备全系列、开源最强、混合推理等特性。它包括两款MoE模型(Qwen3-235B-A22B和Qwen3-30B-A3B)及六个Dense模型,支持119种语言。Qwen3在代码、数学和通用能力测试中超越行业顶尖模型,如DeepSeek-R1和Grok-3。其旗舰版Qwen3-235B-A22B仅需4张H20即可本地部署,成本为DeepSeek-R1的35%。此外,Qwen3原生支持思考模式与非思考模式切换,降低复杂任务门槛,并支持MCP协议优化Agent架构。
大模型应用:多卡集群跑满14B模型:大模型推理算力应用实践.66
本项目面向10台RTX 4090集群,优化Qwen-14B大模型推理:通过NF4量化压缩显存、动态批处理(基于Amdahl定律)提升GPU利用率至85%+、多卡模型并行均衡负载,解决卡顿、显存溢出与调度不均问题,支撑日均10万次高并发稳定服务。
大模型部署算力账本:手把手教你算清GPU显存这笔账
本文详解大模型部署中GPU显存计算的关键:以Llama 70B为例,拆解模型权重、KV Cache、其他开销三大部分,揭示高并发下显存需求超1TB的真相,并提供量化、并行优化等降本策略,助你精准规划硬件投入,避免资源浪费或服务崩溃。
构建AI智能体:二十九、Text2SQL:告别繁琐SQL!用大模型自助生成数据报表
Text2SQL技术通过自然语言处理将用户查询转换为SQL语句,解决企业数据查询效率低下的痛点。该技术包含语义理解、模式对齐、SQL生成和优化等核心处理过程,核心组件包括自然语言理解模块、Schema管理模块和SQL生成模块。文章介绍了闭源和开源模型的选择策略,并提供了基于Function Calling的Text2SQL实现示例,展示如何安全高效地将自然语言转换为数据库查询。
从入门到精通:手把手教你用LLaMA Factory微调专属大模型
大家好,我是AI博主maoku老师。你是否觉得大模型“懂王”式回答不够专业?微调正是破局关键!本文带你深入浅出理解微调原理,掌握LoRA、量化、对话模板三大核心技术,并手把手教你用LLaMA Factory零代码实践,四步打造专属Web安全专家模型。从数据准备到部署应用,全程实战,助你将大模型从“通才”炼成“专才”,实现个性化、低成本、高效率的AI赋能。
深度解析智能体工作流(Agentic Workflows):核心概念、模式与应用
本文系统解析智能体工作流(Agentic Workflow),结合AI智能体的推理、工具与记忆能力,实现复杂任务的动态执行。内容涵盖核心概念、关键模式及实际应用,帮助读者全面理解其价值与挑战。
MCP详解:背景、架构与应用
模型上下文协议(MCP)是由Anthropic提出的开源标准,旨在解决大语言模型与外部数据源和工具集成的难题。作为AI领域的“USB-C接口”,MCP通过标准化、双向通信通道连接模型与外部服务,支持资源访问、工具调用及提示模板交互。其架构基于客户端-服务器模型,提供Python、TypeScript等多语言SDK,方便开发者快速构建服务。MCP已广泛应用于文件系统、数据库、网页浏览等领域,并被阿里云百炼平台引入,助力快速搭建智能助手。未来,MCP有望成为连接大模型与现实世界的通用标准,推动AI生态繁荣发展。
大模型应用:稀疏注意力 vs 滑动窗口:大模型扩窗技术完全解析.58
本文详解大模型“扩窗”核心技术:滑动窗口注意力(快而局部,适合中短文本)与稀疏注意力(兼顾局部+跨步+首尾,支持超长上下文)。二者均通过降低O(n²)计算复杂度至线性,解决大模型长文本处理的内存与算力瓶颈,推动其从聊天工具升级为长文档分析、代码全量理解等实用AI。
大模型微调技术综述与详细案例解读
本文是一篇理论与实践结合的综述文章,综合性全面介绍大模型微调技术。本文先介绍大模型训练的两类场景:预训练和后训练,了解业界常见的模型训练方法。在后训练介绍内容中,引出模型微调(模型微调是属于后训练的一种)。然后,通过介绍业界常见的模型微调方法,以及通过模型微调实操案例的参数优化、微调过程介绍、微调日志解读,让读者对模型微调有更加直观的了解。最后,我们详细探讨数据并行训练DDP与模型并行训练MP两类模型并行训练技术,讨论在实际项目中如何选择两类并行训练技术。
AutoGen - 架构学习指南
AutoGen 是微软开源的 AI Agent 框架,支持多智能体协作与分布式部署。本指南从架构解析、技能清单到学习路径,带你由浅入深掌握其核心原理与实战应用,助力构建可扩展的智能系统。