|
自然语言处理 IDE Java
|

通义灵码真好用!

通义灵码小白体验手把手教程,真的很好用呢!

3147 4
|
14天前
|
存储 机器学习/深度学习 自然语言处理
|

56.大模型应用:大模型瘦身:量化、蒸馏、剪枝的基础原理与应用场景深度解析.56

本文深入对比大模型轻量化三大核心技术:量化(降精度,快部署)、蒸馏(知识迁移,高精度)、剪枝(删冗余,结构精简)。详解原理、分类、适用场景、代码实现及选型建议,助开发者根据硬件条件、精度要求与落地周期科学决策。

477 16
|
8月前
|
存储 人工智能 自然语言处理
|

深度解析智能体工作流(Agentic Workflows):核心概念、模式与应用

本文系统解析智能体工作流(Agentic Workflow),结合AI智能体的推理、工具与记忆能力,实现复杂任务的动态执行。内容涵盖核心概念、关键模式及实际应用,帮助读者全面理解其价值与挑战。

6653 1
|
缓存 自然语言处理 并行计算
|

基于NVIDIA A30 加速卡推理部署通义千问-72B-Chat测试过程

本文介绍了基于阿里云通义千问72B大模型(Qwen-72B-Chat)的性能基准测试,包括测试环境准备、模型部署、API测试等内容。测试环境配置为32核128G内存的ECS云主机,配备8块NVIDIA A30 GPU加速卡。软件环境包括Ubuntu 22.04、CUDA 12.4.0、PyTorch 2.4.0等。详细介绍了模型下载、部署命令及常见问题解决方法,并展示了API测试结果和性能分析。

6200 1
|
5月前
|
Web App开发 人工智能
|

阿里千问“驻桌”,阿里重构PC生产力

2025年11月26日,阿里巴巴宣布其AI大模型千问与夸克AI浏览器完成深度融合,做到了从手机端到PC端的无缝衔接,办公效率大大提升,同时夸克AI浏览器也释放了千问模型的能力。

4386 0
|
3月前
|
数据采集 人工智能 安全
|

从入门到精通:手把手教你用LLaMA Factory微调专属大模型

大家好,我是AI博主maoku老师。你是否觉得大模型“懂王”式回答不够专业?微调正是破局关键!本文带你深入浅出理解微调原理,掌握LoRA、量化、对话模板三大核心技术,并手把手教你用LLaMA Factory零代码实践,四步打造专属Web安全专家模型。从数据准备到部署应用,全程实战,助你将大模型从“通才”炼成“专才”,实现个性化、低成本、高效率的AI赋能。

1650 1
|
2天前
|
数据采集 人工智能 自然语言处理
|

Token中文新译名:「符元」——一文七个维度讲清Token的本质定义

拒绝“智元”走私语义,七维拆解 Token 物理本质,定义 AI 时代唯一真名:「符元」。

127 2
|
7月前
|
机器学习/深度学习 数据采集 算法
|

大模型微调技术综述与详细案例解读

本文是一篇理论与实践结合的综述文章,综合性全面介绍大模型微调技术。本文先介绍大模型训练的两类场景:预训练和后训练,了解业界常见的模型训练方法。在后训练介绍内容中,引出模型微调(模型微调是属于后训练的一种)。然后,通过介绍业界常见的模型微调方法,以及通过模型微调实操案例的参数优化、微调过程介绍、微调日志解读,让读者对模型微调有更加直观的了解。最后,我们详细探讨数据并行训练DDP与模型并行训练MP两类模型并行训练技术,讨论在实际项目中如何选择两类并行训练技术。

2118 2
|
2天前
|
机器学习/深度学习 缓存 监控
|

大模型应用:矩阵乘加(GEMM)全解析:大模型算力消耗的逻辑与优化.68

GEMM(矩阵乘加)是大模型算力核心,占Transformer计算量90%以上。本文系统解析其数学原理、高维适配、算力测算公式,并详解INT8/INT4量化、矩阵分块、硬件加速与批处理四大优化策略,结合代码示例与性能监控方法,助力高效推理落地。

122 17
|
3月前
|
Web App开发 人工智能 JSON
|

深度测评:DeepSeek 对话导出工具 Top 3,公式不乱码、排版零折损的终极方案

本文为AI技术博主推荐三款高效导出DeepSeek对话的工具:专为iOS/macOS设计的“DS随心转”App,支持多格式且完美保留代码高亮与公式;轻量便捷的浏览器扩展“DeepSeek Share”,适用于Chrome等主流浏览器;以及内置在QQ浏览器中的导出功能,无需额外安装,适合日常快速存档。结合官方导出方式与使用建议,帮助用户根据设备与需求选择最佳方案,同时提醒注意数据隐私与兼容性问题。

1195 4
|
5月前
|
人工智能 语音技术 流计算
|

一图掌握通义千问:模型生态与应用场景全览

通义千问(Qwen)系列提供全栈开源AI能力,涵盖语言、视觉、语音等多模态应用。旗舰模型Qwen3-Max性能领先,支持92种语言翻译与高精度语音识别,具备强大代码生成与图像处理能力,助力开发者与企业高效构建智能应用。

837 2
|
前端开发
|

使用LangGraph构建多Agent系统架构!

【10月更文挑战第7天】

2740 0
|
4天前
|
监控 并行计算 算法
|

大模型应用:多卡集群跑满14B模型:大模型推理算力应用实践.66

本项目面向10台RTX 4090集群,优化Qwen-14B大模型推理:通过NF4量化压缩显存、动态批处理(基于Amdahl定律)提升GPU利用率至85%+、多卡模型并行均衡负载,解决卡顿、显存溢出与调度不均问题,支撑日均10万次高并发稳定服务。

120 6
|
6月前
|
人工智能 API 开发工具
|

AutoGen - 架构学习指南

AutoGen 是微软开源的 AI Agent 框架,支持多智能体协作与分布式部署。本指南从架构解析、技能清单到学习路径,带你由浅入深掌握其核心原理与实战应用,助力构建可扩展的智能系统。

1997 5
|
5月前
|
SQL 自然语言处理 关系型数据库
|

构建AI智能体:二十九、Text2SQL:告别繁琐SQL!用大模型自助生成数据报表

Text2SQL技术通过自然语言处理将用户查询转换为SQL语句,解决企业数据查询效率低下的痛点。该技术包含语义理解、模式对齐、SQL生成和优化等核心处理过程,核心组件包括自然语言理解模块、Schema管理模块和SQL生成模块。文章介绍了闭源和开源模型的选择策略,并提供了基于Function Calling的Text2SQL实现示例,展示如何安全高效地将自然语言转换为数据库查询。

2202 4
|
自然语言处理 搜索推荐
|

通义大模型使用指南之通义万相

该文介绍了如何在阿里云的通义大模型平台注册账号,并详细展示了通义万相功能的使用,包括文本生成图像、相似图像生成、图像风格迁移和应用广场(虚拟模特)四个部分。用户可以通过输入文字或选择图片,生成不同风格的创意作品,并能进行点赞、不满意、生成相似图、下载原图和收藏等操作。在应用广场中,用户可以上传图片并替换模特及背景,创建个性化商品展示图。

6669 0
|
3天前
|
存储 并行计算 数据可视化
|

大模型应用:GPU的黑盒拆解:可视化看透大模型并行计算的底层逻辑.67

本文深入解析GPU核心架构与大模型算力优化原理,涵盖SM流式多处理器、显存、显存控制器、PCIe接口等关键组件,详解线程级/指令级并行及张量核心加速机制,并通过全流程耗时分析与任务拆分可视化,揭示“数据传输是主要瓶颈”的核心结论,助力高效部署大模型。

116 6
|
9月前
|
存储 资源调度 并行计算
|

# Qwen3-8B 与 Qwen3-14B 的 TTFT 性能对比与底层原理详解

通义千问Qwen3系列是通义实验室2025年推出的最新大模型,包含多种参数版本,其中Qwen3-8B与Qwen3-14B均支持32K token上下文。Qwen3-8B参数量较小,响应更快,适合低延迟交互;Qwen3-14B参数更多,推理更强,适用于复杂任务。两者在TTFT、架构优化、量化技术及部署方案上各有侧重,满足多样应用场景需求。

4751 10
|
12月前
|
机器学习/深度学习 人工智能 编解码
|

AI视频生成也能自动补全!Wan2.1 FLF2V:阿里通义开源14B视频生成模型,用首尾两帧生成过渡动画

万相首尾帧模型是阿里通义开源的14B参数规模视频生成模型,基于DiT架构和高效视频压缩VAE,能够根据首尾帧图像自动生成5秒720p高清视频,支持多种风格变换和细节复刻。

2520 9

通义大模型使用指南之通义听悟

本文介绍了阿里云通义平台的注册和使用,主要包括两个部分:注册和功能介绍。用户可以通过访问网址 <https://tongyi.aliyun.com/> 进行注册。在功能介绍中,重点讲解了通义听悟的功能,它提供实时语音转文字、音视频文件转文字、智能总结和中英互译服务。用户可以体验实时录音并标记重点、问题和代办事项,方便会议记录和整理。此外,通义听悟还支持上传音视频文件转写和播客链接转写,以及浏览器插件用于处理网页、手机和微信上的语音内容。

3232 0
|
7月前
|
存储 机器学习/深度学习 算法
|

​​LLM推理效率的范式转移:FlashAttention与PagedAttention正在重塑AI部署的未来​

本文深度解析FlashAttention与PagedAttention两大LLM推理优化技术:前者通过分块计算提升注意力效率,后者借助分页管理降低KV Cache内存开销。二者分别从计算与内存维度突破性能瓶颈,显著提升大模型推理速度与吞吐量,是当前高效LLM系统的核心基石。建议收藏细读。

1357 125
|
人工智能 自然语言处理 API
|

AI大模型 智能AI开源模型与大模型接口整理(8个开源模型+7个大模型接口)

AI大模型 智能AI开源模型与大模型接口整理(8个开源模型+7个大模型接口)

2923 5
|
11月前
|
编解码 人工智能
|

通义万相Wan2.1-VACE开源!业内首个视频编辑统一模型!附推理教程

通义万相Wan2.1-VACE开源!业内首个视频编辑统一模型!附推理教程

2220 7
|
人工智能 编解码
|

通义万相2.1:VBench榜单荣登第一!阿里通义万相最新视频生成模型,支持生成1080P长视频

万相2.1是阿里通义万相最新推出的视频生成模型,支持1080P无限长视频生成,具备复杂动作展现、物理规律还原、艺术风格转换等功能。

2604 27
|
2月前
|
机器学习/深度学习 自然语言处理 并行计算
|

大模型应用:混合专家模型(MoE):大模型性能提升的关键技术拆解.37

MoE(混合专家模型)是一种高效大模型架构,通过“智能调度+稀疏激活”机制,让多个专业化子网络(专家)按需协作。它兼顾性能与效率:参数规模大但推理仅激活2-4个专家,显著降本提速;既保持通用能力,又在医疗、法律等细分领域更专精,是当前大模型落地的关键技术。

632 17
|
人工智能 前端开发 API
|

基于agentscope的多智能体游戏场景-骗子酒馆

骗子酒馆是一款基于多智能体系统的在线社交推理游戏,玩家通过掷骰子和扑克牌进行智力和心理博弈,结合大语言模型技术,每个游戏角色由AI扮演,具备独特的性格和决策逻辑,提供高度沉浸式的体验。游戏采用黑板通信模式,确保信息高效交换,支持多种角色如胆小鬼、占卜师等,每个角色拥有特定的技能和行为模式,增强游戏的策略深度和互动性。游戏界面简洁,操作流畅,适合喜欢心理战和策略游戏的玩家。文章末尾有源码和体验地址。

2291 13
|
12天前
|
机器学习/深度学习 人工智能 机器人
|

大模型应用:稀疏注意力 vs 滑动窗口:大模型扩窗技术完全解析.58

本文详解大模型“扩窗”核心技术:滑动窗口注意力(快而局部,适合中短文本)与稀疏注意力(兼顾局部+跨步+首尾,支持超长上下文)。二者均通过降低O(n²)计算复杂度至线性,解决大模型长文本处理的内存与算力瓶颈,推动其从聊天工具升级为长文档分析、代码全量理解等实用AI。

254 26
|
7月前
|
机器学习/深度学习 人工智能 测试技术
|

探索 Qwen2.5-Max 的智能:大规模 MoE 模型的飞跃

Qwen2.5-Max 是通义实验室推出的最先进MoE模型,在推理、知识和代码任务中表现卓越,已在超20万亿token上预训练,并通过SFT和RLHF优化。在多项基准测试中领先,如Arena-Hard达89.4,MMLU-Pro为76.1,性能超越DeepSeek V3、GPT-4o等模型,成为当前最佳开源模型。可通过Qwen Chat和API使用,适用于开发者、研究者及AI爱好者探索前沿AI能力。

1093 2
|
3月前
|
机器学习/深度学习 人工智能 缓存
|

构建AI智能体:九十二、智能协作的艺术:大模型上下文与Token优化指南

本文深入解析大模型上下文窗口与Token优化机制,阐明其作为协作“白板”的核心作用。通过精简提示、结构化输入、控制输出等策略,开发者可有效降低Token消耗,提升AI应用的效率与经济性。

906 7
|
人工智能 API
|

通过API调用通义千问时出现DataInspectionFailed的解决办法(玄学版)

在使用qwen-plus API进行长文本翻译时,遇到了DataInspectionFailed错误,提示输入数据可能包含不当内容。尽管确认文本无敏感内容,但误判依然发生。通过将每个分段的字符数从1000降低到700,问题得以解决。建议在处理长文本时,减少每次请求的字符数以避免误判。

5833 6
|
6月前
|
人工智能 算法 安全
|

要不要做算法、大模型备案?看这个流程图就明白了!

本文详解算法备案、大模型备案与大模型登记的区别及适用场景,涵盖舆论属性、社会动员能力、生成式AI服务等核心概念,解析三类备案的流程、周期、材料要求及政策依据,助力企业合规开展AI服务。

2158 1
|
16天前
|
人工智能 弹性计算 安全
|

阿里云AI焕新季活动:满减券+OpenClaw低至9.9元起,百炼大模型服务4.5折

阿里云2026年AI焕新季活动提供个人用户360元、企业用户1728元满减券礼包,OpenClaw低至9.9元快速部署,千问大模型全尺寸适配多场景。活动还包括千问焕新计划,企业新客可申领至高2000元优惠券,享万亿Tokens扶持。云服务器2核2G配置38元/年起,精选组合购享折扣价。新迁入云用户享5亿算力补贴,预约出海专家可申请至高10万元补贴。

437 12
|
23天前
|
API Docker 异构计算
|

大模型应用:大模型本地化部署与API调用:打包迁移到服务器的多种方式实践.47

本文详解大模型从本地运行到云端API服务的全链路部署:涵盖硬件要求(GPU/CPU/内存)、软件环境(Python/FastAPI/Transformers)、模型选型(Qwen/ChatGLM等),并提供脚本部署、EXE打包(PyInstaller)和Docker容器化三种方案,支持局域网调用与接口文档自动生成,助力零基础用户快速实现“开箱即用”的稳定API服务。

774 25
|
3月前
|
机器学习/深度学习 人工智能 自然语言处理
|

大模型应用:本地大模型部署中的Token效率优化与性能分析.9

本文基于Qwen1.5-1.8B-Chat模型,构建了完整的Token监控与优化系统,深入分析对话中Token消耗模式,涵盖分词原理、多轮累积统计、上下文压缩、Prompt精简及响应长度控制等策略,为中小规模大模型的高效、低成本部署提供可复用方案。

730 14
|
8月前
|
存储 人工智能 算法
|

​​向量数据库终极指南:AI开发者的进阶手册​

本文深入解析向量数据库的原理与实战应用,涵盖其在AI系统中的核心作用、关键技术(如HNSW、PQ、LSH)、相似性搜索、元数据过滤及无服务器架构优势。适合开发者和AI从业者学习提升。

2445 1

Cursor + qwen2.5-coder 32b 的配置方式

安装Cursor后,进入设置修改OpenAI基础URL为阿里云的DashScope接口,并添加Qwen2.5-Coder 32B模型。需先访问阿里云百灵控制台申请免费Key。配置完成后,即可使用该模型进行开发和测试。

11276 2
|
6月前
|
数据采集 文字识别 算法
|

精通RAG:从“能用”到“好用”的进阶优化与评估之道

你的RAG应用是否总是答非所问,或者检索到的内容质量不高?本文聚焦于RAG系统的进阶优化,深入探讨从查询转换、多路召回与重排序(Rerank)等高级检索策略,到知识库构建的最佳实践。更重要的是,我们将引入强大的`Ragas`评估框架,教你如何用数据驱动的方式,科学地量化和提升你的RAG系统性能。

671 7
|
人工智能 自然语言处理 物联网
|

llama factory 从数据集起步 跑通 qwen系列开源生成式大模型 微调

`dataset_info.json` 文件用于管理 llama factory 中的所有数据集,支持 `alpaca` 和 `sharegpt` 格式。通过配置此文件,可以轻松添加自定义数据集。数据集的相关参数包括数据源地址、数据集格式、样本数量等,支持 Hugging Face 和 ModelScope 两个平台的数据集仓库。针对不同格式的数据集,提供了详细的配置示例,如 `alpaca` 格式的指令监督微调数据集、偏好数据集等,以及 `sharegpt` 格式的多模态数据集等。今天我们通过自定义数据集的方式来进行qwen2.5_14B_instruct模型进行微调

7807 7
|
人工智能 编解码 机器人
|

通义千问,又开源了!

通义千问,又开源了!

52791 66
|
11月前
|
存储 人工智能 安全
|

自媒体创作场景实践|通义千问3 + MCP=一切皆有可能

本文介绍了通过MCP(Model Context Protocol)结合通义千问大模型实现跨平台、跨服务的自动化任务处理方案。使用Qwen3-235B-A22B模型,配合ComfyUI生成图像,并通过小红书等社交媒体发布内容,展示了如何打破AI云服务的数据孤岛。具体实践包括接入FileSystem、ComfyUI和第三方媒体Server,完成从本地文件读取到生成图像再到发布的全流程。 方案优势在于高可扩展性和易用性,但也存在大模型智能化不足、MCP Server开发难度较大及安全风险等问题。未来需进一步提升模型能力、丰富应用场景并解决安全挑战,推动MCP在更多领域落地。

2682 27
|
6月前
|
存储 缓存 负载均衡
|

TensorRT LLM 中的并行策略

TensorRT LLM提供多种GPU并行策略,支持大模型在显存与性能受限时的高效部署。涵盖张量、流水线、数据、专家及上下文并行,并推出宽专家并行(Wide-EP)应对大规模MoE模型的负载不均与通信挑战,结合智能负载均衡与优化通信核心,提升推理效率与可扩展性。

946 154
|
自然语言处理 前端开发 Serverless
|

基于阿里云通义千问开发编程辅助与代码生成工具

随着软件开发需求的增加,编程辅助与代码生成工具成为开发者提高效率的利器。这类工具能够根据用户描述生成代码片段、协助调试、生成自动化脚本等,大大减少重复性劳动。阿里云通义千问作为一款先进的大语言模型,具备强大的自然语言处理和代码生成能力,非常适合用于开发这样的工具。

2851 3
|
机器学习/深度学习 人工智能 自然语言处理
|

CosyVoice 与 SenseVoice:阿里FunAudioLLM两大语音生成项目的深度评测

近年来,基于大模型的语音人工智能技术发展迅猛,为自然语音人机交互带来新的可能。通义语音大模型无疑是这一领域的佼佼者。它涵盖了语音理解与语音生成两大核心能力,可支持多种语音任务,包括多语种语音识别、语种识别、情感识别、声音事件检测以及语音合成等

5091 1
|
6月前
|
存储 人工智能 前端开发
|

超越问答:深入理解并构建自主决策的AI智能体(Agent)

如果说RAG让LLM学会了“开卷考试”,那么AI智能体(Agent)则赋予了LLM“手和脚”,使其能够思考、规划并与真实世界互动。本文将深入剖析Agent的核心架构,讲解ReAct等关键工作机制,并带你一步步构建一个能够调用外部工具(API)的自定义Agent,开启LLM自主解决复杂任务的新篇章。

1233 6
|
6月前
|
自然语言处理 测试技术 API
|

通义Qwen3-Max:大就是好

通义千问Qwen3-Max正式发布,参数超1T,训练稳定高效,在代码、推理、多语言等任务中表现卓越。预览版已登顶LMArena榜单前三,支持阿里云百炼API调用与Qwen Chat体验,敬请试用。

3246 32
|
8月前
|
数据可视化 物联网 开发者
|

深度解析四大LLM微调工具:从单卡到千亿级训练的四大解决方案

本文详解大语言模型微调四大工具——Unsloth、Axolotl、LlamaFactory、DeepSpeed,覆盖从单卡实验到万亿参数分布式训练场景,助你掌握主流框架选型策略,提升微调效率。建议点赞收藏。

2655 1
|
6天前
|
存储 人工智能 安全
|

阿里云OpenClaw部署活动,9.9元起快速部署定制AI助理,轻松养虾

阿里云“一键部署,快乐养虾”活动提供低成本、高效率的OpenClaw超级AI助理搭建方案,实现7×24小时全天候服务。用户可通过简单几步快速完成钉钉/飞书/QQ机器人部署,自动处理会议纪要生成、数据汇总等高频重复工作,提升办公效率。方案支持多端消息聚合、主动任务管理及隐私数据本地化存储。活动期间,用户可享9.9元起部署优惠,轻松构建定制化AI助理,推动智能化办公与生活管理升级。

109 1
|
3月前
|
人工智能 安全 机器人
|

📘 2026 AI Agent 职业路线图:从研发范式到商业闭环

📘2026 AI Agent职业路线图:AI进入“大航海时代”,从LLM迈向自主智能体。涵盖核心技术栈、四大热门赛道(架构师、具身智能、安全专家、行业产品经理)、实战构建与职业发展路径,助你掌握Agent时代核心竞争力,实现职业跃迁。

1036 6
|
11月前
|
机器学习/深度学习 人工智能 关系型数据库
|

通义 CoGenAV 大模型音画同步感知,重新定义语音理解边界

CoGenAV 是一种创新的多模态语音理解模型,核心理念是实现“音画同步”的深度理解。通过学习 audio-visual-text 的时序对齐关系,构建更鲁棒、更通用的语音表征框架。它在视觉语音识别(VSR)、音视频语音识别(AVSR)、语音增强与分离(AVSE/AVSS)及主动说话人检测(ASD)等任务中表现出色,尤其在嘈杂环境下性能显著提升。仅需 223 小时数据训练即可媲美传统数千小时数据的效果,大幅降低训练成本。CoGenAV 支持主流平台如 GitHub、HuggingFace 和 ModelScope,助力多场景应用开发。

1249 10
|
存储 自然语言处理 关系型数据库
|

基于阿里云通义千问开发智能客服与问答系统

在企业的数字化转型过程中,智能客服系统已成为提高客户满意度和降低运营成本的重要手段。阿里云的通义千问作为一款强大的大语言模型,具有自然语言理解、对话生成、知识检索等能力,非常适合用来开发智能客服与问答系统。 通过本博客,我们将演示如何基于阿里云的通义千问模型,结合阿里云相关产品如函数计算(FC)、API网关、RDS等,搭建一个功能齐全的智能客服系统。

1981 5

千问大模型

阿里云自主研发的千问大模型,凭借万亿级超大规模数据训练和领先的算法框架,实现全模态高效精准的模型服务调用。https://www.aliyun.com/product/tongyi

1
今日
1852
内容
8
活动
1276
关注
你好!
登录掌握更多精彩内容

相关产品

  • 大模型服务平台百炼