|
4月前
|
机器学习/深度学习 人工智能 自然语言处理
|
置顶

Qwen3:小而强,思深,行速

Qwen3(千问3)于北京时间4月29日凌晨发布,是Qwen系列大型语言模型的最新成员,具备全系列、开源最强、混合推理等特性。它包括两款MoE模型(Qwen3-235B-A22B和Qwen3-30B-A3B)及六个Dense模型,支持119种语言。Qwen3在代码、数学和通用能力测试中超越行业顶尖模型,如DeepSeek-R1和Grok-3。其旗舰版Qwen3-235B-A22B仅需4张H20即可本地部署,成本为DeepSeek-R1的35%。此外,Qwen3原生支持思考模式与非思考模式切换,降低复杂任务门槛,并支持MCP协议优化Agent架构。

4321 1
|
4月前
|
测试技术 UED
|
置顶

全新开源通义千问Qwen3,它来了!

Qwen3是通义千问系列的最新模型,融合推理与非推理模式,兼具QwQ和Instruct模型能力。提供多种尺寸,包括235B-A22B、30B-A3B及六个Dense模型,大幅提升数学、代码、逻辑推理和对话能力,达到业界领先水平。旗舰模型Qwen3-235B-A22B在多场景测试中表现优异,小型模型如Qwen3-4B性能媲美大模型。用户可在阿里云百炼平台免费体验各100万Token。

4453 4
|
9月前
|
数据采集 前端开发 物联网
|

【项目实战】通过LLaMaFactory+Qwen2-VL-2B微调一个多模态医疗大模型

本文介绍了一个基于多模态大模型的医疗图像诊断项目。项目旨在通过训练一个医疗领域的多模态大模型,提高医生处理医学图像的效率,辅助诊断和治疗。作者以家中老人的脑部CT为例,展示了如何利用MedTrinity-25M数据集训练模型,经过数据准备、环境搭建、模型训练及微调、最终验证等步骤,成功使模型能够识别CT图像并给出具体的诊断意见,与专业医生的诊断结果高度吻合。

17046 6
|
3月前
|
并行计算 API Python
|

vLLM 部署 Qwen3

本文介绍了在特定环境下安装和使用 vLLM 的步骤。环境配置包括 CUDA 12.2、40GB 显存,使用 conda 进行 Python 包管理,并基于 Qwen3-8B 模型。首先通过创建 conda 环境并安装 vLLM 实现部署,接着启动 API 服务以支持对话功能。文中提供了 curl 和 Python 两种调用方式示例,方便用户测试与集成。

3986 1
|
人工智能 文字识别 小程序
|

通义听悟--一个懂你的AI助理

介绍什么是通义听悟以及通义听悟的功能体验

13381 3
|
11月前
|
传感器 机器学习/深度学习 弹性计算
|

Agent与大模型的区别

本文详细对比了人工智能领域的两个重要概念——Agent和大模型。大模型如GPT-3、BERT等,擅长自然语言处理任务,如文本生成、翻译等;Agent则是自主的软件实体,能够在特定环境中感知、决策并执行任务,如管理日程、控制智能家居等。文章介绍了它们的定义、功能、技术架构及应用场景,并总结了两者的核心差异和未来发展方向。

4338 0
|
Java Maven
|

maven配置阿里云镜像源

maven配置阿里云镜像源

39955 1
|
7月前
|
SQL JSON 数据可视化
|

基于 DIFY 的自动化数据分析实战

本文介绍如何使用DIFY搭建数据分析自动化流程,实现从输入需求到查询数据库、LLM分析再到可视化输出的全流程。基于经典的employees数据集和DIFY云端环境,通过LLM-SQL解析、SQL执行、LLM数据分析及ECharts可视化等模块,高效完成数据分析任务。此方案适用于人力资源分析、薪酬管理等数据密集型业务,显著提升效率并降低成本。

11965 16
|
5月前
|
人工智能 JavaScript 开发工具
|

MCP详解:背景、架构与应用

模型上下文协议(MCP)是由Anthropic提出的开源标准,旨在解决大语言模型与外部数据源和工具集成的难题。作为AI领域的“USB-C接口”,MCP通过标准化、双向通信通道连接模型与外部服务,支持资源访问、工具调用及提示模板交互。其架构基于客户端-服务器模型,提供Python、TypeScript等多语言SDK,方便开发者快速构建服务。MCP已广泛应用于文件系统、数据库、网页浏览等领域,并被阿里云百炼平台引入,助力快速搭建智能助手。未来,MCP有望成为连接大模型与现实世界的通用标准,推动AI生态繁荣发展。

4825 66
|
11月前
|
前端开发 JavaScript API
|

2025年前端框架是该选vue还是react?有了大模型-例如通义灵码辅助编码,就不用纠结了!vue用的多选react,react用的多选vue

本文比较了Vue和React两大前端框架,从状态管理、数据流、依赖注入、组件管理等方面进行了详细对比。当前版本和下载量数据显示React更为流行,但Vue在国内用户量增长迅速。Vue 3通过组合式API提供了更灵活的状态管理和组件逻辑复用,适合中小型项目;React则更适合大型项目和复杂交互逻辑。文章还给出了选型建议,强调了多框架学习的重要性,认为技术问题已不再是选型的关键,熟悉各框架的最佳实践更为重要。

6585 1
|
3月前
|
机器学习/深度学习 自然语言处理 测试技术
|

Qwen3技术报告首次全公开!“混合推理模型”是这样炼成的

近日,通义千问Qwen3系列模型已开源,其技术报告也正式发布。Qwen3系列包含密集模型和混合专家(MoE)模型,参数规模从0.6B到235B不等。该模型引入了“思考模式”与“非思考模式”的动态切换机制,并采用思考预算机制优化推理性能。Qwen3支持119种语言及方言,较前代显著提升多语言能力,在多个基准测试中表现领先。此外,通过强到弱蒸馏技术,轻量级模型性能优异,且计算资源需求更低。所有Qwen3模型均采用Apache 2.0协议开源,便于社区开发与应用。

2271 28
|
10月前
|
人工智能 自然语言处理 物联网
|

llama factory 从数据集起步 跑通 qwen系列开源生成式大模型 微调

`dataset_info.json` 文件用于管理 llama factory 中的所有数据集,支持 `alpaca` 和 `sharegpt` 格式。通过配置此文件,可以轻松添加自定义数据集。数据集的相关参数包括数据源地址、数据集格式、样本数量等,支持 Hugging Face 和 ModelScope 两个平台的数据集仓库。针对不同格式的数据集,提供了详细的配置示例,如 `alpaca` 格式的指令监督微调数据集、偏好数据集等,以及 `sharegpt` 格式的多模态数据集等。今天我们通过自定义数据集的方式来进行qwen2.5_14B_instruct模型进行微调

4096 7
|
7月前
|
架构师 Linux Docker
|

三分钟让Dify接入Ollama部署的本地大模型!

本文详细介绍了如何在 Dify 中接入 Ollama 模型,包括模型添加、参数配置及常见问题解决。通过运行 Ollama 服务并与 qwen2:0.5b 模型交互,实现本地化大模型应用开发。同时提供了 Docker、Mac、Linux 和 Windows 平台上 Ollama 的部署与环境变量设置指南,帮助开发者快速上手。更多实战技巧可访问[编程严选网](http://www.javaedge.cn/)或关注作者的 Github 仓库。

5059 2
|
9月前
|
搜索推荐 物联网 PyTorch
|

Qwen2.5-7B-Instruct Lora 微调

本教程介绍如何基于Transformers和PEFT框架对Qwen2.5-7B-Instruct模型进行LoRA微调。

10108 34
|
23天前
|
存储 人工智能 自然语言处理
|

深度解析智能体工作流(Agentic Workflows):核心概念、模式与应用

本文系统解析智能体工作流(Agentic Workflow),结合AI智能体的推理、工具与记忆能力,实现复杂任务的动态执行。内容涵盖核心概念、关键模式及实际应用,帮助读者全面理解其价值与挑战。

702 1
|
10月前
|
人工智能 C++ iOS开发
|

ollama + qwen2.5-coder + VS Code + Continue 实现本地AI 辅助写代码

本文介绍在Apple M4 MacOS环境下搭建Ollama和qwen2.5-coder模型的过程。首先通过官网或Brew安装Ollama,然后下载qwen2.5-coder模型,可通过终端命令`ollama run qwen2.5-coder`启动模型进行测试。最后,在VS Code中安装Continue插件,并配置qwen2.5-coder模型用于代码开发辅助。

18067 7
|
17天前
|
人工智能 自然语言处理 前端开发
|

从零到上线:用 Qwen3-Coder 和 MCP 打造儿童学习助手

本教程介绍如何利用Qwen3-Coder模型与VS Code插件打造儿童学习助手,涵盖AI编程、代码优化与网页部署,助你掌握真实场景开发技巧。

263 25
|
2月前
|
存储 资源调度 并行计算
|

# Qwen3-8B 与 Qwen3-14B 的 TTFT 性能对比与底层原理详解

通义千问Qwen3系列是通义实验室2025年推出的最新大模型,包含多种参数版本,其中Qwen3-8B与Qwen3-14B均支持32K token上下文。Qwen3-8B参数量较小,响应更快,适合低延迟交互;Qwen3-14B参数更多,推理更强,适用于复杂任务。两者在TTFT、架构优化、量化技术及部署方案上各有侧重,满足多样应用场景需求。

1087 9
|
人工智能 JavaScript 开发工具
|

【完全免费】VS Code 最好用的 12 款 AI 代码提示插件!!!

🎉 探索12款免费VSCode AI代码提示插件:Codeium、Codegeex、CodeFuse、TONGYI Lingma、Comate、iFlyCode、Fitten Code、Bito AI、Mintlify Doc Writer、Kodezi AI、aiXcoder、IntelliCode。这些插件提供智能补全、代码生成、注释、优化,支持多种语言,提升编程效率!🚀👩‍💻👨‍💻

16368 0
|
10月前
|
人工智能
|

基于qwen2和qwenvl的自动批改作业应用!

针对作业批改中常见的问题,如低质量作业、大量简单作业耗时、需初筛异常作业等,开发了一款自动批改作业的应用。该应用通过备份作业文件、获取文档内容、利用AI生成评语,并保存关键信息与日志,简化了教师的工作流程,提高了效率。应用设计简洁,易于扩展,支持图片转文字处理,适合教育场景使用。

2307 1
|
10月前
|
人工智能 API
|

通过API调用通义千问时出现DataInspectionFailed的解决办法(玄学版)

在使用qwen-plus API进行长文本翻译时,遇到了DataInspectionFailed错误,提示输入数据可能包含不当内容。尽管确认文本无敏感内容,但误判依然发生。通过将每个分段的字符数从1000降低到700,问题得以解决。建议在处理长文本时,减少每次请求的字符数以避免误判。

2924 6
|
20天前
|
开发工具 git
|

解决 VSCode 安装通义灵码后左侧菜单栏不显示按钮的问题

在 VSCode 中安装通义灵码插件后,若左侧活动栏未显示图标,可通过右键选中代码触发插件面板,并将其图标拖至左侧栏固定,便于后续快速使用。

497 114
|
10月前
|
人工智能 并行计算 监控
|

深入剖析 Qwen2.5 - 32B 模型在 VLLM 上的单机三卡部署与运行

本文深入探讨了Qwen2.5 - 32B模型在VLLM框架上的部署过程,从模型下载、启动命令、资源占用分析到GPU资源分配及CUDA图应用,详述了大模型运行的挑战与优化策略,强调了硬件资源规划与技术调优的重要性。

6245 2
|
5月前
|
容器
|

vllm+vllm-ascend本地部署QwQ-32B

本指南介绍如何下载、安装和启动基于Ascend的vLLM模型。首先,可通过华为镜像或Hugging Face下载预训练模型;其次,安装vllm-ascend,支持通过基础镜像(如`quay.io/ascend/vllm-ascend:v0.7.3-dev`)或源码编译方式完成;最后,使用OpenAI兼容接口启动模型,例如运行`vllm serve`命令,设置模型路径、并行规模等参数。适用于大模型推理场景,需注意显存需求(如QwQ-32B需70G以上)。

2203 17
|
11天前
|
人工智能 JSON 自然语言处理
|

不会剪视频?Coze教你一键生成视频的AI工作流,保姆级搭建教程

Coze工作流助你一键生成视频,无需复杂操作,轻松完成内容创作并发布到各大平台。

203 1
|
4月前
|
人工智能 安全 Android开发
|

手机也能跑通义Qwen3大模型,手把手教你部署!

全球开源模型冠军Qwen3与端到端全模态模型Qwen2.5-Omni现已成功在手机上跑通!借助MNN支持,适配Android、iOS及桌面端,实现低延迟、本地化、高安全的AI体验。用户可通过自定义Sampler设置、System Prompt和Max New Tokens调节模型输出风格与长度。

1810 10
ly~
|
11月前
|
人工智能 搜索推荐 自动驾驶
|

人工智能的应用

人工智能在多个领域广泛应用,包括:医疗领域的疾病诊断、药物研发和医疗机器人;交通领域的自动驾驶和智能交通管理;金融领域的风险评估、金融诈骗检测和投资决策;教育领域的个性化学习和智能辅导;工业领域的质量检测和生产流程优化;家居领域的智能家居系统,如智能音箱和智能灯具等,极大提升了各行业的效率与服务质量。

522 1
|
2天前
|
人工智能 Ubuntu 固态存储
|

《2核2G阿里云神操作!Ubuntu+Ollama低成本部署Deepseek模型实战》

本文详解如何在阿里云2核2G轻量服务器上,通过Ubuntu系统与Ollama框架部署Deepseek-R1-Distill-Qwen-1.5B大模型。涵盖环境搭建、Ollama安装、虚拟内存配置及模型运行全流程,助力开发者以极低成本实现AI模型云端运行。

94 0
|
机器学习/深度学习 API 开发工具
|

通义千问API入门教程

本教程将带你从零开始,快速了解如何通过 API 使用通义千问大模型,并尝试使用大模型 API 开发一些简单的应用应用到工作中,提升效率。

37374 14
|
8月前
|
人工智能 自然语言处理 算法
|

大模型备案、登记全流程攻略

在AI浪潮下,大模型技术迅猛发展,为各行业带来变革。为确保算法安全有序发展,需进行相关备案登记。具体包括:大模型备案(面向公众提供生成式服务)、大模型登记(借助第三方大模型)、算法备案(5类算法)及双新评估(舆论属性服务)。未及时备案将面临法律处罚,备案流程涉及属地初审、中央终审等环节,周期约3-4个月。境外模型和特定行业有额外限制,备案后仍需常态化安全管理。

3473 14
|
3月前
|
SQL 人工智能 自然语言处理
|

别让你的大模型被忽悠了,聊聊prompt注入攻击

本文探讨了Prompt工程中的隐私与安全问题,重点分析了“奶奶漏洞”及更广泛的Prompt攻击现象,特别是Prompt注入的原理与防御手段。Prompt注入通过构造恶意输入突破模型限制,使LLM执行非预期操作。文章介绍了直接注入和间接注入类型,并提供了多种防御方案,如输入过滤、强化系统指令、接入第三方校验库及多模型协作防御。此外,还讨论了Prompt逆向工程及其正负影响,以及恶意MCP服务投毒的实际案例,如GitHub Copilot漏洞。最后提出了动态权限控制和持续安全监测等解决策略。

994 0
|
12天前
|
机器学习/深度学习 人工智能 安全
|

大模型攻防演武录·第五名的进击

本文深度解析2025阿里天池大模型攻防竞赛全国第五名的技术实战经验,涵盖从攻击绕过到终极防御的完整策略演进,揭示AI安全攻防背后的技术逻辑与认知边界。

140 9
|
6月前
|
开发者 异构计算
|

高效部署通义万相Wan2.1:ComfyUI文生/图生视频实战,工作流直取!

通义万相Wan2.1开源不到一周,已登顶HuggingFace Model 和 Space 榜双榜首,在HuggingFace和ModelScope平台的累计下载量突破100万次,社区热度持续攀升!为响应小伙伴们对ComfyUI工作流运行Wan2.1的强烈需求,社区开发者整理了实战教程👇

5827 23
|
2天前
|
存储 SQL NoSQL
|

Redis-常用语法以及java互联实践案例

本文详细介绍了Redis的数据结构、常用命令及其Java客户端的使用,涵盖String、Hash、List、Set、SortedSet等数据类型及操作,同时提供了Jedis和Spring Boot Data Redis的实战示例,帮助开发者快速掌握Redis在实际项目中的应用。

67 1
|
22天前
|
存储 人工智能 自然语言处理
|

告别文字乱码!全新文生图模型Qwen-Image来咯

通义千问团队开源了Qwen-Image,一个20B参数的MMDiT模型,具备卓越的文本渲染和图像编辑能力。支持复杂中英文文本生成与自动布局,适用于多场景图像生成与编辑任务,已在魔搭社区与Hugging Face开源。

258 2
|
10月前
|

Cursor + qwen2.5-coder 32b 的配置方式

安装Cursor后,进入设置修改OpenAI基础URL为阿里云的DashScope接口,并添加Qwen2.5-Coder 32B模型。需先访问阿里云百灵控制台申请免费Key。配置完成后,即可使用该模型进行开发和测试。

7699 2
|
2月前
|
存储 缓存 资源调度
|

# Qwen3-8B 的 TTFT 性能分析:16K 与 32K 输入 Prompt 的推算公式与底层原理详解

Qwen3-8B 是通义实验室推出的 80 亿参数大模型,支持最长 32,768 token 上下文,适用于长文本处理场景。通过 FP8 量化、CUDA Kernel 优化及 RoPE 位置编码技术,提升推理效率与稳定性。模型在 16K 输入下 TTFT 约 150-200ms,32K 输入下约 250-300ms,适用于文档摘要与长对话交互。

610 7
|
5月前
|
Arthas 监控 Java
|

Arthas trace (方法内部调用路径,并输出方法路径上的每个节点上耗时)

Arthas trace (方法内部调用路径,并输出方法路径上的每个节点上耗时)

626 10
|
29天前
|
机器学习/深度学习 存储 人工智能
|

深度解析大模型压缩技术:搞懂深度学习中的减枝、量化、知识蒸馏

本文系统解析深度学习模型压缩三大核心技术:剪枝、量化与知识蒸馏,详解如何实现模型缩小16倍、推理加速4倍。涵盖技术原理、工程实践与组合策略,助力AI模型高效部署至边缘设备。

333 0
|
3月前
|
缓存 自然语言处理 监控
|

基于通义大模型的智能客服系统构建实战:从模型微调到API部署

本文详细解析了基于通义大模型的智能客服系统构建全流程,涵盖数据准备、模型微调、性能优化及API部署等关键环节。通过实战案例与代码演示,展示了如何针对客服场景优化训练数据、高效微调大模型、解决部署中的延迟与并发问题,以及构建完整的API服务与监控体系。文章还探讨了性能优化进阶技术,如模型量化压缩和缓存策略,并提供了安全与合规实践建议。最终总结显示,微调后模型意图识别准确率提升14.3%,QPS从12.3提升至86.7,延迟降低74%。

1011 14
|
4月前
|
人工智能 API 开发者
|

用Qwen3+MCPs实现AI自动发布小红书笔记!支持图文和视频

魔搭自动发布小红书MCP,是魔搭开发者小伙伴实现的小红书笔记自动发布器,可以通过这个MCP自动完成小红书标题、内容和图片的发布。

1682 41
|
5月前
|
Arthas 监控 Java
|

Arthas profiler(使用async-profiler对应用采样,生成火焰图)

Arthas profiler(使用async-profiler对应用采样,生成火焰图)

682 10
|
1月前
|
人工智能 自然语言处理 搜索推荐
|

《生成式引擎优化(GEO)服务商选择指南》:让AI大模型主动推荐你

GEO(生成式引擎优化)是针对AI生成式搜索引擎的优化策略,旨在让企业信息在AI回答中优先呈现,实现“无点击曝光”。与传统SEO不同,GEO强调语义理解、权威内容和结构化数据,提升品牌在AI推荐中的可见性与可信度。企业需关注GEO服务商的技术实力、行业匹配度、服务流程完整性等维度,确保优化效果。

374 0
|
5月前
|
自然语言处理 测试技术 Serverless
|

Qwen3开源发布:Think Deeper, Act Faster!社区推理、部署、微调、MCP调用实战教程来啦!

Qwen3开源发布:Think Deeper, Act Faster!社区推理、部署、微调、MCP调用实战教程来啦!

1315 22
|
11月前
|
存储 自然语言处理 搜索推荐
|

大模型 Agent 概述

大模型Agent是基于大型预训练模型构建的智能体,具有强大的语言理解和生成能力,能完成多任务处理。其记忆功能包括短期记忆和长期记忆,支持上下文保持、知识积累、计划决策及内容创作,广泛应用于自然语言处理、问答系统、信息检索、辅助决策、教育、创意应用和客服等领域。

1060 0
|
3月前
|
人工智能 自然语言处理 算法
|

AI企业必看:最新结果标识合规要求及规范

随着《人工智能生成合成内容标识办法》及配套标准的发布,AI企业需快速掌握政策要求以确保合规运营。该办法明确指出,利用AI生成的内容(如文本、图片、音频、视频等)需通过显性标识(如“AI生成”字样)或隐性标识(如元数据、数字水印)进行标注。内容传播平台也需核验标识并提醒用户内容性质。此外,应用程序分发平台在审核时需确认是否提供AI生成服务及相关标识材料。对于AI企业而言,合规已成为必修课,需重点关注标识的规范性和溯源能力,以应对即将到来的监管要求。

528 0
|
10月前
|
缓存 自然语言处理 并行计算
|

基于NVIDIA A30 加速卡推理部署通义千问-72B-Chat测试过程

本文介绍了基于阿里云通义千问72B大模型(Qwen-72B-Chat)的性能基准测试,包括测试环境准备、模型部署、API测试等内容。测试环境配置为32核128G内存的ECS云主机,配备8块NVIDIA A30 GPU加速卡。软件环境包括Ubuntu 22.04、CUDA 12.4.0、PyTorch 2.4.0等。详细介绍了模型下载、部署命令及常见问题解决方法,并展示了API测试结果和性能分析。

3918 1
|
5月前
|
人工智能 自然语言处理 达摩院
|

通义大模型:中国AI领域的新里程碑

本文介绍了阿里巴巴达摩院研发的“通义大模型”系列,该模型在2025年已成为AI领域的重要里程碑。通义大模型拥有超大规模参数、多模态融合、高效训练框架和中文优化等技术特点,在智能客服、内容创作、教育和企业服务等多个场景实现应用。未来,它将在多模态能力、小样本学习、安全性及应用场景拓展等方面持续突破,推动中国AI技术进步与行业智能化转型。

1702 18
|
9月前
|
数据采集 人工智能 自然语言处理
|

Qwen模型角色扮演最佳实践

角色扮演大模型通过模拟特定角色的行为、语言风格和情感表达,实现高度拟人化和定制化的互动体验。与传统通用模型相比,角色扮演模型在语言风格、性格特征和情绪反应上更加细腻,提供更真实的交互体验。本文介绍了如何通过system prompt、few-shot学习和微调等技术实现大模型的拟人化,包括使用阿里云百炼平台进行角色扮演测试,以及如何通过合成数据和Lora微调提高模型的表演效果。最终,展示了如何通过优化数据质量和训练策略,显著提升角色扮演模型的表现。

4322 27
|
9月前
|
JSON 文字识别 数据可视化
|

Qwen2-VL微调实战:LaTex公式OCR识别任务(完整代码)

《SwanLab机器学习实战教程》推出了一项基于Qwen2-VL大语言模型的LaTeX OCR任务,通过指令微调实现多模态LLM的应用。本教程详述了环境配置、数据集准备、模型加载、SwanLab集成及微调训练等步骤,旨在帮助开发者轻松上手视觉大模型的微调实践。

2058 4

通义大模型

阿里云自主研发的通义大模型,凭借万亿级超大规模数据训练和领先的算法框架,实现全模态高效精准的模型服务调用。https://www.aliyun.com/product/tongyi

0
今日
1416
内容
8
活动
937
关注
你好!
登录掌握更多精彩内容

相关产品

  • 大模型服务平台百炼