通义灵码内置 DeepSeek V3 和 R1 满血版 671B模型,免费不限量,免部署!

简介: 通义灵码内置 DeepSeek V3 和 R1 满血版 671B模型,免费不限量,免部署!

近期,通义灵码能力再升级全新上线模型选择功能,支持基于百炼的 DeepSeek-V3 和 DeepSeek-R1 满血版671B模型,用户可以在 VSCode 和 JetBrains 里搜索并下载最新通义灵码插件,在输入框里选择模型,即可轻松切换模型。01

新版本快速体验攻略


 将插件更新至最新版本,选择模型切换



将「通义灵码」更新至最新版本(Visual Studio Code ≥2.1.1,JetBrains ≥ 2.1.0)即可,在对话输入框左下角选择 model 切换至 DeepSeek V3 或 R1 模型。



 智能补全


通义灵码提供了多种智能补全的方式,可以根据当前代码文件、跨文件的上下文或企业代码规范等,生成行级/函数级代码,用户可以更专注在技术设计。


行级/函数级实时补全


当你在 IDE 编辑器区进行代码编写时,在开启自动云端生成的模式下,通义灵码会根据当前代码文件及相关代码文件的上下文,自动为你生成行级/函数级的代码建议,此时你可以使用快捷键采纳、废弃,或查看不同的代码建议。同时,当你在编码的过程中,也可以通过快捷键  P 手动触发生成代码建议。



自然语言生成代码


在编辑器中,可以直接通过自然语言的方式描述需要实现的需求,通义灵码可以在编辑器中生成代码建议,单击 Tab 可直接采纳。



离线单行补全


通义灵码代码补全默认使用云端大模型进行智能续写,当网络情况有限制时,可使用本地补全模式,单击状态栏图标切换至本地补全模式后,编辑器中进行编码时,通义灵码会给出单行的代码建议。



智能问答亮点功能



@workspace 本地工程问答


当您需要快速了解一个工程、查找工程内的实现逻辑,或有新的诉求需要进行代码变更时,可以在智能问答窗口中通过 @ 可唤起 @workspace,选中后输入您的问题或诉求,通义灵码可快速结合当前仓库进行工程理解、代码查询、代码问答等,同时可以通过自然语言描述需求,结合当前工程生成简单需求或缺陷的整体修改建议和相关建议代码。



@terminal 问答


当您遇到执行指令不知道如何写,或者不清楚某个指令的意思时,可以在智能问答窗口中通过 @ 可唤起 @terminal,选择后使用自然语言描述您的需要指令诉求,通义灵码将可以生成您需要的命令。生成指令后,您可以一键插入到 terminal 中进行执行或让通义灵码继续解释。当然,您也可以在选择 @terminal 后,输入指令让通义灵码生成指令解释。



 AI 程序员



今年1月,通义灵码 AI 程序员全面上线,同时支持 VS Code、JetBrains IDEs,是国内首个真正落地的 AI 程序员。通过前后端开发全覆盖,全程对话协作实现从 0 到 1 完成复杂编码任务,并引入多文件代码修改能力。开发者通过 AI 程序员自动完成多文件级编码任务,如需求实现、问题修复、批量生成单元测试等。


AI程序员提供了工程级多文件生成、多版本快照管理、多模态输入、上下文自由组合、批量单元测试生成、垂直场景智能体的能力。同时我们在很多基础能力上也做了比较多的升级,包括全工程的环境感知、生成粒度和速度控制、代码生成和决策模型,包括像本地智能引擎、本地工程检索引擎、代码 Diff 生成引擎都做了能力升级。


比如,AI 程序员可以为开发者在工程内进行多个文件的修改,开发者审查并接受相关代码变更即可。同时,通义灵码提供了相关的交互界面帮助开发者与 AI 程序员进行对话和交互。



当 AI 程序员对工程内多个代码文件进行修改时,每一个文件的修改将经历生成、应用、代码变更的过程,可在 AI 程序员的回答卡片中和工作区中看到相关的变更文件,以及相应的状态,单击对应文件,即可看到对应文件的代码修改建议生成过程、代码变更文件与原文件变更对比(Diff)生成过程。


当进行了一轮对话并生成代码变更文件后,如需继续补充需求或者修改需求,可在当前任务的会话流中继续提问,AI 程序员将结合前序轮次生成的代码变更分析补充的需求,并生成新的代码修改建议,产生一个或多个新的代码变更文件。


当需要查看或回退到前序轮次的修改时,可单击下拉箭头查看当前会话任务中产生的多次代码变更快照,选择后,可以看到相关信息变化或进行切换操作。



此外,单元测试智能体是 AI 程序员所具备的一种专项能力,可以针对代码变更(#codeChanges)、单个或多个代码文件批量生成单元测试文件。开发者输入被测内容、生成要求,AI 程序员即可自动生成测试计划、测试用例、编译、运行以及根据错误信息进行自动修复,大幅提升测试用例覆盖度和用例的生成质量,降低开发者编写单元测试用例的成本。

02

快来体验


目前,通义灵码智能问答支持 Qwen2.5、DeepSeek-V3、DeepSeek-R1 模型,AI 程序员支持 Qwen2.5、DeepSeek-V3。通过让用户根据自身需求选择模型,进一步降低 AI 编程技术的门槛。


用户可以在 VSCode、JetBrains 插件市场搜索“通义灵码”,下载最新版插件即可体验。下载指南:https://lingma.aliyun.com/lingma/download

相关文章
|
2月前
|
人工智能 自然语言处理 IDE
模型微调不再被代码难住!PAI和Qwen3-Coder加速AI开发新体验
通义千问 AI 编程大模型 Qwen3-Coder 正式开源,阿里云人工智能平台 PAI 支持云上一键部署 Qwen3-Coder 模型,并可在交互式建模环境中使用 Qwen3-Coder 模型。
670 109
|
2月前
|
分布式计算 测试技术 Spark
科大讯飞开源星火化学大模型、文生音效模型
近期,科大讯飞在魔搭社区(ModelScope)和Gitcode上开源两款模型:讯飞星火化学大模型Spark Chemistry-X1-13B、讯飞文生音频模型AudioFly,助力前沿化学技术研究,以及声音生成技术和应用的探索。
270 2
|
2月前
|
人工智能 Java API
AI 超级智能体全栈项目阶段一:AI大模型概述、选型、项目初始化以及基于阿里云灵积模型 Qwen-Plus实现模型接入四种方式(SDK/HTTP/SpringAI/langchain4j)
本文介绍AI大模型的核心概念、分类及开发者学习路径,重点讲解如何选择与接入大模型。项目基于Spring Boot,使用阿里云灵积模型(Qwen-Plus),对比SDK、HTTP、Spring AI和LangChain4j四种接入方式,助力开发者高效构建AI应用。
1408 122
AI 超级智能体全栈项目阶段一:AI大模型概述、选型、项目初始化以及基于阿里云灵积模型 Qwen-Plus实现模型接入四种方式(SDK/HTTP/SpringAI/langchain4j)
|
1月前
|
人工智能 搜索推荐 程序员
当AI学会“跨界思考”:多模态模型如何重塑人工智能
当AI学会“跨界思考”:多模态模型如何重塑人工智能
261 120
|
3月前
|
存储 人工智能 自然语言处理
告别文字乱码!全新文生图模型Qwen-Image来咯
通义千问团队开源了Qwen-Image,一个20B参数的MMDiT模型,具备卓越的文本渲染和图像编辑能力。支持复杂中英文文本生成与自动布局,适用于多场景图像生成与编辑任务,已在魔搭社区与Hugging Face开源。
681 2
|
3月前
|
文字识别 算法 语音技术
基于模型蒸馏的大模型文案生成最佳实践
本文介绍了基于模型蒸馏技术优化大语言模型在文案生成中的应用。针对大模型资源消耗高、部署困难的问题,采用EasyDistill算法框架与PAI产品,通过SFT和DPO算法将知识从大型教师模型迁移至轻量级学生模型,在保证生成质量的同时显著降低计算成本。内容涵盖教师模型部署、训练数据构建及学生模型蒸馏优化全过程,助力企业在资源受限场景下实现高效文案生成,提升用户体验与业务增长。
577 23
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
559 13
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
|
2月前
|
自然语言处理 机器人 图形学
腾讯混元图像3.0正式开源发布!80B,首个工业级原生多模态生图模型
腾讯混元图像3.0,真的来了——开源,免费开放使用。 正式介绍一下:混元图像3.0(HunyuanImage 3.0),是首个工业级原生多模态生图模型,参数规模80B,也是目前测评效果最好、参数量最大的开源生图模型,效果可对…
755 2
腾讯混元图像3.0正式开源发布!80B,首个工业级原生多模态生图模型
|
1月前
|
缓存 物联网 PyTorch
使用TensorRT LLM构建和运行Qwen模型
本文档介绍如何在单GPU和单节点多GPU上使用TensorRT LLM构建和运行Qwen模型,涵盖模型转换、引擎构建、量化推理及LoRA微调等操作,并提供详细的代码示例与支持矩阵。
416 2

热门文章

最新文章