用户说 | 通义灵码2.0,跨语言编码+自动生成单元测试+集成DeepSeek模型且免费使用

简介: 用户说 | 通义灵码2.0,跨语言编码+自动生成单元测试+集成DeepSeek模型且免费使用


0
1

引言

通义灵码是我一直使用的编码协助工具,我也愿称之为国内程序员的”饭搭子”。通义灵码, 作为国内首个 AI 程序员,从最开始的内测到公测,再到通义灵码正式发布第一时间使用,再到后来使用企业定制版的通义灵码,再再再到现在通义灵码2.0,我可以说“用着”通义灵码成长的为数不多的程序员之一了吧。咱闲言少叙,直奔主题!今天,我会聊一聊通义灵码的新功能和通义灵码2.0与1.0的体验感。02

通义灵码更新与安装

2.1 IDE 插件更新

关于通义灵码2.0版本,是在今年1月13日(2025/1/13)官宣的全新模型选择功能,并且支持基于百炼的 DeepSeek-V3 和 DeepSeek-R1 满血版模型。这对于我们技术er来说,确实是一次重大的升级。尤其 Deepseek 的爆火,并且通义灵码结合 DeepSeek,这是多么好的福利啊。幸福来得就是这么突然。

所以,在聊通义灵码2.0的使用感受前,我们首先要做的是下载插件或者更新插件。

2.1.1 PyCharm 更新

这里也非常简单, 我就以Pycharm为例(我的是最新版本的PyCharm),可以直接在Pycharm→Setting →Pluging:

  • 如果没有安装,则在”Marketplace”搜索 tongyilingma即可;
  • 如果已安装,则直接在”Installed” 更新即可。这里就不做过多赘述,如下图。


2.1.2 VSCode 更新

VSCode安装与更新步骤,可以参照官网的安装方式,也可以参照下图:

2.2 官网下载更新

也可以直接在官网下载,地址:https://lingma.aliyun.com/download 03

使用体验

3.1 生成单元测试

接着,打开编译器(PyCharm), 登录通义灵码, 选择模型deepseek-r1,如下图:

接下来,我就例举实际工作中的一个业务场景, 看看结合了deepseek-r1的通义灵码,在输出的结果与丝滑度,具体如截图:

可以看到,在整个输出过程中,思考的时间很短,而且输出的代码的能力也很强,并且输出过程中,有对异常场景的判断。对通义灵码来说,如果再增加一些对上下文的理解,或许输出的代码会更完美。整体来说,相对于通义灵码1.0 ,在 DeepSeek 加持下的通义灵码,不管是代码质量,还是代码生成速度,亦或者代码的分析,都有很大的提升。

3. 2 跨语言编程

为了验证通义灵码的跨语言编程,这里的模型我选择 deepseek -v3,这里我把一个Python写的代码,切换成Java来实现,具体如下: 在整个过程中图片: 从两个图片我们可以看从过程到结果,通义灵码2.0给出了:

  • 思考过程
  • 实现业务代码
  • 代码替换的库、方法
  • 代码修改点
  • 代码注释

所以,你看,我们在写代码过程中,是不是也会这么思考,也会做这些事情呢?我想,这就是通义灵码2.0的优势,也是大部分程序员选择通义灵码的原因吧。

3.3 通义灵码2.0 与1.0 对比

再说到2.0 与1.0的对比体验, 我在上面也有体现,为了让大家更直观的比对,这里我总结了几点:

  • 模型的集成, 2.0集成了DeepSeek模型,这对我们来有更多选择:

  • 代码的输出更快,思考时间更短,生成的代码可直接运行的成功率更高
  • 对业务的理解能力有提升,这太有感触了:
  • 1.0版本,我记得同样是上面输入的场景,结果输出的内容我需要修改5处。
  • 而2.0版本,我修改的内容只有2处,这就是质的提升。
  • 对话理解能力的提升,我输入的内容不是非常清晰,但是2.0的理解能力和异常处理,容错能力包括性能,都可以给考虑到,但是1.0版本,这方面就有些欠缺。


04

总结

2025年,注定是一个不平凡的年, 哪吒2的上映, 通义灵码2.0的全面升级,DeepSeek的开源,以及各个企业大团结一致对外,注定了我们在AI领域会有更高的成就。今天深度体验了通义灵码2.0的新功能,以及与1.0的对比体验,整体来说,非常 Nice。

  • 代码生成速度:非常快,非常丝滑, 这不仅仅是 DeepSeek 模型的集成,更是阿里云百炼平台的功劳。
  • 自动生成单元测试:这对我们技术人员来说,太方便了,真的是应了那句话:AI 不是替代人的工作,而是协助人完成工作
  • 代码生成准确率:一个 AI 工具仅仅能生成代码,但是代码却无法应用于实践中,那么这个 AI 功能就不是一个成功的工具,但通义灵码恰恰相反,它不仅生成快速生成代码,而且还能基于业务生成可执行的代码,这就节省了我们的代码调试时间
  • 跨语言编程:这个功能太重要了,尤其对应用开发同学来说,这种我可以通过通义灵码就能实现的业务功能,就不再需要在看别人的时(lian)间(se)了哦。
  • 安全性:对企业来说,为什么不用第三方AI工具,就是因为安全性,担心自己的企业的核心业务代码被有企图的三方利用,但是,这恰恰体现了通义灵码的意义,它就是为了”守护”我们的核心资产而存在的。

最后来总结我今天的测评,也希望我们打工人像哪吒一样:唯有突破,才能成功

相关文章
|
5月前
|
人工智能 自然语言处理 IDE
模型微调不再被代码难住!PAI和Qwen3-Coder加速AI开发新体验
通义千问 AI 编程大模型 Qwen3-Coder 正式开源,阿里云人工智能平台 PAI 支持云上一键部署 Qwen3-Coder 模型,并可在交互式建模环境中使用 Qwen3-Coder 模型。
1031 109
|
5月前
|
分布式计算 测试技术 Spark
科大讯飞开源星火化学大模型、文生音效模型
近期,科大讯飞在魔搭社区(ModelScope)和Gitcode上开源两款模型:讯飞星火化学大模型Spark Chemistry-X1-13B、讯飞文生音频模型AudioFly,助力前沿化学技术研究,以及声音生成技术和应用的探索。
506 2
|
4月前
|
人工智能 搜索推荐 程序员
当AI学会“跨界思考”:多模态模型如何重塑人工智能
当AI学会“跨界思考”:多模态模型如何重塑人工智能
501 120
|
6月前
|
存储 人工智能 自然语言处理
告别文字乱码!全新文生图模型Qwen-Image来咯
通义千问团队开源了Qwen-Image,一个20B参数的MMDiT模型,具备卓越的文本渲染和图像编辑能力。支持复杂中英文文本生成与自动布局,适用于多场景图像生成与编辑任务,已在魔搭社区与Hugging Face开源。
1234 2
|
5月前
|
机器学习/深度学习 人工智能 自然语言处理
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
865 13
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
|
5月前
|
自然语言处理 机器人 图形学
腾讯混元图像3.0正式开源发布!80B,首个工业级原生多模态生图模型
腾讯混元图像3.0,真的来了——开源,免费开放使用。 正式介绍一下:混元图像3.0(HunyuanImage 3.0),是首个工业级原生多模态生图模型,参数规模80B,也是目前测评效果最好、参数量最大的开源生图模型,效果可对…
1172 2
腾讯混元图像3.0正式开源发布!80B,首个工业级原生多模态生图模型
|
4月前
|
缓存 物联网 PyTorch
使用TensorRT LLM构建和运行Qwen模型
本文档介绍如何在单GPU和单节点多GPU上使用TensorRT LLM构建和运行Qwen模型,涵盖模型转换、引擎构建、量化推理及LoRA微调等操作,并提供详细的代码示例与支持矩阵。
1179 2
|
6月前
|
人工智能 算法 测试技术
轻量高效,8B 性能强劲书生科学多模态模型Intern-S1-mini开源
继 7 月 26 日开源『书生』科学多模态大模型 Intern-S1 之后,上海人工智能实验室(上海AI实验室)在8月23日推出了轻量化版本 Intern-S1-mini。
896 50

热门文章

最新文章