随着大模型的逐渐发展,开始在各个领域“开花结果”。AIGC消除杂物、扩图,文生图,文生视频,现在通义千问已经可以自己写代码、跑代码了!这种能力不仅可以提高开发效率,还能推动编程实践向更高的层次发展。
本期话题:
你用体验过用通义千问自己写代码、跑代码吗?体验如何?
目前大模型生成的代码可能会曲解开发者需求,遇到这种情况如何优化?
本期奖励:
截止2024年3月26日24时,参与本期话题讨论,将会选出3个优质讨论和2个幸运用户获得笔记本电脑包,未获得实物礼品的有效参与者均有机会获得 20 积分的奖励。
幸运用户获奖规则:中奖楼层百分比为18%,98%的有效留言用户可获得互动幸运奖。如:活动结束后,回复为100层,则获奖楼层为 100✖18%=18,依此类推,即第98位回答用户获奖。如遇非整数,则向后取整。
如:回复楼层为81层,则81✖18%=14.58,则第15楼获奖。
优质讨论获奖规则:不视字数多,结合自己的真实经历分享,非 AI 生成。
未获得实物礼品的参与者将有机会获得 10-200 积分的奖励。
注:楼层需为有效回答(符合互动主题),灌水/复制回答将自动顺延至下一层。如有复制抄袭、不当言论等回答将不予发奖,阿里云开发者社区有权进行删除。获奖名单将于活动结束后5个工作日内公布,奖品将于7个工作日内进行发放,节假日顺延。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
你用体验过用通义千问自己写代码、跑代码吗?体验如何?
输入细化和明确化:提供更详细、明确的输入指令或要求,以确保生成模型能够更准确地理解开发者的意图。清晰地描述所需的功能、条件和约束,避免模棱两可或歧义的表达。
你用体验过用通义千问自己写代码、跑代码吗?体验如何?
现在写代码真的复制粘贴都不用,直接按导入按钮就行,非常便捷。不过有些类似版本控制、依赖之类的把控不是很好,需要改进一下。
你用体验过用通义千问自己写代码、跑代码吗?体验如何?
使用过,但感觉还是有些难以理解的地方。总体感受还可以,希望更加智能化
你用体验过用通义千问自己写代码、跑代码吗?体验如何?
通义千问体验方面很好,在解决常见编程问题或学习新语言特性时,能够提供便捷的帮助。
你用体验过用通义千问自己写代码、跑代码吗?体验如何?
简单易用:通义千问提供了简洁明了的用户界面,可以轻松地输入问题并获得相应的代码或解决方案。
首先,我是经常在用,可以说很方便,最开始我还是不习惯,感觉笨笨的,现在感觉不错。
要说问题,有,而且让人头疼。习惯的了也就好了,我也没有太好办法。
用过通义写代码,最开始是在活动里面参与。后来实际开发过程中,用的频率还是挺高的,虽然复杂逻辑用不上,但是一些算法还是挺有帮助的。
当然,还有一个就是曲解的问题,别想那么多,多尝试几次就行,不过还是不能完全才那,笨办法,多尝试,换换表达。
看了一下教程,在本地试用了一下,感觉写个爬虫脚本之类的比较简单,如果是企业级开发的话还没看到教程,希望后面能出来相关的教程
只能模型开发者做专享优化了吧,让模型更聪明,要么就提供一个写反馈代码写得好不好的地方,根据反馈来调整模型的回答,调整各参数的权重,来让他减少错误回答出现的次数
还没有,这方面跟我不是很熟悉,看了一下教程,感觉对python不熟悉的人不是很友好
希望能多给几个选项吧,比如说有歧义的地方指出来,让开发者进一步来进一步说明或者选择优化的方向
体验过通译灵码里面的代码生成功能,那个体验不错
希望模型开发者能够针对这方面进行针对性的模型训练吧,要么开发者个人企业根据需求自己微调本地化模型
这个我目前还没有体验过,刚刚根据链接去看了一下大概的流程,感觉对java企业级开发可能不太友好
我觉得可以多加训练,或者本地化部署大模型,公司部署过ChatGLM和Qwen7b,在这些模型的基础上进行微调来实现公司的生成代码需求吧
更精确的指令和上下文:
提供详尽且清晰的需求说明和上下文信息,确保模型充分理解要解决的问题及其边界条件。
使用形式化规范或结构化的输入方式来表达复杂的逻辑关系和约束条件。
交互式迭代改进:
实现人机协同编程模式,在模型生成初步代码后,允许开发者逐步细化、修正和完善代码,通过多轮对话让模型更好地学习和适应实际需求。
强化训练和微调:
针对特定编程任务和场景,使用针对性的数据集进行额外的训练或微调,提升模型对正确代码结构和逻辑的理解能力。
利用人工审核和标注的优质样本数据,持续优化模型的学习目标。
我认为在使用大模型生成代码之前,开发者应尽可能明确地描述他们的需求和期望。清晰的需求描述可以帮助大模型更好地理解开发者的意图,从而生成更符合预期的代码。
在输入文本时,提供具有指导性的提示和约束,以引导大模型生成符合预期的代码。这些提示可以包括具体的代码示例、关键字或语法要求,有助于模型更准确地理解开发者的意图。生成代码后,开发者可以进行后处理和调整,以确保代码符合预期。这包括手动修改代码、添加注释、调整代码结构等操作,以使生成的代码更贴近实际需求。不断收集开发者的反馈和建议,优化大模型的训练数据和算法,提高其生成代码的准确性和质量。通过持续的改进,可以逐步提升大模型在生成代码方面的表现。
通过明确需求、提供指导性提示、后处理和调整以及持续改进,可以优化大模型生成代码时可能出现的曲解开发者需求的情况,从而提高生成代码的准确性和符合度。
2目前大模型生成的代码可能会曲解开发者需求,遇到这种情况如何优化?
明确和详细的输入说明:提供清晰、详细的输入说明,确保模型能够准确理解开发者的需求。明确指定输入的格式、要求和约束条件,以便模型能够生成符合预期的代码。
控制生成结果的长度:限制生成代码的长度,可以减少模型生成过多、冗长或不必要的代码。通过设置最大代码行数或字符数等限制,确保生成的代码保持简洁和可读性。
提供示例和上下文:为模型提供更多示例代码和上下文信息,以帮助模型更好地理解开发者的意图。示例代码可以包括所期望的输入输出示例,以及相关的代码片段或注释,以提供更多背景信息。
引入人工后处理:使用生成的代码之前,进行人工的后处理和代码审核,以修正任何不符合需求的部分。开发者可以对生成的代码进行评估、修改和调整,确保其符合预期的逻辑和功能。
针对特定领域进行微调:对于特定领域的代码生成需求,可以考虑使用迁移学习或领域特定训练来微调模型,以提高生成结果的质量和准确性。通过在特定领域的数据集上进行训练,可以使模型更好地适应该领域的需求。
广泛的测试和反馈循环:进行广泛的测试,验证生成代码在不同场景和输入下的表现。收集用户的反馈,并将其用于改进模型的训练和优化,以逐步提高生成结果的质量。
2引入示例和约束:通过提供示例代码或明确约束条件,指导模型生成符合预期的代码。示例可以是期望的输出样例,或者是关键步骤的代码片段。约束可以包括特定的语法规则、函数调用规则等。
在说起k8s的一些方便之处以及强大的应用场景来说,首先需要知道什么是k8s,那么什么是k8s呢?k8s是一个为容器服务而生的一个可移植容器的编工具,是一个管理应用的全生命周期的一个工具,从创建应用,部署应用,应用提供服务,扩容缩容应用,应用更新等都非常的方便,而且遇到一个服务器挂了,可以自动将这个服务器上的服务调度到另外一个主机上进行运行,无需进行人工干涉,这就是k8s的魔力所在。 相较于传...
从“省心”到“放心”:Kimi-K2-Instruct推理与调用的3个“贴心”技术逻辑 前几天帮刚入行的实习生做“小众香薰产品推广方案”,我故意只丢了句模糊需求:“帮我把这个产品的推广思路理清楚,顺便看看能不能落地”——没想到Kimi-K2-Instruct没追问“要哪些维度”“要什么数据”,反而先列出“市场空白点(小众香薰用户增速18%)→竞品短板(多数缺场景化营销)→推广路径(线上小红书...
借力AI破局数据库运维困境:从DAS Agent看智能运维的效率革命 在云数据库广泛应用的今天,运维工作早已不是“监控指标、排查故障”这么简单——面对突发的CPU突增、隐蔽的性能瓶颈,传统依赖人工经验的运维模式往往陷入“响应慢、诊断浅、优化难”的困境。而AI技术的出现,正为数据库运维注入“自治能力”,让运维从“被动救火”转向“主动保障”。阿里云DAS Agent作为融合大模型与实战经验的智能...
多元数据治理方法: 数据分类与标准化: 对数据进行分类,制定统一的数据标准和格式,确保数据的一致性和可比性。 元数据管理: 利用元数据管理工具来记录数据的属性、来源、使用情况等信息,便于数据的检索和分析。 数据质量管理: 实施数据质量控制流程,包括数据校验、清洗、去重等,确保数据的准确性和可靠性。 数据安全与合规性: 遵守数据保护法规,实施数据加密、访问控制、审计日志等安全措施。 数据目录和...
亲历 MCP 赋能可视化 OLAP 智能体应用:重构数据分析路径,破解企业效率瓶颈 在实际操作 “MCP 赋能可视化 OLAP 智能体应用” 方案的过程中,其对传统数据分析流程的重构能力、对不同角色需求的适配性,以及在大数据场景下的稳定表现,让人切实感受到 “从数据到价值” 的转化效率提升。以下从实际体验中的核心突破点、可深化优化的方向两方面,分享具体感受: 一、核心突破点:直击传统数据分析...