DeepMind携AlphaCode登Science封面,写代码能力不输程序员

简介: DeepMind携AlphaCode登Science封面,写代码能力不输程序员

AI 卷到程序员自己身上了。

今年年初,DeepMind 发布了基于 Transformer 的新模型 AlphaCode,该模型实现了大规模代码生成。现在,AlphaCode 又在《Science》上发表了新论文,研究登上《Science》封面。

论文地址:https://www.science.org/doi/10.1126/science.abq1158

代码生成一直被认为是一项重要挑战。AlphaCode 论文通讯作者、DeepMind 首席科学家 Oriol Vinyals 用一张图生动描述了智能与编程之间的关系,说明 AI 模型完成编程竞赛问题是非常困难的,而 AlphaCode 做到了。

具体而言,研究者将 AlphaCode 放在 Codeforces 挑战中进行了测试,Codeforces 是全球知名的编程竞赛平台,类似于国际象棋中使用的 Elo 评级系统,聚集全世界顶尖编程者。Codeforces 每周会分享编程挑战和问题排名。不同于编程人员在打造商业应用程序时可能面临的任务,Codeforces 的挑战更加独立,需要对计算机科学中的算法和理论概念有更广泛的了解,一般是结合逻辑、数学和编码专业知识的非常专业的难题。

AlphaCode 针对 Codeforces 网站上 5000 名用户解决的 10 项挑战进行了测试,总体排名位于前 54.3%,也就是说它击败了 46% 的参赛者 。

我们来看一个 AlphaCode 生成代码的具体例子:在测试 AlphaCode 的一项挑战中,试题要求参赛者找到一种方法,使用一组有限的输入将一个随机、重复的 s 和 t 字母字符串转换为另一个相同字母的字符串。例如,竞争对手不能只输入新字母,而必须使用「backspace」命令删除原始字符串中的几个字母。对于 AlphaCode 来说,这只是中等难度的挑战:

问题来自 Codeforces,解决方案是由 AlphaCode 生成的。

Codeforces 创始人 Mike Mirzayanov 表示:「我可以肯定地说 AlphaCode 的结果超出了我的预期。对此,有人怀疑我这么乐观,因为他们认为即使在简单的竞赛问题中,参赛选手不仅需要编写常规算法,还需要创新新算法,而这一部分是最困难的。但目前看来,AlphaCode 的表现与一个前途无限的人类参赛者相当,我迫不及待地想看看未来会发生什么!」

AlphaCode 为什么这么优秀?

想要 AI 在编程比赛中脱颖而出并不容易,DeepMind 通过将大规模 transformer 以及采样、过滤相结合,AlphaCode 在解决问题数量上取得了重大进展。DeepMind 在选定的公共 GitHub 代码上预训练模型,并在相对较小的编程数据集上对其进行微调。

在评估期间,研究者为每个问题创建了大量的 C++ 和 Python 程序,且数量级比以前的工作大几个数量级。然后对这些解决方案进行筛选、聚类和重新排序,将这些解决方案分配到一个由 10 个候选程序组成的小集合中,并提交给外部评估。这个自动化系统取代了竞争对手的调试、编译、通过测试和最终提交的反复试验过程。

在 Codeforces 的允许下,DeepMind 通过模拟参与 10 场比赛来评估 AlphaCode。参赛者仅凭复制以前的解决方案等捷径来参加比赛是不可能取得好成绩的,相反,模型必须创造出新颖有趣的解决方案。

此外,该研究还在 CodeContests 测试集上检验了问题解决率和样本量的关系,结果如下图所示:

来自谷歌的世界级竞赛程序员 Petr Mitrichev 表示:「解决竞争性编程问题是一件非常困难的事情,需要良好的编码技能和人类解决问题的创造力。AlphaCode 在这一领域取得的进展给我留下了深刻的印象,很高兴看到 AlphaCode 使用语言理解能力来生成代码并进行随机探索以创建新的解决方案。」

DeepMind 表示将继续这一探索,研发更智能的 AI 模型,这仅仅是一个开始。

参考链接:https://www.deepmind.com/blog/competitive-programming-with-alphacode

相关文章
|
2月前
|
数据采集 人工智能 测试技术
还在死磕AI咒语?北大-百川搞了个自动提示工程系统PAS
【10月更文挑战第4天】北京大学和百川智能研究人员开发了一种名为PAS的即插即用自动提示工程(APE)系统,利用高质量数据集训练的大型语言模型(LLMs),在基准测试中取得了显著成果,平均提升了6.09个百分点。PAS仅需9000个数据点即可实现顶尖性能,并能自主生成提示增强数据,提高了灵活性和效率。尽管存在训练数据质量和提示多样性等方面的潜在局限性,PAS仍为解决提示工程挑战提供了有前景的方法,有望提升LLM的可用性和有效性。论文详见:https://arxiv.org/abs/2407.06027。
54 3
|
4月前
|
机器学习/深度学习 人工智能
AI训AI惨遭投毒9次大崩溃,牛津剑桥等惊天发现登Nature封面!
【8月更文挑战第11天】牛津与剑桥大学研究揭示,AI模型若反复在自身生成的数据上训练,将遭遇“模型崩溃”,即性能严重退化,甚至遗忘真实世界的数据分布。此现象在《自然》杂志刊出,警示AI进化之路暗藏风险。实验显示,随着训练代际增加,模型倾向于生成更简单内容,丢失稀有信息,最终可能导致对现实世界的误解加深。此发现对AI领域的持续发展及模型可靠性提出了新的挑战。
205 60
|
3月前
|
自然语言处理
从头设计抗体,腾讯、北大团队预训练大语言模型登Nature子刊
【9月更文挑战第12天】近年来,抗体药物在生物医药领域展现出巨大潜力,但其高昂的研发成本和漫长周期成为瓶颈。为此,腾讯与北京大学合作开发了PALM-H3,这是一种基于预训练大语言模型的创新抗体设计方法。PALM-H3将抗体序列视为语言,利用Roformer模型学习其生成规律,实现从头设计高亲和力抗体,不依赖自然抗体,大幅提高研发效率和灵活性。此外,该方法还可广泛应用于疫苗设计和蛋白质工程等领域,加速新药上市。然而,确保抗体体内稳定性和安全性仍是挑战。论文详见:https://www.nature.com/articles/s41467-024-50903-y
56 1
|
存储 自然语言处理 数据可视化
受ChatGPT启发,10天完成能和数据聊天APP,回答问题不输本科生
受ChatGPT启发,10天完成能和数据聊天APP,回答问题不输本科生
119 0
中国天眼FAST再立功,精确测量星际磁场强度,研究登Nature封面
中国天眼FAST再立功,精确测量星际磁场强度,研究登Nature封面
|
传感器
清华黑科技登Science子刊封面:圆管上贴个膜,秒变3D复杂结构
清华黑科技登Science子刊封面:圆管上贴个膜,秒变3D复杂结构
|
人工智能 自然语言处理 机器人
DeepMind发30页长文:我们要给聊天机器人不同的「三观」
DeepMind发30页长文:我们要给聊天机器人不同的「三观」
103 0
|
移动开发
程序人生 - 祝贺登榜《移动开发领域内容榜》NO.38
程序人生 - 祝贺登榜《移动开发领域内容榜》NO.38
112 0
程序人生 - 祝贺登榜《移动开发领域内容榜》NO.38
|
机器学习/深度学习 存储 人工智能
接入百度大脑OCR技术,读书郎让小朋友变身“自学读书郎”
接入百度大脑OCR技术,读书郎让小朋友变身“自学读书郎”
224 0
接入百度大脑OCR技术,读书郎让小朋友变身“自学读书郎”
|
人工智能 自动驾驶 Java
马斯克已筹资 465 亿美元收购 Twitter;余承东称汽车芯片被炒太贵,无法接受;程序员延寿指南登 GitHub 热榜
Java 之父:别再坚守 Java 8;特斯拉正在研发自动驾驶出租车,有望在 2024 年量产;台积电为留住人才拟实施“买股补助”措施;微软确认成立安卓体验部门,将进一步整合 Win 11 和安卓系统……
150 0