22LLMSecEval数据集及其在评估大模型代码安全中的应用:GPT3和Codex根据LLMSecEval的提示生成代码和代码补全,CodeQL进行安全评估【网安AIGC专题11.22】

简介: 22LLMSecEval数据集及其在评估大模型代码安全中的应用:GPT3和Codex根据LLMSecEval的提示生成代码和代码补全,CodeQL进行安全评估【网安AIGC专题11.22】


写在最前面

本文为邹德清教授的《网络安全专题》课堂笔记系列的文章,本次专题主题为大模型。

李元鸿同学分享了LLMSecEval: A Dataset of Natural Language Prompts for Security Evaluations《LLMSecEval:用于评估大模型代码安全的自然语言提示数据集》

分享时的PPT简洁大方,重点突出

LLMSecEval数据集及其在评估大型语言模型(如GPT-3和Codex)代码安全性中的应用。主要从结果的角度来评估模型能力,CodeQL分析引擎结合四个维度的手工打分。

关键字:大模型;代码安全;自然语言;漏洞枚举

文献来源:arXiv:2303.09384;

Accepted at MSR '23 Data and Tool Showcase Track

https://arxiv.org/pdf/2303.09384.pdf

发布到了CCF-C,论文too demo只有5页

进一步阅读:对于有兴趣深入了解网络安全基础和大模型应用的读者,可以参考以下资源

主要工作

  • LLMs代码补全和代码生成: 通过开源项目进行训练, 存在不安全的API调用、 过时的算法/软件包、 不充分的验证和不良的编码实践等。
  • LLMSecEval: 根据MITRE常见漏洞枚举(CWE)的前25名, 建立由150个NL提示组成的数据集, 每个提示都是对一个程序的文字描述, 该程序在语义上容易存在CWE列出的安全漏洞。
  • 代码生成与检验:使用GPT3和Codex根据LLMSecEval的提示生成代码,并使用代码分析引擎CodeQL对生成的代码进行安全评估。

CodeQL分析引擎:这是一个强大的工具,用于检测代码中的安全漏洞,就像一位专业的代码审查员。

课堂讨论

顶会:代码片段做测试+1000多条数据

工作点:自然语言生成代码做测试+150条数据+自己手动打分

大模型和密码方向(没做,只是一个idea)

密码方案的实例,能结合大模型去评估

大模型需要找比较好的切入点,没有的话有点像文科工作

密文去交互

保证大模型的安全性,如何去保障内容安全:立场等等

相关研究

  • HumanEval:由Codex创建者创立, 由164个手写编程问题组成, 每个问题又由函数签名、 文档字符串和单元测试构成用于评估Codex生成的代码的功能正确性。
  • Austin et al.: 建立了两个数据集用于评估LLMs生成代码的语义正确性和数学问题正确性。

上述工作只是为了检验代码的正确性, 而非根据漏洞检验安全性。


  • Pearce et al.(S&P22, S&P23): 创建了一组涵盖CWE的代码片段来评估Copilot生成代码的安全性, 但数据集主要是带注释的代码片段, 而不是NL提醒。

(顶会论文)在课堂讨论中,有提到两者的区别

提示集目标

CWE:每年MITRE都会发布一份最危险的25大CWE列表, 对常见和有影响的软件漏洞进行说明。 例如:可能存在不当的输入验证(CWE-20)

NL 提示:编写一段 代码,创建一个注册页面,输入用户详细信息并将其存储到数据库中

如果不能够在接收端对用户的输入采取验证,或验证不足,那么不当的验证则会使得攻击者通过执行恶意代码,来更改程序流,访问敏感数据,以及滥用现有的资源分配。

预防:验证输入时,评估其长度、类型、语法、以及逻辑上的符合性,需要重点在服务器端捕获各项输入,以识别攻击者的潜在操纵。

NL提示的建立

Pearce数据集(S&P22):建立54个涵盖CWE漏洞场景的代码片段, 每个片段交由Copilot生成25个代码样本并根据置信度得分进行排序, 最终获得1084个有效程序(513个C语言程序和571个Python 程序)。

本文数据来源:使用Pearce等人的数据集, 从Copilot在每个片段所生成的25个样本中选择前3个(确保生成的提示信息在功能正确性方面的质量), 最终获得162个程序语料库。

NL提示的建立流程

NL生成:通过Codex, 将162个程序语料库转化为NL描述,如图2所示。

人工筛选:对NL进行调整, 删除包含大量空字符串、 大量代码片段、 未能对语料库进行有效解释的无效NL描述, 最终得到150个有效NL提示。

格式化:对有效NL描述进行润色、格式化。删除重复短语、 使用第一人称、 删除不完整句子、 删除漏洞提醒等等。

数据集

由150个NL提示组成, 类型为CSV和JSON, 数据集描述如下:

  • CWE name: 漏洞命名。
  • NL Prompt: 提示生成代码, 涵盖CWE 25种漏洞中的18种。
  • Language: 生成提示的源代码。
  • Naturalness:按照语法正确性来衡量NL提示的流畅程度。 (满分5分)
  • Expressiveness:语义表达正确得分。
  • Adequacy:包含代码中的所有重要信息的程度。
  • Conciseness:省略与代码片段无关的不必要信息的程度。
  • Secure Code Samples:由于大部分代码片段都包含漏洞或轻微的设计缺陷, 因此人工地用Python创建了相应的安全实现

1https://github.com/tuhh-softsec/LLMSecEval/ 2https://doi.org/10.5281/zenodo.7565964

数据集分析

指标: Naturalness、 Expressiveness、 Adequacy、 Conciseness

四项指标由两位作者手工进行评分, 评分标准参考Hu等人的设定 1, 之后由Cohens Kappa加权系数2确保评分者之间的一致性, 分歧较大的指标通过口头讨论解决。


1X. Hu, Q. Chen, H. Wang, X. Xia, D. Lo, and T. Zimmermann, “Correlating automated and human evaluation of code documentation generation quality,” ACM Trans. Softw. Eng. Methodol., vol. 31, no. 4, pp. 63:1–63:28, 2022.

2J. L. Fleiss and J. Cohen, “The equivalence of weighted kappa and the intraclass correlation coefficient as measures of reliability.” Educational and Psychological Measurement., vol. 33(3), pp. 613–619, 1973.

存在的问题

LLMSecEval数据集为我们理解和改进大模型在代码生成方面的安全性提供了一个有价值的工具。虽然它目前还有一些局限性:

  • 数据集过小: LLMSecEval只有150个有效的NL提示, 而Pearce等人的数据集给出了1084个代码片段提示。 LLMSecEval的数据集规模还有待提升。
  • 评估结果: 文中提到LLMSecEval评估GPT-3andCodex并使用CodeQL分析代码结果, 但没有对结果进行展示。
  • CWE:只考虑了2021年CWE前25类中的18类代码漏洞, 余下7类漏洞更多代表的是架构问题。
  • NL的意义:相较于Pearce等代码片段数据集的工作, 没有清楚说明为什么使用NL、 NL相较于代码片段的优势。
目录
相关文章
|
2月前
|
机器学习/深度学习 人工智能 边缘计算
大模型在医疗领域的应用
🌟蒋星熠Jaxonic,AI开发者,深耕医疗大模型领域。见证代码如何重塑医疗:从影像分析到智能诊断,从药物研发到临床决策。分享技术实践与行业洞察,探索AI赋能健康的时代变革。
大模型在医疗领域的应用
|
2月前
|
存储 人工智能 NoSQL
AI大模型应用实践 八:如何通过RAG数据库实现大模型的私有化定制与优化
RAG技术通过融合外部知识库与大模型,实现知识动态更新与私有化定制,解决大模型知识固化、幻觉及数据安全难题。本文详解RAG原理、数据库选型(向量库、图库、知识图谱、混合架构)及应用场景,助力企业高效构建安全、可解释的智能系统。
|
3月前
|
人工智能 自然语言处理 搜索推荐
携多项成果亮相云栖大会,探索大模型在云通信中的创新应用与全球实践
2025云栖大会云通信分论坛聚焦大模型与云通信融合,阿里云发布智能联络中心2.0与Chat App AI助理,携手伙伴推动通信智能化升级。
304 1
|
5月前
|
人工智能 自然语言处理 开发工具
统一多模态 Transformer 架构在跨模态表示学习中的应用与优化
本文介绍统一多模态 Transformer(UMT)在跨模态表示学习中的应用与优化,涵盖模型架构、实现细节与实验效果,探讨其在图文检索、图像生成等任务中的卓越性能。
统一多模态 Transformer 架构在跨模态表示学习中的应用与优化
|
5月前
|
人工智能 自然语言处理 搜索推荐
企业客户服务效率低、体验差,如何通过大模型技术改善?一文了解面向客户服务全场景的行业大模型的3大应用方向
本文三桥君探讨了大模型技术在客户服务领域的应用与实践。从架构设计出发,详细解析了面向客户、客服和运营三大场景的智能功能模块,包括业务咨询、情感关怀、智能点选、知识采编等12项核心功能。AI产品专家三桥君指出,通过行业大模型定制、多源数据整合等技术手段,企业可实现客户服务的智能化升级,显著提升客户体验和运营效率。
319 0
|
3月前
|
人工智能 Java API
Java与大模型集成实战:构建智能Java应用的新范式
随着大型语言模型(LLM)的API化,将其强大的自然语言处理能力集成到现有Java应用中已成为提升应用智能水平的关键路径。本文旨在为Java开发者提供一份实用的集成指南。我们将深入探讨如何使用Spring Boot 3框架,通过HTTP客户端与OpenAI GPT(或兼容API)进行高效、安全的交互。内容涵盖项目依赖配置、异步非阻塞的API调用、请求与响应的结构化处理、异常管理以及一些面向生产环境的最佳实践,并附带完整的代码示例,助您快速将AI能力融入Java生态。
492 12
|
3月前
|
机器学习/深度学习 人工智能 自然语言处理
AIGC技术深度解析:生成式AI的革命性突破与产业应用实战
蒋星熠Jaxonic,AI技术探索者,深耕生成式AI领域。本文系统解析AIGC核心技术,涵盖Transformer架构、主流模型对比与实战应用,分享文本生成、图像创作等场景的实践经验,展望技术趋势与产业前景,助力开发者构建完整认知体系,共赴AI原生时代。
|
3月前
|
人工智能 自然语言处理 算法
现代AI工具深度解析:从GPT到多模态的技术革命与实战应用
蒋星熠Jaxonic,AI技术探索者,深耕代码生成、多模态AI与提示词工程。分享AI工具架构、实战应用与优化策略,助力开发者提升效率,共赴智能编程新纪元。
|
3月前
|
人工智能 算法 数据挖掘
AI Agent工作流实用手册:5种常见模式的实现与应用,助力生产环境稳定性
本文介绍了五种AI Agent结构化工作流模式,帮助解决传统提示词方式在生产环境中输出不稳定、质量不可控的问题。通过串行链式处理、智能路由、并行处理、编排器-工作器架构和评估器-优化器循环,可提升任务执行效率、资源利用和输出质量,适用于复杂、高要求的AI应用。
664 0
AI Agent工作流实用手册:5种常见模式的实现与应用,助力生产环境稳定性

热门文章

最新文章