由于安全风险,安全领导者考虑禁止用AI生成代码

简介: 由于安全风险,安全领导者考虑禁止用AI生成代码

本文来源:企业网D1net


随着AI和开源代码在企业中的广泛应用,安全风险也日益增加。根据Venafi的调查,92%的安全领导者对企业内使用AI生成的代码表示担忧。尽管83%的开发人员已将AI用于代码生成,但安全团队却难以跟上其步伐,导致企业面临潜在的安全危机。主要问题包括开发人员过度依赖AI、代码质量缺乏有效检查以及使用过时的开源库。此外,开源代码的广泛应用带来了验证困难,75%的安全领导者认为无法检查每一行代码的安全性,92%呼吁使用代码签名来确保信任。Venafi的首席创新官Kevin Bocek强调,代码验证已成为企业防护的关键,应对未来挑战需确保代码签名过程的强大与安全性。


根据Venafi的调查,92%的安全领导者对其企业内使用AI生成的代码表示担忧。


安全团队与开发团队之间的紧张关系


83%的安全领导者表示,他们的开发人员目前使用AI生成代码,其中57%称这种做法已成为常态,然而,72%的人认为,他们别无选择,只能允许开发人员使用AI来保持竞争力,而63%的人则由于安全风险,曾考虑禁止在编码中使用AI。


66%的受访者表示,安全团队无法跟上由AI驱动的开发人员的步伐。结果,安全领导者感到他们正在失去控制,企业正因此面临风险。78%的人相信AI生成的代码将导致安全危机,59%的人因AI的安全隐患而夜不能寐。


63%的安全领导者认为,在企业内无法有效管理AI的安全使用,因为他们无法清晰了解AI的具体使用位置。尽管存在这些担忧,47%的公司已经制定了确保在开发环境中安全使用AI的政策。


Venafi的首席创新官Kevin Bocek表示:“安全团队陷入了两难境地,处在一个由AI编写代码的新时代。开发人员已经通过AI得到极大增强,他们不会放弃这种‘超能力’。同时,攻击者正在渗透我们的队伍——最近在开源项目中的长期干预,以及朝鲜对IT领域的渗透,仅仅是冰山一角。”


Bocek补充道:“如今任何拥有大型语言模型(LLM)的人都可以编写代码,这打开了一个全新的战线。代码才是关键,不管是你们的开发人员使用AI超速编写的代码,还是外部代理渗透的代码,或者是某位财务人员使用从谁都不清楚的训练数据生成的LLM代码。因此,代码至关重要!我们必须验证代码的来源。”


安全领导者对AI生成代码的主要担忧


当谈到开发人员使用AI编写或生成代码时,安全领导者提出了三大主要担忧:


1. 开发人员可能过度依赖AI,导致标准下降2. AI编写的代码不会被有效地进行质量检查3. AI可能会使用过时且维护不善的开源库

研究还指出,AI使用开源不仅给安全团队带来了挑战:


开源的过度使用:


安全领导者估计,平均61%的应用程序使用开源代码。这种对开源的过度依赖可能带来潜在风险,因为86%的受访者认为,开源代码在开发者中更注重速度,而非安全最佳实践。


令人困扰的验证问题:


90%的安全领导者信任开源库中的代码,其中43%表示完全信任,然而,75%的人认为不可能验证每一行开源代码的安全性。因此,92%的安全领导者认为,应该使用代码签名来确保开源代码的可信性。


Venafi的首席创新官Kevin Bocek补充道:“最近的CrowdStrike宕机事件显示了代码从开发者迅速传播到全球危机的影响。如今,代码可以来自任何地方,包括AI和外部代理。未来只会有更多的代码来源,而不是更少。基于身份验证代码、应用程序和工作负载,确保它们没有被修改且被批准使用,是我们今天和未来最好的选择。我们应该把CrowdStrike宕机事件视为未来挑战的完美例子,而不是偶然的个例。”


维护代码签名的信任链可以帮助企业防止未经授权的代码执行,同时也能扩大操作规模,以跟上开发人员使用AI和开源技术的步伐。


Bocek总结道:“在一个AI和开源既强大又不可预测的世界里,代码签名成为企业的基础防线,但要让这种防护生效,代码签名过程必须既强大又安全,这不仅仅是阻止恶意代码的问题——企业需要确保每一行代码都来自可信的来源,并验证数字签名,确保自签名以来没有任何篡改。好消息是,代码签名几乎无处不在——坏消息是,它往往没有得到安全团队的充分保护,而这些团队本可以帮助确保其安全性。”


版权声明:本文为企业网D1net编译,转载需在文章开头注明出处为:企业网D1net,如果不注明出处,企业网D1net将保留追究其法律责任的权利。



相关文章
|
1月前
|
人工智能 自然语言处理 IDE
6 款 AI 工具,助力写出更优质代码
6 款 AI 工具,助力写出更优质代码
231 3
6 款 AI 工具,助力写出更优质代码
|
4天前
|
人工智能 数据库 决策智能
Archon – 开源 AI 智能体框架,自主生成代码构建 AI 智能体
Archon 是一个开源的 AI 智能体框架,能够自主生成代码并优化智能体性能,支持多智能体协作、领域知识集成和文档爬取等功能,适用于企业、教育、智能家居等多个领域。
68 10
Archon – 开源 AI 智能体框架,自主生成代码构建 AI 智能体
|
8天前
|
人工智能 运维 监控
从大规模恶意攻击 DeepSeek 事件看 AI 创新隐忧:安全可观测体系建设刻不容缓
从大规模恶意攻击 DeepSeek 事件看 AI 创新隐忧:安全可观测体系建设刻不容缓
|
24天前
|
人工智能 自然语言处理 测试技术
Potpie.ai:比Copilot更狠!这个AI直接接管项目代码,自动Debug+测试+开发全搞定
Potpie.ai 是一个基于 AI 技术的开源平台,能够为代码库创建定制化的工程代理,自动化代码分析、测试和开发任务。
161 19
Potpie.ai:比Copilot更狠!这个AI直接接管项目代码,自动Debug+测试+开发全搞定
|
1天前
|
人工智能 安全 API
AI 解决方案的安全控制设计与实施
AI 解决方案的安全控制设计与实施涵盖数据安全、模型安全、系统安全及合规治理四大领域。通过数据加密、访问控制、差分隐私等手段保障数据安全;采用对抗训练、联邦学习确保模型安全;利用容器化部署、可信执行环境维护系统安全;并遵循 GDPR 等法规,进行红队测试和应急响应,确保 AI 全生命周期的安全性与合规性。
|
27天前
|
人工智能 Linux 开发工具
Kiln AI:零代码实现微调模型!自动生成合成数据与微调模型的开源平台
Kiln AI 是一款开源的 AI 开发工具,支持零代码微调多种语言模型,生成合成数据,团队协作开发,自动部署。帮助用户快速构建高质量的 AI 模型。
606 8
Kiln AI:零代码实现微调模型!自动生成合成数据与微调模型的开源平台
|
5天前
|
机器学习/深度学习 人工智能 安全
AI大模型安全风险和应对方案
AI大模型面临核心安全问题,包括模型内在风险(如欺骗性对齐、不可解释性和模型幻觉)、外部攻击面扩大(如API漏洞、数据泄露和对抗性攻击)及生成内容滥用(如深度伪造和虚假信息)。应对方案涵盖技术防御与优化、全生命周期管理、治理与行业协同及用户教育。未来需关注动态风险适应、跨领域协同和量子安全预研,构建“技术+管理+法律”三位一体的防护体系,推动AI安全发展。
|
11天前
|
人工智能 安全 API
容器化AI模型的安全防护实战:代码示例与最佳实践
本文基于前文探讨的容器化AI模型安全威胁,通过代码示例展示如何在实际项目中实现多层次的安全防护措施。以一个基于TensorFlow的图像分类模型为例,介绍了输入验证、模型加密、API认证和日志记录的具体实现方法,并结合最佳实践,如使用安全容器镜像、限制权限、网络隔离等,帮助构建更安全的AI服务。
|
12天前
|
人工智能 数据可视化 数据处理
PySpur:零代码构建AI工作流!开源可视化拖拽平台,支持多模态与RAG技术
PySpur 是一款开源的轻量级可视化 AI 智能体工作流构建器,支持拖拽式界面,帮助用户快速构建、测试和迭代 AI 工作流,无需编写复杂代码。它支持多模态数据处理、RAG 技术、文件上传、结构化输出等功能,适合非技术背景的用户和开发者快速上手。
141 5
|
9天前
|
人工智能 运维 监控
从大规模恶意攻击 DeepSeek 事件看 AI 创新隐忧:安全可观测体系建设刻不容缓
从大规模恶意攻击 DeepSeek 事件看 AI 创新隐忧:安全可观测体系建设刻不容缓

热门文章

最新文章