安全使用GenAI模型进行软件开发的步骤

简介: 安全使用GenAI模型进行软件开发的步骤

本文来自 企业网D1net公众号

本文将深入探讨如何构建一个在软件开发中使用ChatGPT和类似的GenAI的环境,该环境对所有参与者都是安全和有益的。


如果你是一家大型公司,最近的AI热潮并没有逃脱你的注意,今天,AI正在协助完成大量与开发和数字相关的任务,从内容生成到自动化和分析。

AI的发展很快,随着它在很大程度上是一个未经探索的领域,伦理、经济、社会和法律问题也浮出水面。在关于AI增强内容的知识产权以及AI是否能够在短期内完全取代人类劳动力(并导致大规模裁员)的激烈讨论中,企业希望利用GenAI提供的优势,同时又是安全的。

正视风险,破除神话


AI的相对新颖性和爆炸性扩散造成了大量的误解和信息混乱,让我们来看看与ChatGPT相关的一些常见风险和流传的神话,看看如何应对或减轻它们。


1.AI的发展速度快于政府对其的监管

在区块链和加密货币方面,我们以前就看到过这种情况。AI的发展进程很快,而法律程序和监管程序却滞后,这造成了一个很难导航的大灰色地带:大量空白,几乎没有先例,这可能会导致企业采用不安全或不道德的方式使用ChatGPT,甚至在未来被认为是非法的。

要解决此问题,你可以创建与在企业中使用ChatGPT有关的明确行为准则,并强制要求员工熟悉它。

这段代码应该尽可能多地涵盖使用GenAI的各个方面,例如,它应该包括你的企业中允许使用ChatGPT的任务类型,以及所需的访问类型。由于该领域有许多空白,最好与值得信赖的专家合作,或者将GenAI实践的创建和实现外包给具有该领域专业知识的人。


2.关于知识产权、过度分享和隐私风险的辩论

有很多已知的案例,人们试图用敏感或私人数据训练AI,或者将其用作分析的输入。对于这些数据是否对企业外部的人可用,仍存在很大争议,另一场激烈的辩论是,如何为使用ChatGPT的任何产品赋予知识产权。请记住,如果员工使用他们的个人帐户使用ChatGPT,结果将是他们的知识产权,而不是你公司的知识产权。

这就是为什么在你的AI相关政策中引入并遵守处理敏感、隐私或受版权保护的信息的规则非常重要。


3.AI发展的不可预测性

这是风险和大量投机的另一个因素。AI在很大程度上仍然是一个空白纸,尽管技术奇点不太可能在短期内成为现实,但仍然重要的是要记住,AI的未来非常不可预测。正因为如此,很难知道我们是否能够对AI及其未来的发展施加同样多的控制,另一件很难预测的事情是,我们的工作可能会变得对AI有多大的依赖,这也是一个很大的风险因素。

我们可以通过创建和实现灵活、敏捷的ChatGPT工作流来降低这种风险,这样的工作流程应该容易扩展,并具有很强的适应发展和法规变化的能力。


4.AI最终将取代人类劳动

这在很大程度上仍然是阴谋论领域,但即使是现在,我们也看到有多少工作可以在AI的帮助下实现自动化,这一神话很容易被任何试图使用AI来执行更复杂任务的人打破。如今,AI输出的质量在很大程度上取决于输入的质量和精度,但要编写连贯、有用的提示,生成准确和可用的结果,操作员通常需要至少接受过一些使用AI的基本培训,而且总是需要领域知识。

一方面,快速工程和领域知识的经验与AI输出质量之间的关系是直接的,这意味着,要有效地使用AI,需要高效和合格的工作人员。

绕过这个伦理敏感话题的一种方法是,通过增加精确度、覆盖率、承担平凡和重复性的任务以及消除由于人为因素而发生的错误,推动与ChatGPT相关的工作更多地走向自动化,并增强人工工作。


5.AI相关流程和文档的复杂性

由于AI仍是未知领域,大多数企业在设法建立清晰且有效的AI工作流程、记录面向ChatGPT的任务的协议之前,仍需走试错之路。积累的知识匮乏,让企业盲目导航。这可能会导致代价高昂的错误、效率损失以及时间和资源的浪费。

解决这一问题的最佳解决方案是将AI流程和文档的实施委托给专家,聘请可靠的内部员工或将这些任务外包给专业人员。

为在软件开发中使用GenAI构建安全环境的最佳实践和步骤


实施AI工作的流程应该仔细进行,并牢记这样的解决方案需要量身定做,并考虑许多与业务和领域相关的细节和上下文,以下是一些最佳实践,它们将帮助你驾驭这片浑浊的水域。


1.关注用户同意、数据隐私、安全和合规

了解你所在地区已经针对AI制定了哪些法规,并密切监控政府流程,为即将到来的立法行动做好准备。如果你的产品以基于AI的服务为特色,请确保用户充分了解这一事实,知道收集了哪些数据,并在使用你的产品之前征得他们的同意。对于开发过程,避免使用敏感、私有或受版权保护的数据来训练AI或生成输出。


2. 人机回环实践

人机回环是一套设计和操作实践,其中人的判断被集成到AI驱动的系统和流程中,这种方法限制了任何AI的潜在自主权,并给了你更多的控制和监督,特别是在关键的决策点。在AI的决定可能具有突出的伦理、法律或个人影响的情况下,这一概念是必不可少的。


3.负责任的披露和部署

如果你看到与AI相关的工作把你引向了错误的方向,你应该随时准备放弃它,被确定为构成风险的潜在有害的ChatGPT结果和经过训练的AI模型应该被丢弃并关闭,可能不会对你的其他进程造成太大破坏。


4.透明文档

如果你希望企业中的每个人都对你使用AI的立场达成一致,那么使用AI的清晰透明的协议、统一的程序、在术语和关键点上没有任何模棱两可和双重含义是至关重要的,它还有助于快速让员工上岗,并大规模引入AI实践。


5.界定和限制AI参与的范围

AI的确切参与范围应该从项目开始就定义,这应该记录在有关使用ChatGPT的必要文档中,你需要向所有员工提供这些文档。允许使用AI的任务应明确规定,禁止使用AI的任务也应明确规定。


6.参与AI社区,提高AI意识和识字能力

如上所述,缺乏积累的知识库是软件开发中阻碍ChatGPT相关工作的因素之一。为AI社区做出贡献,交换想法,分享经验,对你的企业和社区本身都是有利可图的。对你的员工进行AI开发方面的教育并提高对与其相关的各种问题的认识也成为必要。


7.透明度和问责制

虽然这是一种更通用的最佳实践,对任何软件开发过程都有好处,但它对于AI增强的任务尤其重要,因为这个领域仍然是一个灰色地带。你应该明确谁对什么负责,每个参与ChatGPT工作的员工都应该知道自己的个人责任,谁是各种具体任务或问题的负责人。


8.持续监测

与任何快速发展的领域一样,持续的反馈及其纳入周期、对ChatGPT生成的输出的监控、对与AI相关的工作流程、法规和外地发展的审查有助于你改进你的流程并使其尽可能高效,它还将帮助你避免与ChatGPT和其他GenAI相关的许多陷阱。



结论


对于任何数字企业来说,驾驭复杂且快速演变的生成性AI图景既带来了前所未有的机遇,也带来了重大挑战。

通过解决与ChatGPT和类似技术相关的伦理、法律和实践问题,并实施最佳实践框架,企业级公司可以安全有效地利用GenAI的力量,这种方法不仅可以帮助建立一个故障安全的环境,还可以确保AI驱动的创新增强而不是取代人类的专业知识,从而产生更健壮、更高效和更有道德责任感的软件开发过程。

相关文章
|
6月前
|
机器学习/深度学习 数据采集 监控
大模型开发:描述一个典型的机器学习项目流程。
机器学习项目涉及问题定义、数据收集、预处理、特征工程、模型选择、训练、评估、优化、部署和监控。每个阶段都是确保模型有效可靠的关键,需要细致操作。
83 0
|
2月前
|
安全 Linux 调度
Linux内核开发流程指南 - 3. 早期规划【ChatGPT】
Linux内核开发流程指南 - 3. 早期规划【ChatGPT】
|
4月前
|
人工智能 领域建模
应用工程化架构问题之AI计算机中的大模型评估体系发生变化如何解决
应用工程化架构问题之AI计算机中的大模型评估体系发生变化如何解决
|
6月前
|
机器学习/深度学习 人工智能 自然语言处理
深入探究软件测试中AI驱动的自动化策略
【4月更文挑战第12天】随着人工智能(AI)技术的飞速发展,其在软件测试领域的应用已经从理论走向实践。本文将探讨AI如何革新传统自动化测试方法,提高测试效率与质量,并分析面临的主要挑战以及未来的发展趋势。我们将重点讨论机器学习、自然语言处理等AI技术在测试案例生成、执行及结果分析中的应用,并展示实际案例以证明AI在推动软件测试自动化方面的巨大潜力。
|
6月前
|
存储 数据安全/隐私保护 C++
向他人分享你的模型设计成果
在模型设计或交付工作过程中,经常需要为你的团队成员或甲方客户分享你的模型设计成果。在分享过程中,文件大小和复杂性、版本控制问题、权限和访问控制、网络和存储限制、数据安全和隐私等因素,都会影响最终的效果。
97 0
向他人分享你的模型设计成果
|
6月前
|
机器学习/深度学习 人工智能 自然语言处理
ChatGPT 革命:如何使用 AI 简化你的工作和生活管理(全)
ChatGPT 革命:如何使用 AI 简化你的工作和生活管理(全)
179 0
|
机器学习/深度学习 人工智能 算法
当大模型开始规划合作,一个模型打造软件开发团队,代码生成性能狂升
当大模型开始规划合作,一个模型打造软件开发团队,代码生成性能狂升
119 0
当大模型开始规划合作,一个模型打造软件开发团队,代码生成性能狂升
|
自然语言处理 测试技术 程序员
当大模型开始规划合作,一个模型打造软件开发团队,代码生成性能狂升(2)
当大模型开始规划合作,一个模型打造软件开发团队,代码生成性能狂升
187 0
|
存储 测试技术 数据库
「机会和方案」TOGAF建模:项目环境图
「机会和方案」TOGAF建模:项目环境图
|
机器学习/深度学习 存储 监控
MLOps:构建生产机器学习系统的最佳实践(下)
MLOps:构建生产机器学习系统的最佳实践
489 0
MLOps:构建生产机器学习系统的最佳实践(下)