计算机前沿技术-人工智能算法-大语言模型-最新研究进展-2024-09-25(上)

简介: 计算机前沿技术-人工智能算法-大语言模型-最新研究进展-2024-09-25(上)

计算机前沿技术-人工智能算法-大语言模型-最新研究进展-2024-09-25

1. PromSec: Prompt Optimization for Secure Generation of Functional Source Code with Large Language Models (LLMs)

M Nazzal, I Khalil, A Khreishah, NH Phan - arXiv preprint arXiv:2409.12699, 2024

https://arxiv.org/pdf/2409.12699

PromSec: 使用大型语言模型(LLMs)生成功能源代码的提示优化以确保安全

摘要

本文介绍了一种名为 PromSec 的算法,它针对大型语言模型(LLMs)在生成源代码时存在的安全漏洞问题,提出了一种提示优化方法。LLMs 能够生成高质量的源代码,但它们在训练过程中也可能会复制不安全的编程实践,导致生成的代码存在安全漏洞。PromSec 结合了生成对抗图神经网络(gGAN)和 LLM 代码生成,通过迭代循环优化提示,以生成既安全又功能完备的代码。该算法通过新的对比学习方法训练 gGAN,将代码清理和生成循环构建为一个双目标优化问题,显著减少了 LLM 推理的次数,提高了成本效益。实验结果表明,PromSec 能有效提升代码安全性,同时保持其预期功能。

创新点

  1. 双目标优化:将代码安全性和功能保持作为两个优化目标。
  2. 生成对抗图神经网络(gGAN):用于修复和减少生成代码中的安全漏洞。
  3. 对比学习方法:在 gGAN 中引入新的对比学习方法,优化代码生成过程。
  4. 迭代交互循环:通过 LLM 和 gGAN 之间的迭代交互,逐步优化代码生成。
  5. 跨模型和语言的可转移性:优化后的提示可跨不同的 LLMs 和编程语言使用。

算法模型

PromSec 算法包括以下关键组件:

  • gGAN:一个生成对抗网络,用于在保持代码功能的同时修复安全漏洞。
  • LLM:用于生成代码的大规模语言模型。
  • 对比损失函数:用于训练 gGAN,确保生成的代码图既安全又保持功能。
  • 迭代优化过程:通过 LLM 和 gGAN 的迭代交互,不断优化代码和提示。

实验效果

  • 安全性提升:PromSec 显著减少了代码中的常见弱点枚举(CWEs)数量。
  • 功能保持:通过代码图相似性度量,PromSec 生成的代码保持了原始代码的功能。
  • 成本效益:PromSec 减少了 LLM 查询次数和安全分析成本,提高了操作效率。
  • 跨模型和语言的可转移性:PromSec 优化的提示在不同的 LLMs 和编程语言中具有较高的可转移性。

重要数据与结论

  • PromSec 在处理 100 个测试代码库时,能够在 20 次迭代内解决大多数 CWEs。
  • 在与基线方法(BL1 和 BL2)的比较中,PromSec 在安全性、功能保持和成本效益方面均表现更优。
  • PromSec 在处理未在训练集中出现的 CWEs 时,仍能展现出一定的安全性修复能力。

推荐阅读指数

★★★★☆

推荐理由

  • 实用性:PromSec 解决了实际开发中的一个重要问题,即如何在利用 LLMs 生成代码的同时确保代码的安全性。
  • 创新性:该研究提出了一种新颖的方法,通过优化提示来提高代码的安全性,而不是直接修改模型本身。

2. Exploring Large Language Models for Product Attribute Value Identification

K Sabeh, M Kacimi, J Gamper, R Litschko, B Plank - arXiv preprint arXiv:2409.12695, 2024

探索大型语言模型在产品属性值识别中的应用

摘要

产品属性值识别(PAVI)是从产品信息中自动提取属性及其值的任务,这对于产品搜索、推荐和比较等功能至关重要。现有的方法主要依赖于微调预训练的语言模型,如 BART 和 T5,这些方法需要大量的任务特定训练数据,并且在泛化到新属性时存在困难。本文探索了大型语言模型(LLMs),如 LLaMA 和 Mistral,作为 PAVI 的数据高效且鲁棒的替代方案。我们提出了不同的策略:比较零样本设置中的一步和两步基于提示的方法,并利用通过上下文学习示例中的参数和非参数知识。我们还介绍了基于预训练 T5 模型的密集演示检索器,并进行指令微调,以明确训练 LLMs 执行任务特定指令。在两个产品基准数据集上的广泛实验表明,我们的两步方法在零样本设置中显著提高了性能,并且当使用训练数据时,指令微调进一步提高了性能,展示了使用 LLMs 进行 PAVI 的实际好处。

创新点

  1. 零样本学习:探索了 LLMs 在没有任务特定训练数据的情况下执行 PAVI 的能力。
  2. 两步方法:提出了一种分阶段的方法,先识别属性,然后提取相应的值,以提高准确性。
  3. 上下文学习:使用参数和非参数知识源来增强模型性能,包括生成的示例和检索到的示例。
  4. 指令微调:通过明确训练模型执行任务特定指令来提高性能。

算法模型

  • 一步方法:模型直接从输入文本中提取属性-值对。
  • 两步方法:模型首先识别属性,然后提取相应的值。
  • 密集演示检索器:基于预训练的 T5 模型,用于检索与输入数据最相关的示例。
  • 指令微调:对 LLaMA、Mistral 和 OLMo 模型进行微调,以提高 PAVI 任务的性能。

实验效果

  • 零样本结果:两步方法在 AE-110k 和 OA-Mine 数据集上的性能均优于一步方法。
  • 上下文学习:使用检索到的标题和演示可以提高模型性能,尤其是当使用细粒度检索器时。
  • 指令微调:与上下文学习相比,指令微调显著提高了模型性能。

重要数据与结论

  • 在 AE-110k 数据集上,Mistral 模型在两步方法中的 F1 分数为 28.97,而一步方法为 17.20。
  • 在 OA-Mine 数据集上,LLaMA 模型在两步方法中的 F1 分数为 31.64。
  • 指令微调进一步提高了性能,例如在 AE-110k 数据集上,LLaMA 的 F1 分数提高到 81.09。

推荐阅读指数

★★★★☆

推荐理由

  • 实际应用价值:研究探索了在实际电商环境中如何有效地使用 LLMs 进行产品属性值识别,这对于提升用户体验和平台效率具有重要意义。
  • 创新性方法:提出了一种新的两步方法和上下文学习策略,这些方法在零样本学习和任务特定指令下均显示出优异的性能。
  • 广泛的实验验证:在两个不同的产品数据集上进行了广泛的实验,验证了方法的有效性和泛化能力。
  • 开放性:研究使用了开源模型,这使得其他研究者可以复现和在此基础上进一步研究。


计算机前沿技术-人工智能算法-大语言模型-最新研究进展-2024-09-25(下)+https://developer.aliyun.com/article/1628888

目录
相关文章
|
24天前
|
机器学习/深度学习 人工智能 自然语言处理
深入理解人工智能中的深度学习技术及其最新进展
深入理解人工智能中的深度学习技术及其最新进展
|
24天前
|
机器学习/深度学习 人工智能 自然语言处理
深入理解人工智能中的深度学习技术及其最新进展
深入理解人工智能中的深度学习技术及其最新进展
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
人工智能与深度学习:探索未来技术的无限可能
在21世纪,人工智能(AI)和深度学习已经成为推动科技进步的重要力量。本文将深入探讨这两种技术的基本概念、发展历程以及它们如何共同塑造未来的科技景观。我们将分析人工智能的最新趋势,包括自然语言处理、计算机视觉和强化学习,并讨论这些技术在现实世界中的应用。此外,我们还将探讨深度学习的工作原理,包括神经网络、卷积神经网络(CNN)和循环神经网络(RNN),并分析这些模型如何帮助解决复杂的问题。通过本文,读者将对人工智能和深度学习有更深入的了解,并能够预见这些技术将如何继续影响我们的世界。
62 7
|
1月前
|
人工智能 自然语言处理 自动驾驶
技术与人性:探索人工智能伦理的边界####
本文深入探讨了人工智能技术飞速发展背景下,伴随而来的伦理挑战与社会责任。不同于传统摘要直接概述内容,本文摘要旨在引发读者对AI伦理问题的关注,通过提出而非解答的方式,激发对文章主题的兴趣。在智能机器逐渐融入人类生活的每一个角落时,我们如何确保技术的善意使用,保护个人隐私,避免偏见与歧视,成为亟待解决的关键议题。 ####
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
深度探索人工智能中的自然语言处理技术#### 一、
【10月更文挑战第28天】 本文旨在深入剖析人工智能领域中的自然语言处理(NLP)技术,探讨其发展历程、核心算法、应用现状及未来趋势。通过详尽的技术解读与实例分析,揭示NLP在智能交互、信息检索、内容理解等方面的变革性作用,为读者提供一幅NLP技术的全景图。 #### 二、
103 1
|
23天前
|
机器学习/深度学习 人工智能 自然语言处理
深入探讨人工智能中的深度学习技术##
在本文中,我们将深入探讨深度学习技术的原理、应用以及未来的发展趋势。通过分析神经网络的基本结构和工作原理,揭示深度学习如何在图像识别、自然语言处理等领域取得突破性进展。同时,我们还将讨论当前面临的挑战和未来的研究方向,为读者提供全面的技术洞察。 ##
|
23天前
|
机器学习/深度学习 人工智能 自然语言处理
人工智能与未来医疗:AI技术在疾病诊断中的应用前景####
本文探讨了人工智能(AI)在现代医疗领域,尤其是疾病诊断方面的应用潜力和前景。随着技术的不断进步,AI正逐渐改变传统医疗模式,提高诊断的准确性和效率。通过分析当前的技术趋势、具体案例以及面临的挑战,本文旨在为读者提供一个全面的视角,理解AI如何塑造未来医疗的面貌。 ####
|
16天前
|
机器学习/深度学习 人工智能 自然语言处理
人工智能在医疗诊断中的应用与前景####
本文深入探讨了人工智能(AI)技术在医疗诊断领域的应用现状、面临的挑战及未来发展趋势。通过分析AI如何辅助医生进行疾病诊断,提高诊断效率和准确性,以及其在个性化医疗中的潜力,文章揭示了AI技术对医疗行业变革的推动作用。同时,也指出了数据隐私、算法偏见等伦理问题,并展望了AI与人类医生协同工作的前景。 ####
34 0
|
20天前
|
机器学习/深度学习 人工智能 搜索推荐
探索人工智能在现代医疗中的革新应用
本文深入探讨了人工智能(AI)技术在医疗领域的最新进展,重点分析了AI如何通过提高诊断准确性、个性化治疗方案的制定以及优化患者管理流程来革新现代医疗。文章还讨论了AI技术面临的挑战和未来发展趋势,为读者提供了一个全面了解AI在医疗领域应用的视角。
27 0
|
12天前
|
人工智能 缓存 异构计算
云原生AI加速生成式人工智能应用的部署构建
本文探讨了云原生技术背景下,尤其是Kubernetes和容器技术的发展,对模型推理服务带来的挑战与优化策略。文中详细介绍了Knative的弹性扩展机制,包括HPA和CronHPA,以及针对传统弹性扩展“滞后”问题提出的AHPA(高级弹性预测)。此外,文章重点介绍了Fluid项目,它通过分布式缓存优化了模型加载的I/O操作,显著缩短了推理服务的冷启动时间,特别是在处理大规模并发请求时表现出色。通过实际案例,展示了Fluid在vLLM和Qwen模型推理中的应用效果,证明了其在提高模型推理效率和响应速度方面的优势。
云原生AI加速生成式人工智能应用的部署构建