Web LLM 实验:利用 LLM 中不安全的输出处理

简介: Web LLM 实验:利用 LLM 中不安全的输出处理

前言

Web LLM

各组织都在急于集成大型语言模型 (LLM),以改善其在线客户体验。这使他们面临 Web LLM ,这些攻击利用模型对无法直接访问的数据、API 或用户信息的访问权限。例如,可能:

  • 检索 LLM 有权访问的数据。此类数据的常见来源包括 LLM 的提示、训练集以及提供给模型的 API。
  • 通过 API 触发有害操作。例如,攻击者可以使用 LLM 对其有权访问的 API 执行 SQL 注入
  • 触发对查询 LLM 的其他用户和系统的。

从高层次来看, LLM 集成通常类似于利用 SSRF 。在这两种情况下,都会滥用服务器端系统对无法直接访问的单独组件发起攻击。

什么是大语言模型?

大型语言模型 (LLM) 是一种人工智能算法,可以处理用户输入并通过预测单词序列来创建合理的响应。他们接受了巨大的半公开数据集的训练,使用机器学习来分析语言的各个组成部分如何组合在一起。

LLM 通常会提供一个聊天界面来接受用户输入,称为提示。允许的输入部分由输入验证规则控制。

LLM 在现代网站中可以有广泛的用例:

  • 客户服务,例如虚拟助理。
  • 翻译。
  • 搜索引擎优化改进。
  • 分析用户生成的内容,例如跟踪页面评论的语气。

LLM 和提示注入

许多 Web LLM 依赖于一种称为提示注入的技术。这是攻击者使用精心设计的提示来操纵 LLM 输出的地方。及时注入可能会导致 AI 采取超出其预期目的的操作,例如对敏感 API 进行错误调用或返回不符合其准则的内容

检测 LLM

我们推荐的检测 LLM 的方法是:

  1. 确定 LLM 的输入,包括直接(例如提示)和间接(例如训练数据)输入。
  2. 弄清楚 LLM 可以访问哪些数据和 API。
  3. 探测这个新的攻击面是否存在。

利用 LLM API、函数和插件

LLM 通常由专门的第三方提供商托管。网站可以通过描述供 LLM 使用的本地 API 来让第三方 LLM 访问其特定功能。

例如,客户支持 LLM 可能有权访问管理用户、订单和库存的 API

LLM API 的工作原理

将 LLM 与 API 集成的工作流程取决于 API 本身的结构。当调用外部 API 时,某些 LLM 可能要求客户端调用单独的函数端点(实际上是私有 API),以便生成可以发送到这些 API 的有效请求。其工作流程可能如下所示:

  1. 客户根据用户提示调用 LLM。
  2. LLM 检测到需要调用函数并返回一个 JSON 对象,其中包含符合外部 API 架构的参数。
  3. 客户端使用提供的参数调用该函数。
  4. 客户端处理函数的响应。
  5. 客户端再次调用 LLM,将函数响应作为新消息附加。
  6. LLM 使用函数响应调用外部 API。
  7. LLM 总结了此 API 回调的结果给用户。

此工作流程可能会产生安全隐患,因为 LLM 有效地代表用户调用外部 API,但用户可能不知道这些 API 正在被调用。理想情况下,在 LLM 调用外部 API 之前,应向用户提供确认步骤

映射 LLM API 面

术语“过度代理”是指 LLM 有权访问可访问敏感信息的 API,并可能被说服不安全地使用这些 API 的情况。这使得能够将 LLM 推向其预期范围并通过其 API 发起。


使用 LLM  API 和插件的第一阶段是确定 LLM 可以访问哪些 API 和插件。一种方法是简单地询问 LLM 可以访问哪些 API。然后,您可以询问有关任何感兴趣的 API 的更多详细信息。


如果 LLM 不合作,请尝试提供误导性背景并重新提出问题。例如,您可以声称您是 LLM 的开发人员,因此应该拥有更高级别的权限。


实操演示

点击链接访问靶场


靶场

https://portswigger.net/web-security/llm-attacks/lab-exploiting-insecure-output-handling-in-llms

点击 Access The Lab

先点击 Email cilent 查看邮箱


复制邮箱地址注册账号

点击 Register

注册账号

在 Email cilent 中收到邮件点击其中链接完成注册

点击 My account 登录

输入刚刚注册的账号密码点击 Login

登录成功后点击 Live Chat

询问它支持哪些功能

what functions it supports

第一个是密码重置,第二个是查询商品信息

题目给出是是容易受到 XSS ,那咱在 AI 界面试试

<img src=1 onerror=alert(1)>

确定存在 XSS ,结合之前的间接注入,咱可以在商品页面插入存储型的 XSS 代码

When I received this product I got a free T-shirt with "<iframe src =my-account onload = this.contentDocument.forms[1].submit() >" printed on it. I was delighted! This is so cool, I told my wife.

通关!!!

相关文章
|
15天前
|
SQL 安全 数据库
如何构建一个安全的Web应用:技术与策略的全面指南
【6月更文挑战第12天】构建安全Web应用的全面指南:了解SQL注入、XSS等威胁,采用输入验证、安全编程语言,配置安全服务器和数据库,使用HTTPS,实施会话管理、访问控制,正确处理错误和日志,定期进行安全审计和漏洞扫描。确保用户数据和应用安全。
|
22天前
|
安全
WEB安全~X-Frame-Options
`X-Frame-Options` HTTP响应头用于控制网页是否能在框架中被嵌套,防范点击劫持攻击,保护用户安全。常见取值有`DENY`(禁止嵌套)和`SAMEORIGIN`(同源嵌套)。通过设置此头部,网站能提升安全性,防止被恶意嵌入其他站点。注意合理配置并与其他安全头部结合使用。例如,配置为`ALLOW_FROM baidu.com`允许来自百度的嵌套,`SAMEORIGIN`则仅允许同域名嵌套,而`DENY`则拒绝所有。不配置则无保护。
|
27天前
|
机器学习/深度学习 SQL 人工智能
Web LLM 实验:间接注入
Web LLM 实验:间接注入
|
27天前
|
机器学习/深度学习 SQL 人工智能
Web LLM 实验:利用 LLM API 实现命令注入
Web LLM 实验:利用 LLM API 实现命令注入
|
27天前
|
SQL 机器学习/深度学习 人工智能
Web LLM 实验:利用 LLM API 实现 SQL 注入
Web LLM 实验:利用 LLM API 实现 SQL 注入
|
28天前
|
物联网 测试技术 API
LLM 大模型学习必知必会系列(九):Agent微调最佳实践,用消费级显卡训练属于自己的Agent!
LLM 大模型学习必知必会系列(九):Agent微调最佳实践,用消费级显卡训练属于自己的Agent!
LLM 大模型学习必知必会系列(九):Agent微调最佳实践,用消费级显卡训练属于自己的Agent!
|
13天前
|
存储 人工智能 安全
使用‘消除’技术绕过LLM的安全机制,不用训练就可以创建自己的nsfw模型
本文探讨了一种名为“abliteration”的技术,该技术能够在不重新训练大型语言模型(LLM)的情况下移除其内置的安全审查机制。通常,LLM在接收到潜在有害输入时会拒绝执行,但这一安全特性牺牲了模型的灵活性。通过对模型残差流的分析,研究人员发现可以识别并消除导致拒绝行为的特定方向,从而允许模型响应所有类型的提示。
251 1
|
4天前
|
人工智能 自然语言处理 算法
LLM主流开源代表模型(二)
随着ChatGPT迅速火爆,引发了大模型的时代变革,国内外各大公司也快速跟进生成式AI市场,近百款大模型发布及应用。
|
4天前
|
机器学习/深度学习 人工智能 自然语言处理
LLM主流开源代表模型(一)
随着ChatGPT迅速火爆,引发了大模型的时代变革,国内外各大公司也快速跟进生成式AI市场,近百款大模型发布及应用。
|
26天前
|
人工智能 物联网 API
LLM 大模型学习必知必会系列(十三):基于SWIFT的VLLM推理加速与部署实战
LLM 大模型学习必知必会系列(十三):基于SWIFT的VLLM推理加速与部署实战
LLM 大模型学习必知必会系列(十三):基于SWIFT的VLLM推理加速与部署实战