使用Gateway with Inference Extension对接内容安全实现生成式AI内容审查

简介: 通过插入External Processing插件,Gateway with Inference Extension可对接阿里云内容安全,实现生成式AI输出的内容审查,确保AI应用合法合规。需先搭建环境并开通文本审核服务,再部署插件及配置策略,最后验证审查效果。

通过在请求处理过程中插入额外的External Processing插件,Gateway with Inference Extension可以对接阿里云内容安全来检测生成式AI输出输出内容审查,保证AI应用的内容合法合规。

前提条件

  1. 已经参考快速体验Gateway with Inference Extension智能推理路由,搭建Gateway with Inference Extension快速体验环境。
  2. 已经开通阿里云内容安全文本审核增强版服务,并为RAM子账号授权,具体操作,参考面向大语言模型的文本审核PLUS服务

操作步骤

步骤一:部署ACKTrafficFilter 声明插件服务

  1. 使用以下yaml,创建acktrafficfilter.yaml文件。
apiVersion: inferenceextension.alibabacloud.com/v1alpha1
kind: ACKTrafficFilter
metadata:
  name: aisg
spec:
  aiContentSecurity:
    accessKey: XXXXXX
    secretKey: XXXXXX
    aliyunEndpoint: green-cip-vpc.cn-hangzhou.aliyuncs.com

其中插件服务的关键启动参数需要根据实际环境修改,参数说明如下:

参数

描述

accessKey

具有AliyunYundunGreenWebFullAccess权限的子账号AK

secretKey

具有AliyunYundunGreenWebFullAccess权限的子账号SK

aliyunEndpoint

阿里云内容安全endpoint的域名,可参考面向大语言模型的文本审核PLUS服务获取接入域名。

  1. 执行以下指令,在集群中部署插件服务。
kubectl apply -f acktrafficfilter.yaml

步骤二:在httproute中接入ACKTrafficFilter插件对接内容安全审查

  1. 使用以下yaml,创建 httproute.yaml文件。
apiVersion: gateway.networking.k8s.io/v1
kind: HTTPRoute
metadata:
  name: mock-route
spec:
  parentRefs:
  - group: gateway.networking.k8s.io
    kind: Gateway
    name: mock-gateway
    sectionName: llm-gw
  rules:
  - backendRefs:
    - group: inference.networking.x-k8s.io
      kind: InferencePool
      name: mock-pool
    filters:
    - type: ExtensionRef
      extensionRef:
        group: inferenceextension.alibabacloud.com
        kind: ACKTrafficFilter
        name: aisg
    matches:
    - path:
        type: PathPrefix
        value: /
  1. 执行以下命令,更新集群中的HTTPRoute资源,在路由中通过filters引用ACKTrafficFilter资源对接内容审查服务。
kubectl apply -f httproute.yaml

步骤三:验证内容审查效果

  1. 获取网关IP
export GATEWAY_ADDRESS=$(kubectl get gateway/mock-gateway -o jsonpath='{.status.addresses[0].value}')
echo ${GATEWAY_ADDRESS}
  1. 从sleep应用中发起访问
kubectl exec deployment/sleep -it -- curl -X POST ${GATEWAY_ADDRESS}/v1/chat/completions \
  -H 'Content-Type: application/json' -H "host: example.com" -v -d '{
    "model": "mock",
    "max_completion_tokens": 100,
    "temperature": 0,
    "messages": [
      {
        "role": "user",
        "content": "<替换为任意违规内容>"
      }
    ]
}'

预期输出:

*   Trying 192.168.12.230:80...
* Connected to 192.168.12.230 (192.168.12.230) port 80
> POST /v1/chat/completions HTTP/1.1
> Host: example.com
> User-Agent: curl/8.8.0
> Accept: */*
> Content-Type: application/json
> Content-Length: 184
> 
* upload completely sent off: 184 bytes
< HTTP/1.1 200 OK
< date: Tue, 27 May 2025 08:21:37 GMT
< server: uvicorn
< content-length: 354
< content-type: application/json
< 
* Connection #0 to host 192.168.12.230 left intact
{"id": "chatcmpl-EhVEIn8VZAMbAUGyoXHZNltTFH417","object":"chat.completion","model":"from-security-guard","choices":[{"index":0,"message":{"role":"assistant","content":"作为人工智能,我不会对涉及色情、暴力、政治等敏感话题进行回答。如果您有其他问题需要帮助,可以继续提问。"},"logprobs":null,"finish_reason":"stop"}],"usage":{"prompt_tokens":0,"completion_tokens":0,"total_tokens":0}}
相关文章
|
7月前
|
人工智能 安全 程序员
AI Gateway 分析:OpenRouter vs Higress
本文对比了两种AI网关——OpenRouter与Higress的定位、功能及演进历程。OpenRouter以简化AI模型调用体验为核心,服务于开发者群体;Higress则基于云原生架构,为企业级AI应用提供全面的流量治理与安全管控能力。两者分别代表了AI网关在不同场景下的发展方向。
|
5月前
|
人工智能 负载均衡 API
Vercel 发布 AI Gateway 神器!可一键访问数百个模型,助力零门槛开发 AI 应用
大家好,我是Immerse,独立开发者、AGI实践者。分享编程、AI干货、开源项目与个人思考。关注公众号“沉浸式趣谈”,获取独家内容。Vercel新推出的AI Gateway,统一多模型API,支持自动切换、负载均衡与零加价调用,让AI开发更高效稳定。一行代码切换模型,告别接口烦恼!
619 1
Vercel 发布 AI Gateway 神器!可一键访问数百个模型,助力零门槛开发 AI 应用
|
6月前
|
API
使用Gateway with Inference Extension路由外部MaaS服务
本文介绍如何通过Gateway with Inference Extension对接百炼服务,实现请求路由时自动添加API Key并重写路径,包含操作步骤及验证方法。
|
7月前
|
人工智能 缓存 监控
GitHub 8k star!Portkey AI Gateway 如何帮你3行代码接入1600+ LLM,实现成本、可靠性与安全三赢?
Portkey AI Gateway 是一个轻量级、高速、安全的中间层,帮助应用对接多模态 AI 模型,统一管理,快速落地。支持超1600款语言、视觉、音频、图像模型,通过 1 个 API 接口实现快速、可靠、安全的模型路由。具备智能路由、自动重试、缓存机制、合规控制等功能,助力企业高效构建 AI 应用。
494 0
|
10月前
|
存储 负载均衡 测试技术
ACK Gateway with Inference Extension:优化多机分布式大模型推理服务实践
本文介绍了如何利用阿里云容器服务ACK推出的ACK Gateway with Inference Extension组件,在Kubernetes环境中为多机分布式部署的LLM推理服务提供智能路由和负载均衡能力。文章以部署和优化QwQ-32B模型为例,详细展示了从环境准备到性能测试的完整实践过程。
|
8月前
|
人工智能 安全 网络安全
网络安全厂商F5推出AI Gateway,化解大模型应用风险
网络安全厂商F5推出AI Gateway,化解大模型应用风险
267 0
|
11月前
|
存储 人工智能 Kubernetes
ACK Gateway with AI Extension:面向Kubernetes大模型推理的智能路由实践
本文介绍了如何利用阿里云容器服务ACK推出的ACK Gateway with AI Extension组件,在Kubernetes环境中为大语言模型(LLM)推理服务提供智能路由和负载均衡能力。文章以部署和优化QwQ-32B模型为例,详细展示了从环境准备到性能测试的完整实践过程。
|
11月前
|
存储 人工智能 物联网
ACK Gateway with AI Extension:大模型推理的模型灰度实践
本文介绍了如何使用 ACK Gateway with AI Extension 组件在云原生环境中实现大语言模型(LLM)推理服务的灰度发布和流量分发。该组件专为 LLM 推理场景设计,支持四层/七层流量路由,并提供基于模型服务器负载感知的智能负载均衡能力。通过自定义资源(CRD),如 InferencePool 和 InferenceModel,可以灵活配置推理服务的流量策略,包括模型灰度发布和流量镜像。
|
存储 人工智能 自然语言处理
Elasticsearch Inference API增加对阿里云AI的支持
本文将介绍如何在 Elasticsearch 中设置和使用阿里云的文本生成、重排序、稀疏向量和稠密向量服务,提升搜索相关性。
556 14
Elasticsearch Inference API增加对阿里云AI的支持
|
人工智能 负载均衡 Java
【Spring实战】动手拥有自己的ai小站!使用Springboot整合Spring Cloud Gateway实现对接open ai并实现令牌记量和限制对话次数
【Spring实战】动手拥有自己的ai小站!使用Springboot整合Spring Cloud Gateway实现对接open ai并实现令牌记量和限制对话次数