高并发场景下,如何让你的向量语义检索快人一步?

本文涉及的产品
对象存储 OSS,OSS 加速器 50 GB 1个月
简介: 当需要同时检索多条查询(如批量问答、RAG 多路召回、多用户并发搜索),逐条串行执行会导致整体耗时随查询数线性增长。通过并发执行多条检索请求,可以将总耗时从 N × 单次延迟 降低到接近 1 × 单次延迟,显著提升吞吐量。本文介绍两种并发方式:CLI 并发和 SDK 并发,适用于批量语义搜索、 RAG 多路召回、多模态批量检索等场景。

当需要同时检索多条查询(如批量问答、RAG 多路召回、多用户并发搜索),逐条串行执行会导致整体耗时随查询数线性增长。通过并发执行多条检索请求,可以将总耗时从 N × 单次延迟 降低到接近 1 × 单次延迟,显著提升吞吐量。

本文介绍两种并发方式:CLI 并发SDK 并发,适用于以下场景:

  • 批量语义搜索:一次性提交多条查询文本,快速获取全部检索结果。
  • RAG 多路召回:为同一用户请求同时发起多条不同角度的检索,降低端到端延迟。
  • 多模态批量检索:同时检索文本、图片、视频等不同模态的向量数据。


选择并发方式

方式

适用场景

特点

CLI 并发

运维脚本、一次性批量检索、无需编写代码的快速验证

输入文本自动 Embedding;无需管理向量维度;Shell 脚本即可实现

SDK 并发

业务服务集成、需要精细控制(过滤条件、结果后处理)、高性能后端

直接调用 API,可设置过滤条件;复用客户端连接;支持 Python 和 Go

如何选择

  • 如果你有一批查询文本,希望快速拿到结果而不想写代码 → 使用 CLI 并发
  • 如果你在开发业务服务,需要将向量检索嵌入到应用逻辑中 → 使用 SDK 并发

说明:CLI 方式内置了 Embedding 模型调用,输入文本即可检索。SDK 方式需要传入已生成的向量,适合已有 Embedding 流程的场景。


通过 CLI 并发检索

CLI 并发通过启动多个 oss-vectors-embed query 进程实现并行检索。以下提供三种实现方式,按复杂度递增排列。

开始前,请确保满足以下条件:

  • 已安装 OSS Vectors Embed CLI。安装方式请参见使用OSS Vectors Embed CLI工具写入和检索向量数据
  • 已配置环境变量 OSS_ACCESS_KEY_IDOSS_ACCESS_KEY_SECRETDASHSCOPE_API_KEY
  • 已创建向量 Bucket 和向量索引,且索引维度与所用 Embedding 模型输出维度一致。

将以下示例中的占位符替换为实际值:

占位符

说明

<your-account-id>

阿里云账号 ID

<your-vector-bucket>

向量 Bucket 名称

<your-index>

向量索引名称

xargs 快速并发

如果不需要复杂的流程控制,xargs -P 是最简单的 CLI 并发方式,一行命令即可完成。

cat queries.txt | xargs -P 5 -I {} \
  oss-vectors-embed \
    --account-id "<your-account-id>" \
    --vectors-region cn-hangzhou \
    query \
    --vector-bucket-name "<your-vector-bucket>" \
    --index-name "<your-index>" \
    --model-id text-embedding-v4 \
    --text-value "{}" \
    --top-k 10

-P 5 表示最多 5 个进程并行执行。检索结果直接输出到终端,适合快速验证。如需保存结果,可将输出重定向到文件。

Shell 后台并发

通过 & 将多个查询命令放入后台并行执行,wait 等待全部完成。适合查询数量较少(10 条以内)的场景。

#!/bin/bash
ACCOUNT_ID="<your-account-id>"
REGION="cn-hangzhou"
BUCKET="<your-vector-bucket>"
INDEX="<your-index>"
MODEL="text-embedding-v4"
queries=(
  "如何配置生命周期规则"
  "对象存储有哪些存储类型"
  "如何设置跨区域复制"
)
mkdir -p ./query-results
# 并发启动所有查询,每条结果写入独立文件
for i in "${!queries[@]}"; do
  oss-vectors-embed \
    --account-id "$ACCOUNT_ID" \
    --vectors-region "$REGION" \
    query \
    --vector-bucket-name "$BUCKET" \
    --index-name "$INDEX" \
    --model-id "$MODEL" \
    --text-value "${queries[$i]}" \
    --top-k 10 \
    --return-metadata \
    > "./query-results/result_${i}.json" 2>&1 &
done
wait
echo "全部查询完成,结果保存在 ./query-results/"

运行后输出:

全部查询完成,结果保存在 ./query-results/

每个结果文件包含 JSON 格式的检索结果,可通过 cat ./query-results/result_0.json | python3 -m json.tool 查看。

控制并发数的 Shell 脚本

当查询数量较多时(数十条以上),需要限制同时运行的进程数,避免超出 API 配额。以下脚本从文件逐行读取查询文本,控制最多 5 个进程同时执行。

#!/bin/bash
ACCOUNT_ID="<your-account-id>"
REGION="cn-hangzhou"
BUCKET="<your-vector-bucket>"
INDEX="<your-index>"
MODEL="text-embedding-v4"
MAX_CONCURRENT=5
QUERY_FILE="./queries.txt"  # 每行一条查询文本
mkdir -p ./query-results
run_query() {
  local idx=$1
  local text=$2
  oss-vectors-embed \
    --account-id "$ACCOUNT_ID" \
    --vectors-region "$REGION" \
    query \
    --vector-bucket-name "$BUCKET" \
    --index-name "$INDEX" \
    --model-id "$MODEL" \
    --text-value "$text" \
    --top-k 10 \
    > "./query-results/result_${idx}.json" 2>&1
}
idx=0
while IFS= read -r query_text; do
  run_query "$idx" "$query_text" &
  idx=$((idx + 1))
  # 达到并发上限时等待一个任务完成再继续
  if (( $(jobs -rp | wc -l) >= MAX_CONCURRENT )); then
    wait -n
  fi
done < "$QUERY_FILE"
wait
echo "全部 $idx 条查询完成"

运行前准备 queries.txt 文件,每行一条查询文本:

如何配置生命周期规则
对象存储有哪些存储类型
如何设置跨区域复制
Bucket 标签的使用限制
如何启用版本控制

运行后输出:

全部 5 条查询完成

Python 封装 CLI 并发

如果需要对 CLI 返回的结果进行后处理(如解析 JSON、汇总统计),可以用 Python asyncio 封装 CLI 调用。

import asyncio
import json
from pathlib import Path
ACCOUNT_ID = "<your-account-id>"
REGION = "cn-hangzhou"
BUCKET = "<your-vector-bucket>"
INDEX = "<your-index>"
MODEL = "text-embedding-v4"
MAX_CONCURRENT = 5
async def run_query(semaphore: asyncio.Semaphore, query_text: str, query_id: int):
    """异步执行单条 CLI query 命令"""
    async with semaphore:
        cmd = [
            "oss-vectors-embed",
            "--account-id", ACCOUNT_ID,
            "--vectors-region", REGION,
            "query",
            "--vector-bucket-name", BUCKET,
            "--index-name", INDEX,
            "--model-id", MODEL,
            "--text-value", query_text,
            "--top-k", "10",
            "--return-metadata",
        ]
        proc = await asyncio.create_subprocess_exec(
            *cmd,
            stdout=asyncio.subprocess.PIPE,
            stderr=asyncio.subprocess.PIPE,
        )
        stdout, stderr = await proc.communicate()
        if proc.returncode == 0:
            result = json.loads(stdout.decode())
            print(f"查询 {query_id} 完成,返回 {len(result.get('results', [ ]))} 条结果")
            return {"query_id": query_id, "query_text": query_text, "result": result}
        else:
            print(f"查询 {query_id} 失败: {stderr.decode()}")
            return {"query_id": query_id, "query_text": query_text, "error": stderr.decode()}
async def batch_query(queries: list[str]):
    """批量并发执行多条查询"""
    semaphore = asyncio.Semaphore(MAX_CONCURRENT)
    tasks = [
        run_query(semaphore, text, idx)
        for idx, text in enumerate(queries)
    ]
    results = await asyncio.gather(*tasks)
    output_path = Path("./query-results/batch_results.json")
    output_path.parent.mkdir(parents=True, exist_ok=True)
    output_path.write_text(json.dumps(results, ensure_ascii=False, indent=2))
    print(f"汇总结果已保存到 {output_path}")
    return results
if __name__ == "__main__":
    queries = [
        "如何配置生命周期规则",
        "对象存储有哪些存储类型",
        "如何设置跨区域复制",
        "Bucket 标签的使用限制",
        "如何启用版本控制",
    ]
    asyncio.run(batch_query(queries))

运行后输出:

查询 0 完成,返回 10 条结果
查询 1 完成,返回 10 条结果
查询 2 完成,返回 10 条结果
查询 3 完成,返回 10 条结果
查询 4 完成,返回 10 条结果
汇总结果已保存到 query-results/batch_results.json


通过 SDK 并发检索

SDK 并发直接调用 query_vectors API,无需启动外部进程。适合需要精细控制检索参数(如设置过滤条件)或将检索集成到业务服务中的场景。

说明:SDK 方式需要传入已生成的查询向量(如 float32 数组),而非原始文本。如果你的场景是从文本出发检索,建议先通过 Embedding 模型生成向量,或直接使用上文的 CLI 并发方式。

Python SDK 并发检索

使用 alibabacloud-oss-v2 Python SDK 通过线程池并发调用 query_vectors 接口。开始前请安装 SDK:

pip install alibabacloud-oss-v2

确保已配置环境变量 OSS_ACCESS_KEY_IDOSS_ACCESS_KEY_SECRET,并已创建向量 Bucket 和索引。

基本示例

以下示例并发检索 5 组向量,使用 ThreadPoolExecutor 控制最多 5 个线程同时执行:

import json
from concurrent.futures import ThreadPoolExecutor, as_completed
from pathlib import Path
import alibabacloud_oss_v2 as oss
import alibabacloud_oss_v2.vectors as oss_vectors
ACCOUNT_ID = "<your-account-id>"
REGION = "cn-hangzhou"
BUCKET = "<your-vector-bucket>"
INDEX = "<your-index>"
MAX_CONCURRENT = 5
def create_vector_client():
    """创建向量检索客户端(全局复用,避免重复创建连接)"""
    credentials_provider = oss.credentials.EnvironmentVariableCredentialsProvider()
    cfg = oss.config.load_default()
    cfg.credentials_provider = credentials_provider
    cfg.region = REGION
    cfg.account_id = ACCOUNT_ID
    return oss_vectors.Client(cfg)
def run_query(client, query_vector, query_id, query_filter=None):
    """执行单条向量检索"""
    request = oss_vectors.models.QueryVectorsRequest(
        bucket=BUCKET,
        index_name=INDEX,
        query_vector=query_vector,
        filter=query_filter,
        return_distance=True,
        return_metadata=True,
        top_k=10,
    )
    result = client.query_vectors(request)
    print(f"查询 {query_id} 完成,status code: {result.status_code}")
    return {
        "query_id": query_id,
        "status_code": result.status_code,
        "vectors": [str(v) for v in result.vectors] if result.vectors else [ ],
    }
def batch_query(query_vectors):
    """批量并发执行多条向量检索"""
    client = create_vector_client()
    results = [ ]
    with ThreadPoolExecutor(max_workers=MAX_CONCURRENT) as executor:
        futures = {
            executor.submit(run_query, client, qv, idx): idx
            for idx, qv in enumerate(query_vectors)
        }
        for future in as_completed(futures):
            idx = futures[future]
            try:
                results.append(future.result())
            except Exception as e:
                print(f"查询 {idx} 失败: {e}")
                results.append({"query_id": idx, "error": str(e)})
    results.sort(key=lambda x: x["query_id"])
    output_path = Path("./query-results/sdk_batch_results.json")
    output_path.parent.mkdir(parents=True, exist_ok=True)
    output_path.write_text(json.dumps(results, ensure_ascii=False, indent=2))
    print(f"汇总结果已保存到 {output_path}")
    return results
if __name__ == "__main__":
    # 示例:5 组查询向量(维度需与索引一致,此处以 128 维为例)
    query_vectors = [
        {"float32": [0.1] * 128},
        {"float32": [0.2] * 128},
        {"float32": [0.3] * 128},
        {"float32": [0.4] * 128},
        {"float32": [0.5] * 128},
    ]
    batch_query(query_vectors)

运行后输出:

查询 0 完成,status code: 200
查询 2 完成,status code: 200
查询 1 完成,status code: 200
查询 4 完成,status code: 200
查询 3 完成,status code: 200
汇总结果已保存到 query-results/sdk_batch_results.json

说明:由于线程池并发执行,输出顺序可能与提交顺序不同,但最终结果按 query_id 排序保存。

带过滤条件的并发检索

实际业务中,不同查询可能需要搭配不同的过滤条件。以下示例为每条查询指定独立的 filter

import json
from concurrent.futures import ThreadPoolExecutor, as_completed
from pathlib import Path
import alibabacloud_oss_v2 as oss
import alibabacloud_oss_v2.vectors as oss_vectors
ACCOUNT_ID = "<your-account-id>"
REGION = "cn-hangzhou"
BUCKET = "<your-vector-bucket>"
INDEX = "<your-index>"
MAX_CONCURRENT = 5
def create_vector_client():
    """创建向量检索客户端(全局复用,避免重复创建连接)"""
    credentials_provider = oss.credentials.EnvironmentVariableCredentialsProvider()
    cfg = oss.config.load_default()
    cfg.credentials_provider = credentials_provider
    cfg.region = REGION
    cfg.account_id = ACCOUNT_ID
    return oss_vectors.Client(cfg)
def run_query(client, query_vector, query_id, query_filter=None):
    """执行单条向量检索"""
    request = oss_vectors.models.QueryVectorsRequest(
        bucket=BUCKET,
        index_name=INDEX,
        query_vector=query_vector,
        filter=query_filter,
        return_distance=True,
        return_metadata=True,
        top_k=10,
    )
    result = client.query_vectors(request)
    print(f"查询 {query_id} 完成,status code: {result.status_code}")
    return {
        "query_id": query_id,
        "status_code": result.status_code,
        "vectors": [str(v) for v in result.vectors] if result.vectors else [ ],
    }
def batch_query(query_vectors):
    """批量并发执行多条向量检索"""
    client = create_vector_client()
    results = [ ]
    with ThreadPoolExecutor(max_workers=MAX_CONCURRENT) as executor:
        futures = {
            executor.submit(run_query, client, qv, idx): idx
            for idx, qv in enumerate(query_vectors)
        }
        for future in as_completed(futures):
            idx = futures[future]
            try:
                results.append(future.result())
            except Exception as e:
                print(f"查询 {idx} 失败: {e}")
                results.append({"query_id": idx, "error": str(e)})
    results.sort(key=lambda x: x["query_id"])
    output_path = Path("./query-results/sdk_batch_results.json")
    output_path.parent.mkdir(parents=True, exist_ok=True)
    output_path.write_text(json.dumps(results, ensure_ascii=False, indent=2))
    print(f"汇总结果已保存到 {output_path}")
    return results
if __name__ == "__main__":
    tasks = [
        {
            "vector": {"float32": [0.1] * 128},
            "filter": {"$and": [{"type": {"$in": ["tutorial"]}}]},
        },
        {
            "vector": {"float32": [0.2] * 128},
            "filter": {"$and": [{"type": {"$nin": ["comedy", "documentary"]}}]},
        },
        {
            "vector": {"float32": [0.3] * 128},
            "filter": None,  # 不设过滤条件
        },
    ]
    client = create_vector_client()
    results = [ ]
    with ThreadPoolExecutor(max_workers=MAX_CONCURRENT) as executor:
        futures = {
            executor.submit(
                run_query, client, t["vector"], idx, t["filter"]
            ): idx
            for idx, t in enumerate(tasks)
        }
        for future in as_completed(futures):
            try:
                results.append(future.result())
            except Exception as e:
                print(f"查询失败: {e}")
    for r in sorted(results, key=lambda x: x["query_id"]):
        print(f"查询 {r['query_id']}: 返回 {len(r.get('vectors', [ ]))} 条结果")

运行后输出:

查询 0 完成,status code: 200
查询 1 完成,status code: 200
查询 2 完成,status code: 200
查询 0: 返回 10 条结果
查询 1: 返回 10 条结果
查询 2: 返回 10 条结果

Go SDK 并发检索

使用 alibabacloud-oss-go-sdk-v2 Go SDK 通过 goroutine 并发调用 QueryVectors 接口。开始前请安装 SDK:

go get github.com/aliyun/alibabacloud-oss-go-sdk-v2

确保已配置环境变量 OSS_ACCESS_KEY_IDOSS_ACCESS_KEY_SECRET,并已创建向量 Bucket 和索引。

基本示例

以下示例使用 sync.WaitGroup 和 channel 信号量并发检索 5 组向量:

package main
import (
  "context"
  "fmt"
  "log"
  "sync"
  "github.com/aliyun/alibabacloud-oss-go-sdk-v2/oss"
  "github.com/aliyun/alibabacloud-oss-go-sdk-v2/oss/credentials"
  "github.com/aliyun/alibabacloud-oss-go-sdk-v2/oss/vectors"
)
const (
  region        = "cn-hangzhou"
  bucketName    = "<your-vector-bucket>"
  accountId     = "<your-account-id>"
  indexName     = "<your-index>"
  maxConcurrent = 5
)
func main() {
  cfg := oss.LoadDefaultConfig().
    WithCredentialsProvider(credentials.NewEnvironmentVariableCredentialsProvider()).
    WithRegion(region).
    WithAccountId(accountId)
  client := vectors.NewVectorsClient(cfg)
  // 5 组查询向量(维度需与索引一致)
  queryVectors := [ ]map[string]any{
    {"float32": [ ]float32{0.1}},
    {"float32": [ ]float32{0.2}},
    {"float32": [ ]float32{0.3}},
    {"float32": [ ]float32{0.4}},
    {"float32": [ ]float32{0.5}},
  }
  var wg sync.WaitGroup
  sem := make(chan struct{}, maxConcurrent) // channel 信号量控制并发数
  for i, qv := range queryVectors {
    wg.Add(1)
    sem <- struct{}{} // 获取信号量,达到上限时阻塞
    go func(idx int, queryVector map[string]any) {
      defer wg.Done()
      defer func() { <-sem }() // 释放信号量
      request := &vectors.QueryVectorsRequest{
        Bucket:         oss.Ptr(bucketName),
        IndexName:      oss.Ptr(indexName),
        QueryVector:    queryVector,
        ReturnMetadata: oss.Ptr(true),
        ReturnDistance:  oss.Ptr(true),
        TopK:           oss.Ptr(10),
      }
      result, err := client.QueryVectors(context.TODO(), request)
      if err != nil {
        log.Printf("查询 %d 失败: %v", idx, err)
        return
      }
      fmt.Printf("查询 %d 完成,status code: %d\n",
        idx, result.StatusCode)
    }(i, qv)
  }
  wg.Wait()
  fmt.Println("全部查询完成")
}

运行后输出:

查询 0 完成,status code: 200
查询 2 完成,status code: 200
查询 1 完成,status code: 200
查询 3 完成,status code: 200
查询 4 完成,status code: 200
全部查询完成

带过滤条件的并发检索

package main
import (
  "context"
  "fmt"
  "log"
  "sync"
  "github.com/aliyun/alibabacloud-oss-go-sdk-v2/oss"
  "github.com/aliyun/alibabacloud-oss-go-sdk-v2/oss/credentials"
  "github.com/aliyun/alibabacloud-oss-go-sdk-v2/oss/vectors"
)
type queryTask struct {
  vector map[string]any
  filter map[string]any
}
const (
  region        = "cn-hangzhou"
  bucketName    = "<your-vector-bucket>"
  accountId     = "<your-account-id>"
  indexName     = "<your-index>"
  maxConcurrent = 5
)
func main() {
  cfg := oss.LoadDefaultConfig().
    WithCredentialsProvider(credentials.NewEnvironmentVariableCredentialsProvider()).
    WithRegion(region).
    WithAccountId(accountId)
  client := vectors.NewVectorsClient(cfg)
  tasks := [ ]queryTask{
    {
      vector: map[string]any{"float32": [ ]float32{0.1}},
      filter: map[string]any{
        "$and": [ ]map[string]any{
          {"type": map[string]any{"$in": [ ]string{"tutorial"}}},
        },
      },
    },
    {
      vector: map[string]any{"float32": [ ]float32{0.2}},
      filter: map[string]any{
        "$and": [ ]map[string]any{
          {"type": map[string]any{"$nin": [ ]string{"comedy", "documentary"}}},
        },
      },
    },
    {
      vector: map[string]any{"float32": [ ]float32{0.3}},
      filter: nil, // 不设过滤条件
    },
  }
  var wg sync.WaitGroup
  sem := make(chan struct{}, maxConcurrent)
  for i, task := range tasks {
    wg.Add(1)
    sem <- struct{}{}
    go func(idx int, t queryTask) {
      defer wg.Done()
      defer func() { <-sem }()
      request := &vectors.QueryVectorsRequest{
        Bucket:         oss.Ptr(bucketName),
        IndexName:      oss.Ptr(indexName),
        QueryVector:    t.vector,
        ReturnMetadata: oss.Ptr(true),
        ReturnDistance:  oss.Ptr(true),
        TopK:           oss.Ptr(10),
      }
      if t.filter != nil {
        request.Filter = t.filter
      }
      result, err := client.QueryVectors(context.TODO(), request)
      if err != nil {
        log.Printf("查询 %d 失败: %v", idx, err)
        return
      }
      fmt.Printf("查询 %d 完成,status code: %d\n", idx, result.StatusCode)
    }(i, task)
  }
  wg.Wait()
  fmt.Println("全部查询完成")
}

运行后输出:

查询 0 完成,status code: 200
查询 1 完成,status code: 200
查询 2 完成,status code: 200
全部查询完成


并发性能调优

调优项

建议

说明

并发数

3~5

query 并发建议不超过 5,与 put 命令的最大并发一致,避免触发限流

top_k

按需设置

返回结果越多,单次请求延迟越高。仅返回业务所需的数量

错误重试

间隔 1~2 秒

并发请求可能触发限流(HTTP 429),建议捕获错误后等待重试

CLI 结果输出

重定向到文件

多个进程同时输出到终端会导致内容交错,建议将每条结果写入独立文件

SDK 客户端复用

复用同一实例

避免为每条查询创建新的 Client,重复创建会增加连接建立和认证开销


相关文档

相关实践学习
对象存储OSS快速上手——如何使用ossbrowser
本实验是对象存储OSS入门级实验。通过本实验,用户可学会如何用对象OSS的插件,进行简单的数据存、查、删等操作。
相关文章
|
8天前
|
人工智能 数据可视化 安全
王炸组合!阿里云 OpenClaw X 飞书 CLI,开启 Agent 基建狂潮!(附带免费使用6个月服务器)
本文详解如何用阿里云Lighthouse一键部署OpenClaw,结合飞书CLI等工具,让AI真正“动手”——自动群发、生成科研日报、整理知识库。核心理念:未来软件应为AI而生,CLI即AI的“手脚”,实现高效、安全、可控的智能自动化。
34507 22
王炸组合!阿里云 OpenClaw X 飞书 CLI,开启 Agent 基建狂潮!(附带免费使用6个月服务器)
|
20天前
|
人工智能 JSON 机器人
让龙虾成为你的“公众号分身” | 阿里云服务器玩Openclaw
本文带你零成本玩转OpenClaw:学生认证白嫖6个月阿里云服务器,手把手配置飞书机器人、接入免费/高性价比AI模型(NVIDIA/通义),并打造微信公众号“全自动分身”——实时抓热榜、AI选题拆解、一键发布草稿,5分钟完成热点→文章全流程!
45371 143
让龙虾成为你的“公众号分身” | 阿里云服务器玩Openclaw
|
2天前
|
人工智能 自然语言处理 安全
Claude Code 全攻略:命令大全 + 实战工作流(建议收藏)
本文介绍了Claude Code终端AI助手的使用指南,主要内容包括:1)常用命令如版本查看、项目启动和更新;2)三种工作模式切换及界面说明;3)核心功能指令速查表,包含初始化、压缩对话、清除历史等操作;4)详细解析了/init、/help、/clear、/compact、/memory等关键命令的使用场景和语法。文章通过丰富的界面截图和场景示例,帮助开发者快速掌握如何通过命令行和交互界面高效使用Claude Code进行项目开发,特别强调了CLAUDE.md文件作为项目知识库的核心作用。
3119 11
Claude Code 全攻略:命令大全 + 实战工作流(建议收藏)
|
9天前
|
人工智能 JSON 监控
Claude Code 源码泄露:一份价值亿元的 AI 工程公开课
我以为顶级 AI 产品的护城河是模型。读完这 51.2 万行泄露的源码,我发现自己错了。
5017 21
|
2天前
|
人工智能 监控 安全
阿里云SASE 2.0升级,全方位监控Agent办公安全
AI Agent办公场景的“安全底座”
1136 1
|
8天前
|
人工智能 API 开发者
阿里云百炼 Coding Plan 售罄、Lite 停售、Pro 抢不到?最新解决方案
阿里云百炼Coding Plan Lite已停售,Pro版每日9:30限量抢购难度大。本文解析原因,并提供两大方案:①掌握技巧抢购Pro版;②直接使用百炼平台按量付费——新用户赠100万Tokens,支持Qwen3.5-Max等满血模型,灵活低成本。
1995 6
阿里云百炼 Coding Plan 售罄、Lite 停售、Pro 抢不到?最新解决方案