创建Partition的3种方式

简介: 本文详细讲述创建Partition的3种方式。

向量检索服务 DashVector 免费试用进行中,玩转大模型搜索,快来试试吧~

了解更多信息,请点击:https://www.aliyun.com/product/ai/dashvector


本文介绍向量检索服务如何通过控制台、SDK、API三种不同的方式创建Partition。

向量检索服务中,同一个Collection下的向量可通过不同的Partition进行分区,实现向量数据的分区管理。在查询过程中通过指定Partition来缩小查询范围,提高查询效率。


控制台方式


前提条件


步骤

  1. 登录向量检索服务控制台
  2. 单击Cluster列表,选中Cluster下需要创建Partition的Collection单击详情
  3. 在左侧二级导航栏,单击Partition管理
  4. 单击新建Partition,然后在弹窗填写Partition名称,单击创建完成Partition创建。 说明
  • Partition名称不能超过32个字符。
  • Partition名称必须以大小写字母、数字和符号(_,-)组成,且必须以字母开头。
  • 同一个Collection中不能存在两个同名的Partition。
  • Collection会默认新建一个名称为default的Partition,且不能被删除。
  • Partition的相关说明即使用方法,请参见分区Partition


SDK方式

Python SDK

前提条件


接口定义

Collection.create_partition(name: str) -> DashVectorResponse


使用示例

说明

  1. 需要使用您的api-key替换示例中的YOUR_API_KEY、您的Cluster Endpoint替换示例中的YOUR_CLUSTER_ENDPOINT,代码才能正常运行。
  2. 本示例需要参考新建Collection-使用示例提前创建好名称为quickstart的Collection。
import dashvector
client = dashvector.Client(
    api_key='YOUR_API_KEY',
    endpoint='YOUR_CLUSTER_ENDPOINT'
)
collection = client.get(name='quickstart')
# 创建一个名称为shoes的Partition
ret = collection.create_partition('shoes')
# 判断create_partition接口是否成功
if ret:
    print('create_partition success')



Java SDK

前提条件


接口定义

// class DashVectorCollection
public Response<Void> createPartition(String name, Integer timeout);


使用示例

说明

  1. 需要使用您的api-key替换示例中的YOUR_API_KEY、您的Cluster Endpoint替换示例中的YOUR_CLUSTER_ENDPOINT,代码才能正常运行。
  2. 本示例需要参考新建Collection-使用示例提前创建好名称为quickstart的Collection。
import com.aliyun.dashvector.DashVectorClient;
import com.aliyun.dashvector.DashVectorCollection;
import com.aliyun.dashvector.common.DashVectorException;
import com.aliyun.dashvector.models.responses.Response;
public class Main {
    public static void main(String[] args) throws DashVectorException {
        DashVectorClient client = new DashVectorClient("YOUR_API_KEY", "YOUR_CLUSTER_ENDPOINT");
        DashVectorCollection collection = client.get("quickstart");
    
        // 创建一个名称为shoes的Partition
        Response<Void> response = collection.createPartition("shoes");
      
        // 判断createPartition方法是否成功
        if (response.isSuccess()) {
            System.out.println("createPartition success");
        }
    }
}



API方式

前提条件


Method与URL

POST https://{Endpoint}/v1/collections/{CollectionName}/partitions


使用示例

说明

  1. 需要使用您的api-key替换示例中的YOUR_API_KEY、您的Cluster Endpoint替换示例中的YOUR_CLUSTER_ENDPOINT,代码才能正常运行。
  2. 本示例需要参考新建Collection-使用示例提前创建好名称为quickstart的Collection。
curl -XPOST \
  -H 'dashvector-auth-token: YOUR_API_KEY' \
  -H 'Content-Type: application/json' \
  -d '{
    "name": "shoes"
  }' https://YOUR_CLUSTER_ENDPOINT/v1/collections/quickstart/partitions
# example output:
# {"request_id":"19215409-ea66-4db9-8764-26ce2eb5bb99","code":0,"message":""}



免费体验阿里云高性能向量检索服务https://www.aliyun.com/product/ai/dashvector

相关文章
|
6月前
Hologres的`dynamicPartition`参数是用来实现动态分区的
Hologres的`dynamicPartition`参数是用来实现动态分区的
47 0
|
分布式计算 Spark
Spark 中的 Rebalance 操作以及与Repartition操作的区别
Spark 中的 Rebalance 操作以及与Repartition操作的区别
703 0
|
SQL HIVE
hive插入分区报错SemanticException Partition spec contains non-partition columns
hive插入分区报错SemanticException Partition spec contains non-partition columns
|
存储 分布式计算 Hadoop
Hadoop中的MapReduce框架原理、Shuffle机制、Partition分区、自定义Partitioner步骤、在Job驱动中,设置自定义Partitioner、Partition 分区案例
Hadoop中的MapReduce框架原理、Shuffle机制、Partition分区、自定义Partitioner步骤、在Job驱动中,设置自定义Partitioner、Partition 分区案例
Hadoop中的MapReduce框架原理、Shuffle机制、Partition分区、自定义Partitioner步骤、在Job驱动中,设置自定义Partitioner、Partition 分区案例
|
存储 SQL JSON
Spark - Task 与 Partition 一一对应与参数详解
使用 spark 读取 parquet 文件,共有 M个 parquet 文件,于是启动了 PExecutor x QCores 进行如下 WordCount 代码测试,其中 P x Q = M 即 Core 数目与 parquet 文件数一一对应。
376 0
Spark - Task 与 Partition 一一对应与参数详解
|
SQL 分布式计算 调度
【Spark】(七)Spark partition 理解 / coalesce 与 repartition的区别
【Spark】(七)Spark partition 理解 / coalesce 与 repartition的区别
420 0
|
分布式计算 Spark
【spark系列9】spark 的动态分区裁剪上(Dynamic partition pruning)-逻辑计划
【spark系列9】spark 的动态分区裁剪上(Dynamic partition pruning)-逻辑计划
290 0
|
分布式计算 Spark
【spark系列11】spark 的动态分区裁剪下(Dynamic partition pruning)-物理计划
【spark系列11】spark 的动态分区裁剪下(Dynamic partition pruning)-物理计划
7655 0
|
编解码 分布式计算 Hadoop
Spark HadoopRdd partition的开始位置计算
- 源码分析Spark HadoopRDD是如何读取HDFS上的文件 - 分析HadoopRDD预分区的计算方式,非首个分区的开始位置计算
1113 0