CreateIndex API执行流程_milvus源码解析2

本文涉及的产品
全局流量管理 GTM,标准版 1个月
云解析 DNS,旗舰版 1个月
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
简介: CreateIndex API执行流程_milvus源码解析2

CreateIndex API执行流程源码解析2

milvus版本:v2.3.2

上一篇介绍了CreateIndex对etcd元数据的操作,这里介绍另一个操作。

整体架构:

architecture.png

CreateIndex 的数据流向:

create_index数据流向3.jpg

1.dataCoord执行CreateIndex。

func (s *Server) CreateIndex(ctx context.Context, req *indexpb.CreateIndexRequest) (*commonpb.Status, error) {
   
   
    ......
    // 分配indexID,indexID=0
    indexID, err := s.meta.CanCreateIndex(req)
    ......

    err = s.meta.CreateIndex(index)
    ......

    // 将collectionID发送到channel,其它的goroutine进行消费。
    select {
   
   
    case s.notifyIndexChan <- req.GetCollectionID():
    default:
    }

    ......
}

上一篇已经分析过s.meta.CreateIndex(),这里重点分析s.notifyIndexChan。将collectionID发送到channel,其它的goroutine进行消费。

2.消费notifyIndexChan也在dataCoord。

代码路径:internal\datacoord\index_service.go

启动dataCoord服务的时候会调用此方法。

func (s *Server) createIndexForSegmentLoop(ctx context.Context) {
   
   
    log.Info("start create index for segment loop...")
    defer s.serverLoopWg.Done()

    ticker := time.NewTicker(time.Minute)
    defer ticker.Stop()
    for {
   
   
        select {
   
   
        case <-ctx.Done():
            log.Warn("DataCoord context done, exit...")
            return
        case <-ticker.C:
            segments := s.meta.GetHasUnindexTaskSegments()
            for _, segment := range segments {
   
   
                if err := s.createIndexesForSegment(segment); err != nil {
   
   
                    log.Warn("create index for segment fail, wait for retry", zap.Int64("segmentID", segment.ID))
                    continue
                }
            }
        case collectionID := <-s.notifyIndexChan:
            log.Info("receive create index notify", zap.Int64("collectionID", collectionID))
            // 获取collection的segment信息
            segments := s.meta.SelectSegments(func(info *SegmentInfo) bool {
   
   
                return isFlush(info) && collectionID == info.CollectionID
            })
            for _, segment := range segments {
   
   
                if err := s.createIndexesForSegment(segment); err != nil {
   
   
                    log.Warn("create index for segment fail, wait for retry", zap.Int64("segmentID", segment.ID))
                    continue
                }
            }
        case segID := <-s.buildIndexCh:
            log.Info("receive new flushed segment", zap.Int64("segmentID", segID))
            segment := s.meta.GetSegment(segID)
            if segment == nil {
   
   
                log.Warn("segment is not exist, no need to build index", zap.Int64("segmentID", segID))
                continue
            }
            if err := s.createIndexesForSegment(segment); err != nil {
   
   
                log.Warn("create index for segment fail, wait for retry", zap.Int64("segmentID", segment.ID))
                continue
            }
        }
    }
}

走case collectionID := <-s.notifyIndexChan这个分支。

3.进入s.createIndexesForSegment()

func (s *Server) createIndexesForSegment(segment *SegmentInfo) error {
   
   
    // 要创建的索引的信息:索引名称,维度等信息
    indexes := s.meta.GetIndexesForCollection(segment.CollectionID, "")
    for _, index := range indexes {
   
   
        if _, ok := segment.segmentIndexes[index.IndexID]; !ok {
   
   
            if err := s.createIndexForSegment(segment, index.IndexID); err != nil {
   
   
                log.Warn("create index for segment fail", zap.Int64("segmentID", segment.ID),
                    zap.Int64("indexID", index.IndexID))
                return err
            }
        }
    }
    return nil
}

4.进入s.createIndexForSegment()

在segment上建立索引。

func (s *Server) createIndexForSegment(segment *SegmentInfo, indexID UniqueID) error {
   
   
    log.Info("create index for segment", zap.Int64("segmentID", segment.ID), zap.Int64("indexID", indexID))
    buildID, err := s.allocator.allocID(context.Background())
    if err != nil {
   
   
        return err
    }
    segIndex := &model.SegmentIndex{
   
   
        SegmentID:    segment.ID,
        CollectionID: segment.CollectionID,
        PartitionID:  segment.PartitionID,
        NumRows:      segment.NumOfRows,
        IndexID:      indexID,
        BuildID:      buildID,
        CreateTime:   uint64(segment.ID),
        WriteHandoff: false,
    }
    // 添加segment-index
    // 前缀/segment-index/{collectionID}/{partitionID}/{segmentID}/{buildID}
    if err = s.meta.AddSegmentIndex(segIndex); err != nil {
   
   
        return err
    }
    // 入队,通知IndexNode执行索引创建任务
    s.indexBuilder.enqueue(buildID)
    return nil
}

segIndex变量:

segIndex.jpg

s.meta.AddSegmentIndex(segIndex)在etcd添加segment-index。

==前缀/segment-index/{collectionID}/{partitionID}/{segmentID}/{buildID}==

func (kc *Catalog) CreateSegmentIndex(ctx context.Context, segIdx *model.SegmentIndex) error {
   
   
    // key规则
    key := BuildSegmentIndexKey(segIdx.CollectionID, segIdx.PartitionID, segIdx.SegmentID, segIdx.BuildID)

    value, err := proto.Marshal(model.MarshalSegmentIndexModel(segIdx))
    if err != nil {
   
   
        return err
    }
    // 写入etcd
    err = kc.MetaKv.Save(key, string(value))
    if err != nil {
   
   
        log.Error("failed to save segment index meta in etcd", zap.Int64("buildID", segIdx.BuildID),
            zap.Int64("segmentID", segIdx.SegmentID), zap.Error(err))
        return err
    }
    return nil
}

5.进入s.indexBuilder.enqueue(buildID)

此函数作用:入队,通知IndexNode执行索引创建任务。

create_index数据流向2.jpg

6.进入process()

func (ib *indexBuilder) process(buildID UniqueID) bool {
   
   
    ......
    // 有一个定时器,默认1秒,配置项indexCoord.scheduler.interval
    switch state {
   
   
    case indexTaskInit:
        segment := ib.meta.GetSegment(meta.SegmentID)
        if !isSegmentHealthy(segment) || !ib.meta.IsIndexExist(meta.CollectionID, meta.IndexID) {
   
   
            log.Ctx(ib.ctx).Info("task is no need to build index, remove it", zap.Int64("buildID", buildID))
            if err := ib.meta.DeleteTask(buildID); err != nil {
   
   
                log.Ctx(ib.ctx).Warn("IndexCoord delete index failed", zap.Int64("buildID", buildID), zap.Error(err))
                return false
            }
            deleteFunc(buildID)
            return true
        }
        indexParams := ib.meta.GetIndexParams(meta.CollectionID, meta.IndexID)
        if isFlatIndex(getIndexType(indexParams)) || meta.NumRows < Params.DataCoordCfg.MinSegmentNumRowsToEnableIndex.GetAsInt64() {
   
   
            // 数量小于最低数量无需建立索引,默认为1024
            log.Ctx(ib.ctx).Info("segment does not need index really", zap.Int64("buildID", buildID),
                zap.Int64("segmentID", meta.SegmentID), zap.Int64("num rows", meta.NumRows))
            if err := ib.meta.FinishTask(&indexpb.IndexTaskInfo{
   
   
                BuildID:        buildID,
                State:          commonpb.IndexState_Finished,
                IndexFileKeys:  nil,
                SerializedSize: 0,
                FailReason:     "",
            }); err != nil {
   
   
                log.Ctx(ib.ctx).Warn("IndexCoord update index state fail", zap.Int64("buildID", buildID), zap.Error(err))
                return false
            }
            updateStateFunc(buildID, indexTaskDone)
            return true
        }
        // peek client
        // if all IndexNodes are executing task, wait for one of them to finish the task.
        nodeID, client := ib.nodeManager.PeekClient(meta)
        if client == nil {
   
   
            log.Ctx(ib.ctx).WithRateGroup("dc.indexBuilder", 1, 60).RatedInfo(5, "index builder peek client error, there is no available")
            return false
        }
        // update version and set nodeID
        if err := ib.meta.UpdateVersion(buildID, nodeID); err != nil {
   
   
            log.Ctx(ib.ctx).Warn("index builder update index version failed", zap.Int64("build", buildID), zap.Error(err))
            return false
        }
        // binLogs为向量数据文件的位置信息
        // files/insert_log/444517122896489678/444517122896489679/444517122896489694/102/444517122896236031
        // files/insert_log/{collectionID}/{partitionID}/{segmentID}/{fieldID}/444517122896236031
        binLogs := make([]string, 0)
        fieldID := ib.meta.GetFieldIDByIndexID(meta.CollectionID, meta.IndexID)
        for _, fieldBinLog := range segment.GetBinlogs() {
   
   
            if fieldBinLog.GetFieldID() == fieldID {
   
   
                for _, binLog := range fieldBinLog.GetBinlogs() {
   
   
                    binLogs = append(binLogs, binLog.LogPath)
                }
                break
            }
        }

        typeParams := ib.meta.GetTypeParams(meta.CollectionID, meta.IndexID)

        var storageConfig *indexpb.StorageConfig
        // 获取元数据存储类型:minio
        if Params.CommonCfg.StorageType.GetValue() == "local" {
   
   
            storageConfig = &indexpb.StorageConfig{
   
   
                RootPath:    Params.LocalStorageCfg.Path.GetValue(),
                StorageType: Params.CommonCfg.StorageType.GetValue(),
            }
        } else {
   
   
            storageConfig = &indexpb.StorageConfig{
   
   
                Address:          Params.MinioCfg.Address.GetValue(),
                AccessKeyID:      Params.MinioCfg.AccessKeyID.GetValue(),
                SecretAccessKey:  Params.MinioCfg.SecretAccessKey.GetValue(),
                UseSSL:           Params.MinioCfg.UseSSL.GetAsBool(),
                BucketName:       Params.MinioCfg.BucketName.GetValue(),
                RootPath:         Params.MinioCfg.RootPath.GetValue(),
                UseIAM:           Params.MinioCfg.UseIAM.GetAsBool(),
                IAMEndpoint:      Params.MinioCfg.IAMEndpoint.GetValue(),
                StorageType:      Params.CommonCfg.StorageType.GetValue(),
                Region:           Params.MinioCfg.Region.GetValue(),
                UseVirtualHost:   Params.MinioCfg.UseVirtualHost.GetAsBool(),
                CloudProvider:    Params.MinioCfg.CloudProvider.GetValue(),
                RequestTimeoutMs: Params.MinioCfg.RequestTimeoutMs.GetAsInt64(),
            }
        }
        req := &indexpb.CreateJobRequest{
   
   
            ClusterID:           Params.CommonCfg.ClusterPrefix.GetValue(),
            IndexFilePrefix:     path.Join(ib.chunkManager.RootPath(), common.SegmentIndexPath),
            BuildID:             buildID,
            DataPaths:           binLogs,
            IndexVersion:        meta.IndexVersion + 1,
            StorageConfig:       storageConfig,
            IndexParams:         indexParams,
            TypeParams:          typeParams,
            NumRows:             meta.NumRows,
            CurrentIndexVersion: ib.indexEngineVersionManager.GetCurrentIndexEngineVersion(),
        }
        // 通知IndexNode创建索引
        if err := ib.assignTask(client, req); err != nil {
   
   
            ......
        }
        ......
        // update index meta state to InProgress
        // 更新索引状态
        if err := ib.meta.BuildIndex(buildID); err != nil {
   
   
            ......
        }
        updateStateFunc(buildID, indexTaskInProgress)

    case indexTaskDone:
        ......

    default:
        ......
    }
    return true
}

ib.assignTask()通知indexNode创建索引。

7.进入ib.assignTask()

// assignTask sends the index task to the IndexNode, it has a timeout interval, if the IndexNode doesn't respond within
// the interval, it is considered that the task sending failed.
func (ib *indexBuilder) assignTask(builderClient types.IndexNodeClient, req *indexpb.CreateJobRequest) error {
   
   
    ......
    // rpc调用indexNode
    resp, err := builderClient.CreateJob(ctx, req)
    ......
}

8.进入builderClient.CreateJob()

代码路径:internal\indexnode\indexnode_service.go

func (i *IndexNode) CreateJob(ctx context.Context, req *indexpb.CreateJobRequest) (*commonpb.Status, error) {
   
   
    ......
    task := &indexBuildTask{
   
   
        ident:          fmt.Sprintf("%s/%d", req.ClusterID, req.BuildID),
        ctx:            taskCtx,
        cancel:         taskCancel,
        BuildID:        req.GetBuildID(),
        ClusterID:      req.GetClusterID(),
        node:           i,
        req:            req,
        cm:             cm,
        nodeID:         i.GetNodeID(),
        tr:             timerecord.NewTimeRecorder(fmt.Sprintf("IndexBuildID: %d, ClusterID: %s", req.BuildID, req.ClusterID)),
        serializedSize: 0,
    }
    ret := merr.Success()
    if err := i.sched.IndexBuildQueue.Enqueue(task); err != nil {
   
   
        ......
    }
    ......
}

task执行逻辑:

pipelines := []func(context.Context) error{
   
   t.Prepare, t.BuildIndex, t.SaveIndexFiles}

依次执行task的Prepare()、BuildIndex()、SaveIndexFiles()方法。

9.进入BuildIndex()

func (it *indexBuildTask) BuildIndex(ctx context.Context) error {
   
   
    ......
    var buildIndexInfo *indexcgowrapper.BuildIndexInfo
    buildIndexInfo, err = indexcgowrapper.NewBuildIndexInfo(it.req.GetStorageConfig())
    ......
    err = buildIndexInfo.AppendFieldMetaInfo(it.collectionID, it.partitionID, it.segmentID, it.fieldID, it.fieldType)
    ......

    err = buildIndexInfo.AppendIndexMetaInfo(it.req.IndexID, it.req.BuildID, it.req.IndexVersion)
    ......

    err = buildIndexInfo.AppendBuildIndexParam(it.newIndexParams)
    ......

    jsonIndexParams, err := json.Marshal(it.newIndexParams)
    ......

    err = buildIndexInfo.AppendBuildTypeParam(it.newTypeParams)
    ......

    for _, path := range it.req.GetDataPaths() {
   
   
        err = buildIndexInfo.AppendInsertFile(path)
        if err != nil {
   
   
            log.Ctx(ctx).Warn("append insert binlog path failed", zap.Error(err))
            return err
        }
    }

    it.currentIndexVersion = getCurrentIndexVersion(it.req.GetCurrentIndexVersion())
    if err := buildIndexInfo.AppendIndexEngineVersion(it.currentIndexVersion); err != nil {
   
   
        log.Ctx(ctx).Warn("append index engine version failed", zap.Error(err))
        return err
    }
    // cgo层调用CreateIndex()
    // it.index有个Upload()方法写入s3(SaveIndexFiles方法里调用it.index.Upload()写入s3)
    it.index, err = indexcgowrapper.CreateIndex(ctx, buildIndexInfo)
    if err != nil {
   
   
        ......
    }

    ......
}

indexcgowrapper.CreateIndex()调用C层创建索引。

10.进入SaveIndexFiles()

func (it *indexBuildTask) SaveIndexFiles(ctx context.Context) error {
   
   
    ......
    // c++层上传索引文件到s3
    indexFilePath2Size, err := it.index.UpLoad()
    ......

}

总结:

  • CreateIndex由proxy传递给协调器dataCoord操作etcd。
    • 前缀/field-index/{collectionID}/{IndexID}
    • 前缀/segment-index/{collectionID}/{partitionID}/{segmentID}/{buildID}
  • dataCoord通知indexNode创建索引,indexNode通过cgo调用C++层创建索引,并上传至s3。
目录
相关文章
|
6天前
|
IDE JavaScript API
1688寻源通API对接流程以及说明
1688寻源通API(这里主要指的是跨境寻原通数据接口)的对接流程及说明如下:
|
6天前
|
搜索推荐 测试技术 API
探秘电商API:从测试到应用的深度解析与实战指南
电商API是电子商务背后的隐形引擎,支撑着从商品搜索、购物车更新到支付处理等各个环节的顺畅运行。它通过定义良好的接口,实现不同系统间的数据交互与功能集成,确保订单、库存和物流等信息的实时同步。RESTful、GraphQL和WebSocket等类型的API各自适用于不同的应用场景,满足多样化的需求。在测试方面,使用Postman、SoapUI和jMeter等工具进行全面的功能、性能和安全测试,确保API的稳定性和可靠性。未来,随着人工智能、大数据和物联网技术的发展,电商API将进一步智能化和标准化,为用户提供更个性化的购物体验,并推动电商行业的持续创新与进步。
24 4
|
13天前
|
JSON 缓存 API
解析电商商品详情API接口系列,json数据示例参考
电商商品详情API接口是电商平台的重要组成部分,提供了商品的详细信息,支持用户进行商品浏览和购买决策。通过合理的API设计和优化,可以提升系统性能和用户体验。希望本文的解析和示例能够为开发者提供参考,帮助构建高效、可靠的电商系统。
32 12
|
6天前
|
搜索推荐 API 开发者
深度解析:利用商品详情 API 接口实现数据获取与应用
在电商蓬勃发展的今天,数据成为驱动业务增长的核心。商品详情API接口作为连接海量商品数据的桥梁,帮助运营者、商家和开发者获取精准的商品信息(如价格、描述、图片、评价等),优化策略、提升用户体验。通过理解API概念、工作原理及不同平台特点,掌握获取权限、构建请求、处理响应和错误的方法,可以将数据应用于商品展示、数据分析、竞品分析和个性化推荐等场景,助力电商创新与发展。未来,随着技术进步,API接口将与人工智能、大数据深度融合,带来更多变革。
29 3
|
12天前
|
数据挖掘 API 数据安全/隐私保护
深度解析:获取亚马逊畅销榜API接口及实战应用
Lazada 淘宝详情 API 是连接 Lazada 和淘宝商品数据的桥梁,帮助电商从业者获取淘宝商品的详细信息(如标题、描述、价格等),并应用于 Lazada 平台。它在市场调研、产品选品、价格策略和数据分析等方面为商家提供支持,助力优化运营策略。通过 Python 示例代码展示了 API 的实际应用,并强调了数据准确性、API 使用限制及数据安全的重要性。
37 10
|
20天前
|
JSON 前端开发 搜索推荐
关于商品详情 API 接口 JSON 格式返回数据解析的示例
本文介绍商品详情API接口返回的JSON数据解析。最外层为`product`对象,包含商品基本信息(如id、name、price)、分类信息(category)、图片(images)、属性(attributes)、用户评价(reviews)、库存(stock)和卖家信息(seller)。每个字段详细描述了商品的不同方面,帮助开发者准确提取和展示数据。具体结构和字段含义需结合实际业务需求和API文档理解。
|
5天前
|
搜索推荐 数据挖掘 API
微店商品详情接口(微店API系列)
微店商品详情接口是微店API的重要组成部分,帮助开发者和商家获取商品的详细信息(如标题、价格、库存等),并将其集成到应用程序或数据分析系统中。该接口支持HTTP GET/POST请求,返回JSON/XML格式数据,需通过AppKey和AppSecret进行身份验证和签名加密。应用场景包括商品信息同步、数据分析与市场调研、个性化推荐系统等,助力商业决策和业务拓展。
29 13
|
7天前
|
供应链 数据挖掘 API
1688app 商品详情接口系列(1688API)
1688作为国内知名批发采购平台,提供了一系列商品详情接口(API),助力企业和开发者获取商品基础、价格、库存及供应商信息。通过Python示例代码展示如何调用这些接口,应用场景涵盖采购决策辅助、数据分析与市场调研、电商平台整合及供应链管理系统的优化,为企业和采购商提供有力的数据支持,提升业务效率和竞争力。
53 15
|
14天前
|
JSON 搜索推荐 API
京东店铺所有商品接口系列(京东 API)
本文介绍如何使用Python调用京东API获取店铺商品信息。前期需搭建Python环境,安装`requests`库并熟悉`json`库的使用。接口采用POST请求,参数包括`app_key`、`method`、`timestamp`、`v`、`sign`和业务参数`360buy_param_json`。通过示例代码展示如何生成签名并发送请求。应用场景涵盖店铺管理、竞品分析、数据统计及商品推荐系统,帮助商家优化运营和提升竞争力。
60 23
|
6天前
|
JSON 数据挖掘 开发者
1688 商品评论接口系列(1688API)
1688商品评论接口助力电商数据分析与优化。通过该接口,开发者可获取指定商品的评论数据(如昵称、内容、评分等),支持情感分析和质量反馈收集。接口采用HTTP GET/POST请求,返回JSON格式数据。Python示例代码展示如何调用接口并处理响应。应用场景包括商家产品优化、客户服务提升、市场调研及电商平台数据分析。

推荐镜像

更多