引言
上一篇中,我们了解了高质量数据集建设流程中至关重要的“需求调研”与“数据规划”两大环节,掌握了从现状摸底、场景拆解到供需确认的五步调研法,成功输出了高质量数据集清单;还深入学习了如何通过基本信息编目、内容结构设计及生产加工要求的明确,为数据集制定出详尽的《目录建设标准》。 然而,仅有清晰的蓝图和清单还不够,如何将这些规划转化为实实在在的高质量数据?接下来,我们将探讨数据工程的具体实施路径。
数据工程实施环节
这一环节是将抽象的数据集清单转化为可直接支撑 AI 模型训练与业务应用的高质量数据资产的关键,重点涵盖数据采集、数据预处理、数据标注三大核心模块,通过全链路的工程化能力,确保数据从源头到交付的每一步都可控、可追溯、高质量。
数据采集
数据采集是数据工程的起点,其核心目标是打破数据孤岛,将分散在不同系统、不同介质中的多源异构数据,通过多样化的采集方式统一汇聚,为后续的加工与应用奠定坚实基础。

在城市指挥中心大脑等复杂场景中,数据种类复杂,采集方式也呈现出多样化的特点,主要包括以下几类:
数据源采集
依托采集引擎,支持 FTP、OBS、Ozene、Minio、Ceph 等多种存储协议,能够无缝对接企业级数据源,无论是传统文件服务器、对象存储还是分布式存储,都能实现稳定、高效的数据采集,确保各类结构化与非结构化数据的统一接入。

数据爬取
通过设定爬取策略,开启自动化采集任务,并对任务执行过程进行实时监控,可抓取网页内容(文本、图像)、魔搭数据集、微信公众号等多种外部数据,同时支持自动化与手动采集相结合的方式,灵活拓展数据采集的边界,满足场景化的数据补充需求。

数据回流集成
支持将模型推理数据进行回流,提供丰富的回流策略,如抽样回流、任务调度、误报反馈回流、事件数据回流等,回流数据类型包括 request、request+response、request+response + 排序等多种形式,能够将模型应用过程中产生的宝贵数据重新注入数据体系,形成 “数据 - 模型 - 应用 - 数据” 的闭环,持续优化模型效果。

视频网关集成
针对城市指挥中心等场景中大量的视频监控数据,可对接视频网关,实现监控截图数据及事件数据的采集,同时支持将视频流截帧为图片存储到云盘或本地目录,为视觉类 AI 模型(如异常行为识别、目标检测)提供充足的样本来源。

本地上传
支持各类文档、音视频等素材从本地上传到平台,满足个性化的数据补充需求,让零散的本地数据也能纳入统一的管理体系。

【注意事项】数据采集多采用对象存储和向量存储
与结构化数据存储不同的是,此处数据采集多采用对象存储和向量存储。支持将多种非结构化数据接入到平台进行统一管理,包括视频数据接入、图像数据接入、文本数据接入、表格数据接入以及外部成熟样本数据导入,样本协议支持行业常见的VOC、coco、labelme等协议,同时也支持外部接口对接接入存储。
- 视频/图像数据接入:平台对接视频数据源,包括大华、海天等主流视频平台;支持普通摄像头、支持采集视频流数据、可选将视频流截帧为图片,文件存储到云盘或本地目录;
- 文档数据接入:文档本地上传;问答对接入;知识库接入;
- 外部成熟样本导入:开源协议支持(mit、Apache License 2.0、CC-BY-NC-4.0);扩展外部成熟样本导入的标准协议(VOC、coco、labelme 、labelimg标注数据集)。

数据预处理
采集到的原始数据往往存在噪声大、格式不统一、质量参差不齐等问题,无法直接用于模型训练或业务应用。因此,数据预处理环节至关重要,其核心目标是通过智能化、标准化的处理,将原始数据转化为精细化、高质量的可用样本,为后续的标注与模型训练筑牢质量防线。
样本预处理覆盖视频、图像、文本、语音四大类,通过丰富的智能预处理插件(支持插拔式,可对接生态插件),对原始样本进行全维度处理。

视频预处理环节,首先对视频内容进行敏感信息脱敏,确保数据合规;接着用视频浓缩技术提取关键片段,压缩数据量同时提升处理效率;最后通过转码修复、噪声抑制、块效应消除、亮斑去除等操作改善视频质量,为后续分析与标注提供清晰素材。
图像预处理环节,先通过裁剪、旋转等几何变换,调整图像尺寸与格式以匹配模型输入要求;再调节对比度、亮度等色彩通道参数,优化视觉效果;同时模拟雨雪等环境进行数据增强,提升模型的场景泛化能力;最后通过裁剪、外扩等操作丰富样本类型,增强模型鲁棒性。
文本预处理环节,过滤重复字、词、句等冗余信息,精简文本内容;自动识别并脱敏身份证号、手机号、邮箱等隐私数据,保障信息安全;同时清理乱码、HTML标签、表情符等无效内容,统一文本格式,提高数据规范性。
语音预处理环节,先通过背景去噪消除环境干扰,提升语音清晰度;再通过语音增强优化信号质量,提高识别准确率;接着对长语音进行分帧,切分为适合模型训练的短片段;最后通过语音识别将语音转成文本,方便后续处理。
经上述全链路预处理后,高质量样本将统一存入样本库,形成标准化、可复用的数据资产,为后续数据标注及 AI 模型训练提供可靠支撑。
数据标注
数据标注是将无标签的原始数据转化为有监督学习所需标注数据的核心环节,其质量直接决定了 AI 模型的效果。我们采用端到端的标注流程,覆盖从样本接入到数据入库的全链路,同时通过智能化组件加持,大幅提升标注效率与质量。
通常,数据标注包含以下五个步骤:

样本集接入:需支持图像、视频、音频、文件、文本、表格等多类型样本接入,同时支持样本生成,满足多样化的标注需求。

标注任务发起:支持众包标注任务发布(标注员抢单)、项目标注任务发布(工作派单)、个人快速标注(无需质检)等多种模式,同时提供智能预标功能,减少标注成本。

标注数据执行:覆盖对话指令标注、多模态标注、图像分类 / 检测 / 分割标注、语音识别标注、OCR 文字辅助标注等丰富的标注类型,适配不同场景的需求。

样本验收审核:审核人员通过审核工具逐一检查标注结果,可按预设策略提交或打回检查结果,同时支持配置抽检规则,设置抽检比例并支持随机抽检,确保标注质量。

标注数据生成入库:已标注数据集沉淀为数据资产,可直接用于模型开发、训练、推理等环节,同时支持标注数据集导出到本地,满足灵活的应用需求。

但是需要注意的是,为了适配复杂场景的标注需求,有时也需要结合多种特性标注工具协同进行,比如说涉及到建模类型的,可以采用BIM标注、3D点云标注、图纸标注。
