DataHub常见问题之同步篇

简介: 介绍DataHub同步的常见问题

DataHub同步问题

  • DataHub同步到opds没有同步进去?

    • 检查同步状态是否为EXECUTING,EXECUTING表示同步状态正常,一般情况下为数据没有写入导致,点击shard页面查看数据写入情况进行确认
  • 检查同步状态为HANG,请点击问号按钮查看错误详情,会有详细的原因解释

  • 检查同步状态为ERROR,请点击问号查看原因,尝试重启归档

  • DataHub同步到下游数据量不一致

    • 点击同步详情,查看同步点位脏数据量,各个shard的同步点位之和代表同步到下游的数据量,脏数据量代表没有同步到下游的数据量
  • DataHub同步延迟很大,不符合5min/64m归档一次

    • 检查数据同步状态,若为EXECUTING代表同步任务正常
    • 可能原因:数据同步点位设置有误,页面创建默认从当前时间创建
    • 如何解决:创建同步时指定时间为数据最早写入时间
  • Odps partition not in partition config. partition:

    • MaxCompute中对应的分区信息不在DataHub的分区信息中。这个多见于使用SystemTime或者EventTime模式同步的方式,这种方式,需要MaxCompute中固定存在三级分区分别是ds/hh/mm,分区类型为String,如果匹配不上,就会报这个错误。
  • maxcompute新加字段流程

  • 数据同步脏数据会自动清理的吗

    • 脏数据指的是在datahub里,写不到下游的数据下游产品无法接收,同步时候会自动跳过
  • datahub里面在配置数据同步的页面的时候,出现了字段信息太多的问题,导致后面的页面无法上翻

    • 全屏即可下翻
相关文章
|
2月前
|
监控 NoSQL 数据处理
实时计算 Flink版产品使用问题之要如何将Flink整库同步到DataHub中
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
2月前
|
SQL 网络协议 网络安全
实时计算 Flink版产品使用问题之如何将Flink整库同步到DataHub中
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
4月前
|
存储 监控 Apache
Flink整库同步 如何把数据丢入到 datahub 中
Flink整库同步 如何把数据丢入到 datahub 中
|
分布式计算 监控 Apache
基于Apache Flume Datahub插件将日志数据同步上云
## 简介 Apache Flume是一个分布式的、可靠的、可用的系统,可用于从不同的数据源中高效地收集、聚合和移动海量日志数据到集中式数据存储系统,支持多种Source和Sink插件。本文将介绍如何使用Apache Flume的[Datahub Sink插件](https://github.
7834 0
|
4月前
|
消息中间件 分布式计算 DataWorks
DataWorks常见问题之kafka数据导入datahub失败如何解决
DataWorks是阿里云提供的一站式大数据开发与管理平台,支持数据集成、数据开发、数据治理等功能;在本汇总中,我们梳理了DataWorks产品在使用过程中经常遇到的问题及解答,以助用户在数据处理和分析工作中提高效率,降低难度。
|
10月前
|
SQL 关系型数据库 数据管理
Datahub实践——Sqllineage解析Sql实现端到端数据血缘
Datahub实践——Sqllineage解析Sql实现端到端数据血缘
1194 1
|
数据采集 JSON 关系型数据库
将 MySQL 数据抽取并写入 DataHub,您可以按照以下步骤进行
将 MySQL 数据抽取并写入 DataHub,您可以按照以下步骤进行
473 2
|
3月前
|
数据采集 DataWorks 监控
DataWorks产品使用合集之mysql-cdc读取数据写入到datahub中,datahub如何转换时区
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
36 1
|
10月前
|
数据采集 大数据 数据挖掘
企业级数据治理工作怎么开展?Datahub这样做
企业级数据治理工作怎么开展?Datahub这样做
151 0
|
数据采集 JSON 关系型数据库
将 MySQL 数据抽取并写入 DataHub
将 MySQL 数据抽取并写入 DataHub
228 3
下一篇
DDNS