离线同步ODPS中多个分区数据

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: 离线同步ODPS中多个分区数据

问题背景

数据集成同步不同分区的数据报错:Exception when job run com.alibaba.datax.common.exception.DataXException: Code:DATAX_R_ODPS_018:分区不存在, Solution:[请修改配置的分区值]


排查过程

1、准备分区表

CREATETABLE IF NOT EXISTS sale_detail( shop_name STRING, customer_id STRING, total_price DOUBLE, customer_name STRING, education BIGINT, customer_name1 STRING COMMENT '客户', education1 BIGINT COMMENT '教育') PARTITIONED BY(sale_date STRING,region STRING) STORED AS ALIORC;


2、准备数据

insertinto sale_detail partition (sale_date='2014', region='china')values('s1','c1',99,'c1',99,'c1',99),('s2','c2',100.2,'c1',99,'c1',99),('s3','c3',100.3,'c1',99,'c1',99);


3、脚本模式创建同步任务

{
    "type": "job",
    "version": "2.0",
    "steps": [
        {
            "stepType": "odps",
            "parameter": {
                "partition": "sale_date=*/region=china",
                "indexes": [],
                "datasource": "odps_first",
                "envType": 1,
                "isSupportThreeModel": false,
                "column": [
                    "shop_name",
                    "customer_id",
                    "total_price",
                    "customer_name",
                    "education",
                    "customer_name1",
                    "education1"
                ],
                "tableComment": "",
                "table": "sale_detail"
            },
            "name": "Reader",
            "category": "reader"
        },
        {
            "stepType": "odps",
            "parameter": {
                "partition": "sale_date=${bizdate},region=china",
                "truncate": true,
                "indexes": [],
                "datasource": "public_odps",
                "envType": 1,
                "isSupportThreeModel": false,
                "column": [
                    "shop_name",
                    "customer_id",
                    "total_price",
                    "customer_name",
                    "education",
                    "customer_name1",
                    "education1"
                ],
                "emptyAsNull": false,
                "tableComment": "",
                "table": "sale_detail"
            },
            "name": "Writer",
            "category": "writer"
        },
        {
            "name": "Processor",
            "stepType": null,
            "category": "processor",
            "copies": 1,
            "parameter": {
                "nodes": [],
                "edges": [],
                "groups": [],
                "version": "2.0"
            }
        }
    ],
    "setting": {
        "executeMode": null,
        "errorLimit": {
            "record": ""
        },
        "speed": {
            "concurrent": 2,
            "throttle": false
        }
    },
    "order": {
        "hops": [
            {
                "from": "Reader",
                "to": "Writer"
            }
        ]
    }
}


4、验证数据5、复现问题


问题原因

配置的分区不存在


解决方案

根据实际有的分区配置,以下两种方式均可:

  • "partition": "sale_date=${bizdate},region=china"
  • "partition": "sale_date=${bizdate}/region=china"


适用范围

大数据开发治理平台DataWorks

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
相关文章
|
24天前
|
存储 分布式计算 数据挖掘
数据架构 ODPS 是什么?
数据架构 ODPS 是什么?
192 7
|
24天前
|
分布式计算 负载均衡 监控
大数据增加分区数量
【11月更文挑战第4天】
31 3
|
24天前
|
存储 分布式计算 大数据
大数据 优化数据读取
【11月更文挑战第4天】
38 2
|
21天前
|
存储 大数据 数据管理
大数据分区简化数据维护
大数据分区简化数据维护
24 4
|
29天前
|
存储 安全 大数据
大数据水平分区增强可管理性
【11月更文挑战第2天】
32 5
|
29天前
|
存储 负载均衡 大数据
大数据水平分区提高查询性能
【11月更文挑战第2天】
30 4
|
28天前
|
存储 分布式计算 大数据
大数据减少单个分区的数据量
【11月更文挑战第3天】
39 2
|
1月前
|
存储 算法 大数据
大数据复合分区(Composite Partitioning)
【11月更文挑战第1天】
42 1
|
1月前
|
存储 大数据 定位技术
大数据 数据索引技术
【10月更文挑战第26天】
55 3
|
1月前
|
存储 大数据 数据管理
大数据垂直分区(Vertical Partitioning)
【11月更文挑战第1天】
38 1

热门文章

最新文章

  • 1
    DataWorks操作报错合集之DataWorks任务异常 报错: GET_GROUP_SLOT_EXCEPTION 该怎么处理
    112
  • 2
    DataWorks操作报错合集之DataWorksUDF 报错:evaluate for user defined function xxx cannot be loaded from any resources,该怎么处理
    109
  • 3
    DataWorks操作报错合集之在DataWorks中,任务流在调度时间到达时停止运行,是什么原因导致的
    106
  • 4
    DataWorks操作报错合集之DataWorks ODPS数据同步后,timesramp遇到时区问题,解决方法是什么
    95
  • 5
    DataWorks操作报错合集之DataWorks配置参数在开发环境进行调度,参数解析不出来,收到了 "Table does not exist" 的错误,该怎么处理
    97
  • 6
    DataWorks操作报错合集之DataWorks中udf开发完后,本地和在MaxCompute的工作区可以执行函数查询,但是在datawork里报错FAILED: ODPS-0130071:[2,5],是什么原因
    111
  • 7
    DataWorks操作报错合集之DataWorks提交失败: 提交节点的源码内容到TSP(代码库)失败:"skynet_packageid is null,该怎么解决
    119
  • 8
    DataWorks操作报错合集之DataWorks在同步mysql时报错Code:[Framework-02],mysql里面有个json类型字段,是什么原因导致的
    154
  • 9
    DataWorks操作报错合集之DataWorks集成实例绑定到同一个vpc下面,也添加了RDS的IP白名单报错:数据源配置有误,请检查,该怎么处理
    88
  • 10
    DataWorks操作报错合集之在 DataWorks 中运行了一个 Hologres 表的任务并完成了执行,但是在 Hologres 表中没有看到数据,该怎么解决
    126