离线同步ODPS中多个分区数据

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: 离线同步ODPS中多个分区数据

问题背景

数据集成同步不同分区的数据报错:Exception when job run com.alibaba.datax.common.exception.DataXException: Code:DATAX_R_ODPS_018:分区不存在, Solution:[请修改配置的分区值]


排查过程

1、准备分区表

CREATETABLE IF NOT EXISTS sale_detail( shop_name STRING, customer_id STRING, total_price DOUBLE, customer_name STRING, education BIGINT, customer_name1 STRING COMMENT '客户', education1 BIGINT COMMENT '教育') PARTITIONED BY(sale_date STRING,region STRING) STORED AS ALIORC;


2、准备数据

insertinto sale_detail partition (sale_date='2014', region='china')values('s1','c1',99,'c1',99,'c1',99),('s2','c2',100.2,'c1',99,'c1',99),('s3','c3',100.3,'c1',99,'c1',99);


3、脚本模式创建同步任务

{
    "type": "job",
    "version": "2.0",
    "steps": [
        {
            "stepType": "odps",
            "parameter": {
                "partition": "sale_date=*/region=china",
                "indexes": [],
                "datasource": "odps_first",
                "envType": 1,
                "isSupportThreeModel": false,
                "column": [
                    "shop_name",
                    "customer_id",
                    "total_price",
                    "customer_name",
                    "education",
                    "customer_name1",
                    "education1"
                ],
                "tableComment": "",
                "table": "sale_detail"
            },
            "name": "Reader",
            "category": "reader"
        },
        {
            "stepType": "odps",
            "parameter": {
                "partition": "sale_date=${bizdate},region=china",
                "truncate": true,
                "indexes": [],
                "datasource": "public_odps",
                "envType": 1,
                "isSupportThreeModel": false,
                "column": [
                    "shop_name",
                    "customer_id",
                    "total_price",
                    "customer_name",
                    "education",
                    "customer_name1",
                    "education1"
                ],
                "emptyAsNull": false,
                "tableComment": "",
                "table": "sale_detail"
            },
            "name": "Writer",
            "category": "writer"
        },
        {
            "name": "Processor",
            "stepType": null,
            "category": "processor",
            "copies": 1,
            "parameter": {
                "nodes": [],
                "edges": [],
                "groups": [],
                "version": "2.0"
            }
        }
    ],
    "setting": {
        "executeMode": null,
        "errorLimit": {
            "record": ""
        },
        "speed": {
            "concurrent": 2,
            "throttle": false
        }
    },
    "order": {
        "hops": [
            {
                "from": "Reader",
                "to": "Writer"
            }
        ]
    }
}


4、验证数据5、复现问题


问题原因

配置的分区不存在


解决方案

根据实际有的分区配置,以下两种方式均可:

  • "partition": "sale_date=${bizdate},region=china"
  • "partition": "sale_date=${bizdate}/region=china"


适用范围

大数据开发治理平台DataWorks

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
打赏
0
0
0
0
320
分享
相关文章
从湖仓分离到湖仓一体,四川航空基于 SelectDB 的多源数据联邦分析实践
川航选择引入 SelectDB 建设湖仓一体大数据分析引擎,取得了数据导入效率提升 3-6 倍,查询分析性能提升 10-18 倍、实时性提升至 5 秒内等收益。
从湖仓分离到湖仓一体,四川航空基于 SelectDB 的多源数据联邦分析实践
数据的“潘多拉魔盒”:大数据伦理的深度思考
数据的“潘多拉魔盒”:大数据伦理的深度思考
46 25
数据无界、湖仓无界, Apache Doris 湖仓一体解决方案全面解读(上篇)
湖仓一体架构融合了数据湖的低成本、高扩展性,以及数据仓库的高性能、强数据治理能力,高效应对大数据时代的挑战。为助力企业实现湖仓一体的建设,Apache Doris 提出了数据无界和湖仓无界核心理念,并结合自身特性,助力企业加速从 0 到 1 构建湖仓体系,降低转型过程中的风险和成本。本文将对湖仓一体演进及 Apache Doris 湖仓一体方案进行介绍。
数据无界、湖仓无界, Apache Doris 湖仓一体解决方案全面解读(上篇)
大数据与云计算:无缝结合,开启数据新纪元
大数据与云计算:无缝结合,开启数据新纪元
124 11
玩转数据:初学者的大数据处理工具指南
玩转数据:初学者的大数据处理工具指南
89 14
从数据小白到大数据达人:一步步成为数据分析专家
从数据小白到大数据达人:一步步成为数据分析专家
254 92
大数据 优化数据读取
【11月更文挑战第4天】
135 2
数据治理之道:大数据平台的搭建与数据质量管理
【10月更文挑战第26天】随着信息技术的发展,数据成为企业核心资源。本文探讨大数据平台的搭建与数据质量管理,包括选择合适架构、数据处理与分析能力、数据质量标准与监控机制、数据清洗与校验及元数据管理,为企业数据治理提供参考。
183 1
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等