Datax将Oracle数据导入ElasticSearch7完成教程

本文涉及的产品
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
简介: Datax将Oracle数据导入ElasticSearch7完成教程


网上关于此方面的内容较少,而且比较零散,正好项目中需要对ES7做预研,所以整理出了这篇文章。

ElasticSearch版本为7.13.2

分如下几个主题:

1.Datax的es导入插件elasticsearchwriter
1.1.从datax的github地址(https://github.com/alibaba/DataX)下载源码工程(Datax-master)
工程内容很多,如果在idea中构建,需要的时间比较长,需要耐心等待。如果不需要构建,那直接在文件夹中打开文件,进行第2步的操作。

1.2.修改父工程的pom.xml,配置modules模块,按需保留elasticsearchwriter模块

<modules>
    <module>common</module>
    <module>core</module>
    <module>transformer</module>
    <module>elasticsearchwriter</module>
    <module>plugin-rdbms-util</module>
    <module>plugin-unstructured-storage-util</module>
    <module>hbase20xsqlreader</module>
    <module>hbase20xsqlwriter</module>
    <module>kuduwriter</module>
</modules>

1.3.执行打包命令,idea或者命令行均可
mvn clean install -Dmaven.test.skip=true

1.4.将编译后的插件安装到 datax中
找到编译后的插件,目录为:

DataX-master/elasticsearchwriter/target/datax/plugin/writer/elasticsearchwriter

这个插件我会提供下载,你可以直接用我的,也可以自己打包。

下载地址:elasticsearchwriter.zip_elasticsearchwriter-其它文档类资源-CSDN下载

 将这个文件夹拷贝到datax的plugin的writer目录下

2.Datax配置es导入job
任务类型选择Datax任务

3.Job的JSON文件编写
要配置导入导出数据源

{
"job": {

"setting": {
  "speed": {
    "channel": 3,
    "byte": 1048576
  },
  "errorLimit": {
    "record": 0,
    "percentage": 0.02
  }
},
"content": [
  {
    "reader": {
      "name": "oraclereader",
      "parameter": {
        "username": "oracle数据库账号",
        "password": "oracle数据库密码",
        "connection": [
          {
            "querySql": [
              "select id,name from 数据库表名"
            ],
            "jdbcUrl": [
              "jdbc:oracle:thin:@//127.0.0.1:1521/orcl"
            ]
          }
        ]
      }
    },
    "writer": {
      "name": "elasticsearchwriter",
      "parameter": {
        "endpoint": "http://127.0.0.1:9200",
        "accessId": "elastic",
        "accessKey": "XXXXXX",
        "index": "test_index",
        "type": "_doc",
        "cleanup": false,
        "settings": {
          "index": {
            "number_of_shards": 1,
            "number_of_replicas": 0
          }
        },
        "discovery": false,
        "batchSize": 10000,
        "splitter": ",",
        "column": [
          {
            "name": "id",
            "type": "long"
          },
          {
            "name": "name",
            "type": "text"
          }
        ]
      }
    }
  }
]

}
}
4.需要注意的地方
4.1.querySql查询的字段要与column一一对应,不能多也不能少,顺序最好也一样

 

4.2. endpoint地址是es的http访问地址,端口为9200,不要配置成9300

4.3.accessId和accessKey必须要配,如果es没有密码,那随便填,但必须要有

4.4.其他注意事项
4.4.1.ES日期字段创建需指定格式 yyyy-MM-dd HH:mm:ss||yyyy-MM-dd||epoch_millis

{

 "name": "CREATE_DATE",
 "type": "date",
 "format": "yyyy-MM-dd HH:mm:ss"

}
4.4.2.日期数据导入时,text写入为日期格式,long写入为时间戳

4.4.3.注意时区问题 写入时指定时区 或 对UTC时间戳进行转换

指定:“2019-03-12T12:12:12.123+0800”
转换:东八区时间戳 = 3600000*8 + UTC时间戳
4.5.json文件格式不对,数组越界错误
sql和column字段匹配不上就会数组越界

4.6.使用数据库id作为es中记录的_id
{"name": "pk", "type": "id"},
name指定为id,type也指定为id,这样就会把数据库的id作为es中的id了。

不需要再指定name为id的字段了,不然会报错 

 5.参数描述
endpoint 描述:ElasticSearch的连接地址 必选:是 默认值:无
accessId 描述:http auth中的user 必选:否 默认值:空
accessKey 描述:http auth中的password 必选:否 默认值:空
index 描述:elasticsearch中的index名 必选:是 默认值:无
type 描述:elasticsearch中index的type名 必选:否 默认值:index名
cleanup 描述:是否删除原表 必选:否 默认值:false
batchSize 描述:每次批量数据的条数 必选:否 默认值:1000
trySize 描述:失败后重试的次数 必选:否 默认值:30
timeout 描述:客户端超时时间 必选:否 默认值:600000
discovery 描述:启用节点发现将(轮询)并定期更新客户机中的服务器列表。 必选:否 默认值:false
compression 描述:http请求,开启压缩 必选:否 默认值:true
multiThread 描述:http请求,是否有多线程 必选:否 默认值:true
ignoreWriteError 描述:忽略写入错误,不重试,继续写入 必选:否 默认值:false
ignoreParseError 描述:忽略解析数据格式错误,继续写入 必选:否 默认值:true
alias 描述:数据导入完成后写入别名 必选:否 默认值:无
aliasMode 描述:数据导入完成后增加别名的模式,append(增加模式), exclusive(只留这一个) 必选:否 默认值:append
settings 描述:创建index时候的settings, 与elasticsearch官方相同 必选:否 默认值:无
splitter 描述:如果插入数据是array,就使用指定分隔符 必选:否 默认值:-,-
column 描述:elasticsearch所支持的字段类型,样例中包含了全部 必选:是
dynamic 描述: 不使用datax的mappings,使用es自己的自动mappings 必选: 否 默认值: false
六、使用dbeaver 配置 jdbc 连接 es
报错 current license is non-compliant for [jdbc]

修改成30天试用版,https://www.elastic.co/guide/en/elasticsearch/reference/master/start-trial.html

POST "localhost:9200/_license/start_trial?acknowledge=true&pretty
查看服务器es的license信息

GET http://localhost:9200/_license

 可以愉快使用了

七、使用es的动态模板
datax从mysql同步数据到elasticsearch(使用es的动态模板)

    "writer": {
      "name": "elasticsearchwriter",
      "parameter": {
        "endpoint": "http://xxx:9200",
        "index": "myindex",
        "type": "data",
        "cleanup": true, #true表示插入前清空,即覆盖同步;false则追加同步
        "dynamic": true,  #这里一定要指定为true,否则使用的是datax的模板(就是下面定义的字段类型),而不会使用es的模板
        "settings": {"index" :{"number_of_shards": 2, "number_of_replicas": 1}},            
        "batchSize": 10000,
        "splitter": ",",
        "column": [
          {"name": "pk", "type": "id"},#指定第一个字段为rowkey 
          {"name": "province", "type": "text"},
          { "name": "city", "type": "text"},
          { "name": "area", "type": "text"},
          { "name": "longitude","type":"double" },
          { "name": "latitude","type": "double" },
          { "name": "location","type": "geo_point" }                   
        ]
      }
    }

参考文档:

通过datax导入数据到elasticsearch - 简书
通过DataX同步数据至Elasticsearch - 奋斗的一线码农 - 博客园
GitHub - alibaba/DataX: DataX是阿里云DataWorks数据集成的开源版本。
通过datax导入数据到elasticsearch - 简书
通过DataX同步数据至Elasticsearch - 走看看
current license is non-compliant for [jdbc]_数据库人生的博客-CSDN博客
datax从mysql同步数据到elasticsearch(使用es的动态模板)_ASN_forever的博客-CSDN博客

相关实践学习
使用阿里云Elasticsearch体验信息检索加速
通过创建登录阿里云Elasticsearch集群,使用DataWorks将MySQL数据同步至Elasticsearch,体验多条件检索效果,简单展示数据同步和信息检索加速的过程和操作。
ElasticSearch 入门精讲
ElasticSearch是一个开源的、基于Lucene的、分布式、高扩展、高实时的搜索与数据分析引擎。根据DB-Engines的排名显示,Elasticsearch是最受欢迎的企业搜索引擎,其次是Apache Solr(也是基于Lucene)。 ElasticSearch的实现原理主要分为以下几个步骤: 用户将数据提交到Elastic Search 数据库中 通过分词控制器去将对应的语句分词,将其权重和分词结果一并存入数据 当用户搜索数据时候,再根据权重将结果排名、打分 将返回结果呈现给用户 Elasticsearch可以用于搜索各种文档。它提供可扩展的搜索,具有接近实时的搜索,并支持多租户。
相关文章
|
2月前
|
SQL 运维 Oracle
【迁移秘籍揭晓】ADB如何助你一臂之力,轻松玩转Oracle至ADB的数据大转移?
【8月更文挑战第27天】ADB(Autonomous Database)是由甲骨文公司推出的自动化的数据库服务,它极大简化了数据库的运维工作。在从传统Oracle数据库升级至ADB的过程中,数据迁移至关重要。
42 0
|
2月前
|
数据采集 Oracle 关系型数据库
实时计算 Flink版产品使用问题之怎么实现从Oracle数据库读取多个表并将数据写入到Iceberg表
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
2月前
|
存储 缓存 监控
|
2月前
|
数据采集 人工智能 自然语言处理
阿里云Elasticsearch AI语义搜索:解锁未来搜索新纪元,精准洞察数据背后的故事!
【8月更文挑战第2天】阿里云Elasticsearch AI场景语义搜索最佳实践
128 5
|
2月前
|
SQL 监控 Oracle
Oracle数据误删不用怕,跟我来学日志挖掘
Oracle数据误删不用怕,跟我来学日志挖掘
24 0
|
2月前
|
SQL Oracle 关系型数据库
Oracle误删数据怎么恢复?
Oracle误删数据怎么恢复?
32 0
|
2月前
|
SQL Oracle Java
实时计算 Flink版产品使用问题之采集Oracle数据时,为什么无法采集到其他TABLESPACE的表
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
2月前
|
分布式计算 Oracle 关系型数据库
实时计算 Flink版产品使用问题之获取Oracle的数据时无法获取clob类型的数据,该怎么办
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
3月前
|
SQL DataWorks 关系型数据库
DataWorks产品使用合集之数据集成时源头提供数据库自定义函数调用返回数据,数据源端是否可以写自定义SQL实现
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
3月前
|
DataWorks 安全 API
DataWorks产品使用合集之是否可以不使用DataWorks进行EMR的调度和DataX数据导入
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
下一篇
无影云桌面