atlas 集成cdh

本文涉及的产品
注册配置 MSE Nacos/ZooKeeper,118元/月
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
云原生网关 MSE Higress,422元/月
简介: atlas 集成cdh

版本相关

1: CDH各组件版本

60a6bcefe26f4b118e50f46e4d0afd1d.png

2: 配置

# 下载
wget https://dlcdn.apache.org/atlas/2.1.0/apache-atlas-2.1.0-sources.tar.gz --no￾check-certificate
#pom.xml
<hadoop.version>3.0.0-cdh6.2.0</hadoop.version>
<hbase.version>2.1.0-cdh6.2.0</hbase.version>
<solr.version>7.4.0-cdh6.2.0</solr.version>
<hive.version>2.1.1-cdh6.2.0</hive.version>
<kafka.version>2.1.0-cdh6.2.0</kafka.version>
<zookeeper.version>3.4.5-cdh6.2.0</zookeeper.version>
<sqoop.version>1.4.7-cdh6.2.0</sqoop.version>
# pom.xml
<repository>
 <id>cloudera</id>
 <url>https://repository.cloudera.com/artifactory/cloudera-repos</url>
</repository>

注意:pom.xml修改的内容,要与cdh集群中的版本一致。

60a6bcefe26f4b118e50f46e4d0afd1d.png

75f0e2306cfe4b549332ab598e15c984.png

3: 兼容Hive2.1.1-cdh6.2.0修改源码

注意:不做兼容编译打包会失败

60a6bcefe26f4b118e50f46e4d0afd1d.png

子工程apache-atlas-sources-2.1.0\addons\hive-bridge
org/apache/atlas/hive/bridge/HiveMetaStoreBridge.java
String catalogName = hiveDB.getCatalogName() != null ? hiveDB.getCatalogName().toLowerCase() : null;
改为:
String catalogName = null;

60a6bcefe26f4b118e50f46e4d0afd1d.png

子工程apache-atlas-sources-2.1.0\addons\hive-bridge
org/apache/atlas/hive/bridge/HiveMetaStoreBridge.java
String catalogName = hiveDB.getCatalogName() != null ? hiveDB.getCatalogName().toLowerCase() : null;
改为:
String catalogName = null;

60a6bcefe26f4b118e50f46e4d0afd1d.png

4: 编译打包

export MAVEN_OPTS="-Xms2g -Xmx2g"
sudo mvn clean -DskipTests install [ -X(查看debug信息)]
sudo mvn clean -DskipTests package -Pdist
    75f0e2306cfe4b549332ab598e15c984.png

60a6bcefe26f4b118e50f46e4d0afd1d.png

5: Atlas安装

# 将安装包移动至/data/app下,并改名为atlas2.1
cp -r apache-atlas-2.1.0/ /data/app/
mv apache-atlas-2.1.0/ atlas2.1
# 配置文件
vim /data/app/atlas2.1/conf/atlas-application.properties
# 配置项
######### Server Properties #########
atlas.rest.address=http://192.168.1.209:21000
## Server port configuration
atlas.server.http.port=21000

6: 集成CDH组件

6.1 集成kafka

# 配置文件
vim /data/app/atlas2.1/conf/atlas-application.properties
# 配置项
atlas.notification.embedded=false(如果要使用内嵌的kafka,则需改为true)
atlas.kafka.zookeeper.connect=sd-cluster-207:2181,sd-cluster-208:2181,sd-cluster-209:2181
atlas.kafka.bootstrap.servers=sd-cluster-207:9092,sd-cluster-208:9092,sd-cluster-209:9092
atlas.kafka.zookeeper.session.timeout.ms=4000
atlas.kafka.zookeeper.connection.timeout.ms=2000
atlas.kafka.enable.auto.commit=true
atlas.kafka.offsets.topic.replication.factor=3
kafka-topics --zookeeper sd-cluster-209:2181 --create --replication-factor 3 --partitions 3 --topic _HOATLASOK
kafka-topics --zookeeper sd-cluster-209:2181 --create --replication-factor 3 --partitions 3 --topic ATLAS_HOOK
kafka-topics --zookeeper sd-cluster-209:2181 --create --replication-factor 3 --partitions 3 --topic ATLAS_ENTITIES
kafka-topics.sh --list --zookeeper sd-cluster-209:2181

60a6bcefe26f4b118e50f46e4d0afd1d.png

6.2 集成Hbase

配置文件
vim /data/app/atlas2.1/conf/atlas-application.properties
# 配置项
atlas.graph.storage.hostname=sd-cluster-207:2181,sd-cluster-208:2181,sd-cluster-
209:2181
# 将hbase的配置文件软连接到Atlas的conf的hbase目录下
ln -s /etc/hbase/conf/ /data/app/atlas2.1/conf/hbase/
# 配置文件
vim /data/app/atlas2.1/conf/atlas-env.sh
export HBASE_CONF_DIR=//data/app/atlas2.1/conf/hbase/conf

60a6bcefe26f4b118e50f46e4d0afd1d.png

6.3 集成Solr

# 配置文件
vim /data/app/atlas2.1/conf/atlas-application.properties
# 配置项
atlas.graph.index.search.solr.zookeeper-url=sd-cluster-207:2181/solr,sd-cluster-208:2181/solr,sd-cluster-209:2181/solr
# 将Atlas的conf目录下Solr文件夹同步到Solr的目录下并更名
cp -r /data/app/atlas2.1/conf/solr/ /opt/cloudera/parcels/CDH/lib/solr/atlas_solr
# 同步到其它节点 sd-cluster-207̵sd-cluster-208
/opt/cloudera/parcels/CDH/lib/solr/atlas_solr
# 修改用户组
chown -R solr:solr /opt/cloudera/parcels/CDH/lib/solr/
# 切换用户
su solr
# Solr创建collection
/opt/cloudera/parcels/CDH/lib/solr/bin/solr create -c vertex_index -d
/opt/cloudera/parcels/CDH/lib/solr/atlas_solr -force -shards 3 -replicationFactor 3
/opt/cloudera/parcels/CDH/lib/solr/bin/solr create -c edge_index -d
/opt/cloudera/parcels/CDH/lib/solr/atlas_solr -force -shards 3 -replicationFactor 3
/opt/cloudera/parcels/CDH/lib/solr/bin/solr create -c fulltext_index -d
/opt/cloudera/parcels/CDH/lib/solr/atlas_solr -force -shards 3 -replicationFactor 3

60a6bcefe26f4b118e50f46e4d0afd1d.png

6.4 Atlas启动

/data/app/atlas2.1/bin/atlas_start.py
http://192.168.1.209:21000/
默认用户名和密码: admin

60a6bcefe26f4b118e50f46e4d0afd1d.png

60a6bcefe26f4b118e50f46e4d0afd1d.png

6.5 集成Hive

修改【hive-site.xml的Hive服务高级代码段(安全阀)】
名称:hive.exec.post.hooks
值:org.apache.atlas.hive.hook.HiveHook
修改【hive-site.xml的Hive客户端高级代码段(安全阀)】
名称:hive.exec.post.hooks
值:org.apache.atlas.hive.hook.HiveHook,org.apache.hadoop.hive.ql.hooks.LineageLogge

60a6bcefe26f4b118e50f46e4d0afd1d.png

修改【hive-env.sh的Gateway客户端环境高级配置代码段(安全阀)】
HADOOP_HOME=/opt/cloudera/parcels/CDH/lib/hadoop
JAVA_HOME=/usr/java/jdk1.8.0_181-cloudera

60a6bcefe26f4b118e50f46e4d0afd1d.png

修改【Hive辅助JAR目录】
值:/data/app/atlas2.1/hook/hive
修改hive-site.xml 的HiveServer2高级配置代码段(安全阀)】
名称:hive.exec.post.hooks
值:org.apache.atlas.hive.hook.HiveHook,org.apache.hadoop.hive.ql.hooks.LineageLogger
名称:hive.reloadable.aux.jars.path
值:/data/app/atlas2.1/hook/hive
修改【HiveServer2环境高级配置代码段(安全阀)】
HIVE_AUX_JARS_PATH=/data/app/atlas2.1/hook/hive

60a6bcefe26f4b118e50f46e4d0afd1d.png

将配置文件atlas-application.properties添加到atlas2.1/hook/hive的atlas-plugin-classloader-2.1.0.jar

# 切换到Atlas的conf目录下
cd /data/atlas-2.1.0/conf
# 添加
zip -u /data/app/atlas2.1/hook/hive/atlas-plugin-classloader-2.1.0.jar atlasapplication.properties
# 将配置文件添加到Hive的配置目录下
sudo cp atlas-application.properties /etc/hive/conf
# scp到其它主机hive配置下
scp atlas-application.properties sd-cluster-207̵sd-cluster-207:/etc/hive/conf

将Hive数据导入Atlas

cd /data/app/atlas2.1/bin
./import-hive.sh

60a6bcefe26f4b118e50f46e4d0afd1d.png

登陆atlas查看hive相关元数据

60a6bcefe26f4b118e50f46e4d0afd1d.png

75f0e2306cfe4b549332ab598e15c984.png

7: 验证分析

建表

create table test.atlas1 as select '1' as id,'wangman' as name;
create table test.atlas2 as select '1' as id,'jilin' as address;
create table test.atlas3 as
select a.id as id_x,a.name as name_x,b.address as address_x from test.atlas1 a
left join test.atlas2 b on a.id=b.id

60a6bcefe26f4b118e50f46e4d0afd1d.png

表血缘

60a6bcefe26f4b118e50f46e4d0afd1d.png

自动血缘

60a6bcefe26f4b118e50f46e4d0afd1d.png

相关文章
|
7月前
|
人工智能 NoSQL atlas
MongoDB Atlas Vector Search与Amazon Bedrock集成已全面可用
MongoDB Atlas Vector Search知识库与Amazon Bedrock的最新集成,将极大加速生成式AI应用的开发
2643 1
|
SQL 消息中间件 分布式计算
数据治理三-Atlas与Hive数据集成
数据治理三-Atlas与Hive数据集成
298 0
|
Java 流计算
flink 自制parcels 包集成CDH
flink 自制parcels 包集成CDH
flink 自制parcels 包集成CDH
|
消息中间件 Java Kafka
|
SQL 消息中间件 分布式计算
Atlas 2.1.0 实践(3)—— Atlas集成HIve
Atlas 2.1.0 实践(3)—— Atlas集成HIve
673 0
Atlas 2.1.0 实践(3)—— Atlas集成HIve
|
SQL 消息中间件 Kafka
Atlas集成外部组件—集成Hive、HBase、Kafka
Atlas集成外部组件—集成Hive、HBase、Kafka
626 0
Atlas集成外部组件—集成Hive、HBase、Kafka
|
SQL 分布式数据库 Hbase
CDH集成phoenix
Phoneix是基于Hbase之上的SQL工具,可以使用标准的SQL语法来操作Hbase。网上看了很多集成Phoenix的大多是下载安装包解压配置参数啥的,如果没有和自己环境相匹配的那么就要去编译了。
1930 0
|
2月前
|
Java Maven Docker
gitlab-ci 集成 k3s 部署spring boot 应用
gitlab-ci 集成 k3s 部署spring boot 应用
|
27天前
|
消息中间件 监控 Java
您是否已集成 Spring Boot 与 ActiveMQ?
您是否已集成 Spring Boot 与 ActiveMQ?
52 0

热门文章

最新文章