数据治理二-Atlas2.1 100%安装启动成功方法

本文涉及的产品
任务调度 XXL-JOB 版免费试用,400 元额度,开发版规格
云原生网关 MSE Higress,422元/月
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
简介: 数据治理二-Atlas2.1 100%安装启动成功方法

atlas网上资料太少了,并且千篇一律,实在没有营养。经过又两天的摸索终于把atlas成功的启动起来。接下来把启动方式详细的记录起来,如果按照下面的操作,还是启动失败,可以私信我。


一、安装环境


JDK1.8

Zookeeper(atlas自带)

Kafka(atlas自带)

Hbase(atlas自带)

Solr(atlas自带)



二、安装步骤


1、解压包

编译成功之后,会在apache-atlas-sources-2.1.0/distro/target目录生成多个tar包,找到apache-atlas-2.1.0-server.tar.gz包复制到opt目录下执行

tar -xzvf apache-atlas-2.1.0-server.tar.gz

进行解压


2、修改配置


解压完成进入apache-atlas-2.1.0目录,修改环境配置vim conf/atlas-env.sh


修改java_home和是否使用内嵌的hbase和solr

1. export JAVA_HOME=/opt/jdk1.8.0_191/
2. 
3. export MANAGE_LOCAL_HBASE=true
4. 
5. export MANAGE_LOCAL_SOLR=true


此时按照网上的直接执行bin/atlas_start.py我的环境会报异常。

Failed to obtain graph instance, retrying 3 times, error: java.lang.IllegalArgumentException: Could not instantiate imple
mentation: org.janusgraph.diskstorage.solr.Solr6Index错误
Caused by: org.apache.solr.common.SolrException: Cannot connect to cluster at localhost:2181: cluster not found/not ready


Zk节点找不到,因为zk是在HBASE启动的时候启动的,所以我们分开启动再看看有什么问题。


3、启动HBASE


进入atlas目录,执行


hbase/bin/start-hbase.sh

执行jps,看下进程

18309 HMaster

存在HMaster说明,hbase已经启动

4、启动solr

启动 solr

执行以下命令,

solr/bin/solr start -c -z 127.0.0.1:2181 -p 8983 -force


将zk的地址和端口根据实际进行修改,我直接使用的HBASE启动的ZK。也是本地的。

创建索引节点,否则启动会报错

solr/bin/solr  create -c fulltext_index -force -d conf/solr/ 
solr/bin/solr  create -c edge_index -force -d conf/solr/   
solr/bin/solr  create -c vertex_index -force -d conf/solr/


5、启动altas

执行 bin/atlas_start.py,之后会写入很多数据,时间大概要启动几分钟

完全启动之前会一致抛出ZK连不上的异常,不用管

Session 0x0 for server null, unexpected error, closing socket connection and attempting reconnect (ClientCnxn$SendThread:1102)
java.net.ConnectException: Connection refused


后续在启动的话只需要执行bin/atlas_start.py即可,不需要再单独启动hbase和solr了


6、查看进程


执行jps -lm服务启动正常


350afc5a9cf514eb4fbd086ee2cead78.png


如果存在以上三个进程,说明服务启动成功。


7、进入首页


输入http://ip:21000,输入账号密码 admin/admin 进入首页



51c52cced8df8b5140c086046e5ac848.png

三、常见错误


一、环境变量配置有问题

bin/atlas_start.py
Exception: [Errno 2] No such file or directory
Traceback (most recent call last):
  File "bin/atlas_start.py", line 163, in <module>
  File "bin/atlas_start.py", line 73, in main
  File "/opt/apache-atlas-2.1.0/bin/atlas_config.py", line 162, in expandWebApp
    jar(atlasWarPath)
  File "/opt/apache-atlas-2.1.0/bin/atlas_config.py", line 215, in jar
    process = runProcess(commandline)
  File "/opt/apache-atlas-2.1.0/bin/atlas_config.py", line 251, in runProcess
    p = subprocess.Popen(commandline, stdout=stdoutFile, stderr=stderrFile, shell=shell)
  File "/usr/lib64/python2.7/subprocess.py", line 711, in __init__
    errread, errwrite)
  File "/usr/lib64/python2.7/subprocess.py", line 1327, in _execute_child
    raise child_exception
OSError: [Errno 2] No such file or directory

解决方式:conf/atlas-env.sh 中JAVA_HOME配置的jdk位置有误

二、ZK节点没有找到

java.util.concurrent.ExecutionException: org.apache.zookeeper.KeeperException$NoNodeException: KeeperErrorCode = NoNode for /hbase/hbaseid
Caused by: org.apache.zookeeper.KeeperException$NoNodeException: KeeperErrorCode = NoNode for /hbase/hbaseid 


我在修改atlas配置使用外部zk的时候启动报错。可以按照上面步骤手动启动HBASE解决。

或者将hbase的配置修改为/hbase,然后重启hbase即可解决~

<property>
     <name>zookeeper.znode.parent</name>
     <value>/hbase-xxx</value>
 </property>


三、Kafka启动失败

org.apache.atlas.AtlasException: Failed to start embedded kafka


atlas.kafka.zookeeper.connect=localhost:9026  配置的zk端口重复

目录
打赏
0
0
0
0
6
分享
相关文章
数据治理之元数据管理的利器——Atlas入门宝典(二)
随着数字化转型的工作推进,数据治理的工作已经被越来越多的公司提上了日程。作为Hadoop生态最紧密的元数据管理与发现工具,Atlas在其中扮演着重要的位置。但是其官方文档不是很丰富,也不够详细。所以整理了这份文档供大家学习使用。
3080 1
数据治理之元数据管理的利器——Atlas入门宝典(二)
Maxwell:binlog 解析器,轻松同步 MySQL 数据
Maxwell:binlog 解析器,轻松同步 MySQL 数据
931 11
HiveOnSpark 报错:java.lang.IllegalStateException(Connection to remote Spark driver was lost)‘ Last kno
Hive On Spark 测试时遇到`java.lang.IllegalStateException`和`FileNotFoundException`,问题根源是 Spark 缺少 `hive-exec-3.1.3.jar`。解决方法:从 `$HIVE_HOME/lib/`复制该 jar 到 `$SPARK_HOME/jars/`,并使用 `hdfs dfs -put`命令将其上传至 HDFS 的 `/spark-jars/`(根据实际情况调整路径)。重启 Hive 元数据服务后问题解决。
554 0
HiveOnSpark 报错:java.lang.IllegalStateException(Connection to remote Spark driver was lost)‘ Last kno
实时计算 Flink版产品使用合集之如何通过ApacheAtlas获取元数据
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStreamAPI、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。

热门文章

最新文章

AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等

登录插画

登录以查看您的控制台资源

管理云资源
状态一览
快捷访问