数据治理二-Atlas2.1 100%安装启动成功方法

本文涉及的产品
云原生网关 MSE Higress,422元/月
注册配置 MSE Nacos/ZooKeeper,118元/月
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
简介: 数据治理二-Atlas2.1 100%安装启动成功方法

atlas网上资料太少了,并且千篇一律,实在没有营养。经过又两天的摸索终于把atlas成功的启动起来。接下来把启动方式详细的记录起来,如果按照下面的操作,还是启动失败,可以私信我。


一、安装环境


JDK1.8

Zookeeper(atlas自带)

Kafka(atlas自带)

Hbase(atlas自带)

Solr(atlas自带)



二、安装步骤


1、解压包

编译成功之后,会在apache-atlas-sources-2.1.0/distro/target目录生成多个tar包,找到apache-atlas-2.1.0-server.tar.gz包复制到opt目录下执行

tar -xzvf apache-atlas-2.1.0-server.tar.gz

进行解压


2、修改配置


解压完成进入apache-atlas-2.1.0目录,修改环境配置vim conf/atlas-env.sh


修改java_home和是否使用内嵌的hbase和solr

1. export JAVA_HOME=/opt/jdk1.8.0_191/
2. 
3. export MANAGE_LOCAL_HBASE=true
4. 
5. export MANAGE_LOCAL_SOLR=true


此时按照网上的直接执行bin/atlas_start.py我的环境会报异常。

Failed to obtain graph instance, retrying 3 times, error: java.lang.IllegalArgumentException: Could not instantiate imple
mentation: org.janusgraph.diskstorage.solr.Solr6Index错误
Caused by: org.apache.solr.common.SolrException: Cannot connect to cluster at localhost:2181: cluster not found/not ready


Zk节点找不到,因为zk是在HBASE启动的时候启动的,所以我们分开启动再看看有什么问题。


3、启动HBASE


进入atlas目录,执行


hbase/bin/start-hbase.sh

执行jps,看下进程

18309 HMaster

存在HMaster说明,hbase已经启动

4、启动solr

启动 solr

执行以下命令,

solr/bin/solr start -c -z 127.0.0.1:2181 -p 8983 -force


将zk的地址和端口根据实际进行修改,我直接使用的HBASE启动的ZK。也是本地的。

创建索引节点,否则启动会报错

solr/bin/solr  create -c fulltext_index -force -d conf/solr/ 
solr/bin/solr  create -c edge_index -force -d conf/solr/   
solr/bin/solr  create -c vertex_index -force -d conf/solr/


5、启动altas

执行 bin/atlas_start.py,之后会写入很多数据,时间大概要启动几分钟

完全启动之前会一致抛出ZK连不上的异常,不用管

Session 0x0 for server null, unexpected error, closing socket connection and attempting reconnect (ClientCnxn$SendThread:1102)
java.net.ConnectException: Connection refused


后续在启动的话只需要执行bin/atlas_start.py即可,不需要再单独启动hbase和solr了


6、查看进程


执行jps -lm服务启动正常


350afc5a9cf514eb4fbd086ee2cead78.png


如果存在以上三个进程,说明服务启动成功。


7、进入首页


输入http://ip:21000,输入账号密码 admin/admin 进入首页



51c52cced8df8b5140c086046e5ac848.png

三、常见错误


一、环境变量配置有问题

bin/atlas_start.py
Exception: [Errno 2] No such file or directory
Traceback (most recent call last):
  File "bin/atlas_start.py", line 163, in <module>
  File "bin/atlas_start.py", line 73, in main
  File "/opt/apache-atlas-2.1.0/bin/atlas_config.py", line 162, in expandWebApp
    jar(atlasWarPath)
  File "/opt/apache-atlas-2.1.0/bin/atlas_config.py", line 215, in jar
    process = runProcess(commandline)
  File "/opt/apache-atlas-2.1.0/bin/atlas_config.py", line 251, in runProcess
    p = subprocess.Popen(commandline, stdout=stdoutFile, stderr=stderrFile, shell=shell)
  File "/usr/lib64/python2.7/subprocess.py", line 711, in __init__
    errread, errwrite)
  File "/usr/lib64/python2.7/subprocess.py", line 1327, in _execute_child
    raise child_exception
OSError: [Errno 2] No such file or directory

解决方式:conf/atlas-env.sh 中JAVA_HOME配置的jdk位置有误

二、ZK节点没有找到

java.util.concurrent.ExecutionException: org.apache.zookeeper.KeeperException$NoNodeException: KeeperErrorCode = NoNode for /hbase/hbaseid
Caused by: org.apache.zookeeper.KeeperException$NoNodeException: KeeperErrorCode = NoNode for /hbase/hbaseid 


我在修改atlas配置使用外部zk的时候启动报错。可以按照上面步骤手动启动HBASE解决。

或者将hbase的配置修改为/hbase,然后重启hbase即可解决~

<property>
     <name>zookeeper.znode.parent</name>
     <value>/hbase-xxx</value>
 </property>


三、Kafka启动失败

org.apache.atlas.AtlasException: Failed to start embedded kafka


atlas.kafka.zookeeper.connect=localhost:9026  配置的zk端口重复

目录
相关文章
|
9月前
|
存储 缓存 JavaScript
构建离线应用:Apollo与本地状态管理
构建离线应用:Apollo与本地状态管理
|
4月前
|
分布式计算 大数据 分布式数据库
大数据-158 Apache Kylin 安装配置详解 集群模式启动(一)
大数据-158 Apache Kylin 安装配置详解 集群模式启动(一)
84 5
|
4月前
|
资源调度 大数据 分布式数据库
大数据-158 Apache Kylin 安装配置详解 集群模式启动(二)
大数据-158 Apache Kylin 安装配置详解 集群模式启动(二)
75 2
|
8月前
|
人工智能 NoSQL atlas
Questflow借助MongoDB Atlas以AI重新定义未来工作方式
Questflow借助MongoDB赋能AI员工,助力中小型初创企业自动化工作流程,简化数据分析,提升客户体验,推动AI与员工的协作,重新定义未来工作方式
5511 2
|
存储 人工智能 NoSQL
MongoDB推出高级数据管理功能,实现随处可运行应用程序
借助MongoDB Atlas for the Edge,企业不仅可以安全地存储数据,还可以跨越不同数据源和目的地实时同步数据,从而提供具有高可用性、高弹性和高可靠性的应用程序
|
存储 人工智能 NoSQL
MongoDB推出五项MongoDB Atlas新功能,帮助企业使用单一开发者数据平台构建新应用程序类别
Beamable、Pureinsights、Anywhere Real Estate及Hootsuite等客户和合作伙伴,正使用MongoDB Atlas新功能构建下一代应用程序
MongoDB推出五项MongoDB Atlas新功能,帮助企业使用单一开发者数据平台构建新应用程序类别
|
消息中间件 SQL 运维
【大数据开发运维解决方案】hadoop+kylin安装及官方cube/steam cube案例文档
对于hadoop+kylin的安装过程在上一篇文章已经详细的写了, 请读者先看完上一篇文章再看本本篇文章,本文主要大致介绍kylin官官方提供的常规批量cube创建和kafka+kylin流式构建cube(steam cube)的操作过程,具体详细过程请看官方文档。
【大数据开发运维解决方案】hadoop+kylin安装及官方cube/steam cube案例文档
|
运维 分布式计算 Oracle
【大数据开发运维解决方案】Linux Solr5.1安装及导入Oracle数据库表数据
在solr页面中点击core admin–>add core 增加一个core。和id字段如果不做主键,需要将required="true"去掉。配置文件介绍中已经说了问题的主要原因是schema配置文件中存在。2、取消ID的required=true,修改为指定的字段即可。保存退出,至于为什么这么改,看后面遇到的问题及解决方法。1、将uniqueKey修改为你导入solr的字段。能够正常查询出来数据,简单导入完成。最后结果如上截图及配置。
【大数据开发运维解决方案】Linux Solr5.1安装及导入Oracle数据库表数据
|
存储 分布式计算 运维
【大数据开发运维解决方案】Solr5.1案例文档导入
1、创建内核 [root@hadoop exampledocs]# cd /hadoop/solr/ [root@hadoop solr]# ./bin/solr create -c jcg -d basic_configs Setup new core instance directory: /hadoop/solr/server/solr/jcg Creating new core 'jc...
【大数据开发运维解决方案】Solr5.1案例文档导入
|
Java atlas Apache
数据治理一-Atlas2.1编译踩坑之路
数据治理一-Atlas2.1编译踩坑之路
479 0