Zeppelin安装教程

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
大数据开发治理平台 DataWorks,不限时长
简介: Zeppelin安装教程

Zeppelin下载

Zeppelin官网

Zeppelin安装与配置流程

    #解压并重命名
    #配置
    #zeepline-site.xml
    [root@vwmaster conf]# cp zeppelin-site.xml.template zeppelin-site.xml
    [root@vwmaster conf]# vi zeppelin-site.xml
    <property>
      <name>zeppelin.server.addr</name>
      <value>YOUR_VM_IP or HOST_NAME</value>
      <description>Server binding address</description>
    </property>

    <property>
      <name>zeppelin.server.port</name>
      <value>8000</value>
      <description>Server port.</description>
    </property>

    #zeepline-env.sh
    [root@vwmaster conf]# cp zeppelin-env.sh.template zeppelin-env.sh
    [root@vwmaster conf]# vi zeppelin-env.sh
    export JAVA_HOME=/opt/software/jdk1.8.0_171
    export HADOOP_CONF_DIR=/opt/software/hadoop-3.1.3/etc/hadoop

    #权限先不做(※)
    #启动metastore和hiveserver2
    #修改hive关联的hdfs文件夹权限
    hdfs dfs -chmod -R 777 /tmp
    hdfs dfs -chmod -R 777 /hive312

    #环境变量并激活
    vim /etc/profile.d/my.sh
    #-------------------------------------------------
    # zeppelin 0.9.0
    export ZEPPELIN_HOME=/opt/software/zeppelin-0.10.0
    export PATH=$ZEPPELIN_HOME/bin:$PATH
    #-------------------------------------------------
    source /etc/profile

    #zeppelin未提供hive interpreter(解释器)
    #将hive的hive-site.xml拷贝至zepplin的conf下
        pwd # /opt/software/hadoop/zepplin-0.10.0/conf
        cp /opt/software/hadoop/hive-3.1.2/conf/hive-site.xml ./

    #jar包拷贝至zepplin的interpretor/jdbc/下
        #内部依赖
        cp /opt/software/hadoop-3.1.3/share/hadoop/common/hadoop-common-3.1.3.jar ./
        cp /opt/software/hive-3.1.2/lib/curator-client-2.12.0.jar ./
        cp /opt/software/hive-3.1.2/lib/guava-27.0-jre.jar ./
        cp /opt/software/hive-3.1.2/lib/hive-common-3.1.2.jar ./
        cp /opt/software/hive-3.1.2/lib/hive-jdbc-3.1.2.jar ./
        cp /opt/software/hive-3.1.2/lib/hive-serde-3.1.2.jar ./
        cp /opt/software/hive-3.1.2/lib/hive-service-3.1.2.jar ./
        cp /opt/software/hive-3.1.2/lib/hive-service-rpc-3.1.2.jar ./
        cp /opt/software/hive-3.1.2/lib/libthrift-0.9.3.jar ./
        cp /opt/software/hive-3.1.2/lib/protobuf-java-2.5.0.jar ./

        #外部依赖
        wget https://www.rarlab.com/rar/rarlinux-x64-6.0.2.tar.gz
        tar -zxf rarlinux-x64-6.0.2.tar.gz -C /opt/software/
        ln -s /opt/software/rar/rar /usr/local/bin/rar
        ln -s /opt/software/rar/unrar /usr/local/bin/unrar

        cp /opt/download/zeppelin-0.10.0-dependencies.rar /opt/software/zeppelin-0.10.0/interpreter/jdbc
        cd /opt/software/zeppelin-0.10.0/interpreter/jdbc
        unrar x zeppelin-0.10.0-dependencies.rar
        mv zeppelin-0.10.0-dependencies/* ./
        -------------------------
        commons-lang-2.6.jar
        httpclient-4.5.jar
        httpcore-4.4.1.jar
        -------------------------

#启动zeppelin
    zeppelin-daemon.sh start
    #访问zeppelin
    http://single:8000

#web页面配置hive翻译器
    # 右上角anonymous => interpreter => 右上角 create => 
        Interpreter Name
            hive
        Interpreter group
            jdbc
    #=> 设置properties
        default.driver  org.apache.hive.jdbc.HiveDriver
        default.url     jdbc:hive2://single:10000
        default.user    root
    #=> 左下角 save
    #web界面 create note
    # 以%hive开启作为第一行
目录
相关文章
|
4天前
|
SQL 分布式计算 数据可视化
Apache Zeppelin系列教程第一篇——安装和使用
Apache Zeppelin系列教程第一篇——安装和使用
96 0
|
Unix Linux Apache
离线安装Superset 0.37(截图详细版)
上文提到了Superset 0.37的在线安装方式,只需要更新pip,然后pip install就可以了。但是在生产环境中,特别是内网环境中,很多时候是没有外网的,这时候就需要采取离线安装的方式。 本文将详细介绍在Linux系统中离线安装Superset的全过程,并整理了安装过程中遇到的错误。
849 0
离线安装Superset 0.37(截图详细版)
Zeppelin安装与配置
本文介绍zeppelin安装与配置指南
Zeppelin安装与配置
|
4天前
|
分布式计算 Hadoop 关系型数据库
Sqoop入门指南:安装和配置
Sqoop入门指南:安装和配置
|
分布式计算 Java 数据安全/隐私保护
Zeppelin_安装_配置| 学习笔记
快速学习 Zeppelin_安装_配置
454 0
Zeppelin_安装_配置| 学习笔记
|
分布式计算 资源调度 Hadoop
CDH 搭建_ Hadoop _安装包|学习笔记
快速学习 CDH 搭建_ Hadoop _安装包
200 0
CDH 搭建_ Hadoop _安装包|学习笔记
|
存储 SQL 分布式计算
Sqoop简介及安装部署
Apache Sqoop是专为Apache Hadoop和结构化数据存储如关系数据库之间的数据转换工具的有效工具。你可以使用Sqoop从外部结构化数据存储的数据导入到Hadoop分布式文件系统或相关系统如Hive和HBase。相反,Sqoop可以用来从Hadoop的数据提取和导出到外部结构化数据存储如关系数据库和企业数据仓库。 Sqoop专为大数据批量传输设计,能够分割数据集并创建Hadoop任务来处理每个区块。
189 0
|
分布式计算 数据可视化 数据挖掘
Windows下使用zeppelin、Dockers搭建Flink学习环境
Windows下使用zeppelin、Dockers搭建Flink学习环境
744 0
Windows下使用zeppelin、Dockers搭建Flink学习环境
|
关系型数据库 MySQL Linux
Superset 安装部署
Superset 1.jdk 2.mysql clickhouse pip install sqlalchemy-clickhouse iso8601/six/pytz/setuptools/urllib3/chardet/idna/certifi/iso8601/infi.
4827 0