四十、centos安装sqoop(使用Sqoop完成MySQL和HDFS之间的数据互导)

本文涉及的产品
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
RDS MySQL Serverless 高可用系列,价值2615元额度,1个月
简介: 四十、centos安装sqoop(使用Sqoop完成MySQL和HDFS之间的数据互导)

环境准备:


centos 7


centos 可以上网


hadoop,Hbase,Hive,Zookeeper正常运行


环境搭建:


版本:


sqoop1.4.7-hadoop2.6.0


一、Sqoop安装

   

1、直接在虚拟机浏览器下载sqoop1.4.7


https://archive.apache.org/dist/sqoop/1.4.7/sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz

https://archive.apache.org/dist/sqoop/1.4.7/sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz

46.png

47.png



       2、解压安装包


48.png


       3、重命名为Sqoop


mv sqoop-1.4.7.bin__hadoop-2.6.0 sqoop

49.png


       4、配置sqoop-env.sh


               (1)复制配置文件并重命名为sqoop-env.sh


cat sqoop-env-template.sh >> sqoop-env.sh

50.png

                 (2)修改配置文件


       编辑sqoop-env.sh文件,分别将Hadoop、HBase、Hive、ZooKeeper的安装目录添加到文件中。


51.png

52.png


       5、配置环境变量


vim /etc/profile

53.png


       使环境变量立即生效:


source /etc/profile

       6、配置MySQL连接


               (1)添加MySQL的JAR包到Sqoop安装目录中。


54.png


                (2)测试Sqoop与MySQL之间的连接


                        A、启动MySQL服务:


55.png


                        B、测试Sqoop与MySQL之间的连接是否成功:


sqoop list-databases --connect jdbc:mysql://localhost:3306 --username root -password dang

56.png


        注:如果可以看到MySQL数据库中的数据库列表,则表示Sqoop安装成功


centos安装Sqoop完成


Sqoop的使用:


二、使用Sqoop完成MySQL和HDFS之间的数据互导

     

1、上传准备好的测试数据到MySQL中


               (1)登录MySQL:


57.png


              (2)创建测试数据库


58.png


               (3)创建表test1,用于存放本地测试数据


create table test1(
     ip varchar(100) not null,
     time varchar(100) not null,
     url varchar(100) not null);

59.png


               (4)新建测试数据文件


60.png


               写入:


61.png


        注意:此 txt 文件字段之间需要用Tab键隔开,空格是不可行的,遇到datatime日期的,年月日,时分秒之间需用空格隔开,不需要添加引号


                (5)将本地的测试数据上传到test1表中


load data local infile "/opt/linshi/test.txt" into table test1(ip,time,url);


62.png

           


               (6)上传完成后,查看test1表中的数据:  


select * from test1;

select * from test1;


63.png

       2、上传数据到HDFS中


       (1)启动hadoop集群                


64.png


       (2)将test1中的数据上传到HDFS中:


./sqoop import --connect jdbc:mysql://localhost:3306/test --username root --password dang --table test1 -m 1

       (3)查看导入的数据


hdfs dfs -cat /user/root/test1/part-m-00000

65.png


       (4)登录HDFS网页查看


       HDFS的web端:localhost:50070


66.png



        (5)将HDFS数据导入MySQL中


       注:在导出前需要先创建导出表的结构,如果导出的表在数据表中不存在,则系统会报错;若重复导出数据,则表中的数据会重复


                A、 在test数据库中创建表test2,可以直接复制表test1的结构:


create table test2 as select * from test1 where 1=2;

67.png


               B、查看表test1,表test2:


68.png


               C、使用sqoop将HDFS中的数据导入MySQL的test2中:


sqoop export --connect jdbc:mysql://192.168.231.105:3306/test --username root --password dang --table test2 --export-dir /user/root/test1/part-m-00000 -m 1

69.png


        注:localhost最好写成本机地址,之前写的localhost报错了


       (6)再次查看test2表:


70.png



       HDFS的数据成功导入test2


一条华丽的分割线


centos安装sqoop(使用Sqoop完成MySQL和HDFS之间的数据互导)案例完成


其他环境搭建参见:


Hadoop伪分布式的搭建详情

https://blog.csdn.net/m0_54925305/article/details/118650350?spm=1001.2014.3001.5502


Hadoop完全分布式的搭建详情

https://blog.csdn.net/m0_54925305/article/details/118851554?spm=1001.2014.3001.5502


Zookeeper集群的搭建(单机、伪分布式、集群)

https://blog.csdn.net/m0_54925305/article/details/119059186?spm=1001.2014.3001.5502


Spark的安装与部署详情(Local模式,Standalone模式,Spank on YARN模式)

https://blog.csdn.net/m0_54925305/article/details/119005751?spm=1001.2014.3001.5502


HadoopHA环境搭建(保姆篇,手把手搭建)

https://blog.csdn.net/m0_54925305/article/details/119838463?spm=1001.2014.3001.5502


hbase集群的搭建(HBase Shell)

https://blog.csdn.net/m0_54925305/article/details/120787788?spm=1001.2014.3001.5502


Centos安装mysql(rpm终结版)

https://blog.csdn.net/m0_54925305/article/details/120476116?spm=1001.2014.3001.5502


centos安装hive3.1.2(精讲篇)

https://blog.csdn.net/m0_54925305/article/details/120554242?spm=1001.2014.3001.5502


Centos安装yum,wegt(完全配置篇)

https://blog.csdn.net/m0_54925305/article/details/120467143?spm=1001.2014.3001.5502


相关实践学习
如何快速连接云数据库RDS MySQL
本场景介绍如何通过阿里云数据管理服务DMS快速连接云数据库RDS MySQL,然后进行数据表的CRUD操作。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助     相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
相关文章
|
18天前
|
存储 关系型数据库 MySQL
mysql怎么查询longblob类型数据的大小
通过本文的介绍,希望您能深入理解如何查询MySQL中 `LONG BLOB`类型数据的大小,并结合优化技术提升查询性能,以满足实际业务需求。
71 6
|
2月前
|
存储 Oracle 关系型数据库
【赵渝强老师】MySQL InnoDB的数据文件与重做日志文件
本文介绍了MySQL InnoDB存储引擎中的数据文件和重做日志文件。数据文件包括`.ibd`和`ibdata`文件,用于存放InnoDB数据和索引。重做日志文件(redo log)确保数据的可靠性和事务的持久性,其大小和路径可由相关参数配置。文章还提供了视频讲解和示例代码。
154 11
【赵渝强老师】MySQL InnoDB的数据文件与重做日志文件
|
30天前
|
SQL 关系型数据库 MySQL
mysql分页读取数据重复问题
在服务端开发中,与MySQL数据库进行数据交互时,常因数据量大、网络延迟等因素需分页读取数据。文章介绍了使用`limit`和`offset`参数实现分页的方法,并针对分页过程中可能出现的数据重复问题进行了详细分析,提出了利用时间戳或确保排序规则绝对性等解决方案。
|
2月前
|
关系型数据库 MySQL 数据库
GBase 数据库如何像MYSQL一样存放多行数据
GBase 数据库如何像MYSQL一样存放多行数据
|
2月前
|
缓存 NoSQL 关系型数据库
Redis和Mysql如何保证数据⼀致?
在项目中,为了解决Redis与Mysql的数据一致性问题,我们采用了多种策略:对于低一致性要求的数据,不做特别处理;时效性数据通过设置缓存过期时间来减少不一致风险;高一致性但时效性要求不高的数据,利用MQ异步同步确保最终一致性;而对一致性和时效性都有高要求的数据,则采用分布式事务(如Seata TCC模式)来保障。
73 14
|
2月前
|
SQL 存储 Linux
从配置源到数据库初始化一步步教你在CentOS 7.9上安装SQL Server 2019
【11月更文挑战第16天】本文介绍了在 CentOS 7.9 上安装 SQL Server 2019 的详细步骤,包括配置系统源、安装 SQL Server 2019 软件包以及数据库初始化,确保 SQL Server 正常运行。
|
2月前
|
SQL 存储 Linux
从配置源到数据库初始化一步步教你在CentOS 7.9上安装SQL Server 2019
【11月更文挑战第8天】本文介绍了在 CentOS 7.9 上安装 SQL Server 2019 的详细步骤,包括系统准备、配置安装源、安装 SQL Server 软件包、运行安装程序、初始化数据库以及配置远程连接。通过这些步骤,您可以顺利地在 CentOS 系统上部署和使用 SQL Server 2019。
|
2月前
|
存储 安全 Linux
VMware安装CentOS7
【11月更文挑战第11天】本文详细介绍了在 VMware 中安装 CentOS 7 的步骤,包括准备工作、创建虚拟机、配置虚拟机硬件和安装 CentOS 7。具体步骤涵盖下载 CentOS 7 镜像文件、安装 VMware 软件、创建和配置虚拟机硬件、启动虚拟机并进行安装设置,最终完成 CentOS 7 的安装。在安装过程中,需注意合理设置磁盘分区、软件选择和网络配置,以确保系统的性能和功能满足需求。
246 0
|
3月前
|
分布式计算 Kubernetes Hadoop
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
201 6
|
3月前
|
SQL 分布式计算 监控
Hadoop-20 Flume 采集数据双写至本地+HDFS中 监控目录变化 3个Agent MemoryChannel Source对比
Hadoop-20 Flume 采集数据双写至本地+HDFS中 监控目录变化 3个Agent MemoryChannel Source对比
73 3