开发者社区> xiaohei.info> 正文
阿里云
为了无法计算的价值
打开APP
阿里云APP内打开

sqoop操作与使用

简介: 版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/qq1010885678/article/details/44543931 sqoop只要安装到集群中的一台节点就可以了 1.
+关注继续查看
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/qq1010885678/article/details/44543931
sqoop只要安装到集群中的一台节点就可以了


1.上传sqoop到节点中


2.安装和配置
在添加sqoop到环境变量到/etc/profile中
将数据库连接驱动拷贝到$SQOOP_HOME/lib里
3.使用
第一类:数据库中的数据导入到HDFS上
sqoop import --connect jdbc:mysql://192.168.1.10:3306/dbTest --username root --password 123  --table trade_detail --columns 'id, account, income, expenses'

--username 数据库用户名

--password 密码

--table 要连接的数据表

--colunms 指定表中的列,要用引号


sqoop import --connect jdbc:mysql://192.168.1.10:3306/dbTest --username root --password 123  --table trade_detail --target-dir '/sqoop/td' --fields-terminated-by '\t'

--target-dir 指定输出路径

--fields-terminated-by 以指定的符号作为字段之间的分隔符


sqoop import --connect jdbc:mysql://192.168.1.10:3306/dbTest --username root --password 123  --table trade_detail --target-dir '/sqoop/td1' --fields-terminated-by '\t' -m 2

-m 2 指定启用几个map任务



sqoop import --connect jdbc:mysql://192.168.1.10:3306/dbTest --username root --password 123  --table trade_detail --where 'id>3' --target-dir '/sqoop/td2' 

--where 增加where条件, 注意:条件必须用引号引起来



sqoop import --connect jdbc:mysql://192.168.1.10:3306/dbTest --username root --password 123 \
--query 'SELECT * FROM trade_detail where id > 2 AND $CONDITIONS' --split-by trade_detail.id --target-dir '/sqoop/td3'

--query 增加sql语句(使用 \ 将语句换行)

注意:如果使用--query这个命令的时候,需要注意的是where后面的参数,AND $CONDITIONS这个参数必须加上
而且存在单引号与双引号的区别,如果--query后面使用的是双引号,那么需要在$CONDITIONS前加上\即\$CONDITIONS
如果设置map数量为1个时即-m 1,不用加上--split-by ${tablename.column},否则需要加上

第二类:将HDFS上的数据导出到数据库中(不要忘记指定分隔符)
sqoop export --connect jdbc:mysql://192.168.8.120:3306/dbTest --username root --password 123 --export-dir '/td3' --table td_bak -m 1 --fields-terminated-by ','

版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

相关文章
[Sqoop]Sqoop导入与导出
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/SunnyYoona/article/details/53151019 1.
1124 0
[Sqoop]Sqoop安装与部署
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/SunnyYoona/article/details/52757310 1.
1123 0
sqoop详解
版本 1.4.3 sqoop help 命令帮助 对应数据库的jdbc jar包复制到sqoop lib目录下 1.把数据从mysql导入hdfs(默认是/user/<username>中 sqoop import --connect  jdbc:mysql://localhost:3306/hive --username root --password root --tab
1820 0
+关注
文章
问答
文章排行榜
最热
最新
相关电子书
更多
spark替代HIVE实现ETL作业
立即下载
Experiences Migrating Hive Wor
立即下载
Experiences Migrating Hive Workload to SparkSQL
立即下载