开发者社区> 哈沙给> 正文

sqoop导出到hdfs

简介: ./sqoop export --connect jdbc:mysql://192.168.58.180/db --username root --password 123456  --export-dir '/path' --table t_detail -m   用单引号  不保留原有的变量意思     否则如果原来有个变量叫path  那么就会引用path所知带的意思。
+关注继续查看

./sqoop export --connect jdbc:mysql://192.168.58.180/db --username root --password 123456  --export-dir '/path' --table t_detail -m

 

用单引号  不保留原有的变量意思     否则如果原来有个变量叫path  那么就会引用path所知带的意思。

 

虽然hdfs是只能写,但是可以每次/sqoop/f1 下次/sqoop/f2

 

版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

相关文章
四十、centos安装sqoop(使用Sqoop完成MySQL和HDFS之间的数据互导)
四十、centos安装sqoop(使用Sqoop完成MySQL和HDFS之间的数据互导)
150 0
通过Sqoop实现Mysql / Oracle 与HDFS / Hbase互导数据
下文将重点说明通过Sqoop实现Mysql与HDFS互导数据,Mysql与Hbase,Oracle与Hbase的互导最后给出命令。 一、Mysql与HDFS互导数据 环境: 宿主机器操作系统为Win7,Mysql安装在宿主机上,宿主机地址为192.168.66.96 3台虚拟机操作系统为Ubuntu-12.04.1-32位 三台虚拟机已成功安装hadoop,并实现免密钥互访,配hosts为: 192.168.66.91 masternode 192.168.66.92 slavenode1 192.168.66.93 slavenode2 /etc/profile已配置好必备环境变量HADOO
170 0
利用Sqoop实现MySQL与HDFS数据互导
利用Sqoop将MySQL中的数据表导入到hdfs端:(表格的主键要存在) 首先在MySQL的test数据库中有如下表格person: 在终端输入以下命令即可实现将person表导入到hdfs端: sqoop impo...
1271 0
Sqoop导入到hdfs
 1.注意win下直接复制进linux 改一下--等 sqoop-list-databases --connect jdbc:mysql://122.206.79.212:3306/ --username root -P     先看一下有什么数据库,发现有些数据库,能查询到的数据库才能导入,很奇怪。
1358 0
+关注
哈沙给
渣渣一枚
文章
问答
视频
文章排行榜
最热
最新
相关电子书
更多
海量数据分布式存储——Apache HDFS之最新进展
立即下载
HDFS optimization for Hbase At XiaoMi
立即下载
HDFS optimization for HBase at XiaoMi
立即下载