Sqoop 常用命令大全

测试数据库连接

bin/sqoop list-databases  --connect jdbc:mysql://hadoop-04:3306/userdb  --username root  --password 123456
sqoop create-hive-table --connect jdbc:mysql://hadoop-04:3306/userdb   --table uv_info --username root --password secret_password --hive-table origin_ennenergy_transport.uv_info
sqoop import --connect jdbc:mysql://iphadoop-04:3306/application  --username root --password secret_password  --table uv_info  --hive-import   --hive-table origin_ennenergy_transport.uv_info  -m 1 --fields-terminated-by "\001";
bin/sqoop import \
--connect\
jdbc:MySQL://hadoop-04:3306/test\
--usernameroot \
--password123456 \
--tablemy_user \
--hbase-create-table\
--hbase-table test \
--hbase-row-key id \
--column-family info \
-m1
注意:sqoop目前支持的hbase版本 Hbase <= 0.95.2 ,高版本hbase环境下会报错

导入mysql数据到hbase

bin/sqoop import \
--connect jdbc:mysql://hdaoop-04:3306/userdb \
--table emp \
--username root \
--password root \
--hbase-create-table  \
--hbase-table t_emp \
--hbase-row-key id \
--column-family info \
--m 1
1)列出mysql数据库中的所有数据库
sqoop list-databases –connect jdbc:mysql://hadoop-04:3306/ –username root –password 123456
2) 连接mysql并列出test数据库中的表
sqoop list-tables –-connect jdbc:mysql://hadoop-04:3306/test –-username root –-password 123456

命令中的test为mysql数据库中的test数据库名称 username password分别为mysql数据库的用户密码

3) 将关系型数据的表结构复制到hive中,只是复制表的结构,表中的内容没有复制过去。
sqoop create-hive-table –-connect jdbc:mysql://hadoop-04:3306/test
–-table sqoop_test –-username root –-password 123456 –-hive-table test

其中 –table sqoop_test为mysql中的数据库test中的表 –hive-table
test 为hive中新建的表名称

4) 从关系数据库导入文件到hive中
bin/sqoop import \
--connect jdbc:mysql://hadoop-04:3306/userdb \
--username  root \
--password  123456 \
--hive-import
--table emp \
--split-by id \
--m 2
5) 将hive中的表数据导入到mysql中,在进行导入之前,mysql中的表emp必须已经提起创建好了。(sqoop不能直接到处hive表 只能先mysql create表结构 然后通过hdfs文件导出数据)
bin/sqoop export \
--connect jdbc:mysql://hadoop-04:3306/userdb \
--username root \
--password 123456 \
--table emp \
--export-dir /sqooptest
6)从数据库导出表的数据到HDFS上文件
bin/sqoop import \
--connect jdbc:mysql://hadoop-04:3306/userdb \
--username  root \
--password  123456 \
--target-dir  /sqooptest \
--table emp \
--split-by id \
--m 2
7)从数据库增量导入表数据到hdfs中
./sqoop import –connect jdbc:mysql://hadoop-04:3306/compression
–username=hadoop –password=123456 –table HADOOP_USER_INFO -m 1
–target-dir /user/test  –check-column id –incremental append
–last-value 3
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

静谧之心

感谢您的鼓励!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值