最近再学习spark streaming做实时计算这方面内容,过程中需要从后台数据库导出数据到hdfs中,经过调研发现需要使用sqoop进行操作,本次操作环境是Linux下。
首先确保环境安装了Hadoop和sqoop,安装只需要下载 ,解压 以及配置环境变量,这里不多说了,网上教程很多。
一、配置sqoop以及验证是否成功
切换到配置文件下:cd $SQOOP_HOME/conf
创建配置环境文件: cp sqoop-env-template.sh sqoop-env.sh
修改配置文件:conf/vi sqoop-env.sh:修改内容如下
配置完成后,执行命令sqoop-version ,检查是否成功,如图显示sqoop 1.4.7即成功。
二、添加postgresql驱动jar包
因为这里使用sqoop读取postgresql的数据,所以需要将数据库驱动包放到$SQOOP_HOME/lib 下即可 。
三、导入pg数据库中表到hdfs中
1、首先要启动Hadoop集群,不然会报错
执行语句 $HADOOP_HOME/sbin/./start-all.sh
2、执行sqoop语句进行数据导入到hdfs
sqoop import --connect jdbc:postgresql:localhost:5432/test(数据库的名称) --username postgres (填自己的数据库用户名) --password 888888 (填自己数据库的密码) --table company (自己创建表的名称) --m 1 (mapreduce的个数)
执行结果如图:
3、检查hdfs上是否成功存储到表数据
$HADOOP_HOME/bin hdfs dfs -cat /sqoop/part-m-00000(数据目录改成自己的)
结果如图所示:
显示使用sqoop 将 postgreql上的表格数据成功导入到hdfs中,这算今天也有点收获了!
补充:利用Sqoop从PostgreSQL导入数据时遇到的坑
sqoop import --connect "jdbc:postgresql://10.101.70.169:5432/db_name" --username "postgres" --password "123456" --table "test_user"--target-dir "/user/hive/warehouse/test.db/test_user" --fields-terminated-by '\t' --lines-terminated-by '\n' --hive-drop-import-delims --incremental lastmodified --merge-key id --check-column update_time --last-value "2019-03-25" --m 1 -- --schema "schema_name" --null-string '\\N' --null-non-string '\\N'
1、-- --schema
一定要放在后面,否则可能导致无运行日志或无法导入数据到指定目录且无法重新执行(报目录已存在)
2、PostgreSQL
须设置SET standard_conforming_strings = on;
,否则--null-string和--null-non-string
不起作用;
3、--null-string
和--null-non-string
放在-- --schema
后面,否则执行时报Can't parse input data: '\N'
以上为个人经验,希望能给大家一个参考,也希望大家多多支持。如有错误或未考虑完全的地方,望不吝赐教。