kettle_Hbase
☀Hbase学习笔记
读取hdfs文件并将sal大于1000的数据保存到hbase中
前置说明:
1.需要配置HadoopConnect 将集群中的/usr/local/soft/hbase-1.4.6/conf/hbase-site.xml复制至Kettle中的
Kettle\pdi-ce-8.2.0.0-342\data-integration\plugins\pentaho-big-data-plugin\hadoop-configurations\hdp26目录中
2.配置Hadoop Cluster 中Zookeeper的Hostname为master,port为2181
1、在HBase中创建一张people表
hbase(main):004:0> create 'people','info'
2、按下图建立流程图

-  文本文件输入 


-  设置过滤记录 

-  设置HBase output 编辑hadoop连接,并配置zookeeper地址 


-  执行转换 

-  查看hbase people表的数据 scan 'people' 注意:若报错没有权限往hdfs写文件,在Spoon.bat中第119行添加参数 "-DHADOOP_USER_NAME=root" "-Dfile.encoding=UTF-8"