运行官方Hbase-MapReduce
文章目录1)前期环境配置2)案例一:统计stu表中有多少行数据3)案例二:使用MapReduce将本地数据导入到Hbase
1)前期环境配置在etc/profile配置
export Hbase_HOME=/opt/module/hbase-1.3.1 export PATH=$PATH:$Hbase_HOME/lib/*
在将分发给其他集群
2)案例一:统计stu表中有多少行数据/opt/module/hadoop-3.1.3/bin/yarn jar lib/hbase-server-1.3.1.jar rowcounter stu3)案例二:使用MapReduce将本地数据导入到Hbase
(1)在本地创建一个tsv格式的文件:fruit.tsv
1001 Apple Red 1002 Pear Yellow 1003 Pineapple Yellow
(2)将fruit.tsv上传到HDFS上
hadoop fs -put fruit.tsv /
(3)创建Hbase表
create 'fruit','info'
(4)执行MapReduce到Hbase的fruit表中
/opt/module/hadoop-3.1.3/bin/yarn jar lib/hbase-server-1.3.1.jar importtsv -Dimporttsv.columns=Hbase_ROW_KEY,info:name,info:color fruit hdfs://hadoop102:8020/fruit.tsv
(5)结果如下:



