(我这里是上传到了根目录下)
sudo -u hdfs hadoop fs -put test_emp.csv /user/home/
(注意test_emp.csv文件在哪个目录下就在哪执行这个操作)
关于执行hdfs命令的说明:
对CDH用户:假设系统有一个文件夹/user/directory,注意,这个文件夹的拥有者不是所谓的“root”。实际上,这个文件夹为“hdfs”所有(755权限,这里将hdfs理解为一个属于supergroup的用户)。所以,只有hdfs用户可以对文件夹进行写操作。与Unix/Linux不同,hdfs是超级使用者(superuser),而不是root。
这里,我们可以创建一个文件夹,更改其权限为root(或你的用户名)。所以,你可以向这个文件夹随意的存、改文件了。
sudo -u hdfs hadoop fs -chown root /user/intern/test67
hbase shell
create 'hbase-test01','info'
quit
hbase org.apache.hadoop.hbase.mapreduce.importTsv -Dimporttsv.separator="," -Dimporttsv.columns=Hbase_ROW_KEY,info:ENAME,info:JOB,info:MGR,info:HIREDATE,info:SAL,info:COMM,info:DEPTNO hbase-test01 /user/home/test_emp.csv
(注意:hbase会默认将第一列的内容即该csv文件中的EMPNO作为rowkey,所以你执行该命令时是不需要有“info:EMPNO”的,不然hbase中的数据是乱的)
6.查看hbase shell
scan 'hbase-test01'



