Hadoop:
1.安装JDK 1.6以上
2.下载Hadoop包
3.添加环境变量:
- export JAVA_HOME=/usr/lib/jvm/java-7-sun export JRE_HOME=$JAVA_HOME/jre
- export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
- export HADOOP_PREFIX=/home/nachuang/Hadoop/hadoop-2.0.2-alpha
4.修改配置文件:
1).core-site.xml:
fs.default.name hdfs://localhost:9000 hadoop.tmp.dir /home/nachuang/Hadoop/hadoop-2.0.2-alpha/tmp
2).hdfs-site.xml:
dfs.name.dir /home/nachuang/Hadoop/hadoop-2.0.2-alpha/datalog1, - /home/nachuang/Hadoop/hadoop-2.0.2-alpha/datalog2
dfs.data.dir /home/nachuang/Hadoop/hadoop-2.0.2-alpha/data1, /home/nachuang/Hadoop/hadoop-2.0.2-alpha/data2 dfs.replication 1
Hive:
只需添加两个环境变量:
- export HADOOP_HOME=$HADOOP_PREFIX port HIVE_HOME=/home/nachuang/hive-0.10.0-bin
在hdfs 启动以后,启动hive 的cli 。
默认的配置使用的是derby数据库,
创建的表可以在hdfs上看到。
原文链接:http://blog.csdn.net/edwardvsnc/article/details/8551423



