CentOS 下 Hadoop 環境搭建--Hadoop
---恢復內容開始---
①解壓Hadoop到自定目錄下面(這裏解壓到/opt/hadoop目錄下)
tar -zxvf hadoop-2.5.0.tar.gz -C /opt/hadoop
②清理Hadoop目錄,刪除/opt/hadoop/hadoop-2.5.0/share/doc 文件
rm -rf /opt/hadoop/hadoop-2.5.0/share/doc
③修改文件,指定java安裝目錄
修改/hadoop-2.5.0/etc/hadoop/hadoop-env.sh文件
export JAVA_HOME=/opt/hadoop/jdk1.7.0_67
修改/hadoop-2.5.0/etc/hadoop/mapred-env.sh文件
export JAVA_HOME=/opt/hadoop/jdk1.7.0_67
修改/hadoop-2.5.0/etc/hadoop/yarn-env.sh文件
export JAVA_HOME=/opt/hadoop/jdk1.7.0_67
④測試
輸入 bin/hadoop version 進行測試
⑤修改/hadoop-2.5.0/etc/hadoop/core-site.xml文件
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://MyComputer:8020</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/opt/hadoop/hadoop-2.5.0/data/tmp</value> <description>A base for other temporary directories.</description> </property> </configuration>
修改/hadoop-2.5.0/etc/hadoop/hdfs-site.xml文件
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration>
修改/hadoop-2.5.0/etc/hadoop/slaves 文件
指定從節點的機器位置,添加主機名即可
⑥格式化namenode
bin/hdfs namenode -format
格式化成功
⑦啟動namenode 和datanode 兩個服務
sbin/hadoop-daemon.sh start namenode
sbin/hadoop-daemon.sh start datanode
查看服務是否啟動成功
jps
⑧查看HDFS外部界面
IP地址:50070 或者 主機名:50070
⑨測試HDFS環境:
創建文件夾:bin/hdfs dfs -mkdir -p haoxin/input
上傳文件到HDFS:bin/hdfs dfs -put etc/hadoop/core-site.xml /
讀取文件內容:bin/hdfs dfs -text /core-site.xml
下載到本地:bin/hdfs dfs -get /core-site.xml /home/haoxin/Music/get-sit.xml
⑩修改/hadoop-2.5.0/etc/hadoop/mapred-site.xml文件
<property> <name>mapreduce.framework.name</name> <value>yarn</value> </property>
修改/hadoop-2.5.0/etc/hadoop/yan-site.xml文件
<property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <description>The hostname of the RM.</description> <name>yarn.resourcemanager.hostname</name> <value>MyComputer</value> </property>
啟動yarn 的兩個resourcemanager 和 nodemanager 這兩個服務
sbin/yarn-daemon.sh start resourcemanager
sbin/yarn-daemon.sh start nodemanager
查看yarn的外部界面
IP地址:8088 或者 主機名:8088
測試環境,運行mapreduce, wordcount 單詞統計案例
新建數據文件並寫入內容,用於測試 /opt/datas/file_text.txt
數據上傳到HDFS bin/hdfs dfs -put /opt/datas/file_text.txt /user/haoxin/haoxin/input
運行:bin/yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar wordcount
/user/haoxin/haoxin/input /user/haoxin/haoxin/output
---恢復內容結束---
CentOS 下 Hadoop 環境搭建--Hadoop