標籤:環境搭建 hdf 檔案 常用 play other base tar.gz $path
放假閑來無事,就自己搭建了一套環境,包含:工具:ssh,vim 環境:Jdk,Hadoop 在此記錄,下次使用1.工具類
ssh和vim兩個常用的工具就是兩條命令:
vim命令:sudo apt-get install vim-gtk
ssh命令:sudo apt-get install openssh-server
2.環境2.1 Jdk安裝
Jdk安裝只需要解壓後就能使用(.tar.gz),但是需要在/etc/profile檔案中插入如下代碼:
1 export JAVA_HOME=/opt/java/JDK2 export JRE_HOME=${JAVA_HOME}/jre3 export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib4 export HADOOP_HOME=/opt/java/hadoop5 export PATH=.:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH
代碼2.2 Hadoop安裝
Hadoop安裝只需要解壓後就能使用(.tar.gz)
切換到${HADOOP_HOME}/etc/hadoop/檔案夾中
1.修改core-site.xml檔案
1 <configuration> 2 <property> 3 <name>hadoop.tmp.dir</name> 4 <value>file:/opt/java/hadoop/tmp</value> 5 <description>Abase for other temporary directories.</description> 6 </property> 7 <property> 8 <name>fs.defaultFS</name> 9 <value>hdfs://localhost:9000</value>10 </property>11 </configuration>
代碼
2.修改hdfs-site.xml檔案
1 <configuration> 2 <property> 3 <name>dfs.replication</name> 4 <value>1</value> 5 </property> 6 <property> 7 <name>dfs.namenode.name.dir</name> 8 <value>file:/opt/java/hadoop/tmp/dfs/name</value> 9 </property>10 <property>11 <name>dfs.datanode.data.dir</name>12 <value>file:/opt/java/hadoop/tmp/dfs/data</value>13 </property>14 </configuration>
代碼
3.格式化系統:
./bin/hdfs namenode -format
4.啟動,停止服務代碼:
./sbin/start-dfs.sh
./sbin/stop-dfs.sh
5.jps 校正服務是否啟動
環境搭建:JDK--SSH--VIM--Hadoop--SybaseIQ