| | 1 | {{{ |
| | 2 | #!html |
| | 3 | <div style="text-align: center;"><big |
| | 4 | style="font-weight: bold;"><big><big>實作五: Hadoop 叢集安裝</big></big></big><br/><big>Lab 5 : Hadoop Installation: Fully Distributed Mode<big></big></big></div> |
| | 5 | }}} |
| | 6 | [[PageOutline]] |
| | 7 | |
| | 8 | == 前言 == |
| | 9 | |
| | 10 | * 您手邊有兩台電腦,假設剛剛操作的電腦為"主機一" ,另一台則為"主機二" 。則稍後的環境如下 |
| | 11 | |
| | 12 | || || '''管理Data的身份''' || '''管理Job的身份''' || |
| | 13 | || '''"主機一" ''' || namenode + datanode || jobtracker + tasktracker|| |
| | 14 | || '''"主機二" ''' || datanode|| tasktracker || |
| | 15 | |
| | 16 | * 這個實做會架設運作在叢集環境上的Hadoop,因此若是你的電腦還存在著之前的實做一的環境,請先作step 0,以移除掉之前的設定。 |
| | 17 | |
| | 18 | * 確認您"主機一"的 hostname 與 "主機二" 的 hostname,並將下面指令有 主機一與主機二 的地方作正確的取代 |
| | 19 | |
| | 20 | * 維持好習慣,請幫你待會要操作的主機設root密碼 |
| | 21 | {{{ |
| | 22 | ~$ sudo passwd |
| | 23 | }}} |
| | 24 | |
| | 25 | === 清除所有在實做一作過的環境 === |
| | 26 | |
| | 27 | * 在 "主機一" (有操作過 實做一 的電腦)上操作 |
| | 28 | {{{ |
| | 29 | ~$ cd ~ |
| | 30 | ~$ /opt/hadoop/bin/stop-all.sh |
| | 31 | ~$ rm -rf /var/hadoop |
| | 32 | ~$ sudo rm -rf /opt/hadoop |
| | 33 | ~$ rm -rf ~/.ssh |
| | 34 | }}} |
| | 35 | == step 0. 設定機器的ip & hostname 資訊 == |
| | 36 | |
| | 37 | |
| | 38 | |
| | 39 | == step 1. 設定兩台機器登入免密碼 == |
| | 40 | |
| | 41 | * 請注意我們實驗環境已經把 /etc/ssh/ssh_config裡的StrictHostKeyChecking改成no,下面的指令可以檢查,如果你的設定不同的話,請修改此檔會比較順。 |
| | 42 | {{{ |
| | 43 | $ cat /etc/ssh/ssh_config |grep StrictHostKeyChecking |
| | 44 | StrictHostKeyChecking no |
| | 45 | }}} |
| | 46 | |
| | 47 | * 在"主機一" 上操作 |
| | 48 | * 接著將key產生並複製到其他node上 |
| | 49 | {{{ |
| | 50 | ~$ ssh-keygen -t rsa -f ~/.ssh/id_rsa -P "" |
| | 51 | ~$ cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys |
| | 52 | ~$ scp -r ~/.ssh 主機二:~/ |
| | 53 | }}} |
| | 54 | * 測試看看是否登入免密碼 |
| | 55 | {{{ |
| | 56 | ~$ ssh 主機二 |
| | 57 | ~$ ssh 主機一 |
| | 58 | ~$ exit |
| | 59 | ~$ exit |
| | 60 | ~$ |
| | 61 | }}} |
| | 62 | |
| | 63 | * 完成後請登入確認不用輸入密碼,(第一次登入需按 yes ,第二次就可以直接登入到系統),以免日後輸入密碼不隻手軟而已.... |
| | 64 | |
| | 65 | == step 2. 安裝java == |
| | 66 | |
| | 67 | * 為兩台電腦安裝java |
| | 68 | * "主機一" & "主機二" 都要操作以下指令 |
| | 69 | {{{ |
| | 70 | ~$ sudo apt-get purge java-gcj-compat |
| | 71 | ~$ sudo apt-get install sun-java6-bin sun-java6-jdk sun-java6-jre |
| | 72 | ~$ ssh 主機二 |
| | 73 | ~$ sudo apt-get purge java-gcj-compat |
| | 74 | ~$ sudo apt-get install sun-java6-bin sun-java6-jdk sun-java6-jre |
| | 75 | ~$ exit |
| | 76 | }}} |
| | 77 | |
| | 78 | |
| | 79 | == step 3. 下載安裝Hadoop到"主機一" == |
| | 80 | |
| | 81 | * 先在"主機一" 上安裝,其他node的安裝等設定好之後在一起作 |
| | 82 | |
| | 83 | {{{ |
| | 84 | ~$ cd /opt |
| | 85 | /opt$ sudo wget http://ftp.twaren.net/Unix/Web/apache/hadoop/core/hadoop-0.20.2/hadoop-0.20.2.tar.gz |
| | 86 | /opt$ sudo tar zxvf hadoop-0.20.2.tar.gz |
| | 87 | /opt$ sudo mv hadoop-0.20.2/ hadoop |
| | 88 | /opt$ sudo chown -R hadooper:hadooper hadoop |
| | 89 | /opt$ sudo mkdir /var/hadoop |
| | 90 | /opt$ sudo chown -R hadooper:hadooper /var/hadoop |
| | 91 | }}} |
| | 92 | |
| | 93 | == step 4. 設定 hadoop-env.sh == |
| | 94 | |
| | 95 | * "主機一" 上用gedit 編輯 conf/hadoop-env.sh |
| | 96 | |
| | 97 | {{{ |
| | 98 | /opt$ cd hadoop/ |
| | 99 | /opt/hadoop$ gedit conf/hadoop-env.sh |
| | 100 | }}} |
| | 101 | |
| | 102 | 將以下資訊貼入 conf/hadoop-env.sh 檔內 |
| | 103 | |
| | 104 | {{{ |
| | 105 | #!sh |
| | 106 | export JAVA_HOME=/usr/lib/jvm/java-6-sun |
| | 107 | export HADOOP_HOME=/opt/hadoop |
| | 108 | export HADOOP_CONF_DIR=/opt/hadoop/conf |
| | 109 | export HADOOP_LOG_DIR=/tmp/hadoop/logs |
| | 110 | export HADOOP_PID_DIR=/tmp/hadoop/pids |
| | 111 | }}} |
| | 112 | * 注意,在此實做中,我們多設定了HADOOP_PID_DIR及HADOOP_LOG_DIR的參數,並且把值寫入到我們hadooper的家目錄中,此舉並非完全必要,但一個目的是介紹更多hadoop-env.sh內的參數,另一目的為讓log,pid等常變資料與hadoop家目錄分離 |
| | 113 | |
| | 114 | == step 5. 設定 hadoop-site.xml == |
| | 115 | |
| | 116 | * 第二個設定檔是 '''hadoop-site.xml''',由於官方所提供的範例並無法直接執行,因此我們參考[http://hadoop.apache.org/core/docs/r0.20.2/quickstart.html 線上文件],做了以下的修改。 |
| | 117 | |
| | 118 | {{{ |
| | 119 | /opt/hadoop# gedit conf/core-site.xml |
| | 120 | }}} |
| | 121 | |
| | 122 | 將以下資料取代掉原本的內容 |
| | 123 | |
| | 124 | {{{ |
| | 125 | #!sh |
| | 126 | <configuration> |
| | 127 | <property> |
| | 128 | <name>fs.default.name</name> |
| | 129 | <value>hdfs://主機一:9000</value> |
| | 130 | </property> |
| | 131 | <property> |
| | 132 | <name>hadoop.tmp.dir</name> |
| | 133 | <value>/var/hadoop/hadoop-${user.name}</value> |
| | 134 | </property> |
| | 135 | </configuration> |
| | 136 | |
| | 137 | }}} |
| | 138 | |
| | 139 | {{{ |
| | 140 | /opt/hadoop# gedit conf/hdfs-site.xml |
| | 141 | }}} |
| | 142 | |
| | 143 | 將以下資料取代掉原本的內容 |
| | 144 | |
| | 145 | {{{ |
| | 146 | #!sh |
| | 147 | <configuration> |
| | 148 | <property> |
| | 149 | <name>dfs.replication</name> |
| | 150 | <value>2</value> |
| | 151 | </property> |
| | 152 | </configuration> |
| | 153 | |
| | 154 | }}} |
| | 155 | |
| | 156 | {{{ |
| | 157 | /opt/hadoop# gedit conf/mapred-site.xml |
| | 158 | }}} |
| | 159 | |
| | 160 | 將以下資料取代掉原本的內容 |
| | 161 | |
| | 162 | {{{ |
| | 163 | #!sh |
| | 164 | <configuration> |
| | 165 | <property> |
| | 166 | <name>mapred.job.tracker</name> |
| | 167 | <value>主機一:9001</value> |
| | 168 | </property> |
| | 169 | </configuration> |
| | 170 | |
| | 171 | }}} |
| | 172 | |
| | 173 | * 注意!fs.default.name = hdfs://主機一:9000/ ;而mapred.job.tracker = 主機一:9001,看出差異了嗎!一個有指hdfs://,一個沒有,重要!易混淆。 |
| | 174 | |
| | 175 | == step 6. 設定masters及slaves == |
| | 176 | |
| | 177 | * 接著我們要編輯哪個主機當namenode, 若有其他主機則為datanodes |
| | 178 | * 編輯 conf/slaves |
| | 179 | {{{ |
| | 180 | /opt/hadoop$ gedit conf/slaves |
| | 181 | }}} |
| | 182 | 原本內容只有localhost一行,請刪除此行並換上"主機一" 及"主機二" 的ip |
| | 183 | {{{ |
| | 184 | #!sh |
| | 185 | 主機一 |
| | 186 | 主機二 |
| | 187 | }}} |
| | 188 | |
| | 189 | == step 7. Hadoop_Home內的資料複製到其他主機上 == |
| | 190 | |
| | 191 | * 在"主機一" 上對遠端"主機二" 作開資料夾/opt/hadoop及權限設定 |
| | 192 | {{{ |
| | 193 | /opt/hadoop$ ssh 主機二 "sudo mkdir /opt/hadoop" |
| | 194 | /opt/hadoop$ ssh 主機二 "sudo chown -R hadooper:hadooper /opt/hadoop" |
| | 195 | /opt/hadoop$ ssh 主機二 "sudo mkdir /var/hadoop" |
| | 196 | /opt/hadoop$ ssh 主機二 "sudo chown -R hadooper:hadooper /var/hadoop" |
| | 197 | }}} |
| | 198 | |
| | 199 | * 複製"主機一" 的hadoop資料夾到"主機二" 上 |
| | 200 | {{{ |
| | 201 | /opt/hadoop$ scp -r /opt/hadoop/* 主機二:/opt/hadoop/ |
| | 202 | }}} |
| | 203 | |
| | 204 | == step 8. 格式化HDFS == |
| | 205 | |
| | 206 | |
| | 207 | * 以上我們已經安裝及設定好 Hadoop 的叢集環境,接著讓我們來啟動 Hadoop ,首先還是先格式化hdfs,在"主機一" 上操作 |
| | 208 | |
| | 209 | {{{ |
| | 210 | /opt/hadoop$ bin/hadoop namenode -format |
| | 211 | }}} |
| | 212 | |
| | 213 | 執行畫面如: |
| | 214 | {{{ |
| | 215 | 09/03/23 20:19:47 INFO dfs.NameNode: STARTUP_MSG: |
| | 216 | /************************************************************ |
| | 217 | STARTUP_MSG: Starting NameNode |
| | 218 | STARTUP_MSG: host = 主機一 |
| | 219 | STARTUP_MSG: args = [-format] |
| | 220 | |
| | 221 | |
| | 222 | STARTUP_MSG: version = 0.20.2 |
| | 223 | STARTUP_MSG: build = https://svn.apache.org/repos/asf/hadoop/core/branches/branch-0.18 -r 736250; compiled by 'ndaley' on Thu Jan 22 23:12:08 UTC 2009 |
| | 224 | ************************************************************/ |
| | 225 | 09/03/23 20:19:47 INFO fs.FSNamesystem: fsOwner=hadooper,hadooper |
| | 226 | 09/03/23 20:19:47 INFO fs.FSNamesystem: supergroup=supergroup |
| | 227 | 09/03/23 20:19:47 INFO fs.FSNamesystem: isPermissionEnabled=true |
| | 228 | 09/03/23 20:19:47 INFO dfs.Storage: Image file of size 82 saved in 0 seconds. |
| | 229 | 09/03/23 20:19:47 INFO dfs.Storage: Storage directory /tmp/hadoop/hadoop-hadooper/dfs/name has been successfully formatted. |
| | 230 | 09/03/23 20:19:47 INFO dfs.NameNode: SHUTDOWN_MSG: |
| | 231 | /************************************************************ |
| | 232 | SHUTDOWN_MSG: Shutting down NameNode at 主機一 |
| | 233 | ************************************************************/ |
| | 234 | }}} |
| | 235 | |
| | 236 | == step 9. 啟動Hadoop == |
| | 237 | |
| | 238 | * bin/start-dfs.sh腳本會參照namenode上${HADOOP_CONF_DIR}/slaves文件的內容,在所有列出的slave上啟動datanode。 |
| | 239 | |
| | 240 | * 在"主機一" 上,執行下面的命令啟動HDFS: |
| | 241 | |
| | 242 | {{{ |
| | 243 | /opt/hadoop$ bin/start-dfs.sh |
| | 244 | }}} |
| | 245 | |
| | 246 | |
| | 247 | ------ |
| | 248 | * http://主機一:50070/ - Hadoop DFS 狀態 |
| | 249 | * [[Image(wiki:0428Hadoop_Lab3:datanode.png)]] |
| | 250 | ------ |
| | 251 | |
| | 252 | * ps: 然而JobTracker還沒啟動,因此 http://主機一:50030/ 網頁無法顯示 |
| | 253 | |
| | 254 | * bin/start-mapred.sh腳本會參照jobtracker上${HADOOP_CONF_DIR}/slaves文件的內容,在所有列出的slave上啟動tasktracker。 |
| | 255 | |
| | 256 | * 在"主機一"執行下面的命令啟動Map/Reduce: |
| | 257 | |
| | 258 | {{{ |
| | 259 | /opt/hadoop$ /opt/hadoop/bin/start-mapred.sh |
| | 260 | }}} |
| | 261 | |
| | 262 | * 啟動之後, jobtracker也正常運作囉! |
| | 263 | ------ |
| | 264 | * http://主機一:50030/ - Hadoop 管理介面 |
| | 265 | * [[Image(wiki:0428Hadoop_Lab3:job.png)]] |
| | 266 | ------ |
| | 267 | |
| | 268 | == step 10. 停止hadoop == |
| | 269 | |
| | 270 | * 在"主機一" 上,執行下面的命令停止HDFS: |
| | 271 | {{{ |
| | 272 | /opt/hadoop$ bin/stop-dfs.sh |
| | 273 | }}} |
| | 274 | * bin/stop-dfs.sh腳本會參照namenode上${HADOOP_CONF_DIR}/slaves文件的內容,在所有列出的slave上停止namenode |
| | 275 | |
| | 276 | * 在"主機一" 上,執行下面的命令停止Map/Reduce: |
| | 277 | {{{ |
| | 278 | /opt/hadoop$ bin/stop-mapred.sh |
| | 279 | }}} |
| | 280 | * bin/stop-mapred.sh腳本會參照jobtracker上${HADOOP_CONF_DIR}/slaves文件的內容,在所有列出的slave上停止tasktracker。 |
| | 281 | |
| | 282 | == 練習 == |
| | 283 | * 看 conf/hadoop-default.xml 的更多內容 |
| | 284 | * 和別人組隊,組成4台node的cluster,其中"主機一" 只當 namenode ,"主機二" 只當 jobtracker,而node3, node4 兩台電腦則身兼 datanode及tasktracker的工作。 |