|   | 1 | 目前遇到的問題: | 
                  
                          |   | 2 |  | 
                  
                          |   | 3 |  1.  ssh 登入限制: | 
                  
                          |   | 4 | 一般使用者在drbl中,/home/user 是共用的情況之下,即使建立rsa key ,也會遇到檢查know_hosts遇到改變key的錯誤, | 
                  
                          |   | 5 | 因此只能單方向的連入,如 vm1 ->vm2。 | 
                  
                          |   | 6 |  | 
                  
                          |   | 7 |  * 解:用root帳號。已知drbl的 /etc, /root, /tmp  是分開&可讀寫的。/home   為共用&可讀寫,其他目錄只有server有讀寫權限,client 只能讀。 | 
                  
                          |   | 8 |  * /bin/hadoop namenode -format   可以run | 
                  
                          |   | 9 |  | 
                  
                          |   | 10 |  2.  預寫入log卻無法開啟檔案系統 | 
                  
                          |   | 11 | 執行 bin/start-all.sh 出現一堆錯誤訊息 | 
                  
                          |   | 12 |  | 
                  
                          |   | 13 |  * 解:搬移目錄/opt/hadoop 至 /root/,可解決此問題,並且成功打開 http:192.168.0.1:50030, 50060, 50070  | 
                  
                          |   | 14 |  | 
                  
                          |   | 15 |  3. 莫名其妙的 put java.io.IOException: 問題 | 
                  
                          |   | 16 | 執行 bin/hadoop dfs -put text text  出現很多問題,依錯誤訊息將replication 改成 0 | 
                  
                          |   | 17 | 但重新跑一次還是有以下錯誤: | 
                  
                          |   | 18 | put java.io.IOException:  failed to create file /user/root/text/text/LICENSE.txt on client 192.168.0.1 | 
                  
                          |   | 19 |  | 
                  
                          |   | 20 | 不知是root權限問題,或是hadoop 遇到 drbl本身的限制 |