hadoop jps 開發 = 說明 = 開發出一個 hadoop all view 的網頁於 50000 port = 修改 = * 用 svn co 方式將hadoop 0.18 專案抓下來 * 將 src/webapps/ 內的dfs、job 的jsp檔都複製到 src/webapps/all * 修改 src/webapps/all/index.html * 將 src/mapred/org/apache/hadoop/mapred/ 複製到 src/core/org/apache/hadoop/all * 將 src/hdfs/org/apache/hadoop/dfs 複製到 src/core/org/apache/hadoop/all * 由於 all 內的java 檔 package, import 都是原本的mapred或dfs,因此要更正成 all這個資料夾 {{{ find ./ -name "*.java" | xargs sed -i 's/org.apache.hadoop.mapred/org.apache.hadoop.all/g' }}} * 修改 taskrunner.java {{{ String[] ulimitCmd = Shell.getAllUlimitMemoryCommand(conf); }}} * 修改 org.apache.hadoop.util 的 Shell.java ,增加一個 getAllUlimitMemoryCommand 方法,方法內容複製 getUlimitMemoryCommand {{{ public static String[] getAllUlimitMemoryCommand(org.apache.hadoop.all.JobConf job) { }}} * 修改 build.xml內,加入all的 jsp-compile的資訊,以及其他相關內容。如 {{{ }}} * 在 conf/hadoop-default.xml 內 添加 all.http.server 為 50000 * 修改 all 資料夾內 http.server 成 all.http.server = 目前 = * ant tar 可以正確編譯完成,不過卻沒有在localhost 開 50000 port * 修改 src/core/org/apache/hadoop/all 的 StatusHttpServer core/org/apache/hadoop/all 資料夾內 有用到 StatusHttpServer 來開 jetty_server 的有 DataNode.java FSNamesystem.java JobTracker.java SecondaryNameNode.java TaskTracker.java