| | 1 | hadoop jps 開發 |
| | 2 | |
| | 3 | = 說明 = |
| | 4 | |
| | 5 | 開發出一個 hadoop all view 的網頁於 50000 port |
| | 6 | |
| | 7 | = 修改 = |
| | 8 | |
| | 9 | * 用 svn co 方式將hadoop 0.18 專案抓下來 |
| | 10 | |
| | 11 | * 將 src/webapps/ 內的dfs、job 的jsp檔都複製到 src/webapps/all |
| | 12 | |
| | 13 | * 修改 src/webapps/all/index.html |
| | 14 | |
| | 15 | * 將 src/mapred/org/apache/hadoop/mapred/ 複製到 src/core/org/apache/hadoop/all |
| | 16 | |
| | 17 | * 將 src/hdfs/org/apache/hadoop/dfs 複製到 src/core/org/apache/hadoop/all |
| | 18 | |
| | 19 | * 由於 all 內的java 檔 package, import 都是原本的mapred或dfs,因此要更正成 all這個資料夾 |
| | 20 | {{{ |
| | 21 | find ./ -name "*.java" | xargs sed -i 's/org.apache.hadoop.mapred/org.apache.hadoop.all/g' |
| | 22 | }}} |
| | 23 | |
| | 24 | * 修改 taskrunner.java |
| | 25 | {{{ |
| | 26 | String[] ulimitCmd = Shell.getAllUlimitMemoryCommand(conf); |
| | 27 | }}} |
| | 28 | |
| | 29 | * 修改 org.apache.hadoop.util 的 Shell.java ,增加一個 getAllUlimitMemoryCommand 方法,方法內容複製 getUlimitMemoryCommand |
| | 30 | {{{ |
| | 31 | public static String[] getAllUlimitMemoryCommand(org.apache.hadoop.all.JobConf job) { |
| | 32 | }}} |
| | 33 | |
| | 34 | * 修改 build.xml內,加入all的 jsp-compile的資訊,以及其他相關內容。如 |
| | 35 | {{{ |
| | 36 | <jsp-compile |
| | 37 | uriroot="${src.webapps}/all" |
| | 38 | outputdir="${build.src}" |
| | 39 | package="org.apache.hadoop.all" |
| | 40 | webxml="${build.webapps}/all/WEB-INF/web.xml"> |
| | 41 | </jsp-compile> |
| | 42 | }}} |
| | 43 | |
| | 44 | * 在 conf/hadoop-default.xml 內 添加 all.http.server 為 50000 |
| | 45 | |
| | 46 | |
| | 47 | |
| | 48 | * 修改 all 資料夾內 http.server 成 all.http.server |
| | 49 | |
| | 50 | = 目前 = |
| | 51 | * ant tar 可以正確編譯完成,不過卻沒有在localhost 開 50000 port |
| | 52 | |
| | 53 | * 修改 src/core/org/apache/hadoop/all 的 StatusHttpServer |