| | 1 | = 範例六:WordCountHBase = |
| | 2 | |
| | 3 | == 說明: == |
| | 4 | 此程式碼將輸入路徑的檔案內的字串取出做字數統計,再將結果塞回HTable內 |
| | 5 | |
| | 6 | |
| | 7 | == 結果: == |
| | 8 | {{{ |
| | 9 | $ hbase shell |
| | 10 | > scan 'wordcount' |
| | 11 | ROW COLUMN+CELL |
| | 12 | am column=content:count, timestamp=1264406245488, value=1 |
| | 13 | chen column=content:count, timestamp=1264406245488, value=1 |
| | 14 | hi, column=content:count, timestamp=1264406245488, value=2 |
| | 15 | ......(略) |
| | 16 | }}} |
| | 17 | == 注意: == |
| | 18 | |
| | 19 | 1. 在hdfs 上來源檔案的路徑為 "/user/$YOUR_NAME/input" |
| | 20 | |
| | 21 | 請注意必須先放資料到此hdfs上的資料夾內,且此資料夾內只能放檔案,不可再放資料夾 |
| | 22 | |
| | 23 | 2. 運算完後,程式將執行結果放在hbase的wordcount資料表內 |
| | 24 | == 參考: == |
| | 25 | |
| | 26 | 1.程式碼改編於: http://blog.ring.idv.tw/comment.ser?i=337 |
| | 27 | |
| | 28 | 2.hbase 運作 mapreduce 程式的方法參考於:http://wiki.apache.org/hadoop/Hbase/MapReduce |
| | 29 | |
| | 30 | |
| | 31 | {{{ |
| | 32 | #!java |
| | 33 | |
| | 34 | }}} |