| | 1 | = HPC-Asia 實驗方法 = |
| | 2 | == 比較 ICAS(6nodes) 與 SOC 不同資料集的 處理效能實驗== |
| | 3 | pre : |
| | 4 | {{{ |
| | 5 | i 用cloneZilla live 還原 /home/waue/080923-ICAS-HPCASIA-img |
| | 6 | ii hadoop、 hbase 安裝於 /opt , 實驗資料放在 /home/waue/Desktop/ExpData/ |
| | 7 | iii 開啟hadoop、hbase、mysql |
| | 8 | }}} |
| | 9 | 1. 開啟snort監聽 |
| | 10 | {{{ |
| | 11 | $ snort -c /etc/snort/snort.database.conf -i eth1 |
| | 12 | }}} |
| | 13 | 2. 開tcpreplay 餵流量 |
| | 14 | {{{ |
| | 15 | $ cd /home/waue/Desktop/ExpData/tcpdumps |
| | 16 | $ sudo tcpreplay -i eth1 --topspeed ./combinedstarted27febat1349.tcpdump |
| | 17 | }}} |
| | 18 | 3. 紀錄mysql 的event有 $N 筆資料,再執行SOC,紀錄時間 |
| | 19 | {{{ |
| | 20 | $ cd /var/www/soc |
| | 21 | $ php main_uv.php |
| | 22 | }}} |
| | 23 | 4. parser 檔案 程序一 ($N為alert數,如:512) (原本4~6步驟為同一shell,但java再shell內執行有問題故拆開) |
| | 24 | {{{ |
| | 25 | $ cd /opt |
| | 26 | $ ./exper1.sh $N |
| | 27 | $ java SnortParser $N |
| | 28 | $ ./exper2.sh $N |
| | 29 | }}} |
| | 30 | 5. 用Eclipse執行analysis |
| | 31 | 修改tablename參數為$N ,然後用ibm MapReduce tool 執行SnortAnalysis.java,紀錄時間 |
| | 32 | 6. mysql資料庫重置 |
| | 33 | 改snort資料表的名稱、匯入snort空資料表單(~/Desktop/ExpData/SocTable_snort_2.7.0.sql) |
| | 34 | |
| | 35 | == 比較 ICAS 不同nodes數量 處理效能的實驗 == |
| | 36 | 1. 停止hbase, hadoop |
| | 37 | 2. 修改node集 |
| | 38 | {{{ |
| | 39 | /opt/hadoop/conf/slaves |
| | 40 | /opt/hbase/conf/regionserver |
| | 41 | }}} |
| | 42 | 3. 開啟 hadoop, hbase |
| | 43 | 4. 重複用Eclipse執行analysis procedure |
| | 44 | 修改tablename參數為$N ,然後用ibm MapReduce tool 執行SnortAnalysis.java,紀錄時間 |
| | 45 | 5. 用4. 跑完所有的數據集後,再重複1~4步(但2要改成不同的node數) |