|   | 1 |  = HPC-Asia 實驗方法 =  | 
                  
                          |   | 2 |  == 比較 ICAS(6nodes) 與 SOC 不同資料集的 處理效能實驗==  | 
                  
                          |   | 3 |  pre :  | 
                  
                          |   | 4 | {{{ | 
                  
                          |   | 5 |  i 用cloneZilla live 還原 /home/waue/080923-ICAS-HPCASIA-img | 
                  
                          |   | 6 |  ii hadoop、 hbase 安裝於 /opt  , 實驗資料放在 /home/waue/Desktop/ExpData/ | 
                  
                          |   | 7 |  iii 開啟hadoop、hbase、mysql | 
                  
                          |   | 8 | }}}  | 
                  
                          |   | 9 |  1. 開啟snort監聽 | 
                  
                          |   | 10 | {{{ | 
                  
                          |   | 11 | $ snort -c /etc/snort/snort.database.conf -i eth1 | 
                  
                          |   | 12 | }}} | 
                  
                          |   | 13 |  2. 開tcpreplay 餵流量 | 
                  
                          |   | 14 | {{{ | 
                  
                          |   | 15 | $ cd /home/waue/Desktop/ExpData/tcpdumps | 
                  
                          |   | 16 | $ sudo tcpreplay -i eth1 --topspeed ./combinedstarted27febat1349.tcpdump | 
                  
                          |   | 17 | }}} | 
                  
                          |   | 18 |  3. 紀錄mysql 的event有 $N 筆資料,再執行SOC,紀錄時間 | 
                  
                          |   | 19 | {{{ | 
                  
                          |   | 20 | $ cd /var/www/soc | 
                  
                          |   | 21 | $ php main_uv.php | 
                  
                          |   | 22 | }}} | 
                  
                          |   | 23 |  4. parser 檔案 程序一 ($N為alert數,如:512) (原本4~6步驟為同一shell,但java再shell內執行有問題故拆開) | 
                  
                          |   | 24 | {{{ | 
                  
                          |   | 25 | $ cd /opt | 
                  
                          |   | 26 | $ ./exper1.sh $N | 
                  
                          |   | 27 | $ java SnortParser $N | 
                  
                          |   | 28 | $  ./exper2.sh $N | 
                  
                          |   | 29 | }}} | 
                  
                          |   | 30 |  5. 用Eclipse執行analysis | 
                  
                          |   | 31 |      修改tablename參數為$N ,然後用ibm MapReduce tool 執行SnortAnalysis.java,紀錄時間 | 
                  
                          |   | 32 |  6. mysql資料庫重置 | 
                  
                          |   | 33 |      改snort資料表的名稱、匯入snort空資料表單(~/Desktop/ExpData/SocTable_snort_2.7.0.sql) | 
                  
                          |   | 34 |  | 
                  
                          |   | 35 |  == 比較 ICAS 不同nodes數量 處理效能的實驗 ==  | 
                  
                          |   | 36 |  1. 停止hbase, hadoop | 
                  
                          |   | 37 |  2. 修改node集 | 
                  
                          |   | 38 | {{{ | 
                  
                          |   | 39 | /opt/hadoop/conf/slaves | 
                  
                          |   | 40 | /opt/hbase/conf/regionserver | 
                  
                          |   | 41 | }}} | 
                  
                          |   | 42 |  3. 開啟 hadoop, hbase | 
                  
                          |   | 43 |  4. 重複用Eclipse執行analysis procedure | 
                  
                          |   | 44 |      修改tablename參數為$N ,然後用ibm MapReduce tool 執行SnortAnalysis.java,紀錄時間 | 
                  
                          |   | 45 |  5. 用4. 跑完所有的數據集後,再重複1~4步(但2要改成不同的node數) |