| | 1 | = java.io.IOException: File XXX could only be replicated to 0 nodes, instead of 1 = |
| | 2 | |
| | 3 | |
| | 4 | * 今天系統一直遇到這個問題: |
| | 5 | |
| | 6 | {{{ |
| | 7 | 09/07/09 16:37:45 WARN dfs.DFSClient: DataStreamer Exception: org.apache.hadoop.ipc.RemoteException: |
| | 8 | java.io.IOException: File /user/waue/input/input/hadoop-site.xml could only be replicated to 0 nodes, instead of 1 |
| | 9 | }}} |
| | 10 | |
| | 11 | 看了超多人的解法,沒一個有用。後來才發現自己的問題是:硬碟空間不足了,硬碟的使用率99%,難怪hdfs不給寫資料,ok 不過也許還會有不同情況但卻發生這個錯誤訊息。 |
| | 12 | |
| | 13 | 這個錯誤訊息意思是,他想要放檔案,但沒半個node可以給存取,因此我們需要檢查: |
| | 14 | |
| | 15 | 1. 系統或hdfs是否還有空間 (像我就是) |
| | 16 | 2. datanode數是否正常 |
| | 17 | 3. 是否在safemode |
| | 18 | 4. 讀寫的權限 |
| | 19 | |
| | 20 | * 什麼都檢查過都正常的話,也只好砍掉重練了 |
| | 21 | |