首先會(huì)出現(xiàn)幾種情況,才會(huì)出現(xiàn)啟動(dòng)不了datanode的情況。
1.首先修改過(guò)master那臺(tái)的配置文件,
2.屢次hadoop namenode -format這類(lèi)不好的習(xí)慣。
1般會(huì)出現(xiàn)1下報(bào)錯(cuò):
java.io.IOException: Cannot lock storage /usr/hadoop/tmp/dfs/name. The directory is already locked.
或是:
在壞死的節(jié)點(diǎn)上輸入以下命令便可:
bin/Hadoop-daemon.sh start DataNode
bin/Hadoop-daemon.sh start jobtracker
如果還不可以的話(huà),那末恭喜你和我遇到的情況1下。
正確的處理方法是,到你的每一個(gè)Slave下面去,找到.../usr/hadoop/tmp/dfs/ -ls
會(huì)顯示有: data
這里需要把data文件夾刪掉。接著直接在剛才的目錄下啟動(dòng)hadoop
start-all.sh
接著查看jps
那末就會(huì)出現(xiàn)datanode.了
接著去看
http://210.41.166.61(你的master的IP):50070
里面的活節(jié)點(diǎn)有多少個(gè)?http://210.41.166.61(你的master的ip):50030/
顯示的node數(shù)目。
OK,問(wèn)題解決。