hadoop 版本不同,是否影響配置的相關(guān)問題
首先,我使用的是ubuntu16.04+hadoop2.7.2,再配置的時候,文件夾不是conf,而是etc,執(zhí)行文件也不在bin文件夾,而是sbin等等的差別,這樣配置文件是否收到影響?是否應(yīng)該隨著版本不同有什么調(diào)整?
當(dāng)配置完畢,java環(huán)境變量堅持沒問題(其實安裝完java包還未配置java的環(huán)境,就可以執(zhí)行javac,java -version等命令了),之后配置,格式化namenode之后,start-all.sh啟動hadoop之后,jps查看進(jìn)程,只有Jps和 ResourceManager兩個進(jìn)程,按要求檢查了配置情況了,計算機名稱也對的,host文件也沒有問題,但就是不行,是不是版本的配置問題呢?
到底問題出在哪里了呢?