最新回答 / 月光詩人
請問你當(dāng)前的linux帳號是localhost嗎?如果是的話你可以看到3-5課那一節(jié),老師用的命令是“hadoop fs -ls /user/root”,所以你需要輸入:“hadoop fs -ls /user/localhost”或者將“l(fā)ocalhost”換成你安裝hadoop時(shí)使用的用戶名,因?yàn)楹孟瘛?user/${用戶名}”對應(yīng)的才是用戶的根目錄;之前使用fs -ls的時(shí)候也遇到過這樣的一個(gè)問題,但是不太清楚是不是你這個(gè)問題了,可以試一下,希望對你有幫助:)
2016-04-04
最新回答 / 雷霆之怒
看圖片樓主是在root用戶下使用的hadoop fs命令,并且jps后發(fā)現(xiàn)hadoop并沒有運(yùn)行起來,所以可能存在的問題:1.hadoop沒有啟動(dòng),hadoop fs命令是在hadoop啟動(dòng)后才可以使用的。2.是否新建過別的用戶,并且...
2016-03-27
已采納回答 / 百里行者
并沒有說多大文件比較合適,為了減輕namenode負(fù)擔(dān),盡量避免過多小文件,也就是文件盡量大;如果文件很大,比如100GB,存儲時(shí)將其拆分成多個(gè)64MB文件塊
2016-03-16
最新回答 / Rock_feng
我認(rèn)為是這樣的:就好比我們在客戶端執(zhí)行寫入數(shù)據(jù)一樣,數(shù)據(jù)來源于hdfs,然后計(jì)算的結(jié)果會先保存在本地磁盤并且進(jìn)行分塊操作,然后再根據(jù)namenode返回回來的映射關(guān)系,將本地的臨時(shí)數(shù)據(jù)寫入對應(yīng)的datanode,而datanode就屬于hdfs的一部分;不知對不對?
2016-02-15