1 回答

TA貢獻(xiàn)1963條經(jīng)驗 獲得超6個贊
2.0版本之前可以通過hadoop自帶的web管理界面查看,端口是50030;2.0之后沒有map和reduce
slot的概念,所以也就沒有map數(shù)量一說,改成了直接對資源進(jìn)行管理。
釋義:
map的數(shù)量
map的數(shù)量通常是由hadoop集群的DFS塊大小確定的,也就是輸入文件的總塊數(shù),正常的map數(shù)量的并行規(guī)模大致是每一個Node是10~100個,對于CPU消耗較小的作業(yè)可以設(shè)置Map數(shù)量為300個左右,但是由于hadoop沒一個任務(wù)在初始化時需要一定的時間,因此比較合理的情況是每個map執(zhí)行的時間至少超過1分鐘。具體的數(shù)據(jù)分片是這樣的:
InputFormat在默認(rèn)情況下會根據(jù)hadoop集群的DFS塊大小進(jìn)行分片,每一個分片會由一個map任務(wù)來進(jìn)行處理,當(dāng)然用戶還是可以通過參數(shù)mapred.min.split.size參數(shù)在作業(yè)提交客戶端進(jìn)行自定義設(shè)置。還有一個重要參數(shù)就是mapred.map.tasks,這個參數(shù)設(shè)置的map數(shù)量僅僅是一個提示,只有當(dāng)InputFormat
決定了map任務(wù)的個數(shù)比mapred.map.tasks值小時才起作用。
同樣,Map任務(wù)的個數(shù)也能通過使用JobConf 的conf.setNumMapTasks(int
num)方法來手動地設(shè)置。這個方法能夠用來增加map任務(wù)的個數(shù),但是不能設(shè)定任務(wù)的個數(shù)小于Hadoop系統(tǒng)通過分割輸入數(shù)據(jù)得到的值。
當(dāng)然,為了提高集群的并發(fā)效率,可以設(shè)置一個默認(rèn)的map數(shù)量,當(dāng)用戶的map數(shù)量較小或者比本身自動分割的值還小時可以使用一個相對交大的默認(rèn)值,從而提高整體hadoop集群的效率。
- 1 回答
- 0 關(guān)注
- 1334 瀏覽
添加回答
舉報