求教各位大神:本人用scalas+spark開(kāi)發(fā),用RDD實(shí)現(xiàn)以下需求時(shí)遇到困難!數(shù)據(jù):用戶 位置 天數(shù)user1 L1 28user1 L2 20user1 L3 15user2 L1 30user2 L2 15user3 L5 3user3 L6 18user4 L7 4通過(guò)spark RDD怎樣實(shí)現(xiàn)按用戶分組提取每個(gè)用戶天數(shù)最大的位置希望數(shù)據(jù)結(jié)果:RDD:array((user1,L1,28),(user2,L1,30),(user3 , L6,18),(user4,,7 4))這里主體是根據(jù)用戶分組計(jì)算最大天數(shù),并把位置帶出來(lái),研究半天無(wú)果,求大神指教
spark分組排序提取前N個(gè)值
飲歌長(zhǎng)嘯
2018-07-10 15:27:16