在spark中 1、lines.map(x=>x.split(" ")).collect 结果一行一个array,x代表每一行 2、lines.flatMap() 结果一个array, Array(hello,hadoop,.....) flatMap:flatten map 先执行map,后执行flatten(扁平化) 3、lines.map(x=>x.split("\t")(2)) 取出第三个字段的所有值 4、lines.first 取出第一条数据 5、lines.map(x=>x.split("\t")).filter(x=>x.length==6) 过滤 统计上午7到10点搜索过百度影音的客户ID .filter(x=>x.length==6 && 7<= <10 && kw.contains("百度影音")) .map(x=>x(1)) 6、val tupple=("zahngsan",(10,90)) tupple._1 zhangsan tupple._2._1 10 tupple._2._2 90
作者:起个什么呢称呢
链接:https://www.jianshu.com/p/2c2dd02bec0d
點(diǎn)擊查看更多內(nèi)容
為 TA 點(diǎn)贊
評論
評論
共同學(xué)習(xí),寫下你的評論
評論加載中...
作者其他優(yōu)質(zhì)文章
正在加載中
感謝您的支持,我會繼續(xù)努力的~
掃碼打賞,你說多少就多少
贊賞金額會直接到老師賬戶
支付方式
打開微信掃一掃,即可進(jìn)行掃碼打賞哦