Spark RDD是被分区的,在生成RDD时候,一般可以指定分区的数量,如果不指定分区数量,当RDD从集合创建时候,则默认为该程序所分配到的资源的CPU核数,如果是从HDFS文件创建,默认为文件的Block数。
具体看例子:
//创建一个RDD,默认分区15个,因为我的spark-shell指定了一共使用15个CPU资源//–total-executor-cores 15
//统计rdd1每个分区中元素数量
//统计rdd1每个分区中有哪些元素
//从HDFS文件创建的RDD,包含65个分区,因为该文件由65个Block
//rdd2每个分区的元素数量
作者:ZyZhu
链接:https://www.jianshu.com/p/48d99cbfb824
點(diǎn)擊查看更多內(nèi)容
為 TA 點(diǎn)贊
評論
評論
共同學(xué)習(xí),寫下你的評論
評論加載中...
作者其他優(yōu)質(zhì)文章
正在加載中
感謝您的支持,我會繼續(xù)努力的~
掃碼打賞,你說多少就多少
贊賞金額會直接到老師賬戶
支付方式
打開微信掃一掃,即可進(jìn)行掃碼打賞哦