如何在Apache Spark 2.0中使用SparkSession
1 回答

慕桂英546537
TA貢獻(xiàn)1848條經(jīng)驗(yàn) 獲得超10個(gè)贊
在Spark的早期版本,sparkContext是進(jìn)入Spark的切入點(diǎn)。我們都知道RDD是Spark中重要的API,然而它的創(chuàng)建和操作得使用sparkContext提供的API;對(duì)于RDD之外的其他東西,我們需要使用其他的Context。比如對(duì)于流處理來說,我們得使用StreamingContext;對(duì)于SQL得使用sqlContext;而對(duì)于hive得使用HiveContext。
- 1 回答
- 0 關(guān)注
- 771 瀏覽
添加回答
舉報(bào)
0/150
提交
取消