spark on hive和hive on spark的區(qū)別
1 回答

慕田峪9158850
TA貢獻(xiàn)1794條經(jīng)驗 獲得超7個贊
spark on hive : 是spark 通過spark-sql 使用hive 語句操作hive ,底層運行的還是 spark rdd.
*(1)就是通過sparksql,加載hive的配置文件,獲取到hive的元數(shù)據(jù)信息
* (2)spark sql獲取到hive的元數(shù)據(jù)信息之后就可以拿到hive的所有表的數(shù)據(jù)
* (3)接下來就可以通過spark sql來操作hive表中的數(shù)據(jù)
hive on spark: 是hive 等的執(zhí)行引擎變成spark , 不再是mapreduce. 相對于上一項,這個要實現(xiàn)責(zé)麻煩很多, 必須重新編譯你的spark. 和導(dǎo)入jar包,
- 1 回答
- 0 關(guān)注
- 5050 瀏覽
添加回答
舉報
0/150
提交
取消