最新回答 / 慕標1442511
hadoop也可以進行計算,它是通過mapreduce計算引擎來計算的。它們的區(qū)別是hadoop的mapreduce框架的九三是基于磁盤的,而spark的計算是基于內(nèi)存的。這也是為什么spark計算比hadoop更快的原因。
2020-07-25
最新回答 / 慕的地1117626
使用standalone mode啟動spark:命令行輸入<...code...>參考https://uohzoaix.github.io/studies//2014/09/13/sparkRunning/
2019-08-01