關(guān)于啟動Spark的worker部分,master地址是用戶可配置的,修改./conf/spark-env.sh文件中,SPARK_MASTER_HOST 和SPARK_MASTER_PORT 變量即可
2021-04-26
最新回答 / 慕標(biāo)1442511
hadoop也可以進(jìn)行計(jì)算,它是通過mapreduce計(jì)算引擎來計(jì)算的。它們的區(qū)別是hadoop的mapreduce框架的九三是基于磁盤的,而spark的計(jì)算是基于內(nèi)存的。這也是為什么spark計(jì)算比hadoop更快的原因。
2020-07-25