向spark集群提交任務(wù)本機(jī)必須是linux環(huán)境嗎
1 回答

qq_花開花謝_0
TA貢獻(xiàn)1835條經(jīng)驗(yàn) 獲得超7個(gè)贊
開發(fā)環(huán)境:
操作系統(tǒng):win8 64位
IDE:IntelliJ IDEA
JDK:1.7
scala:scala-2.11.7
spark:linux上spark集群版本:1.4.1,本地依賴spakr的jar直接拷貝linux上$SPARK_HOME/lib/spark-assembly-1.4.1-hadoop2.4.0.jar
maven關(guān)鍵依賴:
Xml代碼
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>1.4.1</version>
</dependency>
<dependency>
<groupId>org.scala-lang</groupId>
<artifactId>scala-library</artifactId>
<version>2.10.4</version>
</dependency>
<!-- 進(jìn)行LDA 會(huì)使用到一下jar,否則可不引入
- 1 回答
- 0 關(guān)注
- 836 瀏覽
添加回答
舉報(bào)
0/150
提交
取消