搭建了一個(gè)hadoop1的分布式環(huán)境,在上面跑spark。使用spark-submit提交spark自帶的kmeans的example后,終端已打印出運(yùn)行結(jié)果,但是web UI(localhost:8080)里面Running Applications和Completed Applications都是空的,好像幾乎沒(méi)人遇到這個(gè)問(wèn)題。而且不論我用pyspark還是spark-submit,都只能運(yùn)行hdfs上的文件,就算加上 --master local 參數(shù)也不管用,小白表示很是郁悶,還請(qǐng)各位大神解答,感激不盡!
- 2 回答
- 0 關(guān)注
- 1605 瀏覽
添加回答
舉報(bào)
0/150
提交
取消