最新回答 / 慕的地1117626
使用standalone mode啟動(dòng)spark:命令行輸入<...code...>參考https://uohzoaix.github.io/studies//2014/09/13/sparkRunning/
2019-08-01
最新回答 / 鯤t
IDE中的, 只是在ide中編譯時(shí)會(huì)用的,?本地安裝的, 是在控制臺(tái)操作, 或是其他指定了該scala版本的運(yùn)行程序才會(huì)使用,安裝的路徑不一樣, 如果你能找到路徑, 其實(shí)兩個(gè)都是正常使用的
2019-05-09
最贊回答 / 慕俠822756
老鐵,我跟你一樣遇到了這個(gè)問題,折騰了我好久終于解決了。我是deepin系統(tǒng),裝了“jdk-11.0.2",懷疑是JDK版本的問題,后面就把它換成了"jdk1.8.0_201",first函數(shù)終于執(zhí)行成功了,你可以下載這個(gè)版本,或者格式類似這個(gè)版本的JDK把原來的JDK替換掉試試
2019-02-26
最新回答 / adime
辦法一:在spark的conf目錄下,在spark-env.sh文件中加入LD_LIBRARY_PATH環(huán)境變量LD_LIBRARY_PATH=$HADOOP_HOME/lib/native辦法二:在 ~/.bashrc 設(shè)置一下 export LD_LIBRARY_PATH=$HADOOP_HOME/lib/native試試看有沒有用
2019-01-14
最新回答 / 寶慕林1045435
spark如果你的提交作業(yè)的方式是local,是不需要配置任何東西的,視頻里面老師都是在spark-shell下進(jìn)行操作的所以不需要配置任何東西,按照你的說法,spark-shell命令無效是因?yàn)闆]有去到spark的bin目錄下執(zhí)行命令,如果你往/etc/profile或者~/.bash_profile 下進(jìn)行把spark的bin加入到PATH的的話就可以不用去到bin目錄下也可以執(zhí)行spark-shell。如果你的spark作業(yè)是提交在yarn等外部框架上面則需要配置spark-env.sh文件。
2018-12-07