最新回答 / 鯤t
IDE中的, 只是在ide中編譯時會用的,?本地安裝的, 是在控制臺操作, 或是其他指定了該scala版本的運行程序才會使用,安裝的路徑不一樣, 如果你能找到路徑, 其實兩個都是正常使用的
2019-05-09
最贊回答 / 慕俠822756
老鐵,我跟你一樣遇到了這個問題,折騰了我好久終于解決了。我是deepin系統,裝了“jdk-11.0.2",懷疑是JDK版本的問題,后面就把它換成了"jdk1.8.0_201",first函數終于執(zhí)行成功了,你可以下載這個版本,或者格式類似這個版本的JDK把原來的JDK替換掉試試
2019-02-26
最新回答 / adime
辦法一:在spark的conf目錄下,在spark-env.sh文件中加入LD_LIBRARY_PATH環(huán)境變量LD_LIBRARY_PATH=$HADOOP_HOME/lib/native辦法二:在 ~/.bashrc 設置一下 export LD_LIBRARY_PATH=$HADOOP_HOME/lib/native試試看有沒有用
2019-01-14
最新回答 / 寶慕林1045435
spark如果你的提交作業(yè)的方式是local,是不需要配置任何東西的,視頻里面老師都是在spark-shell下進行操作的所以不需要配置任何東西,按照你的說法,spark-shell命令無效是因為沒有去到spark的bin目錄下執(zhí)行命令,如果你往/etc/profile或者~/.bash_profile 下進行把spark的bin加入到PATH的的話就可以不用去到bin目錄下也可以執(zhí)行spark-shell。如果你的spark作業(yè)是提交在yarn等外部框架上面則需要配置spark-env.sh文件。
2018-12-07