1、想要解決的問題:Spark目錄下沒有l(wèi)ib目錄。2、一句話描述:Spark目錄下沒有l(wèi)ib目錄, 于是我使用“sbt/sbt assembly”命令打包,但是mac終端提示-bash: sbt/sbt: Permission denied3、詳細(xì)情況:在用Intellij創(chuàng)建Scala項(xiàng)目時(shí),我參考的《Spark開發(fā)環(huán)境配置及流程》提到:“選擇菜單中的“File”→“project structure”→“Libraries”,然后點(diǎn)擊“+”導(dǎo)入spark-assembly-1.2.0-hadoop2.4.0.jar。這個(gè)jar包包含Spark的所有依賴包和Spark源碼。一開始我們下載的Spark版本是預(yù)編譯版本的(見《Spark on yarn搭建過程》 ),所以這個(gè)包可以在解壓的Spark目錄下lib目錄里找到,假如說下載的沒有編譯的,需要通過sbt/sbt assembly命令打包。”于是我在spark源代碼目錄spark-1.6.0運(yùn)行了sbt/sbt assembly命令,如下圖所示:但是mac終端提示-bash: sbt/sbt: Permission denied4、備注使用的系統(tǒng):最新版的mac系統(tǒng)5、需要解決的關(guān)鍵問題:Spark目錄下沒有l(wèi)ib目錄。
2 回答

幕布斯6054654
TA貢獻(xiàn)1876條經(jīng)驗(yàn) 獲得超7個(gè)贊
可能下載的源碼有問題,重新下載再編譯,或者下載預(yù)編譯版本(里面有jar包)。
還有可能是sbt本身沒有安裝好。
- 2 回答
- 0 關(guān)注
- 2411 瀏覽
添加回答
舉報(bào)
0/150
提交
取消