第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號(hào)安全,請(qǐng)及時(shí)綁定郵箱和手機(jī)立即綁定
已解決430363個(gè)問(wèn)題,去搜搜看,總會(huì)有你想問(wèn)的

將jar添加到Spark作業(yè) - spark-submit

將jar添加到Spark作業(yè) - spark-submit

慕妹3146593 2019-08-09 14:25:54
將jar添加到Spark作業(yè) - spark-submit真的...已經(jīng)討論了很多。然而,有很多歧義和一些答案提供...包括在jar / executor /驅(qū)動(dòng)程序配置或選項(xiàng)中復(fù)制jar引用。模糊和/或省略的細(xì)節(jié)對(duì)于每個(gè)選項(xiàng),應(yīng)澄清含糊不清,不清楚和/或省略的細(xì)節(jié):ClassPath如何受到影響司機(jī)執(zhí)行程序(用于運(yùn)行的任務(wù))都一點(diǎn)也不分隔字符:逗號(hào),冒號(hào),分號(hào)如果提供的文件是自動(dòng)分發(fā)的任務(wù)(每個(gè)執(zhí)行者)用于遠(yuǎn)程驅(qū)動(dòng)程序(如果以群集模式運(yùn)行)接受的URI類(lèi)型:本地文件,hdfs,http等如果復(fù)制到公共位置,該位置是(hdfs,local?)它影響的選項(xiàng):--jarsSparkContext.addJar(...) 方法SparkContext.addFile(...) 方法--conf spark.driver.extraClassPath=... 要么 --driver-class-path ...--conf spark.driver.extraLibraryPath=..., 要么 --driver-library-path ...--conf spark.executor.extraClassPath=...--conf spark.executor.extraLibraryPath=...不要忘記,spark-submit的最后一個(gè)參數(shù)也是一個(gè).jar文件。我知道在哪里可以找到主要的spark文檔,特別是關(guān)于如何提交,可用的選項(xiàng)以及JavaDoc。然而,這對(duì)我來(lái)說(shuō)仍然有一些漏洞,盡管它也有部分回答。我希望它不是那么復(fù)雜,有人可以給我一個(gè)清晰簡(jiǎn)潔的答案。如果我從文檔中猜測(cè),似乎--jars和SparkContext addJar,addFile方法是自動(dòng)分發(fā)文件的方法,而其他選項(xiàng)只是修改ClassPath。假設(shè)為簡(jiǎn)單起見(jiàn),我可以安全地使用3個(gè)主要選項(xiàng)同時(shí)添加其他應(yīng)用程序jar文件:spark-submit --jar additional1.jar,additional2.jar \  --driver-library-path additional1.jar:additional2.jar \  --conf spark.executor.extraLibraryPath=additional1.jar:additional2.jar \  --class MyClass main-application.jar找到一篇關(guān)于另一篇文章答案的好文章。然而沒(méi)有什么新學(xué)到的 海報(bào)確實(shí)很好地評(píng)論了本地驅(qū)動(dòng)程序(紗線客戶(hù)端)和遠(yuǎn)程驅(qū)動(dòng)程序(紗線群集)之間的區(qū)別。記住這一點(diǎn)非常重要。
查看完整描述

3 回答

?
慕村9548890

TA貢獻(xiàn)1884條經(jīng)驗(yàn) 獲得超4個(gè)贊

另一種方法spark 2.1.0--conf spark.driver.userClassPathFirst=true在spark-submit期間使用,它通過(guò)優(yōu)先使用用戶(hù)添加到帶有--jars選項(xiàng)的類(lèi)路徑的jar來(lái)改變依賴(lài)性加載的優(yōu)先級(jí),從而改變spark-job的行為。


查看完整回答
反對(duì) 回復(fù) 2019-08-09
?
胡子哥哥

TA貢獻(xiàn)1825條經(jīng)驗(yàn) 獲得超6個(gè)贊

與jar和classpath相關(guān)的其他可配置Spark選項(xiàng),在yarn部署模式的情況下如下所示
從spark文檔中,

spark.yarn.jars

包含要分發(fā)到Y(jié)ARN容器的Spark代碼的庫(kù)列表。默認(rèn)情況下,YARN上的Spark將使用本地安裝的Spark jar,但Spark jar也可以位于HDFS上的世界可讀位置。這允許YARN將其緩存在節(jié)點(diǎn)上,這樣每次應(yīng)用程序運(yùn)行時(shí)都不需要分發(fā)它。例如,要指向HDFS上的jar,請(qǐng)將此配置設(shè)置為hdfs:/// some / path。允許使用全球。

spark.yarn.archive

包含所需Spark Spark的存檔,以便分發(fā)到Y(jié)ARN緩存。如果設(shè)置,則此配置將替換spark.yarn.jars,并且該存檔將用于所有應(yīng)用程序的容器中。存檔應(yīng)在其根目錄中包含jar文件。與之前的選項(xiàng)一樣,存檔也可以托管在HDFS上以加速文件分發(fā)。

用戶(hù)可以配置此參數(shù)以指定其jar,其中包含在Spark驅(qū)動(dòng)程序的類(lèi)路徑中。


查看完整回答
反對(duì) 回復(fù) 2019-08-09
  • 3 回答
  • 0 關(guān)注
  • 1742 瀏覽
慕課專(zhuān)欄
更多

添加回答

舉報(bào)

0/150
提交
取消
微信客服

購(gòu)課補(bǔ)貼
聯(lián)系客服咨詢(xún)優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動(dòng)學(xué)習(xí)伙伴

公眾號(hào)

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號(hào)