第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

星星之火java.lang.OutOfMemoryError:Java堆空間

星星之火java.lang.OutOfMemoryError:Java堆空間

德瑪西亞99 2019-07-11 13:27:00
星星之火java.lang.OutOfMemoryError:Java堆空間我的集群:一個主節(jié)點,11個從節(jié)點,每個節(jié)點有6GB內存。我的設置:spark.executor.memory=4g, Dspark.akka.frameSize=512問題是:第一,我從HDFS讀取了一些數(shù)據(jù)(2.19 GB)到RDD:val imageBundleRDD = sc.newAPIHadoopFile(...)第二,在這個RDD上做些什么:val res = imageBundleRDD.map(data => {                                val desPoints = threeDReconstruction(data._2, bg)                                  (data._1, desPoints)                              })最活的,剛過去的,提供給人類發(fā)展戰(zhàn)略的產出:res.saveAsNewAPIHadoopFile(...)當我運行我的程序時,它顯示:..... 14/01/15 21:42:27 INFO cluster.ClusterTaskSetManager: Starting task 1.0:24 as TID 33 on executor 9: Salve7.Hadoop (NODE_LOCAL) 14/01/15 21:42:27 INFO cluster.ClusterTaskSetManager: Serialized task 1.0:24 as 30618515 bytes in 210 ms 14/01/15 21:42:27 INFO cluster.ClusterTaskSetManager: Starting task 1.0:36 as TID 34 on executor 2: Salve11.Hadoop (NODE_LOCAL) 14/01/15 21:42:28 INFO cluster.ClusterTaskSetManager: Serialized task 1.0:36 as 30618515 bytes in 449 ms 14/01/15 21:42:28 INFO cluster.ClusterTaskSetManager: Starting task 1.0:32 as TID 35 on executor 7: Salve4.Hadoop (NODE_LOCAL) Uncaught error from thread [spark-akka.actor.default-dispatcher-3] shutting down JVM since 'akka.jvm-exit-on-fatal-error'  is enabled for ActorSystem[spark] java.lang.OutOfMemoryError: Java heap space任務太多了?PS當輸入數(shù)據(jù)約為225 MB時,一切正常。我怎樣才能解決這個問題?
查看完整描述

3 回答

?
森林海

TA貢獻2011條經驗 獲得超2個贊

若要向此添加經常未討論的用例,我將在提交Spark應用通過spark-submit在……里面本土化模式。

根據(jù)手冊掌握阿帕奇火花通過賈切克·拉斯科夫斯基:

您可以在本地模式下運行星火。在這種非分布式的單JVM部署模式中,SPark在同一個JVM中生成所有的執(zhí)行組件-驅動程序、執(zhí)行器、后端和主程序。這是唯一使用驅動程序執(zhí)行的模式。

因此,如果你正在經歷OOM錯誤與heap,就可以調整driver-memory而不是executor-memory.

以下是一個例子:

spark-1.6.1/bin/spark-submit
  --class "MyClass"
  --driver-memory 12g
  --master local[*] 
  target/scala-2.10/simple-project_2.10-1.0.jar


查看完整回答
反對 回復 2019-07-11
?
FFIVE

TA貢獻1797條經驗 獲得超6個贊

看一看啟動腳本這里設置了Java堆大小,在運行SparkWorker之前,您似乎沒有設置這個大小。

# Set SPARK_MEM if it isn't already set since we also use it for this process
SPARK_MEM=${SPARK_MEM:-512m}
export SPARK_MEM

# Set JAVA_OPTS to be able to load native libraries and to set heap size
JAVA_OPTS="$OUR_JAVA_OPTS"
JAVA_OPTS="$JAVA_OPTS -Djava.library.path=$SPARK_LIBRARY_PATH"
JAVA_OPTS="$JAVA_OPTS -Xms$SPARK_MEM -Xmx$SPARK_MEM"

您可以找到要部署腳本的文檔。這里.


查看完整回答
反對 回復 2019-07-11
  • 3 回答
  • 0 關注
  • 559 瀏覽
慕課專欄
更多

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號