第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號(hào)安全,請(qǐng)及時(shí)綁定郵箱和手機(jī)立即綁定
已解決430363個(gè)問(wèn)題,去搜搜看,總會(huì)有你想問(wèn)的

java.lang.IllegalArgumentException at org.apache

java.lang.IllegalArgumentException at org.apache

每當(dāng)我試圖收集我的RDD時(shí),我就開(kāi)始得到以下錯(cuò)誤,這是在我安裝了Java10.1之后發(fā)生的,所以我當(dāng)然取出它并重新安裝它,同樣的錯(cuò)誤。然后,我安裝了同樣的錯(cuò)誤Java9.04。然后,我取出python 2.7.14、ApacheSequence 2.3.0和Hadoop2.7,同樣的錯(cuò)誤。有沒(méi)有人有其他原因讓我繼續(xù)犯錯(cuò)誤?>>> from operator import add>>> from pyspark import SparkConf, SparkContext>>> import string>>> import sys>>> import re>>>>>>  sc = SparkContext(appName="NEW")2018-04-21 22:28:45 WARN  Utils:66 - Service 'SparkUI' could not bind on port 4040. Attempting port 4041. >>> rdd = sc.parallelize(xrange(1,10))>>> new =rdd.collect()Traceback (most recent call last):   File "<stdin>", line 1, in <module>   File "C:\spark\spark-2.3.0-bin-hadoop2.7\python\pyspark\rdd.py", line 824, in collect     port = self.ctx._jvm.PythonRDD.collectAndServe(self._jrdd.rdd())   File "C:\spark\spark-2.3.0-bin-hadoop2.7\python\lib\py4j-0.10.6-src.zip\py4j\java_gateway.py", line 1160, in __call__  File "C:\spark\s   park-2.3.0-bin-hadoop2.7\python\pyspark\sql\utils.py", line 63, in deco    return f(*a, **kw)   File "C:\spark\spark-2.3.0-bin-hadoop2.7\python\lib\py4j-0.10.6-src.zip\py4j\protocol.py", line 320, in get_return_value py4j.protocol.Py4JJavaError: An error occurred while calling z:org.apache.spark.api.python.PythonRDD.collectAndServe.: java.lang.Ill egalArgumentException         at org.apache.xbean.asm5.ClassReader.<init>(Unknown Source)         at org.apache.xbean.asm5.ClassReader.<init>(Unknown Source)         at org.apache.xbean.asm5.ClassReader.<init>(Unknown Source)         at org.apache.spark.util.ClosureCleaner$.getClassReader(ClosureCleaner.scala:46)         at org.apache.spark.util.FieldAccessFinder$$anon$3$$anonfun$visitMethodInsn$2.apply(ClosureCleaner.scala:449)
查看完整描述

2 回答

?
www說(shuō)

TA貢獻(xiàn)1775條經(jīng)驗(yàn) 獲得超8個(gè)贊

有沒(méi)有人有其他原因讓我繼續(xù)犯錯(cuò)誤?

當(dāng)前的ApacheSPark版本不支持Java 9或更高版本。對(duì)這些(或更高版本)的支持計(jì)劃在3.0版本發(fā)布。

目前,要運(yùn)行SPark,您必須使用JDK 8。

資料來(lái)源:


查看完整回答
反對(duì) 回復(fù) 2019-07-13
?
慕尼黑的夜晚無(wú)繁華

TA貢獻(xiàn)1864條經(jīng)驗(yàn) 獲得超6個(gè)贊

這個(gè)問(wèn)題可以通過(guò)將Java更新到版本8并修改為JDK 8來(lái)解決。

  • JAVA JDK:JDK-8u92-windows-x64
  • Java版本1.8.0_181

以上內(nèi)容供您參考。


查看完整回答
反對(duì) 回復(fù) 2019-07-13
  • 2 回答
  • 0 關(guān)注
  • 746 瀏覽
慕課專(zhuān)欄
更多

添加回答

舉報(bào)

0/150
提交
取消
微信客服

購(gòu)課補(bǔ)貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動(dòng)學(xué)習(xí)伙伴

公眾號(hào)

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號(hào)