第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

無法從 Java Dataset for Spark 中的 AWS S3 讀取數(shù)據

無法從 Java Dataset for Spark 中的 AWS S3 讀取數(shù)據

料青山看我應如是 2021-10-13 15:52:09
我正在嘗試將 aws s3 中的數(shù)據讀取到 Java 中的 dataset/rdd 中,但獲取Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop/fs/StreamCapabilities. 我在 IntelliJ 上用 Java 運行 Spark 代碼,因此在 pom.xml 中也添加了 Hadoop 依賴項下面是我的代碼和 pom.xml 文件。import org.apache.spark.api.java.JavaRDD;import org.apache.spark.sql.SparkSession;import org.apache.spark.api.java.JavaSparkContext;public class SparkJava {    public static void main(String[] args){        SparkSession spark  = SparkSession                .builder()                .master("local")                .config("spark.hadoop.fs.s3a.impl", "org.apache.hadoop.fs.s3a.S3AFileSystem")                  .config("spark.hadoop.mapreduce.fileoutputcommitter.algorithm.version", "2")                .config("fs.s3n.awsAccessKeyId", AWS_KEY)                .config("fs.s3n.awsSecretAccessKey", AWS_SECRET_KEY)                .getOrCreate();        JavaSparkContext sc = new JavaSparkContext(spark.sparkContext());        String input_path = "s3a://bucket/2018/07/28/zqa.parquet";        Dataset<Row> dF = spark.read().load(input_path); // THIS LINE CAUSES ERROR    }}這是 pom.xml 中的依賴項<dependencies>    <dependency>        <groupId>org.apache.spark</groupId>        <artifactId>spark-core_2.11</artifactId>        <version>2.3.1</version>    </dependency>    <dependency>        <groupId>org.apache.spark</groupId>        <artifactId>spark-sql_2.11</artifactId>        <version>2.3.1</version>    </dependency>    <dependency>        <groupId>org.apache.hadoop</groupId>        <artifactId>hadoop-aws</artifactId>        <version>3.1.1</version>    </dependency>    <dependency>        <groupId>org.apache.hadoop</groupId>        <artifactId>hadoop-hdfs</artifactId>        <version>3.1.1</version>    </dependency></dependencies>任何幫助將不勝感激。提前致謝!
查看完整描述

1 回答

?
梵蒂岡之花

TA貢獻1900條經驗 獲得超5個贊

通過添加流動依賴解決了這個問題:


<dependency>

    <groupId>org.apache.hadoop</groupId>

    <artifactId>hadoop-common</artifactId>

    <version>3.1.1</version>

</dependency>


查看完整回答
反對 回復 2021-10-13
  • 1 回答
  • 0 關注
  • 196 瀏覽
慕課專欄
更多

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號