第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號(hào)安全,請(qǐng)及時(shí)綁定郵箱和手機(jī)立即綁定

Spark-1.4.0單機(jī)部署測(cè)試

標(biāo)簽:
Spark

接着上篇部署。该篇是针对上篇的测试。

测试

  • Spark-shell测试

    ./spark-shell
    ...
    scala> val days = List("Sunday","Monday","Tuesday","Wednesday","Thursday","Friday","Saturday")
    days: List[String] = List(Sunday, Monday, Tuesday, Wednesday, Thursday, Friday, Saturday)
    scala> val daysRDD =sc.parallelize(days)
    daysRDD: org.apache.spark.rdd.RDD[String] = ParallelCollectionRDD[0] at parallelize at <console>:14scala>daysRDD.count()
    scala>res0:Long =7
  • 脚本测试

    • ./spark-submit --class org.apache.spark.examples.SparkPi --master yarn-cluster ../lib/spark-examples*.jar 10
      http://localhost:8088/(localhost可以是服务器地址)

    • ./spark-submit --class org.apache.spark.examples.SparkPi --master yarn-client ../lib/spark-examples*.jar 10

    • 访问localhost:8088可以看到结果。

    • ./spark-submit --class org.apache.spark.examples.SparkPi --master spark://127.0.0.1:7077 ../lib/spark-examples-1.4.0-hadoop2.6.0.jar 100

    • ./bin/run-example org.apache.spark.examples.SparkPi 2 spark://localhost:7077

    • ./bin/run-example SparkPi 10 --master local[2]

    • 本地模式

    • standalone模式
      【注意】127.0.0.1 && *.jar的路径

    • yarn测试(cluster模式和client模式)
      【注意】*.jar的路径

  • 数据测试

    getNum(){
        c=1    while [[ $c -le 5000000 ]]    do
            echo $(($RANDOM/500))
            ((c++))    done}for i in `seq 30`do
        getNum >> ${i}.txt &    # getNumdonewaitecho "------------------DONE-----------------"cat [0-9]*.txt > num.txt
    scala> val file = sc.textFile("hdfs://localhost:9000/user/hadoop/datatest/num.txt")
    scala> val count = file.flatMap(line => line.split(" ")).map(word => (word, 1)).reduceByKey(_+_)
    scala> count.sortBy(_._2).map(x => x._1 + "\t" + x._2).saveAsTextFile("hdfs://localhost:9000/user/hadoop/datatest/numCount")

    执行hadoop相关操作命令:(hadoop/bin/)
    ./hadoop fs -cat hdfs://localhost:9000/user/hadoop/datatest/numCount/p*|sort -k2n

    • 创建hdfs文件目录(执行文件位于hadoop/bin/hdfs;hdfs根目录是hdfs://localhost:9000
      执行命令:./bin/hdfs dfs -mkdir -p /user/hadoop/datatest

    • 向创建的hdfs文件中写入数据(脚本生成的数据)
      执行命令:./bin/hdfs dfs -put /root/num.txt /user/hadoop/datatest

    • scala测试代码:
      执行命令:spark/bin/Spark-shell

    • shell脚本



作者:popsheng
链接:https://www.jianshu.com/p/06e7b1fb9c42


點(diǎn)擊查看更多內(nèi)容
TA 點(diǎn)贊

若覺(jué)得本文不錯(cuò),就分享一下吧!

評(píng)論

作者其他優(yōu)質(zhì)文章

正在加載中
  • 推薦
  • 評(píng)論
  • 收藏
  • 共同學(xué)習(xí),寫(xiě)下你的評(píng)論
感謝您的支持,我會(huì)繼續(xù)努力的~
掃碼打賞,你說(shuō)多少就多少
贊賞金額會(huì)直接到老師賬戶
支付方式
打開(kāi)微信掃一掃,即可進(jìn)行掃碼打賞哦
今天注冊(cè)有機(jī)會(huì)得

100積分直接送

付費(fèi)專欄免費(fèi)學(xué)

大額優(yōu)惠券免費(fèi)領(lǐng)

立即參與 放棄機(jī)會(huì)
微信客服

購(gòu)課補(bǔ)貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動(dòng)學(xué)習(xí)伙伴

公眾號(hào)

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號(hào)

舉報(bào)

0/150
提交
取消