第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號(hào)安全,請(qǐng)及時(shí)綁定郵箱和手機(jī)立即綁定

[譯]Spark快速開始

標(biāo)簽:
Spark

本文是一个如何使用Spark的简要教程。首先通过Spark的交互式Shell来介绍API(使用Python或Scala),然后展示如何用Java,Scala和Python来写Spark引用程序。更完整的内容请参考编程指南

为了跟随这篇指南进行学习,请首先从Spark网站上下载一个Spark release包。因为我们这里不会使用HDFS,所以下载一个用于任意Hadoop版本的包即可。

使用Spark Shell进行交互式分析

基础

Spark的Shell提供了一种学习API的简单方法,同样也是交互式分析数据的强大工具。在Scala(运行在Java虚拟机上,可以使用现有的Java库)或Python中可用。在Spark目录下运行下面命令:

./bin/spark-shell

Spark的主要抽象是弹性分布式数据集(RDD)。RDD可以通过Hadoop输入格式(比如HDFS文件)或者其它RDD转换来创建。让我们使用Spark源路径的README文件的文本内容来创建一个RDD。

scala> val textFile = sc.textFile("README.md")
textFile: org.apache.spark.rdd.RDD[String] = README.md MapPartitionsRDD[1] at textFile at <console>:25

RDD有可以返回值的actions,有可以返回指向新RDD指针的transformations。让我们从几个actions开始:

scala> textFile.count() // Number of items in this RDDres0: Long = 126 // May be different from yours as README.md will change over time, similar to other outputsscala> textFile.first() // First item in this RDDres1: String = # Apache Spark

接下来使用transformation。我们使用filter transformation来返回一个包含文件条目子集的RDD。

scala> val linesWithSpark = textFile.filter(line => line.contains("Spark"))
linesWithSpark: org.apache.spark.rdd.RDD[String] = MapPartitionsRDD[2] at filter at <console>:27

可以把transformations和actions链接起来使用。

scala> textFile.filter(line => line.contains("Spark")).count() // How many lines contain "Spark"?res3: Long = 15

更多RDD操作

RDD的actions和transformations可用于更复杂的计算。如我们想找到单词最多的行:

scala> textFile.map(line => line.split(" ").size).reduce((a, b) => if (a > b) a else b)
res4: Long = 15

首先使用map函数将每一行转换成一个整数,创建了一个新RDD。然后在这个新RDD上调用reduce函数找出最大行的单词数。mapreduce的参数是Scala函数式(闭包),并且可以使用任何语言特性或者Scala/Java库。例如,可以很容易地调用声明在其它地方的函数。可以使用Math.max()来让这段代码更好理解。

scala> import java.lang.Mathimport java.lang.Mathscala> textFile.map(line => line.split(" ").size).reduce((a, b) => Math.max(a, b))
res5: Int = 15

一种常见的数据流模式为MapReduce,是由Hadoop推广的。Spark可以很容易地实现MapReduce:

scala> val wordCounts = textFile.flatMap(line => line.split(" ")).map(word => (word, 1)).reduceByKey((a, b) => a + b)
wordCounts: org.apache.spark.rdd.RDD[(String, Int)] = ShuffledRDD[8] at reduceByKey at <console>:28

这里我们结合了flatmapmapreduceByKey转换来计算文件中每个单词的数量,生成一个(String,Int)对的RDD。
为了在我们的Shell中统计单词数量,可以使用collect action:

scala> wordCounts.collect()
res6: Array[(String, Int)] = Array((means,1), (under,2), (this,3), (Because,1), (Python,2), (agree,1), (cluster.,1), ...)

缓存

Spark支持拉取数据集到集群范围的内存缓存中。当数据需要重复访问时会非常有用,比如查询一个热数据集或者运行像PageRank这样的迭代算法。作为一个简单的例子,让我们把linesWithSpark数据集标记为缓存:

scala> linesWithSpark.cache()
res7: linesWithSpark.type = MapPartitionsRDD[2] at filter at <console>:27scala> linesWithSpark.count()
res8: Long = 15scala> linesWithSpark.count()
res9: Long = 15

用Spark来探索和缓存一个100行的文本文件看起来有点呆。有意思的是这些相同的函数可以用在非常庞大的数据集上,即使跨越数十或者数百个节点。你也可以像编程指南中描述的一样通过使用bin/spark-shell连接到集群的方式,来交互式地做这件事。

独立的应用程序

假设我们想用Spark API写一个独立的应用程序。可以使用Scala(with sbt),Java(with Maven)和Python实现一个简单的应用程序。

在Scala中创建一个简单的Spark应用程序,命名为SimpleApp.scala

/* SimpleApp.scala */import org.apache.spark.SparkContextimport org.apache.spark.SparkContext._import org.apache.spark.SparkConfobject SimpleApp {  def main(args: Array[String]) {    val logFile = "YOUR_SPARK_HOME/README.md" // Should be some file on your system
    val conf = new SparkConf().setAppName("Simple Application")    val sc = new SparkContext(conf)    val logData = sc.textFile(logFile, 2).cache()    val numAs = logData.filter(line => line.contains("a")).count()    val numBs = logData.filter(line => line.contains("b")).count()
    println(s"Lines with a: $numAs, Lines with b: $numBs")
    sc.stop()
  }
}

可以看到应用程序应该定义main()函数而不是扩展scala.App。使用scala.App的子类可能会运行不正常。这个程序就计算了Spark的README文件中包含a的行数和包含b的行数。注意把YOUR_SPARK_HOME替换成Spark的安装路径。不像之前使用Spark Shell的例子会初始化自己的SparkContext,我们需要初始化SparkContext作为程序的一部分。

我们要传一个包含了应用程序信息的SparkConf对象给SparkContext构造函数。

应用程序需要依赖Spark API,所以会包含一个sbt配置文件,simple.sbt,里面说明了Spark是一个依赖。这个文件也添加了一个Spark依赖的库:

name := "Simple Project"version := "1.0"scalaVersion := "2.11.7"libraryDependencies += "org.apache.spark" %% "spark-core" % "2.1.0"

为了让sbt正确运行,我们需要根据经典的目录结构来组织 SimpleApp.scalasimple.sbt。完成之后,我们可以创建一个包含我们应用程序代码的JAR包,然后使用spark-submit脚本来运行我们的程序。

# Your directory layout should look like this$ find ..
./simple.sbt
./src
./src/main
./src/main/scala
./src/main/scala/SimpleApp.scala# Package a jar containing your application$ sbt package...
[info] Packaging {..}/{..}/target/scala-2.11/simple-project_2.11-1.0.jar# Use spark-submit to run your application$ YOUR_SPARK_HOME/bin/spark-submit \
  --class "SimpleApp" \
  --master local[4] \
  target/scala-2.11/simple-project_2.11-1.0.jar
...
Lines with a: 46, Lines with b: 23

从这里开始

恭喜你运行了第一个Spark应用程序!

  • 查看API的深入概述,从Spark编程指南开始,或者看其它组件的编程指南菜单。

  • 要在集群上运行应用程序,请看部署概述

  • 最后,Spark在examples目录中包含了很多示例(ScalaJavaPythonR),可以使用如下方式运行:

# For Scala and Java, use run-example:./bin/run-example SparkPi# For Python examples, use spark-submit directly:./bin/spark-submit examples/src/main/python/pi.py# For R examples, use spark-submit directly:./bin/spark-submit examples/src/main/r/dataframe.R



作者:steanxy
链接:https://www.jianshu.com/p/65e75de7f320


點(diǎn)擊查看更多內(nèi)容
TA 點(diǎn)贊

若覺得本文不錯(cuò),就分享一下吧!

評(píng)論

作者其他優(yōu)質(zhì)文章

正在加載中
  • 推薦
  • 評(píng)論
  • 收藏
  • 共同學(xué)習(xí),寫下你的評(píng)論
感謝您的支持,我會(huì)繼續(xù)努力的~
掃碼打賞,你說多少就多少
贊賞金額會(huì)直接到老師賬戶
支付方式
打開微信掃一掃,即可進(jìn)行掃碼打賞哦
今天注冊(cè)有機(jī)會(huì)得

100積分直接送

付費(fèi)專欄免費(fèi)學(xué)

大額優(yōu)惠券免費(fèi)領(lǐng)

立即參與 放棄機(jī)會(huì)
微信客服

購(gòu)課補(bǔ)貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動(dòng)學(xué)習(xí)伙伴

公眾號(hào)

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號(hào)

舉報(bào)

0/150
提交
取消