第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號(hào)安全,請(qǐng)及時(shí)綁定郵箱和手機(jī)立即綁定
已解決430363個(gè)問題,去搜搜看,總會(huì)有你想問的

在win10中擁SparkR連接spark失敗

在win10中擁SparkR連接spark失敗

慕娘9325324 2018-10-28 04:00:02
在win10中擁SparkR連接spark失敗
查看完整描述

1 回答

?
繁星coding

TA貢獻(xiàn)1797條經(jīng)驗(yàn) 獲得超4個(gè)贊

  Spark提供了輕量的前端。SparkR提供了Spark中彈性分布式數(shù)據(jù)集(RDD)的API,用戶可以在集群上通過R
  shell交互性的運(yùn)行job。例如,我們可以在HDFS上讀取或?qū)懭胛募?,也可以使?lapply 來定義對(duì)應(yīng)每一個(gè)RDD元素的運(yùn)算。
  sc <- sparkR.init(“l(fā)ocal”)
  lines <- textFile(sc, “hdfs://data.txt”)
  wordsPerLine <- lapply(lines, function(line) { length(unlist(strsplit(line, “ ”))) })
  除了常見的RDD函數(shù)式算子reduce、reduceByKey、groupByKey和collect之外,SparkR也支持利用
  lapplyWithPartition 對(duì)每個(gè)RDD的分區(qū)進(jìn)行操作。
  SparkR也支持常見的閉包(closure)功能:用戶定義的函數(shù)中所引用到的變量會(huì)自動(dòng)被發(fā)送到集群中其他的機(jī)器上。參見一下例子中用戶閉包中引用的
  initialWeights 會(huì)被自動(dòng)發(fā)送到集群其他機(jī)器上。
  lines <- textFile(sc, “hdfs://data.txt”)
  #niniaialWeights is automatically serialized
  createMatrix <- function(line) {
  as.numeric(unlist(strsplit(line, “ ”))) %*% t(initialWeights)
  }

查看完整回答
反對(duì) 回復(fù) 2018-11-09
  • 1 回答
  • 0 關(guān)注
  • 879 瀏覽

添加回答

舉報(bào)

0/150
提交
取消
微信客服

購課補(bǔ)貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動(dòng)學(xué)習(xí)伙伴

公眾號(hào)

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號(hào)