第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號(hào)安全,請(qǐng)及時(shí)綁定郵箱和手機(jī)立即綁定
已解決430363個(gè)問題,去搜搜看,總會(huì)有你想問的

將Spark數(shù)據(jù)框轉(zhuǎn)換為Pandas / R數(shù)據(jù)框的要求

將Spark數(shù)據(jù)框轉(zhuǎn)換為Pandas / R數(shù)據(jù)框的要求

三國(guó)紛爭(zhēng) 2020-02-02 14:54:05
我在Hadoop的YARN上運(yùn)行Spark。這種轉(zhuǎn)換如何運(yùn)作?是否在轉(zhuǎn)換之前進(jìn)行一次collect()?我還需要在每個(gè)從屬節(jié)點(diǎn)上安裝Python和R才能使轉(zhuǎn)換正常進(jìn)行嗎?我正在努力尋找有關(guān)此文檔。
查看完整描述

1 回答

?
慕村9548890

TA貢獻(xiàn)1884條經(jīng)驗(yàn) 獲得超4個(gè)贊

toPandas(PySpark)/ as.data.frame(SparkR)

在創(chuàng)建本地?cái)?shù)據(jù)框之前,必須先收集數(shù)據(jù)。例如,toPandas方法如下所示:

def toPandas(self):
    import pandas as pd    return pd.DataFrame.from_records(self.collect(), columns=self.columns)

您需要在每個(gè)節(jié)點(diǎn)上都安裝有Python(最好具有所有依賴項(xiàng))。

SparkR對(duì)應(yīng)項(xiàng)(as.data.frame)只是的別名collect。

為了在這兩種情況下的數(shù)據(jù)概括為collected向駕駛員節(jié)點(diǎn)并轉(zhuǎn)換到本地?cái)?shù)據(jù)結(jié)構(gòu)(pandas.DataFramebase::data.frame在Python和R分別地)。

向量化的用戶定義函數(shù)

由于火花2.3.0 PySpark還提供了一組pandas_udfSCALAR,GROUPED_MAP,GROUPED_AGG),其并行地對(duì)由下式定義的數(shù)據(jù)塊進(jìn)行操作

  • SCALAR變體情況下進(jìn)行分區(qū)

  • GROUPED_MAP和的情況下的分組表達(dá)式GROUPED_AGG

每個(gè)塊用

  • 一種或多種pandas.core.series.Series(如果有SCALAR和)GROUPED_AGG變體。

  • pandas.core.frame.DataFrame如果是GROUPED_MAP變體,則為單個(gè)。

類似地,從Spark 2.0.0開始,SparkR提供dapplygapplydata.frames分區(qū)和分組表達(dá)式分別定義的函數(shù)上運(yùn)行。

上述功能:

  • 不要收集給司機(jī)。除非數(shù)據(jù)僅包含單個(gè)分區(qū)(即帶有coalesce(1))或分組表達(dá)式是微不足道的(即帶有),否則groupBy(lit(1))就沒有單個(gè)節(jié)點(diǎn)的瓶頸。

  • 將相應(yīng)的塊加載到相應(yīng)執(zhí)行器的內(nèi)存中。因此,它受每個(gè)執(zhí)行器上可用的單個(gè)塊/內(nèi)存大小的限制。


查看完整回答
反對(duì) 回復(fù) 2020-02-02
  • 1 回答
  • 0 關(guān)注
  • 506 瀏覽
慕課專欄
更多

添加回答

舉報(bào)

0/150
提交
取消
微信客服

購(gòu)課補(bǔ)貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動(dòng)學(xué)習(xí)伙伴

公眾號(hào)

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號(hào)