第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號(hào)安全,請(qǐng)及時(shí)綁定郵箱和手機(jī)立即綁定
已解決430363個(gè)問(wèn)題,去搜搜看,總會(huì)有你想問(wèn)的

如何在 Python 中的 Spark 上快速執(zhí)行 groupby 和計(jì)數(shù)?

如何在 Python 中的 Spark 上快速執(zhí)行 groupby 和計(jì)數(shù)?

神不在的星期二 2023-05-23 10:45:48
我一直在嘗試在 Spark DataFrame 上執(zhí)行 GroupBy 和 count() 很長(zhǎng)時(shí)間但是它需要永遠(yuǎn)處理......處理以下行大約需要 13 秒。從我的角度來(lái)看,我認(rèn)為這需要太多時(shí)間,但我不知道如何減少處理時(shí)間。matched.limit(100).groupBy('Date','Period').agg(count("*").alias('cnt')).show()我正在使用以下配置在 Spark 2.4 上運(yùn)行:驅(qū)動(dòng)程序:2 個(gè) vCPU 8 GB RAM 10 個(gè)執(zhí)行程序:2 個(gè) vCPU 8 GB RAM誰(shuí)能給我提示如何解決這個(gè)問(wèn)題?
查看完整描述

1 回答

?
12345678_0001

TA貢獻(xiàn)1802條經(jīng)驗(yàn) 獲得超5個(gè)贊

我認(rèn)為這是正確的方法?;ㄙM(fèi)的時(shí)間將取決于那里有多少行。

df.groupBy('Date', 'Period').count().show(10, False)


查看完整回答
反對(duì) 回復(fù) 2023-05-23
  • 1 回答
  • 0 關(guān)注
  • 129 瀏覽
慕課專欄
更多

添加回答

舉報(bào)

0/150
提交
取消
微信客服

購(gòu)課補(bǔ)貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動(dòng)學(xué)習(xí)伙伴

公眾號(hào)

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號(hào)