第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

使用 Java 實現(xiàn)要在 RelationalGroupedDataset.agg()

使用 Java 實現(xiàn)要在 RelationalGroupedDataset.agg()

ITMISS 2021-12-10 17:05:15
似乎您可以像這樣聚合多個列:Dataset<Row> df = spark.read().textFile(inputFile);List<Row> result = df.groupBy("id")  .agg(sum(df.col("price")), avg(df.col("weight")))  .collectAsList();現(xiàn)在,我想編寫自己的自定義聚合函數(shù)而不是sumor avg。我怎樣才能做到這一點?在星火文檔演示了如何創(chuàng)建一個自定義聚合功能。但是那個注冊了然后在SQL中使用,我不認為它是否可以在.agg()函數(shù)中使用。由于agg接受Column實例并且自定義聚合函數(shù)不是其中之一。
查看完整描述

1 回答

?
冉冉說

TA貢獻1877條經(jīng)驗 獲得超1個贊

如果您有一個GeometricMean擴展類UserDefinedAggregationFunction,那么您可以像這樣使用它(取自https://docs.databricks.com/spark/latest/spark-sql/udaf-scala.html):


// Create an instance of UDAF GeometricMean.

val gm = new GeometricMean


// Show the geometric mean of values of column "id".

df.groupBy("group_id").agg(gm(col("id")).as("GeometricMean")).show()

應該很容易將其轉換為 Java


查看完整回答
反對 回復 2021-12-10
  • 1 回答
  • 0 關注
  • 277 瀏覽
慕課專欄
更多

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網(wǎng)微信公眾號