3 回答

TA貢獻(xiàn)1790條經(jīng)驗(yàn) 獲得超9個(gè)贊
對(duì)于那些想知道的人,如何在不使用python進(jìn)行列表理解的情況下編寫@ zero323答案:
from pyspark.sql.functions import min, max, col
# init your spark dataframe
expr = [min(col("valueName")),max(col("valueName"))]
df.groupBy("keyName").agg(*expr)

TA貢獻(xiàn)1796條經(jīng)驗(yàn) 獲得超4個(gè)贊
case class soExample(firstName: String, lastName: String, Amount: Int)
val df =? Seq(soExample("me", "zack", 100)).toDF
import org.apache.spark.sql.functions._
val groupped = df.groupBy("firstName", "lastName").agg(
? ? ?sum("Amount"),
? ? ?mean("Amount"),?
? ? ?stddev("Amount"),
? ? ?count(lit(1)).alias("numOfRecords")
? ?).toDF()
display(groupped)
//禮貌的Zach ..
- 3 回答
- 0 關(guān)注
- 724 瀏覽
添加回答
舉報(bào)