第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號安全,請及時綁定郵箱和手機(jī)立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

如何在Spark SQL的DataFrame中更改列類型?

如何在Spark SQL的DataFrame中更改列類型?

jeck貓 2019-11-05 10:42:25
假設(shè)我正在做類似的事情:val df = sqlContext.load("com.databricks.spark.csv", Map("path" -> "cars.csv", "header" -> "true"))df.printSchema()root |-- year: string (nullable = true) |-- make: string (nullable = true) |-- model: string (nullable = true) |-- comment: string (nullable = true) |-- blank: string (nullable = true)df.show()year make  model comment              blank2012 Tesla S     No comment                1997 Ford  E350  Go get one now th...  但我真的想要yearas Int(也許可以轉(zhuǎn)換其他一些列)。我能想到的最好的是df.withColumn("year2", 'year.cast("Int")).select('year2 as 'year, 'make, 'model, 'comment, 'blank)org.apache.spark.sql.DataFrame = [year: int, make: string, model: string, comment: string, blank: string]這有點(diǎn)令人費(fèi)解。我來自R,我習(xí)慣于寫作,例如df2 <- df %>%   mutate(year = year %>% as.integer,           make = make %>% toupper)我可能會錯過一些東西,因為應(yīng)該有一種更好的方法來解決此問題。
查看完整描述

3 回答

  • 3 回答
  • 0 關(guān)注
  • 1875 瀏覽

添加回答

舉報

0/150
提交
取消
微信客服

購課補(bǔ)貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動學(xué)習(xí)伙伴

公眾號

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號