第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號安全,請及時綁定郵箱和手機(jī)立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

將Spark Dataframe字符串列拆分為多列

將Spark Dataframe字符串列拆分為多列

我見過很多人建議Dataframe.explode這樣做是一種有用的方法,但是它導(dǎo)致的行數(shù)比原始數(shù)據(jù)幀多,這根本不是我想要的。我只想做非常簡單的Dataframe等效項(xiàng):rdd.map(lambda row: row + [row.my_str_col.split('-')])它看起來像:col1 | my_str_col-----+-----------  18 |  856-yygrm 201 |  777-psgdg并將其轉(zhuǎn)換為:col1 | my_str_col | _col3 | _col4-----+------------+-------+------  18 |  856-yygrm |   856 | yygrm 201 |  777-psgdg |   777 | psgdg我知道pyspark.sql.functions.split(),但是它導(dǎo)致嵌套的數(shù)組列,而不是像我想要的兩個頂級列。理想情況下,我也希望這些新列也被命名。
查看完整描述

3 回答

  • 3 回答
  • 0 關(guān)注
  • 4294 瀏覽

添加回答

舉報(bào)

0/150
提交
取消
微信客服

購課補(bǔ)貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動學(xué)習(xí)伙伴

公眾號

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號