第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號(hào)安全,請(qǐng)及時(shí)綁定郵箱和手機(jī)立即綁定
已解決430363個(gè)問(wèn)題,去搜搜看,總會(huì)有你想問(wèn)的

將Spark Dataframe字符串列拆分為多列

將Spark Dataframe字符串列拆分為多列

我見(jiàn)過(guò)很多人建議Dataframe.explode這樣做是一種有用的方法,但是它導(dǎo)致的行數(shù)比原始數(shù)據(jù)幀多,這根本不是我想要的。我只想做非常簡(jiǎn)單的Dataframe等效項(xiàng):rdd.map(lambda row: row + [row.my_str_col.split('-')])它看起來(lái)像:col1 | my_str_col-----+-----------  18 |  856-yygrm 201 |  777-psgdg并將其轉(zhuǎn)換為:col1 | my_str_col | _col3 | _col4-----+------------+-------+------  18 |  856-yygrm |   856 | yygrm 201 |  777-psgdg |   777 | psgdg我知道pyspark.sql.functions.split(),但是它導(dǎo)致嵌套的數(shù)組列,而不是像我想要的兩個(gè)頂級(jí)列。理想情況下,我也希望這些新列也被命名。
查看完整描述

3 回答

  • 3 回答
  • 0 關(guān)注
  • 4283 瀏覽
慕課專欄
更多

添加回答

舉報(bào)

0/150
提交
取消
微信客服

購(gòu)課補(bǔ)貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動(dòng)學(xué)習(xí)伙伴

公眾號(hào)

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號(hào)