第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號(hào)安全,請(qǐng)及時(shí)綁定郵箱和手機(jī)立即綁定
已解決430363個(gè)問題,去搜搜看,總會(huì)有你想問的

使用 resample 為 Pandas 數(shù)據(jù)框中的不同列聚合具有不同規(guī)則的數(shù)據(jù)

使用 resample 為 Pandas 數(shù)據(jù)框中的不同列聚合具有不同規(guī)則的數(shù)據(jù)

www說 2021-09-28 18:10:09
我有一個(gè)經(jīng)典的“高開低收”數(shù)據(jù)類型的數(shù)據(jù)框,在金融中很常見。每行為 1 分鐘。720 行。我用 Kraken 的這個(gè)代碼收集它:import urllib.request, json with urllib.request.urlopen("https://api.kraken.com/0/public/OHLC?pair=XXBTZEUR&interval=1") as url:    data = json.loads(url.read().decode())columns=['time', 'open', 'high', 'low', 'close', 'vwap', 'volume', 'ount']data_DF=pd.DataFrame(data['result']['XXBTZEUR'],columns=columns)data_DF['open']=data_DF['open'].astype(float)data_DF['high']=data_DF['high'].astype(float)data_DF['low']=data_DF['low'].astype(float)data_DF['close']=data_DF['close'].astype(float)data_DF['volume']=data_DF['volume'].astype(float)data_DF['vwap']=data_DF['vwap'].astype(float)data_DF['ount']=data_DF['ount'].astype(int)data_DF['time']=pd.to_datetime(data_DF['time'],unit='s')data_DF.set_index('time',inplace=True)我現(xiàn)在需要將它匯總到不同的時(shí)間段。為了簡(jiǎn)單起見,讓我們假設(shè)只有經(jīng)典的 5 分鐘。每列必須根據(jù)不同的規(guī)則生成:開列必須是樣本開列值的第一個(gè)錯(cuò)誤;關(guān)閉列必須是樣本關(guān)閉列值的最后一個(gè)值;high 必須是樣本的 high 列值的最大值;低必須是樣本低列值的最小值;我試過data_DF5=data_DF['vwap'].resample('5Min').OHLC()但它為每列創(chuàng)建了一系列開盤高低收盤價(jià)。嗯,不是我要找的。我試過:data_DF5=data_DF['time'].resample('5Min')data_DF5['volume']=data_DF['volume'].resample('5Min').sum()data_DF5['open']=data_DF['open'].resample('5Min').first()data_DF5['close']=data_DF['close'].resample('5Min').last()data_DF5['high']=data_DF['high'].resample('5Min').max()data_DF5['low']=data_DF['low'].resample('5Min').min()旨在一次構(gòu)建一列數(shù)據(jù)框。我得到一個(gè)“無法打開‘hashtable_class_helper.pxi’:找不到文件”錯(cuò)誤,我無法理解。如果我改變第一行data_DF5=data_DF['vwap'].resample('5Min').mean()我得到了一個(gè)我什至無法解釋的數(shù)據(jù)框 [參見 (*)]。如果我改變第一行data_DF5=data_DF['vwap'].resample('5Min')我得到:'DatetimeIndexResampler' 對(duì)象不支持項(xiàng)目分配。我真的很茫然。我一直在尋找 stackoverflow 的其他問題,但似乎沒有一個(gè)涵蓋這種情況。另外,手冊(cè)頁似乎沒有就如何解決這一點(diǎn)。
查看完整描述

1 回答

?
largeQ

TA貢獻(xiàn)2039條經(jīng)驗(yàn) 獲得超8個(gè)贊

我想你需要 pd.Grouper


data_DF = data_DF.groupby(pd.Grouper(freq='5min')).agg({'open':'first',

                                                        'close':'last',

                                                        'high':'max',

                                                        'low':'min'})


                       open   close    high     low

time                                               

2018-12-29 07:30:00  3411.4  3413.9  3413.9  3411.4

2018-12-29 07:35:00  3413.9  3413.1  3416.1  3411.9

2018-12-29 07:40:00  3413.1  3422.9  3427.5  3413.1

2018-12-29 07:45:00  3421.1  3423.8  3431.7  3418.0

2018-12-29 07:50:00  3423.8  3428.2  3428.2  3418.9


查看完整回答
反對(duì) 回復(fù) 2021-09-28
  • 1 回答
  • 0 關(guān)注
  • 507 瀏覽
慕課專欄
更多

添加回答

舉報(bào)

0/150
提交
取消
微信客服

購課補(bǔ)貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動(dòng)學(xué)習(xí)伙伴

公眾號(hào)

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號(hào)