5 回答

TA貢獻1806條經(jīng)驗 獲得超5個贊
這是 1.0.0
中的一個回歸,已通過 修復,因此我建議您升級版本。'1.0.1'
修復了 .groupby().agg() 中的回歸,對于某些減少(如 object-dtype 列上的 min)引發(fā) AssertionError (GH31522)

TA貢獻1802條經(jīng)驗 獲得超5個贊
此問題也發(fā)生在熊貓1.1.2中。正如 Raphael Pavan 所提到的,問題似乎正在使用或用于其中具有 OR 值的列。max()
min()
np.nan
None
用于將 和 值替換為相關內容(甚至是空字符串),然后使用 agg 函數(shù)。.fillna()
None
NaN

TA貢獻1886條經(jīng)驗 獲得超2個贊
卡洛斯·卡瓦略,當我運行這段代碼時,我沒有得到任何錯誤。如果您將其復制并粘貼到終端中,您能否確認仍然收到錯誤?正如上面的評論所暗示的那樣,它可能與您的版本有關。此外,BuildingType 和 PrimaryPropertyTypes 是對象而不是浮點數(shù),但它仍然應該有效:
df_stack=pd.DataFrame([[1.0, 2016.0, 'NonResidential', 'Hotel', 98101.0, 'DOWNTOWN',
47.6122, -122.33799, 1927.0, 57.85220900338872,
59.91269863912585],
[1.0, 2016.0, 'NonResidential', 'Hotel', 98101.0, 'DOWNTOWN',
47.61317, -122.33393, 1996.0, 55.82342114189166,
56.86951201265458],
[3.0, 2016.0, 'NonResidential', 'Hotel', 98101.0, 'DOWNTOWN',
47.61393, -122.3381, 1969.0, 76.68191235628086,
77.37931271575705],
[5.0, 2016.0, 'NonResidential', 'Hotel', 98101.0, 'DOWNTOWN',
47.61412, -122.33664, 1926.0, 68.53505428597694,
71.00764283155655],
[8.0, 2016.0, 'NonResidential', 'Hotel', 98121.0, 'DOWNTOWN',
47.61375, -122.34047, 1980.0, 67.01346098859122,
68.34485815906346]], columns=['OSEBuildingID', 'DataYear', 'BuildingType',
'PrimaryPropertyType',
'ZipCode', 'Neighborhood', 'Latitude', 'Longitude', 'YearBuilt',
'SourceEUI(KWm2)', 'SourceEUIWN(KWm2)' ])
df_stack[['OSEBuildingID', 'DataYear', 'BuildingType', 'PrimaryPropertyType',
'ZipCode', 'Neighborhood', 'Latitude', 'Longitude', 'YearBuilt',
'SourceEUI(KWm2)', 'SourceEUIWN(KWm2)']].groupby('OSEBuildingID').max()

TA貢獻1877條經(jīng)驗 獲得超1個贊
我最近在pandas版本1.3.2中遇到了此錯誤,發(fā)現(xiàn)問題來自具有相同名稱的兩列。因此,對于包含列的數(shù)據(jù)幀,調用拋出了此錯誤,因為有兩列名為col1, val1, val1
df.groupby('col1').agg({'val1': np.min})
val1

TA貢獻1776條經(jīng)驗 獲得超12個贊
我也遇到了這個問題,但這是由于日期時間列上的NaT pandas值。發(fā)生這種情況時,請務必使用日期時間列。fillna
我的熊貓版本是 1.3.2
添加回答
舉報