我對 LSTM 領(lǐng)域完全陌生。是否有任何提示可以優(yōu)化我的自動(dòng)編碼器以重建 len = 300 序列的任務(wù)瓶頸層應(yīng)該有 10-15 個(gè)神經(jīng)元model = Sequential()model.add(LSTM(128, activation='relu', input_shape=(timesteps,1), return_sequences=True))model.add(LSTM(64, activation='relu', return_sequences=False))model.add(RepeatVector(timesteps))model.add(LSTM(64, activation='relu', return_sequences=True))model.add(LSTM(128, activation='relu', return_sequences=True))model.add(TimeDistributed(Dense(1)))model.compile(optimizer='adam', loss='mae')代碼復(fù)制自:https ://towardsdatascience.com/step-by-step-understanding-lstm-autoencoder-layers-ffab055b6352目前結(jié)果只是 nan 的序列:[nan, nan, nan ... nan, nan]序列看起來類似于下圖:
1 回答

一只甜甜圈
TA貢獻(xiàn)1836條經(jīng)驗(yàn) 獲得超5個(gè)贊
我相信您在這里使用的激活函數(shù)即“relu”可能會(huì)破壞梯度。嘗試使用適合您數(shù)據(jù)的其他激活函數(shù),例如“tanh”。
添加回答
舉報(bào)
0/150
提交
取消