因為我是深度學(xué)習(xí)的新手,所以這個問題對你來說可能很有趣。但我無法在腦海中想象它。這就是為什么我要問它。我給一個句子作為 LSTM 的向量,認(rèn)為我有一個包含 10 個單詞的句子。然后我將這些句子更改為向量并將其提供給 LSTM。LSTM 單元的長度應(yīng)該是 10。但是在大多數(shù)教程中,我看到他們添加了 128 個隱藏狀態(tài)。我無法理解和想象它。LSTM層這個詞是什么意思"128-dimensional hidden state"例如:X = LSTM(128, return_sequences=True)(embeddings)這看起來的夏天lstm_1 (LSTM) (None, 10, 128) 91648這里看起來像是添加了 10 個 LSTM 單元,但為什么那里有 128 個隱藏狀態(tài)?希望你能理解我的期待。
Keras LSTM 中隱藏狀態(tài)的含義
慕工程0101907
2021-07-03 10:04:27