第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號(hào)安全,請(qǐng)及時(shí)綁定郵箱和手機(jī)立即綁定
已解決430363個(gè)問題,去搜搜看,總會(huì)有你想問的

了解我的 LSTM 模型的結(jié)構(gòu)

了解我的 LSTM 模型的結(jié)構(gòu)

幕布斯7119047 2022-10-05 18:24:49
我正在嘗試解決以下問題:我有來自許多設(shè)備的時(shí)間序列數(shù)據(jù)。每個(gè)設(shè)備記錄的長(zhǎng)度為 3000。捕獲的每個(gè)數(shù)據(jù)點(diǎn)都有 4 個(gè)測(cè)量值。所以我的數(shù)據(jù)是成形的(設(shè)備記錄的數(shù)量,3000、4)。我正在嘗試生成一個(gè)長(zhǎng)度為 3000 的向量,其中每個(gè)數(shù)據(jù)點(diǎn)是 3 個(gè)標(biāo)簽(y1、y2、y3)之一,所以我想要的輸出暗淡是(設(shè)備記錄數(shù),3000、1)。我已經(jīng)標(biāo)記了用于訓(xùn)練的數(shù)據(jù)。我正在嘗試為此使用 LSTM 模型,因?yàn)椤半S著時(shí)間序列數(shù)據(jù)移動(dòng)時(shí)的分類”似乎是 RNN 類型的問題。我的網(wǎng)絡(luò)設(shè)置如下:model = Sequential()model.add(LSTM(3, input_shape=(3000, 4), return_sequences=True))model.add(LSTM(3, activation = 'softmax', return_sequences=True))model.summary()總結(jié)如下:Model: "sequential_23"_________________________________________________________________Layer (type)                 Output Shape              Param #   =================================================================lstm_29 (LSTM)               (None, 3000, 3)           96        _________________________________________________________________lstm_30 (LSTM)               (None, 3000, 3)           84        =================================================================Total params: 180Trainable params: 180Non-trainable params: 0_________________________________________________________________在輸出空間中一切看起來都很好,因?yàn)槲铱梢允褂妹總€(gè)單元的結(jié)果來確定我的三個(gè)類別中的哪一個(gè)屬于那個(gè)特定的時(shí)間步(我認(rèn)為)。但我只有 180 個(gè)可訓(xùn)練參數(shù),所以我猜我做錯(cuò)了什么。有人可以幫我理解為什么我的可訓(xùn)練參數(shù)這么少嗎?我是否誤解了如何設(shè)置這個(gè) LSTM?我只是在擔(dān)心什么嗎?那 3 個(gè)單位是否意味著我只有 3 個(gè) LSTM“塊”?并且它只能回顧 3 個(gè)觀察結(jié)果?
查看完整描述

1 回答

?
守著一只汪

TA貢獻(xiàn)1872條經(jīng)驗(yàn) 獲得超4個(gè)贊

在一個(gè)簡(jiǎn)單的觀點(diǎn)中,您可以將一個(gè)LSTM層視為具有內(nèi)存的增強(qiáng)Dense層(因此可以有效地處理序列)。所以“單元”的概念對(duì)于兩者來說也是相同的:這些層的神經(jīng)元或特征單元的數(shù)量,或者換句話說,這些層可以從輸入中提取的獨(dú)特特征的數(shù)量。


因此,當(dāng)您將層的單元數(shù)指定為 3 時(shí)LSTM,或多或少意味著該層只能從輸入時(shí)間步長(zhǎng)中提取 3 個(gè)不同的特征(注意,單元數(shù)與輸入序列的長(zhǎng)度無關(guān),即LSTM無論單元的數(shù)量或輸入序列的長(zhǎng)度是多少,該層都將處理整個(gè)輸入序列)。


通常,這可能不是最理想的(不過,這實(shí)際上取決于您正在處理的特定問題和數(shù)據(jù)集的難度;即,對(duì)于您的問題/數(shù)據(jù)集,也許 3 個(gè)單位可能就足夠了,您應(yīng)該嘗試找出答案)。因此,通常會(huì)為單元的數(shù)量選擇更高的數(shù)字(常見選擇:32、64、128、256),并且分類任務(wù)也被委托給Dense位于頂部的專用層(或有時(shí)稱為“softmax 層”)該模型。


例如,考慮到問題的描述,具有 3 個(gè)堆疊LSTM層和Dense頂部分類層的模型可能如下所示:


model = Sequential()

model.add(LSTM(64, return_sequences=True, input_shape=(3000, 4)))

model.add(LSTM(64, return_sequences=True))

model.add(LSTM(32, return_sequences=True))

model.add(Dense(3, activation = 'softmax'))


查看完整回答
反對(duì) 回復(fù) 2022-10-05
  • 1 回答
  • 0 關(guān)注
  • 137 瀏覽
慕課專欄
更多

添加回答

舉報(bào)

0/150
提交
取消
微信客服

購(gòu)課補(bǔ)貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動(dòng)學(xué)習(xí)伙伴

公眾號(hào)

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號(hào)