第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號(hào)安全,請(qǐng)及時(shí)綁定郵箱和手機(jī)立即綁定
已解決430363個(gè)問題,去搜搜看,總會(huì)有你想問的

TensorFlow/Keras:輸出層的形狀錯(cuò)誤

TensorFlow/Keras:輸出層的形狀錯(cuò)誤

慕妹3242003 2021-09-11 13:26:53
我已經(jīng)在互聯(lián)網(wǎng)上搜索了幾天,試圖找到解決此錯(cuò)誤的方法,但我找不到任何特別適用的內(nèi)容:ValueError: Error when checking target: expected dense_2 to have shape (300,) but got array with shape (60,)這是生成錯(cuò)誤的代碼(數(shù)據(jù)預(yù)處理除外):model = keras.Sequential([keras.layers.Conv1D(5,input_shape=(1,60), kernel_size=12, padding='same'), keras.layers.Conv1D(10, padding='same',activation=tf.nn.relu, kernel_size=10),keras.layers.Conv1D(20, padding='same',activation=tf.nn.relu, kernel_size=6),keras.layers.Conv1D(30, padding='same',activation=tf.nn.relu, kernel_size=5),keras.layers.Flatten(),keras.layers.Dense(70, activation="relu"),keras.layers.Dense(300,activation="tanh")])model.compile(optimizer=tf.train.AdamOptimizer(0.001),loss='mse',metrics=['mae'])model.fit(traindata,trainlabels, epochs=10, batch_size=int(len(traindata)/60))我不確定是什么導(dǎo)致了這個(gè)錯(cuò)誤,但我做了一些故障排除來嘗試縮小可能性。我嘗試的第一件事是嘗試運(yùn)行 TensorFlow 網(wǎng)站上的一個(gè)示例,我選擇了位于此處的 MNIST 時(shí)尚示例。這運(yùn)行沒有錯(cuò)誤,并且訓(xùn)練得很好,所以我不認(rèn)為這是我的 TensorFlow 或 Python 下載中的錯(cuò)誤。然后我嘗試復(fù)制在 MNIST 時(shí)尚示例中使用的模型來測(cè)試它是否是我的模型中的錯(cuò)誤。這是代碼:model = keras.Sequential([    keras.layers.Flatten(input_shape=(60,)),    keras.layers.Dense(128, activation=tf.nn.relu),    keras.layers.Dense(10, activation=tf.nn.softmax)])model.compile(optimizer=tf.train.AdamOptimizer(),loss = 'sparse_categorical_cross_entropy',metrics = ['accuracy'])我對(duì)模型所做的唯一更改是第一層的輸入形狀,以便它能夠接收我的數(shù)據(jù)。但是錯(cuò)誤仍然存在:ValueError: Error when checking target: expected dense_1 to have shape (10,) but got array with shape (60,)我嘗試的最后一件事是制作我自己的密集模型,該模型將接收通過np.random.random.這是整個(gè)文件:import tensorflow as tffrom tensorflow import kerasimport numpy as npimport matplotlib.pyplot as pltdata = np.random.random((50,60))datalabels = np.random.random((50,60))model = keras.Sequential([keras.layers.Dense(128,input_shape=(60,), activation="relu"),keras.layers.Dense(50, activation="relu"),keras.layers.Dense(10, activation="tanh")這個(gè)錯(cuò)誤最讓我困惑的是它只在輸出層出現(xiàn)錯(cuò)誤。如果我在模型的末尾添加另一層,該層將出錯(cuò),除非輸出層中的單元數(shù)等于模型輸入的形狀(例如:input_shape=(60,)最后一層單元數(shù)等于到 60)。有誰知道為什么會(huì)發(fā)生這種情況?
查看完整描述

1 回答

?
慕神8447489

TA貢獻(xiàn)1780條經(jīng)驗(yàn) 獲得超1個(gè)贊

使用model.summary(),你會(huì)看到每一層的輸出形狀。在您提供的第一個(gè)示例中,最后一層的輸出形狀(也是模型的輸出形狀)是(None, 300). 這意味著它需要形狀標(biāo)簽(300,)(即每個(gè)標(biāo)簽的形狀)。然而,似乎標(biāo)簽數(shù)組在調(diào)用時(shí)提供的模型fit,即trainlabels,有一個(gè)形狀(num_samples, 60)。而它必須與模型的輸出形狀一致,因此形狀為(num_samples, 300)。同樣的事情適用于您提到的所有其他失敗示例。


查看完整回答
反對(duì) 回復(fù) 2021-09-11
  • 1 回答
  • 0 關(guān)注
  • 608 瀏覽
慕課專欄
更多

添加回答

舉報(bào)

0/150
提交
取消
微信客服

購課補(bǔ)貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動(dòng)學(xué)習(xí)伙伴

公眾號(hào)

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號(hào)