我已經(jīng)在互聯(lián)網(wǎng)上搜索了幾天,試圖找到解決此錯(cuò)誤的方法,但我找不到任何特別適用的內(nèi)容:ValueError: Error when checking target: expected dense_2 to have shape (300,) but got array with shape (60,)這是生成錯(cuò)誤的代碼(數(shù)據(jù)預(yù)處理除外):model = keras.Sequential([keras.layers.Conv1D(5,input_shape=(1,60), kernel_size=12, padding='same'), keras.layers.Conv1D(10, padding='same',activation=tf.nn.relu, kernel_size=10),keras.layers.Conv1D(20, padding='same',activation=tf.nn.relu, kernel_size=6),keras.layers.Conv1D(30, padding='same',activation=tf.nn.relu, kernel_size=5),keras.layers.Flatten(),keras.layers.Dense(70, activation="relu"),keras.layers.Dense(300,activation="tanh")])model.compile(optimizer=tf.train.AdamOptimizer(0.001),loss='mse',metrics=['mae'])model.fit(traindata,trainlabels, epochs=10, batch_size=int(len(traindata)/60))我不確定是什么導(dǎo)致了這個(gè)錯(cuò)誤,但我做了一些故障排除來嘗試縮小可能性。我嘗試的第一件事是嘗試運(yùn)行 TensorFlow 網(wǎng)站上的一個(gè)示例,我選擇了位于此處的 MNIST 時(shí)尚示例。這運(yùn)行沒有錯(cuò)誤,并且訓(xùn)練得很好,所以我不認(rèn)為這是我的 TensorFlow 或 Python 下載中的錯(cuò)誤。然后我嘗試復(fù)制在 MNIST 時(shí)尚示例中使用的模型來測(cè)試它是否是我的模型中的錯(cuò)誤。這是代碼:model = keras.Sequential([ keras.layers.Flatten(input_shape=(60,)), keras.layers.Dense(128, activation=tf.nn.relu), keras.layers.Dense(10, activation=tf.nn.softmax)])model.compile(optimizer=tf.train.AdamOptimizer(),loss = 'sparse_categorical_cross_entropy',metrics = ['accuracy'])我對(duì)模型所做的唯一更改是第一層的輸入形狀,以便它能夠接收我的數(shù)據(jù)。但是錯(cuò)誤仍然存在:ValueError: Error when checking target: expected dense_1 to have shape (10,) but got array with shape (60,)我嘗試的最后一件事是制作我自己的密集模型,該模型將接收通過np.random.random.這是整個(gè)文件:import tensorflow as tffrom tensorflow import kerasimport numpy as npimport matplotlib.pyplot as pltdata = np.random.random((50,60))datalabels = np.random.random((50,60))model = keras.Sequential([keras.layers.Dense(128,input_shape=(60,), activation="relu"),keras.layers.Dense(50, activation="relu"),keras.layers.Dense(10, activation="tanh")這個(gè)錯(cuò)誤最讓我困惑的是它只在輸出層出現(xiàn)錯(cuò)誤。如果我在模型的末尾添加另一層,該層將出錯(cuò),除非輸出層中的單元數(shù)等于模型輸入的形狀(例如:input_shape=(60,)最后一層單元數(shù)等于到 60)。有誰知道為什么會(huì)發(fā)生這種情況?
1 回答

慕神8447489
TA貢獻(xiàn)1780條經(jīng)驗(yàn) 獲得超1個(gè)贊
使用model.summary()
,你會(huì)看到每一層的輸出形狀。在您提供的第一個(gè)示例中,最后一層的輸出形狀(也是模型的輸出形狀)是(None, 300)
. 這意味著它需要形狀標(biāo)簽(300,)
(即每個(gè)標(biāo)簽的形狀)。然而,似乎標(biāo)簽數(shù)組在調(diào)用時(shí)提供的模型fit
,即trainlabels
,有一個(gè)形狀(num_samples, 60)
。而它必須與模型的輸出形狀一致,因此形狀為(num_samples, 300)
。同樣的事情適用于您提到的所有其他失敗示例。
添加回答
舉報(bào)
0/150
提交
取消