第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號(hào)安全,請(qǐng)及時(shí)綁定郵箱和手機(jī)立即綁定
已解決430363個(gè)問(wèn)題,去搜搜看,總會(huì)有你想問(wèn)的

循環(huán) model.fit 時(shí)無(wú)法重置模型

循環(huán) model.fit 時(shí)無(wú)法重置模型

不負(fù)相思意 2024-01-16 15:04:19
使用 Keras,我嘗試使用不同的數(shù)據(jù)分割循環(huán)訓(xùn)練會(huì)話 10 次。不過(guò),在每個(gè)循環(huán)之后,我的準(zhǔn)確性會(huì)提高很多,可能是因?yàn)樗粫?huì)重置并在新組中看到新數(shù)據(jù)(訓(xùn)練的數(shù)據(jù)可能會(huì)出現(xiàn)在測(cè)試下一個(gè)循環(huán)中)我預(yù)計(jì) model.fit 會(huì)重置它,如公關(guān)所示。這里的答案說(shuō)它是這樣的,但我無(wú)法做到。然后我在循環(huán)開始時(shí)嘗試了 K.clear_session() ,如 pr 所示。示例 1 在這里,但它什么也沒(méi)做。我可以第一次保存未經(jīng)訓(xùn)練的模型并在循環(huán)開始時(shí)重新加載它,但這似乎是一個(gè)不好的方法/不好的做法。我能做什么/我做錯(cuò)了嗎?from tensorflow.keras import backend as Kfor i in range(0, 10):    print("Starting loop " + str(i))    K.clear_session()    model = keras.Model(inputs=inputs, outputs=outputs, name="SchoolProject")    model.compile(loss=tensorflow.keras.losses.binary_crossentropy, optimizer=tensorflow.keras.optimizers.Adam(lr=hpInitialLearningRate), metrics=['accuracy'])    trainData, valData, testData, trainTruth, valTruth, testTruth = getTrainValAndTestSet()    model.fit(trainData, trainTruth, epochs=hpEpochs, verbose=1, callbacks=callbacks_list, validation_data=(valData, valTruth))    score = model.evaluate(testData, testTruth, verbose=1)    print('Test loss:', score[0])    print('Test accuracy:', score[1])    testAccList.append(score[1])    print("Ending loop " + str(i))
查看完整描述

1 回答

?
波斯汪

TA貢獻(xiàn)1811條經(jīng)驗(yàn) 獲得超4個(gè)贊

最簡(jiǎn)單的方法是在循環(huán)內(nèi)定義模型。這是一個(gè)例子。您會(huì)看到每次迭代,準(zhǔn)確性都會(huì)隨機(jī)開始,然后才會(huì)提高。


import tensorflow as tf


(x_train, y_train), (x_test, y_test) = tf.keras.datasets.mnist.load_data()


x_train = x_train.astype("float32") / 255

x_test = x_test.astype("float32") / 255


for i in range(5):

? ? model = tf.keras.Sequential([

? ? ? ? ? ? tf.keras.Input(shape=(28, 28)),

? ? ? ? ? ? tf.keras.layers.Flatten(),

? ? ? ? ? ? tf.keras.layers.Dense(32, activation='relu'),

? ? ? ? ? ? tf.keras.layers.Dense(64, activation='relu'),

? ? ? ? ? ? tf.keras.layers.Dense(10, activation="softmax"),

? ? ? ? ])

? ? model.compile(loss="sparse_categorical_crossentropy", optimizer="adam",

? ? ? ? ? ? ? ? ? metrics=["accuracy"])

? ? model.fit(x_train, y_train, batch_size=16, epochs=1, validation_split=0.1)

手動(dòng)重置權(quán)重稍微復(fù)雜一些。



查看完整回答
反對(duì) 回復(fù) 2024-01-16
  • 1 回答
  • 0 關(guān)注
  • 187 瀏覽
慕課專欄
更多

添加回答

舉報(bào)

0/150
提交
取消
微信客服

購(gòu)課補(bǔ)貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動(dòng)學(xué)習(xí)伙伴

公眾號(hào)

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號(hào)