課程
/前沿技術(shù)
/機(jī)器學(xué)習(xí)
/推薦算法理論與實(shí)踐
optimizer = tf.optimizers.Adam(1e-4)
train = optimizer.minimize(loss)?通不過(guò)
2020-10-10
源自:推薦算法理論與實(shí)踐 3-2
正在回答
2.0以上版本把代碼改為:
optimizer = tf.compat.v1.train.AdamOptimizer(1e-4)
train = optimizer.minimize(loss)
jimmywong111
換回v1版本,tf改為tf.compat.v1
米開(kāi)朗琪羅哎
舉報(bào)
想要了解商品推薦背后的原理嗎,課程將手把手帶你做一個(gè)推薦系統(tǒng)!
2 回答可能是TensorFlow的版本問(wèn)題,但是實(shí)在不會(huì)改了
4 回答為什么我到這里的時(shí)候會(huì)出錯(cuò)?可以幫我查看一下是什么原因嗎?
1 回答講的太好了,老師還有實(shí)戰(zhàn)的課程嗎
1 回答老師,幫我看看這個(gè)錯(cuò)誤,試了很多方法,沒(méi)有解決。
2 回答i和j到底哪個(gè)是電影哪個(gè)是用戶(hù)
Copyright ? 2025 imooc.com All Rights Reserved | 京ICP備12003892號(hào)-11 京公網(wǎng)安備11010802030151號(hào)
購(gòu)課補(bǔ)貼聯(lián)系客服咨詢(xún)優(yōu)惠詳情
慕課網(wǎng)APP您的移動(dòng)學(xué)習(xí)伙伴
掃描二維碼關(guān)注慕課網(wǎng)微信公眾號(hào)
2022-03-13
2.0以上版本把代碼改為:
optimizer = tf.compat.v1.train.AdamOptimizer(1e-4)
train = optimizer.minimize(loss)
2020-11-19
換回v1版本,tf改為tf.compat.v1