最新回答 / LoNeFong
你定義函數(shù)得時(shí)候留了參數(shù)位置嘛
最新回答 / 慕沐6169659
1你肯定是把model和regression寫(xiě)在一起了沒(méi)有注釋后面的運(yùn)行部分2host改為127.0.0.1
+ 我來(lái)回答
回答最高可+2積分
最贊回答 / niaiai
train_accuracy?=?accuracy.eval(feed_dict={x:?batch[0],?y_:?batch[1],?keep_prob:?1.0})
最新回答 / 半夜吹風(fēng)
https://github.com/byerHu/mnist_web
已采納回答 / qq_憂(yōu)傷_0
https://github.com/byerHu/mnist_web
已采納回答 / TendeRess
emmmm...這個(gè)就是老師視頻里面出現(xiàn)的錯(cuò)誤,是老師不小心少打了個(gè)“_”這一行:<...code...>
最新回答 / qq_深貓_04306026
預(yù)測(cè)的時(shí)候不需要drop out 的操作。tf.nn.dropout里面的參數(shù)keep_prob的意思是:留下的神經(jīng)元的概率,如果keep_prob為0的話, 就是讓所有的神經(jīng)元都失活。類(lèi)似的函數(shù)是tf.layers.dropout,里面的參數(shù)是rate,是失活的概率??梢钥磆ttps://stackoverflow.com/questions/44395547/tensorflow-whats-the-difference-between-tf-nn-dropout-and-tf-layers-drop...
最新回答 / MariaBrown
請(qǐng)問(wèn)樓上的問(wèn)題解決了嗎另外應(yīng)該記得加負(fù)號(hào)哦