最新回答 / LoNeFong
你定義函數(shù)得時候留了參數(shù)位置嘛
+ 我來回答
回答最高可+2積分
最新回答 / 慕沐6169659
1你肯定是把model和regression寫在一起了沒有注釋后面的運(yùn)行部分2host改為127.0.0.1
最贊回答 / niaiai
train_accuracy?=?accuracy.eval(feed_dict={x:?batch[0],?y_:?batch[1],?keep_prob:?1.0})
最新回答 / 半夜吹風(fēng)
https://github.com/byerHu/mnist_web
已采納回答 / qq_憂傷_0
https://github.com/byerHu/mnist_web
已采納回答 / TendeRess
emmmm...這個就是老師視頻里面出現(xiàn)的錯誤,是老師不小心少打了個“_”這一行:<...code...>
最新回答 / qq_深貓_04306026
預(yù)測的時候不需要drop out 的操作。tf.nn.dropout里面的參數(shù)keep_prob的意思是:留下的神經(jīng)元的概率,如果keep_prob為0的話, 就是讓所有的神經(jīng)元都失活。類似的函數(shù)是tf.layers.dropout,里面的參數(shù)是rate,是失活的概率??梢钥磆ttps://stackoverflow.com/questions/44395547/tensorflow-whats-the-difference-between-tf-nn-dropout-and-tf-layers-drop...
最新回答 / MariaBrown
請問樓上的問題解決了嗎另外應(yīng)該記得加負(fù)號哦