最新回答 / 慕沐6169659
1你肯定是把model和regression寫在一起了沒有注釋后面的運行部分2host改為127.0.0.1
最贊回答 / niaiai
train_accuracy?=?accuracy.eval(feed_dict={x:?batch[0],?y_:?batch[1],?keep_prob:?1.0})
2018-11-09
已采納回答 / qq_憂傷_0
https://github.com/byerHu/mnist_web
最新回答 / qq_深貓_04306026
預測的時候不需要drop out 的操作。tf.nn.dropout里面的參數(shù)keep_prob的意思是:留下的神經(jīng)元的概率,如果keep_prob為0的話, 就是讓所有的神經(jīng)元都失活。類似的函數(shù)是tf.layers.dropout,里面的參數(shù)是rate,是失活的概率??梢钥磆ttps://stackoverflow.com/questions/44395547/tensorflow-whats-the-difference-between-tf-nn-dropout-and-tf-layers-drop...
2018-10-10