課程
/后端開發(fā)
/Python
/TensorFlow與Flask結(jié)合打造手寫體數(shù)字識別
如題,預(yù)測的時候不需要進(jìn)行drop out 的操作了吧
2018-10-10
源自:TensorFlow與Flask結(jié)合打造手寫體數(shù)字識別 3-7
正在回答
預(yù)測的時候不需要drop out 的操作。
tf.nn.dropout里面的參數(shù)keep_prob的意思是:留下的神經(jīng)元的概率,如果keep_prob為0的話, 就是讓所有的神經(jīng)元都失活。
類似的函數(shù)是tf.layers.dropout,里面的參數(shù)是rate,是失活的概率。
可以看https://stackoverflow.com/questions/44395547/tensorflow-whats-the-difference-between-tf-nn-dropout-and-tf-layers-dropout。
舉報
TensorFlow和flask結(jié)合識別自己的手寫體數(shù)字
1 回答訓(xùn)練報錯 train_accuracy = accuracy.eval(feed_dict={x: batch[0], y: batch[1], keep_prob: 1.0}) 不知道哪里出錯了
1 回答前段顯示不出預(yù)測結(jié)果
2 回答Please use `rate` instead of `keep_prob`. Rate should be set to `rate = 1 - keep_prob`. W0821 16:03:43.620532 8444 _internal.py:87] * Debugger is active!
3 回答運行卷積的時候出錯...找不到問題出在哪里...
1 回答運行regression的時候報錯如下?
Copyright ? 2025 imooc.com All Rights Reserved | 京ICP備12003892號-11 京公網(wǎng)安備11010802030151號
購課補貼聯(lián)系客服咨詢優(yōu)惠詳情
慕課網(wǎng)APP您的移動學(xué)習(xí)伙伴
掃描二維碼關(guān)注慕課網(wǎng)微信公眾號
2018-11-28
預(yù)測的時候不需要drop out 的操作。
tf.nn.dropout里面的參數(shù)keep_prob的意思是:留下的神經(jīng)元的概率,如果keep_prob為0的話, 就是讓所有的神經(jīng)元都失活。
類似的函數(shù)是tf.layers.dropout,里面的參數(shù)是rate,是失活的概率。
可以看https://stackoverflow.com/questions/44395547/tensorflow-whats-the-difference-between-tf-nn-dropout-and-tf-layers-dropout。