課程
/后端開發(fā)
/Python
/TensorFlow與Flask結(jié)合打造手寫體數(shù)字識(shí)別
如題,預(yù)測(cè)的時(shí)候不需要進(jìn)行drop out 的操作了吧
2018-10-10
源自:TensorFlow與Flask結(jié)合打造手寫體數(shù)字識(shí)別 3-7
正在回答
預(yù)測(cè)的時(shí)候不需要drop out 的操作。
tf.nn.dropout里面的參數(shù)keep_prob的意思是:留下的神經(jīng)元的概率,如果keep_prob為0的話, 就是讓所有的神經(jīng)元都失活。
類似的函數(shù)是tf.layers.dropout,里面的參數(shù)是rate,是失活的概率。
可以看https://stackoverflow.com/questions/44395547/tensorflow-whats-the-difference-between-tf-nn-dropout-and-tf-layers-dropout。
舉報(bào)
TensorFlow和flask結(jié)合識(shí)別自己的手寫體數(shù)字
1 回答訓(xùn)練報(bào)錯(cuò) train_accuracy = accuracy.eval(feed_dict={x: batch[0], y: batch[1], keep_prob: 1.0}) 不知道哪里出錯(cuò)了
1 回答前段顯示不出預(yù)測(cè)結(jié)果
2 回答Please use `rate` instead of `keep_prob`. Rate should be set to `rate = 1 - keep_prob`. W0821 16:03:43.620532 8444 _internal.py:87] * Debugger is active!
3 回答運(yùn)行卷積的時(shí)候出錯(cuò)...找不到問題出在哪里...
1 回答運(yùn)行regression的時(shí)候報(bào)錯(cuò)如下?
Copyright ? 2025 imooc.com All Rights Reserved | 京ICP備12003892號(hào)-11 京公網(wǎng)安備11010802030151號(hào)
購課補(bǔ)貼聯(lián)系客服咨詢優(yōu)惠詳情
慕課網(wǎng)APP您的移動(dòng)學(xué)習(xí)伙伴
掃描二維碼關(guān)注慕課網(wǎng)微信公眾號(hào)
2018-11-28
預(yù)測(cè)的時(shí)候不需要drop out 的操作。
tf.nn.dropout里面的參數(shù)keep_prob的意思是:留下的神經(jīng)元的概率,如果keep_prob為0的話, 就是讓所有的神經(jīng)元都失活。
類似的函數(shù)是tf.layers.dropout,里面的參數(shù)是rate,是失活的概率。
可以看https://stackoverflow.com/questions/44395547/tensorflow-whats-the-difference-between-tf-nn-dropout-and-tf-layers-dropout。