課程
/后端開發(fā)
/Python
/給人工智能愛好者的PyTorch入門課
如標(biāo)題所示
2020-06-08
源自:給人工智能愛好者的PyTorch入門課 4-2
正在回答
因?yàn)闅w一話的時(shí)候是先減去平均值0.5 ,然后再除以標(biāo)準(zhǔn)偏差0.5
那么反歸一化就是先乘以0.5,再加0.5。
舉報(bào)
Pytorch基礎(chǔ)課程,兩小時(shí)帶你入門人工智能的世界!
1 回答為什么計(jì)算X的梯度值是1.5
3 回答為什么我每個(gè)epoch只訓(xùn)練了2000次
2 回答Anaconda下載的pytorch,jupyter為什么不能import啊
1 回答為什么GPU利用率在5-10%之間,而CPU是100%
1 回答data什么? 如果數(shù)據(jù)不夠,然后用什么?
Copyright ? 2025 imooc.com All Rights Reserved | 京ICP備12003892號(hào)-11 京公網(wǎng)安備11010802030151號(hào)
購課補(bǔ)貼聯(lián)系客服咨詢優(yōu)惠詳情
慕課網(wǎng)APP您的移動(dòng)學(xué)習(xí)伙伴
掃描二維碼關(guān)注慕課網(wǎng)微信公眾號(hào)
2020-07-13
因?yàn)闅w一話的時(shí)候是先減去平均值0.5 ,然后再除以標(biāo)準(zhǔn)偏差0.5
那么反歸一化就是先乘以0.5,再加0.5。