課程
/后端開發(fā)
/Python
/機器學習-實現(xiàn)簡單神經(jīng)網(wǎng)絡(luò)
這個cost數(shù)組并沒有用上啊,怎么體現(xiàn)訓練成本越來越?。?/p>
2017-05-16
源自:機器學習-實現(xiàn)簡單神經(jīng)網(wǎng)絡(luò) 4-3
正在回答
cost這個變量,記錄的是每一輪迭代中代價函數(shù)的值,而本案例中使用的是方差總和來衡量代價總量。具體見代碼:
for?_?in?range(n_iter): ????... ????errors?=?y?-?output ????cost?=?(errors?**?2).sum() ????cost_.append(cost) ????...
反向傳播調(diào)整權(quán)重的目的,是為了讓代價函數(shù)的值最小。案例中體現(xiàn)在隨著訓練次數(shù)的增加,從第1次到第50次,總代價的快速下降。
舉報
人工智能時代,你準備好成為抓住機遇的那百分之二嗎。
3 回答為什么說學習率越小越好
2 回答誰有訓練用的數(shù)據(jù)
2 回答訓練樣本CSV
2 回答pnn訓練沒講
1 回答使用perception對iris數(shù)據(jù)處理中的越界問題
Copyright ? 2025 imooc.com All Rights Reserved | 京ICP備12003892號-11 京公網(wǎng)安備11010802030151號
購課補貼聯(lián)系客服咨詢優(yōu)惠詳情
慕課網(wǎng)APP您的移動學習伙伴
掃描二維碼關(guān)注慕課網(wǎng)微信公眾號
2017-10-04
cost這個變量,記錄的是每一輪迭代中代價函數(shù)的值,而本案例中使用的是方差總和來衡量代價總量。具體見代碼:
反向傳播調(diào)整權(quán)重的目的,是為了讓代價函數(shù)的值最小。案例中體現(xiàn)在隨著訓練次數(shù)的增加,從第1次到第50次,總代價的快速下降。