課程
/后端開發(fā)
/Python
/機器學(xué)習(xí)-實現(xiàn)簡單神經(jīng)網(wǎng)絡(luò)
老師,為什么初始化w長度為像本數(shù)量,wi*xi,不是應(yīng)該和樣本特征維度一樣長嗎
2017-07-03
源自:機器學(xué)習(xí)-實現(xiàn)簡單神經(jīng)網(wǎng)絡(luò) 4-3
正在回答
感知器其實就是一個函數(shù),其表示形式可以寫成
f(x)=sign(dot(w,x)+b)//dot(w,x)表示求兩個向量的點積
上式中,w是權(quán)重(weigh)向量,b叫做偏置(bias)本教程中的w0就是上面式子里的偏置b.dot(w,x)+b又可以寫成 dot(w,x)+b*1,
這里令W=[b,w1,w2,...,wn] ? ,令X=[1,x1,x2,...,xn],所以初始化W的長度為n+1,多出來的那個就是偏置啦
希望能幫到你~
舉報
人工智能時代,你準(zhǔn)備好成為抓住機遇的那百分之二嗎。
3 回答權(quán)重初始值問題
2 回答更改從w1開始的權(quán)重
1 回答請教下fit過程權(quán)重的求解
2 回答閾值和權(quán)重的區(qū)別是什么?
3 回答關(guān)于 初始化化權(quán)重向量為0
Copyright ? 2025 imooc.com All Rights Reserved | 京ICP備12003892號-11 京公網(wǎng)安備11010802030151號
購課補貼聯(lián)系客服咨詢優(yōu)惠詳情
慕課網(wǎng)APP您的移動學(xué)習(xí)伙伴
掃描二維碼關(guān)注慕課網(wǎng)微信公眾號
2017-09-21
感知器其實就是一個函數(shù),其表示形式可以寫成
上式中,w是權(quán)重(weigh)向量,b叫做偏置(bias)
本教程中的w0就是上面式子里的偏置b.
dot(w,x)+b又可以寫成 dot(w,x)+b*1,
這里令W=[b,w1,w2,...,wn] ? ,令X=[1,x1,x2,...,xn],所以初始化W的長度為n+1,多出來的那個就是偏置啦
希望能幫到你~