最新回答 / 暴躁的飛毛腿
模型的學(xué)習(xí)率η是根據(jù)經(jīng)驗人為調(diào)整的,這個值會影響整個模型的學(xué)習(xí)效果,過小則會導(dǎo)致學(xué)習(xí)時間過長,過大則學(xué)習(xí)結(jié)果會出現(xiàn)震蕩。
最新回答 / zony
np.zeros()
最贊回答 / iioouu
```import numpy as npclass perceptron(object):? ? """? ? eta :學(xué)習(xí)率? ? n_iter: 權(quán)重向量的訓(xùn)練次數(shù)? ? w_: 神經(jīng)分叉權(quán)重向量? ? errors_: 用于記錄神經(jīng)元判斷出錯次數(shù)? ? """? ? def _int_(self,eta=0.01,n_iter=10):? ? ? ? self.eta=eta;? ? ? ? self.n_iter=n_iter;? ? ? ? pass? ? def fit(self,x,y)...
2017-07-12
最新回答 / 慕桂英0578445
2乘N的矩陣吧,感覺是數(shù)字本身平方再求矩陣各數(shù)之和
最新回答 / SherlockZoom
感知機(jī)的學(xué)習(xí)是有監(jiān)督學(xué)習(xí),在訓(xùn)練過程是有正確的類別來指導(dǎo)學(xué)習(xí)的,也就是每輪訓(xùn)練給出分類結(jié)果之后,只需要和gold類別對比就可以知道是否分類正確。
2017-07-06
最贊回答 / 慕函數(shù)5970831
感知器其實就是一個函數(shù),其表示形式可以寫成<...code...>上式中,w是權(quán)重(weigh)向量,b叫做偏置(bias)本教程中的w0就是上面式子里的偏置b.dot(w,x)+b又可以寫成 dot(w,x)+b*1,這里令W=[b,w1,w2,...,wn] ? ,令X=[1,x1,x2,...,xn],所以初始化W的長度為n+1,多出來的那個就是偏置啦希望能幫到你~
2017-07-03
最新回答 / 慕前端1296039
首先,我們所求的答案并不一定是最優(yōu)答案(最值),而通常是相對最優(yōu)答案(極值)。拿周志華機(jī)器學(xué)習(xí)中的例子來說,當(dāng)你站在山坡的某個位置時,只看你當(dāng)前位置朝哪個方向走下山最快(即求導(dǎo)的過程),然后朝那個方向邁出一步(即更新權(quán)重的過程),之后繼續(xù)看朝哪個方向走下山最快,再繼續(xù)邁出一步(反復(fù)迭代)。也許,你會走到真正的山底(最值),也許你遇到某個坑就停下了(極值)。而針對極值,如果想要跳出,就涉及后面的優(yōu)化算法了。
2017-07-02
已采納回答 / 夏沫漓
將net_input 和?predict 方法 放到 fit方法外面
+ 我來回答
回答最高可+2積分
最贊回答 / Miss_Squirrel
<...code...>這部分代碼其實只是為了描繪出分隔兩類的那條分界線,減1只是為了擴(kuò)大坐標(biāo)軸范圍,點更居中一些,這樣畫出的圖會更好看。以上,謝謝!