神經(jīng)網(wǎng)絡(luò)怎么培訓(xùn)的,是不是漏掉講了,懵逼了?
最新回答 / SherlockZoom
感知機(jī)的學(xué)習(xí)是有監(jiān)督學(xué)習(xí),在訓(xùn)練過程是有正確的類別來指導(dǎo)學(xué)習(xí)的,也就是每輪訓(xùn)練給出分類結(jié)果之后,只需要和gold類別對比就可以知道是否分類正確。
2017-07-06
最贊回答 / 慕函數(shù)5970831
感知器其實(shí)就是一個(gè)函數(shù),其表示形式可以寫成<...code...>上式中,w是權(quán)重(weigh)向量,b叫做偏置(bias)本教程中的w0就是上面式子里的偏置b.dot(w,x)+b又可以寫成 dot(w,x)+b*1,這里令W=[b,w1,w2,...,wn] ? ,令X=[1,x1,x2,...,xn],所以初始化W的長度為n+1,多出來的那個(gè)就是偏置啦希望能幫到你~
2017-07-03
最新回答 / 慕前端1296039
首先,我們所求的答案并不一定是最優(yōu)答案(最值),而通常是相對最優(yōu)答案(極值)。拿周志華機(jī)器學(xué)習(xí)中的例子來說,當(dāng)你站在山坡的某個(gè)位置時(shí),只看你當(dāng)前位置朝哪個(gè)方向走下山最快(即求導(dǎo)的過程),然后朝那個(gè)方向邁出一步(即更新權(quán)重的過程),之后繼續(xù)看朝哪個(gè)方向走下山最快,再繼續(xù)邁出一步(反復(fù)迭代)。也許,你會走到真正的山底(最值),也許你遇到某個(gè)坑就停下了(極值)。而針對極值,如果想要跳出,就涉及后面的優(yōu)化算法了。
2017-07-02
已采納回答 / 夏沫漓
將net_input 和?predict 方法 放到 fit方法外面
errors+=int(update!=0.0)
self.errors_.append(errors)
pass
pass
def net_input(self,x):
return np.dot(X,self.w_[1:])+self.w_[0]
pass
def predict(self,x):
return np.where(self.net_input(x)>=0.0,1,-1)
pass
pass
pass
點(diǎn)贊排序吧!
self.errors_.append(errors)
pass
pass
def net_input(self,x):
return np.dot(X,self.w_[1:])+self.w_[0]
pass
def predict(self,x):
return np.where(self.net_input(x)>=0.0,1,-1)
pass
pass
pass
點(diǎn)贊排序吧!
2017-06-30
self.w_=np.zeros(1+x.shape[1]);
self.errors_=[]
for _ in range(self.n_iter):
errors=0
for xi,taret in zip(x,y):
"""
update=eat*(y-y')
xi 向量
"""
update =self.eta*(target-self.predict(xi))
self.w_[1:]+=update*xi
self.w_[0]+=update;
self.errors_=[]
for _ in range(self.n_iter):
errors=0
for xi,taret in zip(x,y):
"""
update=eat*(y-y')
xi 向量
"""
update =self.eta*(target-self.predict(xi))
self.w_[1:]+=update*xi
self.w_[0]+=update;
2017-06-30
#-*- coding: utf8 -*-
import numpy as np
class Perceptron(object):
"""
eat 學(xué)習(xí)率
n_iter 權(quán)重向量的訓(xùn)練次數(shù)
w—— 神經(jīng)分叉權(quán)重
errors 記錄神經(jīng)元判斷出錯(cuò)次數(shù)
"""
def __init__(self, eat=0.01,n_iter=10):
self.eta = eta
self.n_iter=n_iter
def fit(self,x,y):
import numpy as np
class Perceptron(object):
"""
eat 學(xué)習(xí)率
n_iter 權(quán)重向量的訓(xùn)練次數(shù)
w—— 神經(jīng)分叉權(quán)重
errors 記錄神經(jīng)元判斷出錯(cuò)次數(shù)
"""
def __init__(self, eat=0.01,n_iter=10):
self.eta = eta
self.n_iter=n_iter
def fit(self,x,y):
2017-06-30