第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號(hào)安全,請(qǐng)及時(shí)綁定郵箱和手機(jī)立即綁定

自己動(dòng)手制作人工神經(jīng)網(wǎng)絡(luò)0x3:訓(xùn)練部分

標(biāo)簽:
深度學(xué)習(xí)

今天来实现训练的功能,给ANN类添加一个train方法。
函数的参数第一个是输入的节点(inputs_list),数据类型是list;第二个参数是预期的输出节点的值(outputs_list),数据类型也是list。

首先,把两个参数传进来的list转换成numpy的array,转换后的大小是(list.size, 1)

然后,向上一篇文章一样,分别计算隐藏层和输出层,得到我们的输出(o_o)。

接着计算误差并反向传播。这里使用梯度下降的方式,误差函数是预期值与实际值的方差。这里直接给出梯度方程,即求误差函数相对于权重的斜率。
-(e_j)sigmoid(\sum_iw_{ij}o_i)(1-sigmoid(\sum_iw_{ij}o_i))o_i
ej表示下一层节点j的误差量;oi上一层节点i的值。

隐藏层到输出层的权重ej为输出层的误差量eo=tj-oj
这里tj表示输出层节点j的期望值;oj表示输出层节点j实际值

输入到隐藏的权重ej按权重把隐藏层到输出层的误差量反向传播得到;
即ej=eh=who.T*eo

关于这个公式我会在系列文章最后更一篇详细解释。

    def train(self, inputs_list, outputs_list):        # translation
        i = np.array(inputs_list, ndmin=2).T
        t = np.array(outputs_list, ndmin=2).T        # hidden
        h_i = np.dot(self.wih, i)
        h_o = self.a_f(h_i)        # output
        o_i = np.dot(self.who, h_o)
        o_o = self.a_f(o_i)        # error
        o_e = t - o_o
        h_e = np.dot(self.who.T, o_e)        # fix
        #r * ( (E*o*(1-o)) * lo.T)
        self.who += self.lr * np.dot(o_e * o_o * (1 - o_o), np.transpose(h_o))        self.wih += self.lr * np.dot(h_e * h_o * (1 - h_o), np.transpose(i))

最后说一句,权重的更新方式是减去梯度方程的值,因为梯度值为正意味着权重需要减少才能减少误差函数的值。需要注意的是代码还把梯度值乘上了学习速率,这样可以控制权重更新的幅度
这样,我们便完成了训练部分的功能。接下来,我还会继续更新如何使用这个ANN类,来完成手写数字识别的任务。



作者:御史神风
链接:https://www.jianshu.com/p/eec9ae9821ff


點(diǎn)擊查看更多內(nèi)容
TA 點(diǎn)贊

若覺(jué)得本文不錯(cuò),就分享一下吧!

評(píng)論

作者其他優(yōu)質(zhì)文章

正在加載中
  • 推薦
  • 評(píng)論
  • 收藏
  • 共同學(xué)習(xí),寫下你的評(píng)論
感謝您的支持,我會(huì)繼續(xù)努力的~
掃碼打賞,你說(shuō)多少就多少
贊賞金額會(huì)直接到老師賬戶
支付方式
打開微信掃一掃,即可進(jìn)行掃碼打賞哦
今天注冊(cè)有機(jī)會(huì)得

100積分直接送

付費(fèi)專欄免費(fèi)學(xué)

大額優(yōu)惠券免費(fèi)領(lǐng)

立即參與 放棄機(jī)會(huì)
微信客服

購(gòu)課補(bǔ)貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動(dòng)學(xué)習(xí)伙伴

公眾號(hào)

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號(hào)

舉報(bào)

0/150
提交
取消