第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號(hào)安全,請(qǐng)及時(shí)綁定郵箱和手機(jī)立即綁定

sigmoid和tanh求導(dǎo)的最終結(jié)果,以及Sigmoid函數(shù)與損失函數(shù)求導(dǎo)

標(biāo)簽:
算法
  1. sigmoid
    Sigmoid函数,即f(x)=1/(1+e-x)。是神经元的非线性作用函数。
    https://img1.sycdn.imooc.com//5b3ee8e70001ecad03470117.jpg

2.
函数:https://img1.sycdn.imooc.com//5b3ee8ee0001e06103990103.jpg

https://img1.sycdn.imooc.com//5b3ee8f60001460108850475.jpg

1.1 从指数函数到sigmoid

首先我们来画出指数函数的基本图形:

https://img1.sycdn.imooc.com//5b3ee9010001dea120661176.jpg

从上图,我们得到了这样的几个信息,指数函数过(0,1)点,单调递增/递减,定义域为(−∞,+∞),值域为(0,+∞),再来我们看一下sigmoid函数的图像:

https://img1.sycdn.imooc.com//5b3ee91d0001c6c416501168.jpg

如果直接把e−x放到分母上,就与ex图像一样了,所以分母加上1,就得到了上面的图像,定义域是(−∞,+∞),值域是(0,1),那么就有一个很好地特性了,就是不管x是什么,都可以得到(0,1)之间的值;
1.2 对数函数与sigmoid

首先来看一下对数函数的图像:
https://img1.sycdn.imooc.com//5b3ee92600012e3220841236.jpg

对数函数的图像如上,单调递减,有一个比较好的特性就是在(0,1)之间,在接近0的时候,就近无穷大,接近1的时候为0,如果我们把前面的sigmoid函数放到自变量的位置上,就得到了(0,1)的图像;

我们如何来衡量一个结果与实际计算值得差距呢?一种思路就是,如果结果越接近,差值就越小,反之越大,这个函数就提供了这样一种思路,如果计算得到的值越接近1,那么那么表示与世界结果越接近,反之越远,所以利用这个函数,可以作为逻辑回归分类器的损失函数,如果所有的结果都能接近结果值,那么就越接近于0,如果所有的样本计算完成以后,结果接近于0,就表示计算结果与实际结果非常相近。
2、sigmoid函数求导

sigmoid导数具体的推导过程如下:

https://img1.sycdn.imooc.com//5b3ee932000171de05940459.jpg

3、神经网络损失函数求导

神经网络的损失函数可以理解为是一个多级的复合函数,求导使用链式法则。

https://img1.sycdn.imooc.com//5b3ee93c00018cf111270099.jpg

先来说一下常规求导的过程:
https://img1.sycdn.imooc.com//5b3eea150001acf702500074.jpg
https://img1.sycdn.imooc.com//5b3ee9440001e8cd09430504.jpg

这是一个简单的复合函数,如上图所示,c是a的函数,e是c的函数,如果我们用链式求导法则,分别对a和b求导,那么就是求出e对c的导数,c对a的导数,乘起来,对b求导则是求出e分别对c和d的导数,分别求c和d对b的导数,然后加起来,这种方法使我们常规的做法,有一个问题就是,我们在求到的过程中,e对c求导计算了2次,如果方程特别复杂,那么这个计算量就变得很大,怎样能够让每次求导只计算一次呢?

https://img1.sycdn.imooc.com//5b3ee95300012a7f10300542.jpg

如上图所示,我们从上往下开始计算,将每个单元的值计算出来,然后计算每个单元的偏导数,保存下来;

接下来继续计算子单元的值,子单元的偏导数,保存下来;将最后的子单元到根节点所在的路径的所有偏导乘起来,就是该函数对这个变量的偏导,计算的本质就是从上往下,计算的时候将值存起来,乘到后面的单元上去,这样每个路径的偏导计算只需要一次,从上到下计算一遍就得到了所有的偏导数。

实际上BP(Backpropagation,反向传播算法),就是如此计算的,如果现在有一个三层的神经网络,有输入、一个隐藏层,输出层,我们对损失函数求权重的偏导数,它是一个复杂的复合函数,如果先对第一层的权重求偏导,然后在对第二层的权重求偏导,会发现,其中有很多重复计算的步骤,就像上面的简单函数的示例,所以,为了避免这种消耗,我们采用的就是从后往前求偏导,求出每个单元的函数值,求出对应单元的偏导数,保存下来,一直乘下去,输入层。

下面用一个简单的示例来演示一下反向传播求偏导的过程:

https://img1.sycdn.imooc.com//5b3eea31000144b409730645.jpg

那么我们会有两个初始的权重矩阵:
https://img1.sycdn.imooc.com//5b3eea5300014aab04060227.jpg

我们得到了上面的矩阵,现在我们以sigmoid函数作为激活函数,分别来计算每一层网络的激励(假设我们只有一个样本,输入是x1,x2,输出是y);

第一层是输入,激励就是样本的特征值;记为:

https://img1.sycdn.imooc.com//5b3ee96f00019b2f03060208.jpg
X0是偏置项,为1.

第二层是隐藏层,激励通过特征值与区中相乘得到,然后取sigmoid函数变换,得到https://img1.sycdn.imooc.com//5b3eeaba0001a1e800570058.jpg,未变换之前的记为https://img1.sycdn.imooc.com//5b3eeac100016dae00540046.jpg

https://img1.sycdn.imooc.com//5b3eeae00001f86c05420370.jpg
在上面,我们最后加上了偏置项;

接下来第三层是输出层:

https://img1.sycdn.imooc.com//5b3eeaf300019a0005550224.jpg

因为是输出层了,所以不需要再往下计算,所以不加偏置项;

上面的计算流程,从输入到输出,我们也称为前向传播(Forward propagation)。

然后,我们根据损失函数,写出损失函数的公式,在这里,只有一个输入,一个输出,所以损失函数写出来较为简单:

在这里,m=1;

https://img1.sycdn.imooc.com//5b3eeb0c00014a4010790202.jpg
说明:https://img1.sycdn.imooc.com//5b3eeb170001a49403240065.jpg实际上就是所有的权重的平方和,一般不会将和偏置项相乘的那个放进来;这个项很简单,暂时先不管它,后面不暂时不写这一项(这个是正则化)。
https://img1.sycdn.imooc.com//5b3eeb2d000130d506080096.jpg

https://img1.sycdn.imooc.com//5b3eeb390001817611700138.jpg
https://img1.sycdn.imooc.com//5b3eeb42000150fc04860181.jpg

https://img1.sycdn.imooc.com//5b3eeb4b0001b86611720840.jpg

更多激活函数知识参考文献:https://www.jianshu.com/p/22d9720dbf1a


點(diǎn)擊查看更多內(nèi)容
TA 點(diǎn)贊

若覺得本文不錯(cuò),就分享一下吧!

評(píng)論

作者其他優(yōu)質(zhì)文章

正在加載中
  • 推薦
  • 評(píng)論
  • 收藏
  • 共同學(xué)習(xí),寫下你的評(píng)論
感謝您的支持,我會(huì)繼續(xù)努力的~
掃碼打賞,你說多少就多少
贊賞金額會(huì)直接到老師賬戶
支付方式
打開微信掃一掃,即可進(jìn)行掃碼打賞哦
今天注冊(cè)有機(jī)會(huì)得

100積分直接送

付費(fèi)專欄免費(fèi)學(xué)

大額優(yōu)惠券免費(fèi)領(lǐng)

立即參與 放棄機(jī)會(huì)
微信客服

購課補(bǔ)貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動(dòng)學(xué)習(xí)伙伴

公眾號(hào)

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號(hào)

舉報(bào)

0/150
提交
取消