-
加入矩陣維度
查看全部 -
輸入->隱含->輸出->結果值
查看全部 -
:=的意思是同步更新
阿爾法是學習速率
查看全部 -
什么是梯度下降?
通過一種漸近式的方式,來調整整個函數(shù)的形態(tài)
在這里決定函數(shù)樣子的就是w和b,當然已經(jīng)確定了激勵函數(shù)的情況下
找到一個適合的w和b值:先正向計算一個y值,此時w和b是初始值,此y值和真實的y值會有差異,差異通過損失函數(shù)反饋出來,然后通過損失函數(shù)對w和b進行求導,可以得出損失函數(shù)的極小值,在求極小值的過程中調校w和b,在取得的損失函數(shù)極小值時的y值就和真實的y值差異最小。
查看全部 -
全部訓練損失:單次訓練的加和平均化
查看全部 -
學習值與原始值之間的差異性
y^是學習值,y是原始的標準值
查看全部 -
激勵函數(shù)的作用是提供規(guī)?;姆蔷€性化能力。
三種激勵函數(shù):
Sigmoid。優(yōu)點,整個區(qū)間內可導,缺點,非中心對稱,在值非常大或者非常小時,變化不明顯。
tanh。缺點,在值非常大或者非常小時,變化不明顯。
ReLU。廣泛使用的。
查看全部 -
邏輯回歸是一種最簡化的網(wǎng)絡結構
查看全部 -
節(jié)點,層
和普通函數(shù)相比:
結構的順序性
解決非線性問題,每一個神經(jīng)元,將輸入值進行線性組合,然后轉化為非線性結果
查看全部 -
四大模塊
網(wǎng)絡結構? 激勵函數(shù)
損失函數(shù)? 梯度下降
查看全部 -
神經(jīng)網(wǎng)絡主要功能:
查看全部 -
激勵函數(shù)的作用是提供規(guī)?;姆蔷€性能力
查看全部 -
理解邏輯回歸是一種最簡化的網(wǎng)絡結構
查看全部 -
訓練學習:網(wǎng)絡結構,激勵函數(shù),損失函數(shù),梯度下降
查看全部 -
神經(jīng)網(wǎng)絡
主要功能:分類識別 f(x) cat
分類:圖像(自動駕駛),語音(語音助手),文本(新聞推送)
查看全部
舉報