-
主要功能 1 分類識別 f(x) -> cat 圖像、語音(密集型矩陣) 文本(吸收型矩陣) 自動駕駛 語音助手 新聞推送查看全部
-
仿生學產(chǎn)品查看全部
-
損失函數(shù) 單次訓練損失查看全部
-
激勵函數(shù):Sigmoid tanh ReLU查看全部
-
損失函數(shù)y 對整個邏輯回歸過程逆向進行評判查看全部
-
z(x)線性函數(shù) g(z)非線性函數(shù) 激活函數(shù)查看全部
-
首先隱含層將x值用z的函數(shù)線性表示,然后輸出層中的激活函數(shù)g(x)將x由線性組合編程非線性組合查看全部
-
網(wǎng)絡結構?? 激勵函數(shù)?? 損失函數(shù)?? 梯度下降??查看全部
-
學習查看全部
-
神經(jīng)網(wǎng)絡分類查看全部
-
神經(jīng)網(wǎng)絡--邏輯回歸梯度下降查看全部
-
神經(jīng)網(wǎng)絡--全部訓練損失函數(shù)查看全部
-
神經(jīng)網(wǎng)絡--單次訓練損失函數(shù)查看全部
-
神經(jīng)網(wǎng)絡--激勵函數(shù)查看全部
-
一次正向運算就可以得到一個y(預測值),根據(jù)這個預測y與真實y之間的差異得到損失函數(shù),每一個損失函數(shù)都可表示成一個面,那么這個面上有最大值也有最小值,這是根據(jù)地圖下降得到這個面上的最小值(這個點就是預測y與實際y之間的差異最?。鶕?jù)這個點來調整W,b,這是一次計算加調整,神經(jīng)網(wǎng)絡就是經(jīng)過多次計算與調整,最終的W,b,趨于穩(wěn)定,這時就得到了一個最優(yōu)的邏輯回歸方程(最接近實際問題的),也即得到了這個神經(jīng)網(wǎng)絡訓練出來的最優(yōu)模型。查看全部
舉報
0/150
提交
取消