第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號安全,請及時綁定郵箱和手機立即綁定

神經(jīng)網(wǎng)絡簡介

難度初級
時長50分
學習人數(shù)
綜合評分8.40
70人評價 查看評價
8.4 內(nèi)容實用
8.5 簡潔易懂
8.3 邏輯清晰
  • 網(wǎng)絡梯度下降

    查看全部
  • 全部訓練損失

    查看全部
  • 三種激勵函數(shù):Sigmoid,tanh,ReLU

    查看全部
  • 神經(jīng)網(wǎng)絡包含

    查看全部
    0 采集 收起 來源:03課程安排

    2018-08-02

  • 邏輯回歸模型

    查看全部
    0 采集 收起 來源:05邏輯回歸

    2018-07-25

  • 神經(jīng)元

    線性組合

    非線性處理

    查看全部
  • 網(wǎng)絡結構

    激勵函數(shù)

    損失函數(shù)

    梯度下降

    查看全部
    0 采集 收起 來源:03課程安排

    2018-07-25

  • 用激勵函數(shù)正向運算輸入值得到損失,若損失過大,用梯度下降函數(shù)對W,b進行調(diào)整

    重復正向運算,知道損失達到最小

    查看全部
    1 采集 收起 來源:12課程總結

    2018-07-22

  • 左邊利用輸入值通過每一層網(wǎng)絡的結構計算出下一層輸出

    直到結束,計算出損失

    右邊通過損失函數(shù)不斷更新W,b,知道計算出最小的損失函數(shù)

    查看全部
    0 采集 收起 來源:11訓練過程

    2018-07-22

  • 觀察神經(jīng)網(wǎng)絡過程形成較為直觀的理解


    梯度下降逆向更新W,b

    一邊正向一邊逆向,重復這個流程

    https://img1.sycdn.imooc.com//5b5450610001f68106190382.jpg

    訓練過程

    左邊成為正向傳播

    通過輸入值按照每一層網(wǎng)絡的結構計算出下一層的輸出

    直到結束,結束的時候計算出整個網(wǎng)絡的損失


    右側是一個參數(shù)(W,b)調(diào)校的過程

    通常會用到左邊的W,b參數(shù),而這些參數(shù)通常是會緩存的,這樣會提高我們的運算效率(z^n,W^n,b^n)

    實際上是逐步更新參數(shù)的過程

    然后用新的參數(shù)載重復上面的過程

    知道我們的損失函數(shù)趨向于一個最小值

    參數(shù)全部算好然后一次性更新

    查看全部
    0 采集 收起 來源:11訓練過程

    2018-07-22

  • 神經(jīng)網(wǎng)絡的梯度下降——反向傳播

    通過運算結果,逆向調(diào)節(jié)每一層的W,b,從而使整個神經(jīng)鏈條達到一種最佳的狀態(tài)

    https://img1.sycdn.imooc.com//5b530ae20001447a03740207.jpg

    通過w,b的線性運算和激勵函數(shù)的操作,在每一層上通過這兩部得到下一層的輸入值

    https://img1.sycdn.imooc.com//5b530e200001dd1404240314.jpg

    倒數(shù)第二層不需要調(diào)校

    查看全部
  • 神經(jīng)網(wǎng)絡的網(wǎng)絡向量化

    神經(jīng)網(wǎng)絡的向前傳播、運算、預測——神經(jīng)網(wǎng)絡的網(wǎng)絡向量化,對向量化進行計算的過程

    https://img1.sycdn.imooc.com//5b53081d0001b01205900374.jpg

    https://img1.sycdn.imooc.com//5b5308d30001753807490317.jpg

    https://img1.sycdn.imooc.com//5b5308f50001785104310166.jpghttps://img1.sycdn.imooc.com//5b53091f0001037a07280109.jpg


    查看全部
  • 邏輯回歸中的梯度下降

    w和b決定函數(shù)的樣子

    https://img1.sycdn.imooc.com//5b5305800001cad704500271.jpg

    w和b同步更新

    α是學習的速率,避免計算太快,錯過合適的W,

    w=w-a*(損失函數(shù)對w進行求導)

    查看全部
    0 采集 收起 來源:08梯度下降

    2018-07-21

  • 單次訓練損失

    https://img1.sycdn.imooc.com//5b5301ce0001afb307540067.jpg

    全部訓練損失(就是把單次訓練損失加起來)

    https://img1.sycdn.imooc.com//5b5302680001550007430081.jpg


    查看全部
  • 激勵函數(shù):

    作用:提供規(guī)?;姆蔷€性能力

    包括:Sigmoid、tanh、ReLU等

    Sigmoid函數(shù)適用于結果為判斷是非的場合,但由于其對稱中心在(0, 0.5),還需要進行數(shù)據(jù)中心化,由此提出了其改進函數(shù)tanh

    Sigmiod和tanh的缺點是當數(shù)值很大或很小時,結果變化比較平緩,由此提出了ReLU函數(shù),

    而ReLU函數(shù)作為最普遍使用的激勵函數(shù),我們有時會使用斜率為負但是絕對值比正數(shù)小的線

    查看全部

舉報

0/150
提交
取消
課程須知
1、機器學習基礎知識 2、直觀講解神經(jīng)網(wǎng)絡核心原理
老師告訴你能學到什么?
1、神經(jīng)網(wǎng)絡的歷史 2、激勵函數(shù),損失函數(shù),梯度下降等機器學習概念 3、神經(jīng)網(wǎng)絡的學習訓練過程 4、直觀分析反向傳播算法

微信掃碼,參與3人拼團

微信客服

購課補貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網(wǎng)微信公眾號

友情提示:

您好,此課程屬于遷移課程,您已購買該課程,無需重復購買,感謝您對慕課網(wǎng)的支持!