第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號安全,請及時綁定郵箱和手機(jī)立即綁定

神經(jīng)網(wǎng)絡(luò)簡介

難度初級
時長50分
學(xué)習(xí)人數(shù)
綜合評分8.40
70人評價 查看評價
8.4 內(nèi)容實用
8.5 簡潔易懂
8.3 邏輯清晰
  • 起源

    時間:20世紀(jì)中葉

    實際上是一種仿生學(xué)產(chǎn)品

    興起

    環(huán)境:2進(jìn)制創(chuàng)新

    能力:軟硬件

    需求:人的性價比

    查看全部
    0 采集 收起 來源:01課程背景

    2019-07-03

  • 分類:圖像、語音(密集型矩陣)

    ????????????文本(稀疏性矩陣)

    查看全部
  • 訓(xùn)練學(xué)習(xí):

    網(wǎng)絡(luò)結(jié)構(gòu)????激勵函數(shù)????損失函數(shù)????梯度下降

    查看全部
    0 采集 收起 來源:03課程安排

    2019-06-09

  • 神經(jīng)網(wǎng)絡(luò):

    圖像-》自動駕駛

    語音-》語音助手

    文本-》新聞推送

    查看全部
  • 激勵函數(shù)圖https://img1.sycdn.imooc.com//5cd10fc10001824d19201080.jpg

    查看全部
  • 訓(xùn)練學(xué)習(xí)

    網(wǎng)絡(luò)結(jié)構(gòu) 激勵函數(shù)

    損失函數(shù) 梯度下降

    查看全部
    0 采集 收起 來源:03課程安排

    2019-05-07

  • 查看全部
  • 網(wǎng)絡(luò)結(jié)構(gòu)

    激勵函數(shù)

    損失函數(shù)

    梯度下降

    查看全部
    0 采集 收起 來源:03課程安排

    2019-04-14

  • :=??

    同步更新?W?和b

    查看全部
    1 采集 收起 來源:08梯度下降

    2018-12-19

  • Sigmoid函數(shù):f(x)=1/[1+e^(-x)] ? ?//在進(jìn)行1或0的判斷時使用,在整個區(qū)間段都是可導(dǎo)的;

    tanh函數(shù):f(x)=[e^x-e^(-x)]/[e^x+e^(-x)] ?// 在標(biāo)注不好的情況下可嘗試使用;

    ReLU函數(shù):f(x)=max(0,x) ?// 默認(rèn)函數(shù)


    查看全部
  • Sigmoid函數(shù):f(x)=1/[1+e^(-x)] ? ?//在整個區(qū)間段都是可導(dǎo)的;

    tanh函數(shù):f(x)=[e^x-e^(-x)]/[e^x+e^(-x)]

    ReLU函數(shù):f(x)=max(0,x) ?// 默認(rèn)函數(shù)

    查看全部
  • f(x)=1/[1+e^(-x)] ? ?//在整個區(qū)間段都是可導(dǎo)的

    查看全部
  • 三種激勵函數(shù):

    1,Sigmoid函數(shù),當(dāng)x趨向于負(fù)無窮時,函數(shù)趨向于0;當(dāng)x趨向于正無窮時,函數(shù)趨向于1.

    優(yōu)點是:在整個區(qū)間上是可導(dǎo)的。

    缺點是:不是以原點對稱的,對稱點是(0,0.5)。使用其做完函數(shù)計算后,

    經(jīng)常需要再做一步數(shù)據(jù)中心化。

    2,tanh函數(shù)


    激勵函數(shù)是對大腦中傳遞介質(zhì)的模擬,非線性的變化

    Sigmoid tanh ReLU

    2.1sigmoid (0-1)優(yōu)勢:整個函數(shù)可導(dǎo),后期反向傳播

    ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?缺點:對稱點:0.50(數(shù)據(jù)中心化)-》tanh

    ? 趨向比較小或比較大時,變化平緩

    ?2.2ReLU


    激勵函數(shù):

    作用:提供規(guī)?;姆蔷€性能力

    包括:Sigmoid、tanh、ReLU等

    Sigmoid函數(shù)適用于結(jié)果為判斷是非的場合,但由于其對稱中心在(0, 0.5),還需要進(jìn)行數(shù)據(jù)中心化,由此提出了其改進(jìn)函數(shù)tanh

    Sigmiod和tanh的缺點是當(dāng)數(shù)值很大或很小時,結(jié)果變化比較平緩,由此提出了ReLU函數(shù),


    激勵函數(shù)的作用是提供規(guī)模化的非線性化能力,模擬神經(jīng)元被激發(fā)后非線性狀態(tài)的變化。

    Sigmoid:區(qū)間[0,1]


    優(yōu)點:整個區(qū)間段可導(dǎo)。

    缺點:不是原點中心對稱,對稱點(0,0.5)-->數(shù)據(jù)中心化(0,0)

    tanh:區(qū)間[-1,1]

    優(yōu)點:sigmoid函數(shù)平移后得到,中心對稱。


    查看全部
  • 激勵函數(shù):Sigmoid, tanh, ReLU

    查看全部
  • 分類識別(圖片就是一個像素的矩陣):圖像是稀疏型矩陣、語音和文本是密集型矩陣,圖像和語音中的點大部分為非零值,而文本可能是零值居多,所以文本還有一些預(yù)處理要做。

    每一個節(jié)點(神經(jīng)元)的處理包括:

    (1)將輸入x進(jìn)行線性組合;

    (2)將線性組合的結(jié)果通過激活函數(shù)g(z)轉(zhuǎn)化為非線性的結(jié)果,以處理非線性問題


    網(wǎng)絡(luò)結(jié)構(gòu)

    激勵函數(shù)

    損失函數(shù)

    梯度下降


    查看全部

舉報

0/150
提交
取消
課程須知
1、機(jī)器學(xué)習(xí)基礎(chǔ)知識 2、直觀講解神經(jīng)網(wǎng)絡(luò)核心原理
老師告訴你能學(xué)到什么?
1、神經(jīng)網(wǎng)絡(luò)的歷史 2、激勵函數(shù),損失函數(shù),梯度下降等機(jī)器學(xué)習(xí)概念 3、神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)訓(xùn)練過程 4、直觀分析反向傳播算法

微信掃碼,參與3人拼團(tuán)

微信客服

購課補(bǔ)貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動學(xué)習(xí)伙伴

公眾號

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號

友情提示:

您好,此課程屬于遷移課程,您已購買該課程,無需重復(fù)購買,感謝您對慕課網(wǎng)的支持!