第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號安全,請及時綁定郵箱和手機立即綁定

Python實現線性回歸

難度初級
時長 1小時 5分
學習人數
綜合評分8.77
32人評價 查看評價
9.0 內容實用
8.8 簡潔易懂
8.5 邏輯清晰
  • 掌握python梯度下降求解線性分析模型參數

    θ=theta

    alpha是學習速率[0,1]——

    ????????//保證梯度下降的速率不要太快,在一個合適的區(qū)間之內,是函數迅速收斂,找到局部最小值

    theta=theta-alpha(theta * X - Y)*X

    np.sum()/組數——加權平均

    >>> import numpy as np

    >>> from numpy.linalg import inv

    >>> from numpy import dot

    >>> from numpy import mat

    >>> X=mat([1,2,3]).reshape(3,1)

    >>> Y=2*X

    >>> theta=1.0

    >>> alpha=0.1

    >>> for i in range(100):

    ...? ? ?theta=theta + np.sum(alpha*(Y-dot(X,theta))*X.reshape(1,3))/3.0

    ...

    >>> print(theta)

    2.0

    >>>


    查看全部
  • 本次不要截距,用一個過原點的方程來作為例子

    y=2x

    https://img1.sycdn.imooc.com//5b55a87b00011fe502250040.jpg

    θ=(X^T? X)^-1? *? ?X^T? Y

    >>> import numpy as np

    >>> from numpy.linalg import inv

    >>> from numpy import dot

    >>> from numpy import mat

    >>> X=mat([1,2,3]).reshape(3,1)

    >>> Y=2*X

    >>> theta=dot(dot(inv(dot(X.T,X)),X.T),Y)

    >>> print(theta)

    [[2.]]

    >>>


    查看全部
  • A.reshape(1,2)

    把A輸出成1行2列的形式

    查看全部
    0 采集 收起 來源:開發(fā)準備

    2018-07-23

  • https://img1.sycdn.imooc.com//5b559f810001d7c602520092.jpg

    inv是求矩陣的逆

    dot是矩陣點乘dot(A,B)

    mat是矩陣是二維的

    Array數組維度是一維的

    ".T"? 矩陣的轉置

    查看全部
    0 采集 收起 來源:開發(fā)準備

    2018-07-23

  • 理解通過梯度下降進行參數求解過程

    直接計算的問題

    https://img1.sycdn.imooc.com//5b559a6c000157b103330187.jpg

    矩陣是否滿秩(Python矩陣運算對于不是滿秩矩陣的情況適用模糊近似處理)

    運算性能


    梯度下降法近似的計算,解決了直接計算的問題

    查看全部
    0 采集 收起 來源:梯度下降

    2018-07-23

  • 理解向量運算進行參數求解過程

    向量表示

    ????Y=θX,θ和X是矩陣

    https://img1.sycdn.imooc.com//5b5596ff0001152504760300.jpg

    L=1/2(θX-Y)^T(θX-Y)

    第二行為損失函數(歐幾里得距離/向量中向量空間的距離)

    ????????????//這個損失函數是線性的,而神經網絡的損失函數是非線性的

    目的是找到一個L,使函數最小

    ????????????//求極值或者求最小值就是對一個函數求導

    θ=((X^T)X)^-1(X^T)Y? ?//參數計算

    就是第二行的損失函數的求導結果

    查看全部
    0 采集 收起 來源:最小二乘法

    2018-07-23

  • 線性回歸的一般化模型的數學表示https://img1.sycdn.imooc.com//5b5593e30001a53304160202.jpg

    θ^0表示一維時的截距

    ????????????????也表示為多維時的偏移量

    https://img1.sycdn.imooc.com//5b5595fa0001e6f902100214.jpg

    查看全部
  • 通過訓練得到θ的過程稱為線性回歸

    查看全部
  • 線性回歸是最簡單的模型

    查看全部
    0 采集 收起 來源:課程背景

    2018-07-23

  • from?numpy?import?*
    import?pandas?as?pd
    
    dataset?=?pd.read_csv('data.csv')
    temp?=?dataset.iloc[:,?2:5]
    temp['x0']?=?1
    X?=?temp.iloc[:,?[3,?0,?1,?2]]
    Y?=?dataset.iloc[:,?1]
    #(X'X)^(-1)X'Y,隨著訓練集增大,計算速度變慢
    theta?=?dot(dot(inv(dot(X.T,?X)),?X.T),?Y)?
    #梯度下降法:theta?=?theta?-?alpha*(theta*X?-?Y)*X
    theta?=?array([1.,?1.,?1.,?1.]).reshape(4,?1)?#初始化theta
    alpha?=?0.1?#定義學習率,若不收斂-->調小,若效率慢-->調大
    temp?=?theta?#同步更新theta,需要temp緩存
    X0?=?X.iloc[:,?0].values.reshape(150,?1)
    X1?=?X.iloc[:,?1].values.reshape(150,?1)
    X2?=?X.iloc[:,?2].values.reshape(150,?1)
    X3?=?X.iloc[:,?3].values.reshape(150,?1)
    for?i?in?rage(10000):
    ????temp[0]?=?theta[0]?-?alpha*dot(X0.T,?dot(X,?theta)-Y)
    ????temp[1]?=?theta[1]?-?alpha*dot(X1.T,?dot(X,?theta)-Y)
    ????temp[2]?=?theta[2]?-?alpha*dot(X2.T,?dot(X,?theta)-Y)
    ????temp[3]?=?theta[3]?-?alpha*dot(X3.T,?dot(X,?theta)-Y)
    ????theta?=?temp
    查看全部
  • 0,Y,X1,X2,X3
    1,5.1,3.5,1.4,0.2
    2,4.9,3.0,1.4,0.2
    3,4.7,3.2,1.3,0.2
    4,4.6,3.1,1.5,0.2
    5,5.0,3.6,1.4,0.2
    6,5.4,3.9,1.7,0.4
    7,4.6,3.4,1.4,0.3
    8,5.0,3.4,1.5,0.2
    9,4.4,2.9,1.4,0.2
    10,4.9,3.1,1.5,0.1
    11,5.4,3.7,1.5,0.2
    12,4.8,3.4,1.6,0.2
    13,4.8,3.0,1.4,0.1
    14,4.3,3.0,1.1,0.1
    15,5.8,4.0,1.2,0.2
    16,5.7,4.4,1.5,0.4
    17,5.4,3.9,1.3,0.4
    18,5.1,3.5,1.4,0.3
    19,5.7,3.8,1.7,0.3
    20,5.1,3.8,1.5,0.3
    21,5.4,3.4,1.7,0.2
    22,5.1,3.7,1.5,0.4
    23,4.6,3.6,1.0,0.2
    24,5.1,3.3,1.7,0.5
    25,4.8,3.4,1.9,0.2
    26,5.0,3.0,1.6,0.2
    27,5.0,3.4,1.6,0.4
    28,5.2,3.5,1.5,0.2
    29,5.2,3.4,1.4,0.2
    30,4.7,3.2,1.6,0.2
    31,4.8,3.1,1.6,0.2
    32,5.4,3.4,1.5,0.4
    33,5.2,4.1,1.5,0.1
    34,5.5,4.2,1.4,0.2
    35,4.9,3.1,1.5,0.1
    36,5.0,3.2,1.2,0.2
    37,5.5,3.5,1.3,0.2
    38,4.9,3.1,1.5,0.1
    39,4.4,3.0,1.3,0.2
    40,5.1,3.4,1.5,0.2
    41,5.0,3.5,1.3,0.3
    42,4.5,2.3,1.3,0.3
    43,4.4,3.2,1.3,0.2
    44,5.0,3.5,1.6,0.6
    45,5.1,3.8,1.9,0.4
    46,4.8,3.0,1.4,0.3
    47,5.1,3.8,1.6,0.2
    48,4.6,3.2,1.4,0.2
    49,5.3,3.7,1.5,0.2
    50,5.0,3.3,1.4,0.2
    51,7.0,3.2,4.7,1.4
    52,6.4,3.2,4.5,1.5
    53,6.9,3.1,4.9,1.5
    54,5.5,2.3,4.0,1.3
    55,6.5,2.8,4.6,1.5
    56,5.7,2.8,4.5,1.3
    57,6.3,3.3,4.7,1.6
    58,4.9,2.4,3.3,1.0
    59,6.6,2.9,4.6,1.3
    60,5.2,2.7,3.9,1.4
    61,5.0,2.0,3.5,1.0
    62,5.9,3.0,4.2,1.5
    63,6.0,2.2,4.0,1.0
    64,6.1,2.9,4.7,1.4
    65,5.6,2.9,3.6,1.3
    66,6.7,3.1,4.4,1.4
    67,5.6,3.0,4.5,1.5
    68,5.8,2.7,4.1,1.0
    69,6.2,2.2,4.5,1.5
    70,5.6,2.5,3.9,1.1
    71,5.9,3.2,4.8,1.8
    72,6.1,2.8,4.0,1.3
    73,6.3,2.5,4.9,1.5
    74,6.1,2.8,4.7,1.2
    75,6.4,2.9,4.3,1.3
    76,6.6,3.0,4.4,1.4
    77,6.8,2.8,4.8,1.4
    78,6.7,3.0,5.0,1.7
    79,6.0,2.9,4.5,1.5
    80,5.7,2.6,3.5,1.0
    81,5.5,2.4,3.8,1.1
    82,5.5,2.4,3.7,1.0
    83,5.8,2.7,3.9,1.2
    84,6.0,2.7,5.1,1.6
    85,5.4,3.0,4.5,1.5
    86,6.0,3.4,4.5,1.6
    87,6.7,3.1,4.7,1.5
    88,6.3,2.3,4.4,1.3
    89,5.6,3.0,4.1,1.3
    90,5.5,2.5,4.0,1.3
    91,5.5,2.6,4.4,1.2
    92,6.1,3.0,4.6,1.4
    93,5.8,2.6,4.0,1.2
    94,5.0,2.3,3.3,1.0
    95,5.6,2.7,4.2,1.3
    96,5.7,3.0,4.2,1.2
    97,5.7,2.9,4.2,1.3
    98,6.2,2.9,4.3,1.3
    99,5.1,2.5,3.0,1.1
    100,5.7,2.8,4.1,1.3
    101,6.3,3.3,6.0,2.5
    102,5.8,2.7,5.1,1.9
    103,7.1,3.0,5.9,2.1
    104,6.3,2.9,5.6,1.8
    105,6.5,3.0,5.8,2.2
    106,7.6,3.0,6.6,2.1
    107,4.9,2.5,4.5,1.7
    108,7.3,2.9,6.3,1.8
    109,6.7,2.5,5.8,1.8
    110,7.2,3.6,6.1,2.5
    111,6.5,3.2,5.1,2.0
    112,6.4,2.7,5.3,1.9
    113,6.8,3.0,5.5,2.1
    114,5.7,2.5,5.0,2.0
    115,5.8,2.8,5.1,2.4
    116,6.4,3.2,5.3,2.3
    117,6.5,3.0,5.5,1.8
    118,7.7,3.8,6.7,2.2
    119,7.7,2.6,6.9,2.3
    120,6.0,2.2,5.0,1.5
    121,6.9,3.2,5.7,2.3
    122,5.6,2.8,4.9,2.0
    123,7.7,2.8,6.7,2.0
    124,6.3,2.7,4.9,1.8
    125,6.7,3.3,5.7,2.1
    126,7.2,3.2,6.0,1.8
    127,6.2,2.8,4.8,1.8
    128,6.1,3.0,4.9,1.8
    129,6.4,2.8,5.6,2.1
    130,7.2,3.0,5.8,1.6
    131,7.4,2.8,6.1,1.9
    132,7.9,3.8,6.4,2.0
    133,6.4,2.8,5.6,2.2
    134,6.3,2.8,5.1,1.5
    135,6.1,2.6,5.6,1.4
    136,7.7,3.0,6.1,2.3
    137,6.3,3.4,5.6,2.4
    138,6.4,3.1,5.5,1.8
    139,6.0,3.0,4.8,1.8
    140,6.9,3.1,5.4,2.1
    141,6.7,3.1,5.6,2.4
    142,6.9,3.1,5.1,2.3
    143,5.8,2.7,5.1,1.9
    144,6.8,3.2,5.9,2.3
    145,6.7,3.3,5.7,2.5
    146,6.7,3.0,5.2,2.3
    147,6.3,2.5,5.0,1.9
    148,6.5,3.0,5.2,2.0
    149,6.2,3.4,5.4,2.3
    150,5.9,3.0,5.1,1.8


    查看全部
  • 總代碼記錄https://img1.sycdn.imooc.com//5b2c81470001321d13650755.jpg

    查看全部
    0 采集 收起 來源:課程總結

    2018-06-22

  • Python實現線性回歸分析:

    技術背景:機器學習的興起?線性回歸模型的特點

    實際意義:金融?數學?醫(yī)學?統(tǒng)計

    查看全部
    0 采集 收起 來源:課程背景

    2018-06-17

  • 牛逼了,不明覺厲

    查看全部
    0 采集 收起 來源:課程總結

    2018-06-10

  • 用梯度下降算法來實現:

    1、梯度下降算法方程:theta = theta - alpha*(theta*X - Y)*X

    2、程序實現:

    alpha = 0.1

    theta = 1.0

    for i in range(100):

    ? ? ?theta = theta + np.sum(alpha * (Y - dot(X, theta)) * X.reshape(1, 3))/3

    查看全部

舉報

0/150
提交
取消
課程須知
1、有機器學習基礎 2、有一定的python基礎
老師告訴你能學到什么?
1、線性回歸的概念 2、最小二乘法的python實現 3、梯度下降的python實際 4、編程處理線性回歸分析的一般方法

微信掃碼,參與3人拼團

微信客服

購課補貼
聯系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號

友情提示:

您好,此課程屬于遷移課程,您已購買該課程,無需重復購買,感謝您對慕課網的支持!