-
同型矩陣:行數(shù)、列數(shù)分別相同的矩陣
????必須是同型號矩陣才能進行加減運算
????加法:矩陣元素分別相加,滿足交換律、結(jié)合律
????減法:矩陣元素分別相減
負矩陣:矩陣元素互為相反數(shù)關(guān)系的矩陣(負矩陣必定為同型矩陣)(矩陣前面有 - 負號)
矩陣的加法:矩陣元素分別相加(互為同型矩陣才能進行加法運算)
?
矩陣的加法滿足交換律、結(jié)合律,即:
????A+B=B+A
????A+B+C=A+(B+C)
????矩陣的減法可以理解為對負矩陣的加法,即:
????A-B=A+(-B)
矩陣的數(shù)乘:數(shù)與矩陣元素分別相乘
矩陣的數(shù)乘滿足交換律、結(jié)合律、分配律
矩陣與矩陣相乘:行列元素依次相乘并求和(第一個矩陣列數(shù)等于第二個矩陣行數(shù))
矩陣與矩陣相乘不滿足交換律,但滿足結(jié)合律、分配律
查看全部 -
一、向量
行向量:只有一行的矩陣
列向量:只有一列的矩陣,行向量的轉(zhuǎn)置
?
二、向量的基本運算
遵循矩陣基本運算規(guī)則
矩陣與向量相乘,結(jié)果仍為向量
查看全部 -
#?python的矩陣運算 import?numpy?as?np A?=?np.array([[1,2,3],[6,6,6],[7,8,9]]) print(A)
查看全部 -
深度學(xué)習(xí)可以理解為層層遞進的關(guān)系
中間層A=元素X*系數(shù)+常數(shù)
輸出值Y=中間層A*系數(shù)+常數(shù)
多層次則逐層運算
查看全部 -
積分公式計算公式計算
查看全部 -
積分公式計算公式計算
查看全部 -
概率分析
查看全部 -
學(xué)習(xí)大綱總結(jié)
查看全部 -
一、實戰(zhàn) - 樸素貝葉斯的使用
調(diào)用sklearn 樸素貝葉斯模塊CategoricalNB, 訓(xùn)練模型基于用戶基本信息,預(yù)測其購買商品的概率。
import?pandas?as?pd import?numpy?as?np #?數(shù)據(jù)加載 data?=?pd.read_csv("data.csv") data.head() #?X賦值 X?=?data.drop(['y'],?axis?=?1) #?y?賦值 y?=?data.loc[:,?'y'] #?建立模型 #?pip?install?sklearn? from?sklearn.native_bayes?import?CategoricalNB #?建立模型實例 model?=?CategoricalNB() #?模型訓(xùn)練 model.fit(X,?y) y_predict_prob?=?model.predict_proba(X) #?輸出預(yù)測y y_predict?=?model.predict(X) #?計算模型準確率 from?sklearn.metrics?import?accuracy_score accuracy?=?accuracy_score(y,?y_predict) #?測試樣本的預(yù)測 X_test?=?np.array([0,0,0,1,1,0]) y_test_proba?=?model.predict_proba(X_test) y_test?=?model.predict(X_test)
查看全部 -
一、貝葉斯公式
? 在已知一些條件下(部分事件發(fā)生的概率),實現(xiàn)對目標事件發(fā)生概率更準確的預(yù)測
P(B|A) = P(B) * P(A|B) / P(A)
貝葉斯公式則是利用條件概率和全概率公式計算后驗概率
二、樸素貝葉斯
以貝葉斯定理為基礎(chǔ),假設(shè)特征之間相互獨立,先通過訓(xùn)練數(shù)據(jù)集,學(xué)習(xí)從輸入到輸出的概率分布,再基于學(xué)習(xí)到的模型及輸入,求出使得后驗概率最大的輸出實現(xiàn)分類。
P(Y|X) = P(Y) * P(X|Y) / P(X)
查看全部 -
一、條件概率與全概率
條件概率:事件A已經(jīng)發(fā)生的條件下事件B發(fā)生的概率 P(B|A)
P(B|A) = P(AB) / P(A)? ? ? # P(AB) AB同時發(fā)生的概率?
全概率:將復(fù)雜事件A的概率求解問題,轉(zhuǎn)化為在不同情況下發(fā)生的簡單事件的概率的求和問題
查看全部 -
一、概率基礎(chǔ)知識
矩陣、微積分 ---> 回歸;概率 ---> 分類
概率:可能性的度量 likehood
查看全部 -
一、Python 實現(xiàn)微分與積分
使用 sympy 包
import sympy as sp
x = sp.Symbol('x')
y = 3 * x ** 2? ? ? ? # ** 冪運算
# 求導(dǎo)(求微分)
f1 = sp.diff(y)
# 求積分
F1 = sp.integrate(f1, x)
# 求極限
x = 0 時
L1 = sp.limit(y1, x, 0)
查看全部 -
一、積分
逆運算:導(dǎo)數(shù)推出原函數(shù) --> 積分
不定積分:函數(shù)f的不定積分,是一個可導(dǎo)函數(shù)F且其導(dǎo)數(shù)等于原來的函數(shù)f
定積分:對于一個給定的正實數(shù)函數(shù)f(x),在一個實數(shù)區(qū)間上的定積分可以理解為在坐標平面上,由曲線、直線以及軸圍成的曲邊梯形的面積值。
作用:求面積,確定概率
查看全部 -
一、梯度下降法 (梯度即導(dǎo)數(shù))
尋找極小值的一種方法。通過向函數(shù)上當前點對應(yīng)梯度(導(dǎo)數(shù))的反方向的規(guī)定步長距離點進行迭代搜索,直到在極小點收斂。
核心:從一個點出發(fā),沿著導(dǎo)數(shù)的反方向逐步逼近極值點。?
查看全部
舉報