-
矩陣的數(shù)乘
查看全部 -
矩陣加減運(yùn)算
查看全部 -
矩陣含義M行N列
查看全部 -
老師講得真好
查看全部 -
實(shí)戰(zhàn): 利用樸素貝葉斯判斷客戶消費(fèi)意愿
調(diào)用sklearn樸素貝葉斯模塊的CategoricalNB, 訓(xùn)練模型基于用戶信息,預(yù)測購買商品的概率。
任務(wù)一:基于上面的數(shù)據(jù),建立樸素貝葉斯模型
任務(wù)二:基于模型,判斷上面用戶會否購買
具體實(shí)現(xiàn)代碼展示:
import pandas as pd? //導(dǎo)入pandas庫
import numpy as np? //導(dǎo)入numpy庫
data = pd.read_csv("chapter3_data.csv")? //將數(shù)據(jù)預(yù)先儲存為一個csv文件,然后加載到開發(fā)環(huán)境中來
data.head()? //讀取數(shù)據(jù)
#x賦值? ?x = data.drop(["y"], axis=1)? //將y的一列單獨(dú)去掉,axis=0為行,axis=1為列
print(x)
#y賦值? y = data.loc([: , "y"])?
print(y)
#建立模型
from sklearn.naive_bayes import CategoricalNB? ? //從sklearn包的naive_bayes之中導(dǎo)入????????????????????CategoricalNB
model = CategoricalNB()? ?//建立模型實(shí)例
model.fit(x , y)? ?//訓(xùn)練模型
y_predict_proba? =? model.predict_proba(x)? //預(yù)測y=1or=0的概率
y_predict = model.predict(x)? ?//輸出y的預(yù)測值
#計(jì)算模型準(zhǔn)確率
from sklearn.metrics import accuracy_score
accuracy = accuracy_score(y, y_predict)
print(accuracy)
任務(wù)二:
#測試樣品x的預(yù)測
X_test = np.array([[0,0,0,1,1,0]])? ?//先將其轉(zhuǎn)化成為數(shù)組形式
print(X_test)
y_predict_proba = model.predict_proba(X_test)? //預(yù)測樣品的購買或不購買的概率
print(y_predict_proba)
y_test = model.predict(X_test)? //輸出樣品的預(yù)測值
print(y_test)
查看全部 -
概率分析
例子:
玩一次輸贏的概率:
如果進(jìn)行3700次:
長久下去基本上都是輸?shù)?/p>
概率分析在人工智能中的應(yīng)用:
分類,人面識別的情況,預(yù)測不同類別可能性的概率
>0 , 值得玩
<0, 不值得玩
在某種情況A發(fā)生下的B發(fā)生的概率: 條件概率的情況
現(xiàn)實(shí)的情況,就是在某種分布的條件之下計(jì)算某個事情發(fā)生的可能性
你出門的概率 1/4 ,女神出門的概率1/2 ,遇到女神的概率是1/2
全概率的情況:
總結(jié)出來
貝葉斯公式:
貝葉斯公式與全概率、條件概率公式的關(guān)系:
條件概率公式/全概率公式 = 貝葉斯公式
所謂的后驗(yàn)概率就是上面的? P( Bi |? A )
樸素貝葉斯:
樸素貝葉斯的案例:
基于用戶的性別、年齡和使用的設(shè)備,預(yù)測用戶是否購買產(chǎn)品
yi 先計(jì)算 y=1 或 =0 的各自概率? ?乘以? ?xj|yi 計(jì)算? x1,x2, x3都為0的概率 / xj 每個x在各自組里面是0的概率
注意:y = 1 的概率和y!= 1的概率總和不為1
查看全部 -
概率分析
例子:賭博
查看全部 -
實(shí)戰(zhàn):python 實(shí)現(xiàn)函數(shù)微分與積分
具體代碼展示:
import sympy as sp //導(dǎo)入sympy庫
x = sp.Symbol("x")? ?//告訴程序x為符號
y = 3*x**2? //定義y,*為乘,**為次方
#求導(dǎo)
y1 = 3*x? ?//定義y1
f1 = sp.diff(y1) //對y1進(jìn)行求導(dǎo)
print(f1) //打印f1結(jié)果
依次對y2,y3求導(dǎo),在此省略...
#求積分
F1 = sp.integrate(f1, x)? //對f1進(jìn)行積分,相應(yīng)函數(shù)為x
print(F1)
依次計(jì)算F2, F3的積分,此處省略...
#求極限
L1 = sp.limit(y1, x, 0)? //求y1的極限,當(dāng)x趨近于0時
print(L1)
依次計(jì)算L2, L3的極限,此處省略...
查看全部 -
積分:反導(dǎo)數(shù)
不定積分
定積分
概率密度函數(shù)的概念:
查看全部 -
模型求解(AI相關(guān)的模型)與梯度下降法
偏導(dǎo)數(shù),用于兩個或以上的自變量的情況
尋找適合的a 和 b 值
目標(biāo):盡可能使模型模擬出來的y值接近實(shí)際的y值,使兩者差值的平方最小化
引入損失函數(shù),使導(dǎo)數(shù)后的平方抵消,由于存在m個樣品,也除以m
應(yīng)用梯度下降法來計(jì)算收斂
最后獲得一條最優(yōu)解
查看全部 -
極限與導(dǎo)數(shù)
案例:
lim n-->無窮(1/2)^n 越接近 0
當(dāng)n 次數(shù)越多,接近正無窮時,整個數(shù)越接近 0
極限的定義:當(dāng)函數(shù)中的某個變量在不斷變大或者變小的無限過程中,函數(shù)逐漸逼近于某一確定數(shù)值的過程,其中這種不斷地永不停止地逼近某點(diǎn)的趨勢,就是極限。
求極限的例子:
導(dǎo)數(shù)的基本概念 :
查看全部 -
python 中AI的常用庫
matplotlib? : python基礎(chǔ)繪圖庫,幾行代碼可生成繪圖、直方圖、條形圖、散點(diǎn)圖。
pandas : 強(qiáng)大的分析結(jié)構(gòu)化數(shù)據(jù)的工具集,快速實(shí)現(xiàn)數(shù)據(jù)導(dǎo)入、導(dǎo)出、索引。
Numpy : 使用Python進(jìn)行科學(xué)計(jì)算的軟件包,核心是基于N維數(shù)組對象 ndarray 的數(shù)組運(yùn)算。
實(shí)戰(zhàn) : python 實(shí)現(xiàn)矩陣運(yùn)算
代碼 :
import numpy as np? ? //導(dǎo)入numpy庫
A = np.array([[1, 2, 3],[4, 5, 6],[7, 8, 9]])? ? //利用array建立矩陣A
print( A . shape)? ?//查看行列數(shù)
依次用np.array() 建立矩陣B-D...此處省略
E = A + B
F = A - B
G = np.dot(A, B)? //*注意:A*B 需要用dot來計(jì)算
H = -A
用 print() 依次打印 E, F, G, H...此處省略
I = np.dot(A, D)
print(I)
查看全部 -
房價預(yù)測的模型:因子和房價存在線性關(guān)系
則 y =a x + b?
深度學(xué)習(xí)中的矩陣運(yùn)算
根據(jù)用戶信息 ,預(yù)測是否消費(fèi),模仿人的神經(jīng)結(jié)構(gòu)系統(tǒng)建立深度學(xué)習(xí)模型
深度學(xué)習(xí)的基本框架 : A^2 = x * theta^1, y = A* theta^2
查看全部 -
AB ^T
負(fù)矩陣、同型矩陣
加法滿足交換律、結(jié)合律
乘法滿足交換律、結(jié)合律、分配律
乘法矩陣不滿足交換律,但滿足結(jié)合律、分配律
矩陣加法、矩陣數(shù)乘、矩陣乘法
向量:矩陣的特殊情況
只有一行或一列的矩陣,亦稱為向量
矩陣乘向量還是向量
例子:房屋面積和價格存在線性關(guān)系? Y=aX+b
查看全部 -
555查看全部
舉報(bào)