-
Iris數(shù)據(jù)集
查看全部0 采集 收起 來(lái)源:數(shù)據(jù)預(yù)處理:iris數(shù)據(jù)介紹、數(shù)據(jù)加載、數(shù)據(jù)展示、維度確認(rèn)2020-02-18
-
開(kāi)發(fā)環(huán)境部署步驟
查看全部 -
環(huán)境安裝:
查看全部 -
非監(jiān)督學(xué)習(xí)
查看全部 -
基本原理:
查看全部 -
22222
查看全部 -
111111
查看全部 -
就截個(gè)圖吧
查看全部 -
import pandas as pd
path = 'data/pima-indians-diabetes.csv'
pima=pd.read_csv(path)
pima.head()
#X,y賦值
feature_name=['pregnant','insulin','bmi';age']
X = pima[feature_names]
y =pima.label
#確認(rèn)維度
print(X.shape)
print(y.shape)
#數(shù)據(jù)分離
from sklearn.model_selection ?import train_test_split
X_trian,X_test,y_train,y_test = train_test_split(X,y,random_state=0)
#模型訓(xùn)練
from sklearn.linear_model import logisticregression
logReg = logisticRegression()
logReg.fit(X_train,y_train)
y_pred = logReg.predict(X_test)
from sklearn import metric
print("metrics.accuracy_score(y_test,y_pred)
##確認(rèn)正負(fù)樣本的數(shù)據(jù)量以及空準(zhǔn)確率
y_test.value_counts()
y_test.mean()
1-y_test.mean()
max(y_test.mean(),1-y_test.mean())
#展示部分書(shū)記結(jié)果與預(yù)測(cè)結(jié)果
print(y_test.value[0:25]
pritn(y_pred[0:25]
#計(jì)算并展示混淆矩陣
confusion = metrics.confusion_metrix(y_test,y_pred)
#四個(gè)因子賦值
TN = confusion[0][0]
FP = confusion[0][1]
FN = confusion[1][0]
TP = confusion[1][1]
#指標(biāo)計(jì)算
accuracy = (TP+TN)/(TP+TN+FP+FN)
mis_rate ?=(FP+FN)/(TP+TN+FP+FN)
recall =TP/(TP+FN)
specificity ?=TN(TN+FP)
precision = TP/(TP+FP)
f1_score = 2*precison*recall/(precision+recall)
查看全部 -
匹馬印第安人數(shù)據(jù)集
數(shù)據(jù)來(lái)源:
Pima Indians Diabetes dataset
查看全部 -
混淆矩陣的應(yīng)用舉例
查看全部 -
混淆矩陣的指標(biāo)
查看全部 -
混淆矩陣的定義
查看全部 -
使用準(zhǔn)確率進(jìn)行模型評(píng)估的局限性
不能體系那數(shù)據(jù)的實(shí)際分布情況
沒(méi)有體現(xiàn)模型錯(cuò)誤預(yù)測(cè)的類(lèi)型
空準(zhǔn)確率的概念
查看全部 -
邏輯回歸模型
準(zhǔn)確率進(jìn)行模型評(píng)估有其局限性,只能看到整體,而不知細(xì)節(jié)。
比如1000個(gè)數(shù)據(jù)(900個(gè)1,100個(gè)0),全部預(yù)測(cè)為1 ,整體準(zhǔn)確率是90%,而實(shí)際上0全部預(yù)測(cè)為1,錯(cuò)誤率100%,而1的準(zhǔn)確率是100%
邏輯回歸模型主要應(yīng)用場(chǎng)景就是二分類(lèi)問(wèn)題:比如是不是垃圾郵件,是貓還是狗
神經(jīng)網(wǎng)絡(luò)模型也是基于此原理實(shí)現(xiàn)的
查看全部
舉報(bào)