已采納回答 / 慕粉3796200
不是的,分離訓(xùn)練集和測(cè)試集,分得好的話結(jié)果會(huì)更好,而且這個(gè)是隨機(jī)分的,再運(yùn)行會(huì)得到不同的結(jié)果
最贊回答 / 992493631
歸根結(jié)底是為了預(yù)測(cè)分類,不是在具體講解某一種訓(xùn)練模型。
最新回答 / flare_zhao
老師的實(shí)戰(zhàn)課程已經(jīng)上線,希望得到你的支持。https://coding.imooc.com/class/418.html?
2020-01-30
最新回答 / flare_zhao
訓(xùn)練集準(zhǔn)確率和測(cè)試集準(zhǔn)確率沒(méi)有必然關(guān)系。當(dāng)模型出現(xiàn)過(guò)擬合的時(shí)候,會(huì)有測(cè)試準(zhǔn)確率下降的情況
最新回答 / 慕九州5208979
換個(gè)名字就好了from sklearn import datasetsiris1=datasets.load_iris()print(iris1.data)
最贊回答 / souldragon
誤差矩陣衡量分類算法的準(zhǔn)確程度,解釋得簡(jiǎn)單明了,在機(jī)器學(xué)習(xí)、深度學(xué)習(xí)中都用得上!
2019-12-06
講師回答 / flare_zhao
準(zhǔn)確率不同的原因通常有:1、數(shù)據(jù)分離后,數(shù)據(jù)被隨機(jī)打亂,因此訓(xùn)練數(shù)據(jù)和預(yù)測(cè)數(shù)據(jù)都可能會(huì)有變化,肯定會(huì)影響模型及其表現(xiàn);2、不同的算法,迭代一樣的次數(shù),模型更新的權(quán)重會(huì)有差異,也就是說(shuō)模型不完全一樣