最新回答 / 慕田峪8497041
我把整個(gè)過(guò)程迭代了10000次? ?num_feature設(shè)置為100? ? 最后errors確實(shí)隨著迭代次數(shù)減少 但是每次對(duì)同一個(gè)用戶(hù)的推薦結(jié)果還是完全不一樣?
2019-05-25
最贊回答 / 吃麥子的貓
不太懂,前面說(shuō)內(nèi)容矩陣X和用戶(hù)喜好矩陣Theta相乘就是完整的評(píng)分表了,我猜測(cè)這里加平均分可能是為了讓數(shù)據(jù)好看一點(diǎn),因?yàn)殡娪邦?lèi)型num_features他直接默認(rèn)設(shè)置的10,當(dāng)實(shí)際的類(lèi)型遠(yuǎn)大于10的時(shí)候,計(jì)算出來(lái)的評(píng)分值會(huì)偏小,我試過(guò),可能只有0.幾的評(píng)分。所以當(dāng)找到一個(gè)合適的num_features之后不加平均分,出來(lái)的值就是正常的,加上平均分反而超過(guò)評(píng)分的最高值了。他前面評(píng)分最高就5分,結(jié)果出來(lái)5.好幾,這不是扯呢么
2019-05-05
最新回答 / 吃麥子的貓
解決了,直接用excle修改.csv?文件,用其中rank函數(shù)進(jìn)行對(duì)應(yīng)排序
最贊回答 / 吃麥子的貓
你百度一下數(shù)據(jù)集就好了,挺多的
最新回答 / 慕移動(dòng)9181930
如果你聲明在外面的話(huà),沒(méi)次調(diào)用自身函數(shù)都會(huì)重新把num值變成最初值,所以會(huì)影響效果,還是用全局變量比較好大多都是小白來(lái)學(xué)的,我就覺(jué)得老師講的很詳細(xì)的。
2018-12-16
最新回答 / 米開(kāi)朗琪羅哎
兄弟們,報(bào)錯(cuò)的是
?rating_mean[i]?=?np.mean(rating[i,?idx])這一行代碼的np.mean(rating[i, idx]) 部分,索引報(bào)錯(cuò)。不是下一行的公式問(wèn)題
2018-11-27
神他媽按照數(shù)學(xué)公式來(lái)講,你當(dāng)上數(shù)學(xué)課啊,你的聽(tīng)眾是程序員,退一萬(wàn)步講,上numpy的代碼也比上也一串?dāng)?shù)學(xué)公式好啊。。
2018-11-08