第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號安全,請及時綁定郵箱和手機立即綁定

機器學(xué)習(xí)蝦扯蛋之SVD奇異值分解No.48

標(biāo)簽:
機器學(xué)習(xí)

机器学习说难不难,说简单也不简单。跟着小蕉有饭吃。

今天分享的是机器学习里面一个寻找主要成分的算法,SVD (Singularly Valuable Decomposition) 奇异值分解。

首先寻找主要成分有什么最最最最主要的用处呢?

1、噪音过滤

2、数据压缩

奇异值分解,其实就是矩阵分解的一种,本次矩阵分解的模式是这样的,其中中间的 ∑ 就是奇异值矩阵。

https://img1.sycdn.imooc.com//5e0d9f6b0001144301180040.jpg

假设A是一个m*n的矩阵,那么U就是一个m*m的,∑是一个m*n的,V是一个n*n的,这样子就可以将目标矩阵A用三个矩阵相乘来表示了。

而经过实验,我们发现 ∑ 的奇异值其实并不是每一个值都是很大的,一般取 Top r 个就足以表示这整个矩阵了。

所以得出了下面这么一个不等式。https://img1.sycdn.imooc.com//5e0d9f6c0001b5c602040045.jpg

(r是一个远小于m,n的数)

这时候矩阵所占的容量从m*n变为m*r+r*r+r*n,因为Σ是奇异值大小排列取前 r 个的,所以就做到了提取主要成分的效果,而因为容量变小了,所以也起到了压缩的作用。

好,原理是怎样已经解释清楚了,那么问题来了,这个奇异值要怎么求呢?老司机告诉我们,就这样分五步走。

1、进行矩阵变换,从A变为  https://img1.sycdn.imooc.com//5e0d9f6c00015e9600770051.jpg

2、求特征值λ,特征向量v。

https://img1.sycdn.imooc.com//5e0d9fa50001cb3c01560044.jpg

3、奇异值σi为https://img1.sycdn.imooc.com//5e0d9fc20001defb00370040.jpg,Σ的值为λ组成的对角矩阵。

4、左奇向量值U等于特征向量v。

5、右奇异向量值V为  1/σi * (A * vi)

当然你要是不会算,也没关系,作为手残党我自己也经常算不出来。已经有很多现成的库帮我们计算好了,并不需要我们自己算,比如sklearn里面的长这样。

  from sklearn.decomposition import TruncatedSVD
  X = something
  svd = TruncatedSVD(n_components=2)   X_reduced = svd.fit_transform(X)

又比如Spark里面是这样玩的。

val mat:RowMatrix = new RowMatrix(dataRDD)    
val svd: SingularValueDecomposition[RowMatrix,Matrix] = mat.computeSVD(2,computeU = true)    
 val U:RowMatrix = svd.U //U矩阵
 val s:Vector = svd.s //奇异值
 val V:Matrix = svd.V //V矩阵

好了,今天就分享到这~掰掰~

點擊查看更多內(nèi)容
TA 點贊

若覺得本文不錯,就分享一下吧!

評論

作者其他優(yōu)質(zhì)文章

正在加載中
  • 推薦
  • 評論
  • 收藏
  • 共同學(xué)習(xí),寫下你的評論
感謝您的支持,我會繼續(xù)努力的~
掃碼打賞,你說多少就多少
贊賞金額會直接到老師賬戶
支付方式
打開微信掃一掃,即可進(jìn)行掃碼打賞哦
今天注冊有機會得

100積分直接送

付費專欄免費學(xué)

大額優(yōu)惠券免費領(lǐng)

立即參與 放棄機會
微信客服

購課補貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動學(xué)習(xí)伙伴

公眾號

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號

舉報

0/150
提交
取消