SVD和PCA是两种常用的降维方法,在机器学习学习领域有很重要的应用例如数据压缩、去噪等,并且面试的时候可能时不时会被面试官问到,最近在补课的时候也顺便查资料总结了一下。
主成分分析PCA
对于样本集,每一行表示一个n维样本。PCA将维样本投影到一个低维空间中去从而实现降维。具体来说,可以从两个角度来约束投影:最大化方差和最小化投影误差。有意思的是,从这两个方向推导最后会得到相同的结果。
大约 3 分钟
SVD和PCA是两种常用的降维方法,在机器学习学习领域有很重要的应用例如数据压缩、去噪等,并且面试的时候可能时不时会被面试官问到,最近在补课的时候也顺便查资料总结了一下。
对于样本集Xm×n={x1;x2;…;xm},每一行表示一个n维样本。PCA将n维样本xi投影到一个低维空间中去从而实现降维。具体来说,可以从两个角度来约束投影:最大化方差和最小化投影误差。有意思的是,从这两个方向推导最后会得到相同的结果。