多线性主成分分析
多线性主成分分析(Multilinear Principal Component Analysis,MPCA)方法[1],可将高维度空间映射到低维空间中去,降维的过程就是舍弃不重要的特征向量缩减维度,相较于一般的主成分分析,多线性主成分分析保留了资料的结构性且有较佳的解释比例。 多线性主成分分析(MPCA)是主成分分析(PCA)到多维的一个延伸。PCA是投影向量(Vector)到向量,而MPCA是投影张量(Tensor)到张量,投影的结构相对简单,另外运算在较低维度的空间进行,因此处理高维度数据时有低运算量的优势。举例来说,给一个100x100的图片,主成分分析运做在1000x1的向量上,而多线性主成分分析则是在二阶模式上运作100x1的向量。对于等量的降维来说,主成分分析需要估算的变数量为多线性主成分分析的49((10000/(100x2)-1))倍,因此在实用面上多线性主成分分析可以比主成分分析更有效率。
算法
多线性主成分分析(MPCA)定义一个多重子空间,此子空间撷取了大部分正交多维的输入变异量,借此达到特征提取的效果。如同主成分分析,多线性主成分分析可运用在已中央化的资料上。多线性主成分分析的计算遵照交替最小次方(Alternating Least Square,ALS[2])方法。因此会有迭代动作,并且以分解原本的空间至一系列的多为映射子空间。每一个子空间都是一个经典的主成分空间,很容易被解析。
延伸
资源
- Matlab 源代码: MPCA (页面存档备份,存于互联网档案馆).
- Matlab 源代码: UMPCA (including data) (页面存档备份,存于互联网档案馆).
参考
- ^ H. Lu, K. N. Plataniotis, and A. N. Venetsanopoulos, (2008) "MPCA: Multilinear principal component analysis of tensor objects" (页面存档备份,存于互联网档案馆), IEEE Trans. Neural Netw., 19 (1), 18–39
- ^ P. M. Kroonenberg and J. de Leeuw, Principal component analysis of three-mode data by means of alternating least squares algorithms[永久失效链接], Psychometrika, 45 (1980), pp. 69–97.
- ^ Lu, Haiping; Plataniotis, K.N.; Venetsanopoulos, A.N. A Survey of Multilinear Subspace Learning for Tensor Data (PDF). Pattern Recognition. 2011, 44 (7): 1540–1551 [2013-07-03]. doi:10.1016/j.patcog.2011.01.004. (原始内容存档 (PDF)于2019-07-10).
- ^ H. Lu, K. N. Plataniotis and A. N. Venetsanopoulos, "Boosting Discriminant Learners for Gait Recognition using MPCA Features[失效链接]", EURASIP Journal on Image and Video Processing, Volume 2009, Article ID 713183, 11 pages, 2009. doi:10.1155/2009/713183.
- ^ Y. Panagakis, C. Kotropoulos, G. R. Arce, "Non-negative multilinear principal component analysis of auditory temporal modulations for music genre classification", IEEE Trans. on Audio, Speech, and Language Processing, vol. 18, no. 3, pp. 576–588, 2010.
- ^ K. Inoue, K. Hara, K. Urahama, "Robust multilinear principal component analysis", Proc. IEEE Conference on Computer Vision, 2009, pp. 591–597.