Aprenentatge subespai multilineal

De la Viquipèdia, l'enciclopèdia lliure
Un vídeo o una seqüència d'imatges representada com un tensor de tercer ordre de columna x fila x temps per a l'aprenentatge subespai multilineal.

L'aprenentatge subespai multilineal és un enfocament per desenredar el factor causal de la formació de dades i realitzar la reducció de la dimensionalitat.[1] La reducció de la dimensionalitat es pot realitzar en un tensor de dades que conté una col·lecció d'observacions que s'han vectoritzat, o observacions que es tracten com a matrius i es concatenen en un tensor de dades.[2] Aquests són alguns exemples de tensors de dades les observacions dels quals estan vectoritzades o les observacions dels quals són matrius concatenades en imatges de tensors de dades (2D/3D), seqüències de vídeo (3D/4D) i cubs hiperespectrals (3D/4D).[3]

El mapeig d'un espai vectorial d'alta dimensió a un conjunt d'espais vectorials de dimensions inferiors és una projecció multilineal. Quan les observacions es mantenen en la mateixa estructura organitzativa que les matrius o els tensors d'ordre superior, les seves representacions es calculen realitzant projeccions lineals a l'espai de columnes, espais de files i espais de fibres.[4]

Els algorismes d'aprenentatge subespai multilineal són generalitzacions d'ordre superior de mètodes d'aprenentatge subespai lineal com ara l'anàlisi de components principals (PCA), l'anàlisi de components independents (ICA), l'anàlisi discriminant lineal (LDA) i l'anàlisi de correlació canònica (CCA).

Rerefons[modifica]

Els mètodes multilineals poden ser de naturalesa causal i realitzar inferència causal, o poden ser mètodes de regressió simples dels quals no s'extreu cap conclusió causal.

Els algorismes d'aprenentatge subespai lineal són tècniques tradicionals de reducció de la dimensionalitat que són molt adequades per a conjunts de dades que són el resultat de variar un únic factor causal. . Malauradament, sovint es tornen inadequades quan es tracten conjunts de dades que són el resultat de múltiples factors causals.

Algorismes[modifica]

Anàlisi multilineal de components principals[modifica]

Històricament, l'anàlisi de components principals multilineal s'ha denominat "PCA en mode M", una terminologia que va ser encunyada per Peter Kroonenberg. El 2005, Vasilescu i Terzopoulos van introduir la terminologia Multilinear PCA com una manera de diferenciar millor les descomposicions de tensors multilineals que calculaven estadístiques de segon ordre associades a cada mode de tensor de dades, i el treball posterior sobre l'anàlisi de components independents multilineals que va calcular estadístiques d'ordre superior per a cada mode tensor. MPCA és una extensió de PCA.

Anàlisi multilineal de components independents[modifica]

L'anàlisi de components independents multilineal és una extensió de l'ICA.

Anàlisi discriminant lineal multilineal[modifica]

  • Extensió multilineal de LDA
    • Basat en TTP: anàlisi discriminant amb representació de tensors (DATER)
    • Basat en TTP: anàlisi general de tensor discriminant (GTDA)
    • Basat en TVP: anàlisi discriminant multilineal no correlacionat (UMLDA)

Anàlisi de correlació canònica multilineal[modifica]

  • Extensió multilineal de CCA
    • Basat en TTP: anàlisi de correlació canònica de tensors (TCCA)
    • Basat en TVP: anàlisi de correlació canònica multilineal (MCCA)
    • Basat en TVP: anàlisi de correlació canònica multilineal bayesiana (BMTF)
  • Un TTP és una projecció directa d'un tensor d'alta dimensió a un tensor de baixa dimensió del mateix ordre, utilitzant N matrius de projecció per a un tensor d'ordre N. Es pot realitzar en N passos amb cada pas realitzant una multiplicació de matriu tensor (producte). Els N passos són intercanviables. Aquesta projecció és una extensió de la descomposició de valors singulars d'ordre superior (HOSVD) a l'aprenentatge subespai. Per tant, el seu origen es remunta a la descomposició de Tucker a la dècada de 1960.

Referències[modifica]

  1. Lu, Haiping. Multilinear Subspace Learning: Dimensionality Reduction of Multidimensional Data (en anglès). Taylor and Francis, 2013 (Chapman & Hall/CRC Press Machine Learning and Pattern Recognition Series). ISBN 978-1-4398572-4-3. 
  2. Lu, Haiping; Plataniotis, K.N.; Venetsanopoulos, A.N. Pattern Recognition, 44, 2011, pàg. 1540–1551. Bibcode: 2011PatRe..44.1540L. DOI: 10.1016/j.patcog.2011.01.004.
  3. Lu, Haiping; Plataniotis, Konstantinos N.; Venetsanopoulos, Anastasios N. «A survey of multilinear subspace learning for tensor data». Pattern Recognition, 44, 7, 01-07-2011, pàg. 1540–1551. DOI: 10.1016/j.patcog.2011.01.004. ISSN: 0031-3203.
  4. Lu, Haiping; Plataniotis, K.N.; Venetsanopoulos, A.N. Pattern Recognition, 44, 2011, pàg. 1540–1551. Bibcode: 2011PatRe..44.1540L. DOI: 10.1016/j.patcog.2011.01.004.