Descomposició en valors singulars

De Viquipèdia
Dreceres ràpides: navegació, cerca
Visualització de la DVS d'una matriu M de distorsió bidimensional real. Primer, veiem el disc unitat (en blau) amb els dos vectors canònics unitaris. Després veiem l'acció de M, que distorsiona el disc en una el·lipse. La DVS descompon M en tres transformacions simples: una rotació V*, una homotècia Σ al llarg dels eixos coordenats rotats, i una segona rotació U. Les longituds σ1 i σ2 dels semieixos de l'el·lipse són els valors singulars de M.

En àlgebra lineal, la descomposició en valors singulars (DVS) és una descomposició de matrius d'una matriu real o complexa, amb gran nombre d'aplicacions en el processament de senyals i estadística.

Formalment, la descomposició en valors singulars d'una matriu M real o complexa de dimensió m×n és una factorització de la forma

\mathbf{M} = \mathbf{U} \boldsymbol{\Sigma} \mathbf{V}^*

on U és una matriu unitària de dimensió m×m real o complexa, Σ és una matriu diagonal rectangular de dimensió m×n amb entrades reals no-negatives a la diagonal, i V* (la matriu transposada conjugada de V) és una matriu unitària real o complexa de dimensió n×n. Les entrades de la diagonal Σi,i de Σ són conegudes com els valors singulars de M. Les m columnes de U i les n columnes de V s'anomenen vectors singulars per l'esquerra i vectors singulars per la dreta de M, respectivament.

La descomposició en valors singulars i la descomposició espectral estan íntimament lligades. De fet:

  • Els vectors singulars per l'esquerra de M són vectors propis de MM*.
  • Els vectors singulars per la dreta de M són vectors propis de M*M.
  • Els valors singulars no-nuls de M (que hom troba a les entrades de la diagonal de Σ) són les arrels quadrades dels valors propis tant de M*M com de MM*.

Algunes aplicacions de la DVS són el càlcul de la pseudoinversa d'una matriu, l'ajust de dades pel métode dels mínims quadrats, aproximacions de matrius, i la determinació del rang, la imatge i el nucli d'una matriu.

Enunciat del teorema[modifica | modifica el codi]

Suposem que M és una matriu de dimensió m×n a entrades en un cos K, que pot ser el cos dels reals o el dels complexos. Aleshores existeix una factorització de la forma

\mathbf{M} = \mathbf{U} \boldsymbol{\Sigma} \mathbf{V}^*

on U és una matriu unitària de dimensió m×m sobre K, la matriu Σ és una matriu diagonal de dimensió m×n amb valors reals no-negatius a la diagonal, i la matriu unitària V* de dimensió n×n denota la matriu transposada conjugada de la matriu unitària V de dimensió n×n. Una tal factorització s'anomena una descomposició en valors singulars de M.

Les entrades \sigma_i de la diagonal de Σ es coneixen com els valors singulars de of M. Per convenció, hom acostuma a escriure la llista de valors singulars en ordre descendent. En aquest cas, la matriu diagonal Σ està unívocament determinada per M (però no ho estan les matrius U ni V).

Interpretacions intuïtives[modifica | modifica el codi]

Rotació, homotècia, rotació[modifica | modifica el codi]

En el cas especial (però comú) en què M és una matriu quadrada de dimensió m×m amb determinant positiu, i a entrades reals, aleshores U, V*, i Σ són també matrius m×m a entrades reals, Σ pot ser vista com una homotècia, i U i V* poden ser vistes com a matrius de rotació.

Si es donen aquestes condicions, l'expressió \mathbf{U} \boldsymbol{\Sigma} \mathbf{V}^* \, pot ser interpretada com una composició (o successió) de tres transformades geomètriques: una rotació, una homotècia i una altra rotació. Per exemple, la figura superior explica com es pot descriure una matriu de distorsió en termes d'aquesta composició de funcions.

Valors singulars com semieixos d'una el·lipse o d'un el·lipsoide[modifica | modifica el codi]

Com es mostra en la figura, els valors singulars poden ser interpretats com els semieixos d'una el·lipse en dues dimensions. Aquest concepte es pot generalitzar a l'espai euclidià n-dimensional, on els valors singulars d'una matriu quadrada n×n arbitrària es poden interpretar com els semieixos d'un el·lipsoide n-dimensional. Vegeu més avall per més detalls.

Les columnes de U i V són bases ortonormals[modifica | modifica el codi]

Com que U i V* són unitàries, les columnes de cadascuna d'elles formen un conjunt de vectors ortonormals, que poden interpretar-se com a vectors d'una base. Per la definició de matriu unitària, el mateix aplica per les seves transposades conjugades U* i V. En altres paraules, U, U*, V i V* són bases ortonormals.

Exemple[modifica | modifica el codi]

Considerem la matriu 4×5

\mathbf{M} = \begin{bmatrix}
                      1 & 0 & 0 & 0 & 2 \\
                      0 & 0 & 3 & 0 & 0 \\
                      0 & 0 & 0 & 0 & 0 \\
                      0 & 4 & 0 & 0 & 0
                    \end{bmatrix}

Una descomposició en valors singulars d'aquesta matriu és \mathbf{U} \boldsymbol{\Sigma} \mathbf{V}^*

\begin{align}
\mathbf{U} &= \begin{bmatrix}
               0 & 0 & 1 &  0 \\
               0 & 1 & 0 &  0 \\
               0 & 0 & 0 & -1 \\
               1 & 0 & 0 & 0
             \end{bmatrix} \\

\boldsymbol{\Sigma} &= \begin{bmatrix}
                        4 & 0 &        0 & 0 & 0 \\
                        0 & 3 &        0 & 0 & 0 \\
                        0 & 0 & \sqrt{5} & 0 & 0 \\
                        0 & 0 &        0 & 0 & 0
                      \end{bmatrix} \\

\mathbf{V}^* &= \begin{bmatrix}
                           0 & 1 & 0 & 0 &          0 \\
                           0 & 0 & 1 & 0 &          0 \\
                  \sqrt{0.2} & 0 & 0 & 0 & \sqrt{0.8} \\
                           0 & 0 & 0 & 1 &          0 \\
                 -\sqrt{0.8} & 0 & 0 & 0 & \sqrt{0.2}
               \end{bmatrix}
\end{align}

Notem que \boldsymbol{\Sigma} és nul·la fora de la diagonal, i que un element de la diagonal és zero. A més, com que les matrius \mathbf{U} i \mathbf{V}^* són unitàries, si les multipliquem per les seves transposades conjugades obtenim la matriu identitat, com es veu més avall. En aquest cas, com que \mathbf{U} i \mathbf{V}^* són a entrades reals, totes dues són matrius ortogonals.

\begin{align}
  \mathbf{U} \mathbf{U}^* &=
  \begin{bmatrix}
    0 & 0 & 1 &  0 \\
    0 & 1 & 0 &  0 \\
    0 & 0 & 0 & -1 \\
    1 & 0 & 0 &  0
  \end{bmatrix} \cdot

  \begin{bmatrix}
    0 & 0 &  0 & 1 \\
    0 & 1 &  0 & 0 \\
    1 & 0 &  0 & 0 \\
    0 & 0 & -1 & 0
  \end{bmatrix} \\

  &= 
  \begin{bmatrix}
    1 & 0 & 0 & 0 \\
    0 & 1 & 0 & 0 \\
    0 & 0 & 1 & 0 \\
    0 & 0 & 0 & 1
  \end{bmatrix} \equiv

  \mathbf{I}_4
\end{align}

i

\begin{align}
  \mathbf{V} \mathbf{V}^* &=
  \begin{bmatrix}
    0 & 0 & \sqrt{0.2} & 0 & -\sqrt{0.8} \\
    1 & 0 &          0 & 0 &           0 \\
    0 & 1 &          0 & 0 &           0 \\
    0 & 0 &          0 & 1 &           0 \\
    0 & 0 & \sqrt{0.8} & 0 &  \sqrt{0.2}
  \end{bmatrix} \cdot

  \begin{bmatrix}
              0 & 1 & 0 & 0 &          0 \\
              0 & 0 & 1 & 0 &          0 \\
     \sqrt{0.2} & 0 & 0 & 0 & \sqrt{0.8} \\
              0 & 0 & 0 & 1 &          0 \\
    -\sqrt{0.8} & 0 & 0 & 0 & \sqrt{0.2}
  \end{bmatrix} \\

  &=
  \begin{bmatrix}
    1 & 0 & 0 & 0 & 0 \\
    0 & 1 & 0 & 0 & 0 \\
    0 & 0 & 1 & 0 & 0 \\
    0 & 0 & 0 & 1 & 0 \\
    0 & 0 & 0 & 0 & 1
  \end{bmatrix} \equiv

  \mathbf{I}_5
\end{align}

En aquest cas concret, aquesta descomposició en valors singulars no és única. Si escollim V tal que

\mathbf{V}^* = \begin{bmatrix}
                         0          & 1 & 0 &          0 &           0 \\
                         0          & 0 & 1 &          0 &           0 \\
                         \sqrt{0.2} & 0 & 0 &          0 &  \sqrt{0.8} \\
                         \sqrt{0.4} & 0 & 0 & \sqrt{0.5} & -\sqrt{0.1} \\
                        -\sqrt{0.4} & 0 & 0 & \sqrt{0.5} &  \sqrt{0.1}
                      \end{bmatrix}

també obtenim una descomposició en valors singulars vàlida.

Valors singulars, vectors singulars, i la seva relació amb la DVS[modifica | modifica el codi]

Un nombre real no-negatiu σ és un valor singular de M si i només si existeixen vectors unitaris u de Km i v de Kn tals que

\mathbf{M}\vec{v} = \sigma \vec{u} \,\text{ i } \mathbf{M}^*\vec{u} = \sigma \vec{v}

Els vectors u i v s'anomenen vector singular per l'esquerra i vector singular per la dreta de σ, respectivament.

En qualsevol descomposició en valors singulars

\mathbf{M} = \mathbf{U} \boldsymbol{\Sigma} \mathbf{V}^*

les entrades de la diagonal de Σ són iguals als valors singulars de M. Les columnes de U i V són, respectivament, vectors singulars per l'esquerra i per la dreta pels corresponents valors singulars. En conseqüència, el teorema implica que:

  • Una matriu M de dimensió m × n té, com a molt, p = min(m,n) valors singulars diferents.
  • Sempre és possible trobar una base ortogonal U de Km formada per vectors singulars per l'esquerra de M.
  • Sempre és possible trobar una base ortogonal V de Kn formada per vectors singulars per la dreta de M.

Un valor singular pel qual podem trobar dos vectors singulars per l'esquerra (o per la dreta) que siguin linealment independents s'anomena degenerat.

Els valors singulars no-degenerats sempre tenen vectors singulars per l'esquerra i per la dreta únics, llevat de multiplicació per un factor de mòdul unitari eiφ (en el cas real, llevat de signe). En conseqüència, si tots els valors singulars de M són no-degenerats i no-nuls, llavors la seva descomposició en valors singulars és única, llevat de multiplicar una columna de U per un factor de mòdul unitari i alhora multiplicar la corresponent columna de V pel mateix factor de mòdul unitari.

Els valors singulars degenerats, per definició, tenen vectors singulars no-únics. És més, si u1 i u2 són dos vectors singulars per l'esquerra corresponents al valor singular σ, llavors qualsevol combinació lineal normalitzada és també un vector singular per l'esquerra corresponent al valor singular σ. El mateix és vàlid per vectors singulars per la dreta. En conseqüència, si M té valors singulars degenerats, llavors la seva descomposició en valors singulars no és única.

Aplicacions de la DVS[modifica | modifica el codi]

Pseudoinversa[modifica | modifica el codi]

Hom pot emprar la descomposició en valors singulars per calcular la pseudoinversa d'una matriu. En efecte, la pseudoinversa de la matriu M amb descomposició en valors singulars \mathbf{M} = \mathbf{U} \boldsymbol{\Sigma} \mathbf{V}^* és

\mathbf{M}^+ = \mathbf{V} \boldsymbol{\Sigma}^+ \mathbf{U}^*

on Σ+ és la pseudoinversa de Σ, formada tot substituint els elements no-nuls de la diagonal pels seus respectius recíprocs i transposant la matriu resultant. La pseudoinversa és una forma de resoldre problemes de mínims quadrats ordinaris.

Resolució d'equacions lineals homogènies[modifica | modifica el codi]

Podem escriure un sistema d'equacions lineals homogènies com \mathbf{A} \vec{x} = \mathbf{0} per una matriu \mathbf{A} i un vector \vec{x}. Una situació típica és que \mathbf{A} és coneguda, i hem de determinar \vec{x} no-nul que satisfaci l'equació. Un tal \vec{x} pertany al nucli de \mathbf{A} i de vegades s'anomena un vector nul (per la dreta) de \mathbf{A}. El vector \vec{x} pot caracteritzar-se com un vector singular per la dreta corresponent a un valor singular de \mathbf{A} que és zero. Aquesta observació significa que si \mathbf{A} és una matriu quadrada i no té cap valor singular nul, llavors l'equació no té solució \vec{x} no-nul·la. També vol dir que si hi ha diversos valors singulars nuls, llavors qualsevol combinació lineal dels corresponents vectors singulars per la dreta n'és una solució vàlida. De forma anàloga a la definició de vector nul (per la dreta), un vector no-nul \vec{x} que satisfaci \vec{x^*} \mathbf{A} = \mathbf{0}, on \vec{x^*} denota el transposat conjugat de \vec{x}, s'anomena vector nul per l'esquerra de \mathbf{A}.

Minimització de mínims quadrats totals[modifica | modifica el codi]

Un problema de mínims quadrats totals es refereix a determinar el vector  \mathbf{x} que minimitza la 2-norma d'un vector  \mathbf{A} \, \mathbf{x} amb la restricció  \| \mathbf{x} \| = 1. La solució resulta ser el vector singular per la dreta de  \mathbf{A} corresponent al valor singular més petit.

Imatge, nucli i rang[modifica | modifica el codi]

Una altra aplicació de la DVS és que proveeix d'una representació explícita de la imatge i el nucli d'una matriu M. Els vectors singulars per la dreta corresponents a valors singulars nuls de M generen el nucli de M. Per exemple, les últimes dues columnes de \mathbf{V} generen el nucli en l'exemple anterior. Els vectors singulars per l'esquerra corresponents als valors singulars no-nuls de M generen la imatge de M. Com a conseqüència, el rang de M és igual al nombre de valors singulars no-nuls, la qual cosa equival al nombre d'elements no-nuls de la diagonal de \boldsymbol{\Sigma}.

En àlgebra lineal numèrica, els valors singulars poden emprar-se per determinar el rang efectiu d'una matriu, donat que els errors d'arrodoniment poden portar a valors singulars no-nuls però molt petits en una matriu mal condicionada.

Aproximació per matrius de rang baix[modifica | modifica el codi]

Algunes aplicacions pràctiques necessiten resoldre el problema d'aproximar una matriu \mathbf{M} amb una altra matriu \tilde{\mathbf{M}}, anomenada truncada, que tingui un rang específic r. En el cas que l'aproximació es basi en minimitzar la norma de Frobenius de la diferència entre \mathbf{M} i \tilde{\mathbf{M}} amb la restricció que \operatorname{rang}\left(\tilde{\mathbf{M}}\right) = r, resulta que la solució ve donada per la DVS de \mathbf{M}, és a dir

\tilde{\mathbf{M}} = \mathbf{U} \tilde{\boldsymbol{\Sigma}} \mathbf{V}^*

on \tilde{\boldsymbol{\Sigma}} és la mateixa matriu que \boldsymbol{\Sigma}, excepte que conté només els r valors singulars més grans (els altres valors singulars se substitueixen per zero). Això es coneix com el Teorema d'Eckart-Young, donat que va ser demostrat per aquests dos autors en 1936 (encara que més tard es va descobrir que el resultat era conegut per autors anteriors; vegeu Stewart 1993).

Models separables[modifica | modifica el codi]

Hom pot interpretar la DVS com descompondre una matriu en una suma ordenada i amb pesos de matrius separables. Per separable, volem dir que una matriu \mathbf{A} pot escriure's com producte exterior de dos vectors \mathbf{A} = \mathbf{u} \otimes \mathbf{v}, o, en coordenades, \mathbf{A(i, j)} = \mathbf{u}(i) \mathbf{v}(j). De forma específica, es pot descompondre la matriu M com:

\mathbf{M} = \sum_i \mathbf{A}_i = \sum_i \sigma_i U_i \otimes V_i^\dagger

Aquí, U_i i V_i són les columnes i-simes de les corresponents matrius de la DVS, \sigma_i són els valors singulars ordenats, i cada \mathbf{A}_i és separable. La DVS es pot emprar per trobar la descomposició d'un filtre de processament d'imatges en filtres separables horitzontals i verticals. Notem que el nombre de \sigma_i no-nuls és exactament el rang de la matriu.

Els models separables apareixen amb freqüència en sistemes biològics, i la descomposició DVS és útil per analitzar-los. Per exemple, es poden descriure els camps receptius d'un àrea visual V1[1] mitjançant un filtre de Gabor en el domini espacial multiplicat per una funció de modulació en el domini temporal. Llavors, donat un filtre lineal avaluat a través de, per exemple, una correlació inversa, es poden reconfigurar les dues dimensions espacials en una sola dimensió, obtenint per tant un filtre bidimensional (espai, temps) que es pot descompondre mitjançant DVS. La primera columna de U en la descomposició DVS és Gabor mentre que la primera columna de V representa la modulació de temps (o viceversa). Hom pot definir llavors un índex de separabilitat, \alpha = \frac{1}{\sum_i \sigma_i^2}\sigma_1^2, que és la fracció de la potència de la matriu M assolida per la primera matriu separable de la descomposició.[2]

Matriu ortogonal més propera[modifica | modifica el codi]

És possible usar la DVS de \mathbf{A} per determinar la matriu ortogonal \mathbf{R} més propera a \mathbf{A}. La proximitat de l'ajust es mesura per la norma de Frobenius de \mathbf{R} - \mathbf{A}. La solució és el producte \mathbf{U} \mathbf{V}^*.[3] Això té sentit des d'un punt de vista intuïtiu, perquè una matriu ortogonal tindria una descomposició \mathbf{U} \mathbf{I} \mathbf{V}^* on \mathbf{I} és la matriu identitat, de tal manera que si \mathbf{A} = \mathbf{U} \boldsymbol{\Sigma} \mathbf{V}^* llavors el producte \mathbf{A} = \mathbf{U} \mathbf{V}^* ve a ser el mateix que substituir els valors singulars per uns.

Un problema similar, amb aplicacions interessants en l'anàlisi de formes geomètriques, és el problema de Procuste ortogonal, que consisteix en trobar una matriu ortogonal \mathbf{R} que millor apliqui \mathbf{A} en \mathbf{B}. Més específicament,

\mathbf{R} = \arg\min_\boldsymbol{\Omega} \|\mathbf{A}\boldsymbol{\Omega} - \mathbf{B}\|_F \quad\mathrm{restringit\ a}\quad \boldsymbol{\Omega}^T\boldsymbol{\Omega} = \mathbf{I}

on \| \cdot \|_F denota la norma de Frobenius.

Aquest problema és equivalent a trobar la matriu ortogonal més propera a una matriu donada \mathbf{M} = \mathbf{A}^{T}\mathbf{B}.

Algorisme de Kabsch[modifica | modifica el codi]

L'algorisme de Kabsch (conegut en altres contextos com problema de Wahba) usa la DVS per calcular la rotació òptima (amb relació a la minimització per mínims quadrats) que alineï un conjunt de punts amb un altre conjunt de punts. S'usa, entre altres aplicacions, per comparar les estructures de les molècules.

Altres exemples[modifica | modifica el codi]

La DVS s'usa de forma generalitzada a l'estudi de problemes inversos lineals, i és útil en l'anàlisi de mètodes de regularització com el de Tikhonov. És àmpliament usat en estadística, on està relacionat amb l'anàlisi de components principals i l'anàlisi de correspondències, i en processament de senyals i reconeixement de patrons. També s'usa en anàlisi modal només de sortida, on els modes normals poden ser determinats a partir dels vectors singulars. Un altre ús és la indexació semàntica latent en el processament de textos en llenguatge natural.

La DVS juga un rol crucial en el camp de la informació quàntica, en una formulació coneguda de vegades com a descomposició de Schmidt. Amb el seu ajut, es poden descompondre els estats de dos sistemes quàntics de forma natural, donant així una condició necessària i suficient perquè siguin entrellaçats: que el rang de la matriu \mathbf{\Sigma} sigui més gran que 1.

Una aplicació de la DVS per matrius relativament grans és en models numèrics de predicció meteorològica, on s'utilitzen els mètodes de Lanczos per estimar el creixement lineal més ràpid per les pertorbacions situades prop del centre de predicció meteorològica, donat un període de temps; és a dir, els vectors singulars corresponents als valors singulars més grans del propagador linealitzat per l'oratge global sobre aquell interval de temps. Els vectors singulars resultants en aquest cas són sistemes meteorològics sencers. Aquestes pertorbacions s'introdueixen llavors en el model complet no-lineal per generar una predicció meteorològica global, donant a més una mesura del grau d'incertesa que hi ha quan ens allunyem de l'origen de la predicció.

Relació amb la descomposició en valors propis[modifica | modifica el codi]

La descomposició en valors singulars és molt general, en el sentit que es pot aplicar a qualsevol matriu m × n, mentre que la descomposició espectral només pot aplicar-se a certs tipus de matrius quadrades. Tot i això, les dues descomposicions estan relacionades.

Donada una DVS de M, segons s'ha descrit més amunt, es compleixen les següents relacions:

\begin{align}
  \mathbf{M}^* \mathbf{M} &= \mathbf{V} \boldsymbol{\Sigma^*} \mathbf{U}^*\, \mathbf{U} \boldsymbol{\Sigma} \mathbf{V}^* = \mathbf{V} (\boldsymbol{\Sigma}^* \boldsymbol{\Sigma}) \mathbf{V}^* \\
  \mathbf{M} \mathbf{M}^* &= \mathbf{U} \boldsymbol{\Sigma} \mathbf{V}^*\, \mathbf{V} \boldsymbol{\Sigma}^* \mathbf{U}^* = \mathbf{U} (\boldsymbol{\Sigma} \boldsymbol{\Sigma}^*) \mathbf{U}^*
\end{align}

El segon membre d'aquestes relacions descriuen les descomposicions en valors propis del primer membre. En conseqüència:

  • Les columnes de V (vectors singulars per la dreta) són vectors propis de \mathbf{M}^*\mathbf{M}.
  • Les columnes de U (vectors singulars per l'esquerra) són vectors propis de \mathbf{M}\mathbf{M}^*.
  • Els elements no-nuls de Σ (valors singulars no-nuls) són les arrels quadrades dels valors singulars no-nuls de \mathbf{M}^*\mathbf{M} o \mathbf{M}\mathbf{M}^*.

En el cas especial que M és una matriu normal, que per definició és quadrada, el teorema espectral diu que pot ser diagonalitzada de forma unitària usant una base de vectors propis, de tal manera que es pot escriure com \mathbf{M} = \mathbf{U} \mathbf{D} \mathbf{U}^* per alguna matriu unitària U i una matriu diagonal D. Quan M és també semidefinida positiva, la descomposició \mathbf{M} = \mathbf{U}\mathbf{D}\mathbf{U}^* és també una descomposició en valors singulars.

Tot i això, la descomposició en valors propis i la descomposició en valors singulars difereixen per qualsevol altra matriu M: la descomposició en valors propis és \mathbf{M} = \mathbf{U}\mathbf{D}\mathbf{U}^{-1} on U no és necessàriament unitària i D no és necessàriament semidefinida positiva, mentre que la DVS és \mathbf{M} = \mathbf{U} \boldsymbol{\Sigma} \mathbf{V}^* on Σ és una matriu diagonal semidefinida positiva, i U i V són matrius unitàries que no estan necessàriament relacionades excepte a través de la matriu M.

Existència[modifica | modifica el codi]

Un valor propi λ d'una matriu es caracteritza per la relació algebraica M u = λ u. Quan M és hermítica, també tenim una caracterització variacional. Sigui M una matriu simètrica real de dimensió n × n. Definim f:ℝn → ℝ per f(x) = xT M x. Pel teorema de Weierstrass, aquesta funció contínua té un màxim en algun u quan està restringida a l'esfera unitat tancada  \{ \|x\|\le 1\}.. Pel teorema dels multiplicadors de Lagrange, necessàriament u satisfà

\nabla f = \nabla \vec{x}^T \mathbf{M} \vec{x} = \lambda \cdot \nabla \vec{x}^T \vec{x}

on el símbol \nabla denota l'operador nabla.

Un càlcul breu mostra que la relació anterior implica M u = λ u (aquí és necessària la simetria de M). Per tant, λ és el valor propi més gran de M. El mateix càlcul sobre el complement ortogonal de u ens dóna el següent valor propi més gran, i així successivament. El cas hermític complex és similar; en aquest cas, f(x) = x* M x és una funció real de 2n variables reals.

Els valors singulars són similars en el sentit que es poden descriure de forma algebraica o mitjançant principis variacionals. En canvi, al contrari que el cas de valors propis, no és necessari que M sigui hermítica o simètrica.

Aquesta secció dóna aquests dos arguments per l'existència de la descomposició en valors singulars.

Basada en el teorema espectral[modifica | modifica el codi]

Sigui M una matriu m per n a entrades complexes. M*M és semidefinida positiva i hermítica. Pel teorema espectral, existeix una matriu unitària V de dimensió n per n tal que

\mathbf{V}^* \mathbf{M}^* \mathbf{M} \mathbf{V} = \begin{bmatrix} \mathbf{D} & 0 \\ 0 & 0\end{bmatrix}

on D és diagonal i definida positiva. Fent una partició adequada de V podem escriure

\begin{bmatrix} \mathbf{V}_1^* \\ \mathbf{V}_2^* \end{bmatrix} \mathbf{M}^* \mathbf{M} \begin{bmatrix} \mathbf{V}_1 & \mathbf{V}_2 \end{bmatrix} =
  \begin{bmatrix} \mathbf{V}_1^* \mathbf{M}^* \mathbf{M} \mathbf{V}_1 & \mathbf{V}_1^* \mathbf{M}^* \mathbf{M} \mathbf{V}_2 \\ \mathbf{V}_2^* \mathbf{M}^* \mathbf{M} \mathbf{V}_1 & \mathbf{V}_2^* \mathbf{M}^* \mathbf{M} \mathbf{V}_2 \end{bmatrix} =
  \begin{bmatrix} \mathbf{D} & 0 \\ 0 & 0 \end{bmatrix}

Per tant V1*M*MV1 = D i V2*M*MV2 = 0. L'última igualtat implica que MV2 = 0.

Addicionalment, com que V és unitària, V1*V1 = I, V2*V2 = I i V1V1* + V2V2* = I.

Definim

\mathbf{U}_1 = \mathbf{M} \mathbf{V}_1 \mathbf{D}^{-\frac{1}{2}}

Aleshores

\mathbf{U}_1 \mathbf{D}^\frac{1}{2} \mathbf{V}_1^* = \mathbf{M} \mathbf{V}_1 \mathbf{D}^{-\frac{1}{2}} \mathbf{D}^\frac{1}{2} \mathbf{V}_1^* = \mathbf{M}

Observem que aquest és gairebé el resultat desitjat, excepte que U1 i V1 no són unitàries en general, sinó isometries. Per finalitzar l'argument, només hem d'"emplenar" aquestes matrius per fer-les unitàries. Per exemple, podem escollir U2 tal que

\mathbf{U} = \begin{bmatrix} \mathbf{U}_1 & \mathbf{U}_2 \end{bmatrix}

sigui unitària.

Definim

\boldsymbol{\Sigma} =
  \begin{bmatrix}
    \begin{bmatrix}
      \mathbf{D}^\frac{1}{2} & 0 \\
      0                      & 0
    \end{bmatrix} \\
    0
  \end{bmatrix}

on afegim o suprimim files nul·les per fer que el nombre de files nul·les iguali el nombre de columnes de U2. Llavors


  \begin{bmatrix}
    \mathbf{U}_1 & \mathbf{U}_2
  \end{bmatrix}
  \begin{bmatrix}
    \begin{bmatrix}
      \mathbf{}D^\frac{1}{2} & 0 \\
      0                      & 0
    \end{bmatrix} \\
    0
  \end{bmatrix}
  \begin{bmatrix}
    \mathbf{V}_1 & \mathbf{V}_2
  \end{bmatrix}^* =
  \begin{bmatrix}
    \mathbf{U}_1 & \mathbf{U}_2
  \end{bmatrix}
  \begin{bmatrix}
    \mathbf{D}^\frac{1}{2} \mathbf{V}_1^* \\
    0
  \end{bmatrix} =
  \mathbf{U}_1 \mathbf{D}^\frac{1}{2} V_1^* =
  \mathbf{M}

que és el resultat desitjat:

\mathbf{M} = \mathbf{U} \boldsymbol{\Sigma} \mathbf{V}^*

Notem que l'argument podria haver començat diagonalitzant MM* en comptes de M*M (Això mostra directament que MM* i M*M tenen els mateixos valors propis no-nuls).

Basada en caracterització variacional[modifica | modifica el codi]

Els valors singulars també es poden caracteritzar com els màxims de uTMv, considerada com una funció de u i v, sobre subespais particulars. Els vectors singulars són els valors de u i v on s'arriba a aquests màxims.

Sigui M una matriu m × n a entrades reals. Siguin S^{m-1} i S^{n-1} els conjunts de vectors unitaris segons la 2-norma en ℝm i ℝn respectivament. Definim la funció

\sigma(\vec{u}, \vec{v}) = \vec{u}^{T} M \vec{v}

per vectors uS^{m - 1} i vS^{n - 1}. Considerem la funció σ restringida a S^{m - 1} × S^{n - 1}. Com que tant S^{m - 1} com S^{n - 1} són conjunts compactes, el seu producte també és compacte. Addicionalment, com que σ és contínua, té un màxim per almenys un parell de vectors uS^{m - 1} i vS^{n - 1}. Aquest valor màxim es denota per σ1 i els corresponents vectors es denoten per u1 i v1. Com que \sigma_{1} és el valor més gran de \sigma(u ,v) llavors ha de ser no-negatiu. Si fos negatiu, canviant el signe de u1 o de v1 faria que la funció fos positiva i per tant de valor més gran.

Proposició: u1, v1 són vectors singulars per l'esquerra i per la dreta de M amb el seu corresponent valor singular σ1.

Demostració: De forma similar al cas dels valors propis, per hipòtesi els dos vectors satisfan l'equació dels multiplicadors de Lagrange:

\nabla \sigma = \nabla \; \vec{u}^T \mathbf{M} \vec{v} - \lambda_1 \cdot \nabla \; \vec{u}^T \vec{u} - \lambda_2 \cdot \nabla \; \vec{v}^T \vec{v}

Després de treballar amb aquesta expressió, obtenim

\mathbf{M} \vec{v}_{1} = 2 \lambda_{1} \vec{u}_{1} + 0

i

\mathbf{M}^{T} \vec{u}_{1} = 0 + 2 \lambda_{2} \vec{v}_{1}

Multiplicant per l'esquerra la primera equació per \vec{u}_1^T i la segona equació per \vec{v}_1^T, i recordant que ||u|| = ||v|| = 1 obtenim

\begin{align}
  \vec{u}_1^T \mathbf{M}   \vec{v}_1 &= \sigma_1 = 2 \lambda_1 \\
  \vec{v}_1^T \mathbf{M}^T \vec{u}_1 &= \sigma_1 = 2 \lambda_2
\end{align}

Per tant σ1 = 2 λ1 = 2 λ2. Per les propietats del funcional φ definit per

\phi(\vec{w}) = \vec{u}_1^T \vec{w}

tenim

\mathbf{M} \vec{v}_1 = \sigma_1 \vec{u}_1

De forma semblant,

\mathbf{M}^T \vec{u}_1 = \sigma_1 \vec{v}_1

Això demostra la proposició.

Es poden trobar més vectors singulars i valors singulars tot maximitzant σ(u, v) sobre u, v normalitzats que siguin ortogonals a u1 i v1, respectivament.

El pas del cas real al complex és semblant al cas de valors propis.

Significat geomètric[modifica | modifica el codi]

Com que U i V són unitàries, sabem que les columnes u1, …, um de U proporcionen una base ortonormal de Km i les columnes v1, …, vn de V proporcionen una base ortonormal de Kn (respecte als productes escalars estàndard en aquests espais).

La transformació lineal T :KnKm que porta cada vector x a Mx té una descripció particularment simple respecte a aquestes bases ortonormals: tenim que T(vi) = σi ui, per i = 1,...,mín(m,n), on σi és la i-sima entrada de la diagonal de Σ, i T(vi) = 0 per i > mín(m,n).

El contingut geomètric del teorema DVS es pot resumir, per tant, de la següent forma: per cada aplicació lineal T :KnKm es poden trobar bases ortonormals de Kn i Km tals que T envia l'i-sim vector base de Kn a un múltiple no-nul de l'i-sim vector base de Km, i envia la resta de vectors de la base al vector nul. Per tant, respecte a aquestes bases, l'aplicació T es representa per una matriu diagonal amb entrades reals no-negatives.

Per tenir una imatge més visual dels valors singulars i la descomposició en valors singulars —almenys quan treballem en espais vectorials reals— considerem l'esfera unitat S en ℝn. L'aplicació lineal T envia aquesta esfera a un el·lipsoide en ℝm. Els valors singulars no-nuls són simplement les longituds dels semieixos d'aquest el·lipsoide. Especialment, quan n=m, i tots els valors singulars són diferents i no-nuls, la DVS de l'aplicació lineal es pot analitzar fàcilment com una composició de tres moviments consecutius: considerem l'el·lipsoide T(S) i específicament els seus eixos; llavors considerem les direccions en ℝn enviades per T sobre aquests eixos. Resulta que aquestes direccions són mútuament ortogonals. Apliquem primer una isometria v* que envia aquestes direccions als eixos coordenats de ℝn. En un segon moviment, apliquem un endomorfisme d diagonalitzat al llarg dels eixos coordenats i eixamplant o estrenyent en cada direcció, usant les longituds dels semieixos de T(S) com a coeficients d'eixamplament. La composició dov* envia l'esfera unitat en un el·lipsoide isomètric a T(S). Per definir el tercer i últim moviment u, apliquem una isometria a aquest el·lipsoide per portar-lo a sobre de T(S). Es pot comprovar fàcilment que la composició udv* coincideix amb T.

Càlcul de la descomposició en valors singulars[modifica | modifica el codi]

Enfoc numèric[modifica | modifica el codi]

Habitualment, la DVS d'una matriu M es calcula mitjançant un procediment de dos passos. En el primer pas, es redueix la matriu a una matriu bidiagonal. Això comporta O(mn2) operacions en coma flotant (flops), assumint que mn (aquesta formulació usa la notació O gran). El segon pas és calcular la DVS de la matriu bidiagonal. Aquest pas només es pot realitzar mitjançant un mètode iteratiu (com en els algorismes per calcular valors propis). Tot i això, en la pràctica és suficient amb calcular la DVS fins a una determinada precisió, com l'èpsilon de la màquina. Si considerem constant aquesta precisió, llavors el segon pas comporta O(n) iteracions, cadascuna costant O(n) flops. Per tant, el primer pas és més costós, i el cost global és O(mn2) flops (Trefethen & Bau III 1997, Lecture 31).

Es pot realitzar el primer pas usant transformacions de Householder per un cost de 4mn2 − 4n3/3 flops, assumint que només es necessiten els valors singulars, i no els vectors singulars. Si m és molt més gran que n llavors és convenient reduir primer la matriu M a una matriu triangular superior mitjançant la factorització QR, i llavors usar transformacions de Householder per continuar reduint la matriu a una forma bidiagonal; el cost combinat és 2mn2 + 2n3 flops (Trefethen & Bau III 1997, Lecture 31).

El segon pas es pot realitzar mitjançant una variant de l'algorisme QR per calcular els valors propis, que fou descrit originàriament per Golub & Kahan (1965). La subrutina DBDSQR de LAPACK[4] implementa aquest mètode iteratiu, amb algunes modificacions per poder cobrir el cas en què els valors singulars són molt petits (Demmel & Kahan 1990). En conjunt amb un primer pas usant transformacions de Householder i, si és necessari, factorització QE, això forma la rutina DGESVD[5] pel càlcul de la descomposició en valors singulars.

També s'ha implementat el mateix algorisme en la GNU Scientific Library (GSL). La GSL també ofereix un mètode alternatiu, que usa una ortogonalització de Jacobi en el pas 2 (GSL Team 2007). Aquest mètode calcula la DVS de la matriu bidiagonal tot resolent una seqüència de problemes DVS 2 per 2, de forma similar a com l'algorisme de valors propis de Jacobi resol una seqüència de mètodes de valors propis 2 per 2 (Golub & Van Loan 1996, §8.6.3). Finalment, un altre mètode pel pas 2 usa la idea d'un algorisme divideix i venceràs (Trefethen & Bau III 1997, Lecture 31).

Resultat analític d'una DVS 2 per 2[modifica | modifica el codi]

Els valors singulars d'una matriu 2 per 2 es poden calcular de forma analítica. Suposem que la matriu és \mathbf{M} = z_0\mathbf{I} + z_1\sigma_1 + z_2\sigma_2 + z_3\sigma_3

on els z_i \in \mathbb{C} són nombres complexos que parametritzen la matriu, \mathbf{I} és la matriu identitat, i \sigma_i denoten les matrius de Pauli. Aleshores els dos valors singulars estan donats per

\begin{align}
  \sigma_{\pm} &= \sqrt{|z_0|^2 + |z_1|^2 + |z_2|^2 + |z_3|^2 \pm \sqrt{(|z_0|^2 + |z_1|^2 + |z_2|^2 + |z_3|^2)^2 - |z_0^2 - z_1^2 - z_2^2 - z_3^2|^2}} \\
               &= \sqrt{|z_0|^2 + |z_1|^2 + |z_2|^2 + |z_3|^2 \pm 2\sqrt{(\mathrm{Re}z_0z_1^*)^2 + (\mathrm{Re}z_0z_2^*)^2 + (\mathrm{Re}z_0z_3^*)^2 + (\mathrm{Im}z_1z_2^*)^2 + (\mathrm{Im}z_2z_3^*)^2 + (\mathrm{Im}z_3z_1^*)^2}}
\end{align}

Descomposicions en valors singulars reduïdes[modifica | modifica el codi]

En la pràctica, és força inusual trobar la DVS completa, incloent una descomposició unitària completa del nucli de la matriu. En canvi, acostuma a ser suficient (i més ràpid i econòmic en termes d'emmagatzematge) calcular una versió reduïda de la DVS. Podem distingir els següents casos per una matriu M de dimensió m×n i de rang r:

DVS 'aprimada'[modifica | modifica el codi]

\mathbf{M} = \mathbf{U}_n \boldsymbol{\Sigma_n} \mathbf{V}^*

Només es calculen els n vectors columna de U corresponents als vectors fila de V*. La resta de vectors columna de U no es calculen. Això és significativament més ràpid i més econòmic que la DVS completa si nm. La matriu Un és per tant m×n, Σn és n×n diagonal, i V és n×n.

El primer pas en el càlcul d'una DVS 'aprimada' acostuma a ser una factorització QR de M, que pot ser un càlcul significativament més ràpid si nm.

DVS compacta[modifica | modifica el codi]

\mathbf{M} = \mathbf{U}_r \boldsymbol{\Sigma}_r \mathbf{V}_r^*

Només es calculen els r vectors columna de U i els r vectors fila de V* corresponents als valors singulars no-nuls Σr. La resta de vectors de U i V* no es calculen. Això és més ràpid i més econòmic que la DVS 'aprimada' si rn. La matriu Ur és per tant m×r, Σr és r×r diagonal, i Vr* és r×n.

DVS truncada[modifica | modifica el codi]

\tilde{\mathbf{M}} = \mathbf{U}_t \boldsymbol{\Sigma}_t \mathbf{V}_t^*

Només es calculen els t vectors columna de U i els t vectors fila de V* corresponents als t valors singulars Σt més grans. La resta de la matriu és descartada. Això pot ser molt més ràpid i econòmic que la DVS compacta si tr. La matriu Ut és per tant m×t, Σt és t×t diagonal, i Vt* és t×n.

És clar que la DVS truncada ja no és una descomposició exacta de la matriu original M, però com hem vist més amunt, la matriu aproximada \tilde{\mathbf{M}} és, en un sentit molt útil, l'aproximació més propera a M que es pot aconseguir per una matriu de rang t.

Normes[modifica | modifica el codi]

Normes Ky Fan[modifica | modifica el codi]

La suma dels k valors singulars més grans de M és una norma matricial, la k-norma Ky Fan de M.

La primera de les normes de Ky Fan, la 1-norma Ky Fan, és el mateix que la norma d'operador de M com a operador lineal respecta les normes euclidianes de Km i Kn. En altres paraules, la 1-norma Ky Fan és la norma d'operador induïda pel producte intern euclidià estàndard \ell^2. Per aquesta raó, també s'anomena 2-norma d'operador. Hom pot verificar fàcilment la relació entre la 1-norma Ky Fan i els valors singulars. En general és cert, per operadors afitats en espais de Hilbert (possiblement de dimensió infinita), que

\| \mathbf{M} \| = \| \mathbf{M}^* \mathbf{M} \|^\frac{1}{2}

Però en el cas matricial, M*M½ és una matriu normal, i llavors ||M* M||½ és el valor propi més gran de M* M½, és a dir, el valor singular més gran de M.

L'última de les normes Ky Fan, la suma de tots els valors singulars, és la norma de traça (també conegut com a 'norma nuclear'), definida com ||M|| = Tr[(M*M)½] (els valors propis de M* M són els quadrats dels valors singulars).

Norma Hilbert–Schmidt [modifica | modifica el codi]

Els valors singulars estan relacionats amb una altra norma en l'espai dels operadors. Considerem el producte interior de Hilbert–Schmidt sobre les matrius n × n, definit per \langle \mathbf{M}, \mathbf{N} \rangle = \operatorname{tr}(\mathbf{N}^*\mathbf{M}). La norma induïda és \|\mathbf{M}\| = \langle \mathbf{M}, \mathbf{M}\rangle^\frac{1}{2} = \operatorname{tr}(\mathbf{M}^*\mathbf{M})^\frac{1}{2}. Com que la traça és invariant per equivalència unitària, això ens diu que

\| \mathbf{M} \| = \left(\sum \sigma_i ^2\right)^\frac{1}{2}

on \sigma_i són els valors singulars de M. Això s'anomena la norma de Frobenius, 2-norma de Schatten o norma de Hilbert–Schmidt de M. Un càlcul directe mostra que si

\mathbf{M} = (m_{ij})

la norma de Frobenius de M coincideix amb

\left( \sum_{ij} | m_{ij} |^2 \right)^\frac{1}{2}

DVS de tensors[modifica | modifica el codi]

Lamentablement, el problema de trobar una aproximació de rang baix a un tensor està mal plantejat. En altres paraules, no existeix una possible millor solució, però en canvi existeix una successió d'aproximacions cada cop millors que convergeixen a matrius infinitament grans. Tot i això, hi ha diverses maneres d'intentar trobar una descomposició.

Existeixen dos tipus de descomposicions de tensors, que generalitzen la DVS en matrius multidimensionals. Un d'aquests tipus descompon un tensor en suma de tensors de rang 1, veure l'algorisme Candecomp-PARAFAC (CP). L'algorisme CP no ha de ser confós amb una descomposició de rang R, però donat N, descompon el tensor en suma de N tensors de rang 1 que s'ajusten de manera òptima al tensor original. El segon tipus de descomposició calcula els subespais ortonormals associats als diferents eixos o models d'un tensor (espai de files ortonormal, espai de columnes, espai fibrat, etc.). Aquesta descomposició s'acostuma a anomenar Tucker3/TuckerM, DVS M-modal, DVS multilineal i de vegades DVS d'ordre superior (HOSVD, de l'anglès Higher-order singular value decomposition). Addicionalment, l'anàlisi de components principals multilineal en aprenentatge de subespais multipleals tracta les mateixes operacions matemàtiques que la descomposició de Tucker, però usades en un context diferent de reducció dimensional.

Operadors afitats en espais de Hilbert[modifica | modifica el codi]

La factorització \mathbf{M} = \mathbf{U} \boldsymbol{\Sigma} \mathbf{V}^* es pot estendre a un operador afitat M en un espai de Hilbert separable H. De fet, per tot operador afitat M, existeixen una isometria parcial U, una d'unitària V, un espai de mesura (Xμ), i un mesurable no-negatiu f tals que

\mathbf{M} = \mathbf{U} T_f \mathbf{V}^*

on T_f és la multiplicació per f sobre L2(X, μ).

Això es pot demostrar tot seguint un argument similar al cas matricial que hem vist més amunt. V Tf V* és l'única arrel quadrada positiva de M*M, donada pel càlcul funcional de Borel per operadors autoadjunts. La raó per la qual no és necessari que U sigui unitària és que, al contrari que en el cas de dimensió finita, donada una isometria U1 amb nucli no-trivial, no es pot trobar cap U2 tal que

\begin{bmatrix} U_1 \\ U_2 \end{bmatrix}

sigui un operador unitari.

Com en el cas de matrius, la descomposició en valors singulars és equivalent a la descomposició polar per operadors: podem escriure senzillament

\mathbf{M} = \mathbf{U} \mathbf{V}^* \cdot \mathbf{V} T_f \mathbf{V}^*

i notem que U V* encara és una isometria parcial, mentre que V Tf V* és positiva.

Valors singulars i operadors compactes[modifica | modifica el codi]

Per estendre la noció de valors singulars i vectors singulars per l'esquerra/per la dreta al cas d'operadors, necessitem restringir-nos als operadors compactes. És un fet general que els operadors compactes sobre espais de Banach tenen només un espectre discret. Això també és cert per operadors compactes sobre espais de Hilbert, ja que els espais de Hilbert són un cas especial d'espais de Banach. Si T és compacte, tot λ no-nul del seu espectre és un valor propi. Addicionalment, un operador autoadjunt compacte es pot diagonalitzar mitjançant els seus vectors propis. Si M és compacte, també ho és M*M. Aplicant el resultat de diagonalització, la imatge unitària de la seva arrel quadrada positiva Tf té un conjunt de vectors propis ortonormals {ei} corresponents a valors propis estrictament positius {σi}. Per qualsevol ψ ∈ H,

\mathbf{M} \psi = \mathbf{U} T_f \mathbf{V}^* \psi = \sum_i \langle \mathbf{U} T_f \mathbf{V}^* \psi, \mathbf{U} e_i \rangle \mathbf{U} e_i =
                           \sum_i \sigma_i \langle \psi, \mathbf{V} e_i \rangle \mathbf{U} e_i

on la sèrie convegeix en la topologia de la norma de H. Notem que això recorda l'expressió del cas de dimensió finita. Els σi són anomenats valors singulars de M. {U ei} i {V ei} poden considerar-se com els vectors singulars per l'esquerra i per la dreta de M, respectivament.

Els operadors compactes en un espai de Hilbert són la clausura dels operadors de rang finit en la topologia d'operadors uniformes. La sèrie de damunt en dóna una representació explícita. Una conseqüència immediata és que:

Teorema: M és compacte si i només si if M*M és compacte.

Història[modifica | modifica el codi]

La descomposició en valors singulars fou desenvolupada originàriament per geòmetres diferencials, que volien determinar si una forma bilineal es podia igualar a una altra mitjançant transformacions ortogonals independents. Eugenio Beltrami i Camille Jordan van descobrir independentment, en 1873 i 1874 respectivament, que els valors singulars de les formes bilineals, representats com una matriu, formen un conjunt complet d'invariants per formes bilineals sota substitucions ortogonals. James Joseph Sylvester també va arribar a la descomposició en valors singulars per matrius quadrades reals en 1889, aparentment de forma independent tant de Beltrami com de Jordan. Sylvester va anomenar als valors singulars els multiplicadors canònics de la matriu A. El quart matemàtic que va descobrir la descomposició en valors singulars de forma independent va ser Autonne en 1915, que hi va arribar mitjançant la descomposició polar. La primera demostració de la descomposició en valors singulars per matrius rectangulars i complexes sembla ser de Carl Eckart i Gale Young en 1936;[6] van veure la descomposició com una generalització de la transformació de l'eix principal per matrius hermítiques.

En 1907, Erhard Schmidt va definir un concepte anàleg als valors singulars per operadors integrals (que són compactes, sota certes hipòtesis tècniques); sembla que no coneixia la feina paral·lela sobre valors singulars de matrius finites. Aquesta teoria va ser desenvolupada posteriorment per Émile Picard en 1910, que és el primer en anomenar els nombres \sigma_k valors singulars (en francès, valeurs singulières).

Els mètodes pràctics per calcular la DVS es remunten a Kogbetliantz en 1954 i 1955, i a Hestenes en 1958,[7] molt semblant a l'algorisme de valors propis de Jacobi, que usa rotacions del pla o rotacions de Givens. Tot i això, van ser substituïts pel mètode de Gene Golub i William Kahan publicat en 1965,[8] que usa transformacions de Householder o reflexions. En 1970, Golub i Christian Reinsch[9] van publicar una variant de l'algorisme de Golub/Kahan que encara és el més emprat en l'actualitat.

Referències[modifica | modifica el codi]

  1. DeAngelis, Gregory C.. «Receptive-field dynamics in the central visual pathways». Trends in Neurosciences, 18, 10, 1 octubre 1995, pàg. 451–458. DOI: 10.1016/0166-2236(95)94496-R. PMID: 8545912.
  2. Depireux, DA. «Spectro-temporal response field characterization with dynamic ripples in ferret primary auditory cortex.». Journal of neurophysiology, 85, 3, 2001 Mar, pàg. 1220-34. PMID: 11247991.
  3. The Singular Value Decomposition in Symmetric (Lowdin) Orthogonalization and Data Compression
  4. Netlib.org
  5. Netlib.org
  6. Eckart, Carl. «The approximation of one matrix by another of lower rank». Psychometrika, 1, 3, 1936, pàg. 211–218. DOI: 10.1007/BF02288367.
  7. Hestenes, Magnus R.. «Inversion of Matrices by Biorthogonalization and Related Results». Journal of the Society for Industrial and Applied Mathematics, 6, 1, 1 març 1958, pàg. 51–90. DOI: 10.1137/0106005. JSTOR: 2098862.
  8. Golub, Gene H.. «Calculating the Singular Values and Pseudo-Inverse of a Matrix». Journal of the Society for Industrial and Applied Mathematics Series B Numerical Analysis, 2, 2, 1 gener de 1965, pàg. 205–224. DOI: 10.1137/0702016. JSTOR: 2949777.
  9. Golub, Gene H.. «Singular value decomposition and least squares solutions». Numerische Mathematik, 14, 5, NaN undefined NaN, pàg. 403–420. DOI: 10.1007/BF02163027.

Vegeu també[modifica | modifica el codi]

Bibliografia[modifica | modifica el codi]