Descomposició en valors propis d'una matriu

De Viquipèdia
Dreceres ràpides: navegació, cerca

En l'àmbit matemàtic de l'àlgebra lineal, la descomposició en valors propis (o descomposició espectral) és la factorització d'una matriu en una determinada forma canònica, on la matriu pot representar-se en termes dels seus valors propis i els seus vectors propis. Només és possible la descomposició en valors propis per matrius diagonalitzables.

Teoria fonamental de vectors propis i valors propis[modifica | modifica el codi]

Diem que un vector v no-nul de dimensió N és un vector propi d'una matriu A quadrada (N×N) si satisfà l'equació lineal:

 \mathbf{A} \mathbf{v} = \lambda \mathbf{v}

on λ és un escalar, anomenat el valor propi corresponent a v. És a dir, els vectors propis són els vectors pels quals la transformació lineal A és una elongació o escurçament, i la magnitud per la qual s'allarga o s'acurta és el valor propi. Hom anomena l'equació anteior l'equació del valor propi o el problema del valor propi.

Així tenim una equació pels valors propis:

 p\left(\lambda\right) := \det\left(\mathbf{A} - \lambda \mathbf{I}\right)= 0. \!\

Diem que p(λ) és el polinomi característic, i l'equació, anomenada equació característica, és una equació polinòmica d'ordre N en la incògnita λ. Aquesta equació té Nλ solucions diferents, on 1 ≤ NλN. El conjunt de solucions, és a dir, el conjunt dels valors propis, s'anomena espectre d'A.

Podem factoritzar p com:

p\left(\lambda\right)= (\lambda-\lambda_1)^{n_1}(\lambda-\lambda_2)^{n_2}\cdots(\lambda-\lambda_k)^{n_k} = 0. \!\

L'enter ni és la multiplicitat algebraica del valor propi λi. La suma de totes les multiplicitats algebraiques és exactament N:

\sum\limits_{i=1}^{N_{\lambda}}{n_i} =N.

Per a cada valor propi λi, tenim una equació de valor propi:

 \left(\mathbf{A} - \lambda_i \mathbf{I}\right)\mathbf{v}  = 0. \!\

En general, existeixen 1 ≤ mini solucions linealment independents per a cada equació de valor propi. Les mi solucions són els vectors propis associats al valor propi λi. L'enter mi s'anomena multiplicitat geomètrica de λi. És importat tenir en compte que la multiplicitat algebraica ni i la multiplicitat geomètrica mi no tenen per què ser iguals, però sempre és cert que mini. El cas més senzill es dóna quan mi = ni = 1. El nombre total de vectors propis linealment independents, Nv, es pot calcular sumant les multiplicitats geomètriques:

\sum\limits_{i=1}^{N_{\lambda}}{m_i} =N_{\mathbf{v}}.

Hom pot numerar els vectors propis a partir dels valors propis; és a dir, usant un índex dobre, on vi,j representa el j-sim vector propi per l'i-sim valor propi. Els vectors propis també es poden numerar amb una notació d'un sol índex vk, on k = 1, 2, ..., Nv.

Descomposició en valors propis d'una matriu[modifica | modifica el codi]

Sigui A una matriu quadrada (N×N) amb N columnes linealment independents, a_i \,\, (i = 1, \dots, N). Llavors A es pot factoritzar com:

\mathbf{A}=\mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^{-1}

on Q és la matriu quadrada (N×N) que té per i-sima colmna el vector propi q_i d'A, i Λ és la matriu diagonal amb els corresponents valors propis a la diagonal, és a dir, \Lambda_{ii}=\lambda_i. Notem que només es poden factoritzar d'aquesta manera les matrius diagonalitzables. Per exemple, la matriu defectiva \left(\begin{smallmatrix}1 & 1 \\ 0 & 1 \end{smallmatrix}\right) no es pot diagonalitzar.

Hom acostuma a prendre els vectors propis q_i \,\, (i = 1, \dots, N) com a normalitzats, però no és estrictament necessari. També es pot usar un conjunt no normalitzat de vectors propis, v_i \,\, (i = 1, \dots, N), per construir les columnes de Q. Hom pot observar que la longitud dels vectors propis de Q no és rellevant, donada la presència de Q−1 a la descomposició.

Exemple[modifica | modifica el codi]

Considerem la matriu real 2 × 2 \mathbf{A} = \begin{bmatrix} 1 & 0 \\ 1 & 3 \\ \end{bmatrix}, i la transformarem en una matriu diagonal a través de la multiplicació per una matriu no singular \mathbf{B} = \begin{bmatrix}
a & b \\
c & d \\
\end{bmatrix}, [a, b, c, d] \in \mathbb{R} .

Llavors

\begin{bmatrix}
a & b \\ c & d \\ \end{bmatrix}^{-1} \begin{bmatrix} 1 & 0 \\ 1 & 3 \\ \end{bmatrix} \begin{bmatrix} a & b \\ c & d \\ \end{bmatrix} = \begin{bmatrix} x & 0 \\ 0 & y \\ \end{bmatrix}, per a alguna matriu diagonal real \begin{bmatrix} x & 0 \\ 0 & y \\ \end{bmatrix}.

Multiplicant per l'esquerra per \mathbf{B} a totes dues bandes de la igualtat:

\begin{bmatrix} 1 & 0 \\ 1 & 3 \\ \end{bmatrix} \begin{bmatrix} a & b \\ c & d \\ \end{bmatrix} = \begin{bmatrix} a & b \\ c & d \\ \end{bmatrix} \begin{bmatrix} x & 0 \\ 0 & y \\ \end{bmatrix}

Això podem expressar-ho com un sistema de dues equacions (matricials):

 \begin{cases} \begin{bmatrix} 1 & 0\\ 1 & 3 \end{bmatrix} \begin{bmatrix} a \\ c \end{bmatrix} = \begin{bmatrix} ax \\ cx \end{bmatrix} \\ \begin{bmatrix} 1 & 0\\ 1 & 3 \end{bmatrix} \begin{bmatrix} b \\ d \end{bmatrix} = \begin{bmatrix} by \\ dy \end{bmatrix} \end{cases}

Traient els valors propis x i y com a factor comú:

 \begin{cases} \begin{bmatrix} 1 & 0\\ 1 & 3 \end{bmatrix} \begin{bmatrix} a \\ c \end{bmatrix} = x\begin{bmatrix} a \\ c \end{bmatrix} \\ \begin{bmatrix} 1 & 0\\ 1 & 3 \end{bmatrix} \begin{bmatrix} b \\ d \end{bmatrix} = y\begin{bmatrix} b \\ d \end{bmatrix} \end{cases}

Si denotem \overrightarrow{a} = \begin{bmatrix} a \\ c \end{bmatrix}, \overrightarrow{b} = \begin{bmatrix} b \\ d \end{bmatrix}, obtenim les dues equacions vectorials:

 \begin{cases} \mathbf{A} \overrightarrow{a} = x \overrightarrow{a} \\ \mathbf{A} \overrightarrow{b} = y \overrightarrow{b} \end{cases}

la qual cosa es pot representar per una sola equació vectorial, que té dues solucions per valors propis:

\mathbf{A} \mathbf{u} = \lambda \mathbf{u}

Aquí,  \lambda representa els dos valors propis x i y; d'altra banda,  \mathbf{u} representa els vectors \overrightarrow{a} i \overrightarrow{b}.

Passem el terme \lambda \mathbf{u} a l'esquerra i traiem factor comú  \mathbf{u}:

 (\mathbf{A}-\lambda \mathbf{I}) \mathbf{u} = 0

Com que \mathbf{B} és no singular, és essencial que \mathbf{u} és no nul. Aleshores,

 (\mathbf{A}-\lambda \mathbf{I}) = \mathbf{0}

Considerem ara el determinant de (\mathbf{A}-\lambda \mathbf{I}),

 \begin{bmatrix} 1- \lambda & 0\\ 1 & 3- \lambda \end{bmatrix} =0

Així,

(1- \lambda)(3- \lambda)=0

Això ens dóna les solucions dels valors propis per la matriu \mathbf{A} com  \lambda=1 o  \lambda=3 , i la matriu diagonal que resulta de la descomposició en valors singulars de \mathbf{A} és, per tant, \begin{bmatrix} 1 & 0 \\ 0 & 3 \end{bmatrix}.

Si substituïm ara les solucions en el sistema anterior:

 \begin{cases} \begin{bmatrix} 1 & 0 \\ 1 & 3 \end{bmatrix} \begin{bmatrix} a \\ c \end{bmatrix} = 1\begin{bmatrix} a \\ c \end{bmatrix} \\ \begin{bmatrix} 1 & 0\\ 1 & 3 \end{bmatrix} \begin{bmatrix} b \\ d \end{bmatrix} = 3\begin{bmatrix} b \\ d \end{bmatrix} \end{cases}

La resolució del sistema ens diu que a= -2c, a\in \mathbb{R} i b=0, d\in \mathbb{R}.

Així, la matriu \mathbf{B} requerida per la descomposició en valors propis de \mathbf{A} és \begin{bmatrix} -2c & 0 \\ c & d \end{bmatrix}, [c, d]\in \mathbb{R} . És a dir:

\begin{bmatrix}
-2c & 0 \\ c & d \\ \end{bmatrix}^{-1} \begin{bmatrix} 1 & 0 \\ 1 & 3 \\ \end{bmatrix} \begin{bmatrix} -2c & 0 \\ c & d \\ \end{bmatrix} = \begin{bmatrix} 1 & 0 \\ 0 & 3 \\ \end{bmatrix}, [c, d]\in \mathbb{R}.

Càlcul de la matriu inversa[modifica | modifica el codi]

Article principal: Matriu inversa

Amb la notació anterior, si una matriu A es pot descompondre en valors propis, i cap d'aquests valors propis és zero, llavors A és invertible, i la seva inversa ve donada per:

\mathbf{A}^{-1}=\mathbf{Q}\mathbf{\Lambda}^{-1}\mathbf{Q}^{-1}

Addicionalment, com que Λ és una matriu diagonal, el càlcul de la seva inversa és senzill:

\left[\Lambda^{-1}\right]_{ii}=\frac{1}{\lambda_i}

Conseqüències a la pràctica[1][modifica | modifica el codi]

Quan es fa servir la descomposició en valors propis sobre dades reals i resultats d'una mesura, pot succeir que la inversa no sigui igual de vàlida si es fan servir tots els valors propis de la matriu. Això és així perquè, a mesura que els valors propis disminueixen en valor, llur contribució al càlcul de la inversa és gran. Quan els valors propis estan a prop de zero o del "soroll" del sistema de mesura poden dificultar la cerca de les solucions per la inversa.

Es poden fer servir dos mètodes per mitigar aquest efecte:

  1. Eliminar els valors propis petits o zero, o
  2. Estendre el valor propi més petit de valor fiable a la resta de valors propis més petits que ell.

El primer mètode és similar a una mostra dispersa de la matriu original, on s'eliminen els components que hom considera com a no rellevants. No obstant això, si la solució o el procés de detecció està prop del nivell de soroll, aquesta eliminació pot fer que descartem components que influenciïn sobre la solució desitjada.

El segon mètode tracta d'estendre el valor propi, de tal manera que els valors propis més petits tinguin molta menys influència sobre el càlcul de la inversa, però encara hi contribueixen, de tal manera que encara es poden trobar solucions prop del nivell de soroll.

Hom pot determinar el valor propi fiable si assumeix que els valors propis de magnitud similar i menor són una bona representació del soroll de la medició.

Si ordenem els valors propis pel seu valor absolut, llavors podem trobar el valor propi rellevant mitjançant la minimització del laplacià dels valors propis ordenats:[2]

\min|\nabla^2 \lambda_s |

on denotem amb un subíndex 's' que els valors propis estan ordenats. La posició de la minimització és el valor propi fiable més petit. En sistemes de mesura, l'arrel quadrada d'aquest valor propi fiable és el soroll mitjà sobre els components del sistema.

Càlcul funcional[modifica | modifica el codi]

La descomposició en valors propis facilita el càlcul de les expansions en sèries de potències per matrius. Si tenim f(x):

f(x)=a_0+a_1 x+a_2 x^2+\cdots

llavors sabem que

f\left(\mathbf{A}\right)=\mathbf{Q}f\left(\mathbf{\Lambda}\right)\mathbf{Q}^{-1}

Com que Λ és una matriu diagonal, les funcions de Λ són molt senzilles de calcular:

\left[f\left(\mathbf{\Lambda}\right)\right]_{ii}=f\left(\lambda_i\right)

Els elements fora de la diagonal de f(Λ) són zero; és a dir, f(Λ) també és una matriu diagonal. Per tant, el càlcul de f(A) es redueix a calcular el valor de la funció per cadascun dels valors propis.

Existeix una tècnica similar en el cas general, mitjançant el càlcul funcional holomorf, fent servir que:

\mathbf{A}^{-1}=\mathbf{Q}\mathbf{\Lambda}^{-1}\mathbf{Q}^{-1}

com hem vist abans. Novament, trobem que

\left[f\left(\mathbf{\Lambda}\right)\right]_{ii}=f\left(\lambda_i\right)

Exemples[modifica | modifica el codi]

\mathbf{A}^{2}=(\mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^{-1})(\mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^{-1}) = \mathbf{Q}\mathbf{\Lambda}(\mathbf{Q}^{-1}\mathbf{Q})\mathbf{\Lambda}\mathbf{Q}^{-1}=\mathbf{Q}\mathbf{\Lambda}^{2}\mathbf{Q}^{-1}
\mathbf{A}^{n}=\mathbf{Q}\mathbf{\Lambda}^{n}\mathbf{Q}^{-1}

Descomposició per matrius especials[modifica | modifica el codi]

Matrius normals[modifica | modifica el codi]

Una matriu normal complexa (A^* A = A A^*) té una base ortogonal de vectors propis, de tal manera que es pot descompondre com

\mathbf{A}=\mathbf{U}\mathbf{\Lambda}\mathbf{U}^{*}

on U és una matriu unitària. Addicionalment, si A és hermítica (A=A^*), la qual cosa implica que també és normal, llavors la matriu diagonal Λ només té valors reals, i si A és unitària, Λ pren tots els valors en la circumferència unitat al pla complex.

Matrius simètriques reals[modifica | modifica el codi]

Com a cas especial, per qualsevol matriu simètrica real N×N, hom pot escollir els vectors propis tals que siguin reals, mútuament ortogonals i amb norma 1. Així, una matriu simètrica real A es pot descompondre com

\mathbf{A}=\mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^{T}

on Q és una matriu ortogonal, i Λ és una matriu diagonal, els elements de la qual són els valors propis de A.

Propietats[modifica | modifica el codi]

Sobre valors propis[modifica | modifica el codi]

  • El producte dels valors propis és igual al determinant d'A:
\det\left(\mathbf{A}\right) = \prod\limits_{i=1}^{N_{\lambda}}{\lambda_i^{n_i}} \!\
Notem que cada valor propi està elevat a la potència ni, que és la multiplicitat algebraica.
  • La suma dels valors propis és igual a la traça d'A:
\operatorname{tr}\left(\mathbf{A}\right) = \sum\limits_{i=1}^{N_{\lambda}}{{n_i}\lambda_i} \!\
Notem que cada valor propi està multiplicat per ni, la multiplicitat algebraica.
  • Si els valors propis d'A són λi, i A és invertible, llavors els valors propis d'A−1 són λi−1.
  • Si els valors propis d'A són λi, llavors els valors propis de f(A) són fi), per a qualsevol funció holomorfa f.

Sobre vectors propis[modifica | modifica el codi]

  • Si A és hermítica i de rang complet, hom pot escollir la base de vectors propis per tal que siguin mútuament ortogonals. Els valors propis són reals.
  • Els vectors propis d'A−1 són els mateixos que els vectors propis d'A.

Sobre la descomposició en valors propis[modifica | modifica el codi]

  • Una matriu A admet una descomposició en valors propis si i només si
N_{\mathbf{v}}=N \,
  • Si p(λ) no té arrels repetides, és a dir, Nλ = N, llavors A admet una descomposició en valors propis.
  • El fet que A admeti una descomposició en valors propis no implica que A tingui inversa.
  • El fet que A tingui inversa no implica que A admeti una descomposició en valors propis.

Sobre la inversa d'una matriu[modifica | modifica el codi]

\lambda_i \ne 0 per a qualsevol i.
  • Si \lambda_i \ne 0 per tot i, i a més N_{\mathbf{v}}=N, llavors la inversa ve donada per
\mathbf{A}^{-1}=\mathbf{Q}\mathbf{\Lambda}^{-1}\mathbf{Q}^{-1}

Càlcul numèric[modifica | modifica el codi]

Càlcul numèric dels valors propis[modifica | modifica el codi]

Suposem que volem calcular els valors propis d'una matriu donada. Si la matriu és petita, podem calcular-los de forma simbòlica usant el polinomi característic. No obstant això, aquest procediment resulta impracticable per matrius més grans, amb la qual cosa haurem de fer servir un mètode numèric.

A la pràctica, hom no calcula els valors propis de matrius grans a partir del polinomi característic. El càlcul del polinomi característic és costós en si mateix, i un càlcul exacte (simbòlic) de les arrels d'un polinomi de grau elevat pot ser difícil de realitzar i d'expressar: el teorema d'Abel-Ruffini implica que les arrels de polinomis de grau elevat (5 o més) en general no es poden expressar només emprant arrels n-simes. Per tant, els algorismes genèrics per trobar vectors propis i valors propis són iteratius.

És cert que existeixen algorismes numèrics iteratius per aproximar les arrels d'un polinomi, com ara el mètode de Newton, però en general no resulta pràctic calcular primer el polinomi característic i després aplicar aquests mètodes. Una raó és que si els coeficients del polinomi característic tenen errors d'arrodoniment, encara que siguin petits, això pot portar a errors grans en els valors propis i els vectors propis: les arrels són una funció extremadament mal condicionada dels coeficients.[3]

Un mètode senzill i precís és el mètode de les potències: hom escull un vector arbitrari v, i es calcula una successió de vectors unitaris:

\frac{Av}{\|Av\|}, \frac{A^2v}{\|A^2v\|}, \frac{A^3v}{\|A^3v\|}, \dots

Aquesta successió convergeix gairebé segurament a un vector propi corresponent al valor propi de magnitud més alta, sempre que v tingui una component no-nul·la d'aquest vector propi en la base de vectors propis (i també sota la condició que hi hagi només un valor propi de magnitud màxima). Aquest algorisme simple és útil en algunes aplicacions pràctiques; per exemple, Google utilitza aquest mètode per calcular el PageRank dels documents en la seva eina de cerca.[4] Addicionalment, el mètode de les potències és un punt de partida per molts altres algorismes més sofisticats. Per exemple, si considerem no només l'últim vector de la successió, sinó l'espai vectorial generat per tots els vectors de la successió, obtenim una aproximació millor (de convergència més ràpida) del vector propi, i aquesta idea és la base de la iteració d'Arnoldi.[3] D'altra banda, l'algorisme QR també és una transformació subtil d'un mètode de les potències.[3]

Càlcul numèric dels vectors propis[modifica | modifica el codi]

Un cop hem calculat els valors propis, podem calcular els vectors propis tot resolent l'equació

 \left(\mathbf{A} - \lambda_i \mathbf{I}\right)\mathbf{v}_{i,j}  = 0 \!\

emprant el mètode de reducció de Gauss o qualsevol altre mètode per resoldre un sistema d'equacions lineals.

Tot i això, els mètodes pràctics per calcular valors propis a gran escala acostumen a emprar altres camins per calcular els vectors propis, com a subproducte del càlcul dels valors propis. En el mètode de les potències, per exemple, hom calcula el vector propi abans del valor propi (que s'acostuma a calcular mitjançant el quocient de Rayleigh del vector propi).[3] En l'algorisme QR per una matriu hermítica (o per qualsevol matriu normal), els vectors propis ortonormals s'obtenen com el producte de les matrius Q obtingudes a cada pas de l'algorisme.[3] (Per a matrius més generals, l'algorisme QR proporciona primer la descomposició de Schur, a partir de la qual es poden obtenir els vectors propis mitjançant una substitució cap enrere.[5]) Per a matrius hermítiques, és més eficient emprar un algorisme «divideix i venceràs» si volem calcular tant els vectors propis com els valors propis.[3]

Informació addicional[modifica | modifica el codi]

Espais propis generalitzats[modifica | modifica el codi]

Recordem que la multiplicitat geomètrica d'un valor propi es pot descriure com la dimensió de l'espai propi associat, és a dir, la dimensió del nucli de λI − A. També podem pensar que la multiplicitat algebraica és la dimensió de l'espai propi generalitzat, que és igual a la dimensió del nucli de la matriu (λI − A)k per un k suficientment gran. És a dir, és l'espai dels vectors propis generalitzats, entesos com a vectors que eventualment esdevenen el vector nul si hi apliquem λI − A suficients cops de forma successiva. Qualsevol vector propi és un vector propi generalitzat, i per tant tot espai propi està contingut en l'espai propi generalitzat corresponent. Això proporciona una demostració senzilla de què la multiplicitat geomètrica sempre és menor o igual a la multiplicitat algebraica.

Vector propi conjugat[modifica | modifica el codi]

Un vector propi conjugat és un vector transformat a un múltiple escalar del seu conjugat; aquest escalar s'anomena valor propi conjugat de la transformació lineal. Els vectors propis conjugats i valors propis conjugats representen la mateixa informació i significat que els vectors propis i valors propis usuals, però sorgeixen quan hom utilitza un sistema coordenat alternatiu. L'equació corresponent és:

Av = \lambda v^*.\,

Per exemple, en la teoria de la dispersió electromagnètica, la transformació lineal A representa l'acció realitzada per l'objecte de la dispersió, i els vectors propis representen els estats de polarització de l'ona electromagnètica. En òptica, hom defineix el sistema coordenat des del punt de vista de l'ona, i dóna lloc a una equació en valors propis usuals, mentre que en l'estudi dels radars el sistema coordenat es defineix des del punt de vista del propi radar, i dóna lloc a una equació en valors propis conjugats.

Problema generalitzat del valor propi[modifica | modifica el codi]

Un problema generalitzat del valor propi és el problema de trobar un vector v que compleix

 A\mathbf{v} = \lambda B \mathbf{v} \quad \quad

on A i B són matrius. Si v compleix aquesta equación, per algun λ, llavors diem que v és el vector generalitzat d'A i B, i diem que λ és el valor propi generalitzat d'A i B corresponent al vector propi generalitzat v. Els valors possibles de λ han de satisfer l'equació

\det(A - \lambda B)=0.\,

En el cas que trobem n\in\mathbb{N} vectors linealment independents  \{\mathbf{v_1}\ ,\dots, \mathbf{v_n}\} tals que per tot i\in\{1,\dots,n\} tenim que  A\mathbf{v_i} = \lambda_i B \mathbf{v_i}  \quad, on \lambda_i\in\mathbb{F}, llavors definim les matrius P i D de manera que

P=
\begin{pmatrix}
  | & & | \\
  \mathbf{v_1} & \cdots & \mathbf{v_n}   \\
  | &  & | \\ 
\end{pmatrix}

\begin{pmatrix}
  (\mathbf{v_1})_1 & \cdots & (\mathbf{v_n})_1 \\
  \vdots &  & \vdots   \\
  (\mathbf{v_1})_n & \cdots & (\mathbf{v_n})_n \\ 
\end{pmatrix}


(D)_{ij} = 
\begin{cases} 
  \lambda_i,  & \text{si }i = j\\
  0, & \text{altrament}
\end{cases}

Aleshores es verifica la següent igualtat:


\mathbf{A}=\mathbf{B}\mathbf{P}\mathbf{D}\mathbf{P^{-1}} \qquad \qquad

I la demostració és:


\mathbf{A}\mathbf{P}=
\mathbf{A}
\begin{pmatrix}
  | & & | \\
  \mathbf{v_1} & \cdots & \mathbf{v_n}   \\
  | &  & | \\ 
\end{pmatrix}
=
\begin{pmatrix}
  | & & | \\
  A\mathbf{v_1} & \cdots & A\mathbf{v_n}   \\
  | &  & | \\ 
\end{pmatrix}
=


\begin{pmatrix}
  | & & | \\
  \lambda_1B\mathbf{v_1} & \cdots & \lambda_nB\mathbf{v_n}   \\
  | &  & | \\ 
\end{pmatrix}
=

\begin{pmatrix}
  | & & | \\
  B\mathbf{v_1} & \cdots & B\mathbf{v_n}   \\
  | &  & | \\ 
\end{pmatrix}
\mathbf{D}
=
\mathbf{B}\mathbf{P}\mathbf{D}

Com que P és invertible, multipliquem l'equació per la dreta per P-1, com volíem demostrar.


Si A i B són hermítiques, i B és una matriu definida positiva, els valors λ són reals, i els vectors propis v1 i v2 amb valors propis diferents són B-ortogonals (v_1^* B v_2 = 0). Addicionalment, en aquest cas hom pot garantir que existeix una base de vectors propis generalitzats (no és un problema defectiu).[6]

Referències[modifica | modifica el codi]

  1. Hayde, A.F.. «Observations on relationship between eigenvalues, instrument noise and detection performance» (en anglès). Imaging Spectrometry VIII. Edited by Shen. Shen, Sylvia S., 4816, 2002, pàg. 355. DOI: 10.1117/12.453777.
  2. Twede, D.R.. «Refinement and generalization of the extension method of covariance matrix inversion by regularization». Imaging Spectrometry IX. Edited by Shen. Shen, Sylvia S., 5159, 2004, pàg. 299. DOI: 10.1117/12.506993.
  3. 3,0 3,1 3,2 3,3 3,4 3,5 III, / Lloyd N. Trefethen, David Bau. Numerical linear algebra.. 3. print.. SIAM: Society for Industrial and Applied Mathematics, 1996. ISBN 978-0898713619. 
  4. Ipsen, Ilse, and Rebecca M. Wills, Analysis and Computation of Google's PageRank, 7th IMACS International Symposium on Iterative Methods in Scientific Computing, Fields Institute, Toronto, Canada, 5–8 May 2005.
  5. Saleri, Alfio Quarteroni; Riccardo Sacco; Fausto. «Secció 5.8.2». A: Numerical mathematics. [Online-Ausg.].. New York, NY [u.a.]: Springer, 2000. ISBN 9780387989594. 
  6. al.], edited by Zhaojun Bai ... [et. «Generalized Hermitian Eigenvalue Problems». A: Templates for the solution of algebraic eigenvalue problems : a practical guide. Philadelphia, PA: Society for Industrial and Applied Mathematics, 2000. ISBN 0-89871-471-0. 

Bibliografia[modifica | modifica el codi]

  • Franklin, Joel N. Matrix theory. Unabridged corr. republication.. Mineola, NY: Dover Publications, 2000. ISBN 0-486-41179-6. 
  • Loan, Gene H. Golub; Charles F. Van. Matrix computations. 3. ed.. Baltimore, Md. [u.a.]: Johns Hopkins Univ. Press, 1996. ISBN 0-8018-5414-8. 
  • Johnson, Roger A. Horn; Charles R.. Matrix analysis. 19. print.. Cambridge [u.a.]: Cambridge Univ. Press, 2005. ISBN 0-521-38632-2. 
  • Johnson, Roger A. Horn; Charles R.. Topics in matrix analysis. 8. print.. Cambridge [u.a.]: Cambridge Univ. Press, 2007. ISBN 0-521-46713-6. 
  • Strang, Gilbert. Introduction to linear algebra. 2. ed.. Wellesley, Mass.: Wellesley-Cambridge Press, 1998. ISBN 0-9614088-5-5. 

Vegeu també[modifica | modifica el codi]

Enllaços externs[modifica | modifica el codi]