Vector propi generalitzat

De Viquipèdia
Dreceres ràpides: navegació, cerca

En àlgebra lineal, per una matriu A, potser no sempre existeix un conjunt complet de vectors propisIn linealment independents que conformin una base completa: una matriu pot no ser diagonalitzable. Això succeeix quan la multiplicitat algebraica d'almenys un valor propi λ és més gran que la seva multiplicitat geomètrica (la dimensió del nucli de la matriu (A-\lambda I)). En aquests casos, un vector propi generalitzat de A és un vector v no nul, associat al valor propi λ de multiplicitat algebraica k ≥1, que satisfà

(A-\lambda I)^k\mathbf{v} = \mathbf{0}.

El conjunt de tots els vectors propis generalitzats per un valor propi donat λ, configuren l'espai propi generalitzat per λ.

Els vectors propis i espais propis ordinaris són aquells on k=1.

Per matrius defectives[modifica | modifica el codi]

Hom necessita el concepte de vector propi generalitzat per construir una base completa per una matriu defectiva, que és una matriu que té menys vectors propis linealment independents que valors propis (tenint en compte la multiplicitat). Sobre un cos algebraicament tancat, els vectors generalitzats permeten, de fet, construir una base completa, com se segueix de la forma canònica de Jordan d'una matriu.

En particular, suposem que un valor propi λ d'una matriu A té multiplicitat algebraica m però menys vectors propis (associats a λ). Formem una seqüència de m vectors propis i vectors propis generalitzats x_1, x_2, \ldots, x_m que són linealment independents i que satisfan

(A - \lambda I) x_k = \alpha_{k,1}x_1+\cdots+\alpha_{k,k-1}x_{k-1}

per alguns coeficients \alpha_{k,1},\ldots,\alpha_{k,k-1}, on k=1,\ldots,m. D'aquí se segueix que

(A - \lambda I)^k x_k = 0. \!

Hom sempre pot escollir aquests vectors x_1, x_2, \ldots, x_m, però aquests no estan unívocament determinats per les relacions anteriors. Si la multiplicitat geomètrica (la dimensió de l'espai propi) de λ és p, llavors hom pot escollir els p primers vectors de tal manera que siguin vectors propis, però els restants mp vectors són només vectors propis generalitzats.

Exemples[modifica | modifica el codi]

Exemple 1[modifica | modifica el codi]

Suposem que

 A = \begin{bmatrix} 1 & 1\\ 0 & 1 \end{bmatrix}.

Llavors hi ha un valor propi λ=1 amb multiplicitat algebraica m igual a 2.

Existeixen diverses formes de deduir que hi ha necessàriament un vector propi generalitzat. La manera més fàcil és observar que aquesta matriu està en forma canònica de Jordan, però no és diagonal, la qual cosa significa que la matriu no és diagonalitzable. Com que hi ha una entrada a la superdiagonal, llavors deduïm que hi ha un vector propi generalitzat (o també podríem observar que l'espai vectorial és de dimensió 2, per tant només hi pot haver un vector propi generalitzat). De forma alternativa, podríem calcular la dimensió del nucli de  A-I , que és p=1, i llavors hi ha m-p=1 vector propi generalitzat.

Deixem el càlcul del vector propi (ordinari)  v_1=\begin{bmatrix}1 \\0 \end{bmatrix} al lector (vegeu l'article Valor propi, vector propi i espai propi per obtenir exemples). Usant aquest vector propi, calculem el vector propi generalitzat  v_2 tot resolent

 (A-\lambda I)v_2 = v_1.

Si escrivim els valors:

 \left(\begin{bmatrix} 1 & 1\\ 0 & 1 \end{bmatrix}- \begin{bmatrix} 1 & 0\\ 0 & 1 \end{bmatrix}\right)\begin{bmatrix}v_{21} \\v_{22} \end{bmatrix} = \begin{bmatrix}1 \\0 \end{bmatrix}.

Això se simplifica com

 \begin{matrix} v_{21}+v_{22}-v_{21} = 1 \\ v_{22}- v_{22} = 0. \end{matrix}

Al seu torn, això se simplifica com

 v_{22}= 1.

És a dir, v_{21} no té restriccions, i pot ser llavors qualsevol escalar. Així doncs, el vector generalitzat és  v_2=\begin{bmatrix}* \\1 \end{bmatrix}, on * significa que qualsevol valor és adient. Per simplicitat, hom acostuma a prendre el valor 0.

Exemple 2[modifica | modifica el codi]

La matriu

A = \begin{bmatrix} 
1 & 0 & 0 & 0 & 0 \\
3 & 1 & 0 & 0 & 0 \\
6 & 3 & 2 & 0 & 0 \\
10 & 6 & 3 & 2 & 0 \\
15 & 10 & 6 & 3 & 2
\end{bmatrix}

té els valors propis 1 i 2 amb multiplicitats algebraiques 2 i 3, però multiplicitats geomètriques 1 i 1, respectivament.

A continuació es calculen els espais propis generalitzats de A:

(A-1 I) \begin{bmatrix}
0 \\ 1 \\ -3 \\ 3 \\ -1
\end{bmatrix} = \begin{bmatrix} 
0 & 0 & 0 & 0 & 0 \\
3 & 0 & 0 & 0 & 0 \\
6 & 3 & 1 & 0 & 0 \\
10 & 6 & 3 & 1 & 0 \\
15 & 10 & 6 & 3 & 1
\end{bmatrix}\begin{bmatrix}
0 \\ 1 \\ -3 \\ 3 \\ -1
\end{bmatrix} = \begin{bmatrix}
0 \\ 0 \\ 0 \\ 0 \\ 0
\end{bmatrix}
(A - 1 I) \begin{bmatrix}
1 \\ -15 \\ 30 \\ -1 \\ -45
\end{bmatrix} = \begin{bmatrix} 
0 & 0 & 0 & 0 & 0 \\
3 & 0 & 0 & 0 & 0 \\
6 & 3 & 1 & 0 & 0 \\
10 & 6 & 3 & 1 & 0 \\
15 & 10 & 6 & 3 & 1
\end{bmatrix} \begin{bmatrix}
1 \\ -15 \\ 30 \\ -1 \\ -45
\end{bmatrix} = 3\begin{bmatrix}
0 \\ 1 \\ -3 \\ 3 \\ -1
\end{bmatrix}
(A - 2 I) \begin{bmatrix}
0 \\ 0 \\ 0 \\ 0 \\ 1
\end{bmatrix} = \begin{bmatrix} 
-1 & 0 & 0 & 0 & 0 \\
3 & -1 & 0 & 0 & 0 \\
6 & 3 & 0 & 0 & 0 \\
10 & 6 & 3 & 0 & 0 \\
15 & 10 & 6 & 3 & 0
\end{bmatrix} \begin{bmatrix}
0 \\ 0 \\ 0 \\ 0 \\ 1
\end{bmatrix} = \begin{bmatrix}
0 \\ 0 \\ 0 \\ 0 \\ 0
\end{bmatrix}
(A - 2 I) \begin{bmatrix}
0 \\ 0 \\ 0 \\ 1 \\ 0
\end{bmatrix} = \begin{bmatrix} 
-1 & 0 & 0 & 0 & 0 \\
3 & -1 & 0 & 0 & 0 \\
6 & 3 & 0 & 0 & 0 \\
10 & 6 & 3 & 0 & 0 \\
15 & 10 & 6 & 3 & 0
\end{bmatrix} \begin{bmatrix}
0 \\ 0 \\ 0 \\ 1 \\ 0
\end{bmatrix} = 3 \begin{bmatrix}
0 \\ 0 \\ 0 \\ 0 \\ 1
\end{bmatrix}
(A - 2 I) \begin{bmatrix}
0 \\ 0 \\ 1 \\ -2 \\ 0
\end{bmatrix} = \begin{bmatrix} 
-1 & 0 & 0 & 0 & 0 \\
3 & -1 & 0 & 0 & 0 \\
6 & 3 & 0 & 0 & 0 \\
10 & 6 & 3 & 0 & 0 \\
15 & 10 & 6 & 3 & 0
\end{bmatrix} \begin{bmatrix}
0 \\ 0 \\ 1 \\ -2 \\ 0
\end{bmatrix} = 3 \begin{bmatrix}
0 \\ 0 \\ 0 \\ 1 \\ 0
\end{bmatrix}

Així obtenim una base per cadascun dels espais propis generalitzats de A. Combinant-los obtenim un conjunt de vectors-columna, generador de l'espai vectorial de 5 dimensions.


\left\{
\begin{bmatrix} 0 \\ 1 \\ -3 \\ 3 \\ -1 \end{bmatrix}
\begin{bmatrix} 1 \\ -15 \\ 30 \\ -1 \\ -45 \end{bmatrix} 
\right\},
\left\{ 
\begin{bmatrix} 0 \\ 0 \\ 0 \\ 0 \\ 1 \end{bmatrix}
\begin{bmatrix} 0 \\ 0 \\ 0 \\ 1 \\ 0 \end{bmatrix}
\begin{bmatrix} 0 \\ 0 \\ 1 \\ -2 \\ 0 \end{bmatrix}
\right\}

Obtenim ara la forma canònica de Jordan:


T = \begin{bmatrix}
0 &  0 & 0 &1& 0 \\
3 &  0 & 0 &-15& 0 \\
-9 &  0 & 0 &30& 1 \\
9 &  0 & 3 &-1& -2 \\
-3 &  9 & 0 &-45& 0
\end{bmatrix} \quad J = \begin{bmatrix}
1 & 1 & 0 & 0 & 0 \\
0 & 1 & 0 & 0 & 0 \\
0 & 0 & 2 & 1 & 0 \\
0 & 0 & 0 & 2 & 1 \\
0 & 0 & 0 & 0 & 2
\end{bmatrix}

on

AT = TJ

Altres significats[modifica | modifica el codi]

 Av = \lambda B v.

La dimensió del nucli de (A − λ I)k[modifica | modifica el codi]

Introduccció[modifica | modifica el codi]

En aquesta secció mostrarem que, si λ és un valor propi de la matriu A amb multiplicitat algebraica k, llavors el nucli de (A - λ I)k té dimensió k.

Existència de valors propis[modifica | modifica el codi]

Considerem una matriu A n×n. El determinant de A és n-lineal i alternat. Addicionalment, det(I)=1, on I és la matriu identitat n×n. A partir de la definició de determinant hom pot veure que, per a una matriu triangular T=(tij),

\det(T) = \prod (t_{ii}).

Existeixen tres tipus d'operacions elementals sobre matrius:

La multiplicació d'una fila de A per un escalar α provoca que el nou determinant sigui \alpha \det(A). Si intercanviem dues files, llavors canvia el signe del determinant, i l'addició d'un múltiple escalar d'una fila a una altra no canvia el valor del determinant.

Tenim el següent teorema, que requereix una petita demostració:

L'equació Ax=0 té una solució x\neq 0 si i només si \det(A)=0.

L'equació Ax=\lambda x té una solució x\neq 0 si i només si \det(\lambda I - A) = 0.

Demostració constructiva de la forma triangular de Schur[modifica | modifica el codi]

La demostració del resultat principal d'aquesta secció raurà en el concepte de transformació de semblança vist anteriorment.

Per qualsevol matriu A n×n, existeixen una matriu triangular T i una matriu unitària Q tals que AQ=QT.


Transformació de Schur en forma triangular

Demostració del teorema de la dimensió del nucli[modifica | modifica el codi]

Com que AQ=QU, tenim que A=QUQ^T. És senzill comprovar que


(x I - A) = Q (x I - U) Q^T

i per tant


\det(x I - A) = \det(x I - U)

Llavors, el polinomi característic de A és el mateix que el de U, i està donat per


p(x) = (x-\lambda_1)(x-\lambda_2)\cdots(x-\lambda_n)

(donat que Q és unitària).

Observem que la construcció que hem indicat en la demostració anterior ens permet escollir qualsevol ordre pels valors propis de A, que acabaran essent els elements de la diagonal de la matriu triangular U. La multiplicitat algebraica d'un valor propi és el nombre de vegades que apareix a la diagonal.

Donat un valor propi λ de multiplicitat algebraica k, podem suposar que hem construït U de tal manera que λ apareix en els k primers elements de la diagonal.


U = \begin{bmatrix}
\lambda & z_{12} & z_{13} & \cdots & z_{1k} & z_{1\,k+1}   & \cdots & z_{1n}    \\
0       & \lambda& z_{23} & \cdots & z_{2k} & z_{2\,k+1}   & \cdots & z_{2n}    \\
        & 0      & \lambda& \cdots & z_{3k} & z_{3\,k+1}   & \cdots & z_{3n}    \\
        &        & \ddots & \ddots &        &              & \cdots &           \\
        &        &        &        & \lambda&              & \cdots & \vdots    \\
        &        &        &        &        &\lambda_{k+1} & \cdots &           \\
        &        &        &        &        &              & \ddots &           \\
0       & 0      &        & \cdots &        &              &        & \lambda_n
\end{bmatrix}

Col·loquem U-λI en forma de blocs, de la següent manera:


U-\lambda I = \begin{bmatrix}
0       & z_{12} & z_{13} & \cdots & z_{1k} & \vline       & z_{1\,k+1}   & \cdots & z_{1n}    \\
0       & 0      & z_{23} & \cdots & z_{2k} & \vline       & z_{2\,k+1}   & \cdots & z_{2n}    \\
        & 0      & 0      & \cdots & z_{3k} & \vline       & z_{3\,k+1}   & \cdots & z_{3n}    \\
        &        & \ddots & \ddots &        & \vline       &              & \cdots &           \\
        &        &        &        & 0      & \vline       &              & \cdots & \vdots    \\
\hline
        &        &        &        &        & \vline       &\beta_{k+1}   & \cdots &           \\
        &        &        &        &        & \vline       &              & \ddots &           \\
0       & 0      &        & \cdots &        & \vline       &              &        & \beta_n
\end{bmatrix}

El bloc inferior esquerre només té elements a 0. D'altra banda, \beta_i = \lambda_i - \lambda \neq 0, per i = k+1, ..., n. És fàcil comprovar el següent:


U-\lambda I = \begin{bmatrix}
        &        &        &        &        & \vline       & z_{1\,k+1}   & \cdots & z_{1n}    \\
        &        &        &        &        & \vline       & z_{2\,k+1}   & \cdots & z_{2n}    \\
        &        &   B    &        &        & \vline       & z_{3\,k+1}   & \cdots & z_{3n}    \\
        &        &        &        &        & \vline       &              & \cdots &           \\
        &        &        &        &        & \vline       &              & \cdots & \vdots    \\
\hline
        &        &        &        &        & \vline       &              &        &           \\
        &        &   0    &        &        & \vline       &              &   T    &           \\
        &        &        &        &        & \vline       &              &        & 
\end{bmatrix}

(U-\lambda I)^k = \begin{bmatrix}
        &        &        &        &        & \vline       & z_{1\,k+1}   & \cdots & z_{1n}    \\
        &        &        &        &        & \vline       & z_{2\,k+1}   & \cdots & z_{2n}    \\
        &        &   B^k  &        &        & \vline       & z_{3\,k+1}   & \cdots & z_{3n}    \\
        &        &        &        &        & \vline       &              & \cdots &           \\
        &        &        &        &        & \vline       &              & \cdots & \vdots    \\
\hline
        &        &        &        &        & \vline       &              &        &           \\
        &        &   0    &        &        & \vline       &              &   T^k  &           \\
        &        &        &        &        & \vline       &              &        & 
\end{bmatrix}

on B és una matriu k×k triangular superior, amb tots els elements de diagonal i per sota de la diagonal a 0, i T és una matriu triangular superior (n-k)×(n-k), construïda a partir dels blocs de (U - λI), com hem vist abans.


B=\begin{bmatrix}
0 & z_{12} & z_{13} & \cdots \\
0 & 0      & z_{23} & \cdots \\
0 & 0      & \ddots & \cdots \\
0 & 0      & \cdots & 0
\end{bmatrix},
\qquad
T=\begin{bmatrix}
\beta_{k+1} &        & \cdots  \\
0           & \ddots &         \\
\vdots      &                  \\
0           & \cdots & \beta_n
\end{bmatrix}

Ara es comprova fàcilment que


B^k=\begin{bmatrix}
0 & 0      & 0      & \cdots \\
0 & 0      & 0      & \cdots \\
0 & 0      & \ddots & \cdots \\
0 & 0      & \cdots & 0
\end{bmatrix},
\qquad
T^k=\begin{bmatrix}
\beta_{k+1}^k &        & \cdots    \\
0             & \ddots &           \\
\vdots        &                    \\
0             & \cdots & \beta_n^k
\end{bmatrix}

És a dir, Bk té només elements a 0, i Tk és triangular amb elements no-nuls a la diagonal. Observem que, si multipliquem per B un vector columna v = (v1, v2, ..., vk)T, llavors l'últim element (el k-sim) val 0. Després de dues multiplicacions per B, el penúltim element (el k-1-sim) també és zero; i així successivament.

D'aquí se segueix que (U-λI) té rang n-k, i que la dimensió del nucli és k.

Només resta notar que, com que (A-λI)k = Q (U-λI)k QT, llavors (A-λI)k té rang n-k i la dimensió del seu nucli és k. És a dir, una transformació unitària o altra de semblança mitjançant una matriu no-singular preserva el rang.

Hem demostrat el resultat principal.

Si \lambda és un valor propi d'una matriu A amb multiplicitat algebraica k, llavors el nucli de (A-\lambda I)^k té dimensió k.

Una observació important és que el fet d'elevar (A-λI) a una potència superior a k no afecta ni el rang ni la dimensió del nucli.

Bibliografia[modifica | modifica el codi]

  • Axler, Sheldon. Linear algebra done right. 2nd ed. (corrected) (en anglès). New York: Springer, 2002. ISBN 978-0-387-98258-8.