Skip to Content
ÁlgebraDiagonalización

Diagonalización

Una matriz AKn×nA \in \KK^{n \times n} es diagonalizable si CGL(n,K)\exists C \in GL(n, \KK) tal que CAC1C \cdot A \cdot C^{-1} es matriz diagonal.

Sean A,BKn×nA, B \in \KK^{n \times n}. Se dice que A,BA, B son semejantes si CKn×n\exists C \in \KK^{n \times n} invertible tal que A=CBC1A = C \cdot B \cdot C^{-1}

Sea VV un K\KK-espacio vectorial de dimensión nn. Sea f:VVf : V \to V transformación lineal.
Se dice que ff es diagonalizable si existe una base BB de VV tal que [f]B[f]_B es diagonal

Autovalores y autovectores

Sea VV un K\KK-espacio vectorial, sea f:VVf : V \to V transformación lineal.
Se dice que vV,vchar"338=0\bfv \in V, \bfv \not= 0 es autovector de ff si λK\exists \lambda \in \KK tal que f(v)=λvf(\bfv) = \lambda \cdot \bfv.
El elemento λK\lambda \in \KK es autovalor de ff

Estas mismas nociones a su vez, se pueden definir para matrices.

Sea AKn×nA \in \KK^{n \times n}. Se dice que vKn,vchar"338=0\bfv \in \KK^n, \bfv \not= 0 es autovector de AA si λK\exists \lambda \in \KK tal que Av=λvA \cdot \bfv = \lambda \cdot \bfv.
El elemento λK\lambda \in \KK es autovalor de AA

Sea AKn×nA \in \KK^{n \times n}. AA es diagonalizable     \iff existe una base BB de Kn\KK^n formada por autovectores de AA


Dada una matriz AA asociada a una transformación lineal TT. Si detA=0\det A = 0 entonces el Nu(T)\textnormal{Nu}(T) contiene uno o más vectores aparte del nulo.

Esto implica que hay un vector vchar"338=0\bfv \not= 0 tal que T(v)=0    T(v)=v0=0T(v) = 0 \implies T(v) = \bfv \cdot 0 = 0.
Es decir, hay un autovalor λ=0\lambda = 0 tal que vλ=0\bfv \cdot \lambda = 0.

De igual manera, si 00 es autovalor de AA. Su matriz no es invertible. Hay un vector no nulo en el núcleo tal que vchar"338=0,  T(v)=v0=0v \not= 0, \; T(\bfv) = \bfv \cdot 0 = 0


Podemos probar que una matriz AA asociada a una transformación lineal no es invertible si BNu(T)char"338={0}B_{\textnormal{Nu}(T)} \not= \{ 0 \} (si es un monomorfismo).

Supongamos que existe un vector vchar"338=0\bfv \not= 0 y que la matriz AA si es invertible.

Entonces, tenemos Av=0A \bfv = 0

Av=0A1Av=A10Idnv=0v=0\begin{aligned} A \bfv &= 0 \\ A^{-1}A \bfv &= A^{-1} \cdot 0 \\ Id_n \bfv &= 0 \\ \bfv &= 0 \end{aligned}

Llegamos a v=0\bfv = 0, por lo que no es posible.

Teorema de Caracterización de Transformaciones Diagonalizables

Sea T:VVT : V \to V una transformación lineal de un espacio vectorial de dimensión finita nn.
Sean λ1,,λn\lambda_1, \ldots, \lambda_n los autovalores distintos de TT y sean Vi=VλiV_i = V_{\lambda_i} los correspondientes autoespacios asociados a cada λi,  i=1,,n\lambda_i, \; i = 1, \ldots, n. Se cumple que:
1 ) TT es diagonalizable
2 ) El polinomio característico de TT es: PT(x)=(xλ1)d1(xλn)dnP_T(x) = (x - \lambda_1)^{d_1} \cdot (x - \lambda_n)^{d_n} con di=dimVid_i = \dim V_i
3 ) dimV=dimV1++dimVn\dim V = \dim V_1 + \ldots + \dim V_n
4 ) V=V1VnV = V_1 \oplus \ldots \oplus V_n

1)     \implies 2) Si TT es diagonalizable, entonces existe una base B={v1,,vn}\Beta = \{v_1, \dots, v_n\} de autovectores de VV.
Sea did_i la cantidad de veces que aparece el autovalor λi\lambda_i. Podemos ordenar la base fijando v1,,vd1v_1, \dots, v_{d_1} como los autovectores asociados a λ1\lambda_1; luego vd1+1,,vd1+d2v_{d_1+1}, \dots, v_{d_1+d_2} los autovectores de λ2\lambda_2, etc.

La matriz asociada en esta base será diagonal por bloques:

[T]B=(λ1Id1000λ2Id2000λrIdr)[T]_\Beta = \begin{pmatrix} \lambda_1 I_{d_1} & 0 & \dots & 0 \\ 0 & \lambda_2 I_{d_2} & \dots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \dots & \lambda_r I_{d_r} \end{pmatrix}

Donde cada bloque es una matriz diagonal escalar de tamaño did_i. Luego, el polinomio característico es:

PT(x)=det([T]BxI)=(λ1x)d1(λrx)drP_T(x) = \det([T]_\Beta - x \cdot I) = (\lambda_1 - x)^{d_1} \cdot \ldots \cdot (\lambda_r - x)^{d_r}

Ahora, el subespacio V1V_1 (autoespacio de λ1\lambda_1) está generado por v1,,vd1v_1, \dots, v_{d_1}. Por otro lado, V2V_2 está generado por el siguiente grupo de vectores, etc. Luego, dim(Vi)=di\dim(V_i) = d_i

2)     \implies 3) Supongamos que PT(x)=(λ1x)d1(λrx)drP_T(x) = (\lambda_1 - x)^{d_1} \cdots (\lambda_r - x)^{d_r} con di=dim(Vi)d_i = \dim(V_i). Calculamos el grado del polinomio: gr(PT(x))=d1++dr\text{gr}(P_T(x)) = d_1 + \dots + d_r

Por otro lado, sabemos por propiedad que el grado del polinomio característico es igual a la dimensión del espacio: gr(PT(x))=n=dim(V)\text{gr}(P_T(x)) = n = \dim(V). Con lo cual: dim(V)=d1++dr=dim(V1)++dim(Vr)\dim(V) = d_1 + \dots + d_r = \dim(V_1) + \dots + \dim(V_r)

3)     \implies 4) Supongamos dim(V)=dim(V1)++dim(Vr)\dim(V) = \dim(V_1) + \dots + \dim(V_r). Sabemos que WW, el subespacio vectorial generado por los autovectores, es la suma directa de los autoespacios.
Es decir: W=V1VrVW = V_1 \oplus \dots \oplus V_r \subseteq V y dimW=dimV1++dimVr=dimV    dimW=dimV\dim W = \dim V_1 + \dots + \dim V_r = \dim V \implies \dim W = \dim V.

Calculando dimensiones: dim(W)=i=1rdim(Vi)\dim(W) = \sum_{i=1}^r \dim(V_i)
Por hipótesis, esta suma es igual a dim(V)\dim(V).
Como WW es un subespacio de VV y tiene la misma dimensión que VV, entonces W=VW = V.
V=V1Vr\therefore V = V_1 \oplus \dots \oplus V_r

4)     \implies 1) Supongamos V=V1VrV = V_1 \oplus \dots \oplus V_r. Sea B1={v1,,d1}\Beta_1 = \{ \bfv_1, \ldots, d_1 \} base de V1V_1, B2={vd1+1,,vd1+d2}\Beta_2 = \{ \bfv_{d_1 + 1}, \ldots, \bfv_{d_1 + d_2} \} base de V2V_2, y así sucesivamente.
Cada vjBi\bfv_j \in \Beta_i es un autovector de autovalor λi\lambda_i, y B=B1B2Br\Beta = \Beta_1 \cup \Beta_2 \cup \ldots \cup \Beta_r es una base de VV, que consta de autovectores, por lo que TT es diagonalizable.


Ejercicios resueltos - Autovalores y autovectores

1.

Decidir si la transformación lineal es diagonalizable, calcular sus autovalores y sus correspondientes autoespacios:

T(x,y,z)=(xy,x+2yz,y+z),  x,y,zCT(x, y, z) = (x - y, -x + 2y - z, -y + z), \; x, y, z \in \CC

Defino la matriz [T]C[T]_C donde CC es base canónica de C3\CC^3, es decir {(1,0,0),(0,1,0),(0,0,1)}\{ (1, 0, 0), (0, 1, 0), (0, 0, 1) \}

T(1,0,0)=(1,1,0)T(0,1,0)=(1,2,1)T(0,0,1)=(0,1,1)  [T]C=[110121011]\begin{aligned} T(1, 0, 0) &= (1, -1, 0) \\ T(0, 1, 0) &= (-1, 2, -1) \\ T(0, 0, 1) &= (0, -1, 1) \\ &\; \\ [T]_C &= \begin{bmatrix} 1 & -1 & 0 \\ -1 & 2 & -1 \\ 0 & -1 & 1 \end{bmatrix} \end{aligned}

Defino λId[T]C\lambda \cdot Id - [T]_C

λId[T]C=[λ1101λ2101λ1]\lambda \cdot Id - [T]_C = \begin{bmatrix} \lambda - 1 & 1 & 0 \\ 1 & \lambda - 2 & 1 \\ 0 & 1 & \lambda - 1 \end{bmatrix}

Ahora calculo su determinante:

det([T]C)=λλ(λ1)+11(λ2)+0010(λ2)011(λ1)(λ1)01=λ34λ2+3λ\begin{aligned} \det([T]_C) &= \lambda \cdot \lambda \cdot (\lambda - 1) + 1 \cdot 1 \cdot (\lambda - 2) + 0 \cdot 0 \cdot 1 - 0 \cdot (\lambda - 2) \cdot 0 - 1 \cdot 1 \cdot (\lambda - 1) - (\lambda - 1) \cdot 0 \cdot 1 \\ &= \lambda^3 -4 \lambda^2 + 3 \lambda \\ \end{aligned}

Ahora calculo los valores de λ\lambda

λ(λ24λ+3)=0    λ=0,    λ=(4)±(4)241321=4±22,  λ=3    λ=1\begin{aligned} &\lambda (\lambda^2 - 4 \lambda + 3) = 0 \\ &\implies \lambda = 0, \\ &\implies \lambda = \frac{-(-4) \pm \sqrt{(-4)^2 - 4 \cdot 1 \cdot 3}}{2 \cdot 1} = \frac{4 \pm 2}{2}, \; \lambda = 3 \; \lor \; \lambda = 1 \end{aligned}

Defino tres sistemas de ecuaciones para en base a la matriz obtenida, sustituyendo el valor de λ\lambda en ellos.
Resuelvo los sistemas y defino los autoespacios.

[λ1101λ2101λ1][xyz]  λ=0    {x+y=0x2y+z=0yz=0  y=zx=2zz=z  z(1,1,1)    (1,1,1)  λ=3    {2x+y=0x+y+z=0y+2z=0  y=2z2x2z=0    2x=2z    x=z  z(1,2,1)    (1,2,1)  λ=1    {y=0xy+z=0  x=z  z(1,0,1)    (1,0,1)\begin{aligned} &\begin{bmatrix} \lambda - 1 & 1 & 0 \\ 1 & \lambda - 2 & 1 \\ 0 & 1 & \lambda - 1 \end{bmatrix} \begin{bmatrix} x \\ y \\ z \end{bmatrix} \\ &\; \\ &\lambda = 0 \implies \begin{cases} -x + y = 0 \\ x - 2y + z = 0 \\ y - z = 0 \end{cases} \\ &\; \\ &y = z \\ &x = 2z - z = z \\ &\; \\ &z(1, 1, 1) \implies \langle (1, 1, 1) \rangle \\ &\; \\ &\lambda = 3 \implies \begin{cases} 2x + y = 0 \\ x + y + z = 0 \\ y + 2z = 0 \end{cases} \\ &\; \\ &y = -2z \\ &2x -2z = 0 \implies 2x = 2z \implies x = z \\ &\; \\ &z(1, -2, 1) \implies \langle (1, -2, 1) \rangle \\ &\; \\ &\lambda = 1 \implies \begin{cases} y = 0 \\ x - y + z = 0 \\ \end{cases} \\ &\; \\ &x = -z \\ &\; \\ &z(-1, 0, 1) \implies \langle (-1, 0, 1) \rangle \end{aligned}

Tenemos los autovalores λ=0,  λ=3,  λ=1\lambda = 0, \; \lambda = 3, \; \lambda = 1 y los autoespacios generados (1,1,1),  (1,2,1),  (1,0,1)\langle (1,1,1) \rangle, \; \langle (1, -2, 1) \rangle, \; \langle (-1, 0, 1) \rangle, respectivamente.

Es diagonalizable, ya que:

dim(1,1,1)+dim(1,2,1)+dim(1,0,1)=3=dimC3\dim \langle (1,1,1) \rangle + \dim \langle (1, -2, 1) \rangle + \dim \langle (-1, 0, 1) \rangle = 3 = \dim \CC^3

La base B={(1,1,1),(1,2,1),(1,0,1)}B = \{(1,1,1), (1,-2,1), (-1,0,1)\} es la base tal que [T]B[T]_B posee cada autovalor en su diagonal.

[T]B=[000010003][T]_B = \begin{bmatrix} 0 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 3 \end{bmatrix}

2.

Probar que toda matriz AR2×2A \in \RR^{2 \times 2} no es diagonalizable y que existe matriz sin autovalor definido.

Esto puede probarse si, por ejemplo, vemos el caso de la siguiente transformación lineal:

T(x,y)=(y,x)T(x, y) = (-y, x)

Su representación matricial [T]C[T]_C es:

[T]C=[0110][T]_C = \begin{bmatrix} 0 & -1 \\ 1 & 0 \end{bmatrix}

Si ahora hacemos Id2λ[T]CId_2 \cdot \lambda - [T]_C

Id2λ[T]C=[λ11λ]Id_2 \cdot \lambda - [T]_C = \begin{bmatrix} \lambda & -1 \\ 1 & \lambda \end{bmatrix}

Su determinante queda: λ2+1=0    λ2=1\lambda^2 + 1 = 0 \implies \lambda^2 = -1

No existe número en R\RR que cumpla la igualdad. Por lo que no hay autovalor definido para TT. Lo cual implica que tampoco hay autovectores definidos para formar una base. TT no es diagonalizable.

Polinomio característico

Sea AKn×nA \in \KK^{n \times n}. El polinomio característico de AA es el polinomio χA=det(XInA)K[x]\chi_A = \det(X \cdot I_n - A) \in \KK[x]

Si AA es semejante a A    PA=PAA' \implies P_A = P_{A'}

Demostración:

Sea CC invertible tal que A=CAC1A = C \cdot A' \cdot C^{-1}

PA=det(XInA)=det(XInCAC1)=det(C(XInA)C1)=det(C)det(XInA)det(C1)=det(XInA)=PA\begin{aligned} P_A = \det(X \cdot I_n - A) &= \det(X \cdot I_n - C \cdot A' \cdot C^{-1}) \\ &= \det(C \cdot (X \cdot I_n - A') \cdot C^{-1}) \\ &= \det(C) \cdot \det(X \cdot I_n - A') \cdot \det(C^{-1}) \\ &= \det(X \cdot I_n - A') \\ &= P_{A'} \end{aligned}