Skip to Content
ÁlgebraMatrices

Matrices

Sean m,nNm, n \in \NN. El conjunto de las matrices de mm filas y nn columnas con coeficientes en un cuerpo K\KK es

Km×n={[a11a1n  am1amn]aijK,  1im,  1jn}\KK^{m \times n} = \left\{ \begin{bmatrix} a_{11} & \ldots & a_{1n} \\ \vdots & \; & \vdots \\ a_{m1} & \ldots & a_{mn} \end{bmatrix} \mid a_{ij} \in \KK, \; 1 \leq i \leq m, \; 1 \leq j \leq n \right\}

Operaciones y Propiedades de Matrices

Igualdad de Matrices

Sean A,BKm×nA, B \in \KK^{m \times n}. Decimos que A=B    Aij=Bij  A = B \iff A_{ij} = B_{ij}\; donde 1im,  1jn1 \leq i \leq m, \; 1 \leq j \leq n.

Operaciones con Matrices

Pueden definirse la suma de matrices Km×n\KK^{m \times n} y la acción de producto por escalares de K\KK en Km×n\KK^{m \times n} de la siguiente manera:

+:Km×n×Km×nKm×n,  (A+B)ij=Aij+Bij(1im,  1jn):K×Km×nKm×n,  (λA)ij=λAij(1im,  1jn)\begin{aligned} + &: \KK^{m \times n} \times \KK^{m \times n} \to \KK^{m \times n}, \; (A + B)_{ij} = A_{ij} + B_{ij} \quad (1 \leq i \leq m, \; 1 \leq j \leq n) \\ \cdot &: \KK \times \KK^{m \times n} \to \KK^{m \times n}, \; (\lambda \cdot A)_{ij} = \lambda \cdot A_{ij} \quad (1 \leq i \leq m, \; 1 \leq j \leq n) \end{aligned}

Tenemos que (Km×n,+,)(\KK^{m \times n}, +, \cdot) es un K\KK-espacio vectorial.

Dados AKm×n,  BKn×rA \in \KK^{m \times n}, \; B \in \KK^{n \times r}, El producto de AA por BB es la matriz CKm×rC \in \KK^{m \times r} definida por:

Cij=k=1nAikBkj(1im,  1jr)C_{ij} = \displaystyle{\sum_{k=1}^{n}} A_{ik} \cdot B_{kj} \quad (1 \leq i \leq m, \; 1 \leq j \leq r)

Propiedades del Producto de Matrices

  • P1) Asociatividad: Para AKm×n,  BKn×r,  CKr×sA \in \KK^{m \times n}, \; B \in \KK^{n \times r}, \; C \in \KK^{r \times s}, se cumple que (AB)C=A(BC)(AB)C = A(BC).
  • P2) Matriz Identidad: Sean nN,  InKn×nn \in \NN, \; I_n \in \KK^{n \times n} la matriz identidad, definida por:
In={1sii=j0ichar"338=jI_n = \begin{cases} 1 & \text{si} \quad i = j \\ 0 & \quad i \not= j \end{cases}

Para AKm×nA \in \KK^{m \times n}, se verifica: ImA=AI_m \cdot A = A y AIn=AA \cdot I_n = A.

P3) Distributividad:

  • 1) Para AKm×n,  B,CKn×rA \in \KK^{m \times n}, \; B, C \in \KK^{n \times r}, se cumple que A(B+C)=AB+ACA(B + C) = AB + AC.
  • 2) Para A,BKm×n,  CKn×rA, B \in \KK^{m \times n}, \; C \in \KK^{n \times r}, se cumple que (A+B)C=AC+BC(A + B)C = AC + BC.

Matriz canónica

Sean m,nNm, n \in \NN y 1km,  1ln1 \leq k \leq m, \; 1 \leq l \leq n. Las matrices canónicas EklKm×nE^{kl} \in \KK^{m \times n} son definidas por:

(Ekl)ij={1sii=k    j=l0en caso contrario(E^{kl})_{ij} = \begin{cases} 1 & \text{si} \quad i = k \; \land \; j = l \\ 0 & \text{en caso contrario} \end{cases}

K-álgebra

Sea KK un cuerpo y AA un conjunto con operaciones +,+, \cdot y una acción K\cdot_\KK de K\KK en AA.
Se dice que AA es una K\KK-álgebra si se cumplen las siguientes condiciones:

  • (A,+,)(A, +, \cdot) es un anillo.
  • (A,+,K)(A, +, \cdot_\KK) es un K\KK-espacio vectorial.
  • (λKX)Y=λK(XY)=X(λKY),  X,YA,  λK(\lambda \cdot_\KK X) \cdot Y = \lambda \cdot_\KK (X \cdot Y) = X \cdot (\lambda \cdot_\KK Y), \; \forall X, Y \in A, \; \forall \lambda \in \KK.

Matriz Equivalente por Filas

Sean A,BKm×nA, B \in \KK^{m \times n}. Decimos que AA es equivalente por filas a BB si puede obtenerse BB a partir de AA mediante una sucesión finita de operaciones elementales por filas. Su notación es: ABA \sim B.

Las operaciones por filas se corresponden a operaciones entre ecuaciones del sistema homogéneo Ax=0Ax = 0

Sean A,BKm×nA, B \in \KK^{m \times n} equivalentes por filas, los sistemas homogéneos Ax=0,  Bx=0Ax = 0, \; Bx = 0 tienen las mismas soluciones.

Demostración:

Como A,BA, B son equivalentes, existe una sucesión finita (nn) de operaciones elementales por fila que lleva la matriz AA a la matriz BB.

A=A0A1An=B  Ai=EiAi1,  1in\begin{aligned} A &= A_0 \rightarrow A_1 \rightarrow \ldots \rightarrow A_n = B \\ &\; \\ A_i &= E_i A_{i-1}, \; 1 \leq i \leq n \\ \end{aligned}

(Con EiE_i una operación elemental por filas)

Como las operaciones elementales permutan filas o realizan combinaciones lineales de filas, es claro que las ecuaciones de Aix=0A_ix = 0 son combinaciones lineales de las ecuaciones de Ai1x=0A_{i-1}x = 0. Concluimos que AiA_i y Ai1A_{i-1} determinan sistemas de ecuaciones equivalentes para 1in1 \leq i \leq n. Luego, A0x=0A_0x = 0 y A1x=0A_1x = 0 son sistemas equivalentes, y así sucesivamente, hasta llegar a que Anx=0A_nx = 0 es equivalente. Luego, Ax=0Ax = 0 y Bx=0Bx = 0 son sistemas equivalentes.

Matriz Transpuesta

Sea AKm×nA \in \KK^{m \times n}. La matriz transpuesta de AA, denotada por AtA^t, es la matriz en Kn×m\KK^{n \times m} definida por
(At)ij=Aji,  1in,  1jm(A^t)_{ij} = A_{ji}, \; 1 \leq i \leq n, \; 1 \leq j \leq m.

Ejemplo:

A=[123456]    At=[142536]A = \begin{bmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \end{bmatrix} \implies A^t = \begin{bmatrix} 1 & 4 \\ 2 & 5 \\ 3 & 6 \end{bmatrix}

Traza de una Matriz

Sea AKn×nA \in \KK^{n \times n}. La traza de AA se nota por tr(A)tr(A) y se define como: tr(A)=i=1nAiitr(A) = \displaystyle{\sum_{i=1}^{n}} A_{ii}.

Ejemplo:

A=[123456789]    tr(A)=1+5+9=15A = \begin{bmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \\ 7 & 8 & 9 \\ \end{bmatrix} \implies tr(A) = 1 + 5 + 9 = 15

Matriz Inversible

Sea AKn×nA \in \KK^{n \times n}. Se dice que AA es inversible si BKn×n\exists B \in \KK^{n \times n} tal que AB=BA=InAB = BA = I_n.
En este caso, BB es la matriz inversa de AA y se denota como B=A1B = A^{-1}

Una matriz [abcd]\begin{bmatrix} a & b \\ c & d \end{bmatrix} es inversible     adbcchar"338=0\iff ad - bc \not= 0


Si A,BKn×nA, B \in \KK^{n \times n} son inversibles no necesariamente A+BA + B es inversible.

Observemos que, si n=2n = 2 y A,BA, B fueran respectivamente:

[1001]+[1001]=[0000]\begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix} + \begin{bmatrix} -1 & 0 \\ 0 & -1 \end{bmatrix} = \begin{bmatrix} 0 & 0 \\ 0 & 0 \end{bmatrix}

Su suma no es inversible.

Si A,BKn×nA, B \in \KK^{n \times n} son inversibles su producto ABA \cdot B es inversible:

AA1=IdnBB1=Idn  AB(B1A1)=A(BB1)A1=A(Idn)A1=AA1=Idn  (B1A1)AB=B(AA1)B1=B(Idn)B1=BB1=Idn  (AB)1=B1A1\begin{aligned} AA^{-1} &= Id_n \\ BB^{-1} &= Id_n \\ &\; \\ AB(B^{-1}A^{-1}) &= A(BB^{-1})A^{-1} = A(Id_n)A^{-1} = AA^{-1} = Id_n \\ &\; \\ (B^{-1}A^{-1})AB &= B(AA^{-1})B^{-1} = B(Id_n)B^{-1} = BB^{-1} = Id_n \\ &\; \\ (AB)^{-1} &= B^{-1}A^{-1} \end{aligned}

Si A,BKn×nA, B \in \KK^{n \times n} son inversibles, entonces AB    PKn×nA \sim B \iff \exists P \in \KK^{n \times n} inversible tal que B=PAB = P \cdot A.

Demostración:

(\Rightarrow) Si ABA \sim B, vimos que P\exists P producto de matrices elementales tal que B=PAB = P \cdot A.
PP resulta invertible pues las matrices elementales lo son.

(\Leftarrow) Si B=PAB = P \cdot A, con PP invertible. El teorema anterior nos dice que PP es producto de matrices elementales.
AB\therefore A \sim B

Matriz Elemental

Una matriz n×nn \times n es elemental si se obtiene por una única operación elemental a partir de la matriz identidad IdnId_n. Todas las matrices elementales son invertibles.

Toda matriz elemental es inversible.

** Demostración:**

Sea EE la matriz elemental con operación ee. Luego, E=e(Idn)E = e(Id_n). Sea ee' la operación elemental tal que:

e(e(A))=A,  AKn×ne'(e(A)) = A, \; \forall A \in \KK^{n \times n}

Sea E=e(Idn)E' = e'(Id_n). Entonces:

EE=Ee(Idn)=e(e(Idn))=IdnEE=Ee(Idn)=e(e(Idn))=Idn\begin{aligned} E \cdot E' &= E \cdot e'(Id_n) = e(e'(Id_n)) = Id_n \\ E' \cdot E &= E' \cdot e(Id_n) = e'(e(Id_n)) = Id_n \\ \end{aligned}

Tenemos que E=E1E' = E^{-1}.

Matriz MRF

Una matriz AKm×nA \in \KK^{m \times n} está en forma reducida por filas (MRF) si cumple las siguientes condiciones:
1 ) La primera entrada no nula de una fila es 11, llamado 1 principal 2 ) Cada columna que contiene un 1 principal tiene todos los otros elementos iguales a 00

Ejemplos:

[100401010011][010010]\begin{bmatrix} 1 & 0 & 0 & -4 \\ 0 & 1 & 0 & 1 \\ 0 & 0 & 1 & 1 \end{bmatrix} \quad \begin{bmatrix} 0 & 1 \\ 0 & 0 \\ 1 & 0 \end{bmatrix}

Matriz MERF

Una matriz AKm×nA \in \KK^{m \times n} está en forma escalonada reducida por filas (MERF) si cumple las siguientes condiciones:
1 ) Es reducida por filas (MRF)
2 ) Las filas nulas (si las hay) están debajo de las filas no nulas
3 ) En cada fila no nula, el primer elemento no nulo está a la derecha del pivote de la fila anterior.

Ejemplos:

[1020011000010000][010001000]\begin{bmatrix} 1 & 0 & 2 & 0 \\ 0 & 1 & -1 & 0 \\ 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0 \end{bmatrix} \quad \begin{bmatrix} 0 & 1 & 0 \\ 0 & 0 & 1 \\ 0 & 0 & 0 \end{bmatrix}

Toda matriz AKm×nA \in \KK^{m \times n} es equivalente por filas a una MERF.

Demostración:

Probamos que AA es equivalente por filas a BKm×nB \in \KK^{m \times n} con BB MRF.

Consideremos la primera fila de AA. Si es nula, no hacemos nada. Si no lo es, entonces tiene la forma

[0,,0,a1j,a1(j+1),,a1n]a1jchar"338=0[0, \ldots, 0, a_{1j}, a_{1(j+1)}, \ldots, a_{1n}] \quad a_{1j} \not= 0

Mutliplicamos la primera fila por (a1j)1(a_{1j})^{-1} y obtenemos:

[0,,0,1,a1(j+1),,a1n][0, \ldots, 0, 1, a_{1(j+1)}', \ldots, a_{1n}']

Ahora para cada k2k \geq 2 hacemos: [Fk(akjF1)][F_k - (a_{kj} \cdot F_1)]

Pasamos a la fila dos de A1A_1: si es nula, no hacemos nada. Si no lo es, multiplicamos la segunda fila por (a2l)1(a_{2l})^{-1}, donde ll es el índice del primer elemento no nulo de la fila dos. Luego, para cada k3k \geq 3 hacemos: [Fk(aklF2)][F_k - (a_{kl}' \cdot F_2)] y obtenemos A2A_2. Observemos que a2l=1a_{2l}'' = 1 y que akl=0a_{kl}'' = 0. si kchar"338=2k \not= 2.

Notar que la columna jj queda inalterada. Luego las operaciones por fila dejan a2j=0a_{2j}' = 0 y por ende lchar"338=jl \not = j. Luego las operaciones por fila dejan a1j=1,akj=0,  kchar"338=j,  k2a_{1j}'' = 1, a_{kj}'' = 0, \; \forall k \not = j, \; k \geq 2.

A1=[001a1(j+1)a1n0000      (col.  j)      ]A_1 = \begin{bmatrix} 0 & \ldots & 0 & 1 & a_{1(j+1)}' & \ldots & a_{1n}' \\ 0 & \ldots & 0 & 0 & \ldots & \ldots & * \\ * & * & * & \vdots & * & * & * \\ * & * & * & 0 & * & * & * \\ \; & \; & \; & (\textnormal{col.} \; j) & \; & \; & \; \\ \end{bmatrix} A2=[001a1(j+1)a1n01a2(l+1)a2n00  (col.  l)  (col.  j)      ]A_2 = \begin{bmatrix} 0 & \ldots & 0 & 1 & a_{1(j+1)}'' & \ldots & a_{1n}'' \\ 0 & 1 & a_{2(l+1)}'' & \ldots & \ldots &\ldots & a_{2n}'' \\ * & 0 & \ldots & 0 & * & * \\ * & \vdots & * & \vdots & * & * \\ \; & (\textnormal{col.} \; l) & \; & (\textnormal{col.} \; j) & \; & \; & \; \\ \end{bmatrix}

Asi, luego de mm pasos obtenemos B=AmB = Am, donde cada fila kk o bien es nula o su primer elemento es 11 y los demás restantes de la columna son 00.

Paso 2: Toda MRF es equivalente por filas a una MERF (y así AA es equivalente por filas a una MERF).
Basta con permutar las filas nulas por las últimas filas y reordenar lass filas 1,,r1, \ldots, r de modo que si el 11 principal de la fila ii está en la columna kik_i, para i=1,,r    k1<<kri = 1, \ldots, r \implies k_1 < \ldots < k_r.


Sea AKm×nA \in \KK^{m \times n}. Entonces AIdn    A \sim Id_n \iff el sistema homogéneo Ax=0Ax = 0 tiene solo solución trivial.

Demostración:

Supongamos que Ax=0Ax = 0 tiene solo la solucion trivial. Sea BB una MERF ABA \sim B.

Como Bx=0Bx = 0 tiene solo la solución trivial no hay variables libres. Es decir, si BB tiene rr filas no nulas     nr=0    r=n\implies n - r = 0 \implies r = n. Cada fila ii de esas tiene un 11 en la posición kik_i con k1<<knk_1 < \ldots < k_n. Luego k1=1,,kn=nk_1 = 1, \ldots, k_n = n. Por lo tanto, B=IdnB = Id_n.

Si AIdnA \sim Id_n, entonces las soluciones de Ax=0Ax = 0 coinciden con las de Idnx=0Id_n x = 0, esto es:

[100001000000001][x1x2xn]=[000]    x1=x2==xn=0\begin{bmatrix} 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & \ddots & 0 \\ 0 & 0 & 0 & 1 \end{bmatrix} \begin{bmatrix} x_1 \\ x_2 \\ \vdots \\ x_n \end{bmatrix} = \begin{bmatrix} 0 \\ 0 \\ \vdots \\ 0 \end{bmatrix} \implies x_1 = x_2 = \ldots = x_n = 0

Matriz Cuadrada

Una matriz AKn×nA \in \KK^{n \times n} es cuadrada si tiene el mismo número de filas y columnas.

Las siguientes afirmaciones son equivalentes para una matriz cuadrada AKn×nA \in \KK^{n \times n}:

1) AA es inversible.
2) AA es equivalente por filas a IdnId_n.
3) AA es producto de matrices elementales.

Demostración:

Sea RR una MERF tal que ARA \sim R. Del teorema anterior, E1,,Ek\exists E_1, \ldots, E_k matrices elementales tal que:

R=EkEk1E1()R = E_k \cdot E_{k-1} \cdot \ldots \cdot E_1 \quad (*)

Como RKn×nR \in \KK^{n \times n}, tenemos dos casos respecto a la cantidad de filas no nulas rr de RR:

  • r=n    r = n \implies hay nn principales/pivotes en R,R=IdnR, \therefore R = Id_n.
  • r<n    r < n \implies con lo cual RR tiene al menos una fila nula.

1)     \implies 2) Si AA es inversible, entonces RR también lo es, por ()(*), RR es producto de matrices invertibles.
Si RR tuviera una fila nula, entonces:

Idn=RR1=[r11r1n  00][r11r1n  rn1rnn]=[  00]Id_n = R \cdot R^{-1} = \begin{bmatrix} \stackrel{\sim}{r}_{11} & \ldots & \stackrel{\sim}{r}_{1n} \\ \vdots & \; & \vdots \\ 0 & \ldots & 0 \\ \end{bmatrix} \cdot \begin{bmatrix} r_{11} & \ldots & r_{1n} \\ \vdots & \; & \vdots \\ r_{n1} & \ldots & r_{nn} \\ \end{bmatrix} = \begin{bmatrix} \ast & \ldots & \ast \\ \vdots & \; & \vdots \\ 0 & \ldots & 0 \\ \end{bmatrix}

Lo cual es una contradicción. Por lo tanto vale R=IdnR = Id_n.

2)     \implies 3) Si AIdnA \sim Id_n, entonces Idn=EkE1AId_n = E_k \ldots E_1 \cdot A. Multiplicando por E11Ek1E_1^{-1} \ldots E_k^{-1} se obtiene:
A=E11Ek1A = E_1^{-1} \ldots E_k^{-1}, cada Ei1E_i^{-1} es matriz elemental.

3)     \implies 1) Si AA es producto de matrices elementales, entonces AA es invertible por ser producto de matrices invertibles.


Las siguientes afirmaciones son equivalentes para una matriz cuadrada AKn×nA \in \KK^{n \times n}:

1) AA es inversible.
2) El sistema homogéneo Ax=0Ax = 0 tiene solo la solución trivial.
3) Para todo bKn×1b \in \KK^{n \times 1}, el sistema Ax=bAx = b tiene solución.

Demostración:

1)     \implies 2) Si AA es inveritble y x0x_0 es solución del sistema Ax=0Ax = 0 entonces:

x0=Idnx0=A1Ax0=A10=0x_0 = Id_n \cdot x_0 = A^{-1} \cdot A \cdot x_0 = A^{-1} \cdot 0 = 0

2)     \implies 1) Puede probarse con la contrarrecíproca: Si AA no es inversible, entonces AA no es equivalente por filas a la identidad. Luego si ARA \sim R, con RR MERF, RR tiene al menos una fila nula. Entonces el sistema Rx=0Rx = 0 tiene soluciones no triviales, con lo cual Ax=0Ax = 0 tiene soluciones no triviales.

3)     \implies 1) Si AA no es inversible, entonces AA no es equivalente por filas a la identidad, luego si ARA \sim R con RR MERF, RR tiene al menos una fila nula y A=PRA = P \cdot R con PP inversible. Luego tenemos:

Ax=b    P1Rx=P1b    Rx=P1b\begin{aligned} Ax = b &\iff P^{-1} \cdot R x = P^{-1} \cdot b \\ &\iff R x = P^{-1} \cdot b \end{aligned}

El sistema Rx=(001)Rx = \begin{pmatrix} 0 \\ \vdots \\ 0 \\ 1 \end{pmatrix} no tiene solución pues la última fila de RR es nula. Luego si consideramos b=P(001)b = P \cdot \begin{pmatrix} 0 \\ \vdots \\ 0 \\ 1 \end{pmatrix}, el sistema Ax=bAx = b no tiene solución.


Las siguientes afirmaciones son equivalentes para una matriz cuadrada AKn×nA \in \KK^{n \times n}:

1) AA es inversible.
2) BKn×n\exists B \in \KK^{n \times n} tal que AB=InA \cdot B = I_n.
3) CKn×n\exists C \in \KK^{n \times n} tal que CA=InC \cdot A = I_n.

Demostración:

1)     \implies 2) y 1)     \implies 3) Por definición de matriz inversa.

3)     \implies 1) Si x0x_0 es solución de Ax=0Ax = 0, entonces:

x0=Idnx0=(CA)x0=C(Ax0)=C0=0x_0 = Id_n \cdot x_0 = (C \cdot A) \cdot x_0 = C \cdot (A \cdot x_0) = C \cdot 0 = 0

Luego, por el teorema anterior, AA es inversible.

2)     \implies 1) Sea bKn×1b \in \KK^{n \times 1}. Entonces, si x0=Bbx_0 = B \cdot b:

Ax0=A(Bb)=(AB)b=Inb=bA \cdot x_0 = A \cdot (B \cdot b) = (A \cdot B) \cdot b = I_n \cdot b = b

Luego, x0x_0 es solución del sistema Ax=bAx = b.