asNotas de clase: ´ Algebra
de matrices
Humberto Sarria Zapata
Cap´ A±tulo 1
1.1.
1.1.1
Matrices particionadas, multiplicaci´n de o Strassen.
Notaci´n. o
Denotamos el conjunto de las matrices con m ï¬las y n
columnas con entradas o elementos reales mediante Mm×n (R). Si una matriz
A Mm×n (R) tiene elementos aij
, con 1 ≤ i ≤ m y 1 ≤ j ≤ n, escribiremos A =
(aij )m×n .
1.1.2
Matrices deï¬nidas por bloques.
Notar las matrices en t´rminos de bloques es, en algunas ocasiones, util e ´ para
simpliï¬car el desarrollo de algoritmos quehacen uso de la multiplicaci´n de matrices. Esta notaci´n
permite, adicionalmente, expresar algunos o o resultados en forma muy simple.
Deï¬nici´n
1. Una submatriz de la matriz A = (aij ) es
cualquier matriz o que se obtiene al eliminar un n´mero no mayor a (m − 1)
ï¬las y a (n − 1) u columnas de A.   1 −1
2 3 0 1 entonces las siguientes matrices son Ejemplo 1. Si A = 0 2 3 4 −1
2 submatrices de A:   2 1 −1 1 3 0 4 1 −1 2 3 2 0 2 3 2 −1 Nota. Hay una
manera especial de dividir una matriz en submatrices mediante la inserci´n de
l´ o A±neas de divisi´n entre ï¬las o columnas espec´ o A±ï¬cas de la matriz. Estas l´ A±neas deben atravesar completamente la
matriz de arriba a 1
2
1.
abajo y de derecha a izquierda. Esta
forma de dividir la matriz se denomina partici´n de la matriz. o   1 −1 2 3 0 1 puede ser particionada como: Ejemplo 2. La
matriz A = 0 2 3 4 −1 2     . . .
−1 1 − 3 . £¯
ï£s  ï£s . £¯ 0 ï£s · · · · · · · · · · · · ·
·ï£s . 0 1ï£s  ï£s.
A=ï£ £¯· · · · · · · · ·
· · · ·ï£s o A =  0 . .
1ï£s .     . . . −1 4 − 3 . En el
primer caso, la matriz es particionada en submatrices o bloques y podemos
representarla como: A= endonde: A11 = 1 −1 , 0 2 A12 = 2 3 , 0 1 A21 = 3
4 , A22 = −1 2 . A11 A12 , A21 A22
En el segundo caso, podemos representarla como:
A= donde: A11 = 1 , A21 = Nota. 1. Llamaremos al esquema que muestra la
partici´n matriz particionao da y a las submatrices de una matriz particionada
elementos de la matriz en bloques. 2. Por ejemplo, las submatrices A11 , A12 ,
A21 y A22 de la partici´n de la o matriz A en el ejemplo 1, son los elementos
de la matriz en bloques deï¬nida por esta
partici´n.
o 0 , 3 A12 = −1 2 , A22 = 2 0 , 4 −1 A13 = 3 , A23 = 1 . 2 A11 A12
A13 , A21 A22 A23
´ 1.1. MATRICES PARTICIONADAS, MULTIPLICACION DE STRASSEN.3 3. Diremos que una matriz en bloques es cuadrada, si el n´mero de ï¬las u y el n´mero de columnas
deï¬nidos por la partici´n
son iguales. u o 4. Si una matriz A est´
particionada en r por s bloques Aij , donde 1 ≤
a i ≤ r y 1 ≤ j ≤ s, entonces escribiremos: A = (Aij )r×s .
5. El bloque ij de A tambi´n lo denotaremos mediante (A)ij
; es decir, e (A)ij := Aij . 6. Diremos que una matriz en bloques es diagonal
por bloques, si es cuadrada y, adem´s, todos los bloques por fuera de la
diagonal principal a son matrices nulas. Si A es una matriz diagonal por
bloques y si sus bloquessobre la diagonal principal son A11 ,
A22 , . . . , Ann entonces escribiremos: A = diag(A11 , A22 , . . . , Ann ). 7.
Si una matriz es particionada de tal manera que sus
bloques diagonales son cuadrados, diremos que est´ particionada en forma
sim´trica. a e 8. Observe que si las matrices A y B
son particionadas en la forma: A= A11 A12 , A21 A22 B=
B11 B12 , B21 B22
de tal manera que Aij tiene el mismo tama˜o que el bloque Bij entonces: n A+B =
A11 + B11 A12 + B12 A11 − B11 A12 − B12 , A−B = . A21 + B21 A22 + B22 A21 − B21 A22 − B22
9. En general, si A y B se han particionado de tal manera que los
bloques correspondientes tienen el mismo tama˜o entonces: n A + B = Aij + Bij , A − B = Aij − Bij .
10. Si A y B han sido particionadas en bloques m×p y p×n, respectivamente, y si
adem´s el bloque Ars es compatible con el bloque Bst para a la multiplicaci´n
entonces: o
m n p
Aik Bkj .
i=1 j=1 k=1
(1.1)
4
1.
1.2
Multiplicaci´n de Strassen. o
Supongamos que las matrices A y B son de tama˜o 2m y que han sido n
particionadas en bloques de tama˜o m de la siguiente manera: n A= A11 A12 , A21
A22 B= B11 B12 . B21 B22
Note que el c´lculo del
producto AB puede obtenerseefectuando las operaa ciones indicadas a
continuaci´n: o A11 B11 + A12 B21 A11 B12 + A12 B22 .
A21 B11 + A22 B21 A21 B12 + A22 B22 (1.2
Este c´lculo puede efectuarse usando 8m3 multiplicaciones y 8(m − 1)m2 +
a 2 4m = 8m3 − 4m2 sumas. Por otra parte, tambi´n podemos efectuar el
proe ducto usando la siguiente colecci´n de operaciones, descubiertas por
Strassen: o   P1    P2      P3   P4 
P  5    P   6   P7 = (A11 + A22 )(B11 + B22 ) =
(A21 + A22 )B11 = A11 (B12 − B22 ) = A22 (B21 − B11 ) , = (A11 +
A12 )B22 = (A21 − A11 )(B11 + B12 ) = (A12 − A22 )(B21 + B22 )
  C11   C 12  C21    C22
= P 1 + P4 − P 5 + P7 = P 3 + P5 = P 2 + P4 = P 1 + P3 − P 2 + P6 .
(1.3)
Observemos que el n´mero total de multiplicaciones que se efectuan con u el
m´todo de Strassen es 7m3 y el n´mero total de adiciones o restas es e u 10m2
+8m2 +7(m−1)m2 = 7m3 +11m2 . De lo anterior, podemos concluir que e con
el m´todo de Strassen se efect´an 8 de las multiplicaciones del m´todo e u 7 3
+11m2 7m tradicional y 8m3 −2m2 de las adiciones del m´todo tradicional.
Observemos e que si el valor de m crece, el ultimo cociente se acerca a Esto muestra que ´ 8 para valores
grandes de m, elm´todo de multiplicaci´n de Strassen es mucho e o m´s r´pido
que el m´todo tradicional. a a e El m´todo de
Strassen puede llevarse a un nivel mucho m´s eï¬ciente, si e
a las matrices A y B son de tama˜o 2m . En este caso, puede aplicarse el n
procedimiento de manera recursiva sobre las matrices que resultan de la primera
partici´n de la matriz original y luego sobre las matrices que resultan o de la
segunda partici´n y as´ sucesivamente. o A± Ejercicios
1.
MULTIPLICACION DE STRASSEN.
1. Considere las matrices:   1 −1 −2 3 A = 2 −2 5
1ï£ 3 3 −1 2
5
 1 −1 2 3 3 1 B = 1 1 3 −1 −1 2

Deï¬na una misma partici´n sobre las matrices
A y B y calcule A + B o y A − 2B. 2. Considere las matrices A y B del ejercicio anterior. Deï¬na sobre A y B particiones compatibles para el c´lculo de AB T y de BAT , respectia vamente. Efect´e el
c´lculo usando la f´rmula (1.1). u a o 3.
Considere que la matriz A = (Aij )p×q ha sido
particionada en p×q bloques de manera sim´trica. e a)
Determine la traspuesta de A en t´rminos de la traspuesta de sus e bloques. b) Si A es una matriz sim´trica, squ´ propiedad deben
cumplir los e e bloques Aij ? Responda la misma pregunta para el caso en el que
A seaantisim´trica. e 4. Sean
A1 , . . . , Ar matrices no singulares cuadradas.
Determine la inversa de la matriz diag(A1 , . . . , Ar
). 5. Si A es una matriz m×n y B es una matriz n×m, pruebe que: I A AB 0 Im A 0
0 a) m 0 In B 0 0 In B BA b) (Opcional) pBA (x) =
tn−m pAB (x). 6. Estudiar los ejercicios 4, 5, 6 y 7 de la p´gina 104 del
libro. a 7. Veriï¬que, para el caso 2×2, el
producto AB usando las operaciones de Strassen. 8. Determine el valor
m´s grande de m para el cual el m´todo tradicional a e
de multiplicaci´n es m´s eï¬ciente que el m´todo de
Strassen. o a e 9. Determine el n´mero de particiones
que se pueden deï¬nir sobre las u matrices que se
presentan a continuaci´n de tal manera que las matrices o resulten diagonales por
bloques:     5 2 0 0 1 −1 0 0 0 0 0 0 0 0 ï£s ï£s A= B
= 0 0 1 −1 0 0  . £°0
0 1 −1 , 0 0 0 0 1 −1 0 0 2 1
−1
6 10. Probar que vec(·) es un operador lineal.
11. Veriï¬car que multiplicar mediante las operaciones
de Strassen es lo mismo que hacerlo de la manera convencional.
Cap´ A±tulo 2
2.1.
Los operadores vec y vech y el producto de Kronecker.
Deï¬nici´n
2. Si A = (aij ) es una matriz de tama˜o m×n,
deï¬nimos los o n vectores Ai· y A·j mediantelas
igualdades:     ai1 a1j  . £s  . £s Ai· =  . £» y A·j =  . £». . . ain amj As´ la matriz A puede ser escrita como: A±,   AT 1·
 . £s A =  . £» o A =
A·1 · · · . AT m·
A·n .
Deï¬nici´n
3. El operador vec(·) : Mm×n (R) Rmn est´ deï¬nido por la o a siguiente igualdad:   A·1  . £s vec(A) =  . £». . A·n Ejemplo 3. Sea A = a11 a12 .
Entonces, a21 a22   a11 a21 ï£s vec(A) = 
ï£s a12  a22
. 7
8 Ejercicio 1. 1. Sean A y B matrices. Probar que AB = [AB· . . . AB·n ]. De aqu´ (AB j =
AB·j A± 2. Probar que (AB)i,j = AT B·j i·
2.
(2.1
Deï¬nici´n 4. Sean A = (aij )n×n
y a = (aii , ai(i+1) , . . . , ain )T . Entonces:
o i   a 1 .ï£s . £». vech(A) =  . a n Nota. Observe que
si A es una matriz sim´trica o antisim´trica, A puede e e reconstruirse a
partir del
vector vech(A).
2.2
El producto de Kronecker.
El producto de Kronecker tambi´n es llamado producto directo
o proe ducto tensorial. Esta nueva operaci´n matricial es muy util para
expresar o ´ ecuaciones matriciales como sistemas de ecuaciones
lineales. Deï¬nici´n
5. Consideremos las matrices A = o producto de Kronecker de A y B es la
matriz:  a11 B a12 B · · ·  a21 B a22 B · · ·  A B =  . . . . .  . .. . am1 B am2 B · · · Nota. 1. Observe que la matriz A genera
una partici´n en bloques sobre la matriz o A B. Llamaremos a la
submatriz aij B, bloque i, j de A B generado por A y lo
denotaremos mediante (A B)ij
. 2. La matriz A B es una matriz de tama˜o (mr)×(ns).
n 3. En general, A B=B A. (aij )m×n y B = (bij )r×s . El  a1n
B a2n B ï£s ï£s . £s. . £» . amn B
2.3. PROPIEDADES Y REGLAS DEL PRODUCTO DE KRONECKER.9
2.3.
Propiedades y reglas del producto de Kronecker.
Proposici´n 1. o 1. A B) = (αA) B = A (αB), para todo
escalar α. 2. (A + B) C = A C + B C. 3. A B + C) = A B + A C. 4. A B C) = (A B) C. 5. 0mn = 0m 0n
.
6. Imn = Im In . 7. (A B)T = AT B T . 8. (A B)(C D) = AC BD, si A y C y B y D son compatibles, respectivamente, para el
producto. 9. Si A y B son matrices cuadradas inversibles entonces:
(A B)−1 = A−1 B −1 .
10. vec(AY B) = (B T A)vec(Y ), si A es
una matriz m×n, Y es una matriz de tama˜o n×r y B es una matriz de tama˜o r×s.
n n Demostraci´n. (1), (2) y (3) se dejan como ejercicio. Para probar (4), o
consideremos que A, B y C son matrices de tama˜os m×n, p×q, y r×s, resn
10
2.
pectivamente. Las matrices en la
igualdad tienen tama˜o mpr×nqs. Ahora,n
 a11 B · · · a1n B  . . . ï£s C . . £» (A B) C =  . . . . am1 B · · · amn B 
   a11 b11 · · · a11 b1q a1n b11 · · · a1n b1q  . . .  ···
 . . . ï£s . . £¸ . . £¸ï£s
ï£¯ï£ . £ . . . . . . .  ï£s  a11 bp1 · · ·
a11 bpq a1n bp1 · · · a1n bpq ï£s ï£s  ï£s  . . . . . . = ï£s C . . £«  . £« ï£s   am1 b11 · · · am1 b1q amn b11 · · · amn
b1q ï£s  ï£s . . £· ···  . . . ï£s  .
. . . £¸ . . .  ï£ . £°ï£
. . . . . am1 bp1 · · · am1 bpq amn bp1 · · · amn bpq     
b11 C · · · b1q C b11 C · · · b1q C   . . .  ··· a  . . . ï£s .
. £¸ . . £¸ï£s  a11 ï£
. 1n ï£ . . . . . . .  ï£s  bp1 C · · · bpq C bp1 C · · · bpq C ï£s 
ï£s  ï£s . . . . . . = ï£s . . .    ï£s   b11 C · · ·
b1q C b11 C · · · b1q C ï£s  ï£s £· ··· a  . . . ï£s a  . . .  . . £¸ï£» mn ï£ . £° m1 ï£ . . . .
. . . bp1 C · · · bpq C bp1 C · · · bpq C   a11 B C · · · a1n B C  ï£s . . . . . .
=  . . . am1 B C · · · amn B C = A B C).
£®
Las anteriores igualdades se justiï¬can v´ la deï¬nici´n de . A±a o Para probar
(8), primero calculamos el bloque ij del lado izquierdo de la igualdad.
Para esto, usemos el producto de matrices expresado mediante el
2.4. LA SUMA DE KRONECKER. producto de bloques:
((A B)(C D))ij = (A B)T (C D).j i.  c1j D 
c2j D ï£s  ï£sain B  . £s . £»
 . cnj D
n
11

= ai1 B ai2 B · · ·
=
k=1
aik ckj
BD
= (AC)ij BD = (AC BD)ij . De aqu´ se sigue (8). A± (9) es
consecuencia directa de (8). Para probar (10), consideremos el c´lculo
de la columna j-´sima de AY B como se muestra a continuaci´n: a e o (AY B)·j =
(AY )B·j  = (AY )·1 (AY )·2 · · ·
n
(AY )·n
 b1j  b2j ï£s  ï£s  . £s  . £» . bnj
=
k=1 n
bkj (AY ).k (bkj A)Y.k
k=1
=
= b1j A b2j A · · ·
 Y·1  Y·2 ï£s  ï£s bnj A  . £s  . £» . Y·n

T = (B.j A)vec(Y ).
De aqu´ (10) se satisface. A±
2.4.
La suma de Kronecker.
Deï¬nici´n
6. Sean A una matriz de tama˜o n×n y B una matriz de tama˜o o n n m×m.
La suma de Kronecker de A y B se deï¬ne como la matriz:
12 A B = A Im + In B.
2.4.1.
Aplicaciones: soluci´n de sistemas de ecuaciones o usando el producto de
Kronecker.
Problema 1. La soluci´n del sistema matricial: o AX +
XB = C, (2.2)
donde A es n×n, B es m×m y X y C son n×m es equivalente a resolver el sistema
lineal: (Im A + B T In )vec(X) = vec(C).
(2.3) Demostraci´n. Podemos escribir: o AXIm + In XB = C. Aplicando el operador
vec(·) a ambos lados de la igualdad se obtiene:
vec(AXIm + In XB) =vec(C), que es equivalente a: vec(AXIm ) + vec(In XB) =
vec(C). Por la propiedad (10), podemos escribir la ecuaci´n anterior como: o (Im A)vec(X) + (B T In )vec(X) = vec(C). De donde (2.3) se sigue.
Problema 2. Encontrar un
problema equivalente al sistema matricial: AX − XA = µX, donde µ es un
escalar y resolver el sistema. Ejercicios 2. 1.
Denotemos mediante e1 , . . . , en los vectores
can´nicos de Rn . Muestre o que: A·j = Aej Ai· = AT ei ,
AT = eT AT . AT = eT A. ·j j i· i 2. Calcular vec(·) para cada una de los siguientes matrices: (2.8) (2.7)
(2.6) (2.5) (2.4)
2.4. LA SUMA DE KRONECKER. a) A = 1 0 − b) B = −1   2 −1
c) C = 0 1 . Pruebe que si A, B Mn (R) entonces T r(AB) = (vec(AT ))T vec(B). 4. Calcule vech(·)
para la matriz:   1 0 −1 A = 2 1 3 . Determine la matriz sim´trica A tal que: e vech(A)
= 1 0 −1 2 1 −1 2 1 2 3 . 6. Calcule el producto de Kronecker para
los siguientes pares de matrices: a) A = b) A = b b a11 a12 ,
B = 11 12 . b21 b22 a21 a22 2 1 −1 ,B= . 3 2 0
T
7. Denotemos por la base can´nica para el espacio de o matrices Mn (R); es decir, Eij es la
matriz que tiene en su entrada i, j el valor 1y sobre las otras entradas el
valor cero. Si n = 2 calcule la matriz
2
U=
i,j=1
Eij Eji .
8. Dadas las matrices: A= 2 0 1 B= −1 1 , 2
0
hallar matrices U1 y U2 tales que:
14 A B = U1 (B A)U2 .
9. Si los valores propios de A son con vectores
propios y los valores propios de B son
con vectores propios , probar que los valores propios de A B son
con vectores propios . 10. Si: A= calcular A B. 11. Probar que los
valores propios de A B son con
vectores propios . 12. Probar que usando el ejercicio anterior que: (a)
det(A B) = det(A)m det(B)n
. (b) T r(A B) = T r(A)T r(B).
(c) rank(A B) = rank(A)rank(B).
13. Si: A= 1 − 0 2 B= −3 4 , 1 0 1 −1
, 0 2 B= 1 0 , 2 −1
calcule los valores propios y un conjunto de vectores propios de: a) A y B. b)
A B. c) A B. 14. Resolver el
sistema matricial: AX + XB = C, donde: a) A = b) A = 1 −1 −3 4 1 3 ,B= yC= . 0 2 1 0 −2 2 1 −1 −3 4 0 5 ,B= yC= . LA SUMA DE KRONECKER. c) A = 15. Si: A= 1 − 0 2 µ =2, 1 −1 −3 4 2 −2 ,B= yC= . 0 2 0 −1 10 −11
15
resolver el sistema matricial (2.8). 16. Si: A= 1 − 0 2 B= −3 4 , 1 0 C=
9 −6 2 , −6 12
resolver el sistema matricial: AX − XA = BX + XB + C. 17. Determine una
matriz X tal que:  1 1 U T XU =  −1 0 (2.9
 0 1 −1 1 −1 1 ï£s ï£s, 1 0 1 1 1 1
(2.10)
donde U es la misma matriz del
ejercicio (7). 18. Si: A= 1 − 2 0
determine los valores de µ, µ R, para los cuales el
sistema (2.8): a) tiene unica soluci´n. ´ o b) tiene inï¬nitas soluciones. c) no tiene soluci´n. o
16
2.
Cap´ A±tulo 3
3.1.
Matrices inversas laterales.
Breve repaso del
´lgebra lineal. Recordemos algunas deï¬niciones y
rea sultados del
algebra lineal relativos a matrices no singulares (invertibles). ´ Deï¬nici´n 7. El rango de
una matriz A es el m´ximo n´mero de ï¬las lio a u nealmente independientes (l.i.). Proposici´n 2. El n´mero de ï¬las l.i. de una matriz es igual al n´mero de o u u
columnas l.i. de la matriz. Deï¬nici´n 8. Una matriz A Mn (R) es inversible (no singular), si existe o una matriz B Mn (R) tal que AB = BA = In . En este
caso, denotamos la inversa de A por A− Dentro
de los m´todos que hay para determinar matricesinversas tenee mos: 1. El m´todo
de la matriz aumentada, el cual resumimos a continuaci´n: e o PASO 1 Dada A = (aij )n×n no singular formar la matriz aumentada: A : In . (3.1) PASO 2 Llevar la matriz aumentada a la forma escalonada
reducida usando operaciones elementales entre ï¬las. El resultado ï¬nal
de este proceso es una matriz de la forma: In : B . 2.
El m´todo
de menores y cofactores; es decir, e ACof (A)T =
det(A)In , 17 (3.3) (3.2)
18 de aqu´ A±, A−1 = donde:  A11 · · · A1n  . . £s.
. £» Cof (A) =  . . . An1 · · · Ann  1 Cof
(A)T , det(A)
3.
(3.4
Aij = (−1)i+j |Mij | y Mij es la matriz de tama˜o (n − 1)×(n −
1) que n resulta de eliminar la ï¬la i y la columna j de A. El
determinante |Mij | se denomina el menor ij de A y el valor Aij se denomina el
cofactor de la entrada aij de A o menor signado. Observaci´n
1. Las siguientes son condiciones necesarias y suï¬cientes para o que una matriz A = (aij )n×n tenga inversa: 1.
Las ï¬las de A son l.i.. 2. Las columnas de A son
l.i.. 3. rank(A) = n. 4. El
sistema homogeneo Ax = 0 tiene una unica soluci´n. ´ o 5. det(A) = 0.
6. Los valores propios de A son no nulos. 7. Las ï¬las o columnas de A forman una base para Rn .
3.1.1.Inversas a derecha e inversas a izquierda.
Deï¬nici´n
9. Consideremos una matriz A = (aij )m×n . o 1. Diremos que una matriz R de tama˜o n×m es una inversa a
derecha n de A, si: AR = Im . Diremos que una matriz L de tama˜o m×n es una inversa a izn quierda
de A, si: LA = In . MATRICES INVERSAS LATERALES.
19
Ejemplo 4. Determinar, en caso de que exista, una inversa a derecha de
la matriz: A= 1 2 3 2 1
Observemos que si A tiene inversa a derecha existe una matriz:   r1 r4 R
= r2 r5 , r3 r6 tal que AR = I2 . Por la
propiedad (10) del producto de Kronecker del cap´ A±tulo 2 tenemos que este
sistema matricial tiene soluci´n, si y s´lo si, el sistema: o o (I2 A)vec(R) = vec(I2 ) tiene soluci´n. Es decir, si el sistema: o
 1 3  0 0 2 2 0 0 4 1 0 0 0 0 1 3 0 0 2 2  0 0ï£s ï£s 4 1 
 r1   r2 ï£s 1  ï£s r3 ï£s 0ï£s  ï£s= ï£s r4 ï£s
0  ï£s r5  1 r6
tiene soluci´n. Para solucionar este o  1 2 4 3 2 1  0 0 0 0 0 0
sistema, usemos la matriz aumentada:  0 0 0 : 1 0 0 0 : 0ï£s ï£s. 1 2 4 : 0 3 2 1 : 1
Con el objetivo de llevar la matriz a la forma escalonada reducida, realizamos
primero las siguientes operaciones sobre las ï¬las: F2 − 3F1 y F4 −
3F3 (Fi , 1 ≤ i ≤ mrepresenta la i-´sima ï¬la de A). De aqu´ obtenemos: e A±,   1 2 4 0 0 0 : 1 0 −4 −11 0 0 0 : −3ï£s ï£s. 
0 0 0 1 2 0 0 0 0 0 −4 −11 : 1
1 1 Al efectuar − 4 F2 y − 4 F4 se obtiene:  1 2 4 0 0 1 11 0
4  0 0 0 1 0 0 0 0
0 0 2 1
0 0 4
11 4
 : 1 : 3 ï£s 4 ï£s. : 0 ï£ −1 4
20 Finalmente, efectuamos F1 − 2F2  1 0 −3 2 0 1 11 4 
0 0 0 0 0 0 y F2 − 2F4 para obtener:  0 0 0 : −1 2 0 0 0 : 3
ï£s 4 ï£s. 3 1 0 − 1  2 11 0 1 4 : −1
4
3.
Observemos que tenemos 4 variables dependientes y dos
variables libres. As´ A±, la soluci´n general del sistema podemos
expresarla como: o
1 − 2 + 3 r3 , 3 − 2 4 11 r ,r , 1 4 3 3 2 1 + 3 r6 , − 4 −
2 11 r ,r 4 6 6
.
En consecuencia, podemos expresar cualquier inversa a derecha de A como:  1
3   1 1   3    1 − 2 + 2 r3 + 3 r6 0 −2 2 0 3
2 2 2 2  3 − 11 r3 − 1 − 11 r6  =  3 − 1  +
− 11 0 r3 + 0 − 11  r6 . 4 4 4 4 4 4
4 4 0 0 0 1 r3 r6 1 0 Observemos que el espacio aï¬n de las inversas a derecha de A tiene dimensi´n o 2.
Tomando r3 = r6 = 0 obtenemos la matriz:  1 1  −2 2  3 − 1
.
Algunos resultados sobre el rango de una matriz.
F il(A) = A1· , A2· , . . . , Am· (3.7)
Si A = (aij )m×n es una matriz,su espacio ï¬la
corresponde al conjunto:
y su espacio columna es el conjunto dado por: Col(A) = A·1 , A·2 , . . . , A·n
. (3.8
Es claro de la deï¬nici´n que F il(A) es un
subespacio de Rn y Col(A) es un o m subespacio R . Denotaremos con la relaci´n ”ser subespacio de”. o Deï¬nici´n 10. El rango ï¬la de una matriz A
es el valor dado por la o igualdad: rankF il(A) := dim(F il(A)) (3.9) y el
rango columna es el valor dado por: rankCol(A) := dim(Col(A)). (3.10)
3.2. ALGUNOS RESULTADOS SOBRE EL RANGO DE UNA
MATRIZ.21 A continuaci´n probaremos que para cualquier matriz, sus rangos ï¬la y o columna coinciden. Necesitaremos algunos resultados previos con el ï¬n de probar
esta aï¬rmaci´n.
o Proposici´n 3. Sea A una matriz no nula de tama˜o m×n con rango ï¬la o n igual a r y rango columna igual a c. Entonces, existe una
matriz B de tama˜o
n m×c y una matriz L de tama˜o c×n tales que: n A = BL. (3.11)
De manera similiar, existe una matriz K de tama˜o m×r y una matriz T n de
tama˜o r×n tal que: n A = KT. (3.12) Demostraci´n. Puesto que rankCol(A) = c,
existen c vectores (columna) o B·1 , . . . , B·c Col(A) tales que
Col(A) = B·1 , . . . , B·c . En consecuencia, para cada 1 ≤ j ≤ n
existen l1j , l2j , . .. , lcj R tales que: A·j = l1j B·1 + l2j B·2 + . . . + lcj B·c  
l1j l2j ï£s  ï£s = B ï£ £s.
£°. . lcj As´ si hacemos
para cada 1 ≤ j ≤ n, A±,   l1j l2j ï£s  ï£s L·j =  .
£s . . lcj entonces la
igualdad (3.11) se satisface tomando: L = L·1 L·2 · · · L·n .
La existencia de las matrices K y T que satisfacen (3.12), se obtiene aplicando
el mismo razonamiento a la matriz AT . Proposici´n 4. Si A, B y C son matrices tales que A = BC
entonces: o Col(A) Col(B) y F il(A) F il(C). (3.14)
(3.13)
22 Demostraci´n. N´tese que, para cada 1 ≤ j ≤ n, o o A·j = BC·j
3.
de aqu´ concluimos (3.13). Por otro lado, AT = C T B T . Luego para cada A± 1 ≤ i ≤ m: Ai· = C T Bi De aqu´ concluimos (3.14). A± Proposici´n 5. Para toda
matriz A de tama˜o m×n: o n rankF il(A) = rankCol(A).
(3.15
Demostraci´n. Por la proposici´n (3), existen matrices K y L que sao o tisfacen
las igualdades (3.11) y (3.12). Ahora, hagamos r = rankF il(A)
y c = rankCol(A). De aqu´ y (3.13) tomando B = K obtenemos: A± c ≤ dim(Col(K)) ≤ r y por (3.13) (tomando C = L)
obtenemos: r ≤ dim(F il(L)) ≤ c. Se sigue que r = c y esto es
precisamente lo que se quer´ probar. A±a La anterior proposici´n nos permite
deï¬nir el rango de unamatriz como
o el n´mero
de ï¬las l.i. o como el n´mero de columnas l.i. Denotaremos por u u rank(A), el rango de la matriz A. Lema 1. Una matriz A de tama˜o m×n: n 1. Tiene inversa a derecha, si y s´lo si,
rank(A) = m; es decir, si el rango o de sus ï¬las es completo. 2. Tiene inversa a izquierda, si y s´lo si, rank(A) = n; es decir, si el o rango de sus columnas es
completo. Demostraci´n. Supongamos que A tiene una
inversa a derecha. Entonces, o existe una matriz R de tama˜o n×m tal que: n AR
= Im . Luego Col(Im ) Col(A) y de aqu´ m ≤
rank(A) ≤ m. Por lo tanto, A± rank(A) = m. Observe que la aï¬rmaci´n rec´ o A±proca es directa, ya que si A es de rango ï¬la completo entonces A tiene exactamente m columnas l.i. y, en
consecuencia, Col(Im ) Col(A). Luego existe una matriz R de tama˜o n n×m tal que:
(3.17) (3.16
´ 3.3. MULTIPLICACION POR MATRICES DE RANGO COMPLETO. 23 AR = Im . De manera similar se prueba (2).
En consecuencia, podemos deducir los siguientes resultados.
Corolario 1. Si una matriz tiene inversa a derecha e
izquierda entonces ella es cuadrada y sus inversas
laterales coinciden. Corolario 2. Una
matriz tiene inversas a derecha e izquierda, si y s´lo si, o es no singular.
3.3.Multiplicaci´n por matrices de rango como pleto.
Lema 2. Sean A una matriz de tama˜o m×n y B una matriz
de tama˜o n n n×p. Si A es una matriz de rango columna completo entonces: F il(AB) = F il(B) y rank(AB) = rank(B).
Similarmente, si B es una matriz de rango ï¬la completo
entonces: Col AB) = Col(A) y rank(AB) = rank(A).
Demostraci´n. Supongamos que A es una matriz de rango
columna como
pleto. Entonces, existe una matriz L de tama˜o n×m tal que LA = In . As´ n A±, por (??) en la Proposici´n (4), tenemos que:
o F il(B) = F il(AB) Luego: dim(F il(B)) ≤ dim(F il(AB)) ≤ dim(F
il(B)). Concluimos que rank(AB) = rank(B). De manera
similar se prueba la segunda parte del lema. Corolario
3. Si A es una matriz tama˜o n×n no singular entonces para n cualquier
matriz B de tama˜o n×p: n F il(AB) = F il(B) y
rank(AB) = rank(B). F il(AB) F il(B).
Similarmente, si B es una matriz no singular de tama˜o n×n entonces para n
cualquier matriz A de tama˜o n×n: n Col(AB) = Col(A) y
rank(AB) = rank(A).
24
3.
3.4
Matrices ortogonales.
Deï¬nici´n
11. Diremos que una matriz cuadrada Q con entradas reales es o una
matriz ortogonal, si: QQT = QT Q = I. Ejemplo 5. Las siguientes matrices son
ortogonales . In . 2. 3.
1 √ 2
(3.18)
1 −1 1
cos θ sin − sin θ cos θ
Proposici´n 6. Sea Q una matriz de tama˜o n×n. Las siguientes aï¬rmao n ciones son equivalentes: 1. Q es ortogonal. 2. Q−1 = QT . 3. Las ï¬las de Q conforman
una base ortonormal para Rn . 4. Las columnas de Q
conforman una base ortonormal para Rn . 5. Q preserva
la norma en Rn . 6. Q preserva el producto interior
usual en Rn .
3.4.1
Propiedades de las matrices ortogonales.
Proposici´n 7. o 1. det(Q) = ±1. 2. Los valores propios de Q son n´meros
complejos sobre la circunferencia u unitaria.
Q F = n. 4. QA F = A , para toda matriz A de tama˜o
m×n y para toda matriz n ortogonal Q de tama˜o m×m. n 5. BQ F = B , para toda matriz B de tama˜o n×m y para toda matriz n
ortogonal Q de tama˜o m×m. n
3.5. MATRICES HELMERT.
25
3.5.
Matrices Helmert.
Sea aT = a1 · · · an un vector columna tal que ai = 0, 1 ≤ i ≤ n.
Se quiere calcular una matriz ortogonal P de tal manera que una de sus columnas
sea proporcional a aT . Mostraremos
a continuaci´n c´mo P o o T T puede ser calculada. Denotemos mediante p1 , . . . , pn las ï¬las de P y
tomemos T la primera ï¬la pT igual a aT . Luego se toma la segunda ï¬la pT como la2 1 a normalizaci´n del vector: o a1
−a2 1 a2
0
La columna pT se toma proporcional al vector 1: 3 a1 a2
a2 +a2 ) 1 2 a3
0 0 .
En forma general, tomamos pT , para k ≥ 2, igual
a la normalizaci´n del
o k vector: a1 a2 . . . ak−1 − a1k
k−1 i=1
a2 0 . . . 0 . i
(3.19)
La colecci´n de vectores es una colecci´n ortonormal. Para
como o 1 n probar esto tomemos 1 ≤ r + 1 < s ≤ n y efectuemos:
r−1
pT , pT r s
r−1
=
i=1
a2 i
− ar
r=1
a2 i
ar
= 0.
Ahora, si s = r es claro que pT , pT = 1. r r
3.6.
Matrices de permutaci´n. o
Deï¬nici´n 12. Una matriz de permutaci´n es una matriz cuyas columnas o o se
obtienen permutando las columnas de la matriz id´ntica. e Ejemplo 6. Las    1 0 0 1 0 1 0, 0 0 0 1
0 matrices de   0 0 0 , 0 0 1 1 0 1 permutaci´n de orden 3 son las
siguientes: o        1 0 0 0 1 0 1 0 0 0 1 0 1, 0 1
0, 1 0 0 y 1 0 0. 0 0 1 0 0 0 0 1 0 1 0
Nota. Observe que el n´mero de matrices de permutaci´n de tama˜o n es u
o n n
26
3.
3.6.1
Efecto de multiplicar a izquierda y derecha por una matriz de permutaci´n. o
Al multiplicar una matriz de permutaci´n por unvector columna, se o efectua una
permutaci´n de las entradas del
vector. De igual manera, si o multiplicamos una matriz a
izquierda por una matriz de permutaci´n el reo sultado corresponde a efectuar
una permutaci´n de las ï¬las de la matriz; si
o la multiplicaci´n se efect´a a derecha el resultado corresponde a efectuar una o
u permutaci´n de las columnas de la matriz. o
Observemos el siguiente ejemplo: Ejemplo  1 0 1.
    0 0 a11 a12 a13 a11 a12 a13 0 1 a21 a22 a23  =
a31 a32 a33 . 1 0 a31 a32 a33 a21 a22 a23
     a11 a12 a13 1 0 0 a11 a13 a12 2. a21 a22 a23
 0 0 1 = a21 a23 a22 . a31 a32 a33 0 1 0 a31
a33 a32   1 0 0 3. 0 0 1 0 1 0     a11 a13
a12 1 0 0 a11 a12 a13 a21 a22 a23  0 0 1 = a31 a33 a32 . a21 a23 a22 0 1 0 a31 a32 a33 
3.7.
Inversas de matrices triangulares por bloques.
£®  A11 A12 · · · A1n  0 A22 · · · A2n ï£s 
ï£s Proposici´n 8. Si ï£ o .
. £s entonces .. . . . £»
 . . . . 0 · · · 0 Ann det(D) = det(A11 ) det(A22 )
· · · det(Ann ). (3.20
Demostraci´n. Probaremos la aï¬rmaci´n por inducci´n
sobre n. Para el o o o caso n = 2,
consideremos la matriz por bloques: D= A11 A12 . 0 A22
3.8. RANGO DE MATRICES DEFINIDAS POR BLOQUES.Probaremos que: det(D) = det(A11 ) det(A22 ).
27
(3.21
Observemos primero que si A11 o A22 son matrices singulares entonces sus ï¬las y sus columnas son l.i. y, en consecuencia, D, por ser
triangular por bloques, tambi´n tendr´ ï¬las o
columnas l.i.. De aqu´ se sigue la igualdad e a A± (3.21), ya
que ambos lados se anulan. Supongamos ahora que A11 y A22 son
no singulares. Observemos que: A11 0
1 A A−1 2 12 22
I
I 0
1 −1 A A 2 11 12
A22
=
A11 A12 . 0 A22
De esta ultima igualdad se sigue (3.21). Supongamos
que la aï¬rmaci´n se ´ o
tiene para toda matriz con (n − 1) bloques, n ≥ 2.
Observemos entonces que D se puede escribir en la forma: D= A11 A12 , 0 Ann
donde A11 es una matriz triangular superior por bloques, con (n − 1)
bloques sobre la diagonal. Aplicando aqu´ el caso 2×2, tenemos que: A± det(D) = det(A11 ) det(Ann ) y aplicando la hip´tesis de
inducci´n obtenemos (3.20). o o Corolario 4. Una matriz triangular por bloques particionada en forma sim´trie ca
es no singular, si y s´lo si, sus bloques diagonales son no singulares. o
3.8.
Rango de matrices deï¬nidas
por bloques.
A 0 entonces: 0 B (3.22) A son l.i. 0
Proposici´n 9. Si D = o
rank(D) = rank(A) +rank(B). Demostraci´n.
Basta observar que las columnas de la matriz o de las columnas de la matriz satisface.
Proposici´n 10. Si D = o
0 y, en consecuencia, la igualdad (3.22) se B
A C , donde A es una matriz m×n, B es una 0 B matriz r×s, C es m×s y A o B son
de rango completo entonces: rank(D) = rank(A) + rank(B). (3.23)
28
3.
Demostraci´n. Supongamos que A es de rango completo.
En consecueno cia, rank(A) = m´ A±n. Sin perdida
de generalidad, supongamos que rank(A) = m. Entonces por el lema (1) (veriï¬car esto negA)* tiene una inversa a derecha de tama˜o n×m, que
denotaremos por R. Observemos n entonces que: A C 0 B Puesto que la matriz: In −RC
, 0 Is es una matriz no singular y por lo tanto de rango completo, por el lema
(2) y la proposici´n (9) tenemos que: o rank(D) = rank(A) + rank(B). (3.24) In −RC
A 0 0 Is 0 B
De manera similar podemos probar el resultado, si B es una matriz de rango
completo. Nota. Observe que la condici´n ser rango
completo para al menos una de o las matrices A o B, es
necesaria. Pues en el caso en el que A y B fuesen matrices
nulas la igualdad (3.24) no se cumple, si C es una matriz no nula. Aplicando inducci´n, se obtiene el siguienteresultado. o   A11 A12 · · · A1n  0 A22 · · · A2n ï£s  ï£s
Corolario 5. Si D =  . . . ï£s y las matrices Aii son (todas £»  . . . . 0 · · ·
0 Ann de rango completo entonces: rank(D) = rank(A11 )
+ · · · + rank(Ann ). El siguiente resultado lo usaremos en
el cap´ A±tulo 4 y se reï¬ere
al rango de matrices particionadas en dos ï¬las y dos columnas de submatrices. Proposici´n 11. Sea T una matriz m×m, U una matriz m×q, V una
matriz o n×m y W una matriz n×q. Entonces: rank T V U U T V = rank = rank W W V
T W W V = rank . U U T
Si, adem´s, rank(T ) = m; es decir, si T es no
singular entonces: a
3.8. RANGO DE MATRICES DEFINIDAS POR BLOQUES. rank T V U m + rank(W − V T −1 U ). W
29
Demostraci´n. Para probar la primera parte de la proposici´n, observemos o o
que los conjuntos conformados por las columnas de las matrices: T V U W y U T W
V
coinciden y, en consecuencia, los rangos de estas matrices coinciden. El mismo
argumento es v´lido para las matrices: a V T W U y W V .
U T
Por otro lado, observemos que los conjuntos conformados por las ï¬las de las matrices: T V U W y V T W U
coinciden. Por lo tanto, los rangos de estas matrices
coinciden. El mismo argumento es v´lido para las matrices: aU T W V y W V . U T
De lo anterior se concluye la primera parte de la proposici´n. Para probar la o segunda parte, observemos que: Im 0 −1
−V T In T V U T U W 0 W − V T −1
U
dado que la primer matriz en este producto es rango completo. Deducimos de aqu´
por la proposici´n (10), que: A±, o rank Ejercicios 3. 1. Determinar, en caso
de que existan, las inversas a derecha e izquierda de la matriz: B= 1 −1 0 2 1 T V U = m + rank(W −
V T −1 U ). W
2. Calcular el rango ï¬la y el rango
columna de las siguientes matrices
30 1 −1 a) A = −1 3 2 1  1 1 2 1 1 1 b) B = 1 1 1  1 −1
−1 3 c) C = 2 1 3. £®  2 1 1 1 . 1 4
3.
¹ 2 1 2 1 1 3. −1 −1
4    1  1 2 √ 1 a) Considere los vectores √3 1 y
2  0 . Construya una matriz 1 −1 2 ortogonal Q tal que dos de sus columnas sean los vectores dados. £®  1 2. Veriï¬que que Qu = u , donde Q b) Considere el vector u = 3 es la matriz calculada en el
literal anterior.
T
4. Encontrar la matriz Helmert, si aT = 1 1 1
5. Realizar por lo menos dos ejercicios del cap´ A±tulo 8. 6. Probar que
todas las matrices ortogonales de orden 2×2 son de la forma: cosθ
sinθ −sinθ cosθ o ´ cosθ sinθ .
sinθ −cosθ