120 84 15MB
Spanish Pages [538] Year 2019
¡,
Alberto Borobia Vizmanos Beatriz Estrada López
;4~~~ '
\
~·
,
Algebra Lineal y Geometría Vectorial
f(u)
,
Algebra Lineal y Geometría Vectorial
,
Algebra Lineal y Geometría Vectorial
Alberto Borobia Vizmanos Beatriz Estrada López Departamento de Matemáticas Fundamentales Facultad de Ciencias Universidad Nacional de Educación a Distancia
sanz y torres
ÁLGEBRA LINEAL Y GEOMETRÍA VECTORIAL
El editor no se hace responsable de las opiniones recogidas, comentarios y manifestaciones vertidas por las autores. La presente obra recoge exclusivamente la opinión de su autor como manifestación de su derecho de libertad de expresión. La Editorial se opone expresamente a que cualquiera de las páginas de esta obra o partes de ella sean utilizadas para la realización de resúmenes de prensa. Cualquier forma de reproducción, distribución, comunicación pública o transformación de esta obra solo puede ser realizada con la autorización de sus titulares. salvo excepción prevista por la ley. Diríjase a CEDRO (Centro Español de Derechos Reprográficos) si necesita fotocopiar o escanear algún fragmento de esta obra. Por tanto, este libro no podrá ser reproducido total o parcialmente, ni transmitirse por procedimientos electrónicos. mecánicos, magnéticos o por sistemas de almacenamiento y recuperación informáticos o cualquier otro medio, quedando prohibidos su préstamo. alquiler o cualquier otra forma de cesión de uso del ejemplar, sin el permiso previo, por escrito, del titular o titulares del copyright. © Alberto Borobia Vizmanos y Beatriz Estrada López © EDITORIAL SANZYTORRES, S. L.
Vereda de los Barros, 17 Pol. Ind. Ventorro del Cano- 28925 Alcorcón (Madrid) '1§' 902 400 416- 91 323 71 10 www.sanzytorres.com [email protected] www.editorialsanzytorres.com edi torial@sanzytorres. com ISBN: 978-84-17765-04-0 Depósito legal: M-27178-2019 Portada: Javier Rojo Abuín Composición: Autores Impresión: Medianil Gráfico, S. L., el Edison, 23, Pol. Ind. San Marcos, 28906 Getafe (Madrid) Encuadernación: Felipe Méndez, S. A., el Del Carbón, 6 y 8, Pol. Ind. San José deValderas 2, 28918 Leganés (Madrid)
A Rosana A mis padres
Prólogo de la primera edición Los temas desarrollados en el libro se han ajustado para cubrir el temario de un curso anual de Álgebra Lineal del Grado en Matemáticas de la Facultad de Ciencias de la UNED, repartido en dos asignaturas cuatrimestrales: Álgebra Lineal I (Capítulos 1 al 4) y Álgebra Lineal II (Capítulos 5 al 9). La experiencia docente en estas asignaturas sugiere la utilización de un texto único que maneje la misma notación y tenga una presentación de resultados adecuada para la enseñanza a distancia. Hay gran cantidad de libros que se ajustan al temario que se presenta en los Capítulos 1 al 4, cuyos contenidos son los propios de las asignaturas de Álgebra Lineal de las distintas Facultades de Ciencias e Ingenierías. No así en lo referente a los Capítulos 5 y 6, que no estaban entre los estándares de los contenidos de Álgebra Lineal impartidos en primeros cursos de Liceuciaturas. El libro está específicamente elaborado para estudiautes de primer curso de la UNED, que estudian la mayor parte del tiempo sin tener contacto cou un profesor. Se ha procurado iucluir todo tipo de explicaciones y ejemplos sencillos que faciliten la c.omprensión de los conceptos. Tamhi{~n se incluyen un buen número de ejercicios propuestos en cada capítulo y todos ellos están resueltos al final. La metodología que se aconseja es la de intentar resolverlos 1mo mismo, con la experiencia de los ejemplos detalladamente resueltos que se han visto a lo largo del desarrollo de los temas, y sólo consultar las soluciones tras haber realizado un esfuerzo personal. Muchos de estos ejercicios (no todos) están extraídos de exámenes de aíl.os anteriores, por lo que suponen una buena referencia del nivel ele exigencia esperado. Entrando en materia, y simplificando en exceso, podríamos definir el Álgebra corno aquella disciplina dentro de las l\Iatemáticas que se dedica a la resolución de ecuaciones algebraicas: lineales, cuadráticas, cúbicas, con una o varias incógnitas ... Es mucho simplificar, sí, y se descubrirá enseguida el por qué. Pero sí es cierto que con el objetivo de la resolución de ecuaciones se han desarrollado las teorías algebraicas. El Álgebra Lineal se interesa por las ecuaciones lineales, que son ecuaciones con varias incógnitas y todas ellas de grado l. Y por resolver varias ecuaciones que tienen que cumplirse a la ve:~:, que son los sistemas lineales. El estudio de las propiedades que cumplen las soluciones de los sistemas lineales nos lleva de lo concreto a lo general: que es el estudio de los espacios vectoriales. Un espacio vectorial es una estructura algebraica abstracta cuyos ekmentos cumplen las mismas propiedades que cumplen las soluciones de los sistemas lirwales homoghwos. Podríamos decir que los espacios vectoriales son el medio ambiente en el que viven los objetos que estudia el Álgebra Lineal. V
VI
Las matrices juegan un papel central en el estudio de los espacios Yectoriales finitos y los sistemas lineales. De las matrices. que t ambit'n son elementos de m1 espacio Yectorial. nos Ymnos a servir en todos los capítulos para representar ele uua manera cómoda los sist
9J1B() sg( ci>). sg(f)
ve
(F.)
IHI GB
u l_
¡•
u~
O(V) 11
1\
¡'
[u. u. 1c] L(u.l')
Espacio vectorial de las aplicaciones lineales f : U --+ lr. Espacio vectorial de los endomorfismos del espacio n'ctorial 1·. Grupo general lineal formado por los automorfisrnos del espacio vectorial F. Grupo de matrices regulares de orden 11 con entradas en JK. Autovalor de una aplicacióu lineal. Polinomio característico del endomorfismo f. Poliuomio mínimo del cndomorfismo f. Subespacio propio asociado al autm·alor A. Subcspacio generalizado i-(~simo asociado al autovalor ,\. Subcspacio máximo asociado al autovalor A. Matriz de .Jordau y matriz ele .Jordan real. Espacio vectorial formado por las formas biliueales del espacio vectorial V. Forma cuadrática. l\Iatriz ele la forma cuadrática 'Í> respecto de la base B. Signatura de la forma cuadrática ci> y Higuatura de la forma bili1wal f. Subespacio conjugado del subespacio vectorial U. Espacio vectorial euclídeo. Producto escalar de loH vectores 11. por 1'. Norma del \Tctor 1'. Matriz de un producto escalar (o matriz de Gram) respecto de la base B. El vector u es ortogonal al vector u. Subespacio ortogonal al subespacio vectorial U Grupo ortogonal del espacio vectorial euclídeo V. Producto vectorial de Jo¡.; vectores 11 por 1' Producto mixto ele los vectores n. ¡• ,. w Ángulo entre los vectores u v 1'.
Índice general 1
l. Matrices 1.1. Operaciones col! matrices 1.2. l\INodo de Gauss . . . . . 1.3. El ra11go de una matriz . . 1.4. La inversa ck una matriz cuadrada 1.5. El determinante de una matriz cuadrada 1.6. Ejercicios propuestos
16 34 42
53 72
2. Sistemas lineales 2.1. Sistemas lineales equivalentes . . . . . . . 2.2. Discusión y resolución de sistemas lineales 2.:3. Factorización LU .. 2A. Ejercicios propuestos 3. Espacios vectoriales :3.1. Dependencia e independencia liucal :l.2. Sistemas generadores . . . . . . . . :3.:l. Bases . . . . . . . . . . . . . . . . :lA. Rango de un conjunto de vectores . 3.5. l\Iatriz de cambio de base . . . .. :Ui. Sulwspacios vectoriales . . . . . . . :3. 7. Ecuacioucs paramNricas e implícitas :3.8. lutersccc:ión y suma de sulwspacios vectoriales . :3.9. El espacio cociente mé>clulo \lll sulwspacio vectorial :UO. Ejercicios propuestos . . . . . . . . . . . . . . . . . 4. Aplicaciones lineales ·1.1. El núcleo y la imagen de una aplicación linPal !.2. Tipos de aplicaciones lineales . ,l.:l. 1\Iatriz de una aplicaciém lineal !A. Endormorfismos . . . . . 4.5. Proyecciones y simetrías cl.fi. El espacio dual . . . 1. 7. Ejercicios propuestos . . XI
75 78 81 9:3
97 99 104
109 112 120 125 128 1:34 lH 149 153 157
167 16!) 176 184 186
192 196
XII
ÍNDICE GEI\ERAL
5. Formas canónicas de endomorfismos 5 .1. Invariantes lineales . . . . . . . . . . 5.2. Autovalores y auto\·ectores. Endomorfismos cliagonalizables 5.3. Forma canónica de .Jordan 5.4. Forma de .Jordan Real 5.5. Ejercicios propuestos .
199
6. Subespacios invariantes 6.1. Rectas e hiperplanos invariantes . . . . . . 6.2. Descomposición ele subespacios im·ariantes . 6.3. Subespacios invariantes y polinomios 6.4. Ejercicios propuestos . . . . . .
243 245 251 258 268
7. Formas bilineales y cuadráticas 7.1. Introducción . . . . . . . . . . 7.2. .1\latri;.~ de una forma bilineal 7.3. Formas cuadráticas . . . . . . 7 .4. Diagonalización de formas bilineales simétricas y formas cuadráticas 7.5. Diagonalización por congruencia . . . . . . . . . . . . . . . . . . 7.6. Clasificación de formas bilineales simétricas y cuadráticas reales . 7. 7. Formas sesquilineales 7.8. Ejercicios propuestos ..
271 271
8. Espacio vectorial euclídeo 8.1. Producto escalar . . . . 8.2. .1\latriz ele un producto escalar . 8.3. Norma y ángulo . . . . . . . . . 8.4. Ortogonalidad. Bases ortogonales ~· ortonorrnales 8.5. Subespacios ortogonales. Proyección ortogonal . 8.6. Producto vectorial . . . . . . . . . . . . . . . . . 8.7. Diagonali2ación por semejanza ortogonal . . . . . 8.8. Autovalores y signatura ele una matriz simétrica real 8.9. Solución aproximada ele un sistema lineal incompatible. 8.1 O. Descomposiciones matriciales 8.11. Producto herrnítico . 8.12. Ejercicios propuestos
305 30.5
9. Isometrías vectoriales 9 .l. Definición y caracterizaciones 9.2. Clasificación de isometrí&'> .. 9.3. Isornctrías de un espacio euclídeo bidimensional 9.4. Isornetrías de un espacio euclídeo tridimensional 9.5. Teorema de Cartan-Dieudonné 9.6. Ejercicios propuestos . . . . . .
349
Soluciones de los ejercicios
375
199 200 211
231 240
275
279 283 291 294 299 302
308 310 313 318 324 329 333 335 :341
345 346 349 355 359
362 367
372
Capítulo 1
Matrices Las matrices son uno de los objetos matemáticos más destacados en el estudio del Álgebra Lineal, tanto por sus propiedades como por su versatilidad. En los siguientes capítulos veremos que las matrices se utiliimn para representar y manipular de forma cómoda otros objetos propios del Álgebra Lineal como sistemas lineales, conjuntos de vectores, aplicaciones lineales ... de manera que se pueden deducir propiedades ele éstos a partir del estudio matricial. Además. las matrices se pueden manipular e implementar de forma muy natural en los ordenadores, lo que permite resolver con ellas muchos problemas de índole algorítmico y computacional. En este capítulo presentaremos formalmente las matrices y estudiaremos sus propiedades más importantes. • Una matriz A de tamaño o de orden m x n es un conjunto de m· n escalares o elementos de un cuerpo IK 1 que están ordenados en m filas y n columnas de la forma
A=
a12
("u
a21
a22
a,~,¡
am2
"'n) a2n
a,:m
La entrada (i, _j) es el elemento de A que se encuentra en la fila 'Í y en la columna j, y lo denotamos por a1j o [A];1 . Podemos ver una matriz como una tabla que recoge información que depende ele dos índices. U na matriz se puede escribir de forma abreviada como A = ( Uij) con i = 1, ... , In y j = 1, ... , n o. cuando se sobreentienda su tamaño, simplemente A = (a; 1 ). La matriz
-1
:3 4
1 7 -1
tiene 3 filas y 4 columnas. y su entrada (2. 3) es rv23 1 A lo largo de todo el texto consideraremos que lK números complejos).
~2)
-3
= 7.
= IR (cuerpo de los números reales) o 1K = IC (cuerpo de los
1
Capítulo l. :\Iatrices
2
• 9J1 111 xn(IK) es el conjunto de las matrices de tamaüo 111 x 11 cuyas entradas son elementos ele JK. Una matriz fila es una matriz ele 9J1 1 x 11 (IK) ~' una matriz columna es una matriz de 9J1 111 x J(IK). Por ejemplo (:3 U na
matri~
-1
1
(!)
4) - t matriz tila.
de 9J1, x 11 (IK) está formada por
111
..,,.¡,¡, colunnm
---+
matrices filas o por
11
matrices columnas.
• U na matriz cuadrada es una matriz COll igual número ele filas que de columnas. U na matriz cuadrada que tiene 11 filas ~- n columnas es una matriz de orden 11. Al conjunto 9J1 11 x 11 (IK) lo denotamos de forma abreviada por 9Jt (IK). Por ejemplo 11
:3 A= ( ~¡ Una matriz de orden
11
-l+i
4i ) -2 -:3 + í
o G
se escribe ele fonua compacta como A
=
(o;J
J;'.J= 1.
• Sea A una matriz de orden n. La diagonal o diagonal principal de A está formada por las entradas (a 11 • a 22 ..... 0 1112 ). La traza de A es la suma ele los eh'nH'ntos de su diagonal, esto es, n
tr(A) ==
La¡¡ =
O¡¡
+ 1122 + · · · + !l
11 n
i=l
La subdiagonal de A está formada por las entradas (o 21 .a:J 2 . . . . ,a 11 . 11 _
1 ).
La superdiagonal de A está formada por las entradas (o 12 . an . .... u 11 -J. 11 ). La matriz -1 2 G
tiene diagonal (3. 2. - 7), subdiagonal (G, 6). supercliagonal (-l. -2)
~-
tr( A)
= 3 + 2 - 7 = -2.
• La matriz traspuesta de la matriz A E íJJL 111 x 11 (lK) es la matri;-; A 1 E 9J1 11 x 111 (lK) cuya entrada (i.j) 1 ('S igual a la entrada (j. i) de A. Es decir. [A];j = [A ]¡;. Por ejemplo.
¡ ~[ ;, 3
A= (1
-:3
1 ) A1
=
(
:3m2.))
-3 1
O 4 2
1
-1 ()
La tila i de A se com·ierte eu la col muna i de A 1 y la columna j de A se conYicrtc en la tila j de A. 1 • El tamaí'ío de A coincide con el tamaüo de A. 1 si y sólo si 111 = n. En ¡mrticular (A 1 ) 1 =A.
• U na matriz simétrica es una matriz cuadrada que coincide con su traspuesta. Esto es, A E 9Jl, (JK) es mm matriz simétrica si A 1 = A. Un ejemplo de matriz simNric:a es
(
~2
-2
[í
7
4
~
o
)
Una matriz antisimétrica es una matriz cuadrada que coincide con su matriz traspuesta cambiada de signo. Esto es, A E 9Jl 11 (JK) es una matriz antisim(~trica si A' = -A. Por ejemplo,
o (
-2
2
o
-G
-7
~
o
)
es una matriz antisimétrica. Observamos que las entradas situadas en la diagonal principal son iguales a O. Esta propiedad es válida para cualquier matriz antisimótrica, ¡,por quU • La matriz traspuesta conjugada de la matriz A E 9Jl 111 x, (CC) es la matriz A* E 9Jl, x m (CC) cuya entrada (i, .J) es el número complejo conjugado de la entrada (.i, i) de A, esto es, a;¡ = a.~;. (recordamos que o+ ib = o- bi). Por ejemplo,
A=
('
2 Gi
-:3- i 4+i -1
1 4 7
2 :3 -l+i
)
A'~
===>
1
2 4-i 4
2
:3
-t
+i
-:3
(
-Si -1 7 -1-i
)
Los tamaüos de A E 9:1lmxn(CC) y A* E 9:1lnxm(CC) coiuciden si y sólo si ·m= n. • Una matriz hermítica es una matriz cuadrada que coincide con su matriz traspuesta conjugada. Esto es, A E 9Jl, (CC) es una matriz hennítica si A* = A. Por ejemplo, la siguiente matriz es hermítica:
Observamos que los elementos de la diagonal principal son reales. Esta propiedad es válida para cualquier matriz henuítica, ¿por qu{~? • Una matriz triangular superior es una matriz de onleu n con todas las entrada situadas por debajo de su diagonal principal iguales a O. Y una matriz triangular inferior es una matriz de ordcu n con todas las entradas situadas por encima de su diagonal principal iguales a O. Seau 1
A= ( ~
7- 3i 1+i
o
~2) [í
4 y
B
=
(
{
o 2
()) o ' !)
la matriz A E 9n:1 (CC) es triangular superior y la matriz BE 9n:1 (1R) es triangular iuferior.
Capítulo l. :t\latriccs
4
• Una matriz diagonal es una matriz de orden n tal que toda entrada ele A situada fuera de su diagonal principal es igual a O. Denotaremos por cliag(d 1 •.... dn) a la matriz diagonal de orden n tal que las entradas situadas en su diagonal principal son d¡, .... dn. Por ejemplo
·.o
dtab(2,
_h
•
-
a. l. 6) -
2
()
o
-5
o o
0
( ()
o () o ()) ()
()
6
Toda matriz diagonal es triangular superior y triangular inferior. • La identidad de orden n. que denotamos por J,. es la matriz diagonal de orden n cm1 todas las entradas situadas en la diagonal principal iguales a l. Por ejemplo
]¡=(l).h=G
~). l.,~ (i:
())
()
~
1 ()
¡,
(1
~ ~
o o
())
o 1 ~ o o 1
()
....
• 1J na matriz nula es una matriz con todas sus entradas iguales a O. Denotaremos por 0, xn a la matriz nula ele tamaüo rn x n o, cuando no se produzca ambigiieclacl. simplemente O. Por ejemplo.
o ()
()) ()
()
()
Una matriz nula de orden n es un matriz diagonal cou ceros en la diagonal principal. • L na fila de una matriz es una fila nula si todas sus entradas son iguales a O. y una columna es una columna nula si todas sus entradas iguales a O. Sea
3 -1
A= la segunda fila de A es una fila nula
~·
(
~
o
o o 4 o
la tercera columna ele A es una columna nula.
• Una submatriz ele A es cualquier matriz que se obtenga a partir de A eliminando una o varias de sus filas y o columnas. También se considera a A como una submatriz de A. Por ejemplo. si
3
A= (
2 1
o
-1 3 4 5
1 2 6
o
-2 ! ) -:3 ·!
3
B= ( 1
-1 4
entonces B es una subrnatriz de A que se obtiene eliminando de A las filas 2 y 4 y la columna 3.
1.1. Operaciones con matrices
5
• Submatrices fila y columna de una matriz A. Denotaremos por F¡ (A) a la matriz fila formada por las entradas de la fila i-ésima ele A. y por C¡(A) a la matriz columna formada por las entradas de la columna j-ésima de A. Si A es una matriz de tamaüo m x n entonces
(Llj) F;(A) = (ail ... a;n)
y
C¡(A)
=
( amy: .
Cuando se sobreentienda la matriz a la que nos estamos rcfirieudo, las matrices fila y columna se llamarán simplemente F 1 , ... , F 11 , y C 1 •.... Cn. Por ejemplo, para
A=
(
3
-1
~
3 4
1 2 6
F2 =
tenernos
(2
:3
2
-2)
Operaciones con matrices
l. l.
El contenido de esta sección es esencial, aunque pueda resultar un poco árido, ya que en ella se presentan las operaciones elementales que se pueden realizar con matrices y se demuestran todas las propiedades fundamentales que debe cumplir dicha operativa. Suma de matrices y del producto por escalares • La suma de dos matrices A y B del mismo tamaüo es la matriz A+ B cuya entrada (i. j) es
[A+ B]¡¡ = a1¡ + b;.J Es decir, all
A+B=
: (
rLml
(l¡n) (bll . + .
a,;,
b,;,
Por ejemplo
-3
o
(1¡¡
(
aml
1
1) + (()
2
1
4
1
5
5
+ bll
~ bml
• El producto de un escalar ,\ por una matriz A es la matriz ,\A cuya entrada (i,j) es
[.-\A];¡= .-\a;¡ Es decir, all
,\A=,\
: ( Ornl
Capítulo l. ).latrices
Por ejemplo ;) .
Ejemplo 1.1
1
1
31 {)2) (2 1
Calcule las matrices :JX 2IJ. A.
(; i)
(" ~) .J 7 1 1 G -1 2 ;) :~
-:3
A=
n=
()
.J G -1 2
()
e
Solución: La suma A + 110 tielle sentido operaciones sí tic11e sentido:
.
.3A
=
:~)
0
-9
:~
()
(j
12
3
G
( 1G
-:3
( ()
2B =
()
+ e '" :3A + 2IJ
l.J 2 .J
jlll('S
A y
siendo
~)
-1
\"
e
e=
e ~
()
-1
tÍl'lH'll distilltO tamailo. El n·sto de las
!)
8 8 10 G
:Ll
1 :
+ 2JJ = (
19
-1 8
22
D
;)
Teorema 1.2 Leyes de la suma de matrices y del producto por escalares Sean A, Re E 9nmxn(IK) y a,
/3
E
!K. La suma de matrices cumple las leyes:
l. Asociativa: (A+ B) +e= A+ (B
2. Conmutativa: A
+B =
B
+e).
+ A.
3. Existencia de elemento neutro: A+ Ürnxn =A= Ümxn +A. 4. Existencia de demento opuesto: A
+ (-A) = Orn x = (-A) + A. 71
Y, además, para el producto por escalares se cumplen las leyes: 5. Distributiva respecto de la suma ele matrices: a(A
+ B) = aA + aB.
6. Distributiva respecto de la suma ele escalares: (o:+ !:l)A 7. Asociativa respecto del producto por escalares: (af3)A 8. La unidad del cuerpo, 1 E IK, cumple que 1 A
= aA +
j)A.
= a(i3A).
= A.
Demostración: Probaremos. para cada uua de las lt>yes, que la ley sp cumple en todas las entradas. Para ello t>wplean•wos las propiedades de la suma y del producto de elementos de IK.
1.1. Operaciones con matrices
7
l. Para demostrar la igualdad de las matrices (A+ JJ) + C y A+ (B + C) hay que demostrar
que cada entrada (i ..i) de (A+ B) +Ces igual a la entrada (i,j) de A+ (B + C). Es decir, [(A+ B) + CJ;J =[A+ (B + C)]¡¡. Veámoslo. [(A+B)+C]¡¡
[A+ B];¡ + [C]¡¡ = (o; 7 + b¡¡) +e;¡= [A];¡+
a; 1
+ (b; 7 +e;¡)
[B + C]¡¡ =[A+ (JJ + C)]¡¡
Nótese que en la tercera igualdad hemos aplicado la propiedad asociativa en IK.. Del mismo modo se demuestran el resto de propiedades. 2. [A+ B]; 1 =a;¡+ b;¡ = b;J +u;¡ = [B +A]¡¡. 3. [A+ ÜmxnLj = a;.j +o= o¡¡= o+ O¿¡= [Omxn + A];j.
4. [A+ (-A)];J =a¡¡+ (-a;¡)= O= (-aij) +a;¡= [(-A)+
A]¡1 .
5. [n(A + B)];¡ = n[A + B];¡ = n(o.;¡ + b;¡) = rw;¡ + o:b; 1 =[nA];¡+ [nB]¡¡ = [oA + oiJ];¡.
6. [(o+ (3)A]; 1 =(o+ ¡))o.;¡ =
m1;1
+ (-3a; 1 =[nA];;+ [/:!A];¡= [nA+ (:!A];¡.
7. [(nB)A];¡ = (of:!)o.;¡ = n(!:!aii) = o[f:!A]¡1 = [o(/:!A)Lr
8. [1 A];¡ =
la;j
=
a;¡.
D
Producto de matrices
• El producto de dos matrices tiene sentido si el número de columnas de la prinwra es igual al uúmero de filas de la segunda. Dadas las matrices (]¡¡
A=
: ( Umt
de tcunaños m x n y n x p respectivamente, el producto AB es la matriz AB de tamaüo m x p cuya entrada (i. j) se obtiene multiplicawlo la fila i de A por la colunma j de B según la regla
[AB]iJ
= F;(A) C 1 (B) = (u, 1
a;n)
(
b¡.) } bn¡
(/
=rL; 1bu+
... +a;nbnJ
=
l..:,u¿¡,;bkj k=l
Capítulo l. :\Iatrices
8
1
Ejemplo 1.3
3 . ( -1) + (- 3) . 2 + 1 . 3 1·(-1)+0·2+2·3
3
~
AB = (
2·(-1)+4·2+1·:~
(
5
BC =
:1. () + ( -3) . 1 + 1 . 1) 1·0+0·1+2·1 2·0+4·1+1·1 5·0+(-1)·1+0·1
5·(-1)+(-1)·2+0·3
enG D~G 2 3
CB =
-4 12 1G
4 4
(~
4 4
D(-;1 :3
mientras que AC. BA y CA carecen de sentido.
D
-:G -2) ( 5 :) 9 -7
2
-1
~') S
n=e~~ ~)
Teorema 1.4 Leyes del producto de matrices Sean A E 911mxn(IK), B,C E 911nxp(IK), DE 9Jlpxq(IK) y o E JK:. El producto cumple las leyes: l. Asociativa: (AB)D
= A(BD).
2. Existencia de elemento neutro por la derecha: Aln
= A.
3. Existencia de elemento neutro por la izquierda: ImA
= A.
4. Asociativa respecto del producto por escalares: o(AB) = (oA)B = A(aB). 5. Distributiva respecto de la suma de matrices por la derecha: A(B
+ C) =
G. Distributiva respecto de la suma de matrices por la izquierda: (B
+ C)D =
Demostración: Probarcmo;.;. para cada una de las leyes. que la p
p
l. [(AB)D];i = 2..:)AB];~,dkj = k=l n
2..)L o;¡,b¡,¡Jd,'J = L
h=l
=
L
a;¡,b¡,¡,rh-1 = L
k=lh=l
o,,[BD]¡, 1 = [A(BD)]; 1 .
h=l
11
2. [AI"]ij =
L k=l
+ CD.
np
n
p
k=l
L
BD
sP cumple en toda;.; las entrada:;.
pn
n
k=l h=1
= L a¡¡,(L bH(hJ)
le~·
AB +AG.
o;di"]~, 1 = a; 1 ya que [I"]JJ = 1 v [!"]~, 1 =O para k=/= j.
L
h=lk=l
o;¡,b¡,kdk1
1.1. Operaciones con matrices
9
3. La demostración es análoga a la del apartado 2. n
n
4. [n(AB)]ij
n
= o[AB];i = n(L:>ikbA:¡) = ¿oa¡~.:bkj = L[nA];A:bk:J = [(nA)B]ij. k=l
k=!
La demostración de la igualdad [n(AB)];j n
5. [A(B+e)];J
k=l
= [A(oB)];¡ es análoga.
n
n
n
= ¿a;~.:[B+e]A:i = La;¡,(bk¡+cK:J) = La;K:bk¡+ La;~.:c:K: 1 = [AB];¡+[Ae];J. A:=l
k=l
k=l
6. La demostración es análoga a la del apartado 5.
k=l
D
Otras propiedades del producto de matrices • Puede ocurrir que AB
= O siendo A 3
A= ( -6
y B no nulas.
-1) 2 ' B
(:3
-1)
= 9 -:3
AB =
(~ ~)
• Veamos cómo es el producto AB cuando B es una matriz columna. Si A E 9nmxn(lK) y B E 9n,x ¡(JK) entonces AB E 9J1 111 x 1 (JK). Aplicando que el producto es conmutativo en lK y las propiedades de la suma de matrices y del producto por escalares tenemos:
a¡n) (bu) (O¡¡) + · ·· + (aln) : : = b1 1
rLmn
bnl
:
!Lml
bn 1
:
Omn
Es decir, podemos escribir AB como suma de múltiplos de las columnas ele A. Por ejemplo
(! 3
1
o 2 1
• Veamos cómo es el producto
e
e A cuando e es una matriz fila. (JK) entonces e A E 9)1¡ xn (JK). Aplicando que el producto es conmutativo
Si E 9J1¡ X m (JK) y A E 9nmx 11 en lK y las propiedades de la suma de matrices y del producto por escalares tenernos:
c 11 (an
a¡,)+ ··· +
C¡m
(a,¡
10
Capítulo l. :.Iatrices
Es decir_ podemos escribir CA como suma de múltiplos de las filas de A. Por ejemplo
• ?\o se cumple la ley comuutativa para d producto ele matrices.
C> Puede darse que
AB tenga sentido mientras que BA no lo tenga: ·~
A= y C>
~1)
11
AE =
O
G
(
:3
:3
BA no tiene sentido ya que d núnH'ro de columnas de B es distinto del número de filas de A.
AE :v· EA pueden tener ambos sentido ~- no coincidir sus tamaüos:
A=
C>
(i
-1
(3
-1
u
t)
m
o o AB=(-1). BA=
AE y EA pueden tener ambos sentido. tener igual tamaüo y
~5)
110
6
(3
-2 -1
coincidir:
= AB el EA =
e 2) -8
A 2 = AA tiene sentido si y sólo si A ('S cuadrada. Luego la expresión (A.+ E) 2 tiene sentido si y sólo si A+ E es cuadrada. esto cs. si y sólo si A y E son matrices cuadradas del mi~;mo tamaüo. De manera que si A. E E 9J1 (IK) entonces tenemos que
C> La expresión
11
2
(A+ E) = (A+ E)(A. + B) = A. 2 + A.E + BA. + B 2 y la fórmula del binomio de l\icwton se cumple únicamente cuando A y E conmutan. esto cs.
(A+ E) 2 = A. 2 + 2A.B + E 2
si~- sólo si
A.E =EA
• No se cumple la propiedad de cancelación. es decir A.B = AC no implica E = C.
2) (2 :3) = (1242) (o221) (12411
V
sin embargo
Gnel G~)
1.1. Operacioues con matrices
11
Matrices por bloques Dada una matriz A de tarnaíio m. x ·n podernos utilizar líneas verticales y horizontales para dividirla en subrnatrices que se denominan bloques. 1
Ejemplo 1.5
1
La
rnatri:.~
está dividida en cuatro submatrices o bloques A 11 . A 12 , A 21 y A 22 tal como se indica
~~
~
) . A12 = (
) . A21 = ( 1
1 ) y A22
= (
2 )
Damos otra división de A, ahora utilizawlo sólo una línea horizontal:
~)yc=(l
~1
o
2 )
D
Un caso particular de rnatri:.~ por bloques es cuando dividimos la matriz cu sus submatrices fila o en sus submatrices columna:
A -_ (
~:.~ ,
A = ( C1
) '
1
C:,
1
·
·
·
1
Cn )
F,n Sean A y B dos matrices por bloques, tal y como se indica a continuación:
A12 A=
( A21 A,
A22
A,, A2n
) y
A:,¡
A,2
Amn
n~
B¡¡
B12 B22
... ...
B1q
B21
Bpt
Bp2
...
B¡u¡
B2q
(
)
Si 71 = p y los tamaños de los bloques cumplen que para todo i E {l, ... ,m}, j E {l. .... n} y k E {l .... , q} el producto A¡.J B¡¡,. tieuc sentido, esto es, el núnwnJ de columnas de A;_¡ es igual al uúmcro de filas de B 1¡,.; entonces el producto AB es una matriz formada por mq bloques tal que el bloque de ABen la posición (i.j) se obtiene según la regla
12
Capítulo l. :\Iatrices
Una matriz cuadrada es diagonal por bloques si tiene una estructura de bloques
All
o
o
A22
o con A 11 , i
=
o
...
o
...
o
)
o ele modo más esquemático A
=
~: )
A.:u (
APP
O
App
l. ... , p matrices cuadradas y el resto de bloques matrices nulas.
Si A y B son matrices diagonales por bloques de orden n y para í = l ..... p los bloques A;¡ y B 1; son del mismo orden n;. con n 1 + · · · + n Jl = 11. entonces su cálculo se simplifica mucho
Las potencias de una matriz cuadrada La potencia k~ésima ele una matriz A de orden n es el producto de A por sí misma k yeces le
¡,
y por convenio A 0 =In
A· =A · · · A para k ::;> 1
Algunas matrices cuadradas tienen un comportamiento especial con respecto a la potencia. AsL por ejemplo, decimos que A E 9Jl 71 (JK) es idempotente si A 2 = A. decimos que A es nilpotente si existe un entero k > O tal que A¡,. =O, y decimos que A es involutiva si A 2 =In. 1
Ejemplo 1.6
Sean las matrices ~3
~4
1 1
2
1
~s ) 3
B
== (
~3 ~/ ~7 ) 1
2
.r e= (
~1
3
Podemos comprobar que A 2 = A luego A es idempotente. que B 3 C 2 = I:~ luego C es involutiva. D
1
=?
A¡,.= diag(di.d~ .... ,d~;)
y lo mismo ocurre a las matrices diagonales por bloques
2
= O luego B es nilpotente.
Para las matrices diagonales es especialmente sencillo calcular sus potencias:
A= diag(d¡.d2 ..... . d 71 )
2 ~3
y que
1.1. Operaciones con matrices
13
La fórmula del binomio de N ewton Si A y B son matrices de orden n, entonces podremos calcular las potencias de la matriz suma A+ B utilizando la fórmula del binomio de Ncwton si las matrices A y B conmutan (ya se mencionó anteriormente en el caso (A+ B) 2 ). Es decir: k
Si AB
= BA entonces (A+ B)¡,. =
~ (~)
Ak-iBi
Esta fórmula cobra especial interés cuando una de las dos matrices A o B es nilpotente. Veamos un ejemplo en el que determinarnos la potencia k:-ósima de la matriz
C=(~ ~ ~) ()
()
2
Para ello descomponemos C como suma de dos matrices que conmuten. una de ellas nilpotente 2
o
~)
o o
= 21:3 + B
Comprobamos que B es nilpotente
B=
, B2
=
( ~~:~~) o o o
Corno las matrices 2/3 y B conmutan se puede calcular la potencia k-(~sima como sigue
Los únicos sumandos no nulos son aquéllos en los que aparecen B 0
= 1:1 , B o B 2 . Es decir
y operando y simplificando queda
para todo k 2: l.
Capítulo l. l\Iatriccs
14 Propiedades de la traspuesta Teorema 1.7
Si la suma o el producto de matrices tiene sentido en cada uno de los casos que enunciamos a continuación, entonces son ciertas las afirmaciones: l. (A+B) 1 =A1 +B 1 .
2. (A 1 + · · · + Ak) 1 = Ai + · · · + At. 3. (aA) 1 4.
= n:A 1 para todo o
E lK.
(AB) 1 = B 1 A 1 .
5. (A 1
· · ·
Ak) 1 = At · · · Ai.
Demostración: Probaremos que las propiedades l. 3 y 4 se cumplen eu cada entrada, mientras que la propiedad 2 será consecuencia de la propiedad 1 ~- la propiedad 5 de la propiedad 4: l. [(A+ B) 1]u
= [A+ BL; =
2. (A 1 + · · · + A¡J 1 3. [(nA) 1 ]¡ 1
=
aj;
+
/11 ;
= [A 1]u +
1
[B ];~"
(A 1 + (A 2 + · · · + ~h)) 1 =A\+ (A 2 + · · · + A¡,) 1 =···=A\+···+ A~.
= [nAL; =
oaj;
=
[nA 1 ]¡~"
4. Si A E 9I1mxn y BE 9JZnxp· [(AB) 1];j = [ABL, = L~'= 1 aj¡,b¡,¡ = ¿~'= 1 li¡,;u 1 ¡, = [B 1 A 1],J" 5. (A1···A¡,)f = (At(A2···AJ.)) 1 = (A2···A~,) 1 A\ = ··· =At ···A 11 •
D
Corolario 1.8 Si A es mm matriz cuadrada entonces l. A+ A 1 es simótrica y A- A 1 es antisimNrica.
2. A se puede escribir como la suma de una matriz simétrica v una antisimNrica.
:3. AA 1 es simétrica. Demostración: El apartado 1 se demuestra aplicando la propiedad 1 del Teorema l. 7:
(A+ A 1 ) 1 = A 1 + (A 1 ) 1 = A 1 +A= A+ A1 (A- A 1 ) 1 = A 1 -- (A 1 ) 1 = A 1 - A= -(A- A1 ) El apartado 2 se deduce del apartado l., ya que A = A~A'
+ "'-;A' .
Y el apartado 3 se deduce de la propiedad 4 del Teorema 1.7. ~·a que (.-L4 1 ) 1 = (A 1 ) 1 A 1 = AA 1
D
1.1. Operaciones con matrices
15
Un ejemplo ilustra cómo -AJ¡; = >.¿;'~ 1 [A];; = Atr(A).
l. tr(A + B) =
2. tr(>.A) =
tr(A) + tr(B).
1
:~.
Es evidente ¡nws A y A 1 tienen los mismos elementos eu la digonal principal.
.l,
Para que los productos AI3 y BA tengan ambos sentido 11ccesaria.mentc serán A E 91lnxrn(IK) y n E 9](11/XII(IK), sintm1ces S 4 = {F 1 • F;,}. Luego S" es un conjunto con d m(lximo nÍlllH'ro de filas iudependientes ele .-1.
Seguimos cm1 la matriz B. Partimos dd conjunto S 1 = {F1 }. Como F 2 = nF1 no tiew· solución (ya que F2 no es proporcimml a FI). entonces S 2 = {F 1 • P2}. Como F; 1 = o F 1 + .d F 2 no tiene solución (ya que la primera e11tracla de F;¡ es 1 y la primera entrada de oF1 + ;J F 2 es cero para cualesquiera valores (Y. 3 E !K). elltOlH'eS s3 = { F¡. F¿' Fd. Luego todas las filas de B son indqwwlientes. D
Operaciones elementales de filas. l\!Iatrices elementales Las transformaciones que se pueden aplicar a una matriz l'll el COJJocido como mNodo de Gauss se denomi11an operaciones elementales de filas. Son de tres tipos ~- consisten en lo siguiente: Tipo 1: l11tcrcambiar las filas i
~·
j. Se denota f¡
H
.fj.
Tipo 11: Sumar a la fila i la fila j umltiplicada por 1m escalar. Se denota .f, -+ f¡ Tipo 111: l\Iultiplicar la fila i por un escalar no nulo. Se denota .f¡-+ .Jf¡ co11
1
Ejemplo 1.14
j
+ .J.fj.
el
O.
Vemos m1 ejemplo de cada m1o de los tipos de operaciones eleme11talcs ele filas:
2 (1) U11a operación elell[('lltal de Tipo T:
l)
()
(!
-1 1
(()2 o :3
o (:3) Una opcraciém clcmcutal de Tipo III:
(o
2 :3
o
f¡
H
.f¡
(3
2
2
(2) Una operación elemental de Tipo Il:
-------:+
-1 1
2 ()
-1
~)
-1 ()
4
()
2
()
1
2 2
3 2
(~ i) 2
o
h ---+ .fl + 2.{1
2
~)
')
2
3
()
h ---+ 3/2
(:
3
()
3 1
2
2
o
¡ ,)
-1 1
:3 2
D
1.2.
l\Ii"~todo
de Gauss
19
Asociadas a las operaciones dementaks de filas están las denominadas matrices elementales. Definición 1.15 U na matriz elemental de orden n es una matriz resultante de aplicar a la matrit~ identidad I, una operación elemental de filas. Las hay de tres tipos: • Ef,+-+!1
:
1\Iatri;.-: resultante de aplicar a 111 la operación elemental j; +-+ fJ·
In • Et,--+f,HJf1
Ejemplo 1.16
Matriz resultante de aplicar a In la operaciém elenwntal f¡--+ f¡
+ ¡-Jjj.
Veamos, para orden ·1, un ejemplo de cada tipo de matriz elemental:
o
~
f¡ +-+f¡
Matriz resultante de aplicar a!, la operación elemental f¡--+ ¡)j;. ¡)fe O.
• Ef,--+df, :
bf -+ C.3 -
o
()
o
()
-2
()
o
o
()
o -1
o ()
3c 1
o
o
1 1
o
con AQ
-2
-3
:3
1
o o o o o o o () 1 o o o o 1
C:l-+
-1 1
3
1 1 1
( ~~ )
o o o o
1
o
o o
o
Hc(A) Q
)
o
D
Dado que una matriz es invertible si y sólo si es producto de matrices dcmentales, podemos caracterizar en término;.; de matrices im·ertiblcs la equindencia de matrices.
Proposición 1.65 Sean A y B dos matrices del mismo tamaüo. Son ciertas las afirmaciones: l. A""' 1 B si y sólo si existe una matriz invertible P tal que P A
2. A
"'e
= B.
B si y sólo si existe una matriz invertible Q tal que AQ =B.
3. A ""' B si y sólo si existen matrices invertibleH P y Q tales que P AQ
\ Ejemplo 1.66
= B.
¿Son equivaknteH
A= (
1
-2
-6 12
~·
2 B= ( -2
3
-2
:~
)
'/
Si lo son encuentre doH matriceH invertihlcs P y Q tales que PAQ =B.
Solución: El Teorema 1.49 uos dice que dos matrices son equivalentes si y sólo si tienen igual rango. Luego A y B son equivalentes puesto que rg(A) = rg(B) = 2. Para calcular P :.· Q vamos a proceder segúu el siguiente esquema:
49
1.4. La inversa de una matriz cuadrada l. Se calcula una matriz P1 invertihle tal que P1 A = H¡(A).
2. Se calcula una matriz Q 1 invertible tal que H¡(A)Q 1
= H(A).
= H¡(B).
3. Se calcula una matriz P2 invertible tal que P2 B
4. Se calcula una matriz Q 2 invertible tal que H¡(B)Ch = H(B). 5. Entonces P = P 2- 1 ?¡ y Q
= Q 1 Q:¡ 1 son matrices in vertibles tales que P AQ = B ya que
Así que manos a la obra: l. Cálculo de P 1 y H¡(A):
(A
1
1/2
)
""'! (
2. Cálculo de
1
O
1
-6
o 1 o oO o o o o 1
l.J
-5
~ ~6 ~ ~5 ~:3
Q1 y H(A):
CT¡(A) ) ~ (:
o)
3 11
-6 12
= ( -2
""'!
(
1
O
O
) = ( Hr(A)
l ( ~ l~, (: o o o
11 6 o 1
"'e
o o
311 1 2
-6
1
P¡ )
o 1
=(
D
o o o o 1
o 1
H(A)
Q¡
)
3. Cálculo de P2 y H¡(B):
(B ""'! (
2
o
o 1
2
1
3
311
h ) = ( -2 -2 1 O
-91-2 4 1
~
3 )
( 1 ""'!
o
o 1
~)
""'! (
-9/21-1 4 1
~
3 1
311 4 1
- auo22)
+ aua2:3a:n + a¡;;021u:;:z- a¡¡a2:;11:;2- auo2¡ll;;:;- a¡;;02211:n
Aplicamos las fórmulas que acabamos de dar para matrices de orclrnent al nunca es O entonces det (A) =/= O.
=;.) Este sentido de la demostración es equivalente a probar que si A no es inwrtible. entonces det(A) =O. Supongamos entonces que A no es invertihle. Por el Teorema 1.60 rg(A) < no lo que es lo mismo A es equivalente a una matriz escalonada A.' en la que al menos su última fila es una fila de ceros. Sea A.' = E 1 · · · E~:A donde las E; son matrices elementales. por el Teorema 1.82 dct(A.') = clet(E1
· · ·
EkA) = dct(E¡) det(E2 ···E¡, A)=···= det(E¡) · · · det(Ek) det(A.)
Como det(E;) =/=O para i =l. ... ,k~· det(A') =O (wr Corolario 1.78). entonces det(A.) =O. 2. Consideramos dos posibilidades:
a) A o B no son inwrtibles. En este caso det(A) det(B) =O pues det(A) =O o det(B) =O. Por el Teorema 1.53 rg(AB) ij1Yij
o
det(A)
=
j=l
'l.:>ijctiJ i=l
conocidas como fórmulas de Laplace del determinante por la fila i o por la columna
.i.
Demostración: En la matriz A intercambiamos la fila i cou la fila i ~ 1, dcspués iuterc:ambiamos la fila i ~ 1 con la fila i ~ 2, ~· así seguimos hasta que iutcrcambiamos la fila 2 cou la fila l. Sca B la matriz a la que llegamos tras esos i ~ 1 intercambios eh~ filas. Eutonces O]¡
A=
O¡¡¡
(1¡_ 1
Üf-1.n
O¡¡
o,n a,+l.n
(!¡+J.l
.\"
B=
O¡]
(] Í TI
UJJ
O]n
(/ i-1.1
Oi-l.n
U¡~J.l
Oi+l.n
Por la Proposición l. 75 dd( B) = ( ~ 1) ,_ 1 det (A). Si calculamos Pl detpnuiuante de B según la fórmula ele Laplace utilizando la fila 1 teuemos n
det(B)
n
11
= L)1J3lj = L(~1)l+Jb 17 clet(B 1 J) = L(~1) 1 + 1 .i=l
.i=l
a; 1 det(A,J)
j=l
luego n
n
J=]
j=]
La fórmula ele La place para el dNerminantc usaudo la columna j sP sigue dP la igualdad det (A) dct(A_I). D
) Ejemplo 1.87
Calcule el dctcrmiuante de la matriz:
~)
(j
2
2
()
:~
()
()
7
()
4
Solución: Acabamos ele demostrar que se puede calcular el dctcrmimmtc ele una matriz utilizall
p
Demostración: Salvo permutación de filas :v columnas, que no infiu)·en en el rango. podemos suponer que AP es la submatriz de A formada por las p primeras filas y columnas de A. Como Ap tiene orden p :V rango p entonces sus filas son independientes. de donde se sigue que las filas F 1 ..... Fp de A son independientes. y lo mismo ocurre con las columnas C 1 .... , CP" Por otro lado. corno rg(A) >p. entonces existe al menos otra fila de A. pongamos F, con s > p. tal que las filas F 1 , . . . . FP, Fs son independientes. Sea A.~, la submatriz de A de ordeu (p + 1) x n formada por las filas F 1 ..... FP, F, de A. esto es UJp
0;
!lpJ
Opp
a¡m
a,¡
Osp
Osn
(111
y
A.' =
11 )
.
Jl (
Como las filas de A.~, son independientes. entonces rg( A.~) = p + l. .v como el número de filas independientes es igual al ele columnas independientes, entonces A.~ tiene p + 1 columnas independientes. Sea C¡. l > p, una columna de A.;, tal que las columnas C\ ..... CP. C 1 de A;) sean independientes. Entonces la matriz Ap+l de orden p + 1 que resulta ele ampliar AP con la fila F, y la columna C 1
es una submatriz ele A de orden p
+1y
rango p
+l
que contiene a AP.
D
Dado que el rango de uua matriz es mayor o igual que el rango de cualquier submatriz suya. la Proposiciones 1.95 nos permite dar mm definición alternativa de rango utilizando menores.
Teorema 1.96 El rango de una matriz A es igual al mayor orden de un menor no nulo de A.
1.5. El determinante de una rnatri:z cuadrada
69
Demostración: Sea p el mayor orden de un menor no nulo de A. Entonces A posee una submatriz Ap de orden p tal que det(Ap) f. O. Como rg(Ap) = p y AP es una submatriz de A, se sigue que rg(A) ~p. Veamos que no puede ocurrir rg(A) > p y así concluiremos que rg(A) = p, corno queremos demostrar. En efecto, si fuese rg(A) > p, por la Proposición 1.95 existiría una subrnatriz Ap+l de A, de orden p + 1 y rango p + 1 que contiene a Ap. Pero rg(Ap+I) = p + 1 implica det(Ap+I) i- O , y por tanto A tendría un menor no nulo de orden p + l. Una contradicción con la hipótesis. D Recordarnos que el rango de una matriz es el máximo número de filas independientes que tiene. La matriz nula tiene rango O. Una matriz no nula con todas sus filas proporcionales tiene rango 1 puesto que tiene únicamente una fila independiente. Si una matriz contiene dos filas no nulas que no son proporcionales entonces su rango ya será mayor o igual que 2 porque tiene como mínimo dos filas independientes. Localizar en una matriz con dos filas no proporcionales una submatriz de orden 2 y rango 2 es trivial.
Procedimiento para el cálculo del rango por menores Teniendo en cuenta todos los resultados anteriores, describimos a coutinuación un método algorítmico que nos dice cómo proceder de manera sistemática para calcular el rango de una matrit~ utilizando menores. 1
Ejemplo 1.97
Calcularemos, utilizando menores, el rango de la matriz
La matriz A tiene al menos rango 2 ya que sus filas 1 y 2 no son proporcionales. Corno subrnatriz de A de orden y rango podemos tornar aquella cuyos elementos están en las filas y y columnas y 2 ya que dct ( f) = 1 f. O. Vamos a seguir ahora el procedimiento descrito en la demostración de la Proposición 1.95. Sea
2
6
2
1 2
1
Comenzamos con la matriz formada por las filas 1 y 2 de A que contienen a A2 a las que le añadimos la fila 3 de A, esto es, 3 :~ 1 2 2 1 y en A; buscamos una subrnatriz de orden :3 y rango 3 que contenga a A2:
columnas 1, 2, :3 ---+ det
(011 :23 321)
=O;
columnas 1, 2, 4 ---+ det
(011 32; 011)
=0
Por lo tanto A; no tiene una submatriz de orden;{ y rango 3 que contenga a A2. A efectos de calcular el rango de A podemos eliminar c;u fila 3 porque es dependiente ele las filas 1 y 2 (compruébese que
70
Capítulo l. I\Iatrices
F;,(A) = F 1 (A)- F 2 (A)). Si la fila 3 de A hubiera sido independiente de las filas 1 y 2 de A ento11ces el ra11go de A; sería 3 y, por la Proposició11 1.95, AS tendría una submatriz de orden :3 y rango 3 que contiene a A 2 . Y hemos visto que eso no sucede. Co11sideramos ahora la matriz formada por las filas 1 y 2 de A que contienen a A2 a las que le aiiadimos la fila 4 de A, esto es, :3
3
1 2 :3
1
y en A~ buscamos u11a submatriz de orde11 :~ y rango ;~ que contenga a A2:
columnru; L 2. :J
--+ t!et
G
:3 1 3
Hemos encontrado un menor de orden 3 e11 A~ 110 nulo por lo que ~·a no seguimos cou la casuística. Además, ya podemos concluir que el rango de A es 3 ¡mes ~·a no 110s queda11 más filas. D
1
Ejemplo 1.98
Vamos a demostrar que la siguiente matriz tic11e rango 2
A=(~
4 5
()
2
-1 -1
-3
-2
-4
1
La matriz A tiene alme11os rango 2 ya que sus dos primeras filas no son proporcio11ales. Una submatriz de A de orden 2 y rango 2 es, por ejemplo. la submatriz ( ~ ~ 11 ) cuyos elementos están en las filas 1 y 2 y en las columnas 1 y 2 de A, puesto que
Por el Teorema 1.96 si rg(A) > 2 entonces A dclw tem~r m1 menor no nulo ele orden 3. Las submatriccs de orden 3 de A se obtienen eliminando una fila ~· una columna de A. Hay 4 posibles filas a elimi11ar ~· 4 posibles columnas a eliminar. Luego hay 16 submatrices disti11tas de orden 3. que son
*
H
*
2) * ~J-;)
-3 1
-2
-4
~;J¡)o2 ,~J¿) 5 -2 1
()
-1
-1
-1 -2
JJ G -;") o G D G ")
o
-2
-4
-1
-1 -2
-1 -2
2
1
71
1.5. El determinante de una matriz cuadrada
o
2
-3
~) 2
(; D (~ 2 -:3
5
-4
5
2
-4
D
(~
5
-:3 1 -4
e e ~) e D e 2
-1 -1
-3 1
:,) 2
-1
2 -:l
-2
-4
-1 -2
-3
2 1
-1
-4
-2
1 -·!
") 2 1
()) 2 1
Se ¡medc comprobar que todas ellas tienen determinante O. Por otra parte. la única submatriz dc orden 4 de A es la propia A, y tambión se puede comprobar que det(A) =O. Por lo tanto rg A= 2. En realidad no hace falta calcular tantos menores. Podemos usar la Proposición 1.!)5 que nos dice que si A tiene rango mayor que 2 entonces tiene que existir una submatriz de A orden :3 con determinante no nulo que contiene a la submatri:.~ ( ~\ Luego sólo teníamos que haber estudiado los menores correspondientes a las 4 submatrices dt~ A de orden :3 que resultan de ampliar ( ~\ quc son las 4 matrices que se han mareado con un asterisco. D
i ).
i ),
Nota: El mótodo de estudio del rango por menores (que implica el cAlculo sistemático de dctenninantes) es menos eficiente que el método de Gauss de escalonamiento. V{~as(~ el Ejercicio 1.18. en d que se calcula el rango de uw1 matriíl de tamaílo 4 x 5 por ambos m{)todos.
Capítulo l. I\Iatrices
72
1.6.
Ejercicios propuestos
e de orden n, demuestre que si A y
1.1. Dadas tres matrices A. B y entonces A y Be conmutan.
B conmutan
~,
A y
e conmutan
1.2. Demuestre cada una de las siguientes afirmaciones:
a) Las entradas de la diagonal de una matriz antisimétrica son iguales a O.
b) Las entradas de la diagonal de una matriz hermítica son números reales. 1.3. Justifique la veracidad o falsedad de la siguiente afirmación: Si el rango de la suma de dos matrices cuadradas y el de su diferencia son ambos O. las dos matrices son nulas.
1.4. Demuestre que el producto de matrices triangulares superiores es una matriz triangular superior. y que el producto de matrices triangulares inferiores es una matriz triangular inferior. 1.5. Escriba todas las posibles matrices escalonadas reducidas de orden 2 x 4 (sugerencia: ordénelas por rango creciente).
1.6. Calcule el rango de la matriz A dependiendo del valor de n.
o (l-
1
o l. 7. Decida. sin calcular el determinante, si la siguiente matriz tiene inversa para algún a E R
A~ 1.8. Dadas las siguientes matrices
A~ e~(
1 2 3 -2
1
o
( 2
o
2 3 1
1 3
3
o o
2 5 -4 3
4 9 2 -1
u n ) n~ 3 4 2 4
-2 1 3
-2 () 6 6
o 1
o -1
(
) D~
1 2 2 4
1 2 ( 1 -1
a) i, Qué rango tiene cada una'!
b) Determine cuáles de ellas son equivalentes. e) Determine cuáles de ellas sou equivalentes por filas.
1 1 1
2 3 1
o
2 1 -1 1
D 5 7
2 -2
5 4 -1 1
)
73
1.6. Ejercicios propuestos 1.9. Encuentre una matriz invertible P que transforme la de Hermite por filas, esto es, tal que PD = H¡(D).
matri:.~
D del ejercicio anterior en su forma
1.10. Demuestre que si
A=(~o
;)
1 1
o
entonces para todo n E N la matriz An tiene la forma general
A"
1.11. Resuelva la ecuación
det
n 1
Go
n(n+l)) 2
(1.1)
n 1
1 + :z: :z:
:J:
;¡;
.z:
1 + ;¡;
;¡;
:r
:r
:r:
1 + ;¡;
;¡;
X
:z:
:r:
1 + ;¡;
(
)
=0
1.12. Describa un esquema para resolver cada uno de los siguientes problemas:
a) Si H(A) es la forma de Herrnite de A, encuentre dos matrices P y Q invertibles tales que PAQ = H(A). b) Si A y B son dos matrices cuya forma de Hermite por filas coincide, encuentre una matriz in vertible P tal que P A = B'!
e) Si A y B son dos matrices cuya forma de Hermite por columnas coincide, encuentre una matriz invertible Q tal que Aq = B? 1.13. Sean DE 9nnxp(1K) y CE 9J1 11 (1K). Demuestre que si rg(C)
= n entonces rg(CD) = rg(D).
1.14. Sea A una matriz de orden m x n. Utilice la definición de rango ele una matriz para demostrar las siguientes afirmaciones.
< m entonces existe una rnatri:.~ no nula B tal que BA = O. b) Si rg( A) < n entonces existe una matriz no nula B tal que AB = O.
a) Si rg(A)
1.15. Demuestre que si A es una matriz de tamaüo n x 1 y Bes una matriz de tamaüo 1 x n con n > 1, entonces AB no es invertible. Determine el rango de AB si A y B no son nulas. 1.16. Demuestre la veracidad de las siguientes afirmaciones:
a) Dos matrices semejantes tienen el mismo determinante.
b) La relación de semejanza entre matrices es de equivalencia. e) La relación de congruencia entre matrices es de equivalencia.
74
Capítulo l. :\Iatrices
1.17. Utilice el mótodo dl,scrito en la demostración de la Proposición 1.69 para calcular una invcnm por la derecha ele la matrii\ 2 A= -1
(~1
D
1.18. Determine el rango de la matriz
~ ~
fl
(
2
3 -1
! G
1 1 1
-2
o
()
2 4 1
-1) 3
7 2
por Pi método de mcnm-cs y por el método de Gauss de escalonamiento. 1.19.
(*)
Calcule la matriz inversa de la matriz 1
O¡
o
o
o
o o
1
IY2
()
()
()
11:\
o
()
()
()
A=
o o o o
()
()
o
()
n,1-l
()
1.20. (*) Definimos la funciém
f : IJJ1" (!K) Ai O
z
---+
.f(A) = mín{j- i
>-+ >-+
()
:a;¡
i
O}
f(O) = n
Demuestre que:
a) b) e) d)
f(A) :::>O si y sólo si A es triangular su¡wrior. Si f(A) :::>O y f(B) :::>O entonces f(AB) :::>O. Si f(A) :::> 1 y f(B) < n entonces f(AB) > f(B). Si f(A) :::> 1 clltonccs existe Uit entero k tal que A" =O.
l. 21. (*) Demuestre que Pi determinante de la matriz 1
1
A=
(\¡
(\¿
O;J
On
•)
2 O¿
2 O;J
(t~
n¡
n-1 (\l
denotado por 6. (o 1 ..... n" ) y
n-1
02
clt~nominado
n-1
o;~-1
n:J
determinante de Vandermonde. viene dado por
6.(o 1 .... ,o,)=
IT l"Sisto que (a¡¡
+ na.i¡ ).';¡+···+(o in+ noJ
11
)8 11
=
(a¡¡ S¡ + · · · +
0¡ 11 8 11 )
+ n(a.l¡s¡ + · · · +
O.J 11 S 11 )
=
b¡
+ nhJ
2.1. Sistemas lineales equivalentes
79
Por otro lado, veamos que si ( r 1 , .••• r,) es solución de A' X = B' entonces tambión lo es de AX =B. Sólo es necesario estudiar quó :·mn~d. 1· 2 y, por lo tanto. u 1 E S. Por último. n~amos si
Vc,
pertenece a S. Expresamos 1'.1
=
!111¡
1' 5
+ Jp2
como combinación lineal de
¡• 1 , t· 2
~·
1• 1 :
+~¡1'~
Esta ecuación da lugar a un sistema lineal en las incógnitas o. i3 ~, ¡ que tiene solución (clej amos como ejercicio comprobarlo). Es decir, l'c, es combinación lineal ele 1'¡, 1'¿ ~· 1'.1 :;. por lo tanto. l'c, 8.
rt
En resumen. S = { 1•1 . v2. c~ }.
D
3.2. Sistemas generadores
3.2.
109
Sistemas generadores
Definición 3.10 Uu sistema generador ele 1m espacio vectorial V es un conjunto S ele vectores ele V tal que todo vector de V es combinación lineal de vectores ele S. El espacio V es de dimensión finita si existe un sistema gerwrador de V con un número finito de v---t
U u
+ g)(u.) = f(u.) + g(n)
U 11
f
es la aplicación
-----+
V
>--+
(Af)(u.) = Af(u.)
La composición de las aplicaciones lineales
ho.f:
definida por
V
(.f
El producto del escalar A por la aplicación lineal
Af :
f +g
-----+ -+
.f
y h es la aplicación h o
>..f
f
definida por
definida por
W
(h
o
f)(u.) = h(.f(u.))
La composición h o f se lee ele derecha a i~quicrda, por lo --+
V .f(v.)
--"--+
w
>--+
h(f(u.))
Capítulo 4. Aplicaciones lineales
16-1
Proposición 4.8 Sean
f:U-+V. g:U-+V y h:V-+W aplicaciones lineales entre lK -espacios vectoriales. Entonces l. La suma
f + g es
una aplicación lineal.
2. El producto :\f es una aplicación lineal. 3. La composición h o f es una aplicación lineal.
Demostración: Sean
(f
11 1 .
+ g)(o:u 1 + Jv.2)
(>-..f)(n11 1
(h o .f)(o:u 1
+ du 2 )
+ 3u. 2 )
u 2 E U y n. j) E !K entonces:
+ .Ju2) + g(nu¡ + du¿) of(ul) + 3f(u.2) + og(ul) + 3g(u2) o(.f(ul) + g(u¡)) + 3(.f(u2) + g(u2)) n(f + g)(u¡) + /J(f + g)(u2) f(ou¡
:\.f(oll.¡
+ .Ju2) =
>-.(o.f(u¡)
+ i-3.f(u2))
n:\f(u¡)
+ 3:\.f(u2) = n(>-..f)(u¡) + :3(>-.f)(u 2 )
h(f(ou.¡
+ .Ju.2)) = !t(nf(u¡) + 3f(u2)) + 3h(f(u2)) = n(h o f(u¡)) + d(h
olt(f(u¡))
o .f(u 2 ))
D
Se puede comprobar que en L(U. 1') la operación intema suma dP aplicaciones y la operación externa producto de un escalar por una aplicacióu cumplen las ocho propiedades del espacio vectorial.
Proposición 4.9 Sean U y V dos espacios vectoriales sobre !K. El conjunto L(U, V) ele aplicaciones lineales de U en V tiene estructura de lK -ct>pacio vectorial con las operaciones suma y producto por escalares.
El siguiente objetivo es estudiar cómo las aplicaciones lineales transforman los suhespacios ,·ectoriaks.
Definición 4.10 Sea .f : C ---+ 1/ una aplicación entrP los conjuntos U y 1·. Sean U' ~U ~· 1·' ~V.
= {f(u.): u E U'}~l'. -El conjunto imagen inversa o recíproca de 1'' por f Ps f- 1 (l'') = {u -El conjunto imagen de U' por .f es .f(U')
E [/ :
f( u) E 1"'}~L-.
165 Observación: En la definición del conjunto imagen recíproca f- 1 (V') de un conjunto V', f- 1 no denota a la aplicación inversa de f, de la que hablaremos más adelante. A la aplicación f no se le exige que sea biyectiva y por tanto no tiene por qué existir su iuversa. Por ejemplo, si f : IR 2 --+ IR es la aplicación nula. f(:r,y) =O para todo (.r.y) E V, no existe aplicación inversa ya que f no es biyectiva; y el conjunto imagen recíproca (o inversa) de {O}~ V por fes
r
1
({0}) = {(:r.y) E IR 2
:
.f(.r:.y) =O}= !R 2
Teorema 4.11 Sea
f : U --+
V una aplicación lineal. Son ciertas las afirmaciones:
l. La imagen por f de un subespacio vectorial de U es un subespacio vectorial de V. Además, si U'= L(u¡, ... , uk) entonces f(U') = L(f(u¡), ... , f(uk)), con dim U' ;:::: dimf(U'). 2. La imagen inversa por
f
de un subespacio vectorial de V es un subespacio vectorial de U.
Demostración: l. Sea U' un subespacio vectorial de U. En primer lugar .f(U') es un subconjunto no vacío de V puesto que f(Ou) = Ov E .f(U'). Por otro lado, si u¡ y v2 son vectores de f(U') entonces existen vectores u 1 y H 2 de U' tales que .f(u.¡) = 1.'¡ y f(u.2) = v2. De manera que si o¡ y n 2 son elementos de lK cntonc('S
tambi(~n es un vector de .f(U'). Y por tanto .f(U') es un subespacio vectorial de V. Supougamos que dim U' = k y U' = L(u 1 •...• u¡,.). entonces para todo 11 E U' existen escalares o¡ ..... n¡,. tales que 11 = n 1 11 1 + · · · + n¡,.u¡,.
y por linealidad de
.f
se tiene que
f(u.) = f(n¡ll¡ Luego {.f (11 1 ),
... ,
f (u.
11 ) }
+ · · · + !l:nlln) =
n¡f(u.¡)
es un sistema generador de
f (U')
+ · · · + n,J(u.n) y di m
f (U')
--+
f o f-1
B .f(a) = b
r-'
IJ '------+ A b >--+ f--l(b)
~ B = (] >--+ .f(a) = b
Proposición 4.15 La aplicación inversa de una aplicación lineal hiyectiva es una aplicación lineal biyectiva.
Demostración: Sean .f : U ---+ V una aplicación lineal hiyectiva, u1 y u2 vectores de V y u 1 y u 2 los únicos vectore:,; de U tales que f(u¡) = u 1 y .f(u 2 ) = 1• 2 . Si n. ¡-J E !K entonc:e::;
f(m11
+ (3u2) = nf(u.¡) + tJf(u2) = ov1 + /31•2
y por lo tanto
f- 1 (o:u¡ + ¡J1'2) = luego Sea
nn1
+ (J112 = o:.f- 1(u¡) + f)f- 1(v2)
.f- 1 es lineal. Además. como consecuencia de su definición, .f- 1
('S
biyectiva por serlo
f : U ---+ V una aplicación lineaL tambih1 denominada homomorfismo, decimos que:
• .f
es
• f
es un epimorfismo si
Ull
monomorfismo si
f
.f
es un homomorfismo inyectivo.
es un homomorfismo sohrcyectivo.
• f es un isomorfismo si f es un homomorfismo hiyectivo.
f.
O
Capítulo 4. Aplicacioues liuealcs
170
Uua aplicación liucal u homomorfismo vectorial es mm aplicacióu cutre espacios vectoriales que respeta la estructura de espacio \·ectorial. El coucepto homm1wrfismo se extiende tamiJi(~n a otras estructuras algebraicas. u na aplicación cutre anillos que rcspet a las operacioucs de los auillos ('S un homomorfismo de anillos. una aplicaci{m entre grupos que se cmuporta hicn respecto a las operaciones de los grupos es tm homomorfismo ele grupos, etc.
Monomorfismos y epimorfismos
Proposición 4.16 Sea
f : U --+
V uua aplicación lineal. Son equivalentes las afirmaciones:
l.
f
es un monomorfismo.
2.
f
preserva la independencia lineal.
3. La imagen por 4. dirn(U)
=
f
de una base de U es uua base de Im(.f).
dirn(Im(.f)).
5. Ker(.f) = {0}.
Demostración: 1 =? 2. Tcucmos que ver que si 11 1 . . . . . 11, sou liuealmcnte iudcpeudientes ('11 U ('ntonces f (u 1) ..... f ( 11 111 ) sm1 lincalmcutc iudqwndient es e11 \ ·. Supougamos qnc f (11 1) ..... f( 11 111 ) son linealrm·nte depeudientcs ('n V. EntonC('S existen n 1 •.•.• n 111 E !K no todos milos tales que
O= o¡f(ll¡)
+ · · · + n,f(u,) =
f(o 1u 1 + · · · + 0 111 11 111 )
Como .f(O) =O y f(n¡n¡ + · · · + !\ 111 11,) =O, e11touccs existen dos nxtores distintos con la misma imageu. luego .f no es inyec:t i\·a. Cout radic:cióu. :2 =? 3. Sea {u 1 . . . . . u,} una base de U. ('lltOIH"('S llll(f) = L(.f(u¡) ..... f(u 111 ) ) . es decir los vectores { f (11¡) . . . . . f (11 111 ) } son nu sistema generador de [lll (f). Como f pn'S('l"Va la independencia lineal. f (11¡) . . . . . f (u 111 ) sm1 liiwalmeute indc¡wndicut PS y forman mm hase de lm(f). :~ =?
4. Iumcdiato.
-l =? G. De la fórmula de dimeusimws se dcclncc di m( Kcr(.f)) = dim( U) - dim(lm(.f))
Ker(f)
O, hH•go
= {0}.
G =? l. Procedemos por reducción al absurdo: supougamos que Ker(f) = {O} y que f no es inyecti,·a. cntouccs existen V.¡./12 E U cou U¡ el 112 talPs que f(u¡) = f(112). Luego f(IIJ- 11:¿) = f(11¡)f( 11 2 ) = O ,. 11 1 - 11 2 es tm wctor no u u lo de Ker(f). Por tanto Ker(fl el {O}. lo que contradice la hipótesis de partida. D
4.2. Tipos de aplicaciones lineales
171
Proposición 4.17 Una aplicación lineal f : U --+ V es un epirnorfisrno si y sólo si la imagen por generador de U es un sistema generador de V.
f
de un sistema
Demostración: Por definición tememos que f PS epimorfismo si y sólo si f( U) = V. Por otro lado, si U= L(u 1 •...• n 111 ) entonces d subcspacio imagen de f viene dado por Im(f)
= f(U) = L(f(u¡), ... f(um))
Por tanto Irn(f) =V si y sólo si {.f(n¡) .... , f(urn)} es m1 sistema generador de V.
1
Ejemplo 4.18
D
Consideramos la aplicación:
f : JR;¡ [:r:] -+ ]J
--+
JR2 (p(l).p(2))
Compruebe que f es una aplicación lineal. ¡,Es f un mmlomorfismo? ¡,Es f un epimorfismo?
Solución: Para cualesquiera p. q E Rd:r] y n, /3 E lR se cumple
f(ctp+;-Jq)
((op + f-Jq)(I ), (np + ¡)q)(2)) (np(l) + f-Jq(1), np(2) + j-Jq(2)) (op(1). np(2)) + (;:lq(1), (-Jq(2)) n(p(l).p(2)) + [-!(q(l). q(2)) nf(p)
y por tanto
f
+ f-Jf(q)
es una aplicación lineal. Vamos a calcular el núcleo de
f:
Kcr(f) = {pE lR:i[:r] : p(1) = p(2) =O} El Kn(f) está formado por los polinomios de grado menor o igual que :~ que tienen a 1 y a 2 como raííl. Esto implica cpw Ker(f) cJ {O} y por tauto .f u o es un monomorfismo. Por otro lado, consideramos 2
;¡
{ L.r .. r . :r } .
que c•s un sistema generador eh~ 1R:1 [.1:]. y sus imúgcnes por
f
{.f(1).f(.r),f(.r 2 ).f(:r: 1 )} = {(1,1).(1,2),(1.4),(l,H)} Esk último conjunto es un sistema generador ck JR 2 ya que conticue dos vectores liuealmcntc iudcpcndientes. Es decir, lm(f)
= L(f(1). f(:r), f(:r 2 ), f(.r: 1 )) = L((L 1). (l. 2). (L ·1). (1, 8)) = L((l, l ), (1, 2)) = JR
De la Proposición 4.17 se sigue que
f
es un cpimorfismo.
D
2
Capítulo 4. Aplicaciones lineales
172
Isomorfismos Diremos que dos espacios vectoriales U y \ · son isonwrfos. y lo denotaremos por U "'=' \ ·. si Pxiste un isomorfismo entre U y \ ·. Un isomorfismo f : U --+ \ ·. que recordamos es una aplicación lineal biyectiva. permite establecer una relación tmo a m1o cntrP los vectores de [. ~- los de V de modo que las propiedades que se cumplen en el espacio vectorial U tendrán sus correspondientes en 1·. Los isomorfismos se utilizan en muchos ámbitos de las matemáticas para simplificar el estudio de problemas del siguiente modo: si U ('S un espacio vectorial cuyos ekmentos tienen cierta complejidad. y existe un isomorfismo entre U y un espacio \'('Ctorial V de estructura más sem~illa. entonces podemos demostrar emmc:iaclos aparentemente más complejos en U demostrándolos en V de manera más fácil. A continuación damos algunos resultados que caracterizan los isomorfismos y sus propiedades.
Proposición 4.19 Una aplicación lineal f: U--+ V es un isomorfismo si y sólo si Ker(f) =O e Im(f) = 1/.
Demostración: fes inyectiva
si~-
sólo si Kcr(f) =O y fes
sobre~·ectiva si~-
sólo si lm(f) = V.
D
Proposición 4.20 Sea
f
una aplicación lineal entre espacios vectoriales de igual dimensión. Son equivalentes:
l.
.f
es monomorfismo.
2.
f
es epirnorfismo.
3.
f
es isomorfismo.
Demostración: Sean U y \·dos !K -espacios vectoriales tales qm' clim( U) = clim(\ ') = una aplicación lineal. 1
=?
2. Si
f
es inyectiva entonces clim(Im(f))
Como dim(\ ') 2 =;. 3. Si
.f
=
= dim(U) - clim(Ker(f)) =
n -O
=
:3
=?
f
n
n entonces lm(f) = \·y fes epimorfismo.
es sohrcyectiva entonces dim(Kn(f)) = dim(U)- dim(Im(f)) = clim(U)- dim(\')
y
11. ~-
tambi(;u es
1. Obvio.
D
in~·ectiva.
Por tanto.
f
('S
isomorfismo.
=
n-
11
=O
.f : U
--+ 1·
.1.2. Tipos de aplicaciones lineales
Teorema 4.21 Ser isomorfo es una relación de equivalencia entre
Demostración: Para cualesquiera
JK~espacios
JK~espacios
vectoriales.
vectoriales U, V y
~V
se cumplen las propiedades:
1. Reflexiva: U es isomorfo a U. La identidad Id : U -+ U es un isomorfismo por ser una aplicación lineal biyectiva. cntonn~s
2. Simdrica: si U es isomorfo a V
V es isomorfo a U.
.r-
1 Sea .f : U -+ V un isomorfismo. Entonces f es biyectiva y : V -+ U es biycctiva. En la Pro1 posición 4.15 vimos que que f- es además una aplicación lineal. Luego .f- 1 es un isomorfismo.
3. Transitiva: si U es isomorfo a V y V es isomorfo a lV. entonces U es isomorfo a H/. Sean f : U -+ V y g : V -+ ~V isomorfismos. En la Proposición 4.9 vimos que la composición de aplicaciones lineales es aplicación lineal. Y como f y g son biyectivas entonces g o f : U -+ V es biyectiva. Por lo tanto g o f es un isomorfismo. O Podemos clasificar los espacios vectoriales isomorfos por su dimensión.
Teorema 4.22 Dos JK~espacios vectoriales son isomorfos si y sólo si tienen igual dimensión.
Demostración: =?) Un isomorfismo
f : U -+
di m( U)
V es inyectivo y sobreyectivo, entonces
= dim(Im(f)) = clim(V)
--+
11
V /)
doudc JT es un epimorfismo e i ( inc:lusiém de Im(.l) en V) es m1 mouomorfismo. Comprobamos que para todo u. E U (i o o JT)(u) = (i o .f)(u + Ker(f)) = i(f(u)) = f(u)
.1
y por lo tauto
f=iofon
A esta expresión se la denomina descomposición canónica de f. Toda aplicación lineal es igual a la composición ck m1 epimorfismo n cm1 un isomorfismo y con un monoruorfismo i. Esta descomposición queda reflejada en d siguiente diagrama cmmmtativo:
.1
u
U 1Kcr(f)
f
f
Nota: Se dice que el diagrama conmuta para expresar que
V
Im(.f)
.f = i o f
o Jr.
Capítulo 4. Aplicaciones lineales
176
4.3.
Matriz de una aplicación lineal
Sean fE L(U. V). B
= {u 1.... ,u,} una base de U. B' = {1· 1..... 1·,,} una base de F. ;¡;
= (.r¡ ..... .r" )B =
.I"¡IL¡
+ · · · + :1"
11
11,
la expresión en coordenadas de .r E U respecto de B :;
.f(:r)
=
.11 =(y¡ .... ·Ym)B' =
.IJ¡1'¡
+ · · · + Yrn~'m
la expresión en coordenadas ele su imagen f(.r:) E F respecto ele B'. Vamos a construir una matriz que transforma las coordenadas ele .r respecto de B en las coordenadas de f(:r) =y respecto de B'. Para ello necesitamos conocer las coordenadas de las imágenes por .f de los wctores de B respecto ele B' . Si 01J 1' 1
+ · · · + a 1m 1' m
J( Un) = On¡l'¡
+ · · · + U,rnVm
.f (11¡) =
Entonces
f(.r)
f(;r¡U.¡ .1"¡
f(v¡)
+ · · · + .l"nlln) + · · · + .rll.f(u.n)
+ · · · + (l¡rnl'm) + · · · .l"n (o,¡/'¡ + · · · + Onm'L'm) (o¡¡;r¡ + · · · + (/ ¡:r:¡¡)l'I + · · · + (a¡rn:l"¡ + · · · + 0 w1' )1'
.r¡ (a¡¡/'¡
11
111
11
111
De la unicidad de las coordenadas de f(:r) respecto ele B' se sigue que a 11 .r 1
+ · · · + o, 1 J·, =
y1
(4.1)
{ a¡,.r¡
+ · · ·; anr,.rn = Ym
que en forma matricial es
U¡¡ ( (]
(4.2)
~ "'
Definición 4.25 La matriz de la izquierda de la Ecuación (4.2) se denota IJns B' (.f) y se denomina
matriz de .f respecto de las bases B
= {11 1 , . . . . Un} de U
y B'
= {v 1 . . . . . 1'
111 }
de V
Es ele tamaño m x n y su colunma j está formada por las coordenadas de .f("U1 ) respecto de B'.
177
-1.3. l\Iatriz de una aplicación lineal Observamos que 9Rrw' (!) coincide con la matri:.-: de coordenadas de {f(u 1 ), B' por columnas (página 123):
... ,
Para toda base B = {u 1 , ... ,u,} de U, el sulwspacio imagen ck fes Im(f) Entonces el rango de la matriz de .f es igual a su dimensión
= L(f(u 1 ), •.• ,.f(u,)).
rg(9RBB' (!))
=
f(u,)} respecto de
dim(Tm(f))
Sean X la matriz columna de coonlcnadas de .r respecto de B e Y la matriz columna de coordenadas de .f(:r) respecto de B'. La ecuación (4.2) se puede escribir de forma abreviada
(4.:3)
9Ra B' (.f) X= Y
Se denomina expresión analítica o ecuaciones de .f respecto de las bases B y B' a cualquiera de las expresiones equivalentes (4.1), (4.2) o (4.3).
1
Ejemplo 4.26
1
Matriz de la aplicación identidad
Si .f = Id entonces 9Jl 8 B' (Id) es la matri11 que transforma las coordenadas ele J: respecto de B en las coordenadas ele Id( J:) = :r respecto de B' y por lo tanto es la matriz de cambio de base de B a B'. Esto es.
Ejemplo 4.27 Sea B = {u 1 , u2 } mm base de U y sea B' aplicaciones lineales .f y g de U en V definidas por
1
1
f(n¡)
f(u2)
=
+ 61'2- 31':3 + 51'2 - 1';3
3u¡
=V¡
= {v 1 , 1'2, u:J} una base ele V. Sean dos
g(:3u. 1
-
2u 2 )
= :311 1 + 6112- 31':J
g (4 IL 1
-
:3 u2)
=
u1
+ 5u2 -
·u:l
Calcule 9na B' (.f) Y 9na B' (g) ·
Solución: La columna j de 9Jl 8
B' (!)está
formada por las coordenadas de .f(uJ) respecto de B'. Como
.f( u 1 ) = 3v 1 .f(u 2 )
+ 6u 2
-
= u ¡ + 51'2-
:31.':¡ = (:3. 6. -:3)a' 1!;¡ = (1.5. -1)a'
CtÜOnCt'S
A partir del rango de esta matri:.-: podemos determinar si f es inyectiva y¡ o sobreycctiva. Como rg(íJJt 8 B' (!)) = 2, entom:es dim(Im(f)) = 2 y, por tanto. Im(f) =f. V. Es decir. .f no es sobrcyectiva. Por otro lado, dim(U) = clim(Im(f)) implica que f es inyectiva.
Capítulo 4. Aplicaciones lineales
178
Para calcular IJJ1B B' (g) tendremos en cuenta que cmloccmos las imágenes por g ele U'¡ = :3u 1 - 2112 ~· de u· 2 = 4u 1 - :3u 2 . ~(·cesitamos. por lo tanto. conocer las coordenadas dt> U¡ y de 112 respecto de la base { w 1 . w2 } de U. Vamos a calcularlas:
11 1 = nu· 1 11 2 =
ctll'¡
+ 3u• 2 + 3w 2
= o(3u 1
-
= n(:3u 1
-
+ .J(411 1 211 2 ) + 3(411 1 -
(:3o = (:3n
3u 2 ) =
2n 2 )
:3n 2 )
Ahora podemos calcular la imagen por y ele los vectores
+ Gv 2 = 4(Jt• 1 + G1• 2 -
g(ul) = :3y(u• 1 ) - 2g(u• 2 ) = :3(3¡· 1 g(u 2 ) = 4_q(w¡)- 3y(u• 2 )
+ 4-J)n¡ + (-2n- 3.:i)u:z + 43)n¡ + (-2n- 3.:i)u2 11¡
~· U:z de la hase
+ Ól"2:31':¡)- 3(1'¡ + J/'2-
:31';¡)-
2(t'¡
I':J)
=
/!;¡)
= 91'¡
71'¡
=?(o. J) = (:3. -2) =?(o. :l) = (4. -:3)
B:
+ 81·2- 71"¡ + 91'2- 91':3
=(l. 8. -7)B' =(D. 9. -9)B'
Y finalmente ya podemos construir 9J1B B' (.q):
Como antes. rg(9J1B L·d.cJ))
1
Ejemplo 4.28
=
2
=
dim(Im(f))
=
2 implica que g es in~·ectiva
V llO
sohrcyecti\·a.
e
Encontrar la matriz en las bases canóuicas de la aplicación derivación
D:
RJ[.r] p(.r)
-+ >-+
IR 2 [.r] D(p(.r)) = p'(.r)
que a cada polinomio real de lR.;1 [.r] le asigna su deri\·ada.
Solución: Las imúgcucs por D de los vectores ele B D(l) =O= (0.0.0)13'·
D(.r 2 )
= 2.r = (0.2.0)13'·
= {l. .r. .r 2 . :r:l} respecto de B' = {1. .r . .r 2 } sm1 D(:r) = 1 = (1.0.0)13'· D(.r:3 ) = :1.r 2 = (0. 0. 3)B'
De manera que ()
2
()) o
()
:3
Vamos a determiuar si D es iuyectiva y o sobre~·ectiva a partir del rango de esta matriz. Como rg(9J1BB'(D)) = 3. entonces dim(Im(D)) = :3 y, por tanto. Im(D) = IR 2 [.r] ~·Des sobreyectiva. Por otro lado. dim(lR.;;[.r]) = 4 c/c clim(Im(D)) implica que D no es iuycctiva. D A la matriz ele una aplicacióu liueal f : IK" --+ IK'" respecto de las bases cauóuicas de IK" ~· IK"' la dcuotarcmos ele forma simplificada como IJJl(f). Siempre que se dé' la matriz ele una aplicación lineal sin especificar las bases a las que esté' referida se supondrá que ('stas son las bases canónicas.
4.:3. l\Iatriz de una aplicacióu lineal
179
Matrices de una aplicación respecto de distintas bases En esta sccci(m veremos cómo están relacionadas las matrices de una aplicación liueal en distintas bases. En esta relacióu están implicadas. como cabría esperar, las matrices de cambio de base.
Teorema 4.29 Sea fE .C(U, V). Para todas las bases A, A' de U y B, B' de V se cumple la igualdad
(4.4)
Demostración: 9J1A' A transforma las coordenadas de un vector 11 de U respecto de A' en las coordenadas de 11. respecto de A. Posteriormente, la m a tri;.-: 9J1AB (.f) transforma las coordenadas de u respecto de A en las coordenadas de f( u.) respecto de B. Y finalmente, la matri;.-: 9J1Bw transforma las coordenadas de f(u) respecto deBen las coordenadas de j(11) respecto de B'. Es decir, el producto ele las tres matrices transforma las coordenadas de u respecto de A' en las coordenadas de f(u) respecto de B'. Y esto es precisamente lo que hace la matri;.-: IJJlA, B' (.f). O El Teorema 4.29 nos da la relación entre IJJlA' r-df) y 9J1AB (f) vía las matrices de cambio de base y l)]lBB'. Esta relación queda reflejada de forma gráfica en el siguiente diagrama comnutativo:
~m A' A
B'
A'
(4.G)
Toda matri;.-: de cmnbio de base es la matriz de la aplicación idcnt idad, esto es
Luego PI producto matricial de la Ecuación ( 4.4) se corresponde con la composición de aplicaciones
que queda reflejada en el diagrama conmutativo
Idu
:r que
u
f
u
f
l
tiene en cuenta las bases co11 las que se trabaja.
V
V
Capítulo 4. Aplicaciones lineales
180
1
Ejemplo 4.30
.f : ¡¡{' ----+
Sea
l!~:_2 la aplicación lineal cuya expresión analítica en las bases
canónicas es y sean
A' = {(1, l. 1). (l. l. o). (o. l. 1)} .v B' = {(l. 1), (el. :3)} ':l
:2
.
bases de !K' y !K respectivamente. Calcule 9JlA' B' (.f).
Solución 1: Calculamos la matri;.~ pedida a partir de la matri;.~ de f en las bases canónicas A y B de IK:3 ~- IK 2 respectivamente. La matriz de f en estas bases se obtiene fácilmente calculando las imágenes
.f(l.O.O) = (1.2) . .f(O.l.O) = (:3,2) y .f(0.0.1) = (5.7) ele los vectores de la base canónica:
(") = (1 3 5)
9.HAB j
2
2
7
Utilizamos las matrices de cambio de base y por d Teorema 4.29 se tiene
9JlA'B' (f)
9Jlm;' 9JlAB(f) 9JlA' A
9J1B/B 9JlAB(fl í)J1A'A
e4) -le2 :~
c7
-2
4
o
:3 2
;) (¡ D 1 1
o
12) -1
Solución 2: Aplicamos directamente la Definición 4.25. Calculamos las coordenadas respecto de B' de las imágenes ele los vectores ele A':
+ a 12 (4. 3) = O:z1 (1.1) + O:z:z(4. 3) = rL;)j ( l. 1 ) + ::l2 ( 4. :3)
.f(l.1.1) = (9, 11) = a 1 ¡(1.1) f(l. 1, O)= (4, 4)
f (o. 1' 1) = (8' 9)
(l
=
(17. -2)
=;-
(o¡¡. o 12)
=;-
(o2¡.a22) = (ci,O)
=;-
(o :31 . 0.;)2) = (12. -1)
que determinan las c:olunmas de la matriz pedida
12) -1
D
En este ejemplo hemos hecho un cambio de base tanto en PI espacio de partida como en el de llegada. En otros casos, como en d siguiente ejemplo. se hará únicamente en tmo de los dos.
4.3. l\Iatriz de una aplicación lineal
181
Ejemplo 4 · 31 1 Sean A'= {11 1 . u 2 • n:d una base de U, B' una aplicación lineal definida por
1
f(u2
Calcule la matriz ele
f
+ 11.;¡) =
-v¡
=
+ t'2
{
u1 . u2 } mm base de V, y
f(v¡ +u.;;)= 4v¡
f: U-+ V
+ 2v 2
respecto de las bases A' y B'.
Solución: Con los elatos sobre la aplicación lineal obtenernos de forma inmediata la matriz de respecto de las bases A= { n 1 + 3v 2 + 2u.;¡. 11 2 +u;,, 11 1 +V.;¡} y B' 9J1AB' (f)
=
f
e
-1 1
Si conocemos la matriz 9J1AB' (f) y queremos calcular la matriz 9J1A' B' (f), entonces sólo tenemos que hacer un cambio de hase en el espacio ele partida. U, de la base A' a la base A para obtener la matriz. No hay que hacer cambio de hase en V. Es convt>rliente representarlo en un esquema como en (4.5)
B'
~9J1B, 9J1AB' (.f)
B'
-+ B'
la
matrit~
=h
-+
110
que queremos calcular hay cambio de base en
v·
la matriz que coHocemos
Entonces Como ~1HB' B' = 12 y como las matrices de cambio de hase cumplen 9J1A' A = 9J1_4~, tenemos que ()
-1 1
1
-1 ()
~)
D
Las matrices 9J1BB' y 9J1A' A de la igualdad ( 4.4) son invertihlcs. Del Teorema 1.53 se sigue que
El rango de cualquier matriz ele una aplicación lineal no depende de las bases a las que esté referida. Definición 4.32
El rango de una aplicación lineal f, rg(f),
l'S
d rango de cualquiera de sus matrices.
182
Capítulo 4. Aplicaciones lineales
La matriz de la composición de aplicaciones lineales Proposición 4.33 Sean .fE L(U, V), g E L(V, W). ':-'A, By C bases ele U. V y
vV respectivamente.
Entonces
9J1Ac(g o .f) = 911ac(g) 9J1Aa(f)
Demostración: 9J1AB(fl transforma las coordenadas dl' llll vector :r de U respecto de A cn~·a matriz respecto a la base canónica
ry]l:c(.fl = (
~ 2~ ~1) ;{
-2
e ele
JR:1 es
4.4. Ewlormorfisrnos
185
Calcule la matrih 9J1c, (f) de
f
respect.o de C'.
Solución: Tenemos que calcular
Si denotamos a 9J1C' (f) por A, a 9J1(.f) por B y a 9J1C'c por P entonces
A
p- 1 BP
( G (' ~~) (~ ~~) _,
1
()
2
1
2 -1
es la matrih que nos piden.
2 -2 1
1
1 1 -2
-2
()
( ) ()) (' ~~) e ~)
())
()
2 () ()
2
-1 3
1
1 ()
o 1
1
-1 3
() -1 2
o
1
()
1
o
1
o o
D
El Corolario 4.35 nos dice que las matrices d(~ un endomorfismo rcsp1~cto de dos bases distintas son semejantes. Argumentamos en sentido contrario. Como cualquier matrih invertible representa a la matrih de m1 cambio de base entonces toda matriz semejante a la matriz de un endornorfismo es la matriz del mismo endmnorfismo respecto de una base distinta. En el siguiente capítulo. veremos cómo entre todas las matrices semejantes que representan a un mismo endomorfismo podemos escoger una en concreto con una estructura lo más sencilla posible. que aportará información geométrica que caracterizará al endornorfismo. Se tratad!~ la matriz canónica asociada al endomorfismo.
Grupo general lineal El grupo general lineal de un JK-espacio vectorial V de dimensión n es el conjunto de automorfismos de V. Se denota G L(V) y se trata de un grupo no comnutativo para la composición de aplicaciones. El conjuuto de matrices iuvertiblcs de 9nn (JK) se denota por G L(11) y es otro grupo no conmutativo para la operación producto de matrices. Ambos grupos están relacionados ya que un endomorfismo f es un aut.omorfismo (es decir, biyectivo) si y sólo si fes inyectivo si y sólo si Ker(.f) = {0}. Si Bes una base de V entonces unas ecuaciones del KPr(f) son de la forma 9J1B(f)X = O, por lo que Ker(f) = {O} si y sólo si dct 9J1B(fl /e O. Es decir, f es un automorfismo de V si y sólo si cualquier matriz de .f es invertiblc. Estos grupos son de hecho isomorfos. Fijada una base B. d isomorfismo es como el definido en el Teorema 4.:34: íJ.JlB: GL(V) --+ GL(n) H 9J1B(f) f De modo que, fijada una hase B en V. cada automorfismo de V tiene asociada una matriz invertible de orden n y, viceversa, cada matriz invcrtiblc d(~ orden n t icue asociado un automorfismo de V.
186
Capítulo -1. Aplicaciones lineales
4.5.
Proyecciones y simetrías
Dedicamos esta sección al estudio de dos ewlomorfismos destacados ele un espacio Yectorial.
Definición 4.37 Sean V m1 !K -espacio n'ctorial ~·U y n· suhl'spacios snplnnentarios en 1" (U--=-- n· = 1"). Para cada t' E ,. existen II E u y 11' E n· únicos taks que 1' = 11 +U'. Definimos los enclomorfismos:
n·
(1) Proyección p : 1· ---+ V de base U y dirección
como p( 1')
=
11.
(2) Simetrías: V---+ F de base U y dirección H" como s(1·) =u- u·.
En la Figura -1.1 se ilustran la
pro~n"Ción
--+
p:Uéf'H.
n+w y la simetría
s :
[T·JH.
---+
11
u_:_ w 11
--+
+w
---+
u·~·
n·
u - u·
en el caso en el que U es un plano ~· H · nna rcct a ele IR: 1. Veamos cómo transforman estos ewlonwrfismos 1 los vectores de la hase [. y los de la dirección TL Sean u E U~· w E TT". La descomposición ele 11 y u· como snma ele 1m vector de U~· otro de n· t>s 11
=
+ ()
= () +
~·
U'
11.
y
p(u•) = p(O +u·)= O
E[/
,.
11
U'
Eutouccs: ( 1) Por la definición de pro~·l'cción se tiene p(11.) = p(11 +O)=
es decir
p(u) =u para todo
11
p(u•)
= () para todo u·
EH"
(üi)
(2) Por la defiuiciém de simetría s( 11) = s( u +O) = u - O= 11
y
s( u•) = s(O + u·) = ()-
s(11) = 11 para todo u El!
y
-'i(w) = -w para todo 11' En·
ll"
= - w
es decir
1
E,; común decir que
}J
( -1. 7)
es la provecciún sobre [ · en la direccit'm 1¡· ~· s "' la ,;imctría reo;pcct.o de l · e u la direccióu 1\ ·.
-1.5. Proyecciones y simetrías
1H7
v=u+w
Figura 4.1: Proyección y simetría Matriz de una proyección Sea p una proyección de V de hase U y dirección TV. Entonces V = U (j) TY y pocl
(A+ I)X = O =>
( ~:2) ( ) (::) ( ~)( ) e: ) 1
.1"¡
o
()
·~"2
()
()
.l"j
2
1 2
.1"¡
() ()
()
.r l
.l'¿
=> V 1
=> L
1
-l.
={
.r 2 = O.. r: 1 = O}
={.r¡ =O . .r2 =O}
Ambos subespacios tiew·n dimensión l. por lo que será imposible obtener tres vectores linealmente independientes que sean autovcc:torcs. Determinamos una base de cada subespacio propio:
V¡= L( (l.O.O)B ).
Lt = L( (O.O.l)B)
fí. 2. A utovalores y autovcctorcs. EndoiuorfislllOti diagoualiza bies
207
y podemos tomar 1' 1 = (l. O, O)B. 1'2 = (0, O. 1)B. pero un tercer vector linealmente inclcpcndieute de l't y 1''2 no podrá perlnwcer a V1 ui a V_ 1 , es decir. uo serú nu autovcc:l.or.
El antovalor )q = 1 aparece dos veces l'll la diagoual. y veremos que para que el cndomorfismo fuese diagonalizable tendríamos que poder obtener 2 autovec:torcs asociados a dicho autovalor. D
Definición 5.11 Scau A 1 ,
••••
A,. autovalon·s distintos de nn l'Jl(lomorfismo
f
de V. cou dim V
= 11..
Llamamoc;:
( 1) Multiplicidad algebraica dd autovalor A¡ a su mnltiplic:idad como raíz del polinomio característico, y la denotaremos por o.;. (2) Multiplicidad geométrica del autovalor A; a la dimcusióu del :mbespacio propio asociado V.x,. y la denotaremos por g;. Es decir. _q¡ = dim V_x, = n- rg(A- ,\.¡!). E u d ejemplo auterior d poliuomio caracteríc;tic:o ec; det.(A - A J) = (1 - A) 2 ( -1 - A) y se tieucn los autovalorcs A1 = 1 cou multiplicidad algebraica o 1 = 2 y gcomNrica g 1 = dim V 1 = 1; y A2 = -1 con mnltiplicidad algebraica a 2 = l y gmmN.rica .112 = dim V_¡ = l.
Proposición 5.12 La multiplicidad algebraica de un autovalor es mayor o igual que la multiplicidad geométrica.
Demostración: Sea n E !K m1 antovalor de 1111 endomorfismo f con umltipliciclac!Pc; algebraica a y geomNrica g. Sea {1• 1.... , uq} una bac;c de V, el snlwspacio propio asociado. Por el Tcorcnw de ampliación a una base, púg. 115. podemos encontrar ·n - g vectores l'q+ ¡ •... , 'l'n tales que B = {t• 1 . . . . , l'q,l'q+l•·"• 1' 11 } sea una has'' del espacio vectorial V. Dado que f(t.'¡) = 0:1>¡. para i = l. .... y: las g primeras columnas ele la matriz del endomorfismo en dicha hase seráu de la forma
A= I)JcB(fl =
(\
()
()
o
()
o ()
()
()
()
()
Así. (\l>sarrollauclo dd.(A- Al) por las y primeras columnas. se obtiene que el polinomio característico c•s de la forma p ¡(A) = (n-A )'1 · r¡( A). Ahora bien. como la nmltiplicidad ele n como raíz del polinomio caract.erístico es a, cnt onces y s; o. Como qncrían1os dmnostrar. D N u estro objetivo es cstndiar bajo quó condiciones, para un endomorfismo dado .f : V -+ V. existe una hase de aulovcctorcs. Si el poliuomio caractnístico de f tiene todas sus raíces en !K, ()S decir tiene n
Capítulo 5. Formas canónicas de endomorfismos
208
raíces no necesariamente distintas. entonces se factorizará ele la forma: PI(>. )=(>..-)..¡)"'···(>.. ->..h) 11 ' . con>..; E K
a¡ E N y o¡+···+ a,= n = dim ,.
y para encontrar una base de autm·ectores IH'c:esitarcmos encontrar a¡ autovectores linealmentl' inde-
pendientes. por cada auhwalor >..;. Si el polinomio característico de f no tiene todas sus raíces en JK.. entonces no existirá una base de autovectores. Demostramos la caracterización ele los cndomorfismos eliagonalizables en el siguiente resultado.
Teorema 5.13 Caracterización de endomorfismos diagonalizables Sean f un endomorfismo de un OC-espacio vectorial V de dimensión n. y >.. 1 •.... )..k los autovalores distintos de f con multiplicidades algebraicas a 1 ..... ak y geométricas g 1 . ... , 9k respectivamente. Entonces, .f es diagonalizable si y sólo si se cumplen las siguientes condiciones: (1) a 1 + · · · +
ak = n.
(2) Las multiplicidades algebraicas y geométricas de cada autovalor coinciden. Demostración: Supongamos f diagoualizahle. l'Iltonces existe una base B = { 1'¡ . . . . . 1' de \ · formada por autovectores ele f. Supongamos los vectores ordenados correspoudiendo a los autovalores: 11 }
B={I'¡¡ ..... con
l'il, . . . . t';_,,
E
'>-,.
I'Js 1 :
••• ;
l'kl····:~'ks,}
i = l. .... k. Como di m VA, = g¡, se tiene que s¡ ll =
8¡
+ · · · + SJ; 'S
,CJ1
S:
y¡.
Así
+ · · · + .!Jk 'S O¡+···+ Uk 'S 11
de donde deducimos a 1 +···+a,= n y r1; = g¡. Ahora, supongamos ciertas las condicioues (1) v (2) y \'l'mnos que son suficientes para que .f sea cliagonalizablc. Dado que !h = u; y g 1 + · · · + Yk = '11. en virtud de la Proposición 5.9 el espacio total se descompone en suma directa V = \TA 1 \ Si tomamos bases B; de cada uno de los subespacios propios VA,. podemos unirlas para formar una base de V compuesta por autovcctores. Así. f es cliagonalizable. como queríamos demostrar. D
>-,.
Como consecuencia del Teorema de caracterización. si Uil endomorfismo ele un espacio vectorial de dimensión n tiene n antovalores distintos. entonces todos tienen multiplicidad algebraica 1 "se cumpk que 1 S: g; S: o. 7 = 1 luego se cmnpk la igualdad entre dimensiones algebraicas ~- geométricas. por lo que se tiene el siguiente resultado.
Corolario 5.14 Si un endomorfismo f dP un lK. -espacio \Tdorial de dimcm;ión entonces es diagonaliza ble.
11
tiene
11
autoYalore;; distintos.
5.2. Autovalores y autovectores. Endomorfismos cliago11alizahh•s
209
\ Ejemplo 5 · 15 (1) En el Ejemplo 5.10 se cumple la primera condición del Teorema de caracterización: a 1 + a 2 = 2 + 1 = :3 lo que sig11ifica que el cndomorfismo tiene 3 autovalores co11taclos con su multiplicidad. Sin embargo. 110 se cumple la condición (2) ¡mes la multiplicidad geométrica del autovalor ,\ 1 = 1 es g 1 = 1 menor que la multiplicidad algebraica o 1 = 2. Por ello no es diagonalizable. (2) E11 el Ejemplo 5.5 vimos que era diagonalizablc ya que conseguimos encontrar una base de autovectores. Ahora podemos afirmar que es diago11alizable, sin 11cccsidad de calcular la base, simplemente aplicando el Corolario ya que el endomorfismo actúa ('n u11 espacio tridimensional y tiene :3 autovalores distintos. D
1
Ejemplo 5.16 .fc,(.r 1 •. r 2 •. r;;,:r 4 )
Sean fa los e11domorfismos de IR 1 defi11idos por
= (ax 1, (a -1):r 1 + :r 2 . (a -1):r 1 + (1-
o}r2
+ ru;¡ + (1- o.).r,¡, f
Estudiamos para qu{~ valores de a es fa diagonalizable. La matriz de
1\fa
=
( (}
o
1 0..o- 1
1 1 -a
a
o
o
o
p f.,(,\)
dct (1\Ia - >.I)
= clet
CAao
(a - ,\) det
C'
o
a- 1
a-,\
()
o
1 1
()
c11 la base canónica es
o o
Calculamos el polinomio característico
a -
.r:¡), co11 o E IR.
o
o
1-,\
()
l-a
a-,\
o
o
()
)
l-a 1 - ,\
o-,\
1 -o a ) = (a - ,\ )( 1 - ,\) det ( · 0 1-,\
1
-a)
1-,\
(a_ ,\)2(1 _ ,\)2 E11to11ccs se tiene11 dos casos: Caso a
cJ
l. El e11domorfismo fa tiene dos autovalorcs dobles:
,\1
= o cor1 a 1 = 2 y A2 = 1 con 0.2 = 2.
Para que fu sea diagonali;.mble tie11c que ocurrir que las multiplicidades geométricas sean igual a las algebraicas. Calculamos g¡:
o y 1 = dim Vu
(1 -
1
= dim Ker(fu -a Id) = 4- rg(l\lu- o Id) = 4- rg a_ l
(
o
o
o
1- a 1- (J
O
o
2 l~a) o o
=
1-a
ya que Ala - a Id sólo tiene dos filas i11de¡H'IH!ientes, pues la cuarta fila es igual la tercera menos la
Capítulo 5. Formas canónicas de cndomorfismos
210 segunda fila. Calculmuos ahora !1"2:
_(}2
(/- 1 ll- 1
= dim F1 = dimKcr(.f11 -Id)=~- rg(M,- Id)=~- rg
_
11
(
o
()
()
()
1 1-
(1
o
()
~
(] - 1
1 - (/
{)
o
) =
2
pues tambih1 se ve fácilmente que Jf11 -Id sólo tiene dos filas indqwndientl'S. Se cumple que o 1 = .CJI ~·
n2
=
Y2·
Caso a= l. El cndomorfisiHO .f1 tiene Para que
f1 ~
1m
autm·alor eu;Hlruplc:
A¡ =
l. o¡ = 4.
sea diagonalizabk tiene que ocurrir que = g 1 = dim \ ·1 = dim Kn(f 1 -Id)
En efecto. si o= l. entonces 11.!1 =J. hwgo JI 1
=
~-
-
1
rg(JI 1
=O~·
-
I)
.) si y sólo si (f-). Id)(¡·) E
w- 1 (?.)
(3) Existe un entero k > O tal que se tiene la cadena ascendente de subespacios hasta alcanzar ur1o de dimensión máxima:
Se denomiua subespacio máximo asociado a A al subcspacio Af(>.) =K'(>.)= Ker(J- Ald)" (4) Los subespacios propios generalizados son
.f- iuvariantes.
(5) Si d; = clim K 1 (?.). i = l. 2 ..... se cumple que la diferencia cu climensioues entre subespacías propios generalizéHios consecutivos 1'¡ = d; - d;_ 1 . i = 2. 3 .... , es decreciente. Es decir,
Demostración: Para simplificar la uotaciém. como el autm·alor ). de
f
e.c;t i1 fijado. llamaremos J\., a
!\'(?.). (1) SPa ¡·E Kl eutouccs (f- ?.ld)'(¡·) =O. de dondl' (f- >.Id)'- 1 (¡•) = (f- ?.Id)(f- ?.Id)'(¡·)=
(f-). Id)(O) =O, luego (2)
1'
t'
E ¡\·i~t.
E ¡\· 1 si v sólo si (f- >.Id)'(l')
(f- ?.ld)(t•) E
O si y sólo si (f-). Id)'- 1 (f- >.Id)(¡·)
O :-;i
~-
sólo si
Ki-l_
(;) ) Por el apartado ( 1) se tieiH' que cada sulwspacio propio generalizado está cmltl'nido en el siguiente
219
G.:3. Forma canónica de .Jordan
Como todos ellos son suhespacios de un espacio vectorial de dimensióu finita. eutonces, la cadena no puede crecer de forma estricta iudcfinidameute. Vamos a ver que si dos subespacios generalizados son iguales: K" = J(k+l, entonces los sucesivos subespacios son todos iguales, es decir K k = J(J, para todo j :::;> k. Sea k el l!H'uor eutero positivo para el cual el subespacio geucraliy;aclo k-ésimo y el (k + 1 )-ésimo coiucideu, y n uu vector ele J(k+ 2 . Entonces
y eutouces, como J(k+ 1 =
K",
(f->-Id)(v)EK" =* (f->-Id)k(f->-Id)(n)=O =* vEK"+ 1 Así, J(k+ 2 ~ J(k+ 1 , y por tanto K'"+ 2 = K'+ 1 . Procediendo de forma análoga se tiene la igualdad para los sucesivos subespacios generalizados. (4) Tenemos que demostrar que si u E JC(>-), entonces .f(u.) E K'(>-) es decir
.f o (f-
)-Id)i(u) =
.f((.f- >-Idf(u))
= f(O) =O
(a)
Es fAcil demostrar (se deja como ejercicio al lector) que
f
o
(f- >- Idr = (f- >- Idr
o
f
(b)
y así podremos deducir que
(f- >-Idf o f(u) ~ f o (f- >-Idf(v.) ( r:l = d:l-d2 . Cousideremos mm base {v 1 , ... , Vrt 2 } de K 2 . Podernos ampliarla añadiendo 1 T:J vectores hasta obtener uua base de !( : { 1'¡, . . . . v,¡ 2 , w 1 , ... , n•,.,.} de modo que ¡(l
=
K 2 tl:l L(w 1 , ...• w,.,)
Como los vectores w 1, ... , w,.,3 E J\:l - I\ 2 , entouces por la propiedad (2)
(f- >-Id)( u•¡), ... , (f- >-Id)(w 7 J E K 2
-
J(
1
si estos vectores fueseu liucalmeutc iwlepeudicutes. eutonc:es el n~sultado estaría probado. Veámoslo. Procedernos por rcduccióu al absurdo, suponiendo que (f - A Id) (w 1 ), ... , (f - A Id) (Wr 3 ) sou liucalrncutc dependientes, cntouces existeu escalares n 1 , ... , nr", no todos nulos, tales que o 1 (f- >-Id)(w 1 )
+ · · · + n,.(f- >-Id)(w,.J
=O
Por linealidad se tieue (f->-Id)(n 1 w 1 +· · ·+o,.,w,.J =O, es decir o 1 w 1 +· · ·+o,.,3 Wr 3 E K 1 llegaudo a una c:outradicción. D
S: K 2 ,
220
Capítulo G. Formas canónicas de endomorfismos
Notación: En muchas ocasiones. para simplificar. utilizaremos la notación A e B que significa lo mismo que A e;; B. Es decir. A cstfl contenido en B ~·A# B. Tambih1 hemos denotado por A~ B al conjunto formado por los elementos de A que no pertenecen a B.
1
Ejemplo 5 · 2 7
1
Cálculo de subespacios generalizados
Sea f un cndomorfismo de un OC-espacio n'ctorial l. de dimensión -l. que respecto a una base dada B tiene la siguiente matriz ~1/2 1
A=
1/2
()
o
o
1
~)o
{)
{)
()
1
C'
1/2
El polinomio característico de f es p f ()..) = det (A ~ >.1) = ().. ~ 1) 1 , por lo que f tiene un único autovalor ).. = 1 con multiplicidad algebraica a = -1. Vamos a calcular la cadena de subespacios propios generalizados: Ker(f
~Id)= {(A~
I)X =O} ~1/2
1
~
~ 1/2
()
o
{)
()
o o
1/2 1 2
{(.r 1 .• r2 J:; .. r¡)s: (
1) (.r
1
.r-¿ )
O O
.r;;
()
.L¡
Ker(f ~ Id) 2 ={(A~ I) 2 X =O}
~; ~j~ ~j~) (:::~) (~~) }
O O { .r l
+ .L¡ =
O O
.r 1
O ()
O O
.r 1
O}
Ker(f ~ Id) 3 ={(A~ I) 1X =O}
((., '. ·' ,. ·' '. ·' ,¡, •
(ioi
() {)
()
o o } ") (' ' ) (") o ()
.(-¿
()
()
{)
=
()
.1;¡
o
{)
.r_¡
{)
= 17
Puesto que (A ~ 1):3 = O. entonces las potencias sucesivas también serán nulas (A ~ I)j = O para j ::0: 3. de donde se deduce que los subespacios generalizados se empiezan a repetir a partir del tercero: K:; ( 1) = J\·.J ( 1) = .... Así. podemos afirmar que el suhespacio máximo asociado al autovalor ).. = 1 es JI(1) = I\:3 (1). Resumirnos estos datos en el siguiente esquema: dimensiones: subespacios generalizados:
-1
e
K:1 (1) = M(1)
D
S.:~.
Forma canónica de .Jordau
221
De los snbespacios máximos asociados a cada antovalor de un cndomorfismo es de donde extraeremos los \·ect.ores para formar la base n'specto a la cual se obtendrá la matri11 de .Jordan. El siguiente n':mltado es clave. Nos indica cómo determinar una base para el subespacio máximo.
Teorema 5.28 Base de J ordan de un subespacio máximo Sea A un autovalor de un cndornorfismo f de un lK-espacio vectorial V de dimensión n. Entonces. existe una base B del subespacio máximo Af(.\) tal que la matriz del endornorfismo restricción de fa Af(.\) en la base Bes una matriz de .Jordan.
Demostración: Sea K 1 e ]( 2 e · · · e K'" = 1U (A). la secuencia de subespacios generalizados con dimensiones d 1 < d 2 < ... < d¡,.. Vamos a construir mm base B ele "U (A) descomponiendo este snlwspacio en suma directa de subespacios r-cíclicos, cada mw de los cuales generará un bloque de .lorda.H. como en (G.6). Lo hacemos en/; pasos. Paso k: Comen11amos considerando el subespacio múximo ]\·k y el ankrior K'" -J. La diferencia de climensioHcs entre estos subcspacios (~S r¡,. = rh - d~,:_ 1 , y vamos a tomar r~c vectores linealmerlte inclqwndientes { 1' 1 , ... , 1',., } de K k- J\k- 1 de modo que ninguna combirmción liueal de ellos pert.ene11ca a K'"- 1 . Es decir: {u 1 , ••• , ·p,.,} son vectores que generan m1 subcspacio suplenH.mtario de J{k-J en!(¡,.
EntmH"('S. a!mdimos a la base B los vecton's 1' 1 . . . . • 1',., y sus imágenes sucesivas por las potcncias dc (f - A Id). En virtud de la Proposici(m G.2'1 sahcmos quc todos estos vectores son linealmente indqwndientcs. Cada uno de los V('(:tores aüadidos y sus imú.gerH'S gcncran un suhespacio k-cíclico: 1'1
genera el subcs¡mcio k-cíclico
L(1· 1. (f-A Id)(¡• 1 ), ... , (f-A Id)'- \1• 1))
genera d snhl'spacio k-cíclico
L(1•,,. (f-A Id)(l',, ) ..... (f- .\Id)A-I (1•,,))
Paso k - 1: consideramos la difnencia dl' climcnsimws l'ntre los subcspac:ios generali11ados ( k:-1 )-('simo y l'l ankrior ,.,_ 1 = rh-_ 1 - d,,_ 2 y añadimos a la base h- 1 = r~c 1 - r~c vectores. es decir, la difercw:ia ('ll dimensiones menos los vecton•s de ¡.;k-! qul' se añadieron en los pasos anteriores. Así. tomamos 11 1 , •.•• u¡, vectores de J('" 1 - !\¡,. - 2 de modo qnc 1 !\.¡,.
1
=
¡·k-"2 n' \ én
L( //¡ . . . . . 11¡,_,,
(f- Aid)(1• 1 ) •... , (f- Ald)(P,,) vcctorcs de h:¡., --
1
qn..) y ampliémosla con vectores {us+l· ... , 1•,} hasta formar una base B = {u 1, ... , 1' 71 } de V. Los vectores {us+l· ... ,'u,} generan un suplementario ele AI(.A) en V, vóasc pág. 146. Por ser el subespacio máximo f-invariante, la matriz de f t~ll la hase B tieuc la siguiente estructura en bloques
~B(f) = ( ~)¡ ~J 1
doudc A 1 es la matri,r, de f restringida a 1\ [ ()..). Por la estructura en bloques. tenemos que el polinomio característico de fes de la forma J!I(t) = dct(A 1 -ti) det(A2- ti). Como A¡ es la matriz de .Jordan de .f¡M(>.) respecto ele 8 1 , entonces clet(A 1 - ti) = (t-.>..)"'. AsL JII(f) = (t-.>..)"' dct(A2- ti) y tenemos qw~ di m Al(.>..) = s s; a, la multiplicidad algebraica. Supongamos que s < a, entonces ).. debe sPr raíz ..). U na hase de dicho espacio cociente es B = {l's+l +M(.>..) .... , u,+ AI(.A)}, véase pág. lfíO. Consideramos la aplicación
/:
V/M(.>..) /(~· + M(.A))
----t
H
V/M(.>..) .f(l') + l\f()..)
que está bien definida por ser AI(.A) invariautc. La matriz de/ en la base Bes A 2 , y como.>.. es un autovalor de A 2 , o equivalentemente de i, existirá un autovector no nulo v + Al (.A). que es una clase u o nula del cociente, es decir '1' ~ AI (.>..), de modo que
/(1' + M(.A)) ./(1' + l\!(.A))
1 ).. ( '
f(v)
+ M ()..)) = Al' + J\l ()..) } => + AI(.A)
f (u) + M
()..) = .Av + M ()..) ..)= Kcr(f- .A Id)'. cntouccs
(f- .Aid)'(f(~')- .A1•) = (.f- .Aid)'+ 1 1' =O de donde
1'
E Kk+L
=K'= AI(.>..), cou lo que llegamos a una contradiccióu.
D
.f (v) -
.A u E M (.A)
226
Capítulo 5. Formas canónicas de cndomorfismos
Teorema 5.31 Teorema de existencia Sea f un endomorfismo de un !K-espacio vectorial V de dimensión n. Entonces. existe una base B tal que la matriz 'Jna (!) es una matriz de Jordan si y sólo si f tiene n autovalorcs contados con su multiplicidad.
"*
Demostración: Si existe una hase B tal que la matriz íJJ1a(.f) es una matriz ele Jarcian. dado que dicha matriz es triangular ~- todos los del!H'!Üos ele la diagonal priucipal son los auton1lores de f. entonces el número ele autontlores coincide cou la dimensión del espacio l'. ~ Supongamos ahora que f tiem· 11 autovalorcs contados c011 su nmltiplicidacl. Es decir. si los autovalorcs distiutos de f sm1 )q . .... A, cm1 multiplicidades algebraicas u 1 . . . . . u,. rcspectivanwntc>. eutmH's a¡+···+ o, = n. Vamos a ckmostrar qw· el espacio vectorial se descompone en suma directa de los sulwspacios máximos F = JI(.\ 1 ) (:J.i\)
Por la Proposici(m
!J.:m sabemos
que di m JI (A;) =
o;.
por lo que lmst a demostrar que
\' = JI(.\ 1 ) +···+JI(.\,) Por la fórmula ele dimensiones te11cmos que di m (M ( .\ 1 )
+ · · · + M (.\, ) ) u1 E J\ 2 (0)- K 1 (0). 1· 2 = f(¡· 1 ). l':l E K 2 (1)- K 1 (1). la base B' ={u¡. 1'2. 1';¡. 1·¡} cumple 11Hw(.f) =J.
u4
e
2 J\ 2 (1)
+---
1':¡
=
J/(1)
= (f- Id)(1';0 ). En estas condiciones.
Nótese que para cletermiuar la matriz de .Jordan no hemos necesitado calcular de forma explícita los subcspacios ni la base. D
Unicidad, salvo permutación de bloques, de la matriz de Jordan Para dc>tc>rminar la matriz ele .Jordan de mt enclomorfismo f se busca una base ele .Jordan de cada subespacio máximo. Los vectores ele estas bases se escriben por filas. tal y como se indicó ('ll pág. 22:~. Podemos cambiar el orden ele los n'ctores de la base. sin separar los vectores correspondientes a cada fila de la tabla, pero sí cambiando el orden ele las filas. y obtendríamos uua matriz de .Jordan cou los mismos bloques pero en otro orden. Por ejemplo. supongamos uu endomorfismo cuya matriíl de .Jordan es:
íJJla(f) = .J =
o o o o
1
()
l
1
o o
()
1
()
()
()
2
()
()
o
l
o o () o o () o ()
() ()
o o
o o o o ()
()
()
()
2 l
o
()
2
o
o
()
B
=
{1· 1 .1· 2 11':>1
c_¡.l';,.l'ti
l1·¡}
2
que se corresponde con las siguieutes tablas de .Jordan para los subespacios máximos :¡
e
K 2 (1)
+---
1'¡
;¡
2
= JI(1)
4
J\1 (2)
e
1\2(2)
e
Kl(2) = M(2)
l'(j
+---
l'.)
+---
1'_¡
1'1
S.:t Forma canónica de .Jordan
229
Si ¡wnnutamos los vectores sin separar los vectores que forman una fila de alguna de las dos tablas. Pntonces obtenemos una pennutación en los bloques. obteniendo una matriz ele .Jordan distinta. Hecucrde que cada fila determina un snlwspacio cíclico y m1 bloque ele .Jorclan. Por ejemplo:
= .!' =
9ns· (!)
1 1
()
()
()
()
()
()
1
()
()
()
()
()
()
()
2 () () 1 2 o o 1 2
o o () o ()
()
()
()
o o ()
()
o
()
B' =
{1• 1 .1'¿
lc 1. u;¡.
l'(j
11':;
!1· 7 }
o o o lj () o () () 012
Las barras verticales en B y B' separan filas distintas ele la t ah la d.1) Cada n•z que t.engamos una pareja de raíces complejas conjugadas A = a + bi y A = a - hi. ('ll la matriz canónica real que vamos buscando apa.reccrú un bloque 2 x 2 cmt las partes real (' imagi11aria de la forma (J /¡ ) (
-h
(/
Parn construir la matriz callónica real vamos a lWUH'jar la matriz A como mat.ri~ de n·al f y. a la vez, como matriz de m1 e11domorfismo complejo. Fonnalmelltl'. sea
V=
{11
+ ll'i:
11,
llll
elldomorfismo
11' E F}
uu coujuuto al que deuomiuan•mos extensión cornpleja de F o complejificación de 1/. El coujunto V es un espacio vectorial cmnplcjo de la misma dinwnsióu que V. E u particular V e V ya que ~~ = { 11 + lli : 11 E V} y B t ambi(~n es una base de V.
232
Capítulo 5. Formas canónicas de enclomorfismos Proposición 5.36
V.
Si Bes una base ele V, entonces tarnbi{:n es una base de
Demostración: Sean B = {1· 1..... 1' 11 } una base de V~- 11 + u·i E V. Como u. u· E ~r. entonces se pueden escribir como combinación lineal de los vectores dc B: u= U¡ 1'¡ + · · · +
~-
U 11 1' 11
11'
= h¡l'¡ + · · · + h11 1' 11 • con
O¡. /J¡
E
IR
Así
u+ wi = O¡l'¡ + · · · +
0
11
1' 11
+ (b¡l'¡ + · · · + h11 U11 )i
=
(o1 + h¡i)v¡ + · · · + (0 11 + bni)1' 11
por lo que B es un sistema generador ele ,;-. Veamos que tamhih1 son linealmente independientes en l ·. Procediendo por reducción al absurdo. supongamos que { 1'¡ ..... 1' sou linealuwnte dependientes en ~-. Sin ph·clida de gcneralidad, podemos suponer que 11¡ es combinación lineal de 1'2 ..... 1' 11 • es decir 1'¡ = (a2 + h2i)u2 +···+(un+ b,i)1·,. Pero en tal caso, 11 }
1'¡
=
ll:zl':z + · · · +
0
11
1" 11
+ (1!21'2 + · · · + Ú11 1' 11 )i
Así. la parte imaginaria del miembro derecho de la igualdad debe ser nula. de donde 1'¡ = 021'2
lo que contradice que v 1 • . . . . Definimos el emlomorfismo
U71
+ ··· + 0
11
1' 11
sean liuealmcnt e iwlepcnclientes en V.
.f de (.
D
que denominamos extesión compleja ele
!(u+ l't) = f(u)
f.
como sigue
+ .{(1•)i
Se cumple que las matrices ele f ~- ./ respecto de la basc B son iguales: 9Jt 6 (/) que .f y ./ tienen e1 mismo polinomio característico:
= 9J1. 6 (.f) = A, por lo
p¡(A) = P¡(A) = clet(A- ).Id)
.f
Ahora, para el enclomorfismo complejo dt' matriz A sc cumple el Teorema de Existencia 5.31 ~ podemos obteuer una matriz de .Jordan compleja. la hase de .Jordan. y una descomposición ele í· en suma directa de los subespacios máximos. Sean ). = u + bi y .\ = o - bi dos raíces complejas conjugadas ele P.r, que por tanto son autovalorcs complejos de Si 1' E V es un autowctor asociado a A, sc tiene /(e)= Al'.~· considerando conjugados
.f.
/(¡·) = ;;:;-:. Por las propiedades de la conjugación compleja y por ser./ lineal se deduce que./('(') = 3-f'. Así. el vector f' es un autovector asociado al autovalor .\. 1\Iás aún. como las ecuaciones de los suhespacios generalizados: son equivalentes. entonces las bases de los subespacios m(lximos i\I(A) y JI(.\) pueden elegirsl~ conjugadas. Acabamos de demostrar el siguiente resultado
S.4. Forma de .Jordan Real
Proposición 5.37 Si B
=
{V¡, ... , Vr} es una base de llf(A), entonces
f3 = {'V 1 ,
... , Vr} es una base de
llf(..\).
Las bases el.)
e
(
A
o
()
o
1
A
o
()
o
()
o
o
A
L,
y IJ,(A)
~
(
),
o
o
()
1
A
()
()
()
()
o o
A
L
(S.9)
Entonces, S-)
o
h :
e(>-)
~
c2,.(>-) = (
o
Demostración: Para la primera parte supongamos una comhimtción lineal
L
Ct¡/1.¡
+
i=l
Como
11;
=
~(1';
o=
+ li;) ~ ():
y
w¡
L..., ; ( l 'j
= -;_/ (1'¡-
1'¡).
L
sustituyendo
~ - i ¡) + i'¡) + L...,
T (1
j=l
iJ¡U'¡ = ()
i=l
'¡ - 1'¡)
=
¡=1
tricas y algebraicas, de los endomorfismos:
a) Ji proyección de base U :;· dirección W.
~·
b) s sirnet ría de base U y dirección H/. 5.11. Sea fa el enclomorfismo de un espacio vectorial real de dimensión :3 cuya matriz respecto a la una base B es
A=
(
l G
U+ :3a
o
:3
~
3
)
¡,Para qué Yalores de a E IR es fa cliagonalizable?
5.12. Determine la forma canónica de .Jorclan J del cndoworfismo del ejercicio anterior en el caso no diagonalizable a= 2. y una base B' tal que 9JlB'(h) =J.
241
G.5. Ejercicio,; propuestos
5.13. Sea
f
el endomorfiHmo ele IR'.4 definido por
j(:E 1,:r 2.:r;3.x4) = (-2:r2+x:¡-2X,¡, :r¡ +3:r2-:r:¡+:r4, 3x, +4:r2-.r:3+3:D4, 2:r¡ +2;¡;2-:r:~+4:r4) Demuestre que loo; subespaeios vectoriales U y TV sor1
f -invariantes:
Determine una base Bu ele U y otra base Bw de TV y compruebe que la matriz ele de la base B = Bu U Bw es diagonal por bloques.
f
respecto
5.14. (*)Demuestre que si una matriz A es Hemejante a una matriz que es un bloque de .Jordan B,(A.), de orden n, entonces A tambi{~n es o;emcjante a B,(A.)t. Utilizando este resultado, demuestre que Hi A eH semejante a una matriz ele .Jordan .!, entonces tambi{~n es semejante a Ji. Y corno cono;ecuencia A es Hemejante a A 1 . 5.15. Obtenga la,; poo;ibles matrices de Jordan de un endomorfio;mo de dimensión 4 que Hatisface la,; siguientes condiciones:
f
ele un espacio vectorial V real
a) f no es diagonali:;mble b) clim Ker(.f- 2 Id) = 2, dim Ker(J +Id) = l. 5.16. Sea
f
e! endomorfismo de IR'.'1 cuya matriz en la base canónica B es
2 -1 íJJla(f) =A=
(
~
o
o o
1 2
-1) -1 -1
o
Determine sus autovalores y subco;pac:ios propios asociados (dimensiones y ecuacioneo;). Encuentre la forma canónica ele .Jorclan ele f y la base en la que se obtiene.
5.17. Sea
f
un en cnclomorfio;rno de IR'. 4 cuya matriz en la base canónica eH
A= (
3/2 1/2
-1/2 1/2
o
1
o
o
o
o
1
o
Encuentre las ecuacioneH de una recta r y un hiperplano H, de IR'. 4 , invariantes por que r n H = {0}. El polinomio característico de A es Ji¡(A.) = (A.- 1):1(>..- 2).
f
y tales
5.18 . .Justifique razonadamente en qué caso,; exio;tc algún cndomorfismo f de JK:O (!K= C o IR) que tenga un único autovalor A. E lK de multiplicidad algebraica 6 tal que para cualquier matriz de A de f se cumpla:
a) rg(A- A.I) = 4, rg(A- A.Ij2 = 3, rg(A- A.I) 3 = 2, rg(Ab) rg(A- A.I) = 4, rg(A- A./) 2 = :{, rg(A- A./):3 = 1, rg(Ae) rg(A- Al) = 4, rg(A- AI?' = 2, rg(A- AIY' = 1, rg(Ad) rg(A- A.I) = 3, rg(A- A.I) 2 = 2, rg(A- A./): 3 = L rg(A-
A./) 4 =O.
A.I) 1 =O. A.J) 4 =O. A./) 4 =O.
En los casos en los que exio;ta tal enclomorfismo, dar la matriz ele .Jordan.
2-±2
Capítulo G. Formas canónicas de endomorfismos
5.19. Sea
f
un endomorfismo de IR_¡ cuya matriz l'n la base canónica es
=
íJJ1s (f)
(
a) DetermiiH' para
quf~
5.20. Sea B
o
()
~;
-1
()
()
d
('
o)o ~
. cou o.IJ.c:.d.e E IR
(
valores ele u. li, c. d. e E IR el cndomorfismo es cliagonalizablc.
b) Para o = e = O y h = matriz P tal que J
-1
=
r
= d = 1: encuentre la forma canónica de .J ordan .] de .f y una
r- 1íJJ1n(f)P.
= {1'¡. 1· 2 . l':d una basf' dP un espacio Yectorial lf y .f Kcr(f- Id)
Halle la matriz de
f
={:x·
1
= .r 2
Ker(f- 2 Id)
}.
m1
={.r
endomorfismo tal que 1
= 2.r 2 = 2.l'J}
en la base B.
5. 21. Sea B la base canónica de !K 4 .v
f
un endomorfismo tal que
Kt~r(f- ld):l
{.r 1 - :r 2 + .r:l- .L¡ =O} {.r¡- .1·2 + .r:l =O .. r_¡ =O} {.r¡ + :r:l =O. :r¡ =O . .r2 =O} {.r¡ = .r2 = .r:l =O}
KPr(f- Id) 2 Ker(f- Id) Ker(f)
Determine una base B' tal que í)JlB' (f) sea la forma canónica de .Jonlan dl' 1111 endomorfismo que cumpla las condiciones anteriores. Calcular la matri;.~ ele f en la base B. 5.22. Sea f un cndomorfismo de IC" y A = íJJls(f) su que A es una matriz de rango 1, se pide: (}) Demostrar que A tiene
COlllO
mucho
llll
matri;.~
autm·alor
f
respecto a mm base dada B. Sabiendo
(l
E
e no nulo.
b) Determinar la multiplicidad algebraica del autovalor O.
e) ¡,En e¡ u{· casos es
f
diagonalizable?
d) Determinar las posibles formas rk Jordan de
f.
5.23. Determine la forma de .Jordan real. ~· la base correspondiente, del endomorfismo de JR-l cn\'a matriz en la base canónica es
o -1 2
o 1
-1 1
1 2
-1 )
-]
()
()
;~
5.24. Determine las posibles formas de .Jonlan reales de un cndomorfic;mo .f de IR~" cu~·o polinomio característico tiene por raíz >.. = 2i con multiplicidad 4 en los siguientes casos: a) clim Ker(/- 2i Id) 4
=4 b) clim Ker(.f- 2i Id) = ;3 2
y tiene ecuaciones: T'a.b
={b:r¿- o.r;; =O,
Planos invariantes: los autovectores de asociado a A de ecuaciones:
.J!,
o (.Jf, - A I) X = O =;.
O
( ()
=O},
.J:¡
a. bE JK, (o., b)
(0. O)
son todos los conteuidos en el subespacio propio
()
O) O
()
{)
(.r1) (()) .1:2 O
.1 :;
={e:r¡ + d:r:; =O}.
=?V)..= {.r2 =O}
()
Por lo tanto, las coordenadas en B de los autovectores r:v 1 ecuaciones de los hiperplanos (planos) asociados He.d
cJ
+ !i'l';;
c.d E lK, (c,d)
cJ
de .J~ son (e, O, d) y las
(0.0)
Obteniendo una base de estos planos vemos que Hc,d = L(1'2· do¡ - cv;;). Todos son irreducibles salvo en el caso d =O ya que el hipcrplauo Hr-.o = L(v2, 1':>) = L(u2) C{l L(v:3) se corresponde con el subcspacio propio V)... Igual que eu el resto de casos el número de rectas invariantes coincide con el número de hiperplauos invariantes, tenemos la familia de rectas invariautes Ta.b y la familia de hipcrplauos invariautes He.d. Caso 3.6. Si
f
tiene uu úuico autovalor A con
O.)..
= :3 y
,Jn =
(~ ()
g).. ()
A
o
= 3, entonces su matriz de Jorclan es
o)o A
Este cndomorfismo es una homotccia. El subespacio propio es el espacio total V, por lo que todos los vectores de V sou autovectores y todos los subcspacios son invariantes.
250
Capítulo G. Subespacios invariantes
Caso 3. 7. Si !K = IR:. :v .f tiene un único autm·alor A con a;.. = g;,. = l. entonces su polinomio característico tiPne dos raíces complejas conjugadas a ± bi y sn matriz de .Jordan real ('S
oh=(~o
o (/
()/¡
-/¡
(/
)
Se tienen una única recta im·ariante: l ~ = L( 1'¡) y, por tanto. m1 único plano invariante L ( l'¿. l' ,) que es irreducible. Rectas y planos se identifican por la división en bloques dé• la matriz.
En espacios de dimensión -! o ma~·or. el estudio de los sulwspacios invariantes de dinwnsioncs intermedias, es decir. que no sean rectas o hiperplanos. ya no ('S tan automútico. Lo motinmtos con el siguiente ejemplo.
1
Ejemplo 6.6
Sea
f
1
Un ejemplo de estudio en dimensión 4
mt ewlomorfismo de mt espacio n•ctorial V de dimensión -1 cu~·a matriz en una hase I';J. n.¡} es 1 o o o
B = {u1 . ¡· 2 .
J = 9J1r.;(f) =
o ()
()
o () ()
2 o
()
2
Rectas invariantes. Todas las contenidas en los subcspacios propios ~-1 = L(¡· 1 .c 2 ) v l2 Las rectas en el plano V1 están gennadas por los autovcctores asociados a dicho autovalor Ru.h = L(al'¡ l\Iás la recta
v2
=
L(I'J)
= { .f¡
=
·~""2
+ b1·2) = { b.r¡- fl.l"¿ =
.l";j
=
L(1· 1 ).
=O, .r;1 = :r 1 =O}
=o}.
Hiperplanos invariantes. Los snlH'spacios propios de .! 1 son:
V1
v2
=(f
- l..¡) X = O => V
=( f - 2I )X =O 1
=>
1
l/2
={.r ={.r
1
= .r .¡ = O}
1
=
.r 2
=
.r.¡
=O}
por lo tanto las coordenadas en B de los autovcctores de Y son (u. b. (L O)B ~· (0. O. c. O)B y de ellos se obtienen los hi¡wrplanos: Ha,b
= {a:I:¡ + b.r¿ H
=O}
={.r:J =O}
COl!
con
= L( -/JI'¡ + II/'2. l':l· H=L(t'¡.l'¿.l'¡)
Ho,h
COllll.
b. e E K
1'.¡)
Planos reducibles: Los planos reducibles invariantes sm1 snma de dos rectas im·ariantes distintas. Las posibles comhinacioues son:
251
ü.2. Descomposici{m de subespacios iuvariautes
Planos irreducibles: Identificamos 1mo asociado al bloque de .Jordan 2 x 2 del autovalor 2:
El plano l\1(2) es irreducible pues sólo contiene una recta invariautc ya que la matri:;; de la aplicación es un bloque de .Jorclan ( f que se corresponde con el caso 2.3. La única recta invariante coutcuida Cll l\1(2) es L(u4) = v2.
fiA/( 2 )
8),
E:,;ü~ endomorfismo no tiene más planos invariantes irreducibles, aunque ahora todavía uo tenemos herramientas para demostrarlo. En la signi.;)
nu
Así, K'i(>.¡) es un snhespac:io f-invariaute c:onteuido en Ki(,\¡), por serlo Ki(>.¡) y U. Teniendo en cuenta que algunos de los subcspacios l\1(>.;) n U ¡mcdeu ser triviales. entonces hemos demostrado el siguiente resultado:
252
Capítulo 6. Subespacios invariantes
Proposición 6. 7 Descomposición de subespacios invariantes Sean f un endomorfismo que admite una forma canomca de .Jordan J y U un subespacio f -invariante. Entonces. U se descompone en suma directa de subespacios invariantes U1 contenidos en los subespacios máximos 1\I(>.;):
U= U¡ EB · · · EB Uk. con U;= M(>.;) n U
Corolario 6.8 Todo subespacio invariante irreducible está contenido en un suhespacio máximo.
Observación: Estos dos resultados c;crán útiles para obtener todo,; los subespacios im·ariantes de un endornorfismo. En efecto. si calculamos todo,; los suhespacios irreducibles de un endomorfismo. que estarán contenidos en los suhespacios múximos. entonces el resto de subcspacios Ü!Yariantes se obtendrán considerawlo todas las combinaciones posibles de sumas directas de aqn{•llos. Los subespacios Ü!Yariantes irreducibles habrá que buscarlos dentro de los subcspacios máximos pero. ¡cuidado!. dentro de los suhcspacios máximos tambih1 puede haber subcspacios reducibles. como hemos visto en ejemplos anteriores.
Subespacios invariantes asociados a un bloque de Jordan Escogiendo las bac;es de .Jordan adecuadas B; en cada suhcspacio máximo 1\I (A¡). tenemos que la matriz de f referida a la base B = B 1 U · · · U Bk es diagonal por bloques ()
())
o
~'
()
o
o
Donde cada suhmatriz A; es. a su vez. una matriz diagonal por bloques. que son los bloques de .Jordan B 1, (>.;), .... B;u, (>. 1) asociados al autovalor >.,.Recordemos que hay tantos bloques como multiplicidad geomótrica g 1 tenga el autm·alor A¡. Sea B 1 ( >. 1 ) uno de tales bloques
(
~' O
o
:) 1
>.,
j Xj
6.2. Descomposición de subespacios invariantes
253
Los vectores asociados a este bloque son los correspondientes a una fila de la tabla de construcción de la base de .Jordan e Ki e
+---
V¡
V¿
E::; decir, u1 , v 2 = (f ~A; Id)(vl), .... I'J = (f ~A; Id).i-l (vl), con v 1 E KJ (A;)~ K.i-l (Ai); y generan el ::;ube::;pacio j ~cíclico L(v 1 , ... , v 7 ). Este subespacio contiene exactamente j subespacios invariantes irreducibles (uno de cada dimensión) que son los siguientes:
L( ~'J)
una recta invariante, por ser Vj un autovector un plano irreducible invariante
L(v.i-1· uj)
un subespacio invariante irreducible de dimensión j
~
.s
+1
Y no hay ningún subespacio invariante más contenido en L(u 1 •... , v 7 ). Véase el Ejercicio 6.17. 1
Ejemplo 6.9
Consideremos el endomorfismo
.J = íJJts(f) =
La base de Jor·dan B
= {v 1 , v 2 ,
t':l, 11.1 , u5 }
f
de JK" con matriz de .Jordan
20000 12000 O 1 2 O O o o o 2 o 00012
se corresponde con la siguiente tabla: :;
4
2
K 1 (2)
e
K 2 (2)
e
K 1 (2) = flf(2)
1!.1
+--+---
'1'2
+---
V¡
Vf>
'/'.¡
La primera fila ccmtiene los vectores u 1 , u2 . 1!;¡, correspondientes al bloque 3 x 3. El subcspacio L(t• 1 , 1• 2 • 1';¡) contiene lo::; siguicutcs subespacios invariantes irreducibles: Recta: R 1
=
L(11c,)
Plano: P 1
=
L(v 2 , v:1 )
La ::;egunda línea contiene los vectores r,1 , t':;, correspondientes al bloque 2 x 2. El subespacio L( l'c,. v;,) contiene los subespacios invariantes: Recta: R 2
= L(v;,)
Plano: P 2
= L(v4. v;;).
3~cíclico
2~cíc:lico
Capítulo 6. Subespacios invariantes
25cl
La matriz de la aplicacióu restricción de formada por un bloque de .Jonlan:
f
a cada uno de estos subcspacios es tma submatri;.-: de J
.
M(.f]I'¡)
= 1\I(f]Fd =
(2 o) 1
2 .
o 2 1
Aclaración: Este endomorfismo tiPne rm1d10s más subespacios invariantPs. Aquí sólo hemos calculado los coutenidos culos suhcspacios L(1· 1. 1'2· I':J) y L(1·;3 • u1). D En el siguiente ejemplo ilustramos la descomposición de un subcspacio im·ariante a la que hace referencia la Proposición anterior.
Ejemplo 6 · 10 1 Consideremos el cndomorfismo f de un !K -espacio n'ctorial una base B = {e 1 •••.• us} tiene la siguiente matriz ele .Jorclan:
1
( B¡ jO \
2
o () () o
1
2
'r que respecto dP
o o o
o 1 2 o o o o o 3 o o o o 1 :~
\OlB;J
El espacio \·ec:torial como suma directa de los suhespacios max1mos es V" = "U(2) •:8 JI(3) donde jf(2) = L(l'r,v2.1':l) y 1\!(3) = L(1':¡.v5). El subespac:io U= L(1·:3 .v4 , ¡·~)es f-invariante ya que f(1':3) = 21':1 E U. f(u4) = 31'4 + l'f> E U y f(l':,) = 31'~ E U. Es fácil comprobar que [/ no est(t contenido en ninguno ele los subcspacios máximos. luego por el Corolario G.R se tienP que es reducible. La descomposición ele U en suma directa de subespacios irreducibles la obtenernos de la Proposición 6. 7
U= U2 S U: 3 con [h = JI(2) n U. U:3 = JI(3) n U Las intersecciones se calculan observando las bases de cada subespacio U2 = L( 1':;) es una recta invariante contenida en 1\!(2) y U:l = L(v:¡. 1';:,) = ¡\J(3) es el plauo formado por el subespacio máximo. La descomposición U= U2 -= [f:J se corresponde con la división eu bloques de la matriz de fJ¡· respecto de la base B¡· = {1';¡.1'4, 1'5}
( ) ~
()
o
3
() ()
1
:3
D
G.2. Descomposicióu d(' subespacios iuvari;-mtes
2G!í
El siguieute resultado iudica cómo obtener todos los sulwspacios iuvariantcs irreducibles.
Proposición 6.11 Caracterización de subespacios irreducibles Sea f uu eudomorfismo ele un JK: -espacio vectorial V que admite una forma cauóuic:a ele Jordan. U u subcspac:io vectorial de V de climensióu r· es .f -invariante e irreducible si y sólo si es u u subespac:io r-cíclico.
Demostración: Sea U un subespacio .f -iuvariaut.e irreducible de dim('!Jsióu r. eutom:es para algúu autovalor .\de f se tieue U C: M(.\) y r :S: a. dond(' a= dimllf(.\) es la multiplicidad algebraica de .\. La forma cauúuica de .Torclau del cndomorfismo .f lu ce; tú formada por un úuico bloque de .Tonla11. ¡mes si tuviera varios bloques, el sul)('spacio U c;nía reducible. Así, si B es u11a has(' de U tal que ~I)(B(fl¡ r) es la forma cauóuica de .Torclau de flrr, cntoucec; B = {u. (f - .\ Icl)(1•) ..... (.f- .\Id),_¡ ( 1')} ('On 1' E Ker(.f- .\Id)"- Kcr(f- .\Id)'. 1 ..v por ta11to U ('S r-cídic:o. El r('C:Íproco ya se ha estudiado aut('s: los subespacios r-cíclicos son f-iuvariantcs. Vbtse pi1.g. 2Hi. D Ejernplo 6.l 2 Tenemos ('11 cuenta d cndmnorfismo del Ejercicio G.9 y vamos a utilizar la Propoc;ición G.ll para estudiar cómo sm1 los planos irrcclucihles. El esquema ele la base ele .Tonlan es
1
I\ 1
e
K2
e
/( 1 = J11(2)
1':¡
+-
1'¿
+-
1'¡
1'-.)
1'¡
Por lo que uua base del subespacio generalizado primero !\ 1 (2) (•stA formada por los vectores de la primera colunma ele la tabla 1':¡ y 1':;. y uua base ele J\ 2 (2) estú formada por los vectores de la primera ~' segunda col un mas 1'¿. 1':¡. 1' 1 y 1';,. Así
J\ 1 (2) = L(u: 1• 1';,)
={.r
1
= .r 2 = .r. 1 =O} y /\ 2 (2) = 1~(¡• 2 • 1':;. 1'.¡, 1';,)
={.r¡ =O}
Los planos irreducibles son los 2-cíclicos. que son de la forma P
=
L(1•. (f- 2I. 1 Id)" 1
·.~
• • •
tB Ker(f- >., ld)a,
(6.5)
Por otro lado, si Ker(J- A¡ Id) 1• es d subespacio máximo 1\I(>.;) asociado a A¡. de dimPnsión d,. entonces se cumple
JI(>.;) = Kcr(f- A¡ Id/• = Ker(f- A¡ Id/·+i. para todo j ;?:: 1 La descomposición (6.5) implica que JI(>.;) e Ker(f - >., Icl)"·. luego 1, < n; y así ¡\!(>.;) = Ker(f- A¡ Id)"'. Entonces, la descomposición (G.G) es exactamente la que se obtuvo en el la demostración del Teorema ele Existencia. pág. 226:
V= JI(>.l)
~
· · · CP M(>.,.).
Caso real Si
f
es un endomorfismo ele uniR-espacio vectorial de dimensión n. eutonces su polinomio característico
p¡ no tiene por qu{~ tener todas las raíces reales. Si la raíces ele Pi son >. 1 . . . . . A, reales y a,.+ 1
±
ibr+!· .... o~-: ± ih¡,. complejas, entonces la descornposición del polinomio característico en factores es:
con n 1 + · · · + n,. + 2( n,.+ 1 +···+o~-:) subespacios invariantes es
1
= 11.
En este caso la descomposición del espacio vectorial ~· en
Ejemplo 6.18
Sean B
= {1• 1 . u2 . 1':>} una base de un espacio vectorial real A = 9Jla (f) =
(fl ()
~·
f
el enclomorfismo
COI!
matriz
o 2 :3
:3 Si un cuerpo lK tiene la propiedad de qne todo polinomio de grado n son coeficientes en K tiene exactamente n. raíces en [{, se dice que es algebraicanwnte cerrado. Es el caso del cuerpo rC de los números complejos, pero no de R.
G.:t Subespacios invariantes y polinomios
Por la estructura en bloques de la matriz vemos que tiene dos suhcspacios invariantes. La recta L( 1· 1 ) y d plauo L( v2 , 1':1 ). Tambi(~n vemos que S O.
+q=
n.
En el Ejemplo 7.34 diagonalizanos una forma bilineal
f
obteniendo
o 5/2
o Como el número de elementos positivos en la diagonal es 3. entonc O para todo k
= det Ak > O para todo
k
=
=
1, ... , n.
l .... , n.
Demostración: Sea B = {1• 1, .... c71 } la base tal que A = IJJl 8 (f). Para todo k ~ 1 sean B¡,. = {1• 1 . . . . . r¡J y V¡,. = L(1• 1 .... ,u¡,.). Si consideramos la forma bilineal restricción de fa\~.. fh·, : V~c- x V~c- --+ IR. entonces tenemos que Ak = IJJla, (fk,) es la submatriz de A formada por las k primeras filas y k primeras columnas. Si fes definida positiva, también lo es flv, por lo tanto A~c- es congruente con la matriz!,..;. Entonces. existe una matriz regular Pk tal que Ak = Pf!,..;P~,. Por tanto 6.~c- = ( -l)k det(P¡,) 2 y de ahí Ó.¡, = det A.¡,. = dct Pkt det P¡,. = ( det P~c- )2 > O. Si
.f
es definida negativa. también lo es
JI~·,, y
por lo tanto A.k es congruente con la matriz -h.
297
7.6. Clasificación de formas bilineales simétricas y cuadráticas reales Entonces, existe P regular tal que Ak = Pf(-h)Pk y de ahí (-1)k6.k = (-1) 2 k(detPk) 2 >O.
Para demostrar que las condiciones sobre los menores son suficientes procedernos por inducción sobre la dimensión de V. Supongamos que 6.; > O para todo k = 1, ... , n. Si dim V= 1, entonces dct A= 6. 1 >O, qnc por ser una matriz 1 x 1 es diagonal y todos sus elementos son positivos. Entonces, sg(f) = (1, O) y f es definida positiva. Supongamos, como hipótesis de inducción, que el resultado es cierto si dirn V
=n-
l.
Si dim V = n y considerarnos la restricción flv,_ 1 , entonces por la hipótesis de inducción flv,_ 1 es definida positiva, y así, existe una base B,_¡ = {u¡, ... , Un- d de Vn.-1 tal que 9J1s,_ 1 (flv,_ 1 ) = In-1. Si completarnos esta base hasta obtener una base B' = {u 1 , ... , Un- 1 , Un} de V, entonces la matriz de .f en dicha base será
9J1s' (!) = ( 1 1 (L¡
donde o; = .f (n;, nn) = .f (u.n, 11.;). Haciendo la diagonalización por congruencia de esta matriz simétrica. podemos obtener una matriz congruente diagonal:
Por hipótesis, todos los menores principales ele 9J1w (.l) son positivos, y en particular el determinante: det 9J1w (.f) luego det D = d > O. Así, la signatura de es decir, .f definida positiva.
.f,
= det D (det P) 2 > O que es el número de elementos positivos en D es (n, 0),
Del mismo modo, se demuestra que si ( -1 )k 6.k > O para todo k negativa. D
= 1, ... , n entonces .f sería definida
Ejemplo 7 .4l 1 Determine para qué valores de a y b la siguiente matriz es la de una forma cuadrática real definida positiva.
1
b b2 + 1 b+1
h+1
1
h+1
h+1 1 )
3 :3
"3 5-o.
Se calculan los menores principales, pero previamente aplicarnos operaciones elementales a la matriz, qne no varían el determinante y simplifican su cálculo:
det A = det
(~ ~ ~ b
O
2
4-a
) = dct
(~ ~ O O
~ 3-o
) = det
(~
b 1
o
l
o o o
2:
J
298
Capít.ulo 7. Formas hiliucalcs
~1
= 1 >O.
~-'!
~:.! = dd
= dd
(1o ()
()
IJ
l
e ()
1 1
() ()
()
/;) = 1 > O, 1
JJ
= 2-
"''
~ (~ dtt
h 1
()
()
u > O si ,. sólo si
;)
.v
cm\dráticas
1>0
(/ < 2
Así. una forma bilineal cuya matriz sea A es definida positi\·a para todo valor de b ~· para o
O para i = l ..... 11. • Semidefinida positiva si
~·sólo
si d¡ :;> () para i = l. ....
11
y d; =O para algún i.
• Definida negativa si y sólo si d; = .f(u.1·) Esta operac10n se denomina producto escalar y ¡wnnite iutroducir en V los conceptos geomNricos fk lougitud de un vector ~· ángulo ('JÜn' vectores. Los espacios vectoriales dotados con este tipo ele productos se estudian en d siguieute capítulo. El producto escalar usual eu IR" estú definido por la forma biliueal
f((.r¡ .... ,:rn). (y¡ .... ·Yn))
= .I'J.IJI
+ ... +.1'n/Jn
=
X 1 In y
299
7.7. Formas sesquilineaks
7.7.
Formas sesquilineales
Eu espacios vectoriales complejos se puede introducir tambih1 d concepto ele producto entre vectores que permita una forma de medir lougitudes y úugulos. Sin embargo. si f es uua forma bilincal cu un espacio vectorial complejo, no tiene sentido la comparacióu f (1', 1') > () ya que f (u. u) E C. E u esta sección presentamos 1m tipo de forma hilincal con la que podremos definir el ec¡uivalcute complejo del producto escalar: el producto hermítico. U u a aplicación f : V --+ vV cutre espacios vectoriales complejos se dice que es una semilineal si para todo II. u E V. A E e ('lll!lplc las propiedades
f(u +u)= f(n)
+ f(u),
f(Au)
y
=
aplicación
.\1•
Definición 7.43 Dado m1 espacio vectorial complejo V. una aplicacióu f : V x V --+ e se dice que es una forma sesquilineal si es lineal en la primera componente y scmiliueal eu la scguuda. Es decir, si cumple las siguientes propiedades: (1) f(u.+i•.w)=f(u.w)+f(u,u•).
(2) f(A u, 1') =A j(u, 1'). (3) f(u.
1'
+ w)
=
.l(n.
P)
+ .f(u. u•).
("1) f(u, Au) = Af(u. P). para todo vector u, u. v• E V y todo escalar A E
e,
doude A dcuota el conjugado de A.
Sean f : V x V --+ e una forma scsquiliucal y E = {1'¡ . . . . . 1' 11 } uua base de V. Dados dos vectores cualesquiera .r. y E V vectores cuyas coordenadas respecto a E son :r = (.r¡ ..... .rn )B e y= (y¡, .... Un )B, = .r 1 y 1
+ · .. + :r,y,
Con lo visto en el capítulo autcrior podemos demostrar que se trata de uua forma biliueal defiuida positiva. En efecto. podemos escribir
=< (.r¡ ..... .l'n ), (.IJ¡ .... , :tJ 11 ) >= (.r¡ .....1' 11 )
[ 11
(!fe)
= X 1 [ 11 Y
,1}¡¡
Por lo tanto se trata de una forma hilineal simétrica. por serlo I,. de S~·lvester: Proposición 7AO. D
~·
definida positi\·a por el Criterio
Ejemplo 8 · 4 Sea IR" [.e] d espacio Yectorial de los polinomios en una imkterminada .r coeficientes reales ~· grado menor o igual que 11. Un producto escalar en IR" [.r] viene definido por
1
< p(:r). q(.t) >=
l'
p(.r)q(.r)d.r
Luego el par (IRn[:r]. ) es un espacio vectorial euclícko 1 . 1 Euclides.
Grecia 32!'i - 260 a. de C. Considerado padre de la Geometría.
COl!
:307
tU. Producto escalar
En d lücmplo 7.2 vimos que es una forma bilincal. Así, se cumplen las propiedades (2) y (:1) de la definición 8.2. La propiedad de simetría (1) se deduce de la propiedad conmutativa del producto ele polinomios
< p(:r). q(:r;) >=
j ·b p(:r )q(:r )d:r = ¡·b q(:r )p(.r )d:r =< q(:r). p( :r) > o
a
Y la propiedad de positividad (4) se tiene porque la integral definida de una función positiva es un número positivo
< p(.¡;),p(:r) >=
j
¡
{¡
·b
p 2 (:¡;)d.r :::>O
y
< p(:r).p(:r:) >=
u.
•
Ejemplo 8.5 1 En el espacio vectorial producto escalar está definido por
1
En los ejemplos 7.2 vimos que traza y la traspuesta
l~s
9]("
p 2 (:r)d:r =O{=} p(:r) =O
D
(l
(~) de las matrices reales cuadradas de orden n, un
una forma bilincal. La simetría se deduce de las propiedades de la
Para comprobar que es definida positiva basta observar que si A= (a¡.i), entonces n
1
< A. A >= tr(AA ) =
2 a 11
2 +u 12
2
'\"""'
+···+o'"' = 0
i.j=l
Además. < A. A>= O si y sólo si A= O.
D
2
a¡ 1 2> O
Capítulo 8. Espacio vectorial euclídeo
308
8.2.
Matriz de un producto escalar
Dado que un producto escalar es una forma lJilineal. se define su matriz respecto de una base igual que para las formas bilineales. Supongamos que (V, ) es un espacio vectorial euclídeo. dirn V = n y sea B = { v1 •.... Vn} una base de V. Dados dos vectores cualesquiera :r. y E V n~ctores cuyas coordenadas respecto de B son .r = (:r¡ ..... :r:,)a e¡¡= (.y¡ ..... Yn)a, entonces n
=
) =
(
< 1'¡~:1'¡ >
Esta matriz se suele denominar matriz métrica o matriz de Gram. La expresión analítica o ecuación del producto escalar en la base Bes
=
(:r¡ ...
:rn)
Ca
(y:¡) = X
1
Ca y
(8.1)
.IJn
Ejemplo 8 · 6 1 Retomamos aquí el ejemplo 7.6 (b), pág. 275. En el conjunto de matrices 2 x 2 reales consideramos el producto escalar < A. B >= tr(AB 1 ) y la base canónica
B = {A1 = (
~ ~
) . A2 = (
~ ~
) . A;,= (
~ ~
) , A4 = (
~ ~
) }
Vimos que la matriz del producto escalar en dicha base es Ca = ! 4 . luego la expresión analítica o ecuación del producto escalar en dicha base es:
igual que el producto escalar usual enlR 1 . Como comprobamos en aquel ejercicio, el producto escalar de las matrices
podf'mos calcularlo sustitu:vendo en la ecuación anterior sus coordenadas en B. Es decir. como
A= (1, 2. 3. -l)a y B = (5. 6. 7, 8)a entonces < A, B >= 1 · G + 2 · G + 3 · 7 + -1 · 8 = 70
O
309
8.2. l\latriz de un producto escalar
Matrices de un producto escalar en distintas bases Las matrices de un producto escalar en distintas bases se calculau exactamente igual que se hizo en la sección 7. 2 y se tiene entre ellas una relación de congruencia. Si B = {v 1 , ... , Vn} y B' = {u 1, ... , Un} son dos bases de un espacio vectorial euclídeo (V,), y las matrices del producto escalar en dichas bases son entonces con P matriz de cambio de base ele B' a B
1
Ejemplo 8. 7
(8.2)
En !R 2 se considera el producto escalar definido por
Sean B = { (1, 0), (0, 1)} la base canónica y B' = { u1 = (1, 2).u. 2 = (3, 4) }. La matriz Ca del producto escalar en la base canónica se obtiene calculando
< (1,0), (1,0) >=l. < (1,0), (0, 1) >=< (0, 1), (1,0) >= -1, < (0, 1), (0, 1) >= 2 Por lo que
Ca= (
-~ -~
De modo que Ca' se obtiene considerando la matriz P
)
= IJJ1a' a de cambio de hase ele B' a B:
y haciendo el producto
1
Ca' = ptcaP = ( :3
2
1
4) ( -1
-1 ) (1 3) = (5 2
2
4
9
Tambión se puede obtener directamente la matriz del producto escalar en la base B' calculando los productos escalares
:no
Capítulo 8. Espacio vectorial euclídeo
Norma y ángulo
8.3.
Definición 8.8 Sea (V. ) m1 espacio vectorial euclídeo. Se define la norma o longitud de un vector 1' E \ · como PI número real no negatinJ lkll = v< 1·. ¡· > Un vector de norma 1 se denomina vector unitario. Las primeras propiedades de la norma se deducen directallH'lltc dP las del producto escalar.
Proposición 8.9 Propiedades de la norma
(1) lldl >O para todo n 1 OF y IIOvll =O. (2) llovll = lnl·llvll
(3) llv + vW = lluW + llvll 2 + 2 =< u. u>+< u./'>+< 1·. u>+< 1·. 1' >= lluW+II~·II 2 +2 < n. /' >. (el) Para u = O o e = O la propiedad se cumple trivialmente. Supougamos que u y ¡· sm1 n•ctores u o nulos y consideremos el vector u· = ~ + ¡t¡¡. Si escribimos el producto escalar < u·. w > obtenemos
u 1' /l /' 0
IHI 2
+ 2
llullll¡•ll
-11 11 11111'11
=;.-
1
'------------'
llu 11 · 11 1' 11
~
1
por lo que prescindiendo del valor absoluto se tiene -1
< (1.1). (2,0) >
1·2+1·0
/2
llull · llvll
11(1, 1)11·11(2. 0)11
VI+T )22 + ()
2
2v_.30 .
"
vÍ3Ü 1 )=arccos6
D
8.4. Ortogonalidad. Bases ortogonales y ortonorrnales
8.4.
Ortogonalidad. Bases ortogonales y ortonormales
En un espacio vectorial euclídeo (V,), dado que el producto escalar es un forma bilineal, se tiene el concepto de vectores conjugados respecto al producto escalar. En estos espacios, en lugar de utilizar el th·nimo conjugado se utiliza el de ortogonal. Definición 8.13 Sea (V ) un espacio vectorial euclídeo. Dos vectores u. y se denota por n l_ ·u, si son conjugados por , es decir si = 0 es un conjunto ortogonal s1 los vectores son
>= O para todo i i- j
U na propiedad de los vectores ortogonales es que son linealmente independientes. Proposición 8.14 Sea (V, ) un espacio vectorial euclídeo. Si {v 1, ... , vd es un conjunto ortogonal de vectores entonces {v 1, ... , V k} son linealmente independientes.
Demostración: Lo demostramos por reducción al absurdo. Sea {v¡ .... , V k} es un conjunto ortogonal de vectores de V, y supongamos que es linealmente dep(~ndiente. Entonces, existe al menos un vector que es combinación lineal de los demás. Podemos suponer, sin perdida ele generalidad, que tal vector es u1 • Es decir con a, E IR Hacernos el producto escalar de v 1 por sí mismo y obtenemos
Pero, < ¡• 1 , v 1 >= O si y sólo si v 1 = O, lo que supone una contradicción con la hipótesis de partida ya que {v 1, ... , vk} es un conjunto ortogonal y los vectores no son nulos. D Definición 8.15 Sea (V,) un espacio vectorial euclídeo. Una base ortogonal de V es una base formada por un conjunto ortogonal, y una base ortonormal es una base ortogonal cuyos vectores son unitarios, es decir, ele norma l.
Capítulo 8. Espacio vectorial euclídeo
314
Ejemplo B.l6 Para el producto escalar usual e11 Jle. la hase ca11única es una base ortonormal. En efecto se cumple:
=< (0.1). (l. O)>= O
=?
son u11a base ortogo11al
< (1. 0). (l. O)>=< (0. 1). (0.1) >= 1
=?
son unitarios
Sin embargo la base canónica o estándar no es ortonormalni ortogo11al para otros productos escalares de JR 2. Por ejemplo. si consideramos el producto escalar defi11ido por la forma biliueal
2
< (.r¡.y¡).(Y2·Y2) >= (.r¡.y¡) ( _ 1 se tieue que los vectores (l. O) y (0. 1) no son ortogonales
~·a
que
2 =(1.0) ( -1
= -1
D
Existencia de bases ortogonales La existencia de bases ortogonales que, n~cordemos. sou bases de vectores conjugados. está garantizada por el Teorema de Existeucia 7.28. pá.g. 288. La demostració11 constructiva de ese teorema nos aporta un primer método para su obtención COI! el que hemos practicado eu el capítulo anterior. Un segundo mótodo para obteuer una base ortogoual es el ele diagmmlización por cougrneucia, resumido en el cuadro de la págiua 293. Por cualquiera de los dos m{~todos. si tenemos una hase ortogoual B una ortonormal sin más que dividir los vectores por sus normas:
B = {1'¡ . . . . .
1',}
ortogonal
= {1'¡ . . . . . 1'
11 }
podemos obtener
ortononnal
En efecto. por la propiedad 2 de la uorma
~~~~~ = ~llv;ll = 1 Esto es lo que se hizo en la Proposición 7.:32. pág. 290. De hecho L na base es ortogonal si v sólo si la matriz del producto escalar cn dicha base es diagonal. Lna base es ortononnal si y sólo si la matriz del producto escalar cn dicha base cs la idcntidad.
X.-!. Ortogonalidad. Bases ortogonales y or(ononnaks
:315
U na matriz ortogonal es una matriz cuadrada real cuya inversa es igual a su traspuesta. Esto es, A es ortogonal si A 1 A = J = AA 1 o si A-l = A 1 • Las colunmas de una matriz ortogonal de orden n son las coordenadas de los vectores de una base ortononnal de JR" para el producto escalar usual .
Proposición 8.17 En un espacio vectorial euclídeo (V, ) la matriz de cambio de base entre bases ortonormales es una matriz ortogonal.
Demostración: Sean 8 1 y 8 2 bases ortonormaks y P = 9J1B, B 2 la matriz de cambio ele hase de 8 1 a 82. Dado que las matrices del producto escalar en dichas bases s011 GB = GB' = 111 , entonces:
U no d(• los beneficios que aporta el disponer de una base ortogonal es que facilita d cálculo de coordenadas como se muestra en d siguiente resultado
Proposición 8.18 Sean (V, ) un espacio vectorial euclídeo y B = {v 1 , ... , ·un} una base ortogonal. Las coordenadas de un vector ·u E V respecto de la base B son
. = ( < n, V¡
llv¡ll 2
u
>
< 7L, Vn
.... ,
llv"ll 2
>)
Dichas coordenadas se denominan coeficientes de Fourier ele
Demostración: Sea
11 E
V tal que u = ( 11 1 . . . . .
< n,
1'¡
11,) B.
+ · · · + II
>=
=
para i = l. .... k - 1 son
>-
-
./ ()
(o+ /u+ c:r )(:r
+
3 -1 ld 3 5 7 l)rl:r =-;-o+ --;b + -r· 2
(¡
12
Así, mms ecuaciones implícitas de U 1_ son: U
l__{ 5 :3 7 = --o--/¡--. r· =O, :~
4
lG
3 + -b G + -r: 7 = () } -(}
2
(j
o
12
Proyección ortogonal Dado U un suhcspacio vectorial de V, la descomposición V = U U 1_ permite defiuir una aplic:acióu pro_y 1 , : V ---+ V que es la proyccTión dc base U ~, dirección U 1_. como se hizo eH la Sección 4.ií. En cmHTeto. todo vector 1' E V se puede' escribir de forma única como 1' = u + w con 11 E U y w E U l_. Llamamos proyección ortogonal sobre U a la aplicación proy 11
:
V 1'
Si
1'
E
U. cmtonces u= t•+O y proy 1" (t·) =
1'.
Si
1'
E
---+ ---+
V 11
Ul_ ent.mtces
1'
= 0+
1'
y proy 1 (o)= O. Por lo que
Capítulo 8. Espacio vectorial euclídeo
320
Así. proy u( i') es el único vector ?L E V que cumple u E U y 1'- u E U 1_. Si consideramos la proyección sobre el subespacio U 1_, en las mismas condiciones que antes, puesto que (U 1_ )l_ = U, tenemos que proyu_¡_(v) = w y para todo u E V se tiene L'
=u+ u·= proyu( i')
+ proyu_¡_ ( i')
V
=w
O
u= proy,
Figura 8.1: Proyección ortogonal sobre U
Definición 8.24 Sean (V. ) un espacio vectorial euclídeo, U un :mbespacio vectorial de V :v v un vector cualquiera de V. Llamaremos proyección ortogonal del vector v sobre el subespacio U. y se denota por proy u (L'). al único vector tal que proyu(v) E U y
¡•-
proyr(v) E Ul_
Ejemplo 8 · 25 1 En JR?. 3 . vamos a determinar la proyección ortogonal del vector L' = (2.1.1) sobre el plano U {.T - y = 0}. Por ser la proyección un vector de U será de la forma (a, o. 3), con a, 3 E lR?.. Entonces.
1
=
proyu(2.1.1)
= (n, a, d) si y sólo si (2.1.1)- (o. a, 3)
E
Ul_
Determinarnos unas ecuaciones de U l_ a partir de una base de U = L ( (l. l. O). (O, O. 1))
ul_ = { (x. y, z) : (x. y. z) .l (1, l. 0), (x. y. z) .l (0. O, 1)}
={X+ y= O. z =o}
Así.
(2- o, 1- a, 1- 3) E Ul_
~
2- n
+ 1- o= O.
1- 3 =O
~ a=~-
3= 1
y el vector proyección es proyu(2, 1.1) = (~. ~' 1). Obtenemos el vector proyección de (2.1.1) sobre ul_ que es proy¡;_¡_ (2.1, 1) = (2, 1, 1)- proyu(2.1, 1) = (~. -~. 0).
8.5. Subcspacios ortogonales. Proyección ortogonal
321
La matriz de la aplicación proyu : IR:l -+ U la podemos calcular sabiendo que las imágenes de los vectores de una base B' = {u¡, u2, u:J} con 11¡, 112 E U, 113 E U .L son f(v.,) = v.¡, .f(v.2) = n2, .f( u:J) = O. Podemos considerar B' = {(1 , l. O), (O, O, 1). ( 1. - L O)} :
9Jlw(pwy u)
~( ~
o 1
~)
o o o
Y la matriz en la base canónica B se obtiene haciendo el cambio de base 9Jll3 (proy rr)
9Jll3' l3 9Jll3' (proyu )9JlBB'
G
o o
~~) o
(; ~) G o
~r
o
o
1
o o
-1
o
1
(
1
1
2
2
1
1
2
2
o o
o
o 1
)
D
El siguiente resultado nos aporta un método alternativo para calcular la proyección de un vector sobre un subespacio, utilizando coeficientes de Fourier.
Proposición 8.26 Sean (V, ) un espacio vectorial euclídeo, U un subespacio vectorial de V y B una base ortogonal de U. Dado un vector cualquiera vE V se tiene que
= {u¡, ... , uk}
Demostración: Ampliemos la base ortogonal B de U añadiendo, por el Teorema de ampliación a una base. vectores Vk+l, . .. , Vn hasta obtener una base B' = {u 1 .... , 1Lk, V k+ 1 , ... , vn} de V. Aplicando a B' el Mdodo de Gram-Schmidt se obtiene una base ortogonal B" = {u¡, ... , V k, uk+l •... , un} con {u k+ 1 •... , n,} base ortogonal de U .L. Entonces, por la Proposición 8.18, tenemos que
lluill 2 Como la descomposición de un vector u como suma de dos vectores v es única, entonces: a;=
llv.;
11
2
= v + w con u
para i
E U y w E U .L
= 1, ... , k
También podemos afirmar que proy¡¡j_(v) =ah:+1nk+l
+···+a,u,.
aj
para j
= k + l. ... , n
D
Capítulo H. Espacio vectorial euclídeo
:322
Ejemplo 8.27 1 Eu el ejemplo anterior tcuemos que mm base ortogonal de U es la bast> que hemos considerado Bu= {u 1 = (1.1,0). 112 = (0.0.1)}. por lo tanto
1
(
0
1 . O. )
1)
El vector proyección ortogmml de (2.1.1) sobre L'j_ es
~
proy 1 (2.1. 1)
=
(2.1. 1)- pnly 1 (2.1.1)
=
(~·-~.o)
D
Distancia A partir de la uorma. podemos iutroducir el cmH·epto de distancia entre \·ectort>s o de distauc:ia ele un vPctor a llll subespacio n'ctorial cld siguiente modo:
Distancia entre los vectores 1' y u: clist(o, u)= llr- 11ll· Distancia de un vector 1' a un subespacio vectorial U: dist( 1'. U)
=
mín{lll'- ull· 11 E U}.
Se cumple que elmíuimo ('n el conjunto aut crior se alcanza cuaudo 11 = pro~· 1 . ( 1'). l'S decir c¡ne podemos intt>rpretar la pro~Tcció11 de nn vector 1' sobre llll subt~spacio U como el vector de C que estú a distancia míuirna dt> 1'. Demostramos esto cu el siguiente resultado. Proposición 8.28 Sean (V. ) un espacio wctorial euclídeo y U un subespacio vectorial de V. Entonces, para todo ·u E V se cumple que dist(t'. U)= llu- proyu(v)ll Demostración: Scau 1' E t' '/ u E U. Se tiene
+ proy 1.(r)- 11ll 2 (1·JII 2 + proy 1 (1·)- 11W + 2
- 11 E U so u ortogonales.
tUi. SulH'spacios ortogonales. Proyección ortogonal
Espacios normados y espacios métricos En un !K -espacio vectorial V (de dinwnsión finita o infiuita) con !K = IR'. o C, uua norma es una aplicaci(m 11 · 11 : V -+ !K que cumple las siguü·ntcs propiedades:
(1)
111'11
>O para todo v 1'= lh: y IIOvll =O.
(2) llm•ll = lnl · llvll
(:n
llu
+ 1·11
.-::::
llull
si o E !K.
+ llvll·
doude lo deuota el valor absoluto si n E IR'. o bien el módulo si n E C. 1
U u !K -espacio vPctorial dotado de uua uorma se clenomiua espacio normado. Por lo que hemos visto, un espacio vectorial euclídeo es un espacio normado ya que el producto escalar permite clefiuir una norma dd siguiente modo 11'1'11 = J < 1', 1' >. Pero tambi{~n existen espacios normaclos que no son euclídeos. Es decir, existeu normas que no provienen de ningún producto escalar. Un ejemplo ele ello O. (:~)
d(:r. y)= O si y sólo si;¡:= y.
( t) d(:r. y)
} está positivamente orientada si la dirección que apunta el dedo pulgar de la mano derecha es igual al de P:J. cuando el resto ele dedos se desplazan desde e 1 hasta e 2 . La base canónica de IR:> está positivamente orientada. U na forma práctica de determinar si una base B ortononual está orientada positivamente es viendo si el determinante de la matriz de cambio de base de B a la base canónica es positivo.
325
8.G. Producto vectorial
Definición 8.29 El producto vectorial de dos vectores n y u linealmente independientes, de un espacio vectorial euclídeo tridimensional V, se define como el vector u A v E V que cumple las siguientes condiciones:
(1) u Av es ortogonal a u y a v.
(2)
llnA vil= llvllllvllsenL(u,v).
(3) La orientación de {u, v, u A u} es positiva. Si n y
1'
son linealmente dependientes, entonces u A v
=
O.
El siguiente resultado indica cómo calcular el producto vectorial de dos vectores dados.
Proposición 8.30 Sea B una base ortonormal positivamente orientada de V. Para todo par de vectores de V, u= (u 1,u2,u3)B y v = (v¡,v 2,v3)B, se cumple que (8.7)
Demostración: Vamos a ver que el vector w con las coordenadas del enunciado de la proposición cumple las tres propiedades del producto vectorial ele u por v:
(1) Vemos que vector w es ortogonal a u y a u. 111
es ortogonal la u si y sólo si
< w,
u >= O. Desarrollando el producto escalar se obtiene
(ll¡
U;~) . - (l ct
< w, u>
V;)
u 1 det
112 ( 1'2
U¡ det
( V¡
V'
1L·3) ·
-
112
det
(U¡
U;J
V¡
'll:J)
11 1
Del mismo modo, se demuestra que
Vt
U;3
(8.8)
=0
V;)
es ortogonal a v ya que
e
V¿
= det
"')
V¡
'112
71.')
7'¡
7'2
V;,
=0
Capítulo 8. Espacio vectorial euclídeo
326 (2) La norma ele
11
1\
v es igual a la uorma de u•:
llull211¡·112(1- cos:z L(u. ¡·)) ')
2
< u •·u >-
2
2
llull 111'11 (1- llull 2 lkll 2 )
=
2
llull llull -=< .f(;c). y>. equivalentemente
La última ecuación se cumple para todo X e Y si y sólo si A
= A 1•
O
Capítulo 8. Espacio vectorial euclídeo
:330 Vamos a estudiar propiedades de los auton1lores ,.
auton·cton~s
de los cndomorfismos simNricos.
Proposición 8.37 Si
.f
es un endomorfismo simétrico de un espacio vectorial euclídeo, entonces
(1) Todos los autovalores de .f son reales.
(2) Los subespacios propios asociados a autovalores distintos son ortogonales. Demostración: ( 1) Sea f un cndmnorfismo sim(·t rico dl' (V ) y A = a + !Ji E C mm raíz del polinomio característico de f. Vamos a demostrar que h = O ,. así A será real. Consideramos d cwlomorfismo extensión compleja de f. y un antovectm 11 + il' de/ asociado a A. Entonces
.l.
./(u+ il') =(o+ hi)(u de donde f(u) = Como
f
1111- b1· ~· f(1•)
=
Ul'
+ i1·)
Y desarrollando se obtiene
< .f(u). l' >=
+h
()
(2) Sean 1)_, y 1)_ 1 sulH'spacios propios asociados a dos autovalores A¡ fe A:z de f. Para ver que son conjuntos ortogmmlcs sean 11¡ E \ )_, y u 2 E VÁ 2 no nulos ? veamos que son ortogonales. Por ser f simNrico
< .f(u¡). 112 >=< u.¡.f(u2) >=O. Entonces, dado que f(u) E U se tiene < n . .f(r) >= O y por ser f simétrico < .f(n), 1' >= O. es decir f(u) E U 1 Por ser Uj_ invariante. podemos considerar el cndomorfismo simNrico fltr uj_-+ uj_ 1
:
que tendrá sus autovalores reales y algún autovector. Dado que los autovcctorcs ele fl u_¡_ son tambión autovcctores de .f. llegamos a una contradiccióu, pues todos los autovectores de f generan U. O Podríamos emmciar el Teorema Espectral en términos matriciales del siguiente modo: Toda matriz simótrica real A de onku n. es ortogonalmente diagonalizable, es decir, existe una matriz ortogonal P y una matriz diagonal D tal que D = p-J AP = J> 1 AP.
E,; clcc:ir, que A es congruente y ,;emejantc a la vez a mm matriz diagonal D.
/ Ejemplo 8.39 H(1alizamos la diagonalizacióu por semejanza ortogonal del ewlomorfismo simNrico matriz es
o
A=
()
(~ o 1
.f
~)
Couwuzamos determiuando los autovalores p 1 (A)
= det(A- A I) =
(
-A
()
~
1- A
o
Ac;í que se ticrwn dos autovalorcs: 1 (doble) y -1 (simple). Los sulJl'spacios propios son:
de IR:J cuya
332
Capítulo 8. Espacio vectorial euclídeo
:t\ótese que ahora tenemos dos métodos para calcular V_ 1 : como lo hemos hecho. o teniendo en cuenta que V_ 1 = V1.l. Seguimos. Cna base ortogonal de Ví es {(l. O. 1). (0. l. O)}. y una base de 1/_ 1 es {(l. O, -1) }. Normalizando se tiene la base ortonormal de auto\'ectores 1
1
1
v2
v2
1
1
v2
v2
B ={(M.o. M). (O.l.O). (M.o.- M)} ·
Sea P = 9Ila' B con B la base canónica 1
V2
P=
(
l
V2
o 1
o
que es ortogonal. Entonces p-l = pt y D = 9Jt 6 , (.f) = p-! AP = pt AP:
D
=
(
1 o O 1
o o
o) o = (~ o
-1
_l_
V2
()
1
o
~() _ _l_
V2
) t (()
o 1
()
1
o
o 1
o
o
iU~.
Autovalores y signatura de una matri;r, simNrica real
8.8.
Autovalores y signatura de una matriz simétrica real
En esta sección vemos la relación cxistPnte entre los autovalores de una matriil ~.;im{~trica real y su signatura. El resultado principal, la Regla de Descart!~s. permite determinar la signatura a partir del polinomio característico. Sea A una matriz simétrica real de orden 11. La signatura de A es el par (p, q) de elementos positivos y negativos de cualquier rnatriil diagonal congruente con A. Por el Teorema espectral, existe una matriz P ortogonal y una matriz diagonal D tales que:
D = PtAP con P 1 =
p-l
Como A y D son semejantes, entonces las columnas ele la matriz P son autovectores de la matriz A y los elementos de la diagonal de D son los autovalores (todos números reales) de A. Como A y D son congruentes entonces p: es el número de autovalores positivos de la matriz A q: es el número de autovalores negativos de la matriz A en ambos casos contados con su multiplicidad. Además, para determinar la signatura (p. q) de A no necesitamos cm1ocer sus autovalores (lo cual puede suponer un trabajo considerable o resultar imposible) sino sólo la cantidad de autovalorcs positivos y negativos. Para ello será de gran utilidad el siguiente resultado sobre raíces de polinomios.
Teorema 8.40 Regla de Descartes Sea p(:r) = an xn + an-1 xn-l + · · · +a¡ x + ao, con a; E IR. para i = O, ... , n y an =/ O, un polinomio de grado n que tiene n raíces reales, no necesariamente distintas. Consideramos la sucesión formada por sus coeficientes
y eliminamos los que sean iguales a O. Entonces, el número de raíces positivas de p(:r), contadas con su multiplicidad, es igual al número de cambios de signo entre los coeficientes consecutivos de la sucesión obtenida.
En realidad la Regla de Descartes:¡ es un resultado m{¡s general que aquí hemos particularizado para polinomios que tienen todas las raíces reales, por ser lo que nos interesa en este contexto. Tampoco se incluye la demostración por ser de nat.urale;r,a mu_v distinta a lm; contenidos de este texto. :l Hen('
Descartes. Francia 1596-1650
Capítulo 8. Espacio vectorial euclídeo
334
1
Ejemplo 8.41
Consiclerrmos la matriz simNrica real
1/2 1 -1 El polinomio característico de A. es
1/2
. 2 3 g 1 ) =-A ;¡ +3A -1 --A-4 1 1- A
1 -A -1
Sabemos. por la Proposición 8.:H. que este polinomio tiene todas sus raíces reales. por lo que podemos aplicar la Regla ele Descartes. Considenmws la sucesión formada por los coeficientes no nulos dd polinomio: :3 9 (u;¡.a 2 .o 1 .oo)
-~.
= (-1. :3.
-:¡) = (-. +. -. -)
El número ele cambios ele signo entre los Hmninos consecutivos de esta sucesión es 2:
Por lo tanto. tiene 2 raíces positivas. Como el polinomio no es múltiplo de A. no tiene a O como raíz, por lo que la tercera raíz es negativa, y st> conclnve que la signatura dt> la matriz es (2. 1). Hemos dt>terminaclo la signatura sin tener que calcular autovalort>s. que general.
('S
un problema muy difícil en
En este caso los autovalores son
A1 =
3+VTI 4
> O. A2 =
:3-VTI , < 1
O. ,\;¡
=
3
2>O
y podemos afirmar que existe una matriz ortogonal P tal que Hví:l:l
1
1
p- AP=P AP=
(
T
o
o :l- vf:l:l
--~-
()
~).
D
2
Observación: En el capítulo anterior, cuando hemos hecho la diagonalización por congruencia de una matriz simétrica real A. determinamos una matriz diagonal D y una matriz regular P. no necesariamente ortogonal. con: D = P 1 AP = diag(d¡ .... , d") Si P no es ortogonal. los elementos d; dr la matriz diagonal D no tienen por qué ser autovalores dP A. En d Ejemplo 7.34, pág. 202. la matriz D = diag(2. ~) es congruente' con A. pero 2. ~ no SO!l autovalorcs ele A.
a.
Dos matrices semejantes tienen los mismos autovalorrs. Dos matrices congruPntes pueden tent>r antovalorcs distintos.
a.
::Ul. Soluci{m aproximada de un sistema lineal incmn¡mtihle.
8.9.
Solución aproximada de un sistema lineal incompatible.
En .X. Esto implica que AX el O y
> O un
luego ). ('S autovalor de AA 1 :V' AX es m1 aut.ovector asociado. Del mismo modo se prueba que los autovalores de AA 1 son tambih1 aut.ovalores de A 1 A. D Particularizando este resultado al caso en que la matriz A ti
2
v 1 ,e1
lle1ll 2
>
(8.10)
f']
C¡
< Vj, C¡-1 >
lh-111 2
para j f'¡-]
= 2, ... , n
Si despejamos los vectores v1 en las ecuaciones anteriores tenernos: u1
e1
V¿
b12e1
+ e2 con b;.i
a;
a;
es una base ortonormal. entonces ¿ij
Para j
_2__
=
=
{
).,J
-a·
a,
1
~
si 1 si i
=
el
j j
= r +L .... n el elemento (i.j) ele¿ es 1 1 1 1 ¿ l.J· = u 1z~4¡•· = (-Av) Au · -az - /(A 4)¡•·'} =O ~.J a¡ t J l ...
donde la última igualdad se tiene por ser l'J autoYector de A 1 A asociado al autovalor O.
D
La descomposición en valores singulares tiene muchas aplicaciones. tanto dentro ele las matemáticas. y en especial en el cálculo numérico. como en muchas otras ramas de las ciencias, ingenierías. economía. Por ejemplo en el tratamiento computacional de imágenes: puede ,·erse un artículo ilustratiYo en La Gaceta de la RSl\IE. Vol. 13 (2010). Núm. 2. Págs. 317- 33G: y también se utiliza en el diseño de los algoritmos con los que Google registra datos de acceso para ordenar las páginas de interuet.
345
R.ll. Producto hermítico
8.11.
Producto hermítico
El concepto equivalente al de producto escalar en espacios vectoriales complejos recibe el nombre de producto hennítico y como ya adelantamos en el capítulo anterior se trata de una forma herrnítica definida positiva. Las propiedades que lo definen son las siguientes:
Definición 8.48 Sea V un espacio vectorial complejo. Una aplicación: V x V---+ e se dice que es un producto hermítico si para todo u, v, w E V y rt E e cumple las siguientes propiedades:
(1) = < v, u>.
(2)
.
(3) < nu, v >=o . (4) < u,v >:2: O y< u,tL >=O si y sólo si u= O. Un espacio vectorial complejo dotado de un producto herrnítico es un espacio hermítico. Obsérvese que sólo difiere del producto escalar en la primera propiedad, que permite obtener, al realizar el producto ele un vector por sí mismo un número real < u,n >= < u,n > < v,n >E IR y de este modo poder hacer la comparación sobre positividad en la propiedad (4). De las propiedades (1) y (3) se deduce que < 1L,rt1! >=
=
ry
=
(\7
=
Q
y no se tiene linealidad en la segunda componente, como sí ocurría en el producto escalar. El producto hermítico canónico en en es
< :r:, Y>=
X¡Jj¡
+ · · · + J.:rt'Yn
donde :r: = (:r¡, .. . ,:I:n), y= (y¡, ... ,yn) E en. -t.
Un producto hennítico en 9J1n(e) es< A. B >= tr(AB ). Todo producto hermítico define una norma en V del mismo modo que el producto escalar en los espacios reales 11 v 11 = < v, v >. La norma estándar en en es
v
Pero no está entre nuestros objetivos ir más allá en el estudio de estos espacios.
34c6
Capítulo 8. Espacio vectorial euclídeo
8.12.
Ejercicios propuestos
8.1. Sean (F. ) un espacio \Tctorial euclídeo y u.
1'
u= o si~- sólo si =
= tr( A · B 1 ). determine si los siguientes subespacios \Tctoriales son ortogo11ales:
+ .r 2 =O ..r 2 + .r;,- 2.r~ =O}
U1
{.r 1
U2
P(~¡ ~\):
-AElR}
8.8. Aplique elmNodo de Gram-Scluuidt a la base B 1 = {1• 1 = (1. LO). 1· 2 = (0. 1.0), 1'¡ = (0.0.1)} para determinar una base ortogonal de JR:'. Aplíquelo a la base B2 = { 1· 2 , l':l· 1' 1 } y compare las dos bases ortogonales obtenidas. 8.9. Utilice el mNodo de Gram-Schmidt para determinar una base ortogonal dd hiperplano H 2.r 1 + 4c.r 2 - .r; 1 + :h 1 = O} de JR-1. de modo e¡ u e los dos primeros n•ctorcs pertenezcan al plano P = {2.r 1 + 4cJ· 2 - .r: 1 + :3.r~ =O, .r 1 =O} contenido en H.
={
8.10. Sea F un espacio vectorial real de dimensión :3 y un producto escalar en l 7 Gram es 2 -1 -1 1 1/2 ( () 2 l/2
c:u~·a
{))
Calcuh_, proyección ortogonal del wctor (l. l. 1) sobre el plano de ecuación .r
+ 2y =
O.
matriz de
347
8.12. Ejercicios propuestos
={
8.11. En el espacio vectorial euclídeo JR 4 se consideran el sulwspacio U ;¡; 1 + :r:2 + :r:l + .r4 vector 1' = (1. 1. O. O). DctlTrnine dos vectores 11 E U y 11' E U 1_ taks que u = v + w. 8.12. En el espacio vectorial euclídeo JR 1 se considera el subespacio U= {.r 1 + :r 4 =O,
:r2
=
+ :J::l
O} y el
= 0}.
a) Halle una base ortogonal ele U.
b) Encuentre la proyección sobre U de los vectores e1
=
1'
E JR 4 que forman un ángulo de 60° con
(1. O, O. O) y ele !)0° con e: 1 = (0. O. L 0).
8.13. Determine los vectores (:r, y. z) E JR:l tales que su proyección ortogonal sobre el plano de ecuación .r - y = () forme un ángulo de 180° con el vector (O, O. 1). 8.14. Dado el producto escalar de JR:l definido por:
a) Determine una base ortononnal cid plano U
={:r 2 + :r:l
=
O}.
b) Determine el conjunto S de vectores 1' = (:r 1 • :r 2 • :r:1 ) tales que ;;u proyección ortogonal sobre el plano U :r 2 + :r; 1 = O} es el vector (LO. O). ¡_Es S un subespacio vectorial?
={
r:) Determine si existen en S vectores unitarios. 8.15. Demuestre las siguientes propiedadc;; del producto vectorial en JR:3 . Para cuah~squiera vectores u. u y w de JR 3 y para todo n E lR s='
paratodo u,uEV
Si f es una isometría vectorial entonces conserva la norma y, por tanto, el ángulo entre vectores. En efecto, si u, 'U E V, entonces:
llull = v'< u, u>= J< .f(v),.f(P) >' = llf(u)ll' lo que leemos diciendo que la longitud de u es igual a la longitud de su imagen ángulos
=
< f(x). f(y) > n
L
J:1Y1
+ · · · + :I:nYn =< J:, Y>
i.j=l
Por lo tanto,
Ejemplo 9 · 6
f
es una isornetría pues conserva el producto escalar.
D
Sea f el endornorfismo de lP/. 2 definido por f(1, 1) = (-1, 1). f(1, 2) = (-1, 2). Vamos a ver que se trata de una isometría de lP/. 2 comprobando que se cumple la caracterización (2) de la proposición. La matriz de f en la base B = {(1, 1), ( 1, 2)} es 1
. (-3 -4)
A= IJnB(./) =
2
:3
y se obtiene calculando
!(1, 1) = ( -1, 1) =
-3(1, 1) + 2(1, 2),
!(1, 2) = (-1, 2) = -4(1, 1)
+ :3(1, 2)
La matriz del producto escalar (el usual por defecto) en la base B es
GB =
( (1, 2), (1.1) >
Tenernos que fes isornetría si y sólo si GB
=
>)
< (1.1),(1,2) < (1.2), (1,2) >
A 1G13A
(-32 -4) 3 (23 3)5 (-32 -4) 3 = (-:3-4 32) (o1 :31) = (23 3)5 t
=
013
Tambi{~n vamos a comprobar que es una isornetría utilizando la caracterización (3). Para ello tenemos que obtener la matriz de f en una base ortonorrnal. Por ejemplo, nos sirve la canónica Br = {(1, 0), (0, 1)}. Hacemos el cambio de base utilizando la matriz de paso P = IJnBBc:
I)J(Bc(J)
=
PIJnB(J)
p-1
=e D(-;3
-;4) e D -1
(
~)1 ~)
Capítulo O. Isometrías wctoriales
A continuación, comprobamos
se trata de una matriz ortogonal:
C[lH'
()) (-1o
D
1
Otra propiedad importante de las isometrías vectoriales tiene que Yer cm1 la forma de sus autovalorcs. que se deduce de la condición de preservar la norma. Lo Pimnciamos en el siguiente resultado.
Teorema 9.7 Autovalores de las isometrías Sea f E O(V). Entonces, las raíces del polinomio característico ele reales o complejos ele módulo l. Es decir: ,\ = 1, ,\ = -1 o bien ,\=cose± i sen e.
Demostración: Sea ,\ E IR un autm·alor de f conscrYa la norma. se tiene
f
y
1'
f
sólo pueden ser números
e E (0. 1r)
m1 autmTctor no nulo asociado a ,\. Entonces. como
111'11 = ll.f(l')ll = 11,\ 1'11 = 1,\ 1·111'11 ele donde = l. es decir ,\ = 1 o -l. Supongamos que el polinomio caractnístico ele f tiene alguna raíz compleja ,\ = u+ bi . ,. consideremos mm base ortononnal de 1· respecto a la cual la matriz de f es mm matriz A ortogonal: AA 1 =J. 1 ,\ 1
Considcrawlo A cmno la matriz de un t~!Hlomorfismo de C" se tiene que ,\ es autoYalor de A y existe X E 9J1 x 1 (C) no nula tal que: 11
AX =,\X Trasponiendo y tomando conjugados
S= O, y como f conserva el producto escalar< f(v),.f(v.) >=< 1'.11 >=O para todo 11 E U. Entonces f(u) es ortogonal a f(n) para todo 11. E U, es decir f(v) E .f(U).l = U.l. D .l
Llamaremos suma directa ortogonal y la denotaremos por U ifl H/ al caso e11 que se tenga una suma dirPda U i±J ~·V y los subespacios U y ll' sean ortogonales.
Capítulo 9. Isometrías wctoriales
356
Vamos a comenzar estudiando cómo son las isometrías en un plano o subespacio ele dimensión 2.
Proposición 9.10 Sea f E O(V) y U un plano f -invariante, entonces existe una base ortonormal Bu de U tal que la matriz de la restricción de fa U, Jiu :U--+ U, en dicha base, es de la forma
G~),
(
-1
o
o)
-1
cosB ( sen()
o bien
'
-sen()) cos ()
con () E (O, 1f) U (1f. 21f)
Demostración: En primer lugar. observamos que si f es una isometría ele V. entonces flu es una isometría de U. Por lo que respecto a una base de U ortonormal la matriz de flu es ortogonal. Distinguimos los siguientes casos: (1) Si flr· tiene alguna recta invariante R = L(u 1 ) t;: U. entonces Rj_ = L(u2) también es invariante (tomamos u 1 y u 2 de norma 1). Las n'ctas invariantes están generadas por auton'ctores. y dado que los autovalores reales de f u pueden ser sólo 1 o - L entonces la matriz en la base Bu = { u 1 , u 2 } será de la forma: 1
())1 .
o bien
-1 (
o
~)
Las dos últimas son equivalentes como matrices de Jordan.
flc· no tiene ninguna recta invariante. Entonces. no tiene autovalores reales. y tiene un par de autovalores complejos A y ,\ conjugados de norma 1:
(2) Supongamos ahora que
A = cos ()
+ i sen ()
con sm (}
i
O
Así. la matriz de Jordan real es la matriz ortogonal de la forma -sen(}) cose
para
(}E
(0.1r) U (1r, 21r)
(9.3)
Si B' = {u.¡o} es una base tal que IJJ1s' (.f) = Jr?; eiltOI!ccs B' es ortonormal pues f es isometría {f(u).f(v)} cuyas coordenadas respecto de B' son las columnas de J~. forman una base ortonormal. O
y las imágenes
Observación: La matriz
(-e¡ _1i) es un caso particular de la matriz (9.3) cuando(}= 1r.
Proposición 9.11 Sea f E O(V) una isometría vectorial de (V, ). Entonces, se puede obtener una descomposición de V en suma directa ortogonal de rectas R; y planos P; irreducibles f -invariantes: j_
j_
j_
j_
j_
V = R 1 8 · · · E9 Rk E9 P¡ EB · · · E9 Pz
!).2. Clasificación de isometrías
Demostración: Vamos a hacer la demostración por inducción en la dimensión de V. Para n = 1 el re::;ultado se cumple trivialmente ya que el propio V es una recta f -invariante. En el caso n = 2, que corresponde a un plano. el resultado se sigue de la Proposición !).10. Supongamos que el resultado es cietto para Pspacios de dinwnsión hasta n - l. Sea V un espacio vectorial euclídeo de dimensión n y .fE O(V). ( 1) Si f tit>ne algún autovalor real A = 1 o -1, entonces podernos considerar un autovector unitario 1' y tenemos una recta /-invariante R = L(u). Entonces, se tiene la descomposición en subespacios _l
ortogonales f- invariantes V = R mR_l. Aplicando la hipótesis de inducción a R.l de dimensión n- 1, obtetwmos el resultado deseado.
(2) Supongamos que f no tiene autovalores reales, en cuyo caso no tiene rectas invariantes. Por la Proposición 6.3, f tiene un plano P invariante. y como no tietH' rectas invariantes entonces dicho plano _l
es irreducible. Entonces tenemos la descomposición V = P@ P.l. Aplicando la hipótesis de inducción a p-l de dimensión n - 2, obtenemos el resultado deseado. O
Teorema 9.12 Matriz de J ordan real de una isometría Sea fE O(V) una isometría vectorial de (V, ).Entonces, respecto a cierta base ortonormal, la matriz de Jordan real de .f es de la forma 1 1 1 -1 C(.A¡)
a¡
C(.A,)
. donde Aj = cosBj +zsenBj, C ( Aj ) = (cos . ()j () sen j
Demostración: Por el resultado anterior, tenemos que eligiendo una base ortonormal en cada una de las rectas y planos de la descomposición en subespacios invariantes, podríamos obtener una matriz de f diagonal por bloques, con bloques ele tamaño 1 o 2. El resultado se obtiene sin más que observar qul': (i) las rectas invariantes están generadas por autovectorcs asociados a los autovalores 1 y -1: (ii) en cada plano invariante P1 irwduciblc podewos elegir una base ortononnal tal que
9J1(JII'.) = (co.sHJ '
sen H.~
-
St'll () 1 )
cos (jj
Capítulo 9. Isometrías vectoriales
358
e (i í í) la matriz de .Jordan real es única salvo permutación ele bloques.
D
Rotaciones y reflexiones La matriz ele una isomctría. respecto de una hase ortononnal, es mm matriz A ortogonal: AA 2 Si consideramos cletenninantcs, tem·mos clct A dct A 1 = det A = l. luego det A = 1 o -l.
1
=
I.
Definición 9.13 Sea f una isometría de un espacio vectorial euclídeo (F. ). )" A una matriz ele f respecto a una base ortononnal. Se dice que f es nna rotación si clet A = l. y que f es una reflexión si det A = -l. El grupo o+ (V) formado por las isornetrías con determinante l. llamado grupo de rotaciones de V. es un subgrupo del grupo ortogonal O(V).
o-
El conjunto (V) formado por las reflexiones de\· no es un subgrupo de O(V), )·a que la composición ele dos reflexiones es mm rotación. Si f y g sm1 dos reflexiones con matrices ortogonales 9Jis (f) )" 9JIB (g). respectivamente. entonces:
det(9J1B (g o f)) = det (9J1B (g)) · det(9J1ro(.f)) = (-1) ( -1) = 1 Las rotaciones conservan la orientación y las reflexiones la invierten.
Simetrías ortogonales Sea a : V ---+ V una simetría de base I3 y dirección D. subespacios ele V tales que \ · = I3 ~-D. Diremos que a es una simetría ortogonal si la basP y la dirección son subespacios ortogonales B- =D. Así. una simetría ortogonal queda completamentP determinada dando la hase B o la dirección D.
Proposición 9.14 Sea (V.) un espacio vectorial euclídeo y a isometría si y sólo si es una simetría ortogonal.
V ---+ V una simetría. Entonces, a es una
Demostración: Si tomamos nna hase ortonormal { u 1 •.... 1' 8 } del :mbcspacio base B ele la simetría .\' otra hase {l's+ 1..... 1' 11 } ortononnal dd subcspacio dirección D. ('lltonces la matriz de a Pll la hase e= {'1'¡ . . . . . 1',,1\+1· .... l'n} es
-1 -]
ya que a(t·¡)
=
1'¡.
í
=
1 ..... s: y a(t•¡)
=
-1'¡.
í
=
s+ 1. .... n. Si IJ y D fuesen ortogonales. cnto11ces
o.:{.
lsouwtrías de un espacio euclídeo hidimcusioual
C sería una base ortononnal. y puesto que la matriz de
a
en dicha hase es ortogonal. lmtonccs se trata
de mm isomctría. Por otro lado si a es una simetría y su base B y dirección D no son ortogonales, entonces tendríamos l[lll' no conserva los ángulos ya que si tomamos 1m vectores u E lJ y t.' E D qne no sean ortogonales L.( u. t•) = H le~· entonces L(a(u). a(o)) = L(v. -¡·) = 1r- O. Estos ángulos son distintos, luego a no sería una isometría. D
9.3.
Isometrías de un espacio euclídeo bidimensional
En esta sección vamos a clasificar las isonwt rías de un espacio vectorial ene lídeo V de dimensión 2. Como sabemos, V es isomótrico a JR?. 2 por lo que mediante isomorfismos de coordenadas podemos trabajar en V igual que en JR?. 2 . Así. vamos a describir directamente las isometrías del plano vPctorial euclídeo JR?. 2 donde podremos ilustrarlas gcomNricamentl'.
Por lo visto en la sección anterior. respecto de una base ortonormal toda isomeiría
f
de
JR?.
2
distinta
de la identidad tendrá alguna de las siguienll's matrices de .Jonlan real: .l¡
=
G
o
]'2
=
C"OS {) ( S('ll
H
-sen()) C"OS H '
HE (0.21r)
Como estas matrices son ortogonales. representan a todas las clases de cqnivalenc:ia de isomctrías mNricamcntc (u ortogonalmente) equivalentes. No obstante. eu esta sección vamos a hacer una coustruccióu geomMrica desde otro punto de vista. Vamos a utili;.mr subespacios invariautes por la snhespacio V 1 formado por los vectores fijos. Supom•mos que f.. isomctría EntmJccs, podemos distinguir dos casos según que f tcuga vectores fijos antovalor de f o no.
Caso 1:
de estas mismas matrices isomctría: en particular d 2 de lR?. . no es la identidad. (no nulos), es decir. 1 sea
f tiene vectores fijos (no nulos).
Entonces. V 1 = L(u) para algún vector 1' le O. que podemos tomarlo de norma l. Obsórvese que no 2 puede ocurrir dim V1 = 2 porque en tal caso V 1 = JR?. y f sería la identidad. Formamos mm lmsl~ de JR?. 2 ortonormal B = {t•. u} tmnaudo un vector 11. E L(l')l_. Como f(t•) =u. entmH·es < f(u). f(1') >=< _l(u.). 1' >,y como f conserva los ángulos< f(11.), f(t') >=< 11. t' >.Así
< f(u).
t'
>== IIHII 2 - 111·11 2 =o
1', cou lo que 11 + '1' E Rj_, que es un hi¡wrplano. f(A). Si A 2 =O entonces ya hemos terminado. Si A 2 # O entonces f(A') = .f(AA 2 ) > f(A 2 ). De nuevo si A' = O hemos 2 1 terminado y si no repetimos el proceso. Tcudremos la sucesión f(A) < f(A ) < f(A ) < ... que está acotada por n. Luego existe un entero k
e
K""= 11!(,\.)
Vemos que dimK 1 = 2 (=número de filas de la tabla ele .Jordan). Aplicamos el algoritmo de construcción de la base de .Jordan: la diferencia ¡· 1 = d 4 - d 3 = clim I\ 4 - clim 1{:1 = 2 determina la existencia de los vectores ¡• 1 . u 5 E K'1 - K:l en la tabla. y las dos filas de longitud cuatro: :l
2
Kl
e
1'4
+-+--
L's
4
J(2
e
P:J
+-+--
1'7
(j
J(:l
e
K
1'2
+-+--
('¡
l!(j
4
=M(,\)
L';::,
Esto es claramente imposible ya que habría en la base de 11!(,\.) al menos 8 wctores. y estarnos en un espacio de dimensión 6. Otra forma ele ver que las condiciones del apartado (a) son imposibles es considerar la secuencia r2, T;J. r..¡ de las diferencias ele dimensiones entre los sulwspacios generalizados r; = d; - d;_¡ para i = 2. 3, 4. que según la Proposición 5.26(5). pág. 218. debe cumplir r2 2:: T:J 2:: r4. En este caso 1'2 = l. r:1 = l. re, = 2. no cumplen dichas condiciones.
b) En este caso las dimensiones de los subcspacios generalizados son: d 1 = 2. d2 = :3. d:3 = 5 ¡.· d4 = 6. Las diferencias son r2 = l. r:l = 2. r 4 = l. N uevamcnte no cumplen la condición necesaria r2 2:: r:1 2:: r.¡. Luego no existe un endomorfismo en las condiciones dadas en este caso. e) Las diferencias de dimensiones son r 2 = 2, r: 1 = l. r 4 = 1 que cumplen la condición necesaria r2 2:: r:1 2:: T 4. Siguiendo el algoritmo de construcción de la base de .Jordan se llega a la siguiente tabla totalmente válida 2
l
S
G
Kl(.>..)
e
I\2(.>..)
e
J(l(,A.)
e
K4(>.) = 11!(,\.)
1'..¡
+-+--
(';)
+--
('2
+--
(' 1
1,;;
l'()
Soluciones de los ejercicios
447
que se corresponde con la matriz de Jordan
o o o o o o o 1 >. () o () () o 1 >. () o o () o o >. o o o o o >. >.
()
()
1
>.
()
d) Las diferencias de dimensiones son r 2 = 1. r;¡ 1. r 1 = 1 que cumplen la condición necesaria r2 ~ T;¡ ~ T4. Siguiendo el algoritmo ele construcción de la base de Jordan se llega a la siguiente tabla totalmente válida ;¡
¡
K'(>.)
e
](2 ( >.)
e
" K'(>.)
e
1'4
+---
1';¡
+---
1'2
+---
(j
K¡(>.)= JIJ(>.) 111
l)r: ,)
l'(j
El número de filas es exactamente dim J\ 1 =:~y será el número de bloques de .Jordau. La hase se corresponde con la matriz ele .Tordan 1).
()
1
>.
()
1
o
()
o o
()
()
o () o o o o o () >. () o o 1 >. () o o () >.¡o () () o¡>.
Podemos concluir que existen endomorfismos que cmnplcn las condiciones e) y d), pero ningún cndomorfismo cumple o) ni b). D
5.19. Sea
f
un endomorfismo de IR 4 cuya matriz en la base canónica es
9JLB(f) = (
-1
()
o
~
-1
()
r
1
o
::)o '
d
e
1
con a, b, c. d, e E IR
a) Determine para qué valores de a, b, e, d, e E IR el endomorfismo es diagonalizable.
b) Para a = e = O y b = r: = d = 1; encuentre la forma canónica de .Jordan J de matriz P tal que J = p-l9JLB(.f)P.
f
y una
Solución: a) Como la matriz ('S triangular. los autovalorcs están en la diagonal principal. Así. tenemos dos autovalorcs A 1 = 1 y >.2 = -1 con multiplicidades algebraicas u 1 = 2 y a 2 = 2. El
448
Solucioues de los ejercicios eudomorfismo será diagonalizable si y sólo si las multiplicidades geométricas sou g 1 = 92 = 2. lo que equivale a decir que rg(A- I) = rg(A + I) = 4- 2 = 2 HaciPuclo el estudio matricial correspouclieute se tiene que: rg(A + I) = 2 Así.
f
{e}
a =O
rg(A- I) = 2
,\'
{e}
e= O
diagmmlizable para todo b, c. d E IR y o = e = O.
b) En este caso tenemos la matriz u o diagonalizable
o o
o -1
o 1
~)
o
1 1
1
para obtener la forma canónica ele .Jordan vamos calculando las dimensioues de los subespacios generalizados hasta obtener el máximo: Para ,\ 1 = 1: dim J\ 1 ( 1) clim K
2
( 1)
=1
4 - rg( J\I - I)
2
4- rg(J\J- J) = 2 = o 1
=?
J\J(l) = J\ 2 (1)
Se tiPne la siguiente tabla de subespacios: 1
J(l(1) Al haber una única líuea, hay un único bloque de .Jorclan asociado al autovalor ,\ 1 = L Para ,\ 2 = -1: 1
dimJ\ (-1)=4-rg(J\J+J)=2=o 2
=?
M(-1)=K 1 (-1)
Se tiene el siguiente esquema de subespac:ios:
l';; 1'4
siendo 1·3 y l'¡ dos antovectores linealmente independientes de K 1 ( -1) = F_ 1 . Se tienen en el esquema dos líneas ele longitud 1, por lo tanto. dos bloques de .Jordan de dimensión L AsL la forma canónica ele Jordan es (salvo permutación ele bloques de .Jordan)
J = 9J1a, (f) =
(~ o
siendo B' = { 1• 1 , v2.
I';J.
v4 }.
o 1
o ()
()
o -1
o
~)
o
-1
449
Soluciones de los ejercicios
Para calcular la hase, determinarnos unas
2
e
K 2 (2i)
e
+-
I';J
+-
4
K:¡(2i)
e
IC1 (2i)
+-
(11
=
l\!(2i)
Se tiene una única línea ele longitud /1, :; por tanto un único bloque de .Jordan de orden 4. La matriz de .Jorclan compleja de es
J
2i 1
.J(./) =
o o ()
o o
()
()
2i 1
()
()
o
o o
o
2i 1
o
()
()
()
2i
(}
()
()
()
()
o o
-2i 1
()
()
o
()
()
o
2"1 1
(}
()
-2i 1
-2i
o o
o
o () () o o o o o o ()
-
o o o
()
(
J(fiM ()
2i )
()
.J(.fli\J(-2i))
)
()
respecto de la base de .J ordan compleja B' = {1' 1 , .... 1' 1 . /i 1 •... , ve~}. N os quedamos con la hase de .Jordan de Al (2i) que es la cmTPspondiente al primer bloque y tornamos las partes reales e imagirmria;; de los vectores B" = {Re( u 1 ). Im(1· 1 ) •••.• Rt>(1•,¡). Im(l'c~) }. Respecto de B" se obtiene la forma de .J ordan real de f:
\)J(Bu(f) = .Jp;(f) =
(e,
~: o
()
(}
C2; [¿
()
c2,
()
/2
(}
()
o
)
2 )
.
o
C2;
h) Si dimK 1 (2i) = 2 y dimJ\ 2 (2i) :3, entonces dimJ('(2i) = 4 que t~s la multiplicidad algebraica, luego J(1 (2i) = ,U(2i). La tabla de la hase de Jordan compkja del subespac:io máximo M(2i) de/ es .¡
:J
"2
I\ 1 (2i)
e
J\ 2 (2i)
e
K 1 (2i) = 1\I(2i)
(';¡
+-
1'2
+-
1'¡
456
Soluciones de los ejercicios
La forma canónica de .Jordan de
fiM(2í)
es
o o o o)
2i 1
2i
o
o o
2i
Se tienen dos bloques. uno por cada línea de la tabla. El primero es de ordPn :3. igual al número de vectores de la primera línea, y el segundo de orden l. igual al número de vectores de la segunda línea. A partir de la matriz compleja se obtiene la forma de .Jordan real
o() o C¿;
)
.
~)
D
Soluc:imw~
de
lo~ ejercicio~
4G7
Ejercicios del capítulo 6 6.1. Sean f y g endomorfismos de V. Demuestre que si Ker(.f) e Im(f) son subespacios y-invariantes.
f
y g conmutan, entonces los subespacio~
Solución: Ker(f) e~ g-invariant.e si y sólo si para todo Si 1' E Ker(.f), entonces .f(u) =O, ) = (f
E KPr(f). se cumple que
1'
o
q(v) E Kcr(f).
y)(1•) = f(y(u))
luego g(l') E Ker(.f). Im(.f) es y-invariante si y sólo si para todo 1' E lm(f), se cumpk que g(1•) E Im(f). Sea 1' E Im(f). entonces existe IL E V tal que .f( u) = 1'. Así, g(f( 11)) = g(o) y aplicando la conmutatividad entre f y g se tiene .f(g(u.)) = y(1•). lo que implica que g(1•) E Im(f). D
6.2. Si U y W son subespacios invariantes de un cndomorfismo .f, entonces los subespacios Un W y U + W también son invariantes por f.
Solución: Veamos que el resultado es cinto para la interseccióu:
u E Un H
.
=?
{ uEU 11 En·
=?
{ f(u.)Elf .f(u) E W
=?.
f"() 11
E
lf
W
n ··
Y que tambión lo es para la unión: //¡
+ 112
E
u+ H • C:Oll
{
11¡ . 112
E U T\. E f
=?
{
f (u¡ ) E
U
f(11'2) EH'
=?
f (11 1 + 11.2)
=
f (11.¡ ) + f (11.2)
E U
+ ¡1/ 0
6.3. Demuestre, exhibiendo algún ejemplo, que los subespac:ios generalizados pueden ser tanto reducibles corno irreducibles.
Solución: Consideremos un endomorfismo B = {1' 1 , 1• 2 • u: 1. u 1 } es
f
cuya matriz dP .Jonlan con respecto a una base
o
o o () 1 () o
()
()
1
J = I)J1 [) (f) =
1-(::-)-(::-)l--:2~(c-1)
2
El subcspacio PS
reducible, mientras que el subespac:io
es irreducible por ser 2-cídico ya que 1•4
= (f-
2ld)(1':l)·
D
Soluciones de los ejercicios
-ió8
6.4. Determine los subespacios invariantes de los endomorfismos cuyas matrices de Jordan son
(a) .]¡ =
u
o o o o 2 o . 1
()
(b) h =
2
o o 1 o
(~ ~)
(e) .f;3 =
1
u
o
~)
-1
o o o o o o o 1 o 1
o o
Solución: En cada caso, sea tiene como matriz a .1, .
f
o
1 ()
2
(~ ~)
(d) .]4 =
1
oo oo)
-1
el endomorfismo que respecto de mw base B = { 1' 1 .
1'¿. 1':3 .
¡·~}
Caso (a) ~Iatriz y tabla de> la base de Jordan
e o
.]¡
=
~
o o o o 2 o o 1 2
-1
;:)
1 J\'1 (2)
e
J\ 2 (2) = M(2)
I'J
+--
1';¡
2
2
I\ 1 (-1) = M(-1) 1'¡
1'2
El espacio wctorial se descompone en V= JI(-1) ~ M(2). • Subespacios irreducibles contenidos en JI ( -1): -Todas las rectas, dado que I\ 1 (-1) = JI(-1) = L(1• 1 .1· 2 ). Son de la forma
Rn.b = L(o1·1
+ bl':z)
={b.r¡ -
=O,
(1.1'¿
:r;¡
=O, .r_¡ =O}, u. bE JK. (a. b)
-1
(0. O)
- No hay planos irreducibles: el único plano contenido en JI ( -1) es ól mismo .v es reducible
M( -1) = L(P 1 )
:
L(1•2)
= {:r:3
= 0 . .r 1 = 0}.
• Subespacios irreducibles contc>nidos en JI(2) (no hay reducibles pues la matriz de tringido a JI(2) está formada por un único bloque de Jordan):
= {.r1 =O ..r2 =O ..r;¡ = {:r 1 =O, .r 2 =O}
-Una única rectaR= l\' 1(2) = L(1'.1) -El plano P = JI(2) = L(l':¡, l'c~)
f
res-
= 0}.
• Subespacios invarianü·s reducibles: Se obtienen como suma ele los subespacios anterionneute obtPnidos. Son de la forma: Planos: Pa.b = Rn.b EB R con o. bE lK y JI( -1) = L('c1) ~, L(t•2). Hiperplano:-;: H 11 .b = Ra.b. · P y R é±) JI( -1). I\óte:-;e que cmt las sumas P11 .b Pn.h
+R =
Pa.h·
+R
no se obtienen hiperplanos ~-a que R {-a .r 1 =O.
11('.1:¿-
2
a :r 1 =O}
;¡:¡
('
simplificando las ecuaciones, teniendo en cueuta que a
Pd =:: {.r¡ = 0. d.r 2
el O,
se obtienen las ecuacioues
+:t.¡= 0}, dE][(
• Hiperplanos invariantes: detenuinamos las coordenadas de los autovcc:tores de J\:
(J:: - I)X = O =;.
o 1 o o ~~ o o 0o (o o o 0
o) (:1'¡) (o)o => :/'¿
:r;¡
.L¡
=
0
:r2 = O. :r;¡ = O
0
Las coordenadas en B de los autovectores de.!:\ son (a. O, O. b) con a. bE][( y (a, b) que dan lugar a los !tiperplanos invariantes:
el
(0. 0):
Caso ( d) l\Iatriz y tabla de la base de .Jordan
}¡ =
("
o o
1
o o ~ o 1 o o o 1 1
")
()
J\1
(O)
'1'2
2
e
J\2(0)
+---
1'¡
2
1
J(l
e
¡(2(1)
+---
1';¡
(1)
1'.¡
El espacio vectorial total es V= M(O) +M ( 1). • Rectas invariantes: las cont-Id)'-'(t') ..... (f- .>-Id)' invariantes ~·a que se corresponden cm1 los i últimos \'ectorcs de la tabla anterior
J\ 1 (>-) (f- >-Id)'- 1 (t·)
e ··· e
1 (o))
son
!\'(>-) (f- >-Id)'-'(t·)
y que se trata de un sulwspacio i-cíclico. En efecto. si llamamos v
U;= L(u. (f- .>-Id)(u) ..... (f- .>-Idr- 1 (u)), con u
E
= (f- >-Id)"- 1(t·). entonces JC(>-)- /\'- 1 (>-)
Este subespacio i-cíclico se corresponde con PI sub-bloque de .Tonlan i x i corrcspmH!icntc a la submatriz de '.1Jl13, (fl¡·) formada por las últimas i filas e i columnas. Demostramos la unicidad por rcducciún al absurdo. Supongamos que existe otro subcspacio invariante irreducible lV¡ con di m H ·, = i. contl'nido ('n U. Por ser irwducihle. serú i -cíclico: luego existirá u• E J\ 1 (.>-)- J\'i- 1 (>-) tal qlH~
H'; = L(w, (f- >-Id)( u·), .... (f- .>-Idr- 1 (11')) Por ser U1 :-· H"1 suhespacios /-cíclicos. ambos están contenidos en Ker(f- A Id)' y por tanto en Kcr(f - A Id )i n U. que es un sulwspacio de diuwusióu i. Vamos a demos! rar que u o ptwde ocurrir U; el H'¡. Si así fuera. como dim(U¡) = dim(W;) = i. entonces dim(U; + TV¡) > i. lo que contradice que ambos sulwspacios est('n contenidos en Kcr(f- A Id)' n U. D
Soluciones de los ejercicios
471
Ejercicios del capítulo 7 7 .l. Sean V un lK ~espacio vectorial, y : V ---+ V un endomorfismo y cuadrática. Demuestre que (y)]. Despejaudo (.r + y) = (.r) + (y) + 2f,p (.r. y) y de ahí
()
)
()
()
( 1'¿) > ()
() ()
(]
()
(r:>) =O
con dos eleuwntos positivos y un O l'll la diagonal. Como la signatura no depende de la hase. si es de vecton's conjugados. entonces u)
• sg( ")
li) A la vista de la siguat ura de O. En particular podemos tomar los dos primeros vectores de la base B': '11 = (!,(l.O) :v 1' = (-1.1.0). El plauo P = L(u,l') cumple los requisitos pedidos para cualquier valor de a: O.
D
7.16. Sea V un espacio vectorial real de dimensión n y signatura es (p, q), con p + q :S n. Demuestre que:
:
V -+ IR una forma cuadrática cuya
a) p es la máxima dimensión de un subespacio U e:;; V tal que restringida a U
e~:>
definida
po~:>itiva.
b) q es la máxima dimensión de un subespacio U e:;; V tal que restringida a U es definida negativa.
Solución: Que la signatura de es (p. q) siguifica que en cualquier hase de vectores conjugados existen exactamente p vectores u1 • . . . . 'l'p cou ( /'¡) > 0: cxactaHwnte q vectores w 1 , . . . . wq C:Oil (u·;) cuya expresión analítica respecto a una base Bes
Determine si es definida positiva para algún valor de A E IR.
Solución: La matriz de la forma cuadrática en la base B = {e¡. c2. c:d es
Por d criterio de SylvPstcr sabemos principales de la matriz son positivos:
q1w
o() )
()
A
es ddiuida positiva,
21 Pcro el menor de orden 2 ('S negativo ~ 2 positiva para ningún valor de A. D
2 1
1
.y ~·l.
=
SI
y solamente si los menores 2 1
o
o o
A
2
()
= -:3 < O para todo valor de A, luego
uo es definida
Soluciones de los ejercicios
7.19. Determine la signatura y una base de vectores conjugados respecto a la forma cuadrática ele IR.3 de ecuación (x,y,z) = x 2 +y 2 +3z 2 +6xy. Hágalo por distintos métodos. Solución: Vamos a resolver este cjPrcicios por tres mNodos di.'">tintos. l. I\Iétodo de construcción directa de la hase
2. :\INodo de
diagonali:~.acicín
por congruencia
3. 1\Iétodo de Lagrangc o de Gauss La matriz de la forma cuadní t ica en la hase cau{mica B
= {e 1 • e:z,
f';¡}
es
En primer lugar, observamos q1w como clet 9J1s() = -2-l fe O. la forma cuadrMica es no degeuerada, es decir S( ) = O ~· por d Criterio de S~·lwster no es definida positiva ni twgati\·a. Luego es indefinida. l. Método de construcción directa de la base:
Para encontrar una base ele ,·ectores conjugados B' = {n 1 , u2 . u;l} comenzamos digicndo como u 1 un ,·ector tal que (ul) fe O. Tomamos por ejemplo u 1 = e 1 . El vector u 2 ticue que pertenecer al subespacio conjugado L( 11 1 )'
L ( u I) ,.
= {(.r, y, z ) : (:r. y. ::) (
Entonces, podl'mos tomar
Por ejemplo. uos sirw
11;¡
li2
=
~ ~ ~~ )
o ()
Finalmente
C;¡.
11;¡
E
= (-:3, l. O)ro. La matriz de
9Rw()
~(
(
~)
o
:3
=
O}
= { :r + 3 y = O }
L( II¡ )" n L(u2)" = L( IJ 1·
en la hase B' es
( 11 1)
o
()
(v:z)
o o
()
o
(11l)
1 o o o 3 o o o -8
)(
)
112)".
Solucimws de los ejercicios
2. Método de diagonalización por congruencia:
(
~
()
1 o o 1 o :3 o ()
:3 1
o
(
h--+ h- :3f¡
()
('2
--+
(''2 -
:k 1
~
()
o ()
1 -:3
()
-8
()
()
3
o
()
1 o ~ ) = (DjP )
Las filas de pt son las coordenadas en B de una base de vecton~s conjugados B'
= {
u 1 . v 2 . ll.:J}:
3. Método de Lagrange o de Gauss: Presentamos en este ejercicio otra forma de resolver este problema. Se trata de un procedimiento conocido como 1\lótodo de Lagrange o de Gauss, que consiste en manipular la para todo //' E V. Sean {c 1 , c 2 , e:J} una base ortononual ele V y n = i1 1 e 1 + U¿ e¿ + II;¡C;¡ y t' = 1'¡ e 1 + 'o 2 c 2 + 't';¡C;¡ dos vectores de V. Entonces
=
+u;¡< f';¡,C¡
>=
'IL¡
Del mismo modo se dennwstra que < u., e; >= n; y
=< u, e; >,entonces u; =
t'; y
por tanto u= o.
O
8.2. Sean U1 e;: U2 subespacios vectoriales de (V, ). Demuestre que existe un vector no nulo l' E u2 tal que V _j_ Ul. Solución: Supongamos di m U 1 = r < di m U2 = s. Sea { t' 1 , •.• , u1 } una hase ortogonal ele U 1 • Como t'r, ... , u,. son vectores ortogonales dos a dos ele U2 • entonces por d Teorema de ampliación a una base podemos ampliar el conjunto hasta obtener una base {o 1 , ... , '/! 1,, Vr+l· .... l's} de U2 . Aplicamos a esta base el método ele Gmm-Schmidt para transformarla en un hase ortogonal ele [h: { 1• 1 , ... , Vr, llr+l, . . . . 'lis}. Cualquier vector no nulo o del suespacio S = L( 1Lr+ ¡, ... , ns) cumple la condición requerida en el enunciado. De hecho. se cumple U1 ([) S = U2 . O 8.3. Sea (V,) un espacio vectorial euclídeo y u, vE V. Demuestre las siguientes propiedades:
a) llu + vll 2 = llnll 2 + llvll 2 si y sólo si v. .l v. Teorema de Pitágoras. b) lln +
vW +
lln- vll 2 = 2(llnll 2 + llvW). Ley del Paralelogramo.
e) llull = llvll si y sólo si
u+ v y u - v son ortogonales. Deducir que un paralelogramo es un rombo si y sólo si sus diagonales son perpendiculares.
Solución: a) Teorema de Pitúgoras
llu+vll =llvW~+IIuW+2 ~
~
(0,0.1)+ < (:r.y,z), (J2, J2,0) > (J2. J2.0)
proyu(:r, y, z)
~)
(O, O,~
+
( .r + lJ :r + y 2
'
2
) _ ( :r + y
.O -
2
.
:r:
+ y ~) 2
' ~
que forma un ángulo de 180" cou (0.0.1) si y sólo si ('~ 04 , riy· z) es múltiplo de (0.0. -1) si y sólo si :r + y = O y z < O.
Observación: Si el ángulo n hubiera sido distinto uo habríamos podido resolver el problema cou m1 argumeuto final tau scucillo. El procedimiento gcueral sería d siguiente: cos (t
=
.e+ u .r+u ~) (ll , l'l, 1) > < ( _2_'_2_','"' ll(r~u. rt!l.z)II·II(O.O.I)II
de donde 2
:r+.tJ) 2(+z 2 2
z ==-
y elevando al cuadrado los dos miembros de la ecuación se obtiene: 2
z2
=2cr;y) +z 2
~
(.r+y) 2 =0
~
:r+y=O
Sustituyeudo e u ( *):
z=
_.,¡::¡ = -lzl
por lo que z será un número negativo. Fiualrneute. los vectores que cumplen la condición pedida s011 los (.r, y, z) tales que :r + .IJ = O y z < O. D
494
Soluciones de los ejercicios
8.14. Dado el producto escalar de JR 3 definido por:
a) Determine una base orto normal del plano U = {x 2
+ x3
= O}.
b) Determine el conjunto S de vectores v = (x 1 , x 2 , x 3 ) tales que su proyección ortogonal sobre el plano U= {x 2 + x 3 =O} es el vector (1. O, 0). ¿Es S un subespacio vectorial? e) Determine si existen en S vectores unitarios.
Solución: Es importante tener en cuenta que en los tres apartados los cálculos de productos escalares deben hacerse conforme a la ecuación del producto escalar dado:
a) Construimos una base ortogonal de U. tomando primero un Yector cualquiera de U. por ejemplo n¡ = (1,0.0) y vemos que ]]u¡W =< UJ,Ul >= 2. A continuación u2 será un vector de U ortogonal a u 1 :
uf=
{(.r¡,;r2 ..r:J):
< (.r¡,X2 .. I':J). (LO. O)>= O}= {2.r 1 +.1·2 =O}
Entonces, nos sirve 11 2 = (1. -2. 2) que cumple ambas ecuaciones, la ele U y la de su norma ]]v2]] 2 =< u2.1L2 >= 10. Una base ortonormal ele U PS ll2 } !M' lM 11¡
{
=
1
{
1
J2(L O. 0). JIO(l. -2. 2)
vf.
Calculamos
}
b) Utilizarnos coeficientes de Fourier relativos a la base ortogmml { u 1 . u2 } de U para calcular la proyección ortogonal de un vector genérico 1' = (:r 1 . .r 2 . .r:J) sobre U (Proposición 8.26. pág. 299):
P.'/1¡ -----U¡+
'112
< (:r¡,.r 2 .:r:J).(l.O.O) > ( 2
1,0.0
)
+
< (.1· 1 ..r 2 ,.r;3 ).(L-2.2) > 10
(1.-2.2)
+ :r2 (1. O. O)+ -:r2 + 4.r:l (l. _ 2 . 2 ) 2 10 (lO.r¡ + 4.rz + 4.l';J. 2:r2- 8:r;J. -2.r2 + 8.c3) 10
2.r 1
Los wctores de S son los
t'
=
(.D 1 . .c2 . . r;1 ) E
JR:1 tales que pro,vdv) =(LO, 0). es decir
(10:r¡ + 4:1:2 + 4.r,,, 2.r2 - 8.r:l· -2.r2 + 8.r:l) 10
= (l. O, O)
?
{
10.r: 1 + 4;1'2 + 4.r:l = 10 2.z·2 - 8.!':) = ()
Los vectores ele S son las soluciones ele ese sistema lineal no homogéneo ~· por tanto S no es un suhespacio vectorial. En particular no contiene al vector O.
Soluciones de los ejercicios
495
e) Resolviendo el sistema se obtiene la forma de los vectores de S= { (1- 2,\, 4,\. ,\) : ,\E JR}, y determinamos si hay alguno unitario (de norma 1)
11(1- 2,\,
4,\,
"lW =< (1- 2,\. ü. "l·
(1- 2,\. 4,\.
"l >= 2 + 10,\ 2 :::;. 2
La respuesta es no, pues la ecuación 2 + 10,\ 2 = 1 no tiene ninguna solución real. Todos los vectores de S tienen longitud o norma mayor o igual que J2. Nota: todos los productos escalares se hau calculado utilizando la expresión analítica ( *), los cálculos pueden hacerse igualmente utilizando la matriz de Gram. O 8.15. Demuestre las siguientes propiedades del producto vectorial en JR:3 . Para cualesquiera vectores n, v y w de JR3 y para todo n E lR se cumple
a) u
1\
v = O si y sólo si u y v son linealmente dependientes.
b) nl\v=-(vl\u). e) ul\(v+w)='ul\v+Itl\w.
d) (au)
1\
v
=
n
1\
av
=
n(u 1\ v).
Solución: a) Si v y 1' son liuealmente dependit'ntes. entonces por definición u 1\ 1' = O. Por otro lado, si 'IL y'/' son dos vectores no nulos tales que u 1\ v = llnllll ull sen L(u. v) = O, entonces sen L(u, v) = O. luego el ángulo entre u y u es igual a O o 1r, por lo que los dos vectores pertenecen a la misma recta. es decir son linealmente dependientes.
b) Sean u= (n 1 . u 2 , 11;¡) y'/.'=
(1• 1 ,
u2 ,
1•:1 ).
entonces según la Porposición 8.30
(detG.~ :~::).-ddc~~ :~::),
//1\1'
( -det
(:;~ ;;~:) .det (:;~
detC/J:
:~~))
;;;:), -det (:;:
;;~))=-(vi\ u)
En la segunda igualdad se han aplicado propiedades básicas de los determinantes.
(t! + w) =u 1\ v + nl\w. Sean u= (v. 1 • u 2, ll;¡), u= (u 1 , v 2, n:1) y w = (w 1 , w2, w;¡), entonces según la Porposición 8.30 las componentes del vector u 1\ ( n + w) son:
~') ·u 1\
(1
110
11'2 1'2
+ ll''2
7!;¡
+ 1/1;¡ 1 •
1
1'¡
/1.¡ + '//!¡
Vz
112
+ w2
1)
Aplicando la propiedad del det= .r + .11 + z = O.
JI{
El área del paralelogramo que determinan 11 :.· u es igual a la norma del vector u 1\ tiene que cumplir ll11 1\ 1'11 = :3. El producto wctorial es
u
1\
t'
1
11 1 1 (1 1 - Al-Jll· -IAl - A1- 1· IA1 1"1)
¡·.
luego se
= (2p +A. -2 A -p. A-¡¡)
y su norma es
Entonces,
liu
¡- = D
'2
)
1\ 1•1
= ( ~. O)}.
Podemos tornar corno wetor de r el (l. -l. U) y normalizarlo obteniendo tinuación, buscamos una base ortononnal de IT. por ejemplo: { 112
111
h.
Colocamo:.; los vectores com·enientemente para que la hase B' e:.;t{' po::;iti\·amente orientada: E'= {u 1 .11:J. u2} en efl~cto la matriz de paso de B' a la base canónica E es
p
/2/2 12/2 = -12/2 12/2 o u) . ( o o 1
det P
=1
La matriz ele g en la base B' es J(y) v la matriz en la base canónica E se obtiene haciendo el cambio ele base
9J1s(g)
= PJ(y)P 1
)( )(
12/2 /2/2 o -/2/2 12/2 u o u 1
( (
o
-1
-1
o o
o
u
o -1
)
1 o o -1 o o
12/2 -12/2 o 12/2 12/2 o
o o
-]
o
o
1
)
matriz del giro
Procedemos ahora con _q o rJ
9J1s(.q o (J)
= PJ(g o rJ)P 1
( Vl/2 ../2/2 -../2/2 ../2/2 () o
(
-1
()
()
()
-1
()
o
()
-1
() ()
l
)(
-1
()
()
-]
o o
()
()
-1
)(
../2/2 -vÍ2/2 ../2/2 ../2/2 () o
() ()
1
)
y vemos que la matriz no cambia. Podíamos habernos ahorrado cstP paso observando que. a la vista de la matriz de g o u. se cumple g o rJ( 1') = -¡· para todo u E ¡p(l. Luego la matriz scrú la misma en cualquier base. D
)
Soluciones de los ejercicios
SO!í
f
9. 7. En un espacio vectorial euclídeo V tridimensional se considera el endomorfisrno respecto de una base ortonormal positivamente orientada E es la siguiente:
cuya matriz
a) Demostrar que fes una isornetría y calcular su forma de .Jordan real .JITf..
b) Calcular las matrices 9J1B(8¡) y 9J16 (s 2 ) de dos simetrías ortogonales hiperplano 81 y s 2 tales que f = s 2 o 8J . Solución: a) Para demostrar que f es isornetría, dado que su matriz está referida a una base ortonormal, es suficiente comprobar que se trata de mm matriz ortogonal:
9J1B(f)9J1k(f)
=
~ ~
(
() )
()
;1~ 0~ 0~
(
()
)
(
()
~ ;~
)
001
El determinante de la matriz de f es 1. por lo qtw se trata de m1 giro. El eje del giro es la recta de \"('dores fijos V1 = Ker(f- Id) cuyas ecuaciones vienen determinadas por el sistema homoghwo -1 1
('JJ1B(f)- lcl)X =O B (
·.l'~j·
()
-1 1
()
1) (1
)
(
=O
)
B
:r -
.11
= O.
JJ - z
=O
-
Para obtener la matriz de .Tordan real. y así dctenninar el ángulo de giro, tomamos una basl~ ortonormal positivamente orientada E' = {11 1 . 112, u:;} cor1 u 1 un vector del ejP de giro. Así. tomamos 11 1 = ( J:¡. J:¡. J:¡lB· 112 = ( J:¿. O)B y II:J = 111 1\112 = ( J¡;,- j¡¡)B·
J¡¡·
):¿.-
La matrit~ de .Jordan real del giro se obtiene haciendo el cambio de base:
'JJ1B' (f)
1
9J1B B' íJnr.;(f)íJJLB' B = (9J1B' B ) 9J1B(f)íJnB' B
e·
v'2
1
-l
() }.
1
v'2 1
_::__1_
v'ii
v'ii
v'ii
Se trata del giro de eje orientado
)(" o) ('}. 1
()
()
f
V2 -1
()
=
1; 2
V2
_l_
()
,¡;¡
L (u 1) .Y úngulo O =
IJ) Para obtenPr las simetrías tales que
1
,¡;¡
1
()
,¡;¡
o s1
,
~) (:, v'ii
-2
v'ii
()
o -;¿:1 ,¡;¡ 2
_,¡;¡ o ) 2
1
-2
~~. uos fijamos en d Ejemplo 9.22, pág.
:no,
y elegimos s 1 como la simct ría de hase un plano P 1 cualquiera q1w col!tel!ga al eje de giro. Por