Aplicaciones lineales
 9788484299257, 8484299252

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Aplicaciones lineales Pelegrí Viader Canals 1,75 créditos P00/75004/00192

 FUOC • P00/75004/00192

Índice

Introducción............................................................................................... 5 Objetivos ...................................................................................................... 6 1. Vectores................................................................................................... 7 1.1. Cambio de base.................................................................................. 8 2. Aplicaciones lineales ........................................................................... 12 2.1. Introducción ...................................................................................... 12 2.2. Definiciones....................................................................................... 12 2.3. Matriz de una aplicación lineal ......................................................... 14 2.4. El núcleo de una aplicación lineal .................................................... 17 2.5. La imagen de una aplicación lineal f................................................. 19 2.6. Cambio de bases en una aplicación lineal ........................................ 23 3. Diagonalización de matrices............................................................. 25 3.1. El problema de la diagonalización de un endomorfismo ................. 25 3.2. Valores propios y vectores propios.................................................... 26 3.3. Cálculo de valores propios y vectores propios asociados a una matriz ...................................................................... 27 3.4. Algunos resultados generales............................................................. 31 3.5. Potenciación de una matriz ............................................................... 35 4. Las matrices simétricas....................................................................... 36 4.1. Espacios vectoriales euclidianos ........................................................ 37 4.2. Norma y ángulo ................................................................................. 39 4.3. Bases ortonormales ............................................................................ 42 4.4. Proceso de ortogonalización de Gram-Schmidt ................................ 43 4.5. Diagonalización ortogonal ................................................................ 45 Resumen....................................................................................................... 49 Ejercicios de autoevaluación .................................................................. 51 Solucionario................................................................................................ 53 Glosario ........................................................................................................ 59 Bibliografía................................................................................................. 59

Aplicaciones lineales

 FUOC • P00/75004/00192

5

Introducción

El concepto de espacio vectorial se aplica a muchos conjuntos diferentes: polinomios, matrices, funciones, etc. En muchas ocasiones es necesario estudiar las transformaciones de los elementos de estos espacios en otros elementos del mismo espacio o de otro diferente. Estas transformaciones, cuando se comportan de forma natural respecto a las operaciones de suma y producto por un escalar, reciben el nombre de aplicaciones lineales y el hecho de estudiarlas es capital para muchas cuestiones de tipo práctico. Las matrices adquieren un protagonismo relevante en la teoría de aplicaciones lineales y los sistemas de ecuaciones. Un tema importante lo constituye el estudio del problema de la diagonalización de una matriz cuadrada, problema que permite abordar, junto con el estudio particular de la diagonalización de matrices simétricas, una cuestión tan importante como la clasificación de las formas cuadráticas, de importancia fundamental en la optimización de funciones de diversas variables. A lo largo del texto iréis encontrando ejercicios que os tienen que permitir comprobar el grado de comprensión de la teoría que se desarrolla. Los ejercicios de autoevaluación del final del módulo también os tienen que permitir ver la profundidad de los conocimientos alcanzados.

Aplicaciones lineales

 FUOC • P00/75004/00192

6

Objetivos

El estudio de los contenidos que se desarrollan en este módulo didáctico y la realización de las actividades y de los ejercicios de autoevaluación os deben permitir alcanzar los objetivos siguientes: 1. Introduciros en el concepto de linealidad, concepto clave en todas las aplicaciones de las matemáticas. 2. Modelizar problemas de transformaciones entre vectores mediante aplicaciones lineales. 3. Comprender el vínculo y la relación que hay entre los conceptos de matriz, aplicación lineal y sistema de ecuaciones. 4. Comprender y resolver el problema de la diagonalización de una matriz cuadrada. 5. En el caso de las matrices simétricas, abordar su diagonalización ortogonal.

Aplicaciones lineales

 FUOC • P00/75004/00192

7

1. Vectores

Este módulo se dedica fundamentalmente al estudio de las aplicaciones lineales entre espacios vectoriales. La estructura algebraica de espacio vectorial ya ha sido introducida en el módulo anterior. En esta sección, queremos recordar que las intuiciones de todo lo que refiere a los vectores, introducidos hasta ahora como matrices-fila o matrices-columna, de hecho provienen de la geometría y de un concepto de vector mucho más gráfico. En geometría –ya sea del plano o del espacio– se llama vector fijo a un par (ordenado) de puntos: un origen, A, y un extremo, B. El vector fijo se simboliza por AB o, simplemente, AB. Es más interesante el concepto de vector libre. En el conjunto F de todos los vectores fijos, definimos una relación de equivalencia R de la forma siguiente: AB R CD cuando AB se pueda transportar paralelamente a sí mismo hasta coincidir totalmente con CD.

Definimos vector libre como una clase de equivalencia en el conjunto F con la relación R anterior. Dicho en otras palabras, un vector libre es un vector que tiene la posibilidad de moverse paralelamente a sí mismo (manteniendo la dirección, el sentido y el módulo). Estas operaciones dotan al conjunto de los vectores libres de una estructura de espacio vectorial.

Si en el plano (o en el espacio) elegimos un punto como origen de coordenadas y seleccionamos unos ejes cartesianos, los componentes de un vector fijo AB se definirán así:

Si A = ( a 1 , a 2 ) y B = ( b 1 , b 2 ) ⇒ AB = [ b 1 – a 1 , b 2 – a 2 ].

En esta última expresión, la de los componentes del vector AB, hemos utilizado corchetes, [ ], en lugar de paréntesis normales. Habitualmente no se hace distinción, y es el contexto el que debe permitir distinguir si estamos hablando de un par ordenado (a,b) como coordenadas de un punto o como componentes de un vector. Se ve de forma inmediata que si dos vectores fijos tienen los mismos componentes, son representantes del mismo vector libre y, recíprocamente, un vector libre está formado por una clase de equivalencia donde todos los vectores fijos tienen los mismos componentes. Podemos, de este modo, identificar un

Aplicaciones lineales

 FUOC • P00/75004/00192

8

vector libre con sus componentes, de donde viene la doble forma de tratar los vectores, geométricamente o por componentes (matrices-fila o matrices-columna). No distinguiremos, de este modo, los vectores libres del plano de vectores de E 2 ni los del espacio de E 3. Los vectores libres se pueden sumar, ya sea por componentes o geométricamente (ley del paralelogramo). También se pueden multiplicar por escalares utilizando estos dos criterios. Veámoslo: 1) Geométricamente a) Suma:

b) Producto por escalar

2) En componentes: a) ( u1 , u2 , … ) + ( v 1 , v 2 , … ) = ( u 1 + v1 , u2 + v2 , … ); b) α ⋅ ( u1 , u2 , … ) = ( α u 1 , α u2 , … ).

1.1. Cambio de base En un espacio vectorial hay muchas bases. En ocasiones, será necesario pasar de la expresión de un vector en una base a la expresión del mismo vector en otra base. Dicho en otras palabras, será necesario llevar a cabo un cambio de base. Tomemos, por ejemplo, E2 y elijamos de él dos bases diferentes: B = {v1,v2} y

Aplicaciones lineales

9

 FUOC • P00/75004/00192

Aplicaciones lineales

B’={w 1,w 2}. En cada una de estas bases, un mismo vector tiene una expresión diferente, tiene diferentes componentes: x = x1v1 + x2 v2 (x1 y x 2 son los componentes de x en base B), x = x1´w 1 + x 2´ w2 (x1´ y x 2 son los componentes de x en base B´). El cambio de base nos debe permitir pasar de (x 1,x2) a (x 1´,x 2´) y viceversa. Utilizaremos, cuando convenga, la notación siguiente: x1 x =   = ( x )B x2 B

;

x 1′ x =   = ( x ) B ′. x 2 ′ B′

Recordemos que en la base canónica de E 2 :C={(1,0),(0,1)}, los componentes de un vector, x = (α,β), son precisamente α y β, es decir: α x = (α , β ) =   . βC Veamos cómo hallar los componentes del mismo vector en otra base mediante un ejemplo. Ejemplo 1 Dado el vector x = (2,5), encontremos sus componentes en base B = {(3,–1),(1,5)}. x′ 1 Debemos encontrar x =   , es decir, (2,5) = x 1´(3,–1)+x 2 ´(1,5).  x′ 2  B Debemos resolver, entonces, el sistema:  3x ′ 1 + x′ 2 = 2   ( – x′ 1 ) + 5 x′ 2 = 5 , 5 ; x ′ = 1 7 . En consecuencia, que tiene por solución única: x 1 ′ = ----------2 16 16 2 5 ⁄ 16  x = ( 2, 5 ) =   =  . 5 c 17 ⁄ 16B

Si en el ejemplo anterior, en lugar de trabajar con el vector (2,5) lo hacemos con un vector cualquiera, x = (x1,x2), llegamos al sistema de ecuaciones: = x1  3x′ 1 + x′ 2   ( –x ′1 ) + 5 x′2 = x 2 ,

que, expresado matricialmente, dice:

3  –1

1   x′ 1 ⋅ 5  x′ 

2 B

x1 =   . x 2 C

(1)

10

 FUOC • P00/75004/00192

3 Multiplicando por la izquierda por la matriz inversa de   –1

 x′ 1  x′ 

2 B

3 =   –1

Aplicaciones lineales

1 : 5

1  –1  x 1 ⋅ . x  5

(2)

2 C

Las relaciones (1) y (2) nos enseñan cómo pasar de un vector expresado en componentes en una base al mismo vector expresado en otra base. Concretamente, la relación (1) nos expresa lo que se debe hacer para pasar de un vector expresado en base B a su expresión en base canónica C: multiplicar por una matriz que, en nuestro ejemplo, es:

3 – 1

1 5

Esta matriz recibe el nombre de matriz del cambio de base B a C. La denotaremos PBC . Es muy fácil de construir. Hay suficiente poniendo en columna los vectores de la base B expresados en componentes de la base C. Podemos, de este modo, escribir:

P BC ⋅ ( x )B = ( x ) C .

En lo que respecta al cambio de base inverso, de C a B : PCB , queda determinado por la matriz inversa de P CB , tal como puede observarse en (2), y también podemos escribir:

P CB ⋅ ( x )C = P – 1 B C ⋅ ( x ) C = ( x ) B .

Está claro que se cumple la proposición que presentamos a continuación.

Proposición 1 Si B y B´ son dos bases diferentes, entonces: P B′ B = P –BB1 ′ .

(3)

Un cambio de base, geométricamente, equivale a elegir unos ejes de coordenadas diferentes, que no deben ser necesariamente rectangulares (es decir,

11

 FUOC • P00/75004/00192

Aplicaciones lineales

pueden ser ejes oblicuos). El tratamiento se puede hacer de forma puramente geométrica, como indica el esquema siguiente:

A tiene coordenadas (x,y) en los ejes “habituales” OX, OY. Si ahora elegimos como nuevos ejes de referencia los marcados OX´ y OY´ (x´, y´), éstas son las nuevas coordenadas del punto A. Las relaciones entre (x, y) y (x´, y´ ) son:

 x = a11 x ′ + a 12 y ′   y = a 21 x′ + a 22 y ′,

donde a 11, a12, a21, a 22 tienen que ver con el seno y el coseno de los ángulos ω1 y ω2.

Nota No entramos en más detalles porque el ejemplo se alargaría excesivamente.

12

 FUOC • P00/75004/00192

2. Aplicaciones lineales

2.1. Introducción Son sumamente importantes las aplicaciones entre dos espacios vectoriales que se comportan de forma natural respecto a las operaciones de espacio vectorial. Esto quiere decir que muchas transformaciones habituales entre los vectores del plano o del espacio, como los giros, las simetrías, etc., se pueden estudiar desde un punto de vista más general.

2.2. Definiciones En todo lo que sigue, V, W, ... son espacios vectoriales reales. A efectos prácticos, los podéis imaginar como E n, Em , ...

Una aplicación de un espacio vectorial V 1 (espacio de salida), en otro espacio vectorial V 2 (espacio de llegada), f: V 1 → V 2 x → f(x) es una aplicación lineal cuando se cumplen las dos condiciones siguientes: a) ∀ u, v ∈ V 1 , f ( u + v) = f ( u ) + f ( v ); b) ∀ u ∈ V 1 i ∀α ∈ R, f ( αu ) = αf ( u ).

Traducida a un lenguaje más sencillo, la primera condición diría que la imagen de una suma es la suma de imágenes. Por otro lado, la segunda diría que los escalares pueden salir fuera de la imagen cuando multiplican.

Ejemplo 2 Sea f: E 2 → E3 ( x, y ) → ( x + y, 2x – 3 y , 0 ) . Comprobemos que f es lineal: 1 ) Si u = ( x 1 , y1 ) y v = ( x 2 , y 2 ) :

Aplicaciones lineales

13

 FUOC • P00/75004/00192

f(u + v ) = f( x 1 + x 2, y 1 + y 2) = = ( x 1 + x 2 + y1 + y2 , 2(x 1 + x 2 ) – 3 ( y1 + y 2 ) , 0) = = ( x 1 + y1 , 2x 1 – 3 y 1 , 0 ) + ( x 2 + y2 , 2x 2 – 3 y 2 , 0) = = f ( u) + f ( v ) . 2 ) Si u = (x, y), y α ∈ R ( α u ) = f ( αx, α y ) = ( α x + αy , 2α x – 3 αy , 0) = α ( x + y, 2x – 3 y , 0 ) = α f ( u) Ejemplo 3 La aplicación lineal identidad de un espacio en sí mismo: Id: V → V x→x y la aplicación lineal cero: 0: V → V x→0. Las dos son obviamente lineales. Ejemplo 4 Consideremos la aplicación de G ω de E2 en E 2 que aplica un vector con origen de coordenadas en el mismo vector girado ωo (un ángulo de ω grados) en sentido contrario a las agujas del reloj, tal como muestra la figura:

Si pensamos en ello un poco, veremos que se cumplen claramente las dos condiciones de linealidad: 1 ) G ω ( u + v ) = G ω ( u ) + G ω ( v ); 2 ) G ω ( α u ) = α G ω ( u ). Dicho de otro modo, es lo mismo sumar y después girar, que girar y después sumar, y es lo mismo alargar y después girar, que girar y después alargar.

Otros nombres que reciben las aplicaciones lineales son transformaciones lineales o bien homomorfismos entre espacios vectoriales. Si una aplicación lineal va

Aplicaciones lineales

14

 FUOC • P00/75004/00192

Aplicaciones lineales

de un espacio en sí mismo, recibe el nombre especial de endomorfismo, que definimos a continuación. Un endomorfismo es una aplicación lineal de un espacio vectorial en sí mismo. Representaremos como End(V) el conjunto de todos los endomorfismos de V.

2.3. Matriz de una aplicación lineal Consideremos una aplicación lineal entre dos espacios vectoriales de dimensión finita: f: E n → Em x → f(x) . Sean B n = {e1,e2, ..., e n} y Bm = {u1, u2, ..., um } bases de E n y E m respectivamente. Un vector x cualquiera de E n se expresará en componentes de la base B n: x = x 1 e 1 + x 2e 2 + … + x ne n. Entonces, su imagen será (recordemos que f es lineal): f ( x ) = x 1 f ( e1 ) + x 2 f ( e 2 ) + … + x n f ( en ). Ahora, cada f(ei) se puede expresar en componentes de la base B m : f ( ei ) = a 1i u 1 + a 2i u2 + … + a m iu m. En definitiva: f ( x ) = x 1 ( a 11 u 1 + a 21 u 2 + … + a m 1 u m ) + + x 2 ( a 12 u 1 + a 22 u 2 + … + a m 2 u m ) + ... + x n ( a 1n u 1 + a 2 n u2 + … + a m num ). Es decir, quitando paréntesis y reagrupando términos: f ( x ) = ( a 11 x 1 + a 12 x 2 + … + a 1n x n )u1 + + ( a 21 x 1 + a 22 x 2 + … + a 2n x n )u2 + ... + ( a m 1 x 1 + a m 2 x 2 + … + a mnx n )u m .

(4)

15

 FUOC • P00/75004/00192

Aplicaciones lineales

Esta última igualdad nos permite presentar un primer teorema.

Teorema 1 Una aplicación lineal queda completamente determinada conociendo las imágenes de una base. La imagen de un vector se puede calcular según (4) que, expresado matricialmente, dice:

a 22



a1 n  a 2 n    a m n



a m2

x 1  x  ⋅  2  .    x n  Bn ...



...

a 12 ...

...

( f ( x ) )B m

 a 11  a =  21   a m1

La matriz m × n anterior recibe el nombre de matriz de la aplicación lineal en las bases dadas. Observemos que se construye poniendo en columna las imágenes de los vectores de la base del espacio de salida en componentes en la base del espacio de llegada. Ejemplo 5 Encontremos la matriz en bases canónicas de las aplicaciones de los ejemplos anteriores. a) En el caso de la aplicación lineal f(x,y) = (x+y, 2 x – 3y, 0), es inmediato que f(1 ,0) = = (1,2,0) y f(0,1) = (1, –3, 0). Poniendo estos dos vectores en columna, tenemos la matriz buscada:  1  2   0

1 – 3  0

b) En el caso de la identidad, Id( x) = x: …

1



0

0 0 ,  1

.. .

0 ...

.. .

1 0    0



es decir, la matriz de la aplicación identidad es la matriz identidad del orden correspondiente. c ) En el caso de la aplicación cero, 0(x) = 0: 0



0



0

0  0 ,  0

...

...

...

0  0   0



es decir, la matriz de la aplicación cero es la matriz cero de las dimensiones correspondientes. d) En el caso del giro de ángulo ω : G ω ( 1, 0 ) = ( cos ω , sin ω ) G ω ( 0, 1 ) = ( – sin ω , cosω ),

16

 FUOC • P00/75004/00192

de forma que la matriz será:  cos ω  sin ω

– sin ω . cos ω 

Recíprocamente, toda matriz con coeficientes reales, A, se puede considerar como la matriz de una aplicación lineal. Nos lo muestra el ejemplo siguiente:

Ejemplo 6 Encontremos una aplicación lineal que tenga como matriz:  1  –1

2 5

3  –3 

Sólo debemos considerar: f: E 3 → E 2 ( x, y , z ) → ( x + 2 y + 3 z , –x + 5 y – 3 z) y pensar, si queremos, que las bases en las que trabajamos son las canónicas.

De hecho, se demuestra muy fácilmente el resultado siguiente.

Teorema 2

Una aplicación f: E n → Em es lineal cuando: f ( x 1 , … , x n ) = a 11 x 1 + a 12 x 2 + … + a 1n x n , …, a m1 x 1 + a m2 x 2 + … + a m nx n . Es decir, los componentes de la imagen f (x) se expresan como combinaciones lineales de los componentes de x.

Este segundo teorema es muy importante. Permite reconocer de un vistazo si una aplicación es lineal o no.

Ejemplo 7 Determinemos si las aplicaciones siguientes son lineales o no: a) f(x,y) = (2x + y,y). Los dos componentes de f(x,y) son combinaciones lineales de x e y. Por lo tanto la aplicación es lineal. b) f(x,y) = (3,x + y) El primer componente de f( x,y) es 3, que no es combinación lineal de x e y. La aplicación, de este modo, no es lineal. c ) f(x,y,z)=(x+y+z,0,x –y–z)

Aplicaciones lineales

17

 FUOC • P00/75004/00192

Aplicaciones lineales

Los tres componentes de f(x,y,z ) son combinaciones lineales de x, y y z. (Debemos tener en cuenta que 0 = 0 · x + 0 · y + 0 · z.). Por lo tanto, la aplicación es lineal. d) f(x,y,z) = (x 2 +y2 ,x,z). El primer componente de f(x,y,z) es x2 +y 2, que no es combinación lineal de x, y y z. (En una combinación lineal no hay cuadrados). La aplicación no es lineal.

Actividad 1 . Consideremos el espacio vectorial de los polinomios de grado menor o igual que 2, P 2 : a) Demostrad que la aplicación D: P2 → P 2 definida como: D ( a + bx + cx 2 ) = b + 2 cx es lineal. b) Encontrad su matriz en la base canónica {1, x, x 2 }. (Notad que el endomorfismo D es precisamente derivar el polinomio.)

2.4. El núcleo de una aplicación lineal

Se ve de forma inmediata que si f es lineal, f(0) = 0. Puede suceder, sin embargo, que haya otros vectores aparte del 0 que tengan imagen 0.

Se denomina núcleo de la aplicación lineal f: V → W al conjunto f −1(0), que denotamos Ker f. Es decir: Ker f = { x ∈ V f ( x ) = 0 }.

Encontrar el núcleo de una aplicación lineal es muy sencillo. Si A = (aij) es la matriz de la aplicación, es suficiente con encontrar los vectores x = (x 1,x 2, ..., xn) tales que f(x) = 0. Es decir:

...

...

 x 1  0 x    0 A ⋅  2 =   ,      x n  0 que equivale a resolver el sistema homogéneo siguiente:

...

...

...

...

 a 11 x 1 + a 12 x 2 + … + a 1n x n = 0   a 21 x 1 + a 22 x 2 + … + a 2n x n = 0     a m 1 x 1 + a m 2 x 2 + … + a mnx n = 0 .

(5)

18

 FUOC • P00/75004/00192

Aplicaciones lineales

De hecho, éste es el método para encontrar la antiimagen de cualquier vector, no sólo la del 0.

Teorema 3 Para calcular f −1(b) sólo es necesario resolver el sistema:

...

...

...

...

 a 11 x 1 + a 12 x 2 + … + a 1n x n = b 1   a 21 x 1 + a 22 x 2 + … + a 2n x n = b 2     a m1 x 1 + a m2 x 2 + … + a mn x n = b m.

(6)

Con todo lo que sabemos de sistemas de ecuaciones, es muy sencillo demostrar el teorema que enunciamos a continuación.

Teorema 4 El núcleo de una aplicación lineal es un subespacio vectorial del espacio de salida.

El núcleo está íntimamente ligado al carácter inyectivo de la aplicación lineal, tal como nos muestra el teorema siguiente:

Teorema 5 Si f: En → Em es una aplicación lineal y A es su matriz en unas determinadas bases, las proporciones siguientes son equivalentes: 1) f es inyectiva. 2) Ker f = {0}. 3) A tiene rango n.

Demostración 1) ⇒ 2) Que f sea inyectiva hace que f −1(0) se deba limitar, como máximo, a un elemento; como consecuencia, tenemos que Ker f = {0}, ya que 0 ∈ Ker f en todos los casos. 2) ⇒ 3) Si A = (a ij), recordemos que encontrar f −1 (0) equivale a resolver el sistema (5), es decir:

19

 FUOC • P00/75004/00192

...

...

 x 1  0 x    0 A ⋅  2 =   .      x n  0

Si este sistema que estamos estudiando tiene solución única (porque estamos suponiendo que Ker f = {0}), el teorema de Rouché-Frobenius nos asegura que el rango de A es igual al número de incógnitas; es decir, el rango de A es igual a n.

3) ⇒ 1) Si suponemos que f(u) = f(v) entonces por la linealidad de f, f(u – v) = 0, que equivale a resolver el sistema siguiente:

...

...

u 1 – v 1  0     u – v 2 0 A⋅  2 =  ,         u n – v n  0 que necesariamente debe tener solución única (la trivial), ya que ahora el rango de A es n por hipótesis. Así, ui – v i = 0 para todo i = 1,2, ..., n y por lo tanto, u = v.

2.5. La imagen de una aplicación lineal f

Sea f: V → W una aplicación lineal. El conjunto de todas sus imágenes recibe el nombre de imagen de f. Lo representaremos como Im f. Es decir, tenemos que: lm f = { f ( x ) x ∈ V } = { y ∈ W ∃ x ∈ V : f ( x ) = y } .

Es fácil demostrar el teorema que enunciamos a continuación.

Teorema 6 Si f: E n→Em es lineal, la imagen de f es un subespacio vectorial de E m y si {e1,e2, ..., e n} es una base de E n, entonces: lm f = 〈 f ( e 1 ), f ( e 2 ), … , f ( e n ) 〉 donde representamos el espacio generado por los vectores {u, v, ...} como .

Aplicaciones lineales

20

 FUOC • P00/75004/00192

La relación entre una aplicación lineal y su imagen a través de la matriz de la aplicación viene dada por el teorema que presentamos a continuación.

Teorema 7 Si f: En→Em es una aplicación lineal y A es su matriz en unas determinadas bases, las proposiciones siguientes son equivalentes: 1) f es exhaustiva. 2) Im f = E m. 3) A tiene rango m.

Demostración 1) ⇒ 2) Que f sea exhaustiva hace que para todo y ∈ Em existe algún x ∈ En tal que f(x) = y. Es decir, Im f = E m. 2) ⇒ 3) Si A = (a ij), recordemos que si y = (y1, ..., ym ) ∈ Em encontrar f −1(y) equivale a resolver el sistema (6), es decir:

 x 1  y1      x y A ⋅  2 =  2  .      x n  y m Podemos afirmar que si este sistema tiene solución para todo y, el rango de A debe ser m. Veámoslo. Si fuese menor que m habría alguna fila que sería combinación lineal de las otras. Para fijar ideas suponemos que es la última. Así, la matriz ampliada con la columna, por ejemplo, y = (0,0, ..., 0, 1), tendría automáticamente rango mayor que el de A y, por el teorema de Rouché-Frobenius, el sistema no sería compatible, hecho que se contradice con la condición de la que partimos. 3) ⇒ 1) Si el rango de A es m, que es el número de filas de la matriz, éste coincide necesariamente con el rango de la matriz ampliada, cualquiera que sea la nueva columna, porque el rango de A no puede ser nunca superior al número de filas de A. De este modo f −1(y) tendrá siempre solución para todo y.

Aplicaciones lineales

21

 FUOC • P00/75004/00192

Aplicaciones lineales

Un resultado muy importante que se deduce inmediatamente del teorema anterior y de su correspondiente para el núcleo es la proposición siguiente.

Proposición 2 Si f: E n → Em es una aplicación lineal y A es su matriz en unas determinadas bases, las proposiciones siguientes son equivalentes: 1) f es biyectiva. 2) Ker f = {0} e Im f = E m. 3) A tiene rango n = m.

Otro teorema muy importante vinculado estrechamente a los resultados que acabamos de ver es el que enunciamos a continuación.

Teorema 8 Si f: En → E m es una aplicación lineal, entonces: n = dim Ker f + dim Im f.

(7)

Demostración

Sea {e1, e 2, ..., en} una base de E n, y sean r = dim Ker f y s = dim Im f. De entre f(e 1) ..., f(e n) seleccionamos s vectores independientes que sean una base de Im f. Supongamos que son los s primeros: f(e 11), ..., f(e s). Sea, por otro lado, {u1, ..., u r} una base de Ker f. Ahora demostraremos que {e 1, ..., e s, u1, ..., u r} forman una base de E n. Lo haremos de forma clásica, demostrando que son independientes y que generan todo E n: 1) Linealmente independientes

Si α 1e 11+ ... +α s es + β 1u11+...+β ru r = 0,

(8)

aplicando f a cada miembro de la igualdad, obtenemos (recordemos que los vectores ui ∈ Ker f): α 1 f ( e 1 ) + … + α s f ( e s ) = 0,

22

 FUOC • P00/75004/00192

Aplicaciones lineales

de donde deducimos, por la independencia de {f(e 1), ..., f(e s)}, que: α1 = α2 = … = αs = 0.

Sustituyendo estos valores en la expresión (8) tenemos:

β 1 u 1 + … + βr u r = 0

y, por la independencia de {u1,u2, ..., ur}, deducimos también que:

β 1 = β 2 = … = βr = 0 .

2) Sistema de generadores

Sea ahora x un vector cualquiera de E n. A continuación veremos que se expresa como combinación lineal de {e 1, ..., es , u1, ..., ur }. En efecto, f(x) ∈ Im f y, por lo tanto, se expresa como combinación lineal de {f(e1), ..., f(es)}:

(9) f ( x ) = x 1 f ( e 1 ) + x 2 f ( e 2 )… + x s f ( e s ) =

= f ( x 1 e 1 ) + f ( x 2 e 2 ) + … + f ( x s e s) = f ( x 1 e 1 + x 2 e 2 + … + x s e s ).

Si definimos ahora el vector: y = x – (x 1e1 + x 2e2 + ... +x ses), se ve de forma inmediata que y ∈ Ker f y, en consecuencia, se expresa como combinación lineal de los elementos de la base de Ker f:

y = y1 u 1 + y 2 u 2 + … + y ru r.

En definitiva: x = x1e 1 + x2e 2 + ... + x se s + y, es decir:

x = x 1e 1 + x 2 e 2 + … + x s e s + y =

= x 1 e 1 + x 2 e 2 + … + x s e s +y 1 u 1 + y2 u2 + … + yr ur .

Hemos llegado, de este modo, a r + s vectores que forman una base de E n. Por lo tanto, como el número de vectores de todas las bases de un mismo espacio es siempre igual y coincide con la dimensión del espacio, tenemos que: n = r + s, que es lo que queríamos demostrar.

23

 FUOC • P00/75004/00192

Aplicaciones lineales

2.6. Cambio de bases en una aplicación lineal

Hemos visto que la matriz de una aplicación lineal depende de las bases que se utilicen en los espacios vectoriales para expresar los vectores en componentes. Evidentemente, si cambiamos las bases de trabajo, al cambiar los componentes de los vectores, la matriz de una aplicación lineal también cambiará. Ahora veremos cómo podemos calcular, a partir de la matriz en unas determinadas bases, la matriz en unas nuevas. Sean, entonces, B y B’ bases de E n y sean D y D’ bases de Em . Sea M la matriz de la aplicación lineal f: E n → E m en las bases B y D. Ahora calcularemos la matriz N de f en bases B´ y D´. Deberemos poner en columnas la expresión en componentes de las imágenes de los vectores de la base B’ en componentes de la base D’. Si denotamos como ei los vectores de la base B y ei’ los vectores de la base B’, y ui’ los vectores de la base D’, tendremos que, si PBB’ y P DD’ son los correspondientes cambios de base, la columna i de la matriz que buscamos es:

...

 0     = P DD′ MP B′B  1 .      0 ...

( f ( e ′i ) )D′ = P DD ′( f ( e′ i )) D = P D D′M ( e ′i ) B = P DD′ MPB′ B ( e ′i ) B

Por consiguiente:

N = P D D′ ⋅ M ⋅ PB′ B .

En el caso de los endomorfismos, es habitual utilizar la misma base, tanto en el espacio de salida como en el de llegada. De este modo, se habla de la matriz del endomorfismo en la base B (en singular). Ejemplo 8 Encontremos la matriz del endomorfismo de E2 : f ( x, y ) = ( 2 x – y, y ). a) En la base canónica. Calculemos las imágenes de los vectores de la base canónica: f ( 1, 0 ) = ( 2, 0 ) =  2 y f ( 0, 1 ) = ( – 1, 1 ) =  –1  ,  0 C  1 C poniendo estas dos imágenes en columna: M =  2 0

–1  . 1

Ved el subapartado 1.1 de este mismo módulo didáctico.

24

 FUOC • P00/75004/00192

Aplicaciones lineales

b) En la base B = {(1,2), (–3, –5)}. Apliquemos el resultado (9): N = P CB ⋅ M ⋅ P BC , es decir: N = 1 2

– 3 –1 ⋅  2 0 – 5

– 1 ⋅  1 1  2

–3 =  6 2 –5

–10 . –3

Actividades 2 . Encontrad la matriz de la aplicación derivada de P 2 en P 2 de la actividad anterior en la base B = {2, x – 1, ( x–3) 2 }. 3 . Encontrad las matrices de los endomorfismos siguientes: a) f(x,y) = (x + y, x – y) en base canónica. b) f(x,y) = (2x, x), en base B = {(1,1), (3,2)}. c ) f(x,y,z) = (x + y + z, x–y, x–z) en base B = {(1, 1, 2), (3, 2, 1), (–1, 1, 0)}. d) f(x,y,z) = (x + y + z, x–y, x–z ) en base canónica. 4 . Demostrad que si M y N son matrices de un mismo endomorfismo, entonces: det (M ) = det (N).

25

 FUOC • P00/75004/00192

Aplicaciones lineales

3. Diagonalización de matrices

En este apartado veremos cómo podemos diagonalizar una matriz y cómo este hecho nos resolverá algunos problemas que, resueltos directamente, pueden necesitar muchísimos cálculos.

3.1. El problema de la diagonalización de un endomorfismo

Hemos visto que un endomorfismo tiene diferentes matrices en diferentes bases. Para calcular la imagen de un vector dado, u, sólo debemos expresarlo en los componentes de la base en la que tenemos la matriz del endomorfismo y multiplicar la matriz de la aplicación por estos componentes. Esta operación será mucho más sencilla cuanto más sencilla sea también la matriz del endomorfismo. En este sentido, las matrices diagonales no tienen demasiadas complicaciones.

Encontraremos un ejemplo de esto cuando apliquemos los resultados de esta sección al problema de la potenciación de una matriz: elevar una matriz a un número puede ser un resultado complicado de obtener a causa del cálculo que supone. En el caso de que la matriz sea diagonal, llevar a cabo esta operación resulta muy fácil.

Por ejemplo, podemos comprobar con mucha facilidad que:

– 2 0

0 20 –2 =   3 0

0 ( – 2 )20 =   3 0

0 20 veces  –2 ... 3 0

0 . 3 20

Tiene, entonces, mucho sentido formularse la pregunta: dado un endomorfismo f: E n→E n, ¿existe alguna base, B, de En en la que el endomorfismo f tenga una matriz D que sea diagonal?

Imaginemos que tenemos el problema resuelto y veamos qué sucede.

Para simplificar supongamos que n = 2.

Sea, entonces, B = {u,v} y supongamos que la matriz de f en base B es:

a D =  0

0 . b

26

 FUOC • P00/75004/00192

Aplicaciones lineales

Las columnas de D son las imágenes de los vectores de B expresados en componentes de la propia base B:

1 a f ( u ) = D ⋅   =  0 B 0

0  1 a ⋅   =   = a u ;  b 0 B 0 B

1 a f(v ) = D ⋅   =   0 B 0

0  1 0 ⋅ =   = b v.     b 0 B b B

De forma que tenemos que f(u) = au y f(v) = bv. Los vectores de la base en la que la matriz de f es diagonal quedan multiplicados por números al serles aplicado el endomorfismo f. Diremos que son vectores propios.

3.2. Valores propios y vectores propios

Se dice que un vector x ≠ 0 es un vector propio del endomorfismo f cuando existe un número real λ, que recibe el nombre de valor propio asociado al vector propio x, tal que f(x) = λx.

Podemos remarcar unos cuantos puntos de esta definición:



Hemos dado, de hecho, dos definiciones al mismo tiempo: veps y vaps. Están vinculados los unos a los otros.



Un vep, por definición, es diferente del vector 0. Un vap puede valer perfectamente 0.



Muchas veces se habla de veps y vaps de una matriz A en lugar de una aplicación lineal. Se entiende que se trata de los veps y los vaps de la aplicación lineal asociada.



Tradicionalmente se utiliza la letra griega λ para representar los vaps.

El problema de la diagonalización queda, de este modo, traducido a otro problema: encontrar una base B formada exclusivamente por veps.

Esta interpretación es la que nos permitirá establecer las definiciones siguientes:

1) Diremos que un endomorfismo f ∈ End(E n) es diagonalizable cuando haya una base B de E n en la que la matriz de f sea diagonal.

Vep y vap Abreviaremos vector propio por vep y valor propio por vap.

27

 FUOC • P00/75004/00192

Aplicaciones lineales

2) Diremos que una matriz cuadrada A es diagonalizable cuando el endomorfismo asociado a A sea diagonalizable. 3) Si f (o A) es diagonalizable y D es la matriz diagonal correspondiente, diremos que D es la forma diagonal de A. 4) La base B en la que A es diagonal recibe el nombre de base de diagonalización.

A la vista de las definiciones anteriores y el resultado (3) sobre el cambio de base en un espacio vectorial podemos definir directamente el concepto de matriz diagonalizable, sin tener que pasar por su endomorfismo asociado.

Una matriz cuadrada A es una matriz diagonalizable cuando existe una matriz inversible P tal que D = P − 1 · A · P es una matriz diagonal.

3.3. Cálculo de valores propios y vectores propios asociados a una matriz a Sea A =  c

b una matriz dada. d

Es bastante sencillo calcular sus veps y vaps; sólo tenemos que aplicar la definición. Si x = ( x 1,x 2) debe ser un vep de A, debe existir también un vap, λ, tal que A · x = λx.

Planteémoslo matricialmente:

a c

x1 b   x 1 ⋅   = λ   ;  d x2 x2

obtenemos el sistema de ecuaciones:

 a x 1 + bx 2 = λx 1   cx 1 + d x 2 = λ x 2 .

Escribiéndolo de la forma habitual, con las incógnitas colocadas en el primer miembro:

bx 2 = 0 ( a – λ )x 1 +  cx 1 + ( d – λ )x 2 = 0 , 

(10)

28

 FUOC • P00/75004/00192

Aplicaciones lineales

nos encontramos con un sistema homogéneo que depende de un parámetro λ. Si queremos encontrar una solución diferente de 0 = (0,0) (recordemos que, por definición, un vep es diferente de 0), el sistema debe ser compatible indeterminado. Esto sólo sucederá si el determinante del sistema es igual a 0: a–λ c

b = 0,

d–λ

(11)

que, desarrollado, nos lleva a la ecuación de segundo grado en λ: ( a – λ ) ( d – λ ) – bc = 0 .

(12)

Esta última ecuación recibe el nombre de ecuación característica de la matriz A. Su primer miembro, que es siempre un polinomio, recibe el nombre de polinomio característico de la matriz A. Las soluciones λ 1 y λ 2 de la ecuación característica (12) son los vaps que buscamos. En general, si A es una matriz de orden n, su polinomio característico tiene grado n, y podemos, de este modo, esperar tener hasta n vaps. La ecuación característica (11) se puede escribir matricialmente de una forma bastante compacta:

A – λI = 0,

donde I es la identidad de orden n.

Se demuestra fácilmente que se verifica el teorema siguiente:

Teorema 9 El polinomio característico de un endomorfismo no depende de la base en la que esté expresado el endomorfismo

Demostración Si B es la matriz de f en otra base, por el resultado (9) se cumple que A = P−1·B·P, donde P es una matriz de cambio de base. De este modo: A – λ I = P –1 ⋅ B ⋅ P – ( λI ) =

29

 FUOC • P00/75004/00192

= P

= P

–1

–1

–1

⋅ B ⋅ P – P ⋅ ( λ I) ⋅ P =

⋅ ( B – λI ) ⋅ P = P

–1

⋅ B – λI ⋅ P = B – λI .

Ejemplo 9 Encontremos los vaps de la matriz: –2 A =   3

0 . 3

La ecuación característica será: –2–λ 3

0 3 –λ

= 0,

es decir, (–2 –λ) (3– λ) = 0, que proporciona los valores propios –2 y 3. Si λ 1 y λ 2 son los vaps de una matriz 2 × 2, sustituidos en el sistema (10) hacen que el sistema sea indeterminado y tenga por soluciones los veps correspondientes.

Actividad Recomendamos hacer esta actividad antes de ver el ejemplo 10. 5. Si u es un vep de A asociado a un determinado vap, αu también lo es para cualquier α ∈ R, α ≠ 0 (y con el mismo vap). Ejemplo 10 Para encontrar los veps correspondientes a los vaps del ejemplo anterior haremos lo siguiente: a) Empecemos por el vap –2. Sustituyendo λ por –2 en el sistema (19), utilizando además la matriz A:  0 x1 + 0 x2 = 0   3 x 1 + 5 x 2 = 0. La primera ecuación es 0 = 0 y, por lo tanto, se puede suprimir del sistema. Nos quedamos con un sistema de una ecuación y dos incógnitas, compatible indeterminado con un grado de libertad: { 3x 1 + 5 x2 = 0. Si utilizamos x2 = t como incógnita secundaria, la solución puede escribirse así:  5  x 1 = – --- t 3  x = t 2 

t ∈ R,

o bien como el subespacio vectorial formado por los vectores solución:  5   5    – -3- t, t  t ∈ R } = 〈 – -3-- , 1 〉 .  De hecho, el 0 no es un vep, pero hacemos un abuso de lenguaje y hablamos de 5 〈  – --- , 1 〉 como “el espacio” de los veps. (Un subespacio vectorial contiene siempre el 0.) 3

Aplicaciones lineales

30

 FUOC • P00/75004/00192

Todas las soluciones no triviales del sistema son veps asociados a los vap –2. Así, de hecho, en lugar de elegir el vep (–5/3, 1) como generador del subespacio de soluciones, también podemos seleccionar la solución que proviene del valor t = 3, es decir, (–5,3), y tenemos otro vep que no utiliza fracciones en sus componentes. Esto podemos hacerlo gracias al resultado de la actividad 5. b) Vamos ahora por el vap 3. Sustituyendo λ por 3 en el sistema (10) obtenemos:  – 5 x 1 + 0x 2 = 0   3 x1 + 0 x2 = 0 . Las dos ecuaciones son la misma: x 1 = 0; el sistema queda reducido a esta única ecuación con dos incógnitas y, por lo tanto, es compatible indeterminado con un grado de libertad: { x1 = 0 . La solución se puede escribir:  x1 = 0   x2 = t

t∈ R

o bien como el subespacio vectorial formado por los vectores solución: { ( 0, t ) t ∈ R } = 〈 ( 0, 1 ) 〉 . Todas las soluciones no triviales del sistema serán veps asociados al vap 3. Antes teníamos el vep (–5,3) como vep asociado al vap –2, y ahora elegimos el vep (0,1) como vep asociado al vap 3. En definitiva, hemos encontrado un vep para cada uno de los vaps de nuestra matriz A. Como estos dos veps forman una base hemos conseguido nuestro propósito, que no era otro que el de encontrar una base formada por veps. En esta base, la aplicación lineal asociada a A tiene una matriz que es diagonal: –2 D =  0

0 . 3

Observemos que colocamos los vaps en la diagonal siguiendo el orden en el que están dispuestos sus veps en la base de diagonalización B. Si se hubiese llegado a la base B´={(0,1),(–5,3)}, se habría escrito así la matriz diagonal: 3 D′ =  0

0 – 2

Aplicando el resultado (9) que nos relacionaba las matrices de una aplicación lineal en bases diferentes, podemos escribir la relación existente entre A y D , relación que expresamos en el teorema general siguiente.

Teorema 10 Si A es una matriz n × n con vaps λ 1, ..., λ n y B es una base de En formada por veps de A, entonces A es diagonalizable. La forma diagonal correspondiente de A es:

Aplicaciones lineales

31

 FUOC • P00/75004/00192



λ2



0

0  0   λn

...

0 ...

...

 λ1  0 D =   0



y si P BC expresa la matriz de cambio de base, de la base B en la base canónica C, la relación existente entre A y D es: D = P –1 BC ⋅ A ⋅ P BC .

Actividades 6 . Encontrad PBC y comprobad la relación (13) con los datos del ejemplo anterior. 7 . Demostrad que si λ es un vap de A con vep x, entonces λn es vap de A n con igual vep x (n es cualquier entero positivo).

3.4. Algunos resultados generales En el ejemplo 10, los dos veps que hemos encontrado eran linealmente independientes y, por lo tanto, formaban una base de E 2. La proposición siguiente nos demuestra que esto no era casualidad.

Proposición 3 Si u es un vep asociado al vap λ 1 y v es un vep asociado al vap λ 2, los dos de la misma matriz A, y λ 1 ≠ λ 2, entonces u y v son linealmente independientes.

Dicho de otra forma más fácil de recordar: los veps asociados a vaps diferentes son linealmente independientes. Demostración Debemos ver que si α u + βv = 0, entonces forzosamente se cumple α = β = 0. Aplicamos la matriz A a la igualdad de partida:

A ⋅ ( αu + β v) = A ⋅ 0 = 0.

Como multiplicar por A es una aplicación lineal, tenemos que:

α ( A ⋅ u ) + β ( A ⋅ v) = 0 ,

Aplicaciones lineales

32

 FUOC • P00/75004/00192

Aplicaciones lineales

y utilizando que u y v son veps de A: α ( λ 1 u ) + β ( λ 2 v ) = 0.

(14)

Si ahora multiplicamos por λ 2 la igualdad de partida: λ 2α u + λ2β v = 0 ,

(15)

y restamos miembro a miembro (15) de (14), obtenemos: ( λ 1 – λ 2 ) αu = 0, y como u ≠ 0 porque es un vector propio y λ 1 ≠ λ 2 por hipótesis, por fuerza debe ser α = 0. Del mismo modo, si en lugar de multiplicar por λ 2 multiplicásemos por λ 1, llegaríamos a que β = 0. Esta proposición se generaliza a más de dos veps (con una demostración similar, utilizando inducción) y podemos utilizar este resultado para dar un primer teorema bastante general.

Teorema 11 Si una matriz n × n tiene vaps reales y diferentes, es diagonalizable.

Observemos que en el anterior teorema hemos especificado que los vaps, además de ser diferentes, fuesen reales. De hecho, tal y como han ido las cosas, el polinomio característico de nuestra matriz A habría podido perfectamente tener raíces no reales, es decir complejas . Veamos un ejemplo de ello. Ejemplo 11 Encontremos los vaps de la matriz: 0 M =  –1

1 . 0

La ecuación característica será: M – λI =

–λ

1

–1

–λ

= 0, es decir, λ 2 + 1 = 0 .

Esta última ecuación no tiene raíces reales. Debemos concluir que los vaps de la matriz M no son reales. Por lo tanto, el sistema: x2 = 0  – λx 1 +   – x 1 + ( – λ )x 2 = 0

33

 FUOC • P00/75004/00192

es siempre compatible determinado para todo valor real de λ y sólo admite la solución trivial. En consecuencia, no hay veps reales. La matriz M no puede ser diagonalizada en el campo real. Aquí vale la pena comentar que, si el cuerpo de escalares, en lugar de ser R es C –el cuerpo de los complejos–, entonces los conceptos y definiciones se alterarían un poco, ya que no habría ningún problema en que un vap fuese un número complejo. De momento, sin embargo, nos limitamos a trabajar dentro del campo real y dejamos de lado, de este modo, los vaps complejos.

Podemos enunciar, por lo tanto, otro teorema general.

Teorema 12 Si una matriz tiene algún vap complejo, no es diagonalizable dentro del campo real.

Todavía nos podemos encontrar con otro caso: algún vap puede estar repetido. Sólo debe pasar que el polinomio característico tenga raíces múltiples. Entonces las cosas son menos definitivas. Como veremos, habrá casos en los que la matriz será diagonalizable y otros en los que no. Veamos algunos ejemplos de ello. Ejemplo 12 Encontremos los valores propios y los vectores propios de la matriz: 1 M =  1

0 . 1

El polinomio característico es (1–λ) 2 , que tiene como única raíz real (doble) el 1; es decir, 1 es raíz dos veces. Estudiemos sus veps:  0 x1 + 0 x2 = 0   x1 + 0 x2 = 0 , queda reducido a una ecuación con un grado de libertad: x 1 = 0, con solución { ( 0, t ) t ∈ R } = 〈 ( 0, 1 )〉 . Sólo tenemos un vep independiente. Obviamente, no podemos formar una base de veps. La matriz M no será, por lo tanto, diagonalizable. Ejemplo 13 Encontremos los valores propios y los vectores propios de la matriz: 2 M = 1  1

1 2 1

1 1  . 2

El polinomio característico es –λ 3 + 6 λ 2 – 9λ + 4, que tiene como raíces 1 (doble) y 4. • Los veps correspondientes a 4 son las soluciones no triviales de este sistema (utilizando (10) aplicado al caso de orden 3):  – 2 x1 + x 2 + x 3 = 0   x1 – 2 x2 + x3 = 0   x1 + x2 – 2 x3 = 0 ,

Aplicaciones lineales

34

 FUOC • P00/75004/00192

que queda reducido a dos ecuaciones con tres incógnitas:  – 2 x1 + x2 + x3 = 0   x 1 – 2 x 2 + x3 = 0 . Haciendo x 3 = t, la solución del sistema es: { ( t, t , t ) t ∈ R } = 〈 ( 1, 1, 1 ) 〉 . • Los veps correspondientes a 1 son las soluciones no triviales del sistema. Volvemos a aplicar (10):  x1 + x 2 + x 3 = 0   x1 + x 2 + x 3 = 0   x1 + x2 + x3 = 0 , que queda reducido a una ecuación con tres incógnitas (dos grados de libertad): { x1 + x 2 + x 3 = 0 . Haciendo x 2 = t1 y x 3 = t 2, la solución es: { ( – t 1 – t 2 , t 1 , t 2 ) t 1 , t 2 ∈ R } = 〈 ( –1, 1, 0 ) , ( – 1, 0, 1 ) 〉 . En total tenemos, de este modo, tres veps linealmente independientes que son suficientes para formar la base de veps que necesitamos para diagonalizar. Ejemplo 14 Encontremos los vaps y veps del endomorfismo de E 2 definido como la simetría respecto del eje OY. Geométricamente, es fácil imaginar que un vector propio es aquel cuyo transformado tiene la misma dirección. En la simetría de la figura, los únicos vectores que se transforman en su propia dirección son los del eje OY, que quedan invariantes y, por lo tanto, serán veps de vap 1, y los del eje OX que quedan invertidos en la dirección de OX y, por lo tanto, son veps de vap –1.

Ahora podemos encontrar la expresión en componentes del endomorfismo y encontrar los vaps y los veps de forma analítica. La simetría respecto de OY quedará definida por la aplicación lineal f(x,y) = (– x,y ). En base canónica, la matriz será: –1  0

0 1

De este modo, de hecho, la matriz de la simetría respecto de OY ya es una matriz diagonal y, por lo tanto, los elementos de la diagonal (–1 y 1) son sus vaps y la base canónica {(1,0), (0,1)} los veps correspondientes. No es necesario, así pues, hacer ningún cálculo.

Aplicaciones lineales

35

 FUOC • P00/75004/00192

Aplicaciones lineales

Actividades 8 . Escribid la forma diagonal D de la matriz M del ejemplo anterior y calculad la matriz PBC . Comprobad que: D = P B C – 1 ⋅ M ⋅ PB C . 9 . Dada la matriz a M =  0

b , a

encontrad los valores de a y b que hacen que sea diagonalizable. 10. Encontrad los vaps y los veps del endomorfismo de E2 definido como la proyección ortogonal sobre OX. 11. Encontrad los vaps y los veps del endomorfismo G ω de E 2 definido como el giro del ángulo ω del ejemplo 4.

3.5. Potenciación de una matriz Como un ejemplo de aplicación de la diagonalización, veamos cómo puede usarse el hecho de que una matriz sea diagonalizable para calcular sus potencias de forma sencilla. Sea T una matriz cuadrada diagonalizable y D su forma diagonal. Queremos calcular Tn. Denominaremos P la matriz de cambio de base que permite pasar 1·T·P o, si queremos: de T a D, es decir: D = P–1

T = P ⋅ D ⋅ P –1 . Tenemos, de este modo, que: T

n

–1 n

= (P ⋅ D ⋅ P ) = –1

–1

veces = ( P ⋅ D ⋅ P ) ⋅n… ⋅ (P ⋅ D ⋅ P ) =

= ( P ⋅ D ⋅ P –1 ) ⋅ ( P ⋅ D ⋅ P –1 )… ( P ⋅ D ⋅ P –1 ) = = P ⋅ D ⋅ (P

–1

⋅ P) ⋅ D ⋅ ( P

–1

⋅ P )… D ⋅ P

veces = P ⋅ ( D ⋅n… ⋅ D) ⋅ P

n

–1

–1

=

=

–1

= P⋅ D ⋅P . En definitiva:

n

n

–1

T = P ⋅D ⋅P .

Actividad 12. Calculad, con el procedimiento que acabamos de ver, M10 , donde M es la matriz del ejemplo 13.

36

 FUOC • P00/75004/00192

Aplicaciones lineales

4. Las matrices simétricas

En el ejemplo 13 hemos visto cómo, a pesar de que un vap estaba repetido, hemos podido encontrar una base de diagonalización de veps. En general, si algún vap real está repetido, no sabremos si la matriz es diagonalizable hasta tener todos los veps y observar si hay los suficientes linealmente independientes para

Recordad que... ... una matriz simétrica es aquella que coincide con su transpuesta, es decir: A = A t .

formar la base de diagonalización. Cuando la matriz es simétrica, esta última circunstancia se da siempre, tal y como indica el teorema siguiente: Ejemplo

Teorema 13 Toda matriz simétrica es diagonalizable dentro del campo real

Demostración Demostraremos este teorema sólo para matrices 2 × 2 . La demostración general es bastante más complicada. Sea: a M =  b

b c

La ecuación característica de M es:

M – λI =

a–λ

b c–λ

b

= 0,

es decir:

2

2

λ – ( a + c ) λ – ( b – ac ) = 0 .

Aplicando la fórmula de resolución de la ecuación de segundo grado obtenemos:

2

2

a + c ) ± ( a + c ) + 4 ( b – a c) λ = (-------------------------------------------------------------------------------. 2

La matriz M del ejemplo 14 era simétrica y, por lo tanto, diagonalizable.

37

 FUOC • P00/75004/00192

Aplicaciones lineales

El discriminante, (a + c)2 + 4(b 2 – ac), se puede desarrollar, algo que nos lleva a: 2

2

2

2

2

2

a + c + 2a c + 4b – 4a c = a + c – 2a c + 4b =

2

2

= ( a – c ) + 4b ≥ 0 ∀ a, b , c ∈ R y, en consecuencia, las raíces son siempre reales. Veamos los casos que podemos encontrar según el valor del discriminante. •

Mientras el discriminante se mantenga estrictamente positivo las raíces, además de ser reales, serán diferentes y la matriz será diagonalizable sin ningún problema.



Sólo puede haber alguna dificultad cuando el discriminante valga exactamente 0, es decir, cuando: ( a – c) 2 + 4b 2 = 0 .

En este caso, la igualdad anterior implica que a – c = 0 y b = 0, de modo que la matriz original era de la forma: a M=  0

0 a

es decir, ya era una matriz diagonal al principio. A la vista del teorema que acabamos de exponer, podemos concluir que el polinomio característico de una matriz simétrica real no puede tener raíces complejas, y por lo tanto se debe cumplir el resultado siguiente, que damos sin hacer su demostración.

Proposición 4

El polinomio característico de una matriz simétrica tiene todas las raíces reales.

4.1. Espacios vectoriales euclidianos

Hasta ahora hemos trabajado con vectores desde el punto de vista puramente algebraico: los hemos sumado, multiplicado por escalares, los hemos transformado linealmente, etc. A continuación introduciremos, aunque sea brevemente, conceptos métricos dentro de los espacios vectoriales; es decir, los

38

 FUOC • P00/75004/00192

conceptos de longitud y de área. Lo haremos mediante el concepto de producto escalar. En E 2 y E3, donde podemos utilizar la intuición de la geometría euclidiana habitual, se define el producto escalar de dos vectores como el producto de los módulos por el coseno del ángulo que forman. Recordemos que el módulo de un vector, u, de E 2 o E 3 se define como su “longitud”. Se acostumbra a denotar como | u |.

Dados dos vectores de E2 o E 3, u y v, se define su producto escalar como el número real: u ⋅ v = u ⋅ v ⋅ cos ω, donde ω es el ángulo que forman los vectores entre sí.

Ésta es una definición “geométrica” del producto escalar. La definición anterior cumple una serie de propiedades que nos servirán después para generalizar el concepto de producto escalar.

Las propiedades del producto escalar son las siguientes: 1) u ⋅ v = v ⋅ u 2) ( α u ) ⋅ v = α ( u ⋅ v ) 3) ( u + v) ⋅ w = u ⋅ w +v ⋅ w 4) u · u ≥ 0 ∀ u, y si u · u = 0, entonces forzosamente se cumple u = 0.

Todas estas propiedades se demuestran de forma inmediata utilizando la definición anterior. Desgraciadamente, esta definición no puede utilizarse en el caso de espacios vectoriales abstractos donde no estén definidos los conceptos de longitud ni de ángulo. Lo que sí nos muestra es un camino para una definición de producto escalar más general, que presentamos a continuación.

Si V es un espacio vectorial, diremos que tenemos definido en V un producto escalar euclidiano cuando tengamos una forma de asignar a toda pareja de

Aplicaciones lineales

39

 FUOC • P00/75004/00192

Aplicaciones lineales

vectores de V, u y v, un número real, que designaremos < u, v>, de forma que se cumplan las propiedades siguientes: 1) 〈 u, v〉 = 〈 v, u 〉 . 2) ∀ α ∈ R 〈 ( α u ), v 〉 = α 〈 u, v〉 . 3) 〈 ( u + v ), w 〉 = 〈 u, w〉 + 〈 v, w〉 . 4) 〈 u, u〉 ≥ 0 ∀ u y si 〈 u, u 〉 = 0 ⇒ u=0 Un espacio vectorial donde tengamos definido un producto escalar euclidiano será un espacio vectorial euclidiano.

Dados dos vectores de En, u = (u1, u 2, ..., u n) y v = (v1, v 2, ..., vn) expresados en la base canónica, definimos su producto escalar como: 〈 u, v 〉 = u ⋅ v = u 1 v1 + u2 v 2 + … + u n v n o, lo que es equivalente, si damos los vectores de En como vectores columna: t

t

u ⋅ v = u v = v u.

Las cuatro propiedades del producto escalar siguen siendo ciertas si utilizamos esta última definición del producto.

La notación < , > puede confundirse con la de subespacio generado, de forma que utilizaremos el punto, ·, entre los dos vectores, para denotar el producto escalar.

4.2. Norma y ángulo Con la ayuda del concepto de producto escalar, podemos definir el concepto de norma de un vector.

En un espacio vectorial euclidiano, se define la norma de un vector como la raíz cuadrada del producto escalar del vector por sí mismo: u

=

t

u⋅u .

La norma cumple las propiedades siguientes: 1) u ≥ 0 ∀ u 2) u = 0 ⇔ u = 0 . 3) u + v ≤ u + v ∀u, v.

Aclaración

40

 FUOC • P00/75004/00192

Aplicaciones lineales

La primera y la segunda se comprueban de forma inmediata. La tercera recibe el nombre de desigualdad triangular y la demostraremos como consecuencia de una desigualdad más general denominada desigualdad de Cauchy-Buniakovski.

Teorema 14: Desigualdad de Cauchy - Buniakovski En un espacio vectorial euclidiano, para toda pareja de vectores del espacio, u y v, se cumple: 2

(u ⋅ v) ≤ u

2

2

v . A.L. Cauchy (1789-1857)

Demostración La demostración es un poco artificiosa. Para la cuarta propiedad del producto escalar, si α ∈ R, tenemos: (u – α v) ⋅ (u – α v) ≥ 0 . Desarrollando el primer miembro de esta desigualdad, utilizando además las tres primeras propiedades, obtenemos: 2

u ⋅ u – 2α u ⋅ v + α v ⋅ v ≥ 0 . El primer miembro es un polinomio de segundo grado en la variable α y la desigualdad nos dice que, para todo valor de α, el trinomio es positivo o cero. Esto implica que no pueda tener dos raíces reales diferentes, algo que quiere decir que su discriminante debe ser negativo o cero: 2

4(u ⋅ v) – 4(u ⋅ u )(v ⋅ v) ≤ 0 . Ahora, simplificando el 4 y recordando que u · u = || u|| 2, tenemos: 2

(u ⋅ v) – u

2

v

2

≤ 0,

que es lo que queríamos demostrar. Con la ayuda de esta desigualdad, podemos demostrar fácilmente que la norma cumple la desigualdad triangular. Es decir, demostraremos la tercera propiedad de las que hemos enunciado: u + v ≤ u + v ∀ u ,v Demostración de la desigualdad triangular u+v

2

= ( u + v ) ⋅ ( u + v ) = u ⋅ u + 2u ⋅ v + v ⋅ v =

Matemático francés. Fue uno de los más insignes matemáticos del siglo X IX y uno de los renovadores del análisis gracias a su introducción del concepto de convergencia.

41

 FUOC • P00/75004/00192

= u ≤ u

2

2

+ 2u ⋅ v + v

+2 u ⋅ v + v

2

2

Aplicaciones lineales



= ( u + v ) 2.

De esta serie de desigualdades deducimos lo que queríamos ver: u+v ≤ u + v . Diremos que un vector es unitario o que está normalizado cuando su norma sea 1. Actividad 13. a) Calculad la norma de u = (2,3). b) Comprobad que el vector u w = -------u tiene norma 1. (Diremos que w es el vector u normalizado.)

Después de definir el concepto de norma podemos introducir el concepto de ángulo entre dos vectores en un espacio vectorial euclidiano.

En un espacio vectorial euclidiano, definimos el ángulo ω entre dos vectores no nulos, u y v, así: u⋅v . cos ω = --------------------u ⋅ v

La definición que acabamos de ver es una buena definición en el sentido de que la fracción dada es un número comprendido entre –1 y 1, es decir:

u ⋅ v ≤ 1. – 1 ≤ ----------------u v

Este concepto de ángulo se corresponde exactamente con el concepto habitual de ángulo de la geometría euclidiana. Ahora, con el concepto de ángulo definido en un espacio vectorial euclidiano cualquiera, podemos extender la noción de perpendicularidad de dos vectores sin ningún problema: Para comprobarlo...

En un espacio vectorial euclidiano, diremos que dos vectores son ortogonales cuando el ángulo que formen sea de 90°; es decir, cuando su producto escalar sea 0: u y v son ortogonales ⇔ u · v = 0.

... sólo debemos aplicar la desigualdad de Cauchy-Buniakovski.

42

 FUOC • P00/75004/00192

Comprobar que dos vectores son ortogonales es, de este modo, muy sencillo, tal como nos muestra el ejemplo siguiente: Ejemplo 15 Comprobemos que los vectores siguientes son ortogonales: a) u = (1,2) y v = (2, –1): ( 1, 2) ⋅ ( 2, – 1 ) = 1 ⋅ 2 + 2 ⋅ ( – 1) = 0 . b) u = (–2, 3, 0) y v = (6, 4, 1): ( – 2, 3 , 0 ) ⋅ ( 6, 4, 1 ) = – 2 ⋅ 6 + 3 ⋅ 4 + 0 ⋅ 1 = 0.

4.3. Bases ortonormales Los vectores de las bases canónicas de E2 y E 3 son vectores unitarios y ortogonales dos a dos. Diremos que forman una base ortonormal.

Diremos que una base e1, ..., en de un espacio vectorial euclidiano es una base ortonormal si: 1) e i · ej = 0 para todo i ≠ j. 2) || ei || = 1 para todo i = 1, 2, ..., n.

Cuando una base está formada por vectores ortogonales dos a dos, pero que no son unitarios, se dice que es una base ortogonal. Sean ahora u = u1e 1 + ... + unen y v = v1e 1+ ... + vnen las expresiones de los vectores u y v en la base ortonormal {e 1, ..., e n}. Ponemos ute = (u1, ..., un) y análogamente, en columna, ve. Teniendo en cuenta la definición anterior, y la definición 11, es algo inmediato comprobar que la expresión del producto escalar en una base ortonormal cualquiera continúa siendo: t

t

u ⋅ v = ue v e = v e u e . El resultado que mostramos a continuación es muy intuitivo.

Proposición 5 Un conjunto de vectores no nulos, ortogonales dos a dos, es un conjunto de vectores linealmente independientes.

Aplicaciones lineales

43

 FUOC • P00/75004/00192

Demostración Si u1, ..., uk son vectores ortogonales dos a dos, consideremos: α 1 u 1 + α 2 u 2 + … + α k uk = 0. Queremos ver que α i = 0, i = 1, ..., n. Multiplicando la expresión anterior escalarmente por ui tenemos, haciendo uso de las propiedades del producto escalar: α 1 ( u 1 ⋅ u i ) + … + α i ( u i ⋅ u i ) + … + αk ( u k ⋅ u i ) = 0 . Como uj · ui = 0 si i ≠ j, tenemos que la ecuación anterior se convierte en: α i ( u i ⋅ ui ) = 0 , lo cual implica que α i = 0, ya que ui · ui > 0. Como esto lo podemos hacer para todo i, deducimos que, para todo i, α i = 0, que es lo que queríamos ver.

4.4. Proceso de ortogonalización de Gram-Schmidt En un espacio vectorial euclidiano de dimensión finita, siempre se pueden encontrar bases ortonormales. Partiendo de una base cualquiera, se llega a construir una base ortogonal (que después se hace ortonormal simplemente dividiendo cada vector por su norma) siguiendo un proceso muy sencillo que se conoce como proceso de ortogonalización de Gram-Schmidt. Sea u1, ..., un una base cualquiera del espacio. Seleccionamos un vector cualquiera de esta base, por ejemplo u11, y lo denominamos v11. Será el primer vector de la nueva base ortogonal que queremos construir. Ahora hacemos v2 = αv 1 + u2, eligiendo un valor de α de modo que v2 sea ortogonal a v1, es decir, que cumpla: ( α v 1 + u 2) ⋅ v 1 = 0 . Quitando paréntesis: α v1 ⋅ v1 + u 2 ⋅ v1 = 0 . Hay suficiente, por lo tanto, con elegir: u 2 ⋅ v1 α = – ---------------. v1 ⋅ v1 Evidentemente, v1·v2 = 0 .

Aplicaciones lineales

44

 FUOC • P00/75004/00192

Ahora elegimos α 1 y α 2 de forma que v 3 = α 1v1 + α 2v 2 + u3 sea ortogonal a v1 y a v 2: ( α 1 v 1 + α 2 v 2 + u3 ) ⋅ v 1 = 0 ( α 1 v 1 + α v 2 + u3 ) ⋅ v 2 = 0 . De forma análoga a como hemos procedido antes, de cada ecuación deducimos: u 3 ⋅ v1 α 1 = – ---------------v1 ⋅ v1 u3 ⋅ v 2 α 2 = – ----------------. v2 ⋅ v2 Y así procederíamos hasta definir v n. Los n vectores definidos serán ortogonales dos a dos y, por lo tanto, según la proposición 5, linealmente independientes. Formarán una base del espacio. Según hemos visto en la actividad 13, dividiendo cada vector por su norma, los hace todos unitarios. Ejemplo 16 Aplicamos el proceso de ortogonalización de Gram-Schmidt para encontrar una base ortonormal del subespacio vectorial de E5 siguiente: H = 〈 ( 1, 2 , 3 , 0 , 0 ), ( 1, –1, 2, 1, 1 ), ( 0, 0, 2, 1, 1) 〉 . Elegimos (1,2,3,0,0) como el primer vector del proceso de ortogonalización: v 1 = (1 , 2 , 3 , 0 , 0 ) . Ahora, v2 = αv1 + u2 , donde α es: u 2 ⋅ v1 ( 1, – 1, 2, 1, 1 ) ⋅ ( 1 , 2 , 3 , 0, 0 ) 5 α = – ---------------= – --------------------------------------------------------------------------- = –------ . v 1 ⋅ v1 ( 1, 2 , 3 , 0 , 0 ) ⋅ ( 1, 2, 3, 0, 0) 14 Así: 5 ( 1, 2 , 3 , 0 , 0 ) + ( 1, – 1, 2, 1, 1) =  -----9 , –1 2, 1 3, 1, 1 . v 2 = – --------------- 14 7 1 4  14 Ahora: v 3 = α 1 v 1 + α 2 v 2 + u 3 , donde: ( 0, 0, 2, 1, 1 ) ⋅ ( 1, 2 , 3 , 0 , 0 ) 3 α 1 = – ------------------------------------------------------------------------ = – --- . ( 1, 2, 3, 0, 0 ) ⋅ ( 1, 2 , 3 , 0 , 0 ) 7 9 12 13 ( 0, 0 , 2 , 1 , 1 ) ⋅  ------ , – ------ , ------ , 1, 1 14 7 14 α 2 = – ---------------------------------------------------------------------------------------------------- = –18 ------ . 29 9 1 2 1 3 9  -----  ------ , ------ , 1, 1 ⋅ ------ , – 1 ------2, 1 ------3,1,1 , –  14   14  7 14 7 14

Aplicaciones lineales

45

 FUOC • P00/75004/00192

Aplicaciones lineales

Así pues: 3 18 9 12 13 v 3 = – --- ( 1, 2, 3, 0, 0 ) – ------  ------ , – ------ , ------ , 1, 1 + ( 0, 0, 2, 1, 1 ) = 7 29 1 4 7 14 24 6 4 11 11 =  – ------ , ------ , ------ , ------ , ------ . 29 29 29 29 29 Finalmente, sólo es necesario normalizar cada vector dividiéndolo por su norma: 1 ----------( 1, 2 , 3 , 0 , 0 ), 14 14  -----9 , – 12 ---------------------- , 13 ------ , 1, 1 ,  1218  14 7 14 29  – 24 6 , -----4 , 11 -------------------, -----------, 11 ------ . 870  29 29 29 29 29 Hemos obtenido, de este modo, una base ortonormal a partir de una base cualquiera.

Actividad 14. Encontrad una base ortonormal de E 3 a partir de la base siguiente: { u 1 = ( 1, 1, 1 ), u 2 = ( 1, 1, 0 ) , u 3 = ( 1 , 0 , 0 ) } .

4.5. Diagonalización ortogonal En el caso de matrices simétricas se puede demostrar que siempre hay una base de diagonalización ortonormal. Cuando esto es así, se dice que la diagonalización ha sido ortogonal. En la práctica, obtener esta base ortonormal es bastante sencillo. Lo veremos con un par de ejemplos que cubren los casos más habituales: Ejemplo 17 Diagonalicemos ortogonalmente la matriz: 1 A =  2

2 1

Se encuentra inmediatamente que los vaps y los veps son: λ 1 = 3 con vep λ 2 = –1 con vep . La base de vectores propios es, de este modo: B = {( 1, 1) , ( – 1, 1 ) } . Ahora, (1,1) y (–1,1) ya son ortogonales. Sólo los debemos normalizar: ( 1, 1 ) =

2

2

1 +1 =

2 y ( – 1, 1) =

La base ortonormal correspondiente será, de este modo:  1 1   1 1     ------- , -------  , – ------- , -------   . 2 2   2 2

2

2

(– 1 ) + 1 =

2.

46

 FUOC • P00/75004/00192

Aplicaciones lineales

Lo que ha sucedido –que los veps ya sean ortogonales– no es casualidad.

Proposición 6 Si A es una matriz simétrica, los vectores propios correspondientes a valores propios diferentes son siempre ortogonales.

Demostración Sean u y v veps de A de vaps λ1 y λ 2, respectivamente, con λ 1≠λ 2. Tenemos que: A ⋅ u = λ 1 u y A ⋅ v = λ 2 v. Empleando componentes en la base canónica, multiplicamos la primera de estas igualdades escalarmente por vt y la segunda parte por u t y restamos miembro a miembro: t

t

t

v ⋅ ( A ⋅ u ) – u ⋅ ( A ⋅ v ) = ( λ1 – λ 2 )u ⋅ v. Pero teniendo en cuenta que A es simétrica, resulta: u t ( A ⋅ v ) = ( A ⋅ v ) t ⋅ u = ( v t ⋅ A t ) ⋅ u = ( vt ⋅ A ) ⋅ u = v t ⋅ ( A ⋅ u ) y el primer miembro de la ecuación anterior vale 0. Al ser λ ≠ λ2, forzosamente se cumple u · v = 0 y por lo tanto u y v son ortogonales. En el ejemplo 17, la matriz de cambio de base correspondiente es: 1 1 P = -------  2 1

– 1 1

Se puede comprobar que esta matriz de cambio de base es muy especial; cumple la condición de que su inversa coincide con su transpuesta, es decir:

P

–1

BC

= P

t

BC .

Esto no es ninguna coincidencia, ya que tenemos la proposición siguiente:

Proposición 7 Dadas dos bases ortonormales de En, {u 1, ..., u n} y {e1, ..., e n}, la matriz del cambio de base P verifica: P –1 = P t .

Recordad x · y = x t y = xyt

47

 FUOC • P00/75004/00192

Demostración

Por definición de matriz de cambio de base tendremos:

u i = P ⋅ e i. Multipliquemos escalarmente los dos miembros por u j, expresando el resultado en componentes de la base de los u’s: utj ui = ( Pe j) t ( Pe i ) = ( e tj P t) ( Pe i ) = e tj ( P tP )e i . El resultado debe ser 0 si i ≠ j y 1 su i = j. Pero la última expresión nos muestra que este valor es el elemento ij del producto P t · P. Por lo tanto, la matriz pro1. ducto es la identidad, es decir, P t · P = I y, de aquí: P t = P –1

Se dice que una matriz cuya inversa coincide con su transposición es una matriz ortogonal.

Si los vaps están repetidos, el asunto se complica un poco. En este caso, dentro del subespacio vectorial solución del sistema que nos proporciona los veps, se debe encontrar una base que sea ortogonal. Esto siempre puede conseguirse mediante el proceso de ortogonalización de Gram-Schmidt que hemos visto antes. Ejemplo 18 Diagonalicemos ortogonalmente la matriz del ejemplo 13 2 M =  1 1

1 2 1

1 1  . 2

Habíamos visto que los vaps y los veps de esta matriz eran: λ1 = 1 (doble), con veps {(– t 1 –t 2 , t1 , t2 ) | t 1, t 2 ∈ R} = , λ 2 = 4, con vep . La base de vectores propios es, de este modo, B = {(–1, 1, 0), (–1, 0, 1), (1, 1, 1)}. Sin embargo, (1, 1, 1) es ortogonal con (–1, 1, 0) y también con (–1, 0, 1), pero desgraciadamente estos dos últimos vectores no son ortogonales entre ellos. Lo que haremos es, a partir de esta base, aplicar el proceso de Gram-Schmidt y encontrar una base del subespacio formada por dos vectores ortogonales. Recordemos cómo se hacía: nos quedamos con uno de los dos vectores, por ejemplo con (–1, 1, 0). Ahora el segundo vector que buscamos es α (–1, 1, 0) + (–1, 0, 1), donde: – 1, 0, 1 ) ⋅ ( –1 , 1 , 0 ) = – 1 α = – (------------------------------------------------------- . ( – 1, 1, 0 ) ⋅ ( –1 , 1 , 0 ) 2 La base ortogonal buscada es, de este modo: {( – 1, 1 , 0) , ( – 1 ⁄ 2 , –1 ⁄2 , 1 ) } . o, si lo preferimos: { ( – 1, 1 , 0 ), ( 1, 1 , – 2) } .

Aplicaciones lineales

48

 FUOC • P00/75004/00192

En definitiva, la nueva base de vectores propios es: { ( – 1, 1 , 0 ), ( 1, 1 , – 2) , ( 1, 1, 1) } . Finalmente, para obtener la base ortonormal deseada sólo es necesario normalizarlos:  1 1 1 1 –2 1 1 1  B =   –------- , -------, 0 ,  -------, -------, -------  ,  ------- , -------, ------- . 2 2 6 6 6 3 3 3   La matriz P BC de cambio de base correspondiente es: –1 ⁄ 2  P BC =  1 ⁄ 2   0

1⁄ 6 1⁄

6

–2 ⁄

6

3  1 ⁄ 3  1 ⁄ 3 1⁄

Actividades 15. Comprobad que esta última matriz también es una matriz ortogonal, es decir, que cumple: P– 11BC = P tBC .. 16. Diagonalizad ortogonalmente las matrices: a) 3 1

1 3

b) 1 1  0

1 1 0

0 0  . 0

Aplicaciones lineales

 FUOC • P00/75004/00192

49

Resumen

En este módulo didáctico hemos introducido las aplicaciones lineales entre espacios vectoriales y hemos estudiado sus propiedades básicas. Los espacios vectoriales son una herramienta fundamental en muchos aspectos de la matemática aplicada, ya que permiten estructurar muchas ideas que se pueden interpretar o modelizar mediante el concepto de linealidad. Uno de los aspectos que se tratan en el módulo es la diagonalización de un endomorfismo (o de una matriz cuadrada, según se quiera ver). Sin profundizar excesivamente en el tema, algo que requeriría entrar en el campo de los números complejos, procuramos dar una introducción al problema de la diagonalización que permite resolver la mayor parte de los casos sencillos con los que se enfrentará el estudiante en el futuro. El tema se complementa con actividades resueltas en el solucionario y ejercicios de autoevaluación.

Aplicaciones lineales

51

 FUOC • P00/75004/00192

Ejercicios de autoevaluación 1 . Considerad este conjunto: H = { ( t, t ) t ∈ R } ⊂ E 2 . a) Demostrad que H es un subespacio vectorial. b) Interpretad H geométricamente c ) Encontrad una base de H. d) Encontrad un vector u = (a, b) que sea ortogonal a todos los vectores de H. e ) Considerad el espacio generado por el vector u del apartado anterior, G = . Interpretadlo geométricamente y encontrad H ∩ G. f) Encontrad una base ortonormal de E 2 formada por un vector de H y un vector de G. 2 . Dada la aplicación siguiente de E 2 en E 2 : f ( x, y ) = ( 2 x + 4 y , x + 5 y ). a) ¿Es una aplicación lineal? b) ¿Hay algún vector u tal que f (u) = (22, 26)? c ) ¿Hay algún vector u tal que f (u) = (0,0)? d) Calculad la matriz de f en la base canónica. e) Dada la base B = {(1, 1), (3, 4)}, calculad la matriz de f en la base B. f) Encontrad una base en la que la matriz de f tome forma diagonal. ¿Cómo es esta matriz diagonal? 3 . Un estudio (ficticio) sobre los movimientos de la población entre Cataluña, las Islas Baleares y el resto del Estado muestra los resultados siguientes: todos los años, el 70 % de la población que vive en Cataluña continúa viviendo allí al año siguiente, mientras que el 20 % fija su residencia en las Islas Baleares y el 10 % restante lo hace en el resto del Estado. En las Islas Baleares la situación es la siguiente: el 60 % se queda en las Islas, el 30 % va a Cataluña y el 10 % al resto del Estado. Finalmente, el 60 % de las personas que viven en el resto del Estado continúan allí, el 30% va a Cataluña y el 10% a las Islas. Suponiendo que esta redistribución de la población se efectúa año tras año, y si en 1997 el 15 % de la población vive en Cataluña, el 5% en las Islas y el otro 80% en el resto del Estado: a) ¿Cómo estará distribuida la población en el año siguiente? b) ¿Cómo estará distribuida de aquí a 20 años? c ) ¿Se llegará a una distribución estable (la misma distribución un año y el siguiente)? 4 . Sea P 2 el espacio vectorial de los polinomios de grado menor o igual que 2. Consideremos la aplicación: P2 → P2

f:

2

2

a + b x + cx → a + cx . Se pide: a) Demostrad que f es una aplicación lineal. b) Encontrad la matriz A de f en la base canónica, {1, x, x 2 } de P 2 . c ) Encontrad una base de Ker f. d) Encontrad los valores propios y los vectores propios de f. ¿Es f diagonalizable? 5 . Dada la matriz: 3 A =  1

3 1

a) Encontrad el endomorfismo f de E 2 asociado a la matriz A. b) Encontrad bases para Ker f y para Im f. c ) Encontrad el polinomio característico, los valores propios y los vectores propios de A. d) En caso de que A sea diagonalizable, encontrad su forma diagonal, D, y la matriz P de cambio de base que hace que D = P –1 · A · P . e ) Decid si es o no simétrica. ¿Es esto una contradicción? 6 . Se puede demostrar que una matriz cuadrada satisface siempre su ecuación característica en el sentido siguiente: si la ecuación característica de la matriz M es: n

λ + cn – 1 λ

n–1

+ c n – 2λ

n–2

+ … +c 1 λ + c 0 = 0 ,

Aplicaciones lineales

52

 FUOC • P00/75004/00192

Aplicaciones lineales

entonces se cumple (Teorema de Cayley-Hamilton): M n + c n – 1M n – 1 + c n – 2 M n – 2 + … + c 1 M + c 0I = 0 ,

(16)

donde I indica la matriz identidad. Se pide que: a) Comprobéis el Teorema de Cayley-Hamilton con la matriz 1 M =  2

2 3

b) El teorema de Cayley-Hamilton se puede utilizar para calcular la inversa de una matriz, en el caso de que tenga. En efecto, de la ecuación matricial (16) se deduce que si c0 ≠ 0: 1 n–1 n –2 n–3 I = – ---- ( M + c n – 1M + cn – 2 M + … + c 1) M . . c0 Utilizad este procedimiento para encontrar la inversa de la matriz M del apartado anterior. 7 . Es muy sencillo ver que si D es una matriz diagonal con los elementos de la diagonal principal no negativos, entonces existe la matriz D , es decir, una matriz tal que elevada al cuadrado es D. a) Demostrad que si M es una matriz diagonalizable, con valores propios no negativos, entonces existe una matriz S = M b) Aplicad el apartado anterior para encontrar la raíz cuadrada de la matriz siguiente: 2 0  0

1 9 0

1 1  . 4

53

 FUOC • P00/75004/00192

Aplicaciones lineales

Solucionario Actividades 1. a) Es necesario comprobar que D(p(x) + q(x)) = D(p(x)) + D(q(x)) y que D(αp(x)) = αD(p(x)). Estas propiedades son ciertas, ya que D es la derivada de los polinomios considerados. Si lo preferimos, podemos mirar las cosas por componentes, y tendremos que si p(x) = (a, b, c), entonces D(p(x)) = (b, 2 c, 0); por lo tanto los componentes de la imagen por D del polinomio p(x) son combinación lineal de los componentes del propio vector p(x ) y esto hace que la aplicación sea lineal según el teorema 2. b) Busquemos ahora la matriz que nos piden, que denominaremos M . Debemos calcular las imágenes de los vectores de la base C = {1, x, x 2 }.  0  1  0 2 D ( 1 ) = 0 =  0 ; D ( x ) = 1 =  0 ; D ( x ) = 2 x =  2 .  0 c  0 c  0 c Poniendo estas tres imágenes en columna (ya están expresadas en componentes de la base C): 0 M =  0 0

1

0 2  . 0

0 0

2. Tenemos la matriz M de la actividad anterior. Apliquemos el resultado (9): N = P CB ⋅ M ⋅ P BC . La matriz del cambio de base es: 2 P BC = 0 0

–1

9 – 6 ; 1

1 0

y la matriz del cambio inverso es:

P CB

2 =  0 0

–1 1 0

9 – 6 1

–1

 1-- 2 = 0  0

1 -2

1 0

–3 ---  2

– 6  1

Por lo tanto es:  1-2 N = 0  0

1 --2

1 0

–3 --- 2

0  6 ⋅  0  1 0

1

0  N = 0  0

1 --2

0 0

0 2 2 ⋅ 0 0  0

–1 1 0

9 – 6 . 1

En definitiva:

0 0

–2   2 .  0

3. a) Como f(1,0) = (1,1) y f(0,1) = (1,–1), la matriz de f en la base canónica es: 1  1

1 –1 

54

 FUOC • P00/75004/00192

Aplicaciones lineales

b) La matriz en la base canónica es: 2 M =  1

0 . 0

1 PBC =  1

3 , 2

La matriz de cambio de base es:

y la del cambio inverso: 1 PC B =  1

3 – 1 –2 =  1 2

3 , –1

por lo tanto, la matriz en la base B buscada es:  –2 1

3  2 ⋅ – 1  1

0  1 ⋅ 0  1

3 –1 =  2 1

– 3 . 3

c)

P

–1 BC

1 =  1  2

3

– 1 1  0

2 1

–1

 –1 ⁄ 8 =  1 ⁄ 4  –3 ⁄ 8

–1 ⁄ 8

5 ⁄ 8 – 1 ⁄ 4  , – 1 ⁄ 8

1 ⁄4 5 ⁄8

y la matriz de la aplicación f en la base B es:  –9 ⁄ 8  5 ⁄4  – 11 ⁄ 8

3 ⁄8 5 ⁄4 – 15 ⁄ 8

–3 ⁄ 8  –1 ⁄ 4  –9 ⁄ 8 

d) 1 1  1

1 –1 0

1  0  . –1 

4. Si M y N son matrices de un mismo endomorfismo, hay una matriz de cambio de base P tal que N = P– 1 · M · P. De este modo, recordando una propiedad de los determinantes que decía que el determinante de un producto de matrices es igual al producto de los determinantes de las respectivas matrices, tenemos: det(N) = det(P –1 ⋅ M ⋅ P) = det(P –1 ) ⋅ det(M) ⋅ det(P) = = [ det(P) ]

–1

⋅ det(M) ⋅ det(P) = det(M).

5. Si u es vector propio de A, entonces A · u = λ u. Consideremos ahora el vector αu y calculemos A · (αu): A · (α·u) = α (A·u ) = α (λu) = λ(αu); por lo tanto αu es también un vector propio de valor propio λ. 6. Recordemos que det(A–λI) = (–2 – λ) · (3 – λ) y que los vectores propios son: • de valor propio –2: el subespacio ; • de valor propio 3: el subespacio . De este modo, si B = {(–5, 3), (0, 1)}, tenemos: –5 P B C =  3

0 –1 ⁄ 5 –1 y P B C =  1 3 ⁄5

0 ; 1

y finalmente: –1 ⁄ 5 –1 D = P BC ⋅ A ⋅ P BC =  3 ⁄5

0  – 2 ⋅ 1  3

0  – 5 ⋅ 3  3

0 –2 =  1 0

0 . 3

55

 FUOC • P00/75004/00192

Aplicaciones lineales

7. Si x es el vep correspondiente, tenemos que A x = λ x. Apliquemos A n al vector x: A n x = An – 1 A x = An – 1 λx = λ A n – 1 x = λ A n – 2 Ax = λ A n – 2 λx = λ 2 A n – 2 x = … = λ n x. 8. Recordemos que los vectores propios de valor propio 4 son y los de valor propio 1 son 〈 ( –1, 1, 0 ), ( – 1, 0, 1 ) 〉 . 1 Si B = {(1, 1, 1), (–1, 1, 0), (–1, 0, 1)}, entonces se cumple PBC =  1  1

–1 1 0

 1 ⁄3 –1 P BC = – 1 ⁄ 3 – 1 ⁄ 3

0

1 ⁄3 2 ⁄3 –1 ⁄ 3

1 ⁄ 3 4 – 1 ⁄ 3 y la matriz diagonal es D =  0 0 2 ⁄ 3

– 1 0 1 0 0  . 1

1 0

9. • Si b = 0 la matriz es evidentemente diagonalizable para todo valor de a. • Si b ≠ 0, a es un vap doble, y sólo tenemos un vep: (1,0). 10. Geométricamente es evidente que los veps serán los vectores del eje OX, que quedan invariantes al ser proyectados, y los vectores del eje OY que van a parar a 0. En el primer caso los veps serán de vap 1, y en el segundo caso serán de vap 0. Analíticamente, es fácil comprobar todo esto, ya que la proyección ortogonal sobre el eje OX se define como f(x,y) = (x,0). 11. • Si ω ≠ k π, k ∈ Z, no hay ningún vector que se transforme en su propia direcci ón. Es decir, no hay vectores propios.. • El caso ω = 2k π, k ∈ Z, comporta que G ω = Id y, por lo tanto, los vectores no nulos son veps de vap 1. • El caso ω = (2k + 1) π, k ∈ Z, comporta que Gω = – Id y, por lo tanto, todos los vectores no nulos son veps de vap –1. 12. Ya hemos visto que la matriz era diagonalizable y que su forma diagonal era: 4 D =  0 0

0 1 0

0  1 ⁄3 0 =  – 1 ⁄ 3 –1 ⁄ 3 1

1 ⁄3

1 ⁄ 3 1 –1 ⁄ 3 ⋅ M ⋅  1 1 2 ⁄ 3

2 ⁄3 –1 ⁄ 3

–1 1 0

– 1 0  . 1

De este modo: 1 M 10 =  1  1

–1 1 0

– 1 0 1

10

 4 ⋅ 0   0

0   1 ⁄3   0  ⋅ –1 ⁄ 3 1  –1 ⁄ 3

0 1 0

 349526 =  349525   349525

349525 349526 349525

a) =

2

2 +3

2

=

2 ⁄3 –1 ⁄ 3

349525 349525 . 349526

13.

u

1 ⁄3

13.

b) 1 ( 2, 3 ) =  ----------2 , ----------3 ; w = ---------- 13 13 13 

1 ⁄ 3 – 1 ⁄ 3 = 2 ⁄ 3

56

 FUOC • P00/75004/00192

w

2 2  3 2  ----------= 1.  13 +  ----------13 

=

14. La base ortonormal es: 1 ------1 ------1   ------1 ------1 2   ------1 1  ------, , – ------- , 0 .  3 , 3 , 3 ,  6 , 6 , – ------6  2 2 tt 15. No calculéis la base inversa: es más sencillo comprobar directamente que PBC BC · P BC BC = I.

16. a) D =  2 0

1  –1 0 ; P = ------4 2 1

1 . 1

b) 2 D =  0 0

0 0 0

0 1 1 0 ; P = -------  1 2 0 0

–1 1 0

0 0 2

 .  

Ejercicios de autoevaluación 1. a) ( t , t ) + ( s, s ) = ( t + s, t + s ) ∈ H . λ ( t , t ) = ( λ ⋅ t, λ ⋅ t ) ∈ H . b) Es una recta del plano que contiene el origen. c ) H = . d) Si (a,b) es ortogonal a todos los vectores de H, se debe cumplir: (a,b)·(t,t) = at + bt = 0 para todo t y, por lo tanto, a = –b. Podemos tomar, por ejemplo, (a, b) = (1, –1). e ) G = es una recta del plano que pasa por el origen. G ∩ H = {(0,0)}.  1  1 f)  ------- ( 1 , 1 ), ------- ( 1, – 1 )  2  2  2. a) Sí, es lineal. b) (1, 5) es el único vector tal que f(1, 5) = (22, 26). c ) (0,0) es el único vector tal que f(0,0) = (0,0). 2 d)  1

4 . 5

4 e)  –1 

–3   2 1 ⋅  1

4  1 ⋅ 5  1

3 6 =  4  0

19 . 1

f) • Vectores propios de vap 1: . • Vectores propios de vap 6: . La matriz diagonal tiene los valores propios en la diagonal. 3. Si denominamos d C ,n , d B, n y d R ,n al porcentaje de población que vive al año en Cataluña, las Islas Baleares y el resto del Estado respectivamente, podemos establecer la igualdad siguiente:  70%  20%   10%

30% 60% 10%

30% 10% 60%

 dC, n  d C , n + 1 ⋅  d B , n  =  d B , n + 1 .      d R, n   d R , n + 1

Aplicaciones lineales

57

 FUOC • P00/75004/00192

Aplicaciones lineales

De este modo, hemos encontrado una matriz A tal que A · d n = d n+1, si d n es el vector que contiene la distribución de la población según la residencia en el año n . a) Si, como nos dice el enunciado, d 1997 1997 = (15%, 5%, 80%), entonces será: d 1998 1998 = A·d 1997 1997 = = (0,36; 0,14; 0,5). b) Es fácil ver que A 20 · d n = d n+20. Para calcular A 20 · (15%, 5%, 80%) diagonalizamos la matriz A, con lo que obtenemos:

A

20

–1 =  1  0

0 –1 1

5 3 2

 2--5 ⋅0  0

0  0  1

0 -1-2

0

20

 –1 ⁄ 2 ⋅  – 1 ⁄ 5  1 ⁄ 10

1 ⁄2 –1 ⁄ 5 1 ⁄ 10

1⁄ 2 4 ⁄ 5  , 1 ⁄ 10

y por lo tanto A 20 · d 1997 = d 2017 ≈ (0,5; 0,2999...;0,200001) ≈ (0,5; 0,3; 0,2). c) El resultado del apartado anterior, por ser vector propio de valor propio 1, nos dice que, si sigue la tónica actual, siempre se mantendrá, aproximadamente, esta distribución de la población. 4. a) Si p 1 = a 1 + b 1 x + c 1 x 2 y p 2 = a 2 + b 2 x + c 2 x 2 es inmediato comprobar que f(p 1 + p 2 ) = = f(p 1 )+ f(p 2 ) y que f(αp 1 ) = αf( p1 ). b) f(1) = 1; f(x) = 0; f(x 2 ) = x2 . De este modo, 1 A =  0 0

0 0 0

0 0  . 1

c) 1 0  0

0 0 0

0  x  0  0  ⋅  y  = 0  ; 0  1  z  x = 0   z = 0;

que tiene por solución el subespacio Ker f = . d) Polinomio característico: –λ · (1 –λ) 2 . Sus raíces, que son los vaps de la matriz, son el 0 y el 1 (doble). • Los veps de 0 son . • Los veps de 1 son • f es diagonalizable, ya que hemos encontrado una base de veps: {(1,0,0), (0,0,1),(0,1,0)}. 5. a) f ( x, y ) = ( 3 x + 3 y, x + y ). b) • Ker f: 3x + 3y = 0   x + y = 0; que tiene por solución Ker f = . • lm f = { ( 3 x + 3 y, x + y ) } = { x ( 3, 1 ) + y ( 3, 1) } ⇒ lm f = 〈 ( 3, 1 )〉 . c) Polinomio característico: λ · (λ – 4). Sus raíces, es decir, los vaps, son: 0 y 4. • Los veps de 0 son • Los veps de 4 son 0 d) D =  0

0 –1 ; P =  4 1

3 . 1

58

 FUOC • P00/75004/00192

Aplicaciones lineales

e ) No. A no es simétrica, a pesar de que diagonaliza. Sin embargo, no se trata de una contradicción porque la teoría nos dice que toda matriz simétrica diagonaliza, pero no nos afirma su recíproco. 6. a) La ecuación característica es λ 2 – 4 λ –1 = 0. Entonces: 1 2

22 1 – 4 2 3

2  1 – 3  0

0 5 =  8 1

8  4 – 13  8

8  1 – 12  0

0 0 =  0 1

0 . 0

b) de M 22 – 4M – I = 0 deducimos que: I = M ⋅ (M – 4 I) . Y sustituyendo cada matriz por su valor: M

–1

1 = M – 4 I =  2

2 4 – 3 0

0 –3 =  4 2

2 . – 1

7. a) Si M es una matriz diagonalizable con vaps no negativos, pongamos que su forma diagonal sea (todo número no negativo se puede escribir como el cuadrado de otro número): … …

0  0 .   a 2n 

...

0 a 22 ...

...

 a 21  0 D =    0



0

Y supongamos que la matriz de paso de M a D sea P, es decir: M = P · D · P – 11. La matriz S buscada es P · T · P –1 , donde T es:

es decir, T es la matriz

… …

0  0  ,  an 

...

0 a2 ...

...

 a1 0 T =   0



0

D.

b) Si: 2 M =  0 0

1

2 D =  0 0

0

1 1  , 4

9 0

tenemos que: 0 0 , 4

9 0

1 P = 0  0

1 7 0

– 2 1 . – 5

De este modo, 1 S = 0  0

1 7 0

–2  2 1 ⋅  0 –5  0

0 3 0

0  0 2

1 ⋅0  0

1 7 0

–2 –1 1  = –5

59

 FUOC • P00/75004/00192

 2   =   0   0

3 1 --- – --- 2 7 7 3 0

31 3 ------ – --- 2 35 7  1 . -- 5   2

Se comprueba inmediatamente que S 2 = M .

Glosario aplicación lineal Aplicación f de un espacio vectorial V 1 en otro V 2 en la que para cualesquiera x, y ∈ V1 y para todo α ∈ R se cumple: 1 ) f ( x + y ) = f ( x ) + f ( y) . 2 ) f ( α x ) = αf ( x ). base ortonormal Base formada por vectores unitarios y ortogonales dos a dos. endomorfismo Aplicación lineal de un espacio vectorial en sí mismo. espacio vectorial euclidiano Espacio vectorial donde hay definido un producto escalar euclidiano. homomorfismo Forma de nombrar una aplicación lineal. valor propio de un endomorfismo f o de una matriz A Escalar λ tal que existe algún vector x ≠ 0 según el cual f(x) = λx o bien A · x = λ x. vector propio de un endomorfismo f o de una matriz A Vector x ≠ 0 según el cual existe algún escalar λ tal que f(x) = λx o bien A · x = λ x. vectores ortogonales Vectores que forman un ángulo de 90° entre ellos.

Bibliografía Birkhoff, G.; McLane, S. (1980). Álgebra moderna. Barcelona: Vicens Vives. Anton, H. (1991). Introducción al álgebra lineal (3.a edición). México: Limusa. Goloviná, L. (1974). Álgebra lineal y alguna de sus aplicaciones . Moscú: Mir.

Aplicaciones lineales