130 101 2MB
Italian Pages [342] Year 2015
STEFANO CAPPARELLI ALBERTO DEL FRA
GEOMETRIA
STEFANO CAPPARELLI ALBERTO DEL FRA
GEOMETRIA
ISBN 978-88-7488-885-6 Prima edizione:Agosto 2010 Ristampe: 2011-2012-2013 Seconda edizione: Settembre 2015 Responsabile produzione: Alessandro Parenti Redazione: Giancarla Panigali e Carlotta Lenzi
Le fotocopie per uso personale (cioè privato e individuale, con esclusione quindi di strumenti di uso collettivo) possono essere effettuate, nei limiti del 15% di ciascun volume, dietro pagamento alla S.I.A.E del compenso previsto dall’art. 68, commi 4 e 5, della legge 22 aprile 1941 n. 633. Tali fotocopie possono essere effettuate negli esercizi commerciali convenzionati S.I.A.E. o con altre modalità indicate da S.I.A.E. Per le riproduzioni ad uso non personale (ad esempio: professionale, economico o commerciale, strumenti di studio collettivi, come dispense e simili) l'editore potrà concedere a pagamento l'autorizzazione a riprodurre un numero di pagine non superiore al 15% delle pagine del volume. CLEARedi - Centro Licenze e Autorizzazioni per le Riproduzioni Editoriali Corso di Porta Romana, n. 108 - 20122 Milano - e-mail: [email protected] - sito: http://www.clearedi.org.
40131 Bologna - Via U. Terracini 30 - Tel. 051-63.40.113 - Fax 051-63.41.136 www.editrice-esculapio.it
Alle nostre mogli Mary e Daniela
Αγεωμετρητος μηδεις εισιτω Prefazione La Geometria nell’ambito di un corso di studi in Ingegneria ha svolto da sempre un ruolo fondamentale. Ci` o `e tanto pi` u vero nella Facolt` a di Ingegneria della “Sapienza” di Roma, fondata dall’illustre geometra Luigi Cremona nel 1873. Il mutare dei tempi, scandito dal progresso tecnologico, anzich´e sminuire il ruolo di tale disciplina, lo ha esaltato, con un suo utilizzo nella sua evoluzione pi` u moderna. Argomenti classici di Geometria Analitica si affiancano a moderni strumenti di Algebra Lineare, consentendo applicazioni sempre pi` u avanzate. I recenti cambiamenti intervenuti nell’organizzazione dei corsi di laurea in Ingegneria, che prevedono un uso differenziato della Geometria, impongono una struttura corrispondente nei libri di testo di tale disciplina. Il presente volume `e quindi pensato per offrire gli strumenti di Geometria analitica e di Algebra lineare per un corso di 12 crediti. Tralasciando alcuni argomenti e dimostrazioni pu` o anche essere usato per un corso pi` u breve di 6 o 9 crediti. Rispetto all’edizione precedente questa `e stata completamente rivista. Sono stati eliminate alcune parti, ne sono state inserite altre. In particolare abbiamo incluso un capitolo di esempi di curve date in forma polare prima assente. Abbiamo preferito usare un linguaggio quanto mai piano e, nel procedere, tenere la bussola in direzione della chiarezza, a volte a scapito dello stile. Ove possibile senza distrarre troppo dalla trattazione, abbiamo cercato di fare intravedere le possibili applicazioni della materia. Abbiamo aumentato il numero di esempi e di esercizi svolti per maggiore chiarezza. Vogliamo chiudere questa prefazione ricordando con commozione il nostro collega e amico Sandro Bichara, prematuramente scomparso, il cui contributo ad un precedente testo, scritto insieme ad uno degli autori di questo libro, `e stato per noi fondamentale.
SIMBOLI LOGICI Vengono di seguito descritti alcuni simboli logici, conosciuti dalla gran parte degli studenti gi`a dalla scuola secondaria. Per esprimere che dalla proposizione P segue la proposizione P , scriveremo: P =⇒ P
(P implica P ).
Se P =⇒ P e P =⇒ P, allora scriveremo anche: P ⇐⇒ P
(P equivale a P ).
I simboli seguenti, chiamati quantificatori, hanno il significato segnalato a fianco: ∀ = per qualsiasi (o qualunque sia), ∃ = per qualche (esiste qualche).
Indice 1 INSIEMI E FUNZIONI 1.1 Prime propriet` a . . . . . . . . . . . . . . . 1.2 Operazioni tra insiemi . . . . . . . . . . . . 1.3 Relazioni . . . . . . . . . . . . . . . . . . . 1.4 Funzioni . . . . . . . . . . . . . . . . . . . . 1.5 Funzioni biunivoche. Permutazioni . . . . . 1.6 Operazioni . . . . . . . . . . . . . . . . . . . 1.7 Il Principio di Induzione . . . . . . . . . . . 1.8 I numeri reali . . . . . . . . . . . . . . . . . 1.9 Numeri complessi . . . . . . . . . . . . . . . 1.10 Forma trigonometrica dei numeri complessi
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
1 1 2 5 8 9 12 12 14 18 19
2 SPAZI VETTORIALI Rn 2.1 Prime definizioni . . . . 2.2 Dipendenza lineare . . . 2.3 Sottospazi. Basi . . . . 2.4 Prodotto scalare . . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
27 27 29 31 34
3 MATRICI 3.1 Prime definizioni . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Struttura di spazio vettoriale per matrici dello stesso ordine 3.3 Equazioni Lineari . . . . . . . . . . . . . . . . . . . . . . . . 3.4 Algoritmo di Gauss . . . . . . . . . . . . . . . . . . . . . . . 3.5 Sistemi omogenei . . . . . . . . . . . . . . . . . . . . . . . . 3.6 Moltiplicazione tra matrici . . . . . . . . . . . . . . . . . . . 3.6.11 Propriet` a delle matrici invertibili . . . . . . . . . . . 3.6.13 Matrici Elementari . . . . . . . . . . . . . . . . . . . 3.7 Un cenno alla fattorizzazione LU . . . . . . . . . . . . . . . 3.8 Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . 3.8.15 Determinante e invertibilit`a . . . . . . . . . . . . . 3.8.27 Regola di Cramer . . . . . . . . . . . . . . . . . . . . 3.8.30 Ancora sul rango di una matrice . . . . . . . . . . . 3.9 Ancora sui sistemi lineari di m equazioni in n incognite . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
35 35 38 40 45 51 54 60 63 66 68 75 80 82 93
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
4 DIAGONALIZZAZIONE DI MATRICI 97 4.1 Introduzione e motivazione . . . . . . . . . . . . . . . . . . . . . . . . 97 4.2 Autovalori e Autovettori . . . . . . . . . . . . . . . . . . . . . . . . . . 99 4.3 Matrici Simili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 5 GEOMETRIA ANALITICA PIANA 5.1 Definizione di vettore libero . . . . . . . . . 5.2 Somma di vettori liberi . . . . . . . . . . . 5.3 Prodotto di scalari per vettori liberi . . . . 5.4 Coordinate nel piano . . . . . . . . . . . . . 5.5 Rappresentazione cartesiana di vettori . . . 5.6 Parallelismo di vettori . . . . . . . . . . . . 5.7 Prodotto scalare . . . . . . . . . . . . . . . 5.8 Punto medio di un segmento . . . . . . . . 5.9 Area del triangolo . . . . . . . . . . . . . . 5.10 Equazione cartesiana di una retta . . . . . . 5.11 Casi particolari dell’equazione di una retta . 5.12 Intersezione e parallelismo di due rette . . . 5.13 Fasci di rette . . . . . . . . . . . . . . . . . 5.14 Parametri direttori e coseni direttori . . . . 5.15 Perpendicolarit` a di due rette . . . . . . . . 5.16 Distanza punto-retta . . . . . . . . . . . . . 5.17 Cambiamenti di riferimento nel piano . . .
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
113 113 114 115 116 119 121 121 124 124 125 125 128 129 129 130 131 132
6 CONICHE IN FORMA CANONICA 6.1 Circonferenza . . . . . . . . . . . . . . . . . . . . . 6.2 Coniche in equazione canonica. Introduzione . . . 6.3 Ellisse . . . . . . . . . . . . . . . . . . . . . . . . . 6.4 Iperbole . . . . . . . . . . . . . . . . . . . . . . . . 6.5 Parabola . . . . . . . . . . . . . . . . . . . . . . . . 6.6 Schemi riassuntivi sulle coniche in forma canonica 6.6.1 Parabola con asse verticale . . . . . . . . . 6.6.2 Parabola con asse orizzontale . . . . . . . . 6.6.3 Ellisse con asse maggiore orizzontale . . . . 6.6.4 Ellisse con asse maggiore verticale . . . . . 6.6.5 Iperbole con asse trasverso orizzontale . . . 6.6.6 Iperbole con asse trasverso verticale . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
141 141 144 144 147 149 150 150 151 151 152 153 153
7 CONICHE 7.1 Generalit`a . . . . . . . . . . . . . . . . . . . . 7.2 Coniche generali a centro . . . . . . . . . . . . 7.3 Parabole . . . . . . . . . . . . . . . . . . . . . . 7.4 Coniche degeneri . . . . . . . . . . . . . . . . . 7.5 Riduzione a forma canonica di coniche generali 7.6 Metodo degli invarianti . . . . . . . . . . . . . . 7.7 Ampliamento del piano e coordinate omogenee 7.7.1 Equazioni in coordinate omogenee . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
155 155 158 160 161 163 165 167 168
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
. . . . . . . .
. . . . . . . .
7.8
7.7.2 Le coniche: punti all’infinito . . . . . . . . . . . . . . . . . . . . 169 7.7.3 Le coniche: degeneri e non degeneri . . . . . . . . . . . . . . . 170 Centro di una conica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
8 CURVE PIANE 173 8.1 Equazioni cartesiane e polari di alcune curve . . . . . . . . . . . . . . 173 8.2 Coniche in coordinate polari . . . . . . . . . . . . . . . . . . . . . . . . 179 8.3 Curve parametriche . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 9 GEOMETRIA ANALITICA SPAZIALE 9.1 Coordinate e vettori nello spazio . . . . . . . . . . . 9.2 Prodotto vettoriale . . . . . . . . . . . . . . . . . . . 9.3 Prodotto misto . . . . . . . . . . . . . . . . . . . . . 9.4 Equazione cartesiana di un piano . . . . . . . . . . . 9.5 Parallelismo di due piani . . . . . . . . . . . . . . . . 9.6 Fasci e stelle di piani . . . . . . . . . . . . . . . . . . 9.7 Equazioni di una retta nello spazio . . . . . . . . . . 9.8 Parametri direttori . . . . . . . . . . . . . . . . . . . 9.9 Parallelismo di rette . . . . . . . . . . . . . . . . . . 9.10 Complanarit`a di rette . . . . . . . . . . . . . . . . . 9.11 Sintesi sulle mutue posizioni di rette . . . . . . . . . 9.12 Stelle e fasci di rette . . . . . . . . . . . . . . . . . . 9.13 Angolo di due rette. Coseni direttori . . . . . . . . . 9.14 Parallelismo di retta e piano . . . . . . . . . . . . . . 9.15 Perpendicolarit` a di retta e piano . . . . . . . . . . . 9.16 Angolo di retta e piano . . . . . . . . . . . . . . . . . 9.17 Angolo di due piani. Piani perpendicolari . . . . . . 9.18 Distanze . . . . . . . . . . . . . . . . . . . . . . . . . 9.18.1 Distanza punto-piano e tra due piani . . . . . 9.18.3 Distanza tra piani . . . . . . . . . . . . . . . 9.18.4 Distanza tra due rette parallele . . . . . . . . 9.18.6 Distanza punto-retta . . . . . . . . . . . . . . 9.18.8 Distanza tra due rette sghembe . . . . . . . . 9.18.10 Distanza retta-piano . . . . . . . . . . . . . . 9.19 Sfera . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.20 Quadriche in forma canonica . . . . . . . . . . . . . 9.20.1 Ellissoide . . . . . . . . . . . . . . . . . . . . 9.20.2 Iperboloide ellittico . . . . . . . . . . . . . . . 9.20.3 Iperboloide iperbolico . . . . . . . . . . . . . 9.20.4 Paraboloide ellittico . . . . . . . . . . . . . . 9.20.5 Paraboloide iperbolico . . . . . . . . . . . . . 9.20.6 Due esempi di quadriche degeneri . . . . . . . 9.21 Un cenno ai cambiamenti di riferimento nello spazio
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
187 187 190 193 194 196 197 198 199 200 201 202 203 204 205 205 206 207 207 207 208 209 209 210 212 212 213 214 215 216 217 218 220 221
10 SPAZI VETTORIALI 10.1 Gruppi e Campi . . . . . . . 10.2 Spazi vettoriali: introduzione 10.3 Esempi di spazi vettoriali . . 10.4 Basi e dimensioni . . . . . . . 10.5 Relazione di Grassmann . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
223 223 224 226 229 235
11 MATRICI E APPLICAZIONI LINEARI 11.1 Applicazioni lineari in V2 . . . . . . . . . 11.2 Applicazioni lineari: prime propriet`a . . . 11.3 Nucleo e immagine . . . . . . . . . . . . . 11.4 Modello universale di spazio vettoriale . . 11.5 Matrici associate ad applicazioni lineari . 11.6 Cambiamenti di base . . . . . . . . . . . . 11.7 Matrici e applicazioni invertibili . . . . . . 11.8 Endomorfismi e diagonalizzazione . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
241 241 244 245 251 253 256 258 259
12 SPAZI EUCLIDEI 12.1 Nozioni metriche . . . . . . . . . . 12.2 Diagonalizzazione ortogonale . . . 12.3 Forme quadratiche . . . . . . . . . 12.4 Metodo dei Minimi Quadrati . . . 12.5 Decomposizione ai valori singolari . 12.6 Spazi Euclidei in generale . . . . . 12.7 Forme bilineari . . . . . . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
263 263 270 273 278 285 289 294
13 ELEMENTI DI GEOMETRIA DIFFERENZIALE 13.1 Funzioni a valori vettoriali . . . . . . . . . . . . . . . 13.2 Derivate di prodotti scalari e vettoriali . . . . . . . . 13.3 Arco di curva regolare . . . . . . . . . . . . . . . . . 13.4 Lunghezza di una curva e ascissa curvilinea . . . . . 13.5 Rette secanti. Rette tangenti . . . . . . . . . . . . . 13.6 Integrali di linea . . . . . . . . . . . . . . . . . . . . 13.7 Curvatura . . . . . . . . . . . . . . . . . . . . . . . . 13.8 Torsione e formule di Frenet . . . . . . . . . . . . . . 13.9 Equazione di piano osculatore, normale e rettificante 13.10Uso di un parametro diverso dall’ascissa curvilinea .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
297 297 299 300 303 308 311 312 314 315 317
A INDICE ANALITICO
. . . . .
. . . . .
. . . . .
. . . . .
. . . . . . .
. . . . .
. . . . . . .
. . . . .
. . . . . . .
. . . . . . .
321
Introduzione Gli studenti che si trovano a seguire il corso di Geometria al primo anno di Ingegneria, spesso si trovano di fronte al primo corso universitario della loro carriera, quasi sempre in parallelo con il corso di Analisi Matematica. Devono quindi superare non solo l’ostacolo della materia in s´e, ma anche imparare a rapportarsi con una realt` a nuova, di fronte alla quale sono spesso lasciati soli con le loro scelte e le loro responsabilit`a. All’inizio `e necessario uno sforzo notevole per tener il ritmo del corso, molto pi` u intenso di quello sperimentato al liceo. Per esperienza, sappiamo che gli studenti che arrivano all’universit`a, nella stragrande maggioranza, non sono abituati a studiare un testo di Matematica. A scuola ci si abitua solamente a risolvere esercizi, malgrado le esortazioni contrarie di molti insegnanti. Se l’esercizio “torna”, ci` o `e sufficiente a convincere lo studente che conosce la materia. In tal modo, si commette l’errore di considerare la Matematica come equivalente al calcolo. Anche se saper calcolare `e utile, non `e l’essenza della Matematica, cos`ı come saper scrivere non vuol dire saper comporre versi e, men che meno, essere in grado di comporre la “Divina Commedia”. Prendiamo ad esempio un argomento standard dell’Algebra di scuola superiore: la formula risolutiva delle equazioni di secondo grado, cio`e del tipo ax2 + bx + c = 0. Conoscere questo argomento significa prima di tutto saper spiegare con precisione i termini: equazione, grado, formula. Poi bisogna ovviamente conoscere la formula: √ −b ± b2 − 4ac x= 2a Ma ci` o non `e sufficiente. Bisogna anche saper rispondere ai quesiti: da dove `e scaturita questa formula? Ci sono delle restrizioni alla sua validit` a? Vale anche se qualcuno dei coefficienti a, b, c `e nullo? Vale anche se i coefficienti a, b, c sono complessi? Interi? Razionali? Il requisito indispensabile per rispondere con cognizione di causa a tali domande, `e la comprensione della dimostrazione della formula. Alla base degli esercizi deve esserci la conoscenza profonda della teoria. D’altra parte ammoniamo a non cadere nell’eccesso opposto. Bisogna cio`e mettere alla prova le conoscenze teoriche acquisite, svolgendo esercizi significativi. La resistenza ad usare esempi numerici, talvolta osservata in alcuni studenti principianti, quasi che tale uso fosse una cosa di cui vergognarsi, `e controproducente e da combattere assolutamente. Passiamo un po’ pi` u da vicino ad esaminare il nostro corso di studi. Le discipline Geometria e Analisi del primo anno sono, per gli studenti di Ingegneria, anche un’introduzione alla Matematica in generale. Il corso di Geometria ha apparentemente poco a che fare con i corsi omonimi svolti alla scuola media inferiore o superiore. Il fatto `e che la Matematica `e una scienza antica, attiva da pi` u di 2500 anni, in continuo sviluppo, in cui, tuttavia, anche
vi le conoscenze pi` u antiche hanno un peso rilevante. La formula ricordata sopra, ad esempio, era conosciuta sostanzialmente anche dagli antichi Babilonesi e, ovviamente, ancora oggi conserva la sua validit`a. La Matematica `e in costante evoluzione: Il numero di articoli matematici, che riportano nuovi teoremi ogni anno, `e incredibilmente grande. Non c’`e persona al mondo che possa avere padronanza di tutto questo materiale. Interrogando il catalogo Math Sci Net dell’American Mathematical Society sulle pubblicazioni recensite del 2013, si ottiene il risultato di 102913 pubblicazioni. Solo per l’anno 2013! Questo contrasta in modo stridente con l’immagine di una Matematica statica, completa, perfetta, percepita nei corsi di studio della scuola superiore. Un grande impulso alle nuove ricerche in Matematica si ebbe senz’altro nel XIX secolo allorch´e ci fu una liberazione della Matematica da alcuni preconcetti, la quale port` o la Geometria a trasformarsi in “Geometrie” e anche l’Algebra a diventare Algebra “moderna”. Facciamo un passo indietro e riprendiamo la Geometria di Euclide (circa 325 - 265 A.C.) che si studia a scuola. Tipico del pensiero greco fu il tentativo di riconoscere un principio unificante di tutta la Matematica. Si immagini di voler dimostrare qualcosa a qualcuno: per poterlo fare con profitto, si deve conoscere il suo retroterra culturale, ` evidente che la spiegazione di un teorema ad uno la sua preparazione precedente. E studente di scuola media inferiore `e diversa da quella rivolta ad uno di primo anno di universit`a: la dimostrazione dipende quindi anche dal tipo di ascoltatore. Euclide, dovendo spiegare i teoremi allora conosciuti ad un pubblico che fosse il pi` u vasto possibile, and` o a cercare, come punto di partenza, quelle nozioni che potessero essere evidenti a tutti: per esempio, che due punti distinti sono uniti da una retta, che un qualunque segmento pu`o essere prolungato a piacere, che si pu` o tracciare una circonferenza avente centro in qualunque punto e raggio a piacere, che tutti gli angoli retti sono uguali. Infine, aggiunse un quinto postulato che affermava che, date due rette, se si traccia una trasversale che interseca le altre due in modo tale che gli angoli interni formati da essa con le rette date diano come somma un angolo minore di due angoli retti, allora le due rette, opportunamente prolungate, si incontreranno da quella parte del piano. Ora, `e evidente anche a occhio nudo che questo postulato non `e cos`ı semplice come gli altri. Di questo, doveva essere consapevole anche Euclide, dato che, nella dimostrazione delle prime proposizioni degli Elementi, cerc`o di farne a meno. Per secoli, ci si pose il problema di vedere se questo postulato non potesse essere sostituito da altri pi` u semplici o magari se non lo si potesse dimostrare a partire dagli altri assiomi. In effetti formulazioni pi` u semplici del postulato esistono, per esempio affermando che per un punto esterno ad una retta data passa una sola parallela. Tuttavia, questa formulazione, pur risultando pi` u semplice per l’esposizione, `e equivalente all’altra. Il risultato pi` u interessante fu ottenuto dal gesuita italiano Girolamo Saccheri (1667-1733), che nel 1733 pubblic` o Euclides ab omni naevo vindicatus ossia, traducendo alla buona, Euclide corretto da ogni imperfezione. In quest’opera Saccheri cerca di dimostrare per assurdo il postulato, esaminando i due casi possibili. Se si nega la validit` a del postulato, allora si deve ammettere che per un punto esterno ad una retta non passi alcuna parallela alla data, oppure, al contrario, che ne passi pi` u di una. Saccheri, a partire da queste premesse, dimostr`o alcuni teoremi che finirono con
vii l’apparire assurdi. Per esempio, dall’ipotesi che non esistano parallele, segue che la somma degli angoli interni di un triangolo `e maggiore di 180 gradi e che tale somma varia a seconda dell’area del triangolo. A causa di tali assurdit` a, G. Saccheri concluse che il postulato doveva quindi essere vero. A posteriori, possiamo dire che manc` o a Saccheri il coraggio intellettuale, probabilmente a causa dei tempi non ancora maturi, per poter fare il salto conclusivo. I teoremi che aveva dimostrato non erano assurdit`a, bens`ı teoremi validi in una nuova, differente, Geometria, che noi oggi chiamiamo non euclidea. La portata di questa scoperta sarebbe stata rivoluzionaria. Da tempi classici si pensava infatti che la conoscenza geometrica fosse il tipico esempio di conoscenza “a priori”, che essa, cio`e, potesse essere ottenuta con la sola ragione a partire da poche verit`a evidenti. Ora invece si veniva a scoprire che cos`ı non `e: verificare se la somma degli angoli interni di un dato triangolo reale sia o non sia uguale a due angoli retti `e compito della Fisica non della Matematica. La Matematica si limita soltanto a dire che se prendiamo alcuni postulati come partenza, allora la somma `e 180 gradi, se ne prendiamo altri, allora la somma `e maggiore di 180 gradi, e, con altri assiomi ancora, la somma `e minore di 180 gradi. Questo fu scoperto definitivamente e indipendentemente da due giovani: un ungherese, J. Bolyai (1802-1860), e un russo, N. Lobachevsky (1792-1856), negli anni venti del XIX secolo. La Matematica perdeva, apparentemente, il contatto con la realt` a, ma ne guadagnava in libert` a. Da allora in poi si parler`a pi` u spesso di “Geometrie” invece che di Geometria. La cosa pi` u sorprendente fu che, nel 1915, quando A. Einstein (1879-1955) dovette formulare la sua teoria della relativit`a generale, trov`o che la Matematica necessaria era gi` a stata sviluppata ed era la Geometria non euclidea, specialmente come perfezionata da B. Riemann (1826-1866). Abbiamo qui un esempio famoso ed eclatante di quella che E. Wigner (1902-1995) defin`ı in seguito l’irragionevole efficacia della Matematica: un problema sollevato e studiato da matematici, quello del quinto postulato, per motivi strettamente logici ed estetici, port`o allo sviluppo della Geometria che sarebbe servita ad Einstein per formulare la sua teoria della gravit` a. Altri esempi si potrebbero portare ed alcuni ci capiter` a di citare nel corso delle nostre lezioni. Anche l’Algebra si liber`o della schiavit` u del passato pi` u o meno negli stessi anni ad opera soprattutto di E. Galois (1811-1832), che, motivato dallo studio di soluzioni di equazioni algebriche, arriv` o ad introdurre concetti che sarebbero stati assai pi` u importanti del problema stesso per cui erano stati inventati: i gruppi e i campi finiti. Infine, verso la met` a del XIX secolo, fu introdotto il concetto di matrice (sostanzialmente una tabella di numeri), che d` a luogo a una parte importante dello studio del nostro corso. Questo concetto `e anche legato al tentativo di F. Klein (1849-1925) di classificare le Geometrie possibili attraverso l’esame dei gruppi di trasformazioni (Programma di Erlangen). Infine, per non terminare questa introduzione con il sapore che tutto questo sia s`ı interessante, ma un po’ datato, diamo un esempio di applicazione del concetto di matrice che pu` o far intuire la sua enorme flessibilit` a. Immaginiamo di essere di fronte allo schermo di un computer, cosa ormai piuttosto abituale, sul quale sia riprodotta una foto. Essa `e composta da un numero elevato di “pixel”, ciascuno dei quali `e, in pratica, un numero che contiene le informazioni necessarie alla riproduzione della foto sullo schermo. In questa maniera, si pu` o pensare che la foto sia sostanzialmente
viii una tabella di numeri: una matrice. Immaginiamo di essere ingegneri della NASA dei primi anni ’70 del Novecento. Stiamo per inviare la sonda Voyager nello spazio perch´e raccolga immagini e le invii a terra, ma dobbiamo fare i conti con la limitata capacit` a di calcolo e memoria del computer di bordo. Dipendendo dalla risoluzione, una foto sullo schermo di calcolatore potrebbe equivalere a diversi megabyte di informazioni. Vorremmo in qualche modo compattare l’immagine per poterla spedire o immagazzinare pi` u facilmente. Esistono oggi delle tecniche, basate sulla SVD (singular value decomposition o decomposizione ai valori singolari), a sua volta basata su idee di E. Beltrami (1835-1900) ed altri studiosi della met` a dell’Ottocento, che ci permettono di fare proprio questo. La matrice che rappresenta l’immagine pu`o essere scritta come somma di varie matrici: un addendo per ogni “valore singolare”. Invece di immagazzinare o spedire l’intera matrice, ci si pu`o limitare a pochi addendi corrispondenti ad alcuni valori singolari, mediante i quali poi ricostruire, con minima perdita di informazione, la foto originaria. Per concludere, rivolgiamo un incoraggiamento agli studenti che si accingono a studiare la Geometria e a quelli che, pi` u in generale, stanno iniziando il loro percorso di formazione superiore, ricordando le parole di Lao Tze (VI sec A.C.): Un viaggio di mille miglia comincia con il primo passo.
Capitolo 1
INSIEMI E FUNZIONI 1.1
Prime propriet` a
Prendiamo il concetto di insieme come primitivo, nel senso che non viene definito mediante altri concetti. Nel seguito, denoteremo gli insiemi con le lettere maiuscole dell’alfabeto latino, salvo diversa specificazione; denoteremo con le lettere minuscole dell’alfabeto latino gli elementi di un insieme. Se x `e un elemento dell’insieme X diremo che x appartiene ad X e scriveremo: x ∈ X. Se x non appartiene ad X scriveremo invece: x∈ / X. Un insieme viene individuato elencando i suoi elementi tra due parentesi graffe: ad esempio l’insieme costituito dagli elementi 1, 2, 3 si indica con {1, 2, 3} oppure {2, 1, 3}, non avendo alcuna rilevanza l’ordine in cui vengono nominati gli elementi. Talora risulta pi` u conveniente determinare un insieme mediante propriet` a che caratterizzano i suoi elementi. In tal caso le propriet` a soddisfatte dagli elementi sono indicate all’interno delle parentesi graffe dopo il simbolo : (oppure dopo il simbolo |) (da leggersi “tale che”). Ad esempio l’insieme U degli esseri umani pu` o essere individuato come U = {x : x `e essere umano} e quello dei numeri pari come E = {x : x `e un numero intero pari} Alcuni insiemi ricorrono cos`ı spesso nella trattazione matematica da essere contraddistinti da simboli ormai standard: l’insieme dei numeri naturali (cio`e dei numeri interi positivi o nulli), l’insieme dei numeri interi, l’insieme dei numeri razionali (frazioni di numeri interi), l’insieme dei numeri reali e quello dei numeri complessi vengono usualmente denotati con i simboli (rispettivamente): N, Z, Q, R, C. Diremo che l’insieme Y `e un sottoinsieme o una parte dell’insieme X e scriveremo Y ⊆ X, (relazione di inclusione) ogni qualvolta accade che ogni elemento di Y `e
2
CAPITOLO 1. INSIEMI E FUNZIONI
anche elemento di X. Per esempio, l’insieme E = {x : x `e un numero intero pari} `e un sottoinsieme dell’insieme Z di tutti i numeri interi. ` chiaro dalla definizione di inclusione che ogni insieme `e sottoinsieme di se stesso, E cio`e: Proposizione 1.1.1. Se X `e un insieme, allora si ha: X ⊆ X. Due insiemi X ed Y sono uguali se e solo se sono costituiti dagli stessi elementi, ovvero se e solo se: X ⊆ Y e Y ⊆ X. L’insieme vuoto `e, per definizione, l’insieme privo di elementi. Si indica con il simbolo ∅. Esso `e sottoinsieme di ogni insieme, cio`e: Proposizione 1.1.2. Se X `e un insieme, allora risulta necessariamente: ∅ ⊆ X. Dato un insieme X, si denota con |X| la cardinalit` a di X, ossia, poniamo |X| = n se X contiene un numero finito n di elementi, scriviamo invece |X| = ∞ se X contiene un numero infinito di elementi. Se X `e un insieme, diremo insieme delle parti di X (oppure, a volte, anche insieme potenza di X) e lo denoteremo con P(X), l’insieme i cui oggetti sono tutti e soli i sottoinsiemi di X; tra gli elementi di P(X) vi sono (cfr. 1.1.1 e 1.1.2) sia X che ∅; tali elementi di P(X) prendono il nome di parti improprie di X; diremo parte propria di X ogni altro sottoinsieme di X. Se X = {x}, diremo che X `e il singleton di x. Ad esempio, l’insieme delle parti di X = {x} `e P(X) = {∅, X} e l’insieme delle parti di Y = {1, 2, 3} `e P(Y ) = {∅, Y, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}}. Attenzione, l’insieme {{2}, {3}} non `e uguale a {2, 3}: il primo contiene due singleton, il secondo due numeri interi. Non `e difficile, con un po’ di esempi, arrivare a congetturare che se X contiene n elementi, allora l’insieme delle parti ha 2n elementi. Questo `e in effetti vero e abbiamo Proposizione 1.1.3. Se X `e un insieme e |X| = n, allora |P(X)| = 2n . La dimostrazione di questa proposizione viene svolta usando il principio di induzione e pertanto ne rimandiamo la dimostrazione dopo aver illustrato tale principio.
1.2
Operazioni tra insiemi
Unione Dati due insiemi X e Y , si definisce un terzo insieme che si chiama unione di X e Y , composto dagli elementi di X e da quelli di Y . Esso si indica con il simbolo X ∪ Y . Si ha cio`e: X ∪ Y = {x ∈ X vel x ∈ Y }.
1.2. OPERAZIONI TRA INSIEMI
3
Il “vel” (la congiunzione “o” latina) che compare nella definizione precedente vuol dire “uno o l’altro ma anche tutte e due” (e quindi non nel senso della congiunzione “aut” latina). Per esempio: {1, 2, 3} ∪ {2, 4, 6} = {1, 2, 3, 4, 6} ` evidente che E X ⊆X ∪Y Y ⊆X ∪Y X ∪Y =Y ∪X
(propriet` a commutativa dell’unione)
X ∪ (Y ∪ Z) = (X ∪ Y ) ∪ Z
(propriet` a associativa dell’unione)
X ∪X =X
(idempotenza dell’unione)
Esempi 1.2.1. 1) Siano A = {1, 3, 7}, B = {3, 8, 11, 100}. Si ha: A ∪ B = {1, 3, 7, 8, 11, 100}.
2) Siano: A = {numeri pari} = {0, 2, 4, ...}, B = {numeri dispari} = {1, 3, 5, ...}. Risulta: A ∪ B = N = {0, 1, 2, 3, 4, ...}. 3) Siano A = {parallelogrammi},
B = {rettangoli}. Si ha:
A ∪ B = {parallelogrammi} = A. Intersezione Dati due insiemi X e Y , si definisce un terzo insieme, che si chiama intersezione di X e Y , composto dagli elementi comuni ad X e Y . Esso si indica con il simbolo X ∩ Y . Si ha cio`e: X ∩ Y = {x ∈ X et x ∈ Y }. Ogniqualvolta X e Y non hanno elementi comuni, risulta X ∩ Y = ∅. In tal caso gli insiemi X e Y vengono detti disgiunti. ` evidente che E X ∩Y ⊆X X ∩Y ⊆Y X ∩Y =Y ∩X X ∩ (Y ∩ Z) = (X ∩ Y ) ∩ Z X ∩X =X
(propriet` a commutativa dell’intersezione) (propriet` a associativa dell’intersezione) (idempotenza dell’intersezione)
CAPITOLO 1. INSIEMI E FUNZIONI
4
Esempi 1.2.2.
Prendendo A e B come nel primo esempio di 1.2.1, si ha: A ∩ B = {3}.
Prendendoli come nel secondo esempio di 1.2.1, risulta invece: A ∩ B = ∅, mentre nel terzo esempio si ha: A ∩ B = B. Valgono le seguenti propriet` a distributive che legano le operazioni di unione e intersezione: X ∪ (Y ∩ Z) = (X ∪ Y ) ∩ (X ∪ Z), X ∩ (Y ∪ Z) = (X ∩ Y ) ∪ (X ∩ Z). Differenza Dati due insiemi X e Y si definisce un terzo insieme, che si chiama differenza di X meno Y , composto dagli elementi di X che non appartengono a Y . Esso si indica con il simbolo X −Y . Si osservi che, se X = Y , allora X −Y = Y −X. Esempi 1.2.3.
Prendendo A e B come nel primo esempio di 1.2.1 risulta: A − B = {1, 7}, B − A = {8, 11, 100}.
Prendendoli come nel secondo esempio di 1.2.1, si ha invece: A − B = A, B − A = B, mentre nel terzo si ha: A − B = {parallelogrammi senza angoli retti}. Complementare Dato un insieme Y , sottoinsieme di un fissato insieme X, si definisce un secondo insieme CX Y , che si chiama il complementare di Y in X, composto dagli elementi di X che non appartengono ad Y : CX Y = X − Y. ` evidente che: E Y ∩ CX Y = ∅, Y ∪ CX Y = X, CX (CX Y ) = Y.
1.3. RELAZIONI
Esempio 1.2.4.
5
Siano S = {triangoli},
A = {triangoli scaleni}. Risulta:
CS A = {triangoli isosceli}. Si osservi che, dati comunque due insiemi Y e Z, sottoinsiemi di uno stesso insieme X, valgono le identit`a seguenti, dette Leggi di De Morgan: CX (Y ∪ Z) = CX Y ∩ CX Z, CX (Y ∩ Z) = CX Y ∪ CX Z. Prodotto cartesiano Dati due insiemi X e Y non vuoti, si definisce un terzo insieme X × Y che si chiama prodotto cartesiano di X per Y , composto dalle coppie ordinate costituite al primo posto da un elemento di X ed al secondo posto da un elemento di Y : X × Y = {(x, y) : x ∈ X, y ∈ Y }. Esempio 1.2.5.
Assegnati A = {1, 3, 5},
B = {h, k}, si ha:
A × B = {(1, h), (1, k), (3, h), (3, k), (5, h), (5, k)}. Si noti che in generale X × Y = Y × X. Cos`ı nell’esempio proposto si trova la coppia (1, k) e non si trova la coppia (k, 1). Se X `e un insieme non vuoto, il prodotto cartesiano X × X si denota con X 2 ed `e detto il quadrato cartesiano di X. Pi` u in generale con il simbolo X n denoteremo la n-ma potenza cartesiana di X, cio`e il prodotto cartesiano di n copie dell’insieme X: X n = X × X × ... × X costituito da tutte le n-ple ordinate di elementi di X. Esempio 1.2.6. Se A = {1, 3, 5} allora A4 `e costituito da tutte le quaterne ordinate di 1,2,3, per esempio (1, 1, 1, 1), (1, 2, 3, 3), (3, 5, 1, 3), etc. Osservazione 1.2.7. Si noti che, se Y e Z sono sottoinsiemi di X, anche gli insiemi Y ∪ Z,
Y ∩ Z,
CX Y,
CX Z,
Y − Z,
Z −Y
sono sottoinsiemi di X. Diversamente non `e un sottoinsieme di X il prodotto cartesiano Y × Z.
1.3
Relazioni
Sia X un insieme non vuoto. Se R `e un sottoinsieme di X × X, diremo che R `e una relazione in X. Se la coppia (x, y) ∈ R, diremo anche che x `e in relazione R con y e scriveremo:
6
CAPITOLO 1. INSIEMI E FUNZIONI
xRy.
(1.1)
Se R = ∅, diremo che R `e la relazione vuota in X; in tal caso nessun elemento di X risulta in relazione R con qualche elemento di X. Una relazione R in X si dice soddisfare: la propriet`a riflessiva se ∀x ∈ X risulta xRx; la propriet`a simmetrica se xRy =⇒ yRx; la propriet`a antisimmetrica se xRy, yRx =⇒ x = y; la propriet`a transitiva se xRy, yRz =⇒ xRz. Una relazione che soddisfi le propriet`a riflessiva, simmetrica e transitiva si dice una relazione di equivalenza, mentre una relazione che soddisfi le propriet` a riflessiva, antisimmetrica e transitiva si dice una relazione di ordine. Esempi 1.3.1. Sia X l’insieme delle rette del piano ordinario; sia ⊥ la relazione di perpendicolarit` a tra rette, cos`ı definita: x⊥y se e solo se x `e perpendicolare ad y. Tale relazione soddisfa la propriet` a simmetrica, ma non quella riflessiva n´e la transitiva e neppure l’antisimmetrica. Sia X l’insieme delle rette del piano ordinario; sia || la relazione di parallelismo tra rette, cio`e la relazione cos`ı definita: x||y, se e solo se la retta x `e parallela alla retta y. Tale relazione risulta di equivalenza (due rette del piano si dicono parallele se coincidono oppure sono disgiunte). Altri esempi di relazione di equivalenza sono la similitudine tra triangoli e l’equiestensione tra figure piane. Siano X = Z e “≤” la relazione cos`ı definita in Z: x ≤ y se, e solo se, x `e non maggiore di y. La relazione “≤ ” cos`ı definita `e una relazione d’ordine in Z. Sia X un insieme non vuoto qualunque e sia “ = ” la relazione, che diremo identit` a, cos`ı in esso definita: x = y se e solo se x ed y coincidono. La relazione “ = ” definita in X risulta sia d’equivalenza che d’ordine. A tale riguardo si dimostra che: Proposizione 1.3.2. Sia X un insieme non vuoto. Se una relazione R, definita in X, risulta sia d’equivalenza che d’ordine, allora necessariamente `e la relazione identit` a di X. Sia R una relazione d’equivalenza definita nell’insieme X. Se x ∈ X, risulta definito il sottoinsieme [x]R di X nel modo seguente: [x]R = {∀y ∈ X : xRy}.
(1.2)
Il sottoinsieme definito in (1.2) `e detto la classe di equivalenza di x rispetto alla relazione R.
1.3. RELAZIONI
7
Nel caso della relazione di parallelismo tra rette nel piano, la classe di equivalenza [x]|| della retta x `e costituita da tutte e sole le rette parallele ad x (x inclusa). Nel caso dell’identit` a in un insieme X non vuoto, la classe di equivalenza [x]= di un elemento x `e il singleton {x}. Nel caso della similitudine tra triangoli la classe di equivalenza di un triangolo x `e costituita da tutti e soli i triangoli che hanno gli angoli ordinatamente eguali a quelli di x. Dalla propriet` a riflessiva delle relazioni di equivalenza si deduce immediatamente che: Proposizione 1.3.3. Siano X un insieme non vuoto ed R una relazione d’equivalenza definita in X. Allora necessariamente ogni elemento di X appartiene alla sua classe d’equivalenza rispetto ad R; cio`e: ∀x ∈ X =⇒ x ∈ [x]R . Dalle propriet`a simmetrica e transitiva discende la seguente: Proposizione 1.3.4. Siano X un insieme non vuoto ed R una relazione d’equivalenza definita in X. Se l’elemento y di X appartiene alla classe d’equivalenza di x ∈ X, rispetto alla relazione R, allora la classe di y rispetto ad R coincide con la classe di x. Cio`e: y ∈ [x]R =⇒ [y]R = [x]R . Dalla proposizione precedente segue immediatamente: Proposizione 1.3.5. Siano X un insieme non vuoto ed R una relazione d’equivalenza definita in X. Se x ed y sono due elementi di X, allora necessariamente le classi di equivalenza di x ed y, rispetto alla relazione R coincidono oppure sono disgiunte, cio`e: [y]R ∩ [x]R = ∅ =⇒ [y]R = [x]R . L’insieme delle classi di equivalenza relative ad una relazione di equivalenza R in un insieme non vuoto X viene chiamato insieme quoziente di X modulo R ed indicato con X/R. Esempio 1.3.6. In Z, fissato un intero positivo n, si definisca la relazione, detta di congruenza modulo n, come segue: a≡b
mod n ⇐⇒ a − b = kn, k ∈ Z.
A parole, diremo che a `e congruo a b modulo n, se la differenza a − b `e un multiplo intero di n. Per maggior concretezza, fissiamo n = 3. Si pu` o allora vedere che 17 ≡ 2 mod 3 perch´e la differenza 17 − 2 = 15 `e un multiplo di 3. In questo esempio esistono allora 3 classi di equivalenza: {0, ±3, ±6, ±9, . . .},
{. . . , −8, −5, −2, 1, 4, 7, 10, . . .},
{. . . , −7, −4, −1, 2, 5, 8, . . .}
Le tre classi sono, a volte, indicate con i simboli [0], [1], [2]. Ogni intero si trova in una ed una soltanto di tali classi. Si denota con Z3 = {[0], [1], [2]} questo insieme quoziente. In generale si denota con Zn l’insieme quoziente della relazione congruenza modulo n, per un fissato n. L’insieme quoziente Zn viene anche detto insieme delle classi resto modulo n.
CAPITOLO 1. INSIEMI E FUNZIONI
8
1.4
Funzioni
Il concetto di funzione `e, in molti casi particolari, familiare al lettore. Nello stesso linguaggio corrente si usano infatti frasi quali: “il consumo di carburante `e funzione della velocit` a”, “l’area del cerchio `e funzione del raggio”. Gli esempi suggeriscono il significato della parola “funzione”, come legame tra gli elementi di un insieme A e quelli di un altro insieme B. Si pu`o pertanto precisare che la frase “`e assegnata una funzione f dall’insieme A nell’insieme B” significa che `e assegnata una legge, che indicheremo con il simbolo f : A −→ B, che ad ogni elemento a ∈ A fa corrispondere uno ed un solo elemento b ∈ B. Tale elemento b viene indicato con f (a) e chiamato immagine di a. Assegnare una funzione f : A −→ B equivale quindi ad assegnare il sottoinsieme del prodotto cartesiano A × B costituito dalle coppie (a, f (a)). Esso `e detto grafico di f . Si osservi che un sottoinsieme J di A × B `e il grafico di una funzione da A in B se e solo se, per ogni a ∈ A, esiste una e una sola coppia di J con a al primo posto. Talora invece della parola funzione si adopera quella di applicazione, o di corrispondenza. Per ogni elemento b ∈ B, si chiama controimmagine di b e si indica con f −1 (b) l’insieme degli elementi di A, la cui immagine coincide con b, cio`e: f −1 (b) = {a ∈ A : f (a) = b}. Si osservi che, mentre l’immagine di un elemento a `e, per definizione, costituita da uno ed un solo elemento di B, la controimmagine di un elemento b pu`o, al contrario, essere vuota oppure essere costituita da pi` u elementi di A. Si consideri ad esempio la funzione f : Z −→ Z definita da f (z) = z 2 , ∀z ∈ Z. Risulta evidentemente f −1 (−3) = ∅, mentre f −1 (4) = {−2, 2}. Assegnata f : A −→ B, l’insieme A si dice dominio o insieme di definizione della funzione f . Si chiama codominio o immagine o insieme dei valori di f e si indica con f (A) o con Imf , l’insieme degli elementi di B, ciascuno dei quali risulti immagine, tramite la funzione f , di qualche elemento di A. In generale sar` a f (A) ⊆ B. Tornando per esempio alla funzione “quadrato” f (z) = z 2 , ∀z ∈ Z, in questo caso il codominio f (Z) non coincide con Z. Infatti ad f (Z) non appartengono per esempio i numeri negativi. L’applicazione che ad ogni elemento di un insieme A fa corrispondere lo stesso elemento dell’insieme A dicesi applicazione identica relativa all’insieme A e si indica con IA o con idA . Essa coincide con la relazione identit`a definita precedentemente (cfr. 1.3). Definizione 1.4.1. Date due funzioni f : A −→ B, g: B −→ C, si definisce una funzione h : A −→ C, che fa corrispondere ad ogni a ∈ A l’elemento h(a) = g[f (a)]. La funzione h dicesi funzione composta di f con g e si indica anche con il simbolo gf . Esempio 1.4.2. Sia f : Z −→ Z definita al modo seguente:
1.5. FUNZIONI BIUNIVOCHE. PERMUTAZIONI f (z) = z 3
9
z∈Z
e sia g : Z −→ Z definita al modo seguente: g(x) = 5x
x ∈ Z.
La funzione composta gf : Z −→ Z `e cos`ı definita: (gf )(z) = 5z 3
z ∈ Z.
Si osservi che la composizione di funzioni non gode in generale della propriet` a commutativa, anche nel caso A = B = C. Nell’Esempio 1.4.2 f g `e differente da gf . Si ha infatti (f g)(x) = 53 x3 , x ∈ Z. Definizione 1.4.3. Una funzione f: A −→ B si dice suriettiva se il codominio di f coincide con B: f (A) = B. Tale condizione equivale a dire che la controimmagine di ogni elemento di B `e non vuota. Definizione 1.4.4. Una funzione f : A −→ B si dice iniettiva se le immagini di elementi diversi di A sono elementi diversi di B: a = a =⇒ f (a ) = f (a ). Tale condizione equivale a dire che la controimmagine di ogni elemento di B `e costituita al pi` u da un elemento di A. La funzione “quadrato” definita in precedenza non `e n´e iniettiva n´e suriettiva. Esempio 1.4.5. Sia C l’insieme dei cittadini italiani coniugati di sesso maschile e D l’insieme delle donne, ad un istante fissato di tempo. La funzione f : C −→ D, che associa ad ogni uomo coniugato la propria moglie, `e iniettiva (due uomini diversi non possono essere sposati con la stessa donna), ma non `e suriettiva (esistono donne nubili). Esempio 1.4.6. Sia U l’insieme degli esseri umani e M l’insieme delle donne che abbiano figli. La funzione f : U −→ M , che associa ad ogni essere umano la propria madre, `e suriettiva, ma non `e iniettiva (due fratelli hanno la stessa madre).
1.5
Funzioni biunivoche. Permutazioni
Definizione 1.5.1. Una funzione f : A −→ B che risulti iniettiva e suriettiva si dice biiettiva o biunivoca. Esempio 1.5.2. Indicato con P l’insieme dei naturali pari, `e biunivoca la funzione f : N −→ P, che ad ogni naturale fa corrispondere il suo doppio: f (n) = 2n. Esempio 1.5.3. Indicato con S l’insieme dei numeri naturali quadrati perfetti, `e biunivoca la funzione f : N −→ S, che ad ogni naturale fa corrispondere il suo quadrato: f (n) = n2 .
CAPITOLO 1. INSIEMI E FUNZIONI
10
Definizione 1.5.4. Si dice funzione inversa di una funzione biunivoca f : A −→ B l’applicazione f −1 : B −→ A che associa ad ogni elemento di B l’elemento di A da cui proviene mediante la f . La costruzione dell’inversa equivale alla risoluzione dell’equazione f (a) = b nell’incognita a ∈ A, essendo assegnato b ∈ B. Tale elemento esiste per la suriettivit`a ed `e unico per la iniettivit`a, donde l’applicazione f −1 risulta ben definita. L’inversa della funzione f : N −→ P, definita da f (n) = 2n, ∀n ∈ N, `e la funzione f −1 : P −→ N, definita da f −1 (p) = p/2, ∀p ∈ P. Osservazione 1.5.5. Sia f : A −→ B un’applicazione biunivoca e sia f −1 : B −→ A l’applicazione inversa. Le applicazioni composte f −1 f : A −→ A
,
f f −1 : B −→ B
sono le applicazioni identiche rispettivamente in A e in B. Proposizione 1.5.6. Siano X, Y e Z tre insiemi, f : X −→ Y , e g : Y −→ Z applicazioni biiettive di X in Y e di Y in Z, rispettivamente. Allora la funzione composta gf `e un’applicazione biiettiva di X in Z. Dimostrazione. Cominciamo con il provare la suriettivit` a di gf . Sia quindi z ∈ Z; poich´e g `e biiettiva, essa `e suriettiva, per cui esiste almeno un elemento y ∈ Y , tale che g(y) = z; d’altro canto anche f `e biiettiva (e quindi suriettiva) ed esiste almeno un elemento x ∈ X, tale che f (x) = y; allora `e g(f (x)) = g(y) = z. Poich´e ogni z ∈ Z `e l’immagine in gf di qualche elemento x ∈ X, la gf `e suriettiva. Proviamo ora che gf `e iniettiva. Supponiamo x = x . Per l’iniettivit` a di f (cfr. a di g, si deduce g(f (x )) = g(f (x )). 1.4.4) risulta f (x ) = f (x ) da cui, per l’iniettivit` Ne segue l’iniettivit`a di gf . Definizione 1.5.7. Sia X un insieme finito. Una funzione biunivoca f : X −→ X viene detta anche una permutazione o sostituzione di X. Se X `e un insieme finito costituito da n elementi, `e lecito indicare tali elementi con i simboli 1, 2, ..., n. Una permutazione f di X `e individuata dalla tabella che associa ad ogni elemento x ∈ X (x = 1, ..., n) la sua immagine f (x): 1 2 . . . n . f (1) f (2) . . . f (n) 1 2 3 4 Per esempio, dato X = {1, 2, 3, 4}, il simbolo sta ad indicare la 3 1 4 2 permutazione che: all’elemento all’elemento all’elemento all’elemento
1 2 3 4
fa fa fa fa
corrispondere corrispondere corrispondere corrispondere
l’elemento l’elemento l’elemento l’elemento
3, 1, 4, 2.
(cfr. 1.4) dell’insieme X = {1, 2, ..., n}, cio`e la permutazione L’applicazione identica 1 2 . . . n , viene detta anche permutazione fondamentale dell’insieme X. 1 2 . . . n
1.5. FUNZIONI BIUNIVOCHE. PERMUTAZIONI
11
D’ora in poi, in questo paragrafo, indicheremo una permutazione 1 2 . . . n f (1) f (2) . . . f (n) pi` u semplicemente con la seconda riga di tale tabella: (f (1), f (2), ..., f (n)). In questo modo una permutazione appare come un modo di ordinare gli elementi di X. Si dice trasposizione o scambio una permutazione che scambia tra loro due elementi di X, lasciando invariati tutti gli altri. Si dimostra che ogni permutazione di X pu` o essere ottenuta da ogni altra con un numero finito di scambi. Per esempio cerchiamo di ottenere in tal modo la permutazione (3, 1, 4, 2) dalla permutazione fondamentale (1, 2, 3, 4): da (1, 2, 3, 4) scambiando 1 con 2 si ottiene (2, 1, 3, 4), da (2, 1, 3, 4) scambiando 2 con 3 si ottiene (3, 1, 2, 4), da (3, 1, 2, 4) scambiando 2 con 4 si ottiene (3, 1, 4, 2). Abbiamo quindi ottenuto la permutazione (3, 1, 4, 2) da quella fondamentale con ` evidente che avremmo potuto ottenerla anche mediante scambi diversi tre scambi. E da quelli da noi attuati e con un numero di scambi diverso da tre. Si dimostra per` o che ogni permutazione si ottiene da quella fondamentale con un numero di scambi che ha sempre la stessa parit`a. Nell’esempio precedente non `e quindi possibile ottenere la permutazione (3, 1, 4, 2) da quella fondamentale con un numero pari di scambi. Ha senso pertanto la seguente: Definizione 1.5.8. Una permutazione si dice di classe pari (dispari) se `e ottenibile da quella fondamentale con un numero pari (dispari) di scambi. Definizione 1.5.9. Una permutazione (f (1), f (2), ...,f (n)) si dice avere un’inversione nei posti i e j, se risulta i < j e f (i) > f (j). 1 2 3 4 Per esempio la permutazione (3, 1, 4, 2), cio`e , presenta un’inversio3 1 4 2 ne nei posti 1 e 2 dato che f (1) = 3 > 1 = f (2). Presenta inoltre inversione nei posti 1 e 4 cos`ı come nei posti 3 e 4. Si dimostra che: Proposizione 1.5.10. Una permutazione `e di classe pari (dispari) se e solo se presenta in totale un numero pari (dispari) di inversioni. Ad esempio la permutazione (3, 1, 4, 2), presentando complessivamente 3 inversioni, `e di classe dispari, come abbiamo stabilito in precedenza per altra via. Si dimostra che il numero di permutazioni di un insieme di n elementi `e n! (n fattoriale), intendendosi con tale simbolo: n! = n(n − 1)(n − 2) ... 2 · 1. Si ha quindi: 1! = 1, 2! = 2, 3! = 6, 4! = 24, etc. Per convenzione si pone 0! = 1.
CAPITOLO 1. INSIEMI E FUNZIONI
12
1.6
Operazioni
Assegnati tre insiemi A, B, C, si definisce operazione binaria tra A e B a valori in C una qualunque applicazione f : A × B −→ C. In particolare se A = B = C, una tale funzione f : A × A −→ A viene detta un’operazione binaria interna in A. In altre parole un’operazione binaria interna in A associa ad ogni coppia ordinata di elementi di A uno e un solo elemento di A. Per brevit`a spesso un’operazione binaria interna sar` a chiamata semplicemente “operazione”. La somma ed il prodotto tra numeri reali, ad esempio, sono operazioni nell’insieme R dei numeri reali. Assegnato un insieme X, l’unione, l’intersezione e la differenza di sottoinsiemi di X sono operazioni nell’insieme P(X) delle parti di X. Oltre le operazioni binarie, in modo analogo si definiscono operazioni unarie, ternarie, etc. Esse non sono altro che applicazioni del tipo, rispettivamente, f : A −→ C, f : A × B × C −→ D. Ad esempio, prendere l’opposto di un numero reale `e una operazione unaria.
1.7
Il Principio di Induzione
Il principio di induzione `e una propriet` a tipica dei numeri naturali N = {1, 2, . . .} e si pu`o enunciare come segue: Principio di Induzione Se X `e un sottoinsieme di N con le propriet` a 1 ∈ X, n ∈ X =⇒ n + 1 ∈ X, allora X = N. Questo principio viene di solito applicato specificando due passi, come andiamo a illustrare in qualche esempio. qualunque sia n ∈ N. Esempio 1.7.1. Dimostrare che 1 + 2 + · · · + n = (n+1)n 2 In questo caso il sottoinsieme X di cui parla il principio `e il sottoinsieme di tutti i naturali n per i quali la formula `e vera. Vogliamo dimostrare che X = N, cio`e che la formula `e vera per ogni n ∈ N. Il primo passo, detto base dell’induzione, consiste nel verificare che 1 ∈ X, ossia che per n = 1 la formula `e vera. Questa `e di solito una verifica facile. Nella fattispecie , che `e effettivamente vera. abbiamo 1 = (1+1)1 2 Il secondo passo, detto passo induttivo, sta nel verificare che se k ∈ X (ipotesi induttiva) allora necessariamente k +1 ∈ X. Una volta verificato questo, abbiamo che X = N, vale a dire la proposizione in questione `e vera per ogni n ∈ N. Nell’esempio allora 1 + 2 + · · · + (k + 1) = dobbiamo vedere che se 1 + 2 + · · · + k = (k+1)k 2 ((k+1)+1)(k+1) . In effetti, supponiamo che 1 + 2 + · · · + k = (k+1)k e andiamo a 2 2 considerare 1 + 2 + · · · + k + (k + 1). Per l’ipotesi induttiva questa somma si pu`o + (k + 1). Con semplici passaggi questo diventa scrivere (k+1)k 2 (k + 1)k + 2(k + 1) (k + 2)(k + 1) (k + 1)k + (k + 1) = = 2 2 2 cio`e esattamente l’espressione desiderata. Il principio di induzione ci garantisce quindi che la formula vale per ogni naturale.
1.7. IL PRINCIPIO DI INDUZIONE
13
Commento. Il principio di induzione ci ha permesso di dimostrare la formula desiderata. Lo studente per`o si domanda spesso: ma la formula come faccio a trovarla? Questa `e una buona domanda, alla quale per` o il principio di induzione non risponde. Il principio ci aiuta nella dimostrazione se la formula `e in qualche modo gi`a data. Per “scoprire” la formula giusta da dimostrare a volte occorre una buona idea. Da dove vengano le buone idee `e una questione molto interessante, ma che va al di l`a degli scopi di queste note. Altro esempio. Dimostrare che la somma dei primi n numeri dispari consecutivi a partire da 1 `e uguale a n2 . In formule: 1 + 3 + · · · + 2n − 1 = n2 . Base dell’induzione: Per n = 1 abbiamo 1 = 12 che `e senz’altro vera. Passo induttivo: Supponiamo che si abbia 1 + 3 + · · · + 2k − 1 = k 2 e consideriamo 1 + 3 + · · · + (2k − 1) + (2k + 1). Per ipotesi induttiva possiamo scrivere 1 + 3 + · · · + (2k − 1) + (2k + 1) = k 2 + (2k + 1) = (k + 1)2 come desiderato. Quindi la formula `e vera per ogni intero n ≥ 0. In questo caso la “buona idea” poteva venire, forse, dall’osservare una figura come la seguente:
Esempio 1.7.2. Dimostrare che 1 1+3 1+3+5 1+3+5+7 = = = = ··· 3 5+7 7 + 9 + 11 9 + 11 + 13 + 15 Soluzione. Occorre osservare che in ogni frazione ci sono, al numeratore, la somma dei primi n numeri dispari che, per la formula appena dimostrata, `e uguale a n2 , mentre al denominatore ci sono altrettanti numeri dispari consecutivi. Pi` u precisamente, in ogni frazione compaiono i numeri dispari consecutivi fino a un certo 2n: i primi n al numeratore e i secondi n al denominatore. Usando la formula dimostrata sopra, allora segue che ciascuna frazione `e uguale a n2 1 n2 = 2 = 2 2 (2n) − n 3n 3 Esempio 1.7.3. Dimostrare che se un insieme X ha n elementi, allora X possiede 2n sottoinsiemi.
CAPITOLO 1. INSIEMI E FUNZIONI
14
Base dell’induzione. Se X = {x} ha un solo elemento, allora tutti i possibili sottoinsiemi di X sono ∅ e X e quindi sono 2 in totale, in accordo con la proposizione. Dunque l’asserto `e vero per n = 1. Passo induttivo. Supponiamo che ogni insieme X con k elementi abbia 2k sottoinsiemi. Prendiamo un insieme Y con k + 1 elementi. Fissiamo l’attenzione su un elemento y ∈ Y . I possibili sottoinsiemi di Y sono di due tipi: quelli che contengono y e quelli che non contengono y. I sottoinsiemi che non contengono y sono sottoinsiemi dell’insieme X = Y − {y}, il quale `e un insieme con k elementi. Per ipotesi dunque X ha 2k sottoinsiemi. Pertanto, abbiamo che i sottoinsiemi di Y che non contengono y sono in numero di 2k . Domandiamoci ora: quanti sottoinsiemi ci sono che contengono ` chiaro che tali insiemi sono della forma {y} ∪ A al variare di A tra i sottoinsiemi y? E di X = Y − {y}, e quindi essi sono tanti quanti i precedenti. In totale quindi ci sono 2k + 2k = 2k+1 sottoinsiemi. Il principio di induzione ci permette di concludere che la proposizione `e vera per ogni n ≥ 1. Attenzione a non usare il principio di induzione in modo superficiale: Esempio 1.7.4. Tutti i cavalli sono dello stesso colore. Base dell’induzione. Se considero un insieme con un solo cavallo `e chiaro che questo cavallo ha un solo colore. Passo induttivo. Supponiamo che ogni insieme di k cavalli sia costituito da cavalli dello stesso colore. Prendiamo ora un insieme di k +1 cavalli. Se tolgo il primo cavallo dal gruppo, i restanti sono un insieme di k cavalli e per ipotesi essi sono tutti dello stesso colore. Se invece tolgo l’ultimo cavallo, ci`o che resta `e sempre un insieme di k cavalli e quindi, per ipotesi, tutti dello stesso colore. Ma allora il primo cavallo ha lo stesso colore dei cavalli di mezzo e questi hanno lo stesso colore dell’ultimo cavallo. Quindi tutti i cavalli hanno lo stesso colore. Per induzione quindi i cavalli di un insieme comunque grande hanno tutti lo stesso colore. Dov’`e l’errore?
1.8
I numeri reali
Diamo per scontata la conoscenza dei numeri interi e dei numeri razionali con le loro propriet` a. Tra le altre cose diamo per conosciute le operazioni di addizione e moltiplicazione di due numeri interi o razionali. In particolare, ricordiamo che, se a, b, c sono tre qualunque numeri razionali, valgono le seguenti propriet` a di campo: 1. propriet`a commutativa delle operazioni suddette: a+b=b+a
ab = ba
2. propriet`a associativa (a + b) + c = a + (b + c)
a(bc) = (ab)c
3. propriet`a distributiva a(b + c) = ab + ac 4. Esistono due numeri 0 e 1 che hanno delle propriet`a particolari e cio`e che a1 = a e a + 0 = a qualunque sia a.
1.8. I NUMERI REALI
15
5. Infine, per un qualunque numero c esiste l’opposto −c e, per qualunque numero c non nullo, esiste il reciproco 1c indicato anche come c−1 . Dopo aver appreso ad usare i numeri naturali, impariamo a scuola ad usare i numeri razionali, o frazioni. Si dice che i numeri razionali sono densi sulla retta nel senso che tra due qualunque di essi ne esiste sempre un terzo: la loro media aritmetica. Sembrerebbe quindi che non ci sia nessuno spazio n´e necessit` a per altri numeri. Fu infatti una scoperta straordinaria dei pitagorici (Pitagora circa 569 - circa 475 A.C.), l’esistenza di numeri non razionali detti appunto irrazionali. Ad esempio, non esiste alcun numero razionale il cui quadrato sia uguale a 2. Detto in maniera diversa ma equivalente, l’equazione x2 = 2 non ha soluzioni razionali. √ Qualcuno potrebbe obiettare che questo sia un fatto evidente perch´e 2 ha una espansione decimale illimitata che sembrerebbe non periodica. Ma questo non `e altro √ 2. Uno si potrebbe chiedere, per esempio, se che un sintomo della irrazionalit` a di √ davvero esista un numero detto 2. Il fatto che esista un simbolo per designarlo non implica che esista l’oggetto, non pi` u di quanto il nome unicorno designi un animale esistente. Riflettendo allora, si capisce che il problema della esistenza o della corretta definizione di numero reale non `e affatto evidente. La questione della definizione rigorosa del concetto di numero reale fu risolta in maniera soddisfacente da R. Dedekind (1831-1916) tramite l’introduzione del concetto di sezione, per la quale rimandiamo ad altri testi. Il ragionamento seguente, che `e riportato da Aristotele ma che `e forse pi` u antico, dimostra, con terminologia moderna, che l’equazione x2 − 2 = 0 non ha soluzioni razionali. Supponiamo che esista un numero razionale della forma p/q, p, q interi, frazione che possiamo supporre ridotta ai minimi termini, e tale che (p/q)2 = 2. Moltiplicando ambo i membri per q 2 abbiamo p2 = 2q 2 . Questa uguaglianza ci dice che p2 `e un numero pari. Allora anche p `e pari, perch´e il quadrato di un dispari `e dispari. Abbiamo quindi che p = 2k e sostituendo abbiamo 4k 2 = 2q 2 e dividendo ambo i membri per 2: 2k 2 = q 2 . Di conseguenza anche q 2 , e quindi anche q, `e pari. Ora questo `e assurdo perch´e avevamo supposto che p e q fossero privi di fattori comuni. Poich´e l’ipotesi dell’esistenza di un tale numero razionale conduce ad un assurdo, tale numero non esiste. In generale, chiameremo campo ogni insieme in cui siano definite due operazioni che soddisfino le propriet` a di campo sopra ricordate. Si parla, ad esempio, del campo dei numeri reali, oppure del campo dei numeri razionali. Tuttavia l’insieme Z, dove pure sono definite due operazioni con molte delle propriet`a desiderate, non `e un campo in quanto una propriet` a, quella che richiede l’esistenza del reciproco, non `e verificata. Infatti, ad esempio l’intero 2 ha s`ı un reciproco, ma questo non `e intero.
CAPITOLO 1. INSIEMI E FUNZIONI
16
Tutti i numeri reali diversi da zero si possono dividere in due sottoinsiemi disgiunti: il sottoinsieme dei numeri positivi e il sottoinsieme dei numeri negativi. Se a `e positivo −a `e negativo e viceversa. Si definisce valore assoluto di un numero a come segue a se a `e positivo |a| = −a se a `e negativo Il valore assoluto di 0 `e 0. Confrontare due numeri `e a volte importante. Diciamo che a < b se b − a `e ` importante saper trattare le disuguaglianze e saper usare opportunamente positivo. E le seguenti propriet` a: I) Se a < b e b < c allora a < c; II) se a < b e c < d allora a + c < b + d; III) se a < b e p `e positivo allora pa < pb; IV) se a e b sono positivi e a < b, allora 1/a > 1/b. Esercizi. 1. Dimostrare che se a < b allora −a > −b. Soluzione. Per definizione, a < b significa che b − a `e positivo. Ma allora −a − (−b) = b − a `e positivo. Ci` o significa, per definizione, che −b < −a. 2. Dimostrare che il quadrato di un qualunque numero non pu`o essere negativo. Soluzione. Se 0 < b, per la III) con a = 0, p = b, si ha b0 = 0 < b2 . Se b < 0, allora 0 < −b. Usando la III) con p = −b: 0 < (−b) =⇒ 0 < (−b)(−b) = b2 . 3. Dimostrare che per ogni coppia di numeri a e b si ha 0 ≤ a2 − 2ab + b2 . Soluzione. Segue dall’esercizio precedente poich´e a2 − 2ab + b2 = (a − b)2 ≥ 0. 4. Dimostrare che per ogni coppia di numeri a e b si ha 2ab ≤ a2 + b2 Soluzione. Segue dall’esercizio precedente e dalla propriet`a II) in quanto 0 ≤ a2 − 2ab + b2 =⇒ 2ab ≤ 2ab + a2 − 2ab + b2 = a2 + b2 . La seguente disuguaglianza triangolare `e particolarmente importante: |x + y| ≤ |x| + |y| Questa si pu` o dimostrare come segue: |x + y|2 = (x + y)(x + y) = x2 + 2xy + y 2 = |x|2 + 2xy + |y|2 ≤ |x|2 + 2|x||y| + |y|2 = (|x| + |b|)2 da cui la conclusione prendendo le radici quadrate.
(1.3)
1.8. I NUMERI REALI
17
Esempio 1.8.1. Dimostrare che |a + c| ≥ ||a| − |c||. Soluzione. Dalla disuguaglianza triangolare, si ha | − c| = |a + (−a − c)| ≤ |a| + | − a − c| |c| ≤ |a| + |c + a| |c| − |a| ≤ |c + a|
(1.4)
Scambiando i ruoli di a e c, otteniamo anche |a| − |c| ≤ |c + a|. Dunque |a + c| `e maggiore sia di una differenza che dell’opposto di questa differenza. Ne segue che |a + c| ≥ ||a| − |c|| come richiesto. Esempio 1.8.2. Dimostrare che, se a ≥ −1, allora vale la seguente disuguaglianza di Bernoulli (1 + a)n ≥ 1 + na, n = 1, 2, 3, . . . Soluzione. Procediamo per induzione. La relazione `e vera per n = 1: 1+a ≥ 1+a. Supposta vera per un certo k ≥ 1 dimostriamola per il successivo. (1 + a)k+1 = (1 + a)k (1 + a) ≥ (1 + ka)(1 + a) = = 1 + a + ka + ka2 = 1 + (k + 1)a + ka2 ≥ 1 + (k + 1)a
(1.5)
Un insieme X di numeri reali si dice limitato superiormente, se esiste M ∈ R con la propriet`a che x ≤ M, ∀x ∈ X. L’elemento M si dice un maggiorante di X. Si dice invece limitato inferiormente, se esiste m ∈ R con la propriet` a che x ≥ m, ∀x ∈ X. L’elemento m si dice un minorante di X. L’insieme X si dice limitato se `e limitato sia inferiormente che superiormente. Il massimo dei minoranti si dice estremo inferiore di X: inf X, e il minimo dei maggioranti si dice estremo superiore di X: supX. L’insieme dei numeri reali `e caratterizzato dall’essere un campo rispetto alle operazioni di somma e prodotto e di essere inoltre totalmente ordinato e completo, nel senso che ogni sottoinsieme non vuoto di numeri reali limitato superiormente ammette un estremo superiore. Questa propriet` a sar` a approfondita nei corsi di Analisi. n , n ∈ N} `e un insieme limitato, con inf X = 0, Esempi 1.8.3. L’insieme X = { n+1 2
3n , n ∈ N} non `e limitato. supX = 1. L’insieme { 4n+1
L’insieme Q possiede molte delle stesse propriet` a algebriche di R: essi, infatti, sono entrambi dei campi. Tuttavia Q non `e completo nel senso che esistono dei sottoinsiemi non vuoti di esso, per esempio, l’insieme {x ∈ Q|x2 < 2} che, pur essendo limitati superiormente, non ammettono estremo superiore in Q. Infine, accenniamo solo al fatto che esistono anche campi con un numero finito di elementi, i cosiddetti campi di Galois.
CAPITOLO 1. INSIEMI E FUNZIONI
18
1.9
Numeri complessi
Abbiamo visto sopra come l’introduzione dei numeri irrazionali possa essere motivata o dalla necessit` a di risolvere l’equazione x2 − 2 = 0 che non ha soluzioni razionali. Ci` `e analogo, per esempio, all’introduzione dei numeri negativi per risolvere equazioni come x + 1 = 0, oppure razionali per risolvere 3x − 4 = 0. Allo stesso modo, i numeri complessi possono essere introdotti per la necessit`a di fornire soluzioni all’equazione x2 + 1 = 0. Storicamente, la necessit`a di introdurre numeri di questo tipo non si present` o nello studio di equazioni di secondo grado, bens`ı in quello di alcune equazioni di terzo grado. Nel Rinascimento G. Cardano (1501-1576) in Ars Magna consider` o o la formula risolutiva dimostrata poco prima l’equazione x3 = 15x+4 alla quale applic` da Tartaglia (Niccol`o Fontana (1500-1557)). L’applicazione di tale formula conduce al calcolo di una soluzione mediante l’espressione √ √ 3 3 x = (2 + −121) + (2 − −121) che contiene delle radici quadrate di numeri negativi, che al tempo non si sapeva bene come interpretare. Tuttavia non si pu` o negare che l’equazione in questione sia risolta da 4: 43 = 15(4) + 4. Volenti o nolenti gli studiosi dell’epoca furono costretti ad introdurre i numeri immaginari e i numeri complessi, che furono per lungo tempo guardati con sospetto. Oggi tali numeri sono indispensabili nella Matematica, nella Fisica e nell’Ingegneria, ma il loro nome rimane a testimoniare quella iniziale diffidenza. Definiamo l’insieme dei numeri complessi come tutte le espressioni della forma a + ib dove a e b sono numeri reali e dove i `e l’unit` a immaginaria cio`e un numero tale che i2 = −1. In altre parole, i `e una soluzione dell’equazione x2 + 1 = 0. Due numeri complessi z = a + ib e z = a + ib si dicono uguali se a = a e b = b . Le operazioni di somma e prodotto si eseguono come se queste espressioni fossero polinomi ricordando per`o la regola i2 = −1. Si ha quindi (a + ib) + (a + ib ) = (a + a ) + i(b + b ) Inoltre
(a + ib)(a + ib ) = (aa − bb ) + i(ab + ba )
Il numero reale a si dice parte reale del numero complesso z, in simboli Re(z) = a mentre b si dice parte immaginaria, in simboli b = Im(z). Attenzione che la parte immaginaria di un numero complesso `e reale! Si pu` o dimostrare che, con queste due operazioni, l’insieme C `e un campo. Ci`o in particolare significa che ogni numero non nullo ha un inverso. Calcoliamo, per esempio, l’inverso di 2 + 3i. L’inverso dovr`a avere, per definizione, la forma a + ib. Procediamo come segue 2 − 3i 2 − 3i 3 2 1 = = 2 −i . = 2 + 3i (2 − 3i)(2 + 3i) 2 + 32 13 13 1 In altre parole Re( 2+3i )=
(2 + 3i)(
2 13
1 3 e Im( 2+3i ) = − 13 . Eseguiamo la verifica.
9 3 4 6 6 4 9 2 −i )= − i + i − i2 = + = 1. 13 13 13 13 13 13 13 13
1.10. FORMA TRIGONOMETRICA DEI NUMERI COMPLESSI
19
Abbiamo moltiplicato il numeratore e il denominatore per il coniugato del numero al denominatore, secondo la seguente definizione: Definizione 1.9.1. Il coniugato del numero z = a + ib `e il numero z¯ = a − ib. Inoltre Definizione 1.9.2. Il modulo del numero complesso z = a + ib `e il numero reale √ |z| = a2 + b2 . Si possono rappresentare i numeri complessi su un piano cartesiano in modo che il numero z = a+ib sia rappresentato dalla coppia (a, b). In tal modo |z| `e precisamente la distanza di z dall’origine. In tale rappresentazione l’asse delle ascisse si dice asse reale perch´e i punti di quest’asse, avendo coordinate (a, 0), sono identificati con i numeri reali (numeri complessi di parte immaginaria nulla). L’asse delle ordinate viene detto invece asse immaginario e i suoi punti, avendo coordinate (0, b), si dicono puramente immaginari. Ad esempio, l’unit` a immaginaria i corrisponde al punto (0, 1). Riportiamo un elenco di importanti propriet`a dei coniugati e dei moduli: 1. z1 + z2 = z¯1 + z¯2 2. z1 z2 = z¯1 z¯2 3.
z1 z¯1 = z2 z¯2
4. (¯ z) = z 5. z `e reale se e solo se z¯ = z 6. z z¯ = |z|2 7.
z¯ 1 = 2 z |z|
8. |z1 z2 | = |z1 ||z2 | 9. |
z1 |z1 | |= z2 |z2 |
10. |z1 + z2 | ≤ |z1 | + |z2 |
1.10
Forma trigonometrica dei numeri complessi
Nel numero precedente abbiamo rappresentato un numero complesso z mediante le sue coordinate ortogonali (a, b). Il punto P di coordinate (a, b) pu` o essere individuato anche con la sua distanza ρ dall’origine e, se il numero `e non nullo, con l’angolo percorso in senso antiorario dal semiasse positivo delle x alla semiretta OP , definito a meno di multipli di 2π. Tale angolo θ si dice argomento di z. L’unico valore di quest’angolo che soddisfa −π < θ ≤ π si dice argomento principale di z. Dalla trigonometria segue facilmente che a = ρ cos θ b = ρ sin θ
(1.6)
CAPITOLO 1. INSIEMI E FUNZIONI
20
Di conseguenza il numero z pu`o essere espresso come z = ρ(cos θ + i sin θ). Esempio √ 1.10.1. Calcolare la forma trigonometrica del numero z = −2 + 2i. Si ha: √ 2 2 e si pu`o verificare, vedi figura, che l’argomento principale ρ = |z| = 22 + 22 = √ 3π 3π di z `e 3π 4 da cui z = 2 2(cos( 4 ) + i sin( 4 )).
Ovviamente, se si calcolano esplicitamente i valori del seno e del coseno in questa espressione si torna alla forma −2 + 2i. Esempio 1.10.2. Verificare che la forma trigonometrica di −i `e cos(− π2 ) + i sin(− π2 ). Infatti, il modulo di −i `e 1 e l’argomento principale `e − π2 . Risulta molto utile introdurre la seguente notazione esponenziale eiθ = cos θ + i sin θ dove e `e la famosa costante e = 2, 71828.... Questa definizione si rivela molto utile soprattutto nel calcolo dei prodotti e potenze di numeri complessi. Ad esempio, si possono riscrivere i numeri precedenti come segue √ 3πi πi −2 + 2i = 2 2e 4 e − i = e− 2 . Questi esponenziali soddisfano la legge degli esponenti come ci si aspetta, cio`e eiθ eiφ = (cos θ + i sin θ)(cos φ + i sin φ) = (cos θ cos φ − sin θ sin φ) + i(cos θ sin φ + sin θ cos φ) = cos(θ + φ) + i sin(θ + φ)
(1.7)
= ei(θ+φ) . Per moltiplicare due numeri complessi in forma polare, basta allora moltiplicare i moduli e sommare gli argomenti. Cio`e se z1 = ρ1 eiθ1 e z2 = ρ2 eiθ2 , si ha: z1 z2 = ρ1 ρ2 eθ1 +θ2 Esempio 1.10.3. Supponiamo di voler calcolare (−2 + 2i)2 . Da un lato possiamo calcolare + 2i)2 = 4 + (2i)2 − 8i = 4 − 4 − 8i = −8i. Oppure possiamo calcolare √ 3πi (−2 3πi 2 (2 2e 4 ) = 8e 2 , che `e la stessa cosa. Nell’esempio precedente l’uso della forma polare non `e molto pi` u semplice del calcolo algebrico con il quadrato del binomio. Se per`o avessimo voluto calcolare u con(−2+2i)100 , allora il secondo modo di procedere sarebbe risultato nettamente pi` veniente. In alcuni casi il vantaggio `e ancora pi` u evidente. Come vediamo nell’esempio che segue.
1.10. FORMA TRIGONOMETRICA DEI NUMERI COMPLESSI
21
Esempio 1.10.4. Calcolare tutte le soluzioni dell’equazione z 3 = 1. Per ovvi motivi queste soluzioni si dicono radici cubiche dell’unit` a. Procediamo come segue. Scriviamo 1 = 1ei·0 in forma polare e cerchiamo di determinare un numero z = ρeiθ soggetto a quindi essere ρ3 e3θ i = 1ei·0 . Se i due membri sono alla condizione z 3 = 1. Dovr` uguali, tali risultano i loro moduli, mentre gli argomenti differiscono per un multiplo intero di 2π. Abbiamo quindi ρ3 = 1 3θ = 0 + 2kπ, k ∈ Z Siccome il modulo ρ `e un numero reale positivo, deve necessariamente aversi ρ = 1. Dalla seconda equazione ricaviamo invece θ = 2kπ 3 . Al variare di k tra gli interi non si ottengono infinite soluzioni, come sembrerebbe a prima vista, ma se ne ottengono solo tre, per i valori k = 0, 1, 2, perch´e gli altri valori di k non danno niente di nuovo. Abbiamo quindi le tre soluzioni, tre radici cubiche dell’unit` a, e cio`e: 1e0i = 1 1e
2πi 3
1e
4πi 3
√ 3 1 =− +i 2 2 √ 3 1 =− −i 2 2
(1.8)
Il caso precedente si pu` o generalizzare nel seguente risultato (di cui omettiamo la dimostrazione), dovuto a De Moivre: Proposizione 1.10.5. Assegnati un numero complesso z = ρ(cos θ + i sin θ) ed un numero intero positivo n, esistono esattamente n radici n-esime di z, che sono date da: 1 θ + 2kπ θ + 2kπ zk = ρ n cos + i sin (k = 0, · · · , n − 1). n n Abbiamo accennato sopra come l’introduzione di nuovi numeri, a partire dai naturali, fino ai complessi, si possa giustificare con la necessit` a e il desiderio di trovare la soluzione di alcune equazioni algebriche. Si potrebbe pensare che questo processo duri all’infinito, con sempre nuove equazioni algebriche da risolvere, ma cos`ı non `e. Il cosiddetto Teorema Fondamentale dell’Algebra, la cui dimostrazione fu data da C. Gauss (1777-1855) nella sua tesi di laurea, garantisce che ci` o non succede. Precisamente abbiamo: Teorema 1.10.6 (Teorema Fondamentale dell’Algebra). Ogni polinomio di grado maggiore o uguale a 1 con coefficienti complessi ammette una radice complessa. La dimostrazione `e omessa. Osservazione 1.10.7. Come conseguenza del Teorema Fondamentale dell’Algebra, ogni polinomio f (x) = an xn + · · · a1 x + a0 , con coefficienti complessi a0 , . . . , an ∈ C, di grado n ≥ 1, possiede n radici α1 , α2 , . . . , αn , non necessariamente tutte distinte, e si fattorizza nel prodotto di n fattori lineari: f (x) = an (x − α1 ) · · · (x − αn ).
CAPITOLO 1. INSIEMI E FUNZIONI
22 Esercizi. 1. Calcolare le radici quarte di 1 + i.
2. Determinare tutte le radici dell’equazione x2 − ix + (1 + 3i) = 0. 3. Calcolare le radici di x2 − 2x cos t + 1 = 0 con t un arbitrario valore fissato. 4. Determinare un polinomio a coefficienti reali di grado 4 che abbia come radici 2 − i e 3 − 2i. 5. Disegnare nel piano complesso le soluzioni dell’equazione |z| = 1. 6. Disegnare nel piano complesso le soluzioni dell’equazione z = i¯ z. 7. Usare la forma polare dei complessi per verificare che cos 2α = cos2 α − sin2 α e sin 2α = 2 sin α cos α. 8. Dimostrare che, per ogni valore intero n, il numero (1 + i)n + (1 − i)n `e reale. 9. Dimostrare che la somma di tutte le n radici n-esime dell’unit`a `e zero per n = 2, 3, 4, . . .. Soluzioni. 1. Per prima cosa scriviamo la forma polare di z = 1 + i. Il modulo `e ρ = suo argomento `e π4 (v. figura).
√
2 e il
Per la formula di De Moivre (cfr. 1.10.5), le radici quarte desiderate, z1 ,z2 ,z3 ,z4 , √ √ 4 π hanno quindi modulo 2 = 8 2 e argomento 16 + k π2 con k = 0, 1, 2, 3.
1.10. FORMA TRIGONOMETRICA DEI NUMERI COMPLESSI
23
2. Usiamo la formula risolutiva che ci d`a √ i ± (−i)2 − 4(1 + 3i) i ± −5 − 12i = 2 2 Determiniamo un numero complesso z = a + ib il cui quadrato sia −5 − 12i, senza utilizzare la formula di De Moivre. Abbiamo z 2 = a2 − b2 + 2iab dove a, b sono reali. Confrontando abbiamo dunque il sistema
a2 − b2 = −5 2ab = −12
Ricaviamo b dalla seconda equazione e la sostituiamo nella prima ottenendo a2 −
36 = −5 a2
che, con semplici passaggi, `e equivalente a a4 + 5a2 − 36 = 0. Questa `e una equazione quadratica in a2 e si fattorizza in (a2 − 4)(a2 + 9) = 0. Essendo a un numero reale, le uniche soluzioni sono a = 2, a = −2 e quindi, rispettivamente, b = −3, b = 3. Abbiamo pertanto determinato z = ±(2 − 3i). Le soluzioni cercate sono quindi x1 =
1 (i + 2 − 3i), 2
x2 =
1 (i − 2 + 3i) 2
ossia x1 = 1 − i, x2 = −1 + 2i. 3. Usiamo la formula ridotta per la soluzione delle equazioni di secondo grado e otteniamo subito x = cos t ± cos2 t − 1 = cos t ± i 1 − cos2 t = cos t ± i sin t 4. Un polinomio a coefficienti reali che abbia una radice complessa z deve avere come radice anche la coniugata z¯. Sappiamo inoltre che un polinomio con n radici xi , i = 1, . . . , n, si fattorizza nel prodotto di (x − xi ), i = 1, . . . n. Per risolvere il nostro problema baster`a dunque considerare il polinomio prodotto (x − (2 − i))(x − (2 + i))(x − (3 − 2i))(x − (3 + 2i)) = (x2 − 4x + 5)(x2 − 6x + 13) cio`e x4 − 10x3 + 42x2 − 82x + 65. 5. I numeri complessi di modulo 1 sono i numeri rappresentati da punti che distano 1 dall’origine. Il disegno desiderato quindi `e quello della circonferenza di centro l’origine e di raggio 1 (v. Figura).
CAPITOLO 1. INSIEMI E FUNZIONI
24
6. Dobbiamo trovare tutti i numeri complessi z = a + ib con la propriet` a che a + ib = i(a − ib), ovvero a + ib = ia + b da cui confrontando: a = b. Il disegno dell’insieme in questione `e quindi quello della bisettrice del primo e terzo quadrante (v. Figura).
7. Basta considerare il numero complesso eiα il cui quadrato `e ei2α . In altre parole abbiamo la relazione cos 2α + i sin 2α = (cos α + i sin α)2 . Sviluppando il quadrato abbiamo cos2 α − sin2 α + 2i sin α cos α e confrontando con il primo membro si ottengono le relazioni desiderate. 8. Si potrebbe pensare di usare un procedimento per induzione, ma in questo caso la cosa non `e agevole. Molto meglio pensare di verificare che il numero in questione `e reale sfruttando la propriet` a che un numero complesso z `e reale se e solo se z = z¯. Calcoliamo dunque il coniugato di (1 + i)n + (1 − i)n : (1 + i)n + (1 − i)n = (1 + i)n + (1 − i)n n
n
= (1 + i) + (1 − i) = (1 − i)n + (1 + i)n .
1.10. FORMA TRIGONOMETRICA DEI NUMERI COMPLESSI
25
Quindi il numero `e reale. 9. Le radici n-esime dell’unit`a sono tutte e sole le radici del polinomio xn − 1. Dividendo per il binomio x − 1, dato che 1 `e senz’altro radice, si ottiene la relazione xn − 1 = (x − 1)(xn−1 + xn−2 + · · · + x + 1) Da questa fattorizzazione segue che le radici n-esime dell’unit`a, diverse da 1, 2π annullano il secondo fattore. Posto x1 = cos 2π n + i sin n , dalla formula di De Moivre (cfr. 1.10.5) deriva facilmente che, al variare di k intero, xk1 varia tra tutte le radici n-esime di 1. Una radice con questa propriet` a si dice radice primitiva. Sostituendo allora x1 in (xn−1 + xn−2 + · · · + x + 1) abbiamo la conclusione desiderata.
Capitolo 2
SPAZI VETTORIALI Rn 2.1
Prime definizioni
In questa sezione introduciamo alcune nozioni, come quella di spazio vettoriale, che ci servono subito per poter esprimere in maniera precisa ed efficiente alcuni risultati. Queste nozioni, molto importanti di per s´e, saranno poi riprese, approfondite ed ampliate nel capitolo 8. Assegnato un numero naturale n ≥ 1, consideriamo la n-ma potenza cartesiana Rn del campo R dei numeri reali (cfr. §1.2). Gli elementi di Rn sono le n-ple ordinate di numeri reali (x1 , x2 , ..., xn ). In particolare si ha R1 = R. Le n-ple in Rn verranno anche dette vettori e indicate brevemente con lettere in neretto, come v, w, etc. Assegnato un vettore v = (x1 , x2 , ..., xn ), il numero xi (i = 1, ..., n) viene detto componente i-esima di v. La n-pla nulla (0, 0, ..., 0) `e detta vettore nullo e denotata con il simbolo 0. Assegnato un vettore v = (x1 , x2 , ..., xn ), il vettore (−x1 , −x2 , ..., −xn ) `e chiamato vettore opposto di v e indicato con −v. In Rn consideriamo un’operazione, che chiameremo somma e che indicheremo con il simbolo +, definita al modo seguente: (x1 , x2 , ..., xn ) + (y1 , y2 , ..., yn ) = (x1 + y1 , x2 + y2 , ..., xn + yn ) dove i segni + nella n-pla a secondo membro denotano la somma in R. Nel caso di n = 1, l’operazione sopra definita coincide con l’usuale somma in R. Esempi 2.1.1.
La somma delle coppie (2, −3) e (4, 5) in R2 `e data da
(2, −3) + (4, 5) = (6, 2) √ mentre la somma delle terne (0, 1, −2) e ( 5, 3/4, 7) in R3 risulta: √ √ (0, 1, −2) + ( 5, 3/4, 7) = ( 5, 7/4, 5). Non `e difficile verificare che l’operazione di somma cos`ı definita soddisfa le seguenti propriet` a, ∀u, v, w ∈ Rn :
CAPITOLO 2. SPAZI VETTORIALI RN
28 1) (u + v) + w = u + (v + w)
(propriet` a associativa)
2) u + v = v + u
(propriet` a commutativa)
3) v + 0 = v
(propriet` a del vettore nullo)
4) v + (−v) = 0
(propriet` a del vettore opposto)
In questo contesto, i numeri reali vengono anche detti scalari. Introduciamo anche una seconda operazione binaria, tra R e Rn a valori in Rn . Definizione 2.1.2. Assegnato uno scalare k ed una n-pla (x1 , x2 , ..., xn ) in Rn si chiama prodotto di k per (x1 , x2 , ..., xn ) la n-pla, indicata con k(x1 , x2 , ..., xn ), definita al modo seguente: k(x1 , x2 , ..., xn ) = (kx1 , kx2 , ..., kxn ). Nel caso di n = 1, si ottiene l’usuale prodotto tra numeri reali. Esempi 2.1.3.
Il prodotto dello scalare 3 per la coppia (−2, 4) di R2 `e dato da: 3(−2, 4) = (−6, 12).
Il prodotto dello scalare −5 per la quaterna ( 23 , 1, −2, 45 ) di R4 `e: 4 15 3 −5( , 1, −2, ) = (− , −5, 10, −4). 2 5 2 Il prodotto sopra definito soddisfa le seguenti propriet`a, ∀h, k ∈ R, ∀v, w ∈ Rn : 1 ) h(kv) = (h · k)v
(propriet` a associativa)
2 ) h(v + w) = hv + hw
(propriet` a distributiva rispetto alla somma di vettori)
3 ) (h + k)v = hv + kv
(propriet` a distributiva rispetto alla somma di scalari)
4 ) 1v = v Diretta conseguenza delle otto propriet` a elencate sopra `e la seguente Proposizione 2.1.4. Il prodotto di uno scalare h per un vettore v `e il vettore nullo se e solo se uno almeno tra h e v `e nullo. Definizione 2.1.5. L’insieme Rn insieme alle operazioni sopra definite si dice costituire uno spazio vettoriale. Nel capitolo 8 vedremo altri esempi di spazi vettoriali e studieremo tale struttura in modo pi` u approfondito.
2.2. DIPENDENZA LINEARE
2.2
29
Dipendenza lineare
Definizione 2.2.1. Assegnati in Rn m vettori v1 , v2 , ..., vm ed m scalari k1 , k2 , ..., km , si chiama combinazione lineare dei vettori v1 , v2 , ..., vm , di coefficienti k1 , k2 , ..., km , il vettore k1 v 1 + k2 v 2 + · · · + k m v m . Esempio 2.2.2. Assegnati in R2 i vettori v1 = (2, −1), v2 = (−3, 5), v3 = (0, 4) e gli scalari 2, 3, 1, la combinazione lineare di tali vettori con i suddetti scalari `e il vettore (−5, 17). Infatti: 2v1 + 3v2 + 1v3 = 2(2, −1) + 3(−3, 5) + 1(0, 4) = (4 − 9 + 0, −2 + 15 + 4) = (−5, 17). Definizione 2.2.3. Dato un sottoinsieme di Rn costituito da m vettori v1 ,v2 ,..., vm , il sottoinsieme si dice linearmente dipendente ovvero costituito da vettori linearmente dipendenti , se esistono m scalari k1 , k2 , ..., km non tutti nulli tali che si abbia k1 v1 + k2 v2 + · · · + km vm = 0. Esempi 2.2.4. I vettori v1 = (3, 2), v2 = (1, 4), v3 = (4, −4) in R2 sono linearmente dipendenti. Infatti, presi gli scalari 2, −2 e −1, si ha: 2v1 + (−2)v2 + (−1)v3 = 2(3, 2)+(−2)(1, 4)+(−1)(4, −4) = (6, 4)+(−2, −8)+(−4, 4) = (6 − 2 − 4, 4 − 8 + 4) = (0, 0) = 0. Presi in Rn un vettore v ed il suo opposto −v, essi sono linearmente dipendenti. Infatti la loro combinazione lineare con ambedue i coefficienti 1, d` a il vettore nullo: 1v1 + 1(−v1 ) = v1 + (−v1 ) = 0. L’insieme costituito dal solo vettore nullo 0 in Rn `e linearmente dipendente, dato che risulta 10 = 0. In tal modo infatti si ottiene una combinazione lineare di 0 con coefficiente diverso da zero che d`a il vettore nullo. Ovvia conseguenza della Proposizione 2.1.4 `e che l’unico vettore linearmente dipendente in Rn `e il vettore nullo 0. Proposizione 2.2.5. Assegnati m vettori v1 , v2 , ..., vm in Rn , condizione necessaria e sufficiente affinch´e essi siano linearmente dipendenti `e che esista tra loro almeno un vettore che risulti combinazione lineare degli altri. Dimostrazione. Condizione necessaria: k1 , k2 , ..., km tali che si abbia:
Per ipotesi esistono m scalari non tutti nulli
k1 v1 + k2 v2 + · · · + km vm = 0. Poich´e almeno uno tra gli scalari k1 , k2 , ..., km `e diverso da zero, possiamo supporre, senza perdere di generalit`a, che sia k1 = 0. Moltiplicando per k1 −1 ambo i membri dell’uguaglianza sopra scritta, si ha: v1 +
k2 km v2 + · · · + vm = 0 k1 k1
CAPITOLO 2. SPAZI VETTORIALI RN
30 e quindi v1 = −
k2 km v2 − · · · − vm , k1 k1
ottenendo cos`ı il vettore v1 come combinazione lineare degli altri vettori assegnati. Condizione sufficiente: Per ipotesi, un vettore tra gli m assegnati `e combinazione lineare degli altri. Anche in questo caso non si perde di generalit` a se si suppone che il vettore in questione sia v1 . Esistono perci`o degli scalari h2 , ..., hm tali che v 1 = h2 v 2 + · · · + hm v m , cio`e v1 − h2 v2 − · · · − hm vm = 0. Osservando che la combinazione lineare a primo membro risulta a coefficienti non tutti nulli, dato che il coefficiente del vettore v1 vale 1, si ottiene la tesi. Proposizione 2.2.6. Se m vettori v1 , v2 , ..., vm assegnati in Rn sono linearmente dipendenti, allora preso un qualunque altro vettore v in Rn , i vettori v1 , v2 , ..., vm , v sono linearmente dipendenti. Dimostrazione. Per ipotesi esistono m scalari non tutti nulli k1 , k2 , ..., km , tali che risulti: k1 v1 + k2 v2 + · · · + km vm = 0. Naturalmente, il primo membro rimane invariato se ad esso si aggiunge 0v, cio`e il vettore nullo 0: k1 v1 + k2 v2 + · · · + km vm + 0v = 0. Abbiamo cos`ı ottenuto una combinazione lineare dei vettori v1 , v2 , ..., vm , v, con coefficienti non tutti nulli, che risulta uguale al vettore nullo, perci` o tali vettori sono linearmente dipendenti. Osservazione 2.2.7. Dato che il vettore nullo `e linearmente dipendente, dalla proposizione precedente segue che qualunque insieme di vettori che contenga il vettore nullo `e costituito da vettori linearmente dipendenti. Definizione 2.2.8. Un insieme di Rn costituito da m vettori v1 , v2 , ..., vm , che non siano linearmente dipendenti, si dice libero ovvero costituito da vettori linearmente indipendenti. In altre parole v1 , v2 , ..., vm sono linearmente indipendenti se l’unica loro combinazione lineare che risulti uguale al vettore nullo `e quella a coefficienti tutti nulli. In simboli: k1 v 1 + k2 v 2 + · · · + km v m = 0
=⇒
k1 = k2 = · · · = km = 0.
Proposizione 2.2.9. Siano v1 , v2 , ..., vm vettori in Rn linearmente dipendenti, tali che i vettori v2 , ..., vm siano invece linearmente indipendenti. Il vettore v1 `e allora combinazione lineare degli altri.
2.3. SOTTOSPAZI. BASI
31
Dimostrazione. Per ipotesi esistono m scalari non tutti nulli k1 , k2 , ..., km tali che: k1 v1 + k2 v2 + · · · + km vm = 0.
(2.1)
Lo scalare k1 `e sicuramente diverso da zero, dato che, in caso contrario, avremmo k2 v2 + · · · + km vm = 0, con scalari non tutti nulli, contro l’ipotesi di indipendenza lineare di v2 , ..., vm . Essendo k1 = 0, si possono moltiplicare ambo i membri della (2.1) per k1−1 e procedere poi come nella prima parte della Proposizione 2.2.5, pervenendo cos`ı alla tesi.
2.3
Sottospazi. Basi
Definizione 2.3.1. Un sottoinsieme non vuoto W di vettori in Rn si dice un sottospazio di Rn se, per ogni coppia di vettori w1 , w2 in W e per ogni coppia di scalari h1 , h2 , si ha: h1 w1 + h2 w2 ∈ W. Si dice allora che il sottoinsieme W `e chiuso rispetto alle operazioni date. In particolare sono sottospazi lo stesso Rn e l’insieme costituito dal solo vettore nullo 0 di Rn . Tali sottospazi vengono detti banali. Qualunque sottoinsieme G di vettori di un sottospazio W di Rn , tale che ogni vettore di W possa essere espresso (non necessariamente in modo unico) come combinazione lineare dei vettori di G, `e detto un insieme di generatori di W . Definizione 2.3.2. Si dice base di un sottospazio W un insieme libero di generatori di W . Vale inoltre la seguente proposizione: Proposizione 2.3.3. Assegnato un insieme G di generatori di un sottospazio W di Rn , `e possibile determinare un sottoinsieme B di G che costituisce una base per W . Nel Capitolo 8 studieremo questi concetti pi` u approfonditamente. Dimostreremo, tra l’altro, che un sottospazio W pu`o avere diverse basi ma che esse hanno sempre lo stesso numero di vettori (cfr. Proposizione 10.4.8). Tale numero viene detto dimensio` evidente che il sottospazio nullo, in quanto privo di vettori indipendenti, ne di W . E ha una base vuota ed ha quindi dimensione 0. Non `e difficile verificare che, assegnato un qualunque insieme G di vettori in Rn , l’insieme delle combinazioni lineari dei vettori di G `e un sottospazio (eventualmente banale) di Rn , che, ammettendo G come insieme di generatori, viene detto sottospazio generato da G e indicato con G. In alcuni testi in questo caso viene usata una terminologia inglese chiamando G = span(G). Esempi 2.3.4. 1) Consideriamo in R3 l’insieme S delle terne del tipo (0, x2 , x3 ). Esso `e un sottospazio: infatti comunque si prendano due vettori (0, x2 , x3 ), (0, x2 , x3 ) in S e due scalari h, h , si ha: h(0, x2 , x3 ) + h (0, x2 , x3 ) = (0, hx2 + h x2 , hx3 + h x3 )
CAPITOLO 2. SPAZI VETTORIALI RN
32
che `e ancora un vettore in S. Detto G = {(0, 1, 0), (0, 0, 1)}, risulta S = G. Poich´e i vettori di G sono indipendenti, G `e una base di S, la cui dimensione `e quindi 2. 2) Sia S il sottoinsieme di R2 definito al modo seguente: S = {(x1 , x2 ) : x1 = x2 ∈ R}. Dimostriamo che esso `e un sottospazio. Comunque si prendano due vettori (a, a), (b, b) in S e due scalari h, h , risulta: h(a, a) + h (b, b) = (ha + h b, ha + h b) che `e ancora un vettore con x1 = x2 , cio`e un vettore di S. Il sottospazio S `e generato, per esempio, da G = {(1, 1)}. Poich´e l’unico vettore di G `e indipendente, G `e una base di S, il quale ha pertanto dimensione 1. Si pu`o facilmente verificare, per esercizio, che anche l’insieme F = {(3, 3)} `e una base di S, mentre l’insieme H = {(1, 1), (3, 3)} `e un insieme di generatori, ma non `e una base, in quanto questo insieme non `e libero. Proposizione 2.3.5. Assegnata una base B in un sottospazio W non nullo di Rn , ogni vettore di W si pu` o esprimere in modo unico come combinazione lineare dei vettori di B. Dimostrazione. Sia B = {v1 , ..., vm }. Essendo B un insieme di generatori, ogni vettore v risulta combinazione lineare dei vettori v1 , ..., vm . Dimostriamo ora che non si pu` o esprimere v mediante due combinazioni lineari diverse dei vettori v1 , v2 , ..., vm . Supponiamo infatti di avere v = h1 v 1 + · · · + h m v m e contemporaneamente
v = h1 v1 + · · · + hm vm .
Sottraendo membro a membro si ottiene (h1 − h1 )v1 + · · · + (hm − hm )vm = 0. Essendo per` o v1 , ..., vm vettori linearmente indipendenti, gli scalari della loro combinazione lineare precedente devono essere tutti nulli, ovvero: h1 − h1 = 0, ..., hm − hm = 0, cio`e
h1 = h1 , ..., hm = hm .
Abbiamo cos`ı dimostrato che esiste un unico modo di esprimere v come combinazione lineare dei vettori v1 , ..., vm .
2.3. SOTTOSPAZI. BASI
33
` possibile trovare in Rn insiemi costituiti da esattamente n vettori linearmente E indipendenti. Un esempio `e fornito dalle n-ple e1 = (1, 0, ..., 0), e2 = (0, 1, ..., 0), ..., en = (0, 0, ..., 1). Dimostriamo che sono linearmente indipendenti. Supponiamo che esistano n scalari k1 , k2 , ..., kn tali che k1 (1, 0, ..., 0) + k2 (0, 1, ..., 0) + · · · + kn (0, 0, ..., 1) = (0, 0, ..., 0). Questo equivale a (k1 , k2 , ..., kn ) = (0, 0, ..., 0) ` e quindi a k1 = 0, k2 = 0, ..., kn = 0, condizione che implica la lineare indipendenza. E n facile anche verificare che e1 , . . . , en sono generatori di R e che quindi costituiscono una base. Ne discende: Proposizione 2.3.6. La dimensione di Rn vale n. La dimensione di un sottospazio o superare n. di Rn non pu` Per la dimostrazione rimandiamo al Capitolo 10. Osservazione 2.3.7. Un qualunque insieme di n vettori linearmente indipendenti di Rn ne costituisce una base. Definizione 2.3.8. Gli n scalari k1 , k2 , ..., kn che permettono di esprimere univocamente un vettore v come combinazione lineare dei vettori v1 , v2 , ..., vn di una base assegnata in Rn , vengono detti coordinate di v rispetto alla base scelta. Ogni volta che verranno utilizzate le coordinate di un vettore rispetto ad una base, converremo di fissare un ordinamento dei vettori della stessa. In tal modo, assegnata a senso considerare, per ogni vettore v di Rn , la la base ordinata B = (v1 , ..., vn ), avr` n-pla ordinata (k1 , ..., kn ) delle sue coordinate. Osservazione 2.3.9. Non `e difficile verificare che le coordinate del vettore somma di due vettori sono la somma delle coordinate dei due vettori e che le coordinate del prodotto di uno scalare h per un vettore v sono ottenute moltiplicando per h le coordinate di v. Osservazione 2.3.10. Dato che risulta vi = 0v1 + · · · + 1vi + · · · + 0vn si deduce che le coordinate dei vettori di una base, rispetto alla base stessa, sono tutte nulle eccetto una che vale 1. Definizione 2.3.11. La base di Rn costituita dai vettori e1 = (1, 0, ..., 0), e2 = (0, 1, ..., 0), ..., en = (0, 0, ..., 1), viene detta canonica o naturale o standard. In Rn esistono infinite basi. Un altro esempio di base in Rn `e dato dagli n vettori (1, 1, 1, ..., 1, 1, 1), (0, 1, 1, ..., 1, 1, 1), (0, 0, 1, ..., 1, 1, 1), ..., (0, 0, 0, ..., 0, 1, 1), (0, 0, 0, ..., 0, 0, 1).
CAPITOLO 2. SPAZI VETTORIALI RN
34
Osservazione 2.3.12. Si osservi che ogni vettore v = (x1 , x2 , ..., xn ) ha per coordinate, valutate rispetto alla base canonica, le componenti x1 , x2 , ..., xn . Infatti: (x1 , x2 , ..., xn ) = x1 e1 + x2 e2 + · · · + xn en . Tale propriet`a giustifica l’aggettivo “canonica”.
2.4
Prodotto scalare
Definiamo infine in Rn un’operazione tra vettori che produce uno scalare. Definizione 2.4.1. Assegnati due vettori v = (x1 , x2 , ..., xn ) e w = (x1 , x2 , ..., xn ), chiamiamo prodotto scalare di v per w e indichiamo con il simbolo v · w lo scalare definito al modo seguente: v · w = x1 x1 + x2 x2 + · · · + xn xn . Per esempio, assegnati in R2 i vettori v = (2, −3) e w = (4, 5), si ha v · w = 2 · 4 + (−3) · 5 = −7. Si osservi che il prodotto scalare tra due vettori della base canonica di Rn vale 0 se i vettori sono distinti, mentre vale 1 se i vettori sono coincidenti. Il prodotto scalare gode delle seguenti propriet`a: 1) v · w = w · v,
∀v, w ∈ Rn (commutativit`a )
2) (av) · w = v · (aw) = a(v · w), ∀a ∈ R,
a rispetto agli ∀v, w ∈ Rn (associativit` scalari)
3) (v + w) · u = (v · u) + (w · u),
a) ∀v, w, u ∈ Rn (distributivit`
Due vettori v, w in Rn che abbiano prodotto scalare nullo sono detti ortogonali. √ Diremo norma o modulo o lunghezza del vettore v lo scalare v = v · v = x21 + . . . + x2n . Chiameremo versore o anche vettore unitario un vettore di norma 1.
Capitolo 3
MATRICI 3.1
Prime definizioni
Definizione 3.1.1. Se m, n sono due numeri interi positivi, una matrice reale di ordine m × n (o semplicemente matrice m × n) `e una tabella di m · n numeri reali disposti su m righe ed n colonne. I numeri che compongono la matrice si dicono componenti della matrice. A volte si dicono anche elementi o coefficienti della matrice. Nel seguito indicheremo le matrici con le lettere maiuscole A, B, C, ecc. Esempi 3.1.2. 1) Una coppia ordinata (a, b) di numeri costituisce una matrice 1 × 2. 2) Quattro numeri a, b, c, d, disposti al modo seguente a b , c d costituiscono una matrice 2 × 2. Osservazione 3.1.3. Una matrice m × n viene assegnata quando sono dati i suoi m · n numeri componenti e per ciascuno di essi `e assegnato il posto, cio`e la riga e la colonna in cui `e collocato. Si usa pertanto scrivere una generica matrice m × n nel modo seguente: ⎞ ⎛ a11 a12 . . . a1n ⎜ a21 a22 . . . a2n ⎟ ⎟ ⎜ ⎜ .. .. .. ⎟ .. ⎝ . . . . ⎠ am1
am2
...
amn
dove gli indici con cui `e contrassegnato ciascun elemento si riferiscono al posto occupato: il primo indice precisa la riga, il secondo la colonna. In forma abbreviata una u brevemente tale matrice verr` a anche indicata con il simbolo (aij )i=1,...,m o ancora pi` j=1,...,n
con (aij ), quando siano sottintesi i numeri di righe e di colonne della matrice.
CAPITOLO 3. MATRICI
36
Esempio 3.1.4.
Consideriamo la matrice 2 × 3: √ 4 −1 2 3 0
123 −47
.
In questo caso `e: √ 4 , a13 = 2, a21 = 0, a22 = 123, a23 = −47. 3 Definizione 3.1.5. Due matrici sono uguali se hanno lo stesso ordine e se gli elementi corrispondenti sono uguali. a11 = −1, a12 =
Definizione 3.1.6. Assegnata una matrice A di ordine m × n, si chiama matrice trasposta di A e si indica con AT la matrice n × m il cui elemento di riga i e di colonna j coincide con quello di riga j e di colonna i della matrice A. In altre parole, AT si ottiene da A scambiando le righe con le colonne: se ⎛ ⎞ a11 a12 . . . a1n ⎜ a21 a22 . . . a2n ⎟ ⎜ ⎟ A=⎜ . .. .. ⎟, .. ⎝ .. . . . ⎠ am1 am2 . . . amn allora ⎛
a11 ⎜ a12 ⎜ AT = ⎜ . ⎝ ..
a21 a22 .. .
... ... .. .
⎞ am1 am2 ⎟ ⎟ .. ⎟. . ⎠
a1n
a2n
...
amn
La trasposizione `e una operazione unaria nell’insieme delle matrici. Essa soddisfa le seguenti propriet` a di facile verifica. Proposizione 3.1.7. Sia A `e una matrice di ordine m × n. Allora 1. AT ha ordine n × m; 2. (AT )T = A; 3. (cA)T = cAT per qualunque scalare c; 4. Se B `e una seconda matrice dello stesso ordine di A, (A + B)T = AT + B T La trasposta della matrice dell’Esempio 3.1.4 `e la matrice 3 × 2: ⎞ ⎛ −1 0 ⎟ ⎜ 4 ⎜ 123 ⎟ ⎠. ⎝ 3 √ 2 −47
3.1. PRIME DEFINIZIONI
37
Definizione 3.1.8. La matrice A di ordine m × n, i cui elementi sono tutti eguali a 0, viene detta matrice nulla m × n. La denoteremo con 0m×n o semplicemente 0 se non ci siano possibilit` a di equivoci. Esiste un matrice nulla per ciascun ordine. Per esempio la matrice nulla 2 × 3 `e: 0 0 0 . 02×3 = 0 0 0 Definizione 3.1.9. Assegnata una matrice A di ordine m × n, si chiama matrice opposta di A e si indica con −A la matrice m × n il cui elemento di riga i e di colonna j eguaglia l’opposto del corrispondente elemento di A. Pi` u esplicitamente, se a11 ⎜ a21 ⎜ A=⎜ . ⎝ ..
a12 a22 .. .
... ... .. .
⎞ a1n a2n ⎟ ⎟ .. ⎟, . ⎠
am1
am2
...
amn
⎛
allora
⎛
−a11 ⎜ −a21 ⎜ −A = ⎜ . ⎝ ..
−a12 −a22 .. .
... ... .. .
⎞ −a1n −a2n ⎟ ⎟ .. ⎟. . ⎠
−am1
−am2
...
−amn
L’opposta della matrice dell’Esempio 3.1.4 `e la matrice 2 × 3:
1 − 43 0 −123
√ − 2 . 47
Definizioni 3.1.10. Una matrice si dice quadrata se ha ugual numero n di righe e di colonne; in tal caso l’ordine n × n viene abbreviato semplicemente in n. Gli elementi a11 , a22 , ..., ann di una matrice quadrata si dicono costituire la diagonale principale, gli elementi a1n , a2,n−1 , ..., an1 la diagonale secondaria. La somma degli elementi della diagonale principale viene detta traccia della matrice e indicata con TrA. Una matrice quadrata A = (aij ) si dice simmetrica se coincide con la sua trasposta AT : A = AT , ossia se aij = aji per ogni elemento della matrice. Una matrice quadrata A = (aij ) si dice triangolare superiore1 se aij = 0 per i > j, cio`e se `e della forma ⎞ ⎛ a11 a12 a13 . . . a1n ⎜ 0 a22 a23 . . . a2n ⎟ ⎟ ⎜ ⎜ 0 0 a33 . . . a3n ⎟ ⎟, ⎜ ⎜ .. .. .. .. ⎟ .. ⎝ . . . . . ⎠ 0 0 0 . . . ann 1 Il
fatto che una matrice sia allo stesso tempo quadrata e triangolare non `e una contraddizione!
CAPITOLO 3. MATRICI
38
si dice triangolare inferiore se aij = 0 per i < j, cio`e se `e della forma ⎛ ⎞ a11 0 0 ... 0 ⎜ a21 a22 0 ... 0 ⎟ ⎜ ⎟ ⎜ a31 a32 a33 . . . 0 ⎟ ⎜ ⎟, ⎜ .. .. .. .. ⎟ . . ⎝ . . . . . ⎠ an1 an2 an3 . . . ann mentre si dice diagonale se aij = 0 per i = j, ⎛ a11 0 0 ⎜ 0 a22 0 ⎜ ⎜ 0 0 a33 ⎜ ⎜ .. .. .. ⎝ . . . 0 0 0
cio`e se `e della forma ⎞ ... 0 ... 0 ⎟ ⎟ ... 0 ⎟ ⎟. .. ⎟ .. . . ⎠ . . . ann
Questa matrice viene a volte denotata anche con diag(a11 , a22 , . . . , ann ). La matrice diagonale In di ordine n, con gli elementi sulla diagonale principale tutti eguali a 1: ⎞ ⎛ 1 0 ... 0 ⎜0 1 . . . 0 ⎟ ⎟ ⎜ (3.1) In = ⎜ . . . . . ... ⎟ ⎠ ⎝ .. .. 0 0 ... 1 viene detta matrice identica o matrice identit` a di ordine n. Quando dal contesto appaia chiaro quale sia l’ordine n che stiamo considerando, la matrice identica verr`a semplicemente indicata con I.
3.2
Struttura di spazio vettoriale per matrici dello stesso ordine
Fissati due interi positivi m, n, indichiamo con M (m × n, R) l’insieme delle matrici m × n ad elementi in R. In tale insieme possiamo introdurre un’operazione binaria interna detta somma al modo seguente. Assegnate due matrici m × n, A = (aij ) e B = (bij ), si definisce somma di A e B e si indica con A + B la matrice in cui l’elemento appartenente alla riga i-esima e alla colonna j-esima `e ottenuto sommando gli elementi di ugual posto delle due matrici A e B: A + B = (aij + bij ). ` anche possibile introdurre un prodotto tra scalari e matrici di M (m × n, R) al E modo seguente. Assegnato uno scalare α ed una matrice A = (aij ) di ordine m × n, si definisce prodotto di α per A e si indica con αA la matrice il cui elemento appartenente alla riga i-esima e alla colonna j-esima si ottiene moltiplicando per α il corrispondente elemento di A: αA = (αaij ).
3.2. STRUTTURA DI SPAZIO VETTORIALE PER MATRICI
39
Risulta evidente che queste operazioni sono analoghe alle operazioni definite sulle n-ple di numeri reali. Ne sono, anzi, una generalizzazione dal momento che una n-pla di numeri altro non `e che una matrice con una riga sola e con n colonne: le n-ple sono matrici di ordine 1 × n. Non si avr` a quindi difficolt` a a verificare che le operazioni appena introdotte soddisfano propriet` a analoghe alle otto propriet` a elencate nella Sezione 2.1. Questo si esprime in maniera compatta dicendo che l’insieme M (m×n, R) ha una struttura di spazio vettoriale. Ci possiamo quindi domandare quale sia la dimensione di esso. Consideriamo a questo scopo, per i = 1, . . . , m, j = 1, . . . , n, le matrici Eij di ordine m × n che hanno 1 al posto i, j e 0 altrove. Queste sono m · n matrici ed `e facile verificare che esse sono un insieme libero e che generano tutto lo spazio M (m × n, R). Esse, quindi, costituiscono una base dello spazio che ha quindi dimensione m · n. Esempio 3.2.1. Verificare che la somma di due matrici simmetriche `e ancora una matrice simmetrica. Soluzione. Siano A e B due matrici dello stesso ordine ed entrambe simmetriche. Allora AT = A e B T = B. Consideriamo allora A + B e calcoliamo (A + B)T . Applicando la Proposizione 3.1.7, abbiamo (A + B)T = AT + B T = A + B da cui la conclusione. Esempio 3.2.2. Sia U il sottoinsieme di M (3 × 3, R) costituito da tutte le matrici simmetriche. Verifichiamo che U `e un sottospazio vettoriale di M (3 × 3, R) di dimensione 6. Soluzione. Dalla definizione di sottospazio (v. Def. 2.3.1) segue che dobbiamo verificare due condizioni. Per prima cosa, prendiamo A, B ∈ U e verifichiamo che la loro somma appartiene ancora ad U , ovvero che la somma di due matrici simmetriche `e ancora una matrice simmetrica. Questo `e stato dimostrato nell’esercizio precedente. Come seconda cosa, dobbiamo verificare che se a ∈ R, A ∈ U allora aA ∈ U . Ci` o `e in quanto (aA)T = a(AT ) = aA. Dunque U `e un sottospazio. Per determinare la sua dimensione, occorre trovare una base di esso. Non `e difficile controllare che le seguenti sei matrici di ordine 3 E11 , E22 , E33 , E12 + E21 , E13 + E31 , E23 + E32 costituiscono una base di U, che ha quindi dimensione 6. Esempio 3.2.3. Determinare la dimensione del sottospazio di tutte le matrici simmetriche di ordine n qualunque fissato. Soluzione. Generalizzando dall’esercizio precedente si pu`o verificare che le matrici Eii , i = 1, . . . , n, insieme con le matrici Eij + Eji , i < j, costituiscono una base dello spazio delle matrici simmetriche, da cui discende che la dimensione `e n(n+1) . Quando 2 = 6, come visto sopra. n = 3, questa formula ci d` a 3·4 2 Esempio 3.2.4. Diciamo che una matrice `e antisimmetrica se AT = −A. Verificare che il sottoinsieme V delle matrici antisimmetriche di ordine 3 `e un sottospazio vettoriale e determinarne una base e la dimensione.
CAPITOLO 3. MATRICI
40
Soluzione. Siano A, B due matrici antisimmetriche. Poich´e (A+B)T = AT +B T = −A − B = −(A + B) segue che la somma `e ancora antisimmetrica. Infine, se α ∈ R, la matrice αA `e ancora antisimmetrica: (αA)T = αAT = α(−A) = −αA. Esempio 3.2.5. Determinare la dimensione del sottospazio di tutte le matrici antisimmetriche di un ordine n qualunque fissato. Soluzione. Ragionando in maniera analoga a sopra, si vede che una matrice antisimmetrica deve avere zeri sulla diagonale principale e le matrici Eij − Eji , i < j, formano una base. Esse sono in totale (n−1)n , numero che eguaglia quindi la dimensione 2 cercata. Per esempio, se n = 3, questo numero `e 2·3 2 = 3.
3.3
Equazioni Lineari
Lo studio dei sistemi di equazioni lineari `e noto, nelle sue forme pi` u elementari, sin dalla scuola. I metodi di soluzione pi` u comuni sono il metodo di sostituzione, il metodo di eliminazione (addizione e sottrazione) ed il metodo di Cramer. Questi metodi, soprattutto il primo, sono senza dubbio noti ad uno studente che ha completato la scuola secondaria. In questo capitolo e nei successivi riprendiamo la teoria dei sistemi lineari in una forma pi` u generale, al fine di studiare, e possibilmente risolvere, un sistema di un numero qualunque di equazioni lineari in un numero qualunque di incognite. Ricordiamo che un’equazione lineare in n incognite `e un’equazione del tipo a1 x1 + a2 x2 + · · · an xn = b
(3.2)
Le n incognite x1 , . . . , xn appaiono tutte al primo grado. Risolvere una tale equazione significa trovare una n-pla ordinata di numeri (s1 , s2 , . . . , sn ), ovvero un vettore di Rn , in modo tale che, sostituendo xi con si , si ottenga una identit`a. Esempio 3.3.1. L’equazione 5x1 − 8x2 = 2 `e un’equazione lineare in due variabili. La coppia ordinata (2, 1) `e una soluzione, come pure (10, 6) e infinite altre, mentre le coppie (1, 1), (1, 2) non sono soluzioni. Si faccia attenzione quindi che la soluzione (2, 1) `e una soluzione non “due” soluzioni! Un insieme finito di equazioni lineari si dice un sistema lineare: ⎧ ⎪ ⎪ ⎪ ⎨ ⎪ ⎪ ⎪ ⎩ La matrice
a11 x1 + a12 x2 + · · · a1n xn = b1 a21 x1 + a22 x2 + · · · a2n xn = b2 ··· am1 x1 + am2 x2 + · · · amn xn = bm ⎛
a11 ⎜ a21 A=⎜ ⎝ ... am1
a12 a22 ... am2
... ... ... ...
⎞ a1n a2n ⎟ ⎟ ... ⎠ amn
(3.3)
3.3. EQUAZIONI LINEARI
41
si dice matrice dei coefficienti del sistema o anche matrice del sistema. Invece la matrice ⎞ ⎛ a11 a12 . . . a1n b1 ⎜ a21 a22 . . . a2n b2 ⎟ ⎟ C=⎜ ⎝ ... . . . . . . . . . . . .⎠ am1 am2 . . . amn bm si dice matrice completa del sistema. Risolvere un sistema lineare significa trovare, se possibile, delle soluzioni comuni a tutte le equazioni del sistema. Esempio 3.3.2. Sia dato il sistema 2x − y = 1 3x + 2y = 12 che sappiamo risolvere con i metodi imparati a scuola. Troviamo l’unica soluzione (2, 3). In questo caso dunque, esiste solo questa coppia di numeri reali che soddisfa entrambe le equazioni. ` importante osservare, e nel seguito sfrutteremo questa osOsservazione 3.3.3. E servazione, che la soluzione appena ottenuta pu` o essere interpretata nella maniera seguente: 2 −1 1 2 +3 = 3 2 12 cio`e, la soluzione trovata ci d` a i coefficienti necessari per esprimere la colonna dei termini noti come combinazione lineare delle colonne dei coefficienti del sistema. In generale, una soluzione del sistema ci fornisce i coefficienti per esprimere la colonna dei temini noti come combinazione lineare delle colonne della matrice del sistema. Esempio 3.3.4. Il sistema
2x − y = 1 6x − 3y = 3
ammette infinite soluzioni. Esempio 3.3.5. Il sistema
2x − y = 1 6x − 3y = 12
non ammette alcuna soluzione. Un sistema che non ammette soluzioni `e detto incompatibile. Esempio 3.3.6. Un’azienda agricola possiede 200 ettari di terreno coltivabile che vuole coltivare a vigneti, uliveti e frutteti. Il costo per ettaro per piantare i tre tipi di coltura sono rispettivamente 400, 600 e 800 euro rispettivamente. L’azienda ha a disposizione 126000 euro da investire per questo scopo. Ogni ettaro di vigneto richiede 20 ore lavorative, un ettaro di uliveto ne richiede 25, e un ettaro di frutteto ne richiede 40. Se l’azienda pu` o usufruire al massimo di 5950 ore lavorative e vuole usare tutto il terreno disponibile per la coltivazione spendendo l’intera somma, quanti ettari deve piantare a vigneto, uliveto o frutteto rispettivamente?
CAPITOLO 3. MATRICI
42
Soluzione. Indicando con x, y, z il numero di ettari da dedicare a vigneto, uliveto, frutteto, rispettivamente, l’utilizzo di tutta la terra coltivabile si traduce nell’equazione x + y + z = 200. Inoltre, il costo totale per piantare i tre tipi di coltivazione `e 400x + 600y + 800z, che, eguagliato alla somma a disposizione, d` a 400x + 600y + 800z = 126000. Infine, l’uso di tutta la manodopera disponibile implica 20x + 25y + 40z = 5950. Risolvere il problema equivale a determinare le soluzioni del sistema ⎧ ⎪ ⎨x + y + z = 200 400x + 600y + 800z = 126000 ⎪ ⎩ 20x + 25y + 40z = 5950 ` immediato verificare che (50, 70, 80) `e una soluzione. In effetti, `e l’unica soluzione. E In risposta al problema abbiamo quindi che 50 ettari vanno coltivati a vigneto, 70 a uliveto e 80 a frutteto. Osservazione 3.3.7. L’esempio precedente ci mostra come l’utilizzo di equazioni in parecchie variabili, e quindi, in termini astratti, in “parecchie dimensioni”, sia del tutto naturale e opportuno. La matrice del sistema `e
e la matrice completa
⎛
⎞ 1 1 1 A = ⎝400 600 800⎠ 20 25 40 ⎛
⎞ 1 1 1 200 C = ⎝400 600 800 126000⎠ 20 25 40 5950 Questo sistema si pu` o risolvere in maniera elementare mediante i metodi della scuola. Tuttavia, ad esempio, il metodo di sostituzione `e di difficile generalizzazione ad una situazione di parecchie equazioni e parecchie variabili. Pi` u semplice appare u avanti discuteremo il metodo di Cramer. Ora il metodo di eliminazione. Solo pi` vogliamo illustrare il metodo di eliminazione di Gauss e quello di Gauss-Jordan. Definizione 3.3.8. Diremo che due sistemi lineari sono equivalenti se essi hanno le stesse soluzioni. In un procedimento di risoluzione di un sistema lineare, ad ogni passaggio si sostituisce un sistema con uno equivalente, cercando ad ogni passo di semplificare il problema. Esistono tre tipi di operazioni che trasformano un sistema di equazioni in uno equivalente: Definizione 3.3.9. Operazioni elementari sulle equazioni di un sistema lineare 1. Tipo I: Scambiare due equazioni; 2. Tipo II: Moltiplicare una equazione per uno scalare non nullo; 3. Tipo III: Sostituire ad una equazione la stessa equazione pi` u un multiplo di un’altra equazione.
3.3. EQUAZIONI LINEARI
43
Non `e difficile convincersi che ciascuna di queste operazioni non cambia l’insieme delle soluzioni di un sistema dato. Pertanto l’uso ripetuto di queste operazioni trasforma un sistema in un altro equivalente. Per semplicit`a di calcolo, invece di operare sull’intero sistema, di solito si lavora sulla sua matrice completa. A tal fine, ciascuna delle operazioni elementari sulle equazioni ha una corrispondente operazione sulle righe di una matrice: Definizione 3.3.10. Operazioni elementari sulle righe di una matrice 1. Tipo I: Scambiare due righe; 2. Tipo II: Moltiplicare una riga per uno scalare non nullo; 3. Tipo III: Sostituire ad una riga la stessa riga pi` u un multiplo di un’altra riga. Osserviamo che ciascuna delle operazioni elementari su una matrice A `e invertibile nel senso che a ciascuna delle operazioni dei tipi elencati, corrisponde una operazione che “ripristina” la matrice di partenza A: se abbiamo scambiato due righe di A, le possiamo riscambiare e riottenere A. Se abbiamo moltiplicato una riga per k = 0, possiamo moltiplicare la nuova riga per k1 = 0 per tornare ad A. Se abbiamo sostituito una riga di A con la stessa riga pi` u un multiplo di un altra riga, possiamo di nuovo sostituire quella riga con se stessa meno lo stesso multiplo dell’altra riga. Il metodo di Gauss richiede l’uso ripetuto di queste operazioni per ottenere un sistema di equazioni semplice da risolvere. Diamo un esempio che ci aiuti ad illustrare il significato dell’aggettivo “semplice” in questo contesto. Il sistema seguente ⎧ ⎪ 2x1 + 3x2 + 6x3 − x4 − x5 = 100 ⎪ ⎪ ⎪ ⎪ ⎪ x2 − x3 + 8x4 + x5 = 200 ⎨ 4x3 + 6x4 − x5 = 300 ⎪ ⎪ ⎪ x4 + x5 = 1000 ⎪ ⎪ ⎪ ⎩ x5 = 100 `e certamente semplice da risolvere, pur essendo un sistema di 5 equazioni in 5 incognite. Per la risoluzione, conviene cominciare dall’ultima equazione che ci d`a x5 , sostituire questo valore nella penultima, ottenendo x4 . Poi sostituire i valori di x4 e x5 appena trovati nella terza, per determinare x3 e cos`ı via risalendo fino a determinare tutte le variabili. In questo caso si trova l’unica soluzione (16825, −8350, −1250, 900, 100). Questo `e un esempio di sistema triangolare, la cui matrice dei coefficienti `e cio`e triangolare superiore e il metodo di risoluzione si dice di sostituzione a ritroso: dal basso verso l’alto. Ora questo `e solo un esempio particolarmente semplice di sistema, ma pu` o essere generalizzato. A tal fine diamo la definizione di matrice a gradini o a scala. Assegnata una matrice A di ordine m × n, con k righe nulle (0 ≤ k ≤ m). A viene detta matrice a gradini se: 1. le k righe nulle sono le ultime k righe di A; 2. il primo elemento non nullo (detto pivot o cardine) di ogni riga non nulla deve avere indice di colonna maggiore di quelli dei primi elementi non nulli delle righe
CAPITOLO 3. MATRICI
44
precedenti (in altre parole il pivot di una riga si trova pi` u a destra dei pivot delle righe precedenti). Si noti che per k = 0 (cio`e se non ci sono colonne nulle) la condizione 1) diventa vuota, cos`ı come avviene per la 2) quando k = m (caso di A matrice nulla). Se poniamo m−k = r, una matrice a gradini si presenta quindi nel modo seguente: ⎛ ⎞ 0 ... 0 p1 ∗ ... ∗ ∗ ∗ ... ∗ ∗ ∗ ... ∗ ... ∗ ∗ ... ∗ ⎜0 ... 0 0 0 ... 0 p2 ∗ ... ∗ ∗ ∗ ... ∗ ... ∗ ∗ ... ∗⎟ ⎜ ⎟ ⎜0 ... 0 0 0 ... 0 0 0 ... 0 p3 ∗ ... ∗ ... ∗ ∗ ... ∗⎟ ⎟ ⎜ ⎜ .. . . .. .. .. . . .. .. .. . . .. .. .. . . .. . . .. .. . . .. ⎟ ⎟ ⎜. . . . . . . . . . . . . . . . . . . . ⎟ ⎜ ⎜0 ... 0 0 0 ... 0 0 0 ... 0 0 0 ... 0 ... pr ∗ ... ∗⎟ ⎟ ⎜ ⎜0 ... 0 0 0 ... 0 0 0 ... 0 0 0 ... 0 ... 0 0 ... 0⎟ ⎟ ⎜ ⎜. . . .. .. . . .. ⎟ .. .. . . .. .. .. . . .. . . .. .. . . .. ⎝ .. . . .. . . . . . . . . .⎠ . . . . . . . . 0 ... 0 0 0 ... 0 0 0 ... 0 0 0 ... 0 ... 0 0 ... 0 Esempio 3.3.11. Dire se le seguenti matrici sono in forma a gradini non lo sono dire quale condizione `e violata. ⎞ ⎛ ⎛ ⎞ ⎛ 1 0 0 0 1 0 0 4 1 2 0 A = ⎝0 1 0 0⎠ B = ⎝0 1 0 3⎠ C = ⎝0 0 1 0 0 1 3 0 0 0 0 0 0 0 ⎛ ⎞ ⎛ ⎞ ⎛ 0 1 2 −2 1 2 0 0 1 0 D = ⎝1 0 0 3 ⎠ E = ⎝0 0 1 3⎠ F = ⎝0 3 0 0 1 2 0 0 0 2 0 0 ⎛ ⎞ 0 0 0 0 G = ⎝1 0 0 3⎠ 0 1 0 2
oppure no. Se ⎞ 0 0⎠ 1 ⎞ 4 0⎠ 0
Soluzione. Le prime tre sono nella forma a gradini. D non `e a gradini perch´e il pivot della seconda riga `e a sinistra di quello della riga precedente. E, F sono a gradini. G non `e a gradini, perch´e una riga nulla non pu`o essere al di sopra di righe non nulle. Diremo inoltre che la forma `e a gradini ridotta se `e a gradini e se 1. ogni pivot `e 1; 2. ogni pivot `e l’unica componente non nulla della sua colonna. ⎛
0 ... 0 ⎜0 ... 0 ⎜ ⎜0 ... 0 ⎜ ⎜ .. . . .. ⎜. . . ⎜ ⎜0 ... 0 ⎜ ⎜0 ... 0 ⎜ ⎜. . . ⎝ .. . . .. 0 ... 0
1 0 ... 0 0 0 ... 0 0 0 ... 0 .. .. . . .. . . .. 0 0 ... 0 0 0 ... 0 .. .. . . .. . . ..
0 0 ... 0 1 0 ... 0 0 0 ... 0 .. .. . . .. . . .. 0 0 ... 0 0 0 ... 0 .. .. . . .. . . ..
0 0 ... 0 0 0 ... 0 1 0 ... 0 .. .. . . .. . . .. 0 0 ... 0 0 0 ... 0 .. .. . . .. . . ..
... ... .. .
0
0
0
...
0 ... 0
0 ... 0
0 ... 0
... ... ... .. .
⎞ 0 ∗ ... ∗ 0 ∗ ... ∗⎟ ⎟ 0 ∗ ... ∗⎟ ⎟ .. .. . . .. ⎟ . . . .⎟ ⎟ 1 ∗ ... ∗⎟ ⎟ 0 0 ... 0⎟ ⎟ .. .. . . .. ⎟ . . . .⎠ 0 0 ... 0
3.4. ALGORITMO DI GAUSS
45
Nell’esercizio precedente, tra quelle a gradini, solo le prime tre, A, B, C, sono a gradini ridotte.
3.4
Algoritmo di Gauss
Studiamo ora un algoritmo che ci permette di trasformare una qualunque matrice in una matrice a gradini o, volendo, a gradini ridotta. Definizione 3.4.1. Diremo che due matrici dello stesso ordine sono equivalenti per righe se una si ottiene dall’altra mediante un’operazione elementare. Osservazione 3.4.2. Questa `e effettivamente una relazione di equivalenza nell’insieme delle matrici dell’ordine fissato (verificare per esercizio). Teorema 3.4.3. Ogni matrice `e equivalente per righe ad una matrice a gradini o a gradini ridotta. La dimostrazione di questo teorema passa attraverso gli algoritmi seguenti detti algoritmo di Gauss e, rispettivamente, algoritmo di Gauss-Jordan 1. Se la matrice `e nulla essa `e gi` a a gradini. 2. Se non `e nulla, si prenda la prima colonna a partire da sinistra che contiene un termine a non nullo. Se a `e in cima alla colonna (sta sulla prima riga) passiamo oltre, altrimenti scambiamo la prima riga con quella che contiene a. 3. Moltiplichiamo la prima riga per riga.
1 a
in modo da avere 1 come pivot sulla prima
4. Trasformiamo in zero ogni elemento della colonna sotto al pivot trovato, sottraendo, ove necessario, ad ogni riga un opportuno multiplo della riga del pivot. Questi quattro passi, eventualmente ripetuti su sottomatrici via via pi` u piccole, trasformano la matrice data in una matrice a gradini. L’algoritmo di Gauss-Jordan `e un raffinamento di quello precedente, che utilizza un ulteriore passo: 5. Trasformiamo in zero ogni elemento della colonna sopra l’ultimo pivot, sottraendo, ove necessario, ad ogni riga un opportuno multiplo della riga del pivot. Questo ulteriore passo, eventualmente ripetuto su sottomatrici via via pi` u piccole, trasforma la matrice data in una matrice a gradini ridotta. Illustriamo tali algoritmi con qualche esempio. Ci sar` a utile usare le seguenti notazioni. 1. Scambio di riga i con riga j sar` a indicato con Ri ↔ Rj ; 2. Moltiplicare la riga i per lo scalare c: cRi ; 3. Sostituire la riga i con la riga i a cui `e sommato un multiplo a della riga j: Ri + aRj
CAPITOLO 3. MATRICI
46 Esempio 3.4.4. Usiamo l’algoritmo per trasformare 3 5 9 A= 2 3 5 nella sua forma a gradini. 3 5 9 13 R1 1 −−−→ 2 3 5 2
5 3
3
5 3 R2 −2R1 1 3 −−−−−→ 5 0 − 13
3 −1
questa `e la forma desiderata. Esempio 3.4.5. Trasformare ⎛ 3 −2 8 ⎝−2 2 1 1 2 −3
la matrice data nella forma a gradini ridotta. ⎛ ⎞ ⎞ 1 0 9 12 9 R1 +R2 3⎠ 3⎠ −−− −−→ ⎝−2 2 1 1 2 −3 8 8 ⎛ ⎞ 1 0 9 12 R2 +2R1 ,R3 −R1 27 ⎠ −−−−−−−−−−→ ⎝0 2 19 0 2 −12 −4 ⎛ ⎞ 1 0 9 12 R ↔R3 ⎝0 2 −12 −4⎠ −−2−−−→ 0 2 19 27 ⎛ ⎞ 1 0 9 12 1 2 R2 −− −→ ⎝0 1 −6 −2⎠ 0 2 19 27 ⎛ ⎞ 1 0 9 12 R −2R2 ⎝0 1 −6 −2⎠ −−3−−−→ 0 0 31 31 ⎛ ⎞ 1 0 9 12 1 R 3 −31 −−→ ⎝0 1 −6 −2⎠ 0 0 1 1 ⎛ ⎞ 1 0 0 3 R1 −9R3 ,R2 +6R3 −−−−−−−−−−−→ ⎝0 1 0 4⎠ 0 0 1 1
Muniti di questo algoritmo possiamo ora studiare qualunque sistema lineare. Esempio 3.4.6. Supponiamo di voler risolvere il sistema seguente ⎧ ⎪ ⎨3x − 2y + 8z = 9 −2x + 2y + z = 3 ⎪ ⎩ x + 2y − 3z = 8 La matrice completa di questo sistema `e la ⎛ 3 −2 ⎝−2 2 1 2
matrice ⎞ 8 9 1 3⎠ −3 8
3.4. ALGORITMO DI GAUSS
47
considerata nell’esempio precedente. Le operazioni elementari descritte in tale esempio trasformano il sistema assegnato nel seguente sistema equivalente: ⎧ ⎪ ⎨x = 3 y=4 ⎪ ⎩ z=1 del quale abbiamo direttamente la soluzione, cio`e la terna (3, 4, 1). Osservazione 3.4.7. L’esempio precedente mostra anche il vantaggio di ottenere una forma a gradini ridotta rispetto ad una forma a gradini non ridotta. Nel primo caso abbiamo, sovente, direttamente la soluzione, senza altri calcoli necessari. Se ci si limita alla forma a gradini non ridotta `e di solito necessario continuare il calcolo mediante la sostituzione a ritroso o metodi analoghi. Pu`o essere una considerazione di convenienza che ci fa scegliere l’uno o l’altro metodo. Avremo modo di tornare su questo punto in alcuni esempi. Esempio 3.4.8. Determinare tutte le soluzioni del sistema lineare ⎧ ⎪ ⎨x + 2y − 3z = −2 3x − y − 2z = 1 ⎪ ⎩ 2x + 3y − 5z = −3 Soluzione.
⎛
⎞ ⎛ ⎞ 1 2 −3 −2 1 2 −3 −2 R2 −3R3 ,R3 −2R1 ⎝3 −1 −2 1 ⎠ −−−−−−−−−−−→ ⎝0 −7 7 7⎠ 0 −1 1 1 2 3 −5 −3 ⎛ ⎞ 1 2 −3 −2 − 17 R2 −−− −→ ⎝0 1 −1 −1⎠ 0 −1 1 1 ⎛ ⎞ 1 0 −1 0 R1 −2R2 ,R3 +R2 −−−−−−−−−−→ ⎝0 1 −1 −1⎠ 0 0 0 0
Poich´e questa forma `e a gradini ridotta, l’algoritmo `e terminato. Trasformiamo di nuovo la matrice nel sistema: x−z =0 y − z = −1 Come si vede, stavolta il sistema non `e nella forma cos`ı immediata come nell’esempio precedente. Per completare l’esercizio, dobbiamo scegliere una variabile, in questo caso la z. Pi` u avanti daremo il criterio di scelta della variabile in simili situazioni. Pensiamo alla variabile z come ad un parametro e scriviamo z = t. Riscrivere la variabile con un simbolo diverso non `e logicamente necessario, tuttavia pu` o essere una buona norma pratica. In tal modo il sistema pu` o essere riscritto come ⎧ ⎪ ⎨x = t y =t−1 ⎪ ⎩ z=t
CAPITOLO 3. MATRICI
48
Risulta quindi che le soluzioni del sistema assegnato sono infinite e precisamente {(t, t − 1, t), t ∈ R}. Diremo in tale situazione che le soluzioni sono infinite e dipendenti da un parametro, o anche che il sistema ammette ∞1 soluzioni. Esempio 3.4.9. Risolvere il sistema ⎧ ⎪ ⎪x1 − 2x2 + 4x3 = 2 ⎪ ⎨2x + x − 2x = −1 1 2 3 ⎪3x1 − x2 + 2x3 = 1 ⎪ ⎪ ⎩ 2x1 + 6x2 − 12x3 = −6 Per prima cosa prendiamo la matrice completa ⎛ 1 −2 4 ⎜2 1 −2 ⎜ ⎝3 −1 2 2 6 −12
.
⎞ 2 −1⎟ ⎟. 1⎠ −6
L’algoritmo di Gauss ci permette di ottenere la seguente forma a gradini ridotta ⎞ ⎛ 1 0 0 0 ⎜0 1 −2 −1⎟ ⎟ ⎜ ⎝0 0 0 0⎠ 0 0 0 0 che corrisponde al sistema
x1 = 0 x2 − 2x3 = −1
Le variabili corrispondenti ai pivot le chiamiamo variabili dominanti, le altre sono parametri. In questo caso, x1 , x2 sono le variabili dominanti e x3 = t `e il parametro. Le soluzioni sono {(0, 2t − 1, t), t ∈ R}. Esempio 3.4.10. Risolvere il sistema ⎧ 4x1 + 2x2 + x3 + 7x4 = 4 ⎪ ⎪ ⎪ ⎨3x + 2x + 5x = 1 1 3 4 ⎪ 11x1 − 2x2 + 9x3 + 18x4 = 1 ⎪ ⎪ ⎩ 7x1 + 2x2 + 3x3 + 12x4 = 5 Consideriamo la matrice completa ⎛ 4 ⎜3 ⎜ ⎝11 7
2 0 −2 2
⎞ 1 7 4 2 5 1⎟ ⎟. 9 18 1⎠ 3 12 5
3.4. ALGORITMO DI GAUSS
49
L’algoritmo di Gauss ci permette di ottenere la seguente forma a gradini ridotta ⎛
1
⎜ ⎜0 ⎜ ⎝0 0
1
2 3 − 56
5 3 1 6
0 0
0 0
0 0
0
1⎞ 3 4⎟ 3⎟ ⎟
0⎠ 0
che corrisponde al sistema
x1 + 23 x3 + 53 x4 = x2 − 56 x3 + 16 x4 =
1 3 4 3
.
Le variabili sono x1 , x2 sono le variabili dominanti, i parametri sono x3 = t, x4 = s. Abbiamo quindi il sistema ⎧ x1 ⎪ ⎪ ⎪ ⎨x 2 ⎪ x 3 ⎪ ⎪ ⎩ x4
= − 23 x3 − 53 x4 + = 56 x3 − 16 x4 + 43 =t =s
1 3
le soluzioni del quale sono {(− 23 t − 53 s + 13 , 56 t − 16 s + 43 , t, s), t, s ∈ R}. Esse sono infinite e dipendenti da due parametri; si dice allora che esse sono ∞2 . Esempio 3.4.11.
⎧ ⎪ ⎨x + y + z = 1 3x − y − z = 4 ⎪ ⎩ x + 5y + 5x = −1
La matrice completa `e
⎛
1 ⎝3 1
1 −1 5
1 −1 5
⎞ 1 4 ⎠. −1
La sua forma a gradini `e
⎛
corrispondente al sistema
⎧ ⎪ ⎨x + y + z = 1 . y + z = − 14 ⎪ ⎩ 0=1
⎞ 1 1 1 1 ⎝0 1 1 − 1 ⎠ 4 0 0 0 1
L’ultima equazione `e assurda e quindi il sistema `e incompatibile. Osservazione 3.4.12. Come gi` a visto in precedenza (cf. Osservazione 3.3.3), dare una soluzione di un sistema lineare equivale ad esprimere la colonna dei termini noti
CAPITOLO 3. MATRICI
50
come combinazione lineare delle colonne della matrice dei coefficienti. Negli esempi 3.4.6, 3.4.8, 3.4.9, 3.4.10, abbiamo, rispettivamente: ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 8 9 3 −2 ⎝3⎠ = 3 ⎝−2⎠ + 4 ⎝ 2 ⎠ + 1 ⎝ 2 ⎠ , 8 2 −3 1 ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ −2 1 2 −3 ⎝ 1 ⎠ = t ⎝3⎠ + (t − 1) ⎝−1⎠ + t ⎝−2⎠ , −3 2 3 −5 ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 4 1 −2 2 ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜−1⎟ ⎜ ⎟ = 0 ⎜2⎟ + (2t − 1) ⎜ 1 ⎟ + t ⎜ −2 ⎟ , ⎝ 2 ⎠ ⎝3⎠ ⎝−1⎠ ⎝1⎠ −12 6 2 −6 ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 4 7 1 4 2 ⎜1⎟ ⎜5⎟ ⎜2⎟ ⎜3⎟ ⎜0⎟ 2 5 5 1 1 4 ⎜ ⎟ = (− t − s + ) ⎜ ⎟ + ( t − s + ) ⎜ ⎟ + t ⎜ ⎟ + s ⎜ ⎟ . ⎝1⎠ ⎝18⎠ ⎝9⎠ 3 3 3 ⎝11⎠ 6 6 3 ⎝−2⎠ 5 12 3 7 2 Introduciamo la seguente importante Definizione 3.4.13. Si dice rango per pivot o semplicemente rango di una matrice A il numero di pivot della sua forma a gradini. Scriveremo rg(A) per indicare questo numero. Questa definizione ha senso in quanto vale la seguente Proposizione 3.4.14. La forma a gradini ridotta di una matrice A `e univocamente determinata (non dipende dalle operazioni eseguite per ottenerla). Di essa, tuttavia, omettiamo la dimostrazione. Possiamo invece enunciare e dimostrare un importante teorema che riprenderemo in seguito e che ci fornisce le condizioni necessarie e sufficienti per la risoluzione di un sistema lineare. Teorema 3.4.15 (Rouch´ e-Capelli). Siano m, n due numeri interi positivi. Un sistema lineare di m equazioni ed n incognite, con matrice dei coefficienti A di ordine m × n e matrice completa C di ordine m × (n + 1), `e compatibile se e solo se rg(A) = rg(C). In tal caso, detto r questo valore comune dei due ranghi, il sistema ammette ∞n−r soluzioni. Se n = r, questo simbolo esprime il fatto che la soluzione `e unica. Dimostrazione. Dato un sistema lineare di matrice completa C, operiamo con l’algoritmo di Gauss per ottenere la forma a gradini di C. Sia r = rg(C). Ci` o significa che la matrice ha r pivot. Supponiamo che l’ultimo pivot trovato nel procedimento di Gauss si trovi sull’ultima colonna della matrice completa C. In tal caso, gli altri r − 1 pivot sono sulle prime n colonne e sono dunque pivot anche di A, da cui
3.5. SISTEMI OMOGENEI
51
rg(A) = r − 1, rg(C) = r. L’equazione che corrisponde alla riga dell’ultimo pivot `e necessariamente del tipo 0=1 palesemente assurda. Il sistema `e quindi incompatibile. Se invece l’ultimo pivot di C si trova in una delle prime n colonne, allora, per definizione, rg(A) = rg(C). I casi sono due: o n = r oppure n > r. Nella prima ipotesi, ci sono tanti pivot quante colonne di A, e possiamo quindi supporre m ≥ n, (ci sono pi` u equazioni che incognite, o tante equazioni quante incognite). Allora la forma a gradini di C `e del tipo ⎞ ⎛ 1 0 0 . . . . . . . . . b1 ⎜0 1 0 . . . . . . . . . b2 ⎟ ⎟ ⎜ ⎜0 0 1 0 . . . . . . b3 ⎟ ⎜ ⎟ ⎜ .. .. .. .. .. .. .. ⎟ ⎜. . ⎟ . . . . . ⎜ ⎟ ⎜ 0 0 . . . . . . . . . 1 bn ⎟ ⎜ ⎟ ⎜0 0 . . . . . . . . . 0 0⎟ ⎜ ⎟ ⎜. . .. .. .. .. .. ⎟ ⎝ .. .. . . . . .⎠ 0 0 ... ... ... 0 0 che corrisponde all’unica soluzione ⎧ x 1 = b1 ⎪ ⎪ ⎪ ⎪ ⎨ x 2 = b2 .. ⎪ ⎪ . ⎪ ⎪ ⎩ x n = bn Se invece r < n allora ci sono r variabili dominanti e le restanti n − r svolgono il ruolo di parametri, da cui il numero delle soluzioni `e ∞n−r .
3.5
Sistemi omogenei
Alcuni tipi di sistemi, quelli omogenei, hanno un’importanza particolare. Definizione 3.5.1. Un sistema lineare in cui tutti i termini noti sono nulli si dice un sistema omogeneo (SLO): ⎧ a11 x1 + a12 x2 + · · · a1n xn = 0 ⎪ ⎪ ⎪ ⎨ a21 x1 + a22 x2 + · · · a2n xn = 0 (3.4) ⎪ ··· ⎪ ⎪ ⎩ am1 x1 + am2 x2 + · · · amn xn = 0 Ovviamente un sistema omogeneo `e sempre compatibile perch´e il vettore nullo `e soluzione. Spesso dunque ci interesser` a indagare se esistono soluzioni non nulle, dette anche non banali, di un sistema omogeneo. Definizione 3.5.2. Una soluzione non banale di un sistema omogeneo si dice autosoluzione.
CAPITOLO 3. MATRICI
52
Teorema 3.5.3. L’insieme delle soluzioni di un sistema lineare omogeneo in n incognite, con matrice dei coefficienti di rango r, `e un sottospazio vettoriale di dimensione n − r di Rn . Dimostrazione. Assegnate x1 e x2 due soluzioni di (3.4), allora certamente x1 + x2 `e una soluzione dello stesso sistema: basta sostituire per verificare. Inoltre, se a ∈ R anche ax1 `e una soluzione. Detto r il rango della matrice del sistema, dal Teorema 3.4.15 segue che, se r = n, c’`e una sola soluzione, necessariamente quella nulla, che d` a luogo al sottospazio banale di dimensione 0. Se invece r < n, ci sono infinite soluzioni in dipendenza da n − r parametri. Si verifica facilmente che, assegnando ad uno degli n − r parametri t1 , t2 , . . . , tn−r valore 1 e valore zero ai rimanenti, e facendo ci` o in tutti i modi possibili, si ottengono n − r soluzioni che costituiscono una base del sottospazio delle soluzioni. Ne segue che la dimensione di tale sottospazio `e n − r. Esempio 3.5.4. Trovare una base dello spazio delle soluzioni del sistema lineare omogeneo in quattro variabili ⎧ ⎪ x1 + 3x2 + x3 − 3x4 = 0 ⎪ ⎪ ⎪ ⎪ ⎪ −2x 1 − 9x2 − x3 + 8x4 = 0 ⎨ x1 + 3x3 + 4x4 = 0 ⎪ ⎪ ⎪ 3x1 + 6x2 + 6x3 + 3x4 = 0 ⎪ ⎪ ⎪ ⎩−3x − 12x − 3x + 6x = 0 1 2 3 4 La matrice completa `e
⎛
1 −1 3 6 −3
⎞ −3 0 8 0⎟ ⎟ 4 0⎟ ⎟ 3 0⎠ 6 0
0 −11 0 1 1 5 0 0 0 0
⎞ 0 0⎟ ⎟ 0⎟ ⎟. 0⎠ 0
1 3 ⎜−2 −9 ⎜ ⎜1 0 ⎜ ⎝3 6 −3 −12 la cui forma a gradini ridotta `e ⎛
1 ⎜0 ⎜ ⎜0 ⎜ ⎝0 0
0 1 0 0 0
Dunque la matrice ha rango 3. Il sistema corrispondente `e ⎧ ⎪ ⎪ ⎪x1 − 11x4 = 0 ⎪ ⎪ ⎪ ⎨ x2 + x4 = 0 x3 + 5x4 = 0 ⎪ ⎪ ⎪0 = 0 ⎪ ⎪ ⎪ ⎩0 = 0
3.5. SISTEMI OMOGENEI
53
Le variabili dominanti sono x1 , x2 , x3 . Ci sono n − r = 4 − 3 = 1 parametri: x4 = t. Le soluzioni sono quindi ⎛ ⎞ 11t ⎜ −t ⎟ ⎜ ⎟ ⎝−5t⎠ . t Per ottenere una base, basta prendere t = 1. Una base `e pertanto ⎧ ⎛ ⎞⎫ 11 ⎪ ⎪ ⎪ ⎬ ⎨ ⎜ ⎟⎪ −1 ⎜ ⎟ . ⎝−5⎠⎪ ⎪ ⎪ ⎪ ⎭ ⎩ 1 La dimensione `e perci` o 1. Esempio 3.5.5. Trovare una base dello spazio delle soluzioni del sistema lineare omogeneo in quattro variabili ⎧ x1 + 2x2 + 3x3 + 4x4 = 0 ⎪ ⎪ ⎪ ⎨5x + 6x + 7x + 8x = 0 1 2 3 4 ⎪ + 10x + 11x + 12x 9x 1 2 3 4 =0 ⎪ ⎪ ⎩ 15x1 + 18x2 + 21x3 + 24x4 = 0 La matrice completa `e
⎛
⎞ 1 2 3 4 0 ⎜5 6 7 8 0⎟ ⎜ ⎟ ⎝ 9 10 11 12 0⎠ 15 18 21 24 0
la cui forma a gradini ridotta `e ⎛
1 ⎜0 ⎜ ⎝0 0
0 −1 −2 1 2 3 0 0 0 0 0 0
⎞ 0 0⎟ ⎟. 0⎠ 0
Dunque la matrice ha rango 2. Il sistema corrispondente `e ⎧ x1 − 1x3 − 2x4 = 0 ⎪ ⎪ ⎪ ⎨x + 2x + 3x = 0 2 3 4 ⎪ 0 = 0 ⎪ ⎪ ⎩ 0=0 Le variabili dominanti sono x1 , x2 . Ci sono n−r = 4−2 = 2 parametri: x3 = t, x4 = s. Le soluzioni sono dunque ⎛ ⎞ t + 2s ⎜−2t − 3s⎟ ⎜ ⎟. ⎝ ⎠ t s
CAPITOLO 3. MATRICI
54
Per ottenere una base basta prendere una volta t = 1 e s = 0 e l’altra volta t = 0 e s = 1. Una base `e pertanto ⎧⎛ ⎞ ⎛ ⎞⎫ 2 ⎪ 1 ⎪ ⎪ ⎬ ⎨⎜ ⎟ ⎜ ⎟⎪ −3 −2 ⎜ ⎟,⎜ ⎟ . ⎝ 1 ⎠ ⎝ 0 ⎠⎪ ⎪ ⎪ ⎪ ⎭ ⎩ 1 0 La dimensione del sottospazio `e quindi 2.
3.6
Moltiplicazione tra matrici
Introduciamo ora una nuova operazione: la moltiplicazione tra matrici. Cominciamo introducendo, per un dato n intero positivo, il prodotto tra un vettore riga R, cio`e una matrice di ordine 1 × n, ed un vettore colonna C, cio` ⎛e una ⎞ matrice c1 ⎜ c2 ⎟ ⎜ ⎟ di ordine n × 1, alla maniera seguente. Se R = r1 r2 . . . rn e C = ⎜ . ⎟, allora ⎝ .. ⎠ cn R · C = r1 c 1 + r 2 c 2 + · · · + r n c n . Si confronti con la definizione di prodotto scalare 2.4.1. Si osservi che ci sono tanti coefficienti nella riga R quanti nella colonna C: n `e lo stesso intero in ambo i casi. Il risultato del prodotto di una matrice di ordine 1 × n per una di ordine n × 1 `e uno scalare, che si pu` o interpretare come una matrice di ordine 1 × 1. In generale, se A `e una matrice di ordine m × p e B `e una matrice di ordine p × n si definisce A · B la matrice di ordine m × n che ha come coefficiente di posto (i, j) il prodotto scalare in Rp della i-esima riga di A per la j-esima colonna di B. Per far ci`o si noti che abbiamo preso una matrice A che possiede tante colonne quante sono le righe di B (il numero che abbiamo indicato con p). Pi` u precisamente, assegnate una matrice A = (aij ) ad m righe e p colonne ed una matrice B = (bhk ) a p righe ed n colonne, si definisce prodotto (righe per colonne) di A per B e si indica con A · B o anche con AB la matrice C = (cik ) ad m righe ed n colonne definita al modo seguente: cik = ai1 b1k + ai2 b2k + · · · + aip bpk
(i = 1, ..., m; k = 1, ..., n)
ovvero, usando un simbolismo pi` u compatto: cik =
p
aih bhk
(i = 1, ..., m; k = 1, ..., n).
h=1
Osservazione 3.6.1. Si sottolinea che l’ipotesi dell’uguaglianza del numero p delle colonne di A con il numero delle righe di B (in tal caso parleremo di compatibilit` a degli ordini) `e essenziale per la correttezza della definizione. Da questo deriva che, assegnate due matrici A e B per le quali sia possibile eseguire il prodotto AB, non `e detto che si possa eseguire il prodotto BA. Naturalmente, se le matrici A e B sono quadrate dello stesso ordine n, `e possibile eseguire i prodotti AB e BA, ma le due matrici che si ottengono sono (salvo casi particolari) differenti.
3.6. MOLTIPLICAZIONE TRA MATRICI
55
Diamo qualche esempio. Esempi 3.6.2. Consideriamo il seguente prodotto di una matrice di ordine 1 × 3 per una di ordine 3 × 1, con risultato una matrice 1 × 1: ⎛ ⎞ 1 1 2 3 · ⎝−1⎠ = 1 · 1 + 2 · (−1) + 3 · 1 = 1 − 2 + 3 = 2. 1 Se scambiamo l’ordine dei fattori in questa moltiplicazione, abbiamo una matrice di ordine 3 × 1 moltiplicata per una matrice di ordine 1 × 3. Gli ordini sono di nuovo compatibili ma la matrice risultante ha ordine 3 × 3: ⎛ ⎞ ⎛ ⎞ 1 1 2 3 ⎝−1⎠ · 1 2 3 = ⎝−1 −2 −3⎠ . 1 2 3 1 Questo ci mostra che, anche nei casi in cui si possono moltiplicare due matrici nei due ordini possibili, il risultato pu`o essere molto differente. In altre parole non vale la propriet`a commutativa per il prodotto tra matrici. Vediamo allora quali propriet` a invece continuano a valere anche per questo nuovo tipo di moltiplicazione. La verifica delle propriet` a del prodotto “righe per colonne” enunciate nella proposizione che segue `e un esercizio. Proposizione 3.6.3. Si ha: A(BC) = (AB)C
(propriet` a associativa)
A(B + D) = AB + AD (prima propriet` a distributiva rispetto alla somma di matrici) (B + D)E = BE + DE (seconda propriet` a distributiva rispetto alla somma di matrici) k(AB) = (kA)B = A(kB) (propriet` a associativa con il prodotto di scalari per matrici) (AB)T = B T AT essendo A, B, C, D, E matrici di ordini idonei ad eseguire le operazioni indicate e k uno scalare. ` inoltre immediato verificare che la matrice identica In (cfr. 3.1) soddisfa le seguenti E propriet` a: Proposizione 3.6.4. Per ogni intero m > 0 si ha: A In = A
∀A ∈ M (m × n, R)
In B = B
∀B ∈ M (n × m, R).
CAPITOLO 3. MATRICI
56
Proposizione 3.6.5. Assegnate A = (aij ) matrice m×n e K = (kj ) matrice colonna n × 1, indicate le colonne di A con ⎛ ⎛ ⎛ ⎞ ⎞ ⎞ a11 a12 a1n ⎜ a21 ⎟ ⎜ a22 ⎟ ⎜ a2n ⎟ ⎜ ⎜ ⎜ ⎟ ⎟ ⎟ A1 = ⎜ . ⎟, A2 = ⎜ . ⎟, . . . , An = ⎜ . ⎟, ⎝ .. ⎠ ⎝ .. ⎠ ⎝ .. ⎠ am1
am2
amn
si ha: A · K = k 1 A1 + k 2 A2 + · · · + k n An . Dimostrazione. ⎛ a11 ⎜ a21 ⎜ A·K =⎜ . ⎝ ..
a12 a22 .. .
... ... .. .
⎞⎛ ⎞ ⎛ k1 k1 a11 + k2 a12 + . . . + kn a1n a1n ⎜ k2 ⎟ ⎜ k1 a21 + k2 a22 + . . . + kn a2n a2n ⎟ ⎟⎜ ⎟ ⎜ .. ⎟ ⎜ .. ⎟ = ⎜ .. . ⎠⎝ . ⎠ ⎝ .
am1
am2
...
amn
kn
⎞ ⎟ ⎟ ⎟= ⎠
k1 am1 + k2 am2 + . . . + kn amn
= k 1 A1 + k 2 A2 + · · · + k n An . Osservazione 3.6.6. Se indichiamo la matrice A esplicitando le sue colonne ossia scrivendo A = (A1 , A2 , . . . , An ) allora, la formula A · K = k 1 A1 + k 2 A2 + · · · + k n An si pu`o pensare come se fosse un prodotto “scalare” tra la riga A e la colonna K. Questo modo di pensare ad una matrice come “composta” da sottomatrici o blocchi, in questo caso A come composta dalle sue colonne, risulta molto utile. L’uso conseguente della moltiplicazione a blocchi `e proficuo non tanto o non solo nel calcolo numerico, ma soprattutto per l’economia di pensiero che pu` o apportare in alcuni ragionamenti. Vedremo presto altri esempi di moltiplicazione a blocchi. Le propriet`a dimostrate nella Proposizione 3.6.5 ci permettono di svolgere i calcoli con espressioni matriciali quasi fossero espressioni numeriche. Tuttavia la non commutativit` a del prodotto richiede talora una particolare attenzione. Esempi 3.6.7. 1. Trovare un esempio di matrice non nulla, una cui potenza sia nulla (una tale matrice si dice nilpotente); 2. Verificare che se A, B sono due matrici quadrate, allora non `e necessariamente vero che (A + B)2 = A2 + 2AB + B 2 . Soluzioni. 1. Possiamo prendere, per esempio, A=
1 1
−1 −1
oppure
⎛
12 B=⎝ 0 −6
Si verifica facilmente che A2 = 02×2 e B 3 = 03×3 .
2 −1 −1
⎞ 22 1 ⎠ −11
3.6. MOLTIPLICAZIONE TRA MATRICI
57
1 2 1 1 A= e B= 3 4 1 1 16 21 2 3 Si ha allora A + B = e quindi (A + B)2 = 28 37 4 5 Mentre, d’altra parte, 7 10 3 3 2 2 15 2 2 A + 2AB + B = +2 + = 15 22 7 7 2 2 31
2. Prendiamo
18 38
risulta quindi evidente che (A + B)2 = A2 + 2AB + B 2 . Abbiamo dunque visto, fin qui, che le matrici si possono sommare, sottrarre e moltiplicare. Domandiamoci se si possono anche dividere. Ora sappiamo bene che se a `e un numero reale, dividere per a `e equivalente a moltiplicare per a1 = a−1 e questo si pu` o sempre fare purch´e a = 0. La nostra domanda equivale a chiedersi se ha senso calcolare l’inversa di una matrice. Come vedremo, non tutte le matrici sono invertibili. Precisiamo la nozione con una definizione. Ricordiamo che la matrice identica di ordine n, In , ha la propriet`a che AIn = In A = A, qualunque sia la matrice A di ordine compatibile. Si dice che In `e elemento neutro per la moltiplicazione di matrici. Definizione 3.6.8. Una matrice quadrata A di ordine n si dice invertibile se esiste una matrice C con le propriet` a che AC = CA = I. Non tutte le matrici sono invertibili. Ad esempio, non `e difficile verificare che una matrice nilpotente non pu` o essere certamente invertibile. Tuttavia se una matrice possiede una inversa, essa `e necessariamente unica. Supponiamo infatti che esistano due matrici con la stessa propriet`a e cio`e tali che AC = CA = I
ma anche
AD = DA = I.
Possiamo allora calcolare C = CI = C(AD) = (CA)D = ID = D da cui l’uguaglianza delle due matrici. Questa unica matrice viene allora denotata con A−1 . Vogliamo quindi determinare dei criteri che ci permettano di riconoscere se una data matrice sia o meno invertibile. Inoltre nel caso che essa lo sia, desideriamo sviluppare dei metodi di calcolo della sua matrice inversa. 1 2 Esempio 3.6.9. Assumendo che la matrice A = sia invertibile, determinare 3 4 x z A−1 . Cerchiamo una matrice C = che soddisfi la relazione AC = I. In y t seguito, occorrer` a anche verificare che la matrice C cos`ı trovata soddisfi anche CA = I come richiesto dalla definizione. Svolgendo il calcolo:
1 3
2 x 4 y
AC = I z 1 = t 0
0 1
(3.5)
CAPITOLO 3. MATRICI
58
Questa condizione corrisponde ad un sistema di quattro equazioni in quattro incognite: ⎧ x + 2y = 1 ⎪ ⎪ ⎪ ⎨3x + 4y = 0 ⎪ z + 2t = 0 ⎪ ⎪ ⎩ 3z + 4t = 1 A ben vedere per` o questo `e un sistema molto particolare. Si tratta infatti di due sistemi distinti aventi la stessa matrice dei coefficienti che `e proprio la matrice assegnata A. In effetti, il primo sistema si pu` o scrivere 1 2 x 1 = 3 4 y 0 e il secondo
1 3
2 4
z 0 = t 1
Indicandocon X1 e X2 rispettivamente la prima e la seconda colonna della matrice x z incognita e con E1 , E2 le colonne della matrice I2 , la seconda delle (3.5) pu` o y t essere riscritta come A(X1 , X2 ) = (E1 , E2 ) da cui (AX1 , AX2 ) = (E1 , E2 ), svolgendo il prodotto formalmente come se fosse uno scalare per una coppia ordinata. Questo `e un esempio di moltiplicazione a blocchi. Confrontando abbiamo i due sistemi AX1 = E1 e AX2 = E2 scritti esplicitamente sopra. Nel risolvere il sistema di quattro equazioni in quattro incognite ottenuto, possiamo procedere in maniera pi` u efficiente risolvendo, per cos`ı dire, due sistemi di ordine due in un colpo solo, svolgendo il calcolo della eliminazione di Gauss-Jordan sulla matrice completa in cui aggiungiamo le due colonne dei termini noti: 1 21 0 1 21 0 → 0 −2−3 1 3 40 1 0 1 2 1 1 0−2 1 → → . 0 1 32 − 12 0 1 32 − 12 Al termine dell’eliminazione possiamo leggere il risultato: x = −2, y = 32 , z = 1, t = − 12 , e possiamo osservare che la matrice cercata `e apparsa al termine del nostro ` facile a questo punto calcolare calcolo come la seconda met` a della matrice finale. E anche CA e verificare che effettivamente CA = I. Possiamo quindi concludere che la matrice trovata `e effettivamente la matrice inversa. Riassumendo, il procedimento illustrato `e consistito nello scrivere la matrice assegnata “accanto” alla matrice identit`a, poi operare con le operazioni elementari sulle
3.6. MOLTIPLICAZIONE TRA MATRICI
59
righe per ottenere la forma a gradini ridotta. Al termine di questo procedimento si ha la matrice identit`a con “accanto” la matrice inversa desiderata. Questo procedimento `e del tutto generale: assegnata una matrice A di ordine n supposta invertibile, si forma la matrice a blocchi (A|In ). Si calcola la matrice a gradini ridotta di (A|In ) ottenendo la matrice (I|C). La matrice C cos`ı ottenuta `e la matrice desiderata C = A−1 . Chiamiamo questa procedura algoritmo di inversione. ⎛ ⎞ 1 5 −1 Esempio 3.6.10. Calcolare l’inversa della matrice A = ⎝2 −3 0 ⎠ 1 1 1 Costruiamo la matrice ⎞ ⎛ 1 5 −1 1 0 0 (A|I) = ⎝2 −3 0 0 1 0⎠. 0 0 1 1 1 1 e calcoliamo la sua forma a gradini ridotta. ⎛ 0 ⎜ 1 ⎜ ⎜ (I|A−1 ) = ⎜ 1 ⎜ 0 ⎜ ⎝ 0 0
Con un po’ di passaggi troviamo la forma ⎞ 1 1 1 0 6 3 6 ⎟ ⎟ 1 1 ⎟ 1 ⎟ − 0 9 9 9 ⎟ ⎟ 2 13 ⎠ 5 − 1 − 18 9 18
L’inversa desiderata `e quindi ⎛ A−1 =
1 6 ⎜ 1 ⎝ 9 5 − 18
1 3 − 19 − 29
1 ⎞ 6 1 ⎟ 9 ⎠ 13 18
come si pu` o facilmente verificare moltiplicando questa matrice per la matrice A assegnata. Ci si pu`o domandare cosa succede se si applica l’algoritmo di inversione ad una matrice non invertibile. Applichiamo, ad esempio, l’algoritmo alla matrice nilpotente 1 −1 che sicuramente non `e invertibile. 1 −1 ⎞ ⎛ ⎞ ⎛ 1 −1 1 0 1 −1 1 0 ⎠→⎝ ⎠ ⎝ 1 −1 0 1 0 0 −1 1 osserviamo che, poich´e nella seconda riga e nelle prime due colonne sono apparsi due zeri, sar` a impossibile ottenere la matrice I2 : dunque l’algoritmo si arresta e non termina con l’inversa. Si intuisce da questo esempio, e verr`a dimostrato nella sezione successiva, che una matrice invertibile di ordine n deve avere necessariamente n pivot. Una tale matrice sar` a detta non singolare.
CAPITOLO 3. MATRICI
60
3.6.11
Propriet` a delle matrici invertibili
Dimostriamo ed illustriamo ora alcune propriet`a delle matrici invertibili di uso comune. 1. La matrice identit`a `e invertibile ed `e uguale alla sua inversa: infatti basta osservare che II = I. 2. Se A `e invertibile allora A−1 `e invertibile: infatti AA−1 = A−1 A = I. La stessa relazione che definisce A−1 definisce contemporaneamente anche (A−1 )−1 = A. 3. Se A e B sono due matrici invertibili, allora AB `e una matrice invertibile: basta osservare che moltiplicando AB per B −1 A−1 sia a destra che a sinistra si ottiene l’identit`a: (AB)(B −1 A−1 ) = A(BB −1 )A−1 = AIA−1 = AA−1 = I (B −1 A−1 )(AB) = B −1 (A−1 A)B = B −1 IB = B −1 B = I Attenzione: a causa della non commutativit`a del prodotto tra matrici, l’inversa del prodotto di due matrici `e uguale al prodotto delle inverse ma in ordine inverso! Questa situazione `e paragonabile al gesto di una persona che indossa calzini e scarpe. Tale operazione, ovviamente non commutativa, comporta che se indossiamo prima i calzini e poi le scarpe, in seguito dobbiamo prima togliere le scarpe e poi i calzini! 4. Se A `e una matrice invertibile allora AT `e invertibile: infatti, se A `e invertibile possiamo considerare la sua inversa A−1 e quindi farne la trasposta: (A−1 )T . Affermiamo ora che questa ultima matrice `e l’inversa cercata. Infatti, AT (A−1 )T = (A−1 A)T = I T = I e analogamente (A−1 )T AT = (AA−1 )T = I T = I. 5. Una matrice triangolare (inferiore o superiore) `e invertibile se e solo se gli elementi sulla diagonale principale sono tutti diversi da zero. Il motivo, che sar`a chiarito meglio nella sezione seguente, `e che, nell’applicare l’algoritmo di inversione, si ottiene la matrice inversa se e solo se la matrice assegnata ha n pivot, ossia `e non singolare. Non `e difficile convincersi che una matrice triangolare ha n pivot precisamente quando gli elementi sulla diagonale principale sono non nulli. Ad esempio, assegnata ⎛ ⎞ 1 2 −1 A = ⎝0 5 9 ⎠ , (3.6) 0 0 3 abbiamo
3.6. MOLTIPLICAZIONE TRA MATRICI
⎛
1
⎜ ⎜ 0 ⎝ 0
2 −1 1
0
5
9
0
1
0
3
0
0
⎞
⎛
⎜ 1 ⎜ ⎜ ⎟ ⎟ 0 ⎠→⎜ ⎜ 0 ⎜ ⎝ 1 0 0
61
0
0
1
1
0
0
0
1
0
2 − 5 1 5 0
23 15 3 − 5 1 3
⎞ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠
(3.7)
Non `e un caso che la matrice inversa A−1 sia anch’essa triangolare superiore. Vogliamo ora determinare alcune condizioni equivalenti per l’invertibilit`a di una matrice. In seguito ne vedremo delle altre. Ricordiamo che due proposizioni P e Q in matematica si dicono equivalenti se P =⇒ Q e Q =⇒ P . In tal caso scriviamo P ⇐⇒ Q, dicendo anche che: P `e equivalente a Q oppure P `e vera se e solo se Q `e vera oppure condizione necessaria e sufficiente perch´e P sia vera `e che Q sia vera. Teorema 3.6.12. Se A `e una matrice quadrata di ordine n, le seguenti affermazioni sono equivalenti: 1. A `e una matrice quadrata invertibile; 2. il sistema lineare omogeneo AX = 0 ammette solo la soluzione nulla; 3. A `e equivalente per righe alla matrice In ; 4. il sistema AX = B ammette un’unica soluzione, qualunque sia la scelta di B; 5. esiste una matrice C tale che AC = I. Prima di affrontare la dimostrazione di questo teorema sar` a opportuno fare qualche commento. Lo studente del primo anno di studi universitari trova nei corsi di Geometria ed analisi i primi esempi di dimostrazione matematica. Le dimostrazioni possono essere facili o difficili, belle o brutte, e, soprattutto, possono aggiungere qualcosa alla comprensione dell’argomento oppure no. Non crediamo che sia saggio esporre uno studente principiante a dimostrazioni di ogni tipo, indiscriminatamente. Tuttavia riteniamo che non si possa avere una comprensione sufficientemente approfondita di argomenti di matematica senza avere la minima idea di come condurre una dimostrazione. Il teorema in discussione `e un esempio importante di come condurre un’argomentazione generale. Dovendo qui dimostrare l’equivalenza logica di cinque enunciati, occorre procedere con ordine e con metodo per evitare giri viziosi e inconcludenti. A questo fineprocederemo dimostrando che ciascun enunciato implica il successivo e che infine il quinto implica il primo, con il che chiudiamo il cerchio e concludiamo la dimostrazione. Questa `e dunque la strategia della dimostrazione. Ad ogni passo diremo qual `e l’ipotesi e quale la tesi. Primo passo. Dimostriamo che se A `e una matrice quadrata invertibile allora il SLO AX = 0 ammette solo la soluzione nulla. Per far ci` o, moltiplichiamo ambo
CAPITOLO 3. MATRICI
62
i membri del sistema AX = 0 per la matrice inversa A−1 , che esiste per ipotesi, ottenendo A−1 (AX) = A−1 0 (A−1 A)X = 0 X=0 cio`e X `e necessariamente zero. Secondo passo. Ora l’ipotesi `e che il sistema AX = 0 ammette solo la soluzione nulla e vogliamo dimostrare che allora A `e equivalente per righe a In . A tal fine consideriamo la matrice A e, applicando l’algoritmo di Gauss-Jordan, ne troviamo la forma a gradini ridotta che chiamiamo R. Ora vogliamo dimostrare che R = In . Se per assurdo R = In , R non avrebbe n pivot, implicando cos`ı un rango r minore di n. Per il Teorema 3.5.3, il sistema AX = 0, equivalente a RX = 0, avrebbe infinite soluzioni, contro l’ipotesi dell’unicit`a della soluzione. Terzo passo. Supponiamo ora che A sia equivalente per righe ad In e dimostriamo che il sistema AX = B ammette un’unica soluzione. Utilizzando l’algoritmo di GaussJordan, riduciamo la matrice completa (A|B) nella sua forma a gradini ridotta che per ipotesi `e (In |B ). Ne segue allora che B `e l’unica soluzione del sistema, come desiderato. Quarto passo. Ipotizziamo ora che il sistema AX = B ammetta una ed una sola soluzione qualunque sia B. Vogliamo dimostrare che esiste una matrice C tale che AC = In . Il ragionamento che seguiamo ora `e simile a quello dell’esempio 3.6.9. Introduciamo la notazione E1 , E2 , . . . , En per indicare, rispettivamente, la prima, la seconda, ..., l’n-esima colonna della matrice In . Consideriamo quindi gli n sistemi AX = Ei , i = 1, . . . , n. Ciascuno di essi, per ipotesi, ammette un’unica soluzione. Dette C1 , C2 , . . . , Cn le rispettive soluzioni, costruiamo la matrice che ha queste soluzioni come colonne: C = (C1 , C2 , . . . , Cn ) Abbiamo quindi AC = A(C1 , C2 , . . . , Cn ) = (AC1 , AC2 , . . . , ACn ) = (E1 , E2 , . . . , En ) = In da cui la conclusione. Quinto passo. Infine dobbiamo dimostrare che il quinto punto implica il primo, ovvero che l’ipotesi dell’esistenza di una matrice C con la propriet` a che AC = In implica che anche CA = In , che `e la “seconda met` a” della definizione 3.6.8. Per dimostrare ci`o, consideriamo il sistema CX = 0
(3.8)
Affermiamo che un tale SLO ammette solo la soluzione nulla. Infatti, moltiplicando ambo i membri dell’equazione (3.8) per A otteniamo A(CX) = 0 da cui (AC)X = 0 ossia In X = 0 cio`e X = 0 . Dato che le implicazioni 2. =⇒ 3. =⇒ 4. =⇒ 5. sono state gi` a acquisite, e dal fatto che il SLO CX = 0 ammette solamente la soluzione nulla, segue che esiste una matrice C tale che CC = In . Ne consegue che A = AIn = A(CC ) = (AC)C = In C = C .
3.6. MOLTIPLICAZIONE TRA MATRICI
63
Riassumendo, dall’ipotesi AC = In si deduce l’esistenza di una matrice C tale che CC = In ma, poich´e A = C , abbiamo CA = In , ovvero la conclusione desiderata. Commento alla dimostrazione. Nel quinto passo della dimostrazione la considerazione del sistema CX = 0 sembra apparire improvvisamente causando spesso disorientamento negli studenti. Questa situazione `e simile a quella gi`a discussa in occasione del principio di induzione in §1.7. In fondo, questo `e il lato pi` u creativo di una dimostrazione matematica, che non `e solo una lista di passaggi logici o aritmetici, come una melodia non `e solo una lista di note musicali. Un’ulteriore illustrazione dell’utilit`a di avere “buone idee” `e fornita dalla dimostrazione del teorema riguardante la somma degli angoli interni di un triangolo: la figura `e la seguente
La dimostrazione diventa “facile” non appena si abbia la “buona idea” di tracciare la retta parallela come nella figura seguente:
3.6.13
Matrici Elementari
Definizione 3.6.14. Si definisce matrice elementare una qualunque matrice che si pu` o ottenere eseguendo una singola operazione elementare sulla matrice identit`a. In corrispondenza dei tre tipi di operazioni elementari (v. 3.3.9), ci sono tre tipi di matrici elementari. Ad esempio, ⎛
P12
0 = ⎝1 0
1 0 0
⎞ 0 0⎠ 1
CAPITOLO 3. MATRICI
64 che si ottiene da I3 con l’operazione di primo ⎛ 1 M2 (3) = ⎝0 0
tipo R1 ↔ R2 ; ⎞ 0 0 3 0⎠ 0 1
che si ottiene da I3 con l’operazione di secondo tipo 3R2 ; ⎛ ⎞ 1 0 0 S32 (4) = ⎝0 1 0⎠ 0 4 1 che si ottiene da I3 con l’operazione di terzo tipo R3 + 4R2 . In generale, indicheremo con: Pij la matrice elementare ottenuta da In scambiando la riga i-esima con quella jesima; Mi (k) (k = 0), la matrice elementare ottenuta da In moltiplicando per k la i-esima riga; Sij (k) la matrice elementare ottenuta da In sommando alla i-esima riga la j-esima riga moltiplicata per k. Osserviamo una prima propriet`a di queste matrici: moltiplicando a sinistra una assegnata matrice A per una matrice elementare E si ottiene una matrice B che pu` o essere anche ottenuta operando sulle righe di A con la stessa operazione elementare che ha prodotto E a partire da In . Per esempio: Data ⎛ ⎞ a b c d A = ⎝ e f g h⎠ i j k l si verifica facilmente che
⎛
e P12 A = ⎝a i
dove si vede che il risultato della ⎛ a b c ⎝e f g i j k
f b j
g c k
⎞ h d⎠ l
moltiplicazione P12 A ⎞ ⎛ d e f R1 ↔R2 h⎠ −−−−−→ ⎝a b l i j
`e lo stesso del passaggio ⎞ g h c d⎠ k l
Proposizione 3.6.15. Ogni matrice elementare `e invertibile. Dimostrazione. L’idea della dimostrazione sta nell’osservare che ogni operazione elementare `e “reversibile”: se scambio due righe, le posso scambiare di nuovo tornando al punto di partenza. Se moltiplico una riga per uno scalare non nullo, posso dividere per lo stesso scalare. Se, infine, sommo ad una riga un multiplo di un’altra riga, posso sottrarre a quella riga lo stesso multiplo. Anche queste sono operazioni elementari che quindi corrispondono a matrici elementari. Si verifica che ciascuna di esse `e la matrice inversa della matrice elementare assegnata.
3.6. MOLTIPLICAZIONE TRA MATRICI Esempi 3.6.16. Le matrici elementari verse, rispettivamente ⎛ 0 −1 P12 = ⎝1 0 ⎛ 1 M2 (3)−1 = ⎝0 0 ⎛ 1 S32 (4)−1 = ⎝0 0
65
P12 , M2 (3), S32 (4) date sopra hanno per in⎞ 0 0⎠ = P12 ; 1 ⎞ 0 0 1 1 0⎠ = M2 ( ); 3 3 0 1 ⎞ 0 0 1 0⎠ = S32 (−4). −4 1 1 0 0
Corollario 3.6.17. L’inversa di una matrice elementare `e ancora una matrice elementare. Nel caso di matrici elementari del primo tipo, ogni matrice `e uguale alla sua inversa. Possiamo ora reinterpretare l’algoritmo di Gauss-Jordan tramite queste matrici. Infatti, l’algoritmo permette di calcolare la forma a gradini di una assegnata matrice A tramite una successione di operazioni elementari. Possiamo quindi descrivere l’algoritmo come segue A → F1 A → F2 F1 A → F3 F2 F1 A → · · · → Fk · · · F2 F1 A = R dove con R abbiamo indicato la desiderata forma a gradini ridotta. Se indichiamo con V il prodotto di tutte le matrici elementari trovate: V = Fk · · · F2 F1 , abbiamo quindi V A = R. Osserviamo che V `e necessariamente invertibile in quanto prodotto di matrici elementari che sono invertibili. Possiamo quindi scrivere A = V −1 R determinando quindi una fattorizzazione della matrice A. Questa idea sar`a ripresa in seguito. Infine se la matrice A `e invertibile, il Teorema 3.6.12 ci dice che la sua forma a gradini ridotta `e necessariamente I. Ne segue che A = V −1 = F1−1 · · · Fk−1 e quindi che A `e il prodotto di matrici elementari. Abbiamo la seguente Proposizione 3.6.18. Una matrice A `e invertibile se e solo se essa `e prodotto di matrici elementari. Dimostrazione. La discussione precedente ci dice che se A `e invertibile allora A `e prodotto di matrici elementari. Viceversa, se A `e il prodotto di matrici elementari, quindi invertibili, essa `e necessariamente invertibile. Possiamo anche reinterpretare l’algoritmo di inversione. invertibile, allora, tramite operazioni elementari, (A|I) → (I|A−1 ).
Se una matrice A `e
CAPITOLO 3. MATRICI
66
Questo va ora visto, utilizzando l’idea della moltiplicazione a blocchi, come Fk · · · F2 F1 (A|I) = (Fk · · · F2 F1 A|Fk · · · F2 F1 I) = (I|A−1 ) Nel caso in cui la matrice non sia invertibile, la sua forma a gradini R sar` a diversa da I. Si pu`o tuttavia procedere, sempre con operazioni elementari, per ottenere, (A|I) → (R|V ) o, equivalentemente, tramite la moltiplicazione per matrici elementari, Fk · · · F2 F1 (A|I) = (Fk · · · F2 F1 A|Fk · · · F2 F1 I) = (V A|V ) = (R|V ) da cui, come visto sopra, V A = R. Esempio 3.6.19. Calcolare la forma a gradini ridotta R della matrice 4 5 −6 A= 1 1 1 ed esprimere R come prodotto R = V A dove V `e una matrice invertibile. Soluzione. ⎛ ⎝
⎞
4
5 −6 1
0
1
1
1
1
0
⎛
⎞
⎛
⎠→⎝
1
1
1
0
4
5 −6 1
1 1 ⎠→⎜ ⎝ 0 0
0
1
0
1
−10
1
1 0 1 0 e V = 0 1 −10 1 verifichi che V A = R, come richiesto.
Da cui R =
3.7
1
0
1
−10
1
⎞ 1 ⎟ ⎠ −4
⎞
⎛ ⎜ 1 →⎝ 0
1
1 ⎟ ⎠. −4
1 . Per controllo, si moltiplichi V A e si −4
Un cenno alla fattorizzazione LU
Abbiamo visto (cfr. §3.4.3) che una qualunque matrice m × n pu`o essere portata in forma a gradini tramite una successione di operazioni elementari. Ci` o significa che, detta U una forma a gradini di A, si ha: Ek Ek−1 · · · E2 E1 A = U
(3.9)
dove Ei sono matrici elementari. Supponiamo di avere una matrice A riducibile a gradini senza l’uso di scambi di righe. In tale ipotesi, `e possibile ottenere la forma U prendendo solo matrici elementari triangolari inferiori. Osserviamo che l’inversa di una matrice triangolare inferiore `e triangolare inferiore e il prodotto di due tali matrici `e ancora triangolare inferiore.
3.7. UN CENNO ALLA FATTORIZZAZIONE LU
67
Se ricaviamo A da (3.9) abbiamo allora: −1 A = E1−1 E2−1 · · · Ek−1 Ek−1 U. −1 Ek−1 , L `e triangolare inferiore ed avremo dunque: Posto L = E1−1 E2−1 · · · Ek−1
A = LU. Abbiamo cos`ı decomposto A nel prodotto di una matrice triangolare inferiore L (“lower triangular”) ed una triangolare superiore U (“upper triangular”), nel senso che aij = 0 per i > j, estendendo in tal modo la definizione data in 3.1.10 nel caso di matrici quadrate. ⎛ ⎞ 2 1 3 Esempio 3.7.1. Sia data la matrice ⎝ 4 −1 3⎠. Mediante le operazioni elemen−2 5⎞ 5 ⎛ 2 1 3 tari R2 −2R1 e R3 +R1 si ottiene ⎝0 −3 −3⎠, che con l’operazione R3 +2R2 diven0 6 8 ⎛ ⎞ ⎛ ⎞ 2 1 3 1 0 0 ta ⎝0 −3 −3⎠ = U . Le matrici elementari corrispondenti sono E1 = ⎝−2 1 0⎠, 0 0 2 ⎞ 0 0 1 ⎞ ⎛ ⎛ 1 0 0 1 0 0 E2 = ⎝0 1 0⎠, E3 = ⎝0 1 0⎠. Da cui E3 E2 E1 A = U e quindi: 1 0 1 0 2 1 ⎞ ⎛ ⎞⎛ ⎞⎛ 1 0 0 1 0 0 1 0 0 A = E1−1 E2−1 E3−1 U = ⎝2 1 0⎠ ⎝ 0 1 0⎠ ⎝0 1 0⎠ U = 0 0 1 0 −2 1 −1 0 1 ⎛ ⎞ 1 0 0 1 0⎠ U = LU. =⎝ 2 −1 −2 1 ⎞ ⎛ 0 1 4 Esempio 3.7.2. La matrice ⎝−1 2 1⎠ non pu` o ridursi a gradini senza usare 1 3 3 scambi di righe. Una riduzione `e, per utilizzando ⎛ a gradini ⎞ ⎛ esempio,⎞quella ottenuta ⎛ ⎞ 0 1 0 −1 0 0 1 0 0 le matrici elementari E1 = ⎝1 0 0⎠, E2 = ⎝ 0 1 0⎠, E3 = ⎝ 0 1 0⎠, 0 0 1 0 0 1 −1 0 1 ⎞ ⎛ ⎞ ⎛ 1 0 0 1 0 0 0 ⎠. E4 = ⎝0 1 0⎠, E5 = ⎝0 1 1 0 −5 1 0 0 − 16 Si ha allora E5 E4 E3 E2 E1 A = U e quindi A = E1−1 E2−1 E3−1 E4−1 E5−1 U , dove ⎞ ⎛ 0 −1 0 0 0 ⎠ E 5 E4 E3 E 2 E1 = ⎝ 1 5 1 1 − − 16 16 16
CAPITOLO 3. MATRICI
68 ⎛
e E1−1 E2−1 E3−1 E4−1 E5−1
0 = ⎝−1 1
⎞ 1 0 0 0 ⎠ 5 −16
che non `e triangolare inferiore.
3.8
Determinante
Sia A una matrice quadrata di ordine n: ⎛ a11 a12 ⎜ a21 a22 ⎜ ⎜ .. .. ⎝ . .
... ... .. .
⎞ a1n a2n ⎟ ⎟ .. ⎟. . ⎠
an2
...
ann
an1
Consideriamo i prodotti ottenibili moltiplicando n suoi elementi scelti come segue: il primo nella prima riga, il secondo nella seconda riga, l’n-esimo nella n-esima riga e in colonne diverse: a1j1 · a2j2 · · · anjn ove j1 , ..., jn `e una permutazione degli indici di colonna. Tali prodotti vengono detti prodotti competenti ad A; ne esistono tanti quante sono le permutazioni di n numeri (gli indici di colonna) cio`e n!. Indicata con (p1 , p2 , ..., pn ) una qualunque permutazione di classe pari e con (d1 , d2 , ... dn ) una qualunque permutazione di classe dispari, si dice determinante det A della matrice quadrata A, la somma di tutti i prodotti competenti relativi a permutazioni di classe pari meno la somma di tutti quelli relativi a permutazioni di classe dispari: det A = a1p1 · a2p2 · · · anpn − a1d1 · a2d2 · · · andn . (p1 ,...,pn )
(d1 ,...,dn )
Osservazione 3.8.1. Spesso, per indicare il determinante sono usate anche le seguenti grafie: ⎞ ⎛ a11 a12 . . . a11 a12 . . . a1n ⎜ a21 a22 . . . a2n ⎟ a21 a22 . . . ⎟ ⎜ det ⎜ . .. .. ⎟ = .. .. .. .. ⎝ .. . . . . ⎠ . . an1 an2 . . . an1 an2 . . . ann
det A di una matrice A, a1n a2n .. = |A|. . ann
3.8. DETERMINANTE
Esempio 3.8.2.
69
Sia
a11 a21
a12 a22
una matrice quadrata di ordine 2. Le permutazioni di due elementi sono solo due e precisamente (1, 2) e (2, 1) la prima di classe pari, la seconda di classe dispari. Quindi a11 a21 Esempio 3.8.3.
Sia
a12 = a11 a22 − a12 a21 . a22 ⎛
a11 A = ⎝a21 a31
a12 a22 a32
⎞ a13 a23 ⎠ a33
matrice quadrata d’ordine 3. Le permutazioni di tre elementi sono 6 e precisamente (1, 2, 3) (2, 3, 1) (3, 1, 2) (3, 2, 1) (2, 1, 3) (1, 3, 2) quelle della prima riga di classe pari, quelle della seconda di classe dispari. Quindi detA = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − (a13 a22 a31 + a12 a21 a33 + a11 a23 a32 ). Osservazione 3.8.4. (Regola di Sarrus) Si osservi che nel caso di matrici d’ordine 2 il determinante `e il prodotto degli elementi della diagonale principale meno il prodotto degli elementi della diagonale secondaria, cio`e il prodotto degli elementi collocati nei posti meno il prodotto degli elementi collocati nei posti 2. 2 2 Nel caso di matrici di ordine 3, il determinante, formato da 6 addendi, `e ancora collegato alle diagonali, nel seguente modo: esso risulta eguale alla somma 2 ♥ ♠ ♣ ♣ ♥ 2 ♠ ♠ ♣ 2 ♥ dei tre prodotti degli elementi collocati nei posti con uguale contrassegno nella prima figura, meno i tre prodotti degli elementi collocati nei posti con uguale contrassegno nella seconda figura. La regola di Sarrus NON si estende al caso di matrici di ordine superiore a tre. Un metodo per il calcolo del determinante di matrici di ordine qualsiasi `e fornito dal primo teorema di Laplace. Per poter enunciare tale teorema diamo la seguente:
CAPITOLO 3. MATRICI
70 Definizione 3.8.5. Assegnata la matrice di ⎛ a11 a12 ⎜ a21 a22 ⎜ A=⎜ . .. ⎝ .. . an1
an2
ordine n ... ... .. .
⎞ a1n a2n ⎟ ⎟ .. ⎟, . ⎠
...
ann
diremo complemento algebrico o cofattore dell’elemento ahk il determinante della matrice Ahk di ordine n − 1 ottenuta da A sopprimendo la riga h-esima e la colonna k-esima, moltiplicato per (−1)h+k . Indicato con αhk tale complemento algebrico, si ha cio`e: αhk = (−1)h+k det Ahk . Teorema 3.8.6. (Primo teorema di Laplace) Assegnata una matrice quadrata di ordine n ⎞ ⎛ a11 a12 . . . a1n ⎜ a21 a22 . . . a2n ⎟ ⎜ ⎟ A=⎜ . .. .. ⎟, .. ⎝ .. . . . ⎠ an1 an2 . . . ann il determinante di A coincide con la somma degli n prodotti degli elementi della riga h-esima (h = 1, 2, ..., n) per i rispettivi complementi algebrici: det A = ah1 αh1 + ah2 αh2 + · · · + ahn αhn . Analogamente il determinante di A coincide con la somma degli n prodotti degli elementi della colonna k-esima (k = 1, 2, ..., n) per i rispettivi complementi algebrici: det A = a1k α1k + a2k α2k + · · · + ank αnk . Dimostrazione. Omessa Il primo teorema di Laplace riduce praticamente il calcolo di un determinante di una matrice di ordine n a quello dei complementi algebrici degli elementi di una riga, cio`e al calcolo dei determinanti di matrici di ordine n − 1. L’arbitrariet`a nella scelta della riga pu` o essere utilizzata per far s`ı che il calcolo da eseguire sia il pi` u semplice possibile. Esempio 3.8.7. Si calcoli il determinante della seguente matrice di ordine 4: ⎞ ⎛ 3 0 1 1 ⎜ 2 0 0 0⎟ ⎟ ⎜ ⎝ 0 1 0 1⎠. −1 1 1 0 Sviluppando il determinante lungo la seconda riga si dovr`a evidentemente calcolare un solo complemento algebrico α21 , in quanto gli altri α22 , α23 ed α24 devono essere moltiplicati per a22 , a23 , a24 , tutti nulli. Si ha quindi: 0 1 1 det A = 2(−1)2+1 1 0 1 = −4. 1 1 0
3.8. DETERMINANTE
71
Un immediato corollario del Primo Teorema di Laplace `e Corollario 3.8.8. Il determinante di una matrice con una riga o colonna di zeri `e nullo. Dimostrazione. Basta infatti calcolare il determinante usando lo sviluppo di Laplace lungo la riga o colonna nulla per avere zero. Questo corollario e l’esempio precedente ci fanno capire che in presenza di un gran numero di zeri, il calcolo di un determinante si semplifica notevolmente. Un metodo per modificare una matrice e fare intervenire parecchi zeri lo abbiamo gi`a incontrato. Si tratta del metodo di Gauss-Jordan. Ovviamente, quando si applicano le operazioni elementari si altera la matrice. Ci domandiamo quindi come cambi il valore del determinante se si trasforma la matrice mediante operazioni elementari. Teorema 3.8.9. Valgono le seguenti propriet` a dei determinanti: 1. Se in una matrice si opera con una operazione elementare di tipo I il determinante cambia segno. In particolare, se una matrice ha due righe uguali il suo determinante `e zero. 2. Se in una matrice si moltiplica una riga per uno scalare, il valore del determinante viene moltiplicato per quello scalare. 3. Se in una matrice si opera con una operazione di tipo III, il valore del determinante non cambia. Dimostrazione. 1. Procediamo per induzione sull’ordine n della matrice. Il caso n = 1 `e banale perch´e non c’`e nulla da scambiare. Il caso n = 2 `e anche molto semplice da verificare. Supponiamo quindi che l’enunciato sia vero fino all’ordine n − 1, consideriamo una matrice A di ordine n > 2 e sia B la matrice ottenuta scambiando due righe di A. Se n > 2, possiamo scegliere una riga diversa dalle due scambiate e sviluppare il determinante, con Laplace, lungo quella riga: det B = bh1 βh1 + bh2 βh2 + · · · + bhn βhn . Per la scelta fatta ahj = bhj (la riga h-esima di B coincide con la riga h-esima di A). Nei complementi algebrici, tuttavia, c’`e stato uno scambio di righe e quindi per ipotesi induttiva, trattandosi di determinanti di ordine n − 1, βhj = −αhj . Da cui: det B = bh1 βh1 + bh2 βh2 + · · · + bhn βhn = ah1 (−αh1 ) + ah2 (−αh2 ) + · · · + ahn (−αhn ) = − det A. Infine, se una matrice ha due righe uguali, scambiando tali righe, da un lato la matrice rimane la stessa, dall’altro, avendo scambiato due righe, il determinante cambia segno. Abbiamo quindi det A = − det A. Ci`o implica che det A = 0.
CAPITOLO 3. MATRICI
72
2. Sia B la matrice ottenuta moltiplicando per k la riga h-esima di A. Anche stavolta si ha ahj = bhj . Sviluppando il determinante di B lungo la h-esima riga, si ha det B = bh1 βh1 + bh2 βh2 + · · · + bhn βhn = kah1 αh1 + kah2 αh2 + · · · + kahn αhn = k det A. 3. Supponiamo che B sia la matrice che si ottiene sostituendo la riga Ri = (ai1 , ai2 , . . . , ain ) di A con Ri + kRj = (ai1 , ai2 , . . . , ain ) + k(aj1 , aj2 , . . . , ajn ) = (ai1 + kaj1 , ai2 + kaj2 , . . . , ain + kajn ) = (bi1 , bi2 , . . . , bin ) Sviluppando il determinante lungo questa riga i-esima abbiamo det B = bi1 βi1 + bi2 βi2 + · · · + bin βin = (ai1 + kaj1 )βi1 + (ai2 + kaj2 )βi2 + · · · + (ain + kajn )βin . Ora osserviamo che i complementi algebrici βij coincidono con gli analoghi αij di A perch´e abbiamo alterato solo la riga i-esima di A che non viene coinvolta nel loro calcolo. In altre parole, abbiamo βij = αij . In definitiva, det B = (ai1 + kaj1 )αi1 + (ai2 + kaj2 )αi2 + · · · + (ain + kajn )αin = ai1 αi1 + ai2 αi2 + · · · + ain αin + kaj1 αi1 + kaj2 αi2 + · · · + kajn αin Le due ultime espressioni ottenute sono due determinanti: il primo `e chiaramente il determinante di A, per il Teorema di Laplace: det A = ai1 αi1 + ai2 αi2 + · · · + ain αin e la seconda espressione `e kaj1 αi1 + kaj2 αi2 + · · · + kajn αin = k(aj1 αi1 + aj2 αi2 + · · · + ajn αin ) che `e il determinante di una matrice ottenuta da A sostituendo agli elementi della i-esima riga quelli della j-esima. Si tratta quindi del determinante di una matrice che ha due righe uguali pertanto nullo per il punto 1. In conclusione, det B = det A, come desiderato. Esempio 3.8.10. Calcolare il determinante di ⎛ ⎞ 1 2 3 A = ⎝4 5 6⎠ 7 8 9
3.8. DETERMINANTE
73
Possiamo operare due volte con un operazione di tipo III che non altera il valore del determinante, utilizzare il Primo Teorema di Laplace sulla prima colonna, ed ottenere 1 2 3 1 2 3 −3 −6 = (−3) · (−12) − (−6) · (−6) = 0. det A = 4 5 6 = 0 −3 −6 = 1 · −6 −12 7 8 9 0 −6 −1 In alternativa, possiamo fare un paio di passaggi in pi` u, usando anche operazioni di tipo II, che alterano il valore del determinante, come segue 1 2 3 1 2 3 det A = 4 5 6 = 0 −3 −6 7 8 9 0 −6 −1 1 2 1 2 3 3 2 = (−3)(−6) 0 1 2 = (−3)(−6)(2 − 2) = 0. = (−3) 0 1 0 1 2 0 −6 −12 Qualche altra propriet` a utile dei determinanti: Proposizione 3.8.11. Sia A una matrice quadrata di ordine n e sia k ∈ R. Allora 1. det(kA) = k n det A. 2. Se A `e una matrice triangolare inferiore o superiore, allora det A `e uguale al prodotto degli elementi sulla diagonale principale: det A = a11 a22 · · · ann . 3. det A = det AT . λα1 +μβ1 a12 .. .. 4. . . λαn +μβn an2
··· ··· ···
α1 a1n .. = λ .. . . α n ann
a12 .. . an2
··· ··· ···
β1 a1n .. +μ .. . . βn ann
a12 .. . an2
··· ··· ···
a1n .. . ann
ed analogamente per altre colonne. Dimostrazione. 1. La matrice kA ha tutte le n righe moltiplicate per k. Pertanto, utilizzando il punto 2 del teorema precedente si ottengono n fattori k in evidenza, da cui la conclusione. 2. Procediamo per induzione sull’ordine n della matrice. L’enunciato `e ovvio per n = 1. Sia n > 1. Se la matrice `e triangolare superiore, sviluppiamo il calcolo del determinante lungo la prima colonna che contiene tutti zeri tranne, eventualmente, il primo elemento. Dunque det A = a11 α11 . Il cofattore α11 `e il determinante di una matrice triangolare superiore di ordine n − 1. Dunque per ipotesi induttiva α11 = a22 a33 · · · ann e quindi det A = a11 a22 a33 · · · ann , come desiderato. 3. Per il primo teorema di Laplace, il calcolo del determinante si pu` o fare utilizzando indifferentemente una riga o una colonna. Risulta evidente che det A, calcolato lungo la prima riga, d` a lo stesso risultato di det AT calcolato lungo la prima colonna.
CAPITOLO 3. MATRICI
74
4. Basta sviluppare il determinante lungo la prima colonna e mettere in evidenza i coefficienti λ e μ.
` possibile definire, sulla falsariga della Definizione 3.3.10, Osservazione 3.8.12. E operazioni elementari sulle colonne. Poich´e, inoltre, il Teorema di Laplace implica che il calcolo del determinante non dipende dalla riga o dalla colonna scelta, il Teorema 3.8.9 e la propriet` a 4. della Proposizione 3.8.11 continuano a valere scambiando la parola riga o righe con le parola colonna o colonne. Esempio 3.8.13. Un determinante che capita spesso di dover calcolare `e quello della cosiddetta matrice di Vandermonde : 1 ··· ··· 1 1 x1 x2 . . . xn−1 1 1 x1 ··· ··· xn . .. .. . . .. 2 . . . . . x1 ··· ··· x2n = . (3.10) .. .. . . .. .. .. .. . . . . . . . . . . . . . n−1 1 xn x2 . . . xn−1 n−1 x n n · · · · · · x n 1 Proviamo che esso vale i>j (xi − xj ). La dimostrazione procede per induzione sull’ordine della matrice. Se n = 2, abbiamo 1 x 1 1 x2 = (x2 − x1 ) e quindi l’affermazione `e vera. Supponendo che essa sia vera per ogni matrice di Vandermonde di ordine n − 1, calcoliamo 1 ··· ··· 1 x1 ··· ··· xn 2 x1 · · · · · · x2n . .. .. .. .. . . . . n−1 n−1 x · · · · · · xn 1 Operando con le operazioni elementari R2 − x1 R1 , R3 − x1 R2 , R4 − x1 R3 , . . ., la prima colonna diventa (1, 0, . . . , 0)T e il calcolo del determinante si riduce ad uno di ordine n − 1. Mettendo in evidenza in ciascuna colonna l’elemento xi − x1 si ottiene ancora un determinante di Vandermonde e quindi si ha la conclusione per il principio di induzione. Per maggiore chiarezza, procediamo con un calcolo esplicito nel caso di ordine 4 : 1 x 1 2 x 1 x 3 1
1 x2
1 x3
x22
x23
x32
x33
1 1 x 4 0 = x24 0 x34 0
1 x2 − x1
1 x3 − x1
x22 − x1 x2
x23 − x1 x3
x32 − x1 x22
x33 − x1 x23
1 x4 − x1 x24 − x1 x4 x34 − x1 x24
3.8. DETERMINANTE x2 − x1 = 1 · x22 − x1 x2 x 3 − x x 2 2
1 2
x3 − x1 x23 − x1 x3 x33
−
x1 x23
75 1 x4 − x 1 2 x4 − x1 x4 = (x2 − x1 )(x3 − x1 )(x4 − x1 ) x2 x 2 x34 − x1 x24 2
1 x3 x23
1 x4 x24
e cos`ı via iterando. Esempio 3.8.14. Utilizziamo opportune propriet` a per calcolare il determinante di una matrice 4 × 4: 1 −1 1 2 2 −1 3 2 3 −4 5 4 = 1 2 2 −1 sommando alla seconda riga la prima moltiplicata per −2, alla terza riga la prima moltiplicata per −3 e alla quarta la prima riga moltiplicata per −1 1 −1 1 2 0 1 1 −2 = = 0 −1 2 −2 0 3 1 −3 sommando alla terza riga la seconda riga e alla quarta la seconda moltiplicata per −3 1 −1 1 2 0 1 1 −2 = = 0 0 3 −4 0 0 −2 3 sommando alla quarta riga la terza moltiplicata per 23 1 −1 1 2 0 1 1 −2 = 3 · 1 = 1. = 0 0 3 −4 3 0 0 0 1 3
3.8.15
Determinante e invertibilit` a
Un teorema che ci sar` a spesso utile `e quello, dovuto a J. Binet (1786-1856), che lega il determinante del prodotto righe per colonne di due matrici quadrate ai determinanti delle due singole matrici. Ricordiamo preliminarmente che se E `e una matrice elementare, moltiplicare E per una assegnata matrice quadrata B ha lo stesso effetto che ` facile inoltre operare sulle righe di B con l’operazione elementare corrispondente. E verificare che il determinante di una matrice elementare di tipo I vale −1, il determinante di una di tipo II vale k, dove k `e lo scalare moltiplicatore, infine il determinante di una di tipo III vale 1. Queste propriet`a, insieme al Teorema 3.8.9, nel caso di E matrice elementare e B matrice quadrata ambedue di ordine n, implicano det(EB) = det E det B. In effetti questa regola vale in generale:
CAPITOLO 3. MATRICI
76
Teorema 3.8.16. (di Binet) Assegnate due matrici A e B di ordine n, si ha: det AB = det A · det B. Dimostrazione. Abbiamo appena osservato che il teorema vale se la prima matrice `e una matrice elementare. Distinguiamo due casi a seconda che la matrice A sia invertibile o meno. Se A `e una matrice invertibile essa `e prodotto di matrici elementari, per la Proposizione 3.6.18. Abbiamo pertanto A = E1 E2 · · · Ek e quindi det(AB) = det(E1 E2 · · · Ek B) = det E1 det(E2 · · · Ek B). Con lo stesso ragionamento ripetuto un opportuno numero di volte: det(AB) = det E1 det E2 · · · det Ek det B. In particolare, se B = I abbiamo det A = det E1 det E2 · · · det Ek , da cui sostituendo det(AB) = det A det B come richiesto. Se invece A non `e invertibile, allora la sua forma a gradini ridotta R non pu` o essere l’identit`a e di conseguenza essa avr`a almeno una riga di zeri. Ne segue che det R = 0. Poich´e R si ottiene da A mediante operazioni elementari di riga, il determinante di A `e un multiplo di quello di R di conseguenza det A = k det R = 0. Se dimostriamo che anche AB non `e invertibile allora avremo, con lo stesso ragionamento che det AB = 0 e quindi l’enunciato del teorema sar`a vero anche in questo caso. Se per assurdo AB fosse invertibile, dovrebbe esistere una matrice C con la propriet` a che (AB)C = I. Ma in tal caso avremmo I = (AB)C = A(BC) da cui seguirebbe che BC `e l’inversa di A, contro l’ipotesi. Questo conclude la dimostrazione. Possiamo ora dare una nuova caratterizzazione di invertibilit`a : Teorema 3.8.17. Una matrice quadrata A `e invertibile se e solo se det A = 0. Dimostrazione. Se A `e invertibile allora esiste C tale che AC = I. Applicando il teorema di Binet, abbiamo che 1 = det I = det A det B =⇒ det A = 0.
(3.11)
Viceversa, abbiamo gi`a visto, nel corso della dimostrazione del teorema di Binet, che, se det A = 0, allora A non pu` o essere invertibile. Quindi se A `e invertibile, necessariamente det A = 0. Corollario 3.8.18. Il determinante della matrice inversa di A `e il reciproco del determinante di A: 1 det A−1 = det A
3.8. DETERMINANTE
77
Dimostrazione. Infatti da AA−1 = I abbiamo det(AA−1 ) = det I = 1 e il Teorema di Binet ci d` a:
det A det A−1 = 1
da cui la conclusione. Sussiste la seguente importante Proposizione 3.8.19. Una matrice quadrata `e invertibile se e solo se le sue righe o colonne sono linearmente indipendenti. Una matrice quadrata ha determinante diverso da zero se e solo se le sue righe o colonne sono linearmente indipendenti. Dimostrazione. Il verificare che le colonne della matrice sono linearmente dipendenti equivale a trovare autosoluzioni del SLO che ha la matrice assegnata come matrice dei coefficienti. Per il Teorema 3.6.12, la matrice `e invertibile se e solo se non esistono autosoluzioni. Infine l’equivalenza tra l’invertibilit` a di una matrice ed la non nullit`a del suo determinante, data dal Teorema 3.8.17, ci fornisce la tesi. Ci proponiamo ora di determinare una formula per la matrice inversa di una data matrice invertibile A. A tal fine definiamo una matrice associata ad A: Definizione 3.8.20. Assegnata una matrice A, si definisce aggiunta di A e si indica o anche con adj(A), la matrice il cui elemento di posto (i, j) coincide con il con A complemento algebrico αji dell’elemento aji di A. In altre parole se ⎛ ⎞ a11 a12 . . . a1n ⎜ a21 a22 . . . a2n ⎟ ⎜ ⎟ A=⎜ . .. .. ⎟, .. ⎝ .. . . . ⎠ an1 an2 . . . ann allora
⎛
α11 ⎜ α12 ⎜ =⎜ . A ⎝ ..
α21 α22 .. .
... ... .. .
⎞ αn1 αn2 ⎟ ⎟ .. ⎟. . ⎠
α1n
α2n
...
αnn
Si forma cio`e una matrice di tutti i possibili cofattori della matrice data e se ne prende la trasposta. Il risultato `e la matrice aggiunta. Esempio 3.8.21. Sia
⎛
1 2 A = ⎝2 −4 3 0
⎞ −3 4 ⎠. −2
I complementi algebrici degli elementi di A sono rispettivamente: −4 4 2 4 2 −4 = 12, = 8, α12 = − = 16, α13 = α11 = 0 −2 3 −2 3 0
CAPITOLO 3. MATRICI
78
2 −3 = 4, α22 = 1 −3 = 7, α23 = − 1 2 = 6, α21 = − 3 −2 0 −2 3 0 2 −3 = −4, α32 = − 1 −3 = −10, α33 = 1 2 = −8. α31 = −4 4 2 4 2 −4 ⎛ ⎞ 8 4 −4 = ⎝16 7 −10⎠. La matrice aggiunta di A `e pertanto A 12 6 −8 La matrice aggiunta ha una notevole propriet` a per dimostrare la quale ci occorre il seguente Teorema 3.8.22. (Secondo teorema di Laplace) Assegnata una matrice quadrata di ordine n ⎛ ⎞ a11 a12 . . . a1n ⎜ a21 a22 . . . a2n ⎟ ⎜ ⎟ A=⎜ . .. .. ⎟, .. ⎝ .. . . . ⎠ an1
an2
...
ann
la somma degli n prodotti degli elementi della riga h-esima (h = 1, 2, ..., n) per i complementi algebrici dei corrispondenti elementi della riga h -esima, con h = h , `e nulla: ah1 αh 1 + ah2 αh 2 + · · · + ahn αh n = 0 ed `e anche nulla la somma degli n prodotti degli elementi della colonna k-esima (k = 1, 2, ..., n) per i complementi algebrici dei corrispondenti elementi della colonna k esima, con k = k : a1k α1k + a2k α2k + · · · + ank αnk = 0. Dimostrazione. Il motivo per cui tale sviluppo viene zero sta nel fatto che in questi casi stiamo calcolando il determinante di una matrice con due righe, o due colonne, uguali ed `e quindi nullo. Illustriamo in dettaglio il caso di ordine 4. Sia ⎛ a11 a12 a13 ⎜a21 a22 a23 A=⎜ ⎝a31 a32 a33 a41 a42 a43
⎞ a14 a24 ⎟ ⎟. a34 ⎠ a44
Il primo Teorema di Laplace equivale a dire che sviluppi lungo righe o colonne diverse, ad esempio a11 α11 + a12 α12 + a13 α13 + a14 α14 a21 α21 + a22 α22 + a23 α23 + a24 α24 oppure a11 α11 + a21 α21 + a31 α31 + a41 α41 danno lo stesso risultato, cio`e det A. In ciascuna di queste espressioni l’elemento aij `e moltiplicato per il suo cofattore αij : le coppie di indici sono uguali nei vari addendi.
3.8. DETERMINANTE
79
Il secondo teorema di Laplace risponde al quesito di cosa succeda se si prenda invece una espressione del tipo a11 α21 + a12 α22 + a13 α23 + a14 α24
(3.12)
Notare che stavolta gli indici dei coefficienti sono diversi dagli indici dei cofattori. ` come se avessimo fissato la prima riga ma poi preso i cofattori della seconda. Il E teorema afferma che in questo caso si ottiene zero. Il motivo `e che l’espressione (3.12) `e lo sviluppo del determinante della matrice seguente ⎛ ⎞ a11 a12 a13 a14 ⎜a11 a12 a13 a14 ⎟ ⎟ A=⎜ ⎝a31 a32 a33 a34 ⎠, a41 a42 a43 a44 determinante sicuramente nullo per l’esistenza di due righe uguali. Teorema 3.8.23 (Formula di Aggiunzione). Il prodotto di una matrice quadra `e una matrice diagonale avente det A sulla diagonale ta A per la sua aggiunta A principale: = diag(det A, det A, . . . , det A) = (det A)I AA (3.13) secondo la definizione e osserviamo che Dimostrazione. Calcoliamo il prodotto AA l’elemento di posto (1, 1) del risultato `e ottenuto prendendo a11 α11 + a12 α12 + · · · + a1n α1n che `e proprio lo sviluppo di Laplace del determinante di A lungo la prima riga e vale dunque det A. L’elemento di posto (1, 2) invece ha la forma a11 α21 + a12 α22 + · · · + a1n α2n che per il secondo teorema di Laplace vale invece 0. In generale dunque l’elemento di posto (i, i) `e uguale a det A mentre gli elementi di posto (i, j) con i = j sono nulli. Questo conclude la dimostrazione. Esempio 3.8.24. Considerando la matrice A dell’Esempio 3.8.21 in cui det A = 4, si ha ⎛
1 2 = ⎝2 −4 AA 3 0
⎞⎛ −3 8 4 ⎠ ⎝16 −2 12
4 7 6
⎞ ⎛ −4 4 −10⎠ = ⎝0 −8 0
0 4 0
⎞ 0 0⎠ . 4
Dal teorema precedente possiamo concludere che se A non `e invertibile allora = 0. Una conseguenza ancora pi` AA u interessante si ha per le matrici invertibili, perch´e in quel caso abbiamo = (det A)I AA
CAPITOLO 3. MATRICI
80
da cui possiamo immediatamente ricavare una formula per l’inversa di una matrice. Infatti, dividendo ambo i membri per det A, abbiamo A
A =I det A
cio`e A−1 =
A det A
(3.14)
Esempio 3.8.25. Sia ancora ⎛
1 2 A = ⎝2 −4 3 0
⎞ −3 4⎠ −2
la matrice considerata nell’Esempio 3.8.21, per la quale abbiamo gi` a determinato Poich´e det A = 4 = 0, la matrice A `e invertibile. l’aggiunta A. La matrice inversa di A `e pertanto: ⎞ ⎛ ⎞ ⎛ 8 4 −4 2 1 −1 1 A−1 = ⎝16 7 −10⎠ = ⎝4 7/4 −5/2⎠. 4 12 6 −8 3 3/2 −2 Il lettore pu`o verificare che effettivamente risulta AA−1 = A−1 A = I3 . Esempio 3.8.26. Sia A = −5 , α22 = 3. Se ne deduce:
3 2
5 . Si ha det A = 2, α11 = 4, α12 = −2, α21 = 4
1 4 −5 2 −5/2 = . −1 3/2 2 −2 3 Anche in questo caso `e semplice verificare che AA−1 = A−1 A = I2 . A−1 =
3.8.27
Regola di Cramer
In questa sezione spiegheremo un classico metodo di soluzione di sistemi lineari, la cosiddetta Regola di Cramer. Sussiste infatti il seguente teorema. Teorema 3.8.28. (di Cramer) Assegnato il sistema lineare ⎧ a11 x1 + a12 x2 + · · · + a1n xn = b1 ⎪ ⎪ ⎪ ⎨a x + a x + · · · + a x = b 21 1 22 2 2n n 2 ⎪ ................................................. ⎪ ⎪ ⎩ an1 x1 + an2 x2 + · · · + ann xn = bn supponiamo che la matrice A dei coefficienti del sistema sia invertibile. Indicate con A(k) (k = 1, 2, ..., n) le matrici ottenute dalla matrice A sostituendo la k-esima
3.8. DETERMINANTE
81
colonna con la colonna
⎛ ⎞ b1 ⎜ b2 ⎟ ⎜ ⎟ ⎜ .. ⎟ ⎝.⎠ bn
dei termini noti, risulta xk =
det A(k) det A
(k = 1, 2, ..., n).
Dimostrazione. Scriviamo il sistema nella forma matriciale AX = B. Se A `e invertibile, come stiamo supponendo, possiamo moltiplicare ambo i membri per A−1 e ottenere X = A−1 B, soluzione del sistema, unica in accordo col teorema 3.6.12. Ora abbiamo un modo per calcolarla. Dalla formula della matrice inversa abbiamo infatti X = A−1 B =
AB det A
In questa n-pla, scritta per colonna, l’i-esimo coefficiente `e ottenuto prendendo la moltiplicandola per la colonna dei termini noti e infine dividendola i-esima riga di A, per det A. Cio`e : b1 α1i + b2 α2i + · · · + bn αni . xi = det A Questo altro non `e che lo sviluppo di un determinante lungo la colonna i-esima di una matrice coincidente con A tranne nella colonna i-esima sostituita da quella dei det A termini noti. In altre parole abbiamo xi = det A(i) . Una dimostrazione alternativa della regola di Cramer, pi` u elegante e concisa ma forse meno adatta ad un primo approccio, `e la seguente: Dimostrazione. (Alternativa) Un sistema AX = B `e risolubile se e solo se B `e combinazione lineare delle colonne di A: B = x1 A1 + · · · + xn An . Abbiamo quindi det A(k) = det(A1 , . . . , B, . . . , An ) = det(A1 , . . . , (x1 A1 + · · · + xn An ), . . . , An ) = x1 det(A1 , . . . , A1 , . . . , An ) + · · · + xk det(A1 , . . . , Ak , . . . , An ) + · · · + xn (A1 , . . . , An , . . . , An ) = xk det A dove Ai `e la i-esima colonna di A, i = 1, . . . n. Abbiamo usato il punto 4 della Proposizione 3.8.11 e l’annullarsi di quasi tutti i determinanti in quanto aventi due colonne uguali. Di tutta la sommatoria rimane solo un addendo. Nell’ipotesi che det A = 0, possiamo ricavare la desiderata formula di Cramer. Esempio 3.8.29. Risolvere con la regola di Cramer il sistema AX = B, essendo A la matrice considerata nei precedenti esempi 3.8.21 e 3.8.25 e B = (1, 1, 1)T (qui
CAPITOLO 3. MATRICI
82
scritta come di un vettore riga per comodit`a grafica). Risulta det A = 4 ⎛ la trasposta ⎞ 8 4 −4 e A−1 = 14 ⎝16 7 −10⎠. Inoltre abbiamo 12 6 −8 8 4 1 8 1 −4 1 4 −4 1 7 −10 = 0 16 1 −10 = 8 16 7 1 = 4. 12 6 1 12 1 −8 1 6 −8 Ne consegue che l’unica soluzione `e
⎛ ⎞ ⎛ ⎞ 0 0 ⎜8⎟ X = ⎝ 4 ⎠ = ⎝2⎠ 4 1 4
3.8.30
Ancora sul rango di una matrice
In questa sezione vogliamo illustrare come il concetto di determinante possa aiutarci nella determinazione del rango di una matrice. Vedremo che si possono dare diverse nozioni di rango (si parla anche di caratteristica) di una matrice, che risultano per` o tutte equivalenti. Definizione 3.8.31. Sia A una matrice m × n: ⎞ ⎛ a11 a12 . . . a1n ⎜ a21 a22 . . . a2n ⎟ ⎜ ⎟ ⎜ .. .. .. ⎟. .. ⎝ . . . . ⎠ am1
am2
...
amn
Scelte s delle m righe ed s delle n colonne di A, gli elementi che giacciono agli incroci di tali righe e colonne costituiscono un minore d’ordine s di A. A volte, per abuso di linguaggio, col termine minore si usa anche indicare il determinante della matrice cos`ı trovata. Esempio 3.8.32. ⎛ ⎞ 3 −7 0 11 1 ⎜5 9 2 7 0 ⎟ ⎟. Sia A = ⎜ ⎝4 12 3 5 −20⎠ 11 −17 47 13 −2 Scegliendo la 1a , la 3a e la 4a riga, la 2a , la 4a e la 5a colonna, si ottiene il seguente minore di ordine 3 (con notazione autoesplicativa): ⎛ ⎞ −7 11 1 5 −20⎠. M (1, 3, 4|2, 4, 5) = ⎝ 12 −17 13 −2 Definizione 3.8.33. Assegnata una matrice quadrata A di ordine n, un suo minore di ordine m (m ≤ n) si dice principale se gli indici delle righe e delle colonne scelte coincidono. Un minore principale di ordine m si dice minore direttore se le righe e le colonne scelte sono le prime m della matrice A.
3.8. DETERMINANTE
83
Si osservi come la diagonale principale di un minore principale di una matrice quadrata A risulti una parte della diagonale principale di A. Esempio 3.8.34. Sia assegnata la matrice A di ordine 3: ⎛ ⎞ −1 0 2 ⎝ 4 3 5 ⎠. 7 6 −4 I minori principali di ordine 1 sono gli elementi della diagonale principale, quelli di ordine 2 sono: −1 0 −1 2 3 5 M (1, 2|1, 2) = , M (1, 3|1, 3) = , M (2, 3|2, 3) = . 4 3 7 −4 6 −4 mentre ad esempio
M (1, 2|2, 3) =
0 3
2 5
`e un minore non principale. L’unico minore di ordine 3 `e l’intera matrice A, ed `e, ovviamente, principale. Osservazione 3.8.35. In una matrice m×n non esistono ovviamente minori d’ordine superiore al pi` u piccolo tra i due numeri m, n. Definizione 3.8.36. Una matrice A si dice avere rango per minori r se esiste almeno un suo minore d’ordine r che abbia il determinante diverso da zero (un minore non nullo, per abuso di linguaggio) e se tutti i minori di ordine superiore ad r hanno determinante nullo (i minori di ordine superiore sono nulli, per abuso di linguaggio). Esempio 3.8.37. Sia assegnata la matrice 3 × 4 seguente: ⎛ ⎞ 1 −1 0 2 ⎝0 2 3 0⎠. 2 −4 −3 4 Essa possiede i seguenti 4 minori di ordine 3: ⎛ ⎞ ⎛ ⎞ −1 0 2 1 0 2 3 0⎠, M (1, 2, 3|1, 3, 4) = ⎝0 3 0⎠, M (1, 2, 3|2, 3, 4) = ⎝ 2 −4 −3 4 2 −3 4 ⎛ ⎞ ⎛ ⎞ 1 −1 0 1 −1 2 3 ⎠. M (1, 2, 3|1, 2, 4) = ⎝0 2 0⎠, M (1, 2, 3|1, 2, 3) = ⎝0 2 2 −4 −3 2 −4 4 Essi hanno, come pu` o facilmente calcolarsi, tutti determinante nullo. Poich´e tra i minori di ordine 2 c’`e , per esempio, 0 2 M (2, 3|1, 2) = 2 −4 con determinante diverso da zero, il rango per minori di A `e 2.
CAPITOLO 3. MATRICI
84
Il calcolo del rango per minori di una matrice m × n diviene notevolmente complicato con l’aumentare di m, n: in una matrice 6 × 5, per esempio, esistono: 1. 6 minori di ordine 5: i minori di ordine 5 si ottengono scegliendo tutte le 5 colonne disponibili e 5 su 6 righe in tutti i modi possibili. Il calcolo combinatorio ci dice che questo si pu`o fare in 55 65 = 6. 2. 75 minori di ordine 4: i minori di ordine 4 si ottengono scegliendo 4 delle 5 colonne o fare in 56 disponibili e 4 di 6 righe in tutti i modi possibili. Questo si pu` = 5 · 15 = 75. 4 4 3. 200 minori di ordine 3:essi si ottengono scegliendo 3 delle 5 colonne e 3 delle 6 righe disponibili: 53 63 = 10 · 20 = 200. 4. 150 minori di ordine 2: 52 62 = 10 · 15 = 150. 5. 30 minori di ordine 1: 51 61 = 5 · 6 = 30. Definizione 3.8.38. Si dice che un minore V di una matrice A orla un minore U se V si ottiene da U aggiungendo una riga e una colonna fra quelle di A che non compaiono gi` a in V . Si dice anche che V `e un orlato di U . Esiste un accorgimento, che permette di semplificare notevolmente la ricerca del rango per minori di una matrice A. Questo va sotto il nome di Teorema degli orlati o di Kronecker, che enunciamo senza dimostrazione: Teorema 3.8.39. Se in una matrice A esiste un minore V di ordine s avente determinante diverso da zero e se tutti i minori che si ottengono orlando V hanno determinante nullo, allora il rango di A `e s. Alla luce di questo teorema, nell’Esempio 3.8.37 si pu` o procedere pi` u brevemente come segue: osservato che il minore di ordine 2 0 2 V = M (2, 3|1, 2) = 2 −4 ha determinante diverso da zero, per decidere se il rango per minori di A `e 2, oppure 3, basta esaminare il determinante dei due minori (invece dei quattro precedenti): ⎞ ⎛ ⎞ ⎛ 1 −1 0 1 −1 2 3⎠ M (1, 2, 3|1, 2, 4) = ⎝0 2 0⎠, M (1, 2, 3|1, 2, 3) = ⎝0 2 2 −4 −3 2 −4 4 che sono gli unici ottenuti orlando V in tutti i modi possibili. Poich´e tali determinanti sono nulli, il rango per minori `e appunto 2. Definizione 3.8.40. Le matrici m × 1 ⎛
⎞ a11 ⎜ a21 ⎟ ⎜ ⎟ ⎜ .. ⎟ ⎝ . ⎠ am1
3.8. DETERMINANTE
85
vengono anche chiamate vettori colonna, mentre le matrici 1 × n a11 a12 . . . a1n sono dette vettori riga. Definizione 3.8.41. Assegnata una matrice A di ordine m×n, rimangono individuati due sottospazi vettoriali: R(A), lo spazio generato dalle righe di A, ossia R1 , R2 , . . . , Rm sottospazio di M (1 × n, R), detto spazio delle righe di A, e C(A), lo spazio generato dalle colonne di A, ossia C1 , C2 , . . . , Cn , sottospazio di M (m × 1, R), detto spazio delle colonne di A. Definizione 3.8.42. Si chiama rango per righe di una matrice A la dimensione di R(A), ossia il numero massimo di righe linearmente indipendenti di A. Analogamente il rango per colonne di A `e definito come la dimensione di C(A), ossia il numero massimo di colonne di A linearmente indipendenti. Lemma 3.8.43. Se due matrici A e B sono equivalenti per righe, allora esse hanno lo stesso spazio delle righe: R(A) = R(B). Dimostrazione. Basta verificare che, operando con un’operazione elementare sulle righe, lo spazio generato da esse non cambia. Questo `e evidente per operazioni di tipo I, perch´e queste cambiano solo l’ordine delle righe che `e irrilevante ai fini dello ` anche facile verificare che un’operazione di tipo II non spazio da esse generato. E cambia lo spazio delle righe in quanto ad un generatore `e stato sostituito un suo multiplo non nullo. Infine, se operiamo con un’operazione di tipo III, abbiamo da un ` facile lato R(A) = R1 , . . . , Rm e dall’altro R(B) = R1 , . . . , Ri + kRj , . . . , Rm . E convincersi che R(B) ⊂ R(A): infatti un elemento di R(B) `e a1 R1 +· · ·+ai (Ri +kRj )+· · ·+am Rm = a1 R1 +· · ·+ai Ri +· · · (aj +ai k)Rj +· · ·+am Rm ed `e quindi anche un elemento di R(A). Per l’inclusione inversa basta osservare che, a causa dell’invertibilit`a delle operazioni elementari, anche A si ottiene da B con una operazione elementare dello stesso tipo, comportando R(A) ⊂ R(B), da cui l’uguaglianza R(A) = R(B). Una conseguenza immediata di questo lemma `e la seguente Proposizione 3.8.44. Il rango per righe di una matrice coincide con il rango per pivot. Dimostrazione. Il lemma implica che R(A) = R(R) dove R `e la forma a gradini ridotta di A. Rimane solo da verificare che dim(R(R)) `e uguale al numero di pivot, chiamiamolo r. Dato che eventuali righe nulle non danno alcun contributo allo spazio generato dalle righe, dobbiamo solo verificare la lineare indipendenza delle r righe non nulle di R, propriet`a del tutto evidente, dato che i vettori riga presentano i pivot in posizioni tutte differenti.
CAPITOLO 3. MATRICI
86
Esempio 3.8.45. Per chiarire l’ultima parte della dimostrazione, consideriamo una matrice A la cui forma a gradini ridotta sia del tipo ⎛ ⎞ 0 1 0 0 0 a b c ⎜0 0 1 0 0 d e f ⎟ ⎜ ⎟ ⎝0 0 0 0 1 g h i ⎠ . 0 0 0 0 0 0 0 0 Le righe della forma a gradini R, che contengono pivot, sono R1 = (0, 1, 0, 0, 0, a, b, c), R2 = (0, 0, 1, 0, 0, d, e, f ), R3 = (0, 0, 0, 0, 1, g, h, i). Prendiamo una combinazione lineare di queste e poniamola uguale a zero: α1 R1 + α2 R2 + α3 R3 = (0, 0, 0, 0, 0, 0, 0, 0). Questa relazione si traduce in (0, α1 , α2 , 0, α3 , α1 a+α2 b+α3 g, α1 b+α2 e+α3 h, α1 c+α2 f +α3 i) = (0, 0, 0, 0, 0, 0, 0, 0) da cui discende che α1 = 0, α2 = 0, α3 = 0. Si osservi che i dati a, b, c, d, e, f, g, h, i risultano del tutto irrilevanti. Si pu` o osservare che un ragionamento analogo vale anche per le colonne. Nell’esempio dato le colonne contenenti i pivot sono C2 , C3 , C5 . Una loro combinazione lineare uguagliata a zero ci d` a α2 C2 + α3 C3 + α5 C5 = 0 da cui α2 = 0, α3 = 0, α5 = 0. Concludiamo che le righe e le colonne contenenti i pivot ` anche chiaro che un insieme di righe o colonne che sono linearmente indipendenti. E contenga propriamente le righe o colonne contenenti i pivot `e linearmente dipendente. Questo significa in particolare che le righe o colonne con i pivot costituiscono una base del corrispondente spazio delle righe e delle colonne. Osservazione 3.8.46. Abbiamo dunque visto che, se R `e la forma a gradini di una matrice A, allora R(A) = R(R). Dato che nell’operare sulle righe non si conserva per`o lo spazio delle colonne, in generale si ha C(A) = C(R). Tuttavia, la dimensione di questi due spazi, pur differenti, `e la medesima come ci apprestiamo a dimostrare. Proposizione 3.8.47. Il rango per colonne di A `e uguale al suo rango per pivot. Dimostrazione. Sia A = (C1 , . . . , Cn ) la matrice A scritta per colonne. Sappiamo, dalla sezione 3.6.13 che la forma a gradini ridotta R di A si pu` o ottenere come prodotto R = V A, per un’opportuna matrice invertibile V . Si ha quindi R = V A = (V C1 , . . . , V Cn ). Detto r il rango di A per pivot, supponiamo di selezionare quelle r colonne che contengono i pivot e siano esse V Cj1 , . . . , V Cjr . Queste formano una base dello spazio delle colonne di R, come si pu` o verificare facilmente in maniera analoga a quanto fatto sopra per le righe. Per poter concludere, occorre dimostrare che le colonne Cj1 , . . . , Cjr
3.8. DETERMINANTE
87
costituiscono una base per lo spazio C(A). In definitiva, occorre controllare che esse siano linearmente indipendenti e che costituiscano un insieme di generatori per C(A). Perch´e sono indipendenti? Prendiamo una loro combinazione lineare e poniamola uguale a zero: a1 Cj1 + · · · + ar Cjr = 0. Dimostriamo che tutti i coefficienti a1 , . . . , ar sono nulli. Moltiplichiamo la relazione precedente per V , ottenendo V (a1 Cj1 + · · · + ar Cjr ) = a1 V Cj1 + · · · + ar V Cjr = 0. Dato che V Cj1 , . . . , V Cjr costituiscono una base di C(R), esse sono linearmente indipendenti, da cui a1 = · · · = ar = 0, come richiesto. Perch´e sono dei generatori di C(R)? Un qualunque elemento di C(A) `e, per definizione, una combinazione lineare di tutte le colonne di A, cio`e del tipo C = a1 C 1 + · · · + a n C n . Moltiplicando ora per V , si ha V C = a1 V C1 + · · · + an V Cn , elemento di C(R). Poich´e V Cj1 , . . . , V Cjr sono generatori dello spazio delle colonne di R, ne segue che V C = b1 V Cj1 + · · · + br V Cjr . Infine, moltiplicando per la matrice inversa V −1 , si ottiene C = b1 Cj1 + · · · + br Cjr , come desiderato. Passiamo ora ad esaminare il caso del rango per minori. Vogliamo dimostrare che il rango per minori eguaglia gli altri ranghi gi` a esaminati. Premettiamo il seguente lemma. Lemma 3.8.48. Il rango per minori di una matrice A uguaglia il rango per minori della sua forma a gradini ridotta R. Dimostrazione. Basta verificare che ogni operazione elementare lascia invariato il rango per minori di una matrice. Sia r il rango per minori di A e V un minore di ordine r con determinante diverso da zero. Scambiando due righe di A si ottiene una nuova matrice A i cui minori sono costituiti dalle stesse righe dei minori di A eventualmente prese in ordine diverso. Ci`o pu`o alterare i determinanti dei minori solo per quanto riguarda il segno. In questo caso il rango per minori di A uguaglia quello di A . Moltiplicando una riga di A per uno scalare non nullo i determinanti dei minori rimangono uguali o si alterano per quel fattore. In ogni caso il rango per minori rimane invariato. Operando infine con una operazione elementare di tipo III, per il Teorema 3.8.9, i determinanti dei minori non cambiano. Anche in questo caso il rango per minori `e invariato. Proposizione 3.8.49. Il rango per minori di una matrice A `e uguale al rango per pivot di A. Dimostrazione. Sia r il rango per pivot di A. Per il lemma precedente possiamo sostituire ad A la sua forma a gradini ridotta R:
CAPITOLO 3. MATRICI
88 ⎛
0 ... 0 ⎜0 ... 0 ⎜ ⎜0 ... 0 ⎜ ⎜ .. . . .. ⎜. . . ⎜ ⎜0 ... 0 ⎜ ⎜0 ... 0 ⎜ ⎜. . . ⎝ .. . . .. 0 ... 0
1 0 ... 0 0 0 ... 0 0 0 ... 0 .. .. . . .. . . .. 0 0 ... 0 0 0 ... 0 .. .. . . .. . . ..
0 0 ... 0 1 0 ... 0 0 0 ... 0 .. .. . . .. . . .. 0 0 ... 0 0 0 ... 0 .. .. . . .. . . ..
0 0 ... 0 0 0 ... 0 1 0 ... 0 .. .. . . .. . . .. 0 0 ... 0 0 0 ... 0 .. .. . . .. . . ..
... ... .. .
0
0
0
...
0 ... 0
0 ... 0
0 ... 0
... ... ... .. .
⎞ 0 ∗ ... ∗ 0 ∗ ... ∗⎟ ⎟ ⎟ 0 ∗ ... ∗⎟ .. .. . . .. ⎟ . . . .⎟ ⎟ 1 ∗ ... ∗⎟ ⎟ 0 0 ... 0⎟ ⎟ .. .. . . .. ⎟ . . . .⎠ 0 0 ... 0
Il minore costituito dalle righe e dalle colonne che contengono i pivot ha determinante 1, quindi non nullo, ed ogni suo orlato, avendo una riga di zeri, ha determinante nullo. Poich´e tale minore ha ordine uguale al numero dei pivot, cio`e r, ne segue la tesi. In definitiva possiamo riassumere: Teorema 3.8.50. Assegnata una matrice A, il rango per pivot, il rango per minori, il rango per righe e il rango per colonne di A coincidono. A seguito di questo teorema ha senso parlare di rango di una matrice A senza ulteriori specificazioni. Il rango di A verr` a indicato con rgA. Riprendendo l’Esempio 3.8.37, osserviamo come il valore 2 del rango (per minori) di A implichi, per le proposizioni precedenti, che, comunque si scelgano tre righe di A, esse risultino linearmente dipendenti,mentre le due righe (0, 2, 3, 0), (2, −4, −3, 4), che 0 2 concorrono a formare il minore V = di ordine 2, con determinante diverso 2 −4 da zero, sono linearmente indipendenti. Ne consegue, per la Proposizione 2.2.9, che l’ulteriore riga, cio`e la quaterna (1, −1, 0, 2), `e combinazione lineare delle altre due. Analogamente, comunque si prendano tre (o quattro) colonne di A, esse risultano linearmente dipendenti, mentre le due colonne che concorrono a formare il minore V , cio`e le terne (1, 0, 2), (−1, 2, −4), sono linearmente indipendenti. Ogni altra colonna `e combinazione lineare di esse, sempre a norma della Proposizione 2.2.9. Sottolineiamo dunque come il calcolo del rango di una matrice sia utile per stabilire se m vettori assegnati di Rn siano o meno linearmente indipendenti. Infatti basta considerare la matrice A che ha per righe (o per colonne) i vettori considerati (in un qualsiasi ordine) e determinarne il rango. Gli m vettori risultano linearmente indipendenti se e solo se rgA = m. Esempio 3.8.51. Verifichiamo se i vettori v1 = (1,3,−2), v2 = (−1,2,1), v3 = (5,0,−7) di R3 sono linearmente indipendenti. Consideriamo allora la matrice ⎛ ⎞ 1 3 −2 A = ⎝−1 2 1 ⎠. 5 0 −7 Poich´e il determinante di A risulta essere zero, se ne deduce che il rango di A non pu` o essere 3, dato che A `e l’unico minore di ordine 3 presente in A stessa. Si conclude quindi che i tre vettori assegnati sono linearmente dipendenti.
3.8. DETERMINANTE
89
Esempio 3.8.52. Si calcoli il rango della matrice con il metodo di riduzione di Gauss ⎞ ⎛ 0 2 −2 10 −6 2 ⎜ 1 0 1 −2 2 −1⎟ ⎟ ⎜ ⎟ A=⎜ ⎜ 3 1 2 −1 3 −2⎟. ⎝−1 0 1 2 1 1⎠ 0 2 −1 3 4 1 Conviene cominciare con alcuni scambi tra ⎛ 1 0 1 −2 ⎜ 3 1 2 −1 ⎜ ⎜−1 0 1 2 ⎜ ⎝ 0 2 −2 10 0 2 −1 3
righe. Si ottiene: ⎞ 2 −1 3 −2⎟ ⎟ 1 1⎟ ⎟. −6 2 ⎠ 4 1
Sommando alla seconda riga la prima moltiplicata per −3 e alla terza riga la prima moltiplicata per 1, si ha: ⎛ ⎞ 1 0 1 −2 2 −1 ⎜0 1 −1 5 −3 1 ⎟ ⎜ ⎟ ⎜0 0 2 0 3 0⎟ ⎜ ⎟. ⎝0 2 −2 10 −6 2 ⎠ 0 2 −1 3 4 1 Bisogna riordinare le righe, successivi: ⎛ 1 ⎜0 ⎜ ⎜0 ⎜ ⎝0 0
perch´e il pivot della terza riga `e a destra di quelli 0 1 1 −1 2 −2 2 −1 0 2
−2 2 5 −3 10 −6 3 4 0 3
⎞ −1 1⎟ ⎟ 2⎟ ⎟. 1⎠ 0
Sommando alla terza riga la seconda moltiplicata per −2 e alla quarta riga la seconda moltiplicata per −2, si ottiene: ⎛ ⎞ 1 0 1 −2 2 −1 ⎜0 1 −1 5 −3 1 ⎟ ⎜ ⎟ ⎜0 0 0 0 0 0⎟ ⎜ ⎟. ⎝0 0 1 −7 10 −1⎠ 0 0 2 0 3 0 Riordiniamo di nuovo le righe, dato che la ⎛ 1 0 1 −2 ⎜0 1 −1 5 ⎜ ⎜0 0 1 −7 ⎜ ⎝0 0 2 0 0 0 0 0
terza riga `e nulla: ⎞ 2 −1 −3 1 ⎟ ⎟ 10 −1⎟ ⎟. 3 0⎠ 0 0
CAPITOLO 3. MATRICI
90
Sommando alla quarta riga la terza moltiplicata per −2: ⎛
1 ⎜0 ⎜ ⎜0 ⎜ ⎝0 0
0 1 −2 2 1 −1 5 −3 0 1 −7 10 0 0 14 −17 0 0 0 0
⎞ −1 1⎟ ⎟ −1⎟ ⎟, 2⎠ 0
si ottiene la matrice a gradini cercata. Dato che essa ha rango 4, tale risulta anche il rango di A. Esempio 3.8.53. Sia data la matrice ⎛ 1 −1 A = ⎝0 2 2 −4
0 3 −3
⎞ 2 0⎠ . 4
1. Calcolare la sua forma a gradini ridotta R e dedurne il rango di A. 2. Calcolare il suo rango per minori. 3. Determinare una base per R(A). 4. Determinare una base per C(A). 5. Sfruttare quanto appreso sul rango di una matrice per determinare una base del sottospazio di R4 generato dai seguenti vettori: (1, 2, 3, 1), (2, 1, 0, 5), (−2, 0, 1, −5), (4, 3, −2, 13), (1, 1, 1, 2). Soluzione. 1. La forma a gradini ridotta della matrice `e ⎛ 1 0 32 ⎜ R = ⎝0 1 32 0 0 0
⎞ 2 ⎟ 0⎠ 0
Dunque il rango per pivot `e 2. 2. Osserviamo che il determinante del minore M (1, 2|1, 2) `e non nullo. Per il teorema degli orlati, basta controllare i minori M (1, 2, 3|1, 2, 3) e M (1, 2, 3|1, 2, 4) che sono entrambi nulli. Quindi il rango per minori `e 2. 3. Sappiamo che R(A) = R(R) e quindi una base di R(A) `e data da 3 3 {(1, 0, , 2), (0, 1, , 0)} 2 2
3.8. DETERMINANTE
91
4. Pur sapendo che, in generale, C(A) = C(R), possiamo scegliere, come gi` a osservato nel corso della dimostrazione della Proposizione 3.8.47, le colonne di A con indice uguale a quello delle colonne dei pivot in R. Nel nostro caso la prima e la seconda colonna, cio`e {(1, 0, 2)T , (−1, 2, −4)T }. Osservazione: si sarebbe potuto operare sulle righe della matrice trasposta di A che `e come operare con operazioni elementari sulle colonne di A, e poi reinterpretare il risultato. 5. Conviene prendere una matrice che ha i vettori assegnati come righe ed operare con l’algoritmo di Gauss. Si trova che la matrice ⎛ ⎞ 1 2 3 1 ⎜2 1 0 5⎟ ⎟ ⎜ ⎟ −2 0 1 −5 A=⎜ ⎟ ⎜ ⎝ 4 3 −2 13 ⎠ 1 1 1 2 ha forma a gradini ridotta
⎛
1 ⎜0 ⎜ R=⎜ ⎜0 ⎝0 0
0 1 0 0 0
0 0 1 0 0
⎞ 2 1⎟ ⎟ −1⎟ ⎟. 0⎠ 0
Una base `e dunque {(1, 0, 0, 2), (0, 1, 0, 1), (0, 0, 1, −1)}. Osservazione 3.8.54. Si pu`o dimostrare che il numero di operazioni necessarie a calcolare un determinante di ordine n in modo efficiente `e (n − 1)n! mentre sono 3 necessarie n3 operazioni per svolgere l’algoritmo di Gauss su una matrice di ordine n. Se n = 8, nel primo caso abbiamo quindi bisogno di 7(8!) =282240 operazioni, nel secondo caso di circa 171 operazioni. Svolgendo una operazione al secondo nel primo caso occorrono 282240 secondi cio`e circa tre giorni di lavoro ininterrotto. Nel secondo caso ce la caviamo con 171 secondi: circa 3 minuti. Pensando di usare un calcolatore: nel 2013 il pi` u veloce supercomputer poteva svolgere 33, 86 × 1015 operazioni al secondo e dunque in entrambi i casi precedenti la soluzione sarebbe pressoch´e istantanea. Scriviamo una tabella di risultati che danno i tempi di svolgimento di calcolo di un determinante di ordine n, usando la definizione oppure l’algoritmo di Gauss. n 8 20 30 100
Determinante 8, 3 × 10−12 secondi 1364 secondi = 22 minuti 2, 2 × 1017 sec= 7 miliardi di anni 3 × 10157 vite dell’universo
Gauss 5, 0 × 10−15 7, 8 × 10−14 2, 6 × 10−13 9, 8 × 10−12
secondi secondi secondi secondi
CAPITOLO 3. MATRICI
92
Risulta evidente che nessun calcolatore user`a la definizione per calcolare il valore di un determinante. Esempio 3.8.55.
Si calcoli il determinante della matrice ⎛
1 ⎜2 A=⎜ ⎝0 3
2 3 0 4
−1 −1 3 1
⎞ 3 2⎟ ⎟. 1⎠ −2
Scambiando le ultime due righe: ⎛
1 ⎜2 ⎜ ⎝3 0
2 −1 3 −1 4 1 0 3
⎞ 3 2⎟ ⎟. −2⎠ 1
Sommando alla seconda riga la prima moltiplicata per −2 e alla terza riga la prima moltiplicata per −3, si ha: ⎛
⎞ 1 2 −1 3 ⎜0 −1 1 −4 ⎟ ⎜ ⎟ ⎝0 −2 4 −11⎠. 0 0 3 1 Sommando alla terza riga la seconda moltiplicata per −2: ⎛
⎞ 1 2 −1 3 ⎜0 −1 1 −4⎟ ⎜ ⎟. ⎝0 0 2 −3⎠ 0 0 3 1 Sommando alla quarta riga la terza moltiplicata per −3/2, si ottiene la matrice: ⎛
1 2 ⎜0 −1 ⎜ ⎝0 0 0 0
−1 1 2 0
⎞ 3 −4 ⎟ ⎟, −3 ⎠ 11/2
il cui determinante vale 1 · (−1) · 2 · 11/2 = −11. Poich´e per`o abbiamo attuato uno scambio (quindi un numero dispari di scambi) tra righe, il determinante di A vale 11.
3.9. ANCORA SUI SISTEMI LINEARI DI M EQUAZIONI IN N INCOGNITE 93
3.9
Ancora sui sistemi lineari di m equazioni in n incognite
Torniamo brevemente sullo studio di sistemi lineari alla luce delle considerazioni svolte sul rango. Si consideri pertanto il sistema di m equazioni in n incognite ⎧ a11 x1 + a12 x2 + · · · + a1n xn = b1 ⎪ ⎪ ⎪ ⎨a x + a x + · · · + a x = b 21 1 22 2 2n n 2 ⎪................................................. ⎪ ⎪ ⎩ am1 x1 + am2 x2 + · · · + amn xn = bm
.
(3.15)
Abbiamo gi`a osservato che, considerate le matrici dei coefficienti A e completa C del sistema, si ha rgA ≤ rgC. Rileviamo ora che l’eguaglianza rgA = rgC vale se e soltanto se, aggiungendo la colonna B alle colonne di A, non aumenta il massimo numero di colonne linearmente indipendenti e questo avviene se e solo se B risulta combinazione lineare delle colonne di A. Possiamo rienunciare il Teorema di Rouch´e - Capelli e darne una nuova dimostrazione. Teorema 3.9.1. (di Rouch´ e - Capelli) Condizione necessaria e sufficiente affinch´e il sistema (3.15) ammetta soluzione `e che le matrici A e C abbiano il medesimo rango. In tale ipotesi, posto rgA = rgC = r, il sistema ammette una sola soluzione se r = n, ammette invece ∞n−r soluzioni, cio`e infinite soluzioni dipendenti da n − r parametri reali, se r < n. ` conveniente considerare il sistema nella forma: Dimostrazione. E x1 A1 + x2 A2 + · · · + xn An = B. Un’eventuale n-pla soluzione (x1 , x2 , ..., xn ) permette di esprimere la m-pla B come combinazione lineare delle m-ple A1 , A2 , ..., An . Questo, per l’osservazione precedente, accade se e solo se rgA = rgC. Sia ora rgA = rgC = r. Se r=0, risulta A1 = · · · = An = B = 0, nel qual caso ogni n-pla (x1 , . . . , xn ) `e soluzione. Ne segue che si hanno ∞n soluzioni. Supponiamo r > 0. Senza perdere di generalit` a, possiamo supporre che il minore di ordine r con determinante diverso da zero (esistente per definizione di rango per minori) sia costruito mediante le prime r righe e le prime r colonne della matrice C. Questo equivale a dire che tali righe e tali colonne sono linearmente indipendenti. Le ulteriori righe (colonne) sono combinazioni lineari delle prime r righe (colonne) di C (dato il significato dei ranghi per righe e per colonne e la Proposizione 2.2.9). Ci` o implica che le eventuali equazioni oltre le prime r sono soddisfatte dalle soluzioni delle prime r e quindi possono essere ignorate. Il sistema lineare assume allora la forma detta ridotta: ⎧ a11 x1 + a12 x2 + · · · + a1n xn = b1 ⎪ ⎪ ⎪ ⎨a x + a x + · · · + a x = b 21 1 22 2 2n n 2 ⎪ ................................................. ⎪ ⎪ ⎩ ar1 x1 + ar2 x2 + · · · + arn xn = br
CAPITOLO 3. MATRICI
94
(ovviamente se r = m, il sistema rimarr`a immutato). Distinguiamo adesso due casi. Se r = n, abbiamo un sistema di n equazioni in n incognite la cui matrice incompleta a n righe e n colonne ha rango n, cio`e ha determinante diverso da zero. Per il Teorema di Cramer, il sistema ammette una sola soluzione. Se invece r < n, portiamo a secondo membro le incognite xr+1 , ..., xn : ⎧ a11 x1 + a12 x2 + · · · + a1r xr = b1 − a1,r+1 xr+1 − a1n xn ⎪ ⎪ ⎪ ⎨ a21 x1 + a22 x2 + · · · + a2r xr = b2 − a2,r+1 xr+1 − a2n xn ⎪ ................................................................................ ⎪ ⎪ ⎩ ar1 x1 + ar2 x2 + · · · + arr xr = br − ar,r+1 xr+1 − arn xn
.
Per ogni scelta arbitraria delle incognite xr+1 , ..., xn , abbiamo un sistema di r equazioni in r incognite la cui matrice incompleta a r righe e r colonne ha rango r, cio`e ha determinante diverso da zero. Per il teorema di Cramer, il sistema ammette una sola soluzione, ma questo avviene, lo sottolineiamo, per ogni scelta arbitraria di xr+1 , ..., xn , che, potendo assumere qualunque valore, vengono detti parametri liberi. Abbiamo cos`ı infinite soluzioni che dipendono da n − r parametri liberi. Illustriamo l’utilit`a del teorema di Rouch´e - Capelli con ulteriori esempi. Esempi 3.9.2. a) Si consideri il sistema:
Si ha:
⎧ ⎪ ⎨2x + y − z = 2 x −y =0 ⎪ ⎩ x + 5y − 2z = 4
⎛
⎞ 2 1 −1 A = ⎝1 −1 0 ⎠, 1 5 −2
⎛
.
2 1 C = ⎝1 −1 1 5
−1 0 −2
⎞ 2 0⎠. 4
Dato che tutti i minori di ordine 3 in C (e quindi anche in A) hanno determinante 0, mentre esistono minori di ordine 2 in A (e quindi in C) con determinante diverso da 0, si ha rgA = 2, rgC = 2. Il sistema ammette quindi ∞3−2 = ∞1 soluzioni per il Teorema 3.9.1. Un minore di ordine 2 con determinante diverso da 0 `e per esempio: 2 1 1 −1 costituito dai coefficienti delle incognite x, y nelle prime due equazioni. Possiamo perci`o cancellare la terza equazione del sistema e portare a secondo membro la restante incognita z: 2x + y = 2 + z . x −y =0 Risolvendo quindi il sistema rispetto alle variabili x, y otteniamo: x=y=
1 (2 + z). 3
3.9. ANCORA SUI SISTEMI LINEARI DI M EQUAZIONI IN N INCOGNITE 95 Attribuendo valori arbitrari alla z, otteniamo le ∞1 soluzioni (per esempio (2/3, 2/3, 0), (1, 1, 1), (1/3, 1/3, −1) etc.). b) Sia assegnato il sistema:
⎧ ⎪ ⎨2x + y − z = 2 x −y =0 ⎪ ⎩ x + 5y − 2z = 3 ⎞ 1 −1 −1 0 ⎠, 5 −2
⎛
Si ha:
2 A = ⎝1 1
.
⎛
2 C = ⎝1 1
1 −1 5
−1 0 −2
⎞ 2 0⎠. 3
In questo caso rgA = 2 , rgC = 3. A norma del teorema di Rouch´e - Capelli, il sistema non ammette soluzioni. c) Sia assegnato il sistema:
⎧ ⎪ ⎨x + y = 1 x −y =1 ⎪ ⎩ 3x + y = 3 ⎛
⎞ 1 1 A = ⎝1 −1⎠, 3 1
Risulta:
.
⎛
1 C = ⎝1 3
1 −1 1
⎞ 1 1⎠ . 3
Si ha rgA = 2 , rgC = 2. Il sistema ammette quindi soluzioni e ne ammette una sola perch´e il rango `e uguale al numero delle incognite. Per determinarla consideriamo un minore di ordine 2 con determinante diverso da 0, per esempio: 1 1 . 1 −1 Cancelliamo l’equazione che non `e interessata da tale minore e cio`e la terza. Otteniamo il sistema: x+y =1 x−y =1 la cui unica soluzione `e (1, 0). d) Si consideri il sistema:
Si ha: A=
1 1
1 1
x1 + x2 + 2x3 − x4 = 1 x1 + x2 + x3 + 3x4 = −1 2 −1 , 1 3
C=
1 1
1 1
.
2 −1 1 3
1 . −1
CAPITOLO 3. MATRICI
96
Si ha rgA = 2 , rgC = 2. Il sistema ammette quindi ∞2 soluzioni. Stavolta non possiamo scegliere come minore fondamentale quello formato dalle prime due righe e dalle prime due colonne, dato che quel minore ha determinante nullo. Scegliamo invece quello formato dalla prima e dalla terza colonna: 1 2 . 1 1 Operando come nei casi precedenti portiamo a secondo membro le incognite x 2 , x4 : x1 + 2x3 = 1 − x2 + x4 . x1 + x3 = −1 − x2 − 3x4 Risolvendo rispetto alle incognite x1 , x3 , si ottiene: x1 = −3 − x2 − 7x4 ,
x3 = 2 + 4x4 .
Le ∞2 soluzioni sono pertanto le quaterne (−3 − α − 7β, α, 2 + 4β, β)
∀α, β ∈ R.
e) Si consideri il sistema:
Risulta:
A=
1 −1 2 −2
x1 − x2 + 3x3 − 2x4 = −1 2x1 − 2x2 + 6x3 − 4x4 = 1
3 6
−2 , −4
C=
.
1 −1 3 −2 2 −2 6 −4
−1 . 1
Si ha rgA = 1, rgC = 2. Il sistema non ammette quindi soluzioni.
Capitolo 4
DIAGONALIZZAZIONE DI MATRICI 4.1
Introduzione e motivazione
Supponiamo che la popolazione di un paese, ad esempio l’Italia, migri da una zona all’altra del suo territorio nel modo seguente: ogni anno il 50% della popolazione del Nord si sposta al Sud, mentre solo il 25% della popolazione del Sud si sposta al Nord. Se questo modello di migrazione continua, anno dopo anno, cosa succeder`a? La popolazione del Nord si sposter` a tutta al Sud o magari si stabilizzer` a prima che il Nord rimanga deserto? Per rispondere a questa domanda, indichiamo con nk e sk le porzioni di popolazione rispettivamente del Nord e del Sud al termine del k-esimo o riassumere come anno, (quindi nk + sk = 1 per ogni k). Il modello descritto si pu` segue: nk+1 = 12 nk + 14 sk (4.1) sk+1 = 12 nk + 34 sk che pu`o essere riscritto pi` u sinteticamente come 1 1 nk nk+1 2 4 = 1 2 . sk+1 sk 2
1
La matrice T =
2 1 2
(4.2)
4
1 4 2 4
si dice matrice di transizione. Osserviamo che, indicando con Pk =
nk sk
la popola-
zione nell’anno k, si ha in generale Pk+1 = T k+1 P0 . Per capire l’andamento della popolazione a lungo termine, occorre quindi capire il comportamento della matrice T k quando k tende all’infinito. Ora, ci si pu` o facilmente
98
CAPITOLO 4. DIAGONALIZZAZIONE DI MATRICI
rendere conto che il calcolo delle potenze T k non `e agevole. Possiamo per`o osservare che, introducendo la matrice 1 1 C= , 2 −1 abbiamo la notevolissima propriet`a C −1 T C = D, dove D `e la matrice diagonale
D=
1 0
0
1 4
(verificare questo calcolo per esercizio) e di conseguenza CDC −1 = T. Il vantaggio `e allora che per calcolare T k si pu`o procedere cos`ı: T k = (CDC −1 )(CDC −1 ) · · · (CDC −1 ) e, poich´e C −1 C = I, abbiamo
T k = CDk C −1 .
(4.3)
(4.4)
Osserviamo infine che calcolare le potenze di una matrice diagonale `e molto pi` u facile del caso generale. Infatti 1 0 Dk = (4.5) 0 ( 14 )k Poich´e infine
D∞ = lim Dk =
si ha T∞ = (CD∞ C
−1
1 0
0 0
1 )=
3 2 3
(4.6) 1 3 2 3
(verificare i calcoli) e quindi la popolazione a lungo termine `e 1 1 1 1 3 n0 + 3 s 0 3 (n0 + s0 ) 3 = 2 P ∞ = T ∞ P0 = 2 = 2 2 n + s (n + s ) 0 0 3 0 3 0 3 3
(4.7)
(4.8)
essendo per ipotesi n0 + s0 = 1. In conclusione, se questo schema di migrazione non varia, a lungo termine la popolazione si stabilizzer`a in modo tale che al Nord ci sar`a un terzo della popolazione totale, e al Sud i due terzi. Osserviamo, per finire, che se la popolazione iniziale fosse proprio 1 3 2 3
4.2. AUTOVALORI E AUTOVETTORI
99
la popolazione rimarrebbe costante anno per anno in quanto 1 1 1 1 2 1 2
4 2 4
3 2 3
=
3 2 3
.
` naturale domandarsi: E • Qual `e l’origine di C? • Si pu` o sempre trovare una tale C? • Come determinare, se possibile, un vettore come transizione?
1 3 2 3
che non cambia nella
Il nostro prossimo compito sar`a di rispondere a queste domande.
4.2
Autovalori e Autovettori
Definizione 4.2.1. Assegnata una matrice quadrata A di ordine n, un vettore colonna non nullo X di ordine n × 1 si dice autovettore di A relativo all’autovalore λ, se vale la relazione seguente AX = λX. (4.9) 1 Ad esempio, il vettore
3 2 3
della sezione precedente `e un autovettore di T relativo
all’autovalore λ = 1. Cerchiamo di dare una risposta alle domande poste in conclusione del paragrafo precedente. Per questo scopo, ci domandiamo per prima cosa se sia sempre possibile trovare degli autovalori e autovettori di una assegnata matrice. La risposta, vedremo, `e piuttosto articolata. Per cominciare, prendiamo in considerazione l’equazione (4.9). A ben vedere si tratta di un sistema lineare omogeneo che possiamo scrivere in forma pi` u usuale come segue (λI − A)X = 0. (4.10) Abbiamo dunque un SLO la cui matrice dei coefficienti `e λI − A. Il Teorema 3.6.12 ci dice che una condizione necessaria e sufficiente affinch´e esso abbia autosoluzioni `e che la matrice dei coefficienti λI − A sia non invertibile. Il Teorema 3.8.17 a sua volta ci dice che ci`o equivale ad avere det(λI − A) = 0
(4.11)
con λ da determinarsi. Consideriamo quindi l’equazione nell’incognita x det(xI − A) = 0.
(4.12)
100
CAPITOLO 4. DIAGONALIZZAZIONE DI MATRICI
Definizione 4.2.2. Il primo membro della (4.12) `e un polinomio che si dice polinomio caratteristico di A, che indicheremo con cA (x), e l’equazione (4.12) si dice equazione caratteristica di A. Osservazione 4.2.3. Una matrice A ha dunque autovalore λ se e solo se λ `e radice del polinomio caratteristico cA (x). In conseguenza del Teorema Fondamentale dell’Algebra, una matrice di ordine n possiede n autovalori, contati con la loro molteplicit`a, eventualmente complessi. 1 1 Per esempio, calcoliamo il polinomio caratteristico di A = . Consideriamo 4 1 il determinante x − 1 −1 = (x − 1)(x − 1) − 4 = x2 − 2x + 1 − 4 = x2 − 2x − 3. |xI − A| = −4 x − 1 Il polinomio caratteristico `e quindi cA (x) = x2 − 2x − 3. Questo polinomio si fattorizza in (x − 3)(x + 1) ed ha pertanto radici λ1 = 3, λ2 = −1. Ci`o significa che questi sono gli unici valori (autovalori) per cui il SLO di matrice λI − A ha autosoluzioni. In altre parole, 3I − A, −I − A sono le uniche matrici di questo tipo che sono non invertibili. Per trovare i relativi autovettori, occorre ora risolvere i corrispondenti sistemi omogenei. A tale scopo utilizziamo il metodo di Gauss. Risolviamo il primo sistema. 3 − 1 −1 2 −1 R2 +2R1 2 −1 1 − 12 −−−−−→ = (4.13) = 0 0 −4 3 − 1 −4 2 0 0 Il sistema si riduce quindi ad un’unica equazione. Si sapeva d’altra parte che, con la scelta fatta del valore λ = 3, la matrice non `e invertibile e quindi, non essendo la matrice nulla, non pu`o che avere rango 1. Si hanno quindi le soluzioni x = 12 t y=t al variare di t ∈ R. Come sappiamo dal Teorema 3.5.3, l’insieme delle soluzioni `e un sottospazio vettoriale di R2 . Esso viene detto autospazio relativo all’autovalore λ = 3 per la matrice A e si denota con E3 (A). Ogni elemento non nullo di E3 (A) `e un autovettore. Una base di E3 (A) `e {( 12 , 1)T }. −1 − 1 −1 −2 −1 Ripetiamo ora il calcolo col SLO di matrice = −4 −1 − 1 −4 −2 −2 −1 R2 −2R1 −2 −1 1 12 −−−−−→ = (4.14) 0 0 −4 −2 0 0 x = − 12 t y=t L’autospazio E−1 (A) ha come base {(− 12 , 1)T }.
4.2. AUTOVALORI E AUTOVETTORI Esempio 4.2.4. Sia assegnata la matrice ⎛ 1 1 A = ⎝0 2 0 −3
101
⎞ 1 −1⎠ 0
(4.15)
Il polinomio caratteristico `e cA (x) = det(xI − A) = x3 − 3x2 − x + 3 = (x − 3)(x − 1)(x + 1). Per la fattorizzazione potrebbe essere opportuno che lo studente ripassi gli argomenti di algebra della scuola (per esempio: divisione tra polinomi, regola di Ruffini). Per i tre autovalori trovati, λ1 = 3, λ2 = 1, λ3 = −1, determiniamo i corrispondenti autospazi risolvendo i relativi sistemi lineari omogenei. 1. λ1 = 3. Dobbiamo risolvere il SLO che ha per matrice dei coefficienti ⎛ ⎞ 3 − 1 −1 −1 ⎝ 0 3 − 2 1 ⎠. 0 3 3 Per far ci`o riduciamo a gradini questa matrice ⎞ ⎛ ⎛ 2 −1 2 −1 −1 ⎝0 1 1 ⎠ → ⎝0 1 0 0 0 3 3 da cui il sistema
⎞ −1 1⎠ 0
2x − y − z = 0 . y+z =0
Posto dunque z = t, abbiamo, svolgendo i calcoli, lo spazio delle soluzioni E3 (A) = {(0, −t, t)T , t ∈ R} di cui una base `e {(0, −1, 1)T }. 2. λ1 = 1. Risolviamo il SLO che ha per matrice dei coefficienti ⎛ ⎞ 1 − 1 −1 −1 ⎝ 0 1 − 2 1 ⎠. 0 3 1 Riduciamo a gradini questa matrice ⎛ ⎞ ⎛ 0 −1 −1 0 ⎝0 −1 1 ⎠ → ⎝0 0 3 1 0 da cui il sistema
y+z =0 z=0
1 0 0
⎞ 1 1⎠ 0
CAPITOLO 4. DIAGONALIZZAZIONE DI MATRICI
102
Posto dunque x = t (la variabile che non corrisponde ai pivot), abbiamo l’autospazio E1 (A) = {(t, 0, 0)T , t ∈ R}. di cui una base `e {(1, 0, 0)T }. 3. λ1 = −1. Di nuovo, risolviamo il SLO che ha per matrice dei coefficienti ⎛ ⎞ −1 − 1 −1 −1 ⎝ 0 −1 − 2 1 ⎠ . 0 3 −1 Riduciamo:
⎛ −2 ⎝0 0
⎞ ⎛ 2 −1 −1 −3 1 ⎠ → ⎝0 3 −1 0
da cui:
1 3 0
⎞ 1 −1⎠ 0
2x + y + z = 0 3y − z = 0
Posto z = t, abbiamo che l’autospazio `e 2 t E3 (A) = {(− t, , t)T , t ∈ R} 3 3 ed una base `e {(−2, 1, 3)T }. Definizione 4.2.5. Una matrice A di ordine n si dice diagonalizzabile se esiste una matrice P invertibile con la propriet` a che P −1 AP = D
(4.16)
dove D `e una matrice diagonale. P si dice matrice diagonalizzante. Che legame esiste tra gli autovalori e gli autovettori di una matrice e la sua diagonalizzazione? Se vale la relazione (4.16), possiamo scrivere anche AP = P D.
(4.17)
Osserviamo che, essendo P invertibile, le sue colonne sono linearmente indipendenti. Scrivendo P per colonne: P = (C1 , C2 , . . . , Cn ), si ha A(C1 , C2 , . . . , Cn ) = (C1 , C2 , . . . , Cn ) diag(λ1 , λ2 , . . . , λn ) (AC1 , AC2 , . . . , ACn ) = (λ1 C1 , λ2 C2 , . . . , λn Cn )
(4.18)
e quindi, confrontando, deve aversi AC1 = λ1 C1 AC2 = λ2 C2 .. . ACn = λn Cn
(4.19)
4.2. AUTOVALORI E AUTOVETTORI
103
vale a dire, ogni colonna di P `e un autovettore di A relativo ad un autovalore di A che appare sulla diagonale di D. In conclusione, abbiamo n autovettori linearmente indipendenti e pertanto una base di Rn , cfr. Osservazione 2.3.7. Viceversa, supponiamo di avere n autovettori indipendenti C1 , . . . , Cn di A. Per la loro natura di autovettori essi verificano (4.19), equivalente a (4.18) e, di seguito, a (4.17). Dall’indipendenza lineare di C1 , . . . , Cn discende l’invertibilit`a di P e, di conseguenza, dalla relazione (4.17), possiamo ottenere (4.16), cio`e la diagonalizzabilit` a di A. In conclusione, abbiamo dimostrato il seguente Teorema 4.2.6. Una matrice A di ordine n `e diagonalizzabile se e solo se esiste una base di Rn composta da autovettori di A. Nasce naturale allora il problema di sapere se ogni matrice sia o meno diagonalizzabile. Abbiamo due potenziali fonti di problematiche, che illustriamo con due esempi scelti allo scopo. 0 −1 1. A = . 1 0 Questa matrice ha polinomio caratteristico cA (x) = x2 + 1, il quale ha radici non reali. Risulta in questi casi naturale estendere la trattazione ai numeri complessi. 1 −1 2. B = . 1 −1 Il polinomio caratteristico di questa matrice `e cB (x) = x2 , con radici coincidenti nulle. Tale matrice non pu`o essere diagonalizzabile. Infatti, abbiamo visto sopra che se una matrice `e diagonalizzabile, la corrispondente matrice D, che a volte si dice la forma diagonale di A, presenta, sulla diagonale principale, gli autovalori di A. Nell’esempio in questione, gli autovalori sono nulli. L’eventuale forma diagonale sarebbe quindi la matrice nulla e avremmo P −1 BP = 0 da cui si dedurrebbe B = 0, evidentemente un assurdo. Vediamo quindi che da un lato ci sono matrici, a coefficienti reali, che hanno autovalori complessi. Dall’altro abbiamo matrici che non sono diagonalizzabili, pur avendo autovalori reali. Come riconoscere se una matrice `e diagonalizzabile o meno? Una prima, importante, condizione sufficiente, ma, come vedremo, non necessaria, `e che gli autovalori siano distinti. Per dimostrare questa condizione, ci occorre: Lemma 4.2.7. Se X1 , X2 , . . . , Xk sono autovettori relativi ad autovalori distinti, rispettivamente, λ1 , λ2 , . . . , λk per una matrice A, allora l’insieme {X1 , X2 , . . . , Xk } `e libero.
CAPITOLO 4. DIAGONALIZZAZIONE DI MATRICI
104
Dimostrazione. Procediamo per induzione sul numero k di vettori. Se k = 1, abbiamo un unico vettore X relativo ad un unico autovalore λ e l’insieme {X} `e libero in quanto il vettore X `e diverso da zero per definizione. Supponiamo vero l’enunciato per un numero k − 1 di vettori, e consideriamo un insieme con k vettori come nell’enunciato. Vogliamo dimostrare che essi sono linearmente indipendenti. Consideriamo pertanto una loro combinazione lineare posta uguale a zero e dimostriamo che i coefficienti devono essere nulli: (4.20) a1 X1 + a2 X2 + · · · + ak Xk = 0. Moltiplichiamo (4.20) per A ottenendo a1 AX1 + a2 AX2 + · · · + ak AXk = 0
(4.21)
a 1 λ1 X 1 + a 2 λ2 X 2 + · · · + a k λk X k = 0
(4.22)
ovvero
perch´e per ipotesi X1 , X2 , . . . , Xk sono autovettori. Se invece moltiplichiamo l’uguaglianza (4.20) per λ1 : a1 λ1 X1 + a2 λ1 X2 + · · · + ak λ1 Xk = 0.
(4.23)
Sottraendo ora la (4.23) dalla (4.22), otteniamo (a1 λ1 X1 − a1 λ1 X1 ) + (a2 λ2 X2 − a2 λ1 X2 ) + · · · + (ak λk Xk − ak λ1 Xk ) = 0 (4.24) ossia a2 (λ2 − λ1 )X2 + · · · + ak (λk − λ1 )Xk = 0.
(4.25)
Per ipotesi induttiva, questa relazione implica che a2 (λ2 − λ1 ) = 0 a3 (λ3 − λ1 ) = 0 .. . ak (λk − λ1 ) = 0.
(4.26)
Poich´e gli autovalori sono, per ipotesi, tutti distinti, i coefficienti (λ2 − λ1 ), (λ3 − λ1 ), . . ., (λk − λ1 ) sono tutti non nulli. Di conseguenza, devono essere nulli i coefficienti a2 , a3 , . . . , ak . Torniamo quindi alla relazione (4.20) che diventa a1 X1 = 0. Essendo, per ipotesi, X1 = 0, segue necessariamente che a1 = 0. Questo completa la dimostrazione per induzione. I vettori dati sono dunque linearmente indipendenti, come richiesto. Possiamo ora asserire e dimostrare l’annunciato criterio sufficiente: Teorema 4.2.8. Se una matrice quadrata A di ordine n possiede n autovalori distinti allora essa `e diagonalizzabile.
4.2. AUTOVALORI E AUTOVETTORI
105
Dimostrazione. Scegliendo un autovettore per ciascun autovalore, il lemma ci garantisce l’esistenza di n autovettori linearmente indipendenti. Dal Teorema 4.2.6 segue la tesi. La condizione di questo teorema, come detto, `e per`o solo sufficiente. Esistono infatti matrici con autovalori multipli che sono tuttavia diagonalizzabili. Basti pensare a matrici diagonali, e dunque necessariamente diagonalizzabili, con elementi ripetuti sulla diagonale, come ad esempio l’identit` a I. Questa matrice ha polinomio caratteristico cI (x) = (x − 1)n e quindi lo stesso autovalore ripetuto n volte e ogni vettore di Rn `e un autovettore per I. Vediamo un esempio pi` u interessante. Esempio 4.2.9. Calcolare autovalori e autovettori della matrice ⎛ ⎞ −1 0 1 A = ⎝ 3 0 −3⎠ . 1 0 −1 Stabilire inoltre se A `e diagonalizzabile o meno. Soluzione. Calcoliamo l’equazione caratteristica λ + 1 0 −1 λ + 1 −1 λ 3 = λ 0 = −3 −1 λ + 1 −1 0 λ + 1
(4.27)
= λ[(λ + 1)2 − 1] = λ(λ2 + 2λ) = λ2 (λ + 2) Si ottiene quindi un autovalore doppio λ1 = λ2 = 0 ed uno semplice λ3 = −2. Studiamo il SLO relativo a λ1 = λ2 = 0 di matrice ⎛ ⎞ ⎛ ⎞ 1 0 −1 1 0 −1 ⎝−3 0 3 ⎠ → ⎝0 0 0 ⎠ . −1 0 1 0 0 0 Essendo 1 il rango di tale matrice, il SLO si riduce ad una singola equazione x−z = 0. La variabile dominante, corrispondente al pivot, `e x. Le altre due sono parametri. Ponendo y = s, z = t, l’insieme delle soluzioni `e {(t, s, t)T , s, t ∈ R} ed una base dell’autospazio E0 (A) `e ⎧⎛ ⎞ ⎛ ⎞⎫ 1 ⎬ ⎨ 0 ⎝1⎠ , ⎝0⎠ . ⎩ ⎭ 0 1 Infine, per quanto concerne l’autospazio E−2 (A), matrice ⎛ ⎞ ⎛ −1 0 −1 1 ⎝−3 −2 3 ⎠ → ⎝0 −1 0 −1 0 si riduce a
x+z =0 y − 3z = 0
.
studiamo Il sistema omogeneo di ⎞ 0 1 1 −3⎠ 0 0
106 Posto z = t, abbiamo
Una base dell’autospazio `e
CAPITOLO 4. DIAGONALIZZAZIONE DI MATRICI ⎧ ⎪ ⎨x = −t y = 3t ⎪ ⎩ z=t
.
⎧⎛ ⎞⎫ ⎨ −1 ⎬ ⎝3⎠ . ⎩ ⎭ 1
Consideriamo infine la matrice P che ha per colonne i vettori delle basi cos`ı trovate ⎛ ⎞ 0 1 −1 P = ⎝1 0 3 ⎠ . 0 1 1 Si pu`o verificare che questa matrice `e invertibile e si ha ⎛ ⎞ 0 0 0 P −1 AP = ⎝0 0 0 ⎠ 0 0 −2 Suggerimento: nel fare questa verifica a mano, `e pi` u agevole verificare AP = P D, invece di P −1 AP = D, evitando di dover calcolare l’inversa. Vogliamo enunciare un criterio necessario e sufficiente per la diagonalizzazione diverso da quello del Teorema 4.2.6. A tale scopo introduciamo delle definizioni. Definizione 4.2.10. Si dice molteplicit` a algebrica di un autovalore λ la molteplicit`a a geometrica di λ come radice del polinomio caratteristico cA (x). Si dice molteplicit` di λ la dimensione del relativo autospazio Eλ (A). Teorema 4.2.11. Condizione necessaria e sufficiente affinch´e una matrice A sia diagonalizzabile `e che i suoi autovalori siano tutti reali e che, per ciascun autovalore λ, la molteplicit` a algebrica di λ coincida con la sua molteplicit` a geometrica. Vedremo la dimostrazione in un capitolo successivo. Nell’esempio precedente, l’autovalore nullo ha molteplicit` a algebrica 2 e geometrica 2 e l’autovalore -2 ha molteplicit` a algebrica e geometrica 1. 1 −1 Nel caso della matrice abbiamo invece un solo autovalore, quello nullo, 1 −1 di molteplicit`a algebrica 2, mentre la sua molteplicit`a geometrica `e 1. Questa matrice, infatti, non `e diagonalizzabile. Esempio 4.2.12. Determinare se la matrice seguente `e diagonalizzabile ed eventualmente trovare la matrice diagonalizzante. ⎛ ⎞ 3 0 0 5 ⎜0 6 4 1 ⎟ ⎟ A=⎜ ⎝0 0 3 0 ⎠ 0 0 0 −2
4.3. MATRICI SIMILI λ − 3 0 0 0
0 λ−6 0 0
107 0 −5 −4 −1 = (λ − 3)(λ − 6)(λ − 3)(λ + 2) λ−3 0 0 λ + 2
La matrice ha un autovalore di molteplict`a (algebrica) 2, e due autovalori semplici. ` facile vedere che gli autovalori semplici hanno molteplicit` E a geometrica 1. Andiamo a calcolare la molteplicit` a geometrica di λ = 3. Occorre studiare il SLO con matrice ⎞ ⎛ 0 0 0 −5 ⎜0 −3 −4 −1⎟ ⎟ ⎜ ⎝0 0 0 0⎠ 0 0 0 5 ` evidente che questa matrice ha rango 2, perch´e ci sono solo due righe linearmente E indipendenti, o, equivalentemente, perch´e la sua forma a gradini `e ⎛ ⎞ 0 1 43 13 ⎜0 0 0 1 ⎟ ⎜ ⎟ ⎝0 0 0 0 ⎠ . 0 0 0 0 Poich´e essa ha rango 2, il Teorema di Rouch´e-Capelli implica che lo spazio delle soluzioni ha dimensione 4 − 2 = 2. Dunque la molteplicit`a geometrica coincide con la molteplict` a algebrica e possiamo concludere che la matrice `e diagonalizzabile con forma diagonale diag(3, 3, 6, −2). Per determinare la matrice diagonalizzante P occorre risolvere tre diversi SLO. Troveremo ⎛ ⎞ 0 1 0 −8 ⎜−4 0 1 −1⎟ ⎟ P =⎜ ⎝ 3 0 0 0 ⎠. 0 0 0 8
4.3
Matrici Simili
Definizione 4.3.1. Due matrici A, B di ordine n si dicono simili se esiste una matrice invertibile P con la propriet` a che P −1 AP = B. Con questa terminologia dunque una matrice `e diagonalizzabile se `e simile ad una matrice diagonale. Esercizio 4.3.2. Verificare che la similitudine `e una relazione di equivalenza nell’insieme di tutte le matrici di ordine n. Infatti: a) 1. Una matrice A `e simile a se stessa: A = I −1 AI (riflessivit` 2. Se A `e simile a B allora B `e simile ad A (simmetria). Basta osservare che se P −1 AP = B allora P BP −1 = A.
CAPITOLO 4. DIAGONALIZZAZIONE DI MATRICI
108
3. Se A `e simile a B e B `e simile a C, allora A `e simile a C (transitivit`a). Infatti, se P −1 AP = B e Q−1 BQ = C allora Q−1 (P −1 AP )Q = (P Q)−1 A(P Q) = C, come richiesto. Abbiamo il seguente interessante teorema. Teorema 4.3.3. Se A e B sono matrici simili, allora 1. det A = det B; 2. cA (x) = cB (x); 3. A e B hanno gli stessi autovalori. Dimostrazione. 1. Se P −1 AP = B, allora det B = det(P −1 AP ). Per il Teorema di Binet e il Corollario 3.8.18, questo diventa det P −1 det A det P = (det P )−1 det P det A = det A. 2. cB (x) = det(xI − B) = det(xI − P −1 AP ) = det(xP −1 IP − P −1 AP ) = det(P −1 (xI − A)P ) = det(P )−1 det(xI − A) det P = det(xI − A) = cA (x).
(4.28)
3. Essendo gli autovalori radici del polinomio caratteristico, la tesi segue dal punto precedente. Ci si pu`o domandare come riconoscere se due date matrici siano simili oppure no. Una risposta completa richiede la trattazione delle cosiddetta forma canonica di Jordan che per`o esula dal nostro corso. Basti dire che se una matrice `e diagonalizzabile tale forma coincide con la forma diagonale. La forma canonica di Jordan `e di maggiore rilevanza nei casi in cui la matrice non `e diagonalizzabile. In quel caso essa `e una matrice “quasi” diagonale che continua ad avere sulla diagonale principale gli autovalori della matrice. Ci preme sottolineare comunque che si possono avere due matrici A e B che non sono simili ma che hanno stesso determinante, stesso caratteristico e stessi polinomio 1 1 ` autovalori. Un esempio `e dato dalle matrici A = e la matrice identit`a I. E 0 1 facile vedere che esse hanno in comune il determinante, gli autovalori e il polinomio caratteristico, pur non essendo simili. Infatti la matrice I `e simile solo a se stessa: P −1 IP = I. Diamo ora qualche propriet` a dei coefficienti del polinomio caratteristico. Studiamo in dettaglio il caso di ordine 2 per poi generalizzare.
4.3. MATRICI SIMILI
109
a b una generica matrice di ordine 2. Si pu`o facilmente calcolare il c d suo polinomio caratteristico: cA (x) = x2 − (a + d)x + (ab − cd), da cui si vede che il termine noto `e uguale a det A. Il coefficiente di x `e l’opposto della somma degli elementi sulla diagonale principale di A, cio`e l’opposto della traccia: −T r(A). Il polinomio caratteristico di una matrice A di ordine 2 `e quindi Sia A =
cA (x) = x2 − (T rA)x + det A. In generale abbiamo Proposizione 4.3.4. Se A `e una matrice di ordine n, allora cA (x) `e un polinomio monico di grado n. Il coefficiente di xn−1 `e −T r(A) e il termine noto `e (−1)n det A. Dimostrazione.
x − a11 −a21 cA (x) = ··· −an1
−a12 x − a22
−a13 −a23
··· −an2
··· −an3
··· ··· .. . ···
· · · x − ann −a1n −a2n
(4.29)
Per prima cosa ricordiamo che il termine noto di un polinomio `e uguale al valore che il polinomio assume in 0. Se poniamo x = 0 in (4.29), otteniamo, come richiesto: cA (0) = det(−A) = (−1)n det A. Per capire invece l’espressione dei coefficienti di grado n e n−1, ci dobbiamo ricordare che un determinante si calcola prendendo tutti i possibili prodotti competenti. Immaginiamo di utilizzare lo sviluppo di Laplace lungo la prima riga. Fissiamo l’attenzione su un elemento fuori dalla diagonale principale: esso non contiene la variabile x e inoltre il suo complemento algebrico, che si ottiene cancellando la riga e la colonna che si incrociano nell’elemento in questione, contiene al massimo la potenza xn−2 della variabile e dunque non d` a alcun apporto ai coefficienti di xn e xn−1 . L’unico contributo a tali coefficienti viene dal prodotto competente che si ottiene prendendo gli elementi sulla diagonale principale: (x − a11 )(x − a22 )(x − a33 ) · · · (x − ann ). ` chiaro che xn ha coefficiente 1, confermandoci che il polinomio caratteristico `e E monico. Per ottenere xn−1 occorre prendere, nel calcolo del prodotto suddetto, n − 1 volte x negli n fattori e, a turno, uno dei termini −a11 , −a22 , −a33 , . . . , −ann . In altre parole, il coefficiente di xn−1 `e proprio −a11 − a22 − a33 − · · · − ann = −T r(A). Corollario 4.3.5. Valgono le seguenti propriet` a: 1. Due matrici simili hanno la stessa traccia. 2. Una matrice `e invertibile se e solo se essa ha tutti autovalori diversi da zero.
CAPITOLO 4. DIAGONALIZZAZIONE DI MATRICI
110
3. Il determinante `e uguale al prodotto degli autovalori: det A = λ1 · · · λn . 4. La traccia `e uguale alla somma degli autovalori: T r(A) = λ1 + · · · + λn . Dimostrazione. Dimostriamo ciascun punto nell’ordine: 1. Poich´e due matrici simili hanno lo stesso polinomio caratteristico, esse presentano lo stesso coefficiente di xn−1 . Dalla proposizione precedente segue la conclusione. 2. Se una matrice `e non invertibile, allora il suo determinante `e nullo e quindi il termine noto del polinomio caratteristico, per la proposizione precedente, `e zero. Ci` o significa che 0 `e radice di esso. Viceversa se una matrice ha autovalore nullo vuol dire che il SLO AX = 0 ammette autosoluzioni da cui la non invertibilit`a della matrice A. 3. Se A `e diagonalizzabile, essa `e simile ad una matrice diagonale che ha sulla diagonale principale gli autovalori. Il determinante della matrice diagonale `e il prodotto degli elementi sulla diagonale principale e coincide col determinante di A. Se A non `e diagonalizzabile, il risultato `e vero ma la dimostrazione passa attraverso la forma canonica di Jordan e quindi viene tralasciata. 4. Si procede come nel punto precedente. Terminiamo questo paragrafo con l’enunciato di un importante teorema di cui omettiamo la dimostrazione. Osserviamo preliminarmente che, se A `e una matrice quadrata di ordine n e cA (x) = xn +an−1 xn−1 +an−2 xn−2 +· · ·+a0 `e il suo polinomio caratteristico, ha senso considerare cA (A) = An + an−1 An−1 + an−2 An−2 + · · · + a0 I. Teorema 4.3.6 (Cayley-Hamilton). Se A `e una matrice quadrata di ordine n e cA (x) `e il suo polinomio caratteristico, allora cA (A) = 0. 1 1 Esempio 4.3.7. Prendiamo la matrice A = di cui abbiamo gi` a calcolato il 4 1 polinomio caratteristico: cA (x) = x2 − 2x − 3. Possiamo allora verificare che 5 2 2 2 3 0 5−2−3 2−2 0 0 2 − − = = , A − 2A − 3I = 8 5 8 2 0 3 8−8 5−2−3 0 0 come previsto dal teorema. Il Teorema di Cayley-Hamilton ci fornisce una nuova maniera per calcolare l’inversa di una matrice. Proposizione 4.3.8. Se A `e una matrice invertibile di ordine n e cA (x) = xn + an−1 xn−1 + an−2 xn−2 + · · · + a0 `e il suo polinomio caratteristico, allora A−1 = −
1 n−1 (A + an−1 An−2 + · · · + a2 A + a1 I). a0
4.3. MATRICI SIMILI
111
Dimostrazione. Dal Teorema di Cayley-Hamilton segue: cA (A) = An + an−1 An−1 + · · · + a1 A + a0 I = 0 da cui I=−
1 n (A + an−1 An−1 + · · · + a2 A2 + a1 A). a0
Mettendo A in evidenza I=−
1 A(An−1 + an−1 An−2 + · · · + a2 A + a1 I), a0
da cui si deduce che la matrice −
1 n−1 (A + an−1 An−2 + · · · + a2 A + a1 I). a0
`e l’inversa di A. Esempio 4.3.9. Usare il Teorema di Cayley-Hamilton per calcolare A3 e A−1 , 1 1 essendo A = . Per il teorema abbiamo 4 1 A2 − 2A − 3I = 0 A2 = 2A + 3I A3 = A(2A + 3I) A3 = 2A2 + 3A A3 = 2(2A + 3I) + 3A
(4.30)
A3 = 7A + 6I 7 7 6 0 3 + A = 28 7 0 6 13 7 3 A = . 28 13 Ora calcoliamo l’inversa A2 − 2A − 3I = 0 A2 − 2A = 3I A(A − 2I) = 3I A da cui −1
A
(4.31)
(A − 2I) =I 3
1 (A − 2I) = = 3 3
−1 4
1 . −1
Capitolo 5
GEOMETRIA ANALITICA PIANA 5.1
Definizione di vettore libero
Un segmento del piano sul quale sia stato stabilito un verso di percorrenza si dice orientato. Se A, B sono i suoi estremi e se nel verso scelto A precede B, il segmento −−→ −−→ verr` a indicato con AB, in caso contrario con BA. −−→ Il segmento orientato AB verr` a detto anche vettore applicato in A. Le caratteristiche che distinguono un vettore applicato da un altro sono: la lunghezza, la direzione della retta a cui appartiene1 , il verso di percorrenza, il punto di applicazione. Due vet−−→ −−−→ tori applicati AB, A B che abbiano in comune le prime tre caratteristiche si diranno −−→ −−−→ equipollenti. Si scriver` a allora AB ≡ A B . B B’
A A’
Si osservi che la relazione di equipollenza soddisfa le propriet` a riflessiva, simmetrica e transitiva, pertanto essa `e una relazione di equivalenza (cfr. 1.3) nell’insieme dei −−→ vettori applicati del piano. Indicheremo con [AB] la classe di equivalenza determinata −−→ dal vettore applicato AB. 1 Due
rette si dicono avere la stessa direzione quando sono parallele.
CAPITOLO 5. GEOMETRIA ANALITICA PIANA
114
Definizione 5.1.1. Si dir` a vettore libero o pi` u semplicemente vettore la classe di −−→ −−→ equivalenza [AB] determinata da un assegnato vettore applicato AB, cio`e la totalit` a −−→ dei vettori applicati equipollenti ad AB. Ciascuno di questi vettori applicati tra loro equipollenti si dir`a rappresentante del vettore libero. − − Un vettore libero verr` a indicato con una lettera minuscola dotata di freccia: → v ,→ w ecc. o, a volte, anche con la lettera in grassetto v, w e cos`ı via. Quando sia chiaro − dal contesto, talvolta, per semplicit` a di simboli, indicheremo un vettore libero → v con −−→ −−→ un suo rappresentante AB, invece che con la classe di equivalenza [AB]. Denotiamo con V2 l’insieme dei vettori liberi del piano. −−→ − Definizione 5.1.2. Se il vettore → v ha come rappresentante AB, si definisce vettore − − → − − opposto di → v e si indica con −→ v quello di cui BA `e un rappresentante. Riesce utile considerare anche il vettore nullo che ha per rappresentanti tutti i −→ −−→ → − segmenti AA ≡ BB... ridotti cio`e a punti. Si indicher` a con 0 . Per meglio comprendere le definizioni date, sar` a opportuno esaminarle da un punto −−→ di vista fisico. Si pu` o infatti interpretare un vettore applicato AB come lo spostamento −−−→ −−−→ −−→ dal punto A al punto B. Il vettore libero di rappresentanti AB ≡ A B ≡ A B ... si interpreta allora come la totalit` a degli spostamenti che fanno passare dai punti A, A , A ... ai punti rispettivamente B, B , B ... e quindi, in definitiva, come uno scorrimento dell’intero piano su se stesso.
5.2
Somma di vettori liberi
− − − Siano → v1 , → v2 due vettori assegnati. Si applichi → v1 in un punto arbitrario A del piano, −−→ − ottenendo cos`ı il vettore applicato AP1 e in P1 si applichi il vettore → v2 ottenendo il −−−→ − − vettore applicato P1 P2 . Si definisce la somma → v1 + → v2 come il vettore rappresentato −−→ da AP2 . P2 v1 + v 2 v2 A
v1
P1
Si noti che il vettore cos`ı definito `e indipendente dalla scelta del punto A. Se infatti −−→ −−−→ si partisse da un altro punto A , ai vettori applicati AP1 , P1 P2 si sostituirebbero −−−→ −−−→ −−−→ −−→ vettori equipollenti A P1 , P1 P2 , ottenendo cos`ı A P2 equipollente ad AP2 . ` immediato verificare che valgono le seguenti propriet` E a per l’ operazione di somma in V2 : − − − − − − v )+→ v =→ v + (→ v +→ v ) (pr. associativa) 1) (→ v +→ 1
2
3
1
2
3
5.3. PRODOTTO DI SCALARI PER VETTORI LIBERI 2)
− − − → − v2 = → v2 + → v1 v1 + →
3)
→ − → − − v + 0 =→ v
4)
→ − −→ → − v + (−v) = 0
115 (pr. commutativa)
(propriet` a del vettore nullo) (propriet` a del vettore opposto)
− − v2 : Si definisce infine differenza di due vettori → v1 − → → − − − − v1 − → v2 = → v1 + (−→ v2 )
5.3
Prodotto di scalari per vettori liberi
− − Indicheremo con |→ v |, o anche con → v , il numero reale non negativo che esprime la lunghezza (o modulo) di un vettore, intesa come lunghezza di un qualsiasi suo rappresentante. Un vettore di modulo 1 lo chiameremo versore. − Sia a un numero reale positivo e → v un vettore libero. Diremo prodotto del numero → − − reale a per il vettore v e lo indicheremo con a→ v il vettore che ha lunghezza eguale → − → − ad a| v |, direzione e verso eguali a quelli di v . − − Se invece a `e un numero negativo, porremo a→ v = −|a|→ v (ricordiamo che |a| indica − il valore assoluto di a), ottenendo cos`ı un vettore che ha lunghezza eguale ad |a||→ v |, → − → − → − direzione eguale e verso opposto a quello di v . Se infine `e a = 0 si pone 0 v = 0 . Il prodotto cos`ı definito soddisfa le seguenti propriet`a: 1 )
− − (ab)→ v = a(b→ v)
2 )
− − − (a + b)→ v = a→ v + b→ v
(pr. distributiva rispetto alla somma numerica)
3 )
− − − − a(→ v1 + → v 2 ) = a→ v 1 + a→ v2
(pr. distributiva rispetto alla somma vettoriale)
4 )
− − 1→ v =→ v
(pr. associativa)
Osservazione 5.3.1. Le operazioni introdotte nell’insieme V2 dei vettori liberi del piano godono delle stesse propriet`a delle analoghe operazioni in Rn (cfr. 2.1). In altre a quindi possibile parlare anche parole possiamo dire che V2 `e uno spazio vettoriale. Sar` in V2 di combinazioni lineari, dipendenza o indipendenza lineare, basi, coordinate, insiemi di generatori, dimensione, etc. Approfondiremo nel seguito tale analogia. ` di immediata verifica la seguente E Proposizione 5.3.2. Due vettori liberi sono linearmente dipendenti se e solo se sono paralleli. → − − − Dimostrazione. Se esistono coefficienti a, b, non entrambi nulli, tali che a→ u +b→ v = 0, → − − b→ possiamo assumere che a = 0 e scrivere u = − a v , implicando il parallelismo dei − − due vettori. Viceversa, se i due vettori sono paralleli, allora significa che → u = λ→ v da → − → − → − cui u − λ v = 0 , combinazione lineare nulla con coefficienti non entrambi nulli. Esempio 5.3.3. I vettori della figura seguente sono un esempio visivo di un insieme di vettori linearmente dipendenti:
CAPITOLO 5. GEOMETRIA ANALITICA PIANA
116
Si ha infatti −−→ −−→ −−→ −−→ −−→ −−→ −→ → − AB + BC + CD + DE + EF + F G + GA = 0 . Illustriamo il metodo del calcolo vettoriale nel seguente esempio. Esempio 5.3.4. Dimostrare che, in un qualunque triangolo ABC, congiungendo i punti medi dei lati AB e BC si ottiene un segmento parallelo al terzo lato AC e di lunghezza eguale alla met` a di AC.
−−−−→ −−−−→ −−−→ −−−→ Considerando il vettore M1 M2 , si ha M1 M2 = M1 B + BM2 . Per ipotesi, M1 e M2 −−−→ −−→ −−−→ −−→ sono punti medi e quindi potremo scrivere M1 B = 12 AB e BM2 = 12 BC. Sostituendo abbiamo quindi −−−−→ −−−→ −−−→ 1 −−→ 1 −−→ 1 −−→ −−→ 1 −→ M1 M2 = M1 B + BM2 = AB + BC = (AB + BC) = AC. 2 2 2 2 L’uguaglianza vettoriale cos`ı ottenuta ci dice sia che la lunghezza di M1 M2 `e la met`a di quella di AC sia che essi sono paralleli, come richiesto. Esempio 5.3.5. Dedurre dall’esercizio precedente che se ABCD sono ordinatamente i vertici di un quadrilatero convesso e se M1 , M2 , M3 , M4 sono i punti medi dei lati del quadrilatero, allora M1 M2 M3 M4 sono i vertici di un parallelogramma. (Suggerimento: una diagonale divide il quadrilatero in due triangoli).
5.4
Coordinate nel piano
Siano r una retta, O e U due punti distinti su r. Associamo ad ogni punto P della retta un numero reale x: se P = O, poniamo x = 0; se invece P = O, associamo ad esso il numero reale x che in modulo eguaglia il rapporto tra la lunghezza del
5.4. COORDINATE NEL PIANO
117
segmento OP e quella del segmento OU e che risulta positivo o negativo a seconda che il verso di percorrenza sulla retta r da O a P coincida o meno con quello da O a U . La corrispondenza cos`ı stabilita risulta una corrispondenza biunivoca tra r e R. Quando vengono operate tali scelte, si dice anche che `e stato introdotto in r un riferimento cartesiano di origine O e punto unit` a U . Il numero reale x associato al punto P viene detto coordinata o ascissa del punto P . Osserviamo che l’ascissa del punto unit`a U vale 1. Evidentemente, per fissare un riferimento cartesiano su r, `e necessario e sufficiente fissare l’origine O, un’unit`a di misura u per le lunghezze (pari alla lunghezza di OU ) ed un’orientazione (corrispondente al verso di percorrenza da O a U ) di r. Fissiamo adesso nel piano due rette orientate tra loro perpendicolari: sia O il loro punto di incidenza. Fissiamo inoltre un’unit` a di misura u. Su ciascuna retta rimane individuato un riferimento i cui elementi sono il punto origine O, l’unit` a di misura u, e l’orientazione assegnata. Le coordinate associate ai punti di una delle due rette verranno indicate con la lettera x, quelle dell’altra con la lettera y. Le due rette vengono dette assi coordinati o assi cartesiani (rispettivamente asse x, asse y) e si dicono costituire un riferimento cartesiano nel piano, indicato con RC(Oxy). Sia P un punto del piano. Le perpendicolari condotte da P rispettivamente all’asse x e all’asse y incontrano gli assi nei punti Px , Py . Sia x la coordinata di Px nel riferimento sull’asse x e y quella di Py nel riferimento sull’asse y. Ad ogni punto P del piano viene cos`ı a corrispondere una coppia ordinata di numeri reali (x, y) (e viceversa eseguendo la costruzione inversa) che si dicono coordinate cartesiane di P . Si usa chiamare col nome di ascissa la x e con quello di ordinata la y. In particolare notiamo che per i punti del piano che si trovano sull’asse x risulta y = 0 e analogamente per quelli sull’asse y si ha x = 0. Gli assi cartesiani dividono il piano in quattro regioni dette I, II, III, IV quadrante, come in figura. II
I
y Py
O
III
P
Px
x
IV
Definizione 5.4.1. Assegnato un punto P (x, y), il punto simmetrico di P rispetto all’asse x `e P (x, −y), il simmetrico di P rispetto all’asse y `e P (−x, y), il simmetrico di P rispetto all’origine `e P (−x, −y).
118
CAPITOLO 5. GEOMETRIA ANALITICA PIANA
Un punto P del piano pu`o essere individuato oltre che dalle coordinate cartesiane anche mediante la distanza ρ = OP (raggio vettore) dall’origine e l’angolo θ percorso in senso antiorario dal semiasse positivo delle x alla semiretta OP (0 ≤ θ < 2π).
P
y
O
x
I due numeri reali (ρ, θ) si dicono coordinate polari di P . Osserviamo che la coordinata θ dell’origine `e indeterminata. Le coordinate cartesiane (x, y) e quelle polari (ρ, θ) di uno stesso punto sono legate dalle relazioni:
x = ρ cos θ y = ρ sin θ
(5.1)
Ricaviamo ad esempio le coordinate polari del punto P di coordinate cartesiane √ (-1, 3). Dalle formule precedenti si ottiene
ρ cos θ = −1 √ ρ sin θ = 3
da cui quadrando√e sommando si ottiene ρ2 = 4 cio`e ρ = 2 e dividendo membro a membro tg θ = − 3 cio`e θ = 2π/3, essendo P nel secondo quadrante. Talvolta `e preferibile far variare θ da 0 a π, e ρ da −∞ a +∞, convenendo che i raggi vettori negativi siano da valutarsi sulla semiretta opposta a quella che forma l’angolo θ con l’asse x. Ad esempio, guardando le figure seguenti, di un punto P a distanza (assoluta) 5 da O,
5.5. RAPPRESENTAZIONE CARTESIANA DI VETTORI
119
possiamo dire che le coordinate polari del punto P sono, rispettivamente, (−5, π4 ) oppure (5, π4 + π). Con entrambe le scelte si hanno le seguenti formule di passaggio da coordinate polari a cartesiane e viceversa:
5.5
x = ρ cos θ y = ρ sin θ
ρ2 = x 2 + y 2 tg θ = xy
(5.2)
Rappresentazione cartesiana di vettori
Sia RC(Oxy) un riferimento cartesiano fissato nel piano: sia Ux il punto di coordinate −−→ → − (1,0) e Uy di coordinate (0,1). Si considerino i due versori degli assi x ed y, i = OUx , − − → → − j = OUy . Osserviamo che tali versori, essendo perpendicolari, sono linearmente indipendenti a norma della Proposizione 5.3.2. −−→ − Assegnato un vettore → v , sia OP il suo rappresentante applicato in O. Indicate con (x, y) le coordinate di P , si ha: −−→ −−→ −−→ −−→ −−→ −−→ → − → − → − v = OPx + Px P = OPx + OPy = xOUx + y OUy = x i + y j .
(5.3)
y P(x,y)
Py(0,y)
v Uy j O
i
Ux
Px(x,0)
x
La (5.3) mostra come ogni vettore possa esprimersi come combinazione lineare → − → − → − → − dei versori i , j . Ne discende che i e j formano un insieme di generatori per V2 . Essendo poi linearmente indipendenti, essi costituiscono una base. Se ne deduce che V2 ha dimensione 2. Una base composta da due versori ortogonali si dice ortonormale. − Per le coordinate di un vettore → v spesso useremo, in luogo delle lettere x, y, i → − → − v → − − simboli vx , vy e scriveremo anche brevemente v = x invece di → v = v x i + vy j . vy Analogamente a quanto osservato in Rn (cfr. 2.3.9), le operazioni definite in V2 di somma e di prodotto per uno scalare si traducono immediatamente in operazioni sulle coordinate, ovvero esplicitamente:
120
CAPITOLO 5. GEOMETRIA ANALITICA PIANA
Proposizione 5.5.1. Le coordinate della somma di due vettori liberi sono la somma delle coordinate omonime dei vettori. Proposizione 5.5.2. Moltiplicando un vettore libero per un numero reale, si moltiplicano per lo stesso numero le coordinate. Osservazione 5.5.3. La scelta del riferimento cartesiano permette di definire una lo spazio vettocorrispondenza biunivoca tra lo spazio V2 dei vettori liberi del piano e → − → − v x → − riale R2 (`e quella che associa al vettore v = vx i +vy j la coppia appartenente vy a R2 ). Inoltre tale corrispondenza trasforma, per le Proposizioni 5.5.1, 5.5.2, le operazioni presenti in V2 in quelle definite in R2 . In altre parole, una volta fissato un riferimento, possiamo completamente identificare V2 con R2 . Spesso quindi scriveremo − indifferentemente → v oppure v con lo stesso significato. Questa tipo di identificazione viene detta isomorfismo in matematica, un concetto su cui torneremo. − Come abbiamo visto, le coordinate di un vettore → v coincidono con quelle del → − secondo estremo del rappresentante di v applicato nell’origine. Supponiamo adesso di − dover calcolare le coordinate di un vettore → v di cui viene assegnato un rappresentante −−−→ P1 P2 non necessariamente applicato nell’origine. − v Proposizione 5.5.4. Assegnati i punti P1 (x1 , y1 ), P2 (x2 , y2 ), il vettore libero → −−−→ rappresentato dal vettore applicato P1 P2 ha coordinate: vx = x2 − x1
v y = y2 − y1 .
Dimostrazione. Considerata l’origine O del riferimento, si ha −−→ −−−→ −−→ OP1 + P1 P2 = OP2
cio`e
−−−→ −−→ −−→ → − v = P1 P2 = OP2 − OP1 .
(5.4)
Poich´e le coordinate di un vettore applicato in O coincidono con le coordinate −−→ −−→ del secondo estremo del vettore (cfr. 5.3), si ha OP1 = (x1 , y1 )T , OP2 = (x2 , y2 )T e quindi dalla (5.4) si ottiene: vx = x2 − x1
v y = y2 − y1 .
5.6. PARALLELISMO DI VETTORI
5.6
121
Parallelismo di vettori
Poich´e due vettori liberi sono paralleli se e solo se sono linearmente dipendenti, se ne deduce che condizione necessaria e sufficiente per il parallelismo di due vettori − → − v = (vx , vy )T `e che v = (vx , vy )T , → vx v y ≤1 (5.5) rg vx vy v x v x
ovvero
5.7
vy = 0. vy
(5.6)
Prodotto scalare
→ − → − Sfruttiamo ora l’identificazione tra V2 e R2 , che associa ad ogni v = x i + y j ∈ V2 il vettore v = (x, y)T ∈ R2 , per dare una nozione di prodotto scalare in V2 (cfr. § 2.4). → − → − → − → − Definiamo quindi il prodotto scalare tra v = x i + y j e w = x i + y j come v · w = xx + yy . In particolare, si ha
v · i = x,
(5.7)
v · j = y.
(5.8)
+ y2 Ricordando che la lunghezza di un vettore v = (x, y) ∈ R `e definita da → − → − e coincide con la lunghezza del vettore geometrico v = x i + y j , per il Teorema di Pitagora, abbiamo √ v = v · v. 2
x2
In secondo luogo, dalla figura seguente
si deduce che la perpendicolarit` a di u e v `e equivalente alla condizione v + u = v − u. Pertanto, prendendo i quadrati di ambo i membri, ( v + u) · ( v + u) = ( v − u) · ( v − u) v · v + 2 v · u + u · u = v · v − 2 v · u + u · u 4 v · u = 0 v · u = 0.
(5.9)
La perpendicolarit`a dei vettori geometrici v e u coincide con quella dei vettori in R2 .
CAPITOLO 5. GEOMETRIA ANALITICA PIANA
122
Usiamo ora la perpendicolarit` a per ottenere la nozione di proiezione ortogonale di un vettore su un altro. Siano u, v due vettori liberi del piano con v = 0. Vogliamo definire la proiezione ortogonale p di u su v . A questo scopo, si veda la figura seguente:
Definiamo la proiezione ortogonale desiderata come il vettore p che sia multiplo di v , ossia parallelo ad esso: p = α v e con la propriet`a che u − p sia perpendicolare a v . La condizione diventa quindi ( u − p ) · v = 0 ossia ( u − α v ) · v = 0 ovvero, traducendo in R2
(u − αv) · v = 0
da cui u · v = αv · v ricavando
u·v . (5.10) v·v La proiezione ortogonale di u su v `e pertanto il vettore α v dove α `e la costante data in (5.10), detta componente o anche coefficiente di Fourier di u su v . Per esempio, sia v = i + j = (1, 1)T e u = 2 i + 3 j = (2, 3)T . La componente di u su v `e 2+3 5 u·v = = α= v·v 1+1 2 e la proiezione di u su v `e il vettore T 5 5 5 T , αv = (1, 1) = 2 2 2 α=
ossia
5 5 p = i + j. 2 2 Assegnato un vettore, esistono due versori ad esso paralleli. La proposizione che segue li fornisce esplicitamente. − − v Proposizione 5.7.1. Assegnato il vettore → v = (v , v )T , i versori paralleli a → x
sono:
⎛
y
⎞T
vy ⎠ . ⎝± v x , ± 2 2 2 vx + vy vx + vy2
5.7. PRODOTTO SCALARE
123
− − Dimostrazione. Per ottenere un versore parallelo a → v , basta dividere il vettore → v per → − la sua norma v . Questo e il suo opposto sono i versori cercati. Quindi se v `e un qualunque vettore, allora vv `e il versore concorde con v . Dalla trigonometria piana abbiamo immediatamente che (v. figura precedente) p = ( u cos θ)
v . v
Osserviamo che p `e concorde con v se 0 ≤ θ ≤ discorde se π2 < θ < π. In ogni caso, α v = u cos θ
π 2
(come in figura), mentre `e
v . v
Sostituendo il valore di α u · v v v = u cos θ v · v v abbiamo u · v 1 = u cos θ v · v v u · v = u v cos θ
(5.11)
che ci d`a una espressione intrinseca, cio`e senza ricorso alle coordinate, del prodotto scalare di due vettori geometrici. Osservazione 5.7.2. A volte la relazione (5.11) viene presa come definizione di prodotto scalare tra due vettori liberi. A partire da essa per` o diventa un po’ meno agevole dimostrare le varie propriet` a del prodotto scalare. La formula per la lunghezza di un vettore ci permette di calcolare la distanza P1P2 di due punti P1 (x1 , y1 ), P2 (x2 , y2 ) del piano, in quanto si ha, ricordando la Proposizione 5.5.4: −−−→ P1 P2 = |P1 P2 | = (x2 − x1 )2 + (y2 − y1 )2 . (5.12) Possiamo anche calcolare il coseno dell’angolo tra due vettori. → − → − − → − → − − Proposizione 5.7.3. Assegnati → v = vx i + vy j , → u = ux i + uy j , si ha: v x ux + v y uy − → − . cos → v u = 2 vx + vy2 u2x + u2y Dimostrazione. Segue immediatamente dalla formula intrinseca (5.11) di prodotto scalare.
CAPITOLO 5. GEOMETRIA ANALITICA PIANA
124
5.8
Punto medio di un segmento
Assegnato un segmento di estremi A(xA , yA ) B(xB , yB ), possiamo facilmente determinare le coordinate (xM , yM ) del suo punto medio M con lo strumento del calcolo −−→ −−→ vettoriale. Per definizione di punto medio, i vettori AM e M B risultano equipollenti, pertanto si ha: −−→ −−→ [AM ] = [M B], da cui, mediante la Proposizione 5.5.4, si deduce: xM − x A = x B − x M ,
yM − yA = yB − yM .
Le coordinate del punto medio M sono pertanto: xM =
5.9
xA + xB , 2
yM =
yA + y B . 2
(5.13)
Area del triangolo
→ − −→ Assegnato il triangolo di vertici A(xA , yA ), B(xB , yB ), C(xC , yC ), poniamo b = AC, − − → → −c = AB, α = CAB. Dalla trigonometria sappiamo che l’altezza del triangolo ABC `e uguale ad AC moltiplicato per il seno di α. L’area S del triangolo `e quindi data da −−→ −→ (1/2)|AB||AC| sin α.
C
A
B
Si ha perci`o: − − − − 1→ 1→ S = | b ||→ c | sin α = | b ||→ c | 1 − cos2 α = 2 2 → − → −c 2 − → − − 2 → − − 2 1→ b · 1 → ! − = | b || c | 1 − → = | b | 2 |→ c| −(b ·→ c) = − → − 2 2 | b || c | 1 2 = (bx + b2y )(c2x + c2y ) − (bx cx + by cy )2 = 2 1 2 2 1 = bx cy + b2y c2x − 2bx cx by cy = (bx cy − by cx )2 = 2 2 1 1 b 1 x − xA yC − yA b = |bx cy − by cx | = | x y | = | C |. 2 2 cx cy 2 x B − x A yB − y A L’area del triangolo si pu`o anche scrivere: x 1 A S = | x B 2 xC
yA yB yC
1 1 | 1
(5.14)
5.10. EQUAZIONE CARTESIANA DI UNA RETTA
125
come si pu` o riconoscere sottraendo la prima riga dalla seconda e dalla terza e sviluppando il determinante secondo Laplace.
5.10
Equazione cartesiana di una retta
Tre punti del piano P (x, y), P1 (x1 , y1 ), P2 (x2 , y2 ) sono allineati se e soltanto se i vet−−→ −−−→ tori P1 P , P1 P2 sono paralleli. Dalla Proposizione 5.5.4, e da (5.6) discende che l’allineamento di tre punti si esprime al modo seguente: x − x 1 y − y1 (5.15) x 2 − x 1 y2 − y1 = 0 o, in maniera equivalente,
x x1 x 2
y y1 y2
1 1 = 0. 1
(5.16)
Infine, se i denominatori sono diversi da zero, x − x1 y − y1 = . x2 − x1 y2 − y1
(5.17)
Supponiamo ora di considerare P2 (x2 , y2 ) = P (x, y) come un arbitrario punto del piano. Le (5.15), (5.17) esprimono la condizione che deve soddisfare un punto P del piano per essere allineato con P1 e P2 . Supposto P1 = P2 , tali formule forniscono pertanto la condizione affinch´e P appartenga alla retta passante per P1 e P2 . La (5.15) viene detta equazione cartesiana della retta passante per i punti P1 , P2 . Sviluppando i calcoli, essa diventa (y2 − y1 )x − (x2 − x1 )y − x1 y2 + x2 y1 = 0, cio`e: ax + by + c = 0,
(5.18)
avendo posto a = y 2 − y1 ,
b = x1 − x2 ,
c = −x1 y2 + x2 y1 .
(5.19)
Come si vede dalla (5.18), una retta nel piano `e rappresentabile mediante un’equazione di primo grado (o lineare) nelle variabili x, y (con coefficienti delle incognite non tutti nulli). Viceversa una tale equazione rappresenta sempre una retta, ma di ci`o omettiamo la dimostrazione.
5.11
Casi particolari dell’equazione di una retta
Supponiamo che nella (5.18) sia a = 0 e quindi b = 0. L’equazione allora diviene by + c = 0, ovvero: y=k (5.20) essendo k = −c/b. La (5.20) rappresenta il luogo dei punti per i quali la x `e arbitraria (infatti essa non compare nell’equazione e quindi non `e soggetta a vincoli) e la y invece `e costante.
CAPITOLO 5. GEOMETRIA ANALITICA PIANA
126
Si tratta quindi di una retta parallela all’asse x. y
(0,k)
(x,k)
x
O
Analogamente, se nella (5.18) `e b = 0, si ha una retta di equazione: x=h
(5.21)
e quindi parallela all’asse y. y (h,y)
O
(h,0)
x
Se nella (5.18) `e c = 0, si ha una retta di equazione: ax + by = 0.
(5.22)
Tale equazione, essendo soddisfatta dalla coppia (0, 0), rappresenta una retta passante per l’origine. y
O
x
5.11. CASI PARTICOLARI DELL’EQUAZIONE DI UNA RETTA
127
Se nella (5.18) `e b = 0, cio`e se la retta non `e parallela all’asse y, l’equazione si pu`o risolvere rispetto ad y: c a y =− x− b b da cui, ponendo m = −a/b e q = −c/b, si ha la y = mx + q
(5.23)
che si dice equazione ridotta della retta. Detto θ l’angolo ottenuto mediante rotazione in verso antiorario dall’asse x alla retta r, si pu`o dimostrare che: m = tg θ, m `e detto coefficiente angolare della retta r; q `e invece l’ordinata dell’intersezione Q della retta r con l’asse y. y
Q O
x
Equazione segmentaria Consideriamo la retta individuata dai due punti (p, 0) e (0, q), con p = 0 e q = 0, rispettivamente appartenenti all’asse x e all’asse y; la sua equazione `e, tenuto conto della (5.17): x y + = 1. p q
(5.24)
y
(0,q)
O
(p,0)
x
CAPITOLO 5. GEOMETRIA ANALITICA PIANA
128
Viceversa, considerata la retta di equazione: ax + by + c = 0 se i suoi coefficienti a, b, c sono tutti diversi da zero, dividendo per −c ci si pu`o ridurre alla (5.24) con p = −c/a e q = −c/b. La (5.24), in quanto mette in evidenza i segmenti staccati sugli assi, dicesi equazione segmentaria della retta.
5.12
Intersezione e parallelismo di due rette
Consideriamo due rette r, r di equazioni rispettive: ax + by + c = 0,
a x + b y + c = 0.
La risolubilit`a o meno del sistema formato dalle equazioni comporta l’esistenza o meno di punti di intersezione delle due rette. Si hanno evidentemente tre possibilit` a: 1) Il sistema ammette una e una sola soluzione (x0 , y0 ) =⇒ r ∩ r = P0 (x0 , y0 ): le rette sono incidenti. 2) Il sistema ammette infinite soluzioni: le rette sono coincidenti. 3) Il sistema non ammette soluzioni =⇒ r ∩ r = ∅: le rette sono parallele. Dallo studio dei sistemi lineari sappiamo che le tre eventualit` a si presenteranno nell’ordine se: a b 1. = 0, a b 2. a = ka
b = kb
c = kc,
3. a = ka
b = kb
c = kc,
essendo k un opportuno fattore di proporzionalit`a diverso da 0. Se poi si considera la coincidenza delle due rette come caso particolare di parallelismo, possiamo concludere: Proposizione 5.12.1. Le rette r, r sono parallele se e soltanto se esiste k = 0 tale che: a = ka, b = kb. a per la Nel caso in cui la retta r sia parallela ad r la sua equazione risulter` proposizione precedente: kax + kby + c = 0, e dividendo per k ax + by + c /k = 0, ovvero ax + by + h = 0, avendo posto c /k = h. Ne segue:
5.13. FASCI DI RETTE
129
Proposizione 5.12.2. Tutte e sole le rette parallele ad una retta r hanno equazioni che si ottengono alterando il termine noto dell’equazione di r.
5.13
Fasci di rette
Assegnate due rette distinte r : ax + by + c = 0, r : a x + b y + c = 0, si definisce fascio di rette determinato da r e r l’insieme F delle rette di equazione: λ(ax + by + c) + μ(a x + b y + c ) = 0
(5.25)
al variare dei parametri reali λ e μ. Lasciamo al lettore la dimostrazione della seguente: Proposizione 5.13.1. Se r e r si intersecano in un punto P0 , il fascio F `e costituito da tutte e sole le rette passanti per P0 . Se r e r sono parallele, F `e formato da tutte le rette parallele ad esse. Nel primo caso, F si dice fascio proprio di centro P0 . Nel secondo, F si chiama fascio improprio. Dalla Proposizione 5.13.1 segue immediatamente che un fascio F pu` o essere rappresentato in infiniti modi, combinando linearmente le equazioni di due rette qualsiasi appartenenti ad esso. Per esempio nel caso di un fascio proprio F di centro P0 (x0 , y0 ), dato che due rette passanti per P0 sono x−x0 = 0 e y −y0 = 0, si ha per F la seguente rappresentazione: λ(x − x0 ) + μ(y − y0 ) = 0. Nel caso di un fascio improprio, si verifica immediatamente che l’equazione (5.25) si riduce a: ax + by + h = 0 con h parametro reale, coerentemente con la Proposizione 5.12.2.
5.14
Parametri direttori e coseni direttori
Torniamo ad esaminare l’equazione (5.15) di una retta r passante per due punti P1 (x1 , y1 ), P2 (x2 , y2 ): x − x 1 y − y1 x2 − x1 y2 − y1 = 0. Osserviamo che essa equivale alle x − x1 = (x2 − x1 )t, y − y1 = (y2 − y1 )t, ovvero a
x = x1 + (x2 − x1 )t y = y1 + (y2 − y1 )t
t∈R
∀t ∈ R.
Tali equazioni, che descrivono, al variare del parametro reale t, i punti della retta r, vengono dette equazioni parametriche di r.
130
CAPITOLO 5. GEOMETRIA ANALITICA PIANA
I valori = x2 − x1 , m = y2 − y1 vengono chiamati parametri direttori della retta −−−→ r. Essi eguagliano le componenti del vettore P1 P2 (cfr. (5.5.4)) parallelo alla retta. Si noti che considerando altri due punti P1 (x1 , y1 ), P2 (x2 , y2 ) appartenenti alla retta, i parametri direttori si mutano in = x2 − x1 , m = y2 − y1 proporzionali ad −−−→ −−−→
, m in quanto componenti del vettore P1 P2 parallelo a P1 P2 (cfr. (5.6)). Data una retta r di equazione ax + by + c = 0, calcoliamone i parametri direttori. Dalla (5.19) si ha evidentemente:
= −b
m=a
sempre, per quanto detto sopra, a meno di un fattore di proporzionalit`a. Ne segue: Proposizione 5.14.1. Un vettore parallelo ad una retta di equazione ax + by + c = 0 ha coordinate proporzionali a (−b, a)T . Dalle Proposizioni 5.7.1 e 5.14.1, tenendo conto che per ogni retta esistono due versori ad essa paralleli, tra loro opposti, discende: Proposizione 5.14.2. I versori paralleli ad una retta r di equazione ax + by + c = 0,
m b a hanno coordinate (± √ , ±√ )T = (∓ √ , ±√ )T . 2 2 2 2 2 2 2
+m
+m a +b a + b2 Si osservi che, quando su una retta r si sceglie una delle due possibili orientazioni, viene univocamente determinato uno dei due versori suddetti. Definizione 5.14.3. Assegnata una retta r orientata, gli scalari cos x "r, cos y"r, coseni degli angoli che r forma con gli assi cartesiani (anch’essi orientati), vengono detti coseni direttori di r. Proposizione 5.14.4. I coseni direttori di una retta orientata r eguagliano le coor− dinate del versore → r di r, dotato del verso corrispondente all’orientazione di r. → − → − − Dimostrazione. Per la (5.11), essendo | i | = | j | = |→ r | = 1, si ha: → − → i ·− r = cos x "r,
→ − → j ·− r = cos y"r.
− r , risulta D’altra parte, indicate con rx , ry le coordinate di → → − → i ·− r = r x · 1 + r y · 0 = rx ,
→ − → j ·− r = rx · 0 + ry · 1 = ry
da cui cos x "r = rx ,
5.15
cos y"r = ry
Perpendicolarit` a di due rette
Date due rette r : ax+by+c = 0, r : a x+b y+c = 0, esse sono perpendicolari quando sono tali due vettori ad esse rispettivamente paralleli. Poich´e un vettore parallelo ad − − v = (−b , a )T , r `e , per esempio, il vettore → v = (−b, a)T e uno parallelo ad r `e → dalla condizione di perpendicolarit`a di due vettori segue:
5.16. DISTANZA PUNTO-RETTA
131
Proposizione 5.15.1. Le rette r, r sono perpendicolari se e soltanto se si verifica: aa + bb = 0. Pi` u in generale, detto θ uno dei due angoli (tra loro supplementari) formato da due rette r : ax + by + c = 0, r : a x + b y + c = 0, dalla formula del coseno dell’angolo di due vettori (cfr. 5.7.3), si deduce: cos θ =
aa + bb √ . ± a2 + b2 a2 + b2 √
(5.26)
− Osservazione 5.15.2. Assegnata la retta r : ax + by + c = 0, il vettore → u = (a, b)T → − → − − `e perpendicolare ad r, in quanto v = (−b, a)T `e parallelo ad r e risulta u · → v = 0. I versori di una retta n perpendicolare ad r sono quindi: T T a b a b √ ,√ , −√ , −√ . a 2 + b2 a 2 + b2 a 2 + b2 a 2 + b2
5.16
Distanza punto-retta
Assegnati un punto P0 (x0 , y0 ) e una retta r : ax + by + c = 0, la distanza P0 r eguaglia la distanza P0 H essendo H il piede della perpendicolare n alla retta r passante per T a b − n = √ ,√ della retta n (cfr. 5.15.2). P0 . Consideriamo il versore → a 2 + b2 a 2 + b2
P0 r
H P1 n
Detto P1 (x1 , y1 ) un punto arbitrario di r, le sue coordinate devono soddisfare l’equazione della retta: ax + by + c = 0, cio`e: ax1 + by1 = −c.
(5.27) −−−→ P0 H `e il valore assoluto della componente del vettore P1 P0 sulla retta n. Per la (5.10) si ha: −−−→ − |(x0 − x1 )a + (y0 − y1 )b| |ax0 + by0 − (ax1 + by1 )| √ √ P0 H = | P 1 P0 · → n| = = . a 2 + b2 a 2 + b2 Da (5.27) segue allora: P0 r =
|ax0 + by0 + c| √ . a 2 + b2
(5.28)
CAPITOLO 5. GEOMETRIA ANALITICA PIANA
132
5.17
Cambiamenti di riferimento nel piano
Siano date due basi ortonormali ordinate di V2 : B = ( i, j) e B = ( i , j ). Per un generico vettore v ∈ V2 , abbiamo v = vx i + vy j = vx i + vy j . Supponendo che,
i = a i + b j j = c i + d j
sostituendo si ha: v = vx (a i + b j) + vy (c i + d j) = (avx + cvy ) i + (bvx + dvy ) j. Confrontando le due espressioni abbiamo vx = avx + cvy vy = bvx + dvy che possiamo scrivere anche in forma matriciale come a c vx vx = . (5.29) vy vy b d a c La matrice M = si dice matrice del cambiamento di coordinate da B a B. b d Essa ha per colonne le componenti dei vettori di B nella base B. Dalla formula (5.29), moltiplicando ambo i membri a sinistra per M −1 si vede subito che il cambiamento inverso ha per matrice la matrice inversa di M : −1 vx a c vx = . (5.30) vy vy b d Esempio 5.17.1. Assegnati i = ( 53 i + 45 j) e j = (− 45 i + 35 j). Osserviamo che i · j = 0, che | i | = |j | = 1 e che pertanto B = ( i , j ) `e una base ortonormale. La matrice M del cambiamento di base da B a B `e 3 − 45 5 M= 4 3 5
5
e quindi il cambio di coordinate di vettore `e 3 − 45 vx vx 5 = 4 3 vy vy 5
ossia
5
vx = 35 vx − 45 vy vy = 45 vx + 35 vy
(5.31)
5.17. CAMBIAMENTI DI RIFERIMENTO NEL PIANO
133
Osserviamo la notevolissima propriet`a che la matrice M possiede e cio`e M M T = I o, equivalentemente, M −1 = M T . Una tale matrice si dice matrice ortogonale. La matrice M ha per colonne le componenti dei vettori di B rispetto a B e, per le (5.8), ha la forma i · i j · i M = i ·j j ·j Osserviamo allora che
MT =
i · i i · j j · i j · j
che, per la simmetria del prodotto scalare, pu` o essere riscritta come i · i j · i M T = i·j j·j che `e proprio, per definizione, la matrice del cambiamento inverso e quindi coincide con M −1 (v. formula (5.29)). Esempio 5.17.2. Continuando l’esempio precedente, proponiamoci di calcolare le coordinate del vettore v = 8 i + 8 j nella base B (vedi figura 1). Applichiamo le formule inverse delle (5.31) : vx = 15 (3vx + 4vy ) 3 4 v vx x = 15 , cio`e vy vy −4 3 vy = 15 (−4vx + 3vy ) e quindi
vx = 15 (3 · 8 + 4 · 8) = 56 5 ≈ 11, 2 vy = 15 (−4 · 8 + 3 · 8) = − 85 ≈ −1, 6
Figura 1
CAPITOLO 5. GEOMETRIA ANALITICA PIANA
134
Supponiamo ora che anche l’origine del sistema di riferimento venga spostata in O (x0 , y0 ). Allora per calcolare le coordinate del punto P (x, y) nel nuovo riferimen−−→ a determinare le coordinate del vettore O P . Abbiamo la to RC(O x y ), occorrer` relazione vettoriale −−→ −−→ −−→ O P = O O + OP ossia
−−→ −−→ −−→ O P = −OO + OP
Nell’esempio precedente questa relazione si traduce in −−→ 1 3 4 1 3 4 −x0 x OP = + −y0 y 5 −4 3 5 −4 3 1 3 4 x − x0 x = y y − y0 5 −4 3 Esempio 5.17.3. Calcolare le coordinate del punto P (8, 8) nel sistema di riferimento RC(O i j ) dove l’origine `e O (−2, 4) e la base B `e quella dell’esempio precedente. Abbiamo allora x = 35 (x + 2) + 45 (y − 4) = 46 5 ≈ 9, 2 y = − 45 (x + 2) + 35 (y − 4) = − 28 5 ≈ −5, 6 Vedi figura 2.
Figura 2 Gli stessi ragionamenti, svolti sopra in un esempio, danno luogo alla seguente Proposizione 5.17.4. Dato un riferimento cartesiano RC(O i j ), con i = a i + b j, j = c i + d j e O (x0 , y0 ) (valutati rispetto al fissato riferimento RC(O i j)), le formule di cambiamento di punto sono x = a(x − x0 ) + b(y − y0 ) (5.32) y = c(x − x0 ) + d(y − y0 )
5.17. CAMBIAMENTI DI RIFERIMENTO NEL PIANO
135
Esempio 5.17.5. Calcolare le coordinate del punto P (8, 8) nel sistema di riferimento RC(O i j ) con O (15, −10) e la base B dell’esempio precedente. Abbiamo allora x = 35 (8 − 15) + 45 (8 + 10) = 51 5 y = − 45 (8 − 15) + 35 (8 + 10) = 82 5 In alternativa si poteva procedere cos`ı: Sappiamo che le nuove coordinate devono essere del tipo x = 35 x + 45 y + k1 (5.33) y = − 45 x + 35 y + k2 avendo aggiunto alla rotazione degli assi una traslazione da determinarsi. La traslazione pu` o essere individuata sapendo che l’origine O ha coordinate ovviamente (0, 0) nel riferimento RC mentre ha coordinate (15, −10) nel riferimento RC. Si ha quindi 0 = 9 − 8 + k1 0 = 35 · 15 + 45 · (−10) + k1 =⇒ 0 = − 45 · 15 + 35 · (−10) + k2 0 = −2 − 6 + k2 da cui k1 = −1, k2 = 18. Usando ora le (5.33) con questa scelta di k1 , k2 abbiamo x = 35 (8) + 45 (8) − 1 = 51 5 y = − 45 (8) + 35 (8) + 18 = 82 5 come sopra. Esempio 5.17.6. Si verifichi che le rette r : −2x + y = 0 e s : 2y + x − 1 = 0 sono ortogonali e si consideri il riferimento RC(O i j ) che ha come assi x , y le rette r e s orientate, secondo le x crescenti e, rispettivamente, decrescenti, (v. figura 3).
Figura 3
136
CAPITOLO 5. GEOMETRIA ANALITICA PIANA
Il punto O `e il punto di intersezione delle due rette e quindi le sue coordinate si ottengono risolvendo il sistema y = 2x 2y + x − 1 = 0 1 2 (si distingue dall’altra possibile scelta perch´e ha la componente x positiva). Il versore di s orientato secondo a le x decrescenti ha invece la componente x negativa e sar` −2 quindi s = √15 . Abbiamo, in definitiva, i = r e j = s. La matrice del 1 cambiamento di coordinate da B a B `e quindi 1 √ − √25 5 M= . 1 2
ottenendo O ( 15 , 25 ). Il versore di r orientato nel verso delle x crescenti `e r =
√
Abbiamo dunque
√1 vx 5 = vy √2 5
√
5
5
− √25
√1 5
vx vy
.
Il cambiamento di coordinate di punto `e allora x = √15 (x − 15 ) + √25 (y − 25 ) y = − √25 (x − 15 ) +
Le formule desiderate sono quindi x = y =
√1 5
√1 (y 5
− 25 )
√1 x + √2 y − √1 5 5 5 − √25 x + √15 y
.
.
Possiamo verificare ora, per esempio, che i punti D(1, 0), E(2, 1) e H(−1, 1) del riferimento RC hanno, nel riferimento RC , coordinate, rispettivamente, D(0, − √25 ), E( √35 , − √35 ), H(0, √35 ). Esempio 5.17.7. Prendiamo una retta r : 2x + 5y + 8 = 0 ed una sua perpendicolare s : −5x + 2y + 5 = 0. Si pu`o verificare che queste due rette si intersecano nel punto 9 , − 50 O ( 29 29 ). Supponiamo di prendere come nuovo asse x la retta s orientata secondo le x crescenti. In altre parole, prendiamo come nuovo versore i il versore √129 (2, 5)T . Come nuovo asse y prendiamo invece la retta r orientata nel verso delle x decrescenti e quindi j = √129 (−5, 2)T . La matrice del cambiamento di coordinate `e quindi 1 √ 29
2 −5 . 5 2
Il cambiamento delle coordinate di vettore `e pertanto
5.17. CAMBIAMENTI DI RIFERIMENTO NEL PIANO
vx = vy =
√1 (2vx 29 √1 (5vx 29
− 5vy )
137
(5.34)
+ 2vy ).
Le coordinate del punto P (x, y) dipendono non solo da i e j , ma anche da O e abbiamo, usando il metodo dei coefficienti indeterminati:
x= y=
√1 (2x 29 √1 (5x 29
− 5y ) + k1
Dalla condizione O (x = 0, y = 0) si ha O (x =
x= y=
Le trasformazioni inverse, sono x =
0= 0=
e infine
x = y =
9 29 , y
− 5y ) + + 2y ) −
= − 50 29 ), si ha
9 29 50 29
(5.36)
√1 (2x + 5y) + h1 29 √1 (−5x + 2y) + h2 29
(5.37)
√1 (2 9 − 5 50 ) + h1 29 29 29 √1 (−5 9 − 2 50 ) + h2 29 29 29
(5.38)
√1 (2x + 5y) + 232 √ 29 29 29 1 √ (−5x + 2y) + 145 √ 29 29 29
(5.39)
y = da cui ricaviamo h1 , h2
√1 (2x 29 √1 (5x 29
(5.35)
+ 2y ) + k2
Prendiamo ora, ad esempio, la circonferenza di equazione (v. capitolo seguente) (5.40) x2 + y 2 − 4x + 2y + 1 = 0. Questa circonferenza ha centro (2, −1) e raggio 2. Sostituendo le (5.36) nella (5.40): 14 18 14 x2 + y 2 − √ x + √ y − =0 29 29 29 Si verifica facilmente che questa `e una circonferenza di centro ( √729 , − √729 ) e raggio # # $ $ 1 14 2 1 14 2 18 1 14 2 18 98 18 116 √ (√ ) + (√ ) + = (√ ) + = + = = 4=2 r= 4 29 4 29 29 2 29 29 29 29 29 come atteso. Il centro, ( √729 , − √729 ) nel riferimento RC , ha coordinate in RC ⎧ 14 35 9 58 1 7 −7 9 ⎪ = + + = =2 ⎨x = √ (2 √ − 5 √ ) + 29 29 29 29 29 29 29 29 come gi`a visto. 1 35 14 50 29 7 −7 50 ⎪ ⎩y = √ (5 √ + 2 √ ) − = − − =− = −1 29 29 29 29 29 29 29 29
138
CAPITOLO 5. GEOMETRIA ANALITICA PIANA
Figura 4 − − − Esempio 5.17.8. Se prendiamo come nuova base ordinata B = (→ u ,√→ v ), dove → u = √ 1 3 1 3 2 2 2 − 2 e→ v = √ , la matrice del cambiamento di base `e M = . Vo√ 3 3 1 − 12 −2 2 2 8 → − gliamo calcolare le coordinate del vettore w = nel nuovo sistema di riferimento. 8 − w: Basta prendere M T e calcolare M T → √ 3 √ − 12 8 4 3−4 2 = √ √ 3 1 8 4 3+4 2 2
Figura 5 Se poi spostiamo anche l’origine nel punto (1, 2), otteniamo dalle (5.32): √ √ x = 23 x − 12 y + 1 − 23 √ √ y = 12 x + 23 y − 12 − 3
5.17. CAMBIAMENTI DI RIFERIMENTO NEL PIANO e sostituendo x = 8, y = 8 si ottiene x =
√ 7 3 2
139
√ − 3 e y = 3 3 + 72 .
Figura 6 In aggiunta, se abbiamo una retta di equazione cartesiana che nel sistema di riferimento RC(Oxy) `e descritta dall’equazione 3x + 2y − 7 = 0, ci domandiamo come si trasformi questa equazione nel sistema RC(O x y ) appena descritto. A tal fine dobbiamo calcolare le relazioni inverse di quelle appena determinate. Esse si ottengono invertendo la matrice delle coordinate √ x = 23 x + 12 y + h1 √ (5.41) y = − 12 x + 23 y + h2 e determinando h1 , h2 , sapendo che la “nuova” origine O ha coordinate (1, 2) in RC e coordinate (0, 0) in RC , da cui √ 1 = 23 0 + 12 0 + h1 √ (5.42) 2 = − 12 0 + 23 0 + h2 .
Ne discende
Sostituendo si ha
√
x = 23 x + 12 y + 1 √ y = − 12 x + 23 y + 2
(5.43)
√ 3 1 3 1 3( x + y + 1) + 2(− x + y + 2) − 7 = 0 2 √ 2 2 √ 2 1 3 3 1 − 2 )x + (3 + 2 )y + 3 + 4 − 7 = 0 (3 2 2 2 2 √ √ (3 3 − 2)x + (3 + 2 3)y = 0
(5.44)
√
Questa `e l’equazione cercata. Si osservi che la nuova equazione ha termine noto nullo coerentemente col fatto che la nuova origine O appartiene alla retta assegnata.
Capitolo 6
CONICHE IN FORMA CANONICA Dopo aver studiato nel capitolo precedente le rette, che sono caratterizzate da equazioni lineari nelle due variabili, in questo capitolo andiamo a studiare alcune curve algebriche di ordine due, vale a dire curve la cui equazione `e data dall’annullarsi di un polinomio di secondo grado in due variabili. Studieremo dapprima il caso della circonferenza, seguita dallo studio delle equazioni canoniche delle cosiddette “sezioni coniche” o semplicemente “coniche”.
6.1
Circonferenza
Consideriamo una circonferenza di centro P0 (x0 , y0 ) e raggio r, cio`e il luogo dei punti del piano P (x, y) per i quali si verifica la relazione: P0 P = r.
(6.1)
La (6.1), espressa mediante la (5.12), diviene:
(x − x0 )2 + (y − y0 )2 = r,
(6.2)
ovvero, elevando al quadrato ambo i membri: (x − x0 )2 + (y − y0 )2 = r2 .
(6.3)
x2 + y 2 − 2x0 x − 2y0 y + x20 + y02 − r2 = 0.
(6.4)
Sviluppando si ottiene:
L’equazione della circonferenza di centro P0 e raggio r `e quindi: x2 + y 2 + ax + by + c = 0.
(6.5)
CAPITOLO 6. CONICHE IN FORMA CANONICA
142 avendo posto nella (6.4) −2x0 = a,
−2y0 = b,
x20 + y02 − r2 = c.
(6.6)
Viceversa, data una equazione (6.5) con b2 a2 + − c > 0, 4 4 essa rappresenta una circonferenza. Di essa si pu` o facilmente calcolare il centro e il raggio; dalle (6.6) discende infatti: $ b2 a2 a b y0 = − , r= + − c. (6.7) x0 = − , 2 2 4 4 Si noti infine che, in particolare, una circonferenza di centro l’origine (0, 0) ha equazione del tipo: (6.8) x2 + y 2 = r 2 . La stessa circonferenza, in coordinate polari, ha equazione ρ = r (cfr. (5.1)). Le sue equazioni parametriche sono x = r cos θ . (6.9) y = r sin θ Esempio 6.1.1. Determinare il centro e il raggio della circonferenza di equazione x2 +y 2 +6x+4y −40 = 0. L’applicazione delle formule √ (6.6) fornisce immediatamente o procedere col la soluzione: il centro `e C(−3, −2) e il raggio `e 53. Oppure si pu` metodo di “completamento del quadrato” nel modo seguente. Riscriviamo l’equazione e aggiungiamo ad ambo i membri delle costanti opportune in modo da ottenere due quadrati di binomio: x2 + 6x + y 2 + 4y = 40 (x2 + 6x + 32 ) + (y 2 + 4y + 22 ) = 40 + 32 + 22 2
(6.10)
2
(x + 3) + (y + 2) = 53 da cui si legge immediatamente sia il centro che il raggio. Esempio 6.1.2. Determinare l’equazione della circonferenza passante per i punti A(1, −2), B(3, −2), C(5, −4). Il problema pu`o essere affrontato in diversi modi. Il primo consiste nell’imporre ad una circonferenza generica x2 + y 2 + ax + by + c = 0 di passare per ciascuno dei punti assegnati, ottenendo cos`ı il sistema di 3 equazioni in 3 incognite ⎧ ⎪ ⎨1 + 4 + a − 2b + c = 0 , 9 + 4 + 3a − 2b + c = 0 ⎪ ⎩ 25 + 16 + 5a − 4b + c = 0 che fornisce a = −4, b = 10, c = 19, quindi l’equazione x2 + y 2 − 4x + 10y + 19 = 0.
6.1. CIRCONFERENZA
143
Altrimenti si pu` o risolvere l’esercizio con metodo pi` u geometrico, utilizzando la ben nota propriet`a del passaggio per il centro degli assi delle corde, (v. figura)
La corda AB ha parametri direttori = 3 − 1 = 2, m = −2 + 2 = 0. Il suo punto medio `e M = (2, −2). Il suo asse `e quindi x − 2 = 0. La corda AC ha parametri direttori = 5 − 1 = 4, m = −4 + 2 = −2, riducibili a = 2, m = −1. Il suo punto medio `e M = (3, −3). Il suo asse `e quindi 2(x − 3) −1(y + 3) = 0, cio`e x−2=0 2x−y−9 = 0. Intersecando i due assi, ovvero risolvendo il sistema , 2x − y − 9 = 0 si ottiene il centro P0 (2, −5) √ della circonferenza. Il raggio eguaglia la distanza P0 A = (1 − 2)2 + (−2 + 5)2 = 10. La circonferenza ha equazione (x−2)2 +(y +5)2 = 10, equivalente all’equazione trovata per altra via. Infine, si pu` o scrivere la seguente equazione: 2 x + y2 x y 1 2 2 x A + yA x A y A 1 =0 (6.11) x2 + y 2 x yB 1 B B B 2 x + y 2 x C y C 1 C
C
che, nel caso in cui i tre punti non siano allineati, fornisce direttamente l’equazione della circonferenza richiesta. Essa infatti, sviluppata ad esempio lungo la prima riga, `e certamente un’equazione del tipo (6.5), che quindi rappresenta una circonferenza. Essa passa per il punto di coordinate (xA , yA ): infatti sostituendo questi valori nella prima riga, il determinante che ne risulta ha due righe uguali ed `e dunque nullo. Analogamente per gli altri due punti. Nel nostro esempio abbiamo 2 x + y 2 x y 1 5 1 −2 1 = 0. (6.12) 13 3 −2 1 41 5 −4 1
CAPITOLO 6. CONICHE IN FORMA CANONICA
144
Sviluppando, abbiamo lo stesso risultato visto sopra. Si osservi che il complemento algebrico dell’elemento di posto (1, 1) in questa matrice `e esattamente il determinante di ordine 3 1 −2 1 3 −2 1 (6.13) 5 −4 1 che risulta diverso da zero precisamente perch`e i tre punti assegnati non sono allineati, v. (5.16). Si noti che il valore di questo determinante `e un multiplo non nullo dell’area del triangolo individuato dai tre punti, v. (5.14).
6.2
Coniche in equazione canonica. Introduzione
Supponiamo di aver fissato nel piano un punto F ed una retta d non passante per F . Vogliamo studiare il luogo dei punti P del piano per cui il rapporto tra la distanza P F di P da F e la distanza P d dello stesso punto dalla retta d sia costante: PF =e Pd
(6.14)
La costante e viene detta eccentricit` a, la retta d si dice direttrice e il punto F si dice fuoco. Il luogo geometrico che risulta da questa costruzione viene detto conica o sezione conica e, in particolare, ellisse1 se 0 < e < 1; parabola se e = 1; iperbole se e > 1. In quel che segue diamo delle equazioni algebriche, che saranno dette equazioni canoniche, di questi tre tipi di coniche.
6.3
Ellisse
Assegnato un punto F , scegliamo il sistema di riferimento in modo tale che F abbia coordinate F (c, 0), con c > 0. Sia e un valore positivo ma minore di 1, e si prenda come direttrice la retta d di equazione x = ec2 . La condizione (6.14) si pu`o riscrivere P F = e(P d) ed usando la formula per la distanza tra due punti e la formula per la distanza punto-retta, essa si traduce in (x − c)2 + y 2 = e2 |x −
c 2 | e2
(6.15)
e dunque c c2 x + ) e2 e4 c2 (1 − e2 )x2 + y 2 − 2cx + 2cx = 2 − c2 e
x2 − 2cx + c2 + y 2 = e2 (x2 − 2
(6.16)
1 Ellisse, iperbole, parabola dal greco rispettivamente: “carenza”, “eccesso”, “confronto”. Si confronti con le corrispondenti figure retoriche.
6.3. ELLISSE
145
ottenendo cos`ı (1 − e2 )x2 + y 2 =
c2 (1 − e2 ) e2
Osserviamo ora che, nell’ipotesi assunta e < 1, essendo la costante 2
c2 (1−e2 ) . e2
sitiva, possiamo porre, per definizione, b = (6.17) per b2 , otteniamo e2 2 y 2 x + 2 =1 c2 b Posto inoltre a2 =
c2 e2
(6.17) c2 (1−e2 ) e2
po-
Dividendo ambo i membri di (6.18)
si ha infine y2 x2 + =1 a2 b2
(6.19)
che `e l’equazione canonica dell’ellisse. Osserviamo che a 2 − b2 = c 2 Infatti: a 2 − b2 =
(6.20)
c2 c2 (1 − e2 ) c2 − c 2 + c 2 e2 − = = c2 2 2 e e e2
Posto inoltre x = 0 nell’equazione (6.19), si ha y 2 = b2 e y = ±b, implicando l’appartenenza dei punti (0, ±b) all’ellisse. Posto anche y = 0 si ha, analogamente, che i punti (±a, 0) appartengono all’ellisse. Assumendo, com’`e lecito, a, b positivi, poich`e 2 o anche scrivere x = ae . a2 = ec2 allora a = ec e l’equazione della direttrice si pu` La curva risulta simmetrica rispetto agli assi x, y (detti assi dell’ellisse). Infatti se un punto P (x, y) soddisfa l’equazione (6.19), anche i punti P (x, −y), P (−x, y), P (−x, −y) la soddisfano (cfr. 5.4.1), essendo le variabili x, y elevate al quadrato. Gli assi incontrano l’ellisse nei punti A(a, 0), A (−a, 0), B(0, b), B (0, −b), che si dicono vertici. I segmenti AA , BB vengono anch’essi chiamati assi dell’ellisse. Osservazione 6.3.1. Se a = b, l’equazione (6.19) diventa x2 + y 2 = a2 , equazione della circonferenza di centro l’origine e raggio a. Riassumiamo alcuni dati importanti di un’ellisse nell’ipotesi che risulti a > b. Se a < b, nelle definizioni che seguono occorre scambiare a con b, x con y. √ Definizione 6.3.2. Posto c = a2 − b2 , si definiscono per l’ellisse: fuochi i punti F (c, 0), F (−c, 0), c eccentricit` a il valore e = , a direttrici le rette d : x = a/e, d : x = −a/e. L’ellisse si pu`o anche caratterizzare in altro modo: Teorema 6.3.3. L’ellisse `e il luogo dei punti P del piano tali che la somma delle loro distanze dai due fuochi sia costante ed uguale alla lunghezza dell’asse maggiore: P F + P F = 2a.
CAPITOLO 6. CONICHE IN FORMA CANONICA
146
Dimostrazione. Un punto P (x, y) soddisfa la condizione assegnata se e solo se: (x − c)2 + y 2 + (x + c)2 + y 2 = 2a, da cui si ottiene la (6.19) con semplici passaggi, ricordando che c2 = a2 − b2 . 3 5 < 1. c2 (1−e2 ) = e2
Esempio 6.3.4. Fissiamo il punto F (3, 0) e la costante e = 2
La direttrice
25 Calcoliamo a = = 25 e b = 9 16 25 9 = 16. 2 2 x y L’equazione canonica `e dunque + = 1. Possiamo tracciare la curva seguente: 25 16
d ha equazione x =
25 3 .
2
c e2
2
Ellisse 1 y2 x2 + = 1, abbiamo la seguente ellisse Attenzione: se prendiamo l’equazione 16 25
Ellisse 2
6.4. IPERBOLE
6.4
147
Iperbole
Il calcolo all’inizio della sezione precedente si pu` o ripetere, invariato, anche se e > 1. In 2 2 ) questo caso, tuttavia, una volta giunti all’equazione (6.17) si osserva che c (1−e 0, ottenendo x2 y2 − 2 =1 2 a b
(6.21)
equazione canonica dell’iperbole. Posto y = 0, si deduce l’appartenenza dei punti (±a, 0), detti vertici dell’iperbole. Posto invece x = 0, non si trovano soluzioni reali della corrispondente equazione e quindi la curva non interseca l’asse y. La relazione tra a, b, c, in questo caso, `e a 2 + b2 = c 2 .
(6.22)
Infatti il calcolo `e sostanzialmente lo stesso di prima: c2 c2 (1 − e2 ) c2 − c 2 + c 2 e2 − = = c2 2 2 e e e2 Come nel caso dell’ellisse, questa curva risulta simmetrica rispetto agli assi coordinati (assi dell’iperbole) e rispetto all’origine (centro). Limitiamo perci` o lo studio della curva al primo quadrante. L’iperbole interseca il semiasse positivo delle x nel punto A(a, 0), mentre non interseca l’asse y. Per tale motivo l’asse x viene detto asse trasverso e l’asse y asse non trasverso. I punti (a, 0), (−a, 0), in cui l’asse trasverso incontra l’iperbole sono detti vertici. Le rette y = −(b/a)x sono asintoti2 per l’iperbole. Se a = b, l’equazione (6.21) diventa x2 − y 2 = a2 , gli asintoti risultano le bisettrici dei quadranti e l’iperbole viene detta equilatera. √ a e direttrici dell’iperbole Posto c = a2 + b2 , si definiscono fuochi, eccentricit` come per l’ellisse (cfr. 6.3.2). Sussiste il seguente teorema la cui dimostrazione `e analoga a quella del Teorema 6.3.3: a 2 + b2 =
Teorema 6.4.1. L’iperbole `e il luogo dei punti P del piano tali che il modulo della differenza delle loro distanze dai fuochi sia costante ed eguale a 2a: |P F − P F | = 2a. √ Esempio 6.4.2. Fissiamo il punto F ( 41, 0) e la costante e = √25 . 41
2
d ha equazione x = Calcoliamo a = 25 = 16. L’equazione canonica `e dunque 41 16 25 41
2
c e2
=
x2 y2 − =1 25 16 Possiamo tracciare la curva nella figura che segue: 2 dal
greco, ”che non cade insieme” ”che non incontra”
41 41/25
√
41 5 . 2
La direttrice
= 25 e b = − c
2
(1−e2 ) e2
=
148
CAPITOLO 6. CONICHE IN FORMA CANONICA
Nella figura abbiamo anche messo in evidenza gli asintoti dell’iperbole. Essi hanno equazione b y=± x a e sono caratterizzati dall’essere le sole rette passanti per l’origine che non hanno intersezione n´e reale n´e complessa con l’iperbole. Nell’esempio gli asintoti hanno equazioni y = ± 45 x. La ricerca delle intersezioni dell’iperbole di equazione (6.21) con una generica retta passante per l’origine equivale allo studio del sistema ⎧ 2 y2 ⎨x − =1 a2 b2 ⎩y = mx
.
Sostituendo la seconda equazione nella prima otteniamo x2
1 m2 − 2 2 a b
=1
In generale, questa equazione ha due soluzioni reali o complesse, tranne nel caso in cui si annulli il coefficiente della x2 : 1 m2 − =0 a2 b2 da cui ricaviamo b m=± . a
6.5. PARABOLA
6.5
149
Parabola
Studiamo infine il caso e = 1. Fissiamo il fuoco F (0, c) e la direttrice y = −c. La relazione (6.14) si traduce in P F = P d che diventa x2 + (y − c)2 = |y + c|2 da cui x2 + y 2 − 2cy + c2 = y 2 + 2cy + c2 che si semplifica in x2 = 4cy da cui infine y=
1 2 x 4c
(6.23)
equazione canonica della parabola. Tale curva interseca gli assi nell’origine (vertice della parabola) e presenta come unico asse di simmetria l’asse y (asse della parabola). y
P
F O
x d
Nel prossimo capitolo studieremo il problema generale di ridurre l’equazione di una conica nella sua forma canonica. Anticipiamo che con quelle tecniche si pu`o dimostrare che un’equazione del tipo: y = ax2 + bx + c
(6.24)
si pu`o ridurre con un opportuno cambiamento degli assi cartesiani all’equazione (6.23) e perci` o rappresenta una parabola. In tal caso, posto Δ = b2 − 4ac, risulta che: b Δ , − 4a ), • il vertice `e V (− 2a b , • l’asse di simmetria ha equazione x = − 2a
CAPITOLO 6. CONICHE IN FORMA CANONICA
150
b (−Δ+1) • il fuoco `e F (− 2a , 4a ),
• la direttrice d ha equazione y =
(−Δ−1) , 4a
• se a > 0, la parabola volge la concavit` a verso l’alto, se a < 0, verso il basso. Esempio 6.5.1. La ben nota parabola y = x2 ha fuoco F (0, 14 ), in quanto c = direttrice y = − 14 .
1 4
e
Ellisse, iperbole, parabola, per ora studiate solo in equazione canonica, sono casi particolari di coniche, curve che verranno analizzate in modo pi` u approfondito nel capitolo successivo.
6.6 6.6.1
Schemi riassuntivi sulle coniche in forma canonica Parabola con asse verticale
• Equazione y =
1 2 x 4c
• Vertice: V (0, 0) • Fuoco F (0, c) • Direttrice y = −c • Concavit`a verso l’alto se c > 0, verso il basso se c < 0
6.6. SCHEMI RIASSUNTIVI SULLE CONICHE IN FORMA CANONICA
6.6.2
Parabola con asse orizzontale
• Equazione x =
1 2 y 4c
• Vertice: V (0, 0) • Fuoco F (c, 0) • Direttrice x = −c • Concavit`a verso destra se c > 0, verso sinistra se c < 0
6.6.3
Ellisse con asse maggiore orizzontale
• Equazione:
x2 y2 + =1 a2 b2
(a > b > 0)
• Asse maggiore orizzontale di lunghezza 2a • Asse minore verticale di lunghezza 2b • Fuochi (±c, 0) con c2 = a2 − b2
151
CAPITOLO 6. CONICHE IN FORMA CANONICA
152 • Eccentricit`a e =
c a
a > 0)
• Asse maggiore verticale di lunghezza 2b • Asse minore orizzontale di lunghezza 2a • Fuochi (0, ±c) con c2 = b2 − a2 • Eccentricit`a e =
c b
1 2
• Direttrici verticali x = ± ae = ± ac = ± ec2
6.6.6
Iperbole con asse trasverso verticale
• Equazione
y2 x2 − 2 =1 2 b a
• Vertici (0, ±b) • Asse trasverso verticale (lunghezza 2b tra i due vertici) • Asintoti y = ± ab x • Fuochi (0, ±c) con c2 = a2 + b2 • Eccentricit`a e =
c b
>1
153
CAPITOLO 6. CONICHE IN FORMA CANONICA
154
2
• Direttrici orizzontali y = ± eb = ± bc = ± ec2
Capitolo 7
CONICHE 7.1
Generalit` a
La parola conica sta classicamente a significare una curva sezione di un cono (inteso come figura illimitata ottenuta facendo ruotare una retta attorno ad un asse ad essa incidente) con un piano. In questa accezione ricadono l’ellisse, l’iperbole e la parabola, di cui, nel capitolo precedente, abbiamo illustrato le equazioni canoniche. Segnaliamo per`o che anche coppie di rette incidenti o coincidenti ricadono nella definizione suddetta, cos`ı come le sezioni costituite dal solo vertice del cono. Daremo ora al termine conica un significato pi` u ampio. Intanto, accanto alle equazioni canoniche delle coniche gi` a descritte (ellisse, iperbole, parabola), va aggiunta l’equazione canonica della conica priva di punti reali: y2 x2 + 2 = −1 2 a b equazione che, non avendo soluzioni reali, rappresenta nel piano euclideo reale l’insieme vuoto. Avvertiamo che pu`o essere sviluppata una teoria di Geometria analitica in cui si considerano punti a coordinate complesse. In tale ambito l’equazione suddetta ha ovviamente soluzioni, per esempio il punto (ai, 0) (essendo i l’unit` a immaginaria)(cfr. §1.9). L’ellisse, la conica priva di punti reali, l’iperbole e la parabola si dicono coniche generali. Data l’equazione canonica di una conica generale, se si attua un cambiamento di riferimento cartesiano, l’equazione cambia aspetto e assume la forma: a11 x2 + 2a12 xy + a22 y 2 + 2a01 x + 2a02 y + a00 = 0.
(7.1)
Tuttavia non `e vero il viceversa. Cio`e, data un’equazione del tipo (7.1), non `e detto che essa rappresenti una conica generale. Diremo comunque che un’equazione del tipo (7.1) rappresenta una conica. Per verificare per`o se si tratti di una conica generale, avremo bisogno di uno strumento
CAPITOLO 7. CONICHE
156
fornito dall’algebra lineare. Si dice matrice della conica la seguente matrice simmetrica: ⎞ ⎛ a00 a01 a02 A = ⎝a01 a11 a12 ⎠. a02 a12 a22 Si dimostra il seguente: Teorema 7.1.1. Condizione necessaria e sufficiente affinch´e l’equazione (7.1) rappresenti una conica generale `e che det A = 0. Un’idea della dimostrazione verr`a data pi` u avanti. Esempio 7.1.2. La conica x2 + 8xy + 16y 2 − x + 2y + 5 = 0 ha per matrice ⎛ ⎞ 5 − 12 1 1 4 ⎠. A = ⎝− 12 1 4 16 Dato che det A = −9, la conica risulta generale. Una conica non generale si dice degenere. Per le coniche degeneri il polinomio a primo membro dell’equazione (7.1) risulta riducibile nel campo complesso, cio`e si fattorizza in due fattori lineari a coefficienti complessi (qui i numeri reali sono intesi come particolari numeri complessi). Se tali fattori lineari non sono proporzionali, la conica si dice semplicemente degenere, in caso contrario si dice doppiamente degenere. Per esempio le coniche x2 − 4y 2 = 0, x2 + y 2 = 0, x2 + 2xy + y 2 + x + y = 0, x2 + 2xy + y 2 + 1 = 0, x2 + 4xy + 4y 2 = 0 sono tutte degeneri. Si ha infatti 1) x2 − 4y 2 = (x + 2y)(x − 2y). In tal caso la conica `e semplicemente degenere e risulta costituita dall’unione delle rette di equazioni x + 2y = 0 e x − 2y = 0 (incidenti nell’origine). Una conica di tal tipo viene detta iperbole degenere. ` anch’essa semplicemente degenere. Nel piano 2) x2 + y 2 = (x + iy)(x − iy). E euclideo reale l’equazione rappresenta solo un punto (l’origine). Avvertiamo che la stessa equazione nel piano complesso rappresenta ancora l’unione di due rette (cosiddette “immaginarie”) incidenti nell’origine. Una conica di questo tipo viene detta ellisse degenere. 3) x2 + 2xy + y 2 + x + y = (x + y)2 + (x + y) = (x + y)(x + y + 1). Dunque, ancora una conica semplicemente degenere. Risulta l’unione delle rette parallele x + y = 0 e x + y + 1 = 0. Una conica siffatta si dice parabola degenere a punti reali. 4) x2 + 2xy + y 2 + 1 = (x + y)2 + 1 = (x + y + i)(x + y − i). Anch’essa `e quindi conica semplicemente degenere. Nel piano euclideo reale `e priva di punti. La stessa equazione nel piano complesso rappresenta due rette parallele “immaginarie”. Una conica di tal tipo si dice parabola degenere priva di punti reali. ` una conica doppiamente degenere. Rappresenta la 5) x2 + 4xy + 4y 2 = (x + 2y)2 . E retta x + 2y = 0 (contata con molteplicit`a 2). Si dimostra il seguente:
` 7.1. GENERALITA
157
Teorema 7.1.3. Condizione necessaria e sufficiente affinch´e l’equazione (7.1) rappresenti una conica semplicemente (risp. doppiamente) degenere `e che rgA = 2 (risp. 1). A conferma del risultato precedente, si osservi che nell’esempio 1) la matrice della conica `e ⎛ ⎞ 0 0 0 A = ⎝0 1 0 ⎠ 0 0 −4 che ha rango eguale a 2. Analogamente avviene per gli esempi 2), 3), 4), mentre per l’esempio 5) la matrice `e: ⎞ ⎛ 0 0 0 A = ⎝0 1 2 ⎠ 0 2 4 che ha rango eguale a 1. La matrice della conica risulta invero uno strumento efficace per la classificazione della conica stessa, non limitandosi a fornirci l’informazione se si tratti di conica generale o degenere. Considerato infatti α00 , complemento algebrico di a00 nella matrice A, ovvero a a12 , α00 = 11 a12 a22 si ha il seguente: Teorema 7.1.4. [Classificazione delle coniche] Data una conica di equazione (7.1), essa risulta: - ellisse o conica priva di punti reali se det A = 0 e α00 > 0; - iperbole se det A = 0 e α00 < 0; - parabola se det A = 0 e α00 = 0; - ellisse degenere se rgA = 2 e α00 > 0; - iperbole degenere se rgA = 2 e α00 < 0; - parabola degenere (a punti reali o meno) se rgA = 2 e α00 = 0; - conica doppiamente degenere se rgA = 1. Le coniche con α00 = 0 vengono dette coniche a centro, le altre prendono il nome di coniche senza centro. Tale denominazione `e dovuta al fatto che solo le prime possiedono un centro di simmetria. Limitandoci alle coniche generali, quelle a centro sono l’ellisse, l’iperbole e la conica priva di punti reali. Ogni conica (generale o degenere) a centro con punti reali, possiede due assi di simmetria passanti per il centro. Le parabole (anche quelle degeneri a punti reali) possiedono invece solo un asse di simmetria.
CAPITOLO 7. CONICHE
158
7.2
Coniche generali a centro
Descriviamo i procedimenti per ottenere il centro e gli assi di simmetria di coniche generali a centro, omettendone la dimostrazione di cui, in seguito, daremo un cenno. Data una conica generale di centro P0 (x0 , y0 ), si ha: x0 =
α01 , α00
y0 =
α02 , α00
(7.2)
essendo α01 , α02 i complementi algebrici di a01 , a02 nella matrice A della conica.Le a11 a12 direzioni degli assi sono quelle degli autovettori della matrice A00 = . a12 a22 Nel caso di un’iperbole, gli asintoti sono le rette per il centro con parametri direttori e m, ottenuti come soluzioni dell’equazione: a11 2 + 2a12 m + a22 m2 = 0.
(7.3)
2 2 Esempio 7.2.1. ⎛ ⎞ La conica 5x + 4xy + 2y − 2x + 4y − 1 = 0 ha matrice A = −1 −1 2 ⎝−1 5 2⎠. Poich´e det A = −36 = 0, la conica `e generale. 2 2 2 5 2 = 6 > 0, la conica `e un’ellisse o una conica priva di punti Dato che α00 = 2 2 −1 2 −1 5 = −12, il centro `e = 6, α02 = reali. Essendo inoltre α01 = − 2 2 2 2 P0 (1, −2). 5 2 La matrice A00 = ha autovalori 1 e 6. Gli autovettori relativi all’au2 2 T tovalore 1 sono (h, −2h) , con h = 0. L’asse parallelo a tali autovettori, passando per P0 , `e quindi 2(x − 1) + 1(y + 2) = 0, cio`e 2x + y = 0. Gli autovettori relativi all’autovalore 6 sono (2h, h)T , con h = 0. L’asse parallelo a tali autovettori `e quindi (x − 1) − 2(y + 2) = 0, cio`e x − 2y − 5 = 0.
Figura 1
7.2. CONICHE GENERALI A CENTRO
159
Esempio 7.2.2. La conica x2 + 4xy + y 2 + 6x − 2y = 0 ha matrice ⎛
0 A=⎝ 3 −1
⎞ 3 −1 1 2 ⎠. 2 1
Poich´e det A = −22 = 0, la conica `e generale. 1 2 = −3 < 0, la conica `e un’iperbole. Essendo inoltre α01 = Dato che α00 = 2 1 3 2 = −5, α02 = 3 1 = 7, il centro `e P0 (5/3, −7/3). − −1 1 −1 2 1 2 La matrice A00 = ha autovalori 3 e −1. Gli autovettori relativi all’au2 1 tovalore 3 sono (h, h)T , con h = 0. L’asse parallelo a tali autovettori, passando per P0 , `e quindi 1(x − 5/3) − 1(y + 7/3) = 0, cio`e x − y − 4 = 0. Gli autovettori relativi all’autovalore −1 sono (h, −h)T , con h = 0. L’asse parallelo a tali autovettori `e quindi 1(x − 5/3) + 1(y + 7/3) = 0, cio`e x + y + 2/3 = 0. Le direzioni degli asintoti sono ottenute dall’equazione 2 + 4 m + m2 = 0. Dato che m = 0 non `e soluzione dell’equazione e che i parametri direttori possono essere alterati per un fattore diverso da 0, possiamo porre m = 1. L’equazione diventa √
2 + 4 + 1 = 0 e√ha soluzioni = −2 ± 3. Gli asintoti hanno quindi equazioni: 1(x − 5/3) + (2 ∓ 3)(y + 7/3) = 0.
Figura 2
CAPITOLO 7. CONICHE
160
7.3
Parabole
Data la parabola f (x, y) = a11 x2 + 2a12 xy + a22 y 2 + 2a01 x + 2a02 y + a00 = 0, la condizione α00 = 0 implica a212 = a11 a22 . Ne discende che a11 e a22 sono concordi e pertanto possono essere supposti ambedue positivi, pur di cambiare eventualmente segno a tutti i termini dell’equazione. L’equazione assume allora la forma f (x, y) = (ux + vy)2 + 2a01 x + 2a02 y + a00 = 0, √ √ √ avendo posto u = a11 , v = a22 oppure v = − a22 , a seconda che a12 sia positivo o negativo. L’asse della parabola ha equazione u
∂f ∂f +v = 0. ∂x ∂y
Il vertice della parabola si ottiene facilmente intersecando la parabola col suo asse. Esempio 7.3.1. La conica x2 − 4xy + 4y 2 − 4x + 3y + 1 = 0 ha matrice ⎛ ⎞ 1 −2 3/2 1 −2 ⎠. A = ⎝ −2 3/2 −2 4 1 −2 = 0, la Poich´e det A = −25/4 = 0, la conica `e generale. Dato che α00 = −2 4 conica `e una parabola. L’equazione pu` o essere riscritta come (x−2y)2 −4x+3y+1 = 0. Essendo u = 1, v = −2, l’asse ha equazione 1(2x − 4y − 4) − 2(−4x + 8y + 3) = 0, cio`e 10x − 20y− 10 = 0, che equivale a x − 2y − 1 = 0. x2 − 4xy + 4y 2 − 4x + 3y + 1 = 0 −5y − 2 = 0 Il sistema si riduce a che x − 2y = 1 x = 2y + 1 ha come unica soluzione il punto V (1/5, −2/5) vertice della parabola.
Figura 3
7.4. CONICHE DEGENERI
7.4
161
Coniche degeneri
Data una conica degenere con almeno due punti reali, ci proponiamo di determinare le rette (dette componenti della conica) in cui si spezza. Le formule (7.2), (7.3), utili a fornire il centro e le direzioni degli asintoti di un’iperbole, rimangono valide anche nel caso di un’iperbole degenere, in quanto determinano il punto di incontro e le direzioni delle rette che costituiscono la conica. Ci si pu` o limitare all’uso della sola (7.3), moltiplicando le equazioni di due generiche rette con le direzioni individuate. Identificando l’equazione cos`ı ottenuta con quella della conica, si ottengono i coefficienti rimasti indeterminati. ⎞ ⎛ 0 1/2 1 ⎟ ⎜ Esempio 7.4.1. La conica x2 +xy−2y 2 +x+2y = 0 ha matrice A = ⎝ 1/2 1 1/2 ⎠. 1 1/2 −2 9 Poich´e det A = 0 e α00 = − < 0, la conica `e un’iperbole degenere, si spezza quindi 4 in una coppia di rette incidenti. L’equazione (7.3) diventa 2 + m − 2m2 = 0. Scegliendo, com’`e lecito, m = 1, si ha 2 + − 2 = 0, che ha soluzioni = 1 e = −2. Le due rette cercate hanno quindi equazioni x − y + h = 0, x + 2y + k = 0, con h e k coefficienti da determinare. Dato che l’equazione della conica, della forma (x − y + h)(x + 2y + k) = 0, cio`e = 0, deve necessariamente essere equivalente x2 + xy − 2y 2 + (h + k)x + (2h − k)y + hk ⎧ ⎪ ⎨h + k = 1 2 2 a x + xy − 2y + x + 2y = 0, si deduce 2h − k = 2 , da cui discende h = 1 e k = 0. ⎪ ⎩ hk = 0 Le rette componenti sono quindi x − y + 1 = 0, x + 2y = 0. La formula (7.3) `e valida anche per fornire la direzione delle rette (parallele) componenti di una parabola degenere e quella delle rette (coincidenti) che costituiscono una conica doppiamente degenere. Anche in questi casi si pu`o perci` o utilizzare il procedimento descritto per l’iperbole degenere.
Figura 4
CAPITOLO 7.
162
CONICHE
Esempio⎛7.4.2. La conica⎞x2 − 2xy + y 2 + 3x − 3y + 2 = 0 ha matrice: 2 3/2 −3/2 ⎟ ⎜ A = ⎝ 3/2 1 −1 ⎠. Poich´e det A = 0, rgA=2 e α00 = 0, la conica `e una −3/2 −1 1 parabola degenere, si spezza quindi in una coppia di rette parallele distinte. L’equazione (7.3) d`a 2 − 2 m + m2 = 0. Per m = 1, si ha 2 − 2 + 1 = 0, che ha soluzioni coincidenti = 1. Le due rette cercate hanno quindi equazioni x − y + h = 0, x − y + k = 0, con h e k coefficienti da determinare. Dato che l’equazione della conica, della forma (x − y + h)(x − y + k) = 0, cio`e x2 − 2xy + y 2 + (h + k)x − (h + k)y + hk = 0, h+k =3 , da cui h = 1 deve equivalere a x2 − 2xy + y 2 + 3x − 3y + 2 = 0, si deduce hk = 2 e k = 2 o viceversa. Le rette componenti sono quindi x − y + 1 = 0, x − y + 2 = 0.
⎞ 1 1 −1 Esempio 7.4.3. La conica x2 −2xy+y 2 +2x−2y+1 = 0 ha matrice A =⎝ 1 1 −1 ⎠. −1 −1 1 Poich´e rgA=1, la conica `e doppiamente degenere, si spezza quindi in una coppia di rette coincidenti. L’equazione (7.3) d`a 2 − 2 m + m2 = 0, che comporta = 1 e m = 1. La retta cercata ha quindi equazione x − y + h = 0 con h coefficiente da determinare. Dato che l’equazione, della forma (x − y + h)2 = 0, cio`e x2 − 2xy + y 2 + 2hx − 2hy + h2 = 0, deve essere equivalente a x2 − 2xy + y 2 + 2x − 2y + 1 = 0, si deduce h = 1. La conica ha quindi come componente doppia la retta x − y + 1 = 0. Figura 5
Figura 6
⎛
7.5. RIDUZIONE A FORMA CANONICA DI CONICHE GENERALI
7.5
163
Riduzione a forma canonica di coniche generali
Sia assegnata una conica generale C di equazione (7.1) nel riferimento RC(Oxy). Illustriamo brevemente il procedimento per ottenere l’equazione canonica di C, tramite un opportuno cambiamento di riferimento. Riduzione di coniche a centro Supponiamo di aver determinato il centro P0 (x0 , y0 ) e gli assi della conica con i procedimenti descritti nel §7.2. Se tali assi hanno equazioni rispettive ax + by + c = 0, bx − ay + d = 0 (ricordiamo che detti assi sono perpendicolari), imponendo che essi diventino rispettivamente gli assi x e y del riferimento RC(P0 x y ), di equazioni rispettive y = 0, x = 0, si ottiene: x = hbx − hay + hd y = kax + kby + kc essendo h e k opportuni fattori di proporzionalit` a non nullida determinare. A que hb −ha T sto proposito, osservando che la matrice M = deve essere ortogonale ka kb (v. §5.17) e che quindi sia le righe che le colonne rappresentano versori, si deduce 1 1 immediatamente che h = ± √ , k = ±√ . 2 2 2 a +b a + b2 Scegliamo i segni arbitrariamente, per esempio quello positivo in entrambi i casi. Quindi le formule di trasformazione delle coordinate da RC(Oxy) a RC(P0 x y ) sono: ⎧ a d b ⎪ x− √ y+ √ ⎨ x = √ 2 a + b2 a 2 + b2 a 2 + b2 . a b c ⎪ ⎩y = √ x+ √ y+ √ 2 2 2 2 2 a +b a +b a + b2 Essendo M
T
matrice ortogonale, la sua inversa `e M =
√ b a2 +b2 √ −a a2 +b2
(7.4)
√ a a2 +b2 √ b a2 +b2
, le
formule inverse delle (7.4) sono: ⎧ b a ⎪ x + √ y + x0 ⎨x = √ 2 a + b2 a 2 + b2 −a b ⎪ ⎩y = √ x + √ y + y0 2 2 2 a +b a + b2
(7.5)
con termini noti eguali alle coordinate in RC(Oxy) del centro P0 (che ha coordinate nulle in RC(P0 x y )). Operando nell’equazione (7.1) le sostituzioni dettate dalle (7.5), si ottiene l’equazione canonica della conica nelle coordinate x , y . Esempio 7.5.1. Torniamo a considerare l’ellisse 5x2 + 4xy + 2y 2 − 2x + 4y − 1 = 0, studiata nell’Esempio 7.2.1. Ricordiamo che il centro `e P0 (1, −2) e che gli assi hanno equazioni 2x + y = 0, x − 2y − 5 = 0. Assumendo di scegliere la prima retta come
CAPITOLO 7.
164
CONICHE
asse x (di equazione y = 0) e la seconda come asse y (di equazione x = 0), abbiamo perci`o: ⎧ 1 2 5 ⎪ ⎨ x = √5 x − √5 y − √5 ⎪ ⎩ e conseguentemente:
y =
⎧ ⎪ ⎨x = ⎪ ⎩
√2 x 5
+
√1 y 5
√1 x 5
+
√2 y 5
+1
−2 √ x 5
+
√1 y 5
−2
. y=
Sostituendo queste ultime nell’equazione della conica, si perviene all’equazione canonica x2 + 6y 2 − 6 = 0 ovvero x2 + y 2 = 1. 6 √ I semiassi della conica valgono pertanto 6 (semiasse√maggiore) e 1. La semidi√ √ stanza focale `e c = 6 − 1 = 5. L’eccentricit`a vale e = √56 . √ Il fuoco F , di√coordinate x = 5, y √= 0 in RC(P0 x y ), ha quindi coordinate in √ 5 + 0 − 2 = −4. Il fuoco F di coordinate RC(Oxy): x = √55 + 0 + 1 = 2, y = −2 5 √ √ √ 5) √ x = − 5, y = 0, ha invece coordinate: x = −√55 +0+1 = 0, y = −2(− +0−2 = 0. 5 Le direttrici di equazioni x = ± ae , cio`e x = ± √65 in RC(P0 x y ), hanno equazioni in RC(Oxy): √15 x − √25 y − √55 = ± √65 , ovvero x − 2y − 11 = 0 e x − 2y + 1 = 0. Riduzione di parabole Sia assegnata una parabola di equazione (7.1) (con α00 = 0) nel riferimento RC(Oxy). Una volta calcolati l’asse di simmetria r e il vertice V (x0 , y0 ) con i procedimenti illustrati nel §7.3, si determini la retta n per V perpendicolare a r. Siano ax + by + c = 0 e bx − ay + d = 0 le equazioni rispettive di n e r. Si assuma la retta n come asse x e la retta r come asse y del nuovo riferimento. Operando come nel caso delle coniche a centro, si perviene di nuovo alle formule (7.5) che, utilizzate nell’equazione (7.1), permettono anche in questo caso di pervenire all’equazione canonica. Esempio 7.5.2. Riduciamo ad equazione canonica x2 − 4xy + 4y 2 − 4x + 3y + 1 = 0, parabola studiata nell’Esempio 7.3.1. Ricordiamo che il vertice `e V (1/5, −2/5) e l’asse r ha equazione x − 2y − 1 = 0. La retta n per V perpendicolare a r ha equazione 2(x − 1/5) + y + 2/5 = 0 ovvero 2x + y = 0. Assumendo di scegliere n come asse x (di equazione y = 0) e r come asse y (di equazione x = 0), abbiamo perci`o: ⎧ ⎪ ⎨x = ⎪ ⎩
y =
√1 x 5
−
√2 y 5
√2 x 5
+
√1 y 5
−
√1 5
7.6. METODO DEGLI INVARIANTI e conseguentemente:
⎧ ⎪ ⎨x = ⎪ ⎩
165
√1 x 5
+
√2 y 5
+
1 5
−2 √ x 5
+
√1 y 5
−
2 5
. y=
√ Sostituendo queste ultime nell’equazione della conica, si ottiene 5x2 − y = 0 ovvero √ y = 5x2 . 1 Il fuoco F , di coordinate x = 0, y = 4√ in RC(V x y ), ha quindi coordinate in 5 2 3 1 7 + 15 = 10 , y = 0 + 20 − 25 = − 20 . RC(Oxy): x = 0 + 20 1 La direttrice, che in RC(V x y ) ha equazione y = − 4√ , ha in RC(Oxy) equazione 5 2 1 1 √ x + √ y = − √ ovvero 8x + 4y + 1 = 0. 5 5 4 5
7.6
Metodo degli invarianti
La riduzione a forma canonica di una conica risulta piuttosto laboriosa, come testimoniano gli esempi illustrati nel paragrafo precedente. Si pu` o pervenire pi` u agevolmente al risultato utilizzando il cosiddetto metodo degli invarianti. Premettiamo alcune definizioni. Data una conica C di equazione (7.1), poniamo A = det A, essendo A la matrice della conica. A viene detto invariante cubico di C. Il valore α00 (complemento algebrico di a00 in A) `e detto invariante quadratico di C. Il valore I = a11 + a22 (traccia della matrice A00 ) `e detto invariante lineare di C. Osserviamo che moltiplicando l’equazione (7.1) per un fattore ρ non nullo, i valori A, α00 , I vengono alterati rispettivamente di ρ3 , ρ2 , ρ. Dichiareremo equivalenti le terne (A, α00 , I), (ρ3 A, ρ2 α00 , ρI). Il nome di invariante attribuito a A, α00 , I `e dovuto al seguente: Teorema 7.6.1. Sia assegnata una conica C di Equazione (7.1) in RC(Oxy), con relativa terna di invarianti (A, α00 , I). Se si passa ad un nuovo riferimento RC(O x y ), l’equazione di C in tale riferimento presenta una terna equivalente di invarianti. Questo teorema permette di determinare l’equazione canonica di una conica, senza ricorrere esplicitamente alle formule di cambiamento di coordinate. Distinguiamo due casi. Uso degli invarianti per le coniche a centro Per una conica a centro, di equazione (7.1) nel riferimento RC(Oxy), l’equazione canonica in un riferimento opportuno RC(O x y ) `e del tipo αx2 + βy 2 − 1 = 0 (con coefficienti α e β da determinare). Poich´e la matrice della conica rispetto a tale equazione `e ⎛ ⎞ −1 0 0 A = ⎝ 0 α 0 ⎠, 0 0 β la relativa terna (incognita) di invarianti `e (−αβ, αβ, α+β). Ne consegue che tale terna `e equivalente alla terna (nota) degli invarianti (A, α00 , I) determinati dall’equazione
CAPITOLO 7.
166 (7.1). Si ha quindi:
⎧ 3 ⎪ ⎨−αβ = ρ A 2 αβ = ρ α00 ⎪ ⎩ α + β = ρI
CONICHE
.
Dalle prime due equazioni si ricava ρ3 A = −ρ2 α00 , ovvero ρ = −α00 /A. Sostituendo nelle ultime due equazioni del sistema, si ricava: 3 αβ = α00 /A2 . (7.6) α + β = −α00 I/A Conoscendo la somma e il prodotto delle incognite α e β, possiamo determinarle (a meno dell’ordine) come soluzioni dell’equazione di secondo grado: t2 +
α3 α00 I t + 00 = 0. A A2
(7.7)
Esempio 7.6.2. Consideriamo di nuovo l’ellisse ⎛ studiata in⎞7.2.1 e successivamente −1 −1 2 in 7.5.1. Poich´e la matrice della conica `e A = ⎝−1 5 2⎠, con A = det A = −36, 2 2 2 3 6 42 α00 = 6, I = 7, la (7.7) diventa: t2 − t+ 2 = 0, che `e equivalente a 6t2 −7t+1 = 0. 36 36 Questa ha soluzioni 1/6 e 1. Si osservi che possiamo porre α = 1/6, β = 1 o viceversa. Se vogliamo per`o che il semiasse maggiore sia sull’asse delle ascisse, dobbiamo operare x2 + y 2 = 1, gi` la prima scelta. Troviamo cos`ı l’equazione a determinata in 7.5.1. 6 Uso degli invarianti per le parabole Per una parabola, di equazione (7.1) nel riferimento RC(Oxy) (con α00 = 0), l’equazione canonica in un riferimento opportuno RC(O x y ) `e del tipo αx2 + y = 0 (con α da determinare). Poich´e la matrice della conica rispetto a tale equazione `e ⎞ ⎛ 0 0 12 A = ⎝ 0 α 0 ⎠, 1 0 0 2 la relativa terna (incognita) di invarianti `e (− 14 α, 0, α). Ne consegue che tale terna `e equivalente alla terna (nota) degli invarianti (A, 0, I) determinati dall’equazione (7.1). Si ha quindi: − 14 α = ρ3 A . α = ρI Dalla seconda equazione si ricava ρ = α/I, che, sostituita nella prima, fornisce: α3 A 1 − α = 3 , da cui: 4 I # −I 3 . (7.8) α=± 4A
7.7. AMPLIAMENTO DEL PIANO E COORDINATE OMOGENEE
167
Si osservi che, se si vuole avere la parabola con concavit` a verso l’alto, si deve scegliere la determinazione negativa del segno, in modo da ottenere l’equazione $
y =
−
I 3 2 x . 4A
(7.9)
Esempio 7.6.3. Consideriamo ancora la parabola studiata ⎛ in 7.3.1 e successivamen⎞ 1 −2 3/2 1 −2 ⎠, con A = te in 7.5.2. Dato che la matrice della conica `e A = ⎝ −2 3/2 −2 4 $ 3 √ −5 x2 , cio`e y = 5x2 , gi`a det A = −25/4, I = 5, l’equazione (7.9) diventa: y = −25 determinata in 7.5.2.
7.7
Ampliamento del piano e coordinate omogenee
Vogliamo dare una idea, senza molte pretese, dei concetti che stanno alla base di alcuni calcoli svolti nella classificazione delle coniche. Supponiamo di aver una retta r ed un punto A esterno ad essa, (vedi figura).
Vi `e chiaramente una corrispondenza biunivoca tra i punti della retta r e le rette del fascio, con l’unica eccezione della retta r¯ passante per A e parallela alla retta data. Per eliminare questa situazione eccezionale, adottiamo la convenzione di associare alla retta r¯ un convenzionale punto all’infinito detto anche punto improprio. In tal maniera, potremo dire che due rette parallele hanno in comune il punto improprio che viene cos`ı a rappresentare la direzione comune alle due rette. Possiamo dunque dire che due rette del piano si incontrano sempre, eventualmente nel punto improprio. Quando pensiamo alla retta insieme al suo punto improprio, parliamo di retta ampliata. Tutte le rette parallele tra loro (“un fascio improprio”) hanno in comune lo stesso punto improprio. Due rette non parallele invece avranno due punti impropri differenti (in quanto hanno direzioni differenti). Se consideriamo allora l’insieme di tutti i punti impropri, si pu` o pensare legittimamente che essi costituiscano una retta, detta retta all’infinito o retta impropria. Quando consideriamo il piano insieme alla retta impropria, parliamo di piano ampliato. Tutto ci` o `e molto suggestivo ma diventa anche utile se introduciamo delle nuove, opportune, coordinate, dette coordinate omogenee.
168
CAPITOLO 7.
CONICHE
Se P (x, y) `e un punto proprio del piano, cio`e uno dei soliti ”vecchi” punti del piano, consideriamo tre numeri x0 , x1 , x2 in modo tale che ⎧ x1 ⎪ ⎨x = x 0 (7.10) x ⎪ 2 ⎩y = x0 Diremo allora che la terna (x0 , x1 , x2 ) `e una terna di coordinate omogenee del punto P . Queste coordinate sono determinate a meno di un fattore di proporzionalit`a non nullo. Ad esempio, il punto P (3, 4) ha come coordinate omogenee una qualunque delle terne seguenti (1, 3, 4), (2, 6, 8), (−3, −9, −12) o, in generale ogni terna del tipo (a, 3a, 4a) con a = 0. Tutte queste terne vengono considerate equivalenti. Considerando una retta del piano avente equazioni parametriche x = a + t y = b + mt sappiamo che queste rappresentano una retta passante per il punto (a, b) e avente parametri direttori ( , m). Un punto generico di questa retta ha coordinate cartesiane (a+ t, b+mt) e quindi le sue coordinate omogenee sono, ad esempio, (1, a+ t, b+mt). Essendo queste coordinate definite a meno di un fattore di proporzionalit`a non nullo, possiamo prendere anche le coordinate ( 1t , at + , bt + m) dopo aver diviso le precedenti per t. Al tendere di t → ∞ il corrispondente punto si “allontana verso l’infinito” ed il limite, per t → ∞, delle coordinate `e (0, , m), che possiamo quindi assumere come coordinate omogenee del punto improprio della retta assegnata. In questa maniera quindi un punto improprio pu`o essere trattato alla stessa stregua dei “soliti” punti “propri”, e corrisponde ad una terna di coordinate omogenee in cui la prima coordinata `e nulla. Ad esempio, il punto (0, 1, 1) `e il punto all’infinito della retta di equazione y = x.
7.7.1
Equazioni in coordinate omogenee
Una retta “propria” r di equazione cartesiana ax + by + c = 0, di parametri direttori
= −b, m = a, si pu` o riscrivere in coordinate omogenee sostituendo le espressioni (7.10): x1 x2 a +b +c=0 x0 x0 ossia ax1 + bx2 + cx0 = 0. Questa `e una equazione omogenea di primo grado che rappresenta quindi una retta ampliata: infatti non soltanto un qualunque punto proprio della retta soddisfa l’equazione ma anche il suo punto improprio (0, −b, a) la soddisfa e quindi “ha diritto” ad essere considerato un punto di r come tutti gli altri! Per esempio, la retta di equazione y = 2x + 1 contiene il punto (0, 1) ed ha parametri direttori = 1, m = 2. Sostituendo, come detto sopra, le coordinate ` immediato omogenee (7.10) si ottiene l’equazione omogenea x0 + 2x1 − x2 = 0. E
7.7. AMPLIAMENTO DEL PIANO E COORDINATE OMOGENEE
169
ora verificare che le coordinate omogenee del punto (0, 1), che sono una qualunque delle terne equivalenti (1, 0, 1), (2, 0, 2), (a, 0, a), con a = 0, soddisfano l’equazione omogenea: 1+0−1=0 2+0−2=0 a+0−a=0 ma anche la terna (0, 1, 2), o equivalentemente (0, 2, 4), (0, −1, −2), soddisfa la stessa equazione 0 + 2(1) − 2 = 0 0 + 2(2) − 4 = 0 . 0 + 2(−1) − (−2) = 0 Con queste notazioni possiamo facilmente scrivere anche l’equazione cartesiana omogenea delle retta impropria. Non `e difficile convincersi che la sua equazione `e x0 = 0.
7.7.2
Le coniche: punti all’infinito
Applichiamo quanto visto all’equazione di una generica conica. Poniamo f (x, y) = a11 x2 + 2a12 xy + a22 y 2 + 2a01 x + 2a02 y + a00 = 0.
(7.11)
Questa si pu` o riscrivere come F (x0 , x1 , x2 ) = a11 x21 + 2a12 x1 x2 + a22 x22 + 2a01 x0 x1 + 2a02 x0 x2 + a00 x20 = 0 (7.12) detta equazione omogenea della conica. Essa `e soddisfatta da tutti i punti propri della conica pi` u eventuali punti impropri. Ora domandiamoci come possiamo distinguere un’ellisse da un’iperbole. Un punto di vista fruttuoso `e quello di pensare alle possibili intersezioni della conica con la retta ` ragionevole pensare che l’ellisse non avr` all’infinito. E a intersezioni reali con la retta all’infinito (essendo una curva chiusa e limitata), che un’iperbole avr` a due intersezioni distinte e infine che una parabola avr` a due intersezioni coincidenti. In altre parole possiamo distinguere le coniche nel modo seguente: La conica `e una iperbole, parabola, ellisse a seconda che l’intersezione con la retta impropria `e costituita, rispettivamente, da due punti reali e distinti, un punto, due punti complessi (e quindi la retta impropria risulta, rispettivamente, secante, tangente, esterna alla conica). Per operare una tale distinzione studiamo il sistema formato dall’equazione (7.12) o significa semplicemente porre x0 = 0 e dall’equazione della retta impropria x0 = 0; ci` nella (7.12) ottenendo (7.13) a11 2 + 2a12 m + a22 m2 = 0 ` (in cui abbiamo cambiato nome alle variabili per maggior chiarezza). E noto che il segno del discriminante determina la natura delle soluzioni di tale equazione. Risulta Δ = a212 − a11 a22 = −α00 4 Possiamo concludere che se α00 > 0, e quindi Δ < 0, le soluzioni non sono reali ed avremo un’ellisse. Analogamente, se α00 < 0 avremo un’iperbole, se α00 = 0 avremo
CAPITOLO 7.
170
CONICHE
una parabola. Non solo, ma lo studio delle soluzioni dell’equazione (7.13) fornisce i parametri direttori degli asintoti, nel caso dell’iperbole, dell’asse di simmetria, nel caso della parabola; nessuna soluzione reale, invece, nel caso dell’ellisse.
7.7.3
Le coniche: degeneri e non degeneri
Una conica degenere `e per esempio la seguente: (x + y + 2)(x − 2y + 3) = 0 che `e, evidentemente, l’insieme delle due rette di equazioni x+y+2 = 0 e x−2y+3 = 0. Se avessimo moltiplicato le due equazioni ottenendo: x2 − xy − 2y 2 + 5x − y + 6 = 0, non sarebbe stato altrettanto evidente lo spezzamento in due rette. Per distinguere la natura degenere o meno di una conica il punto chiave `e quello di studiare l’esistenza di eventuali punti doppi, cio`e punti in cui la curva “passa due volte”. Il punto (− 73 , 13 ), punto di intersezione delle due rette che compongono la conica di questo esempio, `e un punto doppio, cio`e un punto che “deve essere contato due volte”, in quanto appartenente a entrambe le componenti. Vale infatti il seguente teorema, di cui omettiamo la dimostrazione. Teorema 7.7.4. Una conica `e degenere se e solo se possiede almeno un punto doppio. Per distinguere quindi le coniche degeneri dalle non degeneri possiamo andare ad indagare l’eventuale esistenza di punti doppi. Per far ci` o utilizziamo il seguente teorema, anch’esso dato senza dimostrazione. Teorema 7.7.5. Un punto `e doppio se e solo se le tre derivate parziali prime dell’equazione omogenea si annullano contemporaneamente in quel punto. Applicando questi teoremi possiamo allora andare a calcolare le derivate della funzione F (x0 , x1 , x2 ). Indichiamo con Fxi la derivata della funzione rispetto alla variabile xi , i = 0, 1, 2 (quando si calcola la derivata rispetto ad una variabile le altre due vengono considerate costanti). Abbiamo allora ⎧ ⎪ ⎨Fx0 = 2a00 x0 + 2a01 x1 + 2a02 x2 = 0 (7.14) Fx1 = 2a01 x0 + 2a11 x1 + 2a12 x2 = 0 ⎪ ⎩ Fx2 = 2a02 x0 + 2a12 x1 + 2a22 x2 = 0 sistema lineare omogeneo le cui eventuali autosoluzioni forniscono punti doppi della conica. Poich´e condizione necessaria e sufficiente per l’esistenza di autosoluzioni `e che il determinante della matrice sia nullo, come conseguenza abbiamo, in accordo col Teorema 7.1.3: Corollario 7.7.6. Una conica di equazione (7.12) `e degenere se e solo se il determinante della sua matrice `e nullo. Esempio 7.7.7. Consideriamo la matrice ⎛ 1 2 A = ⎝2 4 3 6
⎞ 3 6⎠ . 9
7.8. CENTRO DI UNA CONICA
171
Osserviamo che `e una matrice simmetrica di rango 1. Possiamo scrivere l’equazione (non omogenea) della conica corrispondente: 4x2 + 12xy + 9y 2 + 4x + 6y + 1 = 0
(7.15)
e domandarci quale sia il grafico di questa conica. La teoria ci dice che questa `e una conica degenere. Inoltre, essendo 1 il rango di A, essa `e doppiamente degenere, cio`e una retta doppia. Per determinarla, risolviamo la (7.15) rispetto alla y, pensando ad x come ad un parametro: 9y 2 + (12x + 6)y + 4x2 + 4x + 1 = 0. Calcoliamo il discriminante Δ: Δ = (12x + 6)2 − 36(4x2 + 4x + 1) = 36(2x + 1)2 − 36(4x2 + 4x + 1) = = 36(4x2 + 4x + 1) − 36(4x2 + 4x + 1) = 0 come si poteva prevedere dal calcolo di α00 . Applicando ora la formula risolutiva delle equazioni di secondo grado abbiamo: y=
2 1 −(12x + 6) =− x− 18 3 3
La conica, dunque, `e la retta di equazione y = − 23 x − 13 contata due volte. Osserviamo che la retta trovata si pu` o riscrivere come 2x+3y +1 = 0, che ha come coefficienti proprio i numeri che appaiono nella prima riga di A. Ci` o non `e casuale, dato che A `e anche matrice del SLO (7.14) che fornisce i punti doppi. In definitiva: Osservazione 7.7.8. Nel caso di rango 1, una riga qualunque di A fornisce direttamente i coefficienti della retta, che contata due volte, d`a la conica. Se il rango `e 2, la situazione `e diversa, poich´e le equazioni del SLO (7.14) non forniscono pi` u le equazioni delle componenti della conica, limitandosi a darci la loro intersezione, unico punto doppio. Per esempio, nell’equazione 2x2 − 4xy + 4y 2 + 2x + 1 = 0, il rango di A `e 2 e α00 > 0. Si tratta di un’ellisse degenere. L’unico punto reale si trova risolvendo il SLO (7.14), che nella fattispecie d`a (−1, −1/2).
7.8
Centro di una conica
Per una conica a centro diamo ora una giustificazione della formula (7.2) che fornisce il centro di simmetria. Ragioniamo come segue. Nell’equazione (7.11) possiamo operare una traslazione x = X + x0 (7.16) y = Y + y0 e sostituendo abbiamo a11 X 2 +2a12 XY +a22 Y 2 +(2a11 x0 +2a01 +2a12 y0 )X+(2a12 x0 +2a22 y0 +2a02 )Y +k = 0, (7.17)
172
CAPITOLO 7.
CONICHE
con k costante opportuna. Ora il punto (x0 , y0 ) `e il centro della conica precisamente quando l’equazione (7.17) non varia sostituendo (−X, −Y ) al posto di (X, Y ), e questo avviene se e solo se si annullano i coefficienti di X e Y nella (7.17). Abbiamo dunque che la condizione necessaria e sufficiente affinch´e il punto (x0 , y0 ) sia il centro della conica `e che siano soddisfatte entrambe le equazioni 2a11 x0 + 2a12 y0 + 2a01 = 0 2a12 x0 + 2a22 y0 + 2a02 = 0 Utilizzando la regola di Cramer otteniamo immediatamente le formule (7.2) del testo: α01 α02 , y0 = x0 = α00 α00 essendo α01 , α00 , α02 i complementi algebrici (ricordiamoci che la definizione include un segno + o −) degli elementi a01 , a00 , a02 della matrice della conica.
Capitolo 8
CURVE PIANE Questo capitolo vuole solo fornire un approccio intuitivo ad un argomento la cui trattazione rigorosa esula dalle finalit` a di questo testo. Una curva piana C, espressa mediante le coordinate cartesiane x, y, `e il luogo dei punti P (x, y) che soddisfano: • un’equazione del tipo f (x, y) = 0, con f funzione delle variabili reali x, y, oppure • equazioni del tipo
x = x(t) , t ∈ I, I intervallo di R. y = y(t)
Nel primo caso parleremo di equazione cartesiana di C, nel secondo di equazioni parametriche di C. Nelle applicazioni spesso il parametro t rappresenta il tempo. Analoghe definizioni possono essere date in coordinate polari. La retta, la circonferenza e le coniche studiate nei capitoli precedenti sono esempi di curve piane.
8.1
Equazioni cartesiane e polari di alcune curve
Come abbiamo gi` a visto, un punto del piano pu` o essere individuato dalle sue coordinate cartesiane o anche dalle sue coordinate polari:
Figura 1
CAPITOLO 8. CURVE PIANE
174
Ricordiamo, cfr. (5.2), che, per passare da coordinate polari a quelle cartesiane, utilizziamo x = r cos θ (8.1) y = r sin θ e, viceversa, per passare da coordinate cartesiane a quelle polari, usiamo
r 2 = x2 + y 2 y (x = 0) tg θ = x
(8.2)
Esempi 8.1.1. 1. Determinare le coordinate cartesiane del punto di coordinate polari (4, 2π 3 ).
x = r cos θ = 4 cos 2π 3 = −2 √ 2π y = r sin θ = 4 sin 3 = 2 3
(8.3)
2. Determinare le coordinate polari del punto di coordinate cartesiane (2, −2).
r2 = x2 + y 2 = 22 + (−2)2 = 8 tg θ = xy = −1
(8.4)
√ da cui r = 2 2 (prendiamo il valore positivo) e θ = − π4 , essendo il punto nel quarto quadrante. 3. Trasformare l’equazione cartesiana x2 = 4y in coordinate polari. x2 = 4y (r cos θ)2 = 4(r sin θ) r2 cos2 θ = 4r sin θ sin θ r=4 2 cos θ
(8.5)
4. Trasformare l’equazione polare r = 5 sec θ in coordinate cartesiane. r = 5 sec θ 5 r= cos θ r cos θ = 5 x = 5.
(8.6)
Si tratta dunque della retta verticale di equazione x = 5, cosa non ovvia dalla equazione polare.
8.1.
EQUAZIONI CARTESIANE E POLARI DI ALCUNE CURVE
175
5. Trasformare l’equazione polare r = 2 sin θ in coordinate cartesiane. Moltiplichiamo l’equazione iniziale per r e calcoliamo r2 = 2r sin θ x2 + y 2 = 2y
(8.7)
x2 + y 2 − 2y = 0 x2 + (y − 1)2 = 1. Abbiamo quindi di una circonferenza di centro (0, 1) e raggio 1. 6. Trasformare l’equazione polare r = 2 + 2 cos θ in coordinate cartesiane. Moltiplichiamo l’equazione iniziale per r e calcoliamo r2 = 2r + 2r cos θ x2 + y 2 − 2x = 2r (x2 + y 2 − 2x)2 = 4r2
(8.8)
(x + y − 2x) = 4(x + y ). 2
2
2
2
2
` una curva di equazione algebrica di quarto grado non facile da disegnare. E Vedremo che sar` a pi` u agevole usare le coordinate polari per capirne la forma. Per aiutarci nel disegno di una curva in coordinate polari pu`o essere utile pensare ad una ”griglia polare” di coordinate come in figura
Figura 2 come se fossero le coordinate geografiche della Terra vista dal polo nord. Risulta allora facile vedere che l’equazione polare r = 3 `e la circonferenza di equazione cartesiana x2 + y 2 = 9, mentre l’equazione polare θ = π3 ha per grafico la √ retta di equazione cartesiana y = 3x:
CAPITOLO 8. CURVE PIANE
176
Figura 3 Proviamo ora a disegnare la curva di equazione algebrica di quarto grado (8.8) usando direttamente l’equazione polare. Risulta di aiuto disegnare preliminarmente il grafico cartesiano dell’equazione r = 2 + 2 cos θ, ponendo θ sull’asse delle ascisse e r sull’asse delle ordinate. Otteniamo
Figura 4 Questo grafico ci aiuta a capire l’andamento dei valori r al crescere di θ. Osserviamo che, mentre θ va da 0 a π/2 e poi a π, il valore di r, cio`e la distanza del punto dall’origine, va da 4 a 2 e poi a 0. In corrispondenza il grafico polare descrive un arco come in figura:
8.1.
EQUAZIONI CARTESIANE E POLARI DI ALCUNE CURVE
177
Figura 5 Quando poi θ passa da π a 2π, la distanza r cresce di nuovo da 0 a 4, ma i valori di θ, ora maggiori di π, situano la curva nel semipiano negativo, chiudendola quindi come nella figura seguente:
Figura 6 Questa curva viene detta cardioide. In generale, una cardioide si ottiene dalle equazioni polari r = a(1 ± cos θ)
oppure
r = a(1 ± sin θ)
Esempio 8.1.2. Disegnare il grafico polare della curva di equazione r = cos 2θ. In questo caso `e conveniente utilizzare le coordinate polari con −∞ < r < +∞, 0 ≤ θ < π, (cfr. §5.4), con le quali il punto di coordinate polari (−r, θ) si trova sulla stessa retta per l’origine del punto di coordinate (r, θ), ma dalla parte opposta rispetto all’origine. Si ottiene la curva seguente:
178
CAPITOLO 8. CURVE PIANE
Figura 7: Quadrifoglio
Esempio 8.1.3. Usare un computer o una calcolatrice grafica per disegnare le seguenti curve 1. r = 1 + 2 cos θ 2. r = sin θ + sin3 (5θ/2) 3. r = cos(2θ/3) 4. r = 2θ 5. r2 = a2 cos 2θ e associare ciascuna equazione al proprio grafico tra le figure seguenti
Figura 8: Lemniscata
8.2. CONICHE IN COORDINATE POLARI
Figura 9: Spirale
Figura 10
Fig. 11: Chiocciola di Pascal
8.2
179
Figura 12
Coniche in coordinate polari
Ricordiamo che le coniche possono essere definite dalla relazione PF =e Pd e si distinguono a seconda che l’eccentricit`a e sia minore, uguale o maggiore di 1. L’uso di coordinate polari `e particolarmente conveniente se il fuoco F coincide con l’origine delle coordinate e l’asse delle x con un asse di simmetria della conica.
Figura 13
CAPITOLO 8. CURVE PIANE
180
Il punto P ha coordinate polari (r, θ), ove r = P F , e, se la direttrice d ha equazione x = k, allora la distanza di P dalla direttrice `e proprio k − r cos θ. La relazione che definisce la conica diventa quindi r k − r cos θ
e= da cui
ek − er cos θ = r ek = r + er cos θ ek r= 1 + e cos θ
(8.9)
che `e l’equazione della conica in forma polare. Essa si pu` o ottenere anche nella forma ek 1 + e sin θ
r=
se la direttrice `e presa orizzontale invece che verticale. Esempi 8.2.1. La conica di equazione r=
10 3 + 2 cos θ
`e un’ellisse. Infatti, dividendo per 3, si ha la formula r= da cui si vede che l’eccentricit`a `e
2 3
1+
10 3 2 3 cos θ
< 1. Il disegno `e
Figura 14 La conica di equazione r=
12 2 + 5 sin θ
8.3. CURVE PARAMETRICHE
181
`e un’iperbole: infatti, dividendo per 2, si ha la formula r= da cui si vede che l’eccentricit`a `e
5 2
6 1+
5 2
sin θ
> 1. Il disegno `e
Figura 15
8.3
Curve parametriche
Le curve viste finora, le coniche e qualche esempio visto nella sezione precedente come la cardioide, il quadrifoglio, la chiocciola di Pascal, etc., sono state descritte come luogo dei punti che soddisfano un’equazione nelle coordinate cartesiane o polari del piano. In questo paragrafo, illustriamo un’altro metodo per descrivere le curve, mediante cio`e equazioni parametriche. Risponde all’intuizione pensare ad una curva come la traiettoria descritta da un punto mobile, le cui coordinate sono funzioni del tempo t. Se I `e un intervallo di numeri reali e f, g sono due funzioni a valori reali definite su I, allora l’insieme dei punti (f (t), g(t)) `e una curva piana e chiameremo
x = f (t) , y = g(t)
t ∈ I,
le equazioni parametriche della curva. Per esempio, consideriamo la curva di equazioni parametriche
x = t2 − 3t y =t−1
t ∈ [−4, 4].
Al variare del parametro t, il punto descrive la traiettoria seguente:
(8.10)
CAPITOLO 8. CURVE PIANE
182
Figura 16 Se cambiamo il parametro t in −t, abbiamo le equazioni parametriche x = t2 + 3t t ∈ [−4, 4]. y = −t − 1
(8.11)
La curva `e la stessa ma essa `e percorsa dal punto in senso contrario al precedente:
Figura 17 Infine se cambiamo il parametro t in 2t le equazioni diventano x = 4t2 − 6t t ∈ [−4, 4] y = 2t − 1 la curva `e ancora la “stessa”
Figura 18
(8.12)
8.3. CURVE PARAMETRICHE
183
ma `e percorsa dal punto a velocit`a doppia rispetto alla prima data sopra. Dunque vediamo che l’espressione parametrica non ci d` a soltanto la forma della curva ma ci dice anche in che modo la traiettoria viene percorsa. A volte `e possibile eliminare il parametro dalle equazioni parametriche ed ottenere cos`ı delle equazioni cartesiane, in maniera analoga a quanto si fa con le equazioni parametriche di una retta. Nel caso precedente, eliminando il parametro t nelle equazioni parametriche, e cio`e ricavandolo, ad esempio, dalla seconda equazione e sostituendolo nella prima, si trova in ogni caso l’equazione cartesiana x = y 2 − y − 2, corrispondente ad una parabola di asse orizzontale. Ovviamente il tratto descritto nella terza parametrizzazione `e notevolmente pi` u lungo di quello della prima. L’equazione cartesiana di una curva pu` o essere difficile o impossibile da ottenersi in generale, perch`e ricavare il parametro richiede di invertire una funzione, operazione non sempre attuabile. Un esempio notevole di curva `e il seguente. Immaginiamo di avere fissato un punto su una circonferenza che rotola su una retta orizzontale e di seguire la traiettoria percorsa da questo punto mentre la circonferenza rotola. La curva descritta da questo punto si dice cicloide1 .
Figura 19: Cicloide Per ottenerne delle equazioni parametriche, ragioniamo tenendo presente la figura seguente:
1 La cicloide ha diverse propriet` a interessanti ed ` e stata oggetto di studi approfonditi a partire da Galileo.
CAPITOLO 8. CURVE PIANE
184
La figura rappresenta la posizione iniziale della circonferenza di raggio a e quella conseguente al rotolamento di un angolo θ. Il punto P , che all’inizio si trovava nell’origine O, si `e spostato. La distanza percorsa dalla circonferenza in questo rotolamento `e la distanza da O a T , che risulta essere uguale alla lunghezza dell’arco P T , cio`e a aθ. Il centro C ha quindi coordinate (aθ, a). Le coordinate del punto P (x, y) devono essere pertanto x = d(O, T ) − d(P, Q) = aθ − a sin θ = a(θ − sin θ) y = d(T, C) − d(Q, C) = a − a cos θ = a(1 − cos θ). Le equazioni parametriche della cicloide sono dunque x = a(θ − sin θ) y = a(1 − cos θ)
(8.13)
Per ottenere un disegno accurato di una curva parametrica in generale `e spesso consigliabile utilizzare opportuni programmi per computer. Diamo qualche esempio di seguito. x = sin 2t Esempio 8.3.1. La curva di equazioni parametriche ha grafico y = 2 cos t
Esempio 8.3.2. Le equazioni parametriche
x = sin 3t y = 2 cos t
forniscono il grafico
8.3. CURVE PARAMETRICHE
185
Esempio 8.3.3. La curva di equazioni parametriche
x = t + 2 sin 2t y = t + 2 cos 5t
ha grafico
Esempio 8.3.4. Usare un computer o una calcolatrice grafica per disegnare il grafico delle seguenti curve parametriche e associare ciascun sistema di equazioni al grafico corrispondente. 1. x = t3 − 2t, 2. x = sin 3t,
y = t2 − t y = sin 4t
3. x = t + sin 2t,
y = t + sin 3t
4. x = sin(t + sin t),
y = cos(t + cos t)
186
CAPITOLO 8. CURVE PIANE
Capitolo 9
GEOMETRIA ANALITICA SPAZIALE 9.1
Coordinate e vettori nello spazio
Fissiamo nello spazio tre rette orientate, a due a due perpendicolari, passanti per uno stesso punto O, che chiameremo origine. Fissiamo inoltre un’unit` a di misura. Gli elementi assegnati permettono di stabilire su ciascuna delle tre rette un sistema di coordinate (cfr. §5.4), che vengono indicate rispettivamente con le lettere x, y, z. Le tre rette suddette vengono chiamate assi coordinati o assi cartesiani (rispettivamente asse x, asse y, asse z). I piani xy, xz, yz, individuati da due dei tre assi coordinati vengono detti piani coordinati. Assi e piani coordinati si dicono costituire nello spazio un riferimento cartesiano che si indica con RC(Oxyz). Sia P un punto dello spazio. Mandiamo da P i piani perpendicolari agli assi coordinati x, y, z sino ad incontrarli rispettivamente nei punti Px , Py , Pz . Le ascisse x, y, z rispettivamente dei punti Px , Py , Pz nei singoli riferimenti presenti sugli assi, si chiamano coordinate cartesiane del punto P . Viene cos`ı stabilita una corrispondenza, che si riconosce facilmente essere biunivoca, tra l’insieme dei punti P dello spazio e l’insieme R3 . In particolare notiamo che i punti che si trovano su un asse, ad esempio l’asse x, hanno due coordinate nulle, in questo caso la y e la z, mentre i punti che giacciono su un piano coordinato, ad esempio il piano xy, hanno nulla una coordinata, in questo caso la z. Assegnato un punto P (x, y, z), il simmetrico di P rispetto all’asse x `e il punto P (x, −y, −z), il simmetrico di P rispetto al piano xy `e il punto P (x, y, −z). Analogamente vengono definite le simmetrie rispetto agli altri assi e piani coordinati. Infine il simmetrico di P rispetto all’origine `e il punto (−x, −y, −z).
188
CAPITOLO 9. GEOMETRIA ANALITICA SPAZIALE
La definizione di vettore libero nello spazio resta immutata rispetto a quella data nel piano nel §5.1, cos`ı come le operazioni di somma di vettori, di prodotto di un vettore per un numero reale e di prodotto scalare. Indicheremo con V3 l’insieme dei vettori liberi nello spazio. Analogamente a V2 anche V3 `e uno spazio vettoriale, per cui `e possibile parlare di combinazioni lineari, indipendenza lineare, basi, dimensione, etc. (cfr. 5.3.1). In particolare anche nello spazio due vettori liberi sono linearmente dipendenti se e solo se sono paralleli (cfr. 5.3.2). Assegnati tre vettori liberi di V3 essi si dicono complanari quando loro rappresentanti applicati nello stesso punto appartengono allo stesso piano. Notiamo che dalla definizione geometrica di somma di vettori e di prodotto di un vettore per un numero reale segue: Proposizione 9.1.1. Se un vettore `e combinazione lineare di altri due, allora `e complanare con essi e viceversa se tre vettori sono complanari uno almeno di essi si pu` o esprimere come combinazione lineare degli altri due. In altre parole Proposizione 9.1.2. Tre vettori liberi dello spazio sono linearmente dipendenti se e solo se sono complanari.
9.1. COORDINATE E VETTORI NELLO SPAZIO
189
Rispetto a V2 cambia, essendo aumentata la dimensione dell’ambiente, la rappresentazione cartesiana dei vettori e con essa tutte le condizioni espresse mediante le coordinate di vettore. − Con costruzione analoga a quella operata nel piano (cfr. §5.5), ogni vettore → v dello − → − → − → spazio viene espresso come combinazione lineare dei versori i , j , k rispettivamente degli assi x, y, z, mediante le coordinate vx , vy , vz : → − → − → − → − v = vx i + vy j + vz k .
(9.1)
− In luogo della (9.1) scriveremo spesso per brevit`a → v = (vx , vy , vz )T , avendo iden3 tificato V3 con R ovvero con M (3 × 1). Essendo i versori degli assi non complanari − → − → − → e quindi linearmente indipendenti (cfr. 9.1.2), si deduce che i , j , k sono una base per V3 e quindi V3 ha dimensione 3. Analogamente a quanto avviene nel piano, si ha che, assegnato un numero reale a − − v = (vx , vy , vz )T , risulta: e i vettori → v = (vx , vy , vz )T , → − a→ v = (avx , avy , avz )T , → − − v +→ v = (vx + vx , vy + vy , vz + vz )T , → − − v ·→ v = vx vx + vy vy + vz vz , − |→ v|= − − v→ v= cos →
(9.2) vx2
+
vy2
+
vz2 ,
vx vx + vy vy + vz vz . vx2 + vy2 + vz2 vx2 + vy2 + vz2
− − v Allo stesso modo, assegnato il vettore → v = (vx , vy , vz )T , i versori paralleli a → ⎛ ⎞ T sono: ±vy ±vz ⎝ ±vx ⎠ . , , (9.3) 2 2 2 2 2 2 2 2 2 vx + vy + vz vx + vy + vz vx + vy + vz − − v = (vx , vy , vz )T risulteranno Analogamente due vettori → v = (vx , vy , vz )T , → paralleli se e solo se vx v y v z ≤ 1; (9.4) rg vx vy vz risulteranno invece perpendicolari se si ha vx vx + vy vy + vz vz = 0.
(9.5)
− − v = (vx , vy , vz )T , In forza della Proposizione 9.1.2, tre vettori → v = (vx , vy , vz )T , → → − T v = (vx , vy , vz ) saranno complanari se e solo se vx vy vz vx vy vz = 0. (9.6) vx vy vz
CAPITOLO 9. GEOMETRIA ANALITICA SPAZIALE
190
−−−→ Poich´e nello spazio, assegnati i punti P1 (x1 , y1 , z1 ), P2 (x2 , y2 , z2 ), il vettore P1 P2 T ha coordinate (x2 −x1 , y2 −y1 , z2 −z1 ) , si ha per la distanza tra due punti la formula: −−−→ P1 P2 = |P1 P2 | = (x2 − x1 )2 + (y2 − y1 )2 + (z2 − z1 )2 .
(9.7)
Analogamente a quanto ottenuto nel piano, per le coordinate del punto medio M del segmento di estremi A(xA , yA , zA ) B(xB , yB , zB ), si ha: xM =
9.2
xA + xB , 2
yM =
yA + yB , 2
zM =
zA + z B . 2
(9.8)
Prodotto vettoriale
Premettiamo la seguente definizione: → − → − → − − − v = Definizione 9.2.1. Assegnati tre vettori liberi → v = vx i + vy j + vz k , → → − → − → − → − → − → − → − → − → − → − vx i + vy j + vz k , v = vx i + vy j + vz k , la terna ordinata ( v , v , v ) si dice − → − → − → equiversa alla terna ordinata dei versori degli assi ( i , j , k ) se: v x vy vz
vx vy vz
vx vy ≥ 0. vz
Osservazione 9.2.2. La precedente definizione serve a distinguere le due possibili orientazioni dello spazio tridimensionale. Ad esempio, in applicazioni fisiche occorre spesso distinguere un sistema di riferimento destro o sinistro a seconda che la terna − → − → − → di versori scelta ( i , j , k ) sia equiversa con la terna ottenuta prendendo come vettori ordinatamente l’indice, il medio e il pollice della mano destra oppure della mano − → − → − → sinistra. Nella figura sottostante la terna ordinata ( i , j , k ) `e quella che si prende per convenzione e d`a un riferimento destro. Le altre due terne di vettori disegnate − → − → − → sono equiverse o, si dice, contraverse con la terna di riferimento ( i , j , k ) a seconda − − − dell’ordine in cui sono prese. Per esempio, la terna (→ u,→ v ,→ w ) `e equiversa, mentre → − → − → − ( v , u , w ) `e contraversa. Si osservi infatti che nello scambiare due vettori di posto, nella corrispondente matrice delle componenti si sono scambiate due colonne e pertan→ − − − to il determinante ha cambiato segno. Analogamente, la terna (→ a , b ,→ c ) `e equiversa → − → − → − con quella fondamentale mentre la terna ( a , c , b ) `e contraversa. Detto in altra maniera, supponiamo che un osservatore sia in piedi sul piano individuato dai vettori − → − → → − → − i , j . La pi` u piccola rotazione possibile per portare i a sovrapporsi a j appare → − in senso antiorario ad un osservatore collocato in piedi in modo che il verso di k sia quello che va dai piedi alla testa dell’osservatore. Analogamente, se l’osservatore `e in − − − − piedi sul piano di → u,→ v dalla parte del vettore → w , egli vede il vettore → u sovrapporsi → − al vettore v in senso antiorario. Invece, se l’osservatore `e in piedi nella direzione di → − → − −c a → − −c , → − b , egli vede sovrapporsi → a in senso antiorario e dunque la terna (→ a , b ) `e equiversa alla terna fondamentale.
9.2. PRODOTTO VETTORIALE
191
Definiamo una nuova operazione nell’insieme V3 dei vettori liberi dello spazio. − − Definizione 9.2.3. Assegnati due vettori liberi → v,→ v , definiamo prodotto vettoriale → − → − → − → − di v per v e lo indichiamo con v ∧ v il vettore: − − − − v→ v , di modulo |→ v ||→ v | sin → − − di direzione perpendicolare ad entrambi → v ,→ v , − → − → − → − − − − v ∧→ v ) sia equiversa a ( i , j , k ). di verso tale che la terna ordinata (→ v ,→ v , → Osservazione 9.2.4. Dalla trigonometria sappiamo che il modulo del prodotto vet− − − − v e→ v . Si veda anche toriale → v ∧→ v `e l’area del parallelogramma costruito mediante → §5.9. − − − w ∈V : Il prodotto vettoriale soddisfa le seguenti propriet`a, ∀k ∈ R, ∀→ v ,→ v , → 3
− − − − 1) → v ∧→ v = −→ v∧→ v (propriet` a anticommutativa) − − − − − − 2) (k → v)∧→ v=→ v ∧ (k → v ) = k(→ v ∧→ v ) (propriet` a associativa con la moltiplicazione per gli scalari) − − − − − − − 3) (→ v +→ v ) ∧ → w = (→ v ∧→ w ) + (→ v∧→ w) → − → − → − → − → − → − → − w ∧ ( v + v ) = ( w ∧ v ) + ( w ∧ v ) (propriet` a distributive rispetto alla somma vettoriale) Dalla definizione segue inoltre immediatamente la seguente proposizione: − − Proposizione 9.2.5. Il prodotto vettoriale → v ∧→ v `e eguale al vettore nullo se e solo → − → − se i vettori v , v sono paralleli (includendo nel parallelismo il caso in cui uno dei due vettori sia nullo).
192
CAPITOLO 9. GEOMETRIA ANALITICA SPAZIALE
→ − → − Osserviamo che il prodotto vettoriale dei due versori i , j , dell’asse x e rispetti→ − → − vamente dell’asse y, d` a un vettore di modulo | i | | j | sin π/2 = 1, ovvero un versore, → − di direzione perpendicolare al piano xy, cio`e parallela a k , di verso tale che la terna − → − → − → − → − → − → − → ordinata ( i , j , i ∧ j ) sia equiversa a ( i , j , k ). → − → − → − Ne discende ovviamente che i ∧ j = k . Forniamo di seguito la tabella dei prodotti vettoriali dei versori degli assi: → − → − → − → − → − → − → − i ∧ i = j ∧ j = k ∧ k = 0, → − → − → − → − → − i ∧ j =−j ∧ i = k, − → − → → − → − → − j ∧ k =−k ∧ j = i , → − → − − → − → → − k ∧ i =−i ∧ k = j.
(9.9)
Osservazione 9.2.6. Il prodotto vettoriale non `e associativo (non inganni la propriet` a 2 che riguarda un’associativit` a con gli scalari), cio`e non vale in generale l’e− − − − − − v2 ) ∧ → v3 = → v1 ∧ (→ v2 ∧ → v3 ). Per convincersene, basta considerare il guaglianza (→ v1 ∧ → seguente controesempio: → − → − → − − → − → → − ( i ∧ i )∧ j = 0 ∧ j = 0, − → − → − → − → − → → − i ∧( i ∧ j )= i ∧ k =−j . − − Determiniamo adesso le coordinate del prodotto vettoriale → v ∧→ v in funzione delle coordinate dei due vettori. → − → − → − − Proposizione 9.2.7. Assegnati i vettori → v = vx i + v y j + vz k , → − → − vy j + vz k , risulta:
→ − → − v = vx i +
→ − → − → − → − − v ∧→ v = (vy vz − vz vy ) i + (vz vx − vx vz ) j + (vx vy − vy vx ) k . Dimostrazione. Dalle propriet` a del prodotto vettoriale discende: → − → − → − → − → − → − → − − v ∧→ v = (vx i + vy j + vz k ) ∧ (vx i + vy j + vz k ) − → − → − → − → − → − → = vx vx i ∧ i + vx vy i ∧ j + vx vz i ∧ k − → − → − → − → − → − → + vy vx j ∧ i + vy vy j ∧ j + vy vz j ∧ k → − → → − → → − → − − − + vz vx k ∧ i + vz vy k ∧ j + vz vz k ∧ k → − → − → − = (vy vz − vz vy ) i + (vz vx − vx vz ) j + (vx vy − vy vx ) k .
(9.10)
Si osservi che la formula della Proposizione 9.2.7 pu` o essere riscritta anche: → −i → − − v ∧→ v = vx v x
− → − → j k vy vz vy vz
(9.11)
dove si pensi di sviluppare il secondo membro come un ordinario determinante.
9.3. PRODOTTO MISTO
193
Osservazione 9.2.8. Dato un parallelogramma di vertici A, B, B , C, dall’Osservazione 9.2.4 segue che: −−→ −→ Area(ABB C) = |AB ∧ AC|. Da questo discende che l’area del triangolo di vertici A, B, C `e: Area(ABC) =
9.3
1 −−→ −→ |AB ∧ AC|. 2
Prodotto misto
− − − Definizione 9.3.1. Data una terna ordinata di vettori (→ u,→ v ,→ w ), si dice prodotto → − → − → − misto di essi il numero reale u · v ∧ w . Se si suppone assegnato un riferimento ortogonale e dunque una orientazione dello spazio, si ha la seguente formula ux u y u z → − − − (9.12) u ·→ v ∧→ w = vx vy vz wx wy wz Infatti sviluppando questo determinante con la regola di Laplace lungo la prima riga si − − ha precisamente il prodotto scalare di (ux , uy , uz )T con il prodotto vettoriale → v ∧→ w. ` immediato dunque che tre vettori sono linearmente dipendenti se e solo se il E loro prodotto misto vale zero. Se invece essi sono indipendenti, il determinante ha valore non nullo ed `e positivo o negativo precisamente se la terna ordinata `e equiversa o contraversa con la fissata terna fondamentale della base ortonormale dello spazio. Vediamo ora il significato geometrico del valore assoluto del prodotto misto. Consideriamo la seguente figura
Il volume del parallelepipedo `e uguale all’area della base per l’altezza. Ora, la − − base `e il parallelogramma costruito sui vettori → v e→ w e quindi la sua area `e uguale → − → − al modulo del prodotto vettoriale v ∧ w . L’altezza invece eguaglia la lunghezza − − − della proiezione ortogonale del vettore → u sul vettore → v ∧→ w . Ricordando la formula (5.10), abbiamo che la lunghezza cercata `e il modulo di → − − − u ·→ v ∧→ w → − (− v ∧→ w) (9.13) → − → − v ∧ w 2
194
CAPITOLO 9. GEOMETRIA ANALITICA SPAZIALE
In definitiva, il volume del parallelepipedo `e → − − |− u ·→ v ∧→ w| → − → − − − − − − v ∧ w → v ∧→ w = |→ u ·→ v ∧→ w| − − → v ∧→ w 2
(9.14)
ossia proprio il modulo del prodotto misto. Riassumendo: − − − Proposizione 9.3.2. Assegnati tre vettori → u,→ v ,→ w , il valore assoluto del loro prodotto misto eguaglia il volume del parallelepipedo costruito sui tre vettori.
9.4
Equazione cartesiana di un piano
Quattro punti dello spazio P1 (x1 , y1 , z1 ), P2 (x2 , y2 , z2 ), P3 (x3 , y3 , z3 ), P (x, y, z) sono −−→ −−−→ −−−→ complanari se e soltanto lo sono i vettori P1 P , P1 P2 , P1 P3 . Dalla (9.6) discende allora che la complanarit` a dei 4 punti si esprime al modo seguente: x − x 1 y − y 1 z − z1 x 2 − x 1 y 2 − y 1 z2 − z 1 = 0 (9.15) x 3 − x 1 y 3 − y 1 z3 − z 1 o equivalentemente, agendo con operazioni elementari sulle righe: 1 x y z 1 x 1 y 1 z1 1 x2 y2 z2 = 0. 1 x 3 y 3 z3
(9.16)
Qualora si assumano P1 , P2 , P3 non allineati e si consideri P (x, y, z) come un punto variabile nello spazio, la (9.15) esprime la condizione che deve soddisfare un punto P per appartenere al piano determinato da P1 , P2 , P3 . La (9.15) o la (9.16) viene allora detta equazione cartesiana del piano passante per i punti non allineati P1 , P2 , P3 . Sviluppando il determinante della (9.15), l’equazione assume la forma ax + by + cz + d = 0.
(9.17)
Risulta cio`e che un piano nello spazio `e rappresentabile mediante un’equazione di primo grado (con coefficienti delle incognite non tutti nulli) nelle variabili x, y, z. Del fatto, viceversa, che ogni tale equazione rappresenti un piano omettiamo la dimostrazione. Esaminiamo vari casi particolari della (9.17). Si abbia ad esempio c = 0. L’equazione assume allora la forma ax + by + d = 0,
(9.18)
che interpretata nel piano xy d`a luogo ad una retta, ma che nello spazio rappresenta un piano parallelo all’asse z intersecante il piano xy nella retta suddetta. Basta osservare infatti che se il punto P0 (x, y, 0) soddisfa la (9.18), la soddisfano anche tutti i punti P (x, y, z) (z qualsiasi) che appartengono alla retta per P0 parallela all’asse z.
9.4. EQUAZIONE CARTESIANA DI UN PIANO
195
Qualora risulti contemporaneamente b = 0, c = 0, l’equazione assume la forma ax + d = 0, ovvero, ponendo k = −d/a: x = k.
(9.19)
Il piano da essa rappresentato, dovendo essere contemporaneamente parallelo all’asse y e all’asse z, risulta parallelo al piano yz.
Analoghi parallelismi si hanno cambiando i coefficienti considerati e corrispondentemente gli assi e i piani coordinati. Qualora risulti d = 0, si ha un piano passante per l’origine. Consideriamo il piano individuato dai tre punti P (p, 0, 0), Q(0, q, 0) e R(0, 0, r) (p, q, r diversi da 0) rispettivamente appartenenti all’asse x, all’asse y e all’asse z.
196
CAPITOLO 9. GEOMETRIA ANALITICA SPAZIALE
La sua equazione `e, tenuto conto della (9.17): x y z + + = 1. p q r
(9.20)
Viceversa, considerato il piano di equazione ax + by + cz + d = 0, se i suoi coefficienti a, b, c, d sono tutti diversi da zero, dividendo per −d ci si pu`o ridurre alla (9.20) con d d d p=− , q=− , r=− . a b c La (9.20), in quanto mette in evidenza la lunghezza dei segmenti staccati sugli assi, dicesi equazione segmentaria del piano.
9.5
Parallelismo di due piani
Consideriamo due piani α, α , di equazioni rispettive ax + by + cz + d = 0, a x + b y + a o meno del sistema formato dalle due equazioni comporta c z + d = 0. La risolubilit` l’esistenza o meno di punti d’intersezione dei due piani. Ci interessa in particolare il caso in cui tali punti di intersezione non ci sono, ovvero il caso in cui i due piani sono paralleli. Posto a b c d a b c C = A= a b c d a b c possono presentarsi le seguenti eventualit`a: 1) rg A = rg C = 2 2) rg A = 1, rg C = 2 3) rg A = rg C = 1. Per il teorema di Rouch´e - Capelli, il parallelismo si presenta nel secondo caso. Poich´e (come nel § 5.12) consideriamo la coincidenza dei due piani, che si verifica ovviamente nel caso 3), come caso particolare di parallelismo, possiamo concludere che:
9.6. FASCI E STELLE DI PIANI
197
Proposizione 9.5.1. I due piani sono paralleli se e solo se rgA = 1. Tale condizione equivale alla proporzionalit`a dei primi tre coefficienti delle due equazioni: a = ka,
b = kb,
c = kc,
(9.21)
essendo k un opportuno fattore di proporzionalit`a diverso da zero, ovvero, qualora a , b , c siano tutti diversi da 0: b c a = = . a b c
(9.22)
Nel caso in cui il piano α risulti parallelo al piano α, la sua equazione risulta, per la (9.21): kax + kby + kcz + d = 0, e dividendo per k ax + by + cz + d /k = 0, e ponendo d /k = h ax + by + cz + h = 0,
(9.23)
cio`e Proposizione 9.5.2. Alterando il termine noto dell’equazione di un piano, si ottengono le equazioni di tutti e soli i piani paralleli a quello dato.
9.6
Fasci e stelle di piani
Assegnati due piani distinti π : ax + by + cz + d = 0, π : a x + b y + c z + d = 0, si chiama fascio di piani determinato da π, π l’insieme dei piani di equazione: λ(ax + by + cz + d) + μ(a x + b y + c z + d ) = 0 al variare dei parametri reali λ, μ, non ambedue nulli. Se π e π si incontrano in una retta r, il fascio si dice proprio di asse r ed `e costituito da tutti e soli i piani passanti per r. In tal caso lo stesso fascio pu`o essere ottenuto combinando linearmente le equazioni di due altri piani qualsiasi passanti per r. Se invece π e π sono paralleli, allora il fascio si dice improprio ed `e formato da tutti e soli i piani paralleli a π e a π . In tal caso l’equazione pu`o essere ridotta alla forma (9.23): ax + by + cz + h = 0, con a, b, c fissati e h variabile. Assegnato un punto P0 (x0 , y0 , z0 ), si dice stella di piani di centro P0 , l’insieme di tutti piani passanti per P0 . Tali piani sono descritti, al variare dei parametri reali λ, μ, ν, non tutti nulli, dall’equazione: λ(x − x0 ) + μ(y − y0 ) + ν(z − z0 ) = 0.
198
9.7
CAPITOLO 9. GEOMETRIA ANALITICA SPAZIALE
Equazioni di una retta nello spazio
Assegnati tre punti P1 (x1 , y1 , z1 ), P2 (x2 , y2 , z2 ), P (x, y, z), essi risultano allineati se e −−→ −−−→ solo se sono paralleli i vettori P1 P , P1 P2 , ovvero se e solo se `e verificata la condizione (9.4) che in questo caso diventa: x − x 1 y − y1 z − z1 rg =1 (9.24) x 2 − x 1 y 2 − y 1 z2 − z 1 che equivale, qualora gli elementi della seconda riga siano non nulli, a x − x1 y − y1 z − z1 = = . x2 − x1 y2 − y1 z2 − z 1
(9.25)
Se si considera il punto P (x, y, z) come un arbitrario punto dello spazio, la (9.24) esprime le condizioni che deve soddisfare P per appartenere alla retta r passante per i punti P1 P2 , ovvero le equazioni di tale retta. Tali equazioni equivalgono, se ad esempio z2 − z1 = 0, a: ⎧ ⎪ x − x1 z − z1 ⎪ ⎪ =0 ⎪ ⎪ ⎪ ⎨ x 2 − x 1 z2 − z 1 . (9.26) ⎪ ⎪ ⎪ y − y1 z − z1 ⎪ ⎪ ⎪ =0 ⎩ y 2 − y 1 z2 − z 1 In tale modo la retta considerata viene rappresentata dall’intersezione di due piani, uno parallelo all’asse y, l’altro parallelo all’asse x (cfr. §9.4). Una retta pu` o anche essere ottenuta come intersezione di due qualsiasi piani che la contengono. In tal caso la retta viene rappresentata dal sistema delle equazioni dei due piani considerati: a x + b y + c z + d = 0 (9.27) a x + b y + c z + d = 0 con
a rg a
b b
c c
=2
(9.28)
essendo i due piani non paralleli. Le (9.27) sono dette equazioni cartesiane della retta r. Le (9.26) risultano un caso particolare di equazioni cartesiane, dette equazioni ridotte rispetto alla z. Esse sono del tipo x = αz + p . (9.29) y = βz + q Se x2 − x1 = 0 oppure y2 − y1 = 0, possono essere in modo analogo definite equazioni ridotte rispetto alla x o alla y. Tornando alle equazioni (9.24), osserviamo che esse equivalgono alle x − x1 = (x2 − x1 )t, y − y1 = (y2 − y1 )t, z − z1 = (z2 − z1 )t
9.8. PARAMETRI DIRETTORI
199
al variare di t ∈ R ovvero a ⎧ ⎪ ⎨x = x1 + (x2 − x1 )t y = y1 + (y2 − y1 )t ⎪ ⎩ z = z1 + (z2 − z1 )t
∀t ∈ R.
Tali equazioni, che descrivono, al variare del parametro reale t, i punti della retta r, vengono dette equazioni parametriche di r.
9.8
Parametri direttori
Come nel caso piano, vengono detti parametri direttori , m, n di una retta r le componenti di un vettore non nullo parallelo ad r; essi, nel caso in cui la retta sia rappresentata dalle (9.24), evidentemente eguagliano (a meno di un fattore di proporzionalit`a) gli elementi della seconda riga:
= x2 − x1 , m = y2 − y1 , n = z2 − z1 . Se le equazioni cartesiane sono date nella forma ridotta (9.29), il calcolo dei parametri direttori `e immediato, in quanto risulta = α, m = β, n = 1. Nel caso in cui la retta r sia invece rappresentata nella forma (9.27), posto b c a , A= a b c sussiste la seguente proposizione: Proposizione 9.8.1. I parametri direttori , m, n di una retta r di equazioni ax + by + cz + d = 0 a x + b y + c z + d = 0 sono
b
= b
c c
a m = − a
c c
a n = a
b . b
Dimostrazione. Siano P1 (x1 , y1 , y1 ) e P2 (x2 , y2 , y2 ) due punti della retta, soddisfacenti pertanto le equazioni di r. Avremo dunque ax1 + by1 + cz1 + d = 0 a x 1 + b y 1 + c z1 + d = 0 e
ax2 + by2 + cz2 + d = 0 a x 2 + b y 2 + c z2 + d = 0
Sottraendo le corrispondenti equazioni, abbiamo a(x2 − x1 ) + b(y2 − y1 ) + c(z2 − z1 ) = 0 a (x2 − x1 ) + b (y2 − y1 ) + c (z2 − z1 ) = 0
200
CAPITOLO 9. GEOMETRIA ANALITICA SPAZIALE
Pertanto i parametri direttori che cerchiamo sono soluzioni del sistema lineare omogeneo a + bm + cn = 0 (9.30) a + b m + c n = 0 Tale sistema, essendo la sua matrice di rango 2, ha ∞1 soluzioni, tra loro proporzionali. La terna dichiarata nell’enunciato `e una di esse: infatti le relazioni a c a b b c a + b(− ) + c = 0 a c a b b c (9.31) b c a b a c a + b (− ) + c = 0 b c a b a c sono soddisfatte, dato che altro non sono che lo a a b c a b c, a a a b c
sviluppo dei seguenti determinanti b c b c (9.32) b c
entrambi nulli in quanto dotati di due righe uguali. Osservazione 9.8.2. Si poteva anche osservare che le equazioni (9.30) esprimono il fatto che il vettore parallelo alla retta cercato `e necessariamente perpendicolare sia al vettore (a, b, c)T che a (a , b , c )T e quindi `e proporzionale al prodotto vettoriale di questi due vettori. In ogni caso, ricordando la Proposizione 9.2.7, si ottiene la stessa conclusione. Analogamente a quanto avviene nel piano, per la (9.3) si ha: Proposizione 9.8.3. I due versori paralleli ad una retta r di parametri direttori ±m ±n ±
, m, n, hanno coordinate ( √ ,√ ,√ ). 2 2 2 2 2 2 2
+m +n
+m +n
+ m2 + n 2
9.9
Parallelismo di rette
Date due rette r, r di parametri direttori rispettivamente ( , m, n), ( , m , n ), esse sono parallele se e solo se sono paralleli due vettori che ad esse rispettivamente appartengono e quindi se e solo se (cfr. 9.4):
rg
m m
n n
= 1,
(9.33)
che, qualora gli elementi della seconda riga siano non nulli, equivale a m n
= = .
m n
(9.34)
` DI RETTE 9.10. COMPLANARITA
9.10
201
Complanarit` a di rette
Diremo che due rette sono complanari se esiste un piano che le contiene entrambe, altrimenti le diremo sghembe. Proposizione 9.10.1. Siano r una retta di equazioni
a 1 x + b1 y + c 1 z + d 1 = 0 a 2 x + b2 y + c 2 z + d 2 = 0
e s una retta di equazioni
a 3 x + b3 y + c 3 z + d 3 = 0 a4 x + b4 y + c4 z + d4 = 0.
Le rette r e s risultano complanari se e solo se a 1 a 2 a 3 a 4
b1 b2 b3 b4
c1 c2 c3 c4
d1 d2 = 0. d3 d4
Dimostrazione. Le rette r e s sono complanari se e solo se i due fasci di piani di asse r e s rispettivamente hanno un piano in comune. Questo equivale all’esistenza di quattro numeri reali λ1 , λ2 , λ3 , λ4 , non tutti nulli, tali che l’equazione λ1 (a1 x + b1 y + c1 z + d1 ) + λ2 (a2 x + b2 y + c2 z + d2 ) = 0 risulti identica alla λ3 (a3 x + b3 y + c3 z + d3 ) + λ4 (a4 x + b4 y + c4 z + d4 ) = 0. Ci` o avviene se e solo il sistema ⎧ a 1 λ1 + a 2 λ2 = a 3 λ3 + a 4 λ4 ⎪ ⎪ ⎪ ⎨ b1 λ 1 + b2 λ 2 = b3 λ 3 + b4 λ 4 ⎪ c 1 λ1 + c 2 λ 2 = c 3 λ 3 + c 4 λ 4 ⎪ ⎪ ⎩ d 1 λ1 + d 2 λ 2 = d 3 λ 3 + d 4 λ 4 ammette soluzioni non banali, ovvero se e solo se la matrice dei coefficienti del sistema ⎛
a1 ⎜ b1 ⎜ ⎝ c1 d1
a2 b2 c2 d2
−a3 −b3 −c3 −d3
⎞ −a4 −b4 ⎟ ⎟ −c4 ⎠ −d4
ha determinante nullo (cfr. Teorema 3.6.12). Dato che, cambiando segno a due colonne e trasponendo la matrice, il determinante rimane inalterato, si ha la tesi. La condizione di complanarit`a espressa dalla Proposizione 9.10.1 pu` o essere notevolmente semplificata nel caso in cui le rette siano assegnate mediante equazioni
CAPITOLO 9. GEOMETRIA ANALITICA SPAZIALE
202
ridotte. Assegnate infatti r : complanarit` a diventa
x = z + p y = mz + q
1 0 −
0 1 −m 1 0 − 0 1 −m
, s:
x = z + p y = m z + q
, la condizione di
−p −q = 0. −p −q
Con operazioni elementari tale condizione si riduce a: − p − p m − m q − q = 0.
9.11
Sintesi sulle mutue posizioni di rette
Proposizione 9.11.1. Sia r una retta di equazioni a 1 x + b1 y + c 1 z + d 1 = 0 a 2 x + b2 y + c 2 z + d 2 = 0 e s una retta di equazioni
a 3 x + b3 y + c 3 z + d 3 = 0 a4 x + b4 y + c4 z + d4 = 0.
Sia: ⎛
a1 ⎜a 2 A=⎜ ⎝a 3 a4
b1 b2 b3 b4
⎛ ⎞ a1 c1 ⎜a 2 c2 ⎟ ⎟,C = ⎜ ⎝a 3 c3 ⎠ c4 a4
b1 b2 b3 b4
c1 c2 c3 c4
⎞ −d1 −d2 ⎟ ⎟. −d3 ⎠ −d4
Allora necessariamente risulta rgA ≥ 2. Inoltre: rgA = 2, rgC = 2 ⇐⇒ r = s; rgA = 2, rgC = 3 ⇐⇒ r ed s sono parallele e disgiunte; rgA = 3, rgC = 3 ⇐⇒ r ∩ s `e un punto; rgA = 3, rgC = 4 ⇐⇒ r ed s sono sghembe. Dimostrazione. Il sistema di quattro equazioni in tre incognite formato dalle equazioni di r e da quelle di s ha la matrice A quale matrice dei coefficienti e la matrice C quale matrice completa. La matrice A ha rango non inferiore a 2, in forza della (9.28) e quindi tale rango `e 2 o 3. Se `e rg A = 3, rg C = 4, allora dalla Proposizione 9.10.1 segue che r ed s sono non complanari, cio`e sghembe. Se `e rg A = 3, rg C = 3, allora il sistema formato dalle equazioni delle rette `e compatibile ed ammette esattamente una soluzione; in tal caso r ed s hanno esattamente un punto in comune.
9.12. STELLE E FASCI DI RETTE
203
Osserviamo che se rg A = 2, allora il rango di C `e 2 oppure 3. Se `e rg A = 2, rg C = 3, allora il sistema formato dalle equazioni di r ed s `e incompatibile; pertanto r ed s sono disgiunte; r ed s per`o risultano complanari (cfr. 9.10.1), poich´e det C = 0. In tal caso r ed s risultano parallele e disgiunte. Se `e rg A = 2, rg C = 2, allora, essendo indipendenti le prime due righe di C (in forza della (9.28)), le prime due equazioni del sistema (corrispondenti alla retta r) determinano tutte le soluzioni del sistema stesso. Pertanto r ∩ s = r, ovvero r = s. Abbiamo cos`ı studiato tutti i casi possibili per il rango di A e quello di C, provando la parte necessaria di tutte le doppie implicazioni in enunciato. Ovviamente, allora seguono anche le parti sufficienti delle suddette implicazioni, da cui la conclusione.
9.12
Stelle e fasci di rette
L’insieme di tutte le rette dello spazio passanti per un punto assegnato P0 (x0 , y0 , z0 ) viene detto stella propria di rette di centro P0 . Tali rette sono descritte al variare dei parametri , m, n, non tutti nulli, dalle equazioni: x − x 0 y − y0 z − z0 rg = 1. (9.35)
m n Definiamo fascio proprio di rette di centro P0 sul piano π : ax + by + cz + d = 0, l’insieme delle rette per P0 giacenti su π. Per rappresentarlo analiticamente, basta considerare una qualunque retta r passante per P0 non giacente su π e mettere a sistema l’equazione del fascio di piani di asse r con l’equazione di π.
In particolare si pu` o scegliere come retta r quella per P0 perpendicolare a π (per la perpendicolarit` a tra retta e piano cfr. §9.15). Si definisce stella impropria di rette l’insieme delle rette dello spazio parallele ad un fissato vettore ( , m, n). Essa viene rappresentata dalle equazioni (9.35), stavolta per` o con , m, n fissati e x0 , y0 , z0 variabili.
204
CAPITOLO 9. GEOMETRIA ANALITICA SPAZIALE
L’insieme delle rette di fissata direzione giacenti su un piano π viene detto fascio improprio di rette. Pu`o essere rappresentato mettendo a sistema l’equazione di π con quella di un fascio improprio di piani paralleli alla direzione fissata.
9.13
Angolo di due rette. Coseni direttori
Ricordiamo che nello spazio due rette possono essere complanari (e in tal caso essere incidenti o parallele) oppure non complanari (sghembe). Nel primo caso `e ovvio cosa si intenda per angoli (due angoli tra loro supplementari) formati da esse; nel secondo si intendono per angoli quelli formati da due rette complanari rispettivamente parallele ad esse. In ogni caso tali angoli eguagliano quelli formati da vettori rispettivamente paralleli alle due rette. Proposizione 9.13.1. Date due rette r, r di parametri direttori ( , m, n), ( , m , n ), detto θ uno dei due angoli tra loro formati, si ha: cos θ =
+ mm + nn √ . ± 2 + m2 + n2 2 + m2 + n2 √
Dimostrazione. Tenendo conto che i vettori di coordinate ( , m, n), ( , m , n ) sono paralleli rispettivamente a r, r , la tesi si deduce immediatamente dalla formula (9.2). In particolare due rette r, r di parametri direttori ( , m, n), ( , m , n ) sono perpendicolari se e solo se
+ mm + nn = 0.
(9.36)
Analogamente al caso del piano, si definiscono i coseni direttori di una retta orientata. Definizione 9.13.2. Assegnata una retta r orientata, gli scalari cos x "r, cos y"r, cos zr, coseni degli angoli che r forma con gli assi cartesiani (anch’essi orientati), vengono detti coseni direttori di r.
9.14. PARALLELISMO DI RETTA E PIANO
205
Per i coseni direttori, anche nello spazio, vale la seguente: Proposizione 9.13.3. I coseni direttori di una retta orientata r eguagliano le coor− dinate del versore → r di r, dotato del verso corrispondente all’orientazione di r. Dimostrazione. Analoga a quella nel piano.
9.14
Parallelismo di retta e piano
Sia α un piano di equazione ax + by + cz + d = 0 e r una retta di equazioni a x + b y + c z + d = 0 . a x + b y + c z + d = 0 Essi risulteranno paralleli (eventualmente una contenuta nell’altro) quando e solo quando il sistema ⎧ ⎪ ⎨ax + by + cz + d = 0 . a x + b y + c z + d = 0 ⎪ ⎩ a x + b y + c z + d = 0 non ammetta soluzioni o ne ammetta infinite e quindi (per il teorema di Rouch´e Capelli) quando e solo quando: a b c a b c (9.37) = 0. a b c Sviluppando secondo la prima riga il determinante con la regola di Laplace e ricordando la Proposizione 9.8.1, la (9.37) diventa: a + bm + cn = 0.
9.15
(9.38)
Perpendicolarit` a di retta e piano
− Sia α un piano di equazione ax + by + cz + d = 0. Ogni vettore → v giacente su α ha componenti , m, n, che soddisfano la (9.38): a + bm + cn = 0. − Detto → n il vettore di componenti (a, b, c)T , tale condizione pu`o interpretarsi al modo seguente: → − − n ·→ v = 0. − Il vettore → n = (a, b, c)T , risultando perpendicolare ad ogni vettore giacente sul piano α, `e perci` o perpendicolare ad α. Ne consegue:
206
CAPITOLO 9. GEOMETRIA ANALITICA SPAZIALE
Proposizione 9.15.1. Una retta r `e perpendicolare al piano α se e solo se i suoi parametri direttori , m, n sono proporzionali rispettivamente ai coefficienti a, b, c dell’equazione di α:
m n rg = 1. a b c La condizione precedente equivale, qualora gli elementi della seconda riga siano non nulli, a m n
= = . a b c Osservazione 9.15.2. Dato che sia i coefficienti a, b, c di un piano, sia i parametri direttori di una retta sono alterabili per un fattore di proporzionalit`a non nullo, possiamo anche dire che i parametri direttori di una retta perpendicolare ad un piano eguagliano i primi tre coefficienti dell’equazione del piano.
9.16
Angolo di retta e piano
Consideriamo pi` u in generale il problema di valutare l’angolo r" α formato da una retta r ed un piano α. Ricordiamo che, per definizione, esso si ottiene al modo seguente: sia β il piano contenente r e perpendicolare ad α e sia s la retta α ∩ β. L’angolo in questione `e dato da rs, v. figura.
Proposizione 9.16.1. Siano α il piano di equazione cartesiana ax + by + cz + d = 0 ed r una retta di parametri direttori ( , m, n). Risulta: sin r" α= √
a2
|a + bm + cn| √ . + b2 + c 2 l 2 + m2 + n 2
Dimostrazione. L’angolo acuto r" α `e il complementare dell’angolo acuto θ compreso tra r ed una retta p, perpendicolare ad α. Si ha quindi sin r" α = cos θ. Tenendo conto che (a, b, c) sono parametri direttori per p (cfr. Proposizione 9.15.1), dalla Proposizione 9.13.1 si ottiene la tesi.
9.17. ANGOLO DI DUE PIANI. PIANI PERPENDICOLARI
207
Si osservi come la formula del parallelismo tra una retta ed un piano si possa ora ottenere come caso particolare della proposizione precedente per r" α = 0.
9.17
Angolo di due piani. Piani perpendicolari
Ricordiamo che angolo di due piani `e per definizione uno qualunque dei due angoli (tra loro supplementari) formati dalle rette ottenute intersecando i due piani con un terzo piano perpendicolare ad entrambi. Si ha Proposizione 9.17.1. Assegnati due piani α, β di equazioni rispettive ax + by + cz + d = 0, a x + b y + c z + d = 0, si ha: " = cos αβ
aa + bb + cc √ . ± a2 + b2 + c2 a2 + b2 + c2 √
Dimostrazione. L’angolo dei due piani eguaglia l’angolo formato da due rette n ed n perpendicolari rispettivamente ad α ed β.
Dato che (a, b, c) e (a , b , c ) sono i parametri direttori di n e rispettivamente di n (cfr. 9.15.1), dalla Proposizione 9.13.1 si deduce la tesi. In particolare si ha: Proposizione 9.17.2. Due piani α, α sono perpendicolari se e solo se: aa + bb + cc = 0.
9.18
Distanze
9.18.1
Distanza punto-piano e tra due piani
Distanza punto-piano La formula per la distanza punto-piano `e completamente analoga alla formula per la distanza punto-retta nella Geometria bidimensionale:
CAPITOLO 9. GEOMETRIA ANALITICA SPAZIALE
208
Proposizione 9.18.2. Siano P0 (x0 , y0 , z0 ) un punto dello spazio e α il piano di equazione cartesiana: ax + by + cz + d = 0. La distanza P0 α di P0 da α `e data da: P0 α =
|ax0 + by0 + cz0 + d| √ . a 2 + b2 + c 2
Dimostrazione. La distanza P0 α eguaglia la distanza P0 H, essendo H il piede della perpendicolare n al piano α passante per P0 . Consideriamo il versore → − n =
√
a b c ,√ ,√ a 2 + b2 + c 2 a 2 + b2 + c 2 a 2 + b2 + c 2
T
della retta n (cfr. 9.15.2). Detto P1 (x1 , y1 , z1 ) un punto arbitrario di α, le sue coordinate devono soddisfare l’equazione del piano: ax + by + cz + d = 0, cio`e ax1 + by1 + cz1 = −d.
(9.39)
−−−→ P0 H `e il valore assoluto della componente del vettore P1 P0 sulla retta n. Si ha: −−−→ − |(x0 − x1 )a + (y0 − y1 )b + (z0 − z1 )c| √ P 0 H = | P 1 P0 · → n| = = a 2 + b2 + c 2 =
|ax0 + by0 + cz0 − (ax1 + by1 + cz1 )| √ . a 2 + b2 + c 2
Dalla (9.39) segue allora la tesi.
9.18.3
Distanza tra piani
Dati due piani α e β, se essi sono incidenti la loro distanza `e nulla. Se invece sono paralleli, la loro distanza si determina scegliendo ad arbitrio un punto P0 su α e calcolando la distanza di P0 da α mediante la formula della Proposizione 9.18.2. Siano, per esempio, α : ax + by + cz + d = 0 e β : ax + by + cz + d = 0 due piani paralleli di cui vogliamo calcolare la distanza. Sia P0 (x0 , y0 , z0 ) un punto arbitrario del piano α. La distanza cercata di P0 da β `e, per la formula precedente: | − d + d | |ax0 + by0 + cz0 + d | √ =√ a 2 + b2 + c 2 a 2 + b2 + c 2 in quanto ax0 + by0 + cz0 = −d. Ad esempio la distanza tra x + y + 3z + 11 = 0 e |−11+8| = √311 . x + y + 3z + 8 = 0 `e √ 1+1+9
9.18. DISTANZE
9.18.4
209
Distanza tra due rette parallele
Siano date due rette parallele r e s di cui vogliamo calcolare la distanza. Siano , m, n i parametri direttori di entrambe le rette e siano P0 , P1 due punti arbitrari appartenenti − alle rette r e s rispettivamente. Posto → r = ( , m, n)T ,
−−−→ il modulo del prodotto vettoriale |P0 P1 ∧ r| rappresenta l’area del parallelogramma costruito sui vettori fattori. Dividendo per la base, costituita dal modulo del vettore r, si ottiene l’altezza che `e proprio la distanza cercata: d(P0 , r) =
−−−→ |P0 P1 ∧ r| | r|
⎧ ⎧ ⎪ ⎪ ⎨x = 1 + 3t ⎨x = 3 + 2t Esempio 9.18.5. Calcolare la distanza tra le rette r : y = −1− 3t s : y = 1 − 2t . ⎪ ⎪ ⎩ ⎩ z = 1 + 43 t z = 2t Soluzione. Osserviamo che le rette sono parallele in quanto hanno parametri direttori → − T proporzionali. ⎛ ⎞ Possiamo prendere, r = (3, −3, 2) , P0 (1, −1, 0), P1 (3, 1, 1) e quindi 2 −−−→ ⎝ ⎠ P0 P1 = 2 . La distanza cercata `e dunque 1 √ −−−→ | i − j| 2 1 |P0 P1 ∧ r| = =√ =√ d(P0 , r) = | r| | r| 22 11
9.18.6
Distanza punto-retta
Il ragionamento precedente ci permette di calcolare anche la distanza tra un punto P0 ed una retta r, essendo ci` o equivalente al calcolo della distanza tra r e la retta per ⎛ P⎞0
− parallela a r. Sia dunque assegnata r d parametri direttori , m, n e sia → r = ⎝m⎠ n un suo vettore di direzione. Supponiamo dato anche un punto arbitrario P0 (x0 , y0 , z0 ) dello spazio. Ci proponiamo di calcolare la distanza di P0 da r.
CAPITOLO 9. GEOMETRIA ANALITICA SPAZIALE
210
−−−→ Scegliamo ad arbitrio un punto P1 appartenente alla retta e sia v = P0 P1 . Ragionando come prima, si ha −−−→ |P0 P1 ∧ r| d(P0 , r) = | r| Esempio 9.18.7. Calcolare la distanza tra il punto P0 (2, −1, 0) e la retta r:
x = 2z − 1 y =z−1
⎛ ⎞ 2 Soluzione. La retta r ha parametri direttori r = ⎝1⎠. Scegliamo un punto 1 ⎛ ⎞ −3 −−−→ ⎝ ⎠ 0 . Calcoliamo arbitrario su r, ad esempio P1 (−1, −1, 0) e quindi P0 P1 = 0 i j k −−−→ P0 P1 ∧ r = −3 0 0 = 3 j − 3 k. 2 1 1 La distanza cercata `e infine √
d(P0 , r) = √
9.18.8
√ 9+9 = 3. 4+1+1
Distanza tra due rette sghembe
Siano ⎞ rette sghembe r e s di vettori direzione, rispettivamente, r = ⎛ ⎞ assegnate ⎛ due
⎝m⎠ e s = ⎝m ⎠. Vogliamo calcolare la distanza d(r, s) tra le due rette. n n Siano due punti arbitrari P1 e P1 rispettivamente su r e su s. La distanza cercata `e −−−→ la componente, cfr. (5.10), del vettore P1 P1 sul versore n perpendicolare ad entrambe le rette r e s, cio`e −−−→ d(r, s) = |P1 P1 · n|. r ∧ s , si ha che la distanza cercata si pu` o esprimere come segue: | r ∧ s| x1 − x1 y1 − y1 z1 − z1 −−−→ |P1 P1 · r ∧ s| 1 m n |. d(r, s) = = |
| r ∧ s| | r ∧ s| m n
Essendo n = ±
Esempio 9.18.9. Siano date r : x = y = z e s : x + 2y = z − 1 = 0. Calcolarne la distanza.
9.18. DISTANZE
211
⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 0 1 −2 − − − → Soluzione. Abbiamo P1 (0, 0, 0), P1 (0, 0, 1), P1 P1 = ⎝0⎠, r = ⎝1⎠, s = ⎝ 1 ⎠. 1 1 0 √ Dunque r ∧ s = − i − 2 j + 3 k, che ha modulo 14. Il prodotto misto della formula vale 0 0 1 1 1 1 = 3. −2 1 0 La distanza cercata `e quindi d(r, s) =
√3 . 14
La stessa distanza si poteva calcolare anche con un altro metodo che ci permette di determinare, oltre alla distanza vera e propria, anche la retta che `e incidente e perpendicolare contemporaneamente alle due rette r e s. Svolgiamo di nuovo l’esercizio precedente con questo nuovo metodo. Prendiamo r e s in forma parametrica: ⎧ ⎧ ⎪ ⎪ ⎨x = −2t2 ⎨ x = t1 s : y = t2 . r : y = t1 ⎪ ⎪ ⎩ ⎩ z = t1 z=1 Possiamo allora considerare i due punti “mobili” su r e s: P (t1 , t1 , t1 ), Q(−2t2 , t2 , 1). −−→ Imponiamo che il vettore “mobile” P Q sia ortogonale a entrambe le rette: −−→ P Q · r = 0 −−→ P Q · s = 0 Otteniamo il sistema
(−2t2 − t1 ) + (t2 − t1 ) + (1 − t1 ) = 0 −2(−2t2 − t1 ) + (t2 − t1 ) = 0
Questo sistema ha soluzione (t1 =
5 14 , t2
−−→ 1 = − 14 ). Il vettore P Q `e dunque ⎛
3 − 14
⎞
−−→ ⎜ 6 ⎟ P Q = ⎝− 14 ⎠ . 9 14
La distanza cercata `e quindi
3 2 6 2 9 2 ( 14 ) + ( 14 ) + ( 14 ) =
√
126 √3 . 14 = 14 1 Q( 17 , − 14 , 1), ottenuti
5 5 5 Inoltre conoscendo i due punti P ( 14 , 14 , 14 ) e ponendo i valori trovati dei parametri nelle rispettive equazioni, si possono scrivere le equazioni della retta di minima distanza tra le due rette sghembe date. Si tratta della retta incidente e perpendicolare ad entrambe le rette assegnate. Nell’esempio essa `e ⎧ 5 3 ⎪ ⎨x = 14 − 14 t 5 6 − 14 t y = 14 ⎪ ⎩ 5 9 z = 14 + 14 t
CAPITOLO 9. GEOMETRIA ANALITICA SPAZIALE
212
in forma parametrica. La forma cartesiana si pu` o ottenere eliminando il parametro dalle precedenti oppure, considerando che 5 5 5 y − 14 z − 14 x − 14 = 1. rg 9 3 6 − 14 − 14 14 Abbiamo le due equazioni x − 5 14 3 − 14
9 14
cio`e
9.18.10
5 14
z−
=0
y − 5 14 6 − 14
z− 9 14
5 14
=0
21x + 7z = 10 42y + 28z = 25
Distanza retta-piano
Assegnati un piano α e una retta r tra loro incidenti, la loro distanza `e nulla. Se invece sono paralleli, la loro distanza si determina scegliendo ad arbitrio un punto P0 su r e calcolando la distanza di P0 da α mediante la formula della Proposizione 9.18.2.
9.19
Sfera
La sfera di centro P0 (x0 , y0 , z0 ) e raggio r, `e il luogo dei punti P (x, y, z) dello spazio per i quali si ha P0 P = r. Tradotta in coordinate (cfr. (9.7)), la (9.40) diviene
(x − x0 )2 + (y − y0 )2 + (z − z0 )2 = r,
(9.40)
9.20. QUADRICHE IN FORMA CANONICA
213
ovvero, elevando al quadrato ambo i membri e sviluppando, x2 + y 2 + z 2 − 2x0 x − 2y0 y − 2z0 z + x20 + y02 + z02 − r2 = 0.
(9.41)
L’equazione della sfera assume quindi la forma x2 + y 2 + z 2 + ax + by + cz + d = 0,
(9.42)
avendo posto nella (9.41) −2x0 = a,
−2y0 = b,
−2z0 = c,
x20 + y02 + z02 − r2 = d.
(9.43)
Viceversa, data una equazione del tipo (9.42), essa rappresenta la sfera di centro P0 (x0 , y0 , z0 ) e di raggio r espressi da $ x0 = −a/2, y0 = −b/2, z0 = −c/2, r =
b2 c2 a2 + + − d, 4 4 4
(9.44)
purch´e naturalmente risulti a2 /4 + b2 /4 + c2 /4 − d > 0. Una sfera di centro l’origine e raggio r ha equazione x2 + y 2 + z 2 = r 2 .
(9.45)
Sfera
9.20
Quadriche in forma canonica
In generale le superfici che siano rappresentabili mediante un’equazione di secondo grado nelle variabili x, y, z vengono dette quadriche. Ci limitiamo a fornire le informazioni essenziali su alcune di esse (le quadriche dette generali) in equazione canonica e daremo un paio di esempi di quadrica degenere. Facendo ricorso ad un concetto intuitivo di piano tangente ad una superficie, diremo che un punto di una quadrica `e un punto iperbolico, parabolico o ellittico a seconda che il piano tangente tagli la quadrica in una conica degenere composta da due rette reali e distinte, due rette coincidenti, o due rette immaginarie, rispettivamente. Per esempio, ogni punto della sfera `e ellittico.
CAPITOLO 9. GEOMETRIA ANALITICA SPAZIALE
214
9.20.1
Ellissoide
Consideriamo nello spazio l’insieme costituito dai punti P (x, y, z) le cui coordinate soddisfano la seguente equazione: y2 z2 x2 + 2 + 2 =1 (a > 0, b > 0, c > 0). (9.46) 2 a b c Tale insieme costituisce una superficie che si chiama ellissoide. Essa risulta simmetrica rispetto agli assi coordinati, ai piani coordinati e all’origine, che vengono detti rispettivamente assi principali, piani principali, centro dell’ellissoide. Infatti se P (x, y, z) soddisfa (9.46) anche P (−x, y, z), P (−x, −y, z), P (−x, −y, −z) etc. la soddisfano, essendo le variabili x, y, z tutte elevate al quadrato. Gli assi principali incontrano l’ellissoide nei punti A(a, 0, 0), A (−a, 0, 0), B(0, b, 0), B (0, −b, 0), C(0, 0, c), C (0, 0, −c) che si dicono vertici mentre i segmenti AA , BB , CC vengono anch’essi chiamati assi dell’ellissoide. Con procedimento analogo a quello attuato per l’ellisse si ottengono per i punti dell’ellissoide le limitazioni |x| ≤ a, |y| ≤ b, |z| ≤ c, che comportano la delimitazione della superficie entro il parallelepipedo di centro l’origine e lati rispettivamente 2a, 2b, 2c. Intersecando l’ellissoide con i piani principali (x = 0, y = 0, z = 0) si ottengono le ellissi principali rappresentate su ciascuno di essi dalle equazioni z2 y2 + = 1, b2 c2
x2 z2 + = 1, a2 c2
x2 y2 + = 1. a2 b2
Per meglio comprendere la forma dell’ellissoide sezioniamolo con i piani paralleli ai piani principali. Ad esempio la sezione con un piano parallelo al piano xy di equazione z = k (|k| < c): ⎧ ⎧ 2 x2 y2 ⎪ y2 k2 ⎨ ⎨x 2 + 2 = 1 + = 1 − k 2 2 ovvero a 1 − c2 b 1 − kc2 a2 b2 c2 ⎪ ⎩z = k ⎩z = k risulta ancora un’ellisse di semiassi a 1 − k 2 /c2 , b 1 − k 2 /c2 . Analogamente per le sezioni parallele agli altri piani principali.
Ellissoide Notiamo che, per a = b, le sezioni parallele al piano xy diventano circonferenze. In tal caso l’ellissoide si dice rotondo. Per a = b = c, infine, l’ellissoide si riduce alla sfera di centro l’origine e raggio a. I punti dell’ellissoide sono tutti ellittici.
9.20. QUADRICHE IN FORMA CANONICA
9.20.2
215
Iperboloide ellittico
Tale quadrica ha equazione: x2 y2 z2 − − =1 (a > 0, b > 0, c > 0). (9.47) a2 b2 c2 La superficie `e simmetrica rispetto agli assi (assi principali), ai piani coordinati (piani principali) e all’origine (centro), perch`e tutte le variabili compaiono al quadrato. Sezioni con i piani paralleli al piano xy: ⎧ ⎧ 2 2 2 2 ⎪ ⎨ x ⎨x − y − z = 1 a2 b2 c2 ovvero a2 1 + ⎩ ⎪ ⎩z = k z=k
k2 c2
−
b2
y2 1+
k2 c2
=1
.
Sono iperboli con asse trasverso parallelo all’asse x. Sezioni con i piani paralleli al piano yz: ⎧ 2 2 2 ⎨x − y − z = 1 a2 b2 c2 ⎩ x=k
.
Per k = ±a, si ottengono i vertici (a, 0, 0), (−a, 0, 0). Se |k| = a, le equazioni diventano: ⎧ 2 z2 ⎪ ⎨ y + k2 =1 2 k . b2 a 2 − 1 c 2 a2 − 1 ⎪ ⎩x = k che ammettono soluzioni reali solo per (k 2 /a2 ) − 1 > 0, cio`e per |k| > a. In tal caso si hanno ellissi con semiassi crescenti al crescere di |k|. Sezioni con i piani paralleli al ⎧ 2 2 2 ⎨x − y − z = 1 2 2 2 a b c cio`e ⎩ y=k
piano xz: ⎧ 2 z2 ⎪ ⎨ x − 2 a2 1 + kb2 c2 1 + ⎪ ⎩y = k
Sono iperboli con asse trasverso parallelo all’asse x.
Iperboloide ellittico I punti dell’iperboloide ellittico sono tutti ellittici.
k2 b2
=1
.
CAPITOLO 9. GEOMETRIA ANALITICA SPAZIALE
216
9.20.3
Iperboloide iperbolico
L’equazione `e:
x2 y2 z2 + 2 − 2 =1 2 a b c
(a > 0, b > 0, c > 0).
(9.48)
` simmetrico rispetto agli assi (assi principali), ai piani coordinati (piani princiE pali) e all’origine (centro). Sezioni con i piani paralleli al piano xy: ⎧ 2 ⎧ 2 2 2 ⎪ ⎪ ⎨x + y − z = 1 ⎨ x a2 b2 c2 a2 1 + ovvero ⎪ ⎪ ⎩z = k ⎩z = k
k2 c2
+
b2
y2 1+
k2 c2
=1
Sono ellissi con semiassi crescenti al crescere di |k|. Sezioni con i piani paralleli al piano yz: ⎧ 2 2 2 ⎪ ⎨x + y − z = 1 a2 b2 c2 ⎪ ⎩x = k Se |k| = a, le equazioni diventano: ⎧ 2 z2 ⎪ ⎨ y − 2 b2 1 − ka2 c2 1 − ⎪ ⎩x = k
k2 a2
.
=1
.
Per |k| < a, sono iperboli con asse trasverso parallelo all’asse y. Per |k| > a, sono iperboli con asse trasverso parallelo all’asse z. Per |k| = a, sono una coppia di rette. Sezioni con i piani paralleli al piano xz: ⎧ 2 2 2 ⎪ ⎨x + y − z = 1 a2 b2 c2 ⎪ ⎩y = k Se |k| = b, le equazioni diventano: ⎧ 2 z2 ⎪ ⎨ x − 2 a2 1 − kb2 c2 1 − ⎪ ⎩y = k
k2 b2
.
=1
.
Per |k| < b, sono iperboli con asse trasverso parallelo all’asse x. Per |k| > b, sono iperboli con asse trasverso parallelo all’asse z. Per |k| = b, sono una coppia di rette. L’equazione dell’iperboloide iperbolico pu` o essere scritta nella forma:
.
9.20. QUADRICHE IN FORMA CANONICA %y b
+
217
z & %y z & % x& % x& − = 1+ 1− . c b c a a
Tale equazione equivale alle seguenti equazioni parametriche (con t parametro reale): % ⎧y z x& ⎨ − =t 1− b c % a & . ⎩y + z = 1 1 + x b c t a Tali equazioni, essendo lineari in x, y, z per ogni valore di t, rappresentano ∞1 rette che giacciono sulla superficie. Per questo motivo si dice che l’iperboloide iperbolico `e una superficie rigata. Una seconda famiglia di rette giacenti sulla superficie `e la seguente: % ⎧y z x& ⎨ − =t 1+ b c % a & . ⎩y + z = 1 1 − x b c t a Si dimostra che due rette appartenenti alla stessa famiglia sono sghembe, mentre due rette appartenenti a famiglie diverse sono complanari.
Iperboloide iperbolico I punti dell’iperboloide iperbolico sono tutti iperbolici.
9.20.4
Paraboloide ellittico
L’equazione `e:
x2 y2 + 2 =z 2 a b
(a > 0, b > 0).
(9.49)
` simmetrico rispetto all’asse z (asse principale) e ai piani xz e yz (piani principali). E Sezioni con i piani paralleli al piano xy: ⎧ 2 ⎧ 2 2 2 ⎪ ⎪ ⎨x + y = z ⎨x + y = k 2 2 2 2 a b a b ovvero ⎪ ⎪ ⎩z = k ⎩z = k
.
CAPITOLO 9. GEOMETRIA ANALITICA SPAZIALE
218
Abbiamo soluzioni reali solo per k ≥ 0. √ Per k√= 0 la sezione si riduce all’origine. Per k ≥ 0 si ottengono ellissi con semiassi a k, b k, crescenti al crescere di k. Sezioni con i piani paralleli al piano yz: ⎧ 2 2 ⎪ ⎨x + y = z a2 b2 ovvero ⎪ ⎩x = k
⎧ 2 2 ⎪ ⎨z = y + k b2 a2 ⎪ ⎩x = k
.
Sono parabole con asse di simmetria parallelo all’asse z e con la concavit`a rivolta verso l’alto. Sezioni con i piani paralleli al piano xz: ⎧ ⎧ 2 2 2 2 ⎪ ⎪ ⎨z = x + k ⎨x + y = z a2 b2 a2 b2 ovvero ⎪ ⎪ ⎩y = k ⎩y = k
.
Sono parabole con asse di simmetria parallelo all’asse z e con la concavit`a rivolta verso l’alto.
Paraboloide ellittico I punti del paraboloide ellittico sono tutti ellittici.
9.20.5
Paraboloide iperbolico
L’equazione `e: x2 y2 − =z a2 b2
(a > 0, b > 0).
(9.50)
` simmetrico rispetto all’asse z (asse principale) e ai piani xz e yz (piani principali). E Sezioni con i piani paralleli al piano xy: ⎧ 2 ⎧ 2 2 2 ⎪ ⎪ ⎨x − y = z ⎨x − y = k 2 2 2 2 a b a b ⎪ ⎪ ⎩z = k ⎩z = k
.
Per k = 0 abbiamo una coppia di rette di equazioni rispettive:
9.20. QUADRICHE IN FORMA CANONICA ⎧x y ⎨ − =0 a b ⎩ z=0 Per k = 0 si ottiene:
⎧x y ⎨ + =0 a b ⎩ z=0
⎧ 2 2 ⎪ ⎨ x − y =1 ka2 kb2 ⎪ ⎩z = k
219
.
.
Per k > 0 sono iperboli di asse trasverso parallelo all’asse x. Per k < 0 sono iperboli di asse trasverso parallelo all’asse y. Sezioni con i piani paralleli al piano yz: ⎧ 2 2 ⎪ ⎨x − y = z a2 b2 ovvero ⎪ ⎩x = k
⎧ 2 2 ⎪ ⎨z = − y + k b2 a2 ⎪ ⎩ x=k
.
Sono parabole con asse di simmetria parallelo all’asse z e con la concavit`a rivolta verso il basso. Sezioni con i piani paralleli al piano xz: ⎧ ⎧ 2 x2 k2 2 ⎪ x y ⎪ ⎪ z = − ⎨ − ⎨ =z a2 b2 a2 b2 ovvero ⎪ ⎪ ⎩y = k ⎪ ⎩ y=k
.
Sono parabole con asse di simmetria parallelo all’asse z e con la concavit`a rivolta verso l’alto. L’equazione del paraboloide iperbolico pu` o essere scritta nella forma: %x y & %x y & − + =z a b a b equivalente alle seguenti equazioni parametriche: ⎧x y ⎪ ⎨ − = tz a b . x y ⎪ ⎩ + =1 a b t Al variare di t, esse rappresentano ∞1 rette giacenti sulla superficie. La superficie ha anche la seguente rappresentazione parametrica: ⎧ x y 1 ⎪ ⎨ − = a b t ⎪ ⎩ x + y = tz a b che fornisce una seconda famiglia di ∞1 rette.
CAPITOLO 9. GEOMETRIA ANALITICA SPAZIALE
220
Pertanto anche il paraboloide iperbolico `e una superficie rigata (con due famiglie di rette). Anche in questo caso si dimostra che due rette appartenenti alla stessa famiglia sono sghembe, mentre due rette appartenenti a famiglie diverse sono complanari.
Paraboloide iperbolico I punti del paraboloide iperbolico sono tutti iperbolici.
9.20.6
Due esempi di quadriche degeneri
x2 y2 Un esempio di quadrica degenere `e data dalla superficie di equazione 2 + 2 = 1. a b Non ci si lasci ingannare: questa `e un’equazione in cui la variabile z ha coefficiente 0 e quindi, se la coppia (x, y) soddisfa l’equazione, anche la terna (x, y, z) la soddisfa.
Cilindro
Cono
La superficie `e quindi quella di un cilindro (infinito) di sezione ellittica. Tutti i punti di questa quadrica sono parabolici. y2 z2 x2 Un secondo esempio `e la superficie di equazione 2 + 2 − 2 = 0, quadrica a b c degenere denominata cono (doppio).
9.21. UN CENNO AI CAMBIAMENTI DI RIFERIMENTO NELLO SPAZIO 221
9.21
Un cenno ai cambiamenti di riferimento nello spazio
Siano RC(Oxyz) e RC(O x y z ) due riferimenti cartesiani nello spazio, di versori sugli − − − → → − → − → → − → assi i , j , k e rispettivamente i , j , k . → − − → − → − → − → − → B = ( i , j , k ), B = ( i , j , k ) sono due basi ordinate per i vettori liberi dello spazio. Sia M la matrice che ha per colonne le componenti dei vettori di B rispetto a B. Analogamente a quanto osservato nel piano, la matrice M risulta ortogonale, cio`e si ha M T = M −1 (cfr. §5.17). Con procedimento del tutto simile a quello utilizzato nel §5.17, si dimostra: Proposizione 9.21.1. Assegnato un punto P dello spazio, tra le colonne delle coordinate X e X di P , valutate rispetto a RC(Oxyz) e RC(O x y z ), intercorre la seguente relazione: X = M X + N. dove N `e la colonna delle coordinate della ”nuova” origine O delle coordinate del sistema RC(O x y z ).
Capitolo 10
SPAZI VETTORIALI 10.1
Gruppi e Campi
Sia G un insieme non vuoto dotato di un’operazione binaria interna ω, cio`e un’applicazione ω : G × G −→ G (cfr. 1.6). Per ogni coppia di elementi x, y di G, indicheremo l’elemento ω((x, y)) (detto composto di x con y) anche con il simbolo xωy. Diremo gruppo ogni coppia (G, ω), ove G `e un insieme non vuoto ed ω `e un’operazione binaria definita in G, verificante i tre seguenti assiomi: ∀x, y, z ∈ G
(xωy)ωz = xω(yωz) ∃u ∈ G : ∀x ∈ G, ∀x ∈ G
uωx = xωu = x
∃x ∈ G : xωx = x ωx = u
(propriet` a associativa)
(10.1)
(esistenza dell’elemento neutro)
(10.2)
(esistenza del simmetrico)
(10.3)
Diremo poi che un gruppo (G, ω) `e commutativo o abeliano se verifica anche la: xωy = yωx
∀x, y ∈ G
(propriet` a commutativa)
(10.4)
Se (G, ω) `e un gruppo, l’elemento di cui all’assioma (10.2) `e detto elemento neutro rispetto all’operazione ω, e l’elemento x di cui all’assioma (10.3) `e detto simmetrico di x, rispetto all’operazione ω. Se l’insieme G `e finito, il numero dei suoi elementi si chiama ordine di G. ` facile dimostrare l’unicit` E a sia dell’elemento neutro u che del simmetrico x di ogni elemento x in G. Diamo alcuni esempi di gruppi: Le coppie (Z, +), (Q, +), (R, +) e (C, +), ove il simbolo “+” denota l’ordinaria somma di numeri interi, razionali, reali e complessi (rispettivamente) sono esempi di gruppi. La coppia (N, +) non `e invece un gruppo, poich´e essa non verifica l’assioma 10.3, dato che, per esempio, non esiste, all’interno di N, il simmetrico rispetto alla somma del numero naturale 5 (−5 non `e un numero naturale). Le coppie (Z, ·), (Q, ·), (R, ·) e (C, ·), ove il simbolo “·” denota l’ordinario prodotto di numeri interi, razionali, reali e complessi (rispettivamente), non sono esempi di gruppi, poich´e il numero 0 non ammette simmetrico rispetto al prodotto. Sono invece esempi di gruppi le coppie
CAPITOLO 10. SPAZI VETTORIALI
224
(Q∗ , ·), (R∗ , ·) e (C∗ , ·), ove Q∗ , R∗ , e C∗ sono gli insiemi (rispettivamente) di numeri razionali, reali e complessi non nulli. La coppia (Z∗ , ·), ove Z∗ `e l’insieme dei numeri interi non nulli, non `e un esempio di gruppo, poich´e, per esempio, il simmetrico di 5, rispetto al prodotto, non `e un intero. Se l’operazione binaria del gruppo (G, ω) `e denotata con il simbolo “+”, allora il gruppo `e detto additivo, l’elemento neutro `e indicato con “0” ed il simmetrico dell’elemento x `e detto opposto di x e denotato con “−x”. Se l’operazione binaria del gruppo (G, ω) `e denotata con il simbolo “·”, allora il gruppo `e detto moltiplicativo, l’elemento neutro `e generalmente indicato con “1” ed il simmetrico dell’elemento x `e detto inverso di x e denotato con “x−1 ”. Diremo campo ogni terna (K, +, ·), ove “+” e “·” sono due operazioni binarie interne definite in A da dirsi somma e prodotto, rispettivamente, tali che valgano i seguenti assiomi: (K, +) `e un gruppo abeliano.
(10.5)
(K − {0}, ·) `e un gruppo abeliano.
(10.6)
con le propriet` a seguenti (distributivit` a del prodotto rispetto alla somma) (x + y) · z = (x · z) + (y · z) z · (x + y) = (z · x) + (z · y)
∀x, y, z ∈ A ∀x, y, z ∈ A.
(10.7)
Esempi di campi sono le terne (Q, +, ·), (R, +, ·) e (C, +, ·), ove i simboli “+” e “· ” denotano l’ordinaria somma e prodotto di numeri razionali, reali e complessi, rispettivamente.
10.2
Spazi vettoriali: introduzione
La nozione generale di spazio vettoriale `e data sul modello della definizione 2.1.5. In generale, sia V un insieme non vuoto su cui `e definita una operazione indicata con + rispetto alla quale esso sia un gruppo abeliano. Sia inoltre (K, +, ·) un campo. K sar` a nel seguito quasi sempre R, talvolta anche C, Q o altro. Diremo prodotto esterno di K per V un’operazione tra K e V a valori in V , cio`e un’applicazione ω : K × V −→ V (cfr. 1.6). In luogo di scrivere ω((k, v)) = w, scriveremo anche kv = w e useremo il termine prodotto di k per v. Diremo che la terna (V, K, ω) `e uno spazio vettoriale sul campo K, se essa verifica gli assiomi seguenti: (hk)v = h(kv)
∀h, k ∈ K, ∀v ∈ V.
(10.8)
(h + k)v = hv + kv
∀h, k ∈ K, ∀v ∈ V.
(10.9)
h(v + w) = hv + hw
∀h ∈ K, ∀v, w ∈ V.
(10.10)
1v = v
∀v ∈ V.
(10.11)
10.2. SPAZI VETTORIALI: INTRODUZIONE
225
dove il simbolo “1” che compare nella (10.11) denota l’elemento neutro moltiplicativo del campo K. Se V = (V, K, ω) `e uno spazio vettoriale sul campo K, diremo vettori gli elementi di V e scalari gli elementi di K. Di solito uno spazio vettoriale (V, K, ω) sar`a denotato semplicemente, ove non sussistano ambiguit` a, con V . Il concetto di “vettore” viene in tal modo esteso a significare qualunque elemento di uno spazio vettoriale e non gi`a solo gli elementi di Rn , V2 o V3 . Risultano individuati lo scalare nullo 0 ed il vettore nullo 0, elemento neutro del gruppo (V, +). Diamo ora alcune proposizioni di carattere elementare che sono di facile dimostrazione. Proposizione 10.2.1. Se V `e uno spazio vettoriale sul campo K, allora il prodotto dello scalare nullo per un vettore v `e il vettore nullo, cio`e: 0v = 0,
∀v ∈ V.
Dimostrazione. Dall’esistenza dell’elemento opposto nel gruppo abeliano (V, +) e dalle (10.9), (10.11) discende: 0v = 0v + v − v = 0v + 1v − v = (0 + 1)v − v = 1v − v = v − v = 0. Proposizione 10.2.2. Se V `e uno spazio vettoriale sul campo K, allora il prodotto di uno scalare per il vettore nullo `e il vettore nullo, cio`e: k0 = 0,
∀k ∈ K.
Dimostrazione. A norma della proposizione precedente e della (10.8), ∀v ∈ V , si ha: k0 = k(0v) = (k0)v = 0v = 0. Proposizione 10.2.3. Il prodotto di uno scalare k ∈ K per un vettore v ∈ V `e il vettore nullo se e solo se uno almeno tra k e v `e nullo. Dimostrazione. Supponiamo che risulti: kv = 0. Se k = 0, per la Proposizione 10.2.2, moltiplicando ambo i membri dell’uguaglianza precedente per k −1 , otteniamo: k −1 (kv) = k −1 0 = 0. D’altra parte, per la (10.8) e la (10.11), si ha k −1 (kv) = (k −1 k)v = 1v = v, da cui si deduce v = 0. Proposizione 10.2.4. Se V `e uno spazio vettoriale sul campo K, allora il prodotto dell’opposto dell’unit` a moltiplicativa di K per un vettore v `e l’opposto di v, cio`e: (−1)v = −v,
∀v ∈ V.
Dimostrazione. Dalla Proposizione 10.2.1 e per le (10.9) e (10.11), si ha, ∀ v ∈ V : (−1)v + v = (−1)v + 1v = (−1 + 1)v = 0v = 0. Dall’uguaglianza (−1)v + v = 0, segue che (−1)v = −v.
226
10.3
CAPITOLO 10. SPAZI VETTORIALI
Esempi di spazi vettoriali
Esempio 10.3.1. Assegnato un campo K, sia V = K n , n-ma potenza cartesiana di K (cfr. §1.2), ovvero la totalit`a delle n-ple ordinate di elementi di K. Se x = (x1 , . . . , xn ) e y = (y1 , . . . , yn ) sono due elementi di K n , `e possibile definire la loro somma nel modo che segue: (10.12) x + y = (x1 + y1 , ..., xn + yn ). ` poi possibile definire il prodotto esterno ω di uno scalare k ∈ K per l’elemento E x = (x1 , . . . , xn ) ∈ K n nel modo seguente: kx = (kx1 , . . . , kxn ).
(10.13)
Con tali definizioni di somma in K n e di prodotto di un elemento di K per un elemento di K n , `e facile provare che: Proposizione 10.3.2. La terna (K n , K, ω) `e uno spazio vettoriale. Lo spazio vettoriale (K n , K, ω) verr` a nel seguito denotato pi` u semplicemente con il simbolo K n . Quando K = R ricadiamo nella definizione di Rn , data nel §2.1. Esempio 10.3.3. L’insieme M (m × n, R) delle matrici reali m × n, dotato delle operazioni di somma tra matrici e di prodotto di un numero reale per una matrice fornisce un altro esempio di spazio vettoriale (cfr. §3.6). Esempio 10.3.4. Se K `e un campo, sia K[x] l’insieme dei polinomi in una indeterminata x a coefficienti in K. Rispetto all’ordinaria somma “+” tra polinomi, la coppia (K[x], +) `e un gruppo abeliano; se poi ω `e l’ordinario prodotto di un elemento di K per un polinomio, la terna (K[x], K, ω) risulta uno spazio vettoriale sul campo K; tale spazio sar`a nel seguito denotato solo con K[x]. Esempio 10.3.5. Se F `e l’insieme delle funzioni reali di una variabile reale, f e g sono due elementi di F , `e possibile definire la somma f + g nel modo che segue: (f + g)(x) = f (x) + g(x).
(10.14)
con tale definizione di somma la coppia (F, +) risulta un gruppo abeliano, il cui elemento neutro `e la funzione costante identicamente nulla ed in cui l’opposto della funzione f `e la funzione −f , cos`ı definita: (−f )(x) = −f (x).
(10.15)
Possiamo poi introdurre il prodotto esterno ω definendo, ∀k ∈ R, ∀f ∈ F : (kf )(x) = kf (x).
(10.16)
Con tale definizione la terna (F, R, ω) risulta uno spazio vettoriale sul campo reale. Esempio 10.3.6. Altri esempi di spazio vettoriale sul campo K = R, gi` a incontrati nella prima parte del presente testo, sono dati dagli insiemi V2 e V3 dei vettori liberi del piano e dello spazio euclideo, rispettivamente, dotati delle operazioni di somma e di prodotto per un numero reale.
10.3. ESEMPI DI SPAZI VETTORIALI
227
Esempio 10.3.7. Considerato un insieme con un unico elemento che indichiamo con 0 e un fissato campo K, definiamo la somma come 0 + 0 = 0 e il prodotto esterno: k0 = 0,
∀k ∈ K.
La terna ({0}, K, ω) `e evidentemente uno spazio vettoriale su K, detto spazio nullo su K. Esempio 10.3.8. Sia R+ l’insieme di tutti i numeri reali positivi. Supponendo che, o allora veridati u, v ∈ R+ , si definisca la “somma” di u e v come il prodotto uv, si pu` ficare che le propriet` a di associativit`a, commutativit`a, esistenza dell’elemento neutro e opposto sono tutte valide purch´e, ovviamente, per 0 si intenda 1 e per “opposto” si intenda “reciproco”. Stabiliamo ora di definire un prodotto esterno del campo reale R con i “vettori” elementi di R+ tramite la formula λv = v λ . Possiamo allora verificare che le propriet` a richieste (v.10.8, 10.9, 10.10, 10.11) sono soddisfatte. Nel nostro caso esse si esprimono nel modo seguente: • v hk = (v k )h ; • v h+k = v h v k ; • (vw)h = v h wh ; • v 1 = v. e sono tutte chiaramente vere. Dunque R+ con queste operazioni `e uno spazio vettoriale reale. Esempio 10.3.9. Sia a : N → R una successione di numeri reali. Comunemente una tale successione `e denotata con il simbolo {an } dove an `e il numero reale corrispondente al numero naturale n. Con le operazioni di somma termine a termine, cio`e (a + b)(n) = an + bn e prodotto esterno λa, λ ∈ R definito da λa(n) = λan si verifica facilmente che l’insieme delle successioni di numeri reali `e uno spazio vettoriale. Le nozioni di dipendenza e indipendenza lineare di un insieme di vettori di uno spazio vettoriale qualunque sono del tutto analoghe a quelle viste in precedenza (cfr. §2.2). Aggiungiamo un esempio sulla indipendenza lineare a quelli dati nel Capitolo 2. Esempio 10.3.10. Sia F lo spazio vettoriale delle funzioni reali di una variabile reale. Le due funzioni sin e cos sono linearmente indipendenti come vettori di F . Mostriamo infatti che, se a sin +b cos (ove a, b sono numeri reali) `e la funzione identicamente nulla 0, allora necessariamente a = b = 0. Infatti, se a sin +b cos = 0,
(10.17)
(a sin +b cos)(x) = 0(x) = 0, ∀x ∈ R.
(10.18)
allora `e: Pertanto, deve essere a sin(x) + b cos(x) = 0,
∀x ∈ R.
(10.19)
Dalla (10.19), posto x = 0, si trae a sin(0) + b cos(0) = 0, cio`e b = 0; ponendo invece x = π/2, otteniamo a sin(π/2) + b cos(π/2) = 0, cio`e a = 0.
CAPITOLO 10. SPAZI VETTORIALI
228
Anche le nozioni di sottospazio e di generatori di un sottospazio sono analoghe e non saranno ripetute. Per indicare che W `e sottospazio di V , scriveremo W ≤ V . Se I `e un insieme di indici, sia {Wi : i ∈ I} una famiglia di sottospazi dello spazio vettoriale V . Per l’intersezione dei sottospazi della famiglia, proveremo ora che: Proposizione 10.3.11. Sia V uno spazio vettoriale. Se F = {Wi : i ∈ I} `e una famiglia di sottospazi di V, allora l’intersezione dei sottospazi della famiglia F `e un sottospazio di V , cio`e: ' Wi ≤ V. (10.20) ∀i ∈ I, Wi ≤ V =⇒ i∈I
Dimostrazione. Il vettore nullo 0 appartiene a ogni sottospazio Wi , i ∈ I, della famiglia e quindi appartiene all’intersezione, che dunque `e non vuota: ' ' Wi =⇒ Wi = ∅. (10.21) 0∈ i∈I
i∈I
Siano ora h e k due qualsivoglia scalari e siano v e w due qualsiasi elementi dell’intersezione dei sottospazi di F. Poich´e v e w appartengono alla intersezione dei Wi , allora necessariamente essi appartengono a ciascuno dei sottospazi Wi . Essendo ogni Wi chiuso per la somma, la combinazione lineare hv + kw appartiene(a ciascun sottospazio Wi . Ne segue che tale combinazione lineare appartiene a Wi , che, pertanto, `e un sottospazio. La proposizione precedente si sintetizza dicendo che l’intersezione di sottospazi di uno spazio vettoriale `e un sottospazio. Presentiamo ora alcuni esempi di sottospazi di uno spazio vettoriale: Esempio 10.3.12. Se V `e uno spazio vettoriale sul campo K, allora esso `e un sottospazio di se stesso; il sottoinsieme {0} di V , costituito dal solo vettore nullo, `e un sottospazio di V , che diremo sottospazio nullo. Esempio 10.3.13. Sia V = R[x], spazio vettoriale sul campo R dei polinomi reali in una indeterminata x (cfr. §10.3). Il sottoinsieme P2 di R[x] costituito dai polinomi di grado non superiore a 2 `e un sottospazio di R[x]. Esempio 10.3.14. Nell’insieme di tutte le matrici di ordine n a coefficienti reali, il sottoinsieme delle matrici simmetriche `e un sottospazio. Esempio 10.3.15. Nello spazio vettoriale F delle funzioni reali di una variabile reale (cfr. §10.3), il sottoinsieme costituito dalle funzioni a sin +b cos, al variare di a e b in R, `e un sottospazio. Precisamente esso `e il sottospazio generato da sin e cos: sin, cos. Esempio 10.3.16. Tra tutte le successioni reali, consideriamo tutte quelle che soddisfano la relazione seguente Fn+1 = Fn +Fn−1 , come, ad esempio, la famosa successione di Fibonacci1 i cui primi termini sono 0, 1, 1, 2, 3, 5, 8, 13, 21, . . . L’insieme di tali successioni `e un sottospazio dello spazio di tutte le successioni. 1 La successione di Fibonacci (Leonardo Pisano, detto Fibonacci, Pisa (1170-1250)), appare in numerosissime situazioni diverse ed ` e strettamente collegata alla sezione aurea.
10.4. BASI E DIMENSIONI
229
Si dimostra che il sottospazio J, generato da un insieme J non vuoto di vettori, `e il sottospazio minimo contenente J. Pi` u precisamente: Proposizione 10.3.17. Siano V uno spazio vettoriale e J un sottoinsieme non vuoto di V . Allora, il sottospazio J coincide con l’intersezione di tutti i sottospazi di V contenenti J. Diamo qualche esempio. Sia V = R3 . Se J = R3 , allora, ovviamente: J = R3 . Se `e J = {e1 , e2 , e3 }, ove e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1), allora J `e ancora uguale ad R3 . Sia ora J un qualsiasi insieme di vettori contenente e1 , e2 ed e3 ; anche in questo caso risulta J = R3 . Se invece J = {e1 , e2 }, allora J = {(x, y, 0) : x, y ∈ R}. Se J = {1, x2 , x4 } ⊂ R[x], allora J `e il sottospazio di tutti i polinomi pari di grado minore di 5.
10.4
Basi e dimensioni
Sia V uno spazio vettoriale. Ricordiamo che si dice base di V ogni insieme di generatori linearmente indipendente di V . Nel primo capitolo abbiamo illustrato questo concetto lasciando in sospeso la questione dell’esistenza di basi in uno spazio vettoriale arbitrario e anche la giustificazione della definizione di dimensione di uno spazio o di un sottospazio. Cominciamo quindi dimostrando l’esistenza di (almeno) una base. Proposizione 10.4.1. Ogni spazio vettoriale non nullo e finitamente generato, cio`e che possiede un insieme finito di generatori, ammette almeno una base. Dimostrazione. Sia V uno spazio vettoriale non nullo. Sia J = {v1 , . . . , vm } un insieme finito di generatori, esistente per ipotesi. Se J `e linearmente indipendente allora J `e una base. In caso contrario, uno dei vettori di J, per esempio vm , `e combinazione lineare dei rimanenti. L’insieme J = J − {vm }, `e ancora un insieme di generatori. Se J `e linearmente indipendente, esso `e una base. Altrimenti, si procede con J similmente a quanto fatto con J. Continuando in tal maniera e riducendo via via l’insieme J ad un sottoinsieme proprio, dopo un numero finito di passi si perviene necessariamente ad un insieme di generatori linearmente indipendenti, e quindi ad una base, perch´e almeno un vettore non nullo, e quindi indipendente, esiste per ipotesi. Osservazione 10.4.2. Basi, opportunamente definite, esistono anche per spazi vettoriali non finitamente generati, di cui per` o non ci occupiamo. Osservazione 10.4.3. Lo spazio nullo ovviamente non pu`o contenere vettori indipendenti. Diremo per convenzione che lo spazio nullo ammette la base vuota. Abbiamo gi` a incontrato alcuni esempi di basi in Rn (cfr. §2.3). La definizione di base canonica pu` o essere immediatamente estesa allo spazio vettoriale K n , con K campo qualsiasi. Diamo altri esempi di basi per uno spazio vettoriale:
CAPITOLO 10. SPAZI VETTORIALI
230
Nello spazio vettoriale M (m × n, R) delle matrici reali m × n, una base `e data dall’insieme delle matrici m × n Ei,j che hanno tutti gli elementi nulli tranne quello in posizione (i, j) che `e uguale a 1: ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 0 ... 0 0 1 ... 0 0 0 ... 0 ⎜0 0 ... 0⎟ ⎜0 0 ... 0⎟ ⎜0 0 ... 0⎟ ⎟ ⎜ ⎟ ⎜ ⎟ E1,1 = ⎜ ⎝ . . ... . ⎠ , E1,2 = ⎝ . . ... . ⎠ , . . . , Em,n ⎝ . . ... . ⎠ . 0 0 ... 0 0 0 ... 0 0 0 ... 1 Una base per il sottospazio vettoriale Pn di R[x] dei polinomi in x di grado minore o uguale a n `e data dall’insieme B = {1, x, x2 , . . . , xn } dei monomi che si riducono ad una potenza della indeterminata x. Infatti ogni polinomio di Pn `e combinazione lineare di monomi appartenenenti a B, e quindi B genera Pn ; inoltre una combinazione lineare di elementi di B uguaglia il polinomio nullo se e solo se i suoi coefficienti sono tutti nulli, da cui segue che B `e linearmente indipendente; pertanto B `e una base di Pn . Come detto, nel seguito tratteremo soltanto degli spazi vettoriali finitamente generati. Avvertiamo che molte delle proposizioni che proveremo al riguardo, valgono, con convenienti modificazioni, anche per gli spazi vettoriali non finitamente generati. Abbiamo la seguente caratterizzazione di una base: Proposizione 10.4.4. Sia V uno spazio vettoriale. Se B = {v1 , . . . , vn } `e un insieme di vettori di V , B `e una base per V se e solo se ogni vettore di V si scrive in uno ed in un solo modo come combinazione lineare dei vettori di B. Dimostrazione. Se B `e una base, allora i vettori v1 , . . . , vn generano V ; pertanto, ogni vettore di V appartiene a {v1 , . . . , vn } e quindi si scrive in almeno un modo come combinazione lineare dei vettori v1 , . . . , vn . Proviamo che tale modo `e unico. Supponiamo allora che, per un v ∈ V : v = x1 v 1 + · · · + xn v n ,
(10.22)
v = y1 v 1 + · · · + y n v n .
(10.23)
ed anche: Sottraendo membro a membro si ottiene: 0 = (x1 − y1 )v1 + · · · + (xn − yn )vn ,
(10.24)
ed essendo i vettori v1 , . . . , vn indipendenti si trae: x1 − y1 = · · · = xn − yn = 0,
(10.25)
da cui segue che: x1 = y1 , . . . , xn = yn . Si `e cos`ı provata la prima parte dell’asserto. Viceversa, supponiamo ora che ogni vettore di V si scriva in un sol modo come combinazione lineare dei vettori di B. Allora ogni vettore di V appartiene allo spazio {v1 , . . . , vn }, da cui B `e un insieme di generatori per V . Proviamo ora che B `e indipendente. Supponiamo quindi di avere: x1 v1 + · · · + xn vn = 0.
(10.26)
10.4. BASI E DIMENSIONI
231
Risulta sicuramente anche: 0v1 + · · · + 0vn = 0.
(10.27)
Poich´e il vettore 0 ∈ V si pu`o scrivere in un sol modo come combinazione lineare di v1 , . . . , vn , dalle (10.26) ed (10.27) segue: x1 = · · · = xn = 0,
(10.28)
da cui la conclusione. Sia ora B = {v1 , . . . , vn } un insieme di generatori dello spazio vettoriale V . Diremo che B `e un insieme minimale di generatori per V se ogni sottoinsieme proprio di B non genera tutto V . In sostanza B `e un insieme minimale di generatori per V se sopprimendo un qualunque vettore di B si ottiene un suo sottoinsieme che genera un sottospazio di V non coincidente con V . Se B = {v1 , . . . , vn } `e un insieme di vettori indipendenti dello spazio vettoriale V , diremo che B `e un insieme massimale di vettori indipendenti di V se B non `e propriamente contenuto in alcun sottoinsieme indipendente di V . In sostanza B `e un insieme massimale di vettori indipendenti di V , se, comunque preso v ∈ V , l’insieme {v1 , . . . , vn , v} risulta dipendente. Proviamo ora che: Proposizione 10.4.5. Assegnato un insieme di vettori B = {v1 , . . . , vn } in uno spazio vettoriale V , le tre seguenti affermazioni sono equivalenti: B `e una base di V.
(10.29)
B `e un insieme minimale di generatori di V . B`e un insieme massimale di vettori indipendenti di V.
(10.30) (10.31)
Dimostrazione. Proveremo l’asserto mostrando che: (10.29) =⇒ (10.30) =⇒ (10.31) =⇒ (10.29). Cominciamo con il provare che (10.29) =⇒ (10.30). Poich`e B `e una base, esso `e un insieme di generatori per V e baster` a quindi provare la sua minimalit` a. Procediamo per assurdo e supponiamo che l’insieme di generatori B non sia minimale; allora `e possibile sopprimere uno dei vettori di B, ottenendo da B ancora un insieme di generatori per V ; senza perdere di generalit`a, possiamo supporre che il vettore che possiamo sopprimere sia v1 , da cui {v2 , . . . , vn } = V . Poich´e v1 ∈ V , il vettore v1 `e allora combinazione lineare di v2 , . . . , vn con opportuni coefficienti x2 , . . . , xn , cio`e: v 1 = x2 v 2 + · · · + xn v n ,
(10.32)
da cui segue la dipendenza lineare dei vettori v1 , . . . , vn . Si `e cos`ı pervenuti ad un assurdo (poich´e B `e una base e dunque indipendente) nato dall’aver supposto che B non sia minimale rispetto alla propriet` a di generare V . Dimostriamo ora che (10.30) =⇒ (10.31). Cominciamo con il provare che v1 , ..., vn sono indipendenti. Procediamo per assurdo e supponiamo che esista una loro combinazione lineare: (10.33) x1 v1 + · · · + xn vn = 0,
232
CAPITOLO 10. SPAZI VETTORIALI
con uno almeno tra i coefficienti diverso da zero. Senza perdere di generalit`a, possiamo supporre che sia x1 = 0; dividendo allora ambo i membri della (10.33) per x1 e con ovvi passaggi otteniamo la: v1 = −x2 (x1 )−1 v2 − · · · − xn (x1 )−1 vn ,
(10.34)
da cui si deduce che v1 ∈ {v2 , . . . , vn }. Il sottospazio {v2 , . . . , vn } di V , contiene allora i vettori v2 , . . . , vn (come `e ovvio) ed il vettore v1 (come abbiamo appena visto); pertanto v1 , v2 , . . . , vn ∈ {v2 , . . . , vn } e dunque ogni combinazione lineare di v1 , v2 , · · · , vn appartiene al sottospazio {v2 , . . . , vn } di V . Quindi {v1 , v2 , . . . , vn } = {v2 , . . . , vn }; poich´e {v1 , v2 , ..., vn } = V , ne segue che {v2 , . . . , vn } `e un insieme di generatori per V, da cui B non `e un insieme minimale di generatori di V. Si `e cos`ı pervenuti ad una contraddizione nata dall’aver supposto che B non sia indipendente. Ne segue l’indipendenza lineare di B. Proviamo ora che B `e massimale rispetto alla propriet` a di essere indipendente. Sia v ∈ V . Poich´e B `e un insieme di generatori di V, il vettore v `e combinazione lineare di v1 , . . . , vn con opportuni coefficienti x1 , . . . , xn , cio`e: v = x1 v 1 + · · · + x n v n ,
(10.35)
da cui segue: v − x1 v1 − · · · − xn vn = 0, cio`e che i vettori v1 , . . . , vn e v sono dipendenti (il coefficiente di v `e 1). Pertanto, aggregando a B un qualsiasi vettore di V , si ottiene un insieme dipendente, da cui la massimalit`a di B come insieme di vettori indipendenti. Si `e cos`ı vista la seconda implicazione. Proviamo infine che (10.31) =⇒ (10.29). Poich´e B `e indipendente per ipotesi, `e sufficiente mostrare che {v1 , . . . , vn } = V . Sia v ∈ V ; l’insieme {v, v1 , . . . , vn } `e dipendente, per ipotesi, da cui esiste una combinazione lineare: xv + x1 v1 + · · · + xn vn = 0,
(10.36)
con uno almeno tra i coefficienti x, x1 , . . . , xn diverso da zero. Non pu`o essere x = 0, altrimenti uno tra x1 , . . . , xn sarebbe diverso da zero e dalla (10.36) seguirebbe la dipendenza di B. Allora `e x = 0; con ovvi passaggi, dalla (10.36) segue allora che: v = −x1 x−1 v1 − · · · − xn x−1 vn ,
(10.37)
da cui v `e combinazione lineare di B. Da quanto detto segue che ogni vettore di V appartiene a {v1 , . . . , vn } e quindi che B genera V . Nel Capitolo 2 abbiamo dato la definizione di base di uno spazio vettoriale. Ora vogliamo giustificare il concetto di dimensione di uno spazio vettoriale. Ci occorre un lemma, detto, a volte, Lemma dello scambio di Steinitz. Lemma 10.4.6. (Lemma dello scambio di Steinitz) Se B = {v1 , . . . , vn } `e una base di uno spazio vettoriale V , allora, comunque presi n + 1 vettori w1 , . . . , wn+1 di V , essi risultano dipendenti.
10.4. BASI E DIMENSIONI
233
Dimostrazione. Se w1 , . . . , wn sono dipendenti, anche l’insieme w1 , . . . , wn+1 `e necesssariamente dipendente. Possiamo dunque supporre che w1 , . . . , wn siano indipendenti.
(10.38)
In particolare, essi sono tutti diversi da zero. Poich´e B `e una base di V , allora V = v1 , v2 , . . . , vn e quindi ciascuno dei vettori w1 , . . . , wn+1 si pu`o scrivere in un sol modo come combinazione lineare dei vettori v1 , . . . , vn (cfr. Proposizione 10.4.4): sia w1 = α 1 v 1 + α2 v 2 + · · · + α n v n . Almeno uno dei coefficienti αi sar` a diverso da zero, altrimenti w1 sarebbe nullo, il che `e escluso. Possiamo supporre (a meno di una ridenominazione dei vettori di B) che sia α1 = 0; con ovvi passaggi possiamo allora ricavare v1 : v1 = α1−1 (w1 − α2 v2 − · · · − αn vn ).
(10.39)
In ogni combinazione lineare che contiene v1 possiamo ora sostituire questa espressione e pertanto concludere che V = w1 , v2 , . . . , vn . In definitiva, abbiamo scambiato v1 con w1 . Ora possiamo ripetere l’argomentazione per w2 , che deve potersi esprimere come combinazione lineare dei nuovi generatori: w2 = β 1 w1 + β 2 v 2 + · · · + β n v n Non tutti i coefficienti β2 , . . . , βn possono essere nulli, altrimenti avremmo una relazione lineare tra i vettori w1 e w2 che invece sono supposti indipendenti. Possiamo assumere, senza ledere la generalit`a, che β2 = 0. Di nuovo possiamo dunque ricavarci v2 : v2 = β2−1 (w2 − β1 w1 − · · · − βn vn ) e dunque dedurre che V = w1 , w2 , . . . , vn Continuando in tal maniera, dopo n passi otterremo wn+1 come combinazione lineare degli altri wi , traendone la dipendenza lineare di w1 , w2 , . . . , wn+1 . Dalla proposizione precedente segue che: Proposizione 10.4.7. Se B = {v1 , . . . , vn } `e una base di uno spazio vettoriale V , e J `e un insieme contenente pi` u di n vettori di V , allora J `e dipendente. Possiamo infine dimostrare il seguente: Teorema 10.4.8. Se B = {v1 , . . . , vn } e B = {w1 , . . . , wm } sono due basi di uno spazio vettoriale V , allora n = m. Dimostrazione. Se fosse m > n, poich´e B `e una base di V , i vettori di B sarebbero dipendenti (cfr. Prop. 10.4.7) ed `e escluso che ci` o accada dato che B `e una base. Analoga contraddizione si otterrebbe da n > m. Ne segue n = m.
CAPITOLO 10. SPAZI VETTORIALI
234
Definizione 10.4.9. Se V `e uno spazio vettoriale dotato di una base B = {v1 , ..., vn }, diremo che V `e di dimensione finita n; la dimensione di uno spazio vettoriale V uguaglia cio`e la cardinalit` a di una (e quindi di ogni) base di V . La indicheremo con dim V . Dalla Proposizione 10.4.6 segue: Proposizione 10.4.10. La dimensione di uno spazio vettoriale V `e uguale al massimo numero di vettori indipendenti di V . Proposizione 10.4.11. (Teorema di completamento ad una base) Sia V uno spazio vettoriale di dimensione finita n. Preso comunque un insieme J costituito da m vettori indipendenti di V , esso risulta contenuto in (almeno) una base di V . Dimostrazione. Dalla Proposizione 10.4.7 segue necessariamente m ≤ n. Se `e m = n, allora J `e, per la Proposizione 10.4.7, un insieme massimale di vettori indipendenti, e quindi (cfr. Prop. 10.4.5) una base di V. Se invece `e m < n, allora J non `e un insieme massimale di vettori indipendenti (altrimenti esso sarebbe una base di V , costituita da m < n vettori, contro la Proposizione 10.4.8). Pertanto `e possibile aggregare a J un vettore in modo da ottenere un insieme J costituito da m + 1 vettori indipendenti. Se m + 1 = n, allora J risulta una base di V contenente J. a svolte per J Se invece `e m + 1 < n, possiamo ripetere per J le considerazioni gi` ed aggregare a J un vettore in modo da ottenere un insieme J costituito da m + 2 vettori indipendenti. Se m + 2 = n, allora J `e una base contenente J. Altrimenti, dopo un numero totale di n−m passi dello stesso tipo si riesce ad ottenere un insieme I costituito da n vettori indipendenti e contenente J. L’insieme I `e la base cercata. Proposizione 10.4.12. (Teorema di riduzione ad una base) Sia V uno spazio vettoriale di dimensione finita n. Se J `e un insieme costituito da m generatori di V , allora n ≤ m; inoltre J contiene necessariamente (almeno) una base di V . Dimostrazione. Sia I un insieme minimale di generatori contenuto in J. Allora, in forza della Proposizione 10.4.5, I `e una base per V contenuta in J. Pertanto I `e costituito da n vettori ed `e n ≤ m (poich´e I `e un sottoinsieme di J). La seguente proposizione `e ovvia conseguenza della 10.4.10. Proposizione 10.4.13. Se W `e un sottospazio di uno spazio vettoriale V di dimensione n, allora W ha dimensione m ≤ n. Esempio 10.4.14. Consideriamo il sottoinsieme J = {1 + x, 2 − x2 , x2 + 2x} dello spazio vettoriale V = P2 dei polinomi in x di grado minore o uguale a 2. Verifichiamo se J `e libero oppure no. Prendiamo una combinazione lineare a(1 + x) + b(2 − x2 ) + c(x2 + 2x) = 0 dove nel membro a destra si intende il polinomio nullo (non il numero 0). Semplifichiamo e ordiniamo (a + 2b) + (a + 2c)x + (c − b)x2 = 0
10.5. RELAZIONE DI GRASSMANN
235
Per ottenere il polinomio nullo, necessariamente si deve avere ⎧ ⎪ ⎨a + 2b = 0 a + 2c = 0 ⎪ ⎩ c−b=0 Questo sistema ha ∞1 soluzioni. Per esempio, (a, b, c) = (−2, 1, 1) ed infatti −2(1 + x) + (2 − x2 ) + (x2 + 2x) = 0 Quindi J non `e libero. Osserviamo che dim P2 = 3, perch`e `e facile verificare che {1, x, x2 } `e una base di P2 . Il sottospazio generato da J, J, `e dunque un sottospazio proprio di P2 . Ci possiamo domandare quale ne sia la dimensione. La Proposizione 10.4.12 ci garantisce che J contiene una base. La relazione −2(1 + x) + (2 − x2 ) + (x2 + 2x) = 0 pu` o essere riscritta come 1 1 (2 − x2 ) + (x2 + 2x) = (1 + x) 2 2 e quindi J = (2 − x2 ), (x2 + 2x). Si verifica facilmente che questi due vettori sono linearmente indipendenti e dunque dimJ = 2. Infine, pensando a {(2−x2 ), (x2 +2x)} come ad un sottoinsieme libero di P2 , il Teorema di completamento ad una base ci garantisce che possiamo trovare un terzo vettore, che unito a questi due, costituisce o fare in infiniti modi diversi ed il teorema non una base di P2 . Il completamento si pu` fornisce un algoritmo per tale completamento. Nel caso in esame tuttavia, si verifica facilmente che, aggregando il polinomio costante 1 ai due vettori di {(2 − x2 ), (x2 + 2x)}, si ottiene effettivamente una base. Esempio 10.4.15. Quali sono le dimensioni degli esempi di sottospazi della sezione precedente? Si pu`o verificare che esse sono come segue: per 10.3.12 `e 0, per 10.3.13 `e , per 10.3.15 `e 2 e, infine, per 10.3.16 `e 2. 3, per 10.3.14 `e n(n+1) 2
10.5
Relazione di Grassmann
Sia V uno spazio vettoriale. Se W1 e W2 sono due sottospazi di V , allora la loro intersezione insiemistica W1 ∩ W2 `e (cfr. Prop. 10.3.11) un sottospazio di V , che chiameremo intersezione di W1 e W2 . L’unione insiemistica di W1 e W2 non `e, invece, in generale, un sottospazio di V . Diremo sottospazio somma di W1 e W2 o congiuna nel gente W1 e W2 il sottospazio generato da W1 ∪ W2 . Tale sottospazio somma verr` seguito denotato con W1 + W2 . In altre parole abbiamo posto W1 + W2 = W1 ∪ W2 . Proviamo che: Proposizione 10.5.1. Se W1 e W2 sono due sottospazi di uno spazio vettoriale V , allora (10.40) W1 + W2 = {w1 + w2 : w1 ∈ W1 , w2 ∈ W2 }.
CAPITOLO 10. SPAZI VETTORIALI
236
Dimostrazione. Per definizione `e W1 + W2 = W1 ∪ W2 ; segue allora che la somma a delle combinazioni lineari di un numero finito di vettori di W1 e W2 `e la totalit` appartenenti a W1 ∪ W2 . Tra queste vi sono in particolare quelle del tipo w1 + w2 , con w1 ∈ W1 e w2 ∈ W2 . Si deduce che W1 + W2 ⊇ {w1 + w2 : w1 ∈ W1 , w2 ∈ W2 }.
(10.41)
D’altra parte, ogni vettore w in W1 + W2 , si pu` o scrivere come: w = x 1 u 1 + · · · + x h u h + y1 v 1 + · · · + y k v k ,
(10.42)
per opportuni vettori u1 , ..., uh ∈ W1 , v1 , ..., vk ∈ W2 , ed opportuni scalari x1 , ..., xh , y1 , . . . , yk ∈ K. Poich´e x1 u1 + · · · + xh uh ∈ W1 e y1 v1 + · · · + yk vk ∈ W2 , posto: w1 = x1 u 1 + · · · + xh u h ;
w 2 = y1 v 1 + · · · + yk v k ,
(10.43)
dalla (10.42) si trae : W1 + W2 ⊆ {w1 + w2 : w1 ∈ W1 , w2 ∈ W2 }.
(10.44)
Dalle (10.41) e (10.44) si deduce la (10.40). L’ultima proposizione giustifica il nome di somma per W1 + W2 . La proposizione che segue fornisce una notevole relazione tra le dimensioni dei sottospazi in esame. Proposizione 10.5.2. (Formula di Grassmann) Sia V uno spazio vettoriale di dimensione finita n. Se W1 e W2 sono due sottospazi di V , considerati il sottospazio somma W1 +W2 ed il sottospazio intersezione W1 ∩W2 , sussiste la seguente relazione: dim(W1 ) + dim(W2 ) = dim(W1 + W2 ) + dim(W1 ∩ W2 ).
(10.45)
Dimostrazione. Sia dim(W1 ) = h, dim(W2 ) = k, dim(W1 + W2 ) = c, dim(W1 ∩ W2 ) = i. Fissiamo una base Bi = {v1 , . . . , vi } per W1 ∩ W2 . I vettori indipendenti v1 , . . . , vi di W1 ∩ W2 appartengono anche a W1 ; in forza della Proposizione 10.4.11 esistono allora h − i vettori vi+1 , . . . , vh tali che l’insieme Bh = {v1 , . . . , vh } sia una base per il sottospazio W1 . Con analoghe considerazioni `e possibile provare che esistono k − i vettori w1 , . . . , wk−i tali che l’insieme Bk = {v1 , . . . , vi , w1 , . . . , wk−i } sia una base per W2 . Proviamo ora che l’insieme Bh+k−i = {v1 , . . . , vh , w1 , . . . , wk−i } `e un insieme di generatori per W1 + W2 . Sia w ∈ W1 + W2 . In forza della proposizione precedente esistono w1 ∈ W1 , w2 ∈ W2 tali che: w = w1 + w2 .
(10.46)
Poich´e w1 ∈ W1 , allora esistono scalari a1 , . . . , ah tali che: w1 = a1 v 1 + · · · + ah vh .
(10.47)
10.5. RELAZIONE DI GRASSMANN
237
Poich´e w2 ∈ W2 , allora esistono scalari b1 , . . . , bi , c1 , . . . , ck−i tali che: w2 = b1 v1 + · · · + bi vi + c1 w1 + · · · + ck−i wk−i .
(10.48)
Dalle (10.46), (10.47) ed (10.48) si trae: w = a1 v1 + · · · + ah vh + b1 v1 + · · · + bi vi + c1 w1 + · · · + ck−i wk−i ,
(10.49)
da cui si deduce che w `e combinazione lineare dei vettori v1 , . . . , vh , w1 , . . . , wk−i , donde Bh+k−i `e un insieme di generatori per W1 + W2 . Proviamo ora che Bh+k−i `e indipendente. Sia: x1 v1 + · · · + xi vi + xi+1 vi+1 + · · · + xh vh + z1 w1 + · · · + zk−i wk−i = 0. (10.50) Da essa segue: x1 v1 + · · · + xi vi + xi+1 vi+1 + · · · + xh vh = −z1 w1 − · · · − zk−i wk−i .
(10.51)
Indichiamo con u il vettore espresso in due modi diversi dai due membri della 10.51. Il vettore u, in quanto combinazione lineare di v1 , . . . , vh , appartiene a W1 , mentre, come combinazione lineare di w1 ,. . ., wk−i , appartiene anche a W2 . Si deduce quindi che u ∈ W1 ∩ W2 , quindi della forma: u = y1 v 1 + · · · + yi v i .
(10.52)
Utilizzando l’espressione a secondo membro della 10.51, segue: y1 v1 + · · · + yi vi = −z1 w1 − · · · − zk−i wk−i ,
(10.53)
y1 v1 + · · · + yi vi + z1 w1 + · · · + zk−i wk−i = 0.
(10.54)
da cui si trae: Essendo Bk = {v1 , . . . , vi , w1 , . . . , wk−i } una base per W2 , e quindi costituita da vettori indipendenti, segue che: y1 = · · · = yi = z1 = · · · = zk−i = 0.
(10.55)
Sostituendo nella (10.50) z1 = · · · = zk−i = 0, si ottiene la: x1 v1 + · · · + xi vi + xi+1 vi+1 + · · · + xh vh = 0.
(10.56)
Da questa, essendo Bh = {v1 , . . . , vh } una base per W1 , e quindi costituita da vettori indipendenti, segue che: x1 = · · · = xh = 0. (10.57) Dalle (10.55) e (10.57) segue che x1 = · · · = xh = z1 = · · · = zk−i = 0. Pertanto a che Bh+k−i genera W1 + W2 , deduciamo Bh+k−i `e indipendente. Poich´e sappiamo gi` che Bh+k−i `e una base per W1 + W2 , da cui la dimensione c di W1 + W2 risulta uguale ad h + k − i, cio`e c = h + k − i.
CAPITOLO 10. SPAZI VETTORIALI
238
Definizione 10.5.3. Se W1 e W2 sono due sottospazi dello spazio vettoriale V , diremo che la somma di W1 e W2 `e diretta se ogni elemento di W1 + W2 si scrive in un sol modo come somma di un vettore di W1 e di un vettore di W2 ; in tal caso la somma a denotata con il simbolo W1 ⊕ W2 . di W1 e W2 sar` Abbiamo la seguente caratterizzazione della somma diretta di due sottospazi: Proposizione 10.5.4. Se W1 e W2 sono due sottospazi di uno spazio vettoriale V , allora la loro somma W1 + W2 `e diretta se e solo se risulta W1 ∩ W2 = {0}. Dimostrazione. Poniamo dapprima che sia: W1 ∩ W2 = {0}.
(10.58)
In tal caso, se w ∈ W1 + W2 , supponiamo che esistano w1 , w1 ∈ W1 e w2 , w2 ∈ W2 , tali che: (10.59) w = w 1 + w2 , w = w1 + w2 .
(10.60)
Sottraendo membro a membro la (10.59) dalla (10.60), otteniamo:
da cui segue:
0 = w1 − w1 + w2 − w2 ,
(10.61)
w1 − w1 = w2 − w2 .
(10.62)
Poich´e il vettore a primo membro della (10.62) appartiene a W1 ed il vettore a secondo membro di tale uguaglianza appartiene a W2 , segue che: w1 − w1 = w2 − w2 ∈ W1 ∩ W2 = {0}. w1
w2
w1 ,
(10.63) w2 .
= − w2 = 0, da cui w1 = w2 = Ne segue che il Pertanto `e w1 − vettore w si scrive in un sol modo come somma di un vettore di W1 e di un vettore di W2 , da cui la somma W1 + W2 `e diretta. Supponiamo ora che sia: W1 + W 2 = W 1 ⊕ W 2 .
(10.64)
Proviamo che allora sussiste la (10.58). A tal fine, procediamo per assurdo e supponiamo che: 0. (10.65) ∃w ∈ W1 ∩ W2 : w = Essendo W1 ∩ W2 un sottospazio, anche −w ∈ W1 ∩ W2 . Ne segue che sia w che −w appartengono a entrambi i sottospazi W1 , W2 . Si ha allora: 0 = w + (−w),
con w ∈ W1 , −w ∈ W2 ,
(10.66)
ed anche: 0 = 0 + 0,
con 0 ∈ W1 , 0 ∈ W2 .
(10.67)
Pertanto, il vettore nullo si scrive in due distinti modi come somma di un vettore di W1 e di un vettore di W2 . La somma W1 + W2 non `e allora diretta, contro l’assunto (10.64). Siamo cos`ı pervenuti ad una contraddizione dalla quale segue l’asserto.
10.5. RELAZIONE DI GRASSMANN
239
Le definizioni di somma e di somma diretta date per due sottospazi sono generalizzate al caso di pi` u sottospazi mediante le seguenti definizioni: Definizione 10.5.5. Se U1 , . . . , Un sono sottospazi di V si definisce la somma di n ` facile verificare ui |ui ∈ Ui }. E sottospazi, denotandola con U1 +· · ·+Un , l’insieme { i=1
u piccolo sottospazio di V che che U1 + · · · + Un `e un sottospazio di V e che `e il pi` contiene tutti i sottospazi Ui . Definizione 10.5.6. Uno spazio V si dice somma diretta dei sottospazi U1 , . . . , Un se ogni vettore v ∈ V si esprime in maniera unica nella forma v = u1 + . . . + un , con n ) Ui . ui ∈ Ui . Si scrive allora V = i=1
In modo analogo alla Proposizione 10.5.4 si dimostra la seguente: Proposizione 10.5.7. V `e somma diretta dei sottospazi U1 , . . . , Un se e solo se n Ui e Uj ∩ Ui = {0}, per ogni j = 1, . . . , n. V = i=1
i =j
Definizione 10.5.8. Se V ha dimensione finita, allora per ogni sottospazio U1 di V esiste un altro sottospazio U2 di V , detto il supplementare di U1 , tale che V = U1 ⊕U2 . In generale il supplementare non `e unico. Esempio 10.5.9. Siano assegnati in R3 i sottospazi: W1 = {(0, y, z) : x, y ∈ R}, W2 = {(h, −h, k) : h, k ∈ R}. W1 `e generato dai vettori indipendenti w1 = (0, 1, 0) e w2 = (0, 0, 1); pertanto la dimensione di W1 `e uguale a 2. Il sottospazio W2 , essendo generato dai vettori indipendenti w2 = (0, 0, 1) e w3 = (1, −1, 0), ha parimenti dimensione uguale a 2; {0}, la somma W1 + W2 non `e dato che W1 ∩ W2 = {(0, 0, z) : z ∈ R} = {(0, 0, 1)} = diretta. Poich´e la dimensione di W1 e quella di W2 sono entrambe uguali a 2 e quella di W1 ∩ W2 `e uguale a 1, la dimensione di W1 + W2 `e necessariamente uguale a 3 (in forza della relazione di Grassmann), da cui il sottospazio tridimensionale W1 + W2 di R3 coincide con R3 . Esempio 10.5.10. Assegnato il sottospazio W3 = {(x, 0, 0) : x ∈ R}, risulta W3 = {(1, 0, 0)}; W3 ha quindi dimensione 1, l’intersezione W1 ∩ W3 = {(0, 0, 0)} = {0}, la somma W1 + W3 `e diretta e coincide con R3 . Esempio 10.5.11. Siano u1 = (1, 2, −1, 3), u2 = (1, −1, −2, 0), u3 = (−2, 3, 3, 1), u4 = (3, 4, 0, 7), u5 = (2, 1, 1, 3) vettori di R4 . Sia W1 = u1 , u2 , u3 e W2 = u4 , u5 . Calcolare dim W1 , dim W2 , dim(W1 ∩ W2 ), dim(W1 + W2 ). Dire se la somma `e diretta. Per W1 basta andare a studiare la matrice ⎛ ⎞ 1 2 −1 3 ⎝ 1 −1 −2 0⎠ −2 3 3 1 che ha rango 3, da cui dim W1 = 3. Per W2 la 3 4 0 2 1 1
matrice `e 7 3
CAPITOLO 10. SPAZI VETTORIALI
240
che ha rango 2 e quindi dim W2 = 2. Essendo lo 5 vettori, la matrice da studiare `e ⎛ 1 2 −1 ⎜ 1 −1 −2 ⎜ ⎜−2 3 3 ⎜ ⎝3 4 0 2 1 1 Essa ha rango 3. Una forma a gradini ⎛ 1 ⎜0 ⎜ ⎜0 ⎜ ⎝0 0
spazio W1 + W2 generato da tutti i ⎞ 3 0⎟ ⎟ 1⎟ ⎟. 7⎠ 3
`e 2 −1 1 13 0 1 0 0 0 0
⎞ 3 1⎟ ⎟ 0⎟ ⎟ 0⎠ 0
e quindi una base `e data dalle prime tre righe di questa matrice. Per quanto riguarda lo spazio intersezione W1 ∩ W2 , dalla formula di Grassmann abbiamo dim W1 + dim W2 = dim(W1 ∩ W2 ) + dim(W1 + W2 ) cio`e 3 + 2 = dim(W1 ∩ W2 ) + 3 da cui deduciamo che dim(W1 ∩ W2 ) = 2; pertanto la somma non `e diretta perch´e l’intersezione non `e zero. Dato che W1 ∩ W2 ⊂ W2 ed essendo W1 ∩ W2 e W2 della stessa dimensione, ne segue che W1 ∩ W2 = W2 ossia che W2 `e contenuto in W1 . Illustriamo anche come si possano ottenere le equazioni cartesiane di un sottospazio vettoriale con metodo gi` a utilizzato per le equazioni delle rette e dei piani nei capitoli precedenti, determinando equazioni per W2 . Esse si trovano imponendo che la matrice ⎛ ⎞ 3 4 0 7 ⎝2 1 1 3⎠ x1 x2 x3 x4 abbia ancora rango 2. Questo si pu`o esprimere, per esempio, osservando che il minore 4 0 `e non nullo e quindi, per il Teorema degli orlati, si richiede che 1 1 4 3 0 7 4 0 1 2 1 3 = 0 1 1 = 0 x 2 x 3 x 4 x 1 x 2 x 3 cio`e
4x1 − 3x2 − 5x3 = 0 7x2 + 5x3 − 4x4 = 0
equazioni cartesiane del sottospazio. Si tratta di un piano (cio`e un sottospazio di dimensione 2) contenuto in uno spazio di dimensione 4.
Capitolo 11
MATRICI E APPLICAZIONI LINEARI 11.1
Applicazioni lineari in V2
In questo capitolo vedremo come le matrici possano essere interpretate come trasformazioni di uno spazio vettoriale. In questo primo paragrafo guarderemo da vicino il caso delle trasformazioni del piano che sono geometricamente pi` u facili da visualizzare. Definizione 11.1.1. Dati due spazi vettoriali V e W , un’applicazione T : V → W si dice applicazione lineare o trasformazione lineare o anche omomorfismo se soddisfa le due propriet`a seguenti 1. T (v + w) = T (v) + T (w) 2. T (αv) = αT (v) Tali condizioni si riassumono nella singola T (αv +βw) = αT (v)+βT (w). Se V = W , parleremo anche di operatore lineare o endomorfismo. Se consideriamo una fissata matrice A ∈ M (m × n, R), possiamo definire un’applicazione lineare da Rn a Rm tramite la moltiplicazione di matrici: Definizione 11.1.2. L’applicazione TA : Rn → Rm , che ad ogni vettore v ∈ Rn associa il vettore TA (v) = Av ∈ Rm , `e detta applicazione lineare associata ad A. Il fatto che una tale applicazione sia lineare `e una conseguenza immediata delle propriet`a della moltiplicazione tra matrici. Vedremo successivamente che ogni trasformazione lineare pu` o essere sostanzialmente ottenuta in questa maniera. 1 2 3 Esempio 11.1.3. Assegnata A = , matrice 2 × 3, l’applicazione lineare 4 5 6 associata TA : R3 → R2 , `e definita da ⎛ ⎞ x 1 2 3 x + 2y + 3z T ⎝ ⎠ y = . (x, y, z) !→ 4 5 6 4x + 5y + 6z z
CAPITOLO 11. MATRICI E APPLICAZIONI LINEARI
242
Osservazione 11.1.4. Moltiplicando una matrice A di ordine m × n per il vettore colonna n × 1 Ei = (0, 0, . . . , 1, 0, . . . , 0)T (i-esima colonna della matrice identit`a), si ottiene proprio la i-esima colonna della matrice A. Nell’esempio appena visto abbiamo infatti ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 0 0 1 2 3 ⎝ ⎠ 1 1 2 3 ⎝ ⎠ 2 1 2 3 ⎝ ⎠ 3 0 = 1 = 0 = . 4 5 6 4 4 5 6 5 4 5 6 6 0 0 1 Prima di studiare le applicazioni lineari in generale, vogliamo dare alcuni esempi geometricamente significativi di trasformazioni lineari in V2 (pensato come “modello” −−→ − di R2 , cfr. Osservazione 5.5.3). Identifichiamo quindi ogni vettore → v = OP ∈ V2 con x la colonna delle coordinate di P rispetto al fissato riferimento RC(O i j). y Rotazioni
−−→ − u = OP di un Consideriamo la funzione Rθ : V2 −→ V2 che ruota ogni vettore → −−→ −−→ angolo θ in senso antiorario intorno a O. Poniamo Rθ (OP ) = OP . Per determinare − la trasformazione, `e sufficiente calcolare l’immagine di un versore → v = (x, y)T = T (cos α, sin α) .
→ − − Essendo α l’angolo i → u , le coordinate di P sono date da: cos(α + θ) cos α cos θ − sin α sin θ x cos θ − y sin θ = = . sin(α + θ) sin α cos θ + cos α sin θ y cos θ + x sin θ Risulta dunque Rθ
x cos θ = y sin θ
− sin θ cos θ
x . y
Tale formula si estende immediatamente anche a vettori di lunghezza non unitaria. Diremo che la rotazione Rθ `e una trasformazione lineare associata alla matrice → − → − cos θ − sin θ A = (mediante la base ( i , j )). Osserviamo che tale matrice `e sin θ cos θ ortogonale con determinante eguale a 1. Proiezioni ortogonali Sia assegnata una retta r per l’origine di equazioni parametriche x = t, y = mt. −−→ − Consideriamo la trasformazione Pr di V2 che associa ad ogni vettore → v = OP la sua − proiezione → vr sulla retta r.
11.1. APPLICAZIONI LINEARI IN V2
Abbiamo: 2 x + ym
1 x
− − − − Pr v ·→ r )→ r = 2 =→ vr = (→ = y
+ m2 m
2 + m2 m
243
m m2
x . y
Ne discende chela proiezione `e una trasformazione lineare associata alla matrice 2 2 +m2 m 2 +m2
m 2 +m2 m2 2 +m2
. La proiezione `e manifestamente una funzione non biunivoca. Si
pu`o verificare che il determinante della matrice associata `e nullo. Riflessioni Consideriamo la riflessione Sr rispetto ad una retta r per l’origine di equazioni pa−−→ − rametriche x = t, y = mt. Essa associa ad ogni vettore → v = OP il suo simmetrico − Sr ( → v ) rispetto alla retta r.
− − − − − − Si ha → u + Sr ( → u ) = 2Pr (→ u ), da cui Sr (→ u ) = 2Pr (→ u)−→ u . Ne segue: 2 2 −m2 2m 2 x
m x
x 2 +m2 2 +m2 → − − = Sr ( u ) = 2 . 2 2 2 2m m − 2 y
m m y y
+m 2 +m2 2 +m2
CAPITOLO 11. MATRICI E APPLICAZIONI LINEARI
244
Ne discende che la riflessione Sr `e una trasformazione lineare associata alla matrice
2 −m2 2 +m2 2m 2 +m2
2m 2 +m2 m2 −2 2 +m2
, ortogonale con determinante −1.
Si dimostra che ogni matrice ortogonale 2 × 2 con determinante 1, rispettivamente −1, `e del tipo: cos θ − sin θ cos θ sin θ , rispettivamente . sin θ cos θ sin θ − cos θ La prima `e associata alla rotazione Rθ , la seconda `e relativa alla riflessione Sr , θ dove r `e la retta per l’origine che forma con l’asse x l’angolo (valutato ruotando in 2 senso antiorario dall’asse x alla retta r).
11.2
Applicazioni lineari: prime propriet` a
Siano V e W due spazi vettoriali costruiti sul medesimo campo K e L : V −→ W una applicazione lineare. Proposizione 11.2.1. Denotati con 0V e 0W il vettore nullo di V e W rispettivamente, si ha: (11.1) L(0V ) = 0W . Dimostrazione. Dalla linearit` a di L segue che, comunque scelto v ∈ V , si ha: L(0V ) = L(0v) = 0L(v) = 0W .
(11.2)
Assegnati tre spazi vettoriali V , W e U sul medesimo campo K, siano L : V −→ W ` allora e M : W −→ U applicazioni lineari di V in W e di W in U , rispettivamente. E individuata l’applicazione composta M L : V −→ U , detta anche prodotto di L ed M , definita nel modo seguente (cfr. 1.4.1): M L(v) = M (L(v)),
∀v ∈ V.
(11.3)
Il prodotto, o composizione, di due applicazioni lineari `e ancora lineare: Proposizione 11.2.2. Se L : V −→ W ed M : W −→ U sono applicazioni lineari, allora l’applicazione prodotto M L : V −→ U risulta anch’essa lineare. Dimostrazione. Siano v, v ∈ V e k, k ∈ K; allora `e: M L(kv + k v ) = M (L(kv + k v )) = M (kL(v) + k L(v )) per la linearit` a di L = kM (L(v)) + k M (L(v )) per la linearit` a di M = kM L(v) + k M L(v ) per la (11.3) .
(11.4)
11.3. NUCLEO E IMMAGINE
245
Abbiamo cos`ı provato che: M L(kv + k v ) = kM L(v) + k M L(v ), ∀v, v ∈ V, ∀k, k ∈ K.
(11.5)
ovvero la linearit` a di M L. Definizione 11.2.3. Sia L un’applicazione lineare dello spazio vettoriale V nello spazio vettoriale W . Se L `e iniettiva, diremo che `e un monomorfismo. Se L `e suriettiva, diremo che `e un epimorfismo. Se, infine, L risulta biiettiva, diremo che L `e un isomorfismo. Se poi i due spazi vettoriali coincidono, cio`e se V = W , diremo che L `e un endomorfismo o un operatore. Un endomorfismo L che sia anche un isomorfismo `e detto un automorfismo. Esempi 11.2.4. Siano V e W due spazi vettoriali sul medesimo campo K. Se 0W `e il vettore nullo di W , l’applicazione N : V −→ W che associa ad ogni vettore di V il vettore 0W di W `e un’applicazione lineare che diremo applicazione nulla. Se V `e uno spazio vettoriale, l’applicazione identica IV : V −→ V (cfr. §1.4) a facilmente. definita da IV (v) = v, `e un automorfismo di V , come il lettore verificher` ` Si consideri l’applicazione L : R3 −→ R2 cos`ı definita: L((x, y, z)) = (x + y, z). E immediato verificare che L `e un epimorfismo. La rotazione e la riflessione del paragrafo precedente sono automorfismi. La proiezione ortogonale invece `e un endomorfismo, ma non `e invertibile.
11.3
Nucleo e immagine
Sia L : V −→ W un’applicazione lineare. Rimane individuato il sottoinsieme ImL di W (cfr. §1.4): ImL = {w ∈ W : ∃v ∈ V, L(v) = w}. (11.6) Proposizione 11.3.1. Se L : V −→ W `e un’applicazione lineare da V in W , allora il sottoinsieme immagine di L `e un sottospazio di W, cio`e: ImL ≤ W. Dimostrazione. Si tratta di provare che ImL `e chiuso rispetto alle operazioni di somma di vettori e di prodotto per uno scalare. Dalla Proposizione 11.2.1 segue che il vettore nullo di W appartiene ad ImL, che `e quindi non vuoto. Siano ora w1 , w2 ∈ ImL e k1 , k2 ∈ K. Allora esistono v1 , v2 ∈ V tali che L(v1 ) = w1 , L(v2 ) = w2 . Essendo L lineare, si ha: (11.7) L(k1 v1 + k2 v2 ) = k1 L(v1 ) + k2 L(v2 ), da cui k1 w1 + k2 w2 ∈ ImL, e pertanto ImL `e chiuso rispetto alle due operazioni. Se L : V −→ W `e un’applicazione lineare, denotato con 0W il vettore nullo di W , resta individuato il seguente sottoinsieme di V : KerL = {v ∈ V : L(v) = 0W }.
(11.8)
Evidentemente `e (cfr. §1.4): KerL = L−1 (0W ); diremo nucleo di L l’insieme KerL. Proviamo ora che esso `e un sottospazio di V :
246
CAPITOLO 11. MATRICI E APPLICAZIONI LINEARI
Proposizione 11.3.2. Se L : V −→ W `e un’applicazione lineare da V in W , allora il nucleo di L `e un sottospazio di V , cio`e: KerL ≤ V.
(11.9)
Dimostrazione. Come nella proposizione precedente si tratta di provare che KerL `e chiuso rispetto alle operazioni. Dalla Proposizione 11.2.1 segue che il vettore nullo di V appartiene a KerL, che `e quindi non vuoto. Siano ora v1 , v2 ∈ KerL e k1 , k2 ∈ K. Allora L(v1 ) = L(v2 ) = 0W . Inoltre `e: L(k1 v1 + k2 v2 ) = k1 L(v1 ) + k2 L(v2 ) = k1 0W + k2 0W = 0W .
(11.10)
Pertanto k1 v1 + k2 v2 ∈ KerL, come desiderato. Ricordiamo che, per definizione di suriettivit` a, un epimorfismo L : V −→ W `e caratterizzato da una condizione sull’immagine, cio`e da ImL = W . ` possibile dare invece una caratterizzazione dei monomorfismi tramite una conE dizione sul nucleo. Precisamente: Proposizione 11.3.3. Se L : V −→ W `e un’applicazione lineare da V in W , allora L `e un monomorfismo se e solo se KerL = {0V }. Dimostrazione. Essendo L un monomorfismo, cio`e un’applicazione lineare iniettiva, allora l’unico vettore di V la cui immagine in L `e il vettore nullo 0W di W `e necessariamente il vettore nullo 0V di V , da cui: L `e un monomorfismo =⇒ KerL = {0V }.
(11.11)
Al fine di provare che nella (11.11) vale anche l’implicazione in verso opposto, a di L, osserviamo che, se KerL = {0V }, posto L(v) = L(v ), segue, per la linearit` che L(v − v ) = 0W , da cui v − v ∈ KerL, cio`e v − v = 0V . Ne discende che v = v e quindi la iniettivit`a di L. Pertanto, abbiamo visto che: KerL = {0V } =⇒ L `e un monomorfismo.
(11.12)
Dalle caratterizzazioni ottenute degli epimorfismi e dei monomorfismi segue: Proposizione 11.3.4. L `e un isomorfismo se e solo se ImL = W e KerL = {0V }. Proviamo ora che la dipendenza lineare viene “trasmessa” attraverso un’applicazione lineare: Proposizione 11.3.5. Se L : V −→ W `e un’applicazione lineare da V in W , allora le immagini in L di vettori dipendenti di V sono vettori dipendenti di W . Dimostrazione. Siano v1 , . . . , vm m vettori dipendenti di V . Esistono allora m scalari non tutti nulli x1 , . . . , xm tali che: x 1 v 1 + · · · + x m v m = 0V ,
(11.13)
11.3. NUCLEO E IMMAGINE
247
da cui: L(x1 v1 + · · · + xm vm ) = L(0V ).
(11.14)
Da essa, per la linearit` a di L e per 11.2.1, discende: x1 L(v1 ) + · · · + xm L(vm ) = 0W .
(11.15)
Poich´e uno almeno tra gli scalari x1 , . . . , xm `e diverso da zero, dalla (11.15) segue la dipendenza lineare dei vettori L(v1 ), . . . , L(vm ) di W . ` facile vedere che in generale l’indipendenza lineare non viene mantenuta traE mite un’applicazione lineare (si pensi per esempio ad un’applicazione nulla). Per i monomorfismi invece questo avviene: Proposizione 11.3.6. Sia L : V −→ W un monomorfismo. Se v1 , . . . , vm sono vettori indipendenti di V , allora le loro immagini L(v1 ), . . . , L(vm ) sono indipendenti. Dimostrazione. Supponiamo per assurdo che L(v1 ), . . . , L(vm ) siano dipendenti. Esistono allora m scalari non tutti nulli x1 , . . . , xm tali che: x1 L(v1 ) + · · · + xm L(vm ) = 0W .
(11.16)
Da questa, a causa della linearit` a, segue che: L(x1 v1 + · · · + xm vm ) = 0W .
(11.17)
Se ne deduce che x1 v1 + · · · + xm vm ∈ KerL. Essendo L un monomorfismo, dalla Proposizione 11.3.4 segue che KerL si riduce al vettore nullo 0V di V , da cui `e: x 1 v 1 + · · · + x m v m = 0V .
(11.18)
Poich´e uno almeno tra gli scalari x1 , . . . , xm `e diverso da zero, dalla (11.18) discende la dipendenza lineare dei vettori v1 , . . . , vm di V , contro l’ipotesi. Dalla proposizione precedente e dalla 10.4.10 discende: Proposizione 11.3.7. Sia L : V −→ W un isomorfismo. Se v1 , . . . , vm sono m vettori di V , essi sono indipendenti se e solo se tali risultano le loro immagini in L. Ne segue che L e la sua inversa L−1 conservano la dipendenza e la indipendenza lineare e che dim(V ) = n se e solo se dim(W ) = n. Per il caso di un’applicazione lineare L da uno spazio vettoriale V di dimensione finita n in uno spazio W , proviamo ora che: Teorema 11.3.8. (Teorema delle dimensioni) Assegnata un’applicazione lineare L : V −→ W , se V `e di dimensione finita n, le dimensioni di KerL e di ImL risultano anch’esse finite. Inoltre: dim KerL + dim ImL = n. (11.19)
248
CAPITOLO 11. MATRICI E APPLICAZIONI LINEARI
Dimostrazione. Poich´e V `e di dimensione finita n, dalla Proposizione 10.4.10 segue che il massimo numero di vettori indipendenti di V `e n. Pertanto non `e possibile trovare pi` u di n vettori indipendenti anche in ogni sottospazio di V e quindi in particolare in KerL. Ci` o implica che la dimensione di KerL `e finita. Dalla Proposizione 11.3.5 segue che, comunque presi n + 1 vettori di ImL, essi sono dipendenti, da cui anche la dimensione di ImL `e non superiore ad n ed `e dunque finita. Poniamo dim(KerL) = m, dim(ImL) = p. Siano ora {v1 , . . . , vm } una base per KerL e {L(u1 ), . . . , L(up )} una base per ImL. Vogliamo dimostrare che {v1 , . . . , vm , u1 , . . . , up } `e una base per V , il che implica la conclusione. Mostriamo che questi vettori generano V . Assegnato v ∈ V , consideriamo L(v) ∈ ImL. Essendo L(v) combinazione lineare dei vettori di {L(u1 ), . . . , L(up )}, cio`e L(v) = a1 L(u1 ) + · · · + ap L(up ), si ha L(v − a1 u1 − · · · − ap up ) = 0. Ci` o significa che v − a1 u1 − · · · − ap up ∈ KerL e quindi si scrive come combinazione lineare dei vettori della base di KerL: v − a 1 u 1 − · · · − a p u p = b1 v 1 + · · · + bm v m da cui segue v = a 1 u 1 + · · · + a p u p + b1 v 1 + · · · + b m v m , ossia V = v1 , . . . , vm , u1 , . . . , up . Dimostriamo ora che v1 , . . . , vm , u1 , . . . , up sono linearmente indipendenti. Consideriamo (11.20) a 1 u 1 + · · · + a p u p + b1 v 1 + · · · + bm v m = 0 ed applichiamo ad ambo i membri l’applicazione L: L(a1 u1 + · · · + ap up + b1 v1 + · · · + bm vm ) = 0 L(a1 u1 + · · · + ap up ) = 0 a1 L(u1 ) + · · · + ap L(up ) = 0 in quanto i vettori {v1 , . . . , vm } sono nel nucleo di L. Ora l’ultima eguaglianza fornisce una combinazione lineare dei vettori di una base di ImL uguale a zero. Ne segue, per l’indipendenza, che a1 = · · · = ap = 0. Ma allora la (11.20) diventa b1 v 1 + · · · + b m v m = 0
(11.21)
e l’indipendenza di v1 , . . . , vm implica b1 = · · · = bm = 0, come richiesto. Corollario 11.3.9. Se V `e uno spazio vettoriale di dimensione finita n ed L un suo endomorfismo allora L `e iniettiva ⇐⇒ L `e suriettiva. Dimostrazione. Se L `e iniettiva allora dim(KerL) = 0. Dalla (11.19) segue quindi dim(ImL) = n, ovvero L `e suriettiva. Viceversa se L `e suriettiva allora dim(ImL) = n. Dalla (11.19) segue dim(KerL) = 0, cio`e L `e iniettiva.
11.3. NUCLEO E IMMAGINE
249
La seguente proposizione permette di determinare un insieme di generatori per l’immagine di una applicazione lineare: Proposizione 11.3.10. Assegnata un’applicazione lineare L : V −→ W , sia B = {v1 , . . . , vn } una base di V . Allora, gli n vettori L(v1 ), . . . , L(vn ) di W generano ImL. Dimostrazione. Dato w ∈ ImL, esiste un vettore v ∈ V tale che L(v) = w. Poich´e B `e una base per V , il vettore v si scrive in un solo modo come combinazione lineare dei vettori di B. Sia quindi v = x1 v1 + · · · + xn vn ; allora risulta w = L(v) = L(x1 v1 + · · · + xn vn ) = x1 L(v1 ) + · · · + xn L(vn ). Pertanto, il vettore w appartiene al sottospazio {L(v1 ), . . . , L(vn )}, da cui ImL = {L(v1 ), . . . , L(vn )}. Osserviamo che i vettori L(v1 ), . . . , L(vn ), di cui alla proposizione precedente, in generale non costituiscono una base per ImL poich´e possono risultare dipendenti. Mostriamo ora come una applicazione lineare sia completamente determinata dalle immagini dei vettori di una base del primo spazio: Proposizione 11.3.11. Assegnate due applicazioni lineari L : V −→ W , M : V −→ W , sia B = {v1 , . . . , vn } una base di V . Le applicazioni L ed M coincidono se e solo se esse agiscono allo stesso modo sui vettori di B, cio`e: L = M ⇐⇒ L(vi ) = M (vi ),
∀i = 1, . . . , n.
(11.22)
Inoltre, se w1 , . . . , wn sono n vettori di W , esiste ed `e unica l’applicazione lineare N : V −→ W , tale che: (11.23) N (vi ) = wi , ∀i = 1, . . . , n. Dimostrazione. Se L = M , allora `e L(v) = M (v), ∀v ∈ V . Pertanto, in particolare, risulta: L(vi ) = M (vi ),
∀i = 1, . . . , n.
(11.24)
Se invece `e verificata la (11.24), sia v ∈ V ; poich´e B `e una base per V , il vettore v individua univocamente le sue coordinate x1 , . . . , xn , valutate rispetto a B, da cui `e: v = x1 v 1 + · · · + xn v n .
(11.25)
Da questa segue che: L(v) = L(x1 v1 + · · · + xn vn ) = x1 L(v1 ) + · · · + xn L(vn ) per la linearit`a di L = x1 M (v1 ) + · · · + xn M (vn ) per la 11.24
(11.26)
= M (x1 v1 + · · · + xn vn ) = M (v) per la linearit`a di M . Pertanto, la (11.24) implica L(v) = M (v), ∀v ∈ V . Per dimostrare la seconda parte dell’asserto, basta osservare che l’applicazione N : V −→ W , tale che N (x1 v1 +· · ·+xn vn ) = x1 w1 +· · ·+xn wn `e lineare (come `e facile verificare). Dalla prima parte dell’asserto segue poi che essa `e l’unica applicazione lineare da V in W che verifichi la (11.23).
250
CAPITOLO 11. MATRICI E APPLICAZIONI LINEARI
Osservazione 11.3.12. Nel caso di un’applicazione lineare determinata da una matrice, il nucleo e l’immagine dell’applicazione coincidono con alcuni insiemi gi` a studiati in precedenza, come vediamo nei seguenti esempi. 1 2 3 Esempio 11.3.13. Assegnata A = , consideriamo l’applicazione lineare 4 5 6 associata TA : R3 → R2 definita da ⎛ ⎞ ⎛ ⎞ x x 1 2 3 x + 2y + 3z ⎝ ⎠ ⎝ ⎠ y = TA y = 4 5 6 4x + 5y + 6z z z Determiniamo il nucleo di e l’immagine di TA⎛ . ⎞ ⎛ ⎞ x x 0 3 ⎝ ⎠ ⎝ ⎠ } Per definizione, ker TA = { y ∈ R | TA y = 0 z z In altre parole il nucleo dell’applicazione TA coincide con l’insieme delle soluzioni del sistema lineare omogeneo che ha A come matrice dei coefficienti. Denoteremo questo insieme con null(A) e lo chiameremo annullatore di A. Per quanto riguarda l’immagine di TA , ragioniamo⎛come ⎞ segue. x b b Per definizione, ImTA = { 1 ∈ R2 | 1 = TA ⎝y ⎠}. in altre parole, l’immab2 b2 z gine di TA `e l’insieme dei vettori B di R2 per cui il sistema AX = B, cio`e x + 2y + 3z = b1 4x + 5y + 6z = b2 risulta compatibile. Scrivendo la matrice A a blocchi per colonne A = (C1 , C2 , C3 ), il sistema si pu` o scrivere come xC1 + yC2 + zC3 = B. In altre parole, B ∈ ImTA se e solo se B ∈ C(A), ossia l’immagine di TA coincide con lo spazio delle colonne di A. Si pu` o dimostrare in generale che Proposizione 11.3.14. Per una applicazione lineare TA indotta da una matrice A, il nucleo coincide con null(A), insieme delle soluzioni del SLO di matrice A, mentre l’immagine di TA coincide con C(A), spazio delle colonne di A. Ne segue immediatamente Corollario 11.3.15. Il rango della matrice A `e uguale alla dimensione di ImTA . Esempio 11.3.16. Calcolare il nucleo e R4 a R3 indotta dalla matrice ⎛ −5 A = ⎝−2 −7
l’immagine della trasformazione lineare da 3 1 3
1 1 4
⎞ 18 6⎠ 19
Soluzione. Il nucleo coincide con null(A) cio`e l’insieme delle soluzioni del SLO di matrice A. Per il Teorema di Rouch´e-Capelli tale sistema possiede ∞n−r soluzioni,
11.4. MODELLO UNIVERSALE DI SPAZIO VETTORIALE
251
dove n `e il numero delle incognite e r `e il rango della matrice. Per determinare queste soluzioni usiamo la riduzione di Gauss. Si pu`o calcolare che la forma a gradini ridotta di A `e ⎛ ⎞ 1 0 0 −2 ⎝0 1 0 3 ⎠ . 0 0 1 −1 Tale matrice ha ⎛ rango ⎞3. Troviamo quindi ∞4−3 = ∞1 soluzioni. Esse sono, al 2t ⎜−3t⎟ 4 ⎟ variare di t ∈ R, ⎜ ⎝ t ⎠. In conclusione, il nucleo cercato `e il sottospazio di R , di t dimensione 1, costituito ⎧⎛da questi ⎞⎫ vettori, e cio`e una retta passante per l’origine in 2 ⎪ ⎪ ⎪ ⎬ ⎨ ⎜ ⎟⎪ −3 ⎟ . R4 , di cui una base `e ⎜ ⎝ 1 ⎠⎪ ⎪ ⎪ ⎪ ⎭ ⎩ 1 Per l’immagine: basta prendere lo spazio generato dalle colonne di A. Dalla forma a gradini calcolata precedentemente e dalla teoria svolta in precedenza sappiamo che lo spazio delle colonne ha dimensione 3 ed una base `e data dalle colonne di A corrispondenti ai pivot, nell’esempio le prime tre colonne. Si tratta quindi di un sottospazio di dimensione 3 di R3 che deve quindi necessariamente coincidere con tutto R3 . La nostra applicazione `e quindi suriettiva (epimorfismo). Non `e invece iniettiva in quanto il suo nucleo `e non banale ovvero non nullo.
11.4
Modello universale di spazio vettoriale
Sia V uno spazio vettoriale di dimensione finita n costruito sul campo K. D’ora in poi, ogni volta che sia fissata una base di V , supporremo che essa sia ordinata (cfr. §2.3). Se B = (v1 , . . . , vn ) `e una base ordinata di V , allora (cfr. Proposizione 10.4.4) ogni vettore di V si scrive in un sol modo come combinazione lineare dei vettori di B. Se v ∈ V e risulta: v = x1 v 1 + · · · + xn v n ,
(11.27)
diremo che la n-pla (x1 , . . . , xn ) `e la n-pla delle coordinate di v, valutate rispetto alla base B. Sar` a spesso conveniente pensare a questa n-pla come vettore colonna e spesso quindi parleremo della colonna delle coordinate (x1 , . . . , xn )T . Esempio 11.4.1. Se V = M (2 × 2, R), spazio delle matrici quadrate 2 × 2 sui reali, e B = (E11 , E12 , E21 , E22 ) `e la base ordinata naturale ⎛ ⎞ di V , allora la colonna delle 1 ⎜2⎟ 1 2 ⎟ coordinate del vettore A = `e la colonna ⎜ ⎝3⎠. Se fissiamo una diversa base 3 4 4 di V , ad esempio B costituita dalle seguenti matrici, nell’ordine: 1 0 1 1 1 1 1 1 0 0 0 0 1 0 1 1
CAPITOLO 11. MATRICI E APPLICAZIONI LINEARI
252
(verificare che esse costituiscono veramente una base!), allora colonna delle coordi⎛ la⎞ −1 ⎜−1⎟ ⎟ nate dello stesso vettore A rispetto a questa nuova base `e ⎜ ⎝−1⎠, dato che infatti 4 1 2 1 0 1 1 1 1 1 1 =− − − +4 . 3 4 0 0 0 0 1 0 1 1 Mostriamo ora che questo modo di associare ad ogni vettore le sue coordinate rispetto ad una base fissata `e un isomorfismo. Proposizione 11.4.2. Siano V uno spazio vettoriale di dimensione finita n sul campo K e B = (v1 , . . . , vn ) una base ordinata di V . L’applicazione χB : V −→ K n che associa ad ogni vettore di V la colonna delle sue coordinate rispetto a B, `e un isomorfismo tra V e K n . Dimostrazione. Proviamo intanto che χB `e lineare. Siano v = x1 v 1 + · · · + x n v n ,
w = y1 v 1 + · · · + yn v n ,
(11.28)
due vettori di V espressi come combinazione lineare dei vettori della base fissata. Allora le loro coordinate nella base assegnata sono: χB (v) = (x1 , . . . , xn )T ,
χB (w) = (y1 , . . . , yn )T .
(11.29)
Essendo v + w = (x1 + y1 )v1 + · · · + (xn + yn )vn .
(11.30)
si ha, per definizione di coordinate, χB (v + w) = ((x1 + y1 ), . . . , (xn + yn ))T = χB (v) + χB (w).
(11.31)
L’applicazione χB trasforma dunque somme in somme. a. Se k ∈ K, Proviamo ora che χB soddisfa anche la seconda condizione di linearit` allora `e (11.32) kv = k(x1 v1 + · · · + xn vn ) = (kx1 )v1 + · · · + (kxn )vn , da cui risulta: χB (kv) = (kx1 , . . . , kxn )T = kχB (v).
(11.33)
Abbiamo cos`ı verificato che χB `e lineare. Proviamo ora che χB `e suriettiva. Se (z1 , . . . , zn )T ∈ K n , sia u = z1 v 1 + · · · + z n v n .
(11.34)
Poich´e risulta χB (u) = (z1 , . . . , zn ) , allora (z1 , . . . , zn ) ∈ ImχB e χB `e quindi suriettiva. Infine, essendo la dimensione di V uguale alla dimensione di K n , l’applicazione `e anche iniettiva, per il Teorema delle dimensioni. Dalla Proposizione 11.3.4 segue allora che l’applicazione lineare χB `e un isomorfismo di V in K n , come richiesto. T
T
Per la proposizione precedente ogni spazio vettoriale n-dimensionale costruito sul campo K `e isomorfo allo spazio K n . Per questo motivo K n `e , a volte, detto il modello universale per gli spazi vettoriali n-dimensionali su K.
11.5. MATRICI ASSOCIATE AD APPLICAZIONI LINEARI
11.5
253
Matrici associate ad applicazioni lineari
Siano V e W due spazi vettoriali costruiti sul medesimo campo K di dimensioni finite n ed m, rispettivamente. Siano poi fissate una base B = {v1 , . . . , vn } di V ed una base D = {w1 , . . . , wm } di W . Sappiamo che ad una matrice A `e possibile associare una applicazione lineare LA : K n −→ K m (vedi Definizione 11.1.2). Ora, viceversa, ad ogni applicazione lineare da V in W associamo una matrice: Definizione 11.5.1. Data un’applicazione lineare L : V −→ W , consideriamo la matrice ad m righe ed n colonne ad elementi in K, la cui j-ma colonna (j = 1, . . . , n) `e data dalla colonna delle coordinate dell’immagine L(vj ) del j-mo vettore vj di B, valutata rispetto alla base D. Tale matrice viene chiamata matrice associata all’applicazione L, rispetto alle basi B e D ed indicata con MDB (L) (attenzione all’ordine di scrittura delle basi). Esempio 11.5.2. Sia L : P2 → P1 l’applicazione lineare definita da L(p(x)) = p (x) (la derivata prima): ad esempio, L(x2 + 2x + 1) = 2x + 2. Determinare la matrice associata a L rispetto alle basi ordinate B = (1, x, x2 ) e D = (1, x). Procediamo per passi. Per ogni vettore della prima base B, lo trasformiamo con L, esprimiamo il risultato in termini della base D e ne prendiamo la colonna delle coordinate rispetto a D: 0 1 !→ 0 = 0 · 1 + 0 · x !→ 0 1 x !→ 1 = 1 · 1 + 0 · x !→ 0 0 x2 !→ 2x = 0 · 1 + 2 · x !→ 2 La matrice desiderata `e MDB (L) =
0 0
1 0
0 . 2
Esempio 11.5.3. Sia V = M (2 × 2) lo spazio delle matrici quadrate di ordine 2 sui reali e sia L l’endomorfismo di V definito da L(A) = AT (trasposizione). Trattandosi di un endomorfismo si pu` o scegliere B = D = (E11 , E12 , E21 , E22 ). La matrice dell’endomorfismo si ottiene come segue ⎛ ⎞ 1 ⎜0⎟ ⎟ E11 !→ E11 = 1 · E11 + 0 · E12 + 0 · E21 + 0 · E22 !→ ⎜ ⎝0⎠ 0
E12 !→ E21 = 0 · E11 + 0 · E12 + 1 · E21 + 0 · E22
⎛ ⎞ 0 ⎜0⎟ ⎟ !→ ⎜ ⎝1⎠ 0
CAPITOLO 11. MATRICI E APPLICAZIONI LINEARI
254
E21 !→ E12 = 0 · E11 + 1 · E12 + 0 · E21 + 0 · E22
E22 !→ E22 = 0 · E11 + 0 · E12 + 0 · E21 + 1 · E22 Abbiamo quindi
⎛
1 ⎜0 MBB (L) = MB (L) = ⎜ ⎝0 0
0 0 1 0
0 1 0 0
⎛ ⎞ 0 ⎜1 ⎟ ⎟ !→ ⎜ ⎝0 ⎠ 0 ⎛ ⎞ 0 ⎜0 ⎟ ⎟ !→ ⎜ ⎝0 ⎠ 1
⎞ 0 0⎟ ⎟ 0⎠ 1
Per semplicit`a di notazione, nel caso in cui abbiamo scelto la stessa base, come nell’esempio appena visto, scriviamo MB (L) invece di MBB (L). Riassumendo, assegnati due spazi vettoriali V e W , con basi ordinate fissate, siamo in grado di associare una matrice M ad ogni applicazione lineare L tra essi. D’altra parte, a M possiamo associare un’applicazione lineare TM tra i due modelli universali di V e W rispettivamente (cfr. Definizione 11.1.2). Le definizioni date si combinano in modo tale da essere illustrate dal seguente diagramma V
L
χB
Kn
W χD
TM
Km
Esso va interpretato come segue: l’immagine di un vettore v ∈ V in W , ottenibile seguendo la freccia L, pu`o anche essere ottenuta calcolando le coordinate di v in K n , moltiplicando per la matrice M = MDB (L) per ottenere un vettore in K m e infine reinterpretando il risultato come la m-pla delle coordinate di L(v). Detto in altre parole, abbiamo la seguente Proposizione 11.5.4. Siano V e W due spazi vettoriali sul medesimo campo K, di dimensioni finite n ed m, con basi fissate B e D, rispettivamente. Assegnata un’applicazione lineare L : V −→ W , sussiste la seguente relazione: χD (L(v)) = MDB (L)χB (v).
(11.35)
Generalizziamo al caso di spazi vettoriali qualsiasi V e W la definizione di applicazione associata ad una matrice (cfr. Definizione 11.1.2): Definizione 11.5.5. Data una matrice m × n M ad elementi in K, consideriamo l’applicazione lineare LDB (M ) da V a W definita da LDB (M ) = χ−1 D TM χB . Essa viene detta applicazione lineare associata alla matrice M rispetto alle basi B e D. Osservazione 11.5.6. La definizione 11.1.2 `e un caso particolare di quella precedente, nella quale si prenda V = K n , W = K m , con basi B e D canoniche.
11.5. MATRICI ASSOCIATE AD APPLICAZIONI LINEARI
255
Non `e difficile verificare che partendo da un’applicazione e prendendo la sua matrice associata e di questa considerando la sua applicazione lineare associata, si ritorna al punto di partenza. Analogamente avviene scambiando i ruoli tra matrice e applicazione. Si ha cio`e: Proposizione 11.5.7. MDB (LDB (M )) = M
(11.36)
LDB (MDB (L)) = L
(11.37)
Esempi 11.5.8. 1) Siano V = R3 e W = R2 ; assegnate le basi B = {(1, 1, 0), (1, 0, 1), (0, 1, 1)} in R3 e B = {(1, 0), (1, 1)} in R2 , all’applicazione lineare L : R3 −→ R2 cos`ı definita: L(x, y, z) = (x + 2y + z, 2x + 3z), `e associata la matrice seguente: 1 −3 0 . 2 5 3 Infatti L((1, 1, 0)) = (3, 2), L((1, 0, 1)) = (2, 5), L((0, 1, 1)) = (3, 3), e poich´e le colonne delle coordinate di (3, 2), (2, 5) e (3, 3), valutate rispetto alla base B , sono rispettivamente uguali a (1, 2), (−3, 5) e (0, 3), la matrice cercata `e quella sopra scritta. 2) Vogliamo riottenere la matrice della rotazione di V2 di un angolo θ vista all’inizio → − → − del capitolo. Fissata la base ( i , j ), procedendo secondo la definizione 11.5.1, si ottiene → − → − → − cos θ i !→ cos θ i + sin θ j !→ sin θ → − → − → − − sin θ j !→ − sin θ i + cos θ j !→ cos θ La matrice desiderata ha questi due vettori come colonne, come visto in precedenza. Proviamo ora che la matrice della composizione di due applicazioni lineari `e il prodotto delle matrici delle singole applicazioni: Proposizione 11.5.9. Siano V , W e U tre spazi vettoriali sul medesimo campo K, di dimensioni finite n, m e p, con basi assegnate B, B e B , rispettivamente. Assegnate le applicazioni lineari L : V −→ W e T : W −→ U , considerata l’applicazione lineare composta T L : V −→ U , tra le matrici associate ad L, T , T L, sussiste la seguente relazione: (11.38) MB B (T L) = MB B (T )MB B (L), cio`e la matrice associata a T L `e il prodotto della matrice associata a T per la matrice associata ad L.
CAPITOLO 11. MATRICI E APPLICAZIONI LINEARI
256
Dimostrazione. Per semplicit` a di notazione, scriveremo M (L), M (T ), M (T L) al posto di MB B (L), MB B (T ), MB B (T L) in tutto il corso della dimostrazione. Assegnato v ∈ V , poniamo: w = L(v),
u = T L(v).
(11.39)
Denotiamo ora con χ(v), χ(w) e χ(u) le colonne delle coordinate di v, w ed u, valutate rispetto a B, B e B , rispettivamente. Dalla (11.35) segue allora che: χ(u) = M (T L)χ(v).
(11.40)
D’altra parte, in forza della (11.3): u = T (L(v)) = T (w).
(11.41)
Pertanto, esiste un altro modo per calcolare χ(u): χ(u) = M (T )χ(w).
(11.42)
χ(w) = M (L)χ(v)
(11.43)
Essendo
e, sostituendo nella (11.42) il valore di χ(w) fornito dalla (11.43), segue: χ(u) = M (T )M (L)χ(v).
(11.44)
Confrontando le (11.44) e (11.40), si trae: M (T L)χ(v) = M (T )M (L)χ(v),
(11.45)
quale che sia il vettore v ∈ V . Ne segue che M (T L) = M (T )M (L), come richiesto.
11.6
Cambiamenti di base
Nel seguito indicheremo l’applicazione identica idV dello spazio vettoriale V con il simbolo semplificato id. Enunciamo alcuni risultati, di cui omettiamo le semplici dimostrazioni: Proposizione 11.6.1. Sia assegnato uno spazio vettoriale V di dimensione finita n. Se B = {v1 , . . . , vn } e D = {w1 , . . . , wn } sono due basi di V , allora la matrice MDB (id) associata all’applicazione lineare identica id : V −→ V `e la matrice identica In di M (n × n, K) se e solo se B = D. In particolare, dunque: MBB (id) = In .
(11.46)
Proposizione 11.6.2. Sia assegnato uno spazio vettoriale V di dimensione finita n. Se B = {v1 , . . . , vn } `e una base di V , allora la matrice M (L)B associata all’endomorfismo L : V −→ V `e la matrice identica In di M (n × n, K) se e solo se L `e l’applicazione identica di V .
11.6. CAMBIAMENTI DI BASE
257
Abbiamo visto che le coordinate di un vettore di uno spazio vettoriale V sono determinare una volta che sia stata fissata una base ordinata di V . Scegliendo basi diverse si ottengono di conseguenza coordinate diverse dello stesso vettore. In ci` o che segue si trae la legge di trasformazione delle coordinate dei vettori, in relazione ad un cambiamento di base: Proposizione 11.6.3. Sia assegnato uno spazio vettoriale V di dimensione finita n. Se B = {v1 , . . . , vn } e D = {w1 , . . . , wn } sono due basi di V , allora denotate χB (v) ed χD (v) le colonne delle coordinate di un vettore v ∈ V , relative a B e D rispettivamente, si ha: χD (v) = MDB (id)χB (v)
(11.47)
Dimostrazione. Determiniamo la matrice associata all’applicazione id secondo la definizione 11.5.1. La Proposizione 11.5.4 implica che χD (id(v)) = MDB (id)χB (v)
(11.48)
Poich´e id(v) = v, la conclusione segue. Vale la pena di soffermarsi su questa conclusione per osservare che la j-ma colonna (j = 1, . . . , n) della matrice MDB (id) `e la colonna delle coordinate del j-esimo vettore della base B, vj = id(vj ), valutate rispetto alla base D. La (11.47) `e quindi la relazione che lega le coordinate di v, valutate rispetto a B, alle coordinate di v, valutate rispetto a D. Per questo motivo la matrice MDB (id) viene detta matrice del cambiamento di base da B a D. La denoteremo con PDB . La relazione (11.48) verr`a quindi scritta (11.49) χD (v) = PDB χB (v) Riassumendo: la matrice del cambiamento di base PDB `e la matrice che ha per colonne le componenti dei vettori di B in termini della base D. Esempio 11.6.4. Sia V lo spazio dei polinomi P2 e siano B = (1, x, x2 ) e D = (1, x − 2, (x − 2)2 ) due basi ordinate di V . Calcolare la matrice del cambiamento di base PDB . La matrice si ottiene con i seguenti passi: 1. prendiamo il primo vettore della base B e lo esprimiamo in termini della seconda base D; 2. prendiamo la colonna delle componenti dell’espressione appena ottenuta e la scriviamo come prima colonna della costruenda matrice PDB ; 3. ripetiamo questi passi via via con gli altri vettori della base, ottenendo tutte le n colonne della matrice desiderata. Abbiamo dunque 1 = 1(1) + 0(x − 2) + 0(x − 2)2 da cui le coordinate sono (1, 0, 0)T : questa `e la prima colonna di PDB . x = 2(1) + 1(x − 2) + 0(x − 2)2
258
CAPITOLO 11. MATRICI E APPLICAZIONI LINEARI
da cui le coordinate sono (2, 1, 0)T : questa `e la seconda colonna di PDB . x2 = 4(1) + 4(x − 2) + 1(x − 2)2 da cui le coordinate sono (4, 4, 1)T : questa `e la matrice cercata `e ⎛ 1 2 PDB = ⎝0 1 0 0
terza colonna di PDB . In definitiva la ⎞ 4 4⎠ . 1
Possiamo ora verificare che la matrice del passaggio inverso da D a B `e l’inversa della matrice preceedente. Infatti, svolgiamo l’esercizio di nuovo, invertendo per` o il ruolo delle due basi. Abbiamo 1 = 1(1) + 0x + 0x2 da cui le coordinate sono (1, 0, 0)T : questa `e la prima colonna di PBD . x − 2 = −2(1) + 1x + 0x2 da cui le coordinate sono (−2, 1, 0)T : questa `e la seconda colonna di PBD . (x − 2)2 = 4(1) − 4x + 1x2 da cui le coordinate sono (4, −4, 1)T : questa `e la terza colonna di PBD . In definitiva la matrice cercata `e ⎛ ⎞ 1 −2 4 PBD = ⎝0 1 −4⎠ 0 0 1 Infine, `e immediato verificare che ⎞⎛ ⎛ 1 1 2 4 PDB PBD = ⎝0 1 4⎠ ⎝0 0 0 1 0
−2 1 0
⎞ ⎛ 4 1 −4⎠ = ⎝0 0 1
0 1 0
⎞ 0 0⎠ . 1
Questo `e un fatto generale, come vedremo nel paragrafo seguente.
11.7
Matrici e applicazioni invertibili
Stabiliamo una condizione necessaria e sufficiente per l’ invertibilit`a di un’applicazione lineare tra due spazi della stessa dimensione. Proposizione 11.7.1. Siano V e W due spazi vettoriali di uguale dimensione finita n. Siano poi fissate una base B di V e una base D di W . Un’applicazione lineare L : V −→ W `e invertibile se e solo se la matrice associata MDB (L) ad essa associata `e invertibile. Dimostrazione. Supponiamo dapprima che L sia invertibile. Pertanto `e individuata l’applicazione lineare L−1 : W −→ V . La Proposizione 11.5.9 implica che per MBD (L−1 ) e MDB (L), si ha: MBD (L−1 )MDB (L) = MBB (L−1 L), MDB (L)MBD (L−1 ) = MDD (LL−1 ).
(11.50)
11.8. ENDOMORFISMI E DIAGONALIZZAZIONE
259
a di W e L−1 L `e l’identit`a di V , dalla Proposizione 11.6.1 Poich´e LL−1 `e l’identit` segue che: MDB (L)MBD (L−1 ) = In . (11.51) MBD (L−1 )MDB (L) = In , Pertanto, se L `e invertibile allora MDB (L) `e invertibile e si ha: MDB (L)−1 = MBD (L−1 ).
(11.52)
Supponiamo ora che la matrice MDB (L) sia invertibile e sia C la sua matrice inversa: −1 (MDB (L)) = C. (11.53) ` allora individuata l’applicazione lineare T = LBD (C) : W −→ V (cf. Definizione E 11.5.5). La matrice associata a tale applicazione T , quando sono fissate le basi D di W e B di V , coincide (cfr. Proposizione 11.5.7) con C, cio`e: MBD (T ) = C.
(11.54)
Dalle (11.38), (11.54) e (11.53) segue che per la matrice associata all’applicazione T L : V −→ V si ottiene: MBB (T L) = MBD (T )MDB (L) = CMDB (L) = In .
(11.55)
Per la matrice associata all’applicazione LT : W −→ W si ha analogamente: MDD (LT ) = MDB (L)MBD (T ) = MDB (L)C = In .
(11.56)
In forza della Proposizione 11.6.2, le (11.55) e (11.56) implicano che T L `e l’applicazione identica di V e che LT `e l’applicazione identica di W . Pertanto, L e T sono l’una l’inversa dell’altra, come richiesto.
11.8
Endomorfismi e diagonalizzazione
Sia L : V → V un endomorfismo di un dato spazio vettoriale. Abbiamo visto che, una volta fissata una base di V , risulta determinata una matrice associata all’endomorfismo che sar` a necessariamente quadrata. In questo paragrafo vogliamo studiare come cambia la matrice associata al variare della base fissata, e, in particolare, se ci sono delle scelte di base per le quali la matrice assuma una forma pi` u semplice. Ci occorre il seguente Lemma 11.8.1. Se A e B sono due matrici m × n e se AX = BX per ogni vettore X ∈ K n , allora le due matrici sono uguali: A = B. Dimostrazione. L’uguaglianza vale qualunque sia X ∈ K n e quindi in particolare se prendiamo X = Ei dove Ei `e la i-esima colonna della matrice identit`a, i = 1, . . . , n. Poich´e il prodotto di una matrice per la colonna Ei d`a come risultato la i-esima colonna della matrice (v. Osservazione 11.1.4), si ha AEi = BEi per ogni i = 1, . . . , n, donde l’uguaglianza delle colonne di A e B, da cui A = B.
260
CAPITOLO 11. MATRICI E APPLICAZIONI LINEARI
Proposizione 11.8.2. Se L : V → V `e un endomorfismo, sia MB la matrice associata a L rispetto ad una base B e sia MD la matrice di L rispetto ad una seconda base D. Allora abbiamo (11.57) PDB MB = MD PDB . Dimostrazione. Se rappresentiamo l’endomorfismo in coordinate, esso si rappresenta come una moltiplicazione per una matrice MB oppure MD e la relazione che dobbiamo dimostrare si pu` o visualizzare mediante il seguente diagramma Kn
MB
Kn
PDB
Kn
PDB MD
Kn
ed `e equivalente a dire che, cominciando con un vettore in alto a sinistra, possiamo arrivare allo stesso vettore in basso a destra seguendo due percorsi differenti. Per la dimostrazione ricordiamo le relazioni (11.35) e (11.49), che nel caso di un endomorfismo sono le seguenti: χB (L(v)) = MB χB (v).
(11.58)
χD (v) = PDB χB (v)
(11.59)
La prima ci dice il legame tra le coordinate di un vettore v e della sua immagine L(v), la seconda invece quello tra le coordinate dello stesso vettore in due basi diverse. Si ha: MB χB (v) = χB (L(v)) per la (11.58) PDB MB χB (v) = PDB χB (L(v)) moltiplicando a sinistra per PDB = χD (L(v)) per la (11.59) = MD χD (v) per la (11.58)nella base D = MD PDB χB (v) per la (11.59)
(11.60)
Abbiamo cos`ı ottenuto l’uguaglianza PDB MB χB (v) = MD PDB χB (v)
(11.61)
valida per qualunque vettore χB (v). Per il Lemma 11.8.1 abbiamo la conclusione. Corollario 11.8.3. Nelle ipotesi della proposizione precedente, due matrici che rappresentano lo stesso endomorfismo in basi diverse sono simili. Dimostrazione. Sappiamo che la matrice PDB `e invertibile e che la sua inversa `e PBD . Allora la relazione (11.57) si pu`o riscrivere come MB = PBD MD PDB e dunque le due matrici sono simili.
(11.62)
11.8. ENDOMORFISMI E DIAGONALIZZAZIONE
261
Il Corollario 4.3.5 si estende facilmente al caso di un campo K qualsiasi: Corollario 11.8.4. Due matrici dello stesso endomorfismo hanno lo stesso determinante, la stessa traccia e lo stesso polinomio caratteristico. Alla luce del corollario precedente possiamo quindi dare le seguenti definizioni: Definizione 11.8.5. Si definiscono determinante, traccia e polinomio caratteristico di un endomorfismo come il determinante, la traccia e il polinomio caratteristico di una sua qualunque matrice associata. Definizione 11.8.6. Un endomorfismo `e detto diagonalizzabile se una sua matrice associata `e diagonalizzabile. Esempio 11.8.7. Calcolare il determinante, la traccia, gli autovalori e gli autovettori della proiezione ortogonale Pr : V2 → V2 su una retta passante per l’origine. Nella sezione 11.1 abbiamo gi` a calcolato la matrice associata aquesto endomorfi 2 m → − → − 2 2 2 2 +m +m smo mediante la base N = { i , j }, relativa al riferimento fissato: m . m2 2 +m2
2 +m2
Potremmo quindi procedere a studiare il determinante, la traccia e la diagonalizzazione di questa matrice. In questo esempio, tuttavia, `e pi` u semplice sfruttare la proposizione appena dimostrata e scegliere un base diversa da N , che risulta pi` u adatta alla situazione specifica. Prendiamo quindi come base ordinata quella costituita, co
me primo vettore, dal vettore direttore v = e, come secondo vettore, il vettore m m perpendicolare u = . Per determinare la matrice della proiezione Pr associata −
alla nuova base ordinata (v, u) secondo la Definizione 11.5.1, calcoliamo facilmente 0 1 v !→ v = 1v + 0u !→ , u !→ 0 = 0v + 0u !→ . 0 0 1 0 La matrice richiesta `e quindi , che risulta diagonale. Si calcola immediata0 0 mente che det Pr = 0 e T r(Pr ) = 1.
m Possiamo anche verificare la Proposizione 11.8.2: Sia P = PN B = la m −
matrice che ha per colonne dei vettori della base B rispetto alla base N . le coordinate
m 1 La sua inversa `e 2 +m2 . Abbiamo in effetti: m −
1 1 0
m 1 0
m P −1 P = 2 0 0 0 0 m −
+ m2 m −
2 (11.63) 1
m = 2
+ m2 m m2 come richiesto. Esempio 11.8.8. Sia Pr la proiezione ortogonale sulla retta r passante per l’origine → − → − − e di parametri direttori = 1, m = 2. Calcolare l’immagine di → w = −i +4j. Calcolare inoltre gli autovettori e gli autovalori e disegnare gli autospazi di Pr .
CAPITOLO 11. MATRICI E APPLICAZIONI LINEARI
262
La matrice standard, cio`e quella associata in questione mediante all’operatore → − → − 1 2 la base assegnata B = ( i , j ) `e MB = 15 . Quindi l’immagine cercata `e 2 4 7 1 2 −1 5 − Pr (→ w ) = 15 = 14 . 2 4 4 5 λ − 1 − 25 5 = λ2 −λ = 0, Per calcolare gli autovalori e autovettori: |λI−MB | = 2 −5 λ − 54 da cui gli autovalori λ = 1, 0. Gli autospazi sicalcolano risolvendo i relativi SLO. 1 − 5 − 25 E0 (Pr ): La matrice del SLO `e , da cui l’equazione 15 x + 25 y = 0 ossia − 25 − 45 la retta di equazione x + 2y = 0. 4 − 25 5 E1 (Pr ): La matrice del SLO `e , da cui l’equazione 45 x − 25 y = 0 ossia 1 − 25 5 la retta di equazione 2x − y = 0. → − → − → − → − − − − − Sia D = (→ v ,→ u ) dove → v = 2 i − j ∈ E0 (Pr ) e → u = i + 2 j ∈ E1 (Pr ). Allora 2 1 la matrice del cambiamento di base `e PBD = , da cui −1 2 MD = Il disegno `e
−1 PBD MB PBD
=
2 5 − 15
1 5 2 5
1
5 2 5
2 5 4 5
2 −1
1 1 = 2 0
0 . 0
Capitolo 12
SPAZI EUCLIDEI 12.1
Nozioni metriche
I concetti di distanza, perpendicolarit` a, angoli etc. non sono conseguenza degli assiomi che definiscono gli spazi vettoriali. Essi possono essere introdotti tramite il concetto di prodotto interno o prodotto scalare. Per ogni coppia di vettori u = (x1 , . . . , xn ), v = (y1 , . . . , yn ) di Rn , il prodotto scalare canonico u · v = x1 y1 + · · · + xn yn (cfr. §2.4) soddisfa le seguenti propriet`a: (1) u · v = v · u per ogni u, v ∈ V ; (2) (αu) · v = u · (αv) = α(u · v) per ogni u, v ∈ V , α ∈ R; (3) w · (u + v) = w · u + w · v per ogni u, v, w ∈ V ; (4) u · u ≥ 0 per ogni u ∈ V e u · u = 0 =⇒ u = 0. Rn , dotato del prodotto scalare, `e uno spazio euclideo. Vedremo che `e possibile generalizzare la nozione di spazio euclideo in vari modi. Ricordiamo che due vettori sono detti ortogonali se il loro √ prodotto scalare `e zero. Abbiamo definito norma del vettore v lo scalare v = v · v e chiamato versore un vettore di norma 1 (cf. §2.4). a Un insieme di vettori di Rn , ciascuno di norma 1, a due a due ortogonali, verr` detto sistema ortonormale di vettori. Un tale sistema {v1 , . . . , vn } `e caratterizzato dalle condizioni 0 se i = j vi · vj = 1 se i = j Spesso per rappresentare questa relazione si usa il simbolo δij , detto simbolo di Kronecker. Il simbolo vale 1 se gli indici i, j sono uguali, altrimenti vale zero. In tal modo la relazione precedente si scrive vi · vj = δij Proposizione 12.1.1. I vettori di un sistema ortonormale sono linearmente indipendenti.
CAPITOLO 12. SPAZI EUCLIDEI
264
Dimostrazione. Sia {v1 , . . . , vk } un sistema ortonormale e siano a1 , . . . , ak scalari tali che a1 v1 + · · · + ak vk = 0. Dobbiamo verificare che ai = 0, per ogni i. Si ha vi · (a1 v1 + · · · + ak vk ) = 0, in quanto la combinazione lineare `e per ipotesi nulla. D’altra parte si ha: 0 = a1 (vi · v1 ) + · · · + ai (vi · vi ) + · · · + ak (vi · vk ) = 0 + ai vi 2 + 0 = ai vi 2 = ai , da cui la conclusione. Una base di Rn che sia anche un sistema ortonormale verr` a detta base ortonormale. ` E importante osservare che `e sempre possibile ottenere una base ortonormale di un qualunque sottospazio di Rn , essendo ci` o garantito dal seguente teorema che fornisce un procedimento costruttivo, detto di Gram-Schmidt, per ottenere tale base. Teorema 12.1.2. (Procedimento di Gram-Schmidt) Dato un qualunque insieme di r vettori linearmente indipendenti {v1 , . . . , vr } `e possibile costruire un sistema ortonormale di r vettori che generano lo stesso sottospazio U generato da {v1 , . . . , vr }. Dimostrazione. Precisamente: u1 = v1 , u2 = v2 − u3 = v3 − In generale, ur = vr −
v 2 · u1 u1 , u1 · u1
v 3 · u2 v 3 · u1 u2 − u1 , u2 · u2 u1 · u1
vr · ur−1 vr · u1 ur−1 − · · · − u1 . ur−1 · ur−1 u1 · u1
I vettori cos`ı ottenuti sono a due a due ortogonali. Dividendo ogni vettore ui per la sua norma, otteniamo un sistema ortonormale di vettori. Non `e difficile verificare che per ogni k = 1, . . . , r, si ha v1 , . . . , vk = u1 , . . . , uk . Esempio 12.1.3. Illustriamo il procedimento nel caso di due vettori del piano euclideo V2 . Siano assegnati due vettori indipendenti v1 , v2 come in figura. Sia p il vettore proiezione ortogonale di v2 nella direzione di v1 . La base ortogonale { u1 , u2 } ottenuta dal procedimento di Gram-Schmidt `e anch’essa indicata in figura.
12.1. NOZIONI METRICHE
265
Esempio 12.1.4. Determinare una base ortogonale del sottospazio U di R4 , generato dai vettori v1 = (1, 1, 1, 1), v2 = (2, 3, −1, 0), v3 = (4, 3, 2, 1). u1 = v 1 , u2 = v2 −
v2 · u1 4 u1 = (2, 3, −1, 0) − (1, 1, 1, 1) = (1, 2, −2, −1), u1 · u1 4 v3 · u2 v 3 · u1 u3 = v 3 − u2 − u1 u2 · u2 u1 · u1
5 1 1 5 (1, 2, −2, −1) − (1, 1, 1, 1) = (1, − , , −1) 10 2 2 2 Volendo, si pu` o moltiplicare questo ultimo vettore per 2 ottenendo (2, −1, 1, −2), che, essendo un multiplo del vettore trovato sopra, rimane comunque perpendicolare ai due vettori precedenti. In definitiva la base ortogonale cercata `e = (4, 3, 2, 1) −
{(1, 1, 1, 1), (1, 2, −2, −1), (2, −1, 1, −2)}. Se si vuole una base ortonormale e non solo ortogonale, occorre ora normalizzare ciascun vettore della base trovata, ossia dividere ciascuno di essi per la propria norma. Si ottiene 1 1 1 { (1, 1, 1, 1), √ (1, 2, −2, −1), √ (2, −1, 1, −2)}. 2 10 10 Teorema 12.1.5. (Disuguaglianza di Schwarz) Assegnati due vettori u, v nello spazio euclideo Rn , sussiste la seguente disuguaglianza: |u · v| ≤ u v ove il segno di uguaglianza vale se e solo se i due vettori sono proporzionali. Dimostrazione. Se uno dei due vettori `e nullo, non c’`e niente da dimostrare. Altrimenti, scelto un numero reale t arbitrario, consideriamo il vettore tu + v. Per la propriet` a (4), abbiamo: (tu + v) · (tu + v) ≥ 0 per ogni valore di t. Calcolando: t2 u · u + 2tu · v + v · v ≥ 0 ossia u2 t2 + 2tu · v + v2 ≥ 0. Poich´e un trinomio di secondo grado `e sempre non negativo se e solo se il discriminante `e negativo o nullo, ossia se e solo se: (u · v)2 − u2 v2 ≤ 0 si ha |u · v| ≤ uv.
CAPITOLO 12. SPAZI EUCLIDEI
266
Inoltre l’uguaglianza vale se e solo se il discriminante `e nullo ovvero se e solo se esiste un valore t0 che `e soluzione dell’equazione di secondo grado: u2 t20 + 2t0 u · v + v2 = 0 ossia (t0 u + v) · (t0 u + v) = 0 che equivale ad avere t0 u + v = 0, ossia la proporzionalit`a tra u e v. In Rn dotato di prodotto scalare canonico, definiamo proiezione ortogonale di u secondo v il vettore u·v v v·v u·v (in analogia a quanto fatto per i vettori liberi, cfr. §5.7). Il coefficiente c = `e v·v ` detto coefficiente di Fourier di u nella direzione di v. E facile verificare che u − cv `e ortogonale a v: (u − cv) · v = u · v − c(v · v) = u · v −
u·v v · v = 0. v·v
Una semplice conseguenza della disuguaglianza di Schwarz `e la seguente disuguaglianza triangolare: u + v ≤ u + v. La disuguaglianza di Schwarz si pu`o riscrivere: −1 ≤
u·v ≤1 u v
e dunque esiste uno ed un solo angolo θ compreso tra 0 e π tale che siffatto rapporto eguagli cos θ. Questo angolo, per definizione, si chiama angolo tra i vettori u e v. Se U `e un sottospazio di Rn , si definisce complemento ortogonale U ⊥ di U l’insieme di tutti i vettori di Rn che sono ortogonali a tutti i vettori di U : U ⊥ = {v ∈ Rn |v · u = 0, ∀u ∈ U }. Esempio 12.1.6. Se U `e il piano di V3 per l’origine di equazione x + y − 3z = 0, il complemento ortogonale di U `e la retta passante per l’origine di parametri direttori
= 1, m = 1, n = −3. u
v
12.1. NOZIONI METRICHE
267
Proposizione 12.1.7. Se U `e un sottospazio di Rn , allora U ⊥ `e anch’esso un sottospazio di Rn . Inoltre se U `e generato da k vettori u1 , . . . , uk , allora U ⊥ = {v ∈ Rn |v · ui = 0, ∀i = 1, . . . , k}. Dimostrazione. Ovviamente 0 ∈ U ⊥ e pertanto U ⊥ non `e vuoto. Se v1 , v2 ∈ U ⊥ , allora (v1 + v2 ) · u = (v1 · u) + (v2 · u) = 0 per ogni u ∈ U e quindi v1 + v2 ∈ U ⊥ . Ancora: se v ∈ U ⊥ , allora (av) · u = a(v · u) = a0 = 0 per ogni u ∈ U e pertanto av ∈ U ⊥ , da cui il primo asserto. Per la seconda affermazione, supponiamo che v · ui = 0, ∀i = 1, . . . , k e sia u ∈ U . Per ipotesi, esistono dei coefficienti a1 , . . . , ak tali che u = a1 u1 + · · · + ak uk . Avremo allora: v · u = v · (a1 u1 + · · · + ak uk ) = a1 (v · u1 ) + · · · + ak (v · uk ) = 0, cio`e v ∈ U ⊥ . Viceversa, se v · u = 0, ∀u ∈ U , necessariamente v · ui = 0, i = 1, . . . , k, in quanto ui ∈ U . Proposizione 12.1.8. Se U `e un sottospazio di Rn , allora Rn `e somma diretta di U e U ⊥: Rn = U ⊕ U ⊥ . Dimostrazione. Se U = {0}, allora U ⊥ = Rn e l’asserto `e ovvio. Sia U = {0} e sia v ∈ U ∩ U ⊥ . Un tale vettore deve necessariamente soddisfare la relazione v · v = 0, in quanto `e sia in U che nel suo complemento ortogonale, ma ci`o implica v = 0 per la propriet`a (4) del prodotto scalare. Di conseguenza U ∩ U ⊥ = {0}. Rimane da verificare che ogni vettore v di Rn `e somma di un vettore di U e di un vettore di U ⊥ . Per tale scopo, sia {u1 , . . . , uk } una base ortonormale di U . Si consideri il vettore p=
v · uk v · u1 u1 + · · · + uk . 2 u1 uk 2
Il vettore p appartiene a U in quanto combinazione lineare dei vettori ui , i = 1, . . . k, ed `e facile verificare che v − p `e ortogonale a ciascun ui , i = 1, . . . k, donde appartiene a U ⊥ per la Proposizione 12.1.7. Essendo v = p + (v − p), si ha la tesi. Il vettore p introdotto nella dimostrazione della proposizione precedente `e oggetto della definizione che segue. Definizione 12.1.9. Assegnati U , sottospazio non nullo di Rn , {u1 , . . . , uk }, base ortogonale di U e v vettore di Rn , definiamo proiezione ortogonale di v su U o sviluppo di Fourier di v: v · u1 v · uk projU (v) = u1 + · · · + uk . u1 2 uk 2 Se la base `e addirittura ortonormale, la formula si semplifica in quanto nei vari denominatori abbiamo 1.
CAPITOLO 12. SPAZI EUCLIDEI
268
Osservazione 12.1.10. Si pu` o dimostrare che la proiezione non dipende dalla base ortogonale scelta su U . Esempio 12.1.11. Prendiamo il sottospazio U di R4 dell’esempio 12.1.4. Calcoliamo la proiezione, ovvero lo sviluppo di Fourier del vettore (1, −1, 2, 3) su U : projU ((1, −1, 2, 3)) 1 1 = [(1, −1, 2, 3) · (1, 1, 1, 1)] (1, 1, 1, 1) 2 2 1 1 + [(1, −1, 2, 3) · √ (1, 2, −2, −1)] √ (1, 2, −2, −1) 10 10 1 1 + [(1, −1, 2, 3) · √ (2, −1, 1, −2)] √ (2, −1, 1, −2) 10 10 8 1 1 1 11 9 5 = (1, 1, 1, 1) − (1, 2, −2, −1) − (2, −1, 1, −2) = ( , − , , ) 4 10 10 4 4 4 4
(12.1)
Esempio 12.1.12. Con riferimento all’esercizio precedente scrivere le equazioni dell’endomorfismo PU di R4 che associa ad ogni vettore (x1 , x2 , x3 , x4 ) la sua proiezione ortogonale nel sottospazio U . projU ((x1 , x2 , x3 , x4 )) 1 1 = [(x1 , x2 , x3 , x4 ) · (1, 1, 1, 1)] (1, 1, 1, 1) 2 2 1 1 + [(x1 , x2 , x3 , x4 ) · √ (1, 2, −2, −1)] √ (1, 2, −2, −1) 10 10 1 1 + [(x1 , x2 , x3 , x4 ) · √ (2, −1, 1, −2)] √ (2, −1, 1, −2) 10 10
(12.2)
Si verifica che il vettore generico cos`ı ottenuto `e 1 (3x1 + x2 + x3 − x4 , x1 + 3x2 − x3 + x4 , x1 − x2 + 3x3 + x4 , −x1 + x2 + x3 + 3x4 ) 4 le equazioni dell’endomorfismo sono quindi ⎧ y1 ⎪ ⎪ ⎪ ⎨y 2 ⎪ y 3 ⎪ ⎪ ⎩ y4
= = = =
1 4 (3x1 + x2 + x3 − x4 ) 1 4 (x1 + 3x2 − x3 + x4 ) 1 4 (x1 − x2 + 3x3 + x4 ) 1 4 (−x1 + x2 + x3 + 3x4 )
Esempio 12.1.13. In maniera analoga a quanto fatto per l’endomorfismo Pr di V2 , proiezione ortogonale sulla retta r, possiamo determinare la matrice della proiezione PU dell’esercizio precedente rispetto ad una base “adattata” al problema. Data (u1 , u2 , u3 ) la base ortonormale di U ottenuta in precedenza, calcoliamo preliminarmente U ⊥ , ovvero tutti i vettori di Rn ortogonali a tutti i vettori di U . Osservato che un generico vettore di U si pu` o scrivere u = α1 u1 + α2 u2 + α3 u3 , `e sufficiente verificare che il prodotto scalare sia zero con ciascuno dei vettori della base di U .
12.1. NOZIONI METRICHE
269
Abbiamo di conseguenza le seguenti equazioni: ⎧ ⎪ ⎨u · u1 = 0 u · u2 = 0 ⎪ ⎩ u · u3 = 0 e cio`e, posto u = (x1 , x2 , x3 , x4 ): ⎧ ⎪ ⎨ x1 + x2 + x3 + x4 = 0 x1 + 2x2 − 2x3 − x4 = 0 ⎪ ⎩ 2x1 − x2 + x3 − 2x4 = 0 Questo sistema ha rango 3, essendo indipendenti le tre righe della matrice dei coefficienti, e quindi, per il Teorema di Rouch´e-Capelli, lo spazio delle soluzioni ha dimensione 1. Risolvendo questo sistema si trova la soluzione base u4 = (1, −1, −1, 1). La base “adattata” al problema allora `e la base ordinata (u1 , u2 , u3 , u4 ). La matrice di PU rispetto a questa base `e infine ⎛ ⎞ 1 0 0 0 ⎜ 0 1 0 0⎟ ⎜ ⎟ ⎝ 0 0 1 0⎠ . 0 0 0 0 La nozione di proiezione ortogonale pu`o essere naturalmente interpretata anche come un modo per ottenere l’elemento pi` u vicino ad un dato sottospazio. Geometricamente risulta intuitivamente ovvio che la distanza minima tra due insiemi o sottospazi si trova prendendo la direzione ortogonale cio`e “la linea pi` u breve”. Questa interpretazione risulta di grande importanza. Data la grande flessibilit`a del concetto di spazio vettoriale o di spazio euclideo, come vedremo, `e possibile inquadrare in tale situazione anche la problematica dell’approssimazione. Si pensi ad esempio alle misurazioni empiriche dei risultati di un qualche esperimento e al tentativo di riportare su un grafico i dati ottenuti. A volte `e possibile capirne l’andamento mediante un curva che meglio li approssimi. Torneremo su questo punto. Il teorema seguente rende precisa l’idea intuitiva a cui si accennava sopra. Teorema 12.1.14. (Teorema di approssimazione) Assegnati un sottospazio U non nullo di Rn e v ∈ Rn , allora projU (v) `e il vettore di U che “meglio approssima” v, cio`e: v − projU (v) < v − u per ogni u ∈ U, diverso da projU (v). o Dimostrazione. Aggiungendo e sottraendo projU (v), il vettore differenza v − u pu` riscriversi come v − u = v − projU (v) + projU (v) − u. Osserviamo che il vettore proj(v)U − u appartiene ad U , in quanto differenza di vettori di U , mentre il vettore v − projU (v) appartiene a U ⊥ , come si `e visto nel corso della dimostrazione della Proposizione 12.1.8. Ci` o significa che projU (v) − u e v − projU (v) sono tra loro ortogonali. Si ha dunque v − u2 = v − projU (v)2 + projU (v) − u2
CAPITOLO 12. SPAZI EUCLIDEI
270
come si verifica facilmente sfruttando la perpendicolarit` a delle differenze a secondo membro. Essendo per ipotesi projU (v)−u = 0, si ha v −u2 > v −projU (v)2 .
12.2
Diagonalizzazione ortogonale
Nello studio della diagonalizzazione di matrici, abbiamo visto che una matrice A `e diagonalizzabile se e solo se esiste una base di Rn costituita da autovettori per A. In uno spazio euclideo si rivela utile a volte disporre di una base ortonormale. Possiamo dunque domandarci se sia possibile ottenere una base ortonormale di autovettori. Applicare il procedimento di Gram-Schmidt ad una base di autovettori non `e di aiuto perch´e i vettori cos`ı ottenuti cessano, in generale, di essere autovettori. Il risultato che dimostreremo `e che si pu`o ottenere una base ortonormale di autovettori solo per alcune matrici, precisamente quelle simmetriche. Prima di enunciare e dimostrare questo risultato, occorre introdurre in generale il concetto di matrice ortogonale (cfr. §5.17 e §9.21): Definizione 12.2.1. Una matrice quadrata P si dice ortogonale se P T = P −1 . Teorema 12.2.2. Le seguenti condizioni per una matrice quadrata di ordine n sono equivalenti (1) P `e ortogonale; (2) Le colonne di P sono un sistema ortonormale; (3) Le righe di P sono un sistema ortonormale. Dimostrazione. Siano r1 , . . . , rn le righe di P . L’elemento di posto (i, j) della matrice prodotto P P T `e il prodotto scalare dell’i-esima riga di P per la j-esima colonna di P T , che non `e altro che la j-esima riga di P trasposta. Nel calcolare P P T stiamo dunque eseguendo il prodotto scalare delle righe di P per se stesse. La condizione P P T = I equivale dunque ad affermare che il prodotto scalare ri · ri = 1, mentre ri · rj = 0 se i = j, cio`e le righe formano un sistema ortonormale. Un analogo ragionamento pu` o essere fatto per le colonne di P , osservando che P T P = I. Definizione 12.2.3. Una matrice quadrata A si dice ortogonalmente diagonalizzabile se esiste una matrice ortogonale P tale che P −1 AP = P T AP = D, dove D `e una matrice diagonale. Ci occorreranno anche alcune importanti propriet` a delle matrici simmetriche: Lemma 12.2.4. Assegnati u, v ∈ Rn e A matrice simmetrica, sia (x1 , . . . , xn )T la colonna delle coordinate di v e (y1 , . . . , yn )T la colonna delle coordinate di u. Allora v · Au = Av · u. Dimostrazione. Si ha: v · u = x1 y1 + · · · + xn yn = vT u, dove l’ultima espressione `e il prodotto di matrici. Abbiamo dunque: Av · u = (Av)T u = vT AT u = vT Au = v · Au, avendo sfruttato la simmetria di A.
12.2. DIAGONALIZZAZIONE ORTOGONALE
271
Proposizione 12.2.5. Se A `e una matrice simmetrica reale di ordine n, allora tutti i suoi n autovalori sono reali. Inoltre, se v e u sono due autovettori di A relativi a due autovalori distinti, allora essi sono perpendicolari. Dimostrazione. Sia v un autovettore, eventualmente complesso, di A: Av = λv, con λ ∈ C. Vogliamo dimostrare che λ `e in effetti reale ovvero che λ coincide col ¯ = λ. Sia dunque v = (x1 , x2 , . . . , xn )T un autovettore suo complesso coniugato: λ ¯ = (¯ ¯2 , . . . , x ¯n )T il suo coniugato. Allora il prodotto scalare relativo a λ e sia v x1 , x 2 ¯ = x1 x ¯ 1 + · · · + xn x ¯n = |x1 | + · · · + |xn |2 `e sicuramente un numero reale positivo. v·v ¯ ) = (λv · v ¯ ) = (Av) · v ¯ perch´e v `e un autovettore λ(v · v = v · A¯ v per il Lemma 12.2.4 ¯v) perch´e A `e reale = v · (A¯ = v · (Av) per le propriet` a del coniugio
(12.3)
= v · (λv) perch´e v `e un autovettore ¯ v) per le propriet` = v · (λ¯ a del coniugio ¯ ·v ¯ ) per la propriet` = λ(v a associativa. Riassumendo abbiamo ¯ ·v ¯ ) = λ(v ¯ ). λ(v · v ¯ ) un numero reale positivo, la relazione si pu`o semplificare ottenendo Essendo (v · v ¯ come richiesto. λ=λ Verifichiamo ora la seconda affermazione dell’enunciato. Assumiamo che v sia un autovettore relativo all’autovalore λ1 e che u sia un autovettore relativo all’autovalore λ2 dal Lemma 12.2.4 segue: λ1 (v · u) = (λ1 v) · u = Av · u = v · Au = v · (λ2 u) = λ2 (v · u). Dall’uguaglianza λ1 (v · u) = λ2 (v · u) discende (λ1 − λ2 )(v · u) = 0. Essendo per ipotesi λ1 − λ2 = 0, si ha necessariamente v · u = 0. Osservazione 12.2.6. La dimostrazione che gli autovalori diA sono reali nel caso a11 a12 delle matrici di ordine 2 `e pi` u elementare. Sia A = , di polinomio carata12 a22 2 2 teristico cA (x) = x − (a11 + a22 )x + (a11 a22 − a12 ). Tale polinomio di secondo grado ha discriminante Δ = (a11 + a22 )2 − 4(a11 a22 − a212 ) = (a11 − a22 )2 + 4a212 . Essendo somma di due quadrati, Δ `e non negativo, da cui la realt`a delle radici del polinomio. Proposizione 12.2.7. Una matrice di ordine n `e ortogonalmente diagonalizzabile se e solo se esiste una base ortonormale di Rn composta di autovettori.
CAPITOLO 12. SPAZI EUCLIDEI
272
Dimostrazione. Sia A ortogonalmente diagonalizzabile, cio`e P T AP = D per opportune matrici ortogonale P e diagonale D. Allora A `e diagonalizzabile e le colonne di P sono autovettori indipendenti che, per l’ortogonalit`a di P , formano una base ortonormale di Rn . Il seguente importante teorema risponde in maniera completa alla domanda posta all’inizio di questo paragrafo. Teorema 12.2.8. (Teorema degli Assi Principali) Se A `e una matrice reale di ordine n, allora A `e simmetrica se e solo se A `e ortogonalmente diagonalizzabile. Dimostrazione. La parte pi` u consistente della dimostrazione `e far vedere che, se A `e simmetrica, allora essa `e ortogonalmente diagonalizzabile. Procediamo per induzione sull’ordine n della matrice. Se n = 1 il risultato `e banalmente vero: ogni matrice di ordine 1 `e simmetrica, `e anche diagonale e ogni vettore di R `e un autovettore per essa. Supponiamo che l’enunciato sia vero per ogni matrice di ordine minore di n e consideriamo una matrice A simmetrica di ordine n. Sia v1 un autovettore per essa di autovalore λ1 . Possiamo supporre che v1 sia di norma 1 e sappiamo che l’autovalore `e reale per la Proposizione 12.2.5. Costruiamo un’intera base di Rn che abbia v1 come primo vettore, e pur di applicare il procedimento di Gram-Schmidt, possiamo supporre di avere una base ortonormale {v1 , v2 , . . . , vn }. In generale, a parte v1 , questi vettori non sono autovettori. Se quindi prendiamo la matrice invertibile P1 che ha questi vettori come colonne, avremo che P1 `e sicuramente una matrice ortogonale per la Proposizione 12.2.2, e avremo, scrivendo la matrice a blocchi, λ1 B −1 T P1 AP1 = P1 AP1 = . 0 A1 Osserviamo che P1T AP1 `e simmetrica: infatti calcolando la sua trasposta (P1T AP1 )T = P1T AT P1 = P1T AP1 si riottiene la matrice di partenza, perch´e A `e simmetrica. Ne segue che B = 0 e che A1 , che `e di ordine n − 1, `e anch’essa simmetrica. Possiamo allora usare l’ipotesi induttiva e trovare una matrice ortogonale Q di ordine n − 1 con la propriet`a che QT A1 Q = D1 , matrice diagonale di ordine n − 1. Consideriamo quindi la matrice, scritta a blocchi, 1 0 P2 = 0 Q La matrice P2 `e di nuovo ortogonale, perch´e le sue colonne sono ortonormali. Abbiamo allora =
1 0
(P1 P2 )T A(P1 P2 ) = P2T (P1T AP1 )P2 0 λ1 0 1 0 λ1 0 = 0 Q 0 A1 0 D1 QT
(12.4)
e questa `e una matrice diagonale. Rimane da dimostrare che P1 P2 `e ancora una matrice ortogonale. Ma ci` o `e facile: (P1 P2 )T P1 P2 = P2T (P1T P1 )P2 = P2T P2 = I
(12.5)
12.3. FORME QUADRATICHE
273
come richiesto. Viceversa: supponiamo ora che la matrice sia ortogonalmente diagonalizzabile. Si ha: P T AP = D dove P `e ortogonale e D `e diagonale e quindi A = P DP T . Calcolando la sua trasposta AT = (P DP T )T = (P T )T DT P T = P DP T = A, da cui discende che A `e simmetrica. Esercizio 12.2.9. Diagonalizzare ortogonalmente la matrice ⎛ ⎞ 2 1 1 A = ⎝1 2 1⎠. 1 1 2 Soluzione. Osserviamo subito che `e possibile soddisfare la richiesta perch´e la matrice A `e simmetrica. Essa ha polinomio caratteristico (x − 4)(x − 1)2 . Le sue radici sono reali come predetto dalla Proposizione 12.2.5: esse sono λ1 = 4 e λ2 = 1, con molteplicit` a algebrica 2. Gli autospazi corrispondenti sono E4 = (1, 1, 1)T ed E1 = (−1, 0, 1)T , (−1, 1, 0)T . Come segue dalla Proposizione 12.2.5, gli autovettori in E4 sono perpendicolari agli autovettori in E1 . La proposizione non dice nulla, tuttavia, sugli autovettori relativi allo stesso autovalore. Applichiamo il procedimento di Gram-Schmidt alla base {(−1, 0, 1)T , (−1, 1, 0)T } del sottospazio E1 , ottenendo la base ortogonale {(−1, 0, 1)T , (−1/2, 1, −1/2)T }. La base ortogonale di R3 , {(1, 1, 1)T , (−1, 0, 1)T , (−1/2, 1, −1/2)T }, una volta normalizzata, produce la matrice: ⎛ 1 ⎞ √ − √12 − √16 3 ⎜ 1 ⎟ √ √2 ⎟ 0 P =⎜ 6 ⎠ ⎝ 3 √1 √1 − √16 3 2 che ha colonne ortonormali ed `e dunque ortogonale. Si verifica infine l’uguaglianza P T AP = diag(4, 1, 1). Abbiamo cos`ı ottenuto la diagonalizzazione ortogonale di A.
12.3
Forme quadratiche
In questo paragrafo possiamo applicare il Teorema degli Assi Principali per giustificare alcune propriet` a che sono state utilizzate nella riduzione a forma canonica di una conica. In quei casi infatti avevamo osservato che l’equazione della conica assume una forma particolarmente semplice nel caso in cui si prendano gli assi principali della conica come assi di un nuovo sistema di riferimento, rendendo importante la considerazione della matrice della parte quadratica della conica. Questo motiva la definizione seguente. Definizione 12.3.1. Si definisce forma quadratica un qualunque polinomio omogeneo di secondo grado, in cui, cio`e, tutti i termini sono di grado 2. Le forme quadratiche svolgono un ruolo importante nella determinazione di massimi e minimi di funzioni di pi` u variabili.
CAPITOLO 12. SPAZI EUCLIDEI
274
Esempi 12.3.2. Il polinomio q1 = x2 + 3xy − 6y 2 `e una forma quadratica in due variabili, mentre q2 = x1 x2 + x23 `e una forma quadratica in tre variabili. Il polinomio x2 + y 2 − 2x non `e omogeneo e dunque non `e una forma quadratica. Ogni forma quadratica pu`o essere scritta utilizzando una matrice. Per esempio 3 1 x 2 q1 = (x, y) 3 y −6 2 ⎛
e
0
q2 = (x1 , x2 , x3 ) ⎝ 12 0
1 2
0 0
⎞⎛ ⎞ 0 x1 0⎠ ⎝x2 ⎠ x3 1
come il lettore `e invitato a verificare. Viceversa, data una matrice di ordine n, essa individua una forma quadratica in n variabili: ⎞⎛ ⎞ ⎛ a11 a12 . . . a1n x1 ⎜ ⎟ ⎜ .. ⎟ q = x 1 x2 . . . x n ⎝ . . . . . . . . . . . . ⎠ ⎝ . ⎠ . xn an1 an2 . . . ann In generale, dunque, una forma quadratica `e della forma q = X T AX. Nel seguito, senza ledere la generalit`a, possiamo supporre che A sia simmetrica. Diremo che A `e la matrice associata alla forma. Nel caso di una forma quadratica in due variabili q(x, y), il grafico di z = q(x, y) `e una superficie nello spazio tridimensionale. Sappiamo, ad esempio, che z = 3x2 + 2y 2 `e un paraboloide ellittico “rivolto verso l’alto”, z = −3x2 − 2y 2 `e un paraboloide ellittico “rivolto verso il basso”, z = 3x2 − 2y 2 `e un o che renparaboloide iperbolico, infine z = 3y 2 `e una quadrica degenere (cilindro). Ci` de relativamente facile visualizzare queste superfici `e il fatto che esse sono in posizione canonica, ossia che l’equazione non ha termini misti in xy. Ci` o corrisponde alfatto 3 0 x 2 2 che la matrice associata `e diagonale. Per esempio, 3x − 2y = (x, y) . 0 −2 y Il Teorema degli Assi Principali garantisce l’esistenza di una matrice ortogonale P in modo che P T AP = D, con D matrice diagonale. Se allora effettuiamo un cambio di variabili ponendo X = PY abbiamo q = X T AX = (P Y )T A(P Y ) = Y T (P T AP )Y = Y T DY = λ1 y12 + λn y22 + · · · + λn yn2 . Tale procedimento `e detto it diagonalizzazione della forma quadratica. Esso `e in particolare utilizzato nella riduzione a forma canonica delle coniche e delle quadriche. Definizione 12.3.3. Una forma quadratica si dice • definita positiva se q(X) > 0 per ogni X = 0, • definita negativa se q(X) < 0 per ogni X = 0, • semidefinita positiva se q(X) ≥ 0 per ogni X = 0,
12.3. FORME QUADRATICHE
275
• semidefinita negativa se q(X) ≤ 0 per ogni X = 0, • indefinita altrimenti. Una matrice simmetrica A si dice definita positiva, definita negativa, semidefinita positiva, semidefinita negativa, indefinita, se la forma quadratica associata ha la propriet`a corrispondente. Come conseguenza del Teorema degli Assi Principali abbiamo la seguente caratterizzazione delle forme quadratiche definite positive: Teorema 12.3.4. Data A matrice simmetrica, la forma quadratica q = X T AX `e • definita positiva se e solo se ogni autovalore di A `e strettamente positivo; • semidefinita positiva se e solo se ogni autovalore di A `e non negativo ed almeno uno `e zero; • definita negativa se e solo se ogni autovalore di A `e strettamente negativo; • semidefinita negativa se e solo se ogni autovalore di A `e non positivo ed almeno uno `e zero; • indefinita se A possiede autovalori sia positivi che negativi. Dimostrazione. Dimostriamo il primo punto del teorema. Gli altri punti si dimostrano analogamente. Se A `e simmetrica, allora per il Teorema degli Assi Principali, come osservato sopra, possiamo supporre che q(X) = λ1 y12 + λn y22 + · · · + λn yn2 .
(12.6)
Se ogni autovalore `e positivo, allora da questa segue che q(X) > 0, per ogni X = 0, e la forma `e definita positiva. Viceversa, se q(X) > 0, per ogni X = 0, prendiamo la j-esima colonna Xj di P , che uguaglia P Ej , dove Ej `e la j-esima colonna di In (cfr. 11.1.4). Abbiamo quindi q(Xj ) = XjT AXj = (P Ej )T A(P Ej ) = EjT (P T AP )Ej = EjT DEj = λj ed essendo q(Xj ) > 0, risulta λj > 0. Esempio 12.3.5. Effettuare un cambiamento di variabili per eliminare il termine misto nella forma quadratica q(x, y) = 5x2 + 4xy + 2y 2 . La matrice associata `e 5 2 2 2 2 con polinomio caratteristico x − 7x − 6 = (x − 1)(x − 6). Autovettori corrispondenti 1 2 1 2 1 sono v1 = e v2 = . Normalizzati sono: u1 = √5 e u2 = √15 . −2 1 −2 1 La matrice P `e allora 1 1 2 √ P = 5 −2 1
CAPITOLO 12. SPAZI EUCLIDEI
276
e si ha P T AP = D, dove D = diag(1, 6). Posto 1 1 2 x x , =√ y y 5 −2 1 abbiamo allora
T x 5 X AX = y 2 T
2 2
x y
T 1 1 1 2 x 1 2 x 5 2 √ = √ −2 1 −2 1 y y 2 2 5 5 T 1 1 −2 x 5 2 1 1 2 x √ √ = 2 2 y y 5 2 1 5 −2 1 T x 1 0 x 2 = = x + 6y 2 y y 0 6
Si osservi che la matrice A `e definita positiva. Si poteva anche osservare che, utilizzando la tecnica del completamento del quadrato, 4 q(x, y) = 5x2 + 4xy + 2y 2 = 5(x2 + xy) + 2y 2 5 2 2 2 2 2 4 2 4 2 2 2 2 = 5 x + xy + y + 2y − 5 y = 5 x + y + (2 − )y 2 5 5 5 5 5 Questa espressione polinomiale, essendo somma di due quadrati, `e chiaramente positiva per ogni (x, y) = (0, 0). Osserviamo che questo dipende dal fatto che il coefficiente 4 2− >0 5 10 − 4 det A ed `e interessante notare che questo coefficiente altro non `e che = (si 5 a11 confronti col Teorema 12.3.7). Corollario 12.3.6. Ogni matrice definita positiva `e invertibile. Dimostrazione. Il determinante `e non nullo in quanto esso `e il prodotto degli autovalori che sono tutti positivi. Calcolare gli autovalori di una matrice non `e sempre agevole. Risulta quindi molto utile il seguente criterio necessario e sufficiente per la positivit` a, di cui omettiamo la dimostrazione. Ricordando la definizione di minori principali (v. Esempio 3.8.32), possiamo enunciare Teorema 12.3.7. Sia A una matrice simmetrica di ordine n e siano A1 , A2 , . . . , An = A i minori direttori di A, di ordine rispettivo 1, 2, . . . , n. • A `e definita positiva se e solo se det Ar > 0, r = 1, . . . n,
12.3. FORME QUADRATICHE
277
• A `e definita negativa se e solo se (−1)r det Ar > 0, r = 1, . . . n. Per la semipositivit`a `e necessario considerare tutti i minori principali e non solo quelli direttori: Teorema 12.3.8. Sia A una matrice simmetrica di ordine n. • A `e semidefinita positiva se e solo se ogni minore principale ha determinante non negativo; • A `e semidefinita negativa se e solo se i determinanti principali di ordine pari sono non negativi e quelli di ordine dispari sono non positivi. Esempio 12.3.9. Determinare se la seguente matrice `e definita, semidefinita o indefinita. ⎛ ⎞ 10 3 4 A = ⎝ 3 3 2⎠ 4 2 3 Si ha det A1 = 10,
10 3 = 21, det A2 = 3 3
10 3 4 det A3 = 3 3 2 = 23. 4 2 3
Essendo tutti positivi possiamo concludere che la matrice A `e definita positiva. Esempio 12.3.10. Determinare se la seguente matrice `e definita, semidefinita o indefinita. ⎞ ⎛ 5 8 10 A = ⎝ 8 11 −2⎠ 10 −2 2 5 8 = −9 < 0, det A3 = −1458 < 0. Non essendo det A1 = 5 > 0, det A2 = 8 11 soddisfatto alcuno dei criteri precedenti, la matrice `e indefinita. Esempio 12.3.11. Determinare se la seguente matrice `e definita, semidefinita o indefinita. √ ⎛√ ⎞ 6 − 3 −1 √ ⎜ √ ⎟ 6 √1 ⎟ . − 3 A=⎜ 2 2 ⎠ ⎝ √ 3 6 √1 −1 2 2 √ √ √ 6 −√ 3 det A1 = 6 > 0, det A2 = √ e l’esame dei 6 = 0 , det A3 = 0. Poich´ − 3 2 minori direttori non `e sufficiente a concludere, consideriamo anche gli altri minori principali. I minori principali di ordine 1, ovvero gli elementi sulla diagonale principale, sono evidentemente tutti positivi. I determinanti dei minori principali di ordine 2 non direttori sono: √ √ 6 √1 6 −1 2 2 √ √ = 4. = 8, 1 3 6 √ −1 3 2 6 2 2
In conclusione, la matrice `e semidefinita positiva.
CAPITOLO 12. SPAZI EUCLIDEI
278
12.4
Metodo dei Minimi Quadrati
Mostriamo come usare alcune tecniche apprese nelle pagine precedenti per risolvere un comune problema di approssimazione. Ci occorrer`a il Teorema 12.1.14. Supponiamo di avere un sistema di equazioni lineari Ax = b. Sappiamo che un tale sistema `e compatibile precisamente quando la colonna dei termini noti appartiene allo spazio delle colonne di A. Se abbiamo un sistema incompatibile, il vettore differenza b − Ax `e non nullo per qualunque scelta di x. Possiamo quindi cercare di minimizzare la sua lunghezza al variare di x. Precisiamo questa idea nella seguente Definizione 12.4.1. Si dice soluzione ai minimi quadrati del sistema Ax = b un ¯ ∈ Rn tale che vettore x b − A¯ x ≤ b − Ax,
∀x ∈ Rn .
Al variare di x in Rn , Ax varia nello spazio delle W = C(A) generato dalle colonne di A. Cerchiamo la migliore approssimazione a b all’interno di W . Segue dal Teorema x = PW (b) di approssimazione che la soluzione desiderata `e A¯ x = PW (b). Il sistema A¯ `e sicuramente compatibile perch´e la colonna dei termini noti `e per costruzione nello spazio delle colonne di A. Per risolvere tale sistema lineare, conviene osservare che b − A¯ x = b − PW (b) `e ortogonale a W , ossia ortogonale alle colonne di A. In definitiva, quindi, se ai `e la i-esima colonna di A, abbiamo: aTi (b − A¯ x) = 0 per ogni i. Equivalentemente: ⎛ ⎞ 0 ⎜0⎟ ⎜ ⎟ x) = ⎜ . ⎟ AT (b − A¯ ⎝ .. ⎠ 0 ovvero AT b − AT A¯ x=0 ossia x = AT b. AT A¯ Questo nuovo sistema lineare si dice sistema di equazioni normali per la soluzione ai minimi quadrati. Lemma 12.4.2. Sia A ∈ M (m × n, R). Il rango di A `e uguale al rango della matrice AT A. Dimostrazione. AT A `e una matrice quadrata n×n. Il Teorema delle dimensioni ci dice che n = rg(A) + dim(KerA), ma anche n = rg(AT A) + dim(Ker(AT A)). Dimostriamo che i ranghi delle due matrici sono uguali provando che i nuclei sono uguali. Per far ci`o, supponiamo che x ∈ KerA. Allora Ax = 0 e quindi AT Ax = AT 0 = 0 cio`e x ∈ Ker(AT A). Viceversa: se AT Ax = 0 allora xT AT Ax = 0, ma il primo membro `e il prodotto scalare di Ax per se stesso e quindi `e zero se e solo se Ax = 0.
12.4. METODO DEI MINIMI QUADRATI
279
Corollario 12.4.3. La matrice AT A `e invertibile se e solo se le colonne di A sono linearmente indipendenti. Abbiamo quindi dimostrato il seguente Teorema 12.4.4. Sia A ∈ M (m × n, R). Allora: ¯ `e una soluzione ai minimi quadrati di Ax = b se e solo se x ¯ `e una soluzione (1) x del sistema di equazioni normali x = AT b. AT A¯ (2) Se A ha colonne linearmente indipendenti, la soluzione ai minimi quadrati `e unica ed `e data da ¯ = (AT A)−1 AT b. x ¯ = (AT A)−1 AT b, nel Avendo osservato in precedenza che A¯ x = PW (b) e che x caso in cui le n colonne di A sono linearmente indipendenti, avremo allora che A(AT A)−1 AT b = PW (b). In altre parole la matrice
A(AT A)−1 AT
`e la matrice della trasformazione lineare PW : Rm → Rm che proietta ortogonalmente Rm sul sottospazio W delle colonne di A. Esercizio 12.4.5. Calcolare la matrice della proiezione ortogonale di R3 sul sottospazio W costituito dal piano di equazione cartesiana x − y + 2z = 0. ⎛ ⎞ ⎛ ⎞ 1 −1 Soluzione Una base di W `e costituita da ⎝1⎠ e ⎝ 1 ⎠. Consideriamo la matrice 0 1 rettangolare che ha questi vettori per colonne: ⎛ ⎞ 1 −1 A = ⎝1 1 ⎠. 0 1 Allora
T
A A=
1 −1
⎛ 1 1 0 ⎝ 1 1 1 0
Quindi (AT A)−1 =
⎞ −1 2 ⎠ 1 = 0 1
1 2
0
0 1 3
0 . 3
CAPITOLO 12. SPAZI EUCLIDEI
280 e infine ⎛
⎞ 1 −1 1 T −1 T A(A A) A = ⎝1 1 ⎠ 2 0 0 1
0
1 −1
1 3
⎛ 1 0 ⎜ =⎝ 1 1
5 6 1 6 − 13
1 6 5 6 1 3
− 13 1 3 1 3
⎞ ⎟ ⎠
`e la matrice desiderata. Esempio 12.4.6. Richiamando l’Esempio 12.1.12 si pu`o verificare che, posto ⎞ ⎛ 1 2 4 ⎜1 3 3⎟ ⎟ A=⎜ ⎝1 −1 2⎠ , 1 0 1 la matrice A(AT A)−1 AT `e ⎛
3 1 1⎜ 1 3 ⎜ ⎝ 1 −1 4 −1 1
1 −1 3 1
⎞ −1 1⎟ ⎟. 1⎠ 3
Definizione 12.4.7. La matrice A+ = (AT A)−1 AT si dice pseudoinversa di A. Possiamo allora dire che la soluzione ai minimi quadrati `e semplicemente ¯ = A+ b x e che la matrice della proiezione ortogonale `e AA+ , evidenziando il parallelismo di A+ con la matrice A−1 in quanto A+ permette di risolvere un sistema di equazioni lineari (“regola di Cramer”) e il prodotto di A per la sua pseudoinversa `e “quasi” l’identit`a, pensando ad una proiezione ortogonale come una identit` a “parziale”. Esempio 12.4.8. Calcolare la soluzione approssimata ai minimi quadrati del sistema incompatibile Ax = b, dove ⎛ ⎞ ⎛ ⎞ 1 5 3 A = ⎝ 2 −2⎠ b = ⎝2⎠ . −1 1 5 Calcoliamo T
A A=
1 5
e
2 −2
AT b =
⎛ 1 −1 ⎝ 2 1 −1
⎞ 5 6 ⎠ −2 = 0 1
⎛ ⎞ 3 1 2 −1 ⎝ ⎠ 2 2 = . 5 −2 1 16 5
0 30
12.4. METODO DEI MINIMI QUADRATI
281
Le equazioni normali costituiscono allora il sistema 6 0 2 x ¯= 16 0 30 da cui ricaviamo x ¯=
1 3 8 15
.
Il metodo dei minimi quadrati fu ideato da Gauss per calcolare l’orbita del pianeta nano Cerere scoperto nel 1801. Da allora si `e rivelato uno strumento utilissimo per trattare dati sperimentali. Supponiamo, a titolo di esempio, di avere n punti (x1 , y1 ), . . . , (xn , yn ), ottenuti da un ipotetico esperimento e di aver motivo di credere che i valori di x e y siano legati da una relazione lineare del tipo y = a + bx. Una tale funzione, se esistesse, soddisferebbe: a + bx1 = y1 a + bx2 = y2 .. . a + bxn = yn ovvero Ax = b, avendo posto ⎛ 1 ⎜1 ⎜ A = ⎜. ⎝ .. 1
⎞ x1 x2 ⎟ ⎟ .. ⎟, . ⎠
⎛
x=
a , b
⎞ y1 ⎜ y2 ⎟ ⎜ ⎟ b = ⎜ . ⎟. ⎝ .. ⎠
xn
yn
a Tale sistema, quasi sicuramente, non ammette alcuna soluzione x = , tuttavia la b soluzione ai minimi quadrati fornisce la cosiddetta retta ai minimi quadrati, che ha il pregio di minimizzare la norma del vettore errore e = b − Ax. Esercizio 12.4.9. Determinare la retta ai minimi quadrati, relativa ai tre punti (1, 2), (2, 2), (3, 4). Soluzione Dobbiamo calcolare la soluzione ai minimi quadrati del sistema: ⎛ ⎞ ⎛ ⎞ 1 1 2 ⎝1 2⎠ a = ⎝2⎠. b 1 3 4 Le relative equazioni normali sono: ⎛ ⎞ 1 1 1 1 1 ⎝ a 1 1 2⎠ = 1 2 3 b 1 1 3
1 2
⎛ ⎞ 2 1 ⎝ ⎠ 2 3 4
CAPITOLO 12. SPAZI EUCLIDEI
282
cio`e
da cui a = 23 , b = 1, cio`e y =
2 3
3 6
6 a 8 = 14 b 18
+ x `e la desiderata retta ai minimi quadrati.
Nell’esercizio che segue cerchiamo una parabola che meglio approssima quattro punti dati. Il problema, come vedremo, `e del tutto analogo al precedente. Esercizio 12.4.10. Siano dati P1 = (−2, 4), P2 = (−1, 1), P3 = (1, 1), P4 = (2, −6). Cerchiamo una curva di equazione y = a0 + a1 x + a2 x2 tale che
⎧ a0 − 2a1 + 4a2 = 4 ⎪ ⎪ ⎪ ⎨a − a + a = 1 0 1 2 ⎪ + a + a a 0 1 2 =1 ⎪ ⎪ ⎩ a0 + 2a1 + 4a2 = −6
Il sistema, avendo matrice completa ⎞ ⎛ ⎛ 1 1 −2 4 4 ⎜1 −1 1 1 ⎟ ⎜0 ⎟ ⎜ ⎜ ⎝1 1 1 1 ⎠ ∼ ⎝0 0 1 2 4 −6 risulta incompatibile. Consideriamo allora con
⎛
1 ⎜1 A=⎜ ⎝1 1
−2 −1 1 2
⎞ 4 1⎟ ⎟, 1⎠ 4
−2 1 0 0
⎞ 4 4 −3 −3 ⎟ ⎟, 1 1 ⎠ 0 −10
x = (AT A)−1 AT b, ⎛
2 AT A = ⎝0 5
0 5 0
⎞ 5 0 ⎠, 17
(AT A)−1
⎛ 85 1 ⎝ 0 = 90 −25
⎞ 0 −25 9 0 ⎠. 0 10
Si ha quindi: ⎛
x=
85 1 ⎝ 0 90 −25
⎞⎛
0 −25 1 9 0 ⎠ ⎝−2 0 10 4
⎛ ⎞ ⎞ 4 ⎛ ⎞ 1 1 1 ⎜ ⎟ 5 1 1 ⎟ = ⎝−6⎠. −1 1 2⎠ ⎜ ⎝1⎠ 3 1 1 4 −2 −6
Dunque a0 = 53 , a1 = −2, a2 = − 23 e y=
2 5 − 2x − x2 3 3
`e la richiesta parabola ai minimi quadrati.
12.4. METODO DEI MINIMI QUADRATI
283
Esempio 12.4.11. L’andamento della popolazione di Roma dopo l’unit` a d’Italia `e data dalla seguente Tabella1 Anno 1871 1881 1901 1911 1921 1931 1951 1961 1971 1981 1991 2001 2011
pop. (in migliaia) 209,222 269,813 416,028 511,076 650,258 916,858 1626,793 2155,093 2739,952 2797,337 2733,908 2546,804 2617,175
Vogliamo trovare la legge lineare che meglio approssima questo andamento. Le matrici A e b sono ⎞ ⎛ ⎞ ⎛ 209, 222 1 0 ⎜ 269, 813 ⎟ ⎜1 10 ⎟ ⎟ ⎜ ⎟ ⎜ ⎜ 416, 028 ⎟ ⎜1 30 ⎟ ⎟ ⎜ ⎟ ⎜ ⎜ 511, 076 ⎟ ⎜1 40 ⎟ ⎟ ⎜ ⎟ ⎜ ⎜ 650, 258 ⎟ ⎜1 50 ⎟ ⎟ ⎜ ⎟ ⎜ ⎜ 916, 858 ⎟ ⎜1 60 ⎟ ⎟ ⎜ ⎟ ⎜ ⎟ ⎟ b=⎜ A=⎜ ⎜1626, 793⎟ ⎜1 80 ⎟ ⎜2155, 093⎟ ⎜1 90 ⎟ ⎟ ⎜ ⎟ ⎜ ⎜2739, 952⎟ ⎜1 100⎟ ⎟ ⎜ ⎟ ⎜ ⎜2797, 337⎟ ⎜1 110⎟ ⎟ ⎜ ⎟ ⎜ ⎜2733, 908⎟ ⎜1 120⎟ ⎟ ⎜ ⎟ ⎜ ⎝2546, 804⎠ ⎝1 130⎠ 2617, 175 1 140 T
Allora A A =
13 960 . L’inversa di questa matrice `e 960 96200 T
(A A)
−1
=
481 1645 24 8225
24 − 8225
13 − 329000
.
La soluzione si trova infine calcolando T
(A A)
−1
T
A b=
−91, 245 . 22, 2672
1 http://www.tuttitalia.it/lazio/33-roma/statistiche/censimenti-popolazione/
284
CAPITOLO 12. SPAZI EUCLIDEI
In altre parole, la retta desiderata `e y = 22, 2672x − 91, 245 (v. figura)2
Secondo questo modello di crescita, nel 2021 la popolazione di Roma dovrebbe essere all’incirca, sostituendo x = 150 nell’equazione della retta, di 3.248.835 persone. Se si sceglie un modello con un polinomio di quarto grado, invece di un modello lineare, si ottiene la funzione polinomiale f (x) = 252.3313768224035 − 3.502186383790344x + 0.088876374230785x2 + 0.004991144677039x3 − 0.000033170972662x4 che per x = 150 fornisce il valore 1.779.030: drammaticamente diverso. Quale modello sar` a pi` u fedele alla realt` a? Ovviamente la risposta esula dal corso di Geometria (v. figura).
2 I grafici relativi a questo esercizio sono stati ottenuti, come molti altri in questo libro, con GeoGebra: www.geogebra.org. In particolare qui si `e usato il comando RegLin o Regressione.
12.5. DECOMPOSIZIONE AI VALORI SINGOLARI
12.5
285
Decomposizione ai valori singolari
Sappiamo che una matrice reale simmetrica A si fattorizza in A = P DP T , con P matrice ortogonale e D diagonale. Se A non `e simmetrica ma comunque diagonalizzabile, il meglio che possiamo fare `e fattorizzare A = P DP −1 , con P matrice non ortogonale. Risulta allora alquanto sorprendente apprendere che, se A `e una matrice qualunque, in generale rettangolare, essa `e fattorizzabile nella forma A = P DQT dove P e Q sono matrici ortogonali e D `e diagonale. Se pensiamo alle matrici come trasformazioni lineari, allora le matrici quadrate corrispondono ad endomorfismi e la fattorizzazione indicata sopra corrisponde, come sappiamo, a determinare una base ortonormale del dominio rispetto alla quale l’endomorfismo si rappresenta come una somma di dilatazioni (o compressioni) Aui = λui in alcune direzioni (quelle degli autovettori). Nel caso di una matrice rettangolare, abbiamo una trasformazione tra due spazi di dimensioni, in generale, diverse. Quindi occorre trovare, se possibile, non una, bens`ı due basi ortonormali, una nel dominio e una nel codominio, in modo che la trasformazione sia ancora una “dilatazione” in varie direzioni, espressa da Avi = λui , con entrambi gli insiemi {vi } e {ui } ortonormali. Sia dunque A una matrice m × n. Allora AT A, essendo una matrice n × n simmetrica, pu`o essere diagonalizzata ortogonalmente. Osserviamo che gli autovalori di AT A non solo sono tutti reali ma anche non negativi. Infatti, se v `e un autovettore di norma 1, relativo all’autovalore λ, si ha: 0 ≤ Av2 = (Av)T Av = vT AT Av = vT λv = λ(vT v) = λv2 = λ.
(12.7)
Definizione 12.5.1. Se A `e una matrice m × n, definiamo valori singolari di A le radici quadrate degli autovalori di AT A. Esempio 12.5.2. Determinare i valori singolari di ⎛ ⎞ 1 1 A = ⎝1 0⎠. 0 1 Calcoliamo
T
A A=
1 1
1 0
⎛ 1 0 ⎝ 1 1 0
⎞ 1 2 ⎠ 0 = 1 1
1 , 2
che ha autovalori 3, 1. I valori singolari, ordinati in maniera decrescente, sono quindi: √ σ1 = 3, σ2 = 1. Osserviamo anche che se {v1 , . . . , vn } `e una base ortonormale di autovettori √ di AT A, allora, per ogni i, in forza della 12.7, si ha: λi = ||Avi ||2 e quindi σi = λi `e la lunghezza di Avi . Definizione 12.5.3. Una matrice A = (aij ) ∈ M (m × n, R) si dice pseudodiagonale se aij = 0 per i = j.
CAPITOLO 12. SPAZI EUCLIDEI
286
Teorema 12.5.4. (SVD) Ogni matrice A ∈ M (m × n, R) `e il prodotto A = U ΣV con U e V matrici ortogonali (U di ordine m e V di ordine n) e Σ matrice pseudodiagonale dello stesso ordine di A. Dimostrazione. Supponiamo che σ1 ≥ σ2 ≥ . . . ≥ σr > 0 siano i valori singolari non nulli di A e σr+1 = σr+2 = · · · = σn = 0 siano i restanti valori singolari. Assegnata una base ortonormale {v1 , . . . , vn } di Rn formata da autovettori di AT A, allora la matrice W = (v1 , . . . , vn ), che ha i vettori vi per colonne, `e una matrice ortogonale n × n. Osserviamo ora che {Av1 , . . . , Avn } `e un sistema ortogonale di vettori di Rm . Infatti, se i = j, (Avi )T Avj = viT AT Avj = viT λj vj = λj (viT vj ) = 0. Ricordando allora che σi = Avi e che i primi r sono non nulli, possiamo normalizzare {Av1 , . . . , Avr } ottenendo {u1 , . . . , ur }, dove ui =
1 Avi . σi
Allora {u1 , . . . , ur } `e un sistema ortonormale di Rm , che, nel caso r < m, non `e una base di Rm . Possiamo tuttavia completare {u1 , . . . , ur } fino ad ottenere una base ortonormale {u1 , . . . , um } di Rm . Sia dunque U = (u1 , . . . , um ) la matrice ortogonale che ha per colonne i vettori ui . Si ha: AW = A(v1 , . . . , vn ) = (Av1 , . . . , Avn ) = (Av1 , . . . , Av ⎛ r , 0, . . . , 0) = ⎞ σ1 . . . 0 . . . 0 ⎜ . . .. ⎟ ⎜ .. . . ... .⎟ ⎟ ⎜ ⎜ = (σ1 u1 , . . . , σr ur , 0, . . . , 0) = (u1 , . . . , ur , ur+1 , . . . , um ) ⎜ 0 . . . σr . . . 0 ⎟ ⎟. ⎟ ⎜ . . . ⎝ . .. .. ⎠ . 0 ... 0 ... 0 ⎛ ⎞ σ1 . . . 0 . . . 0 ⎜ . . .. ⎟ ⎜ .. . . ... .⎟ ⎜ ⎟ ⎜ Indicata con Σ la matrice pseudodiagonale ⎜ 0 . . . σr . . . 0 ⎟ ⎟, abbiamo quindi AW = ⎜ . ⎟ . . ⎝ . .. .. ⎠ . 0 ... 0 ... 0 U Σ. Moltiplicando a destra per V = W T , otteniamo A = U ΣV . Questa `e la cosiddetta decomposizione ai valori singolari di A. Le colonne di U si dicono vettori singolari a sinistra di A e le colonne di V si dicono vettori singolari a destra di A.
12.5. DECOMPOSIZIONE AI VALORI SINGOLARI
287
Esempio 12.5.5. Trovare la decomposizione ai valori singolari di 1 1 0 A= . 0 0 1 Soluzione
⎛
⎞ ⎛ ⎞ 0 1 1 0 1 1 0 0⎠ = ⎝ 1 1 0⎠. 0 0 1 1 0 0 1 1 0 1 − λ 1 1−λ 0 = (1 − λ) = 1 1 − λ 0 1 − λ
1 AT A = ⎝1 0 1 − λ 1 0
(1 − λ[(1 − λ)2 − 1] = (1 − λ)(λ − 2)λ. Dunque gli autovalori sono λ1 = 0, λ2 = 1, λ3 = 2, con autovettori rispettivamente (1, 1, 0)T , (0, 0, 1)T , (−1, 1, 0)T . Questi tre vettori sono automaticamente ortogonali. Normalizzando abbiamo: 1 1 1 1 ( √ , √ , 0)T , (0, 0, 1)T , (− √ , √ , 0)T . 2 2 2 2 √ I valori singolari di A, ordinati in modo decrescente, sono: σ1 = 2, σ2 = 1, σ3 = 0. Quindi: ⎛ 1 ⎞ √ 0 − √12 √ 2 2 0 0 ⎜ ⎟ V T = ⎝ √12 0 √12 ⎠, . Σ= 0 1 0 0 1 0 Per trovare U :
u1 =
1 1 Av1 = √ σ1 2
u2 =
1 0
⎛ 1 ⎞ √2 √ 1 0 ⎜ √1 ⎟ 1 2 √ = = , ⎝ 2⎠ 1 0 2 0 0
1 0
1 1 Av2 = √ σ2 2
da cui:
1 0
U=
⎛ ⎞ 0 1 0 ⎝ ⎠ 0 0 = , 0 1 1 1
1 0
0 . 1
Infine la decomposizione ai valori singolari `e: A=
1 0
1 0
0 1 = 1 0
0 1
√
2 0
⎛ √1 0 0 ⎝ 2 0 1 0 − √12
√1 2
0
√1 2
⎞ 0 1⎠ = U ΣV. 0
CAPITOLO 12. SPAZI EUCLIDEI
288
Osservazione 12.5.6. La decomposizione pu`o essere riscritta in maniera differente come segue: ⎛ ⎞ ⎛ ⎞ v1T σ1 . . . 0 . . . 0 ⎜ . ⎟ ⎜ .. ⎟ ⎜ . . .. ⎟ ⎜ ⎟ ⎜ .. . . ... .⎟ ⎟ ⎜ vrT ⎟ ⎜ ⎜ ⎟ ⎟ A = U ΣV = (u1 , . . . , ur , ur+1 , . . . , um ) ⎜ T ⎟= ⎜ 0 . . . σr . . . 0 ⎟ ⎜vr+1 ⎜ ⎜ . ⎟ .. .. ⎠ ⎜ . ⎟ ⎟ ⎝ . . . . ⎝ .. ⎠ 0 ... 0 ... 0 vnT ⎞⎛ T⎞ ⎛ ⎛ T⎞ v1 σ1 . . . 0 v1 ⎟ ⎜ .. ⎟ ⎜ ⎜ .. ⎟ . . = (u1 , . . . , ur ) ⎝ ⎠ ⎝ . ⎠ = (σ1 u1 , . . . , σr ur ) ⎝ . ⎠ = . 0
...
vrT
σr
vrT
= σ1 u1 v1T + · · · + σr ur vrT che si pu`o pensare come una generalizzazione del Teorema degli Assi principali . La decomposizione ai valori singolari, spesso abbreviata con SVD (“singular value decomposition”), `e importante sia dal punto di vista teorico che pratico. Abbiamo visto che nel caso in cui AT A `e invertibile, la matrice A+ = (AT A)−1 AT , pseudoinversa di A, permette di risolvere il problema ai minimi quadrati. Nel caso u in cui la matrice AT A non `e invertibile, la soluzione ai minimi quadrati non `e pi` unica; tuttavia, tra le infinite soluzioni, ne esiste una di lunghezza minima. Si dimostra che tale soluzione si trova attraverso la generalizzazione del concetto di matrice pseudoinversa data nella definizione seguente. Definizione 12.5.7. Se A `e una qualunque matrice e A = U ΣV una sua SVD, definiamo pseudoinversa di Moore e Penrose di A la matrice A+ = V T Σ+ U T , dove
+
Σ =
D−1 0
0 D , essendo Σ = 0 0
0 . 0
Con calcoli elementari si pu` o verificare che, nel caso di AT A invertibile, la definizione coincide con quella gi` a data di matrice pseudoinversa. Si ha: Proposizione 12.5.8. La soluzione ai minimi quadrati, di lunghezza minima, del ¯ = A+ b. problema Ax = b, `e x 1 1 0 Esempio 12.5.9. Per la matrice A = , la matrice AT A non `e invertibile. 0 0 1 La matrice pseudo inversa di Moore e Penrose `e: ⎛ A+ =
√1 2 ⎜ √1 ⎝ 2
0
0
− √12
0
√1 2
1
⎞⎛
√1 2
⎟⎜ ⎠⎝ 0 0 0
⎞ 0 ⎟ 1 1⎠ 0 0
0 1
⎛1
=
2 ⎜1 ⎝2
0
⎞ 0 ⎟ 0⎠. 1
12.6. SPAZI EUCLIDEI IN GENERALE
12.6
289
Spazi Euclidei in generale
Sia V uno spazio vettoriale definito su R. Diremo, estendendo una definizione data in precedenza, che V `e uno spazio vettoriale euclideo se `e definita una applicazione V ×V →R che ad ogni coppia di vettori (u, v) di V associa uno scalare, indicato con (u|v), che soddisfi le seguenti propriet`a: (1) (αu|v) = (u|αv) = α(u|v) per ogni u, v ∈ V , α ∈ R; (2) (w|u + v) = (w|u) + (w|v) per ogni u, v, w ∈ V ; (3) (u|v) = (v|u) per ogni u, v ∈ V ; (4) (u|v) = 0 per ogni v ∈ V implica u = 0. Definizione 12.6.1. Una applicazione che soddisfi: le propriet`a (1) e (2), si dice forma bilineare, le propriet`a (1), (2) e (3), si dice forma bilineare simmetrica, le propriet`a (1), (2), (3) e (4), si dice forma bilineare simmetrica non degenere. Se invece della (4) si richiede la propriet` a: (4 ) (u|u) ≥ 0
∀u ∈ V e (u|u) = 0 =⇒ u = 0,
allora si dice che la forma bilineare simmetrica `e definita positiva. Esercizio 12.6.2. Verificare che (4 ) implica (4) ma non viceversa. Una forma bilineare simmetrica definita positiva si dice prodotto scalare e lo spazio euclideo si dice allora proprio. Esempi 12.6.3. Abbiamo: I) Rn con il prodotto scalare canonico `e uno spazio euclideo. In tal caso il prodotto scalare (u|v) `e anche indicato con u · v (cfr. §2.4). II) Lo spazio vettoriale C 0 ([a, b]) delle funzioni continue sull’intervallo reale [a, b] *b `e uno spazio euclideo rispetto al prodotto scalare (f |g) = a f (t)g(t) dt. III) Lo spazio vettoriale Mn (R) con il prodotto scalare definito da (A|B) = T r(AB T ) `e uno spazio euclideo. finita n e se B = {v1 , . . . , vn } `e una base di V , siano u = + + Se V ha dimensione a v e v = b v . Per le propriet` a (1) e (2), avremo i i j j i j (u|v) =
i,j
ai bj (vi , vj ).
CAPITOLO 12. SPAZI EUCLIDEI
290
che mostra come il prodotto scalare di due vettori sia determinato una volta che siano assegnati i prodotti scalari dei vettori di una base. Se allora poniamo gij = (vi , vj ), potremo scrivere ai bj gij . (u|v) = i,j
La (4) nella definizione di prodotto scalare si traduce allora come segue: il sussistere dell’eguaglianza ai bj gij = 0 per ogni scelta delle bj , j = 1, . . . , n, implica che i,j
ai = 0,
i = 1, . . . , n.
In particolare, ci`o significa che per ogni j = 1, . . . , n: ai gij = 0. (u|vj ) = i
Questo equivale a dire che il sistema lineare omogeneo ai gij = 0 (j = 1, . . . , n) i
ammette solo la soluzione banale. Il Teorema 3.6.12 implica det(gij ) = 0. La matrice gij `e detta matrice della forma rispetto alla base B. Diremo che due vettori sono ortogonali se il loro prodotto scalare `e zero. Il prodotto scalare usuale su Rn `e effettivamente una forma bilineare simmetrica definita positiva. Nel caso di uno spazio euclideo proprio, diremo norma del vettore v lo scalare v = (v|v). Questa norma induce su Rn una nozione di distanza o lunghezza. Chiameremo unitario (oppure versore) un vettore di norma 1. Un insieme di vettori di V di norma 1 e a due a due ortogonali si chiama sistema ortonormale di vettori. Un tale sistema {v1 , . . . , vn } `e caratterizzato dalle condizioni (vi |vj ) = δij (δij simbolo di Kronecker). In modo del tutto analogo al caso di Rn (cfr. Proposizione 12.1.1), si dimostra la seguente: Proposizione 12.6.4. I vettori di un sistema ortonormale sono linearmente indipendenti. Se dunque la dimensione di V `e n ed il sistema ortonormale ha n vettori parleremo di base ortonormale. Richiamiamo il procedimento di Gram-Schmidt (cfr. 12.1.2), che rienunciamo nel nuovo contesto pi` u generale. Teorema 12.6.5. (Procedimento di Gram-Schmidt) Dato un qualunque insieme di r vettori linearmente indipendenti {v1 , . . . , vr }, `e possibile costruire un sistema ortonormale di r vettori che generano lo stesso sottospazio U generato da {v1 , . . . , vr }. Precisamente: u1 = v 1 ,
12.6. SPAZI EUCLIDEI IN GENERALE u2 = v2 − u3 = v3 − in generale, ur = vr −
291 (v2 |u1 ) u1 , (u1 |u1 )
(v3 |u2 ) (v3 |u1 ) u2 − u1 , (u2 |u2 ) (u1 |u1 )
(vr |ur−1 ) (vr |u1 ) ur−1 − · · · − u1 . (ur−1 |ur−1 ) (u1 |u1 )
Dividendo ciascuno dei vettori ui per il suo modulo otteniamo un sistema ortonormale di vettori. Esempio 12.6.6. Sia P2 l’insieme dei polinomi nell’indeterminata t di grado minore o uguale a 2, con prodotto scalare , 1 p(t)q(t) dt. (p(t)|q(t)) = −1
Determinare una base ortonormale a partire da {1, t, t2 }. *1 t dt t·1 u1 (t) = 1, = t, 1 = t − *−11 u2 (t) = t − 1·1 dt −1 *1 2 *1 3 t dt t dt 1 −1 2 u3 (t) = t − * 1 − −1 = t2 − . *1 3 t2 dt dt −1
−1
Questi, a meno di un fattore moltiplicativo costante, sono i primi tre dei cosidetti polinomi di Legendre. Si possono ottenere in maniera analoga polinomi di Legendre di grado arbitrariamente alto. Essi sono un esempio di successione di polinomi ortogonali, una classe importantissima di polinomi che comprende, ad esempio, la fondamentale successione dei polinomi di Chebyshev. Esercizio 12.6.7. Consideriamo l’insieme T di tutte le funzioni del tipo a0 + a1 cos t + b1 sen t + a2 cos 2t + b2 sin 2t + · · · + an cos nt + bn sin nt 2 con n intero fissato, ai , bi ∈ R e −π ≤ t ≤ π. T `e un sottospazio vettoriale di dimensione 2n+1 dello spazio vettoriale C(−π, π) di tutte le funzioni continue definite nell’intervallo −π ≤ t ≤ π. Su T si pu`o definire il prodotto scalare: , π a1 (t)a2 (t) dt. (a1 (t)|a2 (t)) = −π
Verificare che l’insieme {1, cos t, sin t, cos 2t, sin 2t, . . . , cos nt, sin nt}
,
`e una base ortogonale di T (suggerimento: si utilizzino le formule sin(k − h)t sin(k + h)t − + c). Determinare una base ortonormale. 2(h − k) 2(h + k)
sin kt sin ht dt =
CAPITOLO 12. SPAZI EUCLIDEI
292
Data una funzione f ∈ C(−π, π) con il prodotto scalare appena descritto, suppo/ T , possiamo niamo che {φ1 , . . . , φ2n+1 } sia la base ortonormale trovata sopra. Se f ∈ comunque cercare di determinare l’elemento g + ∈ T che abbia distanza minima da 2n+1 f . Considerato un generico elemento di T , g = h=1 ah φh , dobbiamo minimizzare 2 f − g , ossia l’espressione f − g2 = (f, f ) − 2
2n+1
ah (f, φh ) +
h=1
2n+1
a2h .
h=1
Osserviamo che i coefficienti ch = (f, φh ) sono i coefficienti di Fourier di f rispetto alla base {φh }, ossia sono le componenti ortogonali di f nella direzione φh . Allora f − g2 = f 2 − 2 f 2 +
2n+1
2n+1
ah ch +
h=1
(ah − ch )2 −
h=1
2n+1
a2h =
h=1 2n+1 c2h . h=1
` evidente che la scelta dei coefficienti ah che minimizza questa espressione `e quella E 2n+1 per cui il termine (ah − ch )2 si annulla, cio`e quando ah = ch . In altre parole la h=1
soluzione del nostro problema `e: g=
2n+1
(f, φh )φh .
h=1
Questa `e l’approssimazione di una funzione continua mediante polinomi trigonometrici ortonormali. La funzione g coincide con la proiezione ortogonale di f sul sottospazio T . La parte di Matematica che tratta questo tipo di questioni si chiama Analisi Armonica. Esempio 12.6.8. Un prodotto scalare molto utilizzato nello spazio Pn si ottiene scegliendo n + 1 numeri reali distinti {x0 , x1 , . . . , xn } e definendo (p(x)|q(x)) = p(x0 )q(x0 ) + . . . + p(xn )q(xn )
(12.8)
` facile verificare le propriet` E a della definizione di prodotto scalare. L’unico punto delicato della verifica riguarda la propriet` a della positivit`a. La disuguaglianza (p(x)|p(x)) = p(x0 )2 + . . . + p(xn )2 ≥ 0 `e evidente, ma occorre anche stabilire che ` in questa veril’uguaglianza (p(x)|p(x)) = 0 implica che p(x) `e il polinomio nullo. E fica che si vede l’importanza di scegliere proprio n + 1 numeri reali distinti. Abbiamo infatti che se (p(x|p(x)) = 0 si ha p(x0 )2 + . . . + p(xn )2 = 0 da cui certamente segue che p(x0 ) = . . . = p(xn ) = 0. Mostriamo ora che l’annullarsi di p(x) in tali punti implica che p(x) sia il polinomio nullo. Essendo p(x) un polinomio di grado ≤ n, esso non pu`o avere n + 1 radici, a meno che esso non sia proprio il polinomio nullo.
12.6. SPAZI EUCLIDEI IN GENERALE
293
Esempio 12.6.9. Utilizziamo il prodotto scalare definito nell’esempio precedetene, prendendo n = 4 e definendo dei particolari polinomi, detti polinomi di Lagrange, δ0 (x) =
(x − x1 )(x − x2 )(x − x3 )(x − x4 ) (x0 − x1 )(x0 − x2 )(x0 − x3 )(x0 − x4 )
δ1 (x) =
(x − x0 )(x − x2 )(x − x3 )(x − x4 ) (x1 − x0 )(x1 − x2 )(x1 − x3 )(x1 − x4 )
δ2 (x) =
(x − x0 )(x − x1 )(x − x3 )(x − x4 ) (x2 − x0 )(x2 − x1 )(x2 − x3 )(x2 − x4 )
δ3 (x) =
(x − x0 )(x − x1 )(x − x2 )(x − x4 ) (x3 − x0 )(x3 − x1 )(x3 − x2 )(x3 − x4 )
δ4 (x) =
(x − x0 )(x − x1 )(x − x2 )(x − x3 ) (x4 − x0 )(x4 − x1 )(x4 − x2 )(x4 − x3 )
Come si pu` o osservare facilmente, in ciascuna delle espressioni abbiamo al numeratore un polinomio di grado 4 e al denominatore un numero reale non nullo, in quanto i valori scelti sono tutti distinti. Inoltre, δ0 (x0 ) = 1, δ1 (x1 ) = 1, δ2 (x2 ) = 1, δ3 (x3 ) = 1, δ4 (x4 ) = 1. Dalla Definizione 12.8 di prodotto scalare si verifica facilmente che i cinque polinomi di Lagrange costituiscono una base ortonormale di P4 . Lo sviluppo di Fourier di un polinomio in f (x) ∈ Pn rispetto a questa base ortonormale `e allora f (x) = (f (x)|δ0 (x))δ0 (x) + (f (x)|δ1 (x))δ1 (x) + (f (x)|δ2 (x))δ2 (x) + (f (x)|δ3 (x))δ3 (x) + (f (x)|δ4 (x))δ4 (x) = f (x0 )δ0 (x) + f (x1 )δ1 (x) + f (x2 )δ2 (x) + f (x3 )δ3 (x) + f (x4 )δ4 (x) Ovviamente scelte analoghe sono possibili per un qualunque intero n > 0. Esempio 12.6.10. Possiamo sfruttare i polinomi di Lagrange per ottenere un metodo per condividere segreti in maniera sicura. Supponiamo che un numeroso gruppo di scienziati sia al lavoro su un progetto segretissimo. I documenti del progetto vengono tenuti al sicuro in una cassaforte dove la combinazione segreta `e sconosciuta a ciascun membro del gruppo. Vogliamo per`o che la cassaforte possa essere aperta in presenza di almeno sei membri del gruppo di ricerca ma che la combinazione rimanga segreta con meno di 6 membri presenti. Supponiamo che la combinazione sia un numero che chiamiamo a0 . Costruiamo un polinomio p(x) di grado 5 che abbia termine noto uguale ad a0 , fissando numeri arbitrari per i restanti coefficienti p(x) = a0 + a1 x + a2 x2 + a3 a3 + a4 x4 + a5 x5 Distribuiamo a ciascuno dei membri del gruppo di ricerca un valore p(xi ) (con xi = 0). Non appena 6 membri si riuniscono essi possono calcolare i polinomi di Lagrange relativi ai punti {xi0 , xi1 , xi2 , xi3 , xi4 , xi5 } e ottenere p(x) =p(xi0 )δ0 (x) + p(xi1 )δ1 (x) + p(xi2 )δ2 (x) + p(xi3 )δ3 (x) + p(xi4 )δ4 (x) + p(xi5 )δ5 (x)
(12.9)
CAPITOLO 12. SPAZI EUCLIDEI
294
Dopodich´e non devono far altro che leggere il termine noto del polinomio cos`ı determinato. Esempio 12.6.11. Determinare il polinomio di quinto grado, sapendo che i punti (−8, −53635), (−5, 794), (−1, 7678), (3, 8130), (4, 8453), (7, 13670) sono sul grafico del polinomio. Soluzione Dopo aver costruito i polinomi di Lagrange δ0 (x), δ1 (x), δ2 (x), δ3 (x), δ4 (x), δ5 (x), relativi ai valori (x0 , x1 , x2 , x3 , x4 , x5 ) = (−8, −5, −1, 3, 4, 7), si calcola − 53635δ0 (x) + 794δ1 (x) + 7678δ2 (x) + 8130δ3 (x) + 8453δ4 (x) + 13670δ5 (x)
(12.10)
e si ottiene 7629 + 2x + 67x2 + 8x3 − 7x4 + x5 . Osservazione 12.6.12. Col procedimento appena descritto `e possibile ottenere un polinomio che passi per punti assegnati qualsiasi. Essi potrebbero essere ad esempio punti sul grafico di una funzione f (x) non necessariamente polinomiale. Il polinomio cos`ı ottenuto si dice polinomio interpolatore di Lagrange per la funzione f .
12.7
Forme bilineari
Possiamo ottenere numerosi esempi di forme bilineari (cfr. 12.6.1), prendendo V = Rn , considerando una qualunque matrice A reale di ordine n e definendo (x|y) = xT Ay per x, y ∈ Rn . Ad esempio, la matrice
definisce la forma bilineare 1 (x1 , x2 ) 3
1 3
2 4
su R2 data da 2 y1 = x1 y1 + 2x1 y2 + 3x2 y1 + 4x2 y2 . 4 y2
` facile anche vedere che la forma `e simmetrica se e solo se tale matrice `e simmetrica. E Definizione 12.7.1. Sia V uno spazio vettoriale reale e B = (v1 , . . . , vn ) una base ordinata. Assegnata una forma bilineare F : V × V → R, definiamo matrice associata ad F rispetto a B la seguente matrice A = ((vi |vj )), i, j = 1, . . . , n
(12.11)
Ovviamente in tal caso, la matrice varia a seconda della base scelta. Tuttavia, come nel caso degli operatori lineari, si pu`o calcolare la relazione che intercorre tra due matrici diverse A e A di una stessa forma bilineare: x A y = xT Ay T
Precisamente abbiamo:
12.7. FORME BILINEARI
295
Proposizione 12.7.2. Se A e A sono due matrici che rappresentano una stessa forma bilineare rispetto a due basi diverse, allora A = QT AQ, con Q matrice n × n invertibile. Dimostrazione. Se x, y sono le colonne delle coordinate di due vettori u, v rispetto ad una base B, mentre x = P x e y = P y sono le colonne delle coordinate di u, v rispetto a B , allora T (u|v) = x A y = xT P T A P y. Confrontando con (u|v) = xT Ay si ottiene P T A P = A. Posto Q = P −1 , abbiamo la conclusione. Osserviamo che il prodotto scalare canonico su Rn , cio`e (x|y) = x1 y1 + · · · + xn yn corrisponde alla matrice identit`a. Dalla proposizione precedente segue allora che le matrici A, che rappresentano una forma bilineare equivalente al prodotto scalare canonico, sono quelle matrici per cui A = PTP dove P `e una matrice invertibile. Osservazione 12.7.3. La forma bilineare simmetrica associata ad una matrice definita positiva soddisfa la propriet`a (4 ) e quindi `e un prodotto scalare. Teorema 12.7.4. Le seguenti propriet` a di una matrice reale A di ordine n sono equivalenti: (1) A rappresenta il prodotto scalare canonico di Rn rispetto ad una opportuna base di Rn . (2) Esiste una matrice invertibile P tale che A = P T P . (3) A `e (simmetrica e) definita positiva. Dimostrazione. Abbiamo visto sopra che (1) e (2) sono equivalenti. Mostriamo che (2) implica (3). Sia A = P T P . A `e ovviamente simmetrica, inoltre xT Ax = xT P T P x = (P x)T P x = ||P x||2 > 0. Dimostriamo infine che (3) implica (1). Applichiamo il procedimento di GramSchmidt allo spazio euclideo Rn dotato del prodotto scalare dato da A per determinare a tale che una base B ortonormale. Rispetto a B la nuova matrice A della forma sar` a. Quindi P T A P = A. Essendo B ortonormale, la matrice A eguaglia l’identit` avremo P T IP = A ossia la (2).
296
CAPITOLO 12. SPAZI EUCLIDEI
Sussiste il seguente teorema, la cui dimostrazione `e del tutto analoga a quella del Teorema 12.1.5: Teorema 12.7.5. (Disuguaglianza di Schwarz) Assegnati due vettori u, v nello spazio euclideo V , sussiste la seguente disuguaglianza: |(u|v)| ≤ u v ove il segno di uguaglianza vale se e solo se i due vettori sono proporzionali. Esercizio 12.7.6. Dato il prodotto scalare canonico su R2 , calcolarne la matrice che lo rappresenta rispetto alla base canonica di R2 , e rispetto alla base (1, 1)T , (1, 2)T .
Capitolo 13
ELEMENTI DI GEOMETRIA DIFFERENZIALE 13.1
Funzioni a valori vettoriali
Siano a e b due numeri reali con a < b. Sono allora individuati i seguenti sottoinsiemi dell’asse reale: (a, b) = {x ∈ R : a < x < b} intervallo limitato aperto. (a, +∞) = {x ∈ R : a < x} intervallo illimitato destro aperto. (−∞, b) = {x ∈ R : x < b} intervallo illimitato sinistro aperto. Nel seguito, con il termine intervallo dell’asse reale denoteremo l’asse reale stesso R oppure uno qualunque degli insiemi sopra definiti e, salvo diversa specificazione, quanto diremo sar`a valido quale che sia il tipo di intervallo considerato. In ogni caso, si osservi, stiamo considerando solo intervalli aperti. − → − → − → Sia ora B = { i , j , k } una base ortonormale fissata per lo spazio dei vettori − v : I −→ V3 che associa ad liberi V3 e I un intervallo dell’asse reale. Un’applicazione → → − ogni t ∈ I un vettore v (t) = (x(t), y(t), z(t)), si dice una funzione a valori vettoriali della variabile reale t definita in I: → − → − → − → − v (t) = x(t) i + y(t) j + z(t) k ∀t ∈ I. Se t0 ∈ I ed esistono i tre limiti lim x(t) = x0 ,
t→t0
lim y(t) = y0 ,
t→t0
lim z(t) = z0 ,
t→t0
− diremo che esiste il limite, per t tendente a t0 , della funzione → v (t) e che esso `e uguale → − → − → − → − al vettore w 0 = x0 i + y0 j + z0 k . In tal caso scriveremo anche: − − v (t) = → w . lim → t→t0
0
CAPITOLO 13. ELEMENTI DI GEOMETRIA DIFFERENZIALE
298
Se t0 ∈ I e risulta:
− v (t) = v(t0 ), lim →
t→t0
− − v (t) `e continua in I, diremo che → v (t) `e continua nel punto t0 ∈ I. Diremo poi che → → − se essa risulta continua in ogni punto di I. Pertanto, v (t) `e continua in t0 ∈ I se e − solo se tali sono le tre funzioni x(t), y(t), z(t). Analogamente → v (t) `e continua in I se e solo se tali risultano le tre funzioni x(t), y(t), z(t). Se t0 ∈ I ed esistono in t0 le tre derivate x (t0 ), y (t0 ), z (t0 ) delle funzioni x, y, z, → − → − → − − − v (t0 ) = x (t0 ) i + y (t0 ) j + z (t0 ) k `e diremo che → v (t) `e derivabile in t0 ∈ I e che → − − v (t). Se poi esiste la derivata di → v (t) in ogni punto di I, diremo la derivata in t0 di → → − → − che v (t) `e derivabile in I. Evidentemente, v (t) `e derivabile in I se e solo se tali − risultano le tre funzioni x(t), y(t), z(t). Se → v (t) `e derivabile in I, `e allora individuata → − la funzione v (t) definita in I. Evidentemente si ha: → − → − → − → − v (t) = x (t) i + y (t) j + z (t) k . Nel seguito porremo anche:
− d→ v − =→ v (t). dt − − Se → v (t) `e derivabile in ogni punto di I e la funzione → v (t) `e anch’essa derivabile in I, `e individuata la funzione: − − − v d d→ v d→ v d2 → → − = . (13.1) v (t) = = 2 dt dt dt dt − In tal caso la funzione a valori vettoriali → v (t) definita nella (13.1) viene detta → − derivata seconda (o del secondo ordine) di v (t). Analogamente, quando esistono le derivate terze, quarte, etc., delle funzioni x, y, z, vengono definite la derivata terza, − quarta, etc., di → v (t). − Diremo poi che → v (t) `e di classe C n in I, se essa ammette derivate continue in tale − intervallo sino a quelle di ordine n. Evidentemente, → v (t) `e di classe C n in I, se e solo se tali risultano le tre funzioni x(t), y(t), z(t). Osserviamo che: → − → − → − − Proposizione 13.1.1. Se → v (t) = x(t) i + y(t) j + z(t) k `e derivabile in I, allora essa `e continua in I. − Dimostrazione. Se → v (t) `e derivabile in I, tali risultano le tre funzioni x(t), y(t), z(t). Pertanto, le funzioni x(t), y(t), z(t) sono continue in I, implicando la continuit` a di → − v (t) in I. Proposizione 13.1.2. Siano assegnate due funzioni a valori vettoriali derivabili in → − → − → − → − → − → − − − I: → v (t) = x(t) i + y(t) j + z(t) k e → w (t) = x ¯(t) i + y¯(t) j + z¯(t) k . Se h(t) `e una funzione reale derivabile in I, allora sono derivabili in I le funzioni vettoriali → − − − v (t) + → w (t) e h(t)→ v (t). In particolare, si ha: − − − − v (t) + → w (t)) = → v (t) + → w (t), (→
(13.2)
− − − v (t) + h(t)→ v (t). (h(t)→ v (t)) = h (t)→
(13.3)
13.2. DERIVATE DI PRODOTTI SCALARI E VETTORIALI
299
Se, infine, il parametro t `e funzione derivabile nell’intervallo J di un parametro s, − − cio`e t = t(s), s ∈ J, allora la funzione a valori vettoriali → w (s) = → v [t(s)] `e derivabile (e quindi continua) in J. Si ha inoltre: − − dt d→ w d→ w = . ds ds dt
(13.4)
→ − → − → − − − Dimostrazione. Le funzioni → v (t)+→ w (t) = [(x(t)+¯ x(t)] i +[(y(t)+ y¯(t)] j +[(z(t)+¯ z (t)] k → − → − → − − e h(t)→ v (t) = h(t)x(t) i +h(t)y(t) j +h(t)z(t) k sono derivabili in I, poich´e la somma ed il prodotto di funzioni reali di una variabile reale derivabili `e derivabile. Le (13.2) e (13.3) sono ovvie conseguenze delle analoghe propriet` a delle derivate di una funzione reale di una variabile reale e la (13.4) discende dalla regola di derivazione delle funzioni composte.
13.2
Derivate di prodotti scalari e vettoriali
→ − → − → − − Proposizione 13.2.1. Siano assegnate le funzioni → v (t) = x(t) i + y(t) j + z(t) k → − → − → − − − − e → w (t) = x ¯(t) i + y¯(t) j + z¯(t) k derivabili in I. Allora le funzioni → v (t) · → w (t) e → − → − v (t) ∧ w (t) sono derivabili in I e si ha: − − − − − − (→ v (t) · → w (t)) = → v (t) · → w (t) + → v (t) · → w (t).
(13.5)
− − − − − − (→ v (t) ∧ → w (t)) = (→ v (t) ∧ → w (t)) + (→ v (t) ∧ → w (t)).
(13.6)
Dimostrazione. Ricordando le espressioni in coordinate dei prodotti scalari e vettoriali abbiamo: → − − v (t) · → w (t) = x(t)¯ x(t) + y(t)¯ y (t) + z(t)¯ z (t), → − → − → − − v (t) ∧ → w (t) = (y(t)¯ z (t) − z(t)¯ y (t)) i + (z(t)¯ x(t) − x(t)¯ z (t)) j → − + (x(t)¯ y (t) − y(t)¯ x(t))(t) k .
(13.7) (13.8)
Pertanto la conclusione segue dalle propriet`a delle derivate dei prodotti di funzioni reali di una variabile reale. → − → − → − − Proposizione 13.2.2. Se la funzione → v (t) = x(t) i + y(t) j + z(t) k `e derivabile → − → − → − in I ed il modulo | v (t)| `e ivi costante, allora i vettori v (t) e v (t) sono ortogonali per ogni valore di t in I. − Dimostrazione. Se |→ v (t)| `e costante, certamente sar` a costante anche il suo quadrato → − → − → − 2 | v (t)| = v (t) · v (t). Pertanto la sua derivata `e nulla e dalla (13.5) segue allora che: − − − − − − − − 0 = (→ v (t)· → v (t)) = → v (t)· → v (t) + → v (t)· → v (t) = 2→ v (t)· → v (t)
(13.9)
− − − implicando l’annullarsi del prodotto scalare → v (t) · → v (t), ossia l’ortogonalit` a di → v (t) → − e v (t).
CAPITOLO 13. ELEMENTI DI GEOMETRIA DIFFERENZIALE
300
− Esempio 13.2.3. La circonferenza parametrizzata da (cos t, sin t) ha vettore → v (t) = → − → − → − cos t i + sin t j di lunghezza costante uguale a 1. Il vettore velocit`a `e v (t) = → − → − − − sin t i + cos t j che `e perpendicolare a → v (t), v. figura.
13.3
Arco di curva regolare
− → −→ −→ Se RC(O i j k ) `e un riferimento cartesiano fissato per lo spazio euclideo E, e se → − → − → − → − v (t) = x(t) i + y(t) j + z(t) k `e una funzione a valori vettoriali definita in I, − consideriamo il seguente insieme C→ v (t) di punti dello spazio: − C→ v (t) = {P (t) ∈ (x(t), y(t), z(t)): ∀t ∈ I}.
(13.10)
− Esso `e l’immagine dell’applicazione → v (t) e si dice arco di curva. Diremo che l’arco di curva `e semplice in I, se l’applicazione `e iniettiva. − Diremo che la funzione → v (t) `e una funzione a valori vettoriali regolare in I se essa 1 `e di classe C in I e se inoltre: → − → − (13.11) v (t) = 0 , ∀t ∈ I. − Se la funzione → v (t) `e regolare, diremo che le equazioni parametriche: x = x(t),
y = y(t),
z = z(t);
∀t ∈ I.
(13.12)
− forniscono una rappresentazione regolare di C→ v (t) . Quest’ultimo, dotato di una tale rappresentazione, viene detto un arco di curva regolare. Se la funzione `e definita su un intervallo chiuso [a, b], diremo che essa `e semplice se `e semplice in (a, b) e regolare se `e regolare in (a, b). Si osservi la distinzione fatta tra l’insieme dei punti e una sua rappresentazione. Ad esempio, la retta del piano passante per l’origine di equazione cartesiana y = x pu` o − essere pensata come la curva immagine dell’applicazione → v : R → V2 , t !→ (t, t). Queste sono equazioni parametriche della retta del tipo studiato nel Capitolo 5. Tuttavia
13.3. ARCO DI CURVA REGOLARE
301
lo stesso insieme di punti della retta y = x si pu`o ottenere anche come immagine − della applicazione → w : R → V2 t !→ (t3 , t3 ). Abbiamo cos`ı due parametrizzazioni → − → − − diverse della stessa curva piana. Nel primo caso il vettore → v (t) = i + j `e una funzione vettoriale costante che non `e mai nulla. Nel secondo caso, invece, essendo → − → − → − w (t) = (2t2 ) i + (2t2 ) j che si annulla per t = 0, la parametrizzazione non `e regolare. In altre parole, la regolarit` a di un arco di curva dipende non solo dall’insieme dei punti, che a volte viene chiamato il sostegno della curva, ma anche dalla parametrizzazione scelta. Se, come spesso si fa, pensiamo al sostegno della curva come la − traiettoria di un punto in movimento al variare del tempo t, allora il vettore → v (t) → − rappresenta la velocit` a del punto. Nel nostro esempio, la curva v (t) `e descritta da un punto che si sposta sulla bisettrice del primo e terzo quadrante con velocit` a costante 1 → − , mentre w (t) `e descritta da un punto che si muove sulla stessa retta ma con 1 velocit`a variabile, in particolare con velocit`a nulla nell’istante t = 0. Pi` u in generale due curve parametriche φ : I → R3 e ψ : J → R3 si dicono equivalenti se esiste un cambiamento di parametro, ossia un’applicazione g : I → J derivabile con derivata continua, con g (t) = 0 per ogni t ∈ I, tale che sia φ(t) = ψ(g(t)). La funzione g viene detta diffeomorfismo. Con il termine curva si denota a volte la classe di equivalenza di queste curve parametriche. Le definizioni date sin qui possono essere ripetute sostituendo R2 al posto di R3 . Esempio 13.3.1. Posto φ : I = [0, 1] → R2 , t !→ (cos t, sin t), ψ : J = [0, 2π] → R2 , t !→ (cos s, sin s), l’applicazione g : I → J, t !→ 2πt, `e un diffeomorfismo, in quanto `e derivabile e invertibile e quindi la curva (cos s, sin s), s ∈ J = [0, 2π], `e equivalente alla curva (cos(2πt), sin(2πt)), t ∈ I = [0, 1]. Esempio 13.3.2. La circonferenza di raggio 3 e centro nell’origine `e una curva piana di equazione cartesiana x2 + y 2 = 9. Essa pu` o essere pensata come il sostegno della curva parametrica x = 3 cos t y = 3 sin t Queste equazioni descrivono il moto di un punto che, quando t aumenta, cio`e “col passar del tempo”, si muove sulla circonferenza in senso antiorario, mentre le equazioni x = 3 sin t y = 3 cos t descrivono un punto che si muove in senso orario. In entrambi i casi il vettore velocit` a non `e mai nullo. Esempio 13.3.3. Ogni retta, dotata di equazioni parametriche x = a + lt, y = b + mt, z = c + nt, `e un arco di curva regolare. Esempi di curve regolari si possono ricavare dalle curve parametriche viste alla Sezione 8.3. Altri esempi di archi di curva regolari sono forniti da quelli di equazioni parametriche seguenti:
CAPITOLO 13. ELEMENTI DI GEOMETRIA DIFFERENZIALE
302
Esempi 13.3.4. Cubica gobba: x = t, y = t2 , z = t3 ;
∀t ∈ R.
Elica circolare: x = cos t, y = sen t, z = t;
∀t ∈ R.
Esempio 13.3.5. La curva piana, detta astroide, di equazioni parametriche x = (cos t)3 t ∈ [0, 2π] (13.13) y = (sin t)3
13.4. LUNGHEZZA DI UNA CURVA E ASCISSA CURVILINEA
303
non `e regolare in quanto (−3 cos2 t sin t, 3 sin2 t cos t) si annulla per i seguenti valori e tuttavia una curva regolare a tratti secondo la seguente di t: t = 0, π2 , π, 3π 2 . Essa ` definizione. Definizione 13.3.6. Un arco di curva si dice regolare a tratti se l’intervallo su cui `e definito si pu`o suddividere in un numero finito di sottointervalli in modo tale che su ciascuno di essi l’arco sia regolare.
13.4
Lunghezza di una curva e ascissa curvilinea
0 − Sia C→ di equazioni parametriche (13.12), con t ∈ I. v (t) un arco di curva di classe C Dati t1 e t2 valori distinti del parametro t ∈ I ai quali corrispondono i punti P (t1 ) e − − v (t2 ) − → v (t1 )|. P (t2 ) della curva, la distanza d(P (t1 ), P (t2 )) eguaglia il modulo |→ Sia n un numero naturale positivo. Se a e b sono due valori distinti del parametro t ∈ I, con a < b, suddividiamo l’intervallo chiuso da essi limitato in n intervalli di uguale lunghezza positiva Δt, pari al rapporto (b − a)/n, determinando convenienti valori t0 , t1 , t2 , . . . , tn del parametro t ∈ I, tali che sia a = t0 , b = tn e che:
t1 − t0 = t2 − t1 = · · · = tn − tn−1 = Δt > 0. Restano individuati i punti P0 = P (t0 ), P1 = P (t1 ), . . . , Pn = P (tn ), appartenenti alla curva C. I segmenti P0 P1 , P1 P2 , . . . , Pn−1 Pn formano una poligonale la cui lunghezza `e data da: n−1 − − |→ v (ti+1 ) − → v (ti )|. (13.14) i=0
Poich´e Δt > 0, la (13.14) si pu` o anche scrivere: n−1 i=0
− − |→ v (ti+1 ) − → v (ti )| Δt. Δt
(13.15)
304
CAPITOLO 13. ELEMENTI DI GEOMETRIA DIFFERENZIALE
Quanto pi` u `e grande n, tanto pi` u `e piccolo Δt e, corrispondentemente, tanto pi` u tale misura si avvicina a quella che noi, intuitivamente, definiremmo la lunghezza dell’arco di curva compreso tra P (a) e P (b). Pertanto, se a < b, diremo lunghezza dell’arco di curva compreso tra P (a) e P (b) l’estremo superiore delle lunghezze di tutte le possibili poligonali descritte sopra. Se tale estremo superiore `e finito l’arco di curva si dice rettificabile. Ci sono curve non rettificabili, come, ad esempio, la curva grafico della funzione (v. figura) 0 se x = 0 f : [0, 1] → R, f (x) = π se 0 < x ≤ 1 x sin 2x
In questo caso si verifica che l’estremo superiore `e infinito. Tuttavia, nell’ipotesi in cui la curva sia regolare, si pu`o dimostrare che tale estremo superiore `e sempre finito e coincide con il limite della (13.15) per Δt tendente a zero, ovvero: , b , b → d− v dt = x (t)2 + y (t)2 + z (t)2 dt. (13.16) dt a a Si dimostra anche che la lunghezza di una curva non dipende dalla parametrizzazione. Esempio 13.4.1. Nel caso di un arco di circonferenza descritto da x = r cos t t ∈ [t1 , t2 ] y = r sin t abbiamo (x (t) = −r sin t, y (t) = r cos t) e quindi la lunghezza del’arco di circonfe*t * t2 renza `e t1 r2 sin2 t + r2 cos2 t dt = t12 r dt = r(t2 − t1 ).
13.4. LUNGHEZZA DI UNA CURVA E ASCISSA CURVILINEA
305
Esempio 13.4.2. Se la curva piana regolare ha equazioni x=t t ∈ [a, b] y = f (t) *b allora la lunghezza della curva `e a 1 + f (t)2 dt. In quest’ultimo esempio ricadono molti grafici di funzione di una variabile. Per esempio, possiamo calcolare la lunghezza del grafico della funzione y = 23 x3/2 + 1 per x da 0 a 1, v. figura.
La derivata `e
dy dx
=
,
1
√
√
0
x. Abbiamo
2 (1 + x)3/2 1 + x dx = 3
1 = 0
2 √ (2 2 − 1). 3
Esempio 13.4.3. Calcolare la lunghezza dell’astroide di equazione x = a(cos t)3 , a > 0, t ∈ [0, 2π]. y = a(sin t)3
(13.17)
Sfruttando la simmetria della curva, possiamo calcolare la lunghezza di un quarto della curva, per t ∈ (0, π2 ), e poi moltiplicare per 4. Abbiamo γ(t) = (a cos3 t, a sin3 t) e γ (t) = (−3a cos2 t sin t, 3a sin2 t cos t) da cui γ (t) = = 3a
9a2 cos4 t sin2 t + 9a2 sin4 t cos2 t
cos2 t sin2 t(cos2 t + sin2 t) = 3a| cos t sin t|.
306
CAPITOLO 13. ELEMENTI DI GEOMETRIA DIFFERENZIALE
Nell’intervallo (0, π2 ) la funzione `e positiva e quindi la lunghezza cercata `e uguale a ,
π/2
3a 0
3a sin2 t cos t sin t dt = 2
π/2 = 0
3a 2
In totale dunque la lunghezza dell’astroide `e 6a. Se una curva `e data in coordinate polari r = f (θ), la formula della lunghezza si scrive , b f (θ)2 + f (θ)2 dθ. a
Infatti, questa formula si ottiene con semplici passaggi dalla (13.16), ricordando che le equazioni parametriche della curva sono x = f (θ) cos θ, y = f (θ) sin θ. Esempio 13.4.4. Con la formula precedente, possiamo calcolare, ad esempio, la lunghezza della cardioide (v. §8.1) r = f (θ) = 2 − 2 cos θ, θ ∈ [0, 2π]. Sapendo che a: f (θ) = 2 sin θ, la formula ci d` , 2π , b f (θ)2 + f (θ)2 dθ = (2 sin θ)2 + (2 − 2 cos θ)2 dθ a 0 $ √ , 2π √ , 2π √ θ (13.18) 1 − cos θ dθ = 2 2 2 sin2 dθ =2 2 2 0 0 2π , 2π θ θ =4 sin dθ = 8 − cos = 8(1 + 1) = 16. 2 2 0 0 Naturalmente, se a > b, lo scalare definito dalla (13.16) risulta uguale all’opposto della lunghezza dell’arco di curva delimitato dai punti P (a) e P (b). Nel seguito, se t0 ∈ I, definiremo ascissa curvilinea s(t) del punto P = P (t) della curva C, rispetto all’origine P (t0 ) dell’arco, la funzione scalare: , t , t → d− v s(t) = x (τ )2 + y (τ )2 + z (τ )2 dτ. (13.19) dτ = t0 dτ t0 − Proposizione 13.4.5. Sia C = C→ v (t) l’arco di curva regolare di equazioni parame→ − → − → − → − triche (13.12), ove v (t) = x(t) i + y(t) j + z(t) k `e una funzione regolare in I.
Sia J l’insieme dei valori assunti dalla funzione s(t), definita in (13.19). L’ascissa curvilinea s(t) del punto P = P (t) appartenente a C `e una funzione biiettiva di I in J, di classe C 1 con derivata s (t) mai nulla in I. Si ha inoltre: → , − d− v v ds d t d→ dτ = . (13.20) = dt dt t0 dτ dt Dimostrazione. Dalla Definizione (13.19) e dal Teorema Fondamentale del Calcolo Integrale segue che s(t) `e derivabile e che la sua derivata `e espressa dalla (13.20). → − − − − Poich´e → v (t) `e regolare, → v (t) `e continua e → v (t) = 0 (cfr. (13.11)). Pertanto il − modulo |→ v (t)| = s (t) `e continuo e non nullo. Essendo s (t) = 0, la funzione s(t) `e strettamente crescente in I, quindi iniettiva. Ne segue la sua biiettivit`a, per la definizione di J.
13.4. LUNGHEZZA DI UNA CURVA E ASCISSA CURVILINEA
307
Osservazione 13.4.6. Sappiamo dalla teoria del calcolo differenziale e integrale che la funzione t(s) inversa di s(t) `e una funzione reale di una variabile reale di J in I, biiettiva, di classe C 1 , con derivata t (s) mai nulla in J. Nelle ipotesi della Proposizione 13.4.5, `e allora possibile considerare la funzione → − − w (s) = → v [t(s)] definita in J. Possiamo quindi riparametrizzare la curva ed enunciare: → − → − → − − − Proposizione 13.4.7. La funzione → w (s) = → v [t(s)] = x[t(s)] i + y[t(s)] j + z[t(s)] k `e una funzione regolare in J. Inoltre: − − C→ w (s) = C→ v (t) .
(13.21)
− − Dimostrazione. La continuit`a e la derivabilit` a di → w (s) discendono da quelle di → v (t) e di t(s). Si ha poi (cfr. (13.4) di Prop. 13.1.2): − → − v (t). w (s) = t (s)→
(13.22)
→ − → − → − − − w (s) = 0 . Infine, essendo Poich´e → v (t) = 0 e t (s) = 0 , dalla (13.22) segue che → → − → − v (t) e t (s) continue, tale risulta w (s), come richiesto. Nel seguito, tratteremo di archi di curva regolare C di equazioni parametriche del tipo: x = x(s), y = y(s), z = z(s); ∀s ∈ J, (13.23) ove il parametro s `e l’ascissa curvilinea di C. Proviamo ora che: − Proposizione 13.4.8. Sia C = C→ v (s) arco di curva regolare di equazioni parametriche → − → − → − → − (13.23), ove v (s) = x(s) i + y(s) j + z(s) k `e una funzione regolare dell’ascissa
curvilinea s, definita in J. Se P = P (s) `e un punto di C, allora la retta tP tangente a C in P `e parallela al vettore: → − → − (13.24) t (s) = (x (s), y (s), z (s)) = 0 . → − Il vettore t (s) `e un versore, cio`e: → − | t (s)| = 1.
(13.25)
→ − Infine, la funzione t (s) a valori vettoriali, definita in J, `e continua. Dimostrazione. Dalla (13.31) segue che la retta tP , tangente a C in P , `e parallela al → − vettore t (s), definito in (13.24). Per provare la (13.25) osserviamo che dalla (13.20), ponendo t = s, segue: − v ds d→ . (13.26) = 1= ds ds → − − Pertanto il vettore t (s) = → v (s) ha modulo unitario, da cui la (13.25). La continuit`a → − − → − a di → v (s). di t (s) = v (s) segue dalla regolarit` L’ascissa curvilinea di dice anche parametro arco e la parametrizzazione si dice → − anche a velocit` a unitaria o naturale. Il vettore t (s) `e detto versore tangente a C in P (s).
CAPITOLO 13. ELEMENTI DI GEOMETRIA DIFFERENZIALE
308
Esempio 13.4.9. L’elica di equazione γ(t) = (a cos t, a sin t, bt), a, b costanti positive fissate, ha velocit` a γ (t) = (−a sin t, a cos t, b), il cui quadrato del modulo vale γ (t)2 = γ (t) · γ (t) = a2 sin2 t + a2 cos2 t + b2 = a2 + b2 . √ La velocit` a `e dunque costante in modulo. Sia c = a2*+ b2 . Se misuriamo l’ascissa t curvilinea a partire dal punto in cui t = 0, allora s(t) = 0 c dt = ct, da cui t(s) = s/c. Sostituendo abbiamo la riparametrizzazione %s& s bs s α(s) = γ = a cos , a sin , c c c c Si vede facilmente che α (s) = 1 per ogni s, α (s) = a α (s) per ogni s, (v. figura).
13.5
1 2
e α (s) `e perpendicolare
Rette secanti. Rette tangenti
Sia C arco di curva semplice e regolare di equazioni parametriche (13.12). Se P1 e P2 sono due punti distinti di C, allora diremo che la retta per i punti P1 e P2 `e secante C. Se il punto P2 , muovendosi sulla curva, tende alla posizione di P1 , allora la retta P1 P2 tende ad assumere la posizione di una retta che diremo tangente a C in P1 e che denoteremo con tP1 . Pi` u in dettaglio, se t1 e t2 sono due valori distinti di t in I, allora, posto P1 = P (t1 ), → − → − → − − a di→ v (t) = x(t) i + y(t) j + z(t) k implica P1 = P2 . P2 = P (t2 ), l’iniettivit` Inoltre, avendo posto: l = x(t2 ) − x(t1 ), m = y(t2 ) − y(t1 ), n = z(t2 ) − z(t1 ),
(13.27)
le equazioni parametriche della retta P1 P2 sono: x = x(t1 ) + lλ, y = y(t1 ) + mλ, z = z(t1 ) + nλ,
∀λ ∈ R.
(13.28)
13.5. RETTE SECANTI. RETTE TANGENTI
309
Essendo t1 = t2 , risulta t2 − t1 = 0; poich´e la terna (l, m, n) dei parametri direttori della retta (P1 , P2 ) `e individuata a meno di un fattore di proporzionalit`a non nullo, le equazioni parametriche della retta P1 P2 si possono anche scrivere nella forma:
x = x(t1 ) +
l m n λ, y = y(t1 ) + λ, z = z(t1 ) + λ, t2 − t1 t 2 − t1 t2 − t 1
(13.29)
Quando t2 tende a t1 , variando in I, allora il punto P2 tende al punto P1 , per la continuit` a in I delle funzioni x(t), y(t), z(t)), e la retta P1 P2 tende alla posizione della tP1 . Inoltre, essendo le funzioni x(t), y(t), z(t) derivabili in I, e quindi in t1 , esistono i tre limiti (tenendo conto della 13.27): ⎧ x(t2 ) − x(t1 ) l ⎪ ⎪ lim = lim = x (t1 ) ⎪ ⎪ t2 →t1 t2 →t1 t2 − t1 t − t ⎪ 2 1 ⎪ ⎪ ⎨ m y(t2 ) − y(t1 ) = lim = y (t1 ) lim t →t t →t ⎪ t − t t − t 2 1 2 1 2 1 2 1 ⎪ ⎪ ⎪ ⎪ ⎪ n z(t2 ) − z(t1 ) ⎪ ⎩ lim = lim = z (t1 ) t2 →t1 t2 − t1 t2 →t1 t2 − t1
(13.30)
Pertanto, al tendere di t2 a t1 , le equazioni parametriche della retta secante (P1 , P2 ) tendono alle seguenti: ⎧ ⎪ ⎨x = x (t1 )λ + x(t1 ) y = y (t1 )λ + y(t1 ) ⎪ ⎩ z = z (t1 )λ + z(t1 )
(13.31)
equazioni parametriche della retta tP1 tangente a C in P1 . Sottolineiamo che tale → − − − v (t) `e retta risulta parallela al vettore → v (t) = (x (t1 ), y (t1 ), z (t1 )) = 0 . Poich´e → → − regolare, v (t) `e continua; ne segue che la direzione della retta tangente all’arco di curva C varia con continuit`a in funzione di t. Esempio 13.5.1. Si consideri la curva piana, parametrizzata, per t ∈ R, da
x = t2 − 1 y =t+1
Eliminando il parametro t `e facile vedere che il sostegno di questa curva `e la parabola di equazione x = y 2 − 2y. Vogliamo calcolare la tangente nel punto B(− 34 , 12 ) corrispondente al valore t = − 12 .
310
CAPITOLO 13. ELEMENTI DI GEOMETRIA DIFFERENZIALE
Nella figura, se immaginiamo il punto variabile A che si avvicina al punto fisso B, la secante che congiunge i punti A e B tende a sovrapporsi alla retta tangente alla curva nel punto B fissato. Nel nostro esempio, usando λ come nuovo parametro, la x = − 34 − λ . tangente ha equazioni parametriche y = 12 + λ Esempio 13.5.2. Calcolare l’equazione della retta tangente alla curva γ(t) = (t3 + t, 1 − t3 ) nel punto corrispondente a t = 1. Per t = 1, la curva passa per il punto (2, 0) e i parametri direttori della tangente sono dati da γ (t) = (3t2 + 1, −3t2 ) e dunque γ (1) = (4, −3); da cui la retta x = 2 + 4λ ossia, in forma cartesiana, 3x + 4y − 6 = 0, vedi figura. y = −3λ
13.6. INTEGRALI DI LINEA
13.6
311
Integrali di linea
− Definizione 13.6.1. Se → v (t) `e un arco di curva regolare con t ∈ [a, b] nel piano o nello spazio, avente sostegno γ e se f `e una funzione definita sui punti di γ, si definisce integrale di linea (di prima specie) della funzione f lungo la curva γ l’integrale ,
,
b
f ds ≡ γ
− − f (→ v (t))→ v (t) dt.
(13.32)
a
Si pu`o pensare a questo integrale generalizzando l’idea dell’integrale come “area sotto il grafico” di una funzione. Infatti, se f `e una funzione di due variabili, questo integrale fornisce l’area della superficie compresa tra il sostegno della curva γ nel piano e il grafico della funzione f . Esempio 13.6.2. Se consideriamo la funzione f (x, y) = 4 − x2 − y 2 , il cui grafico `e una semisfera centrata nell’origine e di raggio 2, e prendiamo come√γ il√segmento di bisettrice del I e III quadrante parametrizzato da γ(t) = (t, t), t ∈ [− 2, 2], abbiamo che γ (t) = (1, 1) e ,
, f (x, y) ds = γ
√
2
√ − 2
4−
t2
−
1 t = 2 t 2 − t2 + arcsin( √ ) 2 2
t2
√
, 2 dt = 2
√2 √ − 2
√
2
√ − 2
2 − t2 dt (13.33)
= 2(arcsin(1) − arcsin(−1)) = 2π.
Questa in effetti `e l’area di una semicirconferenza di raggio 2. Esempio 13.6.3.
, (x2 − y + 3z) ds
(13.34)
γ
essendo γ `e il segmento di retta che va da (0, 0, 0) a (1, 2, 1). Le equazioni di γ in forma parametrica sono ⎧ ⎪ ⎨x = t y = 2t ⎪ ⎩ z=t
0≤t≤1
(13.35)
quindi x (t) = 1, y (t) = 2, z (t) = 1 e di conseguenza √ − → v (t) = [x (t)]2 + [y (t)]2 + [z (t)]2 = 6. L’integrale di linea `e allora ,
,
1
(x − y + 3z) ds = 2
γ
0
√ √ , 1 2 5 6 . (t − 2t + 3t) 6 dt = 6 (t + t) dt = 6 0 2
√
CAPITOLO 13. ELEMENTI DI GEOMETRIA DIFFERENZIALE
312
13.7
Curvatura
− → − → − → Sia B = { i , j , k } una base ortonormale per lo spazio dei vettori liberi V3 ed I un → − → − → − − intervallo aperto. Sia → v (s) = x(s) i + y(s) j + z(s) k una funzione a valori vettoriali → − definita in I. Diremo che v (s) `e una funzione a valori vettoriali C n -regolare in I, se − e essa `e semplice regolare e di classe C n in I. Il corrispondente arco di curva C→ v (s) ` detto C n -regolare. In questo paragrafo considereremo archi di curva C 2 -regolari. Al fine di semplificare la trattazione supporremo inoltre che il parametro s sia l’ascissa curvilinea (cfr. (13.19)). Cominciamo con il provare che: 2 − e Proposizione 13.7.1. Sia C = C→ v (s) arco di curva C -regolare in J. Se P = P (s) ` → − un punto di C, allora il versore t (s) tangente a C in P `e derivabile e la sua derivata → − k (s) `e una funzione a valori vettoriali continua in J.
→ − − Dimostrazione. Essendo → v (s) di classe C 2 e in forza della Proposizione 13.4.8, t (s) → − → − − v (s) `e continua. esiste ed `e di classe C 1 ; pertanto k (s) = t (s) = → → − − − Se s ∈ J, → κ (s) = t (s) = → v (s) `e detto vettore curvatura del punto P (s) dell’arco → − di curva C. Il modulo κ(s) = | κ (s)| `e chiamato curvatura di C in P (s). La curvatura esprime, in qualche modo, la misura della variazione della direzione della tangente. Se κ(s) = 0, si dimostra che esiste un intorno sferico Σ di P (s) tale che, per ogni −−→ − κ (s) > 0. Questa propriet`a viene espressa dicendo che P ∈ C ∩ Σ, si abbia P P · → − l’arco di curva presenta in P (s) concavit` a nel verso di → κ (s). → − → − Se κ(s) = 0 (da cui κ (s) = 0 ), diremo che il punto P (s) `e un punto di flesso di C. Proviamo, al riguardo, che: → − − Proposizione 13.7.2. Sia assegnato C = C→ v (s) arco di curva regolare, con v (s) = → − → − → − x(s) i + y(s) j + z(s) k funzione C 2 -regolare dell’ascissa curvilinea s in J. Se ogni punto di C risulta un flesso, allora l’arco di curva C `e necessariamente un segmento, oppure una semiretta, oppure una retta (a seconda che J sia, rispettivamente, un intervallo limitato, un intervallo illimitato destro o sinistro oppure l’asse reale). Dimostrazione. Se ogni punto di C `e un flesso, allora per ogni valore di s nell’intervallo → − − − v (s) `e il vettore nullo; pertanto, per le tre derivate seconde J, → κ (s) = t (s) = → delle funzioni x(s), y(s), z(s), si ha: x (s) = 0, y (s) = 0, z (s) = 0
(∀s ∈ J).
(13.36)
Dalla (13.36) segue che le tre derivate prime sono delle costanti, cio`e: x (s) = , y (s) = m, z (s) = n
(∀s ∈ J).
(13.37)
Dalla (13.37) segue subito che: x(s) = s + x ¯1 , y(s) = ms + x ¯2 , z(s) = ns + x ¯3 ove (¯ x1 , x ¯2 , x ¯3 ) `e una terna di costanti.
(∀s ∈ J),
(13.38)
13.7. CURVATURA
313
→ − − − Osserviamo che, essendo → v (s) C 2 -regolare, risulta → v (s) = 0 . Pertanto, la terna di costanti ( , m, n) `e non nulla. Ne segue che, se J = R, le (13.38) sono le equazioni parametriche della retta per il punto di coordinate (¯ x1 , x ¯2 , x ¯3 ) avente parametri direttori , m, n. Se, invece, l’intervallo J non `e l’asse reale, ma un intervallo illimitato destro o sinistro, le (13.38) rappresentano una semiretta. Se, infine, J `e un intervallo limitato, le (13.38) rappresentano un segmento (aperto), come richiesto. − Pi` u in generale, possiamo provare che, per il vettore curvatura → κ (s) sussiste la: 2 − Proposizione 13.7.3. Sia C = C→ v (s) arco di curva C -regolare in J. Per ogni s in → − → − J, il versore tangente t (s) ed il vettore curvatura κ (s) sono ortogonali. → − Dimostrazione. Poich´e t (s) `e un versore, il suo modulo `e unitario e quindi costante. → − → − Essendo κ (s) = t (s), la conclusione segue dalla Proposizione 13.2.2.
→ − − Osserviamo esplicitamente che, se → κ (s) = 0 , nel punto P (s) dell’arco di curva C → − si ha κ(s) = | κ (s)| = 0, donde nei punti di C che non risultano di flesso, la curvatura `e − non nulla. Possiamo, pertanto, introdurre → n (s), versore normale in P (s) a C, definito dalla: − → − κ (s). (13.39) n (s) = [κ(s)]−1 → − Il versore definito in (13.39) `e parallelo ed equiorientato con → κ (s). Lo scalare
r(s) = [κ(s)]−1 , inverso della curvatura, `e detto raggio di curvatura in P (s). Il raggio di curvatura `e definito, ovviamente, nei punti dell’arco C che non risultano di flesso. Nei punti di flesso (in cui la curvatura `e nulla) diremo che il raggio di curvatura `e infinito. In tali punti non `e definito il versore normale. 2 − Proposizione 13.7.4. Sia C = C→ v (s) arco di curva C -regolare in J. Se in C non − vi `e alcun punto di flesso, allora il versore normale → n (s) `e una funzione a valori vettoriali definita e continua in J. Inoltre, per ogni valore di s in J:
→ − − n (s). t (s) = κ(s)→
(13.40)
− Dimostrazione. Dalla Prop. 13.7.1 segue che → κ (s) `e continua in J. Poich´e nessun → − punto di C `e di flesso, la funzione κ(s) = | κ (s)| `e continua e ovunque non nulla; → − − − − − κ (s) `e continua in J. Poich´e t (s) = → κ (s) = κ(s)→ n (s), si pertanto → n (s) = [κ(s)]−1 → ha la 13.40. Se la curva `e data con una parametrizzazione qualunque, non necessariamente quella naturale, allora la formula della curvatura, che diamo senza dimostrazione, `e la seguente − − v (t)| |→ v (t) ∧ → (13.41) κ(t) = − |→ v (t)|3 Esempio 13.7.5. Consideriamo la curva parametrica piana γ(t) = (t, t2 ) il cui vettore tangente `e γ (t) = (1, 2t) = 0 e dunque la curva `e regolare. Il versore tangente `e (1, 2t) → − t (t) = √ 1 + 4t2
314
CAPITOLO 13. ELEMENTI DI GEOMETRIA DIFFERENZIALE
L’accelerazione `e il vettore derivato di questo: → − 4t dt 2 = (− , ) 2 3/2 dt (1 + 4t ) (1 + 4t2 )3/2 → − che `e perpendicolare a t . La curvatura di γ, in funzione di t, calcolata con la formula (13.41) vale: 2 . (13.42) κ(t) = (1 + 4t2 )3/2 √ √ Esempio 13.7.6. Determinare la tangente e la curvatura nel punto P ( 2, 2, π4 ) della curva γ(t) = (2 cos t, 2 sin t, t). Soluzione. Osserviamo preliminarmente che il valore di t corrispondente a P `e π . La derivata `e γ (t) = (−2 sin t, 2 cos t, 1) e la curva `e quindi regolare. Il vettore 4 √ √ π γ ( 4 ) `e quindi γ ( π4 ) = (− 2, 2, 1). Usando questi parametri direttori e il punto assegnato, otteniamo la retta di equazioni parametriche ⎧ √ √ ⎪ ⎨x = √ 2 − √ 2t y = 2 + 2t ⎪ ⎩ z = π4 + t Per determinare la curvatura, calcoliamo la derivata di γ in P : √ √ π γ ( ) = [(−2 cos t, −2 sin t, 0)]t= π = (− 2, − 2, 0) 4 4 e applichiamo la (13.41) che ci d` a
13.8
√ 2 5 5 .
Torsione e formule di Frenet
Sia P = P (s) un punto di C arco di curva C 2 -regolare in J. Se P non `e un flesso, → − − risultano determinati i versori t (s) ed → n (s), tra loro ortogonali (cfr. Prop. 13.7.3). − → − → − − ` allora individuato il loro prodotto vettoriale → E b (s) = t (s) ∧ → n (s). Il vettore b (s) → − − `e un versore (perch´e t (s) ed → n (s) sono versori ortogonali), detto binormale a C in → − P (s). Se C `e privo di punti di flesso, la funzione b (s) `e definita e continua in J, → − → − → − − − n (s), b (s)) `e allora una data la continuit` a di t (s) e → n (s). La terna ordinata ( t (s), → → − → − → − terna di versori a due a due ortogonali equiversa alla terna ( i , j , k ). Diremo che la → − → − − terna ( t (s), → n (s), b (s)) `e il triedro fondamentale o la terna intrinseca di C in P (s). → − → − − La terna ( t (s), → n (s), b (s)) individua i tre piani per il punto P (s) paralleli alle → − → − → − → − − − coppie di versori ( t (s),→ n (s)), (→ n (s), b (s)), ( t (s), b (s)); diremo che il primo di tali tre piani `e il piano osculatore a C in P (s), che il secondo `e il piano normale a C in P (s) ed infine che il terzo `e il piano rettificante C in P (s). Si dimostra che il piano osculatore a C in P (s) `e la posizione cui tende un piano congiungente P (s) ed altri due punti dell’arco quando tali punti tendono a P (s). Il piano normale a C in P (s) `e ortogonale al versore tangente in P (s). Nei punti di flesso non `e determinato il versore normale al pari del piano osculatore e del piano rettificante.
13.9. EQUAZIONE DI PIANO OSCULATORE, NORMALE E RETTIFICANTE315 3 − Proposizione 13.8.1. (Formule di Frenet) Sia C→ v (s) arco di curva C -regolare, → − → − → − − con → v (s) = x(s) i + y(s) j + z(s) k funzione dell’ascissa curvilinea s in J. Se in C non vi `e alcun punto di flesso, allora esiste una funzione τ (s), a valori reali, continua → − → − − in J, tale che per le derivate di t (s), → n (s), b (s), si abbia:
→ − − n (s) t (s) = κ(s)→
(13.43)
→ − − n (s). b (s) = −τ (s)→
(13.44)
→ − → − → − n (s) = −κ(s) t (s) + τ (s) b (s)
(13.45)
Dimostrazione. La (13.43) `e stata provata in Proposizione 13.7.4. Osserviamo che le → − − funzioni b (s) e → n (s) sono di classe C 1 per l’inesistenza di punti di flesso e la C 3 → − → − regolarit` a di C. Dimostriamo la (13.44). Dato che b (s) `e di modulo costante, b (s) `e perpendicolare ad esso, per la Proposizione 13.2.2. Inoltre si ha: → − → − → − → − − − − n (s)) = t (s) ∧ → n (s) + t (s) ∧ → n (s). b (s) = ( t (s) ∧ → → − → − → − − − Essendo t (s) e → n (s) paralleli (per la (13.43)), segue t (s) ∧ → n (s) = 0 . Pertanto si → − → − → − → − − n (s). Discende quindi che b (s) `e perpendicolare anche a t (s). ha b (s) = t (s) ∧ → → − → − → − Il vettore b (s), essendo perpendicolare a b (s) e a t (s), risulta parallelo a → − n (s), quindi proporzionale ad esso secondo un coefficiente che indichiamo con −τ (s). Pertanto si ha la (13.44), dalla quale discende anche la continuit`a di τ (s). Possiamo ora provare la (13.45). Si ha: → − → − → − → − → − → − → − (13.46) n (s) = −( t (s) ∧ b (s)) = − t (s) ∧ b (s) − t (s) ∧ b (s). → − → − Sostituendo, nella (13.46) i valori di t (s) e di b (s) forniti dalle (13.43) e (13.44): → − → − → − − − n (s) = −κ(s)(→ n (s) ∧ b (s)) − τ (s)( t (s) ∧ → n (s)).
(13.47)
→ − → − → − → − − − Inoltre → n (s) ∧ b (s) = t (s), t (s) ∧ → n (s) = b (s) e, sostituendo nella (13.47), segue la (13.45). La funzione a valori scalari τ (s) che compare nell’enunciato della proposizione precedente `e detta torsione dell’arco di curva.
13.9
Equazione di piano osculatore, normale e rettificante
Nel numero precedente abbiamo definito i piani osculatore, normale e rettificante. Proviamo, al riguardo che:
316
CAPITOLO 13. ELEMENTI DI GEOMETRIA DIFFERENZIALE
Proposizione 13.9.1. Nelle ipotesi della Proposizione 13.8.1, comunque sia dato il punto P (s) dell’arco di curva C, l’equazione del piano normale a C in P (s) `e: x (s)(x − x(s)) + y (s)(y − y(s)) + z (s)(z − z(s)) = 0.
(13.48)
L’equazione del piano rettificante C in P (s) `e: x (s)(x − x(s)) + y (s)(y − y(s)) + z (s)(z − z(s)) = 0.
(13.49)
→ − Posto b (s) = (bx (s), by (s), bz (s)), l’equazione del piano osculatore a C in P (s) `e: bx (s)(x − x(s)) + by (s)(y − y(s)) + bz (s)(z − z(s)) = 0.
(13.50)
→ − Dimostrazione. Il piano normale π passa per P (s) ed `e ortogonale al versore t (s) → − tangente a C in P (s); pertanto il versore normale al piano π `e t (s); ne segue che l’equazione di π `e la (13.48). Analogamente si provano le (13.49) e la (13.50). → − → − − Calcolando esplicitamente le coordinate (bx , by , bz ) di b = t ∧ → n , si ottiene dalla (13.50) la seguente forma dell’equazione cartesiana del piano osculatore in P (s): x − x(s) y − y(s) z − z(s) x (s) y (s) z (s) = 0. (13.51) x (s) y (s) z (s) Proposizione 13.9.2. Se, nelle ipotesi della Prop. 13.8.1, la funzione torsione τ (s) `e nulla per ogni valore dell’ascissa curvilinea, allora il versore binormale `e costante e l’arco di curva `e contenuto in un piano, che coincide con il piano osculatore in ogni punto di C. → − → − Dimostrazione. Se τ (s) = 0, ∀s ∈ J, dalla 13.44 segue che b (s) `e nullo, da cui b (s) `e costante. Posto: → − → − (13.52) b (s) = (bx , by , bz ) = b , si ha (cfr. Prop. 13.2.1): → − → − − → − → − − − − (→ v (s) · b ) = → v (s) · b + → v (s) · b = → v (s) · b .
(13.53)
→ − → − → − → − − − Inoltre, poich`e → v (s) = t (s) ed essendo t (s) e b ortogonali, `e → v (s) · b = 0. Ne segue che: → − − (13.54) (→ v (s) · b ) = 0. → − → − − − Pertanto, il prodotto scalare → v (s) · b `e costante. Posto allora → v (s) · b = h, per ogni valore dell’ascissa curvilinea: bx x(s) + by y(s) + bz z(s) = h.
(13.55)
Inoltre, per ogni s ∈ J, l’equazione del piano π(s) osculatore a C nel punto P (s) `e (cfr. (13.50)):
13.10. USO DI UN PARAMETRO DIVERSO DALL’ASCISSA CURVILINEA 317
bx (x − x(s)) + by (y − y(s)) + bz (z − z(s)) = 0,
(13.56)
cio`e: bx x + by y + bz z − (bx x(s) + by y(s) + bz z(s)) = 0, che equivale, per la (13.55), a: bx x + by y + bz z − h = 0.
(13.57)
Ne discende che tutti i piani osculatori a C coincidono con il piano π di equazione (13.57) e che C `e contenuta in π. Concludiamo questo paragrafo enunciando, senza provarlo, il seguente notevole teorema: Teorema 13.9.3. Date due funzioni κ(s) e τ (s) continue nell’intervallo (a, b), allora esiste, a meno di “movimenti rigidi”, uno ed un sol arco di curva C 2 -regolare definito in (a, b), di cui κ(s) e τ (s) sono curvatura e torsione.
13.10
Uso di un parametro diverso dall’ascissa curvilinea
L’utilizzo delle formule del paragrafo precedente presuppone la determinazione dell’a` comunque possibile individuare i scissa curvilinea, spesso in pratica non attuabile. E versori del triedro mobile, i piani osculatore, normale e rettificante, la curvatura e la torsione, utilizzando una rappresentazione parametrica qualunque dell’arco di curva regolare. 3 − Sia quindi assegnato C = C→ v (t) arco di curva C -regolare di equazioni parametriche → − x = x(t), y = y(t), z = z(t), con t ∈ I. Il versore tangente t (t), avendo direzione e → − verso in comune con v (t), si ottiene come: 1 → → − − t (t) = → v (t). |− v (t)|
(13.58)
Pensando all’ascissa curvilinea s come funzione s(t) del parametro t, (con inversa t = t(s)), utilizzando le regole di derivazione di funzione composta per le funzioni x (t(s)), y (t(s)), z (t(s)), x (t(s)), y (t(s)), z (t(s)) nella (13.51), si dimostra che il piano osculatore nel punto P (t) ha equazione: x − x(t) y − y(t) z − z(t) x (t) y (t) z (t) = 0 (13.59) x (t) y (t) z (t) con struttura quindi perfettamente identica a quella della (13.51). Diamo di seguito, senza dimostrazione, le formule che permettono di determinare i versori binormale, normale, la curvatura e la torsione in ogni punto P (t). → − − → − v (t) ∧ → v (t) b (t) = → − → − | v (t) ∧ v (t)|
(13.60)
CAPITOLO 13. ELEMENTI DI GEOMETRIA DIFFERENZIALE
318
→ − → − → − n (t) = b (t) ∧ t (t) − − v (t)| |→ v (t) ∧ → κ(t) = → − | v (t)|3 τ (t) =
(13.61) (13.62)
− − → − v (t) · → v (t) v (t) ∧ → . → − → − | v (t) ∧ v (t)|2
(13.63)
→ − − Una volta calcolati i versori t (t) e → n (t), `e immediata la determinazione dei piani normale e rettificante, in quanto ad essi rispettivamente perpendicolari.
Esempio 13.10.1.
Si ha:
⎧ ⎪ ⎨x = t Studiamo la cubica gobba y = t2 ⎪ ⎩ z = t3
⎧ ⎪ ⎨x = 1 y = 2t ⎪ ⎩ z = 3t2
⎧ ⎪ ⎨x = 0 y = 2 ⎪ ⎩ z = 6t
nel punto P (1) = (1, 1, 1).
⎧ ⎪ ⎨x = 0 y = 0 ⎪ ⎩ z =6
− − − − v (1) = (0, 2, 6), → v (1) = (0, 0, 6). Essendo |→ v (1)| = da cui → v (1) = (1, 2, 3), → √ 14, si ottiene: 1 2 3 → − . (13.64) t (1) = √ , √ , √ 14 14 14 Si ha poi:
→ − −i → j → − − v (1) ∧ → v (1) = 1 2 0 2
→ − k → − → − → − 3 = 6 i − 6 j + 2 k . 6
13.10. USO DI UN PARAMETRO DIVERSO DALL’ASCISSA CURVILINEA 319 √ √ − − v (1)| = 76 = 2 19, si deduce da (13.60): Essendo |→ v (1) ∧ → → − 3 −3 1 b (1) = √ , √ , √ 19 19 19
(13.65)
e, pertanto, da (13.61): → −i → − 1 → − → − 3 n (1) = b (1) ∧ t (1) = √ 266 1 Dalla (13.62) si trae:
− → − → j k −11 −8 9 ,√ ,√ . (13.66) −3 1 = √ 266 266 266 2 3
$ √ 76 19 . = κ(1) = √ 3 686 14
(13.67)
Si ha inoltre: → − − − v (1) ∧ → v (1) · → v (1) = (6, −6, 2) · (0, 0, 6) = 12. Dalla 13.63 si deduce quindi: τ (1) =
3 12 = . 76 19
(13.68)
→ − Il piano osculatore, essendo perpendicolare al versore b (1), ha equazione 3(x − 1) − 3(y − 1) + 1(z − 1) = 0, ovvero 3x − 3y + z − 1 = 0. → − Il piano normale, essendo perpendicolare al versore t (1), ha equazione 1(x − 1)+2(y − 1)+3(z − 1) = 0, cio`e x+2y+3z−6 = 0. − Il piano rettificante, essendo perpendicolare al versore → n (1), ha equazione −11(x−
1) − 8(y − 1) + 9(z − 1) = 0, cio`e 11x + 8y − 9z + 10 = 0.
Appendice A
INDICE ANALITICO Indice analitico algoritmo di Gauss, 45 algoritmo di Gauss-Jordan, 45 algoritmo di inversione, 59 angolo di due piani, 207 angolo di due rette, 131, 204 angolo di due vettori, 123, 189, 266 angolo retta-piano, 206 annullatore di una matrice, 250 applicazione, 8 applicazione identica, 8, 245 applicazione lineare, 241 applicazione lineare composta, 244 applicazione lineare prodotto, 244 applicazione nulla, 245 arco di curva, 300 arco di curva C n -regolare, 312 arco di curva regolare, 300 arco di curva rettificabile, 304 arco di curva semplice, 300 area del parallelogramma, 193 area del triangolo, 124, 193 ascissa, 117 ascissa curvilinea, 306 asintoti, 147 asintoti di un’iperbole, 158 asse cartesiano, 117, 187 asse coordinato, 117, 187 asse della parabola, 149
asse asse asse asse
di un fascio proprio di piani, 197 di una parabola, 157 non trasverso, 147 principale di un paraboloide, 217, 218 asse trasverso, 147 assi di un’ellisse, 145 assi di un’iperbole, 147 assi di una conica a centro, 157, 158 assi principali di un ellissoide, 214 assi principali di un iperboloide, 215, 216 assi principali, teorema degli, 272 automorfismo, 245 autosoluzione, 51 autovalore, 99 autovettore, 99 base, 31, 229 base canonica, 33, 229 base naturale, 33 base ordinata, 33 base ortonormale, 119, 264, 290 base standard, 33 Binet, teorema di, 76 campo, 224 campo completo, 17 caratteristica di una matrice, 82
322 cardinalit` a, 2 centro di un ellissoide, 214 centro di un fascio proprio di rette, 129, 203 centro di un iperboloide, 215, 216 centro di una circonferenza, 142 centro di una conica, 157, 158 centro di una sfera, 213 centro di una stella di piani, 197 centro di una stella propria di rette, 203 cilindro, 220 classe di equivalenza, 6 classe di una permutazione, 11 classi resto modulo n, 7 codominio, 8 coefficiente angolare, 127 coefficienti di una matrice, 35 cofattore, 70 combinazione lineare, 29 compatibilit` a degli ordini, 54 complementare di un sottoinsieme, 4 complemento algebrico, 70 complemento ortogonale, 266 componente di un vettore di Rn , 27 componenti di una conica degenere, 161 componenti di una matrice, 35 congruenza modulo n, 7 conica, 150, 155 conica a centro, 157 conica degenere, 156 conica doppiamente degenere, 156, 157 conica generale, 155 conica priva di punti reali, 155, 157 conica semplicemente degenere, 156, 157 conica senza centro, 157 cono, 220 controimmagine, 8 coordinata, 117 coordinate cartesiane, 117, 187 coordinate di un vettore, 33, 119, 189, 251 coordinate omogenee, 167
INDICE ANALITICO coordinate polari, 118 corrispondenza, 8 coseni direttori, 130, 204 Cramer, teorema di, 80 cubica gobba, 302 curva regolare a tratti, 303 curvatura, 312 De Morgan, leggi di, 5 determinante, 68 diagonale principale, 37 diagonale secondaria, 37 differenza di insiemi, 4 differenza di vettori, 115 dimensione, 31, 234 dipendenza lineare, 29 direttrici di un’ellisse, 145 direttrici di un’iperbole, 147 direzione, 113 distanza di due piani, 208 distanza di due punti, 123, 190 distanza di due rette parallele, 209 distanza di due rette sghembe, 210 distanza punto-piano, 207 distanza punto-retta, 131, 209 distanza retta-piano, 212 disuguaglianza di Bernoulli, 17 disuguaglianza triangolare, 16, 266 dominio, 8 eccentricit`a di un’ellisse, 145 eccentricit`a di un’iperbole, 147 elementi di una matrice, 35 elemento inverso, 224 elemento neutro, 57, 223 elemento opposto, 224 elemento simmetrico, 223 elica circolare, 302 ellisse, 157 ellisse degenere, 156, 157 ellissoide, 214 ellissoide rotondo, 214 endomorfismo, 241, 245 epimorfismo, 245 equazione caratteristica, 100 equazione cartesiana di un piano, 194 equazione cartesiana di una retta, 125
INDICE ANALITICO equazione lineare, 40 equazione omogenea della conica, 169 equazione ridotta di una retta, 127 equazione segmentaria di un piano, 196 equazione segmentaria di una retta, 128 equazioni cartesiane di una retta, 198 equazioni parametriche di una retta, 129, 199 equazioni ridotte di una retta, 198 equivalenti, 42 estremo inferiore, 17 estremo superiore, 17 fascio di piani, 197 fascio di rette, 129 fascio improprio di piani, 197 fascio improprio di rette, 129, 204 fascio proprio di piani, 197 fascio proprio di rette, 129, 203 fattorizzazione LU, 66 flesso, 312 forma bilineare, 289 forma bilineare simmetrica, 289 forma bilineare simmetrica definita positiva, 289 forma bilineare simmetrica non degenere, 289 formule di Frenet, 315 Fourier, coefficiente di, 266 Fourier, sviluppo di, 267 funzione, 8 funzione a valori vettoriali, 297 funzione a valori vettoriali C n -regolare, 312 funzione a valori vettoriali continua, 298 funzione a valori vettoriali derivabile, 298 funzione a valori vettoriali di classe C n , 298 funzione a valori vettoriali regolare, 300 funzione biiettiva, 9 funzione biunivoca, 9
323 funzione composta, 8 funzione iniettiva, 9 funzione inversa, 10 funzione suriettiva, 9 fuochi di un’ellisse, 145 fuochi di un’iperbole, 147 grafico, 8 Gram-Schmidt, procedimento di, 264, 290 Grassmann, formula di, 236 gruppo, 223 gruppo abeliano, 223, 224 gruppo additivo, 224 gruppo commutativo, 223 gruppo moltiplicativo, 224 immagine di un elemento, 8 immagine di una funzione, 8 incompatibile, 41 insieme, 1 insieme delle parti, 2 insieme di definizione, 8 insieme di generatori, 31 insieme libero, 30 insieme limitato, 17 insieme limitato superiormente, 17 insieme linearmente dipendente, 29 insieme massimale lin. indipendente, 231 insieme minimale di generatori, 231 insieme potenza, 2 insieme quoziente, 7 insieme vuoto, 2 insiemi disgiunti, 3 integrale di linea, 311 intersezione, 3 invariante cubico di una conica, 165 invariante lineare di una conica, 165 invariante quadratico di una conica, 165 invarianti di una conica, 165 inversione, 11 iperbole, 157 iperbole degenere, 156, 157 iperbole equilatera, 147 isomorfismo, 245
324 Laplace, primo teorema di, 70 Laplace, secondo teorema di, 78 Legendre, polinomi di, 291 limitato inferiromente, 17 lunghezza di un arco di curva, 304 lunghezza di un vettore, 34, 113 maggiorante, 17 matrice a gradini, 43 matrice a gradini ridotta, 44 matrice aggiunta, 77 matrice antisimmetrica, 39 matrice associata a un’applicazione lineare, 253 matrice associata alla forma quadratica, 274 matrice completa del sistema, 41 matrice dei coefficienti del sistema, 41 matrice del cambiamento di base, 257 matrice del cambiamento di coordinate, 132 matrice del sistema, 41 matrice di una conica, 156 matrice di una forma, 290 matrice di una forma bilineare, 294 matrice di Vandermonde, 74 matrice diagonale, 38 matrice diagonalizzabile, 102 matrice elementare, 63 matrice identica, 38 matrice identit`a, 38 matrice invertibile, 57 matrice nilpotente, 56 matrice non singolare, 59 matrice nulla, 37 matrice opposta, 37 matrice ortogonale, 221, 270 matrice ortogonalmente diagonalizzabile, 270 matrice pseudodiagonale, 285 matrice pseudoinversa, 280 matrice quadrata, 37 matrice reale, 35 matrice simmetrica, 37, 272 matrice trasposta, 36 matrice triangolare inferiore, 38
INDICE ANALITICO matrice triangolare superiore, 37 matrici simili, 107 metodo dei minimi quadrati, 278 metodo di sostituzione a ritroso, 43 minorante, 17 minore di una matrice, 82 minore direttore, 82 minore principale, 82 modello universale di spazio vettoriale, 252 modulo di un numero complesso, 19 modulo di un vettore, 34, 115, 189 molteplicit`a geometrica, 106 molteplicit`a algebrica, 106 monomorfismo, 245 Moore e Penrose, matrice pseudoinversa di, 288 norma di un vettore, 34, 263, 290 nucleo, 245 numero complesso coniugato, 19 omomorfismo, 241 operatore, 245 operatore lineare, 241 operazione binaria, 12 operazione binaria interna, 12 operazione ternaria, 12 operazione unaria, 12 ordinata, 117 ordine di un gruppo, 223 ordine di una matrice, 35 origine, 117, 187 origine di un arco di curva, 306 parabola, 157 parabola degenere, 156, 157 parabola degenere a punti reali, 156 parabola degenere priva di punti reali, 156 parallelismo retta-piano, 205 parametri direttori, 130 parametri direttori di una retta, 199 parametri liberi, 94 parametrizzazione a velocit` a unitaria, 307 parametrizzazione naturale, 307
INDICE ANALITICO parametro arco, 307 parte di un insieme, 1 permutazione, 10 permutazione fondamentale, 10 perpendicolarit` a retta-piano, 205 piani perpendicolari, 207 piani principali di un ellissoide, 214 piani principali di un iperboloide, 215, 216 piani principali di un paraboloide, 217, 218 piano ampliato, 167 piano coordinato, 187 piano normale, 314, 316 piano osculatore, 314, 316 piano rettificante, 314, 316 polinomi di Lagrange, 293 polinomio caratteristico, 100 polinomio interpolatore di Lagrange, 294 potenza cartesiana n-esima, 5 principio di induzione, 12 prodotto, 28 prodotto cartesiano, 5 prodotto competente, 68 prodotto di scalare per vettore, 38, 224 prodotto esterno, 224 prodotto interno, 263 prodotto righe per colonne, 54 prodotto scalare, 34, 189, 263, 289 prodotto vettoriale, 191 proiezione ortogonale, 122, 242, 266, 267 propriet` a antisimmetrica, 6 propriet` a riflessiva, 6 propriet` a simmetrica, 6 propriet` a transitiva, 6 punto ellittico, 213 punto improprio, 167 punto iperbolico, 213 punto medio, 124 punto parabolico, 213 punto unit`a, 117 quadrato cartesiano, 5
325 quadrica, 213 raggio di curvatura, 313 raggio di una circonferenza, 142 raggio di una sfera, 213 raggio vettore, 118 rango, 88 rango di una matrice, 82 rango per colonne, 85 rango per minori, 83 rango per righe, 85 rappresentante di un vettore libero, 114 relazione, 5 relazione di equivalenza, 6 relazione di ordine, 6 relazione identica, 6 relazione vuota, 6 retta ai minimi quadrati, 281 retta all’infinito, 167 retta ampliata, 167 retta impropria, 167 retta secante un arco, 308 retta tangente a un arco, 308 rette coincidenti, 128, 202 rette complanari, 201, 204 rette incidenti, 128, 202 rette parallele, 128, 200, 202 rette perpendicolari, 130, 131 rette sghembe, 201, 202, 204 riferimento cartesiano, 117, 187 riflessione, 243 rotazione, 242 Rouch´e - Capelli, teorema di, 93 Sarrus, regola di, 69 scalare, 28, 225 segmento orientato, 113 sfera, 212 simbolo di Kronecker, 263 singleton, 2 sistema ortonormale di vettori, 290 sistema lineare, 40 sistema ortonormale di vettori, 263 sistema ridotto, 93 sistemi lineari omogenei, 51 soluzione ai minimi quadrati, 278
INDICE ANALITICO
326
triedro fondamentale, 314 somma di matrici, 38 somma di sottospazi, 235, 239 somma di vettori, 27, 114 somma diretta, 238, 239 sostegno di una curva, 301 sostituzione, 10 sottoinsieme, 1 sottoinsieme chiuso, 31 sottospazi banali, 31 sottospazio, 31 sottospazio congiungente, 235 sottospazio generato, 31 sottospazio nullo, 228 sottospazio somma, 235 sottospazio supplementare, 239 spazio euclideo, 263, 289 spazio euclideo proprio, 289 spazio nullo, 227 spazio vettoriale, 27, 224 stella di piani, 197 stella impropria di rette, 203 stella propria di rette, 203 teorema degli orlati, 84 teorema di Cayley-Hamilton, 110 teorema di completamento ad una base, 234 teorema di riduzione ad una base, 234 terna equiversa, 190 torsione, 315 traccia di una matrice quadrata, 37 trasformazione lineare, 241 trasposizione, 11
unione, 2 valore singolare di una matrice, 285 verso, 113 versore, 34, 115, 122, 263, 290 versore binormale, 314 versore normale, 313 versore tangente, 307 vertice di una parabola, 149 vertici di un ellissoide, 214 vertici di un iperboloide ellittico, 215 vertici di un’ellisse, 145 vertici di un’iperbole, 147 vettore, 27, 114, 225 vettore applicato, 113 vettore colonna, 85 vettore curvatura, 312 vettore errore, 281 vettore libero, 114 vettore nullo, 27, 114 vettore opposto, 27, 114 vettore riga, 85 vettore singolare a destra, 286 vettore singolare a sinistra, 286 vettore unitario, 34 vettori complanari, 188, 189 vettori equipollenti, 113 vettori linearmente dipendenti, 29 vettori ortogonali, 34, 263, 290 vettori paralleli, 115, 121, 188, 189 vettori perpendicolari, 189
Il presente volume è strutturato in modo da essere utilizzabile in corsi di Geometria da 6 a 12 crediti per studenti di corsi triennali di Ingegne‑ ria. Una parte del testo fornisce le basi per la conoscenza dell'Algebra Lineare (vettori numerici, matrici, sistemi lineari) e della Geometria Analitica (punti, rette, piani, coniche e quadriche in equazione cano‑ nica). Successivamente vengono approfonditi argomenti relativi alle coniche, introdotti elementi di Geometria Differenziale delle curve nello spazio e ripreso lo studio dell'Algebra Lineare in un ambito più generale (spazi vettoriali e euclidei, applicazioni lineari, diagonalizzazione). STEFANO CAPPARELLI, Ph.D. Rutgers, ha iniziato la sua carriera accademica negli USA, ha insegnato nell'Università di Rutgers e nell'Università dello Utah, ed è stato J.W. Gibbs Instructor presso l'Università di Yale. Attualmente è Professore Associato di Geometria nella Facoltà di Ingegneria dell'Informa‑ zione, Informatica e Statistica della "Sapienza" di Roma. ALBERTO DEL FRA, Professore Ordinario di Geometria presso la Facoltà di Ingegneria Aerospaziale della “Sapienza” di Roma, è attualmente in pensione.
Euro 28,00
www.editrice-esculapio.it