Calcolo scientifico: Esercizi e problemi risolti con MATLAB e Octave [4a ed.] 8847008379, 9788847008373, 8847008387, 9788847008380

Questo testo è espressamente concepito per i corsi brevi del nuovo ordinamento delle Facoltà di Ingegneria e di Scienze.

396 16 6MB

Italian Pages 371

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

Calcolo scientifico: Esercizi e problemi risolti con MATLAB e Octave  [4a ed.]
 8847008379, 9788847008373, 8847008387, 9788847008380

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

A Fausto

A. Quarteroni F. Saleri

Calcolo Scientifico Esercizi e problemi risolti con MATLAB e Octave 4a edizione



ALFIO QUARTERONI MOX - Dipartimento di Matematica Politecnico di Milano e Ecole Polytechnique Fédérale de Lausanne FAUSTO SALERI† MOX - Dipartimento di Matematica Politecnico di Milano

Le simulazioni in copertina sono state realizzate da Davide Detomi e Nicola Parolini

ISBN 978-88-470-0837-3 Springer Milan Berlin Heidelberg New York e-ISBN 978-88-470-0838-0 Springer Milan Berlin Heidelberg New York Springer-Verlag fa parte di Springer Science+Business Media springer.com © Springer-Verlag Italia, Milano 2008

Quest’opera è protetta dalla legge sul diritto d’autore e la sua riproduzione è ammessa solo ed esclusivamente nei limiti stabiliti dalla stessa. Le fotocopie per uso personale possono essere effettuate nei limiti del 15% di ciascun volume dietro pagamento alla SIAE del compenso previsto dall’art. 68, commi 4 e 5, della legge 22 aprile 1941 n. 633. Le riproduzioni per uso non personale e/o oltre il limite del 15% potranno avvenire solo a seguito di specifica autorizzazione rilasciata da AIDRO, Via Corso di Porta Romana n. 108, Milano 20122, e-mail [email protected] e sito web www.aidro.org. Tutti i diritti, in particolare quelli relativi alla traduzione, alla ristampa, all’utilizzo di illustrazioni e tabelle, alla citazione orale, alla trasmissione radiofonica o televisiva, alla registrazione su microfilm o in database, o alla riproduzione in qualsiasi altra forma (stampata o elettronica) rimangono riservati anche nel caso di utilizzo parziale. La violazione delle norme comporta le sanzioni previste dalla legge. 9

7

8

6

5

4

3

2

1

Riprodotto da copia camera-ready fornita dagli Autori Progetto grafico della copertina: Simona Colombo, Milano Stampato in Italia: Signum Srl, Bollate (MI) Springer-Verlag Italia Srl, Via Decembrio 28, 20137 Milano

Prefazione alle precedenti edizioni a

Questo testo `e una introduzione al Calcolo Scientifico. In esso vengono illustrati metodi numerici per la risoluzione con il calcolatore di alcune classi di problemi della Matematica che non si possono risolvere con “carta e penna”. In particolare, mostreremo come calcolare gli zeri o l’integrale di funzioni continue, come risolvere sistemi lineari, come approssimare funzioni con polinomi, ma anche come trovare delle buone approssimazioni della soluzione di equazioni differenziali ordinarie e di problemi ai limiti. A tale scopo, nel Capitolo 1 illustreremo le principali regole del gioco che i calcolatori seguono quando memorizzano i numeri reali ed i numeri complessi, i vettori e le matrici, e come operano con essi. Al fine di rendere concreta ed incisiva la nostra trattazione adotteremo il linguaggio di programmazione MATLAB  1 come fedele compagno di viaggio. Scopriremo gradualmente i suoi principali comandi e costrutti. Grazie ad esso mostreremo come rendere esecutivi tutti gli algoritmi che via via introdurremo e potremo immediatamente fornire un riscontro “quantitativo” alle loro propriet` a teoriche, quali stabilit` a, accuratezza e complessit`a. Saremo inoltre in grado di risolvere al calcolatore numerosi quesiti e problemi che verranno posti attraverso esercizi ed esempi, anche con riferimento a specifiche applicazioni. Per rendere pi` u agevole la lettura useremo alcuni accorgimenti tipografici.2 A margine del testo riporteremo il comando MATLAB in corrispondenza della linea in cui tale comando `e richiamato per la prima volta. Inoltre, useremo il simbolo 1

2

per segnalare degli esercizi, il sim-

MATLAB `e un marchio registrato di The MathWorks, Inc. Per ulteriori informazioni su MATLAB si prega di contattare: The MathWorks, 3 Apple Hill Drive, Natick, MA 01760 20098, Tel: 001+508-647-7000, Fax: 001+508647-7001. Per le icone utilizzate si veda il sito http://www.iconarchive.com

VI

Prefazione alle precedenti edizioni

per segnalare un programma ed il simbolo per attirare bolo l’attenzione su un comportamento critico o sorprendente di un algoritmo o di un procedimento. Le formule particolarmente rilevanti sono incorniciate. Infine, il simbolo segnala la presenza di una scheda riassuntiva dei concetti e delle conclusioni esposte nei paragrafi immediatamente precedenti. Alla fine di ogni capitolo `e situato un paragrafo nel quale si menzionano gli argomenti non trattati e si indicano dei riferimenti bibliografici per l’approfondimento del materiale presentato. Le soluzioni di tutti gli esercizi sono raccolte nel capitolo conclusivo. Faremo spesso riferimento ai testi [QSS07] e [QSS08] per i rimandi di carattere teorico o per gli approfondimenti, mentre per una descrizione completa di MATLAB rimandiamo a [HH05]. Tutti i programmi presenti nel volume possono essere trovati all’indirizzo: mox.polimi.it/qs. Questo testo `e espressamente concepito per i corsi brevi del nuovo ordinamento delle Facolt` a di Ingegneria e di Scienze. Non `e richiesto nessun particolare requisito, fatta eccezione ovviamente per un corso elementare di Analisi Matematica. In ogni caso nel primo capitolo richiamiamo i principali risultati di Analisi e di Geometria di cui verr` a fatto uso nel testo. Gli argomenti meno elementari, non indispensabili cio`e ad un percorso formativo introduttivo, sono segnalati con il simbolo . Questa terza edizione si differenzia dalla precedente per la presenza di un maggior numero di problemi applicativi e per diverse integrazioni riguardanti la risoluzione di sistemi lineari e non lineari e l’approssimazione di equazioni differenziali ordinarie. Desideriamo ringraziare tutti i nostri colleghi e collaboratori del MOX (Centro di Modellistica e Calcolo Scientifico) del Politecnico di Milano che hanno consentito di rendere pi` u ricco ed interessante questo volume. Ringraziamo inoltre Paola Gervasio, Carlo D’Angelo e Nicola Parolini che si sono prestati ad un’attenta rilettura della terza edizione, contribuendo a migliorarne la chiarezza espositiva. Losanna e Milano, febbraio 2006

Alfio Quarteroni, Fausto Saleri

Prefazione alla quarta edizione a

La quarta edizione di questo testo si caratterizza per numerose e significative novit` a. L’ambiente MATLAB `e stato affiancato da Octave, una reimplementazione di MATLAB distribuita gratuitamente secondo le condizioni d’uso della GNU General Public License. Tutti gli esercizi e i problemi sono risolti con programmi che possono essere eseguiti in entrambi gli ambienti. I capitoli relativi all’approssimazione di problemi alle derivate parziali, ellittici, parabolici ed iperbolici, sono stati notevolmente arricchiti da nuovi tipi di equazioni (fra cui quelle di trasporto e di diffusionetrasporto) nonch´e da nuovi metodi di discretizzazione alle differenze finite ed agli elementi finiti. Sono stati eliminati alcuni accorgimenti tipografici a margine del testo, al fine di rendere pi` u fruibile ed autonomo l’approccio agli argomenti trattati da parte del lettore, sia esso docente o studente. Infine sono stati aggiunti nuovi problemi di interesse applicativo e numerosi esercizi con relative tracce di soluzioni. Tutto questo `e stato reso possibile grazie al contributo straordinario (per quantit` a e qualit` a) di Paola Gervasio. A lei va il mio ringraziamento e la mia stima. Losanna e Milano, giugno 2008

Alfio Quarteroni

Indice

1

Quel che non si pu` o non sapere . . . . . . . . . . . . . . . . . . . . . . . 1.1 Gli ambienti MATLAB e Octave . . . . . . . . . . . . . . . . . . . . . 1.2 I numeri reali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.1 Come si rappresentano . . . . . . . . . . . . . . . . . . . . . . . . 1.2.2 Come si opera con i numeri floating-point . . . . . . . 1.3 I numeri complessi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4 Le matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.1 I vettori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5 Le funzioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5.1 Gli zeri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5.2 I polinomi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5.3 L’integrale e la derivata . . . . . . . . . . . . . . . . . . . . . . . 1.6 Errare non `e solo umano . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.6.1 Parliamo di costi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.7 Qualche parola in pi` u su MATLAB . . . . . . . . . . . . . . . . . . 1.7.1 Statement MATLAB . . . . . . . . . . . . . . . . . . . . . . . . . . 1.7.2 Programmare in MATLAB . . . . . . . . . . . . . . . . . . . . 1.7.3 Esempi di differenze tra linguaggi MATLAB e Octave . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.8 Cosa non vi abbiamo detto . . . . . . . . . . . . . . . . . . . . . . . . . . 1.9 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1 1 3 3 6 8 11 15 17 19 21 23 26 28 31 33 34

Equazioni non lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1 Alcuni problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Il metodo di bisezione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Il metodo di Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.1 Come arrestare il metodo di Newton . . . . . . . . . . . . 2.3.2 Il metodo di Newton per sistemi di equazioni non lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4 Iterazioni di punto fisso . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

41 41 44 47 50

38 39 39

52 54

X

Indice

2.4.1 Come arrestare un’iterazione di punto fisso . . . . . . 2.5 Accelerazione con il metodo di Aitken . . . . . . . . . . . . . . . . . 2.6 Polinomi algebrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6.1 Il metodo di H¨ orner . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6.2 Il metodo di Newton-H¨ orner . . . . . . . . . . . . . . . . . . . 2.7 Cosa non vi abbiamo detto . . . . . . . . . . . . . . . . . . . . . . . . . . 2.8 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

60 61 65 66 68 70 72

Approssimazione di funzioni e di dati . . . . . . . . . . . . . . . . . . . . . 3.1 Alcuni problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Approssimazione con i polinomi di Taylor . . . . . . . . . . . . . 3.3 Interpolazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.1 Interpolazione polinomiale di Lagrange . . . . . . . . . . 3.3.2 Stabilit` a dell’interpolazione polinomiale . . . . . . . . . 3.3.3 Interpolazione rispetto ai nodi di Chebyshev . . . . . 3.3.4 Interpolazione trigonometrica e FFT . . . . . . . . . . . . 3.4 Interpolazione lineare composita . . . . . . . . . . . . . . . . . . . . . . 3.5 Approssimazione con funzioni spline . . . . . . . . . . . . . . . . . . 3.6 Il metodo dei minimi quadrati . . . . . . . . . . . . . . . . . . . . . . . 3.7 Cosa non vi abbiamo detto . . . . . . . . . . . . . . . . . . . . . . . . . . 3.8 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

75 75 77 78 79 84 85 88 93 94 99 103 105

Differenziazione ed integrazione numerica . . . . . . . . . . . . . . . . . 4.1 Alcuni problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Approssimazione delle derivate . . . . . . . . . . . . . . . . . . . . . . . 4.3 Integrazione numerica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.1 La formula del punto medio . . . . . . . . . . . . . . . . . . . 4.3.2 La formula del trapezio . . . . . . . . . . . . . . . . . . . . . . . 4.3.3 La formula di Simpson . . . . . . . . . . . . . . . . . . . . . . . . 4.4 Formule di quadratura interpolatorie . . . . . . . . . . . . . . . . . . 4.5 La formula di Simpson adattiva . . . . . . . . . . . . . . . . . . . . . . 4.6 Cosa non vi abbiamo detto . . . . . . . . . . . . . . . . . . . . . . . . . . 4.7 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

107 107 109 112 112 114 115 117 121 125 126

Sistemi 5.1 5.2 5.3 5.4 5.5 5.6 5.7 5.8 5.9

129 129 134 135 144 147 150 152 154 157 158

lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Alcuni problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sistemi e complessit`a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Il metodo di fattorizzazione LU . . . . . . . . . . . . . . . . . . . . . . La tecnica del pivoting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Quanto `e accurata la fattorizzazione LU? . . . . . . . . . . . . . . Come risolvere un sistema tridiagonale . . . . . . . . . . . . . . . . Sistemi sovradeterminati . . . . . . . . . . . . . . . . . . . . . . . . . . . . Cosa si nasconde dietro al comando  di MATLAB . . . . Metodi iterativi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.9.1 Come costruire un metodo iterativo . . . . . . . . . . . . .

Indice

5.10 5.11 5.12 5.13 5.14 5.15

XI

Il metodo di Richardson e del gradiente . . . . . . . . . . . . . . . Il metodo del gradiente coniugato . . . . . . . . . . . . . . . . . . . . Quando conviene arrestare un metodo iterativo . . . . . . . . . Ed ora: metodi diretti o iterativi? . . . . . . . . . . . . . . . . . . . . Cosa non vi abbiamo detto . . . . . . . . . . . . . . . . . . . . . . . . . . Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

163 166 169 172 177 178

Autovalori ed autovettori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1 Alcuni problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2 Il metodo delle potenze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2.1 Analisi di convergenza . . . . . . . . . . . . . . . . . . . . . . . . 6.3 Generalizzazione del metodo delle potenze . . . . . . . . . . . . . 6.4 Come calcolare lo shift . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5 Calcolo di tutti gli autovalori . . . . . . . . . . . . . . . . . . . . . . . . 6.6 Cosa non vi abbiamo detto . . . . . . . . . . . . . . . . . . . . . . . . . . 6.7 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

181 182 184 187 188 191 194 197 198

Equazioni differenziali ordinarie . . . . . . . . . . . . . . . . . . . . . . . . . . 7.1 Alcuni problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2 Il problema di Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3 I metodi di Eulero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3.1 Analisi di convergenza . . . . . . . . . . . . . . . . . . . . . . . . 7.4 Il metodo di Crank-Nicolson . . . . . . . . . . . . . . . . . . . . . . . . . 7.5 Zero-stabilit` a ...................................... 7.6 Stabilit` a su intervalli illimitati . . . . . . . . . . . . . . . . . . . . . . . 7.6.1 La regione di assoluta stabilit` a ................. 7.6.2 L’assoluta stabilit` a controlla le perturbazioni . . . . 7.7 Metodi di ordine elevato . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.8 I metodi predictor-corrector . . . . . . . . . . . . . . . . . . . . . . . . . . 7.9 Sistemi di equazioni differenziali . . . . . . . . . . . . . . . . . . . . . . 7.10 Alcuni esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.10.1 Il pendolo sferico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.10.2 Il problema dei tre corpi . . . . . . . . . . . . . . . . . . . . . . 7.10.3 Alcuni problemi stiff . . . . . . . . . . . . . . . . . . . . . . . . . 7.11 Cosa non vi abbiamo detto . . . . . . . . . . . . . . . . . . . . . . . . . . 7.12 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

201 201 204 205 208 212 214 216 219 220 227 232 235 241 241 245 246 250 251

Metodi numerici per problemi ai limiti . . . . . . . . . . . . . . . . . . . 8.1 Alcuni problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2 Approssimazione di problemi ai limiti . . . . . . . . . . . . . . . . . 8.2.1 Approssimazione alle differenze finite del problema di Poisson monodimensionale . . . . . . . . . 8.2.2 Approssimazione alle differenze finite di un problema di diffusione-trasporto a trasporto dominante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

253 254 256 257

259

XII

Indice

8.2.3 Approssimazione agli elementi finiti del problema di Poisson monodimensionale . . . . . . . . . . . . . . . . . . 8.2.4 Approssimazione alle differenze finite del problema di Poisson in 2 dimensioni . . . . . . . . . . . . 8.2.5 Consistenza e convergenza della discretizzazione con differenze finite del problema di Poisson . . . . . 8.2.6 Approssimazione alle differenze finite dell’equazione del calore monodimensionale . . . . . . 8.2.7 Approssimazione ad elementi finiti dell’equazione del calore monodimensionale . . . . . . . . . . . . . . . . . . . Equazioni iperboliche: un problema di trasporto scalare . 8.3.1 Metodi alle differenze finite per la discretizzazione dell’equazione scalare iperbolica . . . . . . . . . . . . . . . . 8.3.2 Analisi dei metodi alle differenze finite per l’equazione scalare iperbolica . . . . . . . . . . . . . . . . . . 8.3.3 Discretizzazione in spazio dell’equazione scalare iperbolica con elementi finiti . . . . . . . . . . . . . . . . . . . L’equazione delle onde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.4.1 Discretizzazione dell’equazione delle onde . . . . . . . . Che cosa non vi abbiamo detto . . . . . . . . . . . . . . . . . . . . . . . Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

287 291 293 298 298

Soluzione degli esercizi proposti . . . . . . . . . . . . . . . . . . . . . . . . . . 9.1 Capitolo 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.2 Capitolo 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.3 Capitolo 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.4 Capitolo 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.5 Capitolo 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.6 Capitolo 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.7 Capitolo 7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.8 Capitolo 8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

301 301 304 310 314 318 324 328 337

8.3

8.4 8.5 8.6

261 265 271 272 277 280 282 284

Riferimenti bibliografici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 345 Indice analitico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 351

Indice dei programmi MATLAB

2.1 2.2 2.3 2.4 2.5 2.6 3.1 4.1 4.2 4.3 5.1 5.2 6.1 6.2 6.3 6.4 7.1 7.2 7.3 7.4 7.5 7.6 7.7 7.8 7.9 7.10 8.1

bisection: il metodo di bisezione . . . . . . . . . . . . . . . . . . . . . . . newton: il metodo di Newton . . . . . . . . . . . . . . . . . . . . . . . . . . newtonsys: il metodo di Newton per un sistema non lineare aitken: il metodo di Aitken . . . . . . . . . . . . . . . . . . . . . . . . . . . . horner: il metodo di divisione sintetica . . . . . . . . . . . . . . . . . . newtonhorner: il metodo di Newton-H¨orner . . . . . . . . . . . . . . cubicspline: spline cubica interpolante . . . . . . . . . . . . . . . . . . . midpointc: formula composita del punto medio . . . . . . . . . . . simpsonc: formula composita di Simpson . . . . . . . . . . . . . . . . simpadpt: formula di Simpson adattiva . . . . . . . . . . . . . . . . . . lugauss: la fattorizzazione di Gauss . . . . . . . . . . . . . . . . . . . . . itermeth: metodo iterativo generico . . . . . . . . . . . . . . . . . . . . . eigpower: il metodo delle potenze . . . . . . . . . . . . . . . . . . . . . . invshift: il metodo delle potenze inverse con shift . . . . . . . . . gershcircles: i cerchi di Gershgorin . . . . . . . . . . . . . . . . . . . . . . qrbasic: il metodo delle iterazioni QR . . . . . . . . . . . . . . . . . . . feuler: il metodo di Eulero in avanti . . . . . . . . . . . . . . . . . . . . . beuler: il metodo di Eulero all’indietro . . . . . . . . . . . . . . . . . . . cranknic: il metodo di Crank-Nicolson . . . . . . . . . . . . . . . . . . . predcor: un generico metodo predictor-corrector . . . . . . . . . . feonestep: un passo del metodo di Eulero in avanti . . . . . . . . beonestep: un passo del metodo di Eulero all’indietro . . . . . . cnonestep: un passo del metodo di Crank-Nicolson . . . . . . . . newmark: il metodo di Newmark . . . . . . . . . . . . . . . . . . . . . . . fvinc: termine forzante per il problema del pendolo sferico . . threebody: termine forzante per il problema semplificato dei tre corpi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . bvp: approssimazione di un problema ai limiti di diffusione, trasporto e reazione con il metodo delle differenze finite . . . .

46 51 53 63 67 69 96 114 116 124 141 160 185 189 191 195 206 207 213 233 234 234 234 240 244 246 259

XIV

8.2

8.3 8.4 9.1 9.2 9.3 9.4 9.5

Indice dei programmi MATLAB

poissonfd: approssimazione del problema di Poisson con condizioni di Dirichlet usando il metodo delle differenze finite a 5 punti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . heattheta: θ-metodo per l’equazione del calore monodimensionale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . newmarkwave: metodo di Newmark per l’equazione delle onde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . gausslegendre: formula composita di quadratura di Gauss-Legendre con n = 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . rk2: metodo di Heun . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . rk3: metodo Runge-Kutta esplicito di ordine 3 . . . . . . . . . . . . neumann: approssimazione di un problema ai limiti di Neumann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . hyper: gli schemi Lax-Friedrichs, Lax-Wendroff e upwind . . .

268 275 294 315 330 331 338 342

 9*0 (-* 232 7. 49 3 232 7&4*6*

+M PTDRSN SDRSN RH HMBNMSQDQ@MMN BNMSHMT@LDMSD DMSHS@ L@SDL@SHBGD DKD LDMS@QH BGD CNUQDAADQN E@Q O@QSD CDK A@F@FKHN BTKSTQ@KD CDK KDSSNQD L@ HK BTH QHBNQCN D S@KUNKS@ @OO@MM@SN #OOQNSSH@LN CH PTDRSN B@OHSNKN HMSQNCTSSHUN ODQ QHMEQDRB@QD PTDK KD MNYHNMH BGD R@Q@MMN TSHKH MDKK@ SQ@SS@YHNMD RTBBDRRHU@ +M O@QSHBNK@QD BNMCDMRDQDLN MNYHNMH OQNOQHD CH #M@KHRH #KFDAQ@ D )DNLDSQH@ QHBNM FTQ@SD HM ETMYHNMD CDK KNQN TSHKHYYN MDK %@KBNKN 5BHDMSHBN 0NM RNKN HMSQNCTQQDLN @MBGD MTNUH BNMBDSSH SHOHBH CDK %@KBNKN 5BHDMSHBN DC HMH YHDQDLN @C DROKNQ@QMD HK RHFMHB@SN D K TSHKHS@ @UU@KDMCNBH CH MATLAB TM @LAHDMSD HMSDFQ@SN ODQ K@ OQNFQ@LL@YHNMD D K@ UHRT@KHYY@YHNMD (@QD LN TRN @MBGD CH )07 1BS@UD 1BS@UD HM AQDUD TM@ QDHLOKDLDMS@YHNMD CH MATLAB BGD HMBKTCD TM@ K@QF@ O@QSD CDH BNL@MCH MATLAB CH RSQHATHS@ FQ@STHS@LDMSD RDBNMCN KD BNMCHYHNMH C TRN CDKK@ )07 )DMDQ@K 2TAKHB .HBDMRD +MSQNCTQQDLN HM LNCN OQDKHLHM@QD FKH @LAHDMSH MATLAB D 1BS@UD MDK O@Q@FQ@EN  LDMSQD OQDRDMSDQDLN FKH DKDLDMSH CH A@RD QDK@SHUH @KK@ RHMS@RRH D @KK@ OQNFQ@LL@YHNMD MDK O@Q@FQ@EN  4HL@MCH@LN BNLTMPTD HK KDSSNQD HMSDQDRR@SN @H L@MT@KH ODQ TM@ CDRBQHYHNMD CH MATLAB D @  K

Quarteroni, A., Saleri, F.: Calcolo Scientifico. © Springer-Verlag Italia, Milano, 2008

42

2 Equazioni non lineari

deduciamo che r `e la radice dell’equazione non lineare f (r) = 0,

dove f (r) = M − v

1+r [(1 + r)n − 1]. r

Per la soluzione di questo problema, si veda l’Esempio 2.1.



Problema 2.2 (Equazione di stato di un gas) Si vuole determinare il volume V occupato da un gas ad una temperatura T e soggetto ad una pressione p. L’equazione di stato (ossia l’equazione che lega p, V e T ) `e   p + a(N/V )2 (V − N b) = kN T, (2.1)

nella quale a e b sono dei coefficienti che dipendono dallo specifico tipo di gas, N `e il numero di molecole di gas contenute nel volume V e k `e la cosiddetta costante di Boltzmann. Dobbiamo quindi risolvere un’equazione non lineare la cui radice `e V . Per la soluzione di questo problema si veda l’Esercizio 2.2. 

Problema 2.3 (Statica) Consideriamo il sistema meccanico costituito dalle quattro aste rigide ai di Figura 2.1; si vuole stabilire, in corrispondenza di un fissato angolo β, quale sia l’angolo α fra le aste a1 e a2 . A partire dall’identit` a vettoriale a1 − a2 − a3 − a4 = 0 ed osservando che l’asta a1 `e sempre allineata con l’asse delle ascisse, `e possibile ricavare la seguente relazione tra β e α a1 a1 a2 + a22 − a23 + a24 cos(β) − cos(α) − cos(β − α) = − 1 , a2 a4 2a2 a4

(2.2)

avendo indicato con ai la lunghezza dell’i-esima asta. Evidentemente tale equazione, detta di Freudenstein, si pu` o riscrivere come f (α) = 0, essendo f (x) =

a1 a2 + a22 − a23 + a24 a1 cos(β) − cos(x) − cos(β − x) + 1 . a2 a4 2a2 a4

Essa pu`o essere risolta analiticamente solo per particolari valori di β. Si tenga inoltre conto che non per tutti i valori di β la soluzione esiste o, se esiste, `e unica. Per la sua risoluzione nel caso generale in cui β assuma un valore arbitrario compreso fra 0 e π si dovr` a ricorrere ad un metodo numerico (si veda l’Esercizio 2.9). 

2.1 Alcuni problemi

43

y a3

a2

a4 β

α

x

a1

Figura 2.1. Il sistema di quattro aste del Problema 2.3

Problema 2.4 (Dinamica delle popolazioni) Nello studio della dinamica delle popolazioni (di batteri, ad esempio) l’equazione x+ = φ(x) = xR(x) stabilisce un legame fra il numero x di individui di una generazione ed il numero x+ di individui della generazione successiva. La funzione R(x) modella il tasso di variazione della popolazione in esame e pu` o essere scelta in vari modi. Tra i pi` u noti, ricordiamo: 1. il modello di Malthus (Thomas Malthus, 1766-1834), R(x) = RM (x) = r,

r > 0;

2. il modello di crescita in presenza di risorse limitate (proposto da Pierre Francois Verhulst, 1804-1849) r R(x) = RV (x) = , r > 0, K > 0, (2.3) 1 + xK che migliora il modello di Malthus tenendo conto del fatto che la crescita della popolazione `e limitata dalle risorse disponibili; 3. il modello predatore/preda con saturazione rx , (2.4) R(x) = RP = 1 + (x/K)2 che pu` o essere visto come l’evoluzione del modello di Verhulst in presenza di una popolazione antagonista. La dinamica di una popolazione `e quindi descritta dal processo iterativo x(k) = φ(x(k−1) ),

k ≥ 1,

(2.5)

(k)

dove x rappresenta il numero di individui presenti k generazioni dopo la generazione iniziale x(0) . Inoltre, gli stati stazionari (o di equilibrio) x∗ della popolazione considerata sono definiti come le soluzioni del problema x∗ = φ(x∗ ), o, equivalentemente, x∗ = x∗ R(x∗ ), ovvero R(x∗ ) = 1. La (2.5) `e un esempio di metodo di punto fisso (si veda la Sezione 2.4). 

44

2 Equazioni non lineari

2.2 Il metodo di bisezione Sia f una funzione continua in [a, b] tale che f (a)f (b) < 0. Sotto tali ipotesi f ammette almeno uno zero in (a, b). Supponiamo per semplicit` a che ne abbia uno solo che indicheremo con α. Nel caso in cui f presenti pi` u zeri `e sempre possibile, ad esempio attraverso uno studio grafico con il comando fplot, individuare un intervallo che ne contenga uno solo. La strategia del metodo di bisezione consiste nel dimezzare l’intervallo di partenza, selezionare tra i due sotto-intervalli ottenuti quello nel quale f cambia di segno agli estremi ed applicare ricorsivamente questa procedura all’ultimo intervallo selezionato. Pi` u precisamente, detto I (0) = (a, b) e, pi` u in generale, I (k) il sotto-intervallo selezionato al passo k-esimo, si sceglie come I (k+1) il semi-intervallo di I (k) ai cui estremi f cambia di segno. Con tale procedura si `e certi che ogni I (k) cos`ı individuato conterr` a α. La successione {x(k) } dei punti medi dei sotto-intervalli (k) I dovr` a ineluttabilmente convergere a α, in quanto la lunghezza dei sotto-intervalli tende a 0 per k che tende all’infinito. Formalizziamo questa idea, ponendo a(0) = a, b(0) = b, I (0) = (a(0) , b(0) ), x(0) = (a(0) + b(0) )/2. Al generico passo k ≥ 1 il metodo di bisezione calcoler` a allora il semiintervallo I (k) = (a(k) , b(k) ) dell’intervallo I (k−1) = (a(k−1) , b(k−1) ) nel modo seguente: dato x(k−1) = (a(k−1) + b(k−1) )/2, se f (x(k−1) ) = 0, allora α = x(k−1) ed il metodo si arresta; y

I (0) f I (1)

a(0)

x(0)

x(1) x(2) b(0) x I (3) I (2)

Figura 2.2. Alcune iterazioni del metodo di bisezione

2.2 Il metodo di bisezione

45

altrimenti, se f (a(k−1) )f (x(k−1) ) < 0 si pone a(k) = a(k−1) , b(k) = x(k−1) ; se f (x(k−1) )f (b(k−1) ) < 0 si pone a(k) = x(k−1) , b(k) = b(k−1) . quindi si definisce x(k) = (a(k) + b(k) )/2 e si incrementa k di uno. Ad esempio, nel caso rappresentato in Figura 2.2 che corrisponde alla scelta f (x) = x2 − 1, a partire da a(0) = −0.25 e b(0) = 1.25, otterremmo I (0) I (1) I (2) I (3)

= (−0.25, 1.25), x(0) = (0.5, 1.25), x(1) = (0.875, 1.25), x(2) = (0.875, 1.0625), x(3)

= 0.5, = 0.875, = 1.0625, = 0.96875.

Si noti che ognuno degli intervalli I (k) contiene lo zero α. Inoltre, la successione {x(k) } converge necessariamente allo zero α in quanto ad ogni passo l’ampiezza |I (k) | = b(k) − a(k) dell’intervallo I (k) si dimezza. Essendo allora |I (k) | = (1/2)k |I (0) |, l’errore al passo k sar` a tale che |e(k) | = |x(k) − α|
log2



b−a ε



−1

(2.6)

Naturalmente, questa disuguaglianza non dipende dalla particolare funzione f scelta in precedenza. Il metodo di bisezione `e implementato nel Programma 2.1: fun `e una function (o una inline function) che specifica la funzione f , a e b sono gli estremi dell’intervallo di ricerca, tol la tolleranza ε e nmax il massimo numero consentito di iterazioni. fun oltre al primo argomento relativo alla variabile indipendente, pu` o accettare altri argomenti opzionali impiegati nella definizione di f . In uscita, zero contiene lo zero calcolato, res il residuo, ovvero il valore assunto da f in zero, e niter il numero di iterazioni effettuate. Il comando find(fx==0) serve per trovare gli indici del vettore fx corrispondenti ad elementi nulli, mentre il comando varargin permette alla function fun di accettare un numero di parametri d’ingresso variabile.

find varargin

46

2 Equazioni non lineari Programma 2.1. bisection: il metodo di bisezione

function [ zero , res , niter ]= bisection ( fun ,a ,b , tol ,... nmax , varargin ) % BISECTION Trova uno zero di una funzione . % ZERO = BISECTION ( FUN ,A ,B , TOL , NMAX ) approssima uno % zero della funzione FUN nell ’ intervallo [A , B ] con % il metodo di bisezione . FUN accetta come input uno % scalare reale x e restituisce uno scalare reale . % Se la ricerca dello zero di FUN fallisce , il % programma restituisce un messaggio d ’ errore . % FUN puo ’ essere una inline function , una anonymous % function od una function definita in un M - file . % % ZERO = BISECTION ( FUN ,A ,B , TOL , NMAX , P1 , P2 ,...) passa % i parametri P1 , P2 ,... alla funzione % FUN (X , P1 , P2 ,...). % % [ ZERO , RES , NITER ]= BISECTION ( FUN ,...) restituisce % il valore del residuo RES in ZERO ed il numero di % iterazioni effettuate per calcolare il valore ZERO . x = [a , ( a + b )*0.5 , b ]; fx = feval ( fun ,x , varargin {:}); if fx (1)* fx (3) > 0 error ([ ’ Il segno della funzione agli estremi ’ ,... ’ dell ’ ’ intervallo [A , B ] deve essere diverso ’ ]); elseif fx (1) == 0 zero = a ; res = 0; niter = 0; return elseif fx (3) == 0 zero = b ; res = 0; niter = 0; return end niter = 0; I = ( b - a )*0.5; while I >= tol & niter < nmax niter = niter + 1; if fx (1)* fx (2) < 0 x (3) = x (2); x (2) = x (1)+( x (3) - x (1))*0.5; fx = feval ( fun ,x , varargin {:}); I = ( x (3) - x (1))*0.5; elseif fx (2)* fx (3) < 0 x (1) = x (2); x (2) = x (1)+( x (3) - x (1))*0.5; fx = feval ( fun ,x , varargin {:}); I = ( x (3) - x (1))*0.5; else x (2) = x ( find ( fx ==0)); I = 0; end end if ( niter == nmax & I > tol ) fprintf ([ ’ Il metodo di bisezione si e ’ ’ arrestato ’ ,... ’ senza soddisfare la tolleranza richiesta \ n ’ ,... ’ avendo raggiunto il numero massimo di iterazioni \ n ’ ]); end zero = x (2); x = x (2); res = feval ( fun ,x , varargin {:}); return

2.3 Il metodo di Newton

47

Esempio 2.1 (Piano di investimento) Risolviamo con il metodo di bisezione il Problema 2.1, supponendo che v sia pari a 1000 euro e che, dopo 5 anni, M sia uguale a 6000 euro. Dal grafico della funzione f , ottenuto con le seguenti istruzioni f = inline ( ’M - v *(1+ r ).*((1+ r ).^5 - 1)./ r ’ , ’r ’ , ’M ’ , ’v ’ ); plot ([0.01 ,0.3] , feval (f ,[0.01 ,0.3] ,6000 ,1000)); (si ricorda che stiamo deliberatamente omettendo il prompt allo scopo di alleggerire le notazioni) si ricava che f presenta un’unica radice nell’intervallo (0.01, 0.1), pari a circa 0.06. Eseguiamo quindi il Programma 2.1 con tol= 10−12 , a= 0.01 e b= 0.1 con il comando [ zero , res , niter ]= bisection (f ,0.01 ,0.1 ,1. e -12 ,1000 ,... 6000 ,1000); il metodo converge dopo 36 iterazioni al valore 0.061402411536183, in perfetto accordo con la stima (2.6) per la quale kmin = 36. Si pu` o quindi concludere che il tasso di interesse r `e pari circa al 6.14%. 

Il metodo di bisezione non garantisce una riduzione progressiva dell’errore, ma solo il dimezzamento dell’ampiezza dell’intervallo all’interno del quale si cerca lo zero. Per questo motivo possono essere inavvertitamente scartate approssimazioni di α assai accurate se si usa come unico criterio d’arresto quello sulla lunghezza dell’intervallo I (k) . Questo metodo non tiene infatti conto del reale andamento di f ed in effetti, a meno che l’intervallo di partenza non sia simmetrico rispetto allo zero cercato, esso non converge allo zero in un solo passo neppure se f `e una funzione lineare. Si vedano gli Esercizi 2.1-2.5.

2.3 Il metodo di Newton Il metodo di bisezione si limita ad utilizzare il segno che la funzione f assume in certi punti (gli estremi dei sotto-intervalli). Vogliamo ora introdurre un metodo che sfrutti maggiori informazioni su f , precisamente i suoi valori e quelli della sua derivata (nell’ipotesi che quest’ultima esista). A tal fine ricordiamo che l’equazione della retta tangente alla curva (x, f (x)) nel punto x(k) `e y(x) = f (x(k) ) + f ′ (x(k) )(x − x(k) ). Se cerchiamo x(k+1) tale che y(x(k+1) ) = 0, troviamo x(k+1) = x(k) −

f (x(k) ) , k≥0 f ′ (x(k) )

(2.7)

48

2 Equazioni non lineari 8

6

f

4

2

0

x (2)

α

x (3) x (1)

x (0)

−2

−4

−6 −2

−1.5

−1

−0.5

0

0.5

1

1.5

2

Figura 2.3. Prime iterate generate dal metodo di Newton a partire dal dato iniziale x(0) per la funzione f (x) = x + ex + 10/(1 + x2 ) − 5

purch´e f ′ (x(k) ) = 0. La (2.7) consente di calcolare una successione di valori x(k) a partire da un dato iniziale x(0) . Il metodo cos`ı ottenuto `e noto come metodo di Newton ed equivale a calcolare lo zero di f sostituendo localmente a f la sua retta tangente (si veda la Figura 2.3). In effetti, se sviluppiamo f in serie di Taylor in un intorno di un generico punto x(k) troviamo f (x(k+1) ) = f (x(k) ) + δ (k) f ′ (x(k) ) + O((δ (k) )2 ),

(2.8)

dove δ (k) = x(k+1) − x(k) . Imponendo che f (x(k+1) ) sia nullo e trascurando il termine O((δ (k) )2 ), possiamo ricavare x(k+1) in funzione di x(k) come nella (2.7). In questo senso la (2.7) pu`o essere vista come una approssimazione della (2.8). Evidentemente, (2.7) converge allo zero in un solo passo quando f `e lineare, cio`e della forma f (x) = a1 x + a0 . Esempio 2.2 Risolviamo con il metodo di Newton lo stesso caso dell’Esempio 2.1 a partire dal dato iniziale x(0) = 0.3. Il metodo converge allo zero cercato e dopo 6 iterazioni la differenza fra due iterate successive `e minore di 10−12 . . 

La convergenza del metodo di Newton non `e garantita per ogni scelta di x(0) , ma soltanto per valori di x(0) sufficientemente vicini ad α, ovvero appartenenti ad un intorno I(α) sufficientemente piccolo di α. Questa richiesta a prima vista sembra insensata: per trovare l’incognita α abbiamo bisogno di scegliere x(0) sufficientemente vicino a α, quando α `e proprio il valore sconosciuto! In pratica, un possibile valore di x(0) pu` o essere ottenuto utilizzando ad esempio poche iterazioni del metodo di bisezione, oppure attraverso uno studio del grafico di f . Se x(0) `e stato scelto opportunamente e se lo zero α `e semplice, ovvero se f ′ (α) = 0, allora il metodo di Newton converge. Inoltre, nel caso in cui f `e derivabile con continuit` a due volte, otteniamo il seguente risultato di convergenza (si veda l’Esercizio 2.8)

2.3 Il metodo di Newton

x(k+1) − α f ′′ (α) = ′ (k) 2 k→∞ (x 2f (α) − α) lim

49

(2.9)

La (2.9) afferma che se f ′ (α) = 0 il metodo di Newton converge almeno quadraticamente o con ordine 2 nel senso che, per k sufficientemente grande, l’errore al passo (k + 1)-esimo si comporta come il quadrato dell’errore al passo k-esimo, moltiplicato per una costante indipendente da k. Se lo zero ha invece molteplicit`a m maggiore di 1, ovvero f ′ (α) = 0, . . . , f (m−1) (α) = 0, il metodo di Newton `e ancora convergente, purch´e x(0) sia scelto opportunamente e f ′ (x) = 0 ∀x ∈ I(α) \ {α}. Tuttavia in questo caso l’ordine di convergenza `e pari a 1 (si veda l’Esercizio 2.15). In tal caso, l’ordine 2 pu` o essere ancora recuperato usando anzich´e (2.7) la relazione x(k+1) = x(k) − m

f (x(k) ) , k≥0 f ′ (x(k) )

(2.10)

purch´e f ′ (x(k) ) = 0. Naturalmente, questo metodo di Newton modificato richiede una conoscenza a priori di m. In mancanza di tale informazione si pu` o formulare un metodo di Newton adattivo, ancora di ordine 2, come riportato in [QSS08], paragrafo 6.6.2. Esempio 2.3 La funzione f (x) = (x − 1) log(x) ha un solo zero, α = 1, di molteplicit` a m = 2. Calcoliamolo con il metodo di Newton (2.7) e con la sua versione modificata (2.10). Nel grafico di Figura 2.4 viene riportato l’errore ottenuto con i due metodi in funzione del numero di iterazioni. Come si vede, nel caso del metodo classico (2.7) l’errore decresce solo linearmente. 

2

10

0

10

−2

10

−4

10

−6

10

−8

10

−10

10

0

5

10

15

20

25

30

Figura 2.4. Errore in funzione del numero di iterazioni per la funzione dell’Esempio 2.3. La curva tratteggiata corrisponde al metodo di Newton (2.7), quella continua al metodo di Newton modificato (2.10) (con m = 2)

50

2 Equazioni non lineari

2.3.1 Come arrestare il metodo di Newton Il metodo di Newton, quando converge, restituisce il valore esatto di α solo dopo un numero infinito di iterazioni. D’altra parte in generale ci si accontenta di ottenere α a meno di una tolleranza fissata ε: `e quindi sufficiente arrestarsi alla prima iterata kmin in corrispondenza della quale si abbia |e(kmin ) | = |α − x(kmin ) | < ε. Si tratta di un test sull’errore. Sfortunatamente essendo l’errore incognito, `e necessario impiegare in sua vece degli stimatori dell’errore vale a dire delle quantit` a facilmente calcolabili grazie alle quali sia possibile maggiorare l’errore stesso. Come vedremo al termine del paragrafo 2.4, come stimatore dell’errore per il metodo di Newton possiamo prendere la differenza fra due iterate consecutive e ci si arresta cio`e in corrispondenza del pi` u piccolo intero kmin per il quale |x(kmin ) − x(kmin −1) | < ε

(2.11)

Si tratta di un test sull’incremento. Come vedremo nel paragrafo 2.4.1, questo `e un buon criterio quando lo zero cercato `e semplice. Uno stimatore alternativo, anche per metodi iterativi diversi da quello di Newton v` olti a trovare gli zeri di una funzione f , `e dato dal residuo al passo k definito come r(k) = f (x(k) ) che `e nullo quando x(k) `e uno zero di f . Il metodo viene in tal caso arrestato alla prima iterata kmin per cui |r(kmin ) | = |f (x(kmin ) )| < ε

(2.12)

Il residuo fornisce una stima accurata dell’errore solo quando |f ′ (x)| `e circa pari a 1 in un intorno Iα dello zero α cercato (si veda la Figura 2.5). In caso contrario, porter` a ad una sovrastima dell’errore se |f ′ (x)| ≫ 1 per x ∈ Iα o ad una sottostima se |f ′ (x)| ≪ 1 (si veda anche l’Esercizio 2.6). Nel Programma 2.2 viene riportata una implementazione del metodo di Newton nella sua forma (2.7) (per utilizzare la forma modificata `e sufficiente inserire, invece di f ′ , la funzione f ′ /m). I parametri fun e dfun sono le stringhe contenenti la funzione f e la sua derivata prima, mentre x0 `e il dato iniziale. Il metodo viene arrestato se il valore assoluto della differenza fra due iterate consecutive `e minore della tolleranza tol o se `e stato oltrepassato il massimo numero di iterazioni consentito, nmax.

2.3 Il metodo di Newton f

y

51

y

f (x(k) ) f α

x(k)

x(k)

α x

e(k)

f (x(k) ) x

e(k)

Figura 2.5. Le due possibili situazioni nelle quali il residuo non `e un buon stimatore dell’errore: |f ′ (x)| ≫ 1 a sinistra, |f ′ (x)| ≪ 1 a destra, con x appartenente ad un intervallo contenente α

Programma 2.2. newton: il metodo di Newton function [ zero , res , niter ]= newton ( fun , dfun , x0 , tol ,... nmax , varargin ) % NEWTON Trova uno zero di una funzione . % ZERO = NEWTON ( FUN , DFUN , X0 , TOL , NMAX ) approssima lo % zero ZERO della funzione definita nella function % FUN , continua e derivabile , usando il metodo di % Newton e partendo da X0 . FUN e la sua derivata % DFUN accettano in ingresso uno scalare x e % restituiscono un valore scalare . Se la ricerca % dello zero fallisce , il programma restituisce un % messaggio d ’ errore . FUN e DFUN possono essere % inline function , anonymous function o function % definite in M - file . % ZERO = NEWTON ( FUN , DFUN , X0 , TOL , NMAX , P1 , P2 ,...) passa % i parametri P1 , P2 ,... alle funzioni % FUN (X , P1 , P2 ,...) e DFUN (X , P1 , P2 ,...). % [ ZERO , RES , NITER ]= NEWTON ( FUN ,...) restituisce il % valore del residuo RES in ZERO ed il numero di % iterazioni NITER necessario per calcolare ZERO . x = x0 ; fx = feval ( fun ,x , varargin {:}); dfx = feval ( dfun ,x , varargin {:}); niter = 0; diff = tol +1; while diff >= tol & niter < nmax niter = niter + 1; diff = - fx / dfx ; x = x + diff ; diff = abs ( diff ); fx = feval ( fun ,x , varargin {:}); dfx = feval ( dfun ,x , varargin {:}); end if ( niter == nmax & diff > tol ) fprintf ([ ’ Newton si e ’ ’ arrestato senza aver ’ ,... ’ soddisfatto l ’ ’ accuratezza richiesta , avendo \ n ’ ,... ’ raggiunto il massimo numero di iterazioni \ n ’ ]); end zero = x ; res = fx ; return

52

2 Equazioni non lineari

2.3.2 Il metodo di Newton per sistemi di equazioni non lineari Consideriamo il seguente sistema di equazioni non lineari ⎧ f (x , x , . . . , xn ) = 0, ⎪ ⎪ ⎪ 1 1 2 ⎪ ⎪ ⎪ ⎨ f2 (x1 , x2 , . . . , xn ) = 0, ⎪ ⎪ .. ⎪ ⎪ . ⎪ ⎪ ⎩ fn (x1 , x2 , . . . , xn ) = 0,

(2.13)

dove f1 , . . . , fn sono funzioni non lineari. Se poniamo f ≡ (f1 , . . . , fn )T e x ≡ (x1 , . . . , xn )T , possiamo riscrivere il sistema (2.13) nella forma f (x) = 0. Un semplice esempio di sistema non lineare `e il seguente  f1 (x1 , x2 ) = x21 + x22 = 1, f2 (x1 , x2 ) = sin(πx1 /2) + x32 = 0.

(2.14)

(2.15)

Al fine di estendere il metodo di Newton al caso di un sistema, sostituiamo alla derivata prima della funzione scalare f la matrice jacobiana Jf della funzione vettoriale f, le cui componenti sono (Jf )ij ≡

∂fi , ∂xj

i, j = 1, . . . , n.

Il simbolo ∂fi /∂xj rappresenta la derivata parziale di fi rispetto a xj (si veda la definizione (8.3)). Con questa notazione, il metodo di Newton per (2.14) diventa: dato x(0) ∈ Rn , per k = 0, 1, . . ., fino a convergenza risolvere Jf (x(k) )δx(k) = −f (x(k) ); porre

x(k+1) = x(k) + δx(k)

(2.16)

Di conseguenza, esso richiede ad ogni passo la soluzione di un sistema lineare di matrice Jf (x(k) ). Il Programma 2.3 implementa il metodo di Newton per un sistema non lineare usando il comando \ di MATLAB (si veda il paragrafo 5.8) per risolvere il sistema lineare sulla matrice jacobiana. In ingresso, `e necessario definire un vettore che rappresenta il dato iniziale e due function, Ffun e Jfun, che calcolano, rispettivamente, il vettore colonna F, contenente la valutazione di f su un generico vettore x, e la matrice jacobiana Jf , anch’essa valutata su un vettore x. Il metodo si arresta quando la differenza in norma euclidea fra due iterate consecutive `e minore di tol o quando viene raggiunto il massimo numero di iterazioni consentito nmax.

2.3 Il metodo di Newton

53

Programma 2.3. newtonsys: il metodo di Newton per un sistema non lineare function [x ,F , niter ] = newtonsys ( Ffun , Jfun , x0 , tol ,... nmax , varargin ) % NEWTONSYS calcola una radice di un sistema non lineare % [ ZERO ,F , NITER ]= NEWTONSYS ( FFUN , JFUN , X0 , TOL , NMAX ) % calcola il vettore ZERO , radice di un sistema non % lineare definito nella function FFUN con matrice % jacobiana definita nella function JFUN a partire % dal vettore X0 . F contiene il valore del residuo % in ZERO e NITER il numero di iterazioni necessarie % per calcolare ZERO . FFUN e JFUN sono function % definite tramite M - file niter = 0; err = tol + 1; x = x0 ; while err >= tol & niter < nmax J = feval ( Jfun ,x , varargin {:}); F = feval ( Ffun ,x , varargin {:}); delta = - J \ F ; x = x + delta ; err = norm ( delta ); niter = niter + 1; end F = norm ( feval ( Ffun ,x , varargin {:})); if ( niter == nmax & err > tol ) fprintf ([ ’ Il metodo non converge nel massimo ’ ,... ’ numero di iterazioni . L ’ ’ ultima iterata \ n ’ ,... ’ calcolata ha residuo relativo pari a % e \ n ’] , F ); else fprintf ([ ’ Il metodo converge in % i iterazioni ’ ,... ’ con un residuo pari a % e \ n ’] , niter , F ); end return Esempio 2.4 Consideriamo il sistema non lineare (2.15) che ammette le due soluzioni (individuabili, ad esempio, per via grafica) (0.4761, −0.8794) e (−0.4761, 0.8794) (riportiamo le sole prime 4 cifre significative). Per usare il Programma 2.3 definiamo le seguenti function: function J = Jfun ( x ) pi2 = 0.5* pi ; J (1 ,1) = 2* x (1); J (1 ,2) = 2* x (2); J (2 ,1) = pi2 * cos ( pi2 * x (1)); J (2 ,2) = 3* x (2)^2; return function F = Ffun ( x ) F (1 ,1) = x (1)^2 + x (2)^2 - 1; F (2 ,1) = sin ( pi * x (1)/2) + x (2)^3; return Partendo dal dato iniziale x0=[1;1] e usando le seguenti istruzioni: x0 =[1;1]; tol =1 e -5; nmax =10; [x ,F , niter ] = newtonsys ( @Ffun , @Jfun , x0 , tol , nmax );

54

2 Equazioni non lineari

il metodo di Newton converge in 8 iterazioni al vettore 4.760958225338114e-01 -8.793934089897496e-01 (Il carattere speciale @ serve per segnalare a newtonsys che Ffun e Jfun sono delle function definite tramite M-file). Si noti che per far convergere il metodo all’altra radice basta scegliere come dato iniziale x0=[-1;-1]. In generale, esattamente come nel caso scalare, la convergenza del metodo di Newton dipende dalla scelta del dato iniziale x(0) ed in particolare bisogna garantire che det(Jf (x(0) )) = 0. 

Riassumendo 1. Il calcolo degli zeri di una funzione f viene condotto attraverso metodi iterativi; 2. il metodo di bisezione `e un metodo elementare che consente di approssimare uno zero di una funzione “incapsulandolo” in intervalli la cui ampiezza viene dimezzata ad ogni iterazione. Esso converge sempre allo zero purch´e f sia continua nell’intervallo di partenza e cambi di segno agli estremi; 3. il metodo di Newton `e un metodo nel quale l’approssimazione dello zero α di f viene condotta utilizzando i valori assunti da f e dalla sua derivata prima. Esso generalmente converge solo per valori del dato iniziale sufficientemente vicini ad α; 4. quando converge, il metodo di Newton converge quadraticamente se α `e uno zero semplice, linearmente altrimenti; 5. il metodo di Newton pu` o essere esteso al caso del calcolo degli zeri di un sistema di equazioni non lineari. Si vedano gli Esercizi 2.6-2.14.

2.4 Iterazioni di punto fisso Con una calcolatrice si pu` o facilmente verificare che applicando ripetutamente la funzione coseno partendo dal numero 1 si genera la seguente successione di numeri reali x(1) = cos(1) = 0.54030230586814, x(2) = cos(x(1) ) = 0.85755321584639, .. . x(10) = cos(x(9) ) = 0.74423735490056, .. . x(20) = cos(x(19) ) = 0.73918439977149,

2.4 Iterazioni di punto fisso 2

55

2

y

y

1.5

1.5

y=x

y=x

1 1

φ

0.5

φ

0.5

0

−0.5 −0.5

0

x

α

x

−0.5

−1 0

0.5

1

1.5

2

−1

−0.5

0

0.5

1

1.5

2

Figura 2.6. La funzione φ(x) = cos x (a sinistra) ammette un solo punto fisso, mentre la funzione φ(x) = ex (a destra) non ne ammette alcuno

che tende al valore α = 0.73908513 . . .. Essendo per costruzione x(k+1) = cos(x(k) ) per k = 0, 1, . . . (con x(0) = 1), α `e tale che cos(α) = α: per questa ragione esso viene detto un punto fisso della funzione coseno. L’interesse per un metodo che sfrutti iterazioni di questo tipo `e evidente: se α `e punto fisso per il coseno, allora esso `e uno zero della funzione f (x) = x−cos(x) ed il metodo appena proposto potrebbe essere usato per il calcolo degli zeri di f (uno solo, in questo caso). D’altra parte non tutte le funzioni ammettono punti fissi; se ad esempio si ripete l’esperimento precedente con la funzione esponenziale a partire da x(0) = 1, dopo soli 4 passi si giunge ad una situazione di overflow (si veda la Figura 2.6). Dobbiamo quindi precisare meglio questa idea intuitiva. Consideriamo pertanto il seguente problema: data una funzione φ : [a, b] → R, trovare α ∈ [a, b] tale che α = φ(α). Se un tale α esiste, viene detto un punto fisso di φ e lo si pu` o determinare come limite della seguente successione x(k+1) = φ(x(k) ), k ≥ 0

(2.17)

dove x(0) `e un dato iniziale. Questo algoritmo `e detto delle iterazioni di punto fisso e φ ne `e detta la funzione di iterazione. L’esempio introduttivo `e dunque un algoritmo di iterazioni di punto fisso per la funzione φ(x) = cos(x). Un’interpretazione geometrica della (2.17) viene riportata nel grafico di sinistra di Figura 2.7. Si intuisce che, se φ `e una funzione continua e se esiste il limite della successione {x(k) }, allora tale limite `e un punto fisso di φ. Preciseremo bene questo risultato nelle Proposizioni 2.1 e 2.2.

56

2 Equazioni non lineari 2

2

y

y 1.5

1.5

y=x

φ

1

φ

0.5

0

−0.5 −0.5

x(2)

1

x

x(0)x(2)α x(1) 0

0.5

1

x x(1) α x(0)

0.5

0

y=x 1.5

2

−0.5 −0.5

0

0.5

1

1.5

2

Figura 2.7. Rappresentazione delle prime iterazioni di punto fisso per due funzioni di iterazione. A sinistra, le iterazioni convergono verso il punto fisso α, a destra, invece, si allontanano da α Esempio 2.5 Il metodo di Newton (2.7) pu` o essere riletto come un algoritmo di iterazioni di punto fisso per la funzione φ(x) = x −

f (x) . f ′ (x)

(2.18)

Tale funzione verr` a d’ora in poi indicata con il simbolo φN , dove N sta per Newton. Il metodo di bisezione non `e invece un’iterazione di punto fisso, in quanto la generica iterata x(k+1) pu` o non dipendere dalla sola x(k) , ma anche (k−1) .  da x

Come mostrato dalla Figura 2.7 (a destra), non tutte le funzioni di iterazione garantiscono che le iterazioni di punto fisso convergano. Vale infatti il seguente risultato: Proposizione 2.1 Consideriamo la successione (2.17). 1. Supponiamo che φ(x) sia continua in [a, b] e sia tale che φ(x) ∈ [a, b] per ogni x ∈ [a, b]; allora esiste almeno un punto fisso α ∈ [a, b]. 2. Se supponiamo inoltre che ∃L < 1 t.c. |φ(x1 ) − φ(x2 )| ≤ L|x1 − x2 | ∀x1 , x2 ∈ [a, b], (2.19) allora φ ha un unico punto fisso α ∈ [a, b] e la successione definita nella (2.17) converge a α, qualunque sia la scelta del dato iniziale x(0) in [a, b].

Dimostrazione. 1. Dimostriamo dapprima l’esistenza di punti fissi per φ. Definiamo la funzione g(x) = φ(x)− x, essa `e continua per costruzione su [a, b] e, per l’ipotesi sull’immagine di φ, si ha g(a) = φ(a) − a ≥ 0 e g(b) = φ(b) − b ≤ 0. Applicando il teorema degli zeri di una funzione

2.4 Iterazioni di punto fisso

57

y

y y=x

b

b

y=x

φ

φ x(1) α1 a

α2 a

α3 b

x

a

x(0) a

b

α x(2)

x(3)

x

Figura 2.8. A sinistra una funzione di punto fisso che ammette 3 punti fissi, a destra una funzione di punto fisso che soddisfa l’ipotesi (2.19) ed i primi elementi della successione (2.21) convergente all’unico punto fisso α

continua, concludiamo che g ammette almeno uno zero in [a, b], ovvero φ ammette almeno un punto fisso in [a, b]. (Per un esempio si veda la Figura 2.8.) 2. Supponiamo ora che valga l’ipotesi (2.19). Se esistessero due punti fissi distinti α1 e α2 avremmo |α1 − α2 | = |φ(α1 ) − φ(α2 )| ≤ L|α1 − α2 | < |α1 − α2 |, il che `e assurdo. Dimostriamo ora che la successione x(k) definita in (2.17) converge per k → ∞ all’unico punto fisso α, per ogni scelta del dato iniziale x(0) ∈ [a, b]. Abbiamo 0 ≤ |x(k+1) − α| = |φ(x(k) ) − φ(α)| ≤ L|x(k) − α| ≤ . . . ≤ Lk+1 |x(0) − α|, ovvero, ∀k ≥ 0, |x(k) − α| ≤ Lk . |x(0) − α|

(2.20)

Passando al limite per k → ∞, otteniamo limk→∞ |x(k) − α| = 0, che `e il risultato cercato.  Nella pratica `e per`o spesso difficile delimitare a priori l’ampiezza dell’intervallo [a, b]; in tal caso `e utile il seguente risultato di convergenza locale, per la cui dimostrazione si rimanda a [OR70].

58

2 Equazioni non lineari

Teorema 2.1 (teorema di Ostrowski) Sia α un punto fisso di una funzione φ continua e derivabile con continuit` a in un opportuno intorno J di α. Se risulta |φ′ (α)| < 1, allora esiste δ > 0 in corrispondenza del quale la successione {x(k) } converge ad α, per ogni x(0) tale che |x(0) − α| < δ. Inoltre si ha x(k+1) − α = φ′ (α) k→∞ x(k) − α lim

(2.21)

Dimostrazione. Limitiamoci a verificare la propriet`a (2.21). Per il teorema di Lagrange, per ogni k ≥ 0, esiste un punto ξk compreso tra x(k) e α tale che x(k+1) − α = φ(x(k) ) − φ(α) = φ′ (ξk )(x(k) − α), ovvero (x(k+1) − α)/(x(k) − α) = φ′ (ξk ).

(2.22)

Poich´e ξk `e compreso tra x(k) ed α, si ha limk→∞ ξk = α e, passando al limite in entrambi i termini di (2.22) e ricordando che φ′ `e continua in un intorno di α, si ottiene (2.21).  Dalla (2.20) e dalla (2.21) si deduce che le iterazioni di punto fisso convergono almeno linearmente cio`e che, per k sufficientemente grande, l’errore al passo k + 1 si comporta come l’errore al passo k moltiplicato per una costante (L in (2.20), φ′ (α) in (2.21)) indipendente da k ed il cui valore assoluto `e minore di 1. Per questo motivo tale costante viene detta fattore di convergenza asintotico. Va infine osservato che la convergenza sar` a tanto pi` u rapida quanto pi` u piccola `e tale costante. Osservazione 2.1 Nel caso in cui |φ′ (α)| > 1, dalla (2.22) segue che se x(k) `e sufficientemente vicino ad α, in modo tale che |φ′ (x(k) )| > 1, allora |α − x(k+1) | > |α − x(k) |, e non `e possibile che la successione converga al punto o trarre alcuna conclusione poich´e fisso. Quando invece |φ′ (α)| = 1 non si pu` potrebbero verificarsi sia la convergenza sia la divergenza, a seconda delle caratteristiche della funzione di punto fisso.  Esempio 2.6 La funzione φ(x) = cos(x) soddisfa le ipotesi del Teorema 2.1 in a, esiste un quanto |φ′ (α)| = | sin(α)| ≃ 0.67 < 1 e, di conseguenza per continuit` x ∈ Iα . La funzione φ(x) = x2 −1, intorno Iα di α nel quale |φ′ (x)| < 1 per ogni√ pur possedendo due punti fissi α± = (1√± 5)/2, non verifica le ipotesi per nessuno dei due in quanto |φ′ (α± )| = |1± 5| > 1. La corrispondente iterazione di punto fisso non sar` a pertanto convergente.  Esempio 2.7 (Dinamica di una popolazione) Applichiamo le iterazioni di punto fisso alla funzione φV (x) = rx/(1 + xK) del modello di Verhulst (2.3) ed alla funzione φP (x) = rx2 /(1 + (x/K)2 ) del modello predatore/preda (2.4)

2.4 Iterazioni di punto fisso

59

5 4.5 4 3.5 3 2.5 2 1.5 1 0.5 0 0

1

2

3

4

5

Figura 2.9. I punti fissi per due diversi modelli di dinamica delle popolazioni: il modello di Verhulst (in linea piena) e quello predatore/preda (in linea tratteggiata) scegliendo r = 3 e K = 1. Se partiamo dal dato iniziale x(0) = 1 troviamo il punto fisso α = 2 nel primo caso e α = 2.6180 nel secondo (si veda la Figura 2.9). Il punto fisso α = 0 comune a φV e φP pu` o essere calcolato solo come punto fisso di φP , ma non di φV . Infatti φ′P (α) = 0, mentre |φ′V (α)| = r > 1. Analogamente il punto fisso α = 0.3820 . . . di φP non pu` o essere calcolato in  quanto |φ′P (α)| > 1.

La convergenza quadratica non `e prerogativa del solo metodo di Newton. In generale, vale infatti la seguente propriet`a: Proposizione 2.2 Si suppongano valide le ipotesi del Teorema 2.1. Se, inoltre, φ `e derivabile con continuit` a due volte e se φ′ (α) = 0,

φ′′ (α) = 0,

allora il metodo di punto fisso (2.17) `e convergente di ordine 2 e si ha x(k+1) − α 1 = φ′′ (α) k→∞ (x(k) − α)2 2 lim

(2.23)

Dimostrazione. Basta osservare che, in questo caso, x(k+1) − α = φ(x(k) ) − φ(α) = φ′ (α)(x(k) − α) +

φ′′ (η (k) ) (k) (x − α)2 2

per un opportuno η (k) appartenente all’intervallo i cui estremi sono x(k) e α.  L’Esempio 2.5 mostra che le iterazioni di punto fisso (2.17) possono servire anche per il calcolo degli zeri di funzioni. Naturalmente, data una

60

2 Equazioni non lineari

funzione f , la φ definita in (2.18) non `e l’unica funzione di iterazione possibile. Ad esempio, per la soluzione dell’equazione log(x) = γ, posto f (x) = log(x)−γ, la scelta (2.18) condurrebbe alla funzione di iterazione φN (x) = x(1 − log(x) + γ). Un altro metodo di punto fisso si trova sommando x ad ambo i membri dell’equazione f (x) = 0. La funzione di iterazione associata `e ora φ1 (x) = x + log(x) − γ. Un terzo metodo pu` o essere infine ricavato moltiplicando per x l’equazione e scegliendo φ2 (x) = x log(x)/γ. Non tutti questi metodi sono convergenti; ad esempio, se γ = −2, i metodi con funzioni di iterazione φN e φ2 sono entrambi convergenti, mentre quello con funzione φ1 non lo `e in quanto |φ′1 (x)| > 1 in un intorno del punto fisso α. 2.4.1 Come arrestare un’iterazione di punto fisso In generale, le iterazioni di punto fisso verranno arrestate quando il valore assoluto della differenza fra due iterate `e minore di una tolleranza ε fissata. Essendo α = φ(α) e x(k+1) = φ(x(k) ), usando il teorema del valor medio (introdotto nel paragrafo 1.5.3) troviamo α − x(k+1) = φ(α) − φ(x(k) ) = φ′ (ξ (k) ) (α − x(k) ) con ξ (k) ∈ Iα,x(k) , essendo Iα,x(k) l’intervallo di estremi α e x(k) . Usando l’identit` a α − x(k) = (α − x(k+1) ) + (x(k+1) − x(k) ), concludiamo che α − x(k) =

1 (x(k+1) − x(k) ). 1 − φ′ (ξ (k) )

(2.24)

Di conseguenza, se φ′ (x) ≃ 0 in un intorno di α, l’errore viene stimato accuratamente dalla differenza fra due iterate consecutive. Questo accade per tutti i metodi di ordine 2 e quindi, in particolare, per il metodo di Newton. In caso contrario, tanto pi` u φ′ `e prossimo a 1, tanto pi` u stimare l’errore con la differenza fra le iterate sar`a insoddisfacente. Esempio 2.8 Calcoliamo con il metodo di Newton lo zero α = 1 della funzioa ne f (x) = (x − 1)m−1 log(x) per m = 11 e m = 21. Questo zero ha molteplicit` pari a m. In tal caso l’ordine di convergenza del metodo di Newton decade a 1; inoltre, si pu` o provare (si veda l’Esercizio 2.15) che φ′N (α) = 1 − 1/m, essendo φN la funzione di iterazione del metodo stesso, visto come iterazione di punto fisso. Quindi, al crescere di m, la stima dell’errore fornita dalla dif` quello che si verifica ferenza fra le iterate diventa sempre meno affidabile. E sperimentalmente: nei grafici della Figura 2.10 vengono paragonati gli errori e la differenza fra le iterate in valore assoluto per m = 11 e m = 21. Come si vede lo scarto fra le due quantit` a `e maggiore per m = 21. 

2.5 Accelerazione con il metodo di Aitken

61

0

10

−2

10

−4

10

−6

10

−8

10

−10

(1)

10

(2)

−12

10

0

100

200

300

400

500

Figura 2.10. Valori assoluti degli errori (in linea continua) e valori assoluti della differenza fra iterate (in linea tratteggiata) in funzione del numero di iterazioni per il caso dell’Esempio 2.8: le curve (1) si riferiscono a m = 11, mentre le (2) a m = 21

2.5 Accelerazione con il metodo di Aitken In questo paragrafo illustriamo una tecnica che consente di accelerare la convergenza di una successione ottenuta a partire da iterazioni di punto fisso. Supponiamo pertanto che x(k) = φ(x(k−1) ), k ≥ 1. Se la successione {x(k) } converge linearmente ad un punto fisso α di φ, dalla (2.21) si ricava che, per k fissato, dovr` a esistere un valore λ (da determinare) tale che φ(x(k) ) − α = λ(x(k) − α),

(2.25)

dove volutamente non abbiamo identificato φ(x(k) ) con x(k+1) . L’idea del metodo di Aitken consiste infatti nel definire un nuovo valore per x(k+1) (e, di conseguenza, una nuova successione) che sia un’approssimazione di α migliore di quella data da φ(x(k) ). In effetti, dalla (2.25) ricaviamo che α=

φ(x(k) ) − λx(k) + x(k) − x(k) φ(x(k) ) − λx(k) = 1−λ 1−λ

ovvero α = x(k) + (φ(x(k) ) − x(k) )/(1 − λ)

(2.26)

Si tratta a questo punto di calcolare λ. Per fare questo introduciamo la seguente successione λ(k) =

φ(φ(x(k) )) − φ(x(k) ) φ(x(k) ) − x(k)

(2.27)

e verifichiamo che vale la seguente propriet` a: Lemma 2.1 Se la successione di elementi x(k+1) converge a α, allora lim λ(k) = φ′ (α). k→∞

= φ(x(k) )

62

2 Equazioni non lineari

Dimostrazione. Se x(k+1) = φ(x(k) ), allora x(k+2) = φ(φ(x(k) )) e quindi, dalla (2.27), si ricava che λ(k) = (x(k+2) − x(k+1) )/(x(k+1) − x(k) ) ovvero

λ(k)

x(k+2) − α −1 − α − (x − α) x x(k+1) − α = = (k+1) x − α − (x(k) − α) x(k) − α 1 − (k+1) x −α (k+2)

(k+1)

da cui, passando al limite e ricordando la (2.21), si perviene alla tesi, ovvero lim λ(k) =

k→∞

φ′ (α) − 1 = φ′ (α). 1 − 1/φ′ (α) 

Grazie al Lemma 2.1 possiamo concludere che, per k fissato, λ(k) pu` o essere considerato come un’approssimazione del valore incognito λ, introdotto in precedenza. Utilizziamo allora la (2.27) nella (2.26) e definiamo un nuovo x(k+1) nel modo seguente x(k+1) = x(k) −

(φ(x(k) ) − x(k) )2 , k≥0 φ(φ(x(k) )) − 2φ(x(k) ) + x(k)

(2.28)

Questa espressione `e nota come formula di estrapolazione di Aitken e pu` o essere considerata come nuova iterazione di punto fisso in cui si ponga come funzione di iterazione φ∆ (x) =

xφ(φ(x)) − [φ(x)]2 φ(φ(x)) − 2φ(x) + x

(tale metodo `e noto talvolta anche con il nome di metodo di Steffensen). Evidentemente la funzione φ∆ `e indeterminata per x = α in quanto tanto il numeratore che il denominatore si annullano. Tuttavia, assumendo che φ sia derivabile con φ′ (α) = 1 ed applicando la formula di de l’Hˆ opital si trova φ(φ(α)) + αφ′ (φ(α))φ′ (α) − 2φ(α)φ′ (α) φ′ (φ(α))φ′ (α) − 2φ′ (α) + 1 α + α[φ′ (α)]2 − 2αφ′ (α) = α. = [φ′ (α)]2 − 2φ′ (α) + 1

lim φ∆ (x) =

x→α

Di conseguenza, φ∆ (x) pu` o essere estesa per continuit`a in x = α con φ∆ (α) = α. Quando φ(x) = x − f (x) il caso φ′ (α) = 1 corrisponde ad

2.5 Accelerazione con il metodo di Aitken

63

una radice di molteplicit` a almeno 2 per f (in quanto φ′ (α) = 1 − f ′ (α)). Anche in questa situazione si pu` o per`o dimostrare, passando al limite, o anche verificare che i punti fissi di φ∆ sono che φ∆ (α) = α. Infine, si pu` tutti e soli i punti fissi di φ. Il metodo di Aitken pu` o essere quindi applicato ad un metodo di punto fisso qualsiasi. Vale infatti il seguente teorema: Teorema 2.2 Siano x(k+1) = φ(x(k) ) le iterazioni di punto fisso (2.17), con φ(x) = x − f (x), per l’approssimazione delle radici di f . Allora, se f `e sufficientemente regolare abbiamo che: -

-

-

se le iterazioni di punto fisso convergono linearmente ad una radice semplice di f , allora il metodo di Aitken converge quadraticamente alla stessa radice; se le iterazioni di punto fisso convergono con ordine p ≥ 2 ad una radice semplice di f , allora il metodo di Aitken converge alla stessa radice con ordine 2p − 1; se le iterazioni di punto fisso convergono linearmente ad una radice di molteplicit` a m ≥ 2 di f , allora il metodo di Aitken converge linearmente alla stessa radice con un fattore di convergenza asintotico C = 1 − 1/m.

In particolare, se p = 1 e la radice di f `e semplice il metodo di estrapolazione di Aitken converge anche se le corrispondenti iterazioni di punto fisso divergono.

Nel Programma 2.4 riportiamo un’implementazione del metodo di Aitken. In esso phi `e una function (o una inline function) che precisa l’espressione della funzione di iterazione del metodo di punto fisso cui viene applicata la tecnica di estrapolazione di Aitken. Il dato iniziale viene precisato nella variabile x0, mentre tol e nmax sono rispettivamente la tolleranza sul criterio d’arresto (sul valore assoluto della differenza fra due iterate consecutive) ed il numero massimo di iterazioni consentite. Se non precisati, vengono assunti i valori di default pari a nmax=100 e tol=1.e-04. Programma 2.4. aitken: il metodo di Aitken function [x , niter ]= aitken ( phi , x0 , tol , nmax , varargin ) % AITKEN Estrapolazio ne di Aitken % [ ALPHA , NITER ]= AITKEN ( PHI , X0 ) calcola un ’ appros % simazione di un punto fisso ALPHA della funzione % PHI a partire dal dato iniziale X0 con il metodo % di estrapolazio ne di Aitken . Il metodo si arresta % dopo 100 iterazioni o dopo che il valore assoluto % della differenza fra due iterate consecutive e ’ % minore di 1. e -04. PHI puo ’ essere una inline % function , o una anonymous function , o una function

64 % % % %

2 Equazioni non lineari definita in un M - file . [ ALPHA , NITER ]= AITKEN ( PHI , X0 , TOL , NMAX ) consente di definire la tolleranza sul criterio d ’ arresto ed il numero massimo di iterazioni .

if nargin == 2 tol = 1. e -04; nmax = 100; elseif nargin == 3 nmax = 100; end x = x0 ; diff = tol + 1; niter = 0; while niter < nmax & diff >= tol gx = feval ( phi ,x , varargin {:}); ggx = feval ( phi , gx , varargin {:}); xnew = ( x * ggx - gx ^2)/( ggx -2* gx + x ); diff = abs (x - xnew ); x = xnew ; niter = niter + 1; end if ( niter == nmax & diff > tol ) fprintf ([ ’ Il metodo non converge nel numero ’ ,... ’ massimo di iterazioni \ n ’ ]); end return Esempio 2.9 Per il calcolo della radice semplice α = 1 della funzione f (x) = ex (x − 1) applichiamo il metodo di Aitken a partire dalle due seguenti funzioni di iterazione φ0 (x) = log(xex ),

φ1 (x) =

ex + x . ex + 1

Utilizziamo il Programma 2.4 con tol=1.e-10, nmax=100, x0=2 e definiamo le due funzioni di iterazione come segue phi0 = inline ( ’ log ( x * exp ( x )) ’ , ’x ’ ); phi1 = inline ( ’( exp ( x )+ x )/( exp ( x )+1) ’ , ’x ’ ); A questo punto eseguiamo il Programma 2.4 nel modo seguente [ alpha , niter ]= aitken ( phi0 , x0 , tol , nmax ) alpha = 1.0000 + 0.0000i niter = 10 [ alpha , niter ]= aitken ( phi1 , x0 , tol , nmax ) alpha = 1 niter = 4

2.6 Polinomi algebrici

65

Come si vede la convergenza del metodo `e estremamente rapida (per confronto il metodo di punto fisso con funzione di iterazione φ1 e con lo stesso criterio d’arresto avrebbe richiesto 18 iterazioni, mentre il metodo corrispondente a φ0 non sarebbe stato convergente in quanto |φ′0 (1)| = 2). 

Riassumendo 1. Un valore α tale che φ(α) = α si dice punto fisso della funzione φ. Per il suo calcolo si usano metodi iterativi della forma x(k+1) = φ(x(k) ), che vengono detti iterazioni di punto fisso; 2. le iterazioni di punto fisso convergono sotto precise condizioni su φ e sulla sua derivata prima. Tipicamente la convergenza `e lineare, diventa quadratica qualora φ′ (α) = 0; 3. `e possibile utilizzare le iterazioni di punto fisso anche per il calcolo degli zeri di una funzione f ; 4. data un’iterazione di punto fisso x(k+1) = φ(x(k) ), anche non convergente, `e sempre possibile costruire una nuova iterazione di punto fisso convergente tramite il metodo di Aitken. Si vedano gli Esercizi 2.15-2.18.

2.6 Polinomi algebrici In questo paragrafo consideriamo il caso in cui f sia un polinomio di grado n ≥ 0 della forma (1.9). Come gi`a osservato, lo spazio di tutti i polinomi (1.9) viene indicato con il simbolo Pn . Si ricorda che, quando n ≥ 2 e ak ∈ R, se α ∈ C con Im(α) = 0 `e una radice di pn , allora lo `e anche la sua complessa coniugata α ¯. Il teorema di Abel assicura che per ogni n ≥ 5 non esiste una forma esplicita per calcolare tutti gli zeri di un generico polinomio pn . Questo fatto motiva ulteriormente l’uso di metodi numerici per il calcolo delle radici di pn . Come abbiamo visto in precedenza per tali metodi `e importante la scelta di un buon dato iniziale x(0) o di un opportuno intervallo di ricerca [a, b] per la radice. Nel caso dei polinomi ci` o `e talvolta possibile sulla base dei seguenti risultati. Teorema 2.3 (Regola dei segni di Cartesio) Sia pn ∈ Pn . Indichiamo con ν il numero di variazioni di segno nell’insieme dei coefficienti {aj } e con k il numero di radici reali positive di pn ciascuna contata con la propria molteplicit` a. Si ha allora che k ≤ ν e ν − k `e pari.

66

2 Equazioni non lineari

Esempio 2.10 Il polinomio p6 (x) = x6 − 2x5 + 5x4 − 6x3 + 2x2 + 8x − 8 ha come zeri {±1, ±2i, 1 ± i} e quindi ammette una radice reale positiva (k = 1). In effetti, il numero di variazioni di segno ν dei coefficienti `e 5 e quindi k ≤ ν e ν − k = 4 `e pari. 

Teorema 2.4 (di Cauchy) Tutti gli zeri di pn sono inclusi nel cerchio Γ del piano complesso Γ = {z ∈ C : |z| ≤ 1 + η}, dove η =

max |ak /an |. (2.29)

0≤k≤n−1

Questa propriet` a `e di scarsa utilit` a quando η ≫ 1 (per il polinomio p6 dell’Esempio 2.10 si ha ad esempio η = 8, mentre le radici stanno tutte all’interno di cerchi di raggio decisamente minore). 2.6.1 Il metodo di H¨ orner Illustriamo in questo paragrafo un metodo per la valutazione efficiente di un polinomio (e della sua derivata) in un punto assegnato z. Tale algoritmo consente di generare un procedimento automatico, detto metodo di deflazione, per l’approssimazione progressiva di tutte le radici di un polinomio. Da un punto di vista algebrico la (1.9) `e equivalente alla seguente rappresentazione pn (x) = a0 + x(a1 + x(a2 + . . . + x(an−1 + an x) . . .)).

(2.30)

Tuttavia, mentre la (1.9) richiede n addizioni e 2n − 1 moltiplicazioni per valutare pn (x) (per x fissato), la (2.30) richiede solo n addizioni pi` u n moltiplicazioni. L’espressione (2.30), nota anche come algoritmo delle moltiplicazioni annidate, sta alla base del metodo di H¨ orner. Quest’ultimo consente la valutazione efficiente del polinomio pn in un punto z mediante il seguente algoritmo di divisione sintetica: b n = an , bk = ak + bk+1 z,

k = n − 1, n − 2, ..., 0

(2.31)

Nella (2.31) tutti i coefficienti bk con k ≤ n−1 dipendono da z e possiamo verificare che b0 = pn (z). Il polinomio qn−1 (x; z) = b1 + b2 x + ... + bn xn−1 =

n

bk xk−1 ,

(2.32)

k=1

di grado pari a n−1 nella variabile x, dipende dal parametro z (attraverso i coefficienti bk ) e si dice il polinomio associato a pn . L’algoritmo (2.31) `e stato implementato nel Programma 2.5. I coefficienti aj del polinomio da valutare sono memorizzati nel vettore a a partire da an fino ad a0 .

2.6 Polinomi algebrici

67

Programma 2.5. horner: il metodo di divisione sintetica function [y , b ] = horner (a , z ) % HORNER Metodo di Horner % Y = HORNER (A , Z ) calcola % Y = A (1)* Z ^ N + A (2)* Z ^( N -1) + ... % + A ( N )* Z + A ( N +1) % con il metodo di divisione sintetica di Horner . n = length ( a ) -1; b = zeros ( n +1 ,1); b (1) = a (1); for j =2: n +1 b ( j ) = a ( j )+ b (j -1)* z ; end y = b ( n +1); b = b (1: end -1); return

Vogliamo a questo punto introdurre un algoritmo efficiente che, nota una radice di un polinomo (od una sua approssimazione), sia in grado di eliminarla e consentire quindi il calcolo della successiva fino all’esaurimento di tutte le radici. A questo proposito conviene ricordare la seguente propriet` a sulla divisione tra polinomi: Proposizione 2.3 Dati due polinomi hn ∈ Pn e gm ∈ Pm con m ≤ n, esistono un unico polinomio δ ∈ Pn−m ed un unico polinomio ρ ∈ Pm−1 tali che hn (x) = gm (x)δ(x) + ρ(x).

(2.33)

Dividendo allora un polinomio pn ∈ Pn per x − z, grazie alla (2.33) si deduce che pn (x) = b0 + (x − z)qn−1 (x; z), avendo indicato con qn−1 il quoziente e con b0 il resto della divisione. Se z `e una radice di pn , allora si ha b0 = pn (z) = 0 e quindi pn (x) = (x − z)qn−1 (x; z). In tal caso l’equazione algebrica qn−1 (x; z) = 0 fornisce le n − 1 radici restanti di pn (x). Questa osservazione suggerisce di adottare il seguente procedimento, detto di deflazione, per il calcolo di tutte le radici di pn . Per m = n, n − 1, . . . , 1: 1. si trova una radice rm di pm con un opportuno metodo di approssimazione; 2. si calcola qm−1 (x; rm ) tramite le (2.31)-(2.32) (posto z = rm ); 3. si pone pm−1 = qm−1 .

68

2 Equazioni non lineari

Nel paragrafo che segue proponiamo il metodo pi` u noto di questa famiglia, che utilizza per l’approssimazione delle radici il metodo di Newton. 2.6.2 Il metodo di Newton-H¨ orner Come suggerisce il nome, il metodo di Newton-H¨ orner implementa il procedimento di deflazione appena descritto facendo uso del metodo di Newton per il calcolo delle radici rm . Il vantaggio risiede nel fatto che l’implementazione del metodo di Newton sfrutta convenientemente l’algoritmo di H¨ orner (2.31). Infatti, se qn−1 `e il polinomio associato a pn definito nella (2.32), poich´e ′ (x; z), p′n (x) = qn−1 (x; z) + (x − z)qn−1

si ha p′n (z) = qn−1 (z; z). Grazie a questa identit`a il metodo di Newton-H¨ orner per l’approssimazione di una radice (reale o complessa) rj di pn (j = 1, . . . , n) prende la forma seguente. (0) Data una stima iniziale rj della radice, calcolare per ogni k ≥ 0 fino a convergenza (k)

(k+1) rj

=

(k) rj



pn (rj ) (k)

p′n (rj )

(k)

=

(k) rj



pn (rj ) (k)

(k)

qn−1 (rj ; rj )

(2.34)

A questo punto si utilizza la tecnica di deflazione, sfruttando il fatto che o quindi passare all’approssimazione di pn (x) = (x − rj )pn−1 (x). Si pu` uno zero di pn−1 e cos`ı via sino all’esaurimento di tutte le radici di pn . Si tenga conto che quando rj ∈ C `e necessario condurre i calcoli in (0) aritmetica complessa, prendendo rj con parte immaginaria non nulla. In caso contrario, infatti, il metodo di Newton-H¨ orner genererebbe una (k) successione {rj } di numeri reali. Il metodo di Newton-H¨orner `e stato implementato nel Programma 2.6. I coefficienti aj del polinomio del quale si intendono calcolare le radici sono memorizzati nel vettore a a partire da an fino ad a0 . Gli altri parametri di input, tol e nmax, sono rispettivamente la tolleranza sul criterio d’arresto (sul valore assoluto della differenza fra due iterate consecutive) ed il numero massimo di iterazioni consentite. Se non diversamente precisati, vengono assunti i valori di default pari a nmax=100 e tol=1.e-04. In output, il programma restituisce nei vettori radici e iter le radici calcolate ed il numero di iterazioni che `e stato effettuato per calcolare ciascun valore.

2.6 Polinomi algebrici

69

Programma 2.6. newtonhorner: il metodo di Newton-H¨ orner function [ radici , iter ]= newtonhorner (a , x0 , tol , nmax ) % NEWTONHORNER Metodo di Newton - Horner % [ RADICI , ITER ]= NEWTONHORNER (A , X0 ) calcola le % radici del polinomio % P ( X ) = A (1)* X ^ N + A (2)* X ^( N -1) + ... % + A ( N )* X + A ( N +1) % con il metodo di Newton - Horner a partire dal dato % iniziale X0 . Il metodo si arresta per ogni radice % al massimo dopo 100 iterazioni o dopo che il valore % assoluto della differenza fra due iterate conse % cutive e ’ minore di 1. e -04. % [ RADICI , ITER ]= NEWTONHORNER (A , X0 , TOL , KMAX ) consente % di definire la tolleranza sul criterio d ’ arresto % ed il numero massimo di iterazioni . if nargin == 2 tol = 1. e -04; nmax = 100; elseif nargin == 3 nmax = 100; end n = length ( a ) -1; radici = zeros (n ,1); iter = zeros (n ,1); for k = 1: n % Iterazioni di Newton niter = 0; x = x0 ; diff = tol + 1; while niter < nmax & diff >= tol [ pz , b ] = horner (a , x ); [ dpz , b ] = horner (b , x ); xnew = x - pz / dpz ; diff = abs ( xnew - x ); niter = niter + 1; x = xnew ; end if ( niter == nmax & diff > tol ) fprintf ([ ’ Il metodo non converge nel numero ’ ,... ’ massimo di iterazioni \ n ’ ]); end % Deflazione [ pz , a ] = horner (a , x ); radici ( k ) = x ; iter ( k ) = niter ; end return Osservazione 2.2 Onde minimizzare la propagazione degli errori di arrotondamento, nel processo di deflazione conviene approssimare per prima la radice r1 di modulo minimo e procedere quindi al calcolo delle successive radici r2 , r3 , . . ., sino a quella di modulo massimo (per approfondimenti si veda ad esempio [QSS08]). 

70

2 Equazioni non lineari

Esempio 2.11 Richiamiamo il Programma 2.6 per calcolare le radici {1, 2, 3} del polinomio p3 (x) = x3 − 6x2 + 11x − 6. Usiamo le seguenti istruzioni a =[1 -6 11 -6]; [x , niter ]= newtonhorner (a ,0 ,1. e -15 ,100) x = 1 2 3 niter = 8 8 2 Come si vede il metodo calcola accuratamente ed in poche iterazioni tutte e tre le radici. Come notato nell’Osservazione 2.2 non sempre il metodo `e per` o cos`ı efficiente. Ad esempio, per il calcolo delle radici del polinomio p4 (x) = x4 − 7x3 + 15x2 − 13x + 4 (che presenta una radice pari a 1 con molteplicit`a 3 ed una radice semplice pari a 4) si trovano i seguenti risultati a =[1 -7 15 -13 4]; format long ; [x , niter ]= newtonhorner (a ,0 ,1. e -15 ,100) x = 1.000006935337374 0.999972452635761 1.000020612232168 3.999999999794697 niter = 61 100 6 2 dai quali risulta un evidente deterioramento nell’accuratezza del calcolo della radice multipla. In effetti si pu`o dimostrare che questa perdita di accuratezza `e tanto maggiore quanto pi` u grande `e la molteplicit` a della radice (si veda [QSS08]). 

2.7 Cosa non vi abbiamo detto I metodi pi` u complessi per il calcolo accurato degli zeri di una generica funzione si ottengono combinando fra loro diversi algoritmi. Segnaliamo a questo proposito il comando fzero (gi` a introdotto nel paragrafo 1.5.1) che utilizza il metodo di Dekker-Brent (si veda [QSS07, Capitolo 6]). Nella sua forma pi` u semplice a partire da un dato x0, fzero(fun,x0) calcola lo zero di una funzione fun pi` u vicino a x0.

2.7 Cosa non vi abbiamo detto

71

Ad esempio, risolviamo il problema dell’Esempio 2.1 anche con fzero, prendendo come valore iniziale x0=0.3 (lo stesso che abbiamo ` sufficiente dare le scelto quando abbiamo usato il metodo di Newton). E seguenti istruzioni Rfunc = inline ( ’ 6000 -1000*(1+ r )/ r *((1+ r )^5 -1) ’ ); x0 =0.3; [ alpha , res , flag , info ]= fzero ( Rfunc , x0 );

per trovare la radice alpha=0.06140241153653 ed un residuo pari a res=-1.8190e-12 dopo 7 iterazioni e con 29 valutazioni funzionali. La variabile info `e una cosiddetta struttura, che si compone di 5 sottocampi. In particolare nei campi iterations e funcCount della struttura info (ovvero in info.iterations ed in info.funcCount) vengono riportati rispettivamente il numero delle iterazioni svolte ed il numero delle valutazioni funzionali effettuate. Si noti che quando il parametro di uscita flag assume un valore negativo significa che fzero ha fallito nella ricerca dello zero. Per confronto, osserviamo che il metodo di Newton converge in 6 iterazioni al valore alpha=0.06140241153653 con un residuo pari a res=9.0949e-13 richiedendo tuttavia anche la conoscenza della derivata prima di f per un totale di 12 valutazioni funzionali. Per il calcolo degli zeri di un polinomio oltre al metodo di NewtonH¨orner citiamo i metodi basati sulle successioni di Sturm, il metodo di M¨ uller, (si vedano [Atk89], [Com95] o [QSS08]) ed il metodo di Bairstow ([RR01], pag.371 e seguenti). Un altro approccio consiste nel caratterizzare gli zeri di un polinomio come gli autovalori di una particolare matrice, detta companion matrix, e nel calcolare quest’ultimi con tecniche opportune. Questo `e l’approccio adottato dalla funzione MATLAB roots, introdotta nel paragrafo 1.5.2. Nel paragrafo 2.3.2 abbiamo mostrato come si possa adattare il metodo di Newton al caso di sistemi di equazioni non lineari. In generale, ogni iterazione di punto fisso pu` o essere facilmente estesa al calcolo delle radici di un sistema di equazioni non lineari. Per questo tipo di problemi ricordiamo inoltre anche il metodo di Broyden ed i metodi quasi-Newton che possono essere visti come una generalizzazione del metodo di Newton (si vedano [DS96] [Deu04], [SM03] e [QSS07, Capitolo 7]). L’istruzione MATLAB zero = fsolve ( ’ fun ’ , x0 )

permette di calcolare uno zero di un sistema non lineare definito attraverso la function fun (costruita dall’utilizzatore) e partendo da un vettore iniziale x0. La function fun restituisce i valori fi (¯ x1 , . . . , x ¯n ), i = 1, . . . , n, per ogni vettore in ingresso (¯ x1 , . . . , x ¯n )T . Ad esempio, per il sistema non lineare (2.15) la corrispondente function MATLAB, che noi chiamiamo systemnl, `e function fx = systemnl ( x ) fx (1) = x (1)^2+ x (2)^2 -1; fx (2) = sin ( pi *0.5* x (1))+ x (2)^3;

fsolve

72

2 Equazioni non lineari

Le istruzioni MATLAB per risolvere il sistema dato sono allora x0 = [1 1]; alpha = fsolve ( ’ systemnl ’ , x0 )

alpha = 0.4761

-0.8794

Usando questa procedura abbiamo trovato solo una delle due radici. L’altra pu` o essere calcolata usando come dato iniziale -x0. Octave 2.1 I comandi fzero e fsolve hanno la stessa funzionalit` a in MATLAB e in Octave, tuttavia le loro interfacce differiscono leggermente per quanto concerne gli input opzionali. Consigliamo al lettore di consultare la documentazione attraverso l’help per entrambi i comandi sia in ambiente MATLAB sia in Octave. 

2.8 Esercizi Esercizio 2.1 Data la funzione f (x) = cosh x + cos x − γ, per γ = 1, 2, 3 si individui un intervallo contenente uno zero di f e lo si calcoli con il metodo di bisezione con una accuratezza pari a 10−10 . Esercizio 2.2 (Equazione di stato di un gas) Per l’anidride carbonica (CO2 ) i coefficienti a e b della (2.1) valgono rispettivamente a = 0.401Pa m6 e b = 42.7·10−6 m3 (Pa sta per Pascal). Si trovi il volume occupato da 1000 molecole di anidride carbonica poste ad una temperatura T = 300K e ad una pressione p = 3.5·107 Pa utilizzando il metodo di bisezione con una accuratezza pari a 10−12 (la costante di Boltzmann `e pari a k = 1.3806503 · 10−23 Joule K−1 ). Esercizio 2.3 Si consideri un piano la cui inclinazione varia con velocit`a costante ω. Su di esso si trova un oggetto che all’istante iniziale `e fermo; dopo t secondi la sua posizione `e s(t, ω) =

g [sinh(ωt) − sin(ωt)], 2ω 2

dove g = 9.8m/s2 `e l’accelerazione di gravit` a. Supponiamo che il corpo si sia mosso di un metro in un secondo; si ricavi il corrispondente valore di ω con una accuratezza pari a 10−5 . Esercizio 2.4 Si dimostri la disuguaglianza (2.6). Esercizio 2.5 Nel Programma 2.1 per calcolare il punto medio `e stata utilizzata la seguente istruzione: x(2) = x(1)+(x(3)-x(1))*0.5, invece della pi` u naturale: x(2) = (x(1)+x(3))*0.5. Per quale motivo?

2.8 Esercizi

73

Esercizio 2.6 Si ripeta per il metodo di Newton l’Esercizio 2.1. Perch´e per γ = 2 il metodo risulta inaccurato? Esercizio 2.7 Utilizzando il metodo di Newton si costruisca un algoritmo per il calcolo della radice quadrata di un numero positivo a. Si proceda in modo analogo per il calcolo della radice cubica di a. Esercizio 2.8 Supponendo il metodo di Newton convergente, si dimostri la (2.9) con α radice semplice di f (x) = 0 e f derivabile due volte con continuit`a in un intorno di α. Esercizio 2.9 (Statica) Si risolva il Problema 2.3, al variare di β ∈ [0, 2π/3] e con una tolleranza pari a 10−5 , supponendo che le aste abbiano le seguenti lunghezze a1 = 10 cm, a2 = 13 cm, a3 = 8 cm, a4 = 10 cm, usando il metodo di Newton e richiedendo una tolleranza pari a 10−5 . Per ogni valore di β si considerino due possibili valori iniziali pari a x(0) = −0.1 e a x(0) = 2π/3. Esercizio 2.10 Si osservi che la funzione f (x) = ex − 2x2 ha 3 zeri, α1 < 0 e α2 e α3 positivi. Per quali valori di x(0) il metodo di Newton converge a α1 ? Esercizio 2.11 Si applichi il metodo di Newton per il calcolo dello zero di f (x) = x3 − 3x2 2−x + 3x4−x − 8−x in [0, 1] e si analizzi sperimentalmente l’ordine di convergenza. La convergenza non risulta di ordine 2. Perch´e? Esercizio 2.12 Un proiettile che viene lanciato ad una velocit`a v0 con una inclinazione α in un tunnel di altezza h, raggiunge la massima gittata quando p a. α `e tale che sin(α) = 2gh/v02 , dove g = 9.8m/s2 `e l’accelerazione di gravit` Si calcoli α con il metodo di Newton, quando v0 = 10m/s e h = 1m. Esercizio 2.13 (Piano di investimento) Si risolva, a meno di una tolleranza tol=1.e-12, il Problema 2.1 con il metodo di Newton, supponendo che M = 6000 euro, v = 1000 euro, n = 5 ed utilizzando un dato iniziale pari al risultato ottenuto dopo cinque iterazioni del metodo di bisezione sull’intervallo (0.01, 0.1). Esercizio 2.14 Un corridoio ha la pianta indicata in Figura 2.11. La lunghezza massima L di un’asta che possa passare da un estremo all’altro strisciando per terra `e data da L = l2 /(sin(π − γ − α)) + l1 / sin(α), dove α `e la soluzione della seguente equazione non lineare l2

cos(α) cos(π − γ − α) − l1 2 = 0. sin2 (π − γ − α) sin (α)

(2.35)

Si determini α con il metodo di Newton quando l2 = 10, l1 = 8 e γ = 3π/5.

74

2 Equazioni non lineari L

α

l1

γ

l2 Figura 2.11. Problema dello scorrimento di un’asta in un corridoio

Esercizio 2.15 Verificare che, indicata al solito con φN la funzione di iterazione del metodo di Newton considerato come metodo di punto fisso, se α `e uno zero di f di molteplicit` a m, allora φ′N (α) = 1 − 1/m. Se ne deduca che il metodo di Newton converge quadraticamente se α `e uno zero semplice di f (x) = 0, linearmente negli altri casi. Esercizio 2.16 Si tracci il grafico della funzione f (x) = x3 + 4x2 − 10 e se ne deduca che essa ammette un unico zero reale α. Per il suo calcolo si usino le seguenti iterazioni di punto fisso: dato x(0) , si definisce x(k+1) come x(k+1) =

2(x(k) )3 + 4(x(k) )2 + 10 , 3(x(k) )2 + 8x(k)

k ≥ 0.

Se ne studi la convergenza a α. Esercizio 2.17 Si studi la convergenza delle seguenti iterazioni di punto fisso x(k+1) =

x(k) [(x(k) )2 + 3a] , 3(x(k) )2 + a

k ≥ 0,

per il calcolo della radice quadrata di un numero positivo a. Esercizio 2.18 Si ripetano i calcoli effettuati nell’Esercizio 2.11 usando come ` pi` criterio d’arresto quello sul residuo. E u accurato il risultato ottenuto ora o quello ricavato precedentemente?



446377.1&=.32* ). +92=.32. * ). )&8.

#OOQNRRHL@QD TM@ ETMYHNMD ? RHFMHB@ SQNU@QD TM@ ETMYHNMD ?[ CH ENQL@ OH T RDLOKHBD BGD UDQQ@ TR@S@ BNLD RTQQNF@SN CH ?  3TDRS@ RSQ@SDFH@ D EQDPTDMSDLDMSD TSHKHYY@S@ MDKK HMSDFQ@YHNMD MTLDQHB@ HM BTH HMUDBD CH B@K (% (% BNK@QD $ ? Q=Q RH B@KBNK@ $ ?[ Q=Q NUD ?[ RH@ TM@ ETMYHNMD E@BHKD C@ HMSDFQ@QD @C DRDLOHN TM ONKHMNLHN BNLD LNRSQDQDLN MDK OQNRRHLN B@OHSNKN +M @KSQH BNMSDRSH K@ ETMYHNMD ? ONSQDAAD DRRDQD MNS@ RNKN O@Q YH@KLDMSD @SSQ@UDQRN H U@KNQH BGD DRR@ @RRTLD HM CDSDQLHM@SH OTMSH +M S@K B@RN K@ CDSDQLHM@YHNMD CH ?[ BNMRDMSHQ @ CH @OOQNRRHL@QD BNM TM@ ETMYHNMD BNMSHMT@ K @MC@LDMSN CDKK@ =KDFFD ? BGD G@ FDMDQ@SN K HMRHDLD CH C@SH + OQNAKDLH BGD RDFTNMN C@MMN TM HCD@ CH PTDRSN @OOQNBBHN

 0(92. 463'0*1. #;8+5.6* 526*=85802* .@ SDLODQ@STQ@ CDKK @QH@ HM OQNRRHLHS@ CDK RTNKN CHODMCD C@KK@ BNMBDMSQ@YHNMD . CDKK @BHCN B@QANMHBN *2 %13  +M O@QSHBNK@QD HM 6@ADKK@  SQ@SS@ C@ 2GHKNRNOGHB@K /@F@YHMD  

 UDMFNMN QHONQS@SD HM BNQQHRONMCDMY@ CH  CHUDQRH U@KNQH CH . D ODQ CHUDQRD K@SHSTCHMH KD U@QH@YHNMH  !  " ¯ CDKK@ SDLODQ@STQ@ LDCH@ BGD RH @UQDAADQN MDK FKNAN QHRODSSN @KK@ SDLODQ@STQ@ LDCH@ BNQ  CH . 3TH .  Q@OOQDRDMS@ QHRONMCDMSD @C TM U@KNQD CH QHEDQHLDMSN . HK U@KNQD LHRTQ@SN MDK  DC D MNQL@KHYY@SN @  +M PTDRSN B@RN ONR RH@LN BNRSQTHQD TM@ ETMYHNMD BGD RTKK@ A@RD CDH C@SH CHRONMHAHKH ENQMHRBD TM @OOQNRRHL@YHNMD CDH U@KNQH CDKK@ SDLODQ@STQ@ LDCH@ ODQ NFMH ONRRHAHKD K@SHSTCHMD D ODQ @KSQH U@KNQH CH . RH UDC@ K 'RDLOHN   #;8+5.6* 27*7C* +M (HFTQ@  UHDMD QHONQS@SN K @MC@LDMSN CDK OQDYYN CH TM@ O@QSHBNK@QD @YHNMD @KK@ $NQR@ CH ;TQHFN RT CTD @MMH .@ BTQU@ D RS@S@ NSSDMTS@ RDLOKHBDLDMSD BNMFHTMFDMCN BNM TM RDFLDMSN H OQDYYH RR@SH NFMH FHNQMN @KK@ BGHTRTQ@ CDK LDQB@SN 3TDRS@ RDLOKHBD

Quarteroni, A., Saleri, F.: Calcolo Scientifico. © Springer-Verlag Italia, Milano, 2008

76

3 Approssimazione di funzioni e di dati Latitudine 65 55 45 35 25 15 5 -5 -15 -25 -35 -45 -55

K = 0.67 -3.1 -3.22 -3.3 -3.32 -3.17 -3.07 -3.02 -3.02 -3.12 -3.2 -3.35 -3.37 -3.25

δK K = 1.5 K = 2.0 3.52 6.05 3.62 6.02 3.65 5.92 3.52 5.7 3.47 5.3 3.25 5.02 3.15 4.95 3.15 4.97 3.2 5.07 3.27 5.35 3.52 5.62 3.7 5.95 3.7 6.1

K = 3.0 9.3 9.3 9.17 8.82 8.1 7.52 7.3 7.35 7.62 8.22 8.8 9.25 9.5

Tabella 3.1. Variazioni della temperatura media annua del globo terrestre per quattro diversi valori della concentrazione K di acido carbonico a diverse latitudini 16 14 12 10 8 6 4 2 0 nov00

mag01

nov01

mag02

Figura 3.1. Andamento del prezzo di un’azione nell’arco di due anni

rappresentazione assume implicitamente che il prezzo cambi linearmente durante il giorno (anticipiamo che questa approssimazione `e nota come interpolazione composita lineare). Ci si pu` o chiedere se da questo grafico si possa dedurre una previsione del prezzo dell’azione in esame per un breve periodo di tempo successivo all’ultima quotazione disponibile. Come vedremo nel paragrafo 3.6, informazioni di questo genere possono essere ottenute facendo uso di una tecnica nota come l’approssimazione di funzioni nel senso dei minimi quadrati (si veda l’Esempio 3.11).  Problema 3.3 (Biomeccanica) Nella Tabella 3.2 vengono riportati i risultati di un esperimento (P.Komarek, Capitolo 2 di Biomechanics of Clinical Aspects of Biomedicine, 1993, J.Valenta ed., Elsevier) eseguito per individuare il legame fra lo sforzo e la relativa deformazione di un campione di tessuto biologico (un disco intervertebrale, si veda la rap-

3.2 Approssimazione con i polinomi di Taylor

F

77

σ = F/A ǫ = ΔL/L

A

ΔL

L

Figura 3.2. Una rappresentazione schematica di un disco intervertebrale test 1 2 3 4

sforzo σ 0.00 0.06 0.14 0.25

deformazione ǫ 0.00 0.08 0.14 0.20

test 5 6 7 8

sforzo σ 0.31 0.47 0.60 0.70

deformazione ǫ 0.23 0.25 0.28 0.29

Tabella 3.2. Valori di deformazione relativi a diversi sforzi applicati ad un disco intervertebrale

presentazione schematica di Figura 3.2). Partendo dai dati riportati in tabella si vuole stimare la deformazione corrispondente ad uno sforzo σ = 0.9 MPa (MPa= 100 N/cm2 ). Si veda per la risoluzione l’Esempio 3.12.  Problema 3.4 (Robotica) Si intende determinare nel piano xy la traiettoria seguita da un robot che viene impiegato per un ciclo di lavorazione in un’industria. Il robot deve rispettare determinati vincoli di movimento: in particolare, si vuole che al tempo iniziale (t = 0) il robot si trovi fermo nella posizione (0, 0), al tempo t = 1 passi per il punto (1, 2), raggiunga al tempo t = 2 il punto (4, 4) con velocit` a nulla, riparta quindi per raggiungere il punto (3, 1) al tempo t = 3 e ritorni al punto di partenza al tempo t = 5, fermandosi per poi iniziare un nuovo ciclo lavorativo. Si suppone che il robot sia assimilabile ad un punto materiale. Nell’Esempio 3.9 risolveremo questo problema con l’ausilio delle funzioni spline. 

3.2 Approssimazione con i polinomi di Taylor Come `e noto, una funzione f pu` o essere approssimata in un intervallo dal suo polinomio di Taylor di un certo grado n, introdotto nel paragrafo 1.5.3. Tale procedura `e assai costosa in quanto richiede la conoscenza di f e delle sue derivate fino all’ordine n in un dato punto x0 . Inoltre, il polinomio di Taylor pu` o non approssimare accuratamente f nei punti x relativamente lontani da x0 . Ad esempio, in Figura 3.3 si confronta

aylortool

78

3 Approssimazione di funzioni e di dati 3

2

1

0 1

1.2

1.4

1.6

1.8

2

2.2

2.4

2.6

2.8

3

2 3 4 5 6 7 10 T (x) = 2−x+(x−1) −(x−1) +(x−1) −(x−1) +(x−1) −(x−1) +...+(x−1) 10

Figura 3.3. Confronto tra la funzione f (x) = 1/x (in linea piena) ed il suo polinomio di Taylor di grado 10 riferito al punto x0 = 1 (in tratteggio). L’espressione del polinomio di Taylor `e riportata in figura

l’andamento della funzione f (x) = 1/x con quello del suo polinomio di Taylor di grado 10 costruito attorno al punto x0 = 1. Questa figura mostra anche l’interfaccia grafica del programma MATLAB taylortool che consente di calcolare il polinomio di Taylor di grado arbitrario di una data funzione f . Come si vede pi` u ci si allontana da x0 pi` u il polinomio di Taylor si discosta dalla funzione. Per altre funzioni ci` o fortunatamente non si verifica; `e il caso ad esempio della funzione esponenziale per la quale il polinomio di Taylor relativo al punto x0 = 0 rappresenta una buona approssimazione per ogni valore di x ∈ R purch´e il grado n sia sufficientemente grande. Servono quindi in generale dei metodi di approssimazione alternativi che illustreremo nei prossimi paragrafi. Octave 3.1 taylortool non `e disponibile in Octave.



3.3 Interpolazione Come abbiamo potuto notare dai problemi 3.1, 3.2 e 3.3, in molte applicazioni concrete si conosce una funzione solo attraverso i suoi valori in determinati punti. Supponiamo pertanto di conoscere n + 1 coppie di valori {xi , yi }, i = 0, . . . , n, dove i punti xi , tutti distinti, sono detti nodi. Ad esempio, con riferimento alla Tabella 3.1, n `e uguale a 12, i nodi xi sono i valori della latitudine riportati nella prima colonna, mentre

3.3 Interpolazione

79

gli yi sono i valori corrispondenti (della variazione di temperatura) che troviamo in una qualunque delle restanti colonne. In tal caso, pu` o apparire naturale richiedere che la funzione approssimante f˜ soddisfi le seguenti uguaglianze f˜(xi ) = yi ,

i = 0, 1, . . . , n

(3.1)

Una tale funzione f˜ `e detta interpolatore dell’insieme di dati {yi } e le equazioni (3.1) sono le condizioni di interpolazione. Si possono immaginare vari tipi di interpolatori, ad esempio: -

l’interpolatore polinomiale: f˜(x) = a0 + a1 x + a2 x2 + . . . + an xn ;

-

-

l’interpolatore trigonometrico: ˜ = a−M e−iMx + . . . + a0 + . . . + aM eiMx , f(x) dove M `e un intero pari a n/2 se n `e pari, (n + 1)/2 se n `e dispari, e i `e l’unit` a immaginaria; l’interpolatore razionale: f˜(x) =

a0 + a1 x + . . . + ak xk . ak+1 + ak+2 x + . . . + ak+n+1 xn

Per semplicit` a considereremo soltanto quegli interpolatori che dipendono linearmente dai coefficienti incogniti ai . Ad esempio, l’interpolazione polinomiale e quella trigonometrica rientrano in questa categoria, mentre quella razionale no. 3.3.1 Interpolazione polinomiale di Lagrange Concentriamo la nostra attenzione sull’interpolazione polinomiale. Vale il seguente risultato: Proposizione 3.1 Per ogni insieme di coppie {xi , yi }, i = 0, . . . , n, con i nodi xi distinti fra loro, esiste un unico polinomio di grado minore od uguale a n, che indichiamo con Πn e chiamiamo polinomio interpolatore dei valori yi nei nodi xi , tale che Πn (xi ) = yi ,

i = 0, . . . , n

(3.2)

Quando i valori {yi , i = 0, . . . , n}, rappresentano i valori assunti da una funzione continua f (ovvero yi = f (xi )), Πn `e detto polinomio interpolatore di f (in breve, interpolatore di f ) e viene indicato con Πn f .

80

3 Approssimazione di funzioni e di dati 1.2 1 0.8 0.6 0.4 0.2

x

0 −0.2 −0.4 −0.6

0

0.5

1

1.5

2

Figura 3.4. Il polinomio ϕ2 ∈ P4 associato ai 5 nodi equispaziati in [0, 2]

Per verificare l’unicit` a procediamo per assurdo supponendo che esistano due polinomi distinti di grado n, Πn e Πn∗ , che soddisfino entrambi le relazioni nodali (3.2). La loro differenza, Πn − Πn∗ , sar`a ancora un polinomio di grado n che si annulla in n + 1 punti distinti. Per un noto teorema dell’Algebra, esso deve essere identicamente nullo e, quindi, Πn∗ coincide con Πn , da cui l’assurdo. Per ottenere un’espressione di Πn , iniziamo da una funzione molto speciale per la quale tutti gli yi sono nulli fuorch´e quello per i = k (per un dato k) per il quale yk = 1. Posto allora ϕk (x) = Πn (x), si dovr` a avere (si veda la Figura 3.4)  1 se j = k, ϕk ∈ Pn , ϕk (xj ) = δjk = 0 altrimenti, dove δjk `e il simbolo di Kronecker. Le funzioni ϕk possono essere scritte come ϕk (x) =

n  x − xj , k = 0, . . . , n. x k − xj j=0

(3.3)

j=k

Mettiamoci ora nel caso generale in cui {yi , i = 0, . . . , n} sia un insieme di valori arbitrari. Per il principio di sovrapposizione degli effetti abbiamo Πn (x) =

n

yk ϕk (x)

(3.4)

k=0

In effetti, questo polinomio soddisfa le condizioni di interpolazione (3.2) in quanto Πn (xi ) =

n

k=0

yk ϕk (xi ) =

n

k=0

yk δik = yi ,

i = 0, . . . , n.

3.3 Interpolazione

81

Per il loro ruolo peculiare, le funzioni ϕk sono dette polinomi caratteristici di Lagrange e la (3.4) `e nota come forma di Lagrange del polinomio interpolatore. In MATLAB possiamo memorizzare le n+1 coppie {(xi , yi )} in due vettori, ad esempio x e y, e con l’istruzione c=polyfit(x,y,n) possiamo generare i coefficienti del polinomio interpolatore. In particolare, c(1) conterr` a il coefficiente di xn , c(2) quello di xn−1 , . . . e c(n+1) il valore di Πn (0). (Maggiori dettagli su questo comando sono contenuti nel paragrafo 3.6.) Come abbiamo visto nel Capitolo 1, noti i coefficienti, attraverso l’istruzione p=polyval(c,z) `e poi possibile calcolare i valori p(j) del polinomio interpolatore in m punti arbitrari z(j), j=1,...,m. Nel caso in cui yi = f (xi ) e l’espressione della funzione f sia nota in forma esplicita, possiamo memorizzare i nodi xi nel vettore x e costruire il vettore y mediante l’istruzione y=eval(f). Esempio 3.1 (Climatologia) Calcoliamo il polinomio interpolatore di grado 4 per i dati del Problema 3.1 relativi ad una concentrazione K di acido carbonico pari a 0.67 (prima colonna), utilizzando i valori della temperatura corrispondenti alle sole latitudini 65, 35, 5, -25, -55. Possiamo utilizzare le seguenti istruzioni MATLAB x =[ -55 -25 5 35 65]; y =[ -3.25 -3.2 -3.02 -3.32 -3.1]; format short e ; c = polyfit (x ,y ,4) c = 8.2819e-08 -4.5267e-07 -3.4684e-04 3.7757e-04 -3.0132e+00 Il grafico del polinomio interpolatore pu`o allora essere generato come segue p = polyval (c , z ); plot (z ,p ,x ,y , ’o ’ ); grid on ; Si noti che al solo scopo di ottenere una rappresentazione “liscia” il polinomio `e stato valutato in 101 punti equispaziati nell’intervallo [−55, 65] (in effetti, quando MATLAB disegna una curva si limita a congiungere due punti consecutivi con un segmento). L’istruzione x(end) consente di accedere direttamente all’ultima componente del vettore x, senza bisogno di conoscerne la lunghezza. In Figura 3.5 i cerchietti pieni corrispondono ai dati utilizzati per costruire il polinomio di interpolazione, mentre quelli vuoti corrispondono ai dati che non sono stati utilizzati. Si pu` o apprezzare il buon accordo a livello qualitativo fra il polinomio interpolatore e la distribuzione dei dati. 

Grazie al risultato seguente possiamo quantificare l’errore che si commette sostituendo ad una funzione f il suo polinomio interpolatore Πn f .

polyfit

82

3 Approssimazione di funzioni e di dati −2.95

−3.05

−3.15

−3.25

−3.35

−3.45 −60

−40

−20

0

20

40

60

80

Figura 3.5. Il polinomio interpolatore di grado 4 introdotto nell’Esempio 3.1

Proposizione 3.2 Sia I un intervallo limitato, e si considerino n + 1 nodi di interpolazione distinti {xi , i = 0, . . . , n} in I. Sia f derivabile con continuit` a fino all’ordine n + 1 in I. Allora ∀x ∈ I ∃ξ ∈ I tale che

En f (x) = f (x) − Πn f (x) =

n f (n+1) (ξ)  (x − xi ) (n + 1)! i=0

(3.5)

Ovviamente, En f (xi ) = 0, per i = 0, . . . , n. Il risultato (3.5) pu` o essere meglio specificato nel caso di una distribuzione uniforme di nodi, ovvero quando xi = xi−1 + h per i = 1, . . . , n, per un dato h > 0 ed un dato x0 . In tal caso, si veda l’Esercizio 3.1, ∀x ∈ (x0 , xn ) si pu` o verificare che   n   hn+1   , (3.6)  (x − xi ) ≤ n!   4 i=0 e quindi

max|f (n+1) (x)| max|En f (x)| ≤ x∈I

x∈I

4(n + 1)

hn+1 .

(3.7)

Purtroppo non si pu` o dedurre dalla (3.7) che l’errore tende a 0 per n → ∞, nonostante hn+1 /[4(n + 1)] tenda a 0. Infatti, come mostra l’Esempio 3.2, esistono funzioni f per le quali addirittura tale limite pu` o essere infinito, ovvero lim max|En f (x)| = ∞.

n→∞ x∈I

3.3 Interpolazione

83

Questo risultato indica che ad un aumento del grado n del polinomio interpolatore non corrisponde necessariamente un miglioramento nella ricostruzione di una funzione f . Ad esempio, se interpolassimo tutti i dati della seconda colonna della Tabella 3.1, troveremmo il polinomio Π12 , rappresentato in Figura 3.6 (a sinistra), il cui comportamento, nelle vicinanze dell’estremo sinistro dell’intervallo `e assai meno soddisfacente di quello mostrato in Figura 3.5 utilizzando un numero inferiore di nodi. Si pu` o riscontrare un comportamento ancor pi` u insoddisfacente per particolari funzioni, come risulta dall’esempio seguente. Esempio 3.2 (Runge) Se interpoliamo la funzione f (x) = 1/(1 + x2 ) (detta di Runge) su un insieme di nodi equispaziati nell’intervallo I = [−5, 5], l’errore maxx∈I |En f (x)| tende all’infinito quando n → ∞. Questo `e dovuto al fatto che per n → ∞ l’ordine di infinito di maxx∈I |f (n+1) (x)| supera quello di infinitesimo di hn+1 /[4(n + 1)]. Possiamo verificare questa conclusione calcolando il massimo delle derivate di f fino all’ordine 21 con le seguenti istruzioni MATLAB: syms x ; n =20; f =1/(1+ x ^2); df = diff (f ,1); cdf = char ( df ); for i = 1: n +1 , df = diff ( df ,1); cdfn = char ( df ); x = fzero ( cdfn ,0); M ( i ) = abs ( eval ( cdf )); cdf = cdfn ; end I massimi dei valori assoluti delle funzioni f (n) , n = 1, . . . , 21, sono stati memorizzati nel vettore M. Si noti che il comando char converte la variabile simbolica df in una stringa che possa poi essere valutata dalla funzione fzero. In particolare, i valori assoluti di f (n) per n = 3, 9, 15, 21 sono format short e; M([3,9,15,21]) ans = 4.6686e+00 3.2426e+05 1.2160e+12 4.8421e+19 n Y (x − xi )/(n + 1)! sono mentre i corrispondenti valori assoluti di i=0

z = linspace ( -5 ,5 ,10000); for n =0:20; h =10/( n +1); x =[ -5: h :5]; c = poly ( x ); r ( n +1)= max ( polyval (c , z )); r ( n +1)= r ( n +1)/ prod ([1: n +1]); end r ([3 ,9 ,15 ,21]) ans = 1.1574e+01 5.1814e-02 1.3739e-05 4.7247e-10

dove c=poly(x) `e un vettore i cui elementi sono i coefficienti del polinomio che ha come radici proprio gli elementi del vettore x. Ne consegue che maxx∈I |En f (x)| assume i seguenti valori 5.4034e+01

1.6801e+04

1.6706e+07

2.2877e+10

rispettivamente per n = 3, 9, 15, 21. La mancanza di convergenza si manifesta nelle forti oscillazioni, presenti nel grafico del polinomio interpolatore rispetto a quello di f , che tendono ad amplificarsi in prossimit`a degli estremi dell’intervallo (si veda la Figura 3.6 a destra). Questo comportamento `e noto come fenomeno di Runge. 

poly

84

3 Approssimazione di funzioni e di dati 2

−2.7 −2.8

1

−2.9

0 −3

−1

−3.1 −3.2

−2

−3.3

−3 −3.4 −3.5 −60

−40

−20

0

20

40

60

80

−4 −5

−3

−1

1

3

5

Figura 3.6. Due esemplificazioni del fenomeno di Runge: a sinistra, Π12 f calcolato per l’insieme di dati della Tabella 3.1, colonna K = 0.67; a destra, Π12 f (in linea continua) calcolato su 13 nodi equispaziati nel caso della funzione di Runge f (x) = 1/(1 + x2 ) (in linea tratteggiata)

Oltre alla (3.7) si pu` o anche dimostrare che vale la seguente disuguaglianza max|f ′ (x) − (Πn f )′ (x)| ≤ Chn max|f (n+1) (x)|, x∈I

x∈I

dove C `e una costante indipendente da h. Quindi se approssimiamo la derivata prima di f con la derivata prima di Πn f , dobbiamo aspettarci di perdere un ordine di convergenza rispetto a h. In MATLAB (Πn f )′ pu` o essere calcolato tramite il comando MATLAB [d]=polyder(c), dove il parametro c di input `e il vettore che memorizza i coefficienti del polinomio interpolatore, mentre d `e il vettore dei coefficienti della sua derivata (si veda il paragrafo 1.5.2). 3.3.2 Stabilit` a dell’interpolazione polinomiale Cosa succede al polinomio di interpolazione se, anzich´e partire da dati esatti f (xi ) relativi ai nodi xi , con i = 0, . . . , n, in un intervallo I, si considera una loro approssimazione, diciamo f(xi )? La perturbazione  i ) potrebbe essere dovuta ad esempio all’effetto degli errori f (xi ) − f(x di arrotondamento oppure essere causata da un errore nella misurazione dei dati stessi. Sia Πn f il polinomio interpolatore corrispondente ai valori f(xi ). Indicando con x il vettore le cui componenti sono i nodi di interpolazione {xi }, si ha  n        max |Πn f (x) − Πn f˜(x)| = max  f (xi ) − f(xi ) ϕi (x)  (3.8) x∈I  x∈I i=0     ≤ Λn (x) max f (xi ) − f(xi ) 0≤i≤n

3.3 Interpolazione

dove

  n     ϕi (x) Λn (x) = max  x∈I  

85

(3.9)

i=0

indica la cosiddetta costante di Lebesgue che dipende dai nodi di interpolazione. Di conseguenza, a piccole perturbazioni sui dati corrisponderanno piccole variazioni sul polinomio interpolatore purch´e la costante di Lebesgue sia piccola. Quest’ultima assume il significato di numero di condizionamento del problema dell’interpolazione. Nel caso dell’interpolazione polinomiale di Lagrange su nodi equispaziati, si trova Λn (x) ≃

2n+1 , en(log n + γ)

dove e ≃ 2.71834 `e il numero di Nepero e γ ≃ 0.547721 rappresenta la costante di Eulero (si veda [Hes98] e [Nat65]). Ci`o comporta che per n grande questo tipo di interpolazione potrebbe essere instabile, come si evince dal seguente esempio. (Si veda anche l’Esercizio 3.8.) Esempio 3.3 Sull’intervallo [−1, 1] interpoliamo la funzione f (x) = sin(2πx) su 22 nodi equispaziati xi . Generiamo un insieme di valori fe(xi ) ottenuti perturbando in maniera casuale i valori f (xi ), in modo che max |f (xi ) − fe(xi )| ≃ 9.5 · 10−4 .

i=0,...,21

In Figura 3.7 vengono confrontati i due polinomi di interpolazione Π21 f e Π21 fe: come si vede agli estremi dell’intervallo di interpolazione la differenza `e molto pi` u grande della perturbazione operata, essendo max |Πn f (x) − x∈I

Πn f˜(x)| ≃ 3.1342. Si noti che in questo caso la costante di Lebesgue `e molto  grande, essendo Λ21 (x) ≃ 20574.

Si vedano gli Esercizi 3.1-3.4. 3.3.3 Interpolazione rispetto ai nodi di Chebyshev Il fenomeno di Runge pu` o essere evitato utilizzando opportune distribuzioni di nodi. In particolare, su un arbitrario intervallo [a, b] consideriamo i cosiddetti nodi di Chebyshev-Gauss-Lobatto xi =

a+b b−a + x i , dove x i = − cos(πi/n), 2 2

i = 0, . . . , n

(3.10)

i , i = 0, . . . , n quando [a, b] = [−1, 1]. Si pu` o diNaturalmente xi = x mostrare che se f `e una funzione continua e derivabile con continuit` a

86

3 Approssimazione di funzioni e di dati 4

3

2

1

0

−1

−2

−3

−1

−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

1

Figura 3.7. Effetti dell’instabilit` a nell’interpolazione semplice di Lagrange. In linea continua Π21 f , relativo ai dati imperturbati, in linea tratteggiata, Π21 fe, relativo ai dati perturbati per l’Esempio 3.3

in [a, b], il polinomio interpolatore Πn f associato a questa particolare distribuzione di nodi converge a f per n → ∞, per ogni x ∈ [a, b]. I nodi di Chebyshev-Gauss-Lobatto, che sono le ascisse di nodi equispaziati sulla semicirconferenza di raggio uno, appartengono all’intervallo [a, b] e si addensano vicino agli estremi dell’intervallo (si veda la Figura 3.8 a destra). Un’altra distribuzione di nodi sull’intervallo (a, b), per la quale si hanno le stesse propriet` a di convergenza, `e data dai nodi di ChebyshevGauss xi =

a+b b−a − cos 2 2



2i + 1 π n+1 2



, i = 0, . . . , n

(3.11)

1

π/n

0.8

0.6

0.4

0.2

0 −5

−3

−1

1

3

5

−1 = x b0

x bi

0 2

x bn = 1

Figura 3.8. A sinistra, la funzione di Runge f (x) = 1/(1 + x ) (in linea continua sottile) a confronto con i polinomi interpolatori sui nodi di Chebyshev-Gauss-Lobatto di grado 8 (linea tratteggiata) e 12 (linea continua pi` u marcata). Si noti come ora, al crescere del grado, le oscillazioni si smorzino e l’approssimazione divenga sempre pi` u accurata. A destra, riportiamo la distribuzione dei nodi di Chebyshev-Gauss-Lobatto nell’intervallo [−1, 1]

3.3 Interpolazione n En

5 0.6386

10 0.1322

20 0.0177

87

40 0.0003

Tabella 3.3. L’errore di interpolazione per la funzione di Runge f (x) = 1/(1+ x2 ) qualora si utilizzino i nodi di Chebyshev-Gauss-Lobatto (3.10)

Esempio 3.4 Riprendiamo la funzione di Runge ed interpoliamola nei nodi di Chebyshev-Gauss-Lobatto. Per generarli possiamo usare i seguenti comandi xc = - cos ( pi *[0: n ]/ n ); x = ( a + b )*0.5+( b - a )* xc *0.5; dove n+1 `e il numero di nodi, mentre a e b sono gli estremi dell’intervallo di interpolazione (nel nostro caso porremo a=-5 e b=5). Quindi, il polinomio interpolatore si generer` a con le seguenti istruzioni f = ’ 1./(1+ x .^2) ’; y = eval ( f ); c = polyfit (x ,y , n ); Valutiamo a questo punto il valore assoluto delle differenze fra f ed il suo polinomio interpolatore rispetto ai nodi di Chebyshev in 1000 punti equispaziati nell’intervallo [−5, 5] e prendiamone il massimo x = linspace ( -5 ,5 ,1000); p = polyval (c , x ); fx = eval ( f ); err = max ( abs (p - fx )); Come si vede in Tabella 3.3, il massimo dell’errore descresce quando n cresce. 

` interessante osservare che, qualora si considerino i nodi di ChebyshevE Gauss-Lobatto (3.10), la costante di Lebesgue si pu`o maggiorare come segue ([Hes98])   8 π 2 log n + γ + log + Λn (x) < , (3.12) π π 72 n2 mentre qualora si considerino i nodi di Chebyshev-Gauss (3.11) si ha   8 π 2 log(n + 1) + γ + log + Λn (x) < (3.13) π π 72(n + 1)2 dove γ ≃ 0.57721 denota sempre la costante di Eulero. Confrontando le maggiorazioni (3.12) e (3.13) con la stima (3.9) valida per nodi equispaziati, possiamo dedurre che l’interpolazione su nodi di Chebyshev `e molto meno sensibile alla propagazione degli errori di arrotondamento di quanto non lo sia l’interpolazione su nodi equispaziati. Esempio 3.5 Riprendiamo i dati dell’esempio 3.3 operando stavolta l’interpolazione sui nodi di Chebyshev (3.10) e (3.11). Partendo dalle stesse perturbazioni sui dati utilizzate per l’esempio 3.3 (inferiori a 9.5 · 10−4 ), con n = 21 otteniamo max |Πn f (x) − Πn f˜(x)| ≃ 1.0977 · 10−3 per i nodi (3.10) e x∈I

max |Πn f (x) − Πn f˜(x)| ≃ 1.1052 · 10−3 per i nodi (3.11). Questo `e in accordo x∈I

con le stime (3.12) e (3.13) le quali, per n = 21, fornirebbero rispettivamente Λn (x)  2.9008 e Λn (x)  2.9304. 

88

3 Approssimazione di funzioni e di dati

3.3.4 Interpolazione trigonometrica e FFT Vogliamo approssimare una funzione f : [0, 2π] → C periodica, cio`e tale che f (0) = f (2π), con un polimomio trigonometrico f˜ che la interpoli negli n + 1 nodi equispaziati xj = 2πj/(n + 1), j = 0, . . . , n, ovvero tale che f˜(xj ) = f (xj ), per j = 0, . . . , n.

(3.14)

L’interpolatore trigonometrico f˜ si ottiene attraverso una combinazione lineare di seni e coseni. Consideriamo dapprima il caso in cui n `e pari. In particolare cerchiamo M

a0 + f˜(x) = [ak cos(kx) + bk sin(kx)] , 2

(3.15)

k=1

con ak e bk ∈ C incogniti e M = n/2. Utilizzando la formula di Eulero o essere eikx = cos(kx) + i sin(kx), il polinomio trigonometrico (3.15) pu` riscritto come f˜(x) =

M

ck eikx ,

(3.16)

k=−M

dove i `e l’unit` a immaginaria e i coefficienti ck , per k = 0, ..., M , sono legati ai coefficienti ak e bk dalle relazioni ak = ck + c−k ,

bk = i(ck − c−k ).

(3.17)

Infatti, grazie alle propriet` a di simmetria delle funzioni seno e coseno, si ha: M

ck eikx =

k=−M

= c0 + = c0 +

M

ck (cos(kx) + i sin(kx))

k=−M M

k=1 M

[ck (cos(kx) + i sin(kx)) + c−k (cos(kx) − i sin(kx))] [(ck + c−k ) cos(kx) + i(ck − c−k ) sin(kx))] .

k=1

Nel caso in cui n sia dispari, il polinomio trigonometrico f˜ pu` o essere definito come f˜(x) =

M+1

k=−(M+1)

ck eikx ,

(3.18)

3.3 Interpolazione

89

con M = (n−1)/2. Si osservi che i coefficienti incogniti in (3.18) sono n+ 2, mentre le condizioni di interpolazione (3.14) sono n + 1. Il problema di determinare il polinomio interpolatore f˜ diventa ben posto solo dopo aver ridotto a n+1 il numero delle incognite. Una possibile scelta, che coincide con quanto fa MATLAB nella function interpft, consiste nell’imporre che c−(M+1) = c(M+1) . Anche per n dispari possiamo scrivere f˜ come somma di seni e coseni, ottenendo una formula analoga a (3.15) in cui l’indice k della sommatoria va ora da 1 a M + 1. I coefficienti ck di (3.18) sono legati ai coefficienti ak e bk ancora mediante le formule (3.17), questa volta per k = 0, . . . , M +1. In particolare per k = M + 1 otteniamo a(M+1) = 2c(M+1) e b(M+1) = 0. Introducendo il parametro µ = 0, se n `e pari, o µ = 1, se n `e dispari, possiamo riscrivere il polinomio interpolatore pi` u genericamente come ˜ f(x) =

M+µ

ck eikx .

(3.19)

k=−(M+µ)

Per la sua analogia con lo sviluppo in serie di Fourier, f˜ `e detta anche serie discreta di Fourier di f . Imponendo le condizioni di interpolazione nei nodi xj = jh, con h = 2π/(n + 1), troviamo che M+µ

ck eikjh = f (xj ),

j = 0, . . . , n.

(3.20)

k=−(M+µ)

Per il calcolo dei coefficienti {ck } moltiplichiamo ambo i membri della (3.20) per e−imxj = e−imjh con m intero fra 0 e n, e sommiamo poi su j n

M+µ

ck eikjh e−imjh =

j=0 k=−(M+µ)

n

f (xj )e−imjh .

j=0

Consideriamo ora l’identit` a n

eijh(k−m) = (n + 1)δkm .

j=0

Essa `e ovvia se k = m. Quando k = m, abbiamo n j=0

eijh(k−m) =

1 − (ei(k−m)h )n+1 , 1 − ei(k−m)h

ma il numeratore a destra `e nullo in quanto 1 − ei(k−m)h(n+1) = 1 − ei(k−m)2π = 1 − cos((k − m)2π) − i sin((k − m)2π).

(3.21)

90

3 Approssimazione di funzioni e di dati

Di conseguenza, dalla (3.21) ricaviamo un’espressione esplicita dei coefficienti di f˜

ck =

fft ifft

n 1 f (xj )e−ikjh , n + 1 j=0

k = −(M + µ), . . . , M + µ

(3.22)

Dalla (3.22) deduciamo che, qualora f sia una funzione a valori reali, si ha c−k = ck , per k = −(M +µ), . . . , M +µ (ci` o `e conseguenza del fatto che eikjh = e−ikjh ) ovvero ak ∈ R e bk = 0 · i (per k = 0, . . . , M + µ) e quindi f˜ `e una funzione reale. Il calcolo di tutti i coefficienti {ck } pu` o essere effettuato con un costo computazionale dell’ordine di n log2 n operazioni se si ricorre alla trasformata rapida di Fourier (FFT), implementata in MATLAB nel programma fft (si veda l’Esempio 3.6). Un costo analogo ha la trasformata inversa attraverso la quale si trovano i valori {f (xj )} a partire dai coefficienti {ck }. Essa `e implementata nella sua versione rapida nel programma ifft. Esempio 3.6 Consideriamo la funzione f (x) = x(x − 2π)e−x per x ∈ [0, 2π]. Per usare il comando MATLAB fft, campioniamo la funzione nei nodi xj = jπ/5 per j = 0, . . . , 9. Con i seguenti comandi (ricordiamo che .* `e il prodotto fra vettori, componente per componente) n =9; x =2* pi /( n +1)*[0: n ]; y = x .*( x -2* pi ).* exp ( - x ); A questo punto, calcoliamo il vettore dei coefficienti di Fourier con la FFT tramite i comandi Y = fft ( y ); C = fftshift ( Y )/( n +1) C = Columns 1 through 2 0.0870 0.0926 - 0.0214i Columns 3 through 4 0.1098 - 0.0601i 0.1268 - 0.1621i Columns 5 through 6 -0.0467 - 0.4200i -0.6520 Columns 7 through 8 -0.0467 + 0.4200i 0.1268 + 0.1621i Columns 9 through 10 0.1098 + 0.0601i 0.0926 + 0.0214i

fftshift

Le componenti del vettore Y sono legate ai coefficienti ck definiti in (3.22) mediante la seguente relazione: Y= (n + 1)[c0 , . . . , cM , c−(M +µ) , . . . , c−1 ] e, nel caso in cui n sia dispari, il coefficiente c(M +1) (che, ricordiamo, coincide con c−(M +1) ) non viene riportato tra le componenti del vettore Y. Il comando fftshift riordina le componenti del vettore in input, cosicch´e C= [c−(M +µ) , . . . , c−1 , c0 , . . . , cM ].

3.3 Interpolazione

91

0.5

0

−0.5

−1

−1.5

−2

−2.5 0

1

2

3

4

5

6

−x

Figura 3.9. La funzione f (x) = x(x − 2π)e (in linea tratteggiata) ed il corrispondente interpolatore trigonometrico (in linea continua) calcolato con MATLAB relativo a 10 nodi equispaziati Si noti che il programma ifft, seppur utilizzabile per ogni valore di n, raggiunge tuttavia il massimo dell’efficienza computazionale quando n `e una potenza di 2. 

Il comando interpft calcola l’interpolatore trigonometrico di un insieme di dati reali. Richiede come parametri d’ingresso un intero m ed un vettore le cui componenti sono i valori assunti da una funzione (periodica di periodo p) nei punti xj = jp/(n + 1), j = 0, . . . , n. Il programma interpft restituisce gli m valori reali dell’interpolatore trigonometrico, ottenuto con la trasformata di Fourier, nei nodi ti = ip/m, i = 0, . . . , m−1. Ad esempio, riconsideriamo la funzione dell’Esempio 3.6 in [0, 2π] e valutiamola in 10 nodi equispaziati xj = jπ/5, j = 0, . . . , 9. I valori dell’interpolatore trigonometrico, ad esempio nei 100 nodi equispaziati ti = 2iπ/100, i = 0, . . . , 99, si possono ottenere nel modo seguente (si veda la Figura 3.9) n =9; x =2* pi /( n +1)*[0: n ]; y = x .*( x -2* pi ).* exp ( - x ); z = interpft (y ,100);

L’accuratezza dell’interpolazione trigonometrica pu`o in certe situazioni subire un forte degrado come mostrato nell’esempio seguente. Esempio 3.7 Approssimiamo la funzione f (x) = f1 (x) + f2 (x) dove f1 (x) = sin(x) e f2 (x) = sin(5x), usando 9 nodi equispaziati nell’intervallo [0, 2π]. Il risultato ottenuto con MATLAB viene riportato in Figura 3.10 a sinistra. Si noti che in certi intervalli l’approssimante trigonometrica presenta un’inversione di fase rispetto a f . 

Questa comportamento pu`o essere spiegato osservando che nei nodi considerati, la funzione f2 `e indistinguibile dalla funzione f3 (x) = − sin(3x) che ha una frequenza pi` u bassa (si veda la Figura 3.10 a destra). La funzione che viene approssimata `e quindi F (x) = f1 (x) + f3 (x)

interpft

92

3 Approssimazione di funzioni e di dati 2 2

1.5

1.5

1 1

0.5

0.5 0

0

−0.5

−0.5

−1

−1 −1.5

−1.5 −2 0

−2

1

2

3

4

5

6

1

2

3

4

5

6

Figura 3.10. Gli effetti dell’aliasing. A sinistra, confronto tra la funzione f (x) = sin(x) + sin(5x) (in linea continua) ed il suo interpolatore trigonometrico (3.19) con M = 3 (linea tratteggiata). A destra, le funzioni sin(5x) (in linea tratteggiata) e − sin(3x) (in linea continua) assumono gli stessi valori nei nodi di interpolazione. Questo spiega la forte perdita di accuratezza mostrata nella figura di sinistra

e non f (x) (in effetti, il grafico in tratteggio della Figura 3.10 a sinistra `e quello di F ). Questo fenomeno prende il nome di aliasing e si pu` o manifestare ogni volta che in una stessa funzione coesistono componenti con frequenza diversa: finch´e il numero di nodi non `e sufficientemente alto per risolvere le frequenze pi` u elevate, queste ultime potranno interferire con le frequenze pi` u basse, dando origine ad approssimazioni inaccurate. Solo aumentando il numero di nodi sar` a possibile approssimare correttamente le funzioni di frequenza pi` u elevata. Un esempio concreto di aliasing `e dato dall’apparente inversione del senso di rotazione di ruote munite di raggi: raggiunta una certa velocit` a critica, il nostro cervello non `e pi` u in grado di campionare in modo sufficientemente accurato l’immagine in movimento e, di conseguenza, produce immagini distorte.

Riassumendo 1. Approssimare un insieme di dati o una funzione f in [a, b] significa trovare un’opportuna funzione f˜ sufficientemente rappresentativa; 2. il processo di interpolazione consiste nel trovare una funzione f˜ tale che f˜(xi ) = yi , dove {xi } sono nodi assegnati e {yi } possono essere o i valori {f (xi )} o un insieme di valori assegnati; 3. se gli n+1 nodi {xi } sono distinti, allora esiste un unico polinomio di grado minore o uguale a n che interpola un insieme di valori assegnati {yi } nei nodi {xi }; 4. per una distribuzione di nodi equispaziati in [a, b] l’errore di interpolazione in un generico punto di [a, b] non tende necessariamente a 0

3.4 Interpolazione lineare composita

93

quando n tende all’infinito. Tuttavia, esistono delle speciali distribuzioni di nodi, come ad esempio quelle di Chebyshev, per le quali la convergenza a zero dell’errore di interpolazione `e garantita per tutte le funzioni continue e derivabili; 5. l’interpolazione trigonometrica `e una forma di interpolazione ideale per funzioni periodiche nella quale si sceglie f˜ come una combinazione lineare di seni e coseni. La FFT `e un algoritmo particolarmente efficiente per il calcolo dei coefficienti di Fourier dell’interpolatore trigonometrico a partire dai suoi valori nodali. Esso ammette un algoritmo inverso ugualmente efficiente, la IFFT.

3.4 Interpolazione lineare composita Se f `e una funzione di cui si conosce l’espressione analitica, l’interpolazione rispetto ai nodi di Chebyshev fornisce uno strumento di approssimazione ampiamente soddisfacente. In tutti quei casi, invece, in cui f sia nota solo attraverso i suoi valori in un insieme assegnato di punti (che potrebbero non coincidere con i nodi di Chebyshev) o f `e poco regolare, si pu` o ricorrere ad un metodo di interpolazione differente, detto interpolazione composita lineare. Precisamente, data una distribuzione di nodi x0 < x1 < . . . < xn , non necessariamente equispaziati, indichiamo con Ii l’intervallo [xi , xi+1 ]. Approssimiamo f con una funzione globalmente continua che, su ciascun intervallo, `e data dal segmento congiungente i punti (xi , f (xi )) e (xi+1 , f (xi+1 )) (si veda la Figura 3.11). Tale funzione, denotata con Π1H f , `e detta polinomio interpolatore composito lineare di f ed assume la seguente espressione Π1H f (x) = f (xi ) +

f (xi+1 ) − f (xi ) (x − xi ) xi+1 − xi

per x ∈ Ii .

L’indice H rappresenta la massima lunghezza degli intervalli Ii . Il seguente risultato pu` o essere dedotto dalla (3.7) ponendo n = 1 e h = H: Proposizione 3.3 Se f ∈ C 2 (I), dove I = [x0 , xn ], allora max|f (x) − Π1H f (x)| ≤ x∈I

H2 max|f ′′ (x)|. 8 x∈I

Di conseguenza, per ogni x nell’intervallo di interpolazione, Π1H f (x) tende a f (x) quando H → 0, purch´e f sia sufficientemente regolare.

94

3 Approssimazione di funzioni e di dati 80 70 60 50 40 30 20 10 0 −2

0

2

4

6

8

Figura 3.11. La funzione f (x) = x2 + 10/(sin(x) + 1.2) (in linea continua) ed il suo interpolatore lineare composito Π1H f (in linea tratteggiata)

interp1

interp1q

Tramite il comando s1=interp1(x,y,z) si possono calcolare i valori in un insieme arbitrario di punti, memorizzati nel vettore z, assunti dall’interpolatore lineare composito che interpola i valori y(i) nei nodi x(i), per i = 1,...,n+1, osservando che z pu` o assumere dimensione arbitraria. Quando i nodi di interpolazione sono dati in ordine crescente (i.e. x(i+1) > x(i), per i=1,...,n) allora si pu` o usare la versione computazionalmente pi` u economica interp1q (in inglese q sta per quickly). La function interp1q `e pi` u veloce di interp1 qualora i nodi x(i) non siano equispaziati in quanto non esegue controllo sui dati in input. Facciamo notare che il comando fplot, che viene utilizzato per disegnare il grafico di una funzione f su un dato intervallo [a, b], di fatto disegna il grafico dell’interpolatore lineare composito di f . L’insieme dei nodi di interpolazione viene generato automaticamente dalla function, seguendo il criterio di infittire i nodi laddove f varia pi` u rapidamente. Una procedura di questo tipo `e detta adattiva. Octave 3.2 interp1q non `e disponibile in Octave.



3.5 Approssimazione con funzioni spline Naturalmente si pu` o definire anche un’interpolazione composita di grado ≥ 1, ad esempio quadratica (che indicheremo con Π2H f ) ossia una funzione continua che, ristretta ad ogni intervallo Ii sia un polinomio di grado 2. Se f ∈ C 3 (I), l’errore f − Π2H f valutato nella norma del massimo decresce ora come H 3 quando H tende a zero. Tuttavia la principale controindicazione dell’interpolazione composita (lineare o di grado k ≥ 1) `e che la funzione ΠkH f `e solo globalmente continua. D’altra parte, in molte applicazioni, come ad esempio in computer graphics, `e

3.5 Approssimazione con funzioni spline

95

necessario utilizzare funzioni approssimanti che siano almeno derivabili con continuit` a. A questo scopo, costruiamo una funzione s3 che abbia le seguenti caratteristiche: 1. su ogni intervallo Ii = [xi , xi+1 ], per i = 0, . . . , n − 1, s3 deve essere un polinomio di grado 3 che interpola le coppie di valori (xj , f (xj )) per j = i, i + 1 (in particolare s3 sar` a continua su tutto l’intervallo); 2. s3 deve avere derivata prima e seconda continua in ogni punto xi , i = 1, . . . , n − 1. Per la sua completa determinazione `e necessario assegnare 4 condizioni su ciascun intervallo e, conseguentemente, 4n equazioni in tutto che possiamo cos`ı individuare: -

n + 1 condizioni dovute alla richiesta che s3 interpoli i dati nei nodi xi , i = 0, . . . , n; n − 1 condizioni discendono dalla richiesta che s3 sia continua nei nodi interni x1 , . . . , xn−1 ; 2(n − 1) equazioni addizionali sono ottenute imponendo anche la continuit` a della derivata prima e della derivata seconda nei nodi interni.

Restano ancora da individuare 2 equazioni che possono ad esempio essere date da s′′3 (x0 ) = 0,

s′′3 (xn ) = 0.

(3.23)

La funzione s3 cos`ı caratterizzata `e detta spline cubica interpolatoria naturale. Scegliendo opportunamente le incognite per rappresentare s3 (si veda [QSS08, paragrafo 7.6]), si pu` o determinare s3 risolvendo un sistema lineare quadrato di dimensione (n + 1) con matrice tridiagonale e le cui incognite sono i valori s′′ (xi ), per i = 0, . . . , n. Tale soluzione pu` o essere ottenuta con un numero di operazioni proporzionale alla dimensione del sistema stesso (come vedremo nel paragrafo 5.6) attraverso il Programma 3.1 i cui parametri d’ingresso obbligatori sono i vettori x e y dei dati da interpolare ed il vettore zi delle ascisse nelle quali si vuole che venga valutata s3 . La scelta (3.23) non `e l’unica possibile per completare il sistema di equazioni. Un’alternativa a (3.23) consiste nel richiedere che la derivata prima sia assegnata in x0 ed in xn . Se non viene precisato alcun altro parametro d’ingresso il Programma 3.1 calcola la spline cubica interpolatoria naturale. I parametri opzionali type e der (un vettore di due componenti) servono per selezionare altri tipi di spline. Precisamente, se type=0 viene calcolata la spline cubica interpolatoria con derivata prima assegnata agli estremi e pari a der(1)

96

spline

mkpp ppval

3 Approssimazione di funzioni e di dati

in x0 e a der(2) in xn . Se type=1 viene invece calcolata la spline cubica interpolatoria con derivata seconda assegnata agli estremi e pari a der(1) in x0 e a der(2) in xn . Diversamente, nel comando MATLAB spline (si veda anche il toolbox splines) si impone che la derivata terza di s3 sia continua nei nodi x1 e xn−1 ; a questa condizione viene attribuito il curioso nome di not-aknot condition. I parametri di ingresso del comando spline sono i vettori x e y dei dati da interpolare ed il vettore zi delle ascisse nelle quali si vuole che venga valutata s3 . I comandi mkpp e ppval servono per costruire e valutare efficientemente in MATLAB un polinomio composito. Programma 3.1. cubicspline: spline cubica interpolante function s = cubicspline (x ,y , zi , type , der ) % CUBICSPLINE calcola una spline cubica % S = CUBICSPLINE (X ,Y , XI ) calcola le valutazioni % nei nodi ZI della spline cubica naturale che % interpola i valori Y relativi ai nodi X . % S = CUBICSPLINE (X ,Y , ZI , TYPE , DER ) se TYPE =0 % calcola le valutazioni nei nodi ZI della % spline cubica interpolante i valori Y con % derivata prima assegnata agli estremi ( DER (1) % e DER (2)). Se TYPE =1 i valori DER (1) e DER (2) % si riferiscono ai valori della derivata seconda . [n , m ]= size ( x ); if n == 1 x = x ’; y = y ’; n = m; end if nargin == 3 der0 = 0; dern = 0; type = 1; else der0 = der (1); dern = der (2); end h = x (2: end ) - x (1: end -1); e = 2*[ h (1); h (1: end -1)+ h (2: end ); h ( end )]; A = spdiags ([[ h ; 0] e [0; h ]] , -1:1 , n , n ); d = ( y (2: end ) - y (1: end -1))./ h ; rhs = 3*( d (2: end ) - d (1: end -1)); if type == 0 A (1 ,1) = 2* h (1); A (1 ,2) = h (1); A (n , n ) = 2* h ( end ); A ( end , end -1) = h ( end ); rhs = [3*( d (1) - der0 ); rhs ; 3*( dern - d ( end ))]; else A (1 ,:) = 0; A (1 ,1) = 1; A (n ,:) = 0; A (n , n ) = 1; rhs = [ der0 ; rhs ; dern ]; end S = zeros (n ,4); S (: ,3) = A \ rhs ; for m = 1: n -1 S (m ,4) = ( S ( m +1 ,3) - S (m ,3))/3/ h ( m ); S (m ,2) = d ( m ) - h ( m )/3*( S ( m + 1 ,3)+2* S (m ,3)); S (m ,1) = y ( m ); end S = S (1: n -1 , 4: -1:1); pp = mkpp (x , S ); s = ppval ( pp , zi ); return

3.5 Approssimazione con funzioni spline

97

−2.7 −2.8 −2.9 −3 −3.1 −3.2 −3.3 −3.4 −3.5 −60

−40

−20

0

20

40

60

Figura 3.12. Confronto fra la spline cubica ed il polinomio interpolatore di Lagrange per il caso discusso nell’Esempio 3.8

Esempio 3.8 Riprendiamo i dati della Tabella 3.1, della colonna corrispondente a K = 0.67 e calcoliamo su di essi la spline cubica interpolatoria s3 . Se siamo interessati a valutare s3 (zi ), dove zi = −55 + i, i = 0, . . . , 120, possiamo procedere nel modo seguente x = [ -55:10:65]; y = [ -3.25 -3.37 -3.35 -3.2 -3.12 -3.02 -3.02 ... -3.07 -3.17 -3.32 -3.3 -3.22 -3.1]; zi = [ -55:1:65]; s = spline (x ,y , zi ); u plausibile di quello generato Il grafico di s3 , riportato in Figura 3.12, appare pi` dall’interpolatore di Lagrange negli stessi nodi.  Esempio 3.9 (Robotica) Troviamo una rappresentazione parametrica della funzione che descrive la traiettoria del robot del Problema 3.4 nel piano xy. Dobbiamo determinare due funzioni x = x(t) e y = y(t) con t ∈ (0, 5) che rispettino i vincoli imposti. Risolviamo il problema dividendo l’intervallo temporale nei due sottointervalli [0, 2] e [2, 5]. Cerchiamo in ciascun intervallo due spline cubiche x = x(t) e y = y(t) interpolanti i valori dati, che presentino derivata prima nulla agli estremi per garantire che la velocit`a del robot sia nulla in tali posizioni. Usando il Programma 3.1, per ottenere il risultato desiderato basta scrivere le seguenti istruzioni x1 = [0 1 4]; y1 = [0 2 4]; t1 = [0 1 2]; ti1 = [0:0.01:2]; x2 = [0 3 4]; y2 = [0 1 4]; t2 = [0 2 3]; ti2 = [0:0.01:3]; d =[0 ,0]; six1 = cubicspline ( t1 , x1 , ti1 ,0 , d ); siy1 = cubicspline ( t1 , y1 , ti1 ,0 , d ); six2 = cubicspline ( t2 , x2 , ti2 ,0 , d ); siy2 = cubicspline ( t2 , y2 , ti2 ,0 , d ); La traiettoria ottenuta `e stata riportata in Figura 3.13.



L’errore che si commette approssimando una funzione f (derivabile con continuit` a fino al quart’ordine) con la spline cubica interpolatoria naturale s3 soddisfa le seguenti disuguaglianze ([dB01])

98

3 Approssimazione di funzioni e di dati 4 3.5 3 2.5 2 1.5 1 0.5 0 −0.5

0

0.5

1

1.5

2

2.5

3

3.5

4

Figura 3.13. La traiettoria nel piano xy del robot descritto nel Problema 3.4. I pallini rappresentano le posizioni dei punti attraverso cui deve transitare il robot durante il suo movimento (r)

max|f (r) (x) − s3 (x)| ≤ Cr H 4−r max|f (4) (x)|, r = 0, 1, 2 x∈I

x∈I

e max

x∈I\{x0 ,...,xn }

(3)

|f (3) (x) − s3 (x)| ≤ C3 Hmax|f (4) (x)|, x∈I

dove I = [x0 , xn ] e H = maxi=0,...,n−1 (xi+1 − xi ), mentre Cr (per r = ` 0, . . . , 3) `e una opportuna costante che dipende da r, ma non da H. E dunque evidente che non solo f , ma anche le sue derivate, prima, seconda e terza, vengono bene approssimate dalla funzione s3 quando H tende a 0.

pchip

Osservazione 3.1 Le spline cubiche in generale non preservano eventuali propriet` a di monotonia di f tra nodi adiacenti. Ad esempio, se si approssimasse l’arco di circonferenza unitaria del primo quadrante usando le coppie di punti (xk = sin(kπ/6), yk = cos(kπ/6)), per k = 0, . . . , 3, otterremmo la spline oscillante di Figura 3.14. In casi come questo conviene utilizzare altre tecniche di approssimazione. Ad esempio, il comando MATLAB pchip genera un interpolatore cubico composito (detto di Hermite, si veda ad esempio [Atk89]) che, oltre alla funzione f , interpola anche la sua derivata prima nei nodi {xi , i = 1, . . . , n − 1} e, soprattutto, garantisce la monotonia locale dell’interpolatore stesso (si veda la Figura 3.14). Tale interpolatore si ricava attraverso i seguenti comandi: t = linspace (0 , pi /2 ,4) x = sin ( t ); y = cos ( t ); xx = linspace (0 ,1 ,40);  plot (x ,y , ’o ’ ,xx ,[ pchip (x ,y , xx ); spline (x ,y , xx )])

Si vedano gli Esercizi 3.5-3.8.

3.6 Il metodo dei minimi quadrati

99

1

0.8

0.6

0.4

0.2

0 0

0.2

0.4

0.6

0.8

1

Figura 3.14. Approssimazione del primo quarto di circonferenza del cerchio unitario usando solo 4 nodi. La linea tratteggiata `e il grafico della spline cubica interpolante, mentre la linea continua `e il corrispondente interpolatore cubico composito di Hermite

3.6 Il metodo dei minimi quadrati Abbiamo gi` a notato che al crescere del grado del polinomio l’interpolazione polinomiale di Lagrange non garantisce una maggiore accuratezza nell’approssimazione di una funzione. Questo problema pu` o essere superato con l’interpolazione polinomiale composita (come ad esempio quella lineare a pezzi o con funzioni spline). Essa tuttavia mal si presta ad essere utilizzata per estrapolare informazioni da dati noti, cio`e per generare nuove valutazioni in punti che giacciono al di fuori dell’intervallo di interpolazione. Esempio 3.10 (Finanza) Dai dati riportati sinteticamente in Figura 3.1, siamo interessati a capire se il prezzo dell’azione tender`a a salire o scendere nei giorni immediatamente successivi all’ultima seduta di borsa. L’interpolazione polinomiale di Lagrange non `e utilizzabile in pratica in quanto richiederebbe un polinomio (tremendamente oscillante) di grado 719 che conduce a predizioni fasulle. D’altra parte, l’interpolatore polinomiale composito di grado 1, il cui grafico `e riportato in Figura 3.1, calcola un valore estrapolato sfruttando esclusivamente gli ultimi due valori disponibili, trascurando di conseguenza tutta la storia passata. Per ottenere il risultato cercato, rinunciamo al requisito alla base della interpolazione, procedendo come indicato nel seguito. 

Supponiamo di disporre di un insieme di dati {(xi , yi ), i = 0, . . . , n}, dove gli yi potrebbero eventualmente essere i valori f (xi ) che una funzione assume nei nodi xi . Dato m ≥ 1 (in genere, m sar` a decisamente minore di n), cerchiamo un polinomio f˜∈ Pm che soddisfi la seguente disuguaglianza n i=0

[yi − f˜(xi )]2 ≤

n i=0

[yi − pm (xi )]2

(3.24)

100

3 Approssimazione di funzioni e di dati

per ogni polinomio pm ∈ Pm . Quando esiste, diremo che f˜ `e l’approssimazione nel senso dei minimi quadrati di grado m (ovvero in Pm ) dei dati {(xi , yi ), i = 0, . . . , n}. Se m < n non sar` a ora pi` u possibile garantire che f˜(xi ) = yi per i = 0, . . . , n. Ponendo f˜(x) = a0 + a1 x + . . . + am xm ,

(3.25)

dove i coefficienti a0 , . . . , am sono incogniti, il problema (3.24) si pu` o riformulare come segue: determinare a0 , a1 , . . . , am tali che Φ(a0 , a1 , . . . , am ) =

min

Φ(b0 , b1 , . . . , bm )

{bi , i=0,...,m}

dove Φ(b0 , b1 , . . . , bm ) =

n i=0

2

[yi − (b0 + b1 xi + . . . + bm xm i )] .

Risolviamo questo problema quando m = 1. Essendo Φ(b0 , b1 ) =

n  i=0

 yi2 + b20 + b21 x2i + 2b0 b1 xi − 2b0 yi − 2b1 xi yi ,

il grafico della funzione Φ `e un paraboloide convesso il cui punto di minimo (a0 , a1 ) si trova imponendo le condizioni ∂Φ (a0 , a1 ) = 0, ∂b0

∂Φ (a0 , a1 ) = 0, ∂b1

dove il simbolo ∂Φ/∂bj denota la derivata parziale di Φ rispetto a bj (si veda la definizione (8.3)). Calcolando esplicitamente le due derivate parziali troviamo le seguenti 2 equazioni nelle 2 incognite a0 ed a1 n i=0

n

[a0 + a1 xi − yi ] = 0,

i=0

[a0 xi + a1 x2i − xi yi ] = 0,

ovvero a0 (n + 1) + a1 a0

n

xi +

i=0

Ponendo D = (n + 1)

n i=0

n

xi =

i=0 n a1 x2i i=0

x2i − (

n i=0

=

n

yi ,

i=0 n

yi xi .

i=0

xi )2 , la soluzione `e

(3.26)

3.6 Il metodo dei minimi quadrati

101

⎤ ⎡ n n n n 1 ⎣ 2 yi x − xi yi ⎦ , xj a0 = D i=0 j=0 j j=0 i=0 ⎤ ⎡ n n n 1 ⎣ yi ⎦ . xj a1 = (n + 1) xi yi − D i=0 j=0 i=0

Il corrispondente polinomio f˜(x) = a0 + a1 x `e noto come retta dei minimi quadrati, o retta di regressione. L’approccio precedente pu`o essere generalizzato in vari modi. La prima generalizzazione `e al caso in cui m sia un intero arbitrario. Il sistema lineare quadrato di dimensione m + 1 cui si perviene, che `e simmetrico, avr` a la forma seguente a0 (n + 1) +a1 a0

n

xi

+a1

i=0

a0

.. . n i=0

n

i=0 n

xi x2i

+ . . . + am + . . . + am

i=0

xm +a1 i

.. . n i=0

n

i=0 n i=0

xm+1 + . . . + am i

.. . n i=0

xm i

=

xm+1 = i .. . x2m = i

n

i=0 n

yi , xi yi ,

i=0

n

xm i yi .

i=0

Quando m = n, il polinomio dei minimi quadrati f˜ coincide con quello prodotto dall’interpolazione polinomiale di Lagrange, Πn f (si veda l’Esercizio 3.9). Il comando MATLAB c=polyfit(x,y,m) calcola di default i coefficienti del polinomio di grado m che approssima le n+1 coppie di dati (x(i),y(i)) nel senso dei minimi quadrati. Come gi` a notato in precedenza, quando m `e uguale a n esso calcola il polinomio interpolatore. Esempio 3.11 (Finanza) In Figura 3.15 a sinistra vengono riportati i grafici dei polinomi di grado 1, 2 e 4 che approssimano i dati di Figura 3.1 nel senso dei minimi quadrati. Il polinomio di grado 4 ben rappresenta l’andamento del prezzo dell’azione nel periodo di tempo considerato e suggerisce, in risposta al quesito del Problema 3.2, che, in un prossimo futuro, il valore di questo titolo possa risalire.  Esempio 3.12 (Biomeccanica) Usando il metodo dei minimi quadrati possiamo dare una risposta alla domanda del Problema 3.3 e scoprire che la linea che meglio approssima i dati dell’esperimento ha equazione ǫ(σ) = 0.3471σ + 0.0654 (si veda la Figura 3.15 a destra). Di conseguenza, si trova una stima di 0.2915 per la deformazione ǫ corrispondente a σ = 0.9. 

Un’ulteriore generalizzazione dell’approssimazione nel senso dei minimi quadrati consiste nell’usare funzioni di tipo non polinomiale nella

102

3 Approssimazione di funzioni e di dati 15

0.5 0.4

10

0.3

ε

0.2 0.1

5

0 −0.1

0 nov00

mag01

nov01

mag02

0

0.1

0.2

0.3

0.4

σ0.5

0.6

0.7

0.8

Figura 3.15. A sinistra, approssimazioni nel senso dei minimi quadrati dei dati del Problema 3.2: con polinomi di grado 1 (linea tratto-punto), di grado 2 (linea tratteggiata) e di grado 4 (linea continua spessa). I dati esatti del problema sono rappresentati in linea sottile. A destra, l’approssimazione ai minimi quadrati con polinomi di grado 1 per i dati del Problema 3.3

(3.24). Precisamente, nel problema di minimizzazione (3.24) sia f˜ che pn sono funzioni di uno spazio Vn i cui elementi si ottengono combinando linearmente m + 1 funzioni indipendenti {ψj , j = 0, . . . , m}. Esempi sono dati dalle funzioni goniometriche ψj (x) = cos(γjx) (per un dato parametro γ = 0), da quelle esponenziali ψj = eδjx (per un opportuno δ > 0) o da un opportuno insieme di funzioni spline. La scelta del miglior insieme di funzioni {ψj } `e guidata generalmente da una qualche congettura sulla natura della legge che si cela dietro l’insieme dei dati che si vuole approssimare. Ad esempio, in Figura 3.16 abbiamo riportato il grafico dell’approssimazione nel senso dei minimi quadrati dei dati dell’Esempio 3.1 calcolata usando le funzioni goniometriche ψj (x) = cos(γjx), j = 0, . . . , 4, con γ = π/60. Lasciamo al lettore di verificare che i coefficienti incogniti aj che compaiono nell’espressione di f˜, f˜(x) =

m

aj ψj (x),

j=0

sono le soluzioni del seguente sistema (di equazioni normali) BT Ba = BT y

(3.27)

dove B `e una matrice rettangolare (n + 1) × (m + 1) di coefficienti bij = ψj (xi ), a `e il vettore di coefficienti incogniti, mentre y `e il vettore dei dati. Il sistema (3.27) `e un sistema di equazioni lineari che pu`o essere risolto in maniera efficiente mediante la fattorizzazione QR o, in alternativa,

3.7 Cosa non vi abbiamo detto

103

−3

−3.05

−3.1

−3.15

−3.2

−3.25

−3.3

−3.35

−3.4 −60

−40

−20

0

20

40

60

80

Figura 3.16. L’approssimazione nel senso dei minimi quadrati dei dati dell’Esempio 3.1 usando una base di coseni. I valori esatti sono rappresentati dai cerchietti

attraverso una decomposizione in valori singolari della matrice B (si veda la Sezione 5.7).

Riassumendo 1. L’interpolatore lineare composito di una funzione f `e una funzione continua e lineare a pezzi f˜, che interpola f in un dato insieme di punti {xi }. In questo modo non si incorre nei fenomeni oscillatori del tipo di Runge quando il numero di punti cresce. Esso `e alla base dell’approssimazione di problemi differenziali con il metodo degli elementi finiti (si veda il Capitolo 8); 2. l’interpolazione tramite funzioni spline cubiche consente di ottenere una funzione f˜ interpolatrice che sia un polinomio di grado 3 a tratti, continuo e con derivate prima e seconda continue; 3. nell’approssimazione nel senso dei minimi quadrati si cerca un polinomio f˜ di grado m (solitamente m ≪ n) tale da minimizzare n 2 ˜ la somma degli scarti quadratici i=0 [yi − f (xi )] . Lo stesso criterio di minimo si pu` o applicare ad una classe di funzioni f˜ non necessariamente di tipo polinomiale. Si vedano gli Esercizi 3.9-3.14.

3.7 Cosa non vi abbiamo detto Per una presentazione pi` u generale della teoria dell’interpolazione e dell’approssimazione rimandiamo ad esempio a [Dav63], [Mei67] e [Gau97]. L’interpolazione polinomiale pu` o essere estesa per approssimare funzioni o dati in pi` u dimensioni. In particolare, l’interpolazione composita

104

interp2 interp3

3 Approssimazione di funzioni e di dati

lineare o con funzioni spline si presta bene a questo compito a patto di sostituire la decomposizione dell’intervallo I in sotto-intervalli con una decomposizione della corrispondente regione bidimensionale Ω in poligoni (triangoli o quadrilateri) o tridimensionale in poliedri (tetraedri o prismi). Una situazione particolarmente semplice `e quella in cui Ω sia di forma rettangolare o parallelepipeda. In tal caso in MATLAB si possono usare i comandi interp2, se Ω `e un rettangolo e interp3, se Ω `e un parallelepipedo. Entrambi questi comandi suppongono che la funzione che si vuole interpolare su una griglia regolare (ottenuta cio`e come prodotto cartesiano di griglie monodimensionali) sia nota su un’altra griglia, anch’essa regolare, in generale di passo pi` u grande. Ad esempio, supponiamo di voler interpolare con una spline cubica i valori di f (x, y) = sin(2πx) cos(2πy), noti su una griglia di 6 × 6 nodi con ascisse ed ordinate equispaziate sul quadrato [0, 1]2 e generati con i seguenti comandi [x , y ]= meshgrid (0:0.2:1 ,0:0.2:1); z = sin (2* pi * x ).* cos (2* pi * y );

La spline cubica interpolatoria, valutata su una griglia pi` u fitta di 441 nodi (21 equispaziati in entrambe le direzioni), si ricava con il comando interp2 nel modo seguente xi = [0:0.05:1]; yi =[0:0.05:1]; [ xf , yf ]= meshgrid ( xi , yi ); pi3 = interp2 (x ,y ,z , xf , yf );

meshgrid

griddata

pdetool

spdemos rpmak rsmak

Il comando meshgrid trasforma l’insieme di tutti i punti della forma (xi(k),yi(j)) nelle due matrici xf e yf che possono essere utilizzate per valutare funzioni di due variabili e per effettuare grafici di superfici tridimensionali in MATLAB. Le righe della matrice xf sono copie del vettore xi, mentre le colonne della matrice yf sono copie del vettore yi. Alternativamente si pu` o usare la funzione griddata, disponibile anche per dati tridimensionali (griddata3) o per approssimazione di superfici n-dimensionali (griddatan). Facciamo osservare che i comandi descritti di seguito sono disponibili solo in MATLAB. Se Ω `e una regione bidimensionale di forma generica, se ne pu`o ottenere una decomposizione in triangoli utilizzando l’interfaccia grafica pdetool. Per una presentazione generale delle funzioni spline si veda, ad esempio, [Die93] e [PBP02]. Il toolbox MATLAB splines consente inoltre di esplorare svariate applicazioni delle funzioni spline. In particolare, con a delle principali il comando spdemos vengono esemplificate le propriet` famiglie di funzioni spline. Tramite i comandi rpmak e rsmak si possono inoltre richiamare funzioni spline razionali che sono cio`e date dal quoziente di due spline. Un esempio notevole di spline razionali `e dato dalle cosiddette NURBS, comunemente impiegate nel CAGD (Computer Assisted Geometric Design).

3.8 Esercizi

105

Nel medesimo contesto dell’approssimazione di Fourier, segnaliamo le approssimazioni basate sull’uso di ondine (o wavelet ), ampiamente usate nel campo della ricostruzione e della compressione delle immagini e nell’analisi di segnali (per una introduzione si vedano ad esempio [DL92], [Urb02]). Una vasta raccolta di wavelet (ed esempi di loro applicazioni) si trova nel toolbox MATLAB wavelet.

3.8 Esercizi Esercizio 3.1 Si ricavi la disuguaglianza (3.6). Esercizio 3.2 Si maggiori l’errore di interpolazione di Lagrange per le seguenti funzioni: f1 (x) = cosh(x), f2 (x) = sinh(x), xk = −1 + 0.5k, k = 0, . . . , 4, xk = −π/2 + πk/4, k = 0, . . . , 4. f3 (x) = cos(x) + sin(x), Esercizio 3.3 I dati della tabella che segue sono relativi alle aspettative di vita (in anni) per i cittadini di 2 regioni europee: Europa occidentale Europa orientale

1975 72.8 70.2

1980 74.2 70.2

1985 75.2 70.3

1990 76.4 71.2

Si usi il polinomio di grado 3 che interpola questi dati per stimare le aspettative di vita nel 1970, 1983 e 1988. Si estrapoli quindi un valore per l’anno 1995. Sapendo che nel 1970 l’attesa di vita per gli abitanti dell’Europa occidentale era di 71.8 anni e di 69.6 anni per quelli dell’Europa orientale, `e possibile stimare la bont` a della predizione precedentemente effettuata per il 1995? Esercizio 3.4 Il prezzo in euro di una rivista ha avuto il seguente andamento: N ov.87 Dic.88 N ov.90 Gen.93 Gen.95 Gen.96 N ov.96 N ov.00 4.5 5.0 6.0 6.5 7.0 7.5 8.0 8.0 Si stimi il prezzo a novembre del 2001 estrapolando questi dati. Esercizio 3.5 Si ripetano i calcoli effettuati nell’Esercizio 3.3 usando la spline cubica interpolatoria generata con il comando spline. Si confrontino i risultati con quelli ottenuti dallo svolgimento dell’Esercizio 3.3. Esercizio 3.6 Nella tabella seguente sono riportate alcune misure della densit` a ρ dell’acqua di mare (in Kg/m3 ) in funzione della temperatura T (in gradi Celsius) T ρ

4o 1000.7794

8o 1000.6427

12o 1000.2805

16o 999.7165

20o 998.9700

wavelet

106

3 Approssimazione di funzioni e di dati

Si calcoli la spline cubica s3 sull’intervallo di temperatura [4, 20] suddiviso in 4 sottointervalli di uguale ampiezza. Si confronti il risultato ottenuto con i dati seguenti (che corrispondono ad ulteriori misurazioni di T ): T ρ

6o 1000.74088

10o 1000.4882

14o 1000.0224

18o 999.3650

Esercizio 3.7 La produzione italiana di agrumi ha subito le seguenti variazioni: anno produzione (×105 Kg)

1965 17769

1970 24001

1980 25961

1985 34336

1990 29036

1991 33417

Si usino spline cubiche interpolatorie di varia natura per stimare la produzione nel 1962, nel 1977 e nel 1992 e la si confronti con la produzione reale che `e stata, rispettivamente, pari a 12380, 27403 e 32059 migliaia di quintali. Si confrontino i risultati ottenuti con le spline con ci` o che si otterrebbe usando il polinomio di interpolazione di Lagrange. Esercizio 3.8 Si valuti la funzione f (x) = sin(2πx) in 21 nodi equispaziati nell’intervallo [−1, 1]. Si calcolino il polinomio interpolatore di Lagrange e la spline cubica interpolatoria e si confrontino i grafici di tali curve con quello di f sull’intervallo dato. Si ripetano i calcoli usando il seguente insieme di dati perturbati {f (xi ) + (−1)i+1 10−4 } e si osservi che il polinomio interpolatore di Lagrange `e pi` u sensibile alle piccole perturbazioni di quanto non lo sia la spline cubica. Esercizio 3.9 Si verifichi che se m = n e se yi = f (xi ) (per una opportuna funzione f ) allora il polinomio dei minimi quadrati approssimante f nei nodi x0 , . . . , xn coincide con Πn f interpolante f negli stessi nodi. Esercizio 3.10 Si calcoli il polinomio di grado 4 che approssima nel senso dei minimi quadrati i valori di K riportati nelle colonne della Tabella 3.1. Esercizio 3.11 Si ripetano i calcoli eseguiti nell’Esercizio 3.7 usando il polinomio dei minimi quadrati di grado 3. Esercizio 3.12 SiPesprimano i coefficienti del sistemaP (3.26) in funzione della n n 2 1 1 media M = (n+1) i=0 xi e della varianza v = (n+1) i=0 (xi − M ) relative all’insieme di dati {xi , i = 0, . . . , n}. Esercizio 3.13 Si verifichi che la retta di regressione passa per il punto la cui ascissa `e la media dei valori {xi } e la cui ordinata `e la media dei valori {yi }. Esercizio 3.14 I valori seguenti portata 0

35

0.125

5

0

5

1

0.5

0.125

0

rappresentano le misure della portata del sangue in una sezione della carotide durante un battito cardiaco. La frequenza di acquisizione dei dati `e costante e pari a 10/T , dove T = 1 s `e il periodo del battito. Si descrivano questi dati con una funzione continua di periodo T .

.*6*2=.&=.32* *) .28*,6&=.32* 291*6.(&

+M PTDRSN B@OHSNKN OQNONMH@LN LDSNCH ODQ K @OOQNRRHL@YHNMD MTLDQHB@ CH CDQHU@SD DC HMSDFQ@KH CH ETMYHNMH 2DQ PT@MSN QHFT@QC@ K HMSDFQ@YHNMD MNM RDLOQD RH QHDRBD @ SQNU@QD HM ENQL@ DROKHBHS@ K@ OQHLHSHU@ CH TM@ ETMYHNMD #MBGD MDK B@RN HM BTH K@ RH BNMNRB@ ONSQDAAD DRRDQD BNLOKHB@SN U@KTS@QK@ #C DRDLOHN MDK B@RN HM BTH ? Q ! BNR Q BNR  RHM Q RH G@ +

? Q =Q ! 

4 ) 

"!.   D D   .=0

0

BNLD RH UDCD HK OQNAKDL@ CDK B@KBNKN CH TM HMSDFQ@KD RH D SQ@RENQL@SN HM PTDKKN @KSQDSS@MSN OQNAKDL@SHBN CDKK@ RNLL@ CH TM@ RDQHD 6@KUNKS@ HMNKSQD K@ ETMYHNMD BGD RH UTNKD HMSDFQ@QD N CDQHU@QD ONSQDAAD DRRDQD MN S@ RNKN ODQ OTMSH Q@OOQDRDMS@MSH @C DRDLOHN HK QHRTKS@SN CH TM@ LHRTQ@ RODQHLDMS@KD DR@SS@LDMSD BNLD @UUHDMD MDK B@RN CDKK @OOQNRRHL@YHNMD CH ETMYHNMH CHRBTRR@ MDK %@OHSNKN  +M STSSD PTDRSD RHST@YHNMH D CTMPTD MDBDRR@QHN @OOQNMS@QD LDSNCH MT LDQHBH HM FQ@CN CH QDRSHSTHQD TM U@KNQD @OOQNRRHL@SN CDKK@ PT@MSHS@ CH HMSDQDRRD HMCHODMCDMSDLDMSD C@ PT@MSN BNLOKDRR@ RH@ K@ ETMYHNMD C@ HMSDFQ@QD N C@ CHDQDMYH@QD

 0(92. 463'0*1. #;8+5.6*  -;*>52,* #C HMSDQU@KKH CH  RDBNMCH D RS@S@ LHRTQ@S@ HM LDSQH K@ PTNS@ J M Q@FFHTMS@ C@ TM THCN @KK HMSDQMN CH TM BHKHMCQN QDSSN CH Q@FFHN 4 !  L BGD OQDRDMS@ RTK ENMCN TM ENQN BHQBNK@QD CH Q@FFHN K ! L NSSDMDMCN H RDFTDMSH U@KNQH M  J M 

 

 

 

 

Quarteroni, A., Saleri, F.: Calcolo Scientifico. © Springer-Verlag Italia, Milano, 2008

108

4 Differenziazione ed integrazione numerica

Si vuole fornire una stima della velocit` a di svuotamento q ′ (t) del cilindro, da confrontare con quella attesa dalla legge di Torricelli: q ′ (t) =  2 −γ(r/R) 2gq(t), dove g `e il modulo dell’accelerazione di gravit` a e γ = 0.6 `e un fattore correttivo che tiene conto della cosiddetta strozzatura di vena, cio`e del fatto che il flusso dell’acqua che fuoriesce dall’apertura ha una sezione che `e minore di quella dell’apertura stessa. Per la risoluzione di questo problema si veda l’Esempio 4.1.  Problema 4.2 (Ottica) Per il progetto di una camera a raggi infrarossi si `e interessati a calcolare l’energia emessa da un corpo nero (cio`e un oggetto capace di irradiare in tutto lo spettro alla temperatura ambiente) nello spettro (infrarosso) compreso tra le lunghezze d’onda 3µm e 14µm. La risoluzione di questo problema si ottiene calcolando il seguente integrale E(T ) = 2.39 · 10−11

14·10  −4

dx

x5 (e1.432/(T x)

− 1)

,

(4.1)

3·10−4

che `e l’equazione di Planck per l’energia E(T ), dove x `e la lunghezza d’onda (in cm) e T la temperatura (in gradi Kelvin) del corpo nero. Per il calcolo dell’integrale che compare nella (4.1) si veda l’Esercizio 4.17.  Problema 4.3 (Elettromagnetismo) Consideriamo una sfera conduttrice di raggio indefinito r e di conducibilit` a σ assegnata. Si vuol determinare l’andamento della densit` a di corrente j in funzione di r e di t (il tempo), conoscendo la distribuzione iniziale della densit` a di corrente ρ(r). Il problema si risolve utilizzando le relazioni che legano la densit` a di corrente, il campo elettrico e la densit`a di carica ed osservando che, per la simmetria del problema, j(r, t) = j(r, t)r/|r|, dove j = |j|. Si trova j(r, t) = γ(r)e

−σt/ε0

σ , γ(r) = ε0 r 2

r

ρ(ξ)ξ 2 dξ,

(4.2)

0

dove ε0 = 8.859 · 10−12 farad/m `e la costante dielettrica del vuoto. Per il calcolo di questo integrale si veda l’Esercizio 4.16.



Problema 4.4 (Demografia) Consideriamo una popolazione formata da un numero M grande di individui. La distribuzione n(s) della loro altezza pu`o essere rappresentata da una funzione a campana caratterizzata ¯ dell’altezza e da una deviazione standard σ, dal valor medio h n(s) =

2 M ¯ 2 √ e−(s−h) /(2σ ) . σ 2π

4.2 Approssimazione delle derivate

109

800 700

n(s)

600 500 400 300 200 100 0 1

1.5

1.8 1.9 2

2.5

s Figura 4.1. Distribuzione dell’altezza per una popolazione formata da M = 200 individui

Allora N[h,h+∆h] =

h+∆h 

n(s) ds

(4.3)

h

rappresenta il numero di individui la cui altezza `e compresa fra h e h+∆h (per un ∆h > 0). Riportiamo in Figura 4.1 un esempio che corrisponde ¯ = 1.7 m, σ = 0.1 m. L’area ad aver preso M = 200 individui con h della regione ombreggiata fornisce il numero di individui la cui altezza `e compresa fra 1.8 e 1.9 m. 

4.2 Approssimazione delle derivate Consideriamo una funzione f : [a, b] → R che sia derivabile con continuit` a in [a, b]. Vogliamo approssimarne la derivata prima in un generico punto x ¯ di (a, b). Grazie alla definizione (1.10), si pu` o ritenere che, per h sufficientemente piccolo e positivo, la quantit` a (δ+ f )(¯ x) =

f (¯ x + h) − f (¯ x) h

(4.4)

che viene detta differenza finita in avanti, rappresenti una approssimazione di f ′ (¯ x). Per quantificare l’errore commesso, se f ∈ C 2 (a, b), `e sufficiente sviluppare f in serie di Taylor, ottenendo x) + f (¯ x + h) = f (¯ x) + hf ′ (¯

h2 ′′ f (ξ), 2

(4.5)

110

4 Differenziazione ed integrazione numerica m2

m1

f

m3

x ¯−h

x ¯

x ¯+h

Figura 4.2. Approssimazione alle differenze finite di f ′ (¯ x): all’indietro (linea continua), in avanti (linea punteggiata) e centrata (linea tratteggiata). m1 = (δ− f )(x), m2 = (δ+ f )(x) e m3 = (δf )(x) sono le pendenze delle rette indicate

dove ξ `e un punto opportuno in (¯ x, x ¯ + h). Pertanto (δ+ f )(¯ x) = f ′ (¯ x) +

h ′′ f (ξ), 2

(4.6)

e quindi, (δ+ f )(¯ x) approssima f ′ (¯ x) a meno di un errore che tende a 0 come h (cio`e l’approssimante `e accurato al prim’ordine). Supponenedo ancora f ∈ C 2 (a, b), in maniera del tutto analoga, dal seguente sviluppo x) + f (¯ x − h) = f (¯ x) − hf ′ (¯

h2 ′′ f (η) 2

(4.7)

con η ∈ (¯ x−h, x ¯), possiamo ottenere la seguente formula, detta differenza finita all’indietro (δ− f )(¯ x) =

f (¯ x) − f (¯ x − h) h

(4.8)

sempre accurata di ordine 1. Si noti che le formule (4.4) e (4.8) si possono anche ottenere derivando il polinomio interpolatore lineare di f , calcolato sui nodi {¯ x, x ¯ + h} o {¯ x − h, x ¯}, rispettivamente. In effetti, le formule introdotte approssimano f ′ (¯ x) con il coefficiente angolare della retta che passa per i punti (¯ x, f (¯ x)) e (¯ x + h, f (¯ x + h)), o (¯ x − h, f (¯ x − h)) e (¯ x, f (¯ x)), rispettivamente (si veda la Figura 4.2). Introduciamo infine la formula della differenza finita centrata (δf )(¯ x) =

f (¯ x + h) − f (¯ x − h) 2h

(4.9)

x) rispetto a h se f ∈ che `e un’approssimazione del second’ordine di f ′ (¯ C 3 (a, b). Infatti, sviluppando f (¯ x + h) e f (¯ x − h) in serie di Taylor fino

4.2 Approssimazione delle derivate

111

all’ordine 3 in un intorno di x¯ e sommando le due espressioni trovate, abbiamo f ′ (¯ x) − (δf )(¯ x) = −

h2 ′′′ [f (ξ) + f ′′′ (η)], 12

(4.10)

dove η e ξ sono punti opportuni negli intervalli (¯ x − h, x ¯) e (¯ x, x ¯ + h), rispettivamente (si veda l’Esercizio 4.2). Quando si usa la (4.9), di fatto f ′ (¯ x) viene approssimata dal coefficiente angolare della retta passante per i punti (¯ x − h, f (¯ x − h)) e (¯ x + h, f (¯ x + h)). Esempio 4.1 (Idraulica) Risolviamo il Problema 4.1, utilizzando le formule (4.4), (4.8) e (4.9) con h = 5 per approssimare q ′ (t) in 5 punti diversi. Otteniamo t q ′ (t) δ+ q δ− q δq

0 −0.0212 −0.0203 −− −−

5 −0.0194 −0.0185 −0.0203 −0.0194

10 −0.0176 −0.0168 −0.0185 −0.0176

15 −0.0159 −0.0150 −0.0168 −0.0159

20 −0.0141 −− −0.0150 −−

Come si vede l’accordo fra la derivata esatta e quella calcolata con le formule alle differenze finite con h = 5 `e pi` u soddisfacente quando si usi la (4.9) rispetto alle (4.8) o (4.4). 

In generale possiamo supporre che siano disponibili le valutazioni di una certa funzione f in n + 1 punti equispaziati xi = x0 + ih, per i = 0, . . . , n con h > 0. Quando si vuole approssimare f ′ (xi ), la si pu` o sostituire con una qualunque delle formule (4.4), (4.8) o (4.9) in corrispondenza di x ¯ = xi . Va osservato che la formula centrata (4.9) `e applicabile nei soli punti x1 , . . . , xn−1 e non nei punti estremi x0 e xn . In questi ultimi punti si possono usare le formule modificate 1 [−3f (x0 ) + 4f (x1 ) − f (x2 )] in x0 , 2h 1 [3f (xn ) − 4f (xn−1 ) + f (xn−2 )] in xn , 2h

(4.11)

ancora del second’ordine rispetto a h. Esse sono state ottenute calcolando nel punto x0 (rispettivamente, xn ) la derivata prima del polinomio interpolatore di f di grado 2 relativo ai nodi x0 , x1 , x2 (rispettivamente, xn−2 , xn−1 , xn ). Si vedano gli Esercizi 4.1-4.4.

112

4 Differenziazione ed integrazione numerica

4.3 Integrazione numerica In questo paragrafo introduciamo metodi numerici adatti per approssimare l’integrale I(f ) =

b

f (x) dx,

a

essendo f un’arbitraria funzione continua in [a, b]. Ricaveremo prima alcune semplici formule, per poi osservare che esse sono parte della pi` u ampia famiglia delle cosiddette formule di Newton-Cotes. Successivamente introdurremo le cosiddette formule Gaussiane che garantiscono il massimo grado di esattezza per un dato numero di valutazioni della funzione f . 4.3.1 La formula del punto medio Una semplice procedura per approssimare I(f ) consiste nel suddividere l’intervallo [a, b] in sottointervalli Ik = [xk−1 , xk ], k = 1, . . . , M , con xk = a + kH, k = 0, . . . , M , H = (b − a)/M . Poich´e I(f ) =

M 

f (x) dx,

(4.12)

k=1I k

su ogni sotto-intervallo Ik si sostituisce l’integrale di f con l’integrale di un polinomio f˜ che approssimi f su Ik . La soluzione pi` u semplice consiste nello scegliere f˜ come il polinomio costante che interpola f nel punto medio dell’intervallo Ik x ¯k =

xk−1 + xk . 2

In tal modo si ottiene la formula di quadratura composita del punto medio

c Ipm (f ) = H

M

f (¯ xk )

(4.13)

k=1

Il pedice pm sta per punto medio, mentre l’apice c sta per composita. Essa `e accurata al second’ordine rispetto a H, pi` u precisamente se f `e derivabile con continuit` a in [a, b] fino al second’ordine, si ha c I(f ) − Ipm (f ) =

b − a 2 ′′ H f (ξ), 24

(4.14)

4.3 Integrazione numerica f

f

x

x x ¯1

113

x ¯k

x ¯M

a

(a + b)/2

b

Figura 4.3. Formule del punto medio composito (a sinistra) e del punto medio (a destra)

dove ξ `e un opportuno punto in [a, b] (si veda l’Esercizio 4.6). La formula (4.13) `e anche nota come formula di quadratura composita del rettangolo per la sua interpretazione geometrica, che `e evidente in Figura 4.3. La formula del punto medio classica (nota anche come formula del rettangolo) si ottiene prendendo M = 1 nella (4.13), ovvero usando la formula del punto medio direttamente sull’intervallo (a, b) Ipm (f ) = (b − a)f [(a + b)/2]

(4.15)

L’errore ora `e dato da I(f ) − Ipm (f ) =

(b − a)3 ′′ f (ξ), 24

(4.16)

dove ξ `e un opportuno punto in [a, b]. La (4.16) segue come caso particolare della (4.14), ma pu` o anche essere dimostrata direttamente osservando che, posto x ¯ = (a + b)/2, si ha I(f ) − Ipm (f ) =

b

[f (x) − f (¯ x)] dx

b

1 f (¯ x)(x − x¯) dx + 2

a

=

a



b

f ′′ (η(x))(x − x ¯)2 dx,

a

essendo η(x) un punto opportuno compreso fra x e x ¯. La (4.16) segue in !b quanto a (x − x ¯) dx = 0 e poich´e, per il teorema della media integrale, ∃ξ ∈ [a, b] tale che 1 2

b a

b 1 ′′ (b − a)3 ′′ f (ξ). f (η(x))(x − x ¯) dx = f (ξ) (x − x ¯)2 dx = 2 24 ′′

2

a

Il grado di esattezza di una formula di quadratura `e il pi` u grande intero r ≥ 0 per il quale l’integrale approssimato (prodotto dalla formula

114

4 Differenziazione ed integrazione numerica

di quadratura) di un qualsiasi polinomio di grado r `e uguale all’integrale esatto. Come si deduce dalle (4.14) e (4.16), le formule del punto medio hanno grado di esattezza 1 in quanto integrano esattamente tutti i polinomi di grado minore od uguale a 1 (ma non tutti quelli di grado 2). La formula composita del punto medio `e stata implementata nel Programma 4.1. I parametri d’ingresso sono gli estremi dell’intervallo di integrazione a e b, il numero di sottointervalli M e la function f che contiene l’espressione della funzione integranda f . Programma 4.1. midpointc: formula composita del punto medio function Imp = midpointc (a ,b ,M ,f , varargin ) % MIDPOINTC Formula composita del punto medio . % IMP = MIDPOINTC (A ,B ,M , FUN ) calcola una % approssimazi on e dell ’ integrale della funzione % tramite la formula composita del punto medio % ( su M intervalli equispaziati ). FUN e ’ una % function che riceve in ingresso un vettore x % e restituisce un vettore reale . FUN puo ’ % essere una inline function , una anonymous % function o una function definita in un M - file . % IMP = MIDPOINT (A ,B ,M , FUN , P1 , P2 ,...) passa alla % function FUN i parametri opzionali % P1 , P2 ,... come FUN (X , P1 , P2 ,...). H =( b - a )/ M ; x = linspace ( a + H /2 , b - H /2 , M ); fmp = feval (f ,x , varargin {:}).* ones (1 , M ); Imp = H * sum ( fmp ); return

Si vedano gli Esercizi 4.5-4.8. 4.3.2 La formula del trapezio Si pu` o ottenere un’altra formula di quadratura sostituendo f su ogni Ik con il suo interpolatore lineare nei nodi xk−1 e xk (equivalentemente, sostituendo f in [a, b] con l’interpolatore lineare composito Π1H f , si veda il paragrafo 3.4). Si perviene alla formula seguente, detta formula del trapezio composita M

Itc (f ) =

H [f (xk−1 ) + f (xk )] 2 k=1

M−1

H f (xk ) = [f (a) + f (b)] + H 2

(4.17)

k=1

Essa `e accurata al second’ordine rispetto a H, pi` u precisamente I(f ) − Itc (f ) = −

b − a 2 ′′ H f (ξ) 12

(4.18)

4.3 Integrazione numerica f

x0 = a

xk

115

f

x xM = b

x0 = a

x x1 = b

Figura 4.4. Formule del trapezio composita (a sinistra) e del trapezio (a destra)

per un opportuno ξ ∈ [a, b], purch´e f ∈ C 2 ([a, b]). Utilizzando (4.17) con M = 1, si trova la formula It (f ) =

b−a [f (a) + f (b)] 2

(4.19)

detta formula del trapezio per via della sua interpretazione geometrica (si veda la Figura 4.4). L’errore che si commette vale I(f ) − It (f ) = −

(b − a)3 ′′ f (ξ), 12

(4.20)

con ξ opportuno in [a, b]. Si deduce che (4.19) ha grado di esattezza uguale ad 1, come la formula del punto medio. La formula composita del trapezio (4.17) `e implementata nei programmi MATLAB trapz e cumtrapz. In particolare, se indichiamo con x il vettore con componenti gli xk e con y il vettore delle f (xk ), z=cumtrapz(x,y) restituisce un vettore z che ha come componenti i va!x lori zk = a k f (x) dx, approssimati con la formula composita del trapezio. Di conseguenza, z(M+1) contiene un’approssimazione dell’integrale di f su (a, b). Si vedano gli Esercizi 4.9-4.11. 4.3.3 La formula di Simpson La formula di Simpson si ottiene sostituendo su ogni Ik l’integrale di f con quello del polinomio interpolatore di grado 2 di f relativo ai nodi xk−1 , x ¯k = (xk−1 + xk )/2 e xk 2(x − x ¯k )(x − xk ) f (xk−1 ) H2 2(x − x ¯k )(x − xk−1 ) 4(xk−1 − x)(x − xk ) f (¯ xk ) + f (xk ). + H2 H2

Π2 f (x) =

trapz cumtrapz

116

4 Differenziazione ed integrazione numerica

La formula risultante `e nota come la formula di quadratura composita di Simpson, ed `e data da M

Isc (f ) =

H [f (xk−1 ) + 4f (¯ xk ) + f (xk )] 6

(4.21)

k=1

Si pu` o dimostrare che essa introduce un errore pari a I(f ) − Isc (f ) = −

b − a H 4 (4) f (ξ), 180 16

(4.22)

dove ξ `e un punto opportuno in [a, b], purch´e f ∈ C 4 ([a, b]). Si tratta quindi di una formula accurata di ordine 4 rispetto a H. Quando (4.21) viene applicata ad un solo intervallo (a, b), otteniamo la formula di quadratura di Simpson Is (f ) =

b−a [f (a) + 4f ((a + b)/2) + f (b)] 6

(4.23)

L’errore ora vale I(f ) − Is (f ) = −

1 (b − a)5 (4) f (ξ), 16 180

(4.24)

per un opportuno ξ ∈ [a, b]. Il grado di esattezza `e quindi uguale a 3. La formula composita di Simpson `e implementata nel Programma 4.2. Programma 4.2. simpsonc: formula composita di Simpson function [ Isic ]= simpsonc (a ,b ,M ,f , varargin ) % SIMPSONC Formula composita di Simpson % ISIC = SIMPSONC (A ,B ,M , FUN ) calcola una % approssimazi on e dell ’ integrale della funzione % FUN tramite la formula composita di Simpson % ( su M intervalli equispaziati ). FUN e ’ una % function che riceve in ingresso un vettore reale x % e restituisce un vettore reale . % FUN puo ’ essere una inline function , una anonymous % function o una function definita in un M - file . % ISIC = SIMPSONC (A ,B ,M , FUN , P1 , P2 ,...) passa alla % function FUN i parametri opzionali P1 , P2 ,... % come FUN (X , P1 , P2 ,...). H =( b - a )/ M ; x = linspace (a ,b , M +1); fpm = feval (f ,x , varargin {:}).* ones (1 , M +1); fpm (2: end -1) = 2* fpm (2: end -1); Isic = H * sum ( fpm )/6; x = linspace ( a + H /2 , b - H /2 , M ); fpm = feval (f ,x , varargin {:}).* ones (1 , M ); Isic = Isic +2* H * sum ( fpm )/3; return

4.4 Formule di quadratura interpolatorie

117

0

10

−2

10

−4

10

−6

10

−8

10

−10

10

−12

10

−3

10

−2

10

−1

10

0

10

Figura 4.5. Rappresentazione in scala logaritmica degli errori (rispetto a H) per le formule composite di Simpson (linea piena con cerchietti), del punto medio (linea piena) e del trapezio (linea tratteggiata)

Esempio 4.2 (Demografia) Consideriamo il Problema 4.4. Per determinare il numero di individui la cui altezza `e compresa fra 1.8 e 1.9 m, dobbiamo calcolare l’integrale (4.3) per h = 1.8 e ∆h = 0.1. Usiamo la formula composita di Simpson con 100 sotto-intervalli: N = inline ([ ’M /( sigma * sqrt (2* pi ))* exp ( -( h - hbar ).^2 ’ ... ’ ./(2* sigma ^2)) ’] , ’h ’ , ’M ’ , ’ hbar ’ , ’ sigma ’) M = 200; hbar = 1.7; sigma = 0.1; int = simpsonc (1.8 , 1.9 , 100 , N , M , hbar , sigma ) int = 27.1810 Si stima quindi che il numero di individui con altezza nell’intervallo indicato `e 27.1810, corrispondente al 15.39 % della popolazione.  Esempio dell’integrale I(f ) = R 2π −x 4.3 Vogliamo confrontare le2πapprossimazioni 2π xe cos(2x) dx = −(10π − 3 + 3e )/(25e ) ≃ −0.122122604618968 ot0 tenute usando le formule composite del punto medio, del trapezio e di Simpson. In Figura 4.5 riportiamo in scala logaritmica l’andamento degli errori in funzione di H. Come osservato nel paragrafo 1.6, in questo tipo di grafici a rette di pendenza maggiore corrispondono metodi di ordine pi` u elevato. Come previsto dalla teoria le formule composite del punto medio e del trapezio sono accurate di ordine 2, mentre quella di Simpson `e di ordine 4. 

4.4 Formule di quadratura interpolatorie Le formule di quadratura come la (4.15), la (4.19) o la (4.23) corrispondenti ad un solo intervallo, ovvero alla scelta M = 1 , si dicono semplici (o non composite). Esse rappresentano casi particolari della seguente formula generale

118

4 Differenziazione ed integrazione numerica

Iappr (f ) =

n

αj f (yj )

(4.25)

j=0

I numeri reali {αj } sono detti pesi, mentre i punti {yj } sono detti nodi. In generale, si richiede che la formula (4.25) integri esattamente almeno n le funzioni costanti: questa propriet` a `e garantita se j=0 αj = b − a. Avremo invece sicuramente un grado di esattezza (almeno) pari a n se Iappr (f ) =

b

Πn f (x)dx,

a

dove Πn f ∈ Pn `e il polinomio interpolatore di Lagrange di una funzione f nei nodi yi , i = 0, . . . , n, dato nella (3.4). I pesi avranno di conseguenza la seguente espressione αi =

b

ϕi (x)dx,

i = 0, . . . , n,

a

dove ϕi ∈ Pn `e l’i-esimo polinomio caratteristico di Lagrange definito nella (3.3), tale che ϕi (yj ) = δij , per i, j = 0, . . . , n. Esempio 4.4 Per la formula del trapezio (4.19) abbiamo n = 1, y0 = a, y1 = b e α0 =

Zb

α1 =

Zb

ϕ0 (x)dx =

Zb

b−a x−b dx = , a−b 2

ϕ1 (x)dx =

Zb

b−a x−a dx = . b−a 2

a

a

a

a



La domanda che ci poniamo ora `e se sia possibile determinare una formula di quadratura interpolatoria che, grazie ad una opportuna scelta dei nodi, abbia un grado di esattezza maggiore di n, precisamente pari a r = n + m per un opportuno m > 0. Per semplicit` a restringiamo la nostra discussione all’intervallo di riferimento [−1, 1]. Una volta determinato un insieme di nodi di quadratura {¯ yj } (e, conseguentemente di pesi {α ¯ j }) sull’intervallo [−1, 1], utilizzando il cambio di variabile (3.10) troveremo immediatamente i corrispondenti nodi e pesi su un intervallo [a, b] generico, yj =

a+b b−a + y¯j , 2 2

αj =

b−a α ¯j . 2

4.4 Formule di quadratura interpolatorie

119

La risposta al nostro quesito `e contenuta nel risultato che segue (per la cui dimostrazione rimandiamo a [QSS07, Capitolo 10]): Proposizione 4.1 Per un dato m > 0, la formula di quadratura n ¯ j f (¯ yj ) ha grado di esattezza n + m se e soltanto se `e di j=0 α n tipo interpolatorio e se il polinomio nodale ωn+1 (x) = Πi=0 (x − y¯i ) associato ai nodi {¯ yi } `e tale che 1

ωn+1 (x)p(x)dx = 0,

−1

∀p ∈ Pm−1 .

(4.26)

Si pu` o dimostrare che il valore massimo che m pu` o assumere `e n+ 1 e viene raggiunto quando ωn+1 `e proporzionale al cosiddetto polinomio di Legendre di grado n+1, Ln+1 (x). I polinomi di Legendre sono calcolabili ricorsivamente tramite la seguente relazione a tre termini L0 (x) = 1,

L1 (x) = x, k 2k + 1 Lk+1 (x) = xLk (x) − Lk−1 (x), k+1 k+1

k = 1, 2, . . . ,

Si pu` o dimostrare che un qualsiasi polinomio pn ∈ Pn pu` o essere scritto come una combinazione lineare dei polinomi di Legendre L0 , L1 , . . . , Ln Si pu` o inoltre verificare che Ln+1 `e ortogonale a tutti i polinomi di Legen!1 dre di grado minore od uguale a n nel senso che −1 Ln+1 (x)Lj (x) dx = 0 per j = 0, . . . , n e, di conseguenza, la (4.26) risulta verificata. Il massimo grado di esattezza conseguibile `e quindi pari a 2n + 1, e si ottiene con la cosiddetta formula di Gauss-Legendre (in breve IGL ) i cui nodi e pesi sono: ⎧ y¯ = zeri di Ln+1 (x), ⎪ ⎨ j (4.27) 2 ⎪ , j = 0, . . . , n. ¯j = ⎩α (1 − y¯j2 )[L′n+1 (¯ yj )]2

I pesi α ¯ j sono tutti positivi ed i nodi sono tutti interni all’intervallo (−1, 1). In Tabella 4.1 riportiamo i nodi ed i pesi delle formule di quadratura di Gauss-Legendre per n = 1, 2, 3, 4. Se f ∈ C (2n+2) ([−1, 1]), l’errore corrispondente `e dato da I(f ) − IGL (f ) =

22n+3 ((n + 1)!)4 f (2n+2) (ξ), (2n + 3)((2n + 2)!)3

dove ξ `e un opportuno punto in (−1, 1). Spesso `e utile includere tra i nodi di quadratura i punti estremi dell’intervallo di integrazione. In tal caso, la formula con il massimo grado di esattezza (pari a 2n − 1) `e quella che usa i cosiddetti nodi di

120

4 Differenziazione ed integrazione numerica n 1 2 3

4

{¯ yj } √ ¯1 ˘ ±1/ 3 1 ˘ √ ¯1 0 1 n± 15/5,p √ ±(1/35) 525 − 70 30, p √ o1 ±(1/35) 525 + 70 30 n p √ 11 0, ±(1/21) 245 − 14 70 p √ o1 1 ±(1/21) 245 + 14 70 1

{α ¯j } {1} {5/9, 8/9} √ ˘ 1 (1/36)(18 + 30), 1 √ ¯ (1/36)(18 − 30) √ ˘ 128/225, (1/900)(322 + 13 70) √ ¯ (1/900)(322 − 13 70)

Tabella 4.1. Nodi e pesi di alcune formule di quadratura di Gauss-Legendre interni all’intervallo [−1, 1]. I pesi corrispondenti a coppie di nodi simmetrici rispetto allo 0 vengono riportati una volta sola

Gauss-Legendre-Lobatto (in breve GLL): per n ≥ 1 ⎧ ′ ⎪ ⎨ y 0 = −1, yn = 1, y j = zeri di Ln (x), j = 1, . . . , n − 1, 2 1 ⎪ ⎩ αj = , j = 0, . . . , n. n(n + 1) [Ln (¯ yj )]2

(4.28)

Se f ∈ C (2n) ([−1, 1]), l’errore corrispondente `e pari a I(f ) − IGLL (f ) = −

quadl

(n + 1)n3 22n+1 ((n − 1)!)4 (2n) f (ξ), (2n + 1)((2n)!)3

per un opportuno ξ ∈ (−1, 1). In Tabella 4.2 riportiamo i valori dei nodi e dei pesi delle formule di Gauss-Legendre-Lobatto sull’intervallo di riferimento [−1, 1] per n = 1, 2, 3, 4 (per n = 1 si trova la formula del trapezio). Usando il comando MATLAB quadl(fun,a,b) `e possibile approssimare un integrale con una formula di quadratura composita di GaussLegendre-Lobatto. La funzione da integrare deve essere precisata in input in una function (che pu` o essere anche una inline function). Ad esempio, per integrare f (x) = 1/x in [1, 2], definiamo prima la seguente function fun=inline(’1./x’,’x’); per poi eseguire quadl(fun,1,2). Si noti che nella definizione di fun abbiamo fatto uso di un’operazione elemento per elemento: in effetti MATLAB valuter` a questa espressione componente per componente sul vettore dei nodi di quadratura. Come si vede, nel richiamare quadl non abbiamo specificato il numero di intervalli di quadratura da utilizzare nella formula composita, n`e, conseguentemente, la loro ampiezza H. Tale decomposizione viene automaticamente calcolata in modo che l’errore di quadratura si mantenga al di sotto di una tolleranza prefissata (pari di default a 10−3 ). Con il

4.5 La formula di Simpson adattiva n 1 2 3 4

{¯ yj } {±1} {±1, 0}√ {±1, ±√5/5} {±1, ± 21/7, 0}

121

{α ¯j } {1} {1/3, 4/3} {1/6, 5/6} {1/10, 49/90, 32/45}

Tabella 4.2. Nodi e pesi di alcune formule di quadratura di Gauss-LegendreLobatto nell’intervallo [−1, 1]. I pesi corrispondenti a coppie di nodi simmetrici rispetto allo 0 vengono riportati una volta sola

comando quadl(fun,a,b,tol) si pu` o precisare una specifica tolleranza tol. Nel paragrafo 4.5 introdurremo un metodo per stimare l’errore di quadratura e, conseguentemente, per cambiare H in modo adattivo.

Riassumendo 1. Una formula di quadratura calcola in modo approssimato l’integrale di una funzione continua f su un intervallo [a, b]; 2. essa `e generalmente costituita dalla combinazione lineare dei valori di f in determinati punti (detti nodi di quadratura) moltiplicati per opportuni coefficienti (detti pesi di quadratura); 3. il grado di esattezza di una formula di quadratura `e il grado pi` u alto dei polinomi che vengono integrati esattamente dalla formula stessa. Tale grado `e pari a 1 per le formule del punto medio e del trapezio, a 3 per la formula di Simpson, a 2n + 1 per la formula di GaussLegendre con n + 1 nodi di quadratura e a 2n − 1 per la formula di Gauss-Legendre-Lobatto con n + 1 nodi di quadratura; 4. una formula di quadratura composita ha ordine di accuratezza p se l’errore tende a zero per H che tende a zero come H p , dove H `e l’ampiezza dei sotto-intervalli. L’ordine di accuratezza `e pari a 2 per le formule composite del punto medio e del trapezio, a 4 per la formula composita di Simpson. Si risolvano gli Esercizi 4.12-4.18.

4.5 La formula di Simpson adattiva Il passo di integrazione H di una formula di quadratura composita pu` o essere scelto in modo da garantire che l’errore sia inferiore ad una tolleranza ε > 0 prestabilita. A tal fine se usassimo ad esempio la formula di Simpson composita (4.21), grazie alla (4.22) basterebbe richiedere che b − a H4 max |f (4) (x)| < ε, 180 16 x∈[a,b]

(4.29)

122

4 Differenziazione ed integrazione numerica

dove f (4) denota la derivata quarta di f . D’altra parte, se f (4) `e in valore assoluto grande solo in una piccola porzione dell’intervallo di integrazione, il pi` u grande valore di H per il quale la (4.29) `e soddisfatta sar` a presumibilmente troppo piccolo. L’obiettivo della formula di Simpson adattiva `e quello di calcolare un’approssimazione di I(f ) a meno di una tolleranza ε fissata facendo uso di una distribuzione non uniforme dei passi di integrazione nell’intervallo [a, b]. In tal modo si garantisce la stessa accuratezza della formula di Simpson composita, ma con un numero inferiore di nodi di quadratura e, quindi, di valutazioni di f . Per implementare un algoritmo adattivo serviranno uno stimatore dell’errore di quadratura ed una procedura che modifichi, conseguentemente al soddisfacimento della tolleranza richiesta, il passo di integrazione H. Analizziamo dapprima il secondo punto, che `e indipendente dalla formula di quadratura usata. Al primo passo della procedura adattiva, calcoliamo una approssi!b mazione Is (f ) di I(f ) = a f (x) dx. Poniamo H = b − a e cerchiamo di stimare l’errore di quadratura. Se l’errore `e minore della tolleranza richiesta, la procedura adattiva si arresta, in caso contrario si dimezza il ! a+H passo di integrazione H finch´e non si approssima l’integrale a f (x) dx con l’accuratezza desiderata. Quando questo test `e soddisfatto, si considera l’intervallo (a + H, b) e si ripete la procedura, scegliendo come primo passo di integrazione la lunghezza b − (a + H) dell’intervallo di integrazione. Introduciamo le seguenti notazioni: 1. A: l’intervallo di integrazione attivo cio`e quell’intervallo sul quale stiamo effettivamente approssimando l’integrale; 2. S: l’intervallo di integrazione gi` a esaminato nel quale sappiamo che l’errore commesso sta al di sotto della tolleranza richiesta; 3. N : l’intervallo di integrazione ancora da esaminare. All’inizio del processo di integrazione abbiamo N = [a, b], A = N e S = ∅, mentre ad un passo intermedio avremo una situazione analoga a quella descritta ! α nella Figura 4.6. Indichiamo con JS (f ) l’approssimazione calcolata di a f (x) dx (avendo posto JS (f ) = 0 all’inizio del processo). Se l’algoritmo termina con successo JS (f ) fornir` a l’approssimazione cercata di I(f ). Indichiamo inoltre con J(α,β) (f ) l’integrale approssimato di f sull’intervallo attivo [α, β], rappresentato in bianco in Figura 4.6. Il generico passo del metodo di integrazione adattivo viene realizzato come segue: 1. se la stima dell’errore garantisce che esso sia inferiore alla tolleranza richiesta, allora: (i) JS (f ) viene incrementato di J(α,β) (f ), ossia JS (f ) ← JS (f ) + J(α,β) (f );

4.5 La formula di Simpson adattiva a

α

S

A

β

N

123

b

1111111111111111111111111 0000000000000000000000000

(I) a

α

S

A

b (II)

a

S

α

A

α′

N

b

1111111111111111111111111111111 0000000000000000000000000000000

Figura 4.6. Distribuzione degli intervalli di integrazione ad un passo intermedio del processo di integrazione adattiva

(ii) poniamo S ← S ∪ A, A = N (corrispondente al cammino (I) in Figura 4.6) e α ← β, β ← b; 2. se la stima dell’errore non ha l’accuratezza richiesta, allora: (j) A viene dimezzato ed il nuovo intervallo attivo viene posto pari a A = [α, α′ ] con α′ = (α + β)/2 (corrispondente al cammino (II) in Figura 4.6); (jj) poniamo N ← N ∪ [α′ , β], β ← α′ ; (jjj) si stima nuovamente l’errore. Naturalmente, per evitare che l’algoritmo proposto generi passi di integrazione troppo piccoli, conviene controllare la lunghezza di A ed avvertire l’utilizzatore qualora tale grandezza scenda al di sotto di un valore di soglia (questo potrebbe accadere ad esempio in un intorno di una singolarit` a della funzione integranda). Resta ora da scegliere un opportuno stimatore dell’errore. A tal fine, poniamoci su un generico sotto-intervallo di integrazione [α, β] e calcoliamo Is (f ) su [α, β] ⊂ [a, b]: evidentemente, se su tale generico intervallo l’errore sar` a minore di ε(β − α)/(b − a), allora l’errore su tutto [a, b] sar` a minore della tolleranza assegnata ε. Poich´e dalla (4.24) segue che

Es (f ; α, β) =



f (x) dx − Is (f ) = −

(β − α)5 (4) f (ξ), 2880

α

per assicurarsi il raggiungimento della accuratezza desiderata baster`a richiedere che Es (f ; α, β) sia minore di ε(β − α)/(b − a). In pratica questa richiesta non `e semplice da soddisfare perch´e il punto ξ di [α, β] `e sconosciuto. Per stimare l’errore Es (f ; α, β) senza ricorrere esplicitamente al valore di f (4) (ξ), usiamo ora la formula di quadratura composita di Simpson

124

4 Differenziazione ed integrazione numerica

!β per calcolare α f (x) dx, ma con passo H = (β − α)/2. Per la (4.22) con a = α e b = β, troviamo che β

f (x) dx − Isc (f ) = −

(β − α)5 (4) f (η), 46080

(4.30)

α

per un opportuno η diverso da ξ. Sottraendo membro a membro le due ultime equazioni, si trova allora ∆I = Isc (f ) − Is (f ) = −

(β − α)5 (4) (β − α)5 (4) f (ξ) + f (η). (4.31) 2880 46080

Assumiamo ora che f (4) (x) sia approssimativamente costante sull’intervallo [α, β]. In tal caso, f (4) (ξ) ≃ f (4) (η). Ricavando f (4) (η) dalla (4.31) e sostituendolo nella (4.30), si trova la seguente stima dell’errore: β

f (x) dx − Isc (f ) ≃

1 ∆I. 15

α

Il passo di integrazione (β − α)/2 (quello impiegato per il calcolo di Isc (f )) verr` a allora accettato se |∆I|/15 < ε(β −α)/[2(b−a)] (la divisione per 2 `e fatta per via cautelativa). La formula che combina questo criterio sul passo con il processo adattivo descritto in precedenza, prende il nome di formula di Simpson adattiva. Essa `e stata implementata nel Programma 4.3 nel quale f `e la function che precisa la funzione integranda, a e b sono gli estremi dell’intervallo di integrazione, tol la tolleranza richiesta sull’errore e hmin il minimo passo di integrazione consentito (per evitare che il processo di dimezzamento del passo continui indefinitamente). Programma 4.3. simpadpt: formula di Simpson adattiva function [ JSf , nodes ]= simpadpt (f ,a ,b , tol , hmin , varargin ) % SIMPADPT Formula adattiva di Simpson . % JSF = SIMPADPT ( FUN ,A ,B , TOL , HMIN ) approssima % l ’ integrale di FUN nell ’ intervallo (A , B ) % garantendo che il valore assoluto dell ’ errore sia % inferiore a TOL ed utilizzando un passo variabile % H >= HMIN . FUN e ’ una function che riceve % in ingresso un vettore x e restituisce un vettore % reale . FUN puo ’ essere una inline function , una % anonymous function o una function definita in un % M - file . % JSF = SIMPADPT ( FUN ,A ,B , TOL , HMIN , P1 , P2 ,...) passa % alla function FUN i parametri opzionali P1 , P2 ,... % come FUN (X , P1 , P2 ,...). % [ JSF , NODES ] = SIMPADPT (...) restituisce la distri % buzione di nodi usati nel processo di quadratura . A =[ a , b ]; N =[]; S =[]; JSf = 0; ba = 2*( b - a ); nodes =[]; while ~ isempty ( A ) ,

4.6 Cosa non vi abbiamo detto

125

[ deltaI , ISc ]= caldeltai (A ,f , varargin {:}); if abs ( deltaI ) < 15* tol *( A (2) - A (1))/ ba ; JSf = JSf + ISc ; S = union (S , A ); nodes = [ nodes , A (1) ( A (1)+ A (2))*0.5 A (2)]; S = [ S (1) , S ( end )]; A = N ; N = []; elseif A (2) - A (1) < hmin JSf = JSf + ISc ; S = union (S , A ); S = [ S (1) , S ( end )]; A = N ; N =[]; warning ( ’ Passo di integrazione troppo piccolo ’ ); else Am = ( A (1)+ A (2))*0.5; A = [ A (1) Am ]; N = [ Am , b ]; end end nodes = unique ( nodes ); return function [ deltaI , ISc ]= caldeltai (A ,f , varargin ) L = A (2) - A (1); t =[0; 0.25; 0.5; 0.75; 1]; x = L * t + A (1); L = L /6; w =[1; 4; 1]; wp =[1;4;2;4;1]; fx = feval (f ,x , varargin {:}).* ones (5 ,1); IS = L * sum ( fx ([1 3 5]).* w ); ISc =0.5* L * sum ( fx .* wp ); deltaI = IS - ISc ; return R1 Esempio 4.5 Calcoliamo I(f ) = −1 20(1−x2 )3 dx con la formula di Simpson adattiva. Eseguendo il Programma 4.3 con fun = inline ( ’ (1 - x .^2).^3*20 ’ ); tol = 1. e -04; hmin = 1. e -03; a = -1; b =1; troviamo il valore approssimato 18.2857116732797, mentre il valore esatto `e 18.2857142857143. L’errore risulta pari a 2.6124 10−6 , minore della tolleranza richiesta di 10−4 . Si noti che per ottenere questo risultato servono 41 valutazioni funzionali. La formula di Simpson composita con passo uniforme avrebbe richiesto circa 90 valutazioni funzionali per ottenere un errore pari a 2.5989 10−6 . 

4.6 Cosa non vi abbiamo detto Le formule del punto medio, del trapezio e di Simpson sono casi particolari di un’ampia famiglia di formule di quadratura, note come formule di Newton-Cˆ otes. Per una loro presentazione rimandiamo a [QSS08, Capitolo 8]. In maniera del tutto analoga, le formule di Gauss-Legendre e di Gauss-Legendre-Lobatto sono solo esempi dell’importante famiglia di formule di quadratura Gaussiane: esse sono ottimali nel senso che massimizzano il grado di esattezza, una volta fissato il numero di nodi.

126

dblquad

4 Differenziazione ed integrazione numerica

Rimandiamo a [QSS08, Capitolo 9] o a [RR01] per la loro trattazione. Per ulteriori approfondimenti sull’integrazione numerica citiamo anche ¨ [DR75] e [PdDKUK83]. L’integrazione numerica pu` o essere realizzata anche ! ∞ per integrali su intervalli illimitati, come ad esempio per calcolare 0 f (x) dx. Una pos!∞ sibilit` a consiste nel trovare un punto α tale che il valore di α f (x)dx !α possa essere trascurato rispetto a quello di 0 f (x)dx; ci si limita poi a calcolare quest’ultimo con una formula di quadratura. Alternativamente si pu` o ricorrere a formule di quadratura di Gauss per intervalli illimitati (si veda [QSS08, Capitolo 9]). Infine, l’integrazione numerica pu` o essere estesa ad integrali su domini multidimensionali. Il comando MATLAB dblquad(’f’,xmin,xmax, ymin,ymax) consente ad esempio di approssimare l’integrale di una data funzione, precisata attraverso una variabile f, sul dominio rettangolare [xmin,xmax] × [ymin,ymax]. f `e una function che deve avere come parametri d’ingresso almeno le due variabili rispetto alle quali si calcola l’integrale doppio, x e y. Octave 4.1 In Octave, la function dblquad non `e disponibile; tuttavia, all’interno del pacchetto Integration che `e scaricabile dal sito http://octave.sourceforge.net, sono presenti altre function con le medesime funzionalit`a:

quad2dg quad2dc

1. quad2dg approssima integrali doppi, utilizzando una formula di quadratura di tipo Gauss-Legendre; 2. quad2dc approssima integrali doppi, utilizzando una formula di quadratura di tipo Gauss-Chebyshev. 

4.7 Esercizi Esercizio 4.1 Si verifichi che, se f ∈ C 3 in un intorno I0 di x0 (rispettivamente, In di xn ) l’errore nella formula (4.11) `e pari a − 13 f ′′′ (ξ0 )h2 (rispettivamente, − 31 f ′′′ (ξn )h2 ), dove ξ0 e ξn sono due punti opportuni in I0 e In , rispettivamente. Esercizio 4.2 Si verifichi che se f ∈ C 3 in un intorno di x ¯ l’errore della formula (4.9) `e dato dalla (4.10). Esercizio 4.3 Si ricavi l’ordine di accuratezza rispetto a h delle seguenti formule di differenziazione numerica per l’approssimazione di f ′ (xi ): a.

−11f (xi ) + 18f (xi+1 ) − 9f (xi+2 ) + 2f (xi+3 ) , 6h

4.7 Esercizi b. c.

127

f (xi−2 ) − 6f (xi−1 ) + 3f (xi ) + 2f (xi+1 ) , 6h −f (xi−2 ) − 12f (xi ) + 16f (xi+1 ) − 3f (xi+2 ) . 12h

Esercizio 4.4 (Demografia) I valori seguenti rappresentano l’evoluzione al variare del tempo t del numero di individui n(t) di una certa popolazione caratterizzata da un tasso di natalit` a costante b = 2 e da un tasso di mortalit` a d(t) = 0.01n(t): t (mesi) n

0 100

0.5 147

1 178

1.5 192

2 197

2.5 199

3 200

Si usino questi dati per determinare il pi` u accuratamente possibile il tasso di variazione della popolazione. Si confrontino i risultati ottenuti con la velocit`a teorica data da n′ (t) = 2n(t) − 0.01n2 (t). Esercizio 4.5 Si calcoli il minimo numero M di intervalli necessari per approssimare, a meno di un errore di 10−4 , l’integrale delle seguenti funzioni negli intervalli indicati: 1 in [0, 5], 1 + (x − π)2 f2 (x) = ex cos(x) in [0, π], p f3 (x) = x(1 − x) in [0, 1], f1 (x) =

utilizzando la formula composita del punto medio. Si verifichino sperimentalmente i risultati ottenuti tramite il Programma 4.1. Esercizio 4.6 Si dimostri la (4.14) a partire dalla (4.16). Esercizio 4.7 Si giustifichi la perdita di un ordine di convergenza che si ha passando dalla formula del punto medio a quella del punto medio composita. Esercizio 4.8 Si verifichi che se f `e un polinomio di grado minore od uguale a 1, allora Ipm (f ) = I(f ) cio`e che la formula del punto medio ha grado di esattezza uguale ad 1. Esercizio 4.9 Per la funzione f1 dell’Esercizio 4.5, si valutino numericamente i valori di M che garantiscono un errore di quadratura inferiore a 10−4 nel caso in cui si usino la formula composita del trapezio e la formula composita di Gauss-Legendre con n = 1. Rb Esercizio 4.10 Siano I1 e I2 due approssimazioni di I(f ) = a f (x)dx, ottenute utilizzando la formula composita del trapezio con due passi di quadratura diversi, H1 e H2 . Se f (2) non varia molto in (a, b), il seguente valore IR = I1 + (I1 − I2 )/(H22 /H12 − 1)

(4.32)

costituisce una approssimazione di I(f ) migliore di quelle date da I1 e I2 . Questo metodo `e noto come metodo di estrapolazione di Richardson. Usando la (4.18) si ricavi la (4.32).

128

4 Differenziazione ed integrazione numerica

Esercizio 4.11 Si verifichi che tra le formule del tipo Iapprox (f ) = αf (¯ x) + βf (¯ z ) dove x ¯, z¯ ∈ [a, b] sono nodi incogniti e α e β coefficienti da determinare, la formula di Gauss-Legendre con n = 1 della Tabella 4.1 `e quella con grado di esattezza massimo. Esercizio 4.12 Per le prime due funzioni dell’Esercizio 4.5, si valuti il minimo numero di intervalli necessari per ottenere un integrale approssimato con la formula di Simpson composita a meno di un errore di 10−4 . R2 2 Esercizio 4.13 Si calcoli 0 e−x /2 dx con la formula di Simpson (4.23) e con la formula di Gauss-Legendre di Tabella 4.1 per n = 1 e si confrontino i risultati ottenuti. R1 Esercizio 4.14 Per il calcolo degli integrali Ik = 0 xk ex−1 dx per k = 1, 2, . . ., si pu` o utilizzare la seguente formula ricorsiva: Ik = 1 − kIk−1 con I1 = 1/e. Si calcoli I20 con la formula di Simpson composita in modo da garantire un errore inferiore a 10−3 . Si confronti il risultato ottenuto con quello fornito dall’uso della formula ricorsiva suddetta. Esercizio 4.15 Si applichi la formula di estrapolazione di Richardson (4.32) R2 2 per l’approssimazione dell’integrale I(f ) = 0 e−x /2 dx con H1 = 1 e H2 = 0.5 usando prima la formula di Simpson (4.23) e quindi la formula di GaussLegendre per n = 1 di Tabella 4.1. Si verifichi che in entrambi i casi IR `e sempre pi` u accurato di I1 e I2 . Esercizio 4.16 (Elettromagnetismo) Si approssimi con la formula composita di Simpson la funzione j(r, 0) definita nella (4.2) per r = k/10 m con k = 1, . . . , 10, ρ(ξ) = exp(ξ) e σ = 0.36 W/(mK). Si garantisca che l’errore commesso sia inferiore a 10−10 (ricordiamo che m=metri, W=watts, K=gradi Kelvin). Esercizio 4.17 (Ottica) Si calcoli la funzione E(T ) definita nella (4.1) per T pari a 213 K (cio`e −60 gradi Celsius) con almeno 10 cifre significative esatte utilizzando le formule composite di Simpson e di Gauss-Legendre con n = 1. R1 Esercizio 4.18 Si proponga una strategia per il calcolo di I(f ) = 0 |x2 − 0.25| dx con la formula di Simpson composita tale da garantire che l’errore sia complessivamente inferiore a 10−2 .

".78*1. 0.2*&6.

0DKKD RBHDMYD @OOKHB@SD K@ QHRNKTYHNMD CH OQNAKDLH @MBGD BNLOKDRRH UHDMD RODRRN QHBNMCNSS@ @KK@ QHRNKTYHNMD CH TMN N OH T RHRSDLH KHMD@QH CDKK@ ENQL@ #A ! +



CNUD # D TM@ L@SQHBD PT@CQ@S@ CH CHLDMRHNMD G  G CH DKDLDMSH :,-  QD@KH N BNLOKDRRH LDMSQD A D + RNMN UDSSNQH BNKNMM@ CH CHLDMRHNMD G BGD Q@OOQDRDMS@MN QHRODSSHU@LDMSD HK UDSSNQD RNKTYHNMD DC HK UDSSNQD SDQLHMD MNSN +K RHRSDL@  OT N DRRDQD QHRBQHSSN ODQ BNLONMDMSH BNLD RDFTD :11 Q1  :12 Q2      :11 Q1 ! ;1  :21 Q1  :22 Q2      :21 Q1 ! ;2   

 

 

:11 Q1  :12 Q2      :11 Q1 ! ;1  2QDRDMSH@LN PT@SSQN OQNAKDLH BGD C@MMN KTNFN @ RHRSDLH KHMD@QH

 0(92. 463'0*1. #;8+5.6*  %.=. -;2,* %NMRHCDQH@LN TM RHRSDL@ HCQ@TKHBN ENQ L@SN C@  BNMCNSSD CHRONRSD BNLD HM (HFTQ@  DC @KHLDMS@SN C@ TM A@BHMN C @BPT@ ONRSN @C TM@ OQDRRHNMD BNRS@MSD O@QH @ I5 !  A@Q +M PTDRSN OQNAKDL@ H U@KNQH CDKKD OQDRRHNMH BNQQHRONMCNMN @KK@ CHDQDMY@ EQ@ K@ OQDRRHNMD DDSSHU@ D PTDKK@ @SLNREDQHB@ 0DKK@ BNMCNSS@ CDRHL@ U@KD K@ RDFTDMSD QDK@YHNMD EQ@ K@ ONQS@S@ 3- HM L3 R D K@ CHDQDMY@ CH OQDRRHNMD I- @KKD DRSQDLHS@ CDKK@ BNMCNSS@ 3- ! D/I- 

Quarteroni, A., Saleri, F.: Calcolo Scientifico. © Springer-Verlag Italia, Milano, 2008



130

5 Sistemi lineari p=0 Q10 Q2 Q1

1

2 Q3

Q4 p=0

Q6

Q9 Q8 4 Q5 Q7

3

p=0

p=0

Figura 5.1. La rete di condotte del Problema 5.1

dove k `e la resistenza idraulica (misurata in m2 /(bar s)) e L la lunghezza (in m) della condotta. Supponiamo che nelle condotte terminali (quelle delimitate ad un estremo da un pallino nero) l’acqua esca alla pressione atmosferica, posta, per coerenza con la precedente convenzione, pari a 0 bar. Un problema tipico consiste nel determinare i valori di pressione nei nodi interni 1, 2, 3 e 4 del sistema. A tal fine, per ogni j = 1, 2, 3, 4 possiamo integrare la relazione (5.2) con il fatto che la somma algebrica delle portate nel nodo j-esimo deve essere nulla (una portata negativa indicher` a che l’acqua esce dal nodo). Denotando con p = (p1 , p2 , p3 , p4 )T il vettore delle pressioni nei nodi interni, otteniamo un sistema di 4 equazioni e 4 incognite della forma Ap = b. Nella seguente tabella riassumiamo le caratteristiche principali delle diverse condotte. condotta 1 4 7 10

k L condotta k L condotta k L 0.010 20 2 0.005 10 3 0.005 14 0.005 10 5 0.005 10 6 0.002 8 0.002 8 8 0.002 8 9 0.005 10 0.002 8

Corrispondentemente, A e b assumeranno i seguenti valori (abbiamo riportato le sole prime 4 cifre significative): ⎤ ⎡ ⎤ ⎡ −2 −0.370 0.050 0.050 0.070 ⎥ ⎢ ⎢ 0.050 −0.116 0 0.050 ⎥ ⎥, b = ⎢ 0 ⎥. A=⎢ ⎣ ⎦ ⎣ 0.050 0 ⎦ 0 −0.116 0.050 0 0.070 0.050 0.050 −0.202

La soluzione di questo sistema verr`a data nell’Esempio 5.5.



5.1 Alcuni problemi

131

Problema 5.2 (Spettrometria) Esaminiamo una miscela di gas costituita da n componenti sconosciute che non si combinano chimicamente tra loro. Usando uno spettrometro di massa si bombarda il gas con elettroni a bassa energia: la corrispondente miscela di ioni viene analizzata da un galvanometro collegato all’apparecchio che mostra dei picchi in corrispondenza di specifici rapporti di massa su carica. Consideriamo soltanto gli n picchi pi` u rilevanti. Si pu` o ipotizzare che l’altezza hi dell’i-esimo picco sia una combinazione lineare dei valori {pj , j = 1, . . . , n}, dove pj `e la pressione parziale della componente j-esima (cio`e della pressione esercitata da un singolo gas quando `e parte di una miscela): n

sij pj = hi ,

i = 1, . . . , n

(5.3)

j=1

e dove gli sij sono i cosiddetti coefficienti di sensitivit`a. La determinazione delle pressioni parziali richiede quindi la risoluzione di un sistema lineare. Per la risoluzione di questo problema si veda l’Esempio 5.3  Problema 5.3 (Economia: analisi di input-output) Si vuole trovare la condizione di equilibrio fra la domanda e l’offerta di determinati beni, assumendo valido un modello di produzione con n beni e m ≥ n imprese. Ogni impresa necessita nella sua attivit`a produttiva di alcuni beni per produrne altri; chiamiamo input i beni consumati dal processo produttivo ed output quelli prodotti. Leontief propose nel 19301 un modello di produzione di tipo lineare per il quale la quantit` a prodotta di un certo output `e proporzionale alla quantit` a degli input utilizzati. L’attivit` a delle imprese `e quindi completamente descritta dalla matrice degli input C ∈ Rn×m e dalla matrice degli output P ∈ Rn×m . Il valore cij (risp. pij ) rappresenta la quantit` a del bene i-esimo consumato (risp. prodotto) dall’impresa j-sima, per un fissato periodo di tempo. La matrice A = P − C, detta matrice di input-output, descrive dunque i consumi e le produzioni nette di beni da parte delle imprese: un coefficiente aij positivo (risp. negativo) indica la quantit` a netta del bene i-esimo prodotto (risp. consumato) dall’impresa j-esima. Il sistema dovr`a infine avere un certo obiettivo produttivo costituito ad esempio dalla domanda di beni da parte del mercato che pu` o essere rappresentato da un vettore b= (bi ) di Rn (il vettore della domanda finale). La componente bi rappresenta dunque la quantit` a del bene i-esimo richiesta dal mercato. L’equilibrio `e raggiunto quando il vettore x = (xi ) ∈ Rn della produzione eguaglia la domanda totale ovvero Ax = b, dove A = P − C. 1

(5.4)

Nel 1973 Wassily Leontief fu insignito del premio Nobel in economia per i suoi studi

132

5 Sistemi lineari

c11 1

c12

b1

c22 b2

2 c31

b3

3 c33

Figura 5.2. Lo schema di interazione fra 3 industrie ed il mercato descritto nel Problema 5.3

In questo modello si assume che l’impresa i-esima produca il solo bene i-esimo (si veda la Figura 5.2). Di conseguenza, n = m e P = I. Per la soluzione del sistema (5.4) si veda l’Esercizio 5.18.  Problema 5.4 (Rete di capillari) I capillari sono piccolissimi vasi sanguigni, la pi` u piccola unit` a del sistema circolatorio. Si raggruppano in reti dette letti capillari costituite da un numero variabile di elementi, indicativamente fra 10 e 100, a seconda dell’organo o del tipo di tessuto. Il sangue ossigenato vi ci arriva attraverso piccole arterie dette arteriole e, nel letto capillare, avviene la cessione di sangue ossigenato ai tessuti attraverso le pareti dei globuli rossi e l’eliminazione delle scorie metaboliche (i cataboliti). Il sangue che fluisce nel letto capillare viene infine raccolto da piccole venule e quindi da vene che lo riconducono al cuore.

Figura 5.3. Un letto capillare

5.1 Alcuni problemi

133

Un letto capillare pu` o essere descritto da un modello di rete, simile a quella idrica considerata nel Problema 5.1, in cui ogni capillare `e assimilato ad una condotta i cui estremi vengono detti nodi. Nella rappresentazione schematica di Fig. 5.4 essi sono raffigurati da piccoli cerchi vuoti. L’arteriola che alimenta il letto capillare pu` o essere considerata funzionalmente equivalente ad un serbatoio di pressione uniforme (di circa 50 mmHg, dove mmHg sta per millimetro di mercurio e 760 mmHg equivalgono a 1 atmosfera). In questo modello possiamo supporre che ai nodi di uscita del letto capillare (indicati in figura con dei piccoli cerchi neri) la pressione abbia un valore costante (pari alla pressione venosa), che per semplicit`a normalizzeremo a zero. Lo scorrimento del sangue dall’arteriola fin verso i nodi di uscita `e dovuto alla differenza di pressione fra un nodo e quello gerarchicamente inferiore. Con riferimento alla Fig. 5.4, indichiamo con pj , j = 1, ..., 15 (misurata in mmHg) la pressione nel nodo j-simo e con Qm , m = 1, ..., 31 (misurata in mm3 /s) la portata nel capillare m-simo. Per ogni m, indicando con i e j i nodi che delimitano il capillare m-simo, adotteremo la seguente relazione costitutiva Qm = km Lm (pi − pj ),

(5.5)

dove km indica la resistenza idraulica (in mm3 /(mmHg s)) e Lm la lunghezza (in mm) del capillare in esame. Naturalmente quando si tratta il nodo 1 si dovr` a tenere conto che p0 = 50; analogamente, quando si trattano i nodi estremi, dal n. 8 al n. 15, si dovranno porre uguali a zero le pressioni nei nodi di uscita (dal n. 16 al n. 31). Infine, in ogni nodo della rete imporremo un’equazione di bilancio fra le portate in ingresso e quelle in uscita, ovvero

½

¾

¾

¿

½



½¼ ½¼

¿

½½ ½½

    ¾¼ ¾½ ¾¾ ¾¿

½¾

½¾



½¿ ½ ½¿

½

½ ½

¾ ¾ ¾ ¾ ¾ ¾ ¿¼ ¿½

Figura 5.4. Schematizzazione di un letto capillare

134

5 Sistemi lineari



"



Qm

m entranti

#

+

"



Qm

m uscenti

#

= 0.

In questo modo si perviene al sistema lineare Ap = b,

(5.6)

dove p = [p1 , p2 , · · · , p15 ]T `e il vettore delle pressioni incognite nei 15 nodi della rete, A `e la matrice dei coefficienti, mentre b `e il vettore dei dati. Supponendo per semplicit` a che i capillari abbiano tutti la stessa resistenza idraulica km = 5 · 10−5 e che la lunghezza del primo capillare sia L1 = 20, mentre ad ogni biforcazione la lunghezza dei capillari si dimezzi (pertanto L2 = L3 = 10, L4 = . . . = L7 = 5 etc.), si ottiene la seguente matrice

mentre b = [5, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0]T . La risoluzione di questo sistema verr`a discussa nell’Esempio 5.7.



5.2 Sistemi e complessit` a La soluzione del sistema (5.1) esiste se e solo se la matrice A `e non singolare. In linea di principio, la si potrebbe calcolare tramite la regola di Cramer xi =

det(Ai ) , det(A)

i = 1, . . . , n,

dove Ai `e la matrice ottenuta da A sostituendo la i-esima colonna con b e det(A) `e il determinante di A. Il calcolo degli n + 1 determinanti con lo sviluppo di Laplace (si veda l’Esercizio 5.1) richiede circa 3(n + 1)! operazioni intendendo, come al solito, per operazione la singola somma, sottrazione, moltiplicazione o divisione. Ad esempio, su un calcolatore in grado di eseguire 109 flops (i.e. 1 Giga flops) servirebbero circa 12 ore

5.3 Il metodo di fattorizzazione LU

135

per risolvere un sistema di dimensione n = 15, 3240 anni se n = 20 e 10143 anni se n = 100. Il costo computazionale pu` o essere drasticamente ridotto e portato all’ordine di circa n3.8 operazioni se gli n + 1 determinanti vengono calcolati con l’algoritmo citato nell’Esempio 1.3. Tuttavia, tale costo risulterebbe ancora troppo elevato per le applicazioni pratiche. Considereremo due possibili approcci alternativi: quello dei metodi diretti, con cui la soluzione del sistema viene calcolata dopo un numero finito di passi, e quello dei metodi iterativi, che richiedono un numero (teoricamente) infinito di passi. Analizzeremo prima i metodi diretti e poi, a partire dal paragrafo 5.9, quelli iterativi. Mettiamo in guardia il lettore che nella scelta fra un metodo diretto ed uno iterativo intervengono molteplici fattori legati non solo all’efficienza teorica dello schema, ma anche al particolare tipo di matrice, alle richieste di occupazione di memoria ed infine al tipo di computer disponibile (si veda il paragrafo 5.13 per maggiori dettagli). Facciamo notare che in generale un sistema lineare non potr` a essere risolto con meno di n2 operazioni. Infatti, se le equazioni del sistema sono tra loro veramente accoppiate, `e lecito aspettarsi che ognuno degli n2 elementi della matrice venga almeno una volta interessato da una operazione. Sebbene molti dei metodi che andremo a presentare in questo Capitolo siano validi per matrici a coefficienti complessi, per semplicit`a limiteremo la trattazione al caso di matrici a coefficienti reali. Osserviamo comunque che le function di MATLAB e di Octave per la risoluzione di sistemi lineari lavorano non solo con variabili reali, ma anche con variabili complesse senza bisogno di modificare le istruzioni di chiamata. Faremo esplicito riferimento a matrici complesse solo laddove le ipotesi sulle matrici reali devono essere sostituite da specifiche condizioni in campo complesso, come per esempio nella definizione di matrici definite positive o nella presentazione della fattorizzazione di Cholesky.

5.3 Il metodo di fattorizzazione LU Sia A∈ Rn×n . Supponiamo che esistano due opportune matrici L ed U, triangolare inferiore e superiore, rispettivamente, tali che A = LU

(5.7)

La (5.7) `e detta fattorizzazione (o decomposizione) LU di A. Osserviamo che se A `e non singolare tali matrici devono essere anch’esse non singolari; in particolare ci` o assicura che i loro elementi diagonali siano non nulli (come osservato nel paragrafo 1.4).

136

5 Sistemi lineari

In tal caso, risolvere Ax = b conduce alla risoluzione dei due seguenti sistemi triangolari Ly = b,

Ux = y

(5.8)

Entrambi i sistemi sono semplici da risolvere. Infatti, essendo L triangolare inferiore, la prima riga del sistema Ly = b avr` a la forma l11 y1 = b1 , da cui si ricava il valore di y1 essendo l11 = 0. Sostituendo il valore trovato per y1 nelle successive n − 1 equazioni troviamo un sistema le cui incognite sono y2 , . . . , yn , per le quali possiamo procedere allo stesso modo. Procedendo in avanti, equazione per equazione, calcoliamo tutte le incognite con il seguente algoritmo, detto delle sostituzioni in avanti 1 b1 , l11 ⎞ ⎛ i−1 1 ⎝ yi = lij yj ⎠ , i = 2, . . . , n bi − lii j=1 y1 =

(5.9)

Quantifichiamo il numero di operazioni richiesto da (5.9) osservando che, per calcolare l’incognita yi , si devono effettuare i − 1 somme, i − 1 prodotti ed una divisione. Si ottiene un numero totale di operazioni pari a n i=1

1+2

n n (i − 1) = 2 i − n = n2 . i=1

i=1

In maniera del tutto analoga potr` a essere risolto il sistema Ux = y: in tal caso, la prima incognita ad essere calcolata sar` a xn e poi, a ritroso, verranno calcolate tutte le restanti incognite xi per i che varia da n − 1 fino a 1 1 yn , unn ⎞ ⎛ n 1 ⎝ xi = uij xj ⎠ , i = n − 1, . . . , 1 yi − uii j=i+1 xn =

(5.10)

Questo algoritmo viene chiamato delle sostituzioni all’indietro e richiede ancora n2 operazioni. Si tratta a questo punto di trovare un algoritmo che consenta di calcolare effettivamente L ed U a partire da A. Illustriamo una procedura generale a partire da una coppia di esempi.

5.3 Il metodo di fattorizzazione LU

137

Esempio 5.1 Scriviamo la relazione (5.7) per una generica matrice A ∈ R2×2 – – » – » » a11 a12 u11 u12 l11 0 . = a21 a22 0 u22 l21 l22 I 6 elementi incogniti di L e di U dovranno allora soddisfare le seguenti equazioni (non lineari) (e1 ) l11 u11 = a11 , (e3 ) l21 u11 = a21 ,

(e2 ) l11 u12 = a12 , (e4 ) l21 u12 + l22 u22 = a22 .

(5.11)

Il sistema (5.11) `e sottodeterminato, presentando pi` u incognite che equazioni. Per eliminare l’indeterminazione fissiamo arbitrariamente pari a 1 gli elementi diagonali di L, aggiungendo perci`o le equazioni l11 = 1 e l22 = 1. A questo punto, il sistema (5.11) pu`o essere risolto procedendo nel modo seguente: dalle (e1 ) ed (e2 ) ricaviamo gli elementi u11 ed u12 della prima riga di U. Se u11 `e non nullo, da (e3 ) si trova allora l21 (cio`e la prima colonna di L, a fissato pari a 1) e, quindi, da (e4 ), l’unico elemento non nullo essendo l11 gi`  u22 della seconda riga di U. Esempio 5.2 Ripetiamo gli stessi calcoli per una matrice 3 × 3. Per i 12 coefficienti incogniti di L e U abbiamo le seguenti 9 equazioni (e3 ) l11 u13 = a13 , (e1 ) l11 u11 = a11 , (e2 ) l11 u12 = a12 , (e4 ) l21 u11 = a21 , (e5 ) l21 u12 + l22 u22 = a22 , (e6 ) l21 u13 + l22 u23 = a23 , (e7 ) l31 u11 = a31 , (e8 ) l31 u12 + l32 u22 = a32 , (e9 ) l31 u13 + l32 u23 +l33 u33 = a33 . Completiamo tale sistema con le equazioni lii = 1 per i = 1, 2, 3. Nuovamente, il sistema ottenuto pu` o essere facilmente risolto calcolando tramite le (e1 ), (e2 ) e (e3 ) i coefficienti della prima riga di U; utilizzando quindi (e4 ) e (e7 ), possiamo determinare i coefficienti l21 e l31 della prima colonna di L. Noti questi ultimi, da (e5 ) ed (e6 ) si ricavano i coefficienti u22 ed u23 della seconda riga di U e poi, tramite (e8 ), il coefficiente l32 della seconda colonna di L. Infine, l’ultima riga di U (ridotta al solo elemento u33 ) viene determinata risolvendo (e9 ). 

Per una matrice A∈ Rn×n con n arbitrario possiamo procedere nel modo seguente: 1. gli elementi di L e di U soddisfano il seguente sistema non lineare di equazioni min(i,j)



lir urj = aij , i, j = 1, . . . , n;

(5.12)

r=1

2. il sistema (5.12) `e sottodeterminanto, essendovi n2 equazioni e n2 +n incognite; di conseguenza, la fattorizzazione LU in generale non sar`a unica (ovvero possono esistere diverse coppie di matrici L e U che soddisfano (5.12));

138

5 Sistemi lineari

3. imponendo che gli n elementi diagonali di L siano pari a 1, (5.12) diviene un sistema quadrato determinato che pu`o essere risolto con (1) il seguente algoritmo di Gauss: posto A(1) = A ovvero aij = aij per i, j = 1, . . . , n, si calcoli per k = 1, . . . , n − 1 per i = k + 1, . . . , n (k) aik lik = (k) , akk per j = k + 1, . . . , n (k+1) (k) (k) aij = aij − lik akj

(5.13)

(k)

Gli elementi akk devono essere tutti diversi da zero e sono detti (k+1) elementi pivot. Per ogni k = 1, . . . , n − 1 la matrice A(k+1) = (aij ) ha n − k righe e colonne. Nella pratica questo algoritmo pu` o essere realizzato usando una sola matrice in memoria, inizialmente posta uguale ad A e modificata ad ogni (k) passo k ≥ 2 con i nuovi elementi aij , per i, j ≥ k+1 e con i moltiplicatori lik per i ≥ k + 1. Si osservi che non `e necessario memorizzare gli elementi diagonali lii , essendo essi uguali a 1. Si veda l’Osservazione 5.1. Al termine di questo processo gli elementi della matrice triangolare (i) superiore di U sono dati da uij = aij per i = 1, . . . , n e j = i, . . . , n, mentre quelli di L sono dati dai coefficienti lij generati dall’algoritmo. In (5.13) non vengono calcolati espressamente gli elementi diagonali di L in quanto gi` a sappiamo che sono pari a 1. Questa fattorizzazione `e detta di Gauss; il calcolo dei coefficienti dei fattori L ed U richiede circa 2n3 /3 operazioni (si veda l’Esercizio 5.4). Esempio 5.3 (Spettrometria) Riprendiamo il Problema 5.2 e consideriamo una miscela di gas che, ad un esame spettroscopico, presenta i seguenti 7 picchi pi` u rilevanti: h1 = 17.1, h2 = 65.1, h3 = 186.0, h4 = 82.7, h5 = 84.2, h6 = 63.7 e h7 = 119.7. Vogliamo confrontare la pressione totale misurata, pari a 38.78 μm di Hg (che tiene conto anche di componenti che abbiamo eventualmente trascurato nella nostra semplificazione), con quella ottenuta usando le relazioni (5.3) con n = 7, dove i coefficienti di sensitivit`a sono riportati in Tabella 5.1 (tratti da [CLW69, pag.331]). Le pressioni parziali possono essere calcolate risolvendo il sistema (5.3) per n = 7 con la fattorizzazione LU. Otteniamo parzpress= 0.6525 2.2038 0.3348 6.4344

5.3 Il metodo di fattorizzazione LU

139

Componente e indice Indice Idrogeno Metano Etilene Etano Propilene Propano n-Pentano del picco 1 2 3 4 5 6 7 1 16.87 0.1650 0.2019 0.3170 0.2340 0.1820 0.1100 2 0.0 27.70 0.8620 0.0620 0.0730 0.1310 0.1200 3 0.0 0.0 22.35 13.05 4.420 6.001 3.043 4 0.0 0.0 0.0 11.28 0.0 1.110 0.3710 5 0.0 0.0 0.0 0.0 9.850 1.1684 2.108 6 0.0 0.0 0.0 0.0 0.2990 15.98 2.107 7 0.0 0.0 0.0 0.0 0.0 0.0 4.670 Tabella 5.1. I coefficienti di sensitivit` a per una particolare miscela gassosa

2.9975 0.5505 25.6317 Tali valori conducono ad una stima della pressione totale (calcolabile con sum(parzpress)) che differisce dal valore misurato di 0.0252μm di Hg.  Esempio 5.4 Consideriamo la seguente matrice di Vandermonde A = (aij ) con aij = xn−j , i, j = 1, . . . , n, i

(5.14)

dove gli xi sono n valori distinti. Essa pu`o essere costruita usando il comando MATLAB vander. In Figura 5.5 riportiamo il numero di operazioni necessarie per calcolare la fattorizzazione di Gauss di A in corrispondenza di diversi valori della dimensione n della matrice, precisamente n = 10, 20, . . . , 100. La curva riportata in Figura 5.5 `e un polinomio in n di terzo grado che rappresenta l’approssimazione ai minimi quadrati di tali valori. Il calcolo delle operazioni `e stato effettuato ricorrendo ad un comando (flops) che era presente in MATLAB sino alla versione 5.3.1. Il coefficiente del monomio n3 `e proprio 2/3.  Osservazione 5.1 Naturalmente non `e necessario memorizzare tutte le matrici A(k) definite nell’algoritmo (5.13). In effetti conviene sovrapporre gli (n − k) × (n − k) elementi di A(k+1) ai corrispondenti (n − k) × (n − k) ultimi elementi della matrice originale A. Inoltre, poich´e al k-esimo passo gli elementi sottodiagonali della k-esima colonna non influenzano la matrice finale U, essi possono essere rimpiazzati dagli elementi della k-esima colonna di L (i moltiplicatori), cos`ı come fatto nel Programma 5.1. Di conseguenza, al k-esimo passo del processo gli elementi memorizzati al posto dei coefficienti originali della matrice A sono

vander

140

5 Sistemi lineari 5

7

x 10

6 5 4 3 2 1 0 0

20

40

60

80

100

Figura 5.5. Il numero di operazioni necessario per generare la fattorizzazione LU di Gauss della matrice di Vandermonde, in funzione della dimensione n della matrice. Questa funzione `e una cubica ottenuta approssimando nel senso dei minimi quadrati i valori (rappresentati da cerchietti) corrispondenti a n = 10, 20, . . . , 100 2 6 6 6 6 6 6 6 6 6 6 6 4

(1)

(1)

3

(1)

a11 a12 . . . (2) l21 a22 .. . . . . . . .

. . . . . . a1n (2) a2n .. .

lk1 . . . lk,k−1 .. .. . . ln1 . . . ln,k−1

akk . . . akn .. .. . . (k) (k) ank . . . ann

(k)

7 7 7 7 7 7 7, 7 7 7 7 5

(k)

dove la matrice nel riquadro `e A(k) .



La fattorizzazione di Gauss `e alla base dei seguenti comandi MATLAB: lu

-

inv \

-

[L,U]=lu(A) le cui modalit` a di impiego verranno discusse nel paragrafo 5.4; inv che consente il calcolo dell’inversa di una matrice; \ tramite il quale si risolve un sistema lineare di matrice A e termine noto b scrivendo semplicemente A\b (si veda il paragrafo 5.8).

Osservazione 5.2 (Calcolo del determinante) Tramite la fattorizzazione LU si pu` o calcolare il determinante di una matrice A con un costo computazione di O(n3 ) operazioni, osservando che (si veda il paragrafo 1.4) det(A) = det(L) det(U) =

n Y

ukk .

k=1

Questa procedura `e alla base del comando MATLAB det.



Nel Programma 5.1 abbiamo implementato l’algoritmo (5.13). Per evitare sprechi di memoria la matrice L (privata della diagonale che sappiamo essere costituita da elementi tutti uguali a 1) viene memorizzata

5.3 Il metodo di fattorizzazione LU

141

nella parte triangolare inferiore di A, mentre la matrice U (inclusa la diagonale) in quella superiore. Dopo l’esecuzione del programma, i due fattori possono essere ricostruiti semplicemente scrivendo: L = eye(n) + tril(A,-1) and U = triu(A), dove n `e la dimensione di A. Programma 5.1. lugauss: la fattorizzazione di Gauss function A = lugauss ( A ) % LUGAUSS Fattorizzaz io ne LU senza pivoting % A = LUGAUSS ( A ) calcola la fattorizzazi on e % LU di Gauss della matrice A , memorizzando nella % parte triangolare inferiore stretta di A la % matrice L ( gli elementi diagonali di L sono tutti % uguali a 1) ed in quella superiore il fattore U [n , m ]= size ( A ); if n ~= m ; error ( ’A non e ’ ’ una matrice quadrata ’ ); else for k = 1: n -1 for i = k +1: n A (i , k ) = A (i , k )/ A (k , k ); if A (k , k ) == 0; error ( ’ Un elemento pivot si e ’ ’ annullato ’ ); end j = [ k +1: n ]; A (i , j ) = A (i , j ) - A (i , k )* A (k , j ); end end end Esempio 5.5 Per risolvere il sistema ottenuto nel problema 5.1 utilizziamo la fattorizzazione LU ed i metodi delle sostituzioni in avanti ed all’indietro A = lugauss ( A ); y (1)= b (1); for i =2:4; y =[ y ; b ( i ) - A (i ,1: i -1)* y (1: i -1)]; end x (4)= y (4)/ A (4 ,4); for i =3: -1:1; x ( i )=( y ( i ) - A (i , i +1:4)* x ( i +1:4) ’)/ A (i , i ); end Il risultato `e p = (8.1172, 5.9893, 5.9893, 5.7779)T . Esempio 5.6 La soluzione del sistema Ax = b, con 2 3 2 3 5−ε 1 1−ε 3 7 6 6 7 6 7 6 7 A = 6 2 2 2 7 , b = 6 6 7 , ε ∈ R, 4 5 4 5 13 3 6 4



(5.15)

`e x = (1, 1, 1)T (indipendente da ε). Per ε = 1 la fattorizzazione di Gauss di A, ottenuta con il Programma 5.1, `e 2 2 3 3 100 10 3 L = 4 2 1 0 5 , U = 4 0 2 −4 5 . 331 00 7

Se poniamo ε = 0, anche se A `e non singolare, la fattorizzazione di Gauss non pu` o essere calcolata in quanto l’algoritmo (5.13) comporta una divisione per 0. 

142

5 Sistemi lineari

L’esempio precedente mostra che, sfortunatamente, la fattorizzazione di Gauss potrebbe non esistere anche se la matrice A `e non singolare. In tal senso si pu` o dimostrare il seguente risultato: Proposizione 5.1 Data una matrice A ∈ Rn×n , la sua fattorizzazione di Gauss esiste ed `e unica se e solo se le sottomatrici principali Ai di A di ordine i = 1, . . . , n − 1 (cio`e quelle ottenute limitando A alle sole prime i righe e colonne) sono non singolari. (Tale risultato vale anche per A ∈ Cn×n [Zha99, Sect. 3.2]) Tornando all’Esempio 5.6, possiamo in effetti notare che quando ε = 0 la seconda sottomatrice A2 di A `e singolare. Possiamo identificare alcune classi di matrici per le quali le ipotesi della Proposizione 5.1 sono soddisfatte. In particolare, ricordiamo: 1. le matrici a dominanza diagonale stretta. Una matrice `e detta a dominanza diagonale per righe se |aii | ≥

n

|aij |,

i = 1, . . . , n,

|aii | ≥

n

|aji |,

i = 1, . . . , n;

j=1 j=i

per colonne se

j=1 j=i

quando nelle precedenti disuguaglianze possiamo sostituire il segno ≥ con quello > diremo che A `e a dominanza diagonale stretta (per righe o per colonne, rispettivamente). Questo risultato vale anche per matrici A∈ Cn×n (si veda [GI04]); 2. le matrici reali simmetriche e definite positive. Ricordiamo che una matrice A ∈ Rn×n `e definita positiva se ∀x ∈ Rn con x = 0,

xT Ax > 0;

3. le matrici complesse A ∈ Cn×s definite positive, ovvero tali che ∀x ∈ Cn con x = 0,

xH Ax > 0;

osserviamo che tali matrici sono necessariamente hermitiane (si veda [Zha99, Sect. 3.2]). Se A∈ Rn×n `e simmetrica e definita positiva, `e inoltre possibile trovarne una fattorizzazione speciale A = RT R

(5.16)

5.3 Il metodo di fattorizzazione LU

143

essendo R una matrice triangolare superiore con elementi positivi sulla diagonale. La (5.16) `e nota come fattorizzazione di Cholesky. Il calcolo di R richiede circa n3 /3 operazioni (cio`e la met`a di quelle richieste per calcolare le due matrici della fattorizzazione LU di Gauss). Si noti inoltre che per la simmetria di A, se ne pu` o memorizzare la sola parte triangolare superiore ed R potr` a essere memorizzata nella stessa area di memoria. Gli elementi di R possono essere calcolati tramite il seguente algorit√ mo: poniamo r11 = a11 e, per i = 2, . . . , n, # " j−1 1 aij − rji = rki rkj , j = 1, . . . , i − 1 rjj k=1   i−1  rii = aii − r2

(5.17)

ki

k=1

La fattorizzazione di Cholesky `e richiamabile in MATLAB con la sintassi R=chol(A). Nel caso in cui sia A∈ Cn×n definita positiva, la formula (5.16) diventa A=RH R, essendo RH la trasposta coniugata di R. Esempio 5.7 (Rete di capillari) La matrice A del problema 5.4 `e simmetrica e definita positiva. Il sistema relativo pu`o essere risolto ricorrendo alla fattorizzazione di Cholesky e fornisce il seguente vettore come soluzione p = [40, 30, 30, 20, 20, 20, 20, 10, 10, 10, 10, 10, 10, 10, 10]T . Corrispondentemente, attraverso le relazioni (5.5), troviamo i seguenti valori di portata: Q1 Q2,3 Q4,···,7 Q8,···,15 Q16,···,31

= = = = =

1 0.5 0.25 0.125 0.0625.

La matrice A ha una struttura speciale: si veda per un esempio la Fig. 5.6 corrispondente ad un letto capillare con 8 livelli di biforcazione. I punti colorati sono quelli corrispondenti alla presenza di elementi non nulli. Su ogni riga esistono al pi` u 3 elementi non nulli. Si tratta di una matrice a banda e sparsa, essendo solo 379 gli elementi non nulli su un totale di (127)2 = 16129 elementi della matrice. Osserviamo che la fattorizzazione di Cholesky genera il riempimento della banda, come risulta dalla Fig. 5.6 (a destra) in cui viene riportata la struttura del fattore triangolare superiore R. La riduzione di questo fenomeno `e possibile grazie all’uso di algoritmi di riordinamento della matrice di partenza. Un esempio `e riportato in Fig. 5.7, in cui si evidenzia a sinistra

chol

144

5 Sistemi lineari 0

0

20

20

40

40

60

60

80

80

100

100

120

120 0

20

40

60 nz = 379

80

100

120

0

20

40

60 nz = 4222

80

100

120

Figura 5.6. Struttura delle matrici A e R dell’Esempio 5.7 0

0

20

20

40

40

60

60

80

80

100

100

120

120 0

20

40

60 nz = 379

80

100

120

0

20

40

60 nz = 253

80

100

120

Figura 5.7. Struttura delle matrici A e R dell’Esempio 5.7 dopo il riordino la matrice A riordinata, e a destra il nuovo fattore R che se ne deriva. Per una discussione sulle principali tecniche di riordinamento rinviamo il lettore interessato a [QSS07, Sect. 3.9]. 

Si vedano gli Esercizi 5.1-5.5.

5.4 La tecnica del pivoting Vogliamo introdurre un metodo che consenta di portare a compimento il processo di fattorizzazione LU per una qualunque matrice A non singolare, anche nel caso in cui le ipotesi della Proposizione 5.1 non siano soddisfatte. Riprendiamo la matrice dell’Esempio 5.6 nel caso in cui ε = 0. Poniamo al solito A(1) = A ed eseguiamo solo il primo passo (k = 1) di tale metodo; i nuovi coefficienti di A sono

5.4 La tecnica del pivoting





1 ⎣2 3

1 3 0 -4 ⎦ . 3 -5

145

(5.18)

o proseguire oltre. D’altra Essendo nullo il pivot a22 , la procedura non pu` parte, se prima di procedere con la fattorizzazione avessimo scambiato la seconda riga di A con la terza, avremmo ottenuto la matrice ⎡ ⎤ 1 1 3 ⎣3 3 -5 ⎦ 2 0 -4

e la fattorizzazione avrebbe potuto terminare senza incontrare divisioni per 0. Quindi, permutando (cio`e scambiando) opportunamente le righe della matrice A di partenza, `e possibile portare a termine il processo di fattorizzazione anche quando le ipotesi della Proposizione 5.1 non sono soddisfatte, ma nella sola ipotesi che det(A) = 0. Sfortunatamente non `e possibile stabilire a priori quali siano le righe che dovranno essere tra loro scambiate; tuttavia questa decisione pu` o essere presa ad ogni passo (k) k durante il quale si generino elementi akk nulli. Riprendiamo la matrice (5.18) che presenta l’elemento pivot nullo (in posizione (2, 2)). Osservato che l’elemento in posizione (3, 2) `e non nullo, scambiamo la terza riga con la seconda e procediamo con il processo di fattorizzazione. Cos`ı facendo si trova proprio la matrice che si sarebbe ottenuta permutando a priori le medesime due righe nella matrice A, ovvero possiamo effettuare gli scambi tra righe quando si rendono necessari, senza preoccuparci di doverli individuare a priori. Siccome lo scambio tra le righe comporta un cambiamento dei pivot, questa tecnica viene chiamata pivoting per righe. La fattorizzazione che si trova restituisce la matrice A di partenza a meno di una permutazione fra le righe. Precisamente, PA = LU

(5.19)

essendo P una opportuna matrice di permutazione. Essa `e posta uguale all’identit` a all’inizio del processo di fattorizzazione: se nel corso della fattorizzazione le righe r e s di A vengono scambiate, uno scambio analogo deve essere fatto sulle righe r e s di P. Corrispondentemente, dovremo ora risolvere i seguenti sistemi triangolari Ly = Pb,

Ux = y.

(5.20)

Dalla seconda equazione nella (5.13) si comprende anche che elementi (k) akk piccoli, pur non impedendo la corretta conclusione del calcolo della

146

5 Sistemi lineari

fattorizzazione, possono comportare gravi perdite di accuratezza nel risultato finale, in quanto gli eventuali errori di arrotondamento presenti (k) nei coefficienti akj potrebbero risultare fortemente amplificati. Esempio 5.8 Consideriamo la matrice non singolare seguente 2 3 1 1 + 0.5 · 10−15 3 2 20 5 . A = 42 3 6 4

Durante il calcolo della fattorizzazione con il Programma 5.1 non si generano elementi pivot nulli. Nonostante ci` o, i fattori L ed U calcolati sono assai inaccurati, come si verifica calcolando A−LU (che in aritmetica esatta sarebbe uguale alla matrice nulla). Si ottiene 2 3 000 A − LU = 4 0 0 0 5 , 00k dove k = 4 in MATLAB e k = 6 in Octave.



` pertanto consigliabile eseguire il pivoting ad ogni passo della proE (k) cedura di fattorizzazione, cercando fra tutti i pivot disponibili aik con i = k, . . . , n, quello di modulo massimo. L’algoritmo (5.13) con il pivoting per righe, eseguito ad ogni passo, diventa allora: posto A(1) = A e P=I, si calcoli per k = 1, . . . , n − 1, (k) (k) trovare r¯ tale che |ar¯k | = max |ark |, r=k,...,n

scambiare la riga k con la riga r¯ sia in A che in P, per i = k + 1, . . . , n (k) a , lik = ik (k) akk per j = k + 1, . . . , n (k+1) (k) (k) aij = aij − lik akj

(5.21)

Come gi`a osservato per l’algoritmo (5.13) senza permutazioni, un solo spazio di memoria `e sufficiente a contenere gli elementi variabili (k) aij nonch´e i moltiplicatori lik . Di conseguenza, per ogni k, la stessa permutazione effettuata su A e P agisce anche sui moltiplicatori. La funzione MATLAB lu, cui abbiamo accennato in precedenza, calcola la fattorizzazione di Gauss con pivoting per righe. La sua sintassi completa `e infatti [L,U,P]=lu(A), dove P `e la matrice di permutazione. Quando richiamata con la sintassi abbreviata [L,U]=lu(A), essa produce

5.5 Quanto `e accurata la fattorizzazione LU?

147

una matrice L che `e uguale a P*M, dove M `e triangolare inferiore e P `e una matrice di permutazione generata dal pivoting per righe. Il comando lu attiva automaticamente il pivoting per righe. In particolare, quando la matrice `e memorizzata in formato sparse (si vedano i paragrafi 5.6 e 5.8), la pivotazione per righe `e effettuata solo quando viene generato un elemento pivot nullo (o molto piccolo). Si vedano gli Esercizi 5.6-5.8.

5.5 Quanto ` e accurata la fattorizzazione LU? Come abbiamo gi` a avuto modo di notare nell’Esempio 5.8, a causa degli errori di arrotondamento il prodotto LU non riproduce esattamente la matrice A. Tuttavia, l’uso del pivoting consente di contenere questo genere di errori e sembrerebbe quindi ragionevole attendersi con tale tecnica una soluzione accurata del sistema da risolvere. Purtroppo ci` o non sempre `e vero, come mostra l’esempio seguente. Esempio 5.9 Consideriamo il sistema lineare An xn = bn dove An ∈ Rn×n `e la cosiddetta matrice di Hilbert di elementi aij = 1/(i + j − 1),

i, j = 1, . . . , n,

mentre bn `e scelto in modo tale che la soluzione esatta del sistema sia xn = o dimostrare (1, 1, . . . , 1)T . La matrice An `e chiaramente simmetrica e si pu` che essa `e anche definita positiva. Per diversi valori di n usiamo in MATLAB la funzione lu per calcolare la fattorizzazione di Gauss di An con pivoting per righe. Risolviamo quindi i sistemi lineari associati (5.20), indicando con b n la soluzione calcolata. Nella Figura 5.8 riportiamo (in scala logaritmica) x l’andamento dell’errore relativo al variare di n, b n /xn , En = xn − x

(5.22)

avendo indicato con  ·  la norma Euclidea introdotta nel paragrafo 1.4.1. Abbiamo En ≥ 10 se n ≥ 13 (ovvero un errore relativo sulla soluzione superiore al 1000%!), mentre Rn = Ln Un − Pn An `e una matrice nulla (rispetto alla precisione di macchina), qualunque sia il valore di n considerato. 

Sulla base della precedente osservazione, si pu` o allora ipotizzare che quando si risolve numericamente il sistema lineare Ax = b in pratica si  di un sistema perturbato della forma stia trovando la soluzione esatta x (A + δA) x = b + δb,

(5.23)

dove δA e δb sono rispettivamente una matrice ed un vettore che dipendono dallo specifico metodo numerico impiegato nella risoluzione del sistema. Incominciamo ad analizzare il caso in cui δA = 0 e δb = 0, in

148

5 Sistemi lineari 5

10

0

10

−5

10

−10

10

−15

10

−20

10

0

20

40

60

80

100

Figura 5.8. Andamento di En (linea continua) e di maxi,j=1,...,n |rij | (linea tratteggiata) in scala logaritmica, per il sistema di Hilbert dell’Esempio 5.9. Gli rij sono i coefficienti della matrice Rn

quanto pi` u semplice del caso generale. Supponiamo inoltre per semplicit`a che A ∈ Rn×n sia simmetrica e definita positiva.  = −A−1 δb, e dunque Confrontando (5.1) e (5.23) troviamo x − x   = A−1 δb. x − x

(5.24)

Per trovare un limite superiore del termine di destra della (5.24) procediamo nel modo seguente. Essendo A simmetrica e definita positiva, esiste una base ortonormale di Rn formata dagli autovettori {vi }ni=1 di A (si veda ad esempio [QSS08, Capitolo 1]). Questo comporta che Avi = λi vi ,

viT vj = δij ,

i = 1, . . . , n,

i, j = 1, . . . , n,

dove λi `e l’autovalore di A associato a vi e δij `e il simbolo di Kronecker. Di conseguenza, un generico vettore w ∈ Rn pu` o essere scritto come w=

n

wi vi ,

i=1

per un opportuno (ed unico) insieme di coefficienti wi ∈ R. Abbiamo Aw2 = (Aw)T (Aw) = [w1 (Av1 )T + . . . + wn (Avn )T ][w1 Av1 + . . . + wn Avn ] = (λ1 w1 v1T + . . . + λn wn vnT )(λ1 w1 v1 + . . . + λn wn vn ) n λ2i wi2 . = i=1

Denotiamo con λmax il pi` u grande autovalore di A. Poich´e w2 = n 2 i=1 wi , concludiamo che Aw ≤ λmax w,

∀w ∈ Rn .

(5.25)

5.5 Quanto `e accurata la fattorizzazione LU?

149

In modo analogo, otteniamo A−1 w ≤

1 w, λmin

in quanto gli autovalori di A−1 sono i reciproci di quelli di A. Questa disuguaglianza consente di dedurre dalla (5.24) che  x − x 1 δb ≤ . x λmin x

(5.26)

Usando nuovamente la (5.25) e ricordando che Ax = b, otteniamo infine  x − x λmax δb ≤ x λmin b

(5.27)

Quindi l’errore relativo sulla soluzione dipende dall’errore relativo sui dati attraverso la seguente costante (≥ 1) K(A) =

λmax λmin

(5.28)

che `e detta numero di condizionamento (spettrale) della matrice A. K(A) pu` o essere calcolato in MATLAB con il comando cond. Osservazione 5.3 Il comando cond(A) consente di calcolare (in modo approssimato) il numero di condizionamento di una matrice A generica, anche quando non `e simmetrica o definita positiva. A questo proposito conviene osservare che esistono diverse definizioni alternative del numero di condizionamento di una matrice. Per una matrice A generica, −1 il comando p cond(A) fornisce il valore K2 (A) = A2 · A 2 , dove si definisce T A2 = λmax (A A). Si osserva che, qualora A non sia simmetrica e definita positiva, K2 (A) pu` o essere molto diverso dal numero di condizionamento spettrale K(A) definito in (5.28). Quando A `e una matrice sparsa, il comando condest(A) consente di calcolare un’approssimazione di basso costo computazionale del P numero di condizionamento K1 (A) = A1 · A−1 1 , essendo  A1 = maxj n j=1 |aij | la cosiddetta norma 1 di A.

Altre definizioni per il numero di condizionamento sono disponibili per matrici non simmetriche, si veda ad esempio [QSS08, Capitolo 3]. Una dimostrazione pi` u elaborata avrebbe condotto ad un risultato pi` u generale nel caso in cui anche δA fosse stata una matrice non nulla simmetrica e definita positiva e tale che λmax (δA) < λmin (A), si pu` o dimostrare che  x − x K(A) ≤ x 1 − λmax (δA)/λmin (A)



λmax (δA) δb + λmax (A) b



(5.29)

cond

condest

150

5 Sistemi lineari

Se K(A) `e “piccolo”, cio`e dell’ordine dell’unit` a, la matrice A viene detta ben condizionata ed a piccoli errori sui dati corrisponderanno errori dello stesso ordine di grandezza sulla soluzione. Se invece `e grande, la matrice si dir` a mal condizionata e potrebbe accadere che a piccole perturbazioni sui dati corrispondano grandi errori sulla soluzione. Esempio 5.10 Per la matrice di Hilbert introdotta nell’Esempio 5.9, K(An ) `e una funzione rapidamente crescente di n. Abbiamo K(A4 ) > 15000, mentre se n > 13, MATLAB segnala che la matrice ha un numero di condizionamento cos`ı elevato da essere ritenuta singolare. In realt`a, K(An ) cresce esponenzialo mente rispetto ad n, K(An ) ≃ e3.5n (si veda [Hig02]). Non dobbiamo perci` sorprenderci dei cattivi risultati ottenuti nell’Esempio 5.9. 

La disuguaglianza (5.27) pu` o essere riformulata introducendo il residuo r: r = b − A x.

(5.30)

 fosse la soluzione esatta, il residuo sarebbe il vettore Evidentemente se x nullo. Di conseguenza, r pu` o essere ritenuto uno stimatore dell’errore . La sua efficacia come stimatore dell’errore dipende commesso x − x dalla grandezza del numero di condizionamento di A. Infatti, osservando che δb = A( x − x) = A x − b = −r, dalla stima (5.27) si ricava  x − x r ≤ K(A) x b

(5.31)

Quindi se K(A) `e “piccolo”, avremo la certezza che l’errore sar`a piccolo quando lo `e il residuo, mentre ci`o non `e necessariamente vero quando K(A) `e “grande”. Esempio 5.11 Se calcoliamo la norma del residuo per i sistemi dell’Esempio 5.9, troviamo quantit` a che variano tra 10−16 e 10−11 in corrispondenza di soluzioni che nulla hanno a che fare con la soluzione esatta del sistema. 

Si vedano gli Esercizi 5.9-5.10.

5.6 Come risolvere un sistema tridiagonale In molte applicazioni (si veda ad esempio il Capitolo 8) `e necessario risolvere un sistema con una matrice della forma ⎡ ⎤ a 1 c1 0 ⎢ ⎥ ⎢ e 2 a2 . . . ⎥ ⎥. A=⎢ ⎢ . ⎥ .. ⎣ cn−1 ⎦ 0 e n an

5.6 Come risolvere un sistema tridiagonale

151

La matrice A viene detta tridiagonale in quanto gli unici elementi che possono essere non nulli appartengono alla diagonale principale ed alla prima sopra e sotto-diagonale. Allora se la fattorizzazione di Gauss di A esiste, i fattori L e U sono due matrici bidiagonali (inferiore e superiore, rispettivamente) della forma ⎡ ⎤ ⎡ ⎤ α1 c1 0 1 0 ⎢ ⎥ . ⎢ β2 1 ⎥ ⎢ ⎥ α2 . . ⎢ ⎥ ⎢ ⎥. L=⎢ , U = ⎥ . . ⎢ ⎥ . . .. ⎣ . . ⎦ ⎣ . cn−1 ⎦ 0 βn 1 0 αn

I coefficienti incogniti αi e βi possono essere determinati imponendo l’uguaglianza LU = A. In tal modo si trovano le seguenti relazioni ricorsive per il calcolo dei fattori L e U ei α1 = a1 , βi = , αi = ai − βi ci−1 , i = 2, . . . , n. (5.32) αi−1

Grazie ad esse, possiamo risolvere i due sistemi bidiagonali Ly = b e Ux = y, ottenendo le seguenti formule (Ly = b) (Ux = y)

y1 = b1 , yi = bi − βi yi−1 , i = 2, . . . , n, xn =

(5.33)

yn yi − ci xi+1 , xi = , i = n − 1, . . . , 1.(5.34) αn αi

Questa procedura `e nota come algoritmo di Thomas e consente di risolvere un sistema tridiagonale con un costo dell’ordine di n operazioni. Il comando MATLAB spdiags permette di costruire facilmente una matrice tridiagonale, memorizzando le sole tre diagonali non nulle. Ad esempio, attraverso i comandi

spdiags

b = ones (10 ,1); a =2* b ; c =3* b ; T = spdiags ([ b a c ] , -1:1 ,10 ,10);

si ottiene la matrice tridiagonale T ∈ R10×10 con coefficienti pari a 2 sulla diagonale principale, 1 sulla prima sotto-diagonale e 3 sulla prima sopra-diagonale. Si noti che T viene memorizzata in un formato sparso: quest’ultimo prende in considerazione solo gli elementi diversi da 0. Una matrice A quadrata di dimensione n `e detta sparsa se ha un numero di elementi non nulli dell’ordine di n (e non di n2 ). Inoltre chiamiamo pattern di una matrice sparsa l’insieme dei suoi elementi non nulli. Quando un sistema lineare `e risolto richiamando il comando \, MATLAB `e in grado di riconoscere il tipo di matrice (in particolare se essa `e stata generata come matrice sparsa, ad esempio con i comandi sparse o spdiags) e selezionare l’algoritmo di risoluzione pi` u adatto. In particolare, se A `e una matrice tridiagonale generata in modalit` a sparsa, verr` a selezionato l’algoritmo di Thomas.

sparse

152

5 Sistemi lineari

5.7 Sistemi sovradeterminati Un sistema lineare Ax = b con A∈ Rm×n viene detto sovradeterminato se m > n, sottodeterminato se m < n. In generale, un sistema sovradeterminato non ha soluzione a meno che il termine noto b non sia un elemento del range(A), definito come range(A) = {y ∈ Rm : y = Ax per x ∈ Rn }.

(5.35)

Per un termine noto b arbitrario possiamo cercare un vettore x∗ ∈ Rn che minimizzi la norma euclidea del residuo, cio`e tale che Φ(x∗ ) = Ax∗ − b22 ≤ Ax − b22 = Φ(x)

∀x ∈ Rn .

(5.36)

Il vettore x∗ quando esiste `e detto soluzione nel senso dei minimi quadrati del sistema sovradeterminato Ax = b. In modo del tutto analogo a quanto fatto nel paragrafo 3.6, si pu` o trovare la soluzione di (5.36) imponendo che il gradiente della funzione Φ sia nullo in x∗ . Con calcoli del tutto simili si trova che x∗ `e di fatto la soluzione del sistema lineare AT Ax∗ = AT b

(5.37)

detto sistema delle equazioni normali. Il sistema (5.37) `e non singolare se A `e a rango pieno (cio`e se rank(A) = min(m,n), dove il rango di A rank(A) `e il massimo ordine dei determinanti non nulli estratti da A). In tal caso B = AT A `e una matrice simmetrica e definita positiva, e di conseguenza la soluzione nel senso dei minimi quadrati esiste unica. Per calcolarla si pu` o usare la fattorizzazione di Cholesky (5.16) applicata alla matrice B. Si tenga comunque conto che a causa degli errori di arrotondamento il calcolo di AT A pu` o introdurre una perdita di cifre significative con la conseguente perdita di definita positivit` a della matrice. Anche per questa ragione `e pi` u conveniente usare, al posto della fattorizzazione di Cholesky, la fattorizzazione QR oppure la decomposizione in valori singolari di A. Incominciamo dalla prima. Ogni matrice A ∈ Rm×n a rango pieno, con m ≥ n, ammette un’unica fattorizzazione QR A = QR

(5.38)

nella quale la matrice Q ∈ Rm×m `e ortogonale (cio`e tale che QT Q = I) mentre R ∈ Rm×n `e una matrice con tutti gli elementi sotto la diagonale principale nulli e tutti quelli diagonali non nulli. Si veda la Figura 5.9.  R,  essendo Q  = Q(1 : m, 1 : n) Si pu` o verificare che vale anche A = Q  e R = R(1 : n, 1 : n) le due sottomatrici evidenziate in Figura 5.9;

5.7 Sistemi sovradeterminati n

n

m−n 0

e Q

m

A

153

n e R 0

Q

n

m−n

R

Figura 5.9. La fattorizzazione QR

 ha vettori colonna ortonormali, mentre R  `e una matrice triangolare Q superiore (coincidente con il fattore R della fattorizzazione di Cholesky  non singolare, l’unica soluzione di (5.38) della matrice AT A). Essendo R `e data da ˜ −1 Q ˜ T b. x∗ = R

(5.39)

Introduciamo ora la decomposizione in valori singolari di una matrice. Si pu` o dimostrare che per ogni matrice rettangolare A ∈ Cm×n esistono due matrici U ∈ Cm×m e V ∈ Cn×n unitarie tali che UH AV = Σ = diag(σ1 , . . . , σp ) ∈ Rm×n

(5.40)

dove p = min(m, n) e σ1 ≥ . . . ≥ σp ≥ 0. Una matrice U `e detta unitaria se UH U = UUH = I. La (5.40) `e detta decomposizione in valori singolari (o singular value decomposition, in breve SVD)  di A ed i numeri σi sono detti i valori singolari di A. Si ha che σi = λi (AH A), essendo λi (AH A) gli autovalori, reali e positivi, della matrice AH A. Osserviamo che, se A `e una matrice a coefficienti reali, allora lo sono anche U e V. Inoltre U e V sono matrici ortogonali e UH non `e altro che UT . Se operiamo la decomposizione in valori singolari (5.40) sulla matrice A del sistema (5.37), essendo U ortogonale, abbiamo AT A = VT Σ T ΣV e quindi il sistema delle equazioni normali (5.37) `e equivalente al sistema VT Σ T ΣVx∗ = VT Σ T Ub.

(5.41)

Osserviamo che V `e ortogonale e che la matrice Σ T Σ `e una matrice quadrata diagonale non singolare i cui elementi diagonali sono i quadrati dei valori singolari di A. Allora, moltiplicando a sinistra entrambi i termini del sistema (5.41) prima per V, poi per (Σ T Σ)−1 ed infine per VT , otteniamo x∗ = VT Σ † U b = A† b, (5.42) dove Σ † = diag(1/σ1 , . . . , 1/σn , 0, . . . , 0) e A† = VT Σ † U . Quest’ultima `e detta pseudoinversa di A.

154

svd svds

5 Sistemi lineari

Dalla formula (5.42) si evince quindi che il calcolo dei valori singolari di A e delle matrici U e V permette, con semplici operazioni aggiuntive, di trovare la soluzione del sistema delle equazioni normali (5.37). MATLAB mette a disposizione due function: svd e svds. La prima calcola tutti i valori singolari di una matrice e la seconda soltanto i k pi` u grandi, con k da precisare in ingresso (per default k=6). Rimandiamo a [ABB+ 99] per una presentazione esaustiva dell’algoritmo che viene utilizzato. Esempio 5.12 Consideriamo un approccio alternativo al problema di trovare la retta di regressione ǫ(σ) = a1 σ + a0 (si veda il paragrafo 3.6) per i dati del Problema 3.3. Usando i dati della Tabella 3.2 e imponendo le condizioni di interpolazione otteniamo il sistema sovradeterminato Aa = b, dove a = (a1 , a0 )T e 2 3 2 3 0 0 1 6 0.08 7 6 0.06 1 7 6 7 6 7 6 0.14 7 6 0.14 1 7 6 7 6 7 6 6 0.25 1 7 7 7 , b = 6 0.20 7 . A=6 6 0.23 7 6 0.31 1 7 6 7 6 7 6 0.25 7 6 0.47 1 7 6 7 6 7 4 0.28 5 4 0.60 1 5 0.70 1 0.29 Per calcolarne la soluzione nel senso dei minimi quadrati usiamo le seguenti istruzioni MATLAB [Q , R ]= qr ( A ); Qt = Q (: ,1:2); Rt = R (1:2 ,:); xstar = Rt \ ( Qt ’* b ) xstar = 0.3741 0.0654 Questi sono esattamente i coefficienti della retta di regressione calcolata nell’Esempio 3.12. Si noti che questa procedura `e automaticamente implementata nel comando \: l’istruzione xstar = A\b produce infatti il medesimo vettore  xstar calcolato con le formule (5.38) e (5.39).

5.8 Cosa si nasconde dietro al comando  di MATLAB ` importante sapere che nel comando \ di MATLAB viene richiamato E uno specifico algoritmo a seconda delle caratteristiche della matrice A del sistema lineare che si intende risolvere. A grandi linee, MATLAB segue la seguente procedura:

5.8 Cosa si nasconde dietro al comando  di MATLAB

155

1. se A `e una matrice sparsa e a banda, vengono usati dei risolutori per matrici a banda (come l’algoritmo di Thomas del paragrafo 5.6). Diciamo che una matrice A ∈ Rm×n (o in Cm×n ) ha banda inferiore p se aij = 0 per i > j + p e banda superiore q se aij = 0 per j > i + q. Il massimo fra p e q viene detto larghezza di banda della matrice; 2. se A `e una matrice triangolare superiore o inferiore (o una permutazione di una matrice triangolare), il sistema viene risolto con il metodo delle sostituzioni all’indietro nel caso superiore o con quello delle sostituzioni in avanti nel caso inferiore. Il controllo sulla triangolarit` a della matrice viene fatto controllando la disposizione degli elementi nulli se la matrice `e piena, accedendo direttamente ai dati memorizzati nella struttura di sparsit` a della matrice se la matrice `e sparsa; 3. se A `e simmetrica ed ha coefficienti diagonali reali e positivi (il che non implica che A sia simmetrica e definita positiva) in prima battuta MATLAB impiega la fattorizzazione di Cholesky (chol). Se inoltre A `e sparsa, essa viene preventivamente riordinata; 4. se nessuno dei precedenti criteri `e soddisfatto ed A `e una matrice quadrata non memorizzata in formato sparso, viene calcolata una generica fattorizzazione di Gauss con pivoting parziale (lu); 5. se A `e sparsa viene richiamata la libreria UMFPACK per risolvere il sistema; 6. se A `e una matrice rettangolare, vengono richiamati metodi opportuni per sistemi sovradeterminati basati sulla fattorizzazione QR (si veda il paragrafo 5.7). Il comando \ `e disponibile anche in Octave. Per un sistema la cui matrice `e densa, Octave esegue la seguente procedura: 1. se la matrice `e triangolare superiore o inferiore, Octave richiama una sostituzione in avanti o all’indietro di LAPACK (una libreria di algebra lineare largamente usata dalla comunit` a scientifica [ABB+ 99]); 2. se la matrice `e simmetrica con elementi positivi sulla diagonale principale, in prima battuta Octave richiama la fattorizzazione di Cholesky di LAPACK; 3. se la fattorizzazione di Cholesky fallisce o la matrice non `e simmetrica con elementi positivi sulla diagonale principale, il sistema `e risolto con l’eliminazione Gaussiana con pivoting per righe di LAPACK; 4. se la matrice non `e quadrata o ognuno dei risolutori precedenti segnala una matrice singolare o una matrice vicina ad una singolare, viene calcolata una soluzione nel senso dei minimi quadrati.

156

5 Sistemi lineari

Quando invece la matrice `e sparsa, Octave esegue la seguente procedura: 1. se la matrice `e quadrata, a banda, e se la densit` a di banda `e “sufficientemente piccola” continua con il punto a), altrimenti si passa al punto 2.; a) se la matrice `e tridiagonale ed il termine noto non `e sparso, continua, altrimenti si passa al punto b); i. se la matrice `e simmetrica e con elementi positivi sulla diagonale principale, in prima battuta Octave richiama una fattorizzazione di Cholesky; ii. se il controllo precedente fallisce o se la matrice non `e simmetrica con elementi positivi sulla diagonale principale, il sistema `e risolto con una eliminazione Gaussiana con pivoting; b) se la matrice `e simmetrica con elementi positivi sulla diagonale principale, in prima battuta Octave richiama una fattorizzazione di Cholesky; c) se il controllo precedente fallisce o se la matrice non `e simmetrica con elementi positivi sulla diagonale principale, il sistema `e risolto con una eliminazione Gaussiana con pivoting; 2. se la matrice `e triangolare superiore (o una sua permutazione per colonne) o triangolare inferiore (o una sua permutazione per righe), Octave richiama una sostituzione in avanti o all’indietro per matrici sparse; 3. se la matrice `e quadrata, simmetrica e con elementi positivi sulla diagonale principale, in prima battuta Octave richiama una fattorizzazione di Cholesky per matrici sparse; 4. se la fattorizzazione di Cholesky per matrici sparse fallisce o la matrice non `e simmetrica con elementi positivi sulla diagonale principale, il sistema `e fattorizzato utilizzando la libreria UMFPACK; 5. se la matrice non `e quadrata o ognuno dei risolutori precedenti segnala una matrice singolare o una matrice prossima ad essere singolare, viene calcolata una soluzione nel senso dei minimi quadrati.

Riassumendo 1. La fattorizzazione LU di A∈ Rn×n consiste nel calcolare una matrice triangolare inferiore L ed una matrice triangolare superiore U, tali che A = LU; 2. se esiste, la fattorizzazione LU non `e unica. Tuttavia pu` o essere univocamente determinata fissando n condizioni addizionali, come, ad esempio, ponendo i coefficienti diagonali di L pari a uno; in tal caso si trova la cosiddetta fattorizzazione di Gauss;

5.9 Metodi iterativi

157

3. la fattorizzazione di Gauss esiste unica se e solo se le sottomatrici principali di A di ordine da 1 fino a n − 1 sono tutte non singolari; 4. in presenza di un pivot nullo, si deve individuare un nuovo pivot scambiando opportunamente fra loro le righe o le colonne del sistema (questa strategia `e detta pivoting); 5. per calcolare i fattori L e U sono richieste circa 2n3 /3 operazioni. Nel caso di sistemi tridiagonali tale costo scende ad un ordine di n operazioni; 6. per le matrici reali simmetriche e definite positive esiste la fattorizzazione di Cholesky, A = RT R, con R triangolare superiore. Il relativo costo computazionale `e dell’ordine di n3 /3 operazioni; 7. la sensibilit` a della soluzione di un sistema lineare alle perturbazioni sui dati dipende dal numero di condizionamento della matrice. Precisamente, quando quest’ultimo `e grande, piccole perturbazioni sui coefficienti della matrice e del termine noto possono dar luogo a soluzioni molto inaccurate; 8. la soluzione di un sistema lineare sovradeterminato pu` o essere intesa nel senso dei minimi quadrati. Essa pu` o essere calcolata attraverso la fattorizzazione QR oppure usando la decomposizione in valori singolari di A.

5.9 Metodi iterativi Un metodo iterativo per la risoluzione del sistema lineare (5.1) con A∈ Rn×n e b ∈ Rn consiste nel costruire una successione di vettori {x(k) , k ≥ 0} di Rn che converge alla soluzione esatta x, ossia tale che lim x(k) = x

(5.43)

k→∞

per un qualunque vettore iniziale x(0) ∈ Rn . Per realizzare questo processo una possibile strategia `e quella di definire ricorsivamente x(k+1) = Bx(k) + g,

k ≥ 0,

(5.44)

essendo B una matrice opportuna (dipendente da A) e g un vettore opportuno (dipendente da A e da b), scelti in modo tale da garantire la condizione di consistenza x = Bx + g.

(5.45)

Essendo x = A−1 b, necessariamente dovr`a aversi g = (I − B)A−1 b. Detto e(k) = x − x(k) l’errore al passo k, sottraendo la (5.44) dalla (5.45), si ottiene e(k+1) = Be(k) .

158

5 Sistemi lineari

Per tale ragione B `e detta matrice di iterazione del metodo (5.44). Se B `e simmetrica e definita positiva, grazie alla (5.25) otteniamo e(k+1)  = Be(k)  ≤ ρ(B)e(k) ,

∀k ≥ 0,

dove ρ(B) `e il raggio spettrale di B ed `e il massimo modulo degli autovalori di B. Per matrici simmetriche e definite positive esso coincide con il massimo autovalore. Iterando a ritroso la stessa disuguaglianza, si trova e(k)  ≤ [ρ(B)]k e(0) ,

k ≥ 0.

(5.46)

Se ρ(B) < 1, allora e(k) → 0 per k → ∞ per ogni possibile e(0) (e, conseguentemente, per ogni x(0) ). Pertanto il metodo iterativo converge. Si pu` o inoltre dimostrare che questa ipotesi `e anche necessaria per la convergenza. Facciamo notare che se si conoscesse ρ(B), dalla (5.46) sarebbe possibile ricavare il minimo numero di iterazioni kmin necessario per abbattere l’errore iniziale di un dato fattore ε. Infatti, kmin sarebbe il pi` u piccolo intero positivo per cui [ρ(B)]kmin ≤ ε. In generale, per una generica matrice vale la seguente propriet` a: Proposizione 5.2 Un metodo iterativo della forma (5.44) la cui matrice di iterazione B soddisfi la (5.45), `e convergente per ogni x(0) se e soltanto se ρ(B) < 1. Inoltre, minore `e ρ(B), minore `e il numero di iterazioni necessario per ridurre l’errore iniziale di un dato fattore.

5.9.1 Come costruire un metodo iterativo Una tecnica generale per costruire un metodo iterativo `e basata sulla seguente decomposizione additiva (o splitting) della matrice A, A = P − (P − A), dove P `e una opportuna matrice non singolare che chiameremo precondizionatore di A. Di conseguenza, Px = (P − A)x + b `e un sistema della forma (5.45) purch´e si ponga B = P−1 (P − A) = a suggerisce la definizione del I − P−1 A e g = P−1 b. Questa identit` seguente metodo iterativo P(x(k+1) − x(k) ) = r(k) ,

k ≥ 0,

dove r(k) = b − Ax(k)

(5.47)

5.9 Metodi iterativi

159

denota il vettore residuo alla k-esima iterazione. Una generalizzazione di questo metodo iterativo `e P(x(k+1) − x(k) ) = αk r(k) ,

k≥0

(5.48)

o cambiare ad ogni iterazione k e che, dove αk = 0 `e un parametro che pu` a priori, servir` a a migliorare le propriet` a di convergenza della successione {x(k) }. Il metodo (5.48) richiede ad ogni passo di trovare il cosiddetto residuo precondizionato z(k) dato dalla soluzione del sistema lineare Pz(k) = r(k) ,

(5.49)

di conseguenza, la nuova iterata `e definita da x(k+1) = x(k) + αk z(k) . Per questa ragione la matrice P deve essere scelta in modo tale che il costo computazionale richiesto dalla risoluzione di (5.49) sia modesto (ogni matrice P diagonale, tridiagonale o triangolare andrebbe bene a questo scopo). Introduciamo ora alcuni esempi particolari di metodi iterativi della forma (5.48). Il metodo di Jacobi Se i coefficienti diagonali di A sono non nulli, possiamo scegliere P = D = diag(a11 , a22 , . . . , ann ), ovvero D `e la matrice diagonale costruita a partire dagli elementi diagonali di A. Il metodo di Jacobi corrisponde a questa scelta supponendo αk = 1 per ogni k. Di conseguenza, dalla (5.48), otteniamo Dx(k+1) = b − (A − D)x(k) ,

k ≥ 0,

che, per componenti, assume la forma

(k+1)

xi

=



1 ⎝ bi − aii (0)

n

j=1,j =i

(0)



(k) aij xj ⎠ , i = 1, . . . , n (0)

(5.50)

dove k ≥ 0 e x(0) = (x1 , x2 , . . . , xn )T `e il vettore iniziale. La matrice di iterazione `e allora ⎤ ⎡ 0 −a12 /a11 . . . −a1n /a11 ⎥ ⎢ ⎢ −a /a 0 −a2n /a22 ⎥ 21 22 ⎥ ⎢ ⎥ ⎢ B = D−1 (D − A) = ⎢ ⎥ . (5.51) .. .. ⎥ ⎢ .. ⎥ ⎢ . . . ⎦ ⎣ −an1 /ann −an2 /ann . . .

0

160

5 Sistemi lineari

Per il metodo di Jacobi vale il seguente risultato che consente di verificare la Proposizione 5.2 senza calcolare esplicitamente ρ(B): Proposizione 5.3 Se la matrice A∈ Rn×n del sistema (5.1) `e a dominanza diagonale stretta per righe, allora il metodo di Jacobi converge.

Verifichiamo infatti che in tal caso ρ(B) < 1, con B data nella (5.51), cio`e che tutti gli autovalori di B hanno modulo minore di 1. Iniziamo con l’osservare che la dominanza diagonale stretta garantisce che la diagonale di A non pu` o presentare elementi nulli (si veda il paragrafo 6.4). Siano λ un autovalore di B e x un autovettore associato a λ. Allora n

bij xj = λxi , i = 1, . . . , n.

j=1

Supponiamo per semplicit` a che maxk=1,...,n |xk | = 1 (questa ipotesi non `e restrittiva in quanto ogni autovettore `e definito a meno di una costante moltiplicativa) e sia xi la componente che ha modulo pari a 1. Allora      n   n    n      aij       , |λ| =  bij xj  =  bij xj  ≤  aii   j=1    j=1,j =i

j=1,j =i

avendo osservato che B ha elementi diagonali tutti nulli. Possiamo quindi concludere che |λ| < 1 grazie alle ipotesi fatte su A. Il metodo di Jacobi `e richiamabile nel Programma 5.2 ponendo come parametro d’ingresso P=’J’. I restanti parametri di ingresso sono: la matrice del sistema A, il termine noto b, il vettore iniziale x0, il massimo numero nmax di iterazioni consentite ed una tolleranza fissata tol per il test d’arresto. La procedura iterativa si arresta non appena il rapporto fra la norma del residuo corrente e quella del residuo iniziale sia inferiore od uguale a tol (si veda a questo riguardo il paragrafo 5.12). Programma 5.2. itermeth: metodo iterativo generico function [x , iter ]= itermeth (A ,b , x0 , nmax , tol , P ) % ITERMETH Un metodo iterativo generale % [X , ITER ] = ITERMETH (A ,B , X0 , NMAX , TOL , P ) cerca di % risovere iterativamen te il sistema di equazioni % lineari A * X = B su X . La matrice A di N - per - N coef % ficienti deve essere non singolare ed il termine % noto B deve avere lunghezza N . Se P = ’J ’ viene usato % il metodo di Jacobi , se P = ’G ’ viene invece selezio % nato il metodo di Gauss - Seidel . Altrimenti , P e ’ % una matrice N - per - N non singolare che gioca il % ruolo di precondizi on a to r e in un metodo di % Richardson a parametro dinamico .

5.9 Metodi iterativi

161

% Il metodo si arresta quando il rapporto % fra la norma del residuo corrente e quella del % residuo iniziale e ’ minore di TOL e ITER e ’ il % numero di iterazioni effettuate . NMAX prescrive % il numero massimo di iterazioni consentite . Se P % non viene precisata , viene usato il metodo di % Richardson non precondizion at o con parametro di % rilassamento uguale a 1. [n , n ]= size ( A ); if nargin == 6 if ischar ( P )==1 if P == ’J ’ L = diag ( diag ( A )); U = eye ( n ); beta =1; alpha =1; elseif P == ’G ’ L = tril ( A ); U = eye ( n ); beta =1; alpha =1; end else [L , U ]= lu ( P ); beta = 0; end else L = eye ( n ); U = L ; beta = 0; end iter = 0; x = x0 ; r = b - A * x0 ; r0 = norm ( r ); err = norm ( r ); while err > tol & iter < nmax iter = iter + 1; z = L \ r ; z = U \ z ; if beta == 0 alpha = z ’* r /( z ’* A * z ); end x = x + alpha * z ; r = b - A * x ; err = norm ( r ) / r0 ; end return

Il metodo di Gauss-Seidel (k+1) Quando si applica il metodo di Jacobi ogni componente xi del nuovo (k+1) vettore x viene calcolata indipendentemente dalle altre. Questo fatto pu` o suggerire che si potrebbe avere una convergenza pi` u rapida se per (k+1) il calcolo di xi venissero usate le nuove componenti gi`a disponibili (k+1) (k) xj , j = 1, . . . , i − 1, assieme con le vecchie xj , j ≥ i. Si modifica allora il metodo (5.50) come segue: per k ≥ 0 (supponendo ancora aii = 0 per i = 1, . . . , n) (k+1)

xi

⎞ ⎛ n i−1 1 ⎝ (k) (k+1) aij xj ⎠ , i = 1, .., n aij xj − = bi − aii j=i+1 j=1

(5.52)

L’aggiornamento delle componenti deve essere pertanto effettuato in modo sequenziale, mentre nell’originale metodo di Jacobi pu` o essere fatto simultaneamente (o in parallelo). Questo nuovo metodo, noto come metodo di Gauss-Seidel, corrisponde ad aver scelto P = D − E e αk = 1, k ≥ 0, in (5.48), dove E `e una matrice triangolare inferiore i cui soli elementi non nulli sono eij = −aij , i = 2, . . . , n, j = 1, . . . , i − 1. La

162

5 Sistemi lineari

corrispondente matrice di iterazione ha la forma B = (D − E)−1 (D − E − A). Una generalizzazione di questo metodo `e il cosiddetto metodo di rilassamento nel quale P = ω1 D − E, dove ω = 0 `e un parametro di rilassamento, e αk = 1, k ≥ 0 (si veda l’Esercizio 5.13). Anche per il metodo di Gauss-Seidel esistono delle classi di matrici per le quali la Proposizione 5.2 `e certamente verificata. Tra di esse menzioniamo: 1. le matrici a dominanza diagonale stretta per righe; 2. le matrici reali simmetriche e definite positive. Il metodo di Gauss-Seidel `e richiamabile nel Programma 5.2 ponendo il parametro di ingresso P uguale a ’G’. Non ci sono risultati generali che consentono di affermare che il metodo di Gauss-Seidel converga sempre pi` u rapidamente di quello di Jacobi, a parte casi particolari come quello facente oggetto della seguente proposizione: Proposizione 5.4 Se A∈ Rn×n `e una matrice tridiagonale non singolare con aii = 0, i = 1, . . . , n, allora i metodi di Jacobi e di GaussSeidel sono entrambi convergenti o entrambi divergenti. Nel caso di convergenza, il metodo di Gauss-Seidel converge pi` u velocemente di quello di Jacobi: precisamente, il raggio spettrale della matrice di iterazione del metodo di Gauss-Seidel `e il quadrato del raggio spettrale di quella del metodo di Jacobi. Esempio 5.13 Consideriamo un sistema lineare Ax = b dove A `e la matrice tridiagonale di dimensione n = 10 con elementi pari a 3 sulla diagonale principale, −2 sulla sopradiagonale e −1 sulla sottodiagonale, mentre b `e scelto in modo tale che la soluzione sia il vettore unitario (1, 1, . . . , 1)T . Entrambi i metodi di Jacobi e di Gauss-Seidel convergono in quanto i raggi spettrali delle matrici di iterazione sono minori di 1. In particolare, il metodo di Jacobi converge in 277 iterazioni contro le 143 richieste dal metodo di Gauss-Seidel (si `e posto tol =10−12 , nmax=400 e si `e partiti da un dato iniziale nullo). Le istruzioni necessarie per ottenere questo risultato sono n =10; A =3* eye ( n ) -2* diag ( ones (n -1 ,1) ,1) - diag ( ones (n -1 ,1) , -1); b = A * ones (n ,1); x0 = zeros (n ,1); [x , iterJ ]= itermeth (A ,b , x0 ,400 ,1. e -12 , ’J ’ ); iterJ [x , iterG ]= itermeth (A ,b , x0 ,400 ,1. e -12 , ’G ’ ); iterG iterJ = 277 iterG = 143 

5.10 Il metodo di Richardson e del gradiente

163

Si vedano gli Esercizi 5.11-5.14.

5.10 Il metodo di Richardson e del gradiente Ritorniamo ora a considerare metodi che si scrivono nella forma generale (5.48). Diciamo stazionario il caso in cui αk = α (una costante assegnata) per ogni k ≥ 0, dinamico il caso in cui αk pu` o cambiare ad ogni iterazione. In questo ambito la matrice non singolare P `e detta ancora precondizionatore di A. Il problema cruciale sta naturalmente nella scelta dei parametri. A questo proposito, valgono i seguenti risultati (si veda, ad esempio, [QV94, Capitolo 2], [Axe94]). Proposizione 5.5 Sia A∈ Rn×n . Per ogni matrice non singolare P ∈ Rn×n il metodo di Richardson stazionario converge se e solo se |λi |2
0) `e l’autovalore massimo di P−1 A. Inoltre, il raggio spettrale ρ(Bα ) della matrice di iterazione Bα = I − αP−1 A `e minimo quando α = αopt , dove αopt =

2 λmin + λmax

(5.53)

essendo λmin l’autovalore minimo di P−1 A. Infine vale la seguente stima di convergenza e(k) A ≤



K(P−1 A) − 1 K(P−1 A) + 1

k

e(0) A ,

k≥0

(5.54)

√ dove vA = vT Av, ∀v ∈ Rn , `e la cosiddetta norma dell’energia associata alla matrice A.

164

5 Sistemi lineari

Proposizione 5.6 Se A ∈ Rn×n e P ∈ Rn×n sono entrambe simmetriche e definite positive il metodo dinamico di Richardson converge se, ad esempio, αk `e scelto nel modo seguente αk =

(z(k) )T r(k) (z(k) )T Az(k)

(5.55)

∀k ≥ 0

dove z(k) = P−1 r(k) `e il residuo precondizionato definito nella (5.49). Il metodo (5.48) con questa scelta di αk `e detto metodo del gradiente precondizionato o, semplicemente, metodo del gradiente quando P `e la matrice identit` a. Infine vale la seguente stima di convergenza

e

(k)

A ≤



K(P−1 A) − 1 K(P−1 A) + 1

k

e(0) A ,

k≥0

(5.56)

La formula (5.55) individua quel parametro αk che consente di minimizzare il nuovo errore e(k+1) A (si veda l’Esercizio 5.17). Il metodo non stazionario `e da preferirsi a quello stazionario in quanto non richiede il calcolo degli autovalori estremi di P−1 A e determina il parametro αk in funzione di quantit` a gi` a calcolate al passo k. Il metodo del gradiente precondizionato pu` o essere scritto in modo efficiente attraverso il seguente algoritmo (la cui derivazione `e lasciata per esercizio): dato x(0) , si ponga r(0) = b − Ax(0) e si calcoli per k = 0, 1, . . . Pz(k) = r(k) , αk =

(z(k) )T r(k) , (z(k) )T Az(k)

(5.57)

x(k+1) = x(k) + αk z(k) , r(k+1) = r(k) − αk Az(k) Lo stesso algoritmo pu`o essere usato per implementare il metodo di Richardson stazionario semplicemente sostituendo αk con il valore costante α. Dalla (5.54) si deduce che se P−1 A `e mal condizionata la convergenza sar` a molto lenta anche scegliendo α = αopt (in quanto ρ(Bαopt ) ≃ 1). ` dunque importante che P venga scelta opportunamente. E ` per questo E

5.10 Il metodo di Richardson e del gradiente

165

motivo che P viene detta precondizionatore o matrice di precondizionamento. Quando A `e una matrice generica, potrebbe risultare complesso trovare una matrice di precondizionamento che garantisca un bilanciamento ottimale tra abbattimento del numero di condizionamento e sforzo computazionale richiesto per risolvere ad ogni passo il sistema (5.49). La scelta dovr`a essere fatta caso per caso, tenuto conto del tipo di matrice A in esame. Il metodo di Richardson dinamico `e implementato nel Programma 5.2 nel quale il parametro d’ingresso P `e la matrice di precondizionamento (se `e assente il programma implementa il metodo non precondizionato ponendo P=I). Esempio 5.14 Questo esempio, di puro interesse teorico, ha lo scopo di confrontare la convergenza dei metodi di Jacobi, Gauss-Seidel e del gradiente quando applicati alla soluzione del seguente (mini) sistema lineare 2x1 + x2 = 1,

x1 + 3x2 = 0

(5.58)

con vettore iniziale x(0) = (1, 1/2)T . Si noti che la matrice di questo sistema `e simmetrica e definita positiva, e che la soluzione esatta `e x = (3/5, −1/5)T . Riportiamo in Figura 5.10 l’andamento del residuo relativo E (k) = r(k) /r(0) ,

(5.59)

al variare dell’indice di iterazione k, per i tre metodi citati. Le iterazioni vengono arrestate alla prima iterazione kmin per la quale E (kmin ) ≤ 10−14 . Il metodo del gradiente `e quello che converge pi` u rapidamente.  Esempio 5.15 Consideriamo il sistema Ax = b con A ∈ R100×100 pentadiagonale. Le uniche diagonali non nulle di A, oltre a quella principale che ha 0

10

Jacobi Gauss−Seidel Gradiente

−2

10

−4

10

−6

10

−8

10

−10

10

−12

10

−14

10

0

5

10

15

20

25

30

35

40

Figura 5.10. Storia di convergenza dei metodi di Jacobi, Gauss-Seidel e del gradiente applicati al sistema (5.58)

166

5 Sistemi lineari

tutti elementi pari a 4, sono la prima e la terza sopra e sotto la diagonale principale che hanno elementi pari a −1. Come sempre b `e scelto in modo tale che la soluzione esatta del sistema sia x = (1, . . . , 1)T . Poniamo P uguale alla matrice tridiagonale di elementi diagonali pari a 2 ed elementi sopra e sotto diagonali pari a −1. Sia A che P sono simmetriche e definite positive. Con tale precondizionatore il Programma 5.2 implementa il metodo di Richardson precondizionato. Fissiamo tol=1.e-05, nmax=1000, x0=zeros(100,1). Il metodo converge in 11 iterazioni; il Programma 5.2 con P=’G’ (che implementa il metodo di Gauss-Seidel) richiede invece ben 2106 iterazioni per soddisfare lo stesso criterio d’arresto. 

5.11 Il metodo del gradiente coniugato In un metodo iterativo come (5.57) la nuova iterata x(k+1) viene ottenuta aggiungendo alla vecchia iterata x(k) un vettore che coincide con il residuo r(k) o con il residuo precondizionato z(k) . Questo vettore identifica una direzione detta direzione di discesa. Una domanda naturale che ci si pu` o porre `e se sia possibile trovare una direzione di discesa differente, diciamo p(k) , che assicuri la convergenza del metodo in un minimo numero di iterazioni. Quando la matrice A∈ Rn×n `e simmetrica e definita positiva il metodo del gradiente coniugato (in breve, GC) utilizza una successione di direzioni di discesa che sono fra loro A-ortogonali (o A-coniugate), cio`e tali che ∀k ≥ 0, (Ap(j) )T p(k+1) = 0,

j = 0, 1, . . . , k.

(5.60)

Ponendo r(0) = b − Ax(0) e p(0) = r(0) , l’algoritmo del gradiente coniugato assume la seguente forma:

per k = 0, 1, . . . T

αk =

p(k) r(k) T

p(k) Ap(k)

,

x(k+1) = x(k) + αk p(k) , r(k+1) = r(k) − αk Ap(k) , βk =

(Ap(k) )T r(k+1) , (Ap(k) )T p(k)

p(k+1) = r(k+1) − βk p(k)

(5.61)

5.11 Il metodo del gradiente coniugato

167

Il parametro αk `e scelto in modo tale da garantire che l’errore e(k+1) A sia minimizzato lungo la direzione di discesa p(k) . Il parametro βk , invece, viene scelto in modo che la nuova direzione p(k+1) sia A-coniugata con p(k) ovvero (Ap(k) )T p(k+1) = 0. In effetti, si pu` o dimostrare (grazie al principio di induzione) che se quest’ultima relazione `e verificata, allora lo sono anche tutte quelle in (5.60) relative a j = 0, . . . , k − 1. Per una completa derivazione del metodo, si veda ad esempio [QSS08, Capitolo 4] o [Saa03]. Si pu` o dimostrare il seguente importante risultato di convergenza:

Proposizione 5.7 Sia A∈ Rn×n una matrice simmetrica e definita positiva. Allora, il metodo del gradiente coniugato per risolvere (5.1) converge al pi` u in n iterazioni (in aritmetica esatta). Inoltre, l’errore e(k) alla k-esima iterazione (con k < n) `e ortogonale a p(j) , per j = 0, . . . , k − 1 e e(k) A ≤

2ck e(0) A , 1 + c2k

(5.62)

 K2 (A) − 1 essendo c =  . K2 (A) + 1 Di conseguenza, in assenza di errori di arrotondamento, il metodo GC pu` o essere visto come un metodo diretto in quanto termina dopo un numero finito di iterazioni. D’altra parte, per matrici di grande dimensione, viene usualmente impiegato come un metodo iterativo ed arrestato quando uno stimatore dell’errore (come ad esempio il residuo relativo (5.59)) `e minore di una tolleranza assegnata. Grazie alla (5.62), la dipendenza del fattore di riduzione dell’errore dal numero di condizionamento della matrice `e pi` u favorevole di quella del metodo del gradiente (per la presenza della radice quadrata di K2 (A)). Anche per il metodo GC si pu` o considerare una versione precondizionata (il metodo GCP) con un precondizionatore P simmetrico e definito positivo: dato x(0) e ponendo r(0) = b − Ax(0) , z(0) = P−1 r(0) e p(0) = z(0) , si calcoli

168

5 Sistemi lineari

per k = 0, 1, . . . T

αk =

p(k) r(k) T

p(k) Ap(k)

,

x(k+1) = x(k) + αk p(k) , r(k+1) = r(k) − αk Ap(k) ,

(5.63)

Pz(k+1) = r(k+1) , βk =

(Ap(k) )T z(k+1) , (Ap(k) )T p(k)

p(k+1) = z(k+1) − βk p(k)

pcg

In questo caso la stima dell’errore (5.62) `e ancora vera pur di sostituire u favorevole K2 (P−1 A). K2 (A) con il pi` Il metodo GCP `e implementato nella function MATLAB pcg. Esempio 5.16 Riprendiamo l’Esempio 5.9 sulla matrice di Hilbert A n e risolviamo il sistema per diversi valori di n con i metodi precondizionati del gradiente (GP) e del gradiente coniugato (GCP). Come precondizionatore abbiamo scelto una matrice diagonale D la cui diagonale principale coincide con quella della matrice di Hilbert. Prendiamo x(0) = 0T ed arrestiamo il metodo quando il residuo relativo (5.59) `e minore di 10−6 . Nella Tabella 5.2 riportiamo gli errori assoluti (rispetto alla soluzione esatta) ottenuti con i metodi GP e CGP e l’errore che si ottiene utilizzando il comando \ di MATLAB. Per quest’ultimo metodo l’errore degenera al crescere di n. D’altro canto possiamo apprezzare l’effetto benefico che un opportuno metodo iterativo (nella fattispecie, il gradiente coniugato precondizionato GCP) pu`o avere sul numero di iterazioni richieste. 

n 4 6 8 10 12 14

K(An ) 1.55e+04 1.50e+07 1.53e+10 1.60e+13 1.70e+16 6.06e+17

\ Errore 7.72e-13 7.61e-10 6.38e-07 5.24e-04 6.27e-01 4.12e+01

GP Errore N.ro iterazioni 8.72e-03 995 3.60e-03 1813 6.30e-03 1089 7.98e-03 875 5.09e-03 1355 3.91e-03 1379

GCP Errore N.ro Iterazioni 1.12e-02 3 3.88e-03 4 7.53e-03 4 2.21e-03 5 3.26e-03 5 4.32e-03 5

Tabella 5.2. Errori calcolati utilizzando i metodi iterativi GP e GCP ed il metodo diretto implementato nel comando \ di MATLAB per la soluzione del sistema di Hilbert al variare della dimensione n della matrice An . Per i metodi iterativi `e stato riportato anche il numero di iterazioni effettuate

5.12 Quando conviene arrestare un metodo iterativo

169

Osservazione 5.4 (Il caso non simmetrico) Il metodo GC `e un esempio dei cosiddetti metodi di Krylov (o di Lanczos) che possono essere usati per la soluzione di sistemi non necessariamente simmetrici. Per la loro descrizione rimandiamo ad esempio a [Axe94], [Saa03] e [vdV03]. Alcuni di essi condividono con il metodo GC la propriet` a di terminazione finita, ossia in aritmetica esatta restituiscono la soluzione esatta del sistema in un numero finito di iterazioni, anche per un sistema non simmetrico. Un esempio notevole in questo senso `e il metodo GMRES (Generalized Minimum RESidual) disponibile nel toolbox MATLAB sparfun sotto il nome di gmres. Un altro metodo, il Bi-CGStab [vdV03], in numerose situazioni si mostra computazionalmente competitivo  rispetto al GMRES. Il comando MATLAB per richiamarlo `e bicgstab.

Octave 5.1 In Octave `e disponibile l’implementazione del metodo del gradiente coniugato precondizionato (CGP) attraverso il comando pcg e quella dei residui coniugati precondizionati (RCP/Richardson) attraverso il comando pcr. Altri metodi iterativi quali GMRES e Bi-CGStab non sono al momento implementati.  Si vedano gli Esercizi 5.15-5.18.

5.12 Quando conviene arrestare un metodo iterativo Teoricamente, per convergere alla soluzione esatta, i metodi iterativi necessitano di un numero infinito di iterazioni. Anche quando non `e cos`ı (ad esempio nel caso del metodo del Gradiente Coniugato) il numero di iterazioni richieste `e comunque molto elevato per sistemi lineari di dimensione considerevole. Nella pratica ci` o non `e n´e ragionevole, n´e necessario. Infatti, in generale non serve la soluzione esatta, ma una sua approssimazione x(k) per la quale si possa garantire che l’errore sia inferiore ad una tolleranza ε desiderata. Tuttavia, poich´e l’errore `e a sua volta una quantit` a incognita (dipendendo dalla soluzione esatta), serve un opportuno stimatore dell’errore a posteriori, cio`e determinabile a partire da quantit` a gi` a calcolate. Un primo stimatore `e costituito dal residuo ad ogni iterazione, si veda (5.47). Pi` u precisamente, potremmo arrestare il nostro metodo iterativo al primo passo kmin in corrispondenza del quale r(kmin )  ≤ εb.  = x(kmin ) e r = r(kmin ) in (5.31) otterremo Ponendo x e(kmin )  ≤ εK(A), x

gmres bicgstab

170

5 Sistemi lineari 101

100

10−1

10−2

10−3

10−4

10−5

10−6 0

50

100

150

200

250

300

350

400

450

500

Figura 5.11. Andamento (al variare di k) del residuo relativo (5.59) (in linea tratteggiata) e dell’errore x−x(k)  (in linea continua) per il metodo di GaussSeidel applicato al sistema di Hilbert dell’Esempio 5.17

ovvero una stima per l’errore relativo. Pertanto, il controllo del residuo `e significativo solo se il numero di condizionamento della matrice A del sistema `e ragionevolmente piccolo. Esempio 5.17 Consideriamo il sistema lineare (5.1) in cui A=A20 `e la matrice di Hilbert di dimensione 20 introdotta nell’Esempio 5.9 e b viene costruito in modo tale che la soluzione esatta sia x = (1, 1, . . . , 1)T . Essendo A simmetrica e definita positiva, il metodo di Gauss-Seidel sicuramente converge. Utilizziamo il Programma 5.2 per risolvere il sistema con x0 uguale al vettore nullo e richiedendo una tolleranza tol sul residuo pari a 10−5 . Il metodo converge in 472 iterazioni, ma l’errore calcolato `e pari in norma a 0.26. Questo comportamento `e dovuto al fatto che la matrice `e estremamente mal condizionata, essendo K(A) ≃ 1017 . In Figura 5.11 viene mostrata l’evoluzione della norma del residuo (diviso per la norma del residuo iniziale) e quella dell’errore al variare del numero di iterazioni. 

Un criterio alternativo `e basato sull’uso di un altro stimatore, il cosiddetto incremento δ (k) = x(k+1) − x(k) . Pi` u precisamente, il metodo iterativo viene arrestato al primo passo kmin per il quale δ (kmin )  ≤ εb. Nel caso particolare in cui B sia simmetrica e definita positiva, avremo e(k)  = e(k+1) − δ (k)  ≤ ρ(B)e(k)  + δ (k)  e, dovendo avere ρ(B) < 1 per garantire la convergenza, possiamo scrivere 1 δ (k)  e(k)  ≤ (5.64) 1 − ρ(B) Si pu` o quindi concludere che il controllo dell’incremento `e significativo soltanto se ρ(B) `e molto pi` u piccolo di uno, poich´e in tal caso l’errore sar` a dello stesso ordine di grandezza dell’incremento.

5.12 Quando conviene arrestare un metodo iterativo

171

La stessa conclusione vale anche qualora B non sia simmetrica e definita positiva (com’`e ad esempio il caso dei metodi di Jacobi e di Gauss-Seidel), anche se in tal caso non vale pi` u la (5.64). Esempio 5.18 Consideriamo un sistema con matrice A∈ R50×50 tridiagonale simmetrica avente elementi sulla diagonale principale pari a 2.001 e quelli sulla sopra e sottodiagonale pari a 1. Al solito, il termine noto del sistema verr` a scelto in modo che il vettore (1, . . . , 1)T sia la soluzione esatta. Essendo A tridiagonale a dominanza diagonale stretta il metodo di Gauss-Seidel converger` a due volte pi` u rapidamente di quello di Jacobi (come osservato nella Proposizione 5.4). Utilizziamo il Programma 5.2 per risolvere il sistema con l’accortezza di sostituire al criterio d’arresto basato sul residuo quello basato sull’incremento. Partendo da un vettore iniziale nullo e richiedendo una tolleranza tol= 10−5 , il programma restituisce dopo ben 1604 iterazioni una soluzione affetta da un errore piuttosto grande pari a 0.0029. Il motivo risiede nel fatto che il raggio spettrale della matrice di iterazione `e pari a 0.9952, cio`e molto vicino a 1. Se gli elementi diagonali fossero stati pari a 3, avremmo invece ottenuto convergenza in 17 iterazioni con un errore dell’ordine di 10−5 : ora infatti il raggio spettrale della matrice di iterazione `e pari a 0.4428. 

Riassumendo 1. Un metodo iterativo per la risoluzione di un sistema lineare costruisce, a partire da un vettore iniziale x(0) , una successione di vettori x(k) ai quali si richiede di convergere alla soluzione esatta per k → ∞; 2. condizione necessaria e sufficiente affinch´e un metodo iterativo converga per ogni possibile scelta di x(0) `e che il raggio spettrale della matrice di iterazione sia minore di 1; 3. i metodi iterativi pi` u classici sono quelli di Jacobi e di Gauss-Seidel. Condizione sufficiente per la convergenza di tali metodi `e che la matrice del sistema da risolvere sia a dominanza diagonale stretta (ma anche simmetrica e definita positiva nel caso del metodo di Gauss-Seidel); 4. nel metodo di Richardson la convergenza viene accelerata introducendo ad ogni iterazione un parametro e (eventualmente) una opportuna matrice di precondizionamento; 5. con il metodo del gradiente coniugato la soluzione esatta di un sistema simmetrico definito positivo viene calcolata in un numero finito di iterazioni (in aritmetica esatta). Questo metodo pu` o essere generalizzato al caso di un sistema non simmetrico; 6. due sono i possibili criteri d’arresto per un metodo iterativo: il controllo del residuo ed il controllo dell’incremento. Il primo `e significativo se la matrice del sistema `e ben condizionata, il secondo se il raggio spettrale della matrice di iterazione `e decisamente < 1.

172

5 Sistemi lineari

5.13 Ed ora: metodi diretti o iterativi? In questa sezione proponiamo un confronto fra metodi diretti e metodi iterativi su alcuni semplici casi test. Premettiamo che per la risoluzione di sistemi di piccole dimensioni, il problema non `e cos`ı critico come nel caso in cui le matrici siano molto grandi, per le quali la scelta fra un metodo iterativo ed uno diretto `e un dilemma piuttosto frequente nelle applicazioni. Essa sar` a in generale basata sull’esperienza e dipender` a primariamente dalle propriet` a della matrice del sistema lineare in questione (quali la simmetria, la definita positivit` a, la sparsit` a, il numero di condizionamento) ma anche dal tipo di risorse a disposizione (rapidit`a di accesso a grandi memorie, processori veloci, ecc.) Inoltre, nei nostri test il confronto non sar` a del tutto leale: il solver diretto presente in MATLAB (implementato nella built-in function \) `e infatti ottimizzato e compilato, mentre i risolutori iterativi, come pcg, non lo sono. Ciononostante potremo trarre qualche interessante conclusione. I tempi di CPU riportati sono stati ottenuti su un processore Intel Pentium M 1.60GHz con una cache di 2048KB ed una memoria RAM di 1 GByte.

spy

cholinc

Un sistema lineare sparso con banda piccola In questo primo caso test risolveremo sistemi sparsi generati dalla discretizzazione con il metodo delle differenze finite del problema di Poisson sul quadrato (−1, 1)2 (si veda la Sezione 8.2.4). In particolare, le matrici verranno generate a partire da una decomposizione del quadrato in reticoli uniformi di passo h = 2/(N + 1) lungo entrambe le direzioni, per vari valori di N . Le corrispondenti matrici alle differenze finite, con N 2 righe e colonne, sono generate attraverso il Programma 8.2. Il grafico di Figura 5.12 a sinistra riporta la struttura della matrice di dimensione N 2 = 256 (ottenuta con il comando spy): come si vede si tratta di una matrice sparsa con 5 elementi non nulli per riga. Le matrici considerate sono tutte simmetriche e definite positive ed hanno un numero di condizionamento che si comporta come h−2 , sono quindi tanto pi` u malcondizionate quanto pi` u h decresce. Per risolvere i corrispondenti sistemi lineari confronteremo il metodo di fattorizzazione di Cholesky ed il metodo del gradiente coniugato precondizionato (GCP) con una fattorizzazione incompleta di Cholesky (un precondizionatore algebrico ottenuto usando il comando cholinc), nonch´e il metodo implementato nel comando \ di MATLAB che, in tal caso, si traduce in un metodo ad hoc per matrici a banda simmetriche. Per il metodo GCP richiederemo che a convergenza il residuo relativo (5.59) sia minore di 10−14 e conteggeremo nel tempo di calcolo anche il tempo necessario per costruire il precondizionatore. Nel grafico di destra di Figura 5.12 confrontiamo i tempi di calcoli dei tre metodi in esame al crescere della dimensione della matrice. Come si vede il metodo diretto usato dal comando \ `e di gran lunga il migliore:

5.13 Ed ora: metodi diretti o iterativi? 0

173

30

25

50

20

100 15

150 10

200

250 0

5

0 0

50

100

150

200

250

1

2

3

4

5

6

7 4

x 10

Figura 5.12. La struttura della matrice del primo caso test (a sinistra). Nel grafico di destra, il confronto fra tempi di CPU necessari per la risoluzione dei sistemi lineari corrispondenti: in linea piena usando il comando \, in linea tratto-punto la fattorizzazione di Cholesky ed in linea tratteggiata il metodo GCP

in effetti questa variante del metodo di eliminazione di Gauss `e particolarmente efficace nel trattamento di matrici sparse con banda ragionevolmente ristretta. Il metodo GCP `e a sua volta vincente rispetto alla fattorizzazione di Cholesky. A questo riguardo `e importante osservare quanto essenziale sia la scelta del precondizionatore: non precondizionato il GC richiederebbe un numero di iterazioni decisamente pi` u elevato per soddisfare il criterio d’arresto (ad esempio, per N 2 = 4096 sono richieste 325 iterazioni contro le 19 del caso precondizionato) ed i tempi di calcolo crescerebbero rendendo di fatto preferibile la fattorizzazione di Cholesky. Un sistema lineare con banda estesa I sistemi lineari che consideriamo si riferiscono ancora alla discretizzazione del problema di Poisson sul quadrato (−1, 1)2 , ma sono stati generati impiegando una discretizzazione basata su metodi spettrali con formule di quadratura di tipo Gauss-Lobatto-Legendre (si vedano ad esempio [Qua08] e [CHQZ06]). Anche se il numero di punti che formano il reticolo `e lo stesso utilizzato con le differenze finite, l’approssimazione delle derivate di una funzione mediante metodi spettrali coinvolge molti pi` u nodi (infatti, la derivata lungo la direzione x in un dato nodo `e approssimata usando tutti i nodi che giacciono sulla stessa riga, mentre i nodi che giacciono sulla stessa colonna sono utilizzati per calcolarne le derivate lungo la direzione y). Le matrici sono ancora sparse e strutturate, ma il numero di elementi non nulli `e decisamente superiore rispetto ad una approssimazione con differenze finite. Per dare un’idea abbiamo riportato in Figura 5.13 a sinistra la struttura di una matrice spettrale di dimensione N 2 = 256 in cui gli elementi non nulli sono 7936 contro i

174

5 Sistemi lineari 0 100 90

50

80 70

100

60 50

150

40 30

200

20 10

250 0

50

100

150

200

250

0 0

500

1000

1500

2000

2500

3000

3500

4000

Figura 5.13. La struttura di una delle matrici usate nel secondo caso test (a sinistra). A destra, il confronto fra tempi di CPU: in linea piena usando il metodo \, in linea tratto-punto la fattorizzazione di Cholesky ed in linea tratteggiata il metodo GCP

1216 della matrice alle differenze finite riportata in Figura 5.12. I tempi di calcolo riportati nel grafico di destra in Figura 5.13 mostrano come per questo sistema il metodo GCP, precondizionato con una fattorizzazione incompleta di Cholesky, risulti di gran lunga il migliore. Una prima conclusione che possiamo trarre `e che per sistemi con matrice simmetrica e definita positiva, sparsi, ma con bande grandi, il metodo GCP risulti pi` u efficiente del miglior metodo diretto implementato in MATLAB (che `e comunque uno dei migliori disponibili e che, in questo caso, non coincide con la fattorizzazione di Cholesky, avendo usato il formato di memorizzazione sparse per le matrici). Questo naturalmente a patto di disporre di un efficiente precondizionatore, requisito non sempre facilmente realizzabile. Teniamo inoltre conto che i metodi diretti richiedono in generale una maggior quantit` a di memoria rispetto a quelli iterativi e, di conseguenza, possono diventare problematici in applicazioni di grandi dimensioni.

gallery

Un sistema con matrice piena In MATLAB `e possibile accedere ad una raccolta di matrici di varia natura utilizzando il comando gallery. In particolare, per i nostri scopi selezioniamo con il comando A=gallery(’riemann’,n) la cosidetta matrice di Riemann di dimensione n, cio`e una matrice piena e non simmetrica n×n tale che det(A) = O(n!n−1/2+ǫ ) per ogni ǫ > 0. Risolviamo il sistema lineare associato con il metodo iterativo GMRES (si veda l’Osservazione 5.4). Per arrestare il metodo richiederemo che il residuo relativo (5.59) sia minore di 10−14 . In alternativa, come metodo diretto useremo il comando MATLAB \ che, in questo caso, implementa la fattorizzazione LU.

5.13 Ed ora: metodi diretti o iterativi?

175

4.5

12000

4 10000

3.5 3

8000

2.5 6000

2 1.5

4000

1 2000

0.5 0 100

200

300

400

500

600

700

800

900

1000

0 100

200

300

400

500

600

700

800

900

1000

Figura 5.14. A sinistra il numero di condizionamento della matrice di Riemann. A destra, il confronto tra i tempi di CPU per la risoluzione del sistema lineare del terzo caso test: la linea continua si riferisce al comando \, la linea tratteggiata al metodo iterativo GMRES non precondizionato. In ascissa `e riportata la dimensione delle matrici.

Al crescere di n risolviamo i sistemi lineari di matrice A e termine noto fatto in modo tale che la soluzione esatta del sistema sia il vettore 1T . Abbiamo richiamato il metodo GMRES sia senza precondizionatore sia con un particolare precondizionatore ottenuto con il comando luinc(A,1.e0). Tale comando genera la cosiddetta fattorizzazione LU incompleta di A ovvero una matrice ottenuta attraverso una manipolazione algebrica degli elementi dei fattori L e U di A, si veda [QSS08, Capitolo 4]. In Figura 5.14, a destra, riportiamo i tempi di CPU (in secondi) ottenuti per n compresi tra 100 e 1000. Nella stessa figura, a sinistra, riportiamo il numero di condizionamento di A calcolato con il comando cond(A). Come si vede il metodo diretto `e pi` u favorevole del metodo GMRES non precondizionato tuttavia, per n grandi, esso diventa pi` u costoso del metodo GMRES precondizionato. Octave 5.2 Il comando gallery non `e disponibile in Octave. Tuttavia alcune matrici quali quelle di Hankel, di Hilbert, di Toeplitz o di Vandermonde, possono essere generate attraverso i comandi hankel, hilb, invhilb, toeplitz e vander. Inoltre, se si ha a disposizione MATLAB, ` e possibile salvare una delle matrici disponibili nell’archivio di MATLAB utilizzando il comando save e caricarla in Octave tramite il comando load. Ad esempio, in MATLAB: riemann10 = gallery ( ’ riemann ’ ,10); save ’ riemann10 ’ riemann10

in Octave: load ’ riemann10 ’ riemann10

luinc

176

5 Sistemi lineari

Facciamo osservare che solo a partire dalla versione 2.9 di Octave si possono caricare correttamente M-file prodotti da MATLAB nella versione 7 o successiva.  Un sistema lineare con matrice sparsa non a banda e non simmetrica Consideriamo sistemi lineari generati dall’approssimazione di un problema di diffusione-trasporto-reazione bidimensionale, simile a quello riportato nella (8.17) per il caso monodimensionale. Come metodo di approssimazione utilizziamo gli elementi finiti lineari (che verranno introdotti, sempre per il caso monodimensionale, nel paragrafo 8.2.3). Essi utilizzano polinomi compositi lineari per rappresentare la soluzione in ogni elemento triangolare di una griglia che partiziona la regione dove `e assegnato il problema ai limiti. Le incognite del sistema lineare associato sono i valori della soluzione nei vertici dei triangoli. Per una descrizione del metodo e per la costruzione della matrice associata rimandiamo per esempio a [QV94]. Osserviamo solo che la matrice `e sparsa, ma non `e a banda (il pattern dipende da come sono stati numerati i vertici) e non `e simmetrica per la presenza del termine di trasporto. La mancanza di simmetria della matrice non `e evidente dalla rappresentazione della sola struttura (si veda la Figura 5.15 a sinistra). Minore sar` a il diametro h dei triangoli (ossia la lunghezza del lato maggiore), maggiore sar` a la dimensione del sistema lineare da risolvere. Abbiamo confrontato i tempi di CPU necessari per risolvere i sistemi che si trovano per h pari a 0.1, 0.05, 0.025, 0.0125 e 0.0063. Abbiamo utilizzato il comando MATLAB \, che in questo caso richiama la libreria UMFPACK ed il metodo iterativo Bi-CGStab non precondizionato, che pu` o essere visto come una generalizzazione del metodo del gradiente coniugato per matrici non simmetriche. In ascissa abbiamo riportato il numero di incognite che vanno da 64 (per h = 0.1) a 101124 (per h = 0.0063). Come si vede il metodo diretto `e in questo caso decisamente pi` u conveniente del metodo iterativo. Se si usasse come precondizionatore per il metodo Bi-CGstab una fattorizzazione LU incompleta il numero di iterazioni diminuirebbe, ma i tempi di calcolo del metodo iterativo crescerebbero rispetto al caso non precondizionato. In conclusione Il confronto considerato, seppur estremamente ridotto, mette in luce alcuni aspetti importanti: i metodi diretti nelle loro versioni pi` u sofisticate (come quella implementata nel comando \ di MATLAB) in generale sono computazionalmente pi` u efficienti dei metodi iterativi quando per questi ultimi non si usano precondizionatori efficaci. Soffrono tuttavia in modo maggiore il malcondizionamento delle matrici (si veda anche l’Esempio 5.16) e richiedono notevoli risorse in termini di memoria. Un

5.14 Cosa non vi abbiamo detto

177

0 120

100

800 100

200 80

300 60

400 40

219

500 20 49

116 381

600 0 0

0

100

200

300

400

500

2

600

4

6

8

10

12 4

x 10

Figura 5.15. La struttura di una delle matrici usate nel quarto caso test (a sinistra). A destra, il confronto fra tempi di CPU: in linea piena usando il comando \ ed in linea tratteggiata usando il metodo iterativo Bi-CGstab. I numeri indicati si riferiscono al numero di iterazioni effettuate dal Bi-CGstab

aspetto infine da tener presente, che non `e emerso dai nostri semplici esempi, consiste nel fatto che per impiegare un metodo diretto `e necessario conoscere i coefficienti della matrice del sistema, mentre per un metodo iterativo basta saper valutare il prodotto matrice vettore su un vettore noto. Questo aspetto rende i metodi iterativi particolarmente interessanti in quei problemi in cui la matrice non si genera esplicitamente.

5.14 Cosa non vi abbiamo detto Per sistemi lineari di grande dimensione sono disponibili diverse varianti efficienti della fattorizzazione LU di Gauss. Tra quelle pi` u note, ricordiamo il cosiddetto metodo multifrontale, basato su un opportuno riordinamento delle incognite del sistema in modo da garantire che i fattori L ed U siano i pi` u sparsi possibile. Questo metodo `e alla base della libreria UMFPACK richiamata, come abbiamo visto, dal comando \ in MATLAB in certe circostanze. Per approfondimenti si vedano [GL96] e [DD99]. Per quanto riguarda i metodi iterativi, ricordiamo che il metodo del gradiente coniugato e il metodo GMRES sono due esempi della famiglia dei metodi di Krylov. Per una loro descrizione si vedano ad esempio [Axe94], [Saa03] e [vdV03]. Come abbiamo avuto modo di osservare, un metodo iterativo, per quanto efficiente, converger` a lentamente se la matrice del sistema `e mal condizionata. Per questo motivo sono state sviluppate numerose strategie di precondizionamento (si veda ad esempio [dV89] e [vdV03]). Tra di esse ve ne sono alcune di tipo puramente algebrico, basate sulle fattorizzazioni LU (o di Cholesky) incomplete ed implementate in MATLAB

178

5 Sistemi lineari

nelle funzioni luinc e cholinc. Altre strategie vengono invece sviluppate ad hoc avvantaggiandosi della conoscenza del problema fisico che ha originato il sistema lineare da risolvere. Infine, ricordiamo gli algoritmi di tipo multigrid che sono basati sulla risoluzione di una gerarchia di sistemi di dimensione variabile, somiglianti al sistema di partenza, scelti in modo da perseguire una strategia di riduzione progressiva dell’errore (si vedano ad esempio [Hac85], [Wes04] e [Hac94]). Octave 5.3 In Octave, il comando cholinc non `e ancora disponibile. Solo luinc `e stato implementato. 

5.15 Esercizi Esercizio 5.1 Data una matrice A ∈ Rn×n si determini al variare di n il numero di operazioni richiesto per il calcolo del determinante con la formula ricorsiva (1.8).

magic

Esercizio 5.2 Si usi il comando MATLAB magic(n), n=3, 4, . . . , 500, per costruire i quadrati magici di ordine n, cio`e quelle matrici i cui coefficienti sono tali che la somma per righe, per colonne o per diagonali si mantiene costante. Per ogni n si calcolino il determinante con il comando det, introdotto nel paragrafo 1.4 ed il tempo di CPU utilizzato per tale operazione tramite il comando cputime. Si approssimino i dati cos`ı ottenuti con il metodo dei minimi quadrati e si deduca che i tempi di CPU crescono approssimativamente come n3 . Esercizio 5.3 Per quali valori di ε la matrice definita nella (5.15) non soddisfa ` le ipotesi della Proposizione 5.1? Per quali valori di ε essa `e singolare? E comunque possibile calcolare in tal caso la fattorizzazione LU? Esercizio 5.4 Si verifichi che il numero di operazioni necessario per calcolare la fattorizzazione LU di una matrice quadrata A di dimensione n `e approssimativamente 2n3 /3. Esercizio 5.5 Si mostri che la fattorizzazione LU di una matrice A pu` o essere usata per calcolarne l’inversa (si osservi che il j-esimo vettore colonna xj di A−1 soddisfa il sistema lineare Axj = ej , dove ej `e il vettore le cui componenti sono tutte nulle fuorch´e la j-esima che vale 1). Esercizio 5.6 Si calcolino i fattori L ed U per la matrice dell’Esempio 5.8 e si verifichi che la fattorizzazione LU `e inaccurata. Esercizio 5.7 Si spieghi per quale motivo la strategia del pivoting per righe non `e conveniente nel caso di matrici simmetriche.

5.15 Esercizi

179

Esercizio 5.8 Si consideri il sistema lineare Ax = b con 2 3 2 −2 0 2 05, A = 4ε − 2 0 −1 3

b tale per cui la soluzione sia x = (1, 1, 1)T e ε un numero reale positivo. Si calcoli la fattorizzazione di Gauss di A e si virifichi che l’elemento l32 → ∞ quando ε → 0. Ci` o nonostante, si verifichi al calcolatore che la soluzione del sistema lineare ottenuta tramite il processo di fattorizzazione `e accurata. Esercizio 5.9 Si considerino i sistemi lineari A i xi = bi , i = 1, 2, 3, con 2 3 15 6 8 11 6 6 65 3 7 i 7 A1 = 6 4 8 5 7 6 5 , Ai = (A1 ) , i = 2, 3, 11 3 6 9

e bi tali che la soluzione sia sempre xi = (1, 1, 1, 1)T . Si risolvano tali sistemi utilizzando la fattorizzazione di Gauss con pivoting per righe e si commentino i risultati ottenuti. Esercizio 5.10 Si dimostri che per una matrice A simmetrica e definita positiva si ha K(A2 ) = (K(A))2 .

Esercizio 5.11 Si analizzino le propriet` a di convergenza dei metodi di Jacobi e di Gauss-Seidel per la soluzione di sistemi lineari di matrice 2 3 α 0 1 A = 4 0 α 0 5, α ∈ R. 1 0α Esercizio 5.12 Si dia una condizione sufficiente sul numero reale β affinch´e i metodi di Jacobi e di Gauss-Seidel convergano entrambi quando applicati alla risoluzione di un sistema di matrice – » −10 2 . (5.65) A= β 5 Esercizio 5.13 Per la risoluzione del sistema lineare Ax = b con A ∈ Rn×n , (0) (0) si consideri il metodo di rilassamento: dato x(0) = (x1 , . . . , xn )T , per k = 0, 1, . . . si calcoli (k)

ri

= bi −

i−1 X j=1

(k+1)

aij xj



n X

(k)

(k)

(k+1)

aij xj , xi

j=i+1

(k)

= (1 − ω)xi



ri , aii

per i = 1, . . . , n, dove ω `e un parametro reale. Si riporti la matrice di iterazione e si verifichi che la condizione 0 < ω < 2 `e necessaria per la convergenza di questo metodo. Si noti che per ω = 1 esso coincide con il metodo di GaussSeidel. Se 1 < ω < 2 il metodo `e noto come SOR (successive over-relaxation).

180

5 Sistemi lineari

– 32 e si 26 stabilisca, senza calcolare il raggio spettrale della matrice di iterazione, se il di Gauss-Seidel converge. Si ripeta l’esercizio per la matrice A = – » metodo 11 . 12 Esercizio 5.14 Si consideri il sistema lineare Ax = b con A =

»

Esercizio 5.15 Si calcoli la prima iterazione per i metodi di Jacobi, GaussSeidel e gradiente precondizionato con la diagonale di A quando applicati alla soluzione del sistema (5.58), posto x(0) = (1, 1/2)T . Esercizio 5.16 Si dimostri (5.53) e che ρ(Bαopt ) =

K(P−1 A) − 1 λmax − λmin = λmax + λmin K(P−1 A) + 1

(5.66)

Esercizio 5.17 Si osservi che, usando un parametro di accelerazione generico (invece di αk ), dalla (5.57) avremmo x(k+1) = x(k) + αz(k) e pertanto l’errore e(k+1) = x − x(k+1) dipenderebbe da α. Si provi che il valore αk definito in (5.55) `e quello che minimizza la funzione Φ(α) = e(k+1) 2A al variare di α ∈ R. Esercizio 5.18 Consideriamo un sistema di n = 20 industrie che producono 20 beni diversi. Riferendosi al modello di Leontief, introdotto nel Problema 5.3, si supponga che la matrice C abbia i seguenti coefficienti cij = i + j per i, j = 1, . . . , n, mentre bi = i, per i = 1, . . . , 20. Si dica se `e possibile risolvere tale sistema con il metodo del gradiente. Osservando che se A `e una matrice non singolare, allora la matrice AT A `e simmetrica e definita positiva, si proponga comunque un metodo basato sul gradiente per risolvere il sistema dato.

983:&036. *) &983:*8836.

%NMRHCDQH@LN HK RDFTDMSD OQNAKDL@ C@S@ TM@ L@SQHBD PT@CQ@S@ #  11  SQNU@QD TMN RB@K@QD  QD@KD N BNLOKDRRN DC TM UDSSNQD A  1 MNM MTKKN S@KH BGD #A ! A

 1FMH  BGD RNCCHR  D CDSSN 0DC>E0;>A4 CH # LDMSQD A D TM BNQQH RONMCDMSD 0DC>E4CC>A4 'UHCDMSDLDMSD A MNM D TMHBN HM PT@MSN RD A D @TSNUDSSNQD @MBGD A KN D PT@KTMPTD RH@ HK MTLDQN  !  QD@KD N BNL OKDRRN 3T@KNQ@ RH@ MNSN A  OT N DRRDQD B@KBNK@SN TR@MCN HK @D>I84=C4  ! D HK UDSSNQD BNM BNLONMDMSD 38 '0H;4867 A #A!A2  CNUD A ! A BDRHL@ O@QH @ Q ,  7M MTLDQN  D @TSNU@KNQD CH # RD D Q@CHBD CDK RDFTDMSD ONKHMNLHN CH FQ@CN G CDSSN ?>;8=> 20A0CC4A8BC82> CH # IA  ! CDS # " + 2DQS@MSN TM@ L@SQHBD PT@CQ@S@ CH CHLDMRHNMD G G@ DR@SS@LDMSD G @TSN U@KNQH QD@KH N BNLOKDRRH MNM MDBDRR@QH@LDMSD CHRSHMSH EQ@ KNQN (@BBH@LN MNS@QD BGD RD FKH DKDLDMSH CH # RNMN MTLDQH QD@KH @KKNQ@ IA  G@ BND BHDMSH QD@KH D CH BNMRDFTDMY@ RD # @LLDSSD BNLD @TSNU@KNQD TM MTLDQN  R@Q BNLOKDRRN  @MBGD HK RTN BNMHTF@SN  @ TM @TSNU@KNQD 0DK B@RN RODBH@KD HM BTH # RH@ TM@ L@SQHBD CH@FNM@KD N SQH@MFNK@QD FKH @TSNU@KNQH RNMN C@SH CHQDSS@LDMSD C@FKH DKDLDMSH CH@FNM@KH 3T@KNQ@ ODQ N # RH@ TM@ L@SQHBD CH ENQL@ FDMDQ@KD BNM G RTBHDMSDLDMSD FQ@MCD ODQ HK B@KBNKN CDH RTNH @TSNU@KNQH D CDH BNQQHRONMCDMSH @TSNUDSSNQH MNM D BNMUDMHDMSD BDQB@QD CH @OOQNRRHL@QD FKH YDQH CH IA  2DQ S@KD Q@FHNMD RH QHBNQQD @C @KFNQHSLH MTLDQHBH RODBHBH BGD HKKTRSQDQDLN MDH OQNRRHLH O@Q@FQ@ &HBH@LN HMMD BGD TM@ L@SQHBD # 11 D CH@FNM@KHYY@AHKD RD DRHRSD TM@ L@SQHBD 7 11 HMUDQSHAHKD S@KD BGD 71 #7 !  ! CH@F 1      1 

Quarteroni, A., Saleri, F.: Calcolo Scientifico. © Springer-Verlag Italia, Milano, 2008



182

6 Autovalori ed autovettori

in particolare, le colonne di U sono gli autovettori di A e formano una base per Cn .

6.1 Alcuni problemi Problema 6.1 (Molle elastiche) Consideriamo il sistema di Figura 6.1 formato da due corpi puntiformi P1 e P2 , entrambi di massa m, collegati fra loro da due molle uguali e liberi di muoversi lungo la direzione individuata dalla retta che li congiunge. Indichiamo con xi (t) la posizione occupata dal punto Pi al tempo t per i = 1, 2. Allora, per la seconda legge della dinamica, si ha ..

..

m x1 = K(x2 − x1 ) − Kx1 ,

m x2 = K(x1 − x2 ),

dove K `e il coefficiente di elasticit`a di entrambe le molle. Siamo interessati alle oscillazioni libere cui corrisponde la soluzione xi = ai sin(ωt+φ), i = 1, 2, con ai = 0. In tal caso, si trovano le relazioni −ma1 ω 2 = K(a2 − a1 ) − Ka1 ,

−ma2 ω 2 = K(a1 − a2 ). (6.3)

Questo `e un sistema 2 × 2 omogeneo che ha soluzione non banale a = (a1 , a2 )T se e soltanto se il numero λ = mω 2 /K `e un autovalore della matrice ( ) 2 −1 A= . −1 1 Infatti, con questa definizione di λ, (6.3) diventa Aa = λa. Poich´e pA (λ) = (2 − λ)(1 − λ) − 1, i due autovalori sono λ1 ≃ 2.618 e λ2 ≃ 0.382 che corrispondono alle frequenze di oscillazione ωi = Kλi /m ammesse dal sistema in esame.  x1 (t) x2 (t)

x P1

P2

Figura 6.1. Un sistema di due corpi puntiformi di ugual massa collegati da molle

6.1 Alcuni problemi

183

Problema 6.2 (Dinamica delle popolazioni) La possibilit` a di prevedere l’andamento della popolazione di una certa specie (umana od animale che sia) ha portato in ambito demografico alla nascita di svariati modelli matematici. Il pi` u semplice modello di popolazione, proposto da Lotka nel 1920 e formalizzato da Leslie vent’anni dopo, `e basato sui tassi di mortalit` a e di fecondit` a per fasce di et` a. Supponiamo di avere (t) n + 1 fasce d’et`a indicizzate da 0 a n. Denotiamo con xi il numero di femmine la cui et`a al tempo t si colloca nell’i-esima fascia. I valori (0) xi sono noti. Denotiamo inoltre con si il tasso di sopravvivenza delle femmine con et`a che cade nella fascia i-esima e con mi il numero medio di femmine generate da una femmina che ha et` a appartenente alla fascia i-esima. Il modello di Lotka e Leslie `e descritto dalle seguenti equazioni (t+1)

(t)

xi+1 = xi si , i = 0, . . . , n − 1, n (t) (t+1) xi mi . = x0 i=0

Le prime n equazioni descrivono l’andamento della popolazione, l’ultima la sua riproduzione. In forma matriciale abbiamo x(t+1) = Ax(t) , dove (t) (t) x(t) = (x0 , . . . , xn )T e A `e la matrice di Leslie data da ⎤ ⎡ m0 m1 . . . . . . mn ⎢ s0 0 . . . . . . 0 ⎥ ⎥ ⎢ ⎢ .. ⎥ .. ⎢ . . ⎥ A = ⎢ 0 s1 ⎥. ⎢. . . . .. ⎥ . . . . ⎣. . . . . ⎦ 0 0 0 sn−1 0 Vedremo nel paragrafo 6.2 che la dinamica della popolazione `e completamente determinata dall’autovalore di modulo massimo λ1 di A, mentre la distribuzione degli individui nelle differenti fasce d’et` a (normalizzata rispetto all’intera popolazione) si ottiene come limite di x(t) per t → ∞ ed `e tale che Ax = λ1 x. Questo problema verr` a risolto nell’Esercizio 6.2. 

Problema 6.3 (Viabilit` a interurbana) Consideriamo n citt`a e sia A a i `e collegata con una matrice i cui coefficienti aij valgono 1 se la citt` la citt` a j, zero altrimenti. Si pu` o dimostrare che le componenti dell’autovettore x (di norma unitaria) associato all’autovalore di modulo massimo forniscono una misura della facilit`a d’accesso alle varie citt`a. Nell’Esempio 6.2, sulla base della schematica rete ferroviaria della Lombardia riportata in Figura 6.2, determineremo in questo modo la citt` a capoluogo di provincia pi` u accessibile. 

184

6 Autovalori ed autovettori 1 Milano 2 Pavia 3 Lodi 4 Brescia 5 Bergamo 6 Como 7 Varese 8 Lecco 9 Sondrio 10 Cremona 11 Mantova

9 8 7

6 5 4

1 3

2

10

11

Figura 6.2. Una rappresentazione schematica delle connessioni ferroviarie in Lombardia fra i capoluoghi di provincia

Problema 6.4 (Compressione di immagini) Il problema della compressione di un’immagine pu` o essere affrontato utilizzando la decomposizione in valori singolari introdotta in (5.40). In effetti, un’immagine in bianco e nero pu` o essere memorizzata in una matrice A rettangolare m × n a cofficienti reali, dove m e n rappresentano il numero di pixel presenti nella direzione orizzontale ed in quella verticale rispettivamente, ed il coefficiente aij rappresenta l’intensit` a di grigio del pixel in posizione ij. Grazie alla decomposizione in valori singolari (5.40) di A avremo allora che A = σ1 u1 v1T + σ2 u2 v2T + . . . + σp up vpT ,

(6.4)

avendo denotando con ui e vi l’i-simo vettore colonna delle matrici U e V, rispettivamente. La matrice A pu` o quindi essere approssimata con la matrice Ak , ottenuta troncando la somma (6.4) ai primi k addendi con l’idea che, essendo i valori singolari ordinati in ordine decrescente, gli ultimi addendi siano quelli che meno influiscono sulla qualit` a dell’immagine. Parliamo di compressione in quanto, ad esempio, per trasmettere l’immagine approssimata Ak tra due computer `e sufficiente trasferire i soli vettori ui e vi , nonch´e i valori singolari σi , con i = 1, . . . , k e non invece tutti i coefficienti di A. Nell’Esempio 6.9 vedremo in azione questa tecnica. 

6.2 Il metodo delle potenze Come abbiamo visto nei Problemi 6.3 e 6.2, non sempre `e necessario conoscere lo spettro di A (cio`e l’insieme di tutti i suoi autovalori); spesso, ci si pu` o limitare ad individuare gli autovalori estremi, quelli cio`e di modulo massimo e minimo.

6.2 Il metodo delle potenze

185

Supponiamo di voler calcolare l’autovalore di modulo massimo di una matrice A reale quadrata di dimensione n e assumiamo che i suoi autovalori siano cos`ı ordinati: |λ1 | > |λ2 | ≥ |λ3 | ≥ . . . ≥ |λn |.

(6.5)

In particolare, supponiamo che |λ1 | sia distinto dai moduli dei restanti autovalori di A. Denotiamo con x1 l’autovettore (di lunghezza unitaria) associato a λ1 . Se gli autovettori di A sono linearmente indipendenti, λ1 e x1 possono essere calcolati tramite la seguente procedura, nota come metodo delle potenze: dato un vettore iniziale arbitrario x(0) ∈ Cn e posto y(0) = x(0) /x(0) , si calcola per k = 1, 2, . . . x(k) = Ay(k−1) ,

y(k) =

x(k) , x(k) 

λ(k) = (y(k) )H Ay(k)

(6.6)

Si noti che, procedendo in modo ricorsivo, si ha y(k) = β (k) Ak y(0) , esk sendo β (k) = (Πi=1 x(i) )−1 per k ≥ 1. La presenza delle potenze di A giustifica il nome del metodo. Come vedremo nel prossimo paragrafo questo metodo genera una successione di vettori {y(k) } di lunghezza unitaria tali da allinearsi, per k → ∞, alla direzione dell’autovettore x1 . Gli errori y(k) − x1  e |λ(k) − λ1 | sono proporzionali al rapporto |λ2 /λ1 |k per una matrice A generica. Se A `e una matrice reale hermitiana, l’errore |λ(k) − λ1 | `e invece proporzionale a |λ2 /λ1 |2k . Di conseguenza, si dimostra che λ(k) → λ1 per k → ∞. Un’implementazione del metodo delle potenze `e fornita nel Programma 6.1. La procedura iterativa si arresta alla prima iterazione k in corrispondenza della quale si ha |λ(k) − λ(k−1) | < ε|λ(k) |, dove ε `e una tolleranza assegnata. I parametri d’ingresso sono la matrice A, il vettore iniziale x0, la tolleranza tol impiegata nel criterio d’arresto ed il numero massimo di iterazioni consentite nmax. I parametri in uscita sono l’autovalore di modulo massimo lambda, l’autovettore associato ed il numero di iterazioni che sono state effettuate. Programma 6.1. eigpower: il metodo delle potenze function [ lambda ,x , iter ]= eigpower (A , tol , nmax , x0 ) % EIGPOWER Approssima l ’ autovalore di modulo massimo % di una matrice . % LAMBDA = EIGPOWER ( A ) calcola con il metodo delle % potenze l ’ autovalore di una matrice A di modulo

186

6 Autovalori ed autovettori

% massimo a partire da un dato iniziale pari al % vettore unitario . % LAMBDA = EIGPOWER (A , TOL , NMAX , X0 ) arresta il metodo % quando la differenza fra due iterate consecutive % e ’ minore di TOL ( il valore di default e ’ 1. E -06) % o quando il massimo numero di iterazioni NMAX ( il % valore di default e ’ 100) e ’ stato raggiunto . % [ LAMBDA ,X , ITER ] = EIGPOWER (A , TOL , NMAX , X0 ) % restituisce anche l ’ autovettore unitario X tale % che A * X = LAMBDA * X ed il numero di iterazioni % effettuate per calcolare X . [n , m ] = size ( A ); if n ~= m , error ( ’ Solo per matrici quadrate ’ ); end if nargin == 1 tol = 1. e -06; x0 = ones (n ,1); nmax = 100; end x0 = x0 / norm ( x0 ); pro = A * x0 ; lambda = x0 ’* pro ; err = tol * abs ( lambda ) + 1; iter = 0; while err > tol * abs ( lambda ) & abs ( lambda )~=0 & iter 1 pu` o sempre essere ridotta ad un sistema di p equazioni del prim’ordine; il caso dei sistemi verr` a affrontato nel paragrafo 7.9. Un’equazione differenziale ordinaria ammette in generale infinite soluzioni. Per fissarne una `e necessario imporre una condizione che prescriva il valore assunto dalla soluzione in un punto dell’intervallo di integrazione. Ad esempio, l’equazione (7.2) ammette la seguente famiglia di soluzioni y(t) = BΨ (t)/(1 + Ψ (t)) con Ψ (t) = eCt+K , essendo K una costante arbitraria. Se imponiamo la condizione y(0) = 1, selezioniamo l’unica soluzione corrispondente al valore K = ln[1/(B − 1)]. Ci occuperemo della risoluzione dei cosiddetti problemi di Cauchy, ossia di problemi della forma: trovare y : I → R tale che  ′ y (t) = f (t, y(t)) ∀t ∈ I, (7.5) y(t0 ) = y0 , dove I `e un intervallo di R, f : I × R → R una funzione assegnata e y ′ indica la derivata di y rispetto a t. Infine, t0 `e un punto di I e y0 `e un valore assegnato detto dato iniziale.

7.3 I metodi di Eulero

205

Nella seguente proposizione riportiamo un risultato classico dell’Analisi Matematica per tali problemi: Proposizione 7.1 Supponiamo che la funzione f (t, y) sia 1. continua rispetto ad entrambi gli argomenti; 2. lipschitziana rispetto al secondo argomento, ossia esista una costante L positiva (detta costante di Lipschitz) tale che |f (t, y1 ) − f (t, y2 )| ≤ L|y1 − y2 |

∀t ∈ I, ∀y1 , y2 ∈ R.

Allora la soluzione del problema di Cauchy (7.5) esiste, `e unica ed `e di classe C 1 su I. Sfortunatamente solo un limitato numero di equazioni differenziali ordinarie ammette soluzione in forma esplicita. In molti altri casi, la soluzione `e disponibile solo implicitamente. Questo `e ad esempio il caso dell’equazione y ′ (t) = (y −t)/(y+t) le cui soluzioni verificano la relazione implicita 1 y ln(t2 + y 2 ) + arctg = C, 2 t dove C `e una costante arbitraria. In certe situazioni addirittura la so` questo ad luzione non `e rappresentabile nemmeno in forma implicita. E 2 esempio il caso dell’equazione y ′ = e−t la cui soluzione `e esprimibile solo tramite uno sviluppo in serie. Cerchiamo quindi dei metodi numerici in grado di approssimare la soluzione di ogni classe di equazioni differenziali ordinarie che ammettano una soluzione. La strategia generale di tali metodi consiste nel dividere l’intervallo di integrazione I = [t0 , T ], con T < +∞, in Nh sottointervalli di ampiezza h = (T − t0 )/Nh ; h `e detto il passo di discretizzazione. Indi, per ogni nodo tn = t0 + nh (1 ≤ n ≤ Nh ), si cerca il valore incognito un che approssimi yn = y(tn ). L’insieme dei valori {u0 = y0 , u1 , . . . , uNh } forma la soluzione numerica.

7.3 I metodi di Eulero Un metodo classico, il cosidetto metodo di Eulero in avanti, genera la successione seguente un+1 = un + hfn ,

n = 0, . . . , Nh − 1

(7.6)

avendo usato la notazione semplificata fn = f (tn , un ). Questo metodo `e derivato dall’equazione differenziale (7.5) considerata in ogni nodo tn

206

7 Equazioni differenziali ordinarie

con n = 1, . . . , Nh , qualora si approssimi la derivata esatta y ′ (tn ) con il rapporto incrementale (4.4). Procedendo in maniera analoga, ma utilizzando questa volta il rapporto incrementale (4.8) per approssimare y ′ (tn+1 ), si ottiene il metodo di Eulero all’indietro un+1 = un + hfn+1 ,

n = 0, . . . , Nh − 1

(7.7)

Si tratta di due esempi di metodi ad un passo in quanto per calcolare la soluzione numerica nel nodo tn+1 necessitano solo delle informazioni legate al nodo precedente tn . Pi` u precisamente, mentre nel metodo di Eulero in avanti la soluzione numerica un+1 dipende esclusivamente dal valore precedentemente calcolato un , nel metodo di Eulero all’indietro dipende, tramite fn+1 , anche da se stessa. Per tale motivo, il primo metodo `e detto esplicito ed il secondo implicito (e, per questo, essi sono noti rispettivamente anche con i nomi di Eulero esplicito e di Eulero implicito). Ad esempio, la discretizzazione di (7.2) con il metodo di Eulero in avanti richiede ad ogni passo il calcolo di un+1 = un + hCun (1 − un /B) , mentre se si usasse il metodo di Eulero all’indietro si dovrebbe risolvere l’equazione non lineare un+1 = un + hCun+1 (1 − un+1 /B) . Di conseguenza, i metodi impliciti sono assai pi` u costosi di quelli espliciti, in quanto se la funzione f del problema (7.5) `e non lineare in y, ad ogni livello temporale tn+1 essi richiedono la soluzione di un problema non lineare per calcolare un+1 . D’altra parte, vedremo che i metodi impliciti godono di miglior propriet` a di stabilit` a degli schemi espliciti. Il metodo di Eulero in avanti `e implementato nel Programma 7.1; l’intervallo di integrazione `e tspan = [t0,tfinal], odefun `e una function o una inline function o una anonymous function che precisa la funzione f (t, y(t)) che dipende dalle variabili t e y (e da eventuali altri parametri opzionali). Programma 7.1. feuler: il metodo di Eulero in avanti function [t , u ]= feuler ( odefun , tspan , y0 , Nh , varargin ) % FEULER Risolve equazioni differenzial i % usando il metodo di Eulero in avanti . % [T , Y ] = FEULER ( ODEFUN , TSPAN , Y0 , NH ) con % TSPAN = [ T0 , TF ] integra il sistema di equazioni % differenziali y ’ = f (t , y ) dal tempo T0 a TF con

7.3 I metodi di Eulero

207

% condizione iniziale Y0 usando il metodo di Eulero % in avanti su una griglia equispaziata di NH % intervalli . % La funzione ODEFUN (T , Y ) deve ritornare un vettore % contenente f (t , y ) , della stessa dimensione di y . % Ogni riga del vettore soluzione Y corrisponde ad % un istante temporale del vettore colonna T . % [T , Y ] = FEULER ( ODEFUN , TSPAN , Y0 , NH , P1 , P2 ,...) passa % i parametri addizionali P1 , P2 ,... alla funzione % ODEFUN come ODEFUN (T ,Y , P1 , P2 ...). h =( tspan (2) - tspan (1))/ Nh ; y = y0 (:); % genera sempre un vettore colonna w = y ; u = y . ’; tt = linspace ( tspan (1) , tspan (2) , Nh +1); for t = tt (1: end -1) w = w + h * feval ( odefun ,t ,w , varargin {:}); u = [ u ; w . ’]; end t = tt ; return

Il metodo di Eulero all’indietro `e implementato nel Programma 7.2. Si noti che abbiamo utilizzato la funzione fsolve per la soluzione del problema non lineare che appare ad ogni passo. Come dato iniziale per fsolve utilizziamo l’ultimo valore disponibile per la soluzione approssimata. Programma 7.2. beuler: il metodo di Eulero all’indietro function [t , u ]= beuler ( odefun , tspan , y0 , Nh , varargin ) % BEULER Risolve equazioni differenzial i % usando il metodo di Eulero all ’ indietro . % [T , Y ] = BEULER ( ODEFUN , TSPAN , Y0 , NH ) con % TSPAN = [ T0 , TF ] integra il sistema di equazioni % differenziali y ’ = f (t , y ) dal tempo T0 a TF con % condizione iniziale Y0 usando il metodo di Eulero % all ’ indietro su una griglia equispaziata di NH % intervalli . % La funzione ODEFUN (T , Y ) deve ritornare un vettore % contenente f (t , y ) , della stessa dimensione di y . % Ogni riga del vettore soluzione Y corrisponde ad % un istante temporale del vettore colonna T . % [T , Y ] = BEULER ( ODEFUN , TSPAN , Y0 , NH , P1 , P2 ,...) passa % i parametri addizionali P1 , P2 ,... alla funzione % ODEFUN come ODEFUN (T ,Y , P1 , P2 ...). tt = linspace ( tspan (1) , tspan (2) , Nh +1); y = y0 (:); % genera sempre un vettore colonna u = y . ’; global glob_h glob_t glob_y glob_odefun ; glob_h =( tspan (2) - tspan (1))/ Nh ; glob_y = y ; glob_odefun = odefun ; glob_t = tt (2); if ( ~ exist ( ’ OCTAVE_VERSI O N ’) ) options = optimset ; options . Display = ’ off ’; options . TolFun =1. e -12; options . MaxFunEvals =10000;

208

7 Equazioni differenziali ordinarie

end for glob_t = tt (2: end ) if ( exist ( ’ OCTAVE_VERSI ON ’) ) w = fsolve ( ’ beulerfun ’ , glob_y ); else w = fsolve ( @ ( w ) beulerfun ( w ) , glob_y , options ); end u = [ u ; w . ’]; glob_y = w ; end t = tt ; clear glob_h glob_t glob_y glob_odefun ; end function [ z ]= beulerfun ( w ) global glob_h glob_t glob_y glob_odefun ; z =w - glob_y - glob_h * feval ( glob_odefun , glob_t , w ); end

7.3.1 Analisi di convergenza Un metodo numerico si dice convergente se ∀n = 0, . . . , Nh ,

|yn − un | ≤ C(h)

(7.8)

dove C(h) `e un infinitesimo rispetto a h per h che tende a 0. Se C(h) = O(hp ) per qualche p > 0, diremo che il metodo converge con ordine p. Per verificare che il metodo di Eulero in avanti `e convergente, scriviamo l’errore nel seguente modo en = yn − un = (yn − u∗n ) + (u∗n − un ),

(7.9)

dove u∗n = yn−1 + hf (tn−1 , yn−1 ) denota la soluzione numerica calcolata in tn a partire dalla soluzione esatta al tempo tn−1 ; si veda la Figura 7.3. Il termine yn − u∗n nella (7.9) rappresenta l’errore prodotto da un passo del metodo di Eulero in avanti, mentre il termine u∗n − un rappresenta la propagazione da tn−1 a tn dell’errore accumulato al livello temporale precedente. Il metodo converge se entrambi i termini tendono a 0 quando h → 0. Supponendo che la derivata seconda di y esista e sia continua, grazie alla (4.6) si trova che esiste ξn ∈ (tn−1 , tn ) tale che yn − u∗n =

h2 ′′ y (ξn ). 2

(7.10)

7.3 I metodi di Eulero

209

yn hτn (h)

en

un u∗n un−1 yn−1 y = y(t) tn−1

tn

Figura 7.3. Rappresentazione geometrica di un passo del metodo di Eulero in avanti

La quantit` a τn (h) = (yn − u∗n )/h `e chiamata errore di troncamento locale per il metodo di Eulero. Pi` u in generale, a meno del fattore 1/h, l’errore di troncamento locale rappresenta l’errore che si sarebbe generato forzando la soluzione esatta a soddisfare lo schema numerico. L’errore di troncamento globale `e definito come τ (h) =

max |τn (h)|.

n=0,...,Nh

Alla luce della (7.10) si deduce che per il metodo di Eulero in avanti l’errore di troncamento globale assume la forma seguente τ (h) = M h/2,

(7.11)

dove M = maxt∈[t0 ,T ] |y ′′ (t)|. Dalla (7.10) si deduce inoltre che limh→0 τ (h) = 0. In generale, un metodo per il quale l’errore di troncamento locale tende a 0 per h che tende a 0 verr` a detto consistente. Diremo inoltre che `e consistente con ordine p se τ (h) = O(hp ) per un opportuno intero p ≥ 1. Consideriamo ora il secondo addendo della (7.9). Abbiamo u∗n − un = en−1 + h [f (tn−1 , yn−1 ) − f (tn−1 , un−1 )] .

(7.12)

210

7 Equazioni differenziali ordinarie

Essendo f lipschitziana rispetto al suo secondo argomento, si trova |u∗n − un | ≤ (1 + hL)|en−1 |. Se e0 = 0, la relazione precedente diventa |en | ≤ |yn − u∗n | + |u∗n − un | ≤ h|τn (h)| + (1 + hL)|en−1 |   ≤ 1 + (1 + hL) + . . . + (1 + hL)n−1 hτ (h)

=

eL(tn −t0 ) − 1 (1 + hL)n − 1 τ (h) ≤ τ (h), L L

dove abbiamo usato l’identit` a n−1

(1 + hL)k = [(1 + hL)n − 1]/hL,

k=0

la disuguaglianza 1 + hL ≤ ehL ed abbiamo osservato che nh = tn − t0 . Troviamo quindi |en | ≤

eL(tn −t0 ) − 1 M h L 2

∀n = 0, . . . , Nh ,

(7.13)

pertanto il metodo di Eulero in avanti converge con ordine 1. Come si nota l’ordine del metodo `e uguale all’ordine dell’errore di troncamento locale: questa `e una propriet` a comune a molti schemi per la risoluzione delle equazioni differenziali ordinarie. La stima di convergenza (7.13) `e stata ottenuta richiedendo semplicemente che f sia continua e lipschitziana. Una stima migliore, precisamente |en | ≤ M h(tn − t0 )/2,

(7.14)

vale se ∂f (t, y)/∂y esiste ed `e ≤ 0 per ogni t ∈ [t0 , T ] e per ogni −∞ < y < ∞. Infatti in tal caso, usando lo sviluppo in serie di Taylor, dalla (7.12) troviamo u∗n − un = (1 + h∂f /∂y(tn−1, ηn ))en−1 , essendo ηn un punto appartenente all’intervallo di estremi yn−1 e un−1 , per cui |u∗n − un | ≤ |en−1 |, purch´e valga la seguente restrizione h < 2/ max |∂f /∂y(t, y(t))|. t∈[t0 ,T ]

(7.15)

Di conseguenza |en | ≤ |yn − u∗n | + |en−1 | ≤ nhτ (h) + |e0 | e quindi la (7.14) grazie alla (7.11) ed al fatto che e0 = 0. La limitazione (7.15) sul passo h `e di fatto una condizione di stabilit` a, come vedremo pi` u avanti.

7.3 I metodi di Eulero

211

Osservazione 7.1 (Consistenza) La propriet` a di consistenza `e necessaria per poter avere la convergenza. Se infatti essa non fosse soddisfatta, il metodo introdurrebbe ad ogni passo un errore non infinitesimo rispetto a h che, sommandosi con gli errori pregressi, pregiudicherebbe in modo irrimediabile la possibilit` a che l’errore globale tenda a 0 quando h → 0. 

Per il metodo di Eulero all’indietro l’errore di troncamento locale vale τn (h) =

1 [yn − yn−1 − hf (tn , yn )]. h

Usando nuovamente lo sviluppo in serie di Taylor si trova h τn (h) = − y ′′ (ξn ) 2 per un opportuno ξn ∈ (tn−1 , tn ), purch´e y ∈ C 2 . Di conseguenza, anche il metodo di Eulero all’indietro converge con ordine 1 rispetto a h. Esempio 7.1 Consideriamo il problema di Cauchy 8 < y ′ (t) = cos(2y(t)) t ∈ (0, 1], : y(0) = 0,

(7.16)

la cui soluzione `e y(t) = 12 arcsin((e4t −1)/(e4t +1)). Risolviamolo con il metodo di Eulero in avanti (Programma 7.1) e con il metodo di Eulero all’indietro (Programma 7.2) usando diversi valori di h, h = 1/2, 1/4, 1/8, . . . , 1/512: tspan =[0 ,1]; y0 =0; f = inline ( ’ cos (2* y ) ’ , ’t ’ , ’y ’ ); u = inline ( ’ 0.5* asin (( exp (4* t ) -1)./( exp (4* t )+1)) ’ , ’t ’ ); Nh =2; for k =1:10 [t , ufe ]= feuler (f , tspan , y0 , Nh ); fe ( k )= abs ( ufe ( end ) - feval (u , t ( end ))); [t , ube ]= beuler (f , tspan , y0 , Nh ); be ( k )= abs ( ube ( end ) - feval (u , t ( end ))); Nh = 2* Nh ; end Gli errori valutati per t = 1 sono memorizzati nelle variabili fe (per il metodo di Eulero in avanti) e be (per quello di Eulero all’indietro). Per stimare l’ordine di convergenza usiamo la formula (1.12). Tramite i comandi seguenti p = log ( abs ( fe (1: end -1)./ fe (2: end )))/ log (2); p (1:2: end ) 1.2898 1.0349 1.0080 1.0019 1.0005 p = log ( abs ( be (1: end -1)./ be (2: end )))/ log (2); p (1:2: end ) 0.9070 0.9720 0.9925 0.9981 0.9995 possiamo verificare che entrambi i metodi convergono con ordine 1.



212

7 Equazioni differenziali ordinarie

Osservazione 7.2 (Effetto degli errori di arrotondamento) La stima dell’errore (7.13) `e stata derivata supponendo che la soluzione numerica {un } sia calcolata in aritmetica esatta. Se si dovesse tener conto degli (inevitabili) errori di arrotondamento, l’errore esploderebbe quando h tende a 0 come O(1/h) (si veda, ad esempio, [Atk89]). Questa osservazione suggerisce che non `e ragionevole prendere h al di sotto di un valore di soglia h∗ (che `e generalmente piccolissimo) nei calcoli. 

Si vedano gli Esercizi 7.1-7.3.

7.4 Il metodo di Crank-Nicolson Sommando membro a membro il generico passo dei metodi di Eulero in avanti e di Eulero all’indietro si ottiene un altro metodo implicito ad un passo, il cosiddetto metodo di Crank-Nicolson un+1 = un +

h [fn + fn+1 ], 2

n = 0, . . . , Nh − 1

(7.17)

Esso pu` o essere anche derivato applicando il teorema fondamentale del calcolo integrale (richiamato nel paragrafo 1.5.3) al problema di Cauchy (7.5), ottenendo

yn+1 = yn +

t n+1

f (t, y(t)) dt,

(7.18)

tn

per poi approssimare l’integrale su [tn , tn+1 ] con la formula del trapezio (4.19). L’errore di troncamento locale del metodo di Crank-Nicolson `e dato da 1 1 [y(tn ) − y(tn−1 )] − [f (tn , y(tn )) + f (tn−1 , y(tn−1 ))] h 2 tn 1 1 = f (t, y(t)) dt − [f (tn , y(tn )) + f (tn−1 , y(tn−1 ))] . h 2

τn (h) =

tn−1

L’ultima uguaglianza segue dalla (7.18) ed esprime, a meno di un fattore h, l’errore associato all’uso della formula del trapezio (4.19) per l’integrazione numerica. Se supponiamo che y ∈ C 3 , dalla (4.20) si ricava τn (h) = −

h2 ′′′ y (ξn ) per un opportuno ξn ∈ (tn−1 , tn ). 12

(7.19)

7.4 Il metodo di Crank-Nicolson

213

Il metodo di Crank-Nicolson `e dunque consistente con ordine 2, cio`e presenta un errore di troncamento locale che tende a 0 come h2 . Con calcoli analoghi a quelli mostrati per il metodo di Eulero in avanti, si verifica inoltre che `e anche convergente con lo stesso ordine rispetto a h. Il metodo di Crank-Nicolson `e implementato nel Programma 7.3. I parametri di ingresso e di uscita in questo programma sono gli stessi di quelli impiegati per i metodi di Eulero. Programma 7.3. cranknic: il metodo di Crank-Nicolson function [t , u ]= cranknic ( odefun , tspan , y0 , Nh , varargin ) % CRANKNIC Risolve equazioni differenziali % usando il metodo di Crank - Nicolson . % [T , Y ]= CRANKNIC ( ODEFUN , TSPAN , Y0 , NH ) con % TSPAN = [ T0 , TF ] integra il sistema di equazioni % differenziali y ’ = f (t , y ) dal tempo T0 a TF con % condizione iniziale Y0 usando il metodo di % Crank - Nicolson su una griglia equispaziata di NH % intervalli . % La funzione ODEFUN (T , Y ) deve ritornare un vettore % contenente f (t , y ) , della stessa dimensione di y . % Ogni riga del vettore soluzione Y corrisponde ad % un istante temporale del vettore colonna T . % [T , Y ] = CRANKNIC ( ODEFUN , TSPAN , Y0 , NH , P1 , P2 ,...) % passa i parametri addizionali P1 , P2 ,... alla % funzione ODEFUN come ODEFUN (T ,Y , P1 , P2 ...). tt = linspace ( tspan (1) , tspan (2) , Nh +1); y = y0 (:); % genera sempre un vettore colonna u = y . ’; global glob_h glob_t glob_y glob_odefun ; glob_h =( tspan (2) - tspan (1))/ Nh ; glob_y = y ; glob_odefun = odefun ; if ( ~ exist ( ’ OCTAVE_VERSI ON ’) ) options = optimset ; options . Display = ’ off ’; options . TolFun =1. e -12; options . MaxFunEvals =10000; end for glob_t = tt (2: end ) if ( exist ( ’ OCTAVE_VERSI ON ’) ) w = fsolve ( ’ cranknicfun ’ , glob_y ); else w = fsolve ( @ ( w ) cranknicfun ( w ) , glob_y , options ); end u = [ u ; w . ’]; glob_y = w ; end t = tt ; clear glob_h glob_t glob_y glob_odefun ; end function z = cranknicfun ( w ) global glob_h glob_t glob_y glob_odefun ; z = w - glob_y - ... 0.5* glob_h *( feval ( glob_odefun , glob_t , w ) + ... feval ( glob_odefun , glob_t - glob_h , glob_y )); end

214

7 Equazioni differenziali ordinarie

Esempio 7.2 Risolviamo il problema (7.16) con il metodo di Crank-Nicolson, con gli stessi valori di h usati nell’Esempio 7.1. Come si vede, i risultati confermano che l’errore tende a zero con ordine 2 rispetto ad h: y0 =0; tspan =[0 1]; N =2; f = inline ( ’ cos (2* y ) ’ , ’t ’ , ’y ’ ); y = ’ 0.5* asin (( exp (4* t ) -1)./( exp (4* t )+1)) ’; for k =1:10 [ tt , u ]= cranknic (f , tspan , y0 , N ); t = tt ( end ); e ( k )= abs ( u ( end ) - eval ( y )); N =2* N ; end p = log ( abs ( e (1: end -1)./ e (2: end )))/ log (2); p (1:2: end ) 1.7940 1.9944 1.9997 2.0000 2.0000 

Si vedano gli Esercizi 7.4-7.5.

7.5 Zero-stabilit` a In generale, intendiamo per stabilit` a di un metodo numerico la possibilit` a di controllare l’effetto sulla soluzione di eventuali perturbazioni sui dati. Tra i possibili tipi di stabilit` a che si possono considerare per la risoluzione numerica di un problema di Cauchy, ve ne `e uno, la cosiddetta zerostabilit` a, che, se soddisfatta, garantisce che in un intervallo limitato e fissato piccole perturbazioni sui dati producano perturbazioni limitate sulla soluzione quando h → 0. Precisamente, un metodo numerico per l’approssimazione del problema (7.5), con I = [t0 , T ], `e detto zero-stabile se: ∃h0 > 0, ∃C > 0, ∃ε0 > 0 t.c. ∀h ∈ (0, h0 ], ∀ε ∈ (0, ε0 ], se |ρn | ≤ ε, 0 ≤ n ≤ Nh , allora |zn − un | ≤ Cε,

0 ≤ n ≤ Nh .

(7.20)

La costante C pu` o dipendere dalla lunghezza dell’intervallo di integrazione I, ma `e indipendente da h, zn `e la soluzione che si otterrebbe applicando il metodo numerico al problema perturbato, ρn rappresenta la perturbazione introdotta al passo n-simo e ε0 indica la massima grandezza di tale perturbazione. Naturalmente, ε0 (e quindi ε) deve essere sufficientemente piccolo da garantire che il problema perturbato ammetta comunque un’unica soluzione sull’intervallo di integrazione. Ad esempio, nel caso del metodo di Eulero in avanti, un soddisfa il problema  un+1 = un + hf (tn , un ), (7.21) u 0 = y0 ,

7.5 Zero-stabilit` a

mentre zn soddisfa il problema perturbato  zn+1 = zn + h [f (tn , zn ) + ρn+1 ] ,

215

(7.22)

z 0 = y 0 + ρ0 ,

per 0 ≤ n ≤ Nh − 1, supponendo |ρn | ≤ ε per 0 ≤ n ≤ Nh . Per un metodo ad un passo consistente si pu`o dimostrare che la zerostabilit` a `e una conseguenza del fatto che f `e continua e lipschitziana rispetto al suo secondo argomento (si veda, ad esempio, [QSS08]). In tal caso la costante C nella (7.20) dipende da exp((T − t0 )L), dove L `e la costante di Lipschitz. D’altra parte la lipschitzianit` a di f pu` o non essere sufficiente per altre famiglie di metodi. Supponiamo ad esempio che il metodo numerico possa essere scritto nella forma generale un+1 =

p j=0

aj un−j + h

p

bj fn−j + hb−1 fn+1 , n = p, p + 1, . . . (7.23)

j=0

per opportuni coefficienti {ak } e {bk } e per un opportuno intero p ≥ 0. La (7.23) definisce in effetti una importante famiglia di metodi, i cosiddetti metodi multistep lineari e p + 1 denota il numero di passi (o step). Questi metodi verranno ripresi con maggior enfasi nella Sezione 7.7. I valori u0 , u1 , . . . , up devono essere noti prima di innestare il metodo. Mentre u0 `e assegnato uguale a y0 , i valori u1 , . . . , up debbono essere generati con opportuni metodi sufficientemente accurati, come ad esempio i metodi Runge-Kutta che descriveremo nella sezione 7.7. Il polinomio di grado p + 1 rispetto a r π(r) = rp+1 −

p

aj rp−j

j=0

`e detto il primo polinomio caratteristico associato al metodo numerico (7.23); denotiamo le sue radici con rj , j = 0, . . . , p. Si pu` o allora provare che il metodo (7.23) `e zero-stabile se e solo se vale la seguente condizione delle radici  |rj | ≤ 1 per ogni j = 0, . . . , p, (7.24) inoltre π ′ (rj ) = 0 per quei j tali che |rj | = 1. Ad esempio, per il metodo di Eulero in avanti abbiamo p = 0, a0 = 1, b−1 = 0, b0 = 1. Per il metodo di Eulero all’indietro abbiamo p = 0, a0 = 1, b−1 = 1, b0 = 0 e per il metodo di Crank-Nicolson p = 0, a0 = 1, b−1 = 1/2, b0 = 1/2. In tutti questi casi c’`e una sola radice di π(r) che vale 1 e, di conseguenza, tutti questi metodi sono zero-stabili.

216

7 Equazioni differenziali ordinarie

La seguente propriet`a, nota come teorema di equivalenza di LaxRitchmyer, fondamentale nella teoria dei metodi numerici (si veda, ad esempio, [IK66]), illustra il ruolo decisivo giocato dalla propriet` a di zerostabilit` a: Ogni metodo consistente `e convergente se e solo se `e zero-stabile Coerentemente con quanto fatto in precedenza, l’errore di troncamento locale per un metodo multistep (7.23) `e definito come ⎧ p 1⎨ τn (h) = aj yn−j yn+1 − h⎩ j=0 ⎫ (7.25) p ⎬ −h bj f (tn−j , yn−j ) − hb−1 f (tn+1 , yn+1 ) . ⎭ j=0

Il metodo `e detto consistente se τ (h) = max |τn (h)| tende a zero per h che tende a zero. Si pu` o dimostrare che questa condizione equivale a richiedere che p j=0

aj = 1,



p j=0

jaj +

p

bj = 1

(7.26)

j=−1

che corrisponde ad affermare che r = 1 `e una radice del polinomio π(r) (per la dimostrazione si veda ad esempio [QSS08, Capitolo 11]).

7.6 Stabilit` a su intervalli illimitati Nel precedente paragrafo ci siamo occupati della risoluzione di problemi di Cauchy su intervalli limitati. In quel contesto il numero Nh di sottointervalli tende all’infinito soltanto se h tende a 0. D’altra parte, esistono numerose situazioni nelle quali si `e interessati a determinare la soluzione di un problema di Cauchy per tempi grandi, virtualmente infiniti. In questi casi, anche per h fissato, Nh tende comunque all’infinito e risultati quali (7.13) perdono di significato in quanto a secondo membro compaiono quantit` a illimitate. Si `e pertanto interessati a caratterizzare metodi che, pur in corrispondenza di h sufficientemente grandi, consentano di ottenere un valore comunque accurato della soluzione y(t) anche su intervalli temporali arbitrariamente grandi. Sfortunatamente il metodo di Eulero in avanti, di cos`ı semplice implementazione, non gode di questa propriet` a. Introduciamo il seguente problema modello

7.6 Stabilit` a su intervalli illimitati

217

8

6

4

2

0

−2

−4

−6 0

5

10

15

20

25

30

Figura 7.4. Soluzioni del problema (7.27), con λ = −1, ottenute con il metodo di Eulero in avanti, corrispondenti a h = 30/14(> 2) (linea tratteggiata), h = 30/16(< 2) (linea continua) e h = 1/2 (linea tratto-punto)



y ′ (t) = λy(t),

t ∈ (0, ∞), (7.27)

y(0) = 1,

dove λ `e un numero reale negativo. La soluzione esatta `e y(t) = eλt e tende a 0 per t che tende all’infinito. Se applichiamo a (7.27) il metodo di Eulero in avanti, troviamo u0 = 1,

un+1 = un (1 + λh) = (1 + λh)n+1 ,

n ≥ 0.

(7.28)

Avremo limn→∞ un = 0 se e solo se −1 < 1 + hλ < 1, ovvero h < 2/|λ|

(7.29)

Questa condizione esprime la richiesta che, per h fissato, la soluzione numerica sia in grado di riprodurre l’andamento della soluzione esatta quando tn tende all’infinito. Se h > 2/|λ|, allora limn→∞ |un | = +∞; quindi (7.29) `e una condizione di stabilit` a. Precisamente la propriet` a che limn→∞ un = 0 `e detta assoluta stabilit` a. Esempio 7.3 Risolviamo con il metodo di Eulero in avanti il problema (7.27) con λ = −1. In tal caso dobbiamo avere h < 2 per garantire l’assoluta stabilit` a. In Figura 7.4 vengono riportate le soluzioni ottenute sull’intervallo [0, 30] per tre diversi valori di h: h = 30/14 (che viola la condizione di stabilit`a), h = 30/16 (che soddisfa, seppur di poco, la condizione di stabilit`a), e h = 1/2. Si osserva che nei primi due casi la soluzione oscilla. Tuttavia solo nel primo caso il valore assoluto della soluzione numerica non tende a zero per n che tende all’infinito (anzi, addirittura diverge). 

Conclusioni analoghe valgono quando λ `e un numero complesso (si veda il paragrafo 7.6.1) o quando λ = λ(t) in (7.27) `e una funzione negativa di t.

218

7 Equazioni differenziali ordinarie

In quest’ultimo caso, nella condizione di stabilit` a (7.29), |λ| dovr` a essere sostituito da maxt∈[0,∞) |λ(t)|. Questa condizione pu` o essere indebolita se si utilizza un passo variabile hn che tenga conto dell’andamento locale di |λ(t)| in ciascun intervallo (tn , tn+1 ). In particolare, si pu` o ricorrere al seguente metodo di Eulero in avanti adattivo: posto u0 = y0 e h0 = 2α/|λ(t0 )|, allora per n = 0, 1, . . . , calcolare tn+1 = tn + hn ,

(7.30)

un+1 = un + hn λ(tn )un , hn+1 = 2α/|λ(tn+1 )|, dove α `e una costante che deve essere minore di 1 in modo da garantire che il metodo sia assolutamente stabile. Ad esempio, consideriamo il problema y ′ (t) = −(e−t + 1)y(t),

t ∈ (0, 10),

con y(0) = 1. Essendo |λ(t)| decrescente, la condizione pi` u restrittiva per garantire assoluta stabilit` a del metodo di Eulero in avanti `e h < h0 = 2/|λ(0)| = 1. In Figura 7.5, a sinistra, confrontiamo la soluzione ottenuta con il metodo di Eulero in avanti con quella ottenuta con il metodo adattivo (7.30) per tre diversi valori di α. Si noti che, anche se ogni valore α < 1 `e sufficiente a garantire la stabilit` a, per ottenere soluzioni accurate `e necessario scegliere α sufficientemente piccolo. In Figura 7.5, a destra riportiamo i valori di hn sull’intervallo (0, 10] per i tre valori di α. Da questo grafico si deduce che la successione {hn } `e monotona crescente. Contrariamente al metodo di Eulero in avanti, i metodi di Eulero all’indietro e di Crank-Nicolson non richiedono limitazioni su h per garantire l’assoluta stabilit` a. Applicando il metodo di Eulero all’indietro al problema modello (7.27) infatti si trova un+1 = un + λhun+1 e n+1  1 , n ≥ 0, un+1 = 1 − λh che tende a zero per n → ∞ per tutti i valori h > 0. Analogamente applicando il metodo di Crank-Nicolson si trova   )n+1 ( hλ hλ 1− 1+ , n ≥ 0, un+1 = 2 2

che tende nuovamente a zero per n → ∞ per tutti i possibili valori di h > 0. Deduciamo quindi che il metodo di Eulero in avanti `e condizionatamente assolutamente stabile, mentre i metodi di Eulero all’indietro e di Crank-Nicolson sono incondizionatamente assolutamente stabili.

7.6 Stabilit` a su intervalli illimitati 1

0.4

219

α = 0.45

0.9

α = 0.4

0.35 0.8

0.3

α = 0.3

0.7

α = 0.3

h

0.25 0.2

0.6

α = 0.4

0.15

0.5

0.1 0.4

0.05 0

0.3

α = 0.45

−0.05 0.5

0.2 0

1

1.5

2

2

4

t

6

8

10

Figura 7.5. A sinistra: la soluzione numerica sull’intervallo temporale (0.5, 2) ottenuta con il metodo di Eulero in avanti per h = αh0 (linea tratteggiata) e con il metodo adattivo (7.30) (linea continua) per tre diversi valori di α. A destra: l’andamento del passo variabile hn per il metodo adattivo (7.30)

7.6.1 La regione di assoluta stabilit` a Supponiamo ora che nel problema (7.27) λ sia un numero complesso con parte reale negativa. In tal caso la soluzione u(t) = eλt tende ancora a 0 quando t tende all’infinito. Chiamiamo regione di assoluta stabilit` a A di un metodo numerico l’insieme dei valori del piano complesso z = hλ in corrispondenza dei quali il metodo `e assolutamente stabile (ovvero si abbia limn→∞ un = 0). Ad esempio, per il metodo di Eulero in avanti la regione di assoluta stabilit` a `e costituita dai valori z = hλ ∈ C tali che |1 + hλ| < 1, ovvero dal cerchio di raggio unitario e centro (−1, 0). Esplicitando questa condizione rispetto ad h si ottiene la limitazione h < −2Re(λ)/|λ|2 . Per il metodo di Eulero all’indietro la propriet` a di assoluta stabilit` a `e invece soddisfatta per ogni valore di hλ che non appartiene al cerchio del piano complesso di raggio unitario e centro (1, 0) (si veda la Figura 7.6). Infine, il metodo di Crank-Nicolson ha una regione di assoluta stabilit` a che coincide con il semipiano complesso dei numeri con parte reale strettamente negativa. Metodi che risultino incondizionatamente assolutamente stabili per tutti i numeri complessi λ in (7.27) sono detti A-stabili. I metodi di Eulero all’indietro e di Crank-Nicolson sono dunque A-stabili, cos`ı come molti altri metodi impliciti. Questa propriet` a rende i metodi impliciti interessanti, nonostante richiedano in generale costi computazionali decisamente pi` u elevati dei metodi espliciti. Esempio 7.4 Calcoliamo la restrizione a cui deve essere soggetta h qualora si utilizzi il metodo di Eulero in avanti per la risoluzione del problema di Cauchy y ′ (t) = λy con λ = −1 + i. Questo valore di λ appartiene alla frontiera della regione di assoluta stabilit`a. Un qualunque h ∈ (0, 1) sar` a sufficiente ad assicurare che hλ ∈ A. Se fosse λ = −2 + 2i la disuguaglianza |1 + hλ| < 1 comporterebbe una restrizione pi` u severa, h ∈ (0, 1/2). 

220

7 Equazioni differenziali ordinarie Im(λ)

Im(λ)

−1

Re(λ)

Im(λ)

Re(λ)

1

Re(λ)

Figura 7.6. Le regioni di assoluta stabilit`a (in colore) per i metodi di Eulero in avanti (a sinistra), di Eulero all’indietro (al centro) e di Crank-Nicolson (a destra)

7.6.2 L’assoluta stabilit` a controlla le perturbazioni Consideriamo il seguente problema modello generalizzato  ′ y (t) = λ(t)y(t) + r(t), t ∈ (0, +∞),

(7.31)

y(0) = 1,

dove λ e r sono due funzioni continue e −λmax ≤ λ(t) ≤ −λmin con 0 < λmin ≤ λmax < +∞. In tal caso la soluzione esatta non tende necessariamente a zero quando t tende all’infinito. Ad esempio, se entrambi r e λ sono costanti abbiamo  r  λt r y(t) = 1 + e − λ λ

il cui limite per t che tende all’infinito `e −r/λ. Dunque, in generale, non appare sensato richiedere che un metodo numerico sia assolutamente stabile quando applicato al problema (7.31). D’altra parte, mostreremo che un metodo numerico che sia assolutamente stabile per il problema modello (7.27), quando applicato al problema generalizzato (7.31) garantisce che le eventuali perturbazioni restino sotto controllo quando t tende all’infinito (accettando al pi` u un’opportuna condizione sul passo di integrazione h). Per semplicit`a limitiamo la nostra analisi al metodo di Eulero in avanti per il problema (7.31)  un+1 = un + h(λn un + rn ), n ≥ 0, u0 = 1.

La soluzione `e (si veda l’Esercizio 7.9) un = u0

n−1 

(1 + hλk ) + h

k=0

n−1

rk

k=0

n−1 

(1 + hλj ),

(7.32)

j=k+1

avendo posto λk = λ(tk ) e rk = r(tk ) ed avendo adottato la convenzione che la produttoria sia uguale a 1 se k + 1 > n − 1. Consideriamo ora il problema perturbato

7.6 Stabilit` a su intervalli illimitati



zn+1 = zn + h(λn zn + rn + ρn+1 ),

n ≥ 0,

z 0 = u 0 + ρ0 ,

221

(7.33)

dove ρ0 , ρ1 , . . . sono perturbazioni note che vengono introdotte ad ogni passo temporale. La soluzione di (7.33) assume una forma simile a (7.32) purch´e uk venga sostituito da zk e rk da rk +ρk+1 , per ogni k = 0, . . . , n− 1. Si ha allora z n − u n = ρ0

n−1 

(1 + hλk ) + h

k=0

n−1

ρk+1

k=0

n−1 

(1 + hλj ).

(7.34)

j=k+1

La quantit` a |zn − un | `e detta errore di perturbazione al passo n; questa quantit` a non dipende dalla funzione r(t). i. Consideriamo dapprima il caso speciale in cui λk e ρk sono due costanti, pari a λ e ρ, rispettivamente. Supponiamo che h < h0 (λ) = 2/|λ|; ricordiamo che questa condizione su h assicura l’assoluta stabilit`a del metodo di Eulero in avanti quando applicato al problema modello (7.27). Utilizzando la seguente identit` a n−1

ak =

k=0

troviamo

1 − an , 1−a

se |a| =  1,

 .   1 1 n zn − un = ρ (1 + hλ) 1 + − . λ λ

(7.35)

(7.36)

Segue che l’errore di perturbazione soddisfa (si veda l’Esercizio 7.10) |zn − un | ≤ ϕ(λ)|ρ|,

(7.37)

con ϕ(λ) = 1 se λ ≤ −1, mentre ϕ(λ) = |1+2/λ| se −1 1, la successione bn `e monotona decrescente e supn bn = b0 = λmin , dunque si ottiene di nuovo la (7.40).

7.6 Stabilit` a su intervalli illimitati

223

Quando invece h∗ < h < h0 (λ), si ha 1 + hλk = 1 − h|λk | ≤ 1 − h∗ |λk | ≤ 1 − h∗ λmin .

(7.42)

Utilizzando la (7.42) e l’identit` a (7.35) in (7.34) si trova, ponendo a = 1 − h∗ λmin ,   1 − an zn − un ≤ ρmax an + h 1−a     (7.43) ρmax h h n = a λmin − ∗ + ∗ . λmin h h Ora osserviamo che si hanno due possibili situazioni.   h Se λmin ≥ ∗ , allora hh∗ ≤ an λmin − hh∗ + hh∗ < λmin e troviamo h zn − un ≤ ρmax

∀n.

(7.44)

  h , allora λmin ≤ an λmin − hh∗ + hh∗ < hh∗ e dunque h∗   1 ρmax h0 1 ρmax h . (7.45) zn − un ≤ ≤ = ρmax + λmin h∗ λmin h∗ λmin λmax

Se invece λmin
0, y(0) = 1.

(7.46)

Essendo fy = 3/(1+9y 2 )−3 negativa, possiamo scegliere λmax = max |fy | = 3 e porre h < h0 =2/3. Possiamo quindi aspettarci che le perturbazioni nel metodo di Eulero in avanti restino controllate purch´e h < 2/3. Questa conclusione `e confermata dai risultati sperimentali riportati in Figura 7.9. Si noti che in questo esempio, prendendo h = 2/3 + 0.01 (che viola la precedente condizione di stabilit` a) l’errore di perturbazione esplode al crescere di t.  Esempio 7.6 Cerchiamo una limitazione su h che garantisca la stabilit` a per il metodo di Eulero in avanti applicato al problema di Cauchy y ′ = 1 − y 2 , t > 0,

(7.47)

con y(0) = (e − 1)/(e + 1). La soluzione esatta `e y(t) = (e2t+1 − 1)/(e2t+1 + 1) e fy = −2y. Poich´e fy ∈ (−2, −0.9) per ogni t > 0, possiamo prendere h minore di h0 = 1. In Figura 7.10, a sinistra, riportiamo le soluzioni ottenute sull’intervallo (0, 35) con h = 0.95 (linea spessa) e h = 1.05 (linea sottile). In entrambi i casi le soluzioni oscillano, ma restano limitate. Inoltre, nel primo caso nel quale la condizione di stabilit`a `e soddisfatta, le oscillazioni vengono

7.6 Stabilit` a su intervalli illimitati

225

3.5

3

2.5

2

1.5

1

0.5

0 0

20

40

60

80

100

Figura 7.9. L’errore di perturbazione quando ρ(t) = sin(t) con h = h0 − 0.01 (linea spessa) e h = h0 + 0.01 (linea sottile) per il problema di Cauchy (7.46); h0 = 2/3 1.3

1

1.2

0.9

0.8

1.1

0.7

1 0.6

0.9 0.5

0.8 0.4

0.7 0.3

0.6

0.2

0.5

0.4

0.1

0

5

10

15

20

25

30

35

0

0

10

20

30

40

50

60

70

80

90

100

Figura 7.10. A sinistra, le soluzioni numeriche del problema (7.47) calcolate con il metodo di Eulero in avanti per h = 1.05 (linea sottile) e per h = 0.95 (linea spessa). I valori della soluzione esatta sono stati indicati con dei cerchietti. A destra, gli errori di perturbazione corrispondenti a ρ(t) = sin(t) per h = h∗ = 2/2.9 (linea spessa continua) e h = 0.9 (linea sottile tratteggiata)

smorzate e la soluzione numerica tende a quella esatta al crescere di t. In Figura 7.10, a destra, riportiamo gli errori di perturbazione corrispondenti a ρ(t) = sin(t) con h = h∗ = 2/2.9 (linea spessa continua) e h = 0.9 (linea sottile tratteggiata). In entrambi i casi gli errori di perturbazione si mantengono limitati, in particolare per h = h∗ = 2/2.9 `e soddisfatta la stima (7.40), mentre  per h∗ < h = 0.9 < h0 `e soddisfatta la stima (7.45).

In tutti quei casi in cui non sono disponibili informazioni su y, il calcolo di λmax = max |fy | pu` o non essere agevole. Si pu` o in questa circostanza seguire un approccio euristico adottando una procedura di adattivit` a del passo di integrazione. Precisamente, si potrebbe prendere tn+1 = tn + hn , dove hn =2

α , |fy (tn , un )|

226

7 Equazioni differenziali ordinarie

1

0.8

0.6

0.4

0.2

0

0

10

20

30

40

50

60

70

80

90

100

Figura 7.11. Gli errori di perturbazione corrispondenti a ρ(t) = sin(t) con α = 0.8 (linea spessa) e α = 0.9 (linea sottile) per l’Esempio 7.6, usando la strategia adattiva

per opportuni valori di α strettamente minori di 1. Si noti che il denominatore dipende dal valore un che `e noto. In Figura 7.11 riportiamo gli errori di perturbazione corrispondenti all’Esempio 7.6 per due diversi valori di α. L’analisi precedente pu`o essere condotta anche per altri metodi, in particolare per quelli di Eulero all’indietro e di Crank-Nicolson. Per questi metodi, che sono A-stabili, si ricavano le stesse conclusioni sul controllo dell’errore di perturbazione, senza tuttavia richiedere alcuna limitazione sul passo di integrazione. Di fatto, basta sostituire nell’analisi precedente il termine 1 + hλn con (1 − hλn )−1 nel caso del metodo di Eulero all’indietro e con (1 + hλn /2)/(1 − hλn/2) nel caso del metodo di Crank-Nicolson.

Riassumendo 1. Un metodo `e assolutamente stabile quando, applicato al problema modello (7.27), genera una soluzione un che tende a zero quando tn tende all’infinito; 2. un metodo `e detto A-stabile quando `e assolutamente stabile per ogni possibile scelta del passo di integrazione h (in caso contrario si dice che il metodo `e condizionatamente assolutamente stabile e h dovr` a essere minore di una costante che dipende da λ); 3. quando un metodo assolutamente stabile viene applicato ad un problema modello generalizzato, come (7.31), l’errore di perturbazione, che `e il valore assoluto della differenza fra la soluzione perturbata e quella imperturbata, `e limitato uniformemente rispetto a h. Per tale ragione, diciamo che un metodo assolutamente stabile controlla le perturbazioni;

7.7 Metodi di ordine elevato

227

4. l’analisi di assoluta stabilit` a per il problema modello pu` o essere sfruttata per trovare condizioni di stabilit` a sul passo di integrazione anche per il generico problema di Cauchy non lineare (7.5) quando f sia tale che ∂f /∂y < 0. In tal caso la condizione di stabilit` a richiede che il passo di integrazione sia scelto come una funzione di ∂f /∂y. Precisamente, il nuovo intervallo di integrazione [tn , tn+1 ] verr` a scelto in modo tale che hn = tn+1 − tn soddisfi hn ≤2α/|∂f (tn , un )/∂y| per un opportuno α minore di 1. Si vedano gli Esercizi 7.6-7.13.

7.7 Metodi di ordine elevato Tutti i metodi presentati finora sono esempi elementari di metodi ad un passo. Accenniamo ora ad altri metodi che consentono il raggiungimento di un maggior ordine di accuratezza, i metodi Runge-Kutta ed i metodi multistep (la cui forma generale `e stata introdotta in (7.23)). I metodi Runge-Kutta (in breve, RK) sono ancora metodi ad un passo che tuttavia richiedono diverse valutazioni della funzione f (t, y) in ciascun intervallo [tn , tn+1 ]. Nella sua forma pi` u generale, un metodo RK pu` o essere scritto come un+1 = un + h

s bi K i ,

n ≥ 0,

(7.48)

i=1

dove Ki = f (tn + ci h, un + h

s

aij Kj ),

i = 1, 2, . . . , s

j=1

e s denota il numero di stadi del metodo. I coefficienti {aij }, {ci } e {bi } caratterizzano completamente un metodo RK e sono generalmente raccolti nel cosiddetto array di Butcher c A T , bT essendo A = (aij ) ∈ Rs×s , b = (b1 , . . . , bs )T ∈ Rs e c = (c1 , . . . , cs )T ∈ Rs . Se i coefficienti aij di A sono uguali a zero per j ≥ i, con i = o essere ottenuto esplicitamente usando 1, 2, . . . , s, allora ciascun Ki pu` gli i−1 coefficienti K1 , . . . , Ki−1 che sono gi`a stati calcolati. In tal caso il metodo RK si dice esplicito. In caso contrario, il metodo `e detto implicito

228

7 Equazioni differenziali ordinarie

e per calcolare i coefficienti Ki si deve risolvere un sistema non lineare di dimensione s. Uno tra i pi` u noti metodi RK assume la forma un+1 = un +

h (K1 + 2K2 + 2K3 + K4 ) 6

(7.49)

dove 0

K 1 = fn ,

1 2 1 2

K2 = f (tn + h2 , un + h2 K1 ),

1 2

0 12 1 0 0 1

K3 = f (tn + h2 , un + h2 K2 ),

1T 1 6 3

K4 = f (tn+1 , un + hK3 ),

1 3

. 1 6

Esso si pu` o derivare dalla (7.18) usando la formula di quadratura di Simpson (4.23) per approssimare l’integrale fra tn e tn+1 . Si tratta di un metodo esplicito di ordine 4 rispetto a h che richiede, ad ogni passo, 4 nuove valutazioni della funzione f . Naturalmente si possono costruire molti altri metodi RK, sia espliciti che impliciti di ordine arbitrario. Ad esempio, un metodo RK implicito di ordine 4 a 2 stadi `e definito dal seguente array di Butcher √ √ 3−2 3 1 3− 3 6 4 12 √ √ 3+ 3 3+2 3 1 6 12 4 T 1 1 2 2

La regione di assoluta stabilit` a A dei metodi RK, sia impliciti che espliciti, pu` o crescere in estensione al crescere dell’ordine. Un esempio `e fornito dal grafico in Figura 7.13 a sinistra, dove `e riportata la regione A dei seguenti metodi espliciti di ordine crescente: RK1, ovvero il metodo di Eulero in avanti, RK2, ovvero il metodo detto di Eulero migliorato che verr` a introdotto oltre (si veda (7.56)), RK3, ovvero il metodo associato al seguente array di Butcher 0 1 2

1 2

1 −1 2 1T 2 6 3

ode ode45 ode23

(7.50) 1 6

e infine RK4, il metodo introdotto in (7.49). I metodi RK sono alla base di alcuni programmi MATLAB il cui nome contiene la radice ode seguita da numeri o lettere. In particolare, ode45 `e basato su una coppia di metodi RK espliciti (la cosiddetta coppia di Dormand-Prince) di ordine 4 e 5, rispettivamente, mentre ode23

7.7 Metodi di ordine elevato

229

implementa un’altra coppia di metodi RK espliciti (la coppia di Bogacki e Shampine). In questi metodi il passo di integrazione varia in modo da garantire che l’errore si mantenga al di sotto di una tolleranza fissata (in tutti questi programmi la tolleranza di default RelTol per l’errore relativo `e pari a 10−3 ). Il programma ode23tb implementa invece un metodo Runge-Kutta implicito il cui primo stadio (relativo alla valutazione di K1 ) `e basato sulla formula del trapezio, mentre il secondo stadio `e basato su una formula di differenziazione all’indietro di ordine 2 (si veda (7.53)). I metodi multistep (o multipasso) (si veda la (7.23)) consentono di ottenere un ordine di accuratezza elevato coinvolgendo i valori un , un−1 , . . . , un−p nella determinazione di un+1 . Essi possono essere derivati ad esempio applicando prima la formula (7.18), quindi approssimando l’integrale che vi compare con una formula di quadratura che utilizza il polinomio interpolatore di f su un opportuno insieme di nodi. Un esempio notevole di metodo multistep `e la formula (esplicita) a tre passi (p = 2), del terz’ordine di Adams-Bashforth (AB3) un+1 = un +

h (23fn − 16fn−1 + 5fn−2 ) 12

(7.51)

ottenuta sostituendo f nella (7.18) con il suo polinomio interpolatore di grado 2 nei nodi tn−2 , tn−1 , tn . Un altro importante esempio di metodo a tre passi del quart’ordine (implicito) `e dato dalla formula di AdamsMoulton (AM4) un+1 = un +

h (9fn+1 + 19fn − 5fn−1 + fn−2 ) 24

(7.52)

ottenuta approssimando f in (7.18) con il suo polinomio interpolatore di grado 3 nei nodi tn−2 , tn−1 , tn , tn+1 . Un’altra famiglia di metodi multistep si ottiene scrivendo l’equazione differenziale al tempo tn+1 ed approssimando y ′ (tn+1 ) con un rapporto incrementale all’indietro di ordine elevato. Un esempio `e costituito dalla formula di differenziazione all’indietro del second’ordine (backward difference formula, in breve BDF2) a due passi (implicito) un+1 =

1 2h 4 un − un−1 + fn+1 3 3 3

(7.53)

o di quella a tre passi (BDF3), del terz’ordine (implicita) un+1 =

9 2 6h 18 un − un−1 + un−2 + fn+1 11 11 11 11

(7.54)

ode23tb

230

7 Equazioni differenziali ordinarie

Figura 7.12. Le regioni di assoluta stabilit`a di alcuni metodi di AdamsBashforth (a sinistra) e di Adams-Moulton (a destra)

Tutti questi metodi possono essere scritti nella forma generale (7.23). ` facile verificare che le condizioni (7.26) sono sempre soddisfatte e, E di conseguenza, tutti questi metodi sono consistenti. Inoltre, essi sono zero-stabili. In effetti, per entrambe le formule (7.51) e (7.52) il primo polinomio caratteristico `e π(r) = r3 − r2 le cui radici sono r0 = 1, r1 = r2 = 0, quello di (7.53) `e π(r) = r2 −(4/3)r+1/3 ed ha radici r0 = 1 e r1 = 1/3, mentre quello di (7.54) `e π(r) = r3 − 18/11r2 + 9/11r − 2/11 che ha radici r0 = 1, r1 = 0.3182 + 0.2839i, r2 = 0.3182 − 0.2839i, dove i `e l’unit` a immaginaria. In tutti i casi, la condizione delle radici (7.24) `e soddisfatta. Inoltre, quando applicati al problema modello (7.27), AB3 `e assolutamente stabile se h < 0.545/|λ|, mentre AM4 `e assolutamente stabile se h < 3/|λ|. Il metodo BDF2 `e A-stabile, mentre BDF3 `e incondizionatamente assolutamente stabile per tutti i numeri reali negativi λ, ma non per tutti i λ ∈ C con parte reale negativa. In altre parole, il metodo BDF3 non `e A-stabile. Pi` u in generale, in accordo con la cosiddetta seconda barriera di Dahlquist, non ci sono metodi multistep A-stabili di ordine strettamente maggiore di 2. In Figura 7.12 riportiamo le regioni di assoluta stabilit` a di alcuni metodi di Adams-Bashforth e di Adams-Moulton. Si noti come l’estensione della regione decresca al crescere dell’ordine di convergenza. Nei grafici di Figura 7.13 a destra riportiamo le regioni (illimitate) di assoluta stabilit` a di alcuni metodi BDF: anch’esse ricoprono un’area del piano complesso che si riduce al crescere dell’ordine, contrariamente a quelle dei metodi Runge-Kutta (riportate a sinistra) che al crescere dell’ordine aumentano di estensione. Osservazione 7.4 (Come disegnare le regioni di assoluta stabilit` a) Il bordo ∂A della regione di assoluta stabilit`a A di un metodo multistep pu` o essere ottenuto con un semplice artificio. Il bordo `e infatti il luogo dei punti hλ

7.7 Metodi di ordine elevato

231

Figura 7.13. Le regioni di assoluta stabilit`a di alcuni metodi RK espliciti (a sinistra) e BDF (a destra). In quest’ultimo caso le regioni sono illimitate e si estendono esternamente alle linee chiuse del piano complesso tali che hλ =

r

p+1

p X − aj r p−j j=0

!



p X

j=−1

bj r

p−j

!

,

(7.55)

con r numero complesso di modulo unitario. Di conseguenza, per ottenere una rappresentazione approssimata di ∂A `e sufficiente valutare il secondo membro di (7.55) al variare di r sulla circonferenza unitaria (ad esempio, ponendo r = exp(i*pi*(0:2000)/1000), dove i `e l’unit` a immaginaria). I grafici delle Figure 7.12 e 7.13 sono stati ottenuti in questo modo. 

In accordo con la cosiddetta prima barriera di Dahlquist, l’ordine massimo q di un metodo multistep a p+ 1 passi che soddisfi la condizione delle radici `e q = p + 1 se il metodo `e esplicito, mentre per un metodo implicito si ha q = p + 2 se p + 1 `e dispari, q = p + 3 se p + 1 `e pari. ` possibile superare le barOsservazione 7.5 (Metodi compositi ciclici) E riere di Dahlquist combinando opportunamente pi` u metodi multistep. Ad esempio, i seguenti due metodi 19 h 8 un + un−1 + (30fn+1 + 57fn + 24fn−1 − fn−2 ), 11 11 33 449 19 361 un + un−1 − un−2 = 240 30 240 h + (251fn+1 + 456fn − 1347fn−1 − 350fn−2 ), 720

un+1 = − un+1

hanno ordine 5, ma sono entrambi instabili. Utilizzandoli per`o in modo combinato (il primo se n `e pari, il secondo se n `e dispari) si ottiene un metodo A-stabile di ordine 5 a 3 passi. 

I metodi multistep sono implementati in MATLAB, ad esempio nel programma ode15s.

ode15s

232

7 Equazioni differenziali ordinarie

Octave 7.1 ode23 and ode45 sono disponibili anche in Octave-forge. Tuttavia i parametri opzionali differiscono da quelli di MATLAB. Si noti che ode45 in Octave-forge offre due possibili strategie: quella di default `e basata sul metodo di Dormand e Prince e produce generalmente risultati pi` u accurati di quelli prodotti dalla seconda strategia, basata sul metodo di Fehlberg. 

7.8 I metodi predictor-corrector Come abbiamo osservato nel paragrafo 7.3, se la funzione f del problema di Cauchy `e non lineare rispetto a y, i metodi impliciti generano ad ogni passo un problema non lineare nell’incognita un+1 . Per risolverlo si pu` o ricorrere ad uno fra i metodi che abbiamo presentato nel capitolo 2 oppure, come abbiamo fatto nei Programmi 7.2 e 7.3, utilizzare la funzione fsolve. Un’ulteriore alternativa consiste nell’eseguire delle iterazioni di punto fisso ad ogni passo temporale. Ad esempio, per il metodo di CrankNicolson (7.17), per k = 0, 1, . . ., fino a convergenza si calcola (k+1)

un+1 = un +

0 h/ (k) fn + f (tn+1 , un+1 ) . 2 (0)

Si pu` o dimostrare che se il dato iniziale un+1 viene scelto opportunamente basta una sola iterazione di punto fisso per ottenere una soluzione (1) numerica un+1 la cui accuratezza sia dello stesso ordine della soluzione un+1 calcolata dal metodo implicito originale. Precisamente, se il metodo (0) implicito ha ordine p (≥ 2), il dato iniziale un+1 dovr` a essere generato da un metodo esplicito per lo meno accurato di ordine p − 1. Ad esempio, se si usa il metodo di Crank-Nicolson e lo si inizializza con il metodo (del prim’ordine) di Eulero in avanti, si ottiene il metodo di Heun (anche chiamato metodo di Eulero migliorato), gi` a riferito precedentemente con l’acronimo RK2 u∗n+1 = un + hfn ,  h un+1 = un + fn + f (tn+1 , u∗n+1 ) 2

(7.56)

In generale, il metodo esplicito viene denominato predictor, mentre quello implicito `e detto corrector. Un altro esempio di questa famiglia di metodi `e dato dalla combinazione del metodo (AB3) (7.51), usato come predictor, con il metodo (AM4) (7.52), usato come corrector. Schemi di questo genere vengono quindi chiamati metodi predictor-corrector. Essi garantiscono l’ordine di accuratezza del metodo corrector. D’altra parte,

7.8 I metodi predictor-corrector

233

Figura 7.14. Le regioni di assoluta stabilit`a dei metodi predictor-corrector ottenuti combinando i metodi di Eulero esplicito (EE) e di Crank-Nicolson (a sinistra) e AB3 e AM4 (a destra). Si noti la riduzione dell’estensione della regione rispetto a quella dei corrispondenti metodi impliciti (nel primo caso la regione del metodo di Crank-Nicolson non `e stata riportata in quanto coincide con tutto il semipiano complesso Re(hλ) < 0)

essendo espliciti, presentano una regione di assoluta stabilit`a pi` u ridotta rispetto a quella del puro metodo corrector, ma pi` u estesa di quella del puro predictor (si vedano ad esempio le regioni di assoluta stabilit` a riportate nei grafici di Figura 7.14). Questi schemi non sono pertanto adeguati per la risoluzione di problemi di Cauchy su intervalli illimitati. Nel Programma 7.4 implementiamo un generico metodo predictorcorrector. Le stringhe predictor e corrector identificano il tipo di metodo scelto. Ad esempio, se si usano le funzioni feonestep e cnonestep, definite rispettivamente nei Programmi 7.5 e 7.7, richiamiamo predcor come segue [t,u]=predcor(f,[t0,T],y0,N,’feonestep’,’cnonestep’); ottenendo cos`ı il metodo di Heun. Programma 7.4. predcor: un generico metodo predictor-corrector function [t , u ]= predcor ( odefun , tspan , y0 , Nh ,... predictor , corrector , varargin ) % PREDCOR Risolve equazioni differenzial i % con il metodo predictor - corrector % [T , Y ]= PREDCOR ( ODEFUN , TSPAN , Y0 , NH , PRED , CORR ) con % TSPAN =[ T0 TF ] integra il sistema di equazioni % differenziali y ’ = f (t , y ) dal tempo T0 a TF con % condizioni iniziali Y0 utilizzando un generico % metodo predictor - corrector su una griglia % equispaziata di NH intervalli . % La funzione ODEFUN (T , Y ) deve ritornare un vettore % contenente f (t , y ) , della stessa dimensione di y . % Ogni riga del vettore soluzione Y corrisponde ad % un istante temporale del vettore colonna T . % Le function PRED e CORR caratterizza n o il tipo % di metodo predictor - corrector scelto .

234 % % % % % % % %

7 Equazioni differenziali ordinarie Possono essere scelte , ad esempio , tra le function proposte ’ feonestep ’ , ’ beonestep ’ , ’ cnonestep ’. [T , Y ] = PREDCOR ( ODEFUN , TSPAN , Y0 , NH , PRED , CORR , P1 ,..) passa i parametri addizionali P1 , P2 ,... alle function ODEFUN , PRED e CORR come ODEFUN (T ,Y , P1 ,...) , PRED (T ,Y , P1 , P2 ...) , CORR (T ,Y , P1 , P2 ...).

h =( tspan (2) - tspan (1))/ Nh ; y = y0 (:); % genera sempre un vettore colonna w=y; u = y . ’; tt = linspace ( tspan (1) , tspan (2) , Nh +1); for t = tt (1: end -1) fn = feval ( odefun ,t ,w , varargin {:}); upre = feval ( predictor ,t ,w ,h , fn ); w = feval ( corrector , t +h ,w , upre ,h , odefun ,... fn , varargin {:}); u = [ u ; w . ’]; end t = tt ; end

Programma 7.5. feonestep: un passo del metodo di Eulero in avanti function [ u ]= feonestep (t ,y ,h , f ) % FEONESTEP un passo del metodo di Eulero in avanti u = y + h*f; return

Programma 7.6. beonestep: un passo del metodo di Eulero all’indietro function [ u ]= beonestep (t ,u ,y ,h ,f , fn , varargin ) % BEONESTEP un passo del metodo di Eulero all ’ indietro u = u + h * feval (f ,t ,y , varargin {:}); return

Programma 7.7. cnonestep: un passo del metodo di Crank-Nicolson function [ u ]= cnonestep (t ,u ,y ,h ,f , fn , varargin ) % CNONESTEP un passo del metodo di Crank - Nicolson u = u + 0.5* h *( feval (f ,t ,y , varargin {:})+ fn ); return

ode113

Il programma MATLAB ode113 implementa un metodo predictorcorrector di Adams-Bashforth-Moulton con passo di discretizzazione variabile. Si vedano gli Esercizi 7.14-7.17.

7.9 Sistemi di equazioni differenziali

235

7.9 Sistemi di equazioni differenziali Consideriamo il seguente sistema di equazioni differenziali di ordine uno nelle incognite y1 = y1 (t), . . . , ym = ym (t): ⎧ ′ y1 (t) = f1 (t, y1 , . . . , ym ), ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ .. . ⎪ ⎪ ⎪ ⎪ ′ ⎪ ⎩ ym (t) = fm (t, y1 , . . . , ym ),

dove t ∈ (t0 , T ], con condizioni iniziali

y1 (t0 ) = y0,1 , . . . ym (t0 ) = y0,m . Per la sua risoluzione si potrebbe applicare a ciascuna delle equazioni che compongono il sistema, uno dei metodi introdotti precedentemente per un problema scalare. Ad esempio, il passo n-esimo del metodo di Eulero in avanti diverrebbe ⎧ un+1,1 = un,1 + hf1 (tn , un,1 , . . . , un,m ), ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ .. . ⎪ ⎪ ⎪ ⎪ ⎪ ⎩ un+1,m = un,m + hfm (tn , un,1 , . . . , un,m ).

Scrivendo il sistema in forma vettoriale y′ (t) = F(t, y(t)), l’estensione dei metodi precedentemente sviluppati nel caso di una singola equazione appare immediata. Ad esempio, il metodo un+1 = un + h(ϑF(tn+1 , un+1 ) + (1 − ϑ)F(tn , un )),

n ≥ 0,

con u0 = y0 , 0 ≤ ϑ ≤ 1, rappresenta la forma vettoriale del metodo di Eulero in avanti se ϑ = 0, di Eulero all’indietro se ϑ = 1 e di CrankNicolson se ϑ = 1/2. Esempio 7.7 (Biologia) Risolviamo il sistema delle equazioni di LotkaVolterra (7.3) con il metodo di Eulero in avanti quando C1 = C2 = 1, b1 = b2 = 0 e d1 = d2 = 1. Per poter utilizzare il Programma 7.1 nel caso di un sistema di equazioni differenziali ordinarie, costruiamo una function f che precisi le componenti del vettore F e che salveremo nel file f.m. Per il sistema in esame abbiamo function fn = f (t , y ) C1 =1; C2 =1; d1 =1; d2 =1; b1 =0; b2 =0; [n , m ]= size ( y ); fn = zeros (n , m ); fn (1)= C1 * y (1)*(1 - b1 * y (1) - d2 * y (2)); fn (2)= - C2 * y (2)*(1 - b2 * y (2) - d1 * y (1)); return

236

7 Equazioni differenziali ordinarie

3

3

2.5

2.5

2

2

1.5

1.5

1

1

0.5

0.5

0 0

2

4

6

8

10

0 0

0.5

1

1.5

2

2.5

3

Figura 7.15. Soluzioni numeriche del sistema (7.3). A sinistra, rappresentazione in funzione del tempo dell’evoluzione delle due componenti della soluzione (y1 in linea piena, y2 in linea tratteggiata) per due diversi valori del dato iniziale ((2, 2) in linea pi` u marcata, (1.2, 1.2) in linea sottile). A destra, le corrispondenti traiettorie nel piano delle fasi

A questo punto, eseguiamo il Programma 7.1 con le seguenti istruzioni [t , u ]= feuler ( ’f ’ ,[0 ,10] ,[2 2] ,2000); Abbiamo quindi risolto il sistema di Lotka-Volterra sull’intervallo temporale [0, 10] con un passo di integrazione h = 0.005. Il grafico di sinistra di Figura 7.15 rappresenta l’evoluzione nel tempo delle due componenti della soluzione. Come si vede, esse mostrano un andamento periodico di periodo 2π. Il grafico di destra mostra invece la traiettoria uscente dal dato iniziale nel cosiddetto piano delle fasi, cio`e in un piano cartesiano che ha come coordinate y1 e y2 . Appare evidente che la traiettoria si mantiene in una regione limitata di questo piano. Se provassimo a partire dal dato iniziale (1.2, 1.2) troveremmo una traiettoria ancor pi` u confinata che sembra mantenersi chiusa attorno al punto (1, 1). Ci` o `e dovuto al fatto che il sistema ammette 2 punti di equilibrio (ovvero punti nei quali y1′ = 0 e y2′ = 0) e uno di essi `e proprio (1, 1) (mentre l’altro `e (0, 0)). Tali punti sono le soluzioni del sistema non lineare seguente 8 < y1′ = y1 − y1 y2 = 0, : y ′ = −y + y y = 0, 2 2 1 2

e sono pertanto (0, 0) e (1, 1). Per un dato iniziale pari ad una di queste coppie di valori la soluzione si mantiene costante nel tempo. Il punto (0, 0) `e un punto di equilibrio instabile, mentre il punto (1, 1) `e stabile, ci` o significa che traiettorie che partono da un dato iniziale vicino a tale punto si mantengono limitate nel piano delle fasi. 

Qualora si utilizzi uno schema esplicito il passo di integrazione deve soddisfare una condizione di stabilit` a, analoga a quella incontrata nel paragrafo 7.6. Quando le parti reali degli autovalori λk della matrice Jacobiana A(t) = [∂F/∂y](t, y) di F sono tutte negative, possiamo porre

7.9 Sistemi di equazioni differenziali

237

λ = − maxt ρ(A(t)), dove ρ(A(t)) `e il raggio spettrale di A(t). Questo λ `e il naturale candidato a rimpiazzare quello che interviene nelle condizioni di stabilit` a (come ad esempio (7.29)) derivate per il problema di Cauchy scalare. Osservazione 7.6 I programmi MATLAB (ode23, ode45, ...) precedentemente ricordati, possono essere facilmente usati anche per risolvere sistemi di equazioni differenziali ordinarie. La sintassi da usare `e odeXX(’f’,[t0 tf],y0), dove y0 `e il vettore delle condizioni iniziali, f `e una funzione specificata dall’utente e odeXX `e uno dei metodi disponibili in MATLAB. 

Consideriamo ora il caso di un’equazione differenziale di ordine m y (m) (t) = f (t, y, y ′ , . . . , y (m−1) )

(7.57)

con t ∈ (t0 , T ], la cui soluzione (quando esiste) `e una famiglia di funzioni definite a meno di m costanti arbitrarie. Queste ultime possono essere determinate imponendo m condizioni iniziali y(t0 ) = y0 , y ′ (t0 ) = y1 , . . . , y (m−1) (t0 ) = ym−1 . Ponendo w1 (t) = y(t), w2 (t) = y ′ (t), . . . , wm (t) = y (m−1) (t), la (7.57) pu` o essere trasformata nel seguente sistema di m equazioni differenziali di ordine 1 w1′ (t) = w2 (t), w2′ (t) = w3 (t), .. . ′ (t) = wm (t), wm−1 ′ (t) = f (t, w1 , . . . , wm ), wm

con condizioni iniziali w1 (t0 ) = y0 , w2 (t0 ) = y1 , . . . , wm (t0 ) = ym−1 . La risoluzione numerica di un’equazione differenziale di ordine m > 1 `e pertanto riconducibile alla risoluzione numerica di un sistema di m equazioni del prim’ordine. Esempio 7.8 (Elettrotecnica) Consideriamo il circuito del Problema 7.4 o essere determinato con L(i1 ) = L costante e R1 = R2 = R. In tal caso v pu` risolvendo il seguente sistema di due equazioni differenziali

238

7 Equazioni differenziali ordinarie 8 ′ v (t) = w(t), >
: w′ (t) = − LC



« L 2 e + RC w(t) − v(t) + , R LC LC

(7.58)

con condizioni iniziali v(0) = 0, w(0) = 0. Esso `e stato ricavato a partire dalla seguente equazione differenziale di ordine 2 « « „ „ dv L R1 d2 v + R1 C + 1 v = e. (7.59) + LC 2 + dt R2 dt R2 Poniamo L = 0.1 Henry, C = 10−3 Farad, R = 10 Ohm ed e = 5 Volt, dove Henry, Farad, Ohm e Volt sono rispettivamente le unit`a di misura di induttanza, capacit` a, resistenza e voltaggio. Applichiamo il metodo di Eulero in avanti con h = 0.001 secondi nell’intervallo temporale [0, 0.1] tramite il Programma 7.1 [t , u ]= feuler ( ’ fsys ’ ,[0 ,0.1] ,[0 0] ,100); dove fsys `e precisata nel file fsys.m come function fn = fsys (t , y ) L =0.1; C =1. e -03; R =10; e =5; LC = L * C ; [n , m ]= size ( y ); fn = zeros (n , m ); fn (1)= y (2); fn (2)= -( L / R + R * C )/( LC )* y (2) -2/( LC )* y (1)+ e /( LC ); return In Figura 7.16 vengono riportati i valori approssimati di v(t) e w(t). Come ci si aspetta, v(t) tende a e/2 = 2.5 Volt per t → ∞. Per questo problema, la matrice A = [∂F/∂y](t, y) `e indipendente dal tempo e risulta A=[0, 1; −20000, −200]. I suoi autovalori sono λ1,2 = −100 ± 100i, da cui deduciamo che la restrizione su h che garantisce l’assoluta stabilit`a `e h < −2Re(λi )/|λi |2 = 0.01. . 

Si possono ottenere alcuni metodi di approssimazione per equazioni differenziali di ordine superiore al primo senza passare attraverso un sistema equivalente del prim’ordine. Consideriamo ad esempio il caso di un problema di Cauchy di ordine 2  ′′ y (t) = f (t, y(t), y ′ (t)) t ∈ (t0 , T ], (7.60) y(t0 ) = α0 , y ′ (t0 ) = β0 . Si pu` o costruire un metodo di approssimazione elementare nel modo seguente: trovare un per 1 ≤ n ≤ Nh tale che un+1 − 2un + un−1 = f (tn , un , vn ) h2

(7.61)

con u0 = α0 e v0 = β0 . Le variabili un e vn forniranno rispettivamente una approssimazione di y(tn ) e y ′ (tn ). Poich´e (yn+1 − 2yn + yn−1 )/h2 `e un’approssimazione di ordine due di y ′′ (tn ), consideriamo una approssimazione di ordine 2 anche per y ′ (tn ), ovvero

7.9 Sistemi di equazioni differenziali 3

239

180

160

2.5 140

120

2 100

1.5

80

60

1 40

20

0.5 0

0

0

0.01

0.02

0.03

0.04

0.05

0.06

0.07

0.08

0.09

0.1

−20

0

0.01

0.02

0.03

0.04

0.05

0.06

0.07

0.08

0.09

0.1

Figura 7.16. Soluzioni numeriche del sistema (7.58). A sinistra, riportiamo la differenza di potenziale v(t) in funzione del tempo, a destra, la sua derivata w(t): in tratteggio la soluzione ottenuta per h = 0.001 con il metodo di Eulero in avanti, in linea continua quella generata con lo stesso metodo con h = 0.004, con i pallini quella prodotta con il metodo di Newmark (7.63) (con ζ = 1/4 e θ = 1/2) per h = 0.004

vn =

un+1 − un−1 , con v0 = β0 . 2h

(7.62)

Si ottiene il cosiddetto metodo leap-frog (7.61)-(7.62) che `e accurato di ordine 2 rispetto a h. Un metodo pi` u generale `e quello di Newmark in cui si costruiscono le due successioni (il cui significato `e quello spiegato precedentemente)  un+1 = un + hvn + h2 ζf (tn+1 , un+1 , vn+1 )  +(1/2 − ζ)f (tn , un , vn ) , (7.63) vn+1 = vn + h [(1 − θ)f (tn , un , vn ) + θf (tn+1 , un+1 , vn+1 )] ,

con u0 = α0 e v0 = β0 ; ζ e θ sono due numeri reali non negativi. Questo metodo `e esplicito solo se ζ = θ = 0 ed `e di ordine 2 se θ = 1/2 (in caso contrario `e di ordine 1). La condizione θ ≥ 1/2 `e necessaria per garantire la stabilit` a. Inoltre, se θ = 1/2 e ζ = 1/4 si trova uno schema alquanto popolare, essendo incondizionatamente stabile. Tuttavia, questa scelta particolare di θ e ζ non `e adatta per simulazioni di problemi definiti su grandi intervalli temporali in quanto introduce delle soluzioni spurie oscillanti. Per tali problemi `e preferibile utilizzare θ > 1/2 e ζ ≥ (θ + 1/2)2 /4, sebbene l’ordine di accuratezza degradi a 1. Nel Programma 7.8 implementiamo il metodo di Newmark. Il vettore param serve a precisare nelle sue due componenti i valori dei coefficienti del metodo: param(1)=ζ e param(2)=θ.

240

7 Equazioni differenziali ordinarie Programma 7.8. newmark: il metodo di Newmark

function [t , u ]= newmark ( odefun , tspan , y0 , Nh , param ,... varargin ) % NEWMARK Risolve equazioni differenzial i del II ord . % con il metodo di Newmark . % [T , Y ]= NEWMARK ( ODEFUN , TSPAN , Y0 , NH , PARAM ) con % TSPAN =[ T0 TF ] integra il sistema di equazioni dif % ferenziali y ’ ’= f (t ,y ,y ’) dal tempo T0 a TF con % condizioni iniziali Y0 =( y ( t0 ) ,y ’( t0 )) utilizzando % il metodo di Newmark su una griglia equispaziata di % NH intervalli . Il vettore PARAM contiene , in ordine , % i parametri zeta e theta del metodo di Newmark . % La funzione ODEFUN (T , Y ) deve ritornare uno scalare , % la variabile Y e ’ un array che contiene la funzione % soluzione in prima componente e la sua derivata in % seconda componente . % Ogni riga del vettore soluzione Y corrisponde ad % un istante temporale del vettore colonna T . % [T , Y ] = NEWMARK ( ODEFUN , TSPAN , Y0 , NH , P1 , P2 ,...) passa % i parametri addizionali P1 , P2 ,... alla funzione % ODEFUN come ODEFUN (T ,Y , P1 , P2 ...). tt = linspace ( tspan (1) , tspan (2) , Nh +1); y = y0 (:); u = y . ’; global glob_h glob_t glob_y glob_odefun ; global glob_zeta glob_theta glob_varargi n glob_fn ; glob_h =( tspan (2) - tspan (1))/ Nh ; glob_y = y ; glob_odefun = odefun ; glob_zeta = param (1); glob_theta = param (2); glob_varargi n = varargin ; if ( ~ exist ( ’ OCTAVE_VERS IO N ’ ) ) options = optimset ; options . Display = ’ off ’; options . TolFun =1. e -12; options . MaxFunEvals =10000; end glob_fn = feval ( odefun , tt (1) , glob_y , varargin {:}); for glob_t = tt (2: end ) if ( exist ( ’ OCTAVE_VERSI O N ’ ) ) w = fsolve ( ’ newmarkfun ’ , glob_y ); else w = fsolve ( @ ( w ) newmarkfun ( w ) , glob_y , options ); end glob_fn = feval ( odefun , glob_t ,w , varargin {:}); u = [ u ; w . ’]; glob_y = w ; end t = tt ; clear glob_h glob_t glob_y glob_odefun ; clear glob_zeta glob_theta glob_varargi n glob_fn ; end function z = newmarkfun ( w ) global glob_h glob_t glob_y glob_odefun ; global glob_zeta glob_theta glob_varargin glob_fn ; fn1 = feval ( glob_odefun , glob_t ,w , glob_varargin {:}); z (1)= w (1) - glob_y (1) - glob_h * glob_y (2) -... glob_h ^2*( glob_zeta * fn1 +(0.5 - glob_zeta )* glob_fn ); z (2)= w (2) - glob_y (2) -... glob_h *((1 - glob_theta )* glob_fn + glob_theta * fn1 ); end

7.10 Alcuni esempi

241

Esempio 7.9 (Elettrotecnica) Consideriamo nuovamente il circuito del Problema 7.4 e risolviamo l’equazione del second’ordine (7.59) con lo schema di Newmark. In Figura 7.16 confrontiamo l’approssimazione della funzione v calcolata usando lo schema di Eulero (per h = 0.001 in linea tratteggiata e per h = 0.004 in linea continua) ed il metodo di Newmark per θ = 1/2 e ζ = 1/4 (linea con i cerchietti), e passo di discretizzazione h = 0.004. La miglior accuratezza di quest’ultima approssimazione `e dovuta al fatto che il metodo (7.61)-(7.62) `e accurato di ordine 2 rispetto a h. 

Si vedano gli Esercizi 7.18-7.20.

7.10 Alcuni esempi Concludiamo questo capitolo proponendo e risolvendo tre esempi non elementari di sistemi di equazioni differenziali ordinarie. 7.10.1 Il pendolo sferico Il moto di un punto x(t) = (x1 (t), x2 (t), x3 (t))T di massa m soggetto alla forza di gravit` a F = (0, 0, −gm)T (con g = 9.8 m/s2 ) e vincolato a muoversi sulla superficie sferica di equazione Φ(x) = x21 + x22 + x23 − 1 = 0 `e descritto dal seguente sistema di equazioni differenziali ordinarie " # .T . .. m x H x +∇ΦT F 1 x= F− ∇Φ per t > 0. (7.64) m |∇Φ|2 .

..

Abbiamo indicato con x la derivata prima rispetto a t, con x la derivata seconda, con ∇Φ il gradiente di Φ, pari a 2x, con H la matrice Hessiana di Φ le cui componenti sono Hij = ∂ 2 Φ/∂xi ∂xj per i, j = 1, 2, 3. Nel nostro caso H `e una matrice diagonale di coefficienti pari a 2. Al sistema . (7.64) dobbiamo aggiungere le condizioni iniziali x(0) = x0 e x (0) = v0 . Al fine di risolvere numericamente (7.64) trasformiamolo in un sistema di equazioni differenziali di ordine 1 nella nuova incognita y, un . vettore di 6 componenti. Posto yi = xi e yi+3 =xi per i = 1, 2, 3, e λ=

m(y4 , y5 , y6 )T H(y4 , y5 , y6 ) + ∇ΦT F , |∇Φ|2

otteniamo per i = 1, 2, 3 .

yi = y3+i ,   1 ∂Φ . Fi − λ . y3+i = m ∂yi

(7.65)

242

7 Equazioni differenziali ordinarie

0

−0.5 y

3

y3

0

−0.5

−1 −1 1

1 0.5

1 0

−0.5 y2

−1

1

0.5

0.5

0

0

−0.5 −1

0.5

0 −0.5

y1

y

2

−0.5 −1

−1

y1

Figura 7.17. Le traiettorie ottenute con il metodo di Eulero esplicito con h = 0.0025 a sinistra e h = 0.00025 a destra. Il punto annerito indica il dato iniziale

Applichiamo i metodi di Eulero e di Crank-Nicolson. Dapprima `e necessario definire una function MATLAB (fvinc del Programma 7.9) che restituisca le espressioni dei termini di destra delle equazioni del sistema (7.65). Supponiamo inoltre che le condizioni iniziali siano date dal vettore y0=[0,1,0,.8,0,1.2] e che l’intervallo di integrazione sia tspan=[0,25]. Richiamiamo il metodo di Eulero esplicito nel modo seguente [t , y ]= feuler ( ’ fvinc ’ , tspan , y0 , nt );

(analogamente si possono richiamare i metodi di Eulero all’indietro beuler e di Crank-Nicolson cranknic), dove nt `e il numero di intervalli (di ampiezza costante) impiegati per la discretizzazione dell’intervallo [tspan(1),tspan(2)]. Nei grafici di Figura 7.17 riportiamo le traiettorie ottenute con 10000 e 100000 nodi di discretizzazione: come si vede solo nel secondo caso la soluzione `e ragionevolmente accurata. In effetti, pur non conoscendo la soluzione esatta del problema, possiamo avere un’idea dell’accuratezza osservando che essa soddisfa r(y) ≡ |y12 +y22 +y32 −1| = 0 e misurando quindi il massimo valore del residuo r(yn ) al variare di n, essendo yn l’approssimazione della soluzione esatta generata al tempo tn . Usando 10000 nodi di discretizzazione troviamo r = 1.0578, mentre con 100000 nodi si ha r = 0.1111, in accordo con la teoria che vuole il metodo di Eulero esplicito convergente di ordine 1. Utilizzando il metodo di Eulero implicito con 20000 passi troviamo la soluzione riportata in Figura 7.18, mentre il metodo di Crank-Nicolson (di ordine 2) con soli 1000 passi fornisce la soluzione riportata nella stessa figura a destra, decisamente pi` u accurata. Troviamo infatti r = 0.5816 per il metodo di Eulero implicito e r = 0.0928 per quello di Crank-Nicolson.

7.10 Alcuni esempi

0

0 y

y

3

0.5

3

0.5

243

−0.5

−0.5

−1 1

−1 1 1

0.5

2

−1

0

−0.5

−0.5 −1

y

0.5

0

0

−0.5

1

0.5

0.5

0

2

1

−0.5 −1

y

y

−1

y

1

Figura 7.18. Le traiettorie ottenute con il metodo di Eulero implicito con h = 0.00125 a sinistra e con il metodo di Crank-Nicolson con h = 0.025 a destra

0.5

0.5

0

−0.5 3

y

y

3

0

−1

−0.5

−1.5

−1 1

−2.5 2

−2

1

0.5 0.5

0

0

−0.5 y

2

2

1

−1

y

1

0

−1

−0.5 −1

1

0 y

2

−1 −2

−2

y

1

Figura 7.19. Le traiettorie ottenute con i metodi ode23 (a sinistra) e ode45 (a destra) con gli stessi criteri di accuratezza. Nel secondo caso il controllo sull’errore fallisce e la soluzione che si trova `e meno accurata

Per confronto, risolviamo lo stesso problema con i metodi espliciti adattivi di tipo Runge-Kutta ode23 e ode45, presenti in MATLAB. Essi (a meno di indicazioni diverse) modificano il passo di integrazione in modo da garantire che l’errore relativo sulla soluzione sia minore di 10−3 e quello assoluto minore di 10−6 . Li lanciamo con i seguenti comandi [ t1 , y1 ]= ode23 ( ’ fvinc ’ , tspan , y0 ’); [ t2 , y2 ]= ode45 ( ’ fvinc ’ , tspan , y0 ’);

ed otteniamo le soluzioni presentate in Figura 7.19. I due metodi hanno usato 783 e 537 nodi di discretizzazione, rispettivamente, distribuiti in modo non uniforme. Il residuo r vale 0.0238 per ode23 e 3.2563 per ode45. Sorprendentemente, il risultato ottenuto con il metodo di ordine pi` u elevato `e dunque meno accurato e questo ci deve mettere in guardia quando facciamo uso dei programmi della famiglia ode disponibili in MATLAB. Una spiegazione di questo comportamento risiede nel fatto che lo stimatore dell’errore implementato in ode45 `e meno stringente di quello presente in ode23. Diminuendo di poco la tolleranza

244

7 Equazioni differenziali ordinarie

y1(:,3)

y2(:,3)

0.2

0.2

0

0

-0.2

-0.2

-0.4

-0.4

-0.6

-0.6

-0.8

-0.8

-1

-1

-1

-0.8 -0.6 -0.4 -0.2 y1(:,1)

0

0.2 0.4 0.6 0.8

1 -1

-0.2 -0.4 -0.6 -0.8

0

0.8 0.6 0.4 0.2

1

y1(:,2)

-1

-0.8 -0.6 -0.4 -0.2 y2(:,1)

0

0.2 0.4 0.6 0.8

1.2 1 0.8 0.6 0.4 0.2 0 y2(:,2) -0.2 -0.4 -0.6 -0.8 1 -1

Figura 7.20. Traiettorie ottenute richiamando i metodi ode23 (a sinistra) e ode45 (a destra) di Octave con una tolleranza tol=1.e-03 sull’accuratezza

relativa (basta porre options=odeset(’RelTol’,1.e-04)) e richiamando il programma come [t,y]=ode45(’fvinc’,tspan,y0,options); si trovano infatti risultati confrontabili con quelli di ode23. In particolare ode23 utilizza 1751 nodi di discretizzazione e fornisce un residuo pari a r = 0.003, mentre ode45 utilizza 1089 nodi di discretizzazione e produce un residuo pari a r = 0.060. Programma 7.9. fvinc: termine forzante per il problema del pendolo sferico function [ f ]= fvinc (t , y ) % FVINC Function per l ’ esempio del pendolo sferico [n , m ]= size ( y ); f = zeros (n , m ); phix = ’ 2* y (1) ’; phiy = ’ 2* y (2) ’; phiz = ’ 2* y (3) ’; H =2* eye (3); mass =1; % Mass F1 = ’ 0* y (1) ’; F2 = ’ 0* y (2) ’; F3 = ’ - mass *9.8 ’; % Weight xpunto = zeros (3 ,1); xpunto (1:3)= y (4:6); F =[ eval ( F1 ); eval ( F2 ); eval ( F3 )]; G =[ eval ( phix ); eval ( phiy ); eval ( phiz )]; lambda =( mass * xpunto ’* H * xpunto +F ’* G )/( G ’* G ); f (1:3)= y (4:6); for k =1:3; f ( k +3)=( F ( k ) - lambda * G ( k ))/ mass ; end return

Octave 7.2 ode23 richiede 924 passi mentre ode45 richiede 575 passi con la stessa tolleranza tol=1.e-03 sull’accuratezza. Si noti che ode45 fornisce risultati simili a ode23 al contrario della function ode45 di MATLAB, si veda la Figura 7.20. 

7.10 Alcuni esempi

245

7.10.2 Il problema dei tre corpi Vogliamo calcolare l’evoluzione di un sistema costituito da tre oggetti, note le loro posizioni e velocit`a iniziali e le loro masse sotto l’influenza della loro reciproca attrazione gravitazionale. Il problema si formula utilizzando le leggi del moto di Newton. Tuttavia, a differenza del caso di due corpi, non si conoscono soluzioni in forma chiusa. Noi supponiamo che uno dei tre corpi abbia massa decisamente superiore a quella degli altri due, in particolare studiamo il caso del sistema Sole-Terra-Marte, un problema studiato da matematici illustri quali Lagrange nel XVIII secolo, Poincar´e verso la fine del XIX secolo e dall’italiano Tullio Levi-Civita nel secolo XX. Denotiamo allora con Ms la massa del Sole, con Mt quella della Terra e con Mm quella di Marte. Essendo la massa del Sole circa 330000 volte pi` u grande di quella della Terra e quella di Marte circa un decimo di quella terrestre, possiamo immaginare che il baricentro dei tre corpi sia pressoch´e coincidente con il centro del Sole (che rester`a pertanto immobile in questo modello) e che i tre oggetti si mantengano nel piano determinato dalle loro posizioni iniziali. In tal caso la forza complessiva agente ad esempio sulla Terra sar`a pari a Ft = Fts + Ftm = Mt

d2 xt , dt2

(7.66)

dove xt = (xt , yt )T denota la posizione della Terra, mentre Fts e Ftm denotano rispettivamente la forza esercitata dal Sole e da Marte sulla Terra. Applicando la legge di gravitazione universale ed inidicando con xm la posizione di Marte, la (7.66) diventa Mt

xt xm − xt d2 xt = −GMt Ms + GMt Mm . dt2 |xt |3 |xm − xt |3

Adimensionalizzando le equazioni e scalando le lunghezze rispetto alla lunghezza del semi-asse maggiore dell’orbita della Terra, si perviene alla seguente equazione   xt d2 xt Mm xm − xt 2 Mt 2 = 4π . (7.67) − dt Ms |xm − xt |3 |xt |3 Con calcoli simili si perviene all’equazione analoga per il pianeta Marte   d2 xm Mt xt − xm xm 2 . (7.68) = 4π − Mm dt2 Ms |xt − xm |3 |xm |3 Il sistema del second’ordine (7.67)-(7.68) si riduce immediatamente ad un sistema di 8 equazioni di ordine 1. Il Programma 7.10 consente la valutazione di una function contenente i termini di destra del sistema (7.67)-(7.68).

246

7 Equazioni differenziali ordinarie

Programma 7.10. threebody: termine forzante per il problema semplificato dei tre corpi function f = threebody (t , y ) % THREEBODY Function per l ’ esempio dei tre corpi [n , m ]= size ( y ); f = zeros (n , m ); Ms =330000; Me =1; Mm =0.1; D1 = (( y (5) - y (1))^2+( y (7) - y (3))^2)^(3/2 ) ; D2 = ( y (1)^2+ y (3)^2)^(3/2) ; f (1)= y (2); f (2)=4* pi ^2*( Me / Ms *( y (5) - y (1))/ D1 - y (1)/ D2 ); f (3)= y (4); f (4)=4* pi ^2*( Me / Ms *( y (7) - y (3))/ D1 - y (3)/ D2 ); D2 = ( y (5)^2+ y (7)^2)^(3/2) ; f (5)= y (6); f (6)=4* pi ^2*( Mm / Ms *( y (1) - y (5))/ D1 - y (5)/ D2 ); f (7)= y (8); f (8)=4* pi ^2*( Mm / Ms *( y (3) - y (7))/ D1 - y (7)/ D2 ); return

Confrontiamo fra loro il metodo di Crank-Nicolson (implicito) ed il metodo adattivo di Runge-Kutta implementato in ode23 (esplicito). Avendo posto che la Terra stia a 1 unit`a dal Sole, Marte si trover` a a circa 1.52 unit` a: la posizione iniziale sar`a dunque (1, 0) per la Terra e (1.52, 0) per Marte. Supponiamo inoltre che i due pianeti abbiano al tempo iniziale velocit`a orizzontale nulla e velocit` a verticale pari rispettivamente a -5.1 unit` a per la Terra e -4.6 unit` a per Marte: in tal modo dovrebbero percorrere orbite ragionevolmente stabili attorno al Sole. Per il metodo di Crank-Nicolson scegliamo 2000 nodi di discretizzazione. [ t23 , u23 ]= ode23 ( ’ threebody ’ ,[0 10] ,... [1.52 0 0 -4.6 1 0 0 -5.1]); [ tcn , ucn ]= cranknic ( ’ threebody ’ ,[0 10] ,... [1.52 0 0 -4.6 1 0 0 -5.1] ,2000);

I grafici di Figura 7.21 mostrano che i due metodi sono entrambi in grado di riprodurre le orbite ellittiche dei due pianeti attorno al Sole. Il metodo ode23 ha richiesto solo 543 nodi di discretizzazione (distribuiti non uniformemente) per generare una soluzione pi` u accurata di quella generata da un metodo implicito dello stesso ordine di accuratezza, ma che non usa adattivit` a del passo. Octave 7.3 ode23 richiede in Octave 847 nodi di discretizzazione per generare una soluzione con una tolleranza pari a 1.e-3. 

7.10.3 Alcuni problemi stiff Consideriamo il seguente problema differenziale, proposto da [Gea71], come variante del problema modello (7.27):  ′ y (t) = λ(y(t) − g(t)) + g ′ (t), t > 0, (7.69) y(0) = y0 , dove g `e una funzione regolare e λ ≪ 0, la cui soluzione `e y(t) = (y0 − g(0))eλt + g(t),

t ≥ 0.

(7.70)

7.10 Alcuni esempi 1

1

0.5

0.5

S

S

0

0

−0.5

−0.5

−1

−1

−1

−0.5

0

247

0.5

1

1.5

−1

−0.5

0

0.5

1

1.5

Figura 7.21. L’orbita della Terra (pi` u interna) e quella di Marte rispetto al Sole calcolate con il metodo adattivo ode23 a sinistra (con 543 nodi di discretizzazione) e con quello di Crank-Nicolson, a destra (con 2000 nodi di discretizzazione)

Essa presenta due componenti, (y0 − g(0))eλt e g(t), la prima trascurabile rispetto alla seconda per t sufficientemente grande. Poniamo in particolare g(t) = t, λ = −100 e risolviamo il problema (7.69) sull’intervallo (0, 100) con il metodo di Eulero esplicito: essendo in questo caso f (t, y) = λ(y(t) − g(t)) + g ′ (t) abbiamo ∂f /∂y = λ, e l’analisi di stabilit` a condotta nel paragrafo 7.5 suggerisce di scegliere h < 2/100. Questa restrizione `e dettata dalla presenza della componente che si comporta come e−100t ed appare del tutto ingiustificata se si pensa al peso che essa ha rispetto all’intera soluzione (per avere un’idea, per t = 1 abbiamo e−100 ≈ 10−44 ). La situazione peggiora usando un metodo esplicito di ordine superiore, come ad esempio il metodo di Adams-Bashforth (7.51) di ordine 3: la regione di assoluta stabilit` a si riduce (si veda la Figura 7.12) e, conseguentemente, la restrizione su h diventa ancora pi` u severa, h < 0.00545. Violare anche di poco questa restrizione produce soluzioni del tutto inaccettabili (come mostrato in Figura 7.22 a sinistra). Ci troviamo dunque di fronte ad un problema apparentemente semplice, ma che risulta impegnativo da risolvere con un metodo esplicito (e pi` u in generale con un metodo che non sia A-stabile) per la presenza di due componenti nella soluzione dal comportamento radicalmente diverso per t che tende all’infinito: un problema di questo genere si dice stiff. Pi` u in generale, diciamo che un sistema di equazioni differenziali lineari della forma y′ (t) = Ay(t) + ϕ(t),

A ∈ Rn×n ,

ϕ(t) ∈ Rn ,

(7.71)

in cui A abbia n autovalori distinti λj , j = 1, . . . , n con Re(λj ) < 0, j = 1, . . . , n `e stiff se rs =

maxj |Re(λj )| ≫ 1. minj |Re(λj )|

248

7 Equazioni differenziali ordinarie 10

5000

9 8 2500

7 6 5

0

4 3 −2500

2 1

−5000 0

2

4

6

8

10

0 0

2

4

6

8

10

Figura 7.22. Le soluzioni ottenute con il metodo (7.51) per il problema (7.69) violando la condizione di stabilit`a (h = 0.0055, a sinistra) e rispettandola (h = 0.0054, a destra)

La soluzione esatta di (7.71) `e y(t) =

n

Cj eλj t vj + ψ(t),

(7.72)

j=1

dove C1 , . . . , Cn sono n costanti e {vj } `e una base formata dagli autovettori di A, mentre ψ(t) `e una soluzione particolare dell’equazione differenziale. Se rs ≫ 1 assistiamo nuovamente all’insorgere di componenti della soluzione y che tendono a zero con velocit`a differenti. Quando t tende all’infinito, la componente che tende a zero pi` u rapidamente (quella relativa all’autovalore di modulo massimo) sar` a quella che comporter` a la restrizione pi` u pesante sul passo di integrazione, a meno naturalmente di impiegare un metodo incondizionatamente assolutamente stabile. Esempio 7.10 Consideriamo il sistema y′ = Ay per t ∈ (0, 100) con condizione iniziale y(0) = y0 , dove y = (y1 , y2 )T , y0 = (y1,0 , y2,0 )T e 2 3 0 1 5, A=4 −λ1 λ2 λ1 + λ2

dove λ1 e λ2 sono due numeri negativi distinti con |λ1 | ≫ |λ2 |. La matrice A ha come autovalori λ1 e λ2 ed autovettori v1 = (1, λ1 )T , v2 = (1, λ2 )T . Grazie alla (7.72) la soluzione del sistema `e pari a 0

y(t) = @

C1 e λ 1 t + C 2 e λ 2 t C1 λ1 e λ 1 t + C2 λ2 e λ 2 t

1T

A .

Le costanti C1 e C2 si ottengono imponendo la condizione iniziale C1 =

λ2 y1,0 − y2,0 , λ2 − λ1

C2 =

y2,0 − λ1 y1,0 . λ2 − λ1

(7.73)

7.10 Alcuni esempi

249

8

6

x 10

1.5 1

4

y2

y1

0.5

2

0

y1

y2

−0.5

0 −1

−2

−1.5 −2

−4 −2.5

−6 0

1

2

3

t

4

5

6

−3 0

1

2

3

t

4

5

6

Figura 7.23. Le soluzioni calcolate per il problema dell’Esempio 7.10 per h = 0.0207 (a sinistra) e h = 0.0194 (a destra). Nel primo caso la condizione h < 2/|λ1 | = 0.02 `e violata ed il metodo `e instabile. Si tenga conto della scala completamente diversa dei due grafici Per le considerazioni svolte in precedenza, il passo di integrazione di un metodo esplicito usato per la risoluzione di tale sistema dipender` a esclusivamente dall’autovalore di modulo massimo, λ1 . Rendiamocene conto sperimentalmente usando il metodo di Eulero esplicito e scegliendo λ1 = −100, λ2 = −1, y1,0 = y2,0 = 1. In Figura 7.23 riportiamo le soluzioni calcolate violando (a sinistra) o rispettando (a destra) la condizione di stabilit`a h < 1/50. 

La definizione di problema stiff pu` o essere estesa, seppur con qualche attenzione, al caso non lineare (si veda ad esempio [QSS08, Capitolo 10]). Uno dei problemi stiff non lineari pi` u studiati `e dato dall’equazione di Van der Pol d2 x dx − x, = µ(1 − x2 ) dt2 dt

(7.74)

proposta nel 1920 ed utilizzata nello studio di circuiti che contengano valvole termoioniche, i cosiddetti tubi a vuoto, come il tubo catodico del televisore o il magnetron nei forni a micro-onde. Se si pone y = (x, z)T , la (7.74) `e equivalente al seguente sistema non lineare del prim’ordine 2 1 z ′ . (7.75) y = F(t, y) = −x + µ(1 − x2 )z Tale sistema diventa sempre pi` u stiff quanto pi` u cresce il parametro µ. Nella soluzione compaiono infatti due componenti che al crescere di µ presentano dinamiche completamente diverse. Quella con la dinamica pi` u veloce detta una limitazione tanto pi` u proibitiva sul passo di integrazione tanto maggiore `e il valore assunto da µ.

250

7 Equazioni differenziali ordinarie 3

15

2

10

x 1

5

0

0

−1

−5

−2

−3 0

−10

z 5

10

15

20

t 25

30

35

40

−15 0

x

z 5

10

15

20

t 25

30

35

40

Figura 7.24. Andamento delle componenti della soluzione y del sistema (7.75) per µ = 1 (a sinistra) e µ = 10 (a destra) µ 0.1 1 10 100 1000

ode23 471 775 1220 7835 112823

ode45 509 1065 2809 23473 342265

ode23s 614 838 1005 299 183

ode15s 586 975 1077 305 220

Tabella 7.1. Andamento del numero di passi di integrazione per vari metodi di approssimazione al crescere del parametro µ. I risultati si riferiscono a run svolti in MATLAB

ode23s

Se risolviamo (7.74) usando ode23 e ode45, ci rendiamo conto che essi sono troppo onerosi quando µ `e grande. Se µ = 100 e la condizione iniziale `e y = (1, 1)T , ode23 richiede 7835 passi e ode45 23473 passi per integrare fra t = 0 e t = 100. Leggendo l’help di MATLAB scopriamo che questi metodi non sono consigliati per problemi stiff : per questi ultimi vengono indicate altre procedure, come ad esempio i metodi impliciti ode23s o ode15s. La differenza in termini di numero di passi `e notevole, come indicato in Tabella 7.1. Si osservi tuttavia che il numero di passi di ode23s `e inferiore a quello di ode23 solo per valori di µ sufficientemente grandi (e dunque per problemi molto stiff ). Octave 7.4 Le function ode23s e ode15s non sono disponibili in Octave. 

7.11 Cosa non vi abbiamo detto Per una completa derivazione dell’intera famiglia dei metodi RungeKutta rimandiamo a [But87], [Lam91] e [QSS07, Capitolo 11]. Per la derivazione e l’analisi dei metodi multistep rimandiamo a [Arn73] e [Lam91].

7.12 Esercizi

251

7.12 Esercizi Esercizio 7.1 Si applichino il metodo di Eulero in avanti e di Eulero all’indietro per la risoluzione del seguente problema di Cauchy y ′ = sin(t) + y,

t ∈ (0, 1],

con y(0) = 0,

(7.76)

e se ne verifichi la convergenza lineare. Esercizio 7.2 Si consideri il problema di Cauchy y ′ = −te−y , t ∈ (0, 1], con y(0) = 0.

(7.77)

Lo si risolva con il metodo di Eulero esplicito con h = 1/100 e si stimi il numero di cifre significative corrette della soluzione approssimata per t = 1, sapendo che la soluzione esatta si mantiene limitata fra −1 e 0. Esercizio 7.3 Il metodo di Eulero implicito applicato al problema (7.77) richiede, ad ogni passo, la risoluzione dell’equazione non lineare: un+1 = o essere calcolata attraverso un −htn+1 e−un+1 = φ(un+1 ). La soluzione un+1 pu` la seguente procedura di punto fisso: (0) (k) (k+1) per k = 0, 1, . . . , calcolare un+1 = φ(un+1 ), con un+1 = un . Si determinino eventuali restrizioni su h affinch´e tale metodo converga. Esercizio 7.4 Si applichi il metodo di Crank-Nicolson per la risoluzione di (7.76) e si verifichi la convergenza di ordine 2. Esercizio 7.5 Si verifichi che il metodo di Crank-Nicolson pu`o essere ottenuto a partire dalla seguente forma integrale del problema di Cauchy (7.5) Z t f (τ, y(τ ))dτ, y(t) − y0 = t0

approssimando l’integrale con la formula del trapezio (4.19). Esercizio 7.6 Si risolva il problema modello (7.27) con λ = −1 + i con il metodo di Eulero in avanti. Per quali valori di h il metodo `e assolutamente stabile? Esercizio 7.7 Si mostri che il metodo di Heun definito in (7.56) `e consistente. Si scriva un programma MATLAB che lo implementa e si verifichi sperimentalmente l’ordine 2 di accuratezza rispetto a h, risolvendo il problema di Cauchy (7.76). Esercizio 7.8 Si mostri che il metodo di Heun definito in (7.56) `e assolutamente stabile se −2 ≤ hλ ≤ 0 per λ reale e negativo. Esercizio 7.9 Si dimostri la formula (7.32).

252

7 Equazioni differenziali ordinarie

Esercizio 7.10 Si dimostri la disuguaglianza (7.37). Esercizio 7.11 Si dimostri la disuguaglianza (7.38). Esercizio 7.12 Si verifichi che il metodo Runge-Kutta (7.50) `e consistente. Si scriva un programma MATLAB che lo implementa e si verifichi sperimentalmente l’ordine 3 di accuratezza rispetto a h, risolvendo il problema di Cauchy (7.76). I metodi (7.56) e (7.50) sono alla base del programma MATLAB ode23 per la risoluzione di equazioni differenziali ordinarie. Esercizio 7.13 Si mostri che il metodo (7.50) `e assolutamente stabile se −2.5 ≤ hλ ≤ 0 per λ reale e negativo. Esercizio 7.14 Sotto quali condizioni su h il seguente metodo (detto di Eulero modificato) u∗n+1 = un + hf (tn , un ),

un+1 = un + hf (tn+1 , u∗n+1 )

(7.78)

`e assolutamente stabile? Esercizio 7.15 (Termodinamica) Si risolva l’equazione (7.1) con i metodi di Crank-Nicolson e con il metodo di Heun quando il corpo in esame `e un cubo di lato 1 m e massa pari a 1 Kg. Si supponga T0 = 180K, Te = 200K, γ = 0.5 e C = 100J/(Kg/K). Si confrontino i risultati ottenuti usando h = 20 e h = 10 per t ∈ [0, 200] secondi. Esercizio 7.16 Si individui, tramite MATLAB, la regione di assoluta stabilit` a del metodo di Heun. Esercizio 7.17 Si risolva il problema di Cauchy (7.16) con il metodo di Heun e se ne verifichi l’ordine. Esercizio 7.18 Lo spostamento x(t) di un sistema vibrante costituito da un corpo di un certo peso e da una molla e soggetto ad una forza resistiva proporzionale alla velocit` a `e descritto dall’equazione differenziale x′′ +5x′ +6x = 0. La si risolva con il metodo di Heun, supponendo x(0) = 1 e x′ (0) = 0 e t ∈ [0, 5]. Esercizio 7.19 Le equazioni che descrivono il moto di un pendolo di Foucault in assenza di attrito sono x′′ − 2ω sin(Ψ )y ′ + k2 x = 0,

y ′′ + 2ω cos(Ψ )x′ + k2 y = 0,

−5 dove Ψ `e la latitudine del luogo in cui si trova p il pendolo, ω = 7.292 · 10 −1 sec `e la velocit` a angolare della Terra, k = g/l con g = 9.8 m/sec e l la lunghezza del pendolo. Si calcolino numericamente x = x(t) e y = y(t), per t ∈ [0, 300] secondi, con il metodo di Eulero esplicito per Ψ = π/4.

Esercizio 7.20 (Sport) Si risolva con ode23 il Problema 7.3 supponendo che la velocit` a iniziale della palla sia v(0) = v0 (cos(θ), 0, sin(θ))T con v0 = 38 m/s e θ uguale ad 1 grado e con una velocit` a angolare 180 · 1.047198 radianti al secondo. Se x(0) = 0T , approssimativamente dopo quanti secondi la palla raggiunge terra (ovvero la quota z = 0)?

 *83). 291*6.(. 4*6 463'0*1. &. 0.1.8.

+ ?A>1;4?4A0C>A4 38 !0?;024 N !

' ) #2N ,=1

#Q2,



+K RHLANKN #  !#Q, CDMNS@ K@ CDQHU@S@ O@QYH@KD QHRODSSN @KK@ U@QH@AHKD Q,  BHND ODQ NFMH OTMSN A0

Quarteroni, A., Saleri, F.: Calcolo Scientifico. © Springer-Verlag Italia, Milano, 2008

254

8 Metodi numerici per problemi ai limiti

∂u 0 u(x0 + hei ) − u(x0 ) , (x ) = lim h→0 ∂xi h

(8.3)

dove ei `e l’i-esimo vettore unitario di Rd . 2. L’equazione del calore ∂u(x, t) ∂ 2 u(x, t) −µ = f (x, t), ∂t ∂x2

x ∈ (a, b), t > 0,

(8.4)

x ∈ Ω, t > 0,

(8.5)

o, in pi` u dimensioni, ∂u(x, t) − µ∆u(x, t) = f (x, t), ∂t

dove µ > 0 `e un coefficiente assegnato che rappresenta la conducibilit` a termica e f `e nuovamente una funzione assegnata. 3. L’equazione delle onde ∂ 2 u(x, t) ∂ 2 u(x, t) − c = 0, ∂t2 ∂x2

x ∈ (a, b), t > 0,

o, in pi` u dimensioni, ∂ 2 u(x, t) − c∆u(x, t) = 0, ∂t2

x ∈ Ω, t > 0,

dove c `e una costante positiva assegnata. Per una trattazione pi` u completa dell’approssimazione di problemi ai limiti ed ai valori iniziali per equazioni differenziali di tipo generale rimandiamo ad esempio a [Qua08], [EEHJ96] o [Lan03].

8.1 Alcuni problemi Problema 8.1 (Idrogeologia) In alcuni casi, lo studio della filtrazione delle acque nel sottosuolo pu` o essere ricondotto alla risoluzione dell’equazione (8.2). Consideriamo una regione tridimensionale Ω occupata da un mezzo poroso (come la terra o l’argilla). Allora, per la legge di Darcy si ha che la velocit`a di filtrazione media dell’acqua q = (q1 , q2 , q3 )T `e proporzionale alla variazione del livello dell’acqua φ nel mezzo, cio`e q = −K∇φ,

(8.6)

dove K `e la costante di conducibilit` a idraulica del mezzo poroso e ∇φ indica il gradiente di φ rispetto alle coordinate spaziali. Se la densit` a del fluido `e costante, allora il principio di conservazione della massa fornisce l’equazione divq = 0, dove divq `e la divergenza del vettore q ed `e definita come

8.1 Alcuni problemi

divq =

255

3 ∂qi ∂x i i=1

Allora, per la (8.6) si ha che φ soddisfa all’equazione di Poisson ∆φ = 0 (si veda l’Esercizio 8.8).  Problema 8.2 (Termodinamica) Sia Ω ⊂ R3 un volume occupato da un fluido. Indicando rispettivamente con J(x, t) e T (x, t) il flusso di calore e la temperatura del fluido, la legge di Fourier stabilisce che il flusso sia proporzionale alla variazione di temperatura T , ovvero J(x, t) = −k∇T (x, t), dove k `e una costante positiva che rappresenta la conducibilit` a termica del materiale. Imponendo la conservazione dell’energia, ovvero che la velocit`a di variazione dell’energia in un volume arbitrario di fluido eguagli la velocit` a con cui il calore fluisce nel volume stesso, otteniamo l’equazione del calore ρc

∂T = k∆T, ∂t

(8.7)

dove ρ `e la densit`a di massa del fluido e c `e la capacit`a di calore specifico (per unit` a di massa). Se inoltre, a causa di altri fenomeni fisici, viene prodotto del calore a velocit`a f (x, t) all’interno del volume (ad esempio per effetto di riscaldamento elettrico), l’equazione (8.7) diventa ρc

∂T = k∆T + f. ∂t

Per la soluzione di questo problema si veda l’Esempio 8.4.

(8.8) 

Problema 8.3 (Elettrotecnica) Consideriamo un cavo del telegrafo di resistenza R e induttanza L per unit` a di lunghezza. Supponendo che la corrente possa dissiparsi al suolo attraverso una capacit`a C ed una conduttanza G per unit` a di lunghezza (si veda la Figura 8.16), l’equazione per il potenziale v `e ∂2v ∂2v ∂v − βv, − c = −α ∂t2 ∂x2 ∂t

(8.9)

dove c = 1/(LC), α = R/L + G/C e β = RG/(LC). L’equazione (8.9) `e un esempio di equazione iperbolica del secondo ordine. La soluzione di questo problema `e affrontata nell’Esempio 8.8. 

256

8 Metodi numerici per problemi ai limiti

8.2 Approssimazione di problemi ai limiti Le equazioni presentate all’inizio di questo capitolo ammettono infinite soluzioni. Al fine di ottenere un’unica soluzione devono essere imposte opportune condizioni su tutto il bordo ∂Ω di Ω e, per problemi tempo dipendenti, anche delle opportune condizioni iniziali al tempo t = 0. In questa sezione consideriamo le equazioni di Poisson (8.1) o (8.2). Nel caso monodimensionale (8.1), una possibilit` a per ottenere una soluzione unica consiste nell’assegnare il valore di u in x = a ed in x = b, ottenendo il sistema −u′′ (x) = f (x) u(a) = α,

per x ∈ (a, b),

(8.10)

u(b) = β

dove α e β sono due valori dati. Questo `e detto problema ai limiti di Dirichlet e verr` a studiato nella prossima sezione. Ricorrendo ad una doppia integrazione per parti `e facile vedere che se f ∈ C([a, b]), la soluzione u esiste ed `e unica, inoltre essa appartiene a C 2 ([a, b]). Anche se governato da un’equazione differenziale ordinaria, il problema (8.10) non pu` o essere messo nella forma di un problema di Cauchy in quanto il valore di u `e assegnato in due punti differenti. Un’alternativa alle condizioni di Dirichlet `e rappresentata dalle condizioni u′ (a) = γ, !b u′ (b) = δ (per opportune costanti γ e δ tali che γ − δ = a f (x)dx). Questo problema `e detto di Neumann. Si noti che la sua soluzione `e definita a meno di una costante additiva. Nel caso bidimensionale, il problema ai limiti di Dirichlet prende la seguente forma: assegnate due funzioni f = f (x) e g = g(x), si cerca la funzione u = u(x) tale che −∆u(x) = f (x)

per x ∈ Ω,

u(x) = g(x)

per x ∈ ∂Ω

(8.11)

In alternativa alla condizione al bordo imposta in (8.11) si pu` o assegnare una condizione sulla derivata parziale di u nella direzione normale a ∂Ω, ovvero ∂u (x) = ∇u(x) · n(x) = h(x) per x ∈ ∂Ω ∂n   per un’opportuna funzione h tale che h=− f (si veda la Figura ∂Ω



8.1), ottenendo un problema ai limiti di Neumann. Si pu` o dimostrare che se f e g sono due funzioni continue e la frontiera di Ω `e sufficientemente regolare, allora esiste un’unica soluzione u del problema ai limiti di Dirichlet (8.11) (mentre la soluzione del problema ai limiti di Neumann `e unica a meno di una costante additiva).

8.2 Approssimazione di problemi ai limiti

257

n(x) Ω

∂Ω Figura 8.1. Un dominio bidimensionale Ω ed il versore normale al bordo con verso uscente

I metodi numerici adatti per risolvere i problemi alle derivate parziali in 2 (o pi` u) dimensioni si basano sugli stessi presupposti usati per risol` per questa ragione che nei vere problemi ai limiti monodimensionali. E paragrafi 8.2.1 e 8.2.3 faremo una digressione sulla risoluzione numerica del problema monodimensionale (8.10) rispettivamente con differenze finite ed elementi finiti. A tale scopo introduciamo su [a, b] una decomposizione in intervalli Ij = [xj , xj+1 ] per j = 0, . . . , N con x0 = a e xN +1 = b. Supponiamo per semplicit` a che gli intervalli abbiano tutti la stessa ampiezza h= (b − a)/(N + 1). 8.2.1 Approssimazione alle differenze finite del problema di Poisson monodimensionale L’equazione differenziale (8.10) deve essere soddisfatta, in particolare, per ogni punto xj (che chiameremo d’ora in poi nodo) interno ad (a, b), ovvero −u′′ (xj ) = f (xj ), j = 1, . . . , N. Per ottenere una approssimazione di questo insieme di N equazioni, sostituiamo alla derivata seconda un opportuno rapporto incrementale (come abbiamo fatto nel caso delle derivate prime del Capitolo 4). In particolare, osserviamo che, data una funzione u : [a, b] → R sufficientemente regolare in un intorno di un generico punto x ¯ ∈ (a, b), la quantit` a x − h) u(¯ x + h) − 2u(¯ x) + u(¯ δ 2 u(¯ (8.12) x) = 2 h fornisce una approssimazione di u′′ (¯ x) di ordine 2 rispetto a h (si veda l’Esercizio 8.3). Questo suggerisce di usare la seguente approssimazione del problema (8.10): trovare {uj }N j=1 tale che −

uj+1 − 2uj + uj−1 = f (xj ), h2

j = 1, . . . , N

(8.13)

258

8 Metodi numerici per problemi ai limiti

con u0 = α e uN +1 = β. Naturalmente uj sar` a un’approssimazione di u(xj ). Le equazioni (8.13) formano un sistema lineare Auh = h2 f ,

(8.14)

dove uh = (u1 , . . . , uN )T `e il vettore delle incognite, f = (f (x1 ) + α/h2 , f (x2 ), . . . , f (xN −1 ), f (xN )+β/h2 )T ed A `e la matrice tridiagonale ⎤ ⎡ 2 −1 0 . . . 0 ⎢ .. ⎥ ⎢ −1 2 . . . . ⎥ ⎥ ⎢ ⎥ ⎢ (8.15) A = tridiag(−1, 2, −1) = ⎢ 0 . . . . . . −1 0 ⎥ . ⎢ ⎥ ⎢ . ⎥ ⎣ .. −1 2 −1 ⎦ 0 . . . 0 −1 2

Tale sistema ammette un’unica soluzione in quanto A `e simmetrica e definita positiva (si veda l’Esercizio 8.1). Il sistema potr` a essere risolto utilizzando il metodo di Thomas presentato nel paragrafo 5.6. Si tenga comunque conto che per h piccolo (e quindi per grandi valori di N ) la matrice A `e malcondizionata. Infatti K(A) = λmax (A)/λmin (A) = Ch−2 , per un’opportuna costante C indipendente da h (si veda l’Esercizio 8.2). Di conseguenza, la risoluzione numerica del sistema (8.14) richiede una cura particolare sia nel caso in cui si usi un metodo diretto sia in quello in cui si usi un metodo iterativo (in questo secondo caso converr`a ricorrere ad un precondizionatore). Si pu` o dimostrare (si veda, ad esempio, [QSS08, Capitolo 12]) che, se f ∈ C 2 ([a, b]), allora max

j=0,...,N +1

|u(xj ) − uj | ≤

h2 max |f ′′ (x)| 96 x∈[a,b]

(8.16)

cio`e il metodo alle differenze finite (8.13) converge con ordine 2 rispetto a h. Nel Programma 8.1 viene risolto il problema ai limiti (detto di diffusione, trasporto e reazione)  −µu′′ (x) + ηu′ (x) + σu(x) = f (x) per x ∈ (a, b), (8.17) u(a) = α, u(b) = β, con µ > 0, η e σ > 0 costanti, che `e un’estensione del problema (8.10). Lo schema alle differenze finite utilizzato, che generalizza (8.13), `e il seguente ⎧ ⎨ −µ uj+1 − 2uj + uj−1 + η uj+1 − uj−1 + σuj = f (xj ), j = 1, . . . , N, h2 2h ⎩ uN +1 = β. u0 = α,

8.2 Approssimazione di problemi ai limiti

259

I parametri d’ingresso del Programma 8.1 sono gli estremi a e b dell’intervallo di definizione, il numero di nodi interni N, i coefficienti costanti µ, η e σ e la function bvpfun che dovr` a precisare l’espressione di f . Infine, ua e ub sono i valori che deve assumere la soluzione in x=a ed in x=b. In uscita, vengono restituiti il vettore dei nodi di discretizzazione x e la soluzione calcolata uh. Si noti che le soluzioni generate con questo programma possono essere affette da oscillazioni spurie se h≥2/|η| (si veda il paragrafo successivo). Programma 8.1. bvp: approssimazione di un problema ai limiti di diffusione, trasporto e reazione con il metodo delle differenze finite function [x , uh ]= bvp (a ,b ,N , mu , eta , sigma , bvpfun ,... ua , ub , varargin ) % BVP Risolve un problema ai limiti % [X , UH ]= BVP (A ,B ,N , MU , ETA , SIGMA , BVPFUN , UA , UB ) risolve % con il metodo delle differenze finite centrate in % N nodi equispaziati interni ad (A , B ) il problema % - MU * D ( DU / DX )/ DX + ETA * DU / DX + SIGMA * U = BVPFUN % sull ’ intervallo (A , B ) con condizioni al bordo % U ( A )= UA e U ( B )= UB . % BVPFUN puo ’ essere una funzione inline , una % anonymous function o una funzione definita in % un M - file . % X e UH contengono , rispettivamente , i nodi % e la soluzione numerica , inclusi i valori al bordo . h = (b - a )/( N +1); x = ( linspace (a ,b , N +2)) ’; hm = mu / h ^2; hd = eta /(2* h ); e = ones (N ,1); A = spdiags ([ - hm *e - hd (2* hm + sigma )* e - hm * e + hd ] ,... -1:1 , N , N ); xi = x (2: end -1); f = feval ( bvpfun , xi , varargin {:}); f (1) = f (1)+ ua *( hm + hd ); f ( end ) = f ( end )+ ub *( hm - hd ); uh = A \ f ; uh =[ ua ; uh ; ub ];

8.2.2 Approssimazione alle differenze finite di un problema di diffusione-trasporto a trasporto dominante Consideriamo la seguente generalizzazione del problema ai limiti (8.10) −µu′′ (x) + ηu′ (x) = f (x)

per x ∈ (a, b), (8.18)

u(a) = α,

u(b) = β

essendo µ e η costanti positive. Esso `e denominato problema di diffusionetrasporto in quanto i termini −µu′′ (x) e ηu′ (x) sono responsabili, rispettivamente, della diffusione e del trasporto della grandezza incognita u(x). Il numero di P´eclet globale, associato all’equazione (8.18) e definito come

260

8 Metodi numerici per problemi ai limiti

Pegl =

η(b − a) , 2µ

(8.19)

rappresenta una misura di quanto il termine di trasporto domini quello diffusivo e diremo a trasporto dominante un problema in cui Pegl ≫ 1. Una possibile discretizzazione di (8.18) `e ⎧ u − 2uj + uj−1 uj+1 − uj−1 ⎪ ⎨ −µ j+1 = f (xj ), j = 1, . . . , N, +η 2 h 2h (8.20) ⎪ ⎩ u0 = α, uN +1 = β,

in cui `e stata utilizzata la differenza finita centrata (4.9) per approssimare il termine di trasporto. Come avviene per l’approssimazione dell’equazione di Poisson, si pu` o dimostrare che l’errore tra la soluzione del problema discreto (8.20) e la soluzione del problema continuo (8.18) soddisfa la seguente stima max

j=0,...,N +1

|u(xj ) − uj | ≤ Ch2 max |f ′′ (x)|. x∈[a,b]

(8.21)

La costante C `e proporzionale a Pegl , pertanto essa `e molto grande quando il trasporto `e fortemente dominante. Questo comporta che, se non si utilizza un passo di discretizzazione h sufficientemente piccolo, la soluzione numerica che si ottiene con lo schema (8.20) pu` o essere molto inaccurata ed in particolare pu` o presentare forti oscillazioni che nulla hanno a che fare con la soluzione esatta del problema. Per una analisi pi` u dettagliata del fenomeno si introduce il cosiddetto numero di P´eclet locale (o “di griglia”) ηh Pe = . (8.22) 2µ Si pu` o dimostrare che la soluzione del problema discreto (8.20) `e priva di oscillazioni quando Pe < 1 (si veda a tale proposito [Qua08, Capitolo 5]). Questo comporta che in presenza di problemi con trasporto fortemente dominante, al fine di garantire la bont` a della soluzione numerica, `e sufficiente scegliere un passo di discretizzazione h < 2µ/η, anche se ci`o non sempre `e conveniente, soprattutto quando il rapporto 2µ/η `e molto piccolo. Una possibile alternativa consiste allora nell’utilizzare una diversa approssimazione del termine u′ ; in particolare, invece della differenza finita centrata (4.9), sar` a sufficiente considerare la differenza finita in avanti (4.8), cosicch´e il sistema (8.20) viene sostituito da ⎧ ⎨ −µ uj+1 − 2uj + uj−1 + η uj − uj−1 = f (x ), j = 1, . . . , N, j h2 h (8.23) ⎩ uN +1 = β, u0 = α, noto come schema upwind. Si pu` o dimostrare che approssimando (8.18) con (8.23), la soluzione numerica ottenuta non `e pi` u affetta da oscillazioni, come si pu`o osservare in Figura 8.2.

8.2 Approssimazione di problemi ai limiti

261

1

0.8

0.6

0.4

0.2

0

−0.2

−0.4 0.6

0.65

0.7

0.75

0.8

0.85

0.9

0.95

1

Figura 8.2. Soluzione esatta (in linea continua), approssimazione con differenze finite centrate con h = 1/15 (Pe > 1) (in linea punteggiata), approssimazione con differenze finite centrate con h = 1/32 (Pe < 1) (in linea tratteggiata), approssimazione con differenze finite upwind h = 1/15 (in linea tratto-punto) della soluzione del problema (8.18) con a = 0, b = 1, α = 0, β = 1, f (x) = 0, µ = 1/50 e η = 1. Per maggior chiarezza le soluzioni numeriche sono state disegnate nell’intervallo [0.6, 1] anzich´e in [0, 1]

8.2.3 Approssimazione agli elementi finiti del problema di Poisson monodimensionale Il metodo degli elementi finiti rappresenta un’alternativa al metodo delle differenze finite appena introdotto per l’approssimazione di problemi ai limiti. Esso viene derivato da un’opportuna riformulazione del problema (8.10). Consideriamo l’equazione (8.10) e moltiplichiamo ambo i membri per una generica funzione v ∈ C 1 ([a, b]). Integrando la corrispondente uguaglianza sull’intervallo (a, b) ed utilizzando la formula di integrazione per parti, otteniamo b a

u′ (x)v ′ (x) dx − [u′ (x)v(x)]ba =

b

f (x)v(x) dx.

a

Supponendo inoltre che v si annulli negli estremi x = a e x = b, il problema (8.10) diventa: trovare u ∈ C 1 ([a, b]) tale che u(a) = α, u(b) = βe b a

1





u (x)v (x) dx =

b

f (x)v(x) dx

(8.24)

a

per ogni v ∈ C ([a, b]) tale che v(a) = v(b) = 0. La (8.24) viene chiamata formulazione debole del problema (8.10) (di fatto, sia la funzione u, sia le funzioni test v possono essere meno regolari di C 1 ([a, b]), si veda, ad esempio [QSS08] o [Qua08]).

262

8 Metodi numerici per problemi ai limiti

La sua approssimazione ad elementi finiti `e definita come segue trovare uh ∈ Vh tale che uh (a) = α, uh (b) = β e x b N j+1 ′ ′ uh (x)vh (x) dx = f (x)vh (x) dx j=0 x j

∀vh ∈ Vh0

(8.25)

a

dove 3 4 Vh = vh ∈ C 0 ([a, b]) : vh|Ij ∈ P1 , j = 0, . . . , N ,

(8.26)

cio`e Vh `e lo spazio delle funzioni continue in [a, b] le cui restrizioni in ogni sotto intervallo Ij sono polinomi di grado uno. Inoltre Vh0 `e il sottospazio di Vh delle funzioni che si annullano agli estremi a e b. Vh `e detto lo spazio degli elementi finiti di grado 1.

vh 1 ϕj

a

x1 x2

xN−1 xN b

xj−2 xj−1 xj

Figura 8.3. A sinistra, una generica funzione vh ∈ di base per Vh0 associata al nodo j-esimo

Vh0 .

xj+1 xj+2

A destra, la funzione

Le funzioni di Vh0 sono polinomi compositi di grado 1 (si veda la Figura 8.3 a sinistra). Di conseguenza, ogni funzione vh di Vh0 ammette la seguente rappresentazione vh (x) =

N

vh (xj )ϕj (x),

j=1

dove per j = 1, . . . , N ⎧ x − xj−1 ⎪ ⎪ ⎪ ⎪ ⎨ xj − xj−1 x − xj+1 ϕj (x) = ⎪ ⎪ xj − xj+1 ⎪ ⎪ ⎩ 0

se x ∈ Ij−1 , se x ∈ Ij , altrimenti.

8.2 Approssimazione di problemi ai limiti

263

La generica ϕj `e dunque nulla in tutti i nodi xi fuorch´e in xj dove ϕj (xj ) = 1 (si veda la Figura 8.3 a destra). Le funzioni ϕj , j = 1, . . . , N sono dette funzioni di forma e formano una base per lo spazio Vh0 . Di conseguenza, verificare la (8.25) per ogni funzione di Vh equivale a verificarla per le sole funzioni di forma ϕj , j = 1, . . . , N . Sfruttando la propriet` a che ϕj si annulla al di fuori degli intervalli Ij−1 e Ij , dalla (8.25) otteniamo 

u′h (x)ϕ′j (x)



dx =

f (x)ϕj (x) dx, j = 1, . . . , N. (8.27)

Ij−1 ∪Ij

Ij−1 ∪Ij

D’altra parte possiamo scrivere uh (x) = N j=1 uj ϕj (x) + αϕ0 (x) + βϕN +1 (x), dove uj = uh (xj ), ϕ0 (x) = (x1 − x)/(x1 − a) per a ≤ x ≤ x1 , e ϕN +1 (x) = (x−xN )/(b−xN ) per xN ≤ x ≤ b, mentre ϕ0 (x) e ϕN +1 (x) sono nulle altrove. Sostituendo questa espressione in (8.27), troviamo: u1



ϕ′1 (x)ϕ′1 (x)

dx + u2

I0 ∪I1

=



ϕ′2 (x)ϕ′1 (x) dx

I1



f (x)ϕ1 (x) dx +

I0 ∪I1

uj−1



ϕ′j−1 (x)ϕ′j (x) dx + uj

Ij−1

+uj+1





ϕ′j (x)ϕ′j (x) dx

Ij−1 ∪Ij

ϕ′j+1 (x)ϕ′j (x) dx =



f (x)ϕj (x) dx,

j = 2, . . . , N − 1,

Ij−1 ∪Ij

Ij

uN −1



α , x1 − a

ϕ′N −1 (x)ϕ′N (x) dx + uN

IN −1

=



IN −1 ∪IN



ϕ′N (x)ϕ′N (x) dx

IN −1 ∪IN

f (x)ϕj (x) dx +

β . b − xN

Nel caso particolare in cui tutti gli intervalli abbiano la stessa ampiezza h, abbiamo ϕ′j−1 = −1/h in Ij−1 , ϕ′j = 1/h in Ij−1 e ϕ′j = −1/h in Ij , ϕ′j+1 = 1/h in Ij . Di conseguenza, otteniamo:

264

8 Metodi numerici per problemi ai limiti

2u1 − u2

=h



f (x)ϕ1 (x) dx +

α , x1 − a

I0 ∪I1

−uj−1 + 2uj − uj+1 = h



f (x)ϕj (x) dx,

j = 2, . . . , N − 1,

Ij−1 ∪Ij

−uN −1 + 2uN

=h



f (x)ϕN (x) dx +

β . b − xN

IN −1 ∪IN

Si trova dunque un sistema lineare nelle incognite {u1 , . . . , uN } la cui matrice `e uguale a quella ottenuta nel caso delle differenze finite (ovvero la matrice definita in (8.10)), mentre il termine noto `e diverso (e, naturalmente, `e diversa anche la soluzione, a dispetto delle notazioni coincidenti). Elementi finiti lineari e differenze finite condividono invece la stessa accuratezza rispetto a h quando si calcoli l’errore massimo nei nodi. L’approccio degli elementi finiti pu` o essere generalizzato a problemi come (8.17) (anche nel caso in cui µ, η e σ dipendano da x) e (8.18). Qualora si voglia approssimare il problema di diffusione-trasporto a trasporto dominante (8.18), la procedura di tipo upwind utilizzata per le differenze finite pu` o essere riprodotta anche in elementi finiti. In particolare, osservando che ui − ui−1 ui+1 − ui−1 h ui+1 − 2ui + ui−1 = − , h 2h 2 h2 si conclude che decentrare il rapporto incrementale equivale a perturbare il rapporto incrementale centrato con un termine corrispondente alla ` naturale intrepretare questo discretizzazione di una derivata seconda. E termine addizionale come viscosit` a artificiale che si somma al termine viscoso nel problema originario. In altre parole, eseguire l’upwind in elementi finiti equivale a risolvere con il metodo di Galerkin (centrato) il seguente problema perturbato −µh u′′ (x) + ηu′ (x) = f (x),

(8.28)

dove µh = (1 + Pe)µ. Un’ulteriore generalizzazione del metodo degli elementi finiti lineari consiste nell’usare polinomi compositi di grado maggiore di uno. In tal caso si incrementa l’ordine di accuratezza dello schema. Facciamo notare che la matrice degli elementi finiti associata ad approssimazioni di ordine elevato non coincide pi` u con la matrice delle differenze finite. Si vedano gli Esercizi 8.1-8.7.

8.2 Approssimazione di problemi ai limiti

265

y hx y6 = d y5 y4 y3 y2 y1 y0 = c

hy

x0 = a x1

x2

x3

x4 = b

x

Figura 8.4. Griglia di calcolo Δh di 15 nodi interni su un dominio rettangolare

8.2.4 Approssimazione alle differenze finite del problema di Poisson in 2 dimensioni Consideriamo il problema di Poisson (8.2) in una regione Ω del piano. L’idea alla base delle differenze finite consiste nell’approssimare le derivate parziali che compaiono nell’equazione ancora con rapporti incrementali su una opportuna griglia (detta griglia computazionale) costituita da un insieme finito di nodi. In questo modo la soluzione u dell’equazione differenziale verr` a approssimata solo in questi nodi. Il primo passo consiste quindi nel costruire una griglia computazionale. Supponiamo per semplicit` a che Ω sia il rettangolo (a, b) × (c, d). Introduciamo una decomposizione di [a, b] in intervalli (xi , xi+1 ) per i = 0, . . . , Nx , con x0 = a e xNx +1 = b. Indichiamo con ∆x = {x0 , . . . , xNx +1 } l’insieme degli estremi di tali intervalli e con hx = max (xi+1 − xi ) la loro massima lunghezza. i=0,...,Nx

In modo del tutto analogo introduciamo una discretizzazione lungo l’asse y: ∆y = {y0 , . . . , yNy +1 }, con y0 = c e yNy +1 = d e hy = max (yj+1 − yj ). Il prodotto cartesiano ∆h = ∆x × ∆y definisce la j=0,...,Ny

griglia computazionale su Ω (come mostrato in Figura 8.4), dove h = max{hx , hy } `e una misura caratteristica della finezza della griglia. Siamo interessati a trovare i valori ui,j che approssimano u(xi , yj ). Supponiamo per semplicit`a che i nodi siano equispaziati ossia che xi = x0 + ihx per i = 0, . . . , Nx + 1 e yj = y0 + jhy per j = 0, . . . , Ny + 1. Le derivate seconde parziali di una funzione possono essere approssimate con un opportuno rapporto incrementale, esattamente come fatto per le derivate ordinarie. Nel caso di una funzione di 2 variabili definiamo i seguenti rapporti incrementali

266

8 Metodi numerici per problemi ai limiti

ui−1,j − 2ui,j + ui+1,j , h2x ui,j−1 − 2ui,j + ui,j+1 . = h2y

δx2 ui,j = δy2 ui,j

(8.29)

Essi sono accurati al second’ordine rispetto a hx ed a hy , rispettivamente, per l’approssimazione di ∂ 2 u/∂x2 e ∂ 2 u/∂y 2 nel nodo (xi , yj ). Se sostituiamo le derivate parziali seconde di u con le formule (8.29), richiedendo che l’equazione alle derivate parziali venga soddisfatta in tutti i nodi interni di ∆h , perveniamo alle seguenti equazioni −(δx2 ui,j + δy2 ui,j ) = fi,j ,

i = 1, . . . , Nx , j = 1, . . . , Ny .

(8.30)

Abbiamo posto fi,j = f (xi , yj ). Ad esse vanno aggiunte le equazioni che impongono il dato di Dirichlet sul bordo ∂Ω ui,j = gi,j

∀i, j tale che (xi , yj ) ∈ ∂∆h ,

(8.31)

dove ∂∆h denota l’insieme dei punti di ∆h che appartengono al bordo del rettangolo. Tali punti sono indicati in Figura 8.4 con dei quadratini. Si tenga conto che, se supponiamo che la griglia sia uniforme in entrambe le direzioni, cio`e che hx = hy = h, invece di (8.30) otteniamo −

1 (ui−1,j + ui,j−1 − 4ui,j + ui,j+1 + ui+1,j ) = fi,j , h2 i = 1, . . . , Nx , j = 1, . . . , Ny

(8.32)

Il sistema formato dalle equazioni (8.30) (o (8.32)) e (8.31) consente di calcolare i valori nodali ui,j in tutti i nodi di ∆h . Per ogni coppia fissata di indici i e j, l’equazione (8.32) coinvolge 5 valori nodali, come mostrato in Figura 8.5. Per questo motivo questo schema `e noto come schema a 5 punti per l’operatore di Laplace. Le incognite associate ai nodi di bordo, possono essere eliminate usando (8.31) e quindi (8.30) (o (8.32)) coinvolge solo N = Nx Ny incognite. Il sistema risultante pu`o essere scritto in modo pi` u significativo se ordiniamo opportunamente i nodi interni della griglia: a partire dal nodo 1 individuato da (x1 , y1 ) e proseguendo da sinistra verso destra, dal basso verso l’alto, numeriamo progressivamente tutti i nodi interni. Con tale ordinamento, detto lessicografico, il sistema lineare associato ai soli nodi interni prende ancora la forma (8.14). Tuttavia stavolta la matrice A ∈ RN ×N ha la seguente forma (tridiagonale a blocchi) A = tridiag (D, T, D) .

(8.33)

8.2 Approssimazione di problemi ai limiti

267

(i, j + 1)

(i − 1, j)

(i, j)

(i + 1, j)

(i, j − 1) Figura 8.5. Supporto dello schema a 5 punti per l’operatore di Laplace

Essa ha Ny righe e Ny colonne ed ogni ingresso (denotato con una lettera maiuscola) `e una matrice Nx × Nx . In particolare, D ∈ RNx ×Nx `e la matrice diagonale i cui coefficienti diagonali valgono −1/h2y , mentre T ∈ RNx ×Nx `e la seguente matrice tridiagonale simmetrica T = tridiag(−

2 1 1 2 , 2 + 2 , − 2 ). 2 hx hx hy hx

La matrice A `e simmetrica in quanto tutti i blocchi diagonali sono simmetrici. Verifichiamo che `e anche definita positiva dimostrando che vT Av > 0 per ogni v ∈ RN , v = 0. Partizionando v in Ny vettori vk di lunghezza Nx , otteniamo vT Av =

Ny

k=1

vkT Tvk −

Ny −1 2 T vk vk+1 . h2y

(8.34)

k=1

Possiamo scrivere T = 2/h2y I + 1/h2x K, dove K `e la matrice (simmetrica e definita positiva) data nella (8.15) e I `e la matrice identit`a. Di conseguenza, sfruttando l’identit` a 2a(a − b) = a2 − b2 + (a − b)2 e operando alcuni passaggi algebrici, (8.34) diventa Ny −1 1 T v Av = 2 vk Kvk hx k=1 ⎞ ⎛ Ny −1 1 ⎝ T T v + + 2 v1 v1 + vN (vk − vk+1 )T (vk − vk+1 )⎠ y Ny hy T

k=1

che `e un numero reale strettamente positivo in quanto K `e definita positiva ed almeno uno dei vettori vk `e non nullo. Avendo provato che A `e non singolare, il sistema ammette un’unica soluzione uh .

268

8 Metodi numerici per problemi ai limiti 0 10 20 30 40 50 60 70 80 0

20

40

60

80

Figura 8.6. Struttura della matrice associata allo schema a 5 punti usando un ordinamento lessicografico delle incognite

mesh

Osserviamo che A `e una matrice sparsa e come tale verr`a memorizzata nel formato sparse in MATLAB (si veda il paragrafo 5.6). In Figura 8.6 riportiamo la struttura della matrice (ottenuta con il comando spy(A)) per una griglia uniforme di 11 × 11 nodi, dopo aver eliminato le righe e le colonne associate ai nodi di ∂∆h . Come si nota, i soli elementi non nulli (indicati con dei pallini) sono tutti disposti su 5 diagonali. Inoltre, essendo A simmetrica e definita positiva il sistema pu`o essere risolto sia con metodi iterativi che diretti, come illustrato nel Capitolo 5. Infine, notiamo che, come per la corrispondente matrice del caso monodimensionale, A `e mal condizionata in quanto il suo numero di condizionamento cresce come h−2 al decrescere di h. Nel Programma 8.2 costruiamo e risolviamo (con il metodo richiamato dal comando \, si veda il paragrafo 5.8) il sistema (8.30)-(8.31). I parametri d’ingresso a, b, c e d servono per precisare gli estremi del dominio rettangolare Ω = (a, b) × (c, d), mentre nx e ny indicano i valori assunti da Nx e Ny (si pu` o avere Nx = Ny ). Infine, fun e bound sono le stringhe che precisano la funzione f = f (x, y) ed il dato di Dirichlet g = g(x, y). In uscita, u, x e y sono matrici aventi come elemento i, j-esimo rispettivamente i valori ui,j , xi,j = xi e yi,j = yj . La soluzione numerica pu` o essere visualizzata con il comando mesh(x,y,u). La stringa uex (opzionale) in input precisa invece la soluzione esatta del problema, nel caso (di interesse accademico) in cui essa sia nota. In tal caso viene calcolato l’errore relativo (contenuto nel parametro di output error) 5 error = max |u(xi , yj ) − ui,j | max |u(xi , yj )|. i,j

i,j

8.2 Approssimazione di problemi ai limiti

269

Programma 8.2. poissonfd: approssimazione del problema di Poisson con condizioni di Dirichlet usando il metodo delle differenze finite a 5 punti function [u ,x ,y , error ]= poissonfd (a ,b ,c ,d , nx , ny ,... fun , bound , uex , varargin ) % POISSONFD approssimaz io ne del problema di Poisson % in due dimensioni % [U ,X , Y ]= POISSONFD (A ,B ,C ,D , NX , NY , FUN , BOUND ) % risolve con lo schema alle differenze finite % a 5 punti il problema - LAPL ( U ) = FUN nel % rettangolo (A , B ) X (C , D ) con condizioni al bordo % di Dirichlet U (X , Y )= BOUND (X , Y ) per ogni (X , Y ) % sul bordo del rettangolo . % [U ,X ,Y , ERROR ]= POISSONFD (A ,B ,C ,D , NX , NY ,... % FUN , BOUND , UEX ) % calcola anche l ’ errore nodale massimo ERROR % rispetto alla soluzione esatta UEX . FUN , BOUND % e UEX possono essere funzioni inline , anonymous % function o funzioni definite in M - file . if nargin == 8 uex = inline ( ’0 ’ , ’x ’ , ’y ’ ); end nx1 = nx +2; ny1 = ny +2; dim = nx1 * ny1 ; hx = (b - a )/( nx +1); hy = (d - c )/( ny +1); hx2 = hx ^2; hy2 = hy ^2; kii = 2/ hx2 +2/ hy2 ; kix = -1/ hx2 ; kiy = -1/ hy2 ; K = speye ( dim , dim ); rhs = zeros ( dim ,1); y = c; for m = 2: ny +1 x = a ; y = y + hy ; for n = 2: nx +1 i = n +( m -1)* nx1 ; x = x + hx ; rhs ( i ) = feval ( fun ,x ,y , varargin {:}); K (i , i ) = kii ; K (i ,i -1) = kix ; K (i , i +1) = kix ; K (i , i + nx1 ) = kiy ; K (i ,i - nx1 ) = kiy ; end end rhs1 = zeros ( dim ,1); x = [ a : hx : b ] ’; rhs1 (1: nx1 ) = feval ( bound ,x ,c , varargin {:}); rhs1 ( dim - nx -1: dim ) = feval ( bound ,x ,d , varargin {:}); y = [ c : hy : d ]; rhs1 (1: nx1 : dim - nx -1) = feval ( bound ,a ,y , varargin {:}); rhs1 ( nx1 : nx1 : dim ) = feval ( bound ,b ,y , varargin {:}); rhs = rhs - K * rhs1 ; nbound = [[1: nx1 ] ,[ dim - nx -1: dim ] ,[1: nx1 : dim - nx -1] ,... [ nx1 : nx1 : dim ]]; ninternal = setdiff ([1: dim ] , nbound ); K = K ( ninternal , ninternal ); rhs = rhs ( ninternal ); utemp = K \ rhs ; uh = rhs1 ; uh ( ninternal ) = utemp ; k = 1; y = c ; for j = 1: ny +1 x = a; for i = 1: nx1 u (i , j ) = uh ( k ); k = k + 1; ue (i , j ) = feval ( uex ,x ,y , varargin {:});

270

8 Metodi numerici per problemi ai limiti x = x + hx ; end y = y + hy ;

end x = [ a : hx : b ]; y = [ c : hy : d ]; if nargout == 4 & nargin == 8 warning ( ’ Soluzione esatta non disponibile ’ ); error = [ ]; else error = max ( max ( abs (u - ue )))/ max ( max ( abs ( ue ))); end end Esempio 8.1 Lo spostamento trasversale u di una membrana, rispetto al piano di riferimento z = 0 nel dominio Ω = (0, 1)2 , soggetta all’azione di una forza di intensit` a pari a f (x, y) = 8π 2 sin(2πx) cos(2πy) soddisfa il problema di Poisson (8.2) in Ω. Le condizioni al bordo di Dirichlet sullo spostamento sono: g = 0 sui lati x = 0 e x = 1, e g(x, 0) = g(x, 1) = sin(2πx), 0 < x < 1. Questo problema ammette come soluzione esatta la funzione u(x, y) = sin(2πx) cos(2πy). In Figura 8.7 viene riportata la soluzione numerica ottenuta con lo schema a 5 punti. Sono stati usati due differenti valori di h: h = 1/10 (a sinistra) e h = 1/20 (a destra). Al decrescere di h la soluzione numerica migliora e, in effetti, l’errore nodale relativo passa da 0.0292 per h = 1/10 a 0.0081 per h = 1/20. 

pde

Anche il metodo degli elementi finiti pu` o essere facilmente esteso al caso bidimensionale. Si dovr` a scrivere una opportuna formulazione integrale del problema (8.2) e sostituire alla decomposizione dell’intervallo (a, b) in sottointervalli una decomposizione in poligoni (tipicamente, triangoli) detti elementi. La generica funzione di forma ϕk sar` a ancora una funzione polinomiale di grado 1 su ogni elemento, globalmente continua, e pari ad 1 nel vertice k-esimo e 0 nei restanti vertici degli elementi della griglia di calcolo. Per una implementazione di tale metodo in 2 dimensioni si pu` o usare il toolbox pde di MATLAB.

Figura 8.7. Spostamento trasversale di una membrana calcolato con una griglia pi` u rada (a sinistra) e con una pi` u fitta (a destra). Sul piano orizzontale vengono riportate le isolinee della soluzione. La decomposizione in triangoli che compare nelle figure tridimensionali serve per la sola visualizzazione

8.2 Approssimazione di problemi ai limiti

271

8.2.5 Consistenza e convergenza della discretizzazione con differenze finite del problema di Poisson Nel precedente paragrafo abbiamo stabilito che la soluzione del problema approssimato esiste ed `e unica. Siamo ora interessati a studiare l’errore di approssimazione. Supponiamo nuovamente che hx = hy = h. Se max |u(xi , yj ) − ui,j | → 0 quando h → 0 i,j

(8.35)

diremo che il metodo usato per calcolare ui,j `e convergente. Come abbiamo gi` a osservato, condizione necessaria per la convergenza `e che il metodo sia consistente. Ci`o significa che, forzando la soluzione esatta a soddisfare lo schema numerico, l’errore che si ottiene, detto di troncamento, deve tendere a 0 per h che tende a 0. Nel caso del metodo a 5 punti in ogni nodo (xi , yj ) interno a ∆h poniamo τh (xi , yj ) = −f (xi , yj ) −

u(xi−1 , yj ) + u(xi , yj−1 ) − 4u(xi , yj ) + u(xi , yj+1 ) + u(xi+1 , yj ) . h2

Questo valore `e detto errore di troncamento locale nel nodo (xi , yj ). Grazie alla (8.2) si ottiene .  2 ∂ u u(xi−1 , yj ) − 2u(xi , yj ) + u(xi+1 , yj ) τh (xi , yj ) = (x , y ) − i j ∂x2 h2 +



u(xi , yj−1 ) − 2u(xi , yj ) + u(xi , yj+1 ) ∂2u (xi , yj ) − 2 ∂y h2

.

.

Grazie all’analisi svolta nel paragrafo 8.2.4, possiamo concludere che entrambi i termini tendono a 0 quando h tende a 0. Dunque lim τh (xi , yj ) = 0,

h→0

∀(xi , yj ) ∈ ∆h \ ∂∆h ,

ossia il metodo a 5 punti `e consistente. In effetti si pu` o dimostrare che esso `e anche convergente in quanto vale il seguente risultato (per la cui dimostrazione si veda, ad esempio, [IK66]).

272

8 Metodi numerici per problemi ai limiti

¯ cio`e che la soluProposizione 8.1 Supponiamo che u ∈ C 4 (Ω), zione esatta abbia tutte le sue derivate parziali fino al quart’ordine ¯ del dominio. Allora, esiste una costante continue sulla chiusura Ω C > 0 tale che max |u(xi , yj ) − ui,j | ≤ CM h2 i,j

(8.36)

dove M `e il massimo valore assoluto assunto dalle derivate quarte ¯ di u in Ω.

Esempio 8.2 Verifichiamo sperimentalmente che il metodo a 5 punti applicato al problema di Poisson dell’Esempio 8.1 converge con ordine 2 rispetto ad h. Risolviamo tale problema a partire da h = 1/4 e, per dimezzamenti successivi, fino a h = 1/64 con le seguenti istruzioni a =0; b =1; c =0; d =1; f = inline ( ’ 8* pi ^2* sin (2* pi * x ).* cos (2* pi * y ) ’ , ’x ’ , ’y ’ ); g = inline ( ’ sin (2* pi * x ).* cos (2* pi * y ) ’ , ’x ’ , ’y ’ ); uex = g ; nx =4; ny =4; for n =1:5 [u ,x ,y , error ( n )]= poissonfd (a ,b ,c ,d , nx , ny ,f ,g , uex ); nx = 2* nx ; ny = 2* ny ; end Il vettore contenente l’errore `e format short e; error 1.3565e-01 4.3393e-02

1.2308e-02

3.2775e-03

8.4557e-04

Come si pu` o facilmente verificare con i comandi log(abs(error(1:end-1)./error(2:end)))/log(2) 1.6443e+00 1.8179e+00 1.9089e+00 1.9546e+00 tale errore tende a decresce con ordine 2 rispetto a h2 quando h → 0.



Si vedano gli Esercizi 8.8-8.9. 8.2.6 Approssimazione alle differenze finite dell’equazione del calore monodimensionale Consideriamo l’equazione del calore monodimensionale (8.4) con condizioni al bordo di Dirichlet omogenee u(a, t) = u(b, t) = 0 per ogni t > 0 e con condizione iniziale u(x, 0) = u0 (x) per x ∈ [a, b]. Per risolvere numericamente questa equazione dobbiamo discretizzare entrambe le variabili x e t. Cominciamo col considerare la variabile x, seguendo lo stesso approccio utilizzato nel paragrafo 8.2.1. Denotiamo con uj (t) una approssimazione di u(xj , t), per j = 0, . . . , N + 1, e

8.2 Approssimazione di problemi ai limiti

273

approssimiamo il problema di Dirichlet (8.4) con il seguente schema: per ogni t > 0 ⎧ ⎨ duj (t) − µ (u (t) − 2u (t) + u (t)) = f (t), j = 1, . . . , N , j−1 j j+1 j dt h2 ⎩ u0 (t) = uN +1 (t) = 0, dove fj (t) = f (xj , t) e, per t = 0, uj (0) = u0 (xj ),

j = 0, . . . , N + 1.

Questa `e in realt` a una semi-discretizzazione dell’equazione del calore, che produce un sistema di equazioni differenziali ordinarie del tipo ⎧ ⎨ du (t) = − µ Au(t) + f (t) ∀t > 0, dt h2 (8.37) ⎩ 0 u(0) = u , dove u(t) = (u1 (t), . . . , uN (t))T `e il vettore colonna delle incognite, f (t) = (f1 (t), . . . , fN (t))T , u0 = (u0 (x1 ), . . . , u0 (xN ))T e A `e la matrice tridiagonale definita in (8.15). Osserviamo che per derivare (8.37) abbiamo supposto che u0 (x0 ) = u0 (xN +1 ) = 0, il che `e coerente con l’aver imposto condizioni al bordo di Dirichlet omogenee. Uno schema classico per l’integrazione in tempo di (8.37) `e il cosiddetto θ−metodo. Con ∆t > 0 denotiamo il passo di discretizzazione in tempo e supponiamo che sia costante, quindi denotiamo con v k il valore che la variabile v assume al livello temporare tk = k∆t. Il θ-metodo prende la seguente forma uk+1 − uk µ = − 2 A(θuk+1 + (1− θ)uk )+ θf k+1 + (1− θ)f k , ∆t h k = 0, 1, . . . u0 assegnato

(8.38)

o, equivalentemente,     µ µ I + 2 θ∆tA uk+1 = I − 2 ∆t(1 − θ)A uk + gk+1 , h h

(8.39)

avendo posto gk+1 = ∆t(θf k+1 + (1 − θ)f k ) ed avendo indicato con I la matrice identit`a di dimensione N . Per valori particolari del parametro θ possiamo riconoscere in (8.39) alcuni metodi gi` a introdotti nel Capitolo 7. Per esempio, se θ = 0 il metodo (8.39) coincide con lo schema di Eulero in avanti e possiamo ottenere uk+1 esplicitamente; altrimenti, ad ogni passo temporale dobbiamo risolvere un sistema lineare con matrice I + µθ∆tA/h2 .

274

8 Metodi numerici per problemi ai limiti

Nel caso in cui f = 0 la soluzione esatta u(x, t) di (8.4) tende a zero per ogni x, per t → ∞. Se anche la soluzione numerica ha lo stesso tipo di comportamento, lo schema (8.39) `e detto asintoticamente stabile, un concetto analogo a quello di assoluta stabilit` a introdotto nel paragrafo 7.6 nel caso delle equazioni differenziali ordinarie. Al fine di analizzare la stabilit` a asintotica, consideriamo dunque l’equazione vettoriale (8.39) nel caso in cui gk+1 = 0 ∀k ≥ 0. Se θ = 0 troviamo uk = (I − µ∆tA/h2 )k u0 ,

k = 1, 2, . . .

pertanto uk → 0 per k → ∞ se e solo se ρ(I − µ∆tA/h2 ) < 1.

(8.40)

D’altro canto, gli autovalori λj di A sono dati da λj = 2 − 2 cos(jπ/(N + 1))= 4 sin2 (jπ/(2(N + 1))),

j = 1, . . . , N

(si veda l’Esercizio 8.2). Quindi (8.40) `e soddisfatta se ∆t
0, si pu` o ricorrere ancora al metodo di Galerkin agli elementi finiti procedendo come indicato nel paragrafo 8.2.3 nel caso dell’equazione di Poisson. Anzitutto, per ogni t > 0 moltiplichiamo la (8.4) per una funzione test v = v(x) ∈ C 1 ([a, b]) e integriamo su (a, b). Quindi, ∀t > 0 cerchiamo una funzione t → u(x, t) ∈ C 1 ([a, b]) tale che 

b

a

∂u (x, t)v(x)dx + ∂t



b

µ

a

=



dv ∂u (x, t) (x)dx = ∂x dx

b

f (x)v(x)dx

(8.41)

∀v ∈ C 1 ([a, b]),

a

0

con u(0) = u . Da qui in avanti, per alleggerire le notazioni, la dipendenza di u, v e f dalla variabile spaziale x verr` a sottintesa. Sia Vh il sottospazio di dimensione finita di C 1 ([a, b]) definito in (8.26). Consideriamo allora il seguente problema di Galerkin: ∀t > 0, trovare uh (t) ∈ Vh tale che 

a

b

∂uh (t)vh dx + ∂t



a

b

µ

∂uh dvh (t) dx = ∂x dx



b

f (t)vh dx

∀vh ∈ Vh ,(8.42)

a

dove uh (0) = u0h e u0h ∈ Vh `e una conveniente approssimazione di u0 . La formulazione (8.42) rappresenta una semi-discretizzazione del problema (8.41), in quanto esso costituisce solo la discretizzazione spaziale dell’equazione del calore.

278

8 Metodi numerici per problemi ai limiti

Per quanto concerne la discretizzazione ad elementi finiti di (8.42), consideriamo le funzioni di forma ϕj introdotte nel paragrafo 8.2.3. Quindi, la soluzione uh di (8.42) si pu` o scrivere come uh (t) =

N

uj (t)ϕj ,

j=1

dove le quantit` a {uj (t)} sono i coefficienti incogniti e N rappresenta la dimensione di Vh . Dalla (8.42) si ottiene 

N b

a j=1

duj (t)ϕj ϕi dx + µ dt =





N b

uj (t)

a j=1

dϕj dϕi dx = dx dx

b

f (t)ϕi dx,

i = 1, . . . , N

a

ossia, N duj j=1

dt

(t)

=



b

ϕj ϕi dx + µ

a



N j=1

uj (t)



a

b

dϕj dϕi dx = dx dx

b

f (t)ϕi dx,

i = 1, . . . , N.

a

Utilizzando la medesima notazione impiegata nella (8.37), otteniamo du (t) + Afe u(t) = ffe (t), (8.43) dt ! b dϕ !b !b i dove (Afe )ij = µ a dxj dϕ dx dx, (ffe (t))i = a f (t)ϕi dx e Mij = ( a ϕj ϕi dx) per i, j = 1, . . . , N . M `e detta matrice di massa. Dato che essa `e non singolare, il sistema di equazioni differenziali ordinarie (8.43) pu` o essere scritto in forma normale come M

du (t) = −M−1 Afe u(t) + M−1 ffe (t). dt

(8.44)

Per risolvere (8.43) in modo approssimato possiamo ancora ricorrere al θ-metodo, ottenendo M

  uk+1 − uk k+1 + Afe θuk+1 + (1 − θ)uk = θffe + (1 − θ)ffek . ∆t

(8.45)

Come al solito, l’apice k sta ad indicare che la quantit` a in oggetto `e calcolata all’istante temporale tk = k∆t, essendo ∆t > 0 il passo di discretizzazione temporale. Come nel caso delle differenze finite, per θ = 0, 1 e 1/2, otteniamo rispettivamente i metodi di Eulero in avanti, di Eulero

8.2 Approssimazione di problemi ai limiti

279

all’indietro e di Crank-Nicolson, essendo quest’ultimo l’unico di ordine due rispetto a ∆t. Per ogni k, la (8.45) d` a luogo ad un sistema lineare la cui matrice `e K=

1 M + θAfe . ∆t

Poich´e entrambe le matrici M e Afe sono simmetriche e definite positive, anche la matrice K risulta tale. Essa, inoltre, `e invariante rispetto a k e pertanto pu` o essere fattorizzata una volta per tutte al tempo t = 0. Nel caso monodimensionale in esame tale fattorizzazione `e basata sull’algoritmo di Thomas (si veda la sezione 5.6) e richiede quindi un numero di operazioni proporzionale a N . Nel caso multidimensionale converr` a invece fare ricorso alla decomposizione di Cholesky K = RT R, essendo R una matrice triangolare superiore (si veda (5.16)). Pertanto, ad ogni istante temporale `e necessario risolvere i due seguenti sistemi lineari triangolari, ciascuno di dimensione pari a N : ) ( ⎧ ⎨ RT y = 1 M − (1 − θ)A uk + θf k+1 + (1 − θ)f k , fe fe fe ∆t ⎩ k+1 = y. Ru

Quando θ = 0, una opportuna diagonalizzazione di M permetterebbe di disaccoppiare fra loro le equazioni del sistema (8.45). Questa procedura `e nota come mass-lumping e consiste nell’approssimare M con una matrice  Nel caso di elementi finiti lineari a tratti per diagonale non singolare M.  pu` problemi monodimensionali, M o essere ricavata usando la formula !b composita del trapezio sui nodi {xi } per calcolare gli integrali a ϕj ϕi dx, ottenendo m ˜ ij = hδij , i, j = 1, . . . , N . Se θ ≥ 1/2, il θ-metodo `e incondiziontamente stabile per ogni valore positivo di ∆t, mentre se 0 ≤ θ < 1/2 il θ-metodo `e stabile solo se 0 < ∆t ≤

2 , (1 − 2θ)λmax (M−1 Afe )

si veda a tale proposito [Qua08, Cap. 6]. Inoltre, si pu` o dimostrare che esistono due costanti positive c1 and c2 , indipendenti da h, tali che c1 h−2 ≤ λmax (M−1 Afe ) ≤ c2 h−2 (per la dimostrazione, si veda [QV94], Sezione 6.3.2). In base a questa propriet` a, otteniamo che se 0 ≤ θ < 1/2 il metodo `e stabile solo se 0 < ∆t ≤ C1 (θ)h2 ,

(8.46)

per una opportuna costante C1 (θ) indipendente da entrambi i parametri h e ∆t.

280

8 Metodi numerici per problemi ai limiti

8.3 Equazioni iperboliche: un problema di trasporto scalare Consideriamo il seguente problema ⎧ ⎨ ∂u + a ∂u = 0, ∂t ∂x ⎩ u(x, 0) = u0 (x),

x ∈ R, t > 0,

(8.47)

x ∈ R,

dove a `e un numero reale positivo. Esso rappresenta un esempio di problema scalare di tipo iperbolico. La soluzione di (8.47) `e data da u(x, t) = u0 (x − at), t ≥ 0, che rappresenta un’onda che si propaga con velocit` a pari ad a. Le curve (x(t), t) nel piano (x, t), che soddisfano la seguente equazione differenziale ordinaria scalare ⎧ ⎨ dx (t) = a, t > 0, dt (8.48) ⎩ x(0) = x0 ,

sono chiamate curve caratteristiche (o, semplicemente, caratteristiche). Esse sono le rette x(t) = x0 +at, t > 0. La soluzione di (8.47) si mantiene costante lungo di esse in quanto du ∂u ∂u dx = + =0 dt ∂t ∂x dt

su (x(t), t).

Se si considera il problema pi` u generale ⎧ ⎨ ∂u + a ∂u + a u = f, x ∈ R, 0 ∂t ∂x ⎩ x ∈ R, u(x, 0) = u0 (x),

t > 0,

(8.49)

dove a, a0 e f sono funzioni assegnate delle variabili (x, t), le curve caratteristiche sono ancora definite come nella (8.48). In questo caso, le soluzioni di (8.49) soddisfano lungo le caratteristiche la seguente equazione differenziale ordinaria du = f − a0 u dt

su (x(t), t).

Consideriamo ora il problema (8.47) su di un intervallo limitato. Ad esempio, siano x ∈ [α, β] e a > 0. Poich´e u `e costante lungo le caratteristiche, dalla Figura 8.10 (a sinistra) si deduce che il valore della soluzione in P `e uguale al valore di u0 in P0 , il piede della caratteristica spiccata

8.3 Equazioni iperboliche: un problema di trasporto scalare

281

t

t Q t=1 P P0 α

β

x

0

1

x

Figura 8.10. A sinistra: esempi di caratteristiche che sono rette spiccate dai punti P e Q. A destra: rette caratteristiche per l’equazione di Burgers (8.50)

da P . D’altro canto, la caratteristica spiccata da Q interseca la retta x(t) = α ad un certo istante t = t¯ > 0. Conseguentemente, il punto x = α `e detto di inflow (mentre x = β `e detto di outflow) ed `e necessario assegnare un valore al contorno per u in x = α per ogni t > 0. Si noti che se fosse a < 0 allora il punto di inflow sarebbe x = β. Con riferimento al problema (8.47) `e bene osservare che se il dato u0 `e discontinuo in un punto x0 , allora tale discontinuit` a si propaga lungo la caratteristica spiccata da x0 . Questo processo pu` o essere rigorosamente formalizzato introducendo il concetto di soluzione debole di un problema iperbolico (si veda, ad esempio, [GR96]). Un’altra ragione per introdurre le soluzioni deboli `e che nel caso di problemi iperbolici non lineari le caratteristiche possono intersecarsi. In tale circostanza la soluzione non pu` o essere continua e pertanto il problema non ammette alcuna soluzione in senso classico. Esempio 8.5 (Equazione di Burgers) Consideriamo l’equazione di Burgers ∂u ∂u +u = 0, x ∈ R, t > 0, (8.50) ∂t ∂x che rappresenta il pi` u semplice esempio di equazione iperbolica non lineare. Prendendo come condizione iniziale 8 x ≤ 0, < 1, 0 u(x, 0) = u (x) = 1 − x, 0 < x ≤ 1, : 0, x > 1, la linea caratteristica spiccata dal punto (x0 , 0) `e data da 8 x0 ≤ 0, < x0 + t, 0 x(t) = x0 + tu (x0 ) = x0 + t(1 − x0 ), 0 < x0 ≤ 1, : x0 > 1. x0 ,

Si noti che le linee caratteristiche non si intersecano solo se t < 1 (si veda la Figura 8.10, a destra). 

282

8 Metodi numerici per problemi ai limiti

8.3.1 Metodi alle differenze finite per la discretizzazione dell’equazione scalare iperbolica Discretizziamo il semipiano {(x, t) : −∞ < x < ∞, t > 0} scegliendo un passo di griglia spaziale ∆x > 0 (il parametro che fino ad ora avevamo denotato con h), un passo di griglia temporale ∆t > 0 e i punti di griglia (xj , tn ) come segue xj = j∆x,

tn = n∆t,

j ∈ Z,

n ∈ N.

Poniamo λ = ∆t/∆x, e definiamo xj+1/2 = xj + ∆x/2. Cerchiamo soluzioni discrete unj che forniscano una approssimazione ai valori u(xj , tn ) della soluzione esatta per ogni j e n. Per avanzare in tempo problemi ai valori iniziali di tipo iperbolico si ricorre spesso a metodi di tipo esplicito. Ogni metodo alle differenze finite di tipo esplicito pu` o essere scritto nella forma un+1 = unj − λ(hnj+1/2 − hnj−1/2 ), (8.51) j dove hnj+1/2 = h(unj , unj+1 ) per ogni j e h(·, ·) `e una funzione, da scegliersi in modo opportuno, detta flusso numerico. Illustriamo nel seguito diversi esempi di metodi espliciti per l’approssimazione del problema (8.47): 1. Eulero in avanti/centrato un+1 = unj − j

λ a(unj+1 − unj−1 ) 2

(8.52)

che pu` o essere scritto nella forma (8.51) ponendo hnj+1/2 =

1 a(unj+1 + unj ); 2

(8.53)

2. Lax-Friedrichs un+1 = j

λ 1 n (u + unj−1 ) − a(unj+1 − unj−1 ) 2 j+1 2

(8.54)

che risulta della forma (8.51) ponendo hnj+1/2 =

1 [a(unj+1 + unj ) − λ−1 (unj+1 − unj )]; 2

(8.55)

3. Lax-Wendroff un+1 = unj − j

λ2 λ a(unj+1 − unj−1 ) + a2 (unj+1 − 2unj + unj−1 ) (8.56) 2 2

che pu` o essere scritto nella forma (8.51) con la scelta hnj+1/2 =

1 [a(unj+1 + unj ) − λa2 (unj+1 − unj )]; 2

(8.57)

8.3 Equazioni iperboliche: un problema di trasporto scalare

283

4. Upwind (o Eulero in avanti/decentrato) = unj − un+1 j

λ λ a(unj+1 − unj−1 ) + |a|(unj+1 − 2unj + unj−1 ) (8.58) 2 2

che risulta della forma (8.51) se il flusso numerico `e definito come hnj+1/2 =

1 [a(unj+1 + unj ) − |a|(unj+1 − unj )]. 2

(8.59)

Gli ultimi tre metodi si possono ricavare a partire dal metodo di Eulero in avanti/centrato aggiungendo un termine proporzionale alla differenza finita centrata (4.9), in modo tale da poterli scrivere nella forma equivalente un+1 = unj − j

1 unj+1 − 2unj + unj−1 λ a(unj+1 − unj−1 ) + k . 2 2 (∆x)2

(8.60)

L’ultimo termine esprime la discretizzazione della derivata seconda k ∂2u (xj , tn ). 2 ∂x2 Il coefficiente k > 0 gioca il ruolo di coefficiente di viscosit`a artificiale. La sua espressione per i tre casi precedenti `e riportata nella Tabella 8.1.

f hdif τ (∆t, ∆x) j+1/2 ` 2 ´ 1 2 Lax-Friedrichs ∆x − (uj+1 − uj ) O ∆x /∆t + ∆t + ∆x 2λ ` ´ λa2 O ∆t2 + ∆x2 Lax-Wendroff a2 ∆t2 − (uj+1 − uj ) 2 |a| O(∆t + ∆x) upwind |a|∆x∆t − (uj+1 − uj ) 2

metodo

k

Tabella 8.1. Coefficienti di viscosit` a artificiale, flusso di diffusione artificiale ed errore di troncamento per i metodi di Lax-Friedrichs, Lax-Wendroff e upwind

Come conseguenza, il flusso numerico di ciascuno schema si pu`o scrivere in modo equivalente come dif f hj+1/2 = hEA j+1/2 + hj+1/2 ,

e il flusso numerico relativo al metodo di Eulero in avanti/cendove hEA j+1/2 ` trato (che `e dato dalla (8.53)) mentre il flusso di diffusione artificiale f e riportato per i tre casi in Tabella 8.1. hdif j+1/2 `

284

8 Metodi numerici per problemi ai limiti

Un esempio di metodo implicito `e fornito dal metodo di Eulero all’indietro/centrato λ n+1 n un+1 (8.61) + a(un+1 j+1 − uj−1 ) = uj . j 2 Anch’esso pu` o essere scritto nella forma (8.51) a patto di sostituire hn n+1 con h . Nel caso in esame, il flusso numerico `e il medesimo del metodo di Eulero in avanti/centrato. 8.3.2 Analisi dei metodi alle differenze finite per l’equazione scalare iperbolica L’analisi della convergenza dei metodi alle differenze finite introdotti nel paragrafo precedente richiede la verifica preliminare delle propriet` a di consistenza e stabilit`a. A titolo di esempio consideriamo il metodo (8.52) e studiamone la consistenza. Come illustrato nel paragrafo 7.3.1, indicando con u la soluzione del problema (8.47), l’errore di troncamento locale nel punto (xj , tn ) `e τjn =

u(xj+1 , tn ) − u(xj−1 , tn ) u(xj , tn+1 ) − u(xj , tn ) −a , ∆t 2∆x

mentre l’errore di troncamento (globale) `e τ (∆t, ∆x) = max|τjn |. j,n

Quando accade che τ (∆t, ∆x) tende a zero al tendere a zero di ∆t e di ∆x in modo indipendente, si dice che lo schema numerico `e consistente. Inoltre, diciamo che esso `e di ordine p in tempo e di ordine q in spazio (per valori opportuni degli interi p e q) se, per una soluzione esatta sufficientemente regolare, si ha τ (∆t, ∆x) = O(∆tp + ∆xq ). Infine, diciamo che uno schema numerico `e convergente (rispetto alla norma del massimo) se lim

max|u(xj , tn ) − unj | = 0.

∆t,∆x→0 j,n

Un impiego opportuno dello sviluppo in serie di Taylor permette di caratterizzare l’errore di troncamento dei metodi precedentemente introdotti come illustrato nella Tabella 8.1. Il metodo di Eulero in avanti (o all’indietro) centrato `e di ordine O(∆t + ∆x2 ).

8.3 Equazioni iperboliche: un problema di trasporto scalare

285

Per quanto concerne lo studio della stabilit` a, diciamo che un metodo numerico per un problema iperbolico (lineare o non lineare) si dice stabile se, per ogni tempo T , si possono determinare due costanti CT > 0 (eventualmente dipendente da T ) e δ0 > 0 tali che un ∆ ≤ CT u0 ∆ ,

(8.62)

per ogni n tale che n∆t ≤ T e per ogni ∆t, ∆x tali che 0 < ∆t ≤ δ0 , 0 < ∆x ≤ δ0 . Con il simbolo · ∆ abbiamo indicato un’opportuna norma discreta, ad esempio una di quelle riportate qui di seguito: ⎛ ⎞ p1 ∞ v ∆,p = ⎝∆x |vj |p ⎠ per p = 1, 2, v ∆,∞ = sup|vj |. (8.63) j

j=−∞

Courant, Friedrichs e Lewy [CFL28] hanno dimostrato che una condizione necessaria e sufficiente affinch´e uno schema esplicito della forma (8.51) sia stabile `e che i passi di discretizzazione temporale e spaziale obbediscano alla seguente condizione |aλ| ≤ 1, ovvero ∆t ≤

∆x |a|

(8.64)

nota come condizione CFL. La quantit` a aλ `e un numero adimensionale (in quanto a rappresenta una velocit` a) che viene indicato di solito come numero CFL. Se a non `e costante la condizione CFL diventa ∆t ≤

∆x . sup |a(x, t)| x∈R, t>0

` possibile dimostrare che: E 1. il metodo di Eulero in avanti/centrato (8.52) `e incondizionatamente instabile ovvero `e instabile per ogni scelta dei parametri ∆x > 0 e ∆t > 0; 2. il metodo upwind (o di Eulero in avanti/decentrato) (8.58) `e condizionatamente stabile rispetto alla norma · ∆,1 ovvero un ∆,1 ≤ u0 ∆,1

∀n ≥ 0,

a patto che sia soddisfatta la condizione CFL (8.64); un risultato analogo pu` o essere dimostrato anche per gli schemi di Lax-Friedrichs (8.54) e di Lax-Wendroff (8.56); 3. il metodo di Eulero all’indietro/centrato (8.61) `e incondizionatamente stabile rispetto alla norma · ∆,2 , ovvero per ogni ∆t > 0 un ∆,2 ≤ u0 ∆,2 Si veda l’Esercizio 8.11.

∀n ≥ 0.

286

8 Metodi numerici per problemi ai limiti

Per una dimostrazione dei risultati appena descritti si vedano ad esempio [QSS08, Cap. 12] e [Qua08, Cap. 7]. Vogliamo ora accennare a due caratteristiche salienti di un metodo numerico, quelle di dissipazione e di dispersione. A questo fine, supponiamo che il dato iniziale u0 (x) del problema (8.47) sia una funzione periodica con periodo 2π cosicch´e possiamo riscriverla come una serie di Fourier, ovvero ∞ u0 (x) = αk eikx , k=−∞

dove

αk =

1 2π





u0 (x)e−ikx dx

0

`e il k−simo coefficiente di Fourier. La soluzione esatta del problema (8.47) pu` o essere riscritta come u(xj , tn ) =



αk eikj∆x (gk )n

(8.65)

k=−∞

con gk = e−iak∆t , mentre la soluzione numerica unj , ottenuta con uno qualsiasi degli schemi introdotti nella sezione 8.3.1, assume la forma unj =



αk eikj∆x (γk )n ,

j ∈ Z,

n ∈ N.

(8.66)

k=−∞

L’espressione dei coefficienti γk ∈ C dipende dallo specifico schema numerico utilizzato; ad esempio per lo schema (8.52) si ha γk = 1 − aλi sin(k∆x). Osserviamo che, mentre |gk | = 1 per ogni k ∈ Z, le quantit` a |γk | dipendono dal fattore aλ (detto anche numero CFL) e quindi dalla discretizzazione scelta. In particolare si pu` o dimostrare che la condizione |γk | ≤ 1, ∀k ∈ Z `e necessaria e sufficiente a garantire la stabilit`a (8.62) di uno schema numerico qualora si consideri la norma · ∆,2 . Il numero γk `e detto coefficiente di dissipazione della frequenza k−sima ed il rapporto ǫa (k) = |γk |/|gk | = |γk | `e detto errore di dissipazione (o di amplificazione) della k−sima frequenza associata allo schema numerico. Ricordiamo che la soluzione esatta di (8.47) `e l’onda viaggiante u(x, t) = u0 (x − at) la cui ampiezza `e indipendente dal tempo; per la sua approssimazione numerica (8.66) succeder`a che tanto pi` u ǫa (k) `e piccolo, tanto maggiore sar` a la riduzione dell’ampiezza dell’onda, dunque, in definitiva, pi` u grande sar` a la dissipazione numerica. Risulta inoltre evidente che violare la condizione di stabilit` a comporta un aumento dell’ampiezza dell’onda e quindi un effetto di blow-up della soluzione numerica per tempi sufficientemente grandi.

8.3 Equazioni iperboliche: un problema di trasporto scalare

287

Oltre ad un effetto dissipativo, gli schemi numerici introducono anche un effetto dispersivo ovvero un ritardo o un anticipo nella propagazione dell’onda. Per rendercene conto riscriviamo gk e γk come segue: gk = e−iaλφk ,

ω

γk = |γk |e−iω∆t = |γk |e−i k λφk ,

essendo φk = k∆x il cosiddetto angolo di fase associato alla frequenza k−sima. Confrontando le due espressioni e ricordando che a rappresenta la velocit`a di propagazione dell’onda “esatta”, definiamo errore di dispersione ω legato alla frequenza k−sima la quantit` a ǫd (k) = ak = φω∆t . k aλ Nelle Figure 8.11 e 8.12 sono riportate la soluzione esatta del problema (8.47) con a = 1 e le soluzioni numeriche ottenute con alcuni degli schemi della sezione 8.3.1, qualora si scelga come dato iniziale un pacchetto di onde sinusoidali centrate nell’origine e con lunghezza d’onda ℓ = 1 (grafici a sinistra) e ℓ = 1/2 (grafici a destra). In entrambi i casi `e stato fissato numero CFL pari a 0.8. Per ℓ = 1 `e stato scelto ∆x = ℓ/20 = 1/20, in modo che φk = 2π∆x/ℓ = π/10 e ∆t = 1/25. Per ℓ = 1/2 `e stato scelto ∆x = ℓ/8 = 1/16, in modo che φk = π/4 e ∆t = 1/20. In Figura 8.13 ed in Figura 8.14 sono riportati rispettivamente gli errori di dissipazione e di dispersione al variare del numero CFL (grafici in alto) e dell’angolo di fase φk = k∆x (grafici in basso). Osserviamo dalla Figura 8.13 che, in corrispondenza di CFL=0.8, lo schema meno dissipativo `e quello di Lax-Wendroff, informazione che trova conferma nella rappresentazione delle soluzioni numeriche di Figura 8.12, sia per φk = π/10 che per φk = π/4. Per quanto riguarda l’errore di dispersione, sempre in corrispondenza di CFL=0.8, dalla Figura 8.14 emerge che upwind `e lo schema meno dispersivo con un leggero anticipo di fase, che lo schema di Lax-Friederichs ha un significativo anticipo di fase, mentre entrambi i metodi Lax-Wendroff e Eulero implicito/centrato presentano un ritardo di fase. Ci` o `e confermato dalle soluzioni numeriche riportate in Figura 8.11. Si noti come l’errore di dissipazione `e responsabile dell’abbattimento dell’ampiezza d’onda, quello di dispersione della sua inesatta velocit` a di propagazione. 8.3.3 Discretizzazione in spazio dell’equazione scalare iperbolica con elementi finiti Per costruire un’approssimazione semi–discreta del problema (8.47) si pu` o ricorrere al metodo di Galerkin (si veda il paragrafo 8.2.3). Assumiamo che a = a(x) > 0 ∀x ∈ [α, β], cosicch´e il punto x = α sia il bordo di inflow e che il valore al contorno vada imposto in tale punto. Sia ϕ una opportuna funzione nota al variare di t > 0 e completiamo il sistema (8.47) con la condizione al bordo

288

8 Metodi numerici per problemi ai limiti Lax−Friedrichs CFL=0.8, φ =π/4, t=0.4

Lax−Wendroff CFL=0.8, φ =π/4, t=0.4 k

1

0.8

0.8

0.6

0.6

0.4

0.4

0.2

0.2

u

u

k

1

0

0

−0.2

−0.2

−0.4

−0.4

−0.6

−0.6

−0.8

−0.8

−1 −0.5

−1 0

0.5

x

1

1.5

−0.5

1

1

0.8

0.8

0.6

0.6

0.4

0.4

0.2

0.2

0

0.5

x

1

1.5

0

−0.2

−0.2

−0.4

−0.4

−0.6

−0.6

−0.8

−0.8

−1 −0.5

0

Eulero−implicito CFL=0.8, φk=π/4, t=0.4

u

u

Upwind CFL=0.8, φk=π/4, t=0.4

−1 0

0.5

x

1

1.5

−0.5

0

0.5

x

1

1.5

Figura 8.11. Soluzione esatta (in linea tratteggiata) e soluzione numerica (in linea continua) all’istante t = 0.4 del problema (8.47) per a = 1 e dato iniziale pari ad un pacchetto di onde sinusoidali centrate nell’origine e con lunghezza d’onda ℓ = 1/2

u(α, t) = ϕ(t),

t > 0.

(8.67)

Dopo aver definito lo spazio Vhin = {vh ∈ Vh : vh (α) = 0}, consideriamo la seguente approssimazione agli elementi finiti del problema (8.47), (8.67): per ogni t ∈ (0, T ) trovare uh (t) ∈ Vh tale che ⎧ β β ⎪ ⎪ ∂uh (t) ⎨ ∂uh (t) vh dx + a vh dx = 0 ∀ vh ∈ Vhin , (8.68) ∂t ∂x ⎪ α ⎪ ⎩α in x = α, uh (t) = ϕh (t) con uh (0) = u0h ∈ Vh (u0h essendo una opportuna approssimazione ad elementi finiti del dato iniziale u0 , per esempio il suo interpolante a tratti). Per la discretizzazione temporale di (8.68) si possono utilizzare ancora schemi alle differenze finite. Se, ad esempio, impieghiamo il metodo

8.3 Equazioni iperboliche: un problema di trasporto scalare Lax−Friedrichs CFL=0.8, φ =π/10, t=1

Lax−Friedrichs CFL=0.8, φ =π/4, t=1 k

1

0.8

0.8

0.6

0.6

0.4

0.4

0.2

0.2

u

u

k

1

0

0

−0.2

−0.2

−0.4

−0.4

−0.6

−0.6

−0.8

−0.8

−1 −1

−1 −0.5

0

0.5

1

x

1.5

2

2.5

3

−1

−0.5

Lax−Wendroff CFL=0.8, φ =π/10, t=1 1 0.8

0.6

0.6

0.4

0.4

0.2

0.2

u

u

1

0

−0.2

−0.4

−0.4

−0.6

−0.6

−0.8

−0.8

−1 0

0.5

1

x

1.5

2

2.5

3

−1

1.5

2

2.5

3

−0.5

0

0.5

1

x

1.5

2

2.5

3

2.5

3

2.5

3

Upwind CFL=0.8, φk=π/4, t=1

1

1

0.8

0.8

0.6

0.6

0.4

0.4

0.2

0.2

u

u

x

−1 −0.5

Upwind CFL=0.8, φk=π/10, t=1

0

0

−0.2

−0.2

−0.4

−0.4

−0.6

−0.6

−0.8

−0.8

−1

−1 −0.5

0

0.5

1

x

1.5

2

2.5

3

−1

−0.5

Eulero−implicito CFL=0.8, φk=π/10, t=1

0

0.5

1

x

1.5

2

Eulero−implicito CFL=0.8, φk=π/4, t=1

1

1

0.8

0.8

0.6

0.6

0.4

0.4

0.2

0.2

u

u

1

0

−0.2

0

0

−0.2

−0.2

−0.4

−0.4

−0.6

−0.6

−0.8

−0.8

−1 −1

0.5

k

0.8

−1

0

Lax−Wendroff CFL=0.8, φ =π/4, t=1

k

−1

289

−1 −0.5

0

0.5

1

x

1.5

2

2.5

3

−1

−0.5

0

0.5

1

x

1.5

2

Figura 8.12. Soluzione esatta (in linea tratteggiata) e soluzione numerica (in linea continua) all’istante t = 1 del problema (8.47) per a = 1 e dato iniziale pari ad un pacchetto di onde sinusoidali centrate nell’origine e con lunghezza d’onda ℓ = 1 (grafici a sinistra) e ℓ = 1/2 (grafici a destra)

290

8 Metodi numerici per problemi ai limiti φk = π/10

1

φk = π/4

1

0.995

0.95 0.99

0.9

ǫa (k)

ǫa (k)

0.985 0.98

0.975

0.85

0.97

0.8

0.965 Lax−Fr Lax−We Upwind Eulero imp

0.96 0.955 0.95 0

0.2

0.4

0.6

0.8

CFL

Lax−Fr Lax−We Upwind Eulero imp

0.75

0.7 0

1

0.2

0.4

0.6

0.8

CFL

1

CFL=0.8

CFL=0.5 1

1

0.9

0.9

0.8 0.8

ǫa (k)

ǫa (k)

0.7 0.6 0.5 0.4

0.7 0.6 0.5

0.3 0.2 0.1 0 0

0.4

Lax−Fr Lax−We Upwind Eulero imp 0.5

0.3

1

1.5

2

2.5

3

φk = kΔx

3.5

0.2 0

Lax−Fr Lax−We Upwind Eulero imp 0.5

1

1.5

2

2.5

3

φk = kΔx

3.5

Figura 8.13. Errori di dissipazione φk = π/10

1.04 1.03 1.02

φk = π/4

1.4 Lax−Fr Lax−We Upwind Eulero imp

Lax−Fr Lax−We Upwind Eulero imp

1.3 1.2

ǫd (k)

ǫd (k)

1.01

1.1

1

0.99

1

0.98

0.9

0.97

0.8

0.96 0.95 0

0.2

0.4

0.6

0.8

CFL

1

0.7 0

0.2

0.4

CFL=0.5

CFL

0.6

0.8

1

CFL=0.8

2.5

1.4 1.2

2

ǫd (k)

ǫd (k)

1 1.5

0.8 0.6

1

0.4 0.5

0 0

Lax−Fr Lax−We Upwind Eulero imp 0.5

0.2

1

1.5

2

2.5

φk = kΔx

3

3.5

0 0

Lax−Fr Lax−We Upwind Eulero imp 0.5

1

1.5

Figura 8.14. Errori di dispersione

2

2.5

φk = kΔx

3

3.5

8.4 L’equazione delle onde

291

di Eulero all’indietro, per ogni n ≥ 0, si ottiene: trovare un+1 ∈ Vh tale h che 1 ∆t

β α

(un+1 h



unh )vh

dx +



a

∂un+1 h vh dx = 0 ∂x

α

∀vh ∈ Vhin , (8.69)

con un+1 (α) = ϕn+1 . h Se ϕ ≡ 0, possiamo concludere che unh L2 (α,β) ≤ u0,h L2 (α,β)

∀n ≥ 0,

ovvero lo schema di Eulero all’indietro `e incondizionatamente stabile ! 1/2 β 2 . rispetto alla norma vL2 (α,β) := α v (x)dx Si vedano gli Esercizi 8.10-8.14.

8.4 L’equazione delle onde Consideriamo ora la seguente equazione iperbolica del secondo ordine in una dimensione ∂2u ∂2u − c =f ∂t2 ∂x2

(8.70)

dove c `e una costante positiva assegnata. Quando f = 0, la soluzione generale di (8.70) `e l’onda viaggiante di d’Alembert √ √ u(x, t) = ψ1 ( ct − x) + ψ2 ( ct + x), (8.71) dove ψ1 e ψ2 sono funzioni arbitrarie. Nel seguito considereremo il problema (8.70) per x ∈ (a, b) e t > 0 e completeremo l’equazione differenziale con i dati iniziali u(x, 0) = u0 (x) e

∂u (x, 0) = v0 (x), x ∈ (a, b), ∂t

(8.72)

ed i dati al bordo u(a, t) = 0 e u(b, t) = 0, t > 0.

(8.73)

Consideriamo il caso in cui u rappresenti lo spostamento trasversale di una corda elastica vibrante di lunghezza b − a, fissata alle estremit`a, e c sia un coefficiente positivo che dipende dalla massa specifica della corda e dalla sua tensione. La corda `e soggetta ad una forza verticale di densit` a f . Le funzioni u0 (x) e v0 (x) rappresentano rispettivamente lo spostamento iniziale e la velocit`a iniziale dei punti della corda.

292

8 Metodi numerici per problemi ai limiti

Il cambio di variabile ω1 =

∂u , ∂x

ω2 =

∂u , ∂t

trasforma (8.70) nel sistema del primo ordine ∂ω ∂ω +A = f, ∂t ∂x

x ∈ (a, b), t > 0

(8.74)

dove ω=

(

) ( ) ( ) 0 −1 0 ω1 ,A= ,f= , ω2 −c 0 f

e le condizioni iniziali sono ω1 (x, 0) = u′0 (x) e ω2 (x, 0) = v0 (x) per x ∈ (a, b). In generale, possiamo considerare sistemi del tipo (8.74) dove ω, f : R × [0, ∞) → Rp e A ∈ Rp×p `e una matrice a coefficienti costanti. Il sistema `e detto iperbolico se A `e diagonalizzabile ed ha autovalori reali, cio`e se esiste una matrice non singolare T ∈ Rp×p tale che A = TΛT−1 , dove Λ = diag(λ1 , ..., λp ) `e la matrice diagonale degli autovalori reali di A, mentre T = (ω 1 , ω 2 , . . . , ω p ) `e la matrice i cui vettori colonna sono gli autovettori destri di A. Cos`ı Aω k = λk ω k ,

k = 1, . . . , p.

Introducendo le variabili caratteristiche w = T−1 ω, il sistema (8.74) diventa ∂w ∂w +Λ = g, ∂t ∂x dove g = T−1 f . Questo `e un sistema di p equazioni scalari independenti della forma ∂wk ∂wk + λk = gk , ∂t ∂x

k = 1, . . . , p.

(8.75)

Quando gk = 0, la sua soluzione `e data da wk (x, t) = wk (x − λk t, 0), k = 1, . . . , p e la soluzione ω = Tw del problema (8.74) con f = 0 pu` o essere scritta come ω(x, t) =

p

k=1

wk (x − λk t, 0)ω k .

8.4 L’equazione delle onde

293

La curva (xk (t), t) nel piano (x, t) che soddisfa x′k (t) = λk `e la k-sima curva caratteristica (si veda la sezione 8.3) e wk `e costante lungo di essa. Quindi ω(x, t) dipende solo dal dato iniziale nei punti x − λk t. Per questa ragione l’insieme dei p punti che formano i piedi delle caratteristiche uscenti dal punto (x, t), D(t, x) = {x ∈ R : x = x − λk t , k = 1, ..., p},

(8.76)

`e detto dominio di dipendenza della soluzione ω(x, t). Se (8.74) `e assegnato sull’intervallo limitato (a, b) invece che su tutto l’asse reale, il punto di inflow per ogni variabile caratteristica wk `e determinato dal segno di λk . Di conseguenza, il numero di autovalori positivi determina il numero di condizioni al bordo che possono essere assegnate in x = a, mentre in x = b bisogna assegnare un numero di condizioni pari al numero di autovalori negativi. Esempio 8.6 Il sistema (8.74) `e iperbolico perch´e A `e diagonalizzabile mediante la matrice 2 1 1 3 −√ √ c c5 T=4 1 1 √ e presenta due autovalori reali distinti ± c (rappresentanti le velocit` a di propagazione dell’onda). Inoltre, deve essere prescritta una condizione al bordo in ognuno dei due punti del bordo, come in (8.73). 

8.4.1 Discretizzazione dell’equazione delle onde A seconda che si consideri l’equazione delle onde del secondo ordine (8.70) o il sistema equivalente del primo ordine (8.74), possiamo utilizzare schemi di discretizzazione diversi. Per discretizzare in tempo l’equazione delle onde nella forma (8.70) possiamo utilizzare il metodo di Newmark gi`a proposto nel Capitolo 7 per le equazioni differenziali ordinarie del secondo ordine, oppure il metodo Leap-Frog. Denotando ancora con ∆t il passo temporale (uniforme) ed utilizzando per la discretizzazione in spazio il metodo classico delle differenze finite su una griglia di nodi xj = x0 + jh, j = 0, . . . , N + 1, x0 = a e xN +1 = b, otteniamo il seguente schema di Newmark: per ogni n ≥ 1 si cercano {unj , vjn , j = 1, . . . , N} tali che = unj + ∆tvjn un+1 j   +∆t2 ζ(cwjn+1 + f (tn+1 , xj )) + (1/2 − ζ)(cwjn + f (tn , xj )) , (8.77)   vjn+1 = vjn + ∆t (1 − θ)(cwjn + f (tn , xj )) + θ(cwjn+1 + f (tn+1 , xj )) ,

294

8 Metodi numerici per problemi ai limiti

con u0j = u0 (xj ), vj0 = v0 (xj ) e wjk = (ukj+1 − 2ukj + ukj−1 )/h2 per k = n o k = n + 1. Il sistema (8.77) deve essere completato imponendo le condizioni al bordo (8.73). Il metodo di Newmark `e implementato nel Programma 8.4. I parametri di input sono i vettori xspan=[a,b] e tspan=[0,T], il numero di intervalli della discretizzazione in spazio (nstep(1)) ed in tempo (nstep(2)), la stringa fun che contiene la funzione f (t, x(t)) e le stringhe u0 e v0 per definire il dato iniziale. Infine, il vettore param permette di specificare i coefficienti (param(1)=ζ, param(2)=θ). Ricordiamo che il metodo di Newmark `e accurato di ordine 2 rispetto a ∆t se θ = 1/2, altrimenti esso `e solo accurato di ordine 1 se θ = 1/2, e che la condizione θ ≥ 1/2 garantisce stabilit` a allo schema (si veda il paragrafo 7.9). Programma 8.4. newmarkwave: metodo di Newmark per l’equazione delle onde function [x , u ]= newmarkwave ( xspan , tspan , nstep , param ,... c , u0 , v0 ,g ,f , varargin ) % NEWMARKWAVE risolve l ’ equazione delle onde % con il metodo di Newmark % [X , U ]= NEWMARKWAVE ( XSPAN , TSPAN , NSTEP , PARAM ,C ,... % U0 , V0 ,G , F ) % risolve l ’ equazione delle onde % D ^2 U / DT ^2 - C D ^2 U / DX ^2 = F in % ( XSPAN (1) , XSPAN (2)) X ( TSPAN (1) , TSPAN (2)) con il % metodo di Newmark , con condizioni iniziali % U (X ,0)= U0 ( X ) , DU / DX (X ,0)= V0 ( X ) e condizioni al % bordo di Dirichlet U (X , T )= G (X , T ) in X = XSPAN (1) % ed in X = XSPAN (2). C e ’ una costante positiva , % F ,G , U0 e V0 sono inline function . % NSTEP (1) e ’ il numero di intervalli di spazio . % NSTEP (2) e ’ il numero di intervalli in tempo . % PARAM (1)= ZETA e PARAM (2)= THETA . % [X , U ]= NEWMARKWAVE ( XSPAN , TSPAN , NSTEP , PARAM ,C ,... % U0 , V0 ,G ,F , P1 , P2 ,...) passa i parametri addizio % nali P1 , P2 ,... alle funzioni U0 , V0 ,G , F . h = ( xspan (2) - xspan (1))/ nstep (1); dt = ( tspan (2) - tspan (1))/ nstep (2); zeta = param (1); theta = param (2); N = nstep (1)+1; e = ones (N ,1); D = spdiags ([ e -2* e e ] ,[ -1 ,0 ,1] , N , N ); I = speye ( N ); lambda = dt / h ; A = I - c * lambda ^2* zeta * D ; An = I + c * lambda ^2*(0.5 - zeta )* D ; A (1 ,:) = 0; A (1 ,1) = 1; A (N ,:) = 0; A (N , N ) = 1; x = linspace ( xspan (1) , xspan (2) , N ); x = x ’; fn = feval (f ,x , tspan (1) , varargin {:}); un = feval ( u0 ,x , varargin {:}); vn = feval ( v0 ,x , varargin {:}); [L , U ]= lu ( A ); alpha = dt ^2* zeta ; beta = dt ^2*(0.5 - zeta ); theta1 = 1 - theta ; for t = tspan (1)+ dt : dt : tspan (2) fn1 = feval (f ,x ,t , varargin {:});

8.4 L’equazione delle onde

295

rhs = An * un + dt * I * vn + alpha * fn1 + beta * fn ; temp = feval (g ,[ xspan (1) , xspan (2)] , t , varargin {:}); rhs ([1 , N ]) = temp ; u = L \ rhs ; u = U\u; v = vn + dt *((1 - theta )*( c * D * un / h ^2+ fn )+... theta *( c * D * u / h ^2+ fn1 )); fn = fn1 ; un = u ; vn = v ; end

Il metodo Leap-Frog applicato all’equazione (8.70), 2  ∆t n−1 n − 2u + u = c (unj+1 − 2unj + unj−1 ) un+1 j j j ∆x

(8.78)

`e ottenuto discretizzando sia la derivata temporale sia la derivata spaziale con la differenza finita centrata (8.12). Si pu` o dimostrare che entrambi i metodi di Newmark (8.77) e LeapFrog (8.78) sono accurati al second’ordine se ∆t = ∆x. Riguardo alla stabilit` a, si ha √che il metodo Leap-Frog `e stabile sotto la condizione CFL ∆t ≤ ∆x/ c, mentre il metodo di Newmark `e incondizionatamente stabile se 2ζ ≥ θ ≥ 21 (si veda [Joh90]). Esempio 8.7 Utilizzando il Programma 8.4 studiamo l’evoluzione della con2 dizione iniziale u0 (x) = e−10x per x ∈ (−2, 2). Questo significa prendere f ≡ 0 e c = 1 nell’equazione (8.70). Assumiamo che v0 = 0 e consideriamo condizioni al bordo di Dirichlet omogenee. In Figura 8.15 confrontiamo le soluzioni ottenute al tempo t = 3 con ∆x = 0.04 e passi temporali ∆t = 0.15 (linea tratteggiata), ∆t = 0.075 (linea continua) e ∆t = 0.0375 (linea tratto-punto). I parametri del metodo di Newmark sono θ = 1/2 e ζ = 0.25 e garantiscono accuratezza del secondo ordine e stabilit` a incondizionata al metodo. 

0.2

0.1

0

−0.1

−0.2

−0.3

−0.4

−0.5 −2

−1.5

−1

−0.5

0

0.5

1

1.5

2

Figura 8.15. Confronto tra le soluzioni ottenute con il metodo di Newmark per una discretizzazione con ∆x = 0.04 e ∆t = 0.15 (linea tratteggiata), ∆t = 0.075 (linea continua) e ∆t = 0.0375 (linea tratto-punto)

296

8 Metodi numerici per problemi ai limiti 1.4

1.2

1

0.8

0.6

0.4

0.2

0 −4

−3.5

−3

−2.5

−2

−1.5

−1

−0.5

0

Figura 8.16. Propagazione di un impulso di potenziale ottenuto risolvendo l’equazione delle onde (linea tratteggiata) e l’equazione del telegrafo (linea continua)

Esempio 8.8 (Elettrotecnica) In questo esempio consideriamo l’equazione (8.9) per modellare come il cavo di un telegrafo trasmette un impulso di potenziale. L’equazione `e una combinazione di un’equazione di diffusione e di un’equazione delle onde e tiene conto degli effetti della velocit`a finita in una equazione standard del trasporto della massa. In Figura 8.16 confrontiamo l’evoluzione di un impulso di tipo sinusoidale utilizzando l’equazione delle onde (8.70) (linea tratteggiata) e l’equazione del telegrafo (8.9) con c = 1, α = 2 e β = 1 (linea continua). Risulta evidente la presenza dell’effetto diffusivo nell’equazione del telegrafo. 

Come anticipato, un approccio alternativo ai metodi di Newmark e Leap-Frog consiste nel discretizzare il sistema equivalente del primo ordine (8.74). Consideriamo per semplicit` a il caso f = 0; possiamo generalizzare al caso del sistema iperbolico (8.74) il metodo di Lax-Wendroff e quello upwind rispettivamente, come segue: 1. metodo di Lax-Wendroff λ n n ωjn+1 = ωjn − A(ωj+1 − ωj−1 ) 2 2 λ n n + A2 (ωj+1 − 2ωjn + ωj−1 ); 2

(8.79)

2. metodo upwind (o Eulero in avanti/decentrato) λ n n − ωj−1 ) ωjn+1 = ωjn − A(ωj+1 2 λ n n ), − 2ωjn + ωj−1 + |A|(ωj+1 2

(8.80)

avendo posto |A| = T|Λ|T−1 ed essendo |Λ| la matrice diagonale dei moduli degli autovalori di A.

8.4 L’equazione delle onde

297

Lo schema di Lax-Wendroff `e accurato al secondo ordine (sia in tempo che in spazio), mentre il metodo upwind `e accurato al primo ordine. Riguardo alla stabilit` a, valgono le considerazioni svolte nel paragrafo 8.3.1, a patto di generalizzare la condizione CFL (8.64) come segue: ∆t
0, un ∆,2 ≤ u0 ∆,2

∀n ≥ 0.

(8.84)

Esercizio 8.12 Si dimostri che la soluzione fornita dallo schema upwind (8.58) soddisfa la stima un ∆,∞ ≤ u0 ∆,∞

∀n ≥ 0

(8.85)

a condizione che venga verificata la condizione CFL. La relazione (8.85) `e detta principio del massimo discreto.

300

8 Metodi numerici per problemi ai limiti

Esercizio 8.13 Si approssimi il problema (8.47) con a = 1, x ∈ (0, 0.5), t ∈ (0, 1), dato iniziale u0 (x) = 2 cos(4πx) + sin(20πx) e condizione al contorno u(0, t) = 2 cos(4πt) − sin(20πt) per t ∈ (0, 1) con gli schemi Lax-Wendroff (8.56) e upwind (8.58). Si fissi il numero di CFL pari a 0.5. Verificare numericamente che lo schema Lax-Wendroff `e accurato al secondo ordine sia rispetto a ∆x che a ∆t, mentre lo schema upwind `e accurato al primo ordine sia rispetto a ∆x che a ∆t. Si consideri la norma · ∆,2 per la valutazione dell’errore. Esercizio 8.14 In Figura 8.17 sono riportate la soluzione esatta e le soluzioni numeriche del problema (8.47) ottenute con gli schemi di Lax-Wendroff (8.56) e upwind (8.58) al tempo t = 5 ed avendo considerato i dati dell’esercizio 8.13. Sapendo che il numero di CFL `e 0.8 ed `e stato scelto ∆t = 5.e−3, commentare i risultati ottenuti (in termini di errore di dissipazione e di dispersione).

3

2

u

1

0

−1

−2

−3 0

Lax−We Upwind sol esatta 0.1

0.2

x

0.3

0.4

0.5

Figura 8.17. Soluzioni numeriche del problema (8.47) con i dati dell’esercizio 8.13 al tempo t = 5. Il numero di CFL `e 0.8

 "309=.32* )*,0. *7*6(.=. 4634378.

+M PTDRSN B@OHSNKN ENQMHQDLN KD RNKTYHNMH CDFKH DRDQBHYH OQNONRSH @KK@ MD CDH OQDBDCDMSH NSSN B@OHSNKH . DROQDRRHNMD =5NKTYHNMD ML D CH E@SSN TM@ UDQRHNMD @AAQDUH@S@ CH =5NKTYHNMD CDKK 'RDQBHYHN ML LRHLN 'RDQBHYHN CDKK MRHLN %@OHSNKN

 &4.8303  *'05&*)#  5TANNO IN     TUTTI I NUMERI DELLA FORMA 72   CON 72 !   ED ; INTERO COMPRESO FRA  E  (ISSATO L ESPONENTE SI POSSONO RAPPRESENTARE I SOLI NUMERI  E  A MENO DEL SEGNO DI CONSEGUENZA IN     SONO CONTENUTI  NUMERI +NOLTRE  !  *'05&*)#  (ISSATO L ESPONENTE ABBIAMO A DISPOSIZIONE  POSIZIONI PER LE CIFRE 72      7( E    PER LA CIFRA 71 CHE NON PU O ASSUMERE IL VALORE  +N TUTTO AVREMO PERCI O    ( 1 NUMERI RAPPRESENTABILI A MENO DEL SEGNO E PER ESPONENTE SSATO & ALTRA PARTE L ESPONENTE PU O ASSUMERE 4  ,   VALORI E QUINDI COMPLESSIVAMENTE L INSIEME  J , 4  E COSTITUITO DA    ( 1 4  ,   ELEMENTI *'05&*)#  2ER LA FORMULA DI 'ULERO SI HA ? ! ; 2 E QUINDI ? ! ;  2 CHE E UN NUMERO REALE +N MATLAB exp(-pi/2) ans = 0.2079 i^i ans = 0.2079 *'05&*)#  5I DEVONO DARE I COMANDI L=2*eye(10)-3*diag(ones(8,1),-2) E U=2*eye(10)-3*diag(ones(8,1),2)

Quarteroni, A., Saleri, F.: Calcolo Scientifico. © Springer-Verlag Italia, Milano, 2008

302

L(r,:)

9 Soluzione degli esercizi proposti

Soluzione 1.5 Per scambiare la terza con la settima riga della matrice triangolare inferiore costruita in precedenza, basta porre r=[1:10]; r(3)=7; r(7)=3; Lr=L(r,:). Si noti l’uso dei due punti in L(r,:) che indica che tutte le colonne di L devono essere percorse nell’ordine usuale. Per scambiare l’ottava colonna con la quarta, basta invece porre: c=[1:10]; c(8)=4; c(4)=8; Lc=L(:,c). Un analogo discorso vale per la matrice triangolare superiore. Soluzione 1.6 Si costruisce la matrice A = [v1;v2;v3;v4] dove v1, v2, v3 e v4 sono i vettori riga MATLAB corrispondenti ai 4 vettori dati. Siccome det(A)=0 i 4 vettori sono linearmente dipendenti. Soluzione 1.7 Utilizziamo i seguenti comandi per introdurre l’espressione simbolica delle funzioni f e g: syms x f=sqrt(x^2+1); pretty(f) (x2 +1)1/2 g=sin(x^3)+cosh(x); pretty(g) sin(x3 ) + cosh(x)

pretty

Si noti il comando pretty con il quale `e possibile avere una versione pi` u leggibile delle funzioni introdotte. A questo punto per calcolare le derivate prima e seconda, nonch´e l’integrale indefinito di f basta scrivere: diff(f,x) ans = 1/(x^2+1)^(1/2)*x diff(f,x,2) ans = -1/(x^2+1)^(3/2)*x^2+1/(x^2+1)^(1/2) int(f,x) ans = 1/2*x*(x^2+1)^(1/2)+1/2*asinh(x) Analoghe istruzioni valgono per la funzione g. Soluzione 1.8 L’accuratezza delle radici calcolate degrada rapidamente al crescere del grado del polinomio. Questo risultato ci deve mettere in guardia sull’accuratezza del calcolo delle radici di un polinomio di grado elevato. Soluzione 1.9 Una possibile implementazione `e la seguente: function I = sequence ( n ) I = zeros ( n +2 ,1); I (1) = ( exp (1) -1)/ exp (1); for i = 0: n , I ( i +2) = 1 - ( i +1)* I ( i +1); end Eseguendo questo programma con n = 20, si trova una successione di valori che diverge con segno alterno. Questo comportamento `e legato all’accumulo degli errori di arrotondamento.

9.1 Capitolo 1

303

Soluzione 1.10 L’andamento anomalo `e causato dagli errori di arrotondamento nel calcolo della sottrazione pi` u interna. Si osservi inoltre che nel momento in cui 41−n zn2 sar` a minore di ǫM /2, l’intera successione fornir`a tutti elementi nulli. Ci`o accade per n ≥ 29. Soluzione 1.11 Il metodo in esame `e un esempio di metodo di tipo Monte Carlo. Un programma che lo implementa `e il seguente: function mypi = pimontecarlo ( n ) x = rand (n ,1); y = rand (n ,1); z = x .^2+ y .^2; v = ( z x ¯ il metodo converge ad una essere applicato in quanto f ′ (¯ delle radici positive. Soluzione 2.11 Poniamo x(0) = 0 e tol= ǫM . Il metodo di Newton converge in 52 iterazioni al valore 0.641182411025299 mentre in Octave si ottiene

308

9 Soluzione degli esercizi proposti 0

2

10

−1

10

1.5

−2

10 1

−3

10 0.5

−4

10

0

−5

10

−6

−0.5

10 0

0.5

1

1.5

2

2.5

0

5

10

15

20

25

30

35

Figura 9.1. A sinistra: le due curve rappresentano le due possibili configurazioni del sistema di aste dell’Esercizio 2.9 al variare di β ∈ [0, 2π/3]. A destra: andamento dell’errore nel metodo di Newton per il calcolo dello zero di f (x) = x3 − 3x2 2−x + 3x4−x − 8−x (Soluzione 2.11) convergenza in 32 iterazioni a 0.641184396264531. Se consideriamo l’approssimazione di α ottenuta in MATLAB per studiare l’andamento dell’errore, scopriamo che esso decresce solo linearmente al crescere delle iterazioni. Il motivo `e legato al fatto che lo zero cercato `e uno zero multiplo per f (si veda la Figura 9.1, a destra). Si potrebbe in tal caso usare il metodo di Newton modificato. Soluzione p 2.12 Il problema consiste nel trovare lo zero della funzione f (x) = sin(x) − 2gh/v02 . Per questioni di simmetria possiamo restringere il nostro studio all’intervallo (0, π/2). Il metodo di Newton con x(0) = π/4, tol= 10−10 converge in 5 iterazioni alla radice 0.45862863227859. Soluzione 2.13 Con i dati indicati, la soluzione dell’esercizio passa attraverso le seguenti istruzioni: f = inline ( ’ 6000 -1000*(1+ x ).*((1+ x ).^5 - 1)./ x ’ ); df = inline ( ’ 1000*((1+ x ).^5.*(1 -5* x ) - 1)./( x .^2) ’ ); [ zero , res , niter ]= bisection (f ,0.01 ,0.1 ,1. e -12 ,5); [ zero , res , niter ]= newton (f , df , zero ,1. e -12 ,100); Il metodo di Newton converge al risultato cercato in 3 iterazioni. Soluzione 2.14 Il grafico della funzione mostra che la (2.35) ha uno zero in (π/6, π/4). Il metodo di Newton, richiamato con le seguenti istruzioni: f = inline ([ ’ - l2 * cos ( g + a )/ sin ( g + a )^2 - l1 * cos ( a )/ ’ ,... ’ sin ( a )^2 ’] , ’a ’ , ’g ’ , ’ l1 ’ , ’ l2 ’ ); df = inline ([ ’ l2 / sin ( g + a )+2* l2 * cos ( g + a )^2/ sin ( g + a )^3 ’ ,... ’+ l1 / sin ( a )+2* l1 * cos ( a )^2/ sin ( a )^3 ’] , ’a ’ , ’g ’ , ’ l1 ’ , ’ l2 ’ ); [ zero , res , niter ]= newton (f , df , pi /4 ,1. e -15 ,100 ,... 3* pi /5 ,8 ,10) converge al valore cercato, 0.596279927465474, in 6 iterazioni a partire da x(0) = π/4. La lunghezza massima sar` a allora pari a L = 30.5484.

9.2 Capitolo 2

309

Soluzione 2.15 Se α `e uno zero di molteplicit` a m per f , allora esiste una funzione h tale che h(α) = 0 e f (x) = h(x)(x − α)m . Calcolando la derivata prima della funzione di iterazione del metodo di Newton, φN , si ha φ′N (x) = 1 −

[f ′ (x)]2 − f (x)f ′′ (x) f (x)f ′′ (x) = . [f ′ (x)]2 [f ′ (x)]2

Sostituendo a f , f ′ e f ′′ le corrispondenti espressioni in funzione di h(x) e di (x − α)m , si ottiene limx→α φ′N (x) = 1 − 1/m, da cui φ′N (α) = 0 se e soltanto se m = 1. Di conseguenza, se m = 1 il metodo converge almeno quadraticamente per la (2.9). Se invece m > 1 il metodo converge con ordine 1 per la Proposizione 2.1. Soluzione 2.16 Da uno studio grafico, effettuato con i comandi: f = inline ( ’x ^3+4* x ^2 -10 ’ ); fplot (f ,[ -10 ,10]); grid on ; fplot (f ,[ -5 ,5]); grid on ; fplot (f ,[0 ,2]); grid on ; axis ([0 ,2 ,10 ,15]) si ricava che f ammette un solo zero reale pari a circa 1.36 (in Figura 9.2 a sinistra viene riportato l’ultimo grafico ottenuto). La funzione di iterazione e la sua derivata sono: 2x3 + 4x2 + 10 f (x) =− 2 + x, 3x2 + 8x 3x + 8x (6x2 + 8x)(3x2 + 8x) − (6x + 8)(2x3 + 4x2 + 10) φ′ (x) = (3x2 + 8x)2 (6x + 8)f (x) , = (3x2 + 8x)2

φ(x) =

e φ(α) = α. Sostituendo il valore di α, si ricava φ′ (α) = 0. Di conseguenza, il metodo proposto `e convergente con ordine 2. Soluzione 2.17 Il metodo in esame `e almeno del second’ordine in quanto φ′ (α) = 0. Soluzione 2.18 Mantenendo invariati i restanti parametri, si trova che il metodo ora converge in 30 iterazioni allo zero 0.641182210863894 con una discrepanza dell’ordine di 10−7 sul risultato calcolato nella Soluzione 2.11. L’andamento della funzione, estremamente schiacciato in prossimit`a dello zero, ci autorizza per` o a ritenere maggiormente accurato il valore calcolato in precedenza. In Figura 9.2 (a destra), riportiamo il grafico di f in (0.5, 0.7) ottenuto con i seguenti comandi: f = inline ( ’x ^3 -3* x ^2*2^( - x ) + 3* x *4^( - x ) - 8^( - x ) ’ ); fplot (f ,[0.5 0.7]); grid on

310

9 Soluzione degli esercizi proposti −3

15

1

10

−1

x 10

0

−2 −3

5

−4 −5

0

−6 −7

−5

−8 −10 0

0.5

1

1.5

2

−9 0.5

0.55

0.6

0.65

0.7

Figura 9.2. A sinistra il grafico di f (x) = x3 +4x2 −10 per x ∈ [0, 2] (Soluzione 2.16). A destra il grafico di f (x) = x3 − 3x2 2−x + 3x4−x − 8−x per x ∈ [0.5, 0.7] (Soluzione 2.18)

9.3 Capitolo 3 Soluzione 3.1 Osserviamo che se x ∈ (x0 , xn ) allora deve esistere un intervallo Ii = (xi−1 , xi ) tale che x ∈ Ii . Si ricava facilmente che il maxx∈Ii |(x − xi−1 )(x − xi )| = h2 /4. Se ora maggioriamo |x − xi+1 | con 2h, |x − xi+2 | con 3h e cos`ı via, troviamo la stima (3.6). Soluzione 3.2 Essendo n = 4 in tutti i casi, dovremo maggiorare la derivata (5) quinta di ciascuna funzione sugli intervalli dati. Si trova: max x∈[−1,1] |f1 | = (5) (5) 1.18; maxx∈[−1,1] |f2 | = 1.54; maxx∈[−π/2,π/2] |f3 | = 1.41. Grazie alla (3.7), gli errori corrispondenti sono allora limitati superiormente da 0.0018, 0.0024 e 0.0211, rispettivamente. Soluzione 3.3 Tramite il comando polyfit di MATLAB si calcolano i polinomi interpolatori di grado 3 nei due casi: anni =[1975 1980 1985 1990]; eor =[70.2 70.2 70.3 71.2]; eoc =[72.8 74.2 75.2 76.4]; cor = polyfit ( anni , eor ,3); coc = polyfit ( anni , eoc ,3); stimaor = polyval ( cor ,[1970 1983 1988 1995]); stimaoc = polyval ( coc ,[1970 1983 1988 1995]); stimaor = 69.6000 stimaoc = 70.4000

70.2032

70.6992

73.6000

74.8096

75.8576

78.4000

Per l’Europa occidentale l’aspettativa di vita stimata per il 1970 risulta dunque pari a 70.4 anni (stimaoc(1)), con una sottostima di 1.4 anni rispetto al valore noto di 71.8 anni. Vista la simmetria del grafico del polinomio interpolatore ci si pu` o aspettare che la previsione per il 1995, pari a 78.4 anni, sia sovrastimata della medesima quantit`a (l’aspettativa reale `e in realt` a leggermente inferiore e pari a 77.5 anni). Non vale lo stesso ragionamento per l’altro insieme di dati: in

9.3 Capitolo 3

311

tal caso infatti l’estrapolato relativo al 1970 coincide addirittura con il valore reale, mentre il valore previsto per il 1995 `e ampiamente sovrastimato (73.6 anni contro 71.2 anni). Soluzione 3.4 Supponiamo di utilizzare come unit` a di tempo il mese a partire da t0 = 1 in corrispondenza del mese di novembre del 1986, fino a t7 = 157, corrispondente al mese di novembre del 1999. Dando i seguenti comandi: tempo = [1 14 37 63 87 99 109 157]; prezzo = [4.5 5 6 6.5 7 7.5 8 8]; [ c ] = polyfit ( tempo , prezzo ,7); calcoliamo i coefficienti del polinomio interpolatore. Ponendo [prezzo2001]= polyval(c,181) si trova che il prezzo previsto a novembre del 2001 `e di circa 11.24 euro. Soluzione 3.5 In questo caso particolare, per cui abbiamo 4 nodi di interpolazione, la spline cubica interpolatoria calcolata con il comando spline coincide con il polinomio interpolatore. Infatti la spline calcolata interpola i dati, ha derivate prima e seconda continue ed ha derivata terza continua negli unici nodi interni x1 e x2 , per via della condizione not-a-knot. Si sarebbe trovato un risultato diverso utilizzando una spline cubica interpolatoria naturale. Soluzione 3.6 Basta scrivere le seguenti istruzioni: T = [4:4:20]; rho =[1000.7794 ,1000.6427 ,1000.2805 ,999.7165 ,998.9700]; Tnew = [6:4:18]; format long e ; rhonew = spline (T , rho , Tnew ) rhonew = Columns 1 through 2 1.000740787500000e+03 Columns 3 through 4 1.000022450000000e+03

1.000488237500000e+03 9.993649250000000e+02

Il confronto con le nuove misure consente di affermare che l’approssimazione considerata `e estremamente accurata. Si noti che l’equazione di stato internazionale per l’acqua marina (UNESCO, 1980) postula una dipendenza del quart’ordine fra densit` a e temperatura; tuttavia, approssimando la densit` a con una spline cubica, si ottiene una buona corrispondenza con i valori reali in quanto il coefficiente relativo alla potenza quarta di T `e dell’ordine di 10−9 . Soluzione 3.7 Confrontiamo tra loro i risultati ottenuti usando la spline cubica interpolatoria generata dal comando spline di MATLAB (che indicheremo con s3), quella naturale (s3n) e quella con derivata prima nulla agli estremi (s3d) (ottenuta con il Programma 3.1). Basta scrivere i seguenti comandi: anno =[1965 1970 1980 1985 1990 1991]; produzione =[17769 24001 25961 34336 29036 33417]; z =[1962:0.1: 19 9 2] ; s3 = spline ( anno , produzione , z ); s3n = cubicspline ( anno , produzione , z ); s3d = cubicspline ( anno , produzione ,z ,0 ,[0 0]);

312

9 Soluzione degli esercizi proposti 4

4.5

x 10

1.5

4

1

3.5 0.5

3 0

2.5 2

−0.5

1.5 −1

1 0.5 1960

1965

1970

1975

1980

1985

1990

1995

−1.5 −1

−0.5

0

0.5

1

Figura 9.3. A sinistra: confronto fra i grafici delle spline cubiche generate nel corso della Soluzione 3.7: s3 in linea continua, s3d in linea tratteggiata, s3n in linea tratto-punto. I cerchietti rappresentano i valori interpolati. A destra: il polinomio interpolatore (in linea tratteggiata) e la spline cubica interpolatoria (in linea continua) a confronto nel caso in cui si usino dati perturbati (Soluzione 3.8). Si noti lo scollamento fra i due grafici agli estremi dell’intervallo

Nella tabella seguente riportiamo i valori ottenuti (in migliaia di quintali di agrumi): anno s3(×105 Kg) s3n(×105 Kg) s3d(×105 Kg)

1962 5146.1 13285.3 24313.0

1977 22641.8 22934.2 23126.0

1992 41894.4 37798.0 22165.8

Il confronto con i dati effettivamente misurati (12380, 27403 e 32059 in migliaia di quintali) mostra come la spline naturale sia in questo caso la pi` u affidabile al di fuori degli estremi dell’intervallo di interpolazione (si veda anche la Figura 9.3 a sinistra). Il polinomio interpolatore di Lagrange si dimostra decisamente meno affidabile: presenta un andamento molto oscillante e fornisce per il 1962 una previsione di produzione pari a −77685 migliaia di quintali di agrumi. Soluzione 3.8 Per ricavare il polinomio interpolatore p e la spline s3, basta scrivere le seguenti istruzioni: pert = 1. e -04; x =[ -1:2/20:1]; y = sin (2* pi * x )+( -1).^[1:21]* pert ; z =[ -1:0.01:1]; c = polyfit (x ,y ,20); p = polyval (c , z ); s3 = spline (x ,y , z ); Quando usiamo i dati non perturbati (pert=0) i grafici di p e s3 non sono distinguibili da quello della funzione f data. La situazione cambia drasticamente se si usano i dati perturbati (per=1.e-04). In particolare il polinomio interpolatore presenta delle forti oscillazioni agli estremi dell’intervallo mentre la spline si mantiene sostanzialmente immutata (si veda la Figura 9.3 a destra). Questo esempio mostra come l’approssimazione con funzioni spline sia dunque pi` u stabile rispetto alle piccole perturbazioni, di quanto non lo sia l’interpolazione polinomiale di Lagrange.

9.3 Capitolo 3

313

Soluzione 3.9 Se n = m, ponendo f˜ = Πn f si ha addirittura 0 a primo membro della (3.24) e quindi Πn f `e soluzione del problema dei minimi quadrati. Essendo il polinomio interpolatore unico, si deduce che questa `e l’unica soluzione del problema dei minimi quadrati. Soluzione 3.10 I polinomi hanno i seguenti coefficienti (riportati con le sole prime 4 cifre significative ed ottenuti con il comando polyfit): K = 0.67, a4 = 7.211 10−8 , a3 = −6.088 10−7 , a2 = −2.988 10−4 , a1 1.650 10−3 , a0 = −3.030; K = 1.5, a4 = −6.492 10−8 , a3 = −7.559 10−7 , a2 = 3.788 10−4 , a1 1.67310−3 , a0 = 3.149; K = 2, a4 = −1.050 10−7 , a3 = 7.130 10−8 , a2 = 7.044 10−4 , a1 −3.828 10−4 , a0 = 4.926; K = 3, a4 = −2.319 10−7 , a3 = 7.740 10−7 , a2 = 1.419 10−3 , a1 −2.574 10−3 , a0 = 7.315.

= = = =

A sinistra di Figura 9.4 riportiamo il polinomio ottenuto per i dati della colonna relativa a K = 0.67 nella Tabella 3.1. Soluzione 3.11 Ripetendo le prime 3 istruzioni della Soluzione 3.7 e richiamando il comando polyfit, si trovano i seguenti valori (in migliaia di quintali di arance): 1962, 15280.12; 1977, 27407.10; 1992, 32019.01. Essi sono delle ottime approssimazioni dei valori effettivamente misurati (12380, 27403 e 32059 rispettivamente). Pn 2 2 1 Soluzione 3.12 La varianza pu` o essere riscritta come v = n+1 i=0 xi −M . Ed `e proprio utilizzando questa espressione che `e possibile scrivere i coefficienti del sistema (3.26) in termini di media e di varianza. Soluzione 3.13 La propriet` a cercata si ricava immediatamente dalla prima equazione del sistema (3.26). −3

35

−3.05

30

−3.1

25

20

−3.15

15

−3.2 10

−3.25 5

−3.3 0

−3.35 −5

−3.4 −60

−40

−20

0

20

40

60

80

−10

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

Figura 9.4. A sinistra: polinomio di grado 4 dei minimi quadrati (in linea piena) a confronto con i dati della colonna di Tabella 3.1 per K = 0.67 (Soluzione 3.10). A destra: l’interpolatore trigonometrico ottenuto con le istruzioni della Soluzione 3.14. I pallini si riferiscono ai dati sperimentali disponibili

314

9 Soluzione degli esercizi proposti

` sufficiente utilizzare il comando interpft come segue: Soluzione 3.14 E discharge = [0 35 0.125 5 0 5 1 0.5 0.125 0]; y = interpft ( discharge ,100); Il grafico della soluzione ottenuta `e riportato a destra di Figura 9.4.

9.4 Capitolo 4 Soluzione 4.1 Verifichiamo l’ordine della formula relativa a x0 (per quella relativa a xn si eseguono calcoli del tutto analoghi). Sviluppando in serie di Taylor f (x1 ) e f (x2 ) rispetto a x0 , troviamo 3

2

f (x1 ) = f (x0 ) + hf ′ (x0 ) + h2 f ′′ (x0 ) + h6 f ′′′ (ξ1 ), 3 f (x2 ) = f (x0 ) + 2hf ′ (x0 ) + 2h2 f ′′ (x0 ) + 4h3 f ′′′ (ξ2 ), dove ξ1 ∈ (x0 , x1 ) e ξ2 ∈ (x0 , x2 ). Sostituendo queste espressioni nella prima formula di (4.11), si trova: 1 h2 ′′′ [−3f (x0 ) + 4f (x1 ) − f (x2 )] = f ′ (x0 ) + [f (ξ1 ) − 2f ′′′ (ξ2 )], 2h 3 da cui il risultato cercato per un opportuno ξ0 ∈ (x0 , x2 ). Soluzione 4.2 Sviluppiamo f (¯ x ± h) in serie di Taylor in avanti e all’indietro rispetto al punto x ¯, troncandone lo sviluppo al terz’ordine. Avremo: x) + f (¯ x ± h) = f (¯ x) ± hf ′ (¯

h3 ′′′ h2 ′′ x) ± f (¯ f (ξ± ), 2 6

con ξ− ∈ (¯ x − h, x ¯) e ξ+ ∈ (¯ x, x ¯ + h). Se sottraiamo f (¯ x − h) da f (¯ x + h), troviamo f (¯ x + h) − f (¯ x − h) = 2hf ′ (¯ x) +

h3 ′′′ (f (ξ+ ) + f ′′′ (ξ− )), 6

da cui, dividendo per 2h ed isolando f ′ (¯ x), si conclude che la (4.9) `e una approssimazione di ordine 2 della derivata prima e si ritrova la formula (4.10). Soluzione 4.3 Eseguendo operazioni analoghe a quelle indicate nella Soluzione 4.2, si trovano i seguenti errori (supponendo f ∈ C 4 ): a. −

1 (4) f (ξ)h3 , 4

b. −

1 (4) f (ξ)h3 , 12

c.

1 (4) f (ξ)h3 . 6

Soluzione 4.4 Usiamo l’approssimazione (4.9). Si trovano i seguenti valori t (mesi) 0 δn −− −− n′

0.5 78 77.91

1 45 39.16

1.5 19 15.36

2 7 5.91

2.5 3 1.99

3 −− −−

che, come risulta dal confronto con i valori esatti di n′ (t) calcolati negli stessi istanti, sono abbastanza accurati.

9.4 Capitolo 4

315

Soluzione 4.5 L’errore di quadratura commesso con la formula composita del punto medio pu` o essere maggiorato con (b − a)3 /(24M 2 ) max |f ′′ (x)|, x∈[a,b]

essendo [a, b] l’intervallo di integrazione e M il numero (incognito) di intervalli. a per ogni ordine. Con uno studio La funzione f1 `e derivabile con continuit` grafico, si deduce che |f1′′ (x)| ≤ 2 nell’intervallo considerato. Affinch´e dunque l’errore sia minore di 10−4 si dovr` a avere 2 · 53 /(24M 2 ) < 10−4 cio`e M > 322. Anche la funzione f2 `e derivabile √ per ogni ordine. Con un semplice studio si ricava che maxx∈[0,π] |f2′′ (x)| = 2e3π/4 ; di conseguenza, perch´e l’errore sia minore di 10−4 dovr` a essere M > 439. Si noti che le stime ottenute maggiorano ampiamente l’errore e, di conseguenza, il numero minimo di intervalli che garantisce un errore inferiore alla tolleranza fissata `e assai minore (ad esempio, per f1 bastano soltanto 71 intervalli). La funzione f3 non ha derivata prima definita in x = 0 e x = 1: non si pu` o quindi applicare la stima dell’errore riportata in quanto f3 ∈ C 2 ([0, 1]). Soluzione 4.6 Su ciascun intervallo Ik , k = 1, . . . , M , si commette un errore (ξk ) con ξk ∈ [xk−1 , xk ]. Di conseguenza, l’errore totale sar` a pari a H 3 /24f ′′ P ′′ dato da H 3 /24 M Essendo f ′′ continua in [a, b] esiste un punto k=1 f (ξk ).P M ′′ 1 ξ ∈ [a, b] tale che f ′′ (ξ) = M k=1 f (ξk ). Usando tale risultato e ricordando che M H = b − a si ricava immediatamente la (4.14). ` legata all’accumulo degli errori che si commettono su ciaSoluzione 4.7 E scun sottointervallo. Soluzione 4.8 La formula del punto medio integra per definizione in modo esatto le costanti. Per controllare che integri esattamente anche i polinomi di grado 1, basta verificare che I(x) = IP M (x). Abbiamo in effetti: I(x) =

Zb

x dx =

b2 − a 2 , 2

IP M (x) = (b − a)

b+a . 2

a

Soluzione 4.9 Per la funzione f1 si trova M = 71 se si usa la formula del trapezio e M = 8 per la formula composita di Gauss-Legendre con n = 1 (per questa formula si pu` o usare il Programma 9.1). Come si vede il vantaggio nell’uso di quest’ultima formula `e estremamente rilevante. Programma 9.1. gausslegendre: formula composita di quadratura di GaussLegendre con n = 1 function intGL = gausslegendre (a ,b ,f ,M , varargin ) y = [ -1/ sqrt (3) ,1/ sqrt (3)]; H2 = (b - a )/(2* M ); z = [ a :2* H2 : b ]; zM = ( z (1: end -1)+ z (2: end ))*0.5; x = [ zM + H2 * y (1) , zM + H2 * y (2)]; f = feval (f ,x , varargin {:}); intGL = H2 * sum ( f ); return

316

9 Soluzione degli esercizi proposti

Soluzione 4.10 Dalla (4.18) sappiamo che l’errore di quadratura per la forb − a ′′ mula composita del trapezio con H = H1 `e pari a CH12 con C = − f (ξ). 12 ′′ Se f non varia molto, possiamo pensare che anche l’errore per H = H2 sia ancora della forma CH22 . Allora, sottraendo le espressioni I(f ) = I1 + CH12 ,

I(f ) = I2 + CH22 ,

(9.3)

possiamo calcolare la costante C come C=

I1 − I2 H22 − H12

e, sostituendo tale valore in una delle due uguaglianze di (9.3), troviamo la (4.32). Soluzione 4.11 Imponiamo che Iapprox (xp ) = I(xp ) per p ≥ 0. Troviamo il seguente sistema di equazioni non lineari nelle incognite α, β, x ¯ e z¯: p = 0 → α + β = b − a, b2 − a 2 , p = 1 → α¯ x + β z¯ = 2 b3 − a 3 p = 2 → α¯ x2 + β z¯2 = , 3 b4 − a 4 . p = 3 → α¯ x3 + β z¯3 = 4 Ci siamo arrestati a p = 3 avendo ottenuto un sistema a 4 incognite e 4 equazioni. Se si ricavano dalle prime due equazioni α e z¯ e si sostituiscono nelle ultime due, si trova un sistema non lineare nelle sole β e x ¯. A questo punto, risolvendo un’equazione di secondo grado in β, si ricava β in funzione di x ¯ e si perviene ad un’equazione non lineare nella sola x ¯ . Utilizzando ad esempio il metodo di Newton per la sua risoluzione, si trovano per x ¯ due possibili valori che coincidono proprio con le ascisse dei nodi di quadratura di Gauss-Legendre per n = 1. Soluzione 4.12 Abbiamo: (4)

f1 (x) = 24 (4)

1 − 10(x − π)2 + 5(x − π)4 , (1 + (x − π)2 )5

f2 (x) = −4ex cos(x). (4)

(4)

Pertanto il massimo di |f1 (x)| `e limitato da M1 ≃ 23, quello di |f2 (x)| da M2 ≃ 18. Di conseguenza, per la (4.22) si trova nel primo caso H < 0.21 e nel secondo H < 0.16. Soluzione 4.13 Con il comando MATLAB eval(int(’exp(-xˆ2/2)’,0,2)) ricaviamo che l’integrale in questione vale circa 1.19628801332261. Il calcolo con la formula di Gauss-Legendre implementata nel Programma 9.1 (con M = 1) fornisce il valore 1.20278027622354 (con un errore assoluto pari a 6.4923e03), mentre per la formula di Simpson semplice si ha 1.18715264069572 con un errore assoluto pari a 9.1354e-03.

9.4 Capitolo 4

317

Soluzione 4.14 Si noti che, essendo la funzione integranda non negativa, allora Ik > 0 ∀k. La formula ricorsiva proposta risulta per` o instabile a causa degli errori di arrotondamento come si vede dando i seguenti comandi MATLAB: I(1)=1/exp(1); for k=2:20, I(k)=1-k*I(k-1); end In MATLAB si ottiene I(20) = 104.86, mentre in Octave I(20) = -30.1924. Utilizzando la formula di Simpson con H < 0.0625 si ottiene l’accuratezza richiesta. Soluzione 4.15 L’idea dell’estrapolazione di Richardson `e generale e pu` o dunque essere applicata ad una qualunque formula di quadratura. Basta prestare attenzione all’ordine di accuratezza della formula. In particolare, per la formula di Simpson e per quella di Gauss (entrambe accurate con ordine 4) la (4.32) diventer` a: IR = I1 + (I1 − I2 )/(H24 /H14 − 1). Per la formula di Simpson si trovano i seguenti valori: I1 = 1.19616568040561, I2 = 1.19628173356793, IR = 1.19628947044542, con un errore I(f ) − IR = −1.4571e − 06 inferiore di due ordini di grandezza rispetto a I1 e di un fattore 1/4 rispetto ad I2 . Per la formula di GaussLegendre si trovano invece i seguenti valori (tra parentesi vengono riportati gli errori commessi): I1 = 1.19637085545393 (−8.2842e − 05), I2 = 1.19629221796844 (−4.2046e − 06), IR = 1.19628697546941 (1.0379e − 06). Anche in questo caso `e evidente il vantaggio dell’estrapolazione di Richardson. Soluzione 4.16 Dobbiamo approssimare con la formula di Simpson compoRr sita i valori j(r, 0) = σ/(ε0 r 2 ) 0 f (ξ)dξ con r = k/10, per k = 1, . . . , 10 e f (ξ) = eξ ξ 2 . Per stimare l’errore dobbiamo calcolare la derivata quarta della funzione integranda. Si trova f (4) (ξ) = eξ (ξ 2 + 8ξ + 12). Essendo una funzione monotona crescente nell’intervallo [0, 1], assumer` a il massimo sempre nel secondo estremo di integrazione. Affinch´e l’errore sia minore di 10−10 si dovr` a allora richiedere che H 4 < 10−10 2880/(rf (4) (r)). Il numero di sottointervalli M necessari per verificare tale disuguaglianza `e allora dato, al variare di r = k/10 con k = 1, . . . , 10, da: r =[0.1:0.1:1] ; maxf4 = exp ( r ).*( r .^2+8* r +12); H =(10^( -10)*2880./( r .* maxf4 )).^(1/4); M = fix ( r ./ H ) M = 4

11

20

30

41

53

67

83

100

I valori di j(r, 0) sono allora ottenuti con i seguenti comandi:

118

318

9 Soluzione degli esercizi proposti

sigma =0.36; epsilon0 = 8.859 e -12; f = inline ( ’ exp ( x ).* x .^2 ’ ); for k = 1:10 r = k /10; j ( k )= simpsonc (0 , r , M ( k ) , f ); j ( k ) = j ( k )* sigma /( r ^2* epsilon0 ); end Soluzione 4.17 Calcoliamo E(213) con la formula di Simpson composita facendo crescere il numero di intervalli finch´e la differenza fra due approssimazioni successive (divisa per l’ultimo valore calcolato) non `e inferiore a 10−11 : f = inline ( ’ 1./( x .^5.*( exp (1.432./(213* x )) -1)) ’ ); a =3. e -04; b =14. e -04; i =1; err = 1; Iold = 0; while err >= 1. e -11 I =2.39 e -11* simpsonc (a ,b ,i , f ); err = abs (I - Iold )/ abs ( I ); Iold = I ; i = i +1; end Il ciclo si conclude per i = 59. Servono perci` o 58 intervalli equispaziati per ottenere l’integrale E(213) accurato fino alla decima cifra significativa. Qualora si usi la formula di Gauss-Legendre serviranno invece 53 intervalli. Si osserva che se avessimo utilizzato la formula composita dei trapezi sarebbero stati necessari 1609 punti. Soluzione 4.18 Globalmente la funzione data non ha la regolarit`a richiesta per poter controllare l’errore con nessuna delle formule proposte. L’idea risolutiva consiste nell’applicare la formula di Simpson composita in ciascuno dei due sottointervalli [0, 0.5] e [0.5, 1] al cui interno la funzione data viene addirittura integrata esattamente (essendo un polinomio di grado 2).

9.5 Capitolo 5 Soluzione 5.1 Indichiamo con xn il numero di operazioni (somme, sottrazioni e moltiplicazioni) richiesto per il calcolo di un determinante di una matrice n × n con la regola di Laplace. Vale la seguente formula ricorsiva xk − kxk−1 = 2k − 1,

k ≥ 2,

avendo posto x1 = 0. Dividendo entrambi i termini dell’equazione per k! si ha xk xk−1 2k − 1 − = k! k! k! e sommando su k da 2 a n troviamo n X 2k − 1 . xn = n! k! k=2

9.5 Capitolo 5

Ricordando che

319

∞ X 1 = e, si ha k! k=0

n X 2k − 1 k=2

k!

n−1 X

=2

n

X1 1 − ≃ 2.718, k! k=2 k! k=1

e xn ≃ 3n!. Si osserva a questo punto che per risolvere un sistema lineare quadrato di dimensione n con il metodo di Cramer (si veda la Sezione 5.2) servono in tutto circa 3(n + 1)! operazioni elementari. Soluzione 5.2 Utilizziamo i seguenti comandi MATLAB per calcolare i determinanti ed i tempi di CPU necessari: t = []; NN =3:500; for n = NN A = magic ( n ); tt = cputime ; d = det ( A ); t =[ t , cputime - tt ]; end Calcoliamo i coefficienti del polinomio dei minimi quadrati di grado 3 che approssima i dati NN=[3:500] e t. Troviamo: c = polyfit ( NN ,t ,3) c = 1.4055e-10

7.1570e-08

-3.6686e-06

3.1897e-04

Il primo coefficiente `e piccolo (quello relativo a n3 ), ma non trascurabile rispetto al secondo. Se calcoliamo i coefficienti del polinomio di grado 4, otteniamo i seguenti valori: c = polyfit ( NN ,t ,4) c = 7.6406e-15

1.3286e-10

7.4064e-08

-3.9505e-06

3.2637e-04

Stavolta, il primo coefficiente `e trascurabile rispetto al secondo e quindi possiamo concludere che il tempo di calcolo si comporta approssimativamente come n3 . Soluzione 5.3 Si trova: detA1 = 1, detA2 = ε, detA3 = detA = 2ε + 12. Di conseguenza, se ε = 0 la seconda sottomatrice principale `e singolare e la Proposizione 5.1 non `e pi` u valida. La matrice `e singolare se ε = −6: in tal caso la fattorizzazione di Gauss pu` o comunque essere portata a termine e si trova 2 3 2 3 10 0 17 3 0 5 , U = 4 0 −12 −4 5 . L = 42 1 3 1.25 1 00 0

Tuttavia, poich´e U `e singolare (com’era del resto da attendersi essendo A singolare), il sistema triangolare superiore Ux = y ammette infinite soluzioni. Si osservi anche che il metodo delle sostituzioni all’indietro (5.10) non pu`o essere utilizzato.

320

9 Soluzione degli esercizi proposti

Soluzione 5.4 Dall’analisi dell’algoritmo (5.13) si ottiene che il numero di operazioni per il calcolo di L ed U `e: 1 0 n n−1 n n−1 X X X X @1 + 2A = (n − k)(1 + 2(n − k)) k=1 i=k+1 n−1 X

j=k+1 n−1 X 2

j =

j+2

=

j=1

j=1

k=1

n2 (n − 1)n (n − 1)n(2n − 1) 2 n + = n3 − − . 2 6 3 2 6

Soluzione 5.5 Per definizione, l’inversa X di una matrice A ∈ Rn×n `e tale che XA = AX = I. Di conseguenza, per ogni j = 1, . . . , n il vettore colonna xj di X risolve il sistema lineare Axj = ej il cui termine noto `e il j-esimo vettore della base canonica di Rn con componenti tutte nulle fuorch´e la j-esima che vale 1. Nota perci` o una fattorizzazione LU di A, si tratter` a di risolvere n sistemi lineari con la stessa matrice e termine noto variabile. Soluzione 5.6 Utilizzando il Programma 5.1 si trovano i seguenti fattori: 2 2 3 3 1 0 0 1 1 3 5, 1 0 5 , U = 4 0 −8.88 · 10−16 14 L = 42 3 −3.38 · 1015 1 0 0 4.73 · 1016

il cui prodotto produce la matrice L*U ans = 1.0000 2.0000 3.0000

1.0000 2.0000 6.0000

3.0000 20.0000 0.0000

Si noti che l’elemento (3,3) di tale matrice vale 0, mentre il corrispondente elemento di A `e pari a 4. Il calcolo accurato delle matrici L e U pu`o essere ottenuto operando una pivotazione parziale per righe: con il comando [L,U,P]=lu(A) si ottengono infatti i fattori corretti. Soluzione 5.7 Tipicamente, di una matrice simmetrica, si memorizza la sola parte triangolare superiore od inferiore. Di conseguenza, poich´e il pivoting per righe non conserva in generale la simmetria di una matrice, esso risulta particolarmente penalizzante dal punto di vista dell’occupazione di memoria. Un rimedio consiste nello scambiare fra loro contemporaneamente righe e colonne con gli stessi indici, ovvero limitare la scelta dei pivot ai soli elementi diagonali. Pi` u in generale, una strategia di pivoting che coinvolge lo scambio di righe e colonne `e chiamata pivoting totale (si veda, ad esempio, [QSS08, Cap. 3]). Soluzione 5.8 I fattori L ed U sono: 2 1 0 L = 4 (ε − 2)/2 1 0 −1/ε

2 3 3 2 −2 0 0 05, U = 40 ε 05. 0 0 3 1

Ovviamente l32 → ∞ quando ε → 0. Ci` o non implica per` o che la soluzione calcolata del sistema divenga inaccurata al rimpicciolirsi di ε come si verifica con le seguenti istruzioni:

9.5 Capitolo 5

321

e =1; for k =1:10 b =[0; e ; 2]; L =[1 0 0; (e -2)*0.5 1 0; 0 -1/ e 1]; U =[2 -2 0; 0 e 0; 0 0 3]; y=L\b; x=U\y; err ( k )= max ( abs (x - ones (3 ,1))); e = e *0.1; end err err = 0

0

0

0

0

0

0

0

0

0

Soluzione 5.9 La soluzione calcolata diventa sempre meno accurata al crescere del pedice i. Gli errori in norma sono infatti pari a 1.14 · 10−14 per i = 1, 4.22 · 10−10 per i = 2 e 2.51 · 10−6 per i = 3. Il responsabile di questo comportamento `e il numero di condizionamento di Ai che cresce al crescere di i. Utilizzando il comando cond si trova infatti che esso `e dell’ordine di 103 per i = 1, di 107 per i = 2 e di 1011 per i = 3. Soluzione 5.10 Se λ `e un autovalore di A associato ad un autovettore v, allora λ2 `e un autovalore di A2 associato allo stesso autovettore. Infatti, da Av = λv segue A2 v = λAv = λ2 v. Di conseguenza, K(A2 ) = (K(A))2 . Soluzione 5.11 La matrice di iterazione del metodo di Jacobi `e: 2 3 0 0 −α−1 BJ = 4 0 0 0 5 −α−1 0 0

ed ha autovalori {0, α−1 , −α−1 }. Il metodo converge pertanto se |α| > 1. Nel caso del metodo di Gauss-Seidel si ha invece 2 3 0 0 −α−1 BGS = 4 0 0 0 5 0 0 α−2

con autovalori dati da {0, 0, α−2 }. Il metodo `e quindi convergente se |α| > 1. Si noti che, avendosi ρ(BGS ) = [ρ(BJ )]2 , il metodo di Gauss-Seidel converger`a 2 volte pi` u rapidamente del metodo di Jacobi.

Soluzione 5.12 Condizione sufficiente per la convergenza dei metodi di Jacobi e di Gauss-Seidel `e che A sia a dominanza diagonale stretta. Essendo la prima riga di A gi` a a dominanza diagonale stretta, affinch´e lo sia A baster` a imporre che |β| < 5. Si noti che il calcolo diretto dei raggi spettrali delle matrici di iterazione porterebbe alle limitazione (necessaria e sufficiente) |β| < 25 per entrambi gli schemi.

322

9 Soluzione degli esercizi proposti

Soluzione 5.13 Il metodo del rilassamento pu` o essere scritto nella seguente forma vettoriale (I − ωD−1 E)x(k+1) = [(1 − ω)I + ωD−1 F]x(k) + ωD−1 b dove A = D − (E + F), essendo D la diagonale di A, −E e −F la parte triangolare inferiore e superiore di A, rispettivamente. Si ricava allora che la matrice di iterazione `e: B(ω) = (I − ωD−1 E)−1 [(1 − ω)I + ωD−1 F]. Possiamo a questo punto osservare che, se denotiamo con λi gli autovalori di B(ω), abbiamo ˛ ˛ n ˛Y ˛ ˛ ˛ ˛ λi ˛ = |detB(ω)| ˛ ˛ i=1 = |det[(I − ωD−1 E)−1 ]| · |det[(1 − ω)I + ωD−1 F )]|.

Osservando ora che, date due matrici A e B con A = I + αB, per ogni α ∈ R vale λi (A) = 1 + αλi (B), e che gli autovalori di D−1 E e di D−1 F sono tutti nulli, abbiamo ˛ ˛ ˛ ˛ n n ˛ ˛ ˛Y ˛Y −1 ˛ ˛ (1 − ω) + ωλi (D F ) ˛ ˛ n ˛ = |1 − ω| . ˛ λi ˛ = ˛ −1 ˛ ˛ ˛ 1 − ωλi (D E) ˛ i=1

i=1

Di conseguenza, ci deve essere almeno un autovalore tale che |λi | ≥ |1 − ω|. Quindi, condizione necessaria per avere convergenza `e che |1 − ω| < 1, cio`e 0 < ω < 2. – 32 `e a dominanza diagonale stretta per 26 righe, una condizione – sufficiente affinch´e il metodo di Gauss Seidel converga. La » 11 non `e a dominanza stretta per righe, tuttavia `e simmetrica matrice A = 12 e quindi verifichiamo se essa `e anche definita positiva, ovvero che zT Az > 0 per ogni z = 0 di R2 . Eseguiamo i calcoli con MATLAB nel modo seguente (naturalmente in questo caso li potremmo fare anche a mano!): syms z1 z2 real z =[ z1 ; z2 ]; A =[1 1; 1 2]; pos =z ’* A * z ; simple ( pos ) ans = z1 ^2+2* z1 * z2 +2* z2 ^2 Soluzione 5.14 La matrice A =

»

ans = z1^2+2*z1*z2+2*z2^2 dove il comando syms z1 z2 real ci `e servito per dichiarare reali le variabili simboliche z1 e z2. Il comando simple ha messo nella forma pi` u semplice il ` evidente che la quantit` contenuto della variabile pos. E a ottenuta `e sempre positiva, in quanto pu` o essere riscritta come (z1+z2)ˆ2+z2ˆ2. La matrice `e dunque simmetrica definita positiva ed il metodo di Gauss-Seidel converge.

9.5 Capitolo 5

323

Soluzione 5.15 Si trova: per il metodo di Jacobi:

(

per il metodo di Gauss-Seidel:

(1)

(0)

x1 = 12 (1 − x2 ) ⇒ (0) (1) x2 = − 13 (x1 ) (

(1)

(0)

(

x1 = 21 (1 − x2 ) ⇒ (1) (1) x2 = − 31 x1

(1)

x1 = 14 (1) x2 = − 13 (

(1)

x1 = 14 (1) 1 x2 = − 12

Per quanto riguarda il metodo del gradiente, determiniamo prima il residuo pari a » – » – » – 1 21 −3/2 (0) (0) (0) − x = . r = b − Ax = 0 13 −5/2 A questo punto, avendosi P−1 =

»

– 1/2 0 , 0 1/3

si pu` o calcolare z(0) = P−1 r(0) = (−3/4, −5/6)T . Di conseguenza, α0 =

(z(0) )T r(0) 77 = , 107 (z(0) )T Az(0)

e x(1) = x(0) + α0 z(0) = (197/428, −32/321)T . Soluzione 5.16 Gli autovalori della matrice Bα = I − αP−1 A sono λi (α) = 1 − αµi , essendo µi l’i-esimo autovalore di P−1 A. Allora ρ(Bα ) = max |1 − αµi | = max(|1 − αµmin |, |1 − αµmax |). i=1,...,n

Di conseguenza, il valore ottimale di α (ossia quello che rende minimo il raggio spettrale della matrice di iterazione) si trova come soluzione dell’equazione 1 − αµmin = αµmax − 1 e cio`e la (5.53). A questo punto la (5.66) si trova calcolando ρ(Bαopt ). Soluzione 5.17 Dobbiamo minimizzare la funzione Φ(α) = e(k+1) 2A al variare di α ∈ R. Abbiamo e(k+1) = x − x(k+1) = e(k) − αz(k) , pertanto Φ(α) = e(k+1) 2A = e(k) 2A + α2 z(k) 2A − 2α(Ae(k) , z(k) ). Il minimo di Φ(α) si trova in corrispondenza di αk tale che Φ′ (αk ) = 0, ovvero αk z(k) 2A − (Ae(k) , z(k) ) = 0, dunque αk = (Ae(k) , z(k) )/ z(k) 2A . Infine la formula (5.55) segue osservando che Ae(k) = r(k) .

324

9 Soluzione degli esercizi proposti

Soluzione 5.18 La matrice A del modello di Leontieff non `e in questo caso definita positiva, come si pu`o osservare con le seguenti istruzioni: for i =1:20; for j =1:20; C (i , j )= i + j ; end ; end ; A = eye (20) - C ; min ( eig ( A )) ans = -448.5830 e pertanto non si ha la garanzia che il metodo del gradiente converga. D’altra parte, essendo A non singolare, il sistema dato `e equivalente al sistema AT Ax = AT b che ha matrice simmetrica e definita positiva. Risolviamo tale sistema richiedendo una tolleranza sul residuo relativo pari a 10−10 e partendo dal dato iniziale x(0) = 0T : b = [1:20] ’; AA =A ’* A ; b =A ’* b ; x0 = zeros (20 ,1); [x , iter ]= itermeth ( AA ,b , x0 ,100 ,1. e -10); Il metodo converge in 15 iterazioni. Facciamo notare che un problema di questo approccio risiede nel fatto che la matrice AT A ha, in generale, un numero di condizionamento molto maggiore della matrice di partenza A.

9.6 Capitolo 6 Soluzione 6.1 A1 : il metodo converge in 34 passi al valore 2.00000000004989. A2 : a partire dallo stesso vettore iniziale servono ora 457 iterazioni per ottenere il valore 1.99999999990611. Il peggioramento nella velocit`a di convergenza `e dovuto al fatto che i due autovalori pi` u grandi in modulo sono molto vicini tra loro. Infine, per A3 il metodo non converge in quanto questa matrice ha come autovalori di modulo massimo i e −i. Soluzione 6.2 La matrice di Leslie associata ai valori riportati in tabella `e 3 2 0 0.5 0.8 0.3 6 0.2 0 0 0 7 7 A=6 4 0 0.4 0 0 5 . 0 0 0.8 0

Con il metodo delle potenze si trova che λ1 ≃ 0.5353 e la distribuzione per fasce d’et` a `e data dalle componenti dell’autovettore di norma unitaria associato cio`e x1 ≃ (0.8477, 0.3167, 0.2367, 0.3537)T . Soluzione 6.3 Riscriviamo il generico vettore iniziale come ! n X (0) (0) y =β αi xi , α1 x1 + α2 x2 + i=3

9.6 Capitolo 6

325

2

1.5

1

0.5

0

−0.5

−1

−1.5 0

20

40

60

80

100

Figura 9.5. Approssimazioni dell’autovalore di modulo massimo calcolate dal metodo delle potenze al variare del numero di iterazioni per la matrice della Soluzione 6.5 con β (0) = 1/ x(0) . Ripetendo i calcoli svolti nel paragrafo 6.2, al generico passo k avremo: ! n X λki (k) k (k) ikϑ −ikϑ y =γ β α1 x1 e αi k xi . + α2 x2 e + γ i=3 Di conseguenza, per k → ∞ i primi due termini della somma sopravvivono, a causa degli esponenti di segno opposto, ed impediscono alla successione degli y(k) di convergere, conferendole un andamento oscillante. Soluzione 6.4 Se A `e non singolare, da Ax = λx, si ha A−1 Ax = λA−1 x, e quindi: A−1 x = (1/λ)x. Soluzione 6.5 Il metodo delle potenze applicato ad A produce una successione oscillante di approssimazioni dell’autovalore di modulo massimo (si veda la Figura 9.5). Questo perch´e esistono due autovalori distinti aventi modulo massimo uguale a 1. Soluzione 6.6 Sappiamo che gli autovalori di una matrice simmetrica sono tutti reali e quindi appartengono ad un intervallo chiuso e limitato [λa , λb ]. Il nostro obiettivo `e proprio calcolare λa e λb Richiamiamo il Programma 6.1 per calcolare l’autovalore di modulo massimo di A: A = wilkinson (7); x0 = ones (7 ,1); tol =1. e -15; nmax =100; [ lambdab ,x , iter ]= eigpower (A , tol , nmax , x0 ); Si trova, in 35 iterazioni, lambdab=3.76155718183189, che coincide con il valore λb . Poich´e λa `e l’autovalore pi` u lontano da λb , per calcolare quest’ultimo applichiamo il metodo delle potenze alla matrice Ab = A − λb I, ovvero calcoliamo l’autovalore di modulo massimo della matrice A b . Quindi porremo λa = λ + λb . Con le istruzioni: [ lambda ,x , iter ]= eigpower (A - lambda * eye (7) , tol , nmax , x0 ); lambdaa = lambda + lambdab

326

9 Soluzione degli esercizi proposti Cerchi colonna 3

2

Cerchi riga 2

1

1.5

Im

1

Im

0.5

0

0

−1 −0.5 −1

−2

−1.5 −2

1

2

3

4

5

6

7

8

9

−3

10

2

3

4

5

6

7

8

9

10

11

12

Re

Re

Figura 9.6. Cerchi riga e colonna per la matrice A della Soluzione 6.7 Cerchi colonna 2 1.5

Cerchi riga

1

1.5

0.5

Im

1

Im

0.5

0

0

−0.5

−0.5

−1 −1.5

−1 −1.5

−6

−5

−4

−3

−2

−1

Re

0

1

2

3

−2

−5

−4

−3

−2

−1

0

1

2

3

4

Re

Figura 9.7. Cerchi riga e colonna per la matrice B della Soluzione 6.7 troviamo lambdaa =-1.12488541976457 in 33 iterazioni. I risultati trovati sono delle ottime approssimazioni degli autovalori cercati. Soluzione 6.7 Consideriamo la matrice A. Dall’esame dei cerchi riga vediamo che c’`e un cerchio isolato di centro 9 e raggio 1 che, per la Proposizione 6.1, potr` a contenere un solo autovalore λ1 che dovr` a essere reale (la matrice `e a ¯ 1 dovrebbe essere un autovalore, coefficienti reali, se λ1 ∈ C allora anche λ ma, per come sono disposti i cerchi, questo non `e possibile). Avremo quindi λ1 ∈ (8, 10). Dall’esame dei cerchi colonna vediamo che ci sono altri due cerchi isolati di raggio 1/2 e centro 2 e 4, rispettivamente (si veda la Figura 9.6). Avremo quindi altri due autovalori reali, λ2 ∈ (1.5, 2.5) e λ3 ∈ (3.4, 4.5). Essendo la matrice a coefficienti reali anche l’autovalore restante dovr` a essere reale. Consideriamo ora la matrice B. Dall’analisi dei suoi cerchi riga e colonna (si veda la Figura 9.7) deduciamo che c’`e un solo cerchio isolato di centro −5 e raggio 1/2. Per come sono distribuiti i cerchi esiste quindi un autovalore reale in (−5.5, −4.5) Gli altri tre cerchi hanno invece intersezione non vuota e quindi i restanti tre autovalori di B potranno essere o tutti reali o uno reale e due complessi coniugati. Soluzione 6.8 Dall’analisi dei cerchi riga di A vediamo che c’`e un cerchio isolato di centro 5 e raggio 2 che, per come sono fatti i cerchi restanti, deve contenere l’autovalore di modulo massimo. Poniamo dunque lo shift pari a 5. Il confronto si effettua con le seguenti istruzioni: A =[5 0 1 -1; 0 2 0 -1/2; 0 1 -1 1; -1 -1 0 0]; tol =1. e -14; x0 =[1;2;3;4]; nmax =100; tic ; [ lambda ,x , iter ]= eigpower (A , tol , nmax , x0 ); toc , iter

9.6 Capitolo 6

327

Elapsed time is 0.001854 seconds. iter = 35 tic ; [ lambda ,x , iter ]= invshift (A ,5 , tol , nmax , x0 ); toc , iter Elapsed time is 0.000865 seconds. iter = 12 Come si vede il metodo delle potenze inverse con shift converge in un numero di iterazioni minore rispetto al metodo delle potenze e, pur richiedendo il calcolo della fattorizzazione LU di A in testa alla procedura, richiede un tempo di CPU inferiore. Soluzione 6.9 Abbiamo A(k) = Q(k+1) R(k+1) e A(k+1) = R(k+1) Q(k+1) e quindi (Q(k+1) )T A(k) Q(k+1) = R(k+1) Q(k+1) = A(k+1) . Si conclude che, essendo (Q(k+1) )T = (Q(k+1) )−1 la matrice A(k) `e simile alla matrice A(k+1) per ogni k ≥ 0. Soluzione 6.10 Possiamo utilizzare il comando [X,D]=eig(A), dove X `e la matrice le cui colonne sono gli autovettori di norma unitaria di A, mentre D `e la matrice diagonale i cui elementi sono gli autovalori di A. Per le matrici A e B dell’Esercizio 6.7 possiamo eseguire le seguenti istruzioni A =[ -5 0 1/2 1/2; 1/2 2 1/2 0; 0 1 0 1/2; 0 1/4 1/2 3]; sort ( eig ( A )) ans = -4.9921 -0.3038 2.1666 3.1292 B =[ -5 0 1/1 1/2;1/2 2 1/2 0;0 1 0 1/2; 0 1/4 1/2 3]; sort ( eig ( B )) ans = -4.9849 -0.3237 2.1769 3.1316

328

9 Soluzione degli esercizi proposti

9.7 Capitolo 7 Soluzione 7.1 Per verificare l’ordine osserviamo che la soluzione analitica della (7.76) `e y(t) = 21 [et − sin(t) − cos(t)]. Risolviamo allora il problema (7.76) con il metodo di Eulero esplicito con h che va da 1/2 fino a 1/512 per dimezzamenti successivi: t0 =0; y0 =0; T =1; f = inline ( ’ sin ( t )+ y ’ , ’t ’ , ’y ’ ); y = inline ( ’ 0.5*( exp ( t ) - sin ( t ) - cos ( t )) ’ , ’t ’ ); Nh =2; for k =1:10; [ tt , u ]= feuler (f ,[ t0 , T ] , y0 , Nh ); e ( k )= abs ( u ( end ) - feval (y , tt ( end ))); Nh =2* Nh ; end Per la (1.2), con il comando p = log ( abs ( e (1: end -1)./ e (2: end )))/ log (2); p (1:2: end ) p = 0.7696

0.9273

0.9806

0.9951

0.9988

si verifica che il metodo `e di ordine 1. Facendo uso dei medesimi comandi appena impiegati e sostituendo la chiamata al Programma 7.1 con la corrispondente chiamata al Programma 7.2 si ottengono le seguenti stime per l’ordine di Eulero implicito p = log ( abs ( e (1: end -1)./ e (2: end )))/ log (2); p (1:2: end ) p = 1.5199

1.0881

1.0204

1.0050

1.0012

in buon accordo con quanto previsto dalla teoria. Soluzione 7.2 Risolviamo il problema di Cauchy con il metodo di Eulero esplicito con le seguenti istruzioni: t0 =0; T =1; N =100; f = inline ( ’ -t * exp ( - y ) ’ , ’t ’ , ’y ’ ); y0 =0;[ t , u ]= feuler (f ,[ t0 , T ] , y0 , N ); Per calcolare il numero di cifre corrette, vogliamo usare la (7.13) e, di conseguenza, dobbiamo stimare L e M . Osserviamo che, essendo f (t, y(t)) < 0 nell’intervallo dato, y(t) sar` a una funzione monotona decrescente e, valendo 0 in t = 0, dovr` a essere necessariamente negativa. Essendo sicuramente compresa fra −1 e 0, possiamo supporre che in t = 1 valga al pi` u −1. A questo punto possiamo determinare L. Essendo f derivabile con continuit` a rispetto a y, possiamo prendere L = max0≤t≤1 |L(t)| con L(t) = ∂f /∂y = te−y . Osserviamo che L(0) = 0 e L′ (t) > 0 per ogni t ∈ (0, 1]. Dunque, essa assumer` a massimo in t = 1 e, per l’assunzione fatta su y(1), varr` a e. Per quanto riguarda M = max0≤t≤1 |y ′′ (t)| con y ′′ = −e−y − t2 e−2y , si ha che |y ′′ | `e massima per t = 1 e quindi M = e + e2 . Possiamo sostanziare queste conclusioni operando uno studio grafico del campo vettoriale v(t, y) = [v1 , v2 ]T = [1, f (t, y(t))]T associato al problema di Cauchy dato. Si ha infatti che le soluzioni dell’equazione differenziale y ′ (t) = f (t, y(t)) sono le linee tangenti al campo vettoriale v.

9.7 Capitolo 7

329

Con le seguenti istruzioni [T , Y ]= meshgrid (0:0.05:1 , -1:0.05:0); V1 = ones ( size ( T )); V2 = - T .* exp ( Y ); quiver (T ,Y , V1 , V2 ) vediamo che la soluzione del problema di Cauchy dato ha una derivata seconda non positiva e che cresce in valore assoluto per t crescenti. Questo ci permette di concludere che M = max0≤t≤1 |y ′′ (t)| `e assunto in t = 1. Una via alternativa consiste nell’osservare che, sapendo che y ∈ [−1, 0] e che ∂f /∂y = y ′ < 0, allora la funzione −y `e positiva e crescente. Di conseguenza sono positivi e crescenti anche i termini e−y e t2 e−2y e quindi la funzione y ′′ = −e−y − t2 e−2y `e negativa e decrescente. Questo ci permette di concludere che M = max0≤t≤1 |y ′′ (t)| `e assunto in t = 1. Dalla (7.13), per h = 0.01 si ricava allora eL − 1 M = 0.26 L 200 e quindi il numero di cifre significative corrette della soluzione approssimata in t = 1 `e al pi` u uno. In effetti, l’ultima componente della soluzione numerica `e u(end)=-0.6785, mentre la soluzione esatta y(t) = log(1 − t2 /2) in t = 1 vale -0.6931. |u100 − y(1)| ≤

Soluzione 7.3 La funzione di iterazione `e φ(u) = un − htn+1 e−u . Il metodo di punto fisso `e convergente se |φ′ (u)| < 1. Dobbiamo quindi imporre h(t0 + (n + 1)h) < eu . Consideriamo u uguale alla soluzione esatta. In tal caso la situazione pi` u restrittiva si ha quando u = −1 (si veda la Soluzione 7.2). Si tratta pertanto di risolvere la disequazione (n + 1)h2 < e−1 , p essendo t0 = 0. La restrizione su h affinch´e si abbia convergenza `e allora h < e−1 /(n + 1). Soluzione 7.4 Basta ripetere le istruzioni date nella Soluzione 7.1, utilizzando il Programma 7.3. Si trova la seguente stima dell’ordine: p=log(abs(e(1:end-1)./e(2:end)))/log(2); p(1:2:end) p = 2.0379 2.0023 2.0001 2.0000 2.0000 in ottimo accordo con quanto previsto dalla teoria. Soluzione 7.5 Consideriamo la formulazione integrale del problema di Cauchy sull’intervallo [tn , tn+1 ]: tn+1

y(tn+1 ) − y(tn ) =

Z

f (τ, y(τ ))dτ,

tn

ed approssimiamo l’integrale con la formula del trapezio, ottenendo: h [f (tn , y(tn )) + f (tn+1 , y(tn+1 ))] . 2 Se ora definiamo u0 = y(t0 ) e un+1 tale che y(tn+1 ) − y(tn ) ≃

h [f (tn , un ) + f (tn+1 , un+1 )] , 2 otteniamo proprio il metodo di Crank-Nicolson. un+1 = un +

∀n ≥ 0,

330

9 Soluzione degli esercizi proposti

Soluzione 7.6 Sappiamo che la regione di assoluta stabilit`a per il metodo di Eulero in avanti `e il cerchio di centro (−1, 0) e raggio 1 o, equivalentemente, l’insieme degli z ∈ C tali che |1 + hλ| < 1. Sostituendo in questa espressione λ = −1 + i otteniamo la limitazione su h: h2 − h < 0, ovvero h ∈ [0, 1). Soluzione 7.7 Per comodit` a di notazioni riscriviamo il metodo di Heun nel seguente modo (comune ai metodi Runge-Kutta): h (K1 + K2 ) 2 K1 = f (tn , un ), K2 = f (tn+1 , un + hK1 ).

un+1 = un +

(9.4)

b1 + K b 2 )/2, con K b 1 = f (tn , y(tn )) Abbiamo hτn+1 (h) = y(tn+1 ) − y(tn ) − h(K b b e K2 = f (tn+1 , y(tn ) + hK1 ). Poich´e f `e continua rispetto ad entrambi gli argomenti si ha

1 [f (tn , y(tn )) + f (tn , y(tn ))] = 0. 2 Il metodo di Heun `e dunque consistente ed `e implementato nel Programma 9.2. Utilizzando comandi del tutto analoghi a quelli usati nella Soluzione 7.1 si trovano le seguenti stime per l’ordine: lim τn+1 = y ′ (tn ) −

h→0

p=log(abs(e(1:end-1)./e(2:end)))/log(2); p(1:2:end) ans = 1.7642 1.9398 1.9851 1.9963 1.9991 che sono in accordo con l’ordine previsto teoricamente. Programma 9.2. rk2: metodo di Heun function [ tt , u ]= rk2 ( odefun , tspan , y0 , Nh , varargin ) tt = linspace ( tspan (1) , tspan (2) , Nh +1); h =( tspan (2) - tspan (1))/ Nh ; hh = h *0.5; u = y0 ; for t = tt (1: end -1) y = u ( end ,:); k1 = feval ( odefun ,t ,y , varargin {:}); t1 = t + h ; y = y + h * k1 ; k2 = feval ( odefun , t1 ,y , varargin {:}); u = [ u ; u ( end ,:) + hh *( k1 + k2 )]; end Soluzione 7.8 Applicando il metodo (9.4) al problema (7.27) si trova K1 = hλun e K2 = hλun (1 + hλ). Di conseguenza, un+1 = un [1 + hλ + (hλ)2 /2] = a dobbiamo imporre |p2 (hλ)| < 1, ma un p2 (hλ). Per avere assoluta stabilit` essendo p2 (hλ) sempre positivo, questa condizione equivale a chiedere che 0 < p2 (hλ) < 1. Risolvendo quest’ultima disequazione si trova −2 < hλ < 0. Essendo λ reale negativo, quest’ultima `e la restrizione cercata. Soluzione 7.9 Si noti che un = un−1 (1 + hλn−1 ) + hrn−1 e si proceda quindi ricorsivamente su n.

9.7 Capitolo 7

331

Soluzione 7.10 Poich´e |1 + hλ| < 1, dalla (7.36) segue che ˛ ˛ ˛« „˛ ˛ 1˛ ˛1˛ |zn − un | ≤ |ρ| ˛˛1 + ˛˛ + ˛˛ ˛˛ . λ λ

Se λ ≤ −1, abbiamo 1/λ < 0 e 1 + 1/λ ≥ 0, quindi ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛1 + 1 ˛ + ˛ 1 ˛ = 1 + 1 − 1 = 1. ˛ λ˛ ˛λ˛ λ λ

Invece, se −1 < λ < 0, abbiamo 1/λ < 1 + 1/λ < 0, quindi ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛1 + 1 ˛ + ˛ 1 ˛ = −1 − 2 = ˛1 + 2 ˛ . ˛ ˛ λ˛ ˛λ˛ λ λ˛ Soluzione 7.11 Dalla (7.34) abbiamo |zn − un | ≤ ρmax [a(h)]n + hρmax

n−1 X

[a(h)]n−k−1

k=0

ed il risultato segue per la (7.35). Soluzione 7.12 Abbiamo: h b b2 + K b 3 ), (K1 + 4K 6 b 1 ), b 2 = f (tn + h , y(tn ) + h K K 2 2

hτn+1 (h) = y(tn+1 ) − y(tn ) − b 1 = f (tn , y(tn )), K

b 3 = f (tn+1 , y(tn ) + h(2K b2 − K b 1 )). K

Essendo f continua rispetto ad entrambi gli argomenti, si ha lim τn+1 = y ′ (tn ) −

h→0

1 [f (tn , y(tn )) + 4f (tn , y(tn )) + f (tn , y(tn ))] = 0, 6

ovvero il metodo `e consistente. Esso `e implementato nel Programma 9.3. Utilizzando comandi del tutto analoghi a quelli usati nella Soluzione 7.7 si trovano le seguenti stime per l’ordine: p=log(abs(e(1:end-1)./e(2:end)))/log(2); p(1:2:end) ans = 2.7306 2.9330 2.9833 2.9958 2.9990 che verificano la stima teorica. Programma 9.3. rk3: metodo Runge-Kutta esplicito di ordine 3 function [ tt , u ]= rk3 ( odefun , tspan , y0 , Nh , varargin ); tt = linspace ( tspan (1) , tspan (2) , Nh +1); h =( tspan (2) - tspan (1))/ Nh ; hh = h *0.5; h2 =2* h ; u = y0 ; h6 = h /6; for t = tt (1: end -1) y = u ( end ,:);

332

9 Soluzione degli esercizi proposti

k1 = feval ( odefun ,t ,y , varargin {:}); t1 = t + hh ; y1 = y + hh * k1 ; k2 = feval ( odefun , t1 , y1 , varargin {:}); t1 = t + h ; y1 = y + h *(2* k2 - k1 ); k3 = feval ( odefun , t1 , y1 , varargin {:}); u = [ u ; u ( end ,:) + h6 *( k1 +4* k2 + k3 )]; end Soluzione 7.13 Utilizzando passaggi del tutto analoghi a quelli della Soluzione 7.8 si trova la relazione un+1 = un [1 + hλ +

1 1 (hλ)2 + (hλ)3 ] = un p3 (hλ). 2 6

Da uno studio grafico, effettuato con i seguenti comandi c =[1/6 1/2 1 1]; z =[ -3:0.01:1]; p = polyval (c , z ); plot (z , abs ( p )) si deduce che, se −2.5 < hλ < 0, allora |p3 (hλ)| < 1. Soluzione 7.14 Il metodo (7.78) quando applicato al problema modello (7.27) con λ ∈ R− fornisce l’equazione un+1 = un (1 + hλ + (hλ)2 ). Risolvendo la disequazione |1 + hλ + (hλ)2 | < 1 si ottiene −1 < hλ < 0. Soluzione 7.15 Per risolvere il Problema 7.1 con i valori indicati, basta ripetere le seguenti istruzioni prima con N=10 e poi con N=20: f = inline ( ’ -1.68 e -9* y ^4+2.6880 ’ , ’t ’ , ’y ’ ); [ tc , uc ]= cranknic (f ,[0 ,200] ,180 , N ); [ tp , up ]= rk2 (f ,[0 ,200] ,180 , N ); Le corrispondenti soluzioni vengono riportate nei grafici di Figura 9.8.

200

200

198

198

196

196

194

194

192

192

190

190

188

188

186

186

184

184 182

182 180 0

50

100

150

200

180 0

50

100

150

200

Figura 9.8. Soluzioni calcolate con h = 20 (a sinistra) e h = 10 (a destra) per il problema di Cauchy della Soluzione 7.15: in linea continua le soluzioni ottenute con il metodo di Crank-Nicolson, in linea tratteggiata quelle ricavate con il metodo di Heun

9.7 Capitolo 7

333

2

1.5

1

0.5

0

−0.5

−1

−1.5

−2 −3.5

−3

−2.5

−2

−1.5

−1

−0.5

0

0.5

1

1.5

Figura 9.9. Bordo delle regioni di assoluta stabilit`a per i metodi di Eulero esplicito (in tratteggio) e di Heun (in linea continua). Le regioni si estendono all’interno delle aree delimitate dalle rispettive curve Soluzione 7.16 La soluzione numerica del metodo di Heun, applicato al problema modello (7.27), soddisfa „ « 1 un+1 = un 1 + hλ + h2 λ2 . 2 Il bordo della regione di assoluta stabilit`a `e allora individuato dai valori di hλ = x + iy tali che |1 + hλ + h2 λ2 /2|2 = 1. Sviluppando questa espressione troviamo che essa `e soddisfatta dalle coppie di valori (x, y) tali che f (x, y) = x4 + y 4 + 2x2 y 2 + 4x3 + 4xy 2 + 8x2 + 8x = 0. Possiamo rappresentare questa funzione in MATLAB, disegnando la curva di livello corrispondente al valore z = 0 della funzione f (x, y) = z con i seguenti comandi: f = inline ([ ’x .^4+ y .^4+2*( x .^2).*( y .^2)+ ’ ,... ’ 4* x .* y .^2+4* x .^3+8* x .^2+8* x ’ ]); [x , y ]= meshgrid ([ -2.1:0.1:0.1] ,[ -2:0.1:2]); contour (x ,y , eval ( f ) ,[0 0]); grid on Con il comando meshgrid abbiamo introdotto nel rettangolo [−2.1, 0.1] × [−2, 2] una griglia formata da 23 nodi equispaziati lungo l’asse delle x e da 41 nodi equispaziati lungo l’asse delle y. Su di essi `e stata valutata la funzione f con il comando eval(f) e, tramite la funzione contour, `e stata individuata la linea di livello relativa al valore z = 0 (precisata nel vettore [0 0] nella chiamata a contour). In Figura 9.9 viene riportato in linea continua il risultato ottenuto. La regione di assoluta stabilit`a del metodo di Heun si trova all’interno di tale linea. Come si vede essa `e pi` u estesa della corrispondente regione del metodo di Eulero esplicito (delimitata dal cerchio in linea tratteggiata) ed `e anche’essa tangente nell’origine all’asse immaginario. Soluzione 7.17 Basta dare le seguenti istruzioni: t0 =0; y0 =0; f = inline ( ’ cos (2* y ) ’ , ’t ’ , ’y ’ ); y = inline ( ’ 0.5* asin (( exp (4* t ) -1)./( exp (4* t )+1)) ’ , ’t ’ ); T =1; N =2; for k =1:10; [ tt , u ]= rk2 (f ,[ t0 , T ] , y0 , N ); e ( k )= abs ( u ( end ) - feval (y , tt ( end ))); N =2* N ; end p = log ( abs ( e (1: end -1)./ e (2: end )))/ log (2); p (1:2: end ) 2.4733 2.1223 2.0298 2.0074 2.0018

contour

334

9 Soluzione degli esercizi proposti

1

1

0.8

0.8

0.6

0.6

0.4

0.4

0.2

0.2

0

0

−0.2

−0.2

−0.4

−0.4

−0.6

−0.6

−0.8 −1 0

−0.8 1

2

3

4

5

−1 0

1

2

3

4

5



Figura 9.10. Approssimazioni di x(t) (in linea continua) e x (t) (in linea tratteggiata) calcolate in corrispondenza di N=20 (a sinistra) e N=40 (a destra). I cerchietti ed i quadratini si riferiscono alle quantit`a esatte x(t) e x′ (t), rispettivamente

Al solito, si `e stampato il valore presunto dell’ordine p, che converge a 2 a conferma dell’ordine atteso del metodo. Soluzione 7.18 L’equazione data `e equivalente al sistema seguente: x′ (t) = z(t),

z ′ (t) = −5z(t) − 6x(t),

con x(0) = 1, z(0) = 0. Richiamiamo Heun con le seguenti istruzioni: t0 =0; y0 =[1 0]; T =5; [t , u ]= rk2 ( @fmolle ,[ t0 , T ] , y0 , N ); dove N `e il numero di nodi che utilizzeremo, mentre fmolle.m `e la seguente funzione: function fn = fmolle (t , y ) b =5; k =6; [n , m ]= size ( y ); fn = zeros (n , m ); fn (1)= y (2); fn (2)= - b * y (2) - k * y (1); In Figura 9.10 riportiamo le 2 componenti della soluzione, calcolate con N=20 e N=40 e confrontate con la soluzione esatta x(t) = 3e−2t − 2e−3t e con la sua derivata. Soluzione 7.19 Riduciamo il sistema di equazioni di ordine 2 ad un sistema di equazioni del prim’ordine dato da: 8 ′ x (t) = z(t), > > < ′ y (t) = v(t), (9.5) ′ z (t) = 2ω sin(Ψ ) − k2 x(t), > > : ′ 2 v (t) = −2ω sin(Ψ )z(t) − k y(t).

9.7 Capitolo 7

335

Se supponiamo che il pendolo all’istante iniziale t0 = 0 sia fermo nella posizione (1, 0), il sistema (9.5) viene completato dalle seguenti condizioni iniziali: x(0) = 1,

y(0) = 0,

z(0) = 0,

v(0) = 0.

Scegliamo Ψ = π/4 vale a dire pari alla latitudine media dell’Italia settentrionale. Richiamiamo il metodo di Eulero esplicito con le seguenti istruzioni: [t , u ]= feuler ( @ffocault ,[0 ,300] ,[1 0 0 0] , N ); dove N `e il numero di passi e ffocault.m la funzione seguente: function fn = ffocault (t , y ) l =20; k2 =9.8/ l ; psi = pi /4; omega =7.29*1. e -05; [n , m ]= size ( y ); fn = zeros (n , m ); fn (1)= y (3); fn (2)= y (4); fn (3)=2* omega * sin ( psi )* y (4) - k2 * y (1); fn (4)= -2* omega * sin ( psi )* y (3) - k2 * y (2); Con pochi esperimenti si giunge alla conclusione che il metodo di Eulero esplicito non fornisce per questo problema soluzioni fisicamente plausibili, neppure per h molto piccolo. Ad esempio, in Figura 9.11 a sinistra viene riportato il grafico, nel piano delle fasi (x, y), dei movimenti del pendolo calcolati prendendo N=30000 cio`e h = 1/100. Come ci si aspetta il piano di rotazione del pendolo cambia al passare del tempo, ma, nonostante il passo di discretizzazione piccolo, aumenta inaspettatamente l’ampiezza delle oscillazioni. Risultati analoghi si trovano anche per valori molto pi` u piccoli di h od utilizzando il metodo di Heun. Ci` o accade perch´e problemi come questo, che presentano soluzioni limitate per t che tende all’infinito, ma non smorzate, hanno un comportamento analogo a quello del problema lineare (7.27) con valori di λ puramente immaginari. In tal caso infatti la soluzione esatta `e una funzione sinusoidale in t. D’altra parte tanto il metodo di Eulero esplicito, quanto quello di Heun, hanno regioni di assoluta stabilit`a tangenti all’asse immaginario. Di conseguenza, il solo valore h = 0 garantirebbe assoluta stabilit` a. Per confronto, abbiamo rappresentato in Figura 9.11, a destra, la soluzione ottenuta con la funzione MATLAB ode23. Essa corrisponde ad un metodo Runge-Kutta adattivo che presenta una regione di assoluta stabilit`a che interseca l’asse immaginario. In effetti, se richiamata con le seguenti istruzioni: [t , u ]= ode23 ( @ffocault ,[0 ,300] ,[1 0 0 0]); fornisce una soluzione ragionevole, pur usando solo 1022 passi di integrazione. Soluzione 7.20 Impostiamo il termine noto del problema nella seguente function function fn = baseball (t , y ) phi = pi /180; omega = 1800*1.047198 e -01; B = 4.1*1. e -4; g = 9.8; [n , m ]= size ( y ); fn = zeros (n , m ); vmodulo = sqrt ( y (4)^2+ y (5)^2+ y (6)^2); Fv = 0.0039+0.00 5 8/ (1 + exp (( vmodulo -35)/5)); fn (1)= y (4); fn (2)= y (5); fn (3)= y (6);

336

9 Soluzione degli esercizi proposti 0.04

0.015

0.03 0.01

0.02 0.005

0.01 0

0

−0.01 −0.005

−0.02 −0.01

−0.03 −0.04 −3

−2

−1

0

1

2

3

−0.015 −1

−0.5

0

0.5

1

Figura 9.11. Traiettorie nel piano delle fasi per il pendolo di Focault della Soluzione 7.19, ottenute con il metodo di Eulero esplicito (a sinistra) e con un metodo Runge-Kutta adattivo (a destra) 0.2 0.2

0.1

0.1

0 0 −0.1 3

−0.2

x

x3

−0.1

−0.2 −0.3

−0.3

−0.4

−0.4 −0.5

−0.5 −0.6

−0.6 0

0

5

x

10

1

15

0.1

0.2 x2

0.3

0.4

5

10

0

x1

Figura 9.12. Le traiettorie seguite da una palla da baseball lanciata con angolo iniziale pari a 1 grado (in linea continua) e 3 gradi (in linea tratteggiata)

fn (4)= - Fv * vmodulo * y (4)+... B * omega *( y (6)* sin ( phi ) - y (5)* cos ( phi )); fn (5)= - Fv * vmodulo * y (5)+ B * omega * y (4)* cos ( phi ); fn (6)= - g - Fv * vmodulo * y (6) - B * omega * y (4)* sin ( phi ); A questo punto basta richiamare ode23 nel modo seguente: [t , u ]= ode23 ( @baseball ,[0 0.4] ,... [0 0 0 38* cos ( pi /180) 0 38* sin ( pi /180)]); Con il comando find troviamo approssimativamente l’istante temporale nel quale la quota diventa negativa che corrisponde al momento d’impatto della palla con il suolo: n=max(find(u(:,3)>=0)); t(n) ans = 0.1066 In Figura 7.1 riportiamo le traiettorie della palla da baseball con un’inclinazione di 1 grado e di 3 gradi in una rappresentazione sul piano x1 x3 ed in una rappresentazione tridimensionale.

9.8 Capitolo 8

337

9.8 Capitolo 8 Soluzione 8.1 Lo verifichiamo direttamente mostrando che xT Ax > 0 per ogni x = 0. Abbiamo 2 3 2 −1 0 . . . 0 2 3 x1 6 .. 7 6 −1 2 . . . 7 x2 7 . 76 6 7 6 76 6 . 7 . . 6 7 .. 7 . . [x1 x2 . . . xN−1 xN ] 6 0 . . −1 0 7 6 7 6 76 6 .. 7 4 xN−1 5 4 . 5 −1 2 −1 xN 0 . . . 0 −1 2 = 2x21 − 2x1 x2 + 2x22 − 2x2 x3 + . . . − 2xN−1 xN + 2x2N . A questo punto basta raccogliere opportunamente i termini per concludere che l’ultima espressione trovata `e equivalente a (x1 − x2 )2 + . . . + (xN−1 − xN )2 + x21 + x2N , che `e evidentemente positiva. Soluzione 8.2 Verifichiamo che Aqj = λj qj . Eseguiamo il prodotto matricevettore w = Aqj ed imponiamo che w sia uguale al vettore Aqj . Troviamo le seguenti equazioni: 8 2 sin(jθ) − sin(2jθ) = 2(1 − cos(jθ)) sin(jθ), > > > > > < − sin(j(k − 1)θ) + 2 sin(jkθ) − sin(j(k + 1)θ) = 2(1 − cos(jθ)) sin(kjθ), k = 2, . . . , N − 1 > > > > > : 2 sin(N jθ) − sin((N − 1)jθ) = 2(1 − cos(jθ)) sin(N jθ).

La prima relazione `e un’identit` a in quanto sin(2jθ) = 2 sin(jθ) cos(jθ). Per quanto riguarda le restanti relazioni, basta osservare che per la formula di prostaferesi vale sin((k − 1)jθ) + sin((k + 1)jθ) = 2 sin(kjθ) cos(jθ)

e, in particolare per l’ultima equazione, che sin((N + 1)jθ) = 0 in quanto θ = π/(N + 1). Essendo A simmetrica e definita positiva, K(A) = λmax /λmin ovvero K(A) = λ1 /λN = (1 − cos(N π/(N + 1)))/(1 − cos(π/(N + 1))). Se si osserva che cos(N π/(N + 1)) = − cos(π/(N + 1)) e si sviluppa in serie la funzione coseno e si arresta lo sviluppo al second’ordine, si trova allora K(A) ≃ (N + 1)2 cio`e K(A) ≃ h−2 . Soluzione 8.3 Basta osservare che: h2 ′′ u (¯ x) + 2 h2 ′′ x) + x) − u(¯ x − h) = u(¯ x) − hu′ (¯ u (¯ 2

x) + u(¯ x + h) = u(¯ x) + hu′ (¯

dove ξ+ ∈ (x, x + h) e ξ− ∈ (x − h, x).

h3 ′′′ u (¯ x) + 6 h3 ′′′ x) + u (¯ 6

h4 (4) u (ξ+ ), 24 h4 (4) u (ξ− ), 24

338

9 Soluzione degli esercizi proposti

Sommando membro a membro le due espressioni si trova x) + u(¯ x + h) + u(¯ x − h) = 2u(¯ x) + h2 u′′ (¯

h4 (4) (u (ξ+ ) + u(4) (ξ− )), 24

da cui la propriet` a desiderata. Soluzione 8.4 La matrice `e ancora tridiagonale ed ha elementi ai,i−1 = −μ/h2 + η/(2h), aii = 2μ/h2 + σ, ai,i+1 = −μ/h2 + η/(2h). Il termine noto, una volta incorporate le condizioni al contorno, diventa conseguentemente f = (f (x1 ) + α(μ/h2 + η/(2h)), f (x2 ), . . . , f (xN−1 ), f (xN ) + β(μ/h2 − η/(2h)))T . Soluzione 8.5 Con le seguenti istruzioni calcoliamo le soluzioni relative ai 3 valori di h indicati nel testo: f = inline ( ’ 1+ sin (4* pi * x ) ’ , ’x ’ ); [x , uh11 ]= bvp (0 ,1 ,9 ,1 ,0 ,0.1 , f ,0 ,0); [x , uh21 ]= bvp (0 ,1 ,19 ,1 ,0 ,0.1 , f ,0 ,0); [x , uh41 ]= bvp (0 ,1 ,39 ,1 ,0 ,0.1 , f ,0 ,0); Si ricordi che h = (b−a)/(N +1). Per stimare l’ordine di convergenza, non avendo a disposizione la soluzione esatta, calcoliamo una soluzione approssimata relativa ad una griglia estremamente fitta (ponendo ad esempio h = 1/1000). A questo punto utilizziamo la soluzione cos`ı calcolata invece della soluzione esatta. Troviamo: [x , uhex ]= bvp (0 ,1 ,999 ,1 ,0 ,0.1 , f ,0 ,0); max ( abs ( uh11 - uhex (1:100: end ))) ans = 8.6782e-04 max(abs(uh21-uhex(1:50:end))) ans = 2.0422e-04 max(abs(uh41-uhex(1:25:end))) ans = 5.2789e-05 Dimezzando h l’errore si divide per 4, a conferma dell’ordine 2 rispetto a h. Soluzione 8.6 Si tratta di modificare il Programma 8.1 in modo da incorporare le condizioni di Neumann. Un esempio `e fornito nel Programma 9.4. Programma 9.4. neumann: approssimazione di un problema ai limiti di Neumann function [x , uh ]= neumann (a ,b ,N , mu , eta , sigma , bvpfun ,... ua , ub , varargin ) h = (b - a )/( N +1); x = ( linspace (a ,b , N +2)) ’; hm = mu / h ^2; hd = eta /(2* h ); e = ones ( N +2 ,1); A = spdiags ([ - hm *e - hd (2* hm + sigma )* e - hm * e + hd ] ,... -1:1 , N +2 , N +2); A (1 ,1)=3/(2* h ); A (1 ,2)= -2/ h ; A (1 ,3)=1/(2* h ); f (1)= ua ; A ( N +2 , N +2)=3/(2* h ); A ( N +2 , N +1)= -2/ h ; A ( N +2 , N )=1/(2* h ); f = feval ( bvpfun ,x , varargin {:}); f (1)= ua ; f ( N +2)= ub ; uh = A \ f ;

9.8 Capitolo 8

339

1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0

0.2

0.4

0.6

0.8

1

Figura 9.13. In linea tratteggiata le isolinee della temperatura calcolata per ∆x = ∆y = 1/10, in linea piena quelle relative a ∆x = ∆y = 1/80

Soluzione 8.7 La formula di integrazione del trapezio, applicata su ciascun intervallo Ik−1 e Ik , fornisce il seguente valore: Z

f (x)ϕk (x) dx =

h h f (xk ) + f (xk ) = hf (xk ), 2 2

Ik−1 ∪Ik

essendo ϕk (xj ) = δjk . Si ottiene quindi lo stesso termine noto del metodo delle differenze finite. Soluzione 8.8 Abbiamo ∇φ = (∂φ/∂x, ∂φ/∂y)T e, di conseguenza, div∇φ = ∂ 2 φ/∂x2 + ∂ 2 φ/∂y 2 che `e proprio il laplaciano di φ. Soluzione 8.9 Per calcolare la temperatura al centro della piastra, risolviamo il corrispondente problema di Poisson per vari valori di ∆x = ∆y dando le seguenti istruzioni: k =0; fun = inline ( ’ 25 ’ , ’x ’ , ’y ’ ); bound = inline ( ’( x ==1) ’ , ’x ’ , ’y ’ ); for N = [10 ,20 ,40 ,80 ,160] [u ,x , y ]= poissonfd (0 ,1 ,0 ,1 , N ,N , fun , bound ); k = k +1; uc ( k ) = u ( N /2+1 , N /2+1); end In uc sono stati memorizzati i valori della temperatura, calcolati al centro della piastra al decrescere del passo di griglia. Troviamo uc 2.0775

2.0882

2.0909

2.0916

Possiamo quindi ritenere che la temperatura della piastra al centro sia di circa 2.08◦ C. In Figura 9.13 riportiamo le linee di livello della soluzione calcolata per due diversi valori di h.

340

9 Soluzione degli esercizi proposti

Soluzione 8.10 Per semplicit` a di scrittura poniamo ut = ∂u/∂t e ux = ∂u/∂x. Moltiplichiamo l’equazione (8.70) con f ≡ 0 per ut , integriamo su (a, b) e utilizziamo la formula di integrazione per parti sul secondo termine: Z b Z b ux (x, t)utx (x, t)dx−c[ux (x, t)ut (x, t)]ba = 0. (9.6) utt (x, t)ut (x, t)dx+c a

a

A questo punto integriamo in tempo sull’intervallo (0, t) l’equazione (9.6). Osservando che utt ut = 21 (u2t )t e ux uxt = 12 (u2x )t , applicando il teorema fondamentale del calcolo integrale e ricordando le condizioni iniziali (8.72) (per cui ut (x, 0) = v0 (x) e ux (x, 0) = u0x (x)), otteniamo Z b Z b Z b v02 (x)dx u2x (x, t)dx = u2t (x, t)dx + c a

a

a

+c

Z

b

u20x (x)dx +

a

Z

t 0

(ux (b, s)ut (b, s) − ux (a, s)ut (a, s)) ds.

Rt L’identit` a (8.82) `e una immediata conseguenza del fatto che 0 (ux (b, s)ut (b, s)− o basta integrare per parti ed applicare ux (a, s)ut (a, s))ds = 0. Per provare ci` le condizioni al bordo di Dirichlet omogenee (8.73).

Soluzione 8.11 Per la definizione (8.63) basta verificare che ∞ X

j=−∞

|un+1 |2 ≤ j

∞ X

j=−∞

2 |un j| .

(9.7)

Consideriamo la formula (8.61), portiamo tutti i termini a primo membro e moltiplichiamo per un+1 . Grazie all’identit` a 2(a − b)a = a2 − b2 + (a − b)2 j abbiamo 2 n+1 2 n+1 n+1 n+1 |un+1 |2 − |un − un = 0, j | + |uj j | − λa(uj+1 − uj−1 )uj j P∞ n+1 n+1 n+1 quindi sommiamo su j e osservando che = 0 j=−∞ (uj+1 − uj−1 )uj abbiamo ∞ X

j=−∞

|un+1 |2 ≤ j

∞ X

j=−∞

|un+1 |2 + j

∞ X

j=−∞

2 |un+1 − un j| ≤ j

∞ X

j=−∞

2 |un j| .

Soluzione 8.12 Lo schema upwind (8.58) pu` o essere riscritto nella forma semplificata j n (1 − λa)un j + λauj−1 se a > 0 un+1 = n j (1 + λa)uj − λaun j+1 se a < 0. Consideriamo dapprima il caso a > 0. Se `e soddisfatta la condizione CFL, allora entrambi i coefficienti (1 − λa) e λa sono positivi e minori di 1.

9.8 Capitolo 8

341

Questo implica n n+1 n min{un ≤ max{un j−1 , uj } ≤ uj j−1 , uj }

e, procedendo per ricorsione, anche ≤ sup{u0l } inf {u0l } ≤ un+1 j

l∈Z

l∈Z

∀n ≥ 0,

da cui si ottiene la stima (8.85). Quando a < 0, sempre grazie alla condizione CFL, entrambi i coefficienti (1 + λa) e −λa sono positivi e minori di 1. Procedendo analogamente a quanto fatto sopra si deduce ancora la stima (8.85). Soluzione 8.13 Per risolvere numericamente il problema (8.47) possiamo utilizzare il Programma 9.5 sotto riportato. Osserviamo che la soluzione esatta del problema assegnato `e l’onda viaggiante di velocit`a a = 1, ovvero u(x, t) = 2 cos(4π(x − t)) + sin(20π(x − t)). Essendo fissato il numero di CFL pari a 0.5, i parametri di discretizzazione ∆x e ∆t saranno legati dalla proporzione ∆t = CF L · ∆x e quindi potremo scegliere arbitrariamente solo uno dei due parametri. La verifica dell’ordine di accuratezza rispetto a ∆t potr` a essere effettuata mediante le seguenti istruzioni: xspan =[0 ,0.5]; tspan =[0 ,1]; a =1; cfl =0.5; u0 = inline ( ’ 2* cos (4* pi * x )+ sin (20* pi * x ) ’ , ’x ’ ); uex = inline ([ ’ 2* cos (4* pi *( x - t ))+ ’ ,... ’ sin (20* pi *( x - t )) ’] , ’x ’ , ’t ’ ); ul = inline ( ’ 2* cos (4* pi * t ) - sin (20* pi * t ) ’ , ’t ’ ); DT =[1. e -2 ,5. e -3 ,2. e -3 ,1. e -3 ,5. e -4 ,2. e -4 ,1. e -4]; e_lw =[]; e_up =[]; for deltat = DT deltax = deltat * a / cfl ; [ xx , tt , u_lw ]= hyper ( xspan , tspan , u0 , ul ,2 ,... cfl , deltax , deltat ); [ xx , tt , u_up ]= hyper ( xspan , tspan , u0 , ul ,3 ,... cfl , deltax , deltat ); U = feval ( uex , xx , tt ( end )); [ Nx , Nt ]= size ( u_lw ); e_lw =[ e_lw sqrt ( deltax )* norm ( u_lw ( Nx ,:) - U ,2)]; e_up =[ e_up sqrt ( deltax )* norm ( u_up ( Nx ,:) - U ,2)]; end p_lw = log ( abs ( e_lw (1: end -1)./ e_lw (2: end )))./... log ( DT (1: end -1)./ DT (2: end )) p_up = log ( abs ( e_up (1: end -1)./ e_up (2: end )))./... log ( DT (1: end -1)./ DT (2: end )) p_lw = 0.1939 p_up = 0.2272

1.8626

2.0014

2.0040

2.0112

2.0239

0.3604

0.5953

0.7659

0.8853

0.9475

Operando analogamente un ciclo al variare di ∆x, si verifica l’ordine di accuratezza rispetto alla discretizzazione in spazio.

342

9 Soluzione degli esercizi proposti

Programma 9.5. hyper: gli schemi Lax-Friedrichs, Lax-Wendroff e upwind function [ xx , tt , u ]= hyper ( xspan , tspan , u0 , ul ,... scheme , cfl , deltax , deltat ) % HYPER approssimazi o ne eq scalare iperbolica , a >0 % [ XX , TT , U ]= HYPER ( XSPAN , TSPAN , U0 , UL , SCHEME , CFL ,... % DELTAX , DELTAT ) % risolve l ’ equazione differenziale iperbolica scalare % DU / DT + A * DU / DX =0 % in ( XSPAN (1) , XSPAN (2)) x ( TSPAN (1) , TSPAN (2)) % con condizione iniziale U (X ,0)= U0 ( X ) e % condizione al bordo U ( T )= UL ( T ) assegnata in XSPAN (1) % con vari schemi alle differenze finite . % scheme = 1 Lax - Friedrichs % 2 Lax - Wendroff % 3 Upwind % La velocita ’ di propagazione A non e ’ richiesta % esplicitamente , essendo CFL = A * DELTAT / DELTAX % In output XX e ’ il vettore della discretizza zi o ne % in x ; TT e ’ il vettore della discretizza zi on e in t % U e ’ una matrice che contiene la soluzione numerica : % U (n ,:) contiene la sol all ’ istante temporale TT ( n ) % U0 e UL possono essere inline o anonymous function o % function definite tramite M - file . Nt =( tspan (2) - tspan (1))/ deltat +1; tt = linspace ( tspan (1) , tspan (2) , Nt ); Nx =( xspan (2) - xspan (1))/ deltax +1; xx = linspace ( xspan (1) , xspan (2) , Nx ); u = zeros ( Nt , Nx ); cfl2 = cfl *0.5; cfl21 =1 - cfl ^2; cflp1 = cfl +1; cflm1 = cfl -1; u (1 ,:)= feval ( u0 , xx ); for n =1: Nt -1 u ( n +1 ,1)= feval ( ul , tt ( n +1)); if scheme == 1 % Lax Friedrichs for j =2: Nx -1 u ( n +1 , j )=0.5*( - cflm1 * u (n , j +1)+ cflp1 * u (n ,j -1)); end j = Nx ; u ( n +1 , j )=0.5*( - cflm1 *(2* u (n , j ) - u (n ,j -1))+... cflp1 * u (n ,j -1)); elseif scheme == 2 % Lax Wendroff for j =2: Nx -1 u ( n +1 , j )= cfl21 * u (n , j )+... cfl2 *( cflm1 * u (n , j +1)+ cflp1 * u (n ,j -1)); end j = Nx ; u ( n +1 , j )= cfl21 * u (n , j )+... cfl2 *( cflm1 *(2* u (n , j ) - u (n ,j -1))+ cflp1 * u (n ,j -1)); elseif scheme ==3 % Upwind for j =2: Nx u ( n +1 , j )= - cflm1 * u (n , j )+ cfl * u (n ,j -1); end end end

9.8 Capitolo 8

343

Soluzione 8.14 Osserviamo che la soluzione esatta del problema `e la somma di due armoniche semplici, una a bassa frequenza e l’altra ad alta frequenza. Avendo scelto ∆t = 5 · 10−2 , poich´e a = 1 e CFL=0.8, si ha ∆x = 6.25e − 3 e quindi i due angoli di fase associati alle due armoniche sono φk1 = 4π · 6.25e − 3 ≃ 0.078 e φk2 = 20π · 6.25e − 3 ≃ 0.393. Dalla Figura 8.17 `e evidente che lo schema upwind `e pi` u dissipativo dello schema di Lax-Wendroff. Ci`o `e confermato dall’andamento degli errori di dissipazione (si veda il grafico in basso a destra della Figura 8.13), infatti la curva associata allo schema di LaxWendroff si mantiene pi` u vicina a 1 rispetto a quella associata allo schema upwind per i valori di φk corrispondenti alle armoniche in esame. Per quanto riguarda l’errore di dispersione, dalla Figura 8.17 emerge che lo schema di Lax-Wendroff ha un ritardo di fase, mentre lo schema upwind ha un leggero anticipo di fase. Analizzando il grafico in basso a destra della Figura 8.14 troviamo conferma di ci` o e possiamo anche concludere che il ritardo dello schema di Lax-Wendroff `e maggiore di quanto non sia l’anticipo dello schema upwind.

Riferimenti bibliografici

[ABB+ 99]

[Ada90] [Arn73] [Atk89] [Axe94] [BB96] [BC98] [BM92] [Bra97]

[BS01]

[But87]

[CFL28]

[CHQZ06]

Anderson E., Bai Z., Bischof C., Blackford S., Demmel J., Dongarra J., Croz J. D., Greenbaum A., Hammarling S., McKenney A., and Sorensen D. (1999) LAPACK User’s Guide. 3rd edition. SIAM, Philadelphia. Adair R. (1990) The Physics of Baseball. Harper and Row, New York. Arnold V. (1973) Ordinary Differential Equations. The MIT Press, Cambridge. Atkinson K. (1989) An Introduction to Numerical Analysis. 2nd edition. John Wiley & Sons Inc., New York. Axelsson O. (1994) Iterative Solution Methods. Cambridge University Press, Cambridge. Brassard G. and Bratley P. (1996) Fundamentals of Algorithmics. Prentice Hall Inc., Englewood Cliffs, NJ. Bernasconi A. and Codenotti B. (1998) Introduzione alla complessit` a computazionale. Springer-Verlag Italia, Milano. Bernardi C. and Maday Y. (1992) Approximations Spectrales des Probl´emes aux Limites Elliptiques. Springer-Verlag, Paris. Braess D. (1997) Finite Elements: Theory, Fast Solvers and Applications in Solid Mechanics. Cambridge University Press, Cambridge. Babuska I. and Strouboulis T. (2001) The Finite Element Method and its Reliability. Numerical Mathematics and Scientific Computation. The Clarendon Press Oxford University Press, New York. Butcher J. (1987) The Numerical Analysis of Ordinary Differential Equations: Runge-Kutta and General Linear Methods. Wiley, Chichester. ¨ Courant R., Friedrichs K., and Lewy H. (1928) Uber die partiellen Differenzengleichungen der mathematischen Physik. Math. Ann. 100(1): 32–74. Canuto C., Hussaini M. Y., Quarteroni A., and Zang T. A. (2006) Spectral Methods: Fundamentals in Single Domains. Scientific Computation. Springer-Verlag, Berlin.

346

Riferimenti bibliografici

[CHQZ07]

[CLW69] [Com95] [Dav63]

[dB01] [DD99]

[Dem97] [Deu04]

[Die93]

[DL92] [DR75] [DS96]

[dV89] [Eat02] [EEHJ96]

[EKM05] [Fun92] [Gau97] [Gea71] [GI04]

Canuto C., Hussaini M. Y., Quarteroni A., and Zang T. A. (2007) Spectral Methods. Evolution to Complex Geometries and Applications to Fluid Dynamics. Scientific Computation. Springer, Heidelberg. Carnahan B., Luther H., and Wilkes J. (1969) Applied Numerical Methods. John Wiley & Sons, Inc., New York. Comincioli V. (1995) Analisi Numerica Metodi Modelli Applicazioni. 2a edizione. McGraw-Hill Libri Italia, Milano. Davis P. (1963) Interpolation and Approximation. Blaisdell Publishing Co. Ginn and Co. New York-Toronto-London, New York. de Boor C. (2001) A practical guide to splines. Applied Mathematical Sciences. Springer-Verlag, New York. Davis T. and Duff I. (1999) A combined unifrontal/multifrontal method for unsymmetric sparse matrices. ACM Transactions on Mathematical Software 25(1): 1–20. Demmel J. (1997) Applied Numerical Linear Algebra. SIAM, Philadelphia. Deuflhard P. (2004) Newton Methods for Nonlinear Problems. Affine Invariance and Adaptive Algorithms. Springer Series in Computational Mathematics. Springer-Verlag, Berlin. Dierckx P. (1993) Curve and Surface Fitting with Splines. Monographs on Numerical Analysis. The Clarendon Press Oxford University Press, New York. DeVore R. and Lucier B. (1992) Wavelets. In Acta numerica, 1992, pages 1–56. Cambridge Univ. Press, Cambridge. Davis P. and Rabinowitz P. (1975) Methods of Numerical Integration. Academic Press, New York. Dennis J. and Schnabel R. (1996) Numerical Methods for Unconstrained Optimization and Nonlinear Equations. Classics in Applied Mathematics. Society for Industrial and Applied Mathematics (SIAM), Philadelphia, PA. der Vorst H. V. (1989) High Performance Preconditioning. SIAM J. Sci. Stat. Comput. 10: 1174–1185. Eaton J. (2002) GNU Octave Manual. Network Theory Ltd., Bristol. Eriksson K., Estep D., Hansbo P., and Johnson C. (1996) Computational Differential Equations. Cambridge Univ. Press, Cambridge. Etter D., Kuncicky D., and Moore H. (2005) Introduction to MATLAB 7. Prentice Hall, Englewood Cliffs. Funaro D. (1992) Polynomial Approximation of Differential Equations. Springer-Verlag, Berlin Heidelberg. Gautschi W. (1997) Numerical Analysis. An Introduction. Birkh¨ auser Boston Inc., Boston, MA. Gear C. (1971) Numerical Initial Value Problems in Ordinary Differential Equations. Prentice-Hall, Upper Saddle River NJ. George A. and Ikramov K. (2004) Gaussian elimination is stable for the inverse of a diagonally dominant matrix. Math. Comp. 73(246): 653–657.

Riferimenti bibliografici [GL96] [GN06] [GR96] [Hac85]

[Hac94]

[Hes98]

[HH05] [Hig02]

[Hir88] [HLR06]

[HRK04] [IK66] [Joh90]

[Kr¨ o98]

[KS99] [Lam91] [Lan03]

[LeV02] [Mei67]

[MH03]

347

Golub G. and Loan C. V. (1996) Matrix Computations. 3rd edition. The John Hopkins Univ. Press, Baltimore, MD. Giordano N. and Nakanishi H. (2006) Computational Physics. 2nd edition. Prentice-Hall, Upper Saddle River NJ. Godlewski E. and Raviart P.-A. (1996) Hyperbolic Systems of Conservations Laws. Springer-Verlag, New York. Hackbusch W. (1985) Multigrid Methods and Applications. Springer Series in Computational Mathematics. Springer-Verlag, Berlin. Hackbusch W. (1994) Iterative Solution of Large Sparse Systems of Equations. Applied Mathematical Sciences. Springer-Verlag, New York. Hesthaven J. (1998) From electrostatics to almost optimal nodal sets for polynomial interpolation in a simplex. SIAM J. Numer. Anal. 35(2): 655–676. Higham D. and Higham N. (2005) MATLAB Guide. 2nd edition. SIAM Publications, Philadelphia, PA. Higham N. (2002) Accuracy and Stability of Numerical Algorithms. 2nd edition. SIAM Publications, Philadelphia, PA. Hirsh C. (1988) Numerical Computation of Internal and External Flows. John Wiley and Sons, Chichester. Hunt B., Lipsman R., and Rosenberg J. (2006) A guide to MATLAB. For Beginners and Experienced Users. 2nd edition. Cambridge University Press, Cambridge. Halliday D., Resnick R., and Krane K. (2004) Fisica 2. Casa Editrice Ambrosiana, Milano. Isaacson E. and Keller H. (1966) Analysis of Numerical Methods. Wiley, New York. Johnson C. (1990) Numerical Solution of Partial Diffferential Equations by the Finite Element Method. Cambridge University Press, Cambridge. Kr¨ oner D. (1998) Finite Volume Schemes in Multidimensions. In Numerical analysis 1997 (Dundee), Pitman Res. Notes Math. Ser., pages 179–192. Longman, Harlow. Karniadakis G. and Sherwin S. (1999) Spectral/hp Element Methods for CFD. Oxford University Press, New York. Lambert J. (1991) Numerical Methods for Ordinary Differential Systems. John Wiley and Sons, Chichester. Langtangen H. (2003) Advanced Topics in Computational Partial Differential Equations: Numerical Methods and Diffpack Programming. Springer-Verlag, Berlin Heidelberg. LeVeque R. (2002) Finite Volume Methods for Hyperbolic Problems. Cambridge University Press, Cambridge. Meinardus G. (1967) Approximation of Functions: Theory and Numerical Methods. Springer Tracts in Natural Philosophy. Springer-Verlag New York, Inc., New York. Marchand P. and Holland O. (2003) Graphics and GUIs with MATLAB. 3rd edition. Chapman & Hall/CRC, London, New York.

348 [Nat65]

Riferimenti bibliografici

Natanson I. (1965) Constructive Function Theory. Vol. III. Interpolation and approximation quadratures. Frederick Ungar Publishing Co., New York. [OR70] Ortega J. and Rheinboldt W. (1970) Iterative Solution of Nonlinear Equations in Several Variables. Academic Press, New York, London. [Pal08] Palm W. (2008) A Concise Introduction to Matlab. McGrawHill, New York. [Pan92] Pan V. (1992) Complexity of Computations with Matrices and Polynomials. SIAM Review 34(2): 225–262. [PBP02] Prautzsch H., Boehm W., and Paluszny M. (2002) Bezier and B-Spline Techniques. Mathematics and Visualization. SpringerVerlag, Berlin. ¨ ¨ [PdDKUK83] Piessens R., de Doncker-Kapenga E., Uberhuber C., and Kahaner D. (1983) QUADPACK: A Subroutine Package for Automatic Integration. Springer Series in Computational Mathematics. Springer-Verlag, Berlin. [Pra06] Pratap R. (2006) Getting Started with MATLAB 7: A Quick Introduction for Scientists and Engineers. Oxford University Press, New York. [QSS07] Quarteroni A., Sacco R., and Saleri F. (2007) Numerical Mathematics. 2nd edition. Texts in Applied Mathematics. Springer-Verlag, Berlin. [QSS08] Quarteroni A., Sacco R., and Saleri F. (2008) Matematica Numerica. 3a edizione. Springer-Verlag, Milano. [Qua08] Quarteroni A. (2008) Modellistica Numerica per Problemi Differenziali. 4a edizione. Springer-Verlag, Milano. [QV94] Quarteroni A. and Valli A. (1994) Numerical Approximation of Partial Differential Equations. Springer-Verlag, Berlin. [RR01] Ralston A. and Rabinowitz P. (2001) A First Course in Numerical Analysis. 2nd edition. Dover Publications Inc., Mineola, NY. [Saa92] Saad Y. (1992) Numerical Methods for Large Eigenvalue Problems. Manchester University Press, Manchester; Halsted Press (John Wiley & Sons, Inc.), Manchester; New York. [Saa03] Saad Y. (2003) Iterative Methods for Sparse Linear Systems. 2nd edition. SIAM publications, Philadelphia, PA. [SM03] S¨ uli E. and Mayers D. (2003) An Introduction to Numerical Analysis. Cambridge University Press, Cambridge. [TW98] Tveito A. and Winther R. (1998) Introduction to Partial Differential Equations. A Computational Approach. Springer-Verlag, Berlin Heidelberg. ¨ ¨ [Ube97] Uberhuber C. (1997) Numerical Computation: Methods, Software, and Analysis. Springer-Verlag, Berlin. [Urb02] Urban K. (2002) Wavelets in Numerical Simulation. Lecture Notes in Computational Science and Engineering. Springer-Verlag, Berlin. [vdV03] van der Vorst H. (2003) Iterative Krylov Methods for Large Linear Systems. Cambridge Monographs on Applied

Riferimenti bibliografici

[Wes04] [Wil88]

[Zha99]

349

and Computational Mathematics. Cambridge University Press, Cambridge. Wesseling P. (2004) An Introduction to Multigrid Methods. R.T. Edwards, Inc., Philadelphia. Wilkinson J. (1988) The Algebraic Eigenvalue Problem. Monographs on Numerical Analysis. The Clarendon Press Oxford University Press, New York. Zhang F. (1999) Matrix theory. Universitext. Springer-Verlag, New York.

Indice analitico

Abel, teorema di, 65 abs, 9 Adams-Bashforth, metodo di, 229 Adams-Moulton, metodo di, 229 adattivit` a, 94, 121 Aitken, estrapolazione di, 62 algoritmo, 28 delle sostituzioni all’indietro, 136 delle sostituzioni in avanti, 136 di divisione sintetica, 66 di Gauss, 138 di Strassen, 29 di Thomas, 151, 258 aliasing, 92 amplificazione, errore di, 286 angle, 9 anonymous function, 18 ans, 31 arpackc, 198 arrotondamento, 4 assoluta stabilit` a, 217 regione di, 219, 230 autovalore, 17, 181 autovettore, 17, 181 axis, 191 Bairstow, metodo di, 71 banda, larghezza di, 155 base, 5 bicgstab, 169 bisezione, metodo di, 44 Broyden, metodo di, 71

Burgers, equazione di, 281 Butcher, array di, 227 cancellazione, 7 caratteristiche curve, 280 variabili, 292 Cartesio, regola di, 65 Cauchy problema di, 204 teorema di, 66 CFL condizione, 285, 297 numero, 285, 286 char, 83 Chebyshev, nodi di, 85, 86 chol, 143, 155 Cholesky, fattorizzazione di, 143 cholinc, 172, 178 cifre significative, 5 clear, 32 coefficiente di dissipazione, 286 di Fourier, 286 di viscosit` a artificiale, 283 compass, 9 complessit` a, 29 complex, 9 compressione di immagini, 184 comunicazioni elettriche, 255 cond, 149 condest, 149

352

Indice analitico

condizionamento, numero di, 149 condizione delle radici, 215 di Dirichlet, 256 di Neumann, 256, 299 di stabilit` a, 217 conj, 9 consistenza, 209, 211, 216 di un metodo iterativo, 157 ordine di, 209 contour, 333 conv, 22 convergenza, 27 del metodo di Eulero, 208 del metodo di Richardson, 163 di un metodo iterativo, 158 lineare, 58 quadratica, 49 cos, 32 costo computazionale, 28 cputime, 30 Cramer, regola di, 134 Crank-Nicolson, metodo di, 212, 274, 277 cross, 16 cumtrapz, 115 Dahlquist, barriera di, 230 dblquad, 126 decomposizione in valori singolari, 103, 152, 153 deconv, 22 deflazione, 67, 198 Dekker-Brent, metodo di, 70 demografia, 127, 183 derivata di una funzione, 24 parziale, 52, 253 det, 178 det, 12, 140 determinante, 12, 140 diag, 13 diagonale principale, 11, 13 diff, 24 differenze finite all’indietro, 110 centrate, 110 in avanti, 109 in dimensione 1, 257, 259, 272, 282

in dimensione 2, 265 schema a 5 punti, 266 differenziazione numerica, 109 Dirichlet, condizione di, 256 disp, 33, 304 dispersione, errore di, 287 dissipazione coefficiente di, 286 errore di, 286 dominio di dipendenza, 293 dot, 16 economia, 131 eig, 194 eigs, 196 elementi finiti, 261, 277, 287 end, 30 eps, 5, 6 equazione alle derivate parziali, 201 del calore, 254, 272, 277 del telegrafo, 255 delle onde, 254, 291 di Burgers, 281 di diffusione-trasporto, 259, 264 di diffusione-trasporto-reazione, 258 di Poisson, 253, 256 di trasporto, 280, 282, 287 differenziale ordinaria, 201 equazioni di Lotka-Volterra, 202, 235 normali, 102, 152 errore assoluto, 5 computazionale, 27 di amplificazione, 286 di arrotondamento, 5, 7, 26, 146, 187, 212 di dispersione, 287 di dissipazione, 286 di perturbazione, 221 di troncamento, 27, 271 globale, 209 locale, 209, 212, 216, 271, 274, 284 relativo, 5 stimatore dell’, 28, 122 esponente, 5

Indice analitico estrapolazione di Aitken, 62 di Richardson, 127 etime, 30 Eulero, metodo di all’indietro, 206, 277 all’indietro/centrato, 284 convergenza del, 208 esplicito, 206 implicito, 206 in avanti, 205 in avanti adattivo, 218 in avanti/centrato, 282 in avanti/decentrato, 283, 296 migliorato, 232 eval, 18 exit, 31 exp, 32 eye, 11 F, 5 fattore di convergenza asintotico, 58 fattorizzazione di Cholesky, 143, 189 LU, 135, 189 QR, 152, 194 feval, 18 FFT, 88, 90 fft, 90 fftshift, 90 Fibonacci, successione di, 34, 40 figure, 191 find, 45 fix, 304 flops, 139 flusso di diffusione artificiale, 283 numerico, 282 for, 34 format, 4 formula di Eulero, 9 formula di quadratura composita del punto medio, 112 del trapezio, 114 di Simpson, 116 di Gauss-Legendre, 119 di Gauss-Legendre-Lobatto, 120 di Newton-Cotes, 125

353

di Simpson adattiva, 124 interpolatoria, 117 semplice del punto medio, 113 del trapezio, 115 di Simpson, 116 formulazione debole, 261 Fourier serie discreta, 89 trasformata rapida di, 90 fplot, 17 fsolve, 71, 72, 207 function, 35 funtool, 25 funzione derivabile, 24 di forma, 263 di iterazione, 55 di Runge, 83 grafico di, 17 lipschitziana, 205, 215 primitiva, 23 reale, 17 fzero, 20, 70, 72 gallery, 174 Gauss algoritmo di, 138 fattorizzazione di, 138 Gauss-Legendre, formula di quadratura di, 119 Gauss-Legendre-Lobatto, formula di quadratura di, 120 Gauss-Seidel, metodo di, 161 Gershgorin, cerchi di, 191 gmres, 169 grado di esattezza, 113 grid, 18 griddata, 104 griddata3, 104 griddatan, 104 help, 32, 37 Hermite, interpolazione di, 98 Heun, metodo di, 232 Hilbert, matrice di, 147 hold off, 191 hold on, 191

354

Indice analitico

if, 30 ifft, 90 imag, 9 image, 196 imread, 196 Inf, 6 inline, 18 int, 24 integrazione numerica, 112 multidimensionale, 126 su intervalli illimitati, 126 interp1, 94 interp1q, 94 interp2, 104 interp3, 104 interpft, 91 interpolatore, 79 di Hermite, 98 di Lagrange, 79 polinomiale, 79 razionale, 79 trigonometrico, 79, 88, 91 interpolazione con funzioni spline, 94 lineare composita, 93 nodi di, 78 polinomiale di Lagrange, 79 stabilit` a, 84 inv, 12 inversa di una matrice, 320 Jacobi, metodo di, 159 Kronecker, simbolo di, 80 Lagrange interpolatore di, 81 interpolazione di, 79 LAPACK, 155 Laplace operatore di, 253, 266 regola di, 12 Lax-Friedrichs, metodo di, 282 Lax-Ritchmyer, teorema di, 216 Lax-Wendroff, metodo di, 282, 296 Leap-Frog, metodo di, 239, 295 Lebesgue, costante di, 85, 87 Legendre, polinomi di, 119 Lipschitz, costante di, 205, 215

load, 32 loglog, 27 Lotka-Volterra, equazioni di, 202, 235 lu, 140, 155 LU, fattorizzazione, 135 luinc, 175, 178 m-file, 34 magic, 178 mantissa, 5 mass-lumping, 279 matrice, 11 a banda, 155 a dominanza diagonale, 142 a dominanza diagonale stretta, 160, 162 a rango pieno, 152 bidiagonale, 151 definita positiva, 142, 162 di Hankel, 175 di Hilbert, 147, 175 di iterazione, 158 di Leslie, 183 di massa, 278 di permutazione, 145 di precondizionamento, 165 di Riemann, 175 di Toeplitz, 175 di Vandermonde, 139, 175 di Wilkinson, 199 diagonale, 13 diagonalizzabile, 181 hermitiana, 14 identit` a, 11 inversa, 12 jacobiana, 52 ortogonale, 152 pseudoinversa, 153 quadrata, 11 simmetrica, 14, 142 sparsa, 151, 155, 172, 176, 268 trasposta, 14 triangolare inferiore, 14 triangolare superiore, 14 tridiagonale, 151, 258 unitaria, 153 media, 106 membrana, 270

Indice analitico mesh, 268 meshgrid, 104, 333 metodi BDF, 229 di Adams-Bashforth, 229 di Adams-Moulton, 229 di Krylov, 169, 177 di Runge-Kutta, 227 iterativi, 157 multigrid, 178 multistep, 215, 216, 229 predictor-corrector, 232 quasi-Newton, 71 metodo θ−, 273 A-stabile, 219 ad un passo, 206 BiCGstab, 169 consistente, 209, 216 degli elementi finiti, 261 dei minimi quadrati, 99, 100 del gradiente, 164 del gradiente coniugato, 166 delle iterazioni QR, 194 delle potenze inverse, 188 delle potenze inverse con shift, 189 di Aitken, 63 di Bairstow, 71 di bisezione, 44 di Broyden, 71 di Crank-Nicolson, 212, 274, 277 di Dekker-Brent, 70 di Eulero all’indietro, 206, 277 di Eulero all’indietro/centrato, 284 di Eulero esplicito, 206 di Eulero implicito, 206 di Eulero in avanti, 205 di Eulero in avanti adattivo, 218 di Eulero in avanti/centrato, 282 di Eulero in avanti/decentrato, 283, 296 di Eulero migliorato, 232 di Gauss-Seidel, 161 di Heun, 232 di H¨ orner, 66 di Jacobi, 159 di Lax-Friedrichs, 282 di Lax-Wendroff, 282, 296 di M¨ uller, 71

355

di Newmark, 239, 293 di Newton, 48 di Newton-H¨ orner, 68 di punto fisso, 55 di Richardson dinamico, 163 di Richardson stazionario, 163 di rilassamento, 162 di Steffensen, 62 di Leap-Frog, 239, 295 esplicito, 206 GMRES, 169 implicito, 206 iterativo convergenza di un, 157 multifrontale, 177 SOR, 179 spettrale, 298 upwind, 283, 296 mkpp, 96 modello di Leontief, 131 di Lotka e Leslie, 183 multigrid, metodi, 178 multistep, metodi, 215, 216, 229 M¨ uller, metodo di, 71 NaN, 7 nargin, 37 nargout, 37 nchoosek, 303 Neumann, condizione di, 256, 299 Newmark, metodo di, 239, 293 Newton, metodo di, 48 Newton-Cotes, formule di quadratura di, 125 Newton-H¨ orner, metodo di, 68 nodi d’interpolazione, 78 di quadratura, 118 norm, 16 norma di matrice, 149 euclidea, 16, 147 not-a-knot condition, 96 numeri complessi, 8 floating-point, 3, 5 macchina, 3 reali, 3

356

Indice analitico

numero di condizionamento, 149 dell’interpolazione, 85 ode, 228 ode113, 234 ode15s, 231, 250 ode23, 228, 252, 335 ode23s, 250 ode23tb, 229 ode45, 228 ones, 15 operatore di Laplace, 253 gradiente, 299 ordinamento lessicografico, 266 overflow, 6, 7, 55 P´eclet, numero di globale, 259 locale, 260 passo di discretizzazione, 205 patch, 191 path, 34 pattern di una matrice, 151 pcg, 168 pchip, 98 pde, 270, 298 pdetool, 104 pesi di quadratura, 118 piano delle fasi, 236 di Gauss, 10 piastra, 299 pivot, elementi, 138 pivoting, 144 per righe, 145 totale, 320 Pn , 20 Poisson equazione di, 253, 256 problema di, 257, 261, 265 polinomi di Legendre, 119 divisione di, 22, 67 radici di, 22 polinomio, 21 caratteristico, 81, 181 di Lagrange, 118 primo, 215

di Taylor, 24 nodale, 119 poly, 40, 83 polyder, 23, 84 polyfit, 23, 101 polyint, 23 polyval, 81 polyval, 21 ppval, 96 precondizionatore, 158, 163 predictor-corrector, metodi, 232 pretty, 302 problema ai limiti, 253 di Cauchy, 204 di diffusione-trasporto, 259, 264 di diffusione-trasporto-reazione, 258 di Dirichlet, 256 di Neumann, 256 di Poisson, 257, 261, 265 modello, 216 stiff, 246 prod, 304 prodotto di matrici, 12 scalare, 16 vettore, 16 punti di equilibrio, 236 punto fisso, 55 iterazione di, 55 punto medio, formula di quadratura del, 112, 113 QR, fattorizzazione, 152 quad2dc, 126 quad2dg, 126 quadl, 120 quit, 31 quiver, 16 quiver3, 16 radice di una funzione, 19 multipla, 19, 22 semplice, 19, 48 raggio spettrale, 158 rand, 30 rango di matrice, 152

Indice analitico

357

Rayleigh, quoziente di, 181 real, 9 realmax, 6 realmin, 6 regola di Cartesio, 65 di Cramer, 134 di Laplace, 12 residuo, 50, 150, 169 precondizionato, 159 relativo, 165 retta di regressione, 101 return, 36, 304 Richardson, estrapolazione di, 127 roots, 22, 71 rpmak, 104 rsmak, 104 Runge, funzione di, 83 Runge-Kutta metodi di, 227 stadi del metodo, 227

spline, 96 spy, 172, 268 sqrt, 32 stabilit` a asintotica, 274 assoluta, 217 condizionata, 218 incondizionata, 218 regione di, 219 dell’interpolazione, 84 zero, 214, 216 Steffensen, metodo di, 62 stiff, problema, 246 stimatore dell’errore, 28, 50 Strassen, algoritmo di, 29 Sturm, successioni di, 71, 198 sum, 303 SVD, 103, 153 svd, 154 svds, 154 syms, 25, 322

save, 32 scala logaritmica, 27 semi-discretizzazione, 273, 277 serie discreta di Fourier, 89 shift, 189 simple, 25, 322 Simpson formula di quadratura, 116 formula di quadratura adattiva di, 124 Simpson, formula di quadratura di, 116 sin, 32 sistema iperbolico, 292 lineare, 129 sottodeterminato, 137, 152 sovradeterminato, 152 triangolare, 136 soluzione debole, 281 somma di matrici, 11 sparse, 151 spdemos, 104 spdiags, 151 spettro di una matrice, 184 spline, 94 cubica naturale, 95

taylor, 24 Taylor, polinomio di, 24, 77 taylortool, 78 tempo di CPU, 30 teorema del valor medio, 24 della media integrale, 24 di Abel, 65 di Cauchy, 66 di Lax-Ritchmyer, 216 di Ostrowski, 57 fondamentale del calcolo integrale, 23 Thomas, algoritmo di, 151, 258 title, 191 toolbox, 2, 21 trapezio, formula di quadratura del, 114, 115 trapz, 115 trasformata rapida di Fourier, 90 trasposto coniugato, 16 tril, 14 triu, 14 UMFPACK, 156 underflow , 6, 7 unit` a di arrotondamento, 5

358

Indice analitico

upwind, 283 valori singolari, 153 vander, 139 varargin, 45 varianza, 106 vettore colonna, 11 riga, 11 vettori A-coniugati, 166 A-ortogonali, 166 linearmente indipendenti, 15 viabilit` a, 183 viscosit` a artificiale, 264

wavelet, 105 wavelet, 105 while, 34 wilkinson, 199 xlabel, 191 ylabel, 191 zero di una funzione, 19 multiplo, 19 semplice, 19, 48 zero-stabilit` a, 214, 216 zeros, 11, 15

Collana Unitext - La Matematica per il 3+2 a cura di F. Brezzi (Editor-in-Chief) P. Biscari C. Ciliberto A. Quarteroni G. Rinaldi W.J. Runggaldier Volumi pubblicati. A partire dal 2004, i volumi della serie sono contrassegnati da un numero di identificazione. I volumi indicati in grigio si riferiscono a edizioni non più in commercio A. Bernasconi, B. Codenotti Introduzione alla complessità computazionale 1998, X+260 pp. ISBN 88-470-0020-3 A. Bernasconi, B. Codenotti, G. Resta Metodi matematici in complessità computazionale 1999, X+364 pp, ISBN 88-470-0060-2 E. Salinelli, F. Tomarelli Modelli dinamici discreti 2002, XII+354 pp, ISBN 88-470-0187-0 S. Bosch Algebra 2003, VIII+380 pp, ISBN 88-470-0221-4 S. Graffi, M. Degli Esposti Fisica matematica discreta 2003, X+248 pp, ISBN 88-470-0212-5 S. Margarita, E. Salinelli MultiMath - Matematica Multimediale per l’Università 2004, XX+270 pp, ISBN 88-470-0228-1

A. Quarteroni, R. Sacco, F. Saleri Matematica numerica (2a Ed.) 2000, XIV+448 pp, ISBN 88-470-0077-7 2002, 2004 ristampa riveduta e corretta (1a edizione 1998, ISBN 88-470-0010-6) 13. A. Quarteroni, F. Saleri Introduzione al Calcolo Scientifico (2a Ed.) 2004, X+262 pp, ISBN 88-470-0256-7 (1a edizione 2002, ISBN 88-470-0149-8) 14. S. Salsa Equazioni a derivate parziali - Metodi, modelli e applicazioni 2004, XII+426 pp, ISBN 88-470-0259-1 15. G. Riccardi Calcolo differenziale ed integrale 2004, XII+314 pp, ISBN 88-470-0285-0 16. M. Impedovo Matematica generale con il calcolatore 2005, X+526 pp, ISBN 88-470-0258-3 17. L. Formaggia, F. Saleri, A. Veneziani Applicazioni ed esercizi di modellistica numerica per problemi differenziali 2005, VIII+396 pp, ISBN 88-470-0257-5 18. S. Salsa, G. Verzini Equazioni a derivate parziali - Complementi ed esercizi 2005, VIII+406 pp, ISBN 88-470-0260-5 2007, ristampa con modifiche 19. C. Canuto, A. Tabacco Analisi Matematica I (2a Ed.) 2005, XII+448 pp, ISBN 88-470-0337-7 (1a edizione, 2003, XII+376 pp, ISBN 88-470-0220-6) 20. F. Biagini, M. Campanino Elementi di Probabilità e Statistica 2006, XII+236 pp, ISBN 88-470-0330-X

21. S. Leonesi, C. Toffalori Numeri e Crittografia 2006, VIII+178 pp, ISBN 88-470-0331-8 22. A. Quarteroni, F. Saleri Introduzione al Calcolo Scientifico (3a Ed.) 2006, X+306 pp, ISBN 88-470-0480-2 23. S. Leonesi, C. Toffalori Un invito all’Algebra 2006, XVII+432 pp, ISBN 88-470-0313-X 24. W.M. Baldoni, C. Ciliberto, G.M. Piacentini Cattaneo Aritmetica, Crittografia e Codici 2006, XVI+518 pp, ISBN 88-470-0455-1 25. A. Quarteroni Modellistica numerica per problemi differenziali (3a Ed.) 2006, XIV+452 pp, ISBN 88-470-0493-4 (1a edizione 2000, ISBN 88-470-0108-0) (2a edizione 2003, ISBN 88-470-0203-6) 26. M. Abate, F. Tovena Curve e superfici 2006, XIV+394 pp, ISBN 88-470-0535-3 27. L. Giuzzi Codici correttori 2006, XVI+402 pp, ISBN 88-470-0539-6 28. L. Robbiano Algebra lineare 2007, XVI+210 pp, ISBN 88-470-0446-2 29. E. Rosazza Gianin, C. Sgarra Esercizi di finanza matematica 2007, X+184 pp, ISBN 978-88-470-0610-2 30. A. Machì Gruppi - Una introduzione a idee e metodi della Teoria dei Gruppi 2007, XII+349 pp, ISBN 978-88-470-0622-5

31. Y. Biollay, A. Chaabouni, J. Stubbe Matematica si parte! A cura di A. Quarteroni 2007, XII+196 pp, ISBN 978-88-470-0675-1 32. M. Manetti Topologia 2008, XII+298 pp, ISBN 978-88-470-0756-7 33. A. Pascucci Calcolo stocastico per la finanza 2008, XVI+518 pp, ISBN 978-88-470-0600-3 34. A. Quarteroni, R. Sacco, F. Saleri Matematica numerica, 3a Ed. 2008, XVI+510 pp, ISBN 978-88-470-0782-6 35. P. Cannarsa, T. D’Aprile Introduzione alla teoria della misura e all’analisi funzionale 2008, XII+268 pp, ISBN 978-88-470-0701-7 36. A. Quarteroni, F. Saleri Calcolo scientifico, 4a Ed. 2008, XIV+358 pp. ISBN 978-88-470-0837-3

Finito di stampare: giugno 2008