Outils mathématiques à l'usage des scientifiques et ingénieurs: Nouvelle édition 9782759817559

Cet ouvrage répond au besoin des physiciens, scientifiques, ingénieurs… qui doivent résoudre des problèmes mathématiques

147 30 5MB

French Pages 462 [461] Year 2021

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

Outils mathématiques à l'usage des scientifiques et ingénieurs: Nouvelle édition
 9782759817559

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Outils mathématiques à l’usage des scientifiques et ingénieurs

Grenoble Sciences Grenoble Sciences est un centre de conseil, expertise et labellisation de l’enseignement supérieur français. Il expertise les projets scientifiques des auteurs dans une démarche à plusieurs niveaux (référés anonymes, comité de lecture interactif) qui permet la labellisation des meilleurs projets après leur optimisation. Les ouvrages labellisés dans une collection de Grenoble Sciences ou portant la mention « Sélectionné par Grenoble Sciences » (Selected by Grenoble Sciences) correspondent à :  des projets clairement définis sans contrainte de mode ou de programme,  des qualités scientifiques et pédagogiques certifiées par le mode de sélection (les membres du comité de lecture interactif sont cités au début de l’ouvrage),  une qualité de réalisation assurée par le centre technique de Grenoble Sciences. Directeur scientifique de Grenoble Sciences Jean Bornarel, Professeur émérite à l’Université Joseph Fourier, Grenoble 1 Pour mieux connaître Grenoble Sciences : https://grenoble-sciences.ujf-grenoble.fr Pour contacter Grenoble Sciences : tél : (33) 4 76 51 46 95, e-mail : [email protected]

Livres et pap-ebooks Grenoble Sciences labellise des livres papier (en langue française et en langue anglaise) mais également des ouvrages utilisant d’autres supports. Dans ce contexte, situons le concept de pap-ebook. Celui-ci se compose de deux éléments :  un livre papier qui demeure l’objet central avec toutes les qualités que l’on connaît au livre papier  un site web compagnon qui propose : – des éléments permettant de combler les lacunes du lecteur qui ne posséderait pas les prérequis nécessaires à une utilisation optimale de l’ouvrage, – des exercices pour s’entraîner, – des compléments pour approfondir un thème, trouver des liens sur internet, etc. Le livre du pap-ebook est autosuffisant et certains lecteurs n’utiliseront pas le site web compagnon. D’autres l’utiliseront et ce, chacun à sa manière. Un livre qui fait partie d’un pap-ebook porte en première de couverture un logo caractéristique et le lecteur trouvera la liste de nos sites compagnons à l’adresse internet suivante : https://grenoble-sciences.ujf-grenoble.fr/pap-ebook Grenoble Sciences bénéficie du soutien de la région Rhône-Alpes et du ministère de l’Éducation nationale, de l’Enseignement supérieur et de la Recherche. Grenoble Sciences est rattaché à l’Université Joseph Fourier de Grenoble. ISBN 978 2 7598 1656 9 c EDP Sciences 2015 

Outils mathématiques à l’usage des scientifiques et ingénieurs Elie Belorizky

17, avenue du Hoggar Parc d’Activité de Courtabœuf - BP 112 91944 Les Ulis Cedex A - France

Outils mathématiques à l’usage des scientifiques et ingénieurs Cet ouvrage, labellisé par Grenoble Sciences, est un des titres du secteur Mathématiques de la collection Grenoble Sciences d’EDP Sciences, qui regroupe des projets originaux et de qualité. Cette collection est dirigée par Jean Bornarel, Professeur émérite à l’Université Joseph Fourier, Grenoble 1. Comité de lecture :  Pascal-Henri Fries, Ingénieur chercheur, CEA, Grenoble  Philippe Peyla, Professeur, Université Joseph Fourier, Grenoble 1  Marcel Vallade, Professeur honoraire, Université Joseph Fourier, Grenoble 1  Madeleine Veyssié, Professeur honoraire, Université Pierre et Marie Curie, Paris 6  José Teixeira, Directeur de recherche, CEA, Saclay Cette nouvelle édition a été suivie par Stéphanie Trine. Réalisation des nouveaux éléments : Pierre-Luc Manteaux (LATEX), Sylvie Bordage et Anne-Laure Passavant (figures). Illustration de couverture : Alice Giraud, d’après 2006-01-14 Surface waves.jpg (Wikimedia) : Ondes de surface sur de l’eau, image de Roger McLassus (améliorée par DemonDeLuxe, septembre 2006), 14 janvier 2006, sous licence CC-BY-SA-3.0 (http://creativecommons.org/licenses/by-sa/3.0/deed.en).

Autres ouvrages labellisés sur des thèmes proches (chez le même éditeur) : Mathématiques pour l’étudiant scientifique. Tomes I et II (P.-J. Haug) • Exercices corrigés d’analyse avec rappels de cours. Tomes I et II (D. Alibert) • Mathématiques pour les sciences de la Vie, de la Nature et de la Santé (J.-P. Bertrandias & F. Bertrandias) • Méthodes numériques appliquées pour le scientifique et l’ingénieur (J.-P. Grivet) • Analyse numérique et équations différentielles (J.-P. Demailly) • Mécanique. De la formulation lagrangienne au chaos hamiltonien (C. Gignoux & B. Silvestre-Brac) • Problèmes corrigés de mécanique et résumés de cours. De Lagrange à Hamilton (C. Gignoux & B. Silvestre-Brac) • Introduction à la mécanique statistique (E. Belorizky & W. Gorecki) • Mécanique statistique. Exercices et problèmes corrigés (E. Belorizky & W. Gorecki) • Analyse statistique des données expérimentales (K. Protassov) • Magnétisme : I Fondements, II Matériaux (sous la direction d’E. du Trémolet de Lacheisserie) • La mécanique quantique. Problèmes résolus. Tomes I et II (V.M. Galitski, B.M. Karnakov & V.I. Kogan) • Éléments de Biologie à l’usage d’autres disciplines. De la structure aux fonctions (P. Tracqui & J. Demongeot) • Minimum Competence in Scientific English (S. Blattes, V. Jans & J. Upjohn) • L’air et l’eau (R. Moreau) • Turbulence (M. Lesieur) • Thermodynamique Chimique (M. Robert & M. Ali Oturan) • Petit traité d’intégration. Riemann, Lebesgue et Kurzweil-Henstock (J.-Y. Briend) • Nombres et algèbre (J.-Y. Mérindol) • Introduction aux variétés différentielles (J. Lafontaine) • Description de la symétrie. Des groupes de symétrie aux structures fractales (J. Sivardière) • Symétrie et propriétés physiques. Des principes de Curie aux brisures de symétrie (J. Sivardière) • Approximation hilbertienne. Splines, ondelettes, fractales (M. Attéia & J. Gaches) et d’autres titres sur le site internet https://grenoble-sciences.ujf-grenoble.fr

A ma chère épouse Nicole

7KLVSDJHLQWHQWLRQDOO\OHIWEODQN

Avant-propos

Les mathématiques d’usage courant dans les sciences physiques et les sciences de l’ingénieur comportent trois grands domaines : l’algèbre linéaire, les probabilités et l’analyse. Cet ouvrage concerne essentiellement l’analyse et deux chapitres d’algèbre relatifs aux matrices et aux tenseurs ; il s’adresse à des lecteurs ayant déjà les notions de base du calcul différentiel et intégral, c’est-à-dire aux étudiants en deuxième année d’université et des classes préparatoires des lycées, ainsi qu’aux étudiants de troisième année de licence et de première année d’écoles d’ingénieurs. Ce livre est issu d’un enseignement donné aux étudiants de la licence de physique (troisième année) à l’université Joseph Fourier de Grenoble. Il comporte deux parties : Une première partie (les huit premiers chapitres) est enseignée au premier semestre de l’année universitaire et concerne tous les étudiants inscrits. Cette partie assez élémentaire traite d’abord la résolution des équations différentielles les plus simples, puis introduit les fonctions analytiques et les méthodes d’intégration dans le plan complexe ; elle aborde ensuite le calcul opérationnel (transformation de Laplace) et l’analyse de Fourier et se poursuit par la résolution de quelques équations aux dérivées partielles et, dans cette nouvelle édition, par un exposé assez détaillé du calcul matriciel. La seconde partie (les quatre derniers chapitres) qui est enseignée au second semestre est optionnelle et d’un niveau légèrement supérieur ; elle concerne surtout les étudiants qui désirent poursuivre leurs études en mastère. Après un chapitre concernant les tenseurs, on traite les propriétés de quelques familles de polynômes orthogonaux indispensables à la mécanique quantique, puis on décrit les propriétés essentielles des fonctions de Bessel et enfin on démontre les fameuses relations de Kramers– Kronig. Les techniques développées sont suffisantes pour traiter la majorité des phénomènes physiques fondamentaux qui font partie des programmes d’enseignement des différentes filières scientifiques. Ce livre n’est pas un cours de mathématiques au sens propre, mais il donne les moyens de résoudre les problèmes concrets qui se posent aux scientifiques dans les sciences expérimentales, tout en conservant un minimum de rigueur, ce qui le différencie d’un simple formulaire. Chaque chapitre est illustré par quelques applications physiques et par plusieurs exercices dont les corrigés sont donnés à la fin de l’ouvrage.

VIII

Avant-propos

Remerciements Je tiens à remercier les professeurs Marcel Vallade et Jean-Jacques Benayoun qui ont participé très activement à cet enseignement de mathématiques en licence de physique. Marcel Vallade a grandement contribué à la rédaction du chapitre sur les tenseurs et est à l’origine de plusieurs des exercices proposés. Le polycopié de travaux dirigés de Jean-Jacques Benayoun a été également une source de sujets de problèmes. Je voudrais aussi rendre un hommage appuyé au professeur Yves Ayant qui m’a initié à la théorie et dont les enseignements de mécanique quantique et de mathématiques m’ont profondément marqués et qui est lui-même l’auteur d’un remarquable ouvrage sur les fonctions spéciales. J’exprime aussi ma profonde gratitude à Mme Madeleine Veyssié, M. José Teixeira et M. Philippe Peyla qui ont corrigé mon manuscrit et m’ont fait des propositions constructives pour l’améliorer, ainsi qu’à M. Konstantin Protassov pour sa précieuse aide technique et ses conseils. Enfin je suis particulièrement reconnaissant à Pascal Fries qui m’a aidé dans la rédaction du chapitre sur l’algèbre linéaire et qui a corrigé la nouvelle édition de l’ouvrage.

Du même auteur : – avec W. Gorecki, Cours d’introduction à la mécanique statistique (Collection Grenoble Sciences, EDP Sciences, Paris, 2001). – avec W. Gorecki, Exercices et problèmes corrigés de mécanique statistique (Collection Grenoble Sciences, EDP Sciences, Paris, 2002). – avec Y. Ayant, Cours de mécanique quantique (Dunod, Paris, 2000). – Initiation à la mécanique quantique. Approche élémentaire et applications (Dunod, Paris, 2000). – Probabilités et statistiques dans les sciences expérimentales (Collection « 128 », Nathan-Université, Paris, 1998).

Table des matières

Chapitre 1 – Analyse vectorielle 1.1. Les opérateurs différentiels ......................................................... 1.1.1. Champ scalaire et champ vectoriel ...................................... 1.1.2. Opérateur gradient ......................................................... 1.1.3. Surface et gradient ......................................................... 1.1.4. Opérateur divergence ...................................................... 1.1.5. Opérateur rotationnel ...................................................... 1.1.6. Opérateur laplacien ........................................................ 1.1.7. Relations entre les opérateurs différentiels ............................. 1.2. Les potentiels ......................................................................... 1.2.1. Potentiel scalaire ........................................................... 1.2.2. Potentiel vecteur ............................................................ 1.3. Les intégrales curvilignes, de surface et de volume ............................. 1.3.1. Intégrale curviligne. Circulation d’un champ vectoriel ............... 1.3.2. Intégrale de surface. Flux d’un champ vectoriel ....................... 1.3.3. Intégrale de volume ........................................................ 1.4. Le théorème de Stokes ............................................................ 1.5. Le théorème d’Ostrogradsky ................................................... 1.6. Exercices ..............................................................................

1 1 1 2 3 4 6 7 8 8 8 9 9 9 11 13 13 16 20

X

Table des matières

Chapitre 2 – Les équations différentielles 2.1. Position du problème. Définitions ................................................. 2.2. Existence et unicité des solutions ................................................. 2.2.1. Equation du 1er ordre ..................................................... 2.2.2. Equation du 2e ordre ...................................................... 2.3. Généralités sur les équations du 1er ordre ....................................... 2.4. Les équations à variables séparées et séparables ................................ 2.5. Les équations homogènes du 1er ordre ........................................... 2.6. Les équations se ramenant aux équations homogènes .......................... 2.7. Les équations linéaires du 1er ordre ............................................... 2.8. L’équation de Bernoulli .......................................................... 2.9. Les équations aux différentielles totales .......................................... 2.10. Facteur intégrant ..................................................................... 2.11. Solution singulière d’une équation du 1er ordre ................................. 2.12. Généralités sur les équations d’ordre supérieur à 1 .............................

23 23 24 24 25 26 26 27 28 29 31 31 33 34 36

2.13. Les équations de la forme y (n) = f (x) ............................................ 2.14. Exemples d’équations du 2e ordre se ramenant à des équations du 1er ordre ........................................................................... 2.15. Les équations linéaires homogènes ................................................ 2.15.1. Définitions ................................................................... 2.15.2. Propriétés .................................................................... 2.16. Les équations linéaires homogènes du 2e ordre à coefficients constants ..... 2.17. Généralisation à une équation différentielle linéaire homogène d’ordre N à coefficients constants .............................................................. 2.18. Les équations linéaires non homogènes du 2e ordre ............................ 2.19. Les équations linéaires non homogènes du 2e ordre à coefficients constants .............................................................. 2.20. Application à un circuit électrique ................................................ 2.21. Les systèmes d’équations linéaires à coefficients constants .................... 2.22. L’intégration approchée des équations différentielles ........................... 2.22.1. L’intégration approchée d’une équation du 1er ordre ................. 2.22.2. Méthode de la série de Taylor .......................................... 2.22.3. Méthode de Runge et Kutta ........................................... 2.23. Exercices ..............................................................................

36

Chapitre 3 – Fonctions d’une variable complexe 3.1. Définitions et propriétés élémentaires ............................................. 3.1.1. Continuité ................................................................... 3.1.2. Fonction uniforme ..........................................................

37 38 38 39 42 43 44 46 48 50 54 54 55 56 58 65 65 66 66

Table des matières

3.2. 3.3.

3.4.

3.5. 3.6. 3.7. 3.8. 3.9. 3.10. 3.11. 3.12.

3.13.

3.14.

XI

3.1.3. Fonction analytique ........................................................ 66 3.1.4. Critère pour une fonction analytique .................................... 68 3.1.5. Mise d’une fonction analytique sous la forme Z = f (z) .............. 68 3.1.6. Quelques fonctions analytiques élémentaires ........................... 69 Points singuliers des fonctions analytiques. Fonctions holomorphes ......... 70 Fonctions multiformes ............................................................... 70 3.3.1. Exemples ..................................................................... 70 3.3.2. Uniformisation des fonctions multiformes à l’aide de coupures ..... 72 Intégrales des fonctions analytiques ............................................... 74 3.4.1. Intégrale curviligne d’une fonction complexe .......................... 74 3.4.2. Théorème de Cauchy ..................................................... 76 3.4.3. Extension du théorème de Cauchy .................................... 77 Séries entières dans le domaine complexe ........................................ 78 Formule de Cauchy ................................................................. 80 Développement d’une fonction holomorphe en série de Taylor ............. 81 Les zéros des fonctions analytiques ............................................... 83 Prolongement analytique d’un développement en série de Taylor ......... 84 Différents types de points singuliers .............................................. 85 Développement en série de Laurent ............................................. 85 Intégration par la méthode des résidus ........................................... 88 3.12.1. Théorème des résidus ...................................................... 88 3.12.2. Calcul des résidus relatifs aux pôles ..................................... 89 3.12.3. Applications au calcul d’intégrales définies réelles .................... 91 3.12.4. Intégration des fonctions multiformes ................................... 96 Transformation conforme ........................................................... 98 3.13.1. Définition .................................................................... 98 3.13.2. Systèmes orthogonaux du plan ........................................... 101 3.13.3. Applications physiques .................................................... 102 Exercices .............................................................................. 103

Chapitre 4 – Fonctions spéciales 107 4.1. La fonction bêta ...................................................................... 107 4.2. La fonction gamma et la fonction factorielle .................................... 108 4.3. Relation entre les fonctions bêta et gamma ..................................... 109 4.4. La formule des compléments ....................................................... 111 4.5. Propriétés de la fonction factorielle ............................................... 112 4.5.1. Fonctions gamma et factorielle pour les valeurs négatives de l’argument ............................................................... 112 4.5.2. Représentation graphique de la fonction factorielle ................... 113

XII

Table des matières

4.5.3. La fonction factorielle pour les nombres demi-entiers ................ 114 4.5.4. La formule de Stirling ................................................... 114 4.6. La fonction d’erreur ................................................................. 116 4.6.1. Définition et propriétés élémentaires .................................... 116 4.6.2. Développement asymptotique de la fonction d’erreur ................ 117 4.7. Exercices .............................................................................. 119 Chapitre 5 – La transformation de Laplace 123 5.1. Définition. Original et image ....................................................... 123 5.2. Image d’un monôme ................................................................. 124 5.3. Images des fonctions exponentielle et trigonométriques ....................... 125 5.4. Les correspondances opératoires ................................................... 126 5.4.1. Le théorème du déplacement ............................................. 126 5.4.2. La multiplication de la variable par une constante ................... 126 5.4.3. La dérivation ................................................................ 127 5.5. Le produit de convolution .......................................................... 128 5.6. Exemples de transformées de Laplace .......................................... 129 5.7. La fonction de Dirac et son image ............................................... 132 5.8. Applications à la résolution d’équations différentielles ......................... 133 5.9. Oscillateur harmonique amorti soumis à une force imposée .................. 134 5.10. Exercices .............................................................................. 136 Chapitre 6 – Analyse de Fourier 141 6.1. Séries de Fourier ................................................................... 141 6.2. Exemples de développement en série de Fourier .............................. 143 6.3. Séries de Fourier des fonctions de période spatiale L ou temporelle T ... 144 6.4. Série de Fourier d’une fonction non périodique ............................... 146 6.5. Forme complexe du développement ............................................... 147 6.6. Intégrale de Fourier ............................................................... 149 6.7. Les correspondances opératoires ................................................... 152 6.8. Exemples de transformées de Fourier .......................................... 154 6.9. Transformée de Fourier des fonctions de plusieurs variables ................ 156 6.10. Exercices .............................................................................. 159 Chapitre 7 – Les équations aux derivées partielles 163 7.1. Introduction ........................................................................... 163 7.2. Les équations linéaires homogènes à coefficients constants .................... 163 7.3. Equation de propagation des ondes ............................................... 164 7.3.1. Milieu infini à une dimension ............................................. 165

Table des matières

7.4.

7.5.

7.6. 7.7. 7.8.

XIII

7.3.2. Milieu fini à une dimension. Equation des cordes vibrantes ......... 166 7.3.3. Equation de propagation à trois dimensions ........................... 169 L’équation de diffusion .............................................................. 172 7.4.1. Diffusion à une dimension ................................................. 173 7.4.2. Diffusion à trois dimensions .............................................. 175 L’équation de Laplace ............................................................. 176 7.5.1. Coordonnées sphériques ................................................... 176 7.5.2. Coordonnées cylindriques ................................................. 177 L’équation de Poisson ............................................................. 178 La fonction de Green .............................................................. 179 Exercices .............................................................................. 180

Chapitre 8 – Algèbre linéaire, calcul matriciel 183 8.1. Les opérateurs ........................................................................ 183 8.2. Espaces vectoriels et opérateurs linéaires ........................................ 185 8.2.1. Les espaces vectoriels ...................................................... 185 8.2.2. Opérateur linéaire sur un espace vectoriel .............................. 185 8.3. Définition des matrices .............................................................. 186 8.4. Combinaisons de matrices .......................................................... 187 8.4.1. Addition et multiplication par un scalaire .............................. 187 8.4.2. Multiplication de deux matrices ......................................... 188 8.4.3. Sous-matrices ............................................................... 189 8.4.4. Trace d’une matrice ........................................................ 189 8.4.5. Produit direct de matrices ................................................ 190 8.5. Matrices particulières ................................................................ 190 8.5.1. Matrice nulle, unité, diagonale ........................................... 190 8.5.2. Matrice transposée, adjointe, hermitique, unitaire .................... 191 8.6. Calcul des déterminants ............................................................ 192 8.7. Inverse d’une matrice carrée ....................................................... 194 8.8. Application à la résolution des systèmes d’équations linéaires ............... 196 8.9. Matrices équivalentes ................................................................ 198 8.10. Valeurs propres, vecteurs propres, équation caractéristique d’une matrice ......................................................................... 199 8.10.1. Recherche des valeurs propres ............................................ 199 8.10.2. Recherche des vecteurs propres .......................................... 200 8.11. Théorème de Cayley-Hamilton ................................................. 203 8.12. Application aux quadripôles électriques .......................................... 206 8.13. Espace vectoriel réel Rn ............................................................ 209 8.13.1. Définition, produit scalaire et bases ..................................... 209

XIV

8.14.

8.15.

8.16.

8.17.

Table des matières 8.13.2. Processus d’orthogonalisation de Schmidt ............................ 210 8.13.3. Représentation d’un opérateur linéaire ................................. 211 8.13.4. Changement de base ....................................................... 212 8.13.5. Application aux rotations planes ........................................ 213 8.13.6. Application aux rotations dans l’espace : angles d’Euler ........... 214 Espace vectoriel complexe C n ..................................................... 216 8.14.1. Généralités, produit scalaire hermitique ................................ 216 8.14.2. Matrices hermitiques ....................................................... 217 8.14.3. Matrices unitaires .......................................................... 220 Formes quadratiques et applications .............................................. 221 8.15.1. Diagonalisation d’une forme quadratique réelle ....................... 221 8.15.2. Application à l’étude des petits mouvements .......................... 222 Espace vectoriel et algèbre de Dirac ............................................. 225 8.16.1. Vecteurs droits et gauches ................................................ 225 8.16.2. Opérateurs Linéaires ....................................................... 228 8.16.3. Commutateur de deux opérateurs ....................................... 229 8.16.4. Valeurs et vecteurs propres ............................................... 230 8.16.5. Produit ket-bra. Projecteurs. ............................................. 231 8.16.6. Changement de base ....................................................... 232 8.16.7. Fonction d’opérateur hermitique ......................................... 232 8.16.8. Produit direct ou tensoriel ................................................ 233 8.16.9. Espaces à une infinité continue de dimensions ......................... 235 Exercices .............................................................................. 236

Chapitre 9 – Les tenseurs 243 9.1. Introduction ........................................................................... 243 9.2. Tenseurs en coordonnées cartésiennes ............................................ 244 9.2.1. Définition des tenseurs ..................................................... 244 9.2.2. Critère de tensorialité ...................................................... 246 9.3. Cas particuliers ....................................................................... 246 9.3.1. Scalaire ....................................................................... 246 9.3.2. Vecteur polaire .............................................................. 247 9.3.3. Tenseur de rang 2 .......................................................... 247 9.3.4. Tenseur symétrique de rang 2 ............................................ 247 9.3.5. Exemples de tenseurs symétriques ....................................... 248 9.3.6. Tenseur antisymétrique de rang 2 ....................................... 250 9.3.7. Tenseur de rang 3 .......................................................... 251 9.4. Principe de symétrie. Application aux propriétés physiques représentées par des tenseurs ...................................................... 253

Table des matières

XV

9.5. Les tenseurs en coordonnées non cartésiennes ................................... 255 9.5.1. Covariance et contravariance ............................................. 255 9.5.2. Contraction des indices d’un tenseur .................................... 257 9.5.3. Tenseur métrique ........................................................... 258 9.5.4. Tenseurs antisymétriques .................................................. 260 9.6. Application à la relativité et aux équations de Maxwell .................... 261 9.6.1. Les tenseurs en relativité .................................................. 261 9.6.2. Les équations de Maxwell sous forme tensorielle ................... 263 9.7. Exercices .............................................................................. 265 Chapitre 10 – Les polynômes orthogonaux 269 10.1. Définitions ............................................................................. 269 10.2. Formules de récurrence .............................................................. 270 10.3. Fonction génératrice ................................................................. 271 10.4. Les polynômes de Legendre ...................................................... 271 10.4.1. Définition .................................................................... 271 10.4.2. Orthogonalité ............................................................... 273 10.4.3. Relations de récurrence. Equation de Legendre ..................... 274 10.4.4. Développement d’une fonction en série de Pl (x) ...................... 276 10.5. Fonctions de Legendre associées ................................................ 277 10.5.1. Définition .................................................................... 277 10.5.2. Relations d’orthogonalité .................................................. 278 10.5.3. Equation différentielle ..................................................... 279 10.5.4. Relations de récurrence .................................................... 279 10.6. Les harmoniques sphériques ........................................................ 280 10.6.1. Résolution de l’équation de Laplace en coordonnées sphériques .. 281 10.6.2. Propriétés des harmoniques sphériques ................................. 284 10.6.3. Développement d’une fonction en série des Ylm ....................... 284 10.6.4. Théorème d’addition des Ylm ............................................. 285 10.7. Les polynômes d’Hermite ......................................................... 286 10.7.1. Définition .................................................................... 286 10.7.2. Propriétés élémentaires des Hn (x) ....................................... 287 10.7.3. Relations de récurrence .................................................... 288 10.7.4. Application à la résolution de l’équation de Schrödinger d’un oscillateur harmonique .............................................. 289 10.8. Les polynômes de Laguerre ...................................................... 290 10.8.1. Définition. Propriétés élémentaires ...................................... 290 10.8.2. Relations de récurrence. Equation différentielle ....................... 291 10.9. Exercices .............................................................................. 293

XVI

Table des matières

Chapitre 11 – Fonctions de Bessel et applications 297 11.1. L’équation différentielle de Bessel ............................................... 297 11.2. Fonctions de Bessel de première et de deuxième espèce ..................... 298 11.2.1. Fonctions de Bessel de première espèce ............................... 298 11.2.2. Relation entre Jν et J−ν .................................................. 300 11.2.3. Fonctions de Bessel de deuxième espèce .............................. 301 11.3. Forme intégrale des fonctions de Bessel ........................................ 302 11.4. Relations de récurrence ............................................................. 303 11.5. Fonctions de Bessel d’indice entier et demi-entier ............................ 304 11.5.1. Fonctions de Bessel d’indice entier ..................................... 304 11.5.2. Fonctions de Bessel d’indice demi-entier .............................. 306 11.6. Fonctions de Hankel ............................................................... 307 11.7. Les fonctions de Bessel modifiées ................................................ 307 11.7.1. Fonctions Iν (x) et Kν (x) .................................................. 307 11.7.2. Relations de récurrence des fonctions de Bessel modifiées ......... 309 11.7.3. Forme intégrale de Kν (x) ................................................. 311 11.8. Comportement des fonctions de Bessel dans les cas limite .................. 313 11.8.1. Faibles valeurs de l’argument ............................................. 313 11.8.2. Comportement asymptotique des fonctions de Bessel .............. 314 11.9. Les fonctions de Bessel sphériques .............................................. 315 11.10.Applications des fonctions de Bessel ............................................ 318 11.10.1.Résolution de l’équation ΔΨ + k 2 Ψ = 0 dans le plan ................ 318 11.10.2.Résolution de l’équation ΔΨ + k 2 Ψ = 0 dans l’espace ............... 320 11.10.3.Ondes stationnaires dans le plan ......................................... 321 11.10.4.Ondes stationnaires en symétrie sphérique ............................. 322 11.11.Exercices .............................................................................. 323 Chapitre 12 – Les relations de Kramers–Kronig 327 12.1. Valeur principale d’une intégrale .................................................. 327 12.2. Valeur principale d’une fonction et fonction de Dirac ........................ 328 12.3. Les relations de Kramers–Kronig .............................................. 329 12.4. Etude des systèmes à réponse linéaire ............................................ 332 12.4.1. Définition .................................................................... 332 12.4.2. Exemples ..................................................................... 332 12.4.3. Propriétés des systèmes linéaires ......................................... 332 12.4.4. Excitation sinusoïdale ..................................................... 333 12.5. Application aux susceptibilités .................................................... 334 12.6. Exercices .............................................................................. 335

Table des matières

XVII

Corrigés des exercices 337 Exercices du chapitre 1 .................................................................... 337 Exercices du chapitre 2 .................................................................... 340 Exercices du chapitre 3 .................................................................... 348 Exercices du chapitre 4 .................................................................... 357 Exercices du chapitre 5 .................................................................... 361 Exercices du chapitre 6 .................................................................... 367 Exercices du chapitre 7 .................................................................... 374 Exercices du chapitre 8 .................................................................... 381 Exercices du chapitre 9 .................................................................... 393 Exercices du chapitre 10 ................................................................... 402 Exercices du chapitre 11 ................................................................... 407 Exercices du chapitre 12 ................................................................... 417 Annexes 421 I. Unicité des solutions d’une équation différentielle du 1er ordre ............... 421 II. Formule de Simpson d’intégration ................................................ 424 III. Les déterminants ..................................................................... 425 IV. Tableau de transformées de Laplace ............................................ 430 Bibliographie

435

Index

437

7KLVSDJHLQWHQWLRQDOO\OHIWEODQN

Chapitre 1 Analyse vectorielle

1.1. Les opérateurs différentiels 1.1.1. Champ scalaire et champ vectoriel Soit une région de l’espace où en chaque point M peut être attaché un nombre ou un vecteur dépendant de la position du point. On obtient ainsi, dans un repère donné, une fonction scalaire ou vectorielle des coordonnées de ce point que l’on désigne par champ scalaire ou champ vectoriel. Par exemple, dans l’atmosphère terrestre en chaque point M on peut mesurer la température T (M) ou la pression P (M) qui sont données par des nombres. Les fonctions T (M) et P (M) sont des champs scalaires. Mais pour caractériser le vent en chaque point, il faut déterminer le vecteur vitesse V (M) et cette fonction est un champ vectoriel. De même, si l’on considère un corps solide non homogène, la masse volumique ρ en chaque point est une fonction scalaire de ce point et ρ(M) est un champ scalaire. Si le solide est en mouvement dans l’espace à un instant donné les divers points  (M) et γ (M) sont des du solide ont des vitesses et des accélérations différentes et V champs vectoriels. En général on choisit un repère orthonormé de l’espace R3 , {O,i, j, k}, de sorte que la position du point M est entièrement décrite par ses composantes x, y, z : −−→ OM = xi + yj + zk. Un champ scalaire sera décrit par une fonction scalaire ω(x, y, z) et un champ vectoriel  y, z). Mais notons bien que les valeurs de ω(M) et par une fonction vectorielle A(x,  A(M) sont indépendantes du choix du système de coordonnées rectangulaires. Partant  on définit des opérateurs différentiels qui jouent un rôle très des fonctions ω et A important : • le gradient qui est un opérateur vectoriel agissant sur un champ scalaire ;

1 − Analyse vectorielle

2

• la divergence, qui est un opérateur scalaire agissant sur un champ vectoriel ; • le rotationnel qui est un opérateur vectoriel agissant sur un champ vectoriel ; • le laplacien, qui est un opérateur scalaire agissant aussi bien sur un champ scalaire que sur un champ vectoriel. Ces opérateurs seront définis en utilisant les trois axes de coordonnées rectangulaires x, y, z précédents, mais les relations que nous obtiendrons sont indépendantes du système d’axes choisi.

1.1.2. Opérateur gradient Soit un champ scalaire ω(M) différentiable. Par définition on a : −−−→ −−→ dω = grad ω · dOM

(1.1)

−−→ où dω est la différentielle de ω au point M et dOM la différentielle du champ vectoriel position, c’est-à-dire le déplacement élémentaire autour du point M. Dans le système d’axes Oxyz, ω(M) ≡ ω(x, y, z) et si ω est différentiable par rapport à x, y, z, il est clair qu’en tout point M, dω = (∂ω/∂x)dx + (∂ω/∂y)dy + (∂ω/∂z)dz −−→ et dOM = dxi + dyj + dzk. On voit donc que : −−→ ∂ω ∂ω  ∂ω  k. i+ j+ grad ω = ∂x ∂y ∂z

(1.2)

−−→ Le gradient fait correspondre au champ scalaire ω(M) le champ vectoriel grad ω. Le −−→  gradient est un opérateur différentiel que l’on écrit encore sous la forme grad ω ≡ ∇ω  où le symbole ∇ est l’opérateur « nabla ». En coordonnées cartésiennes on a ainsi : −−→   ∂ ∂ ∂ grad = ∇ = i + j + k . ∂x ∂y ∂z

(1.3)

Il est facile de vérifier que si ω1 (M) et ω2 (M) sont deux champs scalaires différentiables, −−→ −−→ −−→ grad (ω1 + ω2 ) = grad ω1 + grad ω2 , −−→ −−→ −−→ grad (ω1 ω2 ) = ω1 grad ω2 + ω2 grad ω1 .

(1.4) (1.5)

Exemples : −−→ • Soit à calculer le gradient de r = |OM|, c’est-à-dire de la distance r du point M à  −−→ l’origine. On a r = x2 + y 2 + z 2 et grad r = i∂r/∂x + j∂r/∂y + k∂r/∂z, soit : −−→ grad r = r/r = ur , −−→ où ur est le vecteur unitaire dans la direction OM.

(1.6)

1.1 − Les opérateurs différentiels

3

• De même le gradient d’une fonction différentiable f (r) s’écrit : −−→ ∂f  ∂f  ∂f +j +k . grad f (r) = i ∂x ∂y ∂z Mais ∂f /∂x = (df /dr)(∂r/∂x) = (x/r)df /dr, d’où : −−→ df r df = ur . grad f (r) = r dr dr

(1.7)

• Si nous prenons des coordonnées sphériques (voir figure 1.1) avec z

x = r sin θ cos ϕ,

ur

y = r sin θ sin ϕ, z = r cos θ,

M

on peut définir un repère local {M, ur , uθ , uϕ } dans lequel :

θ

−−→ dOM = dr ur + rdθ uθ + r sin θdϕ uϕ .

i

Pour un champ différentiable f (M) ≡ f (r, θ, ϕ), df =

x

k O

r

uϕ  uθ

j y ϕ

∂f ∂f ∂f dr + dθ + dϕ ∂r ∂θ ∂ϕ

et, d’après la définition (1.1),

Figure 1.1 – Système de coordonnées sphériques.

−−→ ∂f 1 ∂f 1 ∂f ur + uθ + uϕ , grad f (r) = ∂r r ∂θ r sin θ ∂ϕ

(1.8)

∂  = ur ∂ + uθ 1 ∂ + uϕ 1 ∇ . ∂r r ∂θ r sin θ ∂ϕ

(1.9)

soit

1.1.3. Surface et gradient Dans le repère {O,i, j, k}, il est commode d’écrire l’équation d’une surface sous la forme F (x, y, z) = C, où C est une constante qui peut très bien être nulle. Supposons cette surface continue et donc la fonction F différentiable. Pour tout déplacement élémentaire d’un point M sur cette surface, on a : dF =

−−→ ∂F ∂F ∂F dx + dy + dz = grad F · dr = 0. ∂x ∂y ∂z

1 − Analyse vectorielle

4

Mais dr appartient au plan tangent T en M à la surface. Nous avons ainsi montré qu’en −−→ tout point M de la surface, grad F est un vecteur normal à cette surface (figure 1.2). −−→ grad F

z

T

M dr S

O x

y

Figure 1.2 – En tout point M d’une surface S, −−→ grad F est un vecteur normal à S.

1.1.4. Opérateur divergence  Soit un champ vectoriel A(M). Dans le repère {O,i, j, k},  y, z) = iAx (x, y, z) + jAy (x, y, z) + kAz (x, y, z) A(x, où Ax , Ay , Az sont des fonctions scalaires de x, y, z. Par définition si ces fonctions sont dérivables par rapport à x, y, z, on a :  ·A ;  = ∂Ax + ∂Ay + ∂Az = ∇ div A ∂x ∂y ∂z

(1.10)

 apparaît comme le produit scalaire de l’opérateur ∇  défini par (1.3), et de A.  div A  est une fonction scalaire de M. L’opérateur divergence fait correspondre Ainsi div A   au champ vectoriel A(M) le champ scalaire div A.  2 (M) et ω(M) sont deux champs vectoriels et  1 (M), A Il est facile de vérifier que si A un champ scalaire respectivement et s’ils sont tous différentiables,  2 ) = div A  1 + div A 2, 1 + A div (A − − →  = ω div A +A  · grad ω. div (ω A)

(1.11) (1.12)

 · (ω A)  = ω∇  ·A  +A  · ∇ω,  où l’opérateur Notons que l’équation (1.12) s’écrit encore ∇   divergence n’agit que sur des champs vectoriels ω A ou A. Il faut bien noter que  ·A  = A  · ∇.  ∇  est indépendante du trièdre choisi, mais son expression est plus La valeur de div A complexe en coordonnées sphériques dans le repère {M, ur , uθ , uϕ }. D’après (1.9) :     ·A  = ur · ∂ A + uθ · 1 ∂ A + uϕ · 1 ∂ A ∇ ∂r r ∂θ r sin θ ∂ϕ  = Ar ur + Aθ uθ + Aϕ uϕ où Ar , Aθ , Aϕ sont des fonctions de r, θ, ϕ. avec A

1.1 − Les opérateurs différentiels

5

Mais si ur , uθ et uϕ sont indépendants de r, on vérifie aisément (cf. exercice 1.1) que : ∂uθ ∂uϕ ∂ur = uθ ; = −ur ; =0; ∂θ ∂θ ∂θ ∂ur ∂uθ ∂uϕ = sin θuϕ ; = cos θuϕ et = −ur sin θ − uθ cos θ. ∂ϕ ∂ϕ ∂ϕ   ∂Ar 2Ar 1 ∂Aθ 1 ∂Aϕ   Ainsi ∇·A= + + + Aθ cos θ + , ∂r r r ∂θ r sin θ ∂ϕ soit : 2  = 1 ∂(r Ar ) + 1 ∂ (sin θAθ ) + 1 ∂Aϕ . div A r2 ∂r r sin θ ∂θ r sin θ ∂ϕ

(1.13)

(1.14)

Application à l’équation de continuité : Considérons un fluide (gaz, liquide) qui s’écoule dans un tuyau. Soit un petit volume élémentaire dτ = dx dy dz centré au point M de coordonnées x, y, z à l’intérieur du tuyau (figure 1.3) et occupé par le fluide. Entre deux instants très voisins t et t + dt, une certaine quantité de fluide entre dans le volume dτ , une certaine quantité en sort et la masse volumique ρ(x, y, z, t) peut éventuellement varier pour un fluide compressible (gaz). S’il n’y a ni source de fluide ni fuite possible à l’intérieur du volume dτ , la variation de masse de fluide contenue dans dτ , pendant l’intervalle de temps dt considéré, est égale à la différence entre la masse qui a pénétré dans le volume par les parois et celle qui s’en est échappée. Soit  (x, y, z, t) la vitesse d’écoulement du fluide au point M à l’instant t. On définit la V  . Notons que si V est normal à une surface unité, |j| densité de courant par j = ρV représente la masse de fluide qui traverse cette surface par unité de temps. C

G

z

y dz

 (x, y, z, t) V

F

B D

M(x, y, z)

H dy

A O

dx

E

x

 un parallélépipède Figure 1.3 – Masse de fluide qui traverse avec une vitesse V élémentaire de volume dτ = dx dy dz centré au point M(x, y, z).

Ainsi pendant dt, la masse qui pénètre par la face ABCD dans le parallélépipède de volume dτ (figure 1.3) est :     dx ∂jx (x, y, z, t) dx , y, z, t dt = dy dz dt jx (x, y, z, t) − dy dz jx x − 2 2 ∂x

6

1 − Analyse vectorielle

et la masse qui sort par EFGH est :     dx ∂jx (x, y, z, t) dx , y, z, t dt = dy dz dt jx (x, y, z, t) + dy dz jx x + . 2 2 ∂x La variation de masse du fait des transferts de fluide à travers ces deux surfaces est donc :   ∂jx ∂jx dx dt = −dτ dt . dy dz dt − ∂x ∂x Un résultat analogue est obtenu du fait des transferts à travers les autres faces du parallélépipède et l’on obtient une variation de masse dans dτ qui est :   ∂jx ∂jy ∂jz + + −dτ dt = −dτ dt div j. ∂x ∂y ∂z Par ailleurs la masse de fluide contenue dans le volume dτ à l’instant t est ρ(x, y, z, t)dτ et sa variation pendant dt est (∂ρ/∂t)dt dτ . Par comparaison avec le résultat précédent on obtient : ∂ρ = 0. (1.15) div j + ∂t C’est l’équation de continuité ou encore l’équation de conservation du fluide. Il s’agit d’une équation locale valable en tout point occupé par le fluide. Cette relation s’étend aisément à l’électricité : ρ est alors la densité de charge et j la densité de courant électrique. Si l’on a affaire à un fluide incompressible (liquide en première approximation), ρ est constant dans l’espace et dans le temps et l’équation (1.15) se ramène simplement à  = 0. div j = 0, ce qui entraîne div V

1.1.5. Opérateur rotationnel  sur le champ vectoriel A(M)  Par définition, l’action de l’opérateur ∇ à la manière d’un produit vectoriel est le rotationnel de ce champ : −→    rot A = ∇ ∧ A. (1.16) −→  Ainsi rot A est une fonction vectorielle de M et l’opérateur rotationnel fait corres−→   pondre au champ vectoriel A(M) le champ vectoriel rot A.  1 (M) et A  2 (M) sont deux champs vectoriels différents, on a : Il est évident que si A →  −→  −→   2) = − rot A (1.17) rot (A1 + A 1 + rot A2 .  soit une fonction vectorielle continue. Dans Comme pour la divergence, il faut que A le repère {O,i, j, k}, si Ax , Ay et Az sont dérivables par rapport à x, y et z, on a, d’après (1.3) et (1.16) :       ∂Ay ∂Ax ∂Az ∂Ay ∂Ax −→   ∂Az rot A = i − − − + j + k . (1.18) ∂y ∂z ∂z ∂x ∂x ∂y

1.1 − Les opérateurs différentiels

7

−→  La valeur de rot A est indépendante du trièdre choisi ; son expression en coordonnées sphériques est donnée d’après (1.9), (1.13) et (1.16) par :     ∂(sin θAϕ ) ∂Aθ 1 ∂Ar ∂(rAϕ ) 1 1 −→  − − rot A = ur + uθ r sin θ ∂θ ∂ϕ r sin θ ∂ϕ ∂r   1 ∂(rAθ ) ∂Ar − +uϕ . (1.19) r ∂r ∂θ

1.1.6. Opérateur laplacien Par définition, l’opérateur laplacien  est obtenu en formant l’analogue du produit scalaire de l’opérateur gradient par lui-même soit : −−→ −−→    = grad · grad = ∇ · ∇.

(1.20)

Il s’agit d’un opérateur scalaire pouvant agir aussi bien sur un champ scalaire que sur un champ vectoriel. En coordonnées cartésiennes on a pour un champ scalaire ω(M) : −→ ∂2ω ∂2ω ∂2ω  · ∇ω  = div (− + + . ω = ∇ grad ω) = ∂x2 ∂y 2 ∂z 2

(1.21)

L’équation précédente sous-entend que la fonction ω(x, y, z) et ses dérivées premières sont dérivables. L’équation (1.20) signifie que l’opérateur laplacien est donné par : =

∂2 ∂2 ∂2 + 2 + 2. 2 ∂x ∂y ∂z

(1.22)

Toujours en coordonnées cartésiennes, l’opérateur  agissant sur un champ vectoriel  A(M) donne lieu à un nouveau champ vectoriel qui, d’après (1.22), est :  = (iAx + jAy + kAz ) = iAx + jAy + kAz . A

(1.23)

L’équation (1.23) n’a de sens que si Ax , Ay , Az et leurs dérivées premières sont dérivables. En coordonnées sphériques, on a immédiatement d’après (1.9) et (1.14) :   ∂ω 1 ∂ω 1 ∂ω ω = div ur + uθ + uϕ , ∂r r ∂θ r sin θ ∂ϕ soit : ω =

1 ∂ r2 ∂r

      1 ∂ ∂ω 1 ∂ω 1 ∂2ω . r2 + 2 sin θ + ∂r r sin θ ∂θ ∂θ sin2 θ ∂ϕ2

(1.24)

(1.25)

1 − Analyse vectorielle

8

1.1.7. Relations entre les opérateurs différentiels  Si ω(M) et A(M) désignent un champ scalaire et un champ vectoriel, on a les relations très importantes suivantes qu’il est très facile d’établir en coordonnées cartésiennes, mais qui sont évidemment valables dans tout repère orthonormé : − → −−→ rot (grad ω) = 0 (1.26) − →  div (rot A) = 0 (1.27) −−→ −→ −→    A = grad (div A) − rot (rot A) (1.28) −→  − →      div (A1 ∧ A2 ) = A2 · rot A1 − A1 · rot A2 (1.29) − − → − → − →  = ω rot A  + (grad ω) ∧ A.  rot (ω A) (1.30)

1.2. Les potentiels 1.2.1. Potentiel scalaire −→ −−→ Soit un champ scalaire ω(M). Nous savons d’après (1.26) que rot (grad ω) = 0.   y, z) dont le rotationnel est nul, Réciproquement, tout champ vectoriel A(M) ≡ A(x, peut être considéré comme le gradient d’un champ scalaire ω(M), qui n’est défini qu’à −−→ −−→ une constante C près, puisque grad (ω + C) = grad ω. −→   On dit que le champ vectoriel A(M), tel que rot A = 0 en tout point du domaine considéré, dérive d’un potentiel scalaire défini conventionnellement par l’équation V (M) = −ω(M). On a ainsi : −→  = −− A grad V. (1.31) Le potentiel scalaire n’est défini qu’à une constante près et l’on dit que le champ de  est Newtonien ou irrotationnel. Par exemple si l’on a une masse m0 située vecteur A à l’origine des coordonnées et une masse m située en M(x, y, z) à la distance r de l’origine (en supposant que m0 et m sont de dimensions négligeables), on sait que ces deux masses s’attirent par la loi de gravitation universelle avec une force agissant sur m qui est donnée par F = −G(mm0 /r2 )r/r, où G est la constante de gravitation. La masse m est soumise à un champ gravitationnel g tel que F = mg. Ce champ dérive −−→ d’un potentiel gravitationnel V avec g = −grad V . On a : V = −Gm0 /r + C ; on impose la condition V = 0 pour r = ∞ et ainsi C = 0. De même si l’on considère, dans le vide, une charge ponctuelle Q située à l’origine et une charge q située en M, cette dernière est soumise à la force de Coulomb  où E  est le champ électrique créé par Q au point M F = −1/(4πε0 )(Qq/r2 )ur = q E, −−→  et ur = r/r. On peut écrire E = −grad V où le potentiel électrostatique est donné par 1 Q 4πε0 r si l’on impose à ce potentiel d’être nul à l’infini. V =

1.3 − Les intégrales curvilignes, de surface et de volume

9

1.2.2. Potentiel vecteur − →   Soit un champ vectoriel A(M). Nous savons d’après (1.27) que div (rot A) = 0. Réci  proquement, tout champ vectoriel B(M) ≡ B(x, y, z) dont la divergence est nulle peut  être considéré comme le rotationnel d’un champ vectoriel A(M) selon la relation : →   =− B rot A.

(1.32)

 est un potentiel vecteur. Par définition, A  le gradient d’un champ scalaire quelconque de M, on Notons que si l’on ajoute à A −→  = A  +− obtient un nouveau potentiel vecteur A grad ω dont le rotationnel est encore  Le potentiel vecteur n’est donc défini qu’au gradient d’un champ scalaire égal à B. près. Le choix particulier d’un potentiel vecteur est un choix de jauge.  tel que div B  = 0 en tout point du domaine considéré est Tout champ vectoriel B  créée par des circuits un champ Laplacien. En particulier, l’induction magnétique B électriques parcourus par des courants obéit en tout point de l’espace à l’équation →   = 0. On a alors B  = −  est le potentiel vecteur de l’induction div B rot A où A magnétique.

1.3. Les intégrales curvilignes, de surface et de volume 1.3.1. Intégrale curviligne. Circulation d’un champ vectoriel   y, z), défini dans une région de l’espace, et Soit un champ vectoriel A(M) ≡ A(x, une courbe Γ dans cette région (figure 1.4). Considérons un déplacement élémentaire → − autour du point M, de longueur ds, selon cette courbe. Ce déplacement ds, de com→ − posantes dx, dy, dz est tangent à la courbe Γ au point M. On a ds = e(M) ds, où e(M) est le vecteur unitaire tangent à Γ en ce point. La circulation élémentaire est définie par : →  ·− dC = A ds = X(x, y, z)dx + Y (x, y, z)dy + Z(x, y, z)dz e ds M Figure 1.4 – Circulation du champ

M1



 vectoriel A(M) sur l’arc de courbe M1 M2 .

O

M2  A(M)

Γ

1 − Analyse vectorielle

10



 Si l’on considère un arc fini M1 M2 de la où X, Y et Z sont les composantes de A. courbe Γ, orienté de M1 vers M2 , la circulation de M1 à M2 est : M2 M2 → −  A(M) · ds(M) = C= X dx + Y dy + Z dz. M1

(1.33)

M1

Le calcul explicite de (1.33) peut être assez délicat. On a la somme de trois intégrales M du type M12 X(x, y, z) dx, où x, y et z ne sont pas indépendants puisque M se déplace sur la courbe Γ. Si l’on désigne par s l’abscisse curviligne du point M à partir d’une origine O quelconque sur la courbe Γ, M1 et M2 ont pour abscisse s1 et s2 et x, y et  s2z sont des fonctions de s. La circulation se ramène alors à une intégrale du type s1 f (s)ds. Souvent, s s’exprime à l’aide d’un paramètre t comme dans le cas du mouvement connu d’un point M sur la courbe Γ où s est une fonction du temps s(t). Dans ces conditions, x(t), y(t) et z(t) sont des fonctions connues ; on a : M2 t2 dx dt X(x, y, z) dx = X [x(t), y(t), z(t)] dt

(1.34)

t1

M1

et des relations analogues pour les deux autres termes de (1.33), ce qui permet de calculer la circulation C à l’aide d’une intégrale du type t2 ϕ(t)dt. t1

Revenons à la définition générale (1.33) et considérons le cas extrêmement impor y, z) dérive d’un potentiel scalaire V (x, y, z) selon la tant où le champ vectoriel A(x, relation (1.31). On a alors :       ∂V ∂V ∂V dC = − dx − dy − dz = −dV ∂x ∂y ∂z où dV est la différentielle totale exacte de V . Dans ces conditions, M2 M2 dC = − dV = V1 − V2 C= M1

(1.35)

M1

où V1 et V2 représentent les valeurs de V aux points M1 et M2 respectivement. On voit donc que C ne dépend pas du chemin suivi pour aller de M1 à M2 . La circulation entre M1 et M2 ne dépend que de la différence des valeurs du potentiel scalaire entre le point de départ et le point d’arrivée. En particulier si l’on effectue l’intégration sur une courbe Γ fermée (où les points de départ et d’arrivée sont confondus), on a Γ dC = 0.

1.3 − Les intégrales curvilignes, de surface et de volume

11

1.3.2. Intégrale de surface. Flux d’un champ vectoriel Soit une surface Σ limitée par une courbe fermée Γ. Partageons la surface en éléments d’aire élémentaires dσi . Prenons un point arbitraire Mi dans chaque élément. Si F (M) ≡ F (x, y, z) est une fonction continue de x, y et z prenant la valeur F (Mi ) au point Mi , par définition la limite de i F (xi , yi , zi )dσi lorsque dσi → 0, c’est-àdire indéfiniment, est l’intégrale de surface  lorsque le nombre d’éléments augmente  F (x, y, z)dσ. Si F (x, y, z) = 1, dσ représente l’aire de la surface. Σ Σ Le calcul explicite d’une intégrale de surface gauche se ramène au calcul d’une intégrale double sur un domaine plan. En effet, soit z = f (x, y) l’équation d’une surface Σ. Nous supposons cette surface telle que toute droite parallèle à l’axe Oz la coupe en un seul → − −−−→ point. Pour un déplacement élémentaire dr = dOM de composantes dx, dy, dz sur cette surface à partir d’un point M(x, y, z) de Σ on a :     ∂z ∂z dz = dx + dy = p dx + q dy ∂x ∂y → − donc dz − p dx − q dy = 0. Mais dr est un vecteur situé dans le plan tangent en M à la surface Σ. Ainsi −p, −q, 1 sont les composantes d’un vecteur normal au plan tangent. Les composantes du vecteur unitaire n normal à la surface en M sont donc : p ; nx = −  1 + p2 + q 2

q ny = −  ; 1 + p2 + q 2

1 nz =  . 1 + p2 + q 2

Notons bien que pour une surface quelconque p et q sont fonction de M donc de x et y. −→ Désignons par θ l’angle (Oz, n) (figure 1.5). La projection d’un élément de surface dσ autour de M sur le plan xOy est : dσ dσ  = dσ cos θ =  . 1 + p2 + q 2 z

n Σ

θ dσ M

O

x

y



Σ

dσ 

Figure 1.5 – Projection d’un élément de surface dσ autour du point M sur le plan xOy.

1 − Analyse vectorielle

12

 Ainsi, dσ = dσ  1 + p2 + q 2 et l’intégrale sur la surface Σ peut se ramener à une intégrale sur la surface plane Σ , projection de Σ dans le plan xOy :    F (x, y, z)dσ = F (x, y, f (x, y)) 1 + p2 + q 2 dx dy. (1.36) Σ

Σ

En particulier, la surface Σ est simplement :   Σ= 1 + p2 + q 2 dx dy.

(1.37)

Σ

Flux d’un champ vectoriel : Soit une surface S s’appuyant sur un contour fermé  et un champ vectoriel A(M) ≡ A(x, y, z). Désignons par n(x, y, z) le vecteur unité porté par la normale à la surface au point M et dirigé dans le sens positif que nous choisissons arbitrairement. La face de S située du même côté que n est la face positive ; l’autre est la face négative. Par définition, le flux élémentaire à travers un élément de  dS (figure 1.6). surface dS autour de M est dΦ = n · A  à travers la surface totale S est l’intégrale de surface : Le flux de A   dS. n · A Φ=

(1.38)

S

Si l’on a affaire à une surface S fermée, le flux total à travers cette surface est le flux sortant si n est dirigé vers l’extérieur de la surface, ou le flux entrant si n est dirigé vers l’intérieur du volume limité par la surface.  A n

dS M

+

S Γ Figure 1.6 – Flux d’un champ vectoriel à travers une surface.

Le calcul explicite d’un flux s’effectue simplement en coordonnées cartésiennes. Si nous désignons par nx , ny , nz les composantes de n, on a : dΦ = (nx Ax + ny Ay + nz Az )dS. −→ Mais nz dS = dS cos α, α étant l’angle (Oz, n) et représente la projection de dS sur le plan xOy, soit dSxy . Par analogie on a : dΦ = Ax dSyz + Ay dSzx + Az dSxy .

1.4 − Le théorème de Stokes

13

Le flux élémentaire est égal à la somme des flux à travers les projections de l’élément de surface sur les plans de coordonnées. On a donc :    Φ= Ax dSyz + Ay dSzx + Az dSxy , Syz

Szx

Sxy

où Sxy est la projection de S sur le plan xOy. On se ramène ainsi à la somme de trois intégrales sur des surfaces planes. Celles-ci peuvent être effectuées en décomposant les surfaces projetées en rectangles élémentaires dont les côtés sont parallèles aux axes de coordonnées. Finalement :    Ax dy dz + Ay dz dx + Az dx dy. (1.39) Φ= Syz

Szx

Sxy

1.3.3. Intégrale de volume Soit un volume V entouré par une surface S. Décomposons ce volume en volumes élémentaires dVi et désignons par M(xi , yi , zi ) un point de dVi . Considérons une fonction continue F (x, y, z) de x, y et z. Par définition, la limite de

F (xi , yi , zi )dVi i

lorsque dVi → 0 est l’intégrale de volume  F (x, y, z)dV. V

Par exemple, pour un corps inhomogène de masse volumique dm/dV = ρ(x, y, z), la masse totale du corps est  M= ρ(x, y, z)dV, V

où V est le volume du corps. De même si l’on considère une substance électrisée avec une densité de charge dq/dV = ρ(x, y, z), la charge totale est  ρ(x, y, z)dV. Q= V

1.4. Le théorème de Stokes Soit une surface Σ limitée par un contour fermé Γ, placée dans un champ vectoriel   ainsi A(M). On suppose que cette surface est régulière et que les composantes de A que leurs dérivées premières sont continues dans un domaine contenant Σ. On fixe un sens de parcours sur Γ et l’on oriente ensuite le vecteur unitaire normal n en un point quelconque de S de manière à ce qu’un observateur placé sur la normale voit la circulation s’effectuer dans le sens positif (figure 1.7).

1 − Analyse vectorielle

14 Le théorème de Stokes s’énonce ainsi :

 La circulation du champ vectoriel A(M) le long du contour fermé Γ limitant la surface Σ est égale au flux de son rotationnel à travers cette surface, soit :   → − →  ·− A ds = n · rot A dσ. (1.40) Γ

Σ

n

z



Σ

Γ O

y

x

Figure 1.7 – Surface Σ s’appuyant sur un contour Γ.

Démonstration : Considérons le cas particulier d’un rectangle élémentaire PQRS dont les côtés dx, dy sont parallèles aux axes Ox et Oy et centré en un point M(x, y, z). Les coordonnées des sommets du rectangle sont P(x + dx/2, y + dy/2, z),

Q(x − dx/2, y + dy/2, z),

R(x − dx/2, y − dy/2, z), S(x + dx/2, y − dy/2, z). Nous choisissons un sens positif de circulation de manière à ce que la normale au rectangle soit dirigée vers Oz (figure 1.8). Calculons la circulation du champ vectoriel  A(M) sur ce rectangle en décomposant selon les quatre côtés PQ, QR, RS, SP. n

z

Q

R dx

S O x

 A

M(x, y, z)

dy

P y

Figure 1.8 – Circulation d’un champ vectoriel sur un rectangle élémentaire.

1.4 − Le théorème de Stokes On a :

15

    dy dx , z dx − Ay x − , y, z dy dC = −Ax x, y + 2 2     dy dx +Ax x, y − , z dx + Ay x + , y, z dy, 2 2

soit en développant au 1er ordre en série de Taylor,     ∂Ax dy ∂Ay dx dC = − Ax + dx − Ay − dy ∂y 2 ∂x 2     ∂Ax dy ∂Ay dx + Ax − dx + Ay + dy, ∂y 2 ∂x 2   − ∂Ax ∂Ay − →  →  − dxdy = n · rot A dσ. dxdy = rot A dC = ∂x ∂y z Visiblement, le résultat ne dépend pas du choix particulier de ce rectangle et pour tout rectangle élémentaire de surface dσ on aura : − →  dC = n · rot A dσ. Considérons maintenant deux rectangles élémentaires, de surfaces dσ1 , dσ2 , centrés en M1 et M2 , de normales n1 , n2 et ayant un côté commun PQ (figure 1.9). n2

n1

 A

Q M2

M1 dσ2

dσ1 P

Figure 1.9 – Circulation d’un champ vectoriel sur deux rectangles élémentaires ayant un côté commun.

La somme des circulations sur les deux rectangles élémentaires est égale à la circulation sur le contour fermé limitant les deux rectangles puisque les circulations sur le côté commun PQ s’annulent. On a donc : −→  −→  n2 · (rot A) dC = dC1 + dC2 = n1 · (rot A) 1 dσ1 +  2 dσ2 −→  − →  où (rot A) 1 et (rot A)2 sont les valeurs du rotationnel aux points M1 et M2 . Par extension, une surface régulière quelconque se décompose en petits rectangles élémentaires comme une mosaïque. On a donc :



−→  C= dCi = ni · (rot A) i dσi . i

i

1 − Analyse vectorielle

16

A la limite où dσi → 0, le contour de l’ensemble des rectangles s’identifie à Γ et l’on peut introduire l’intégrale sur la surface Σ, soit :   → − −→   C = A · ds = n · (rot A)dσ Γ

Σ

qui est la formule de Stokes. En coordonnées cartésiennes, si l’on désigne par α, β, γ les composantes de n, le développement de (1.40) s’écrit :

β γ

 α 

∂ ∂ ∂

Ax dx + Ay dy + Az dz = (1.41)

∂x ∂y ∂z dσ

Γ Σ A Ay Az x où nous avons introduit un déterminant symbolique pour abréger les écritures. Dans le cas particulier d’une surface plane parallèle au plan xOy, on a α = β = 0, γ = 1 et (1.41) se simplifie :     ∂Ay ∂Ax − Ax dx + Ay dy = dx dy. (1.42) ∂x ∂y Γ

Σ

C’est la formule de Green.

1.5. Le théorème d’Ostrogradsky Cet important théorème relie une intégrale double à travers une surface fermée à une intégrale triple sur le volume délimité par cette surface. Soit une surface fermée et régulière Σ limitant un volume V (figure 1.10) ; désignons par n le vecteur unitaire normal à la surface et orienté vers l’extérieur. z

 A n

Σ V dσ

O x

y

Figure 1.10 – Flux d’un champ vectoriel à travers une surface fermée Σ contenant un volume V .

1.5 − Le théorème d’Ostrogradsky

17

Le théorème d’Ostrogradsky s’énonce ainsi :  L’intégrale de la divergence d’un champ vectoriel A(M) dans un volume est égale au flux de ce champ vectoriel à travers la surface délimitant ce volume, soit :    · n dσ.  A (1.43) div A dV = Σ

V

 admet une divergence, c’estCe théorème n’est applicable que si le champ vectoriel A  à-dire si les composantes de A et leurs dérivées sont des fonctions continues des coordonnées. Démonstration : Considérons un parallélépipède de côtés dx, dy, dz parallèles aux axes de coordonnées et centré en un point M(x, y, z) à l’intérieur de la surface Σ (cf. figure 1.3).  à travers les deux surfaces normales à Ox est : Le flux sortant du champ vectoriel A     ∂Ax dx dx , y, z dydz − Ax x − , y, z dydz = dxdydz. Ax x + 2 2 ∂x Le flux sortant du parallélépipède est donc :   ∂Ax ∂Ay ∂Az  dV. dΦ = + + dxdydz = div A ∂x ∂y ∂z Il s’agit de la même formule que celle établie pour l’équation de continuité (cf. § 1.1.4)  en remplaçant j par A. Prenons maintenant à l’intérieur de Σ, deux parallélépipèdes élémentaires de volumes dV1 , dV2 , centrés en M1 et M2 et ayant une face commune (figure 1.11).

 A M1 dV1

M2 dV2

Figure 1.11 – Flux d’un champ vectoriel à travers deux parallélépipèdes élémentaires ayant une face commune.

La somme des flux sortant des deux parallélépipèdes élémentaires est égale au flux sortant de la surface extérieure aux deux parallélépipèdes, puisque les flux sur la face commune s’annulent (flux sortant pour l’un flux entrant pour l’autre). On a donc :  1 dV1 + (div A)  2 dV2 dΦ = dΦ1 + dΦ2 = (div A)

1 − Analyse vectorielle

18

 1 et (div A)  2 sont les valeurs de div A  aux points M1 et M2 . Par extension, où (div A) le volume V se décompose en petits parallélépipèdes élémentaires et le flux sortant à travers la surface extérieure à l’ensemble est :



 i dVi . Φ= dΦi = (div A) i

i

A la limite où dVi → 0, la surface extérieure aux parallélépipèdes s’identifie à Σ (si cette surface est régulière) et l’on peut remplacer les sommes par des intégrales de surface et de volume :     dσ =  dV. dΦ = n · A (div A) Φ= Σ

Σ

V

C’est la formule d’Ostrogradsky. Application au théorème de Gauss : Soit un champ vectoriel  = C r = C ur . A r2 r r2 Citons comme exemples le champ gravitationnel créé par une masse m0 ou le champ électrique créé par une charge Q pour lesquels on a respectivement C = −Gm0 et C = Q/(4πε0 ) (cf. § 1.2.1). La masse ou la charge étant à l’origine O, le flux du champ à travers un élément de surface dσ situé à la distance r de l’origine et dont le vecteur unitaire normal n a un sens choisi, est Φ = (C/r2 )ur ·n dσ. C’est au signe près, C fois l’angle solide élémentaire dΩ sous lequel on voit dσ depuis le point O (figure 1.12). z

 A n r



dΩ O

ur  y

x

Figure 1.12 – Flux d’un champ  = (C/r 2 )ur à travers un élément A de surface dσ.

 sortant Si dσ est un élément d’une surface Σ fermée, et si l’on s’ intéresse au flux de A à travers Σ , n doit être dirigée vers l’extérieur de la surface. Ainsi, les éléments de surface pour lesquels ur est dirigé vers l’extérieur de la surface vont contribuer au flux positivement, alors que ceux pour lesquels ur est dirigé vers l’intérieur de la surface vont contribuer négativement au flux. Si O est à l’intérieur de la surface toutes les contributions sont positives et le flux est :  Φ=C dΩ = 4πC. Σ

1.5 − Le théorème d’Ostrogradsky

19

Si O est à l’extérieur de la surface, l’angle solide sous lequel on voit la surface depuis O intervient une fois positivement et une fois négativement et Φ = 0. Enfin, si O appartient à la surface, l’angle solide sous lequel on voit cette dernière est 2π (à condition qu’il y ait un plan tangent à la surface en ce point) et Φ = 2πC. En résumé le théorème de Gauss s’énonce ainsi :  = (C/r2 )ur , sortant à travers une surface fermée Σ Le flux d’un champ vectoriel A est égal à 4πC si O est à l’intérieur de Σ, à 2πC si O est un point régulier de Σ, à 0 si O est extérieur à Σ. Application : Champ et potentiel électrostatiques Nous savons que le champ électrique créé par une charge Q située à l’origine, en un −−→  = (Q/4πε0 )(ur /r2 ). Donc le flux de ce point M à la distance r (OM = rur ) est E champ à travers une surface fermée Σ est ΦΣ = Q/ε0 à condition que la charge soit à l’intérieur de Σ. Dans le cas d’ une distribution continue de charges de densité ρ(x), on obtient par superposition :  1 ΦΣ = ρ(x)dV (1.44) ε0 V

où V est le volume limité par Σ. D’après le théorème d’Ostrogradsky (1.43), l’égalité précédente s’écrit encore :    · n dσ =  dV. E ΦΣ = div E (1.45) Σ

V

Cette égalité est vérifiée quel que soit le volume V limité par une surface fermée Σ et en particulier pour un volume élémentaire contenant la charge ρ dV . On établit ainsi qu’en tout point on a :  = ρ. div E ε0

(1.46)

Le champ électrostatique est relié au potentiel électrostatique par la relation −→  = −− E grad V. On déduit de (1.46) l’équation de Poisson : V = −

ρ . ε0

(1.47)

En un point où il n’y a pas de charge (densité nulle), l’équation de Poisson se réduit à l’équation de Laplace : V = 0. Nous reviendrons sur ces équations dans le chapitre 7.

(1.48)

1 − Analyse vectorielle

20

1.6. Exercices Exercice 1.1. En coordonnées sphériques, on a un repère local {M, ur , uθ , uϕ }. 1. Exprimer les composantes de ces trois vecteurs dans le repère Oxyz. 2. En déduire les relations (1.13). Exercice 1.2. Les coordonnées cylindriques sont définies par x = ρ cos ϕ, y = ρ sin ϕ, z = z. On peut alors définir un repère local {M, uρ , uϕ , uz }. 1. Exprimer les composantes de ces trois vecteurs dans le repère Oxyz.  (gradient) dans le repère local précédent. 2. Ecrire l’expression de l’opérateur ∇  en coordonnées cylindriques, à l’aide des Exercice 1.3. Ecrire l’expression de div A composantes Aρ , Aϕ , Az . −→  Exercice 1.4. Exprimer rot A et ω en coordonnées cylindriques. Exercice 1.5. Etablir les relations (1.26) à (1.30).  = xi + yj + zk dérive d’un potentiel Exercice 1.6. Montrer que champ vectoriel A scalaire ω que l’on déterminera.  Exercice 1.7. On considère le champ vectoriel A(M) avec : Ax = f (x, y, z) ;

Ay = x3 − 2xyz + z 3 /3 ;

Az = −xy 2 + yz 2

1. Détermier f (x, y, z) pour que ce champ dérive d’un potentiel scalaire ω(M). En déduire f (x, y, z) sachant que f (x, 0, 0) = 0. 2. Détermier ω(M).  r) = A  eik·r où A  et k sont des vecteurs Exercice 1.8. Soit un champ vectoriel A( k k − →  et rot A.  constants. Calculer div A  = yi − xj + k pour un Exercice 1.9. Calculer la circulation du champ vectoriel A 2 2 2 tour direct sur le cercle défini par x + y = R , z = h > 0. Le calcul se fera d’abord directement, puis à l’aide de la formule de Green.  = Buz un champ vectoriel uniforme parallèle à Oz. DéterExercice 1.10. Soit B →   tels que B  = − miner les potentiels vecteurs A rot A et satisfaisant aux conditions  = 0 et A  indépendant de ϕ et de z en coordonnées cylindriques. suivantes : div A

1.6 − Exercices

21

Exercice 1.11. Calculer l’intégrale curviligne  y dx − x dy sur l’ellipse x = a cos t, y = b sin t. Exercice 1.12. Calculer l’intégrale curviligne 

y dx + x dy x2 + y 2

sur la droite y = x, pour 1 ≤ x ≤ 2. Exercice 1.13. L’équation de la surface latérale d’un cône vertical de sommet O, de hauteur b et dont le rayon du cercle de base est a, s’écrit : y2 z2 x2 + − = 0, a2 a2 b2

0 ≤ z ≤ b.

1. Calculer la surface latérale S du cône, 2. Calculer l’intégrale :

  I= x2 + y 2 dS. S

3. Calculer le volume du cône. 4. En utilisant la formule d’Ostrogradsky, calculer le flux sortant Φ à travers toute la surface Σ du cône (surface latérale S + surface de la base) du champ vectoriel  y, z), où A  a pour composantes Ax = x2 , Ay = y 2 , Az = z 2 . En déduire le A(x, flux de ce champ sortant à travers la surface latérale S du cône. Exercice 1.14. On considère deux fonctions f et g continues et ayant des dérivées du 1er et du 2e ordre continues dans tout le domaine D considéré. Etablir que pour une surface fermée Σ entourant un volume V dans le domaine considéré, on a la formule de Green :     ∂g ∂f −f (gf − f g) dV = g dσ ∂n ∂n V

Σ

où ∂f /∂n représente la dérivée de f selon la normale extérieure, c’est-à-dire que ∂f /∂n = α∂f /∂x + β∂f/∂y + γ∂f/∂z, α, β, γ étant les cosinus directeurs du vecteur unitaire normal n, extérieur à la surface.

7KLVSDJHLQWHQWLRQDOO\OHIWEODQN

Chapitre 2 Les équations différentielles

2.1. Position du problème. Définitions Supposons que la fonction y = f (x) exprime un phénomène du point de vue quantitatif. Il est souvent impossible d’établir directement la loi reliant y à x, alors qu’il est possible d’exprimer une dépendance entre x, y et les dérivées de y par rapport à x : y  , y  , . . ., y (n) . On a alors une équation différentielle. Trouver la loi y = f (x) à partir des relations entre ces dérivées, c’est intégrer l’équation différentielle. Par exemple, la vitesse v d’un corps de masse m en chute dans l’atmosphère s’exprime sous la forme mdv/dt = mg − kv, où mg est la force de pesanteur et −kv représente la résistance de l’air opposée à la vitesse. L’intégration de cette équation conduit à une dépendance temporelle de v donnée par : v(t) = C exp(−kt/m) + mg/k, où la constante C dépend des conditions initiales : si pour t = 0, v = v0 , alors C = v0 − mg/k. D’une manière générale, on appelle équation différentielle, une équation établissant une relation entre la variable indépendante x, la fonction inconnue y = f (x) et ses dérivées y  , y  , . . ., y (n) : F (x, y, y  , y  , . . . , y (n) ) = 0. L’ordre d’une équation différentielle est l’ordre de la dérivée la plus élevée dans cette équation. On appelle solution ou intégrale d’une équation différentielle toute fonction y = f (x) vérifiant cette équation. En général, x peut être réelle ou complexe et y peut être réelle ou complexe ; dans ce dernier cas il s’agit de fonctions analytiques (dérivables et intégrables) de x. Nous nous limiterons ici au cas où x est réel.

2 − Les équations différentielles

24

Toute équation différentielle d’ordre n est équivalente à un système de n équations couplées du 1er ordre. En effet, soit une équation du 3e ordre f (x, y, y  , y  , y  ) = 0. Posons y  = u, y  = v, u et v étant de nouvelles fonctions de x. On a : f (x, y, u, v, v  ) = 0 ;

u = v ;

y  = u,

c’est-à-dire un système de 3 équations différentielles du 1er ordre, à 3 fonctions inconnues y, u, v de la variable x, qui est équivalent à l’équation de départ. La réciproque est vraie : un système de n équations différentielles du 1er ordre peut se ramener à une équation différentielle d’ordre n. Soit par exemple, le système : y  = f (x, y, z, t) ; z  = g(x, y, z, t) ; t = h(x, y, z, t), où y, z et t sont des fonctions inconnues de x. En dérivant la première équation, on a : y  = fx + fy f + fz g + ft h = ϕ(x, y, z, t), y  = ϕx + ϕy f + ϕz g + ϕt h = θ(x, y, z, t). Eliminons z et t entre les expressions de y  , y  et y  : y  = θ[x, y, z(x, y, y  , y  ), t(x, y, y  , y  )] ; nous obtenons une équation du 3e ordre équivalente au système initial.

2.2. Existence et unicité des solutions 2.2.1. Equation du 1er ordre Partons de l’équation F (x, y, y  ) = 0. Si cette équation est soluble en y  , on peut la mettre sous la forme : y  = f (x, y).

(2.1)

Théorème : Si dans (2.1) la fonction f (x, y) et sa dérivée partielle ∂f /∂y sont continues dans un certain domaine D du plan xOy et si (x0 , y0 ) est un point de ce domaine, il existe une solution unique y = ϕ(x) telle que y = y0 pour x = x0 (figure 2.1). Dans l’annexe I nous démontrons cette propriété dans le cas où la fonction f (x, y) est développable en série de Taylor autour du point (x0 , y0 ) , c’est-à-dire lorsque non seulement f (x, y) est continue dans D, mais aussi ses dérivées.

2.2 − Existence et unicité des solutions

25 y D y0

Figure 2.1 – Pour le point (x0 , y0 ) appartenant au domaine D, il y a une solution unique y = ϕ(x) de (2.1) telle que y = y0 pour x = x0 .

O

y = ϕ(x)

x0

x

2.2.2. Equation du 2e ordre Soit une équation différentielle du 2e ordre F (x, y, y  , y  ) = 0. Si cette équation est soluble en y  on l’écrit sous la forme : y  = G(x, y, y  ).

(2.2)

Théorème : Si G est une fonction continue et dérivable par rapport à y et y  dans un certain domaine D, il existe une solution unique y = ϕ(x) telle que pour x = x0 , y = y0 , y  = y0 , c’est-à-dire que l’on a une courbe unique passant par un point donné avec une tangente donnée (figure 2.2). y y0

Figure 2.2 – Il y a une seule solution ϕ(x) de (2.2) passant par le point M0 appartenant au domaine D, ayant une tangente en ce point y0 .

O

M0 y = ϕ(x)

x0

x

L’existence de la solution est liée à celle d’un système de deux équations du 1er ordre auquel peut se ramener (2.2) (cf. annexe 1). De plus cette solution peut s’écrire sous la forme : y = y0 + (x − x0 )y0 +

(x − x0 )2  (x − x0 )n (n) y0 + . . . y0 + . . . 2! n!

(2.3)

où y0 et y0 sont donnés. Mais d’après (2.2), y0 = G(x0 , y0 , y0 ) ; donc y0 est déterminée. En dérivant (2.2) on a : y  =

∂G ∂G  ∂G  dG = + y + y , dx ∂x ∂y ∂y

d’où l’on peut déduire y0 . On peut ainsi poursuivre le processus, et si la série (2.3) converge, on voit que c’est l’unique solution.

26

2 − Les équations différentielles

2.3. Généralités sur les équations du 1er ordre Nous avons vu que si (x0 , y0 ) est un point du domaine de continuité de f (x, y) (et de sa dérivée ∂f /∂y), il existe une solution unique y = ϕ(x) de l’équation (2.1), telle que y0 = ϕ(x0 ). Donc (2.1) possède une infinité de solutions différentes obtenues en changeant le point du domaine. La condition y = y0 pour x = x0 est la condition initiale. On appelle solution générale de l’équation (2.1) une fonction y = ϕ(x, C) dépendant d’une constante arbitraire C et satisfaisant à l’équation différentielle pour toute valeur de C. Si l’on fixe la condition initiale, on aura une valeur C0 de C telle que y = ϕ(x, C0 ) vérifie cette condition, soit y0 = ϕ(x0 , C0 ). Remarquons qu’il n’est pas toujours possible d’exprimer la solution générale sous la forme y = ϕ(x, C), mais que l’on obtient souvent cette solution sous la forme implicite Φ(x, y, C) = 0, donnant implicitement y. On dit que Φ est intégrale générale de (2.1). De même que y = ϕ(x, C0 ) est une solution particulière de l’équation différentielle, Φ(x, y, C0 ) est une intégrale particulière de (2.1). Géométriquement, l’intégrale générale représente une famille de courbes dans le plan xOy dépendant d’un paramètre C : ce sont des courbes intégrales. Une intégrale particulière correspond à une courbe particulière de cette famille passant par un point donné. Par exemple, l’équation très simple y  = −y/x (avec x = 0) s’écrit dy/y = −dx/x, dont la solution est ln |y/C| = − ln |x|, soit y = C/x. On obtient une famille d’hyperboles. La solution particulière telle que y0 = 1 pour x0 = 2 entraîne C0 = 2, donc y = 2/x. Cette équation différentielle n’admet pas de solutions sur l’axe des y car pour x = 0, le second membre diverge et n’est donc pas continu. Dans les paragraphes 2.4 à 2.11, nous allons développer les techniques permettant de résoudre plusieurs types d’équations différentielles du 1er ordre.

2.4. Les équations à variables séparées et séparables Soit l’équation : dy = f1 (x)f2 (y) dx

(2.4)

où la fonction f1 (x) ne dépend que de x et f2 (y) ne dépend que de y. On dit que (2.4) est une équation à variables séparées. Si f2 (y) = 0 dans le domaine considéré, on a : dy = f1 (x)dx. (2.5) f2 (y)

2.5 − Les équations homogènes du 1er ordre On a égalité de deux différentielles et en prenant les primitives, on obtient :   dy = f1 (x)dx + C, f2 (y)

27

(2.6)

c’est-à-dire une relation entre la solution y, la variable x et la constante arbitraire C, qui est l’intégrale générale de (2.4). L’équation : M (x)dx + N (y)dy = 0 est une équation à variables séparées. Son intégrale générale est :   M (x)dx + N (y)dy = C.

(2.7)

(2.8)

Une équation de la forme : M1 (x)N1 (y)dx + M2 (x)N2 (y)dy = 0

(2.9)

est une équation à variables séparables. Dans un domaine où ni N1 (y), ni M2 (x) ne s’annulent on peut ramener (2.9) à une équation à variables séparées (2.7) en divisant par N1 (y)M2 (x), soit : N2 (y) M1 (x) dx + dy = 0. M2 (x) N1 (y)

(2.10)

2.5. Les équations homogènes du 1er ordre On dit que la fonction f (x, y) est une fonction homogène de degré n par rapport aux variables x et y, si pour toute valeur d’un paramètre λ, on a : f (λx, λy) = λn f (x, y). Par exemple, les fonctions (x2 − y 2 )/xy, (x3 + y 3 )1/3 , xy − y 2 sont homogènes de degré 0, 1 et 2 respectivement. L’équation différentielle : dy = f (x, y), dx

(2.11)

est homogène par rapport à x et y si f (x, y) est une fonction homogène de degré 0. On a donc f (λx, λy) = f (x, y). Pour résoudre (2.11), prenons λ = 1/x, ce qui permet d’écrire l’équation sous la forme : y dy = f 1, , dx x soit encore, en posant u = y/x, donc y = ux : u+x

du = f (1, u), dx

ou

du dx = . f (1, u) − u x

2 − Les équations différentielles

28

Il s’agit d’une équation à variables séparées et par intégration on a :   dx du = + C. f (1, u) − u x

(2.12)

En substituant y/x à u, on obtient ainsi l’intégrale générale de (2.11). Exemple : dy xy = 2 . dx x − y2 Le second membre de cette équation est une fonction homogène de degré 0. En appliquant la méthode précédente, on a successivement : f (1, u) − u =

u u3 − u = 1 − u2 1 − u2

et (2.12) s’écrit, en posant C = ln |k| :    1 1 − du = ln |xk|, u3 u 1 d’où : − 2 = ln |kxu| ; 2u x2 − 2 = ln |ky| 2y et l’on obtient l’intégrale générale de (2.12) sous la forme : x = y(−2 ln |ky|)1/2 .

2.6. Les équations se ramenant aux équations homogènes Les équations du type : ax + by + c dy = dx dx + ey + f

(2.13)

se ramènent aisément à des équations homogènes. En effet, si c = f = 0 l’équation (2.13) est homogène. Dans le cas contraire, on effectue un changement de variables : x = x1 + h ; y = y1 + k. Il s’ensuit que (2.13) devient : dy1 ax1 + by1 + ah + bk + c . = dx1 dx1 + ey1 + dh + ek + f

(2.14)

On choisit h et k de sorte que : ah + bk + c = 0 , dh + ek + f = 0 .

(2.15)

2.7 − Les équations linéaires du 1er ordre

29

On obtient ainsi une équation homogène dy1 /dx1 = (ax1 + by1 )/(dx1 + ey1 ) que l’on résoud et, en revenant aux anciennes variables, on obtient la solution de (2.13). Notons que le système (2.15) n’a pas de solutions lorsque le déterminant

a b

d e est nul, c’est-à-dire lorsque ae = bd. Mais alors d/a = e/b = λ, soit d = λa et e = λb. L’équation (2.13) s’écrit alors : dy ax + by + c = dx λ(ax + by) + f

(2.16)

qui se ramène à une équation à variables séparées en posant z = ax + by. En effet, on a alors dz/dx = a + bdy/dx et (2.16) devient : 1 dz a z+c = + . b dx b λz + f

(2.17)

Les exercices 2.1 et 2.2 donnent des exemples des deux cas de figure précédents. Notons que le processus utilisé pour résoudre (2.13) s’applique à l’intégration de :   ax + by + c dy =ϕ dx dx + ey + f où ϕ est une fonction arbitraire et continue.

2.7. Les équations linéaires du 1er ordre On appelle équation linéaire du premier ordre une équation qui est linéaire par rapport à la fonction inconnue y et par rapport à sa dérivée y  . Sa forme générale est : dy + P (x)y = Q(x) dx

(2.18)

où P (x) et Q(x) sont des fonctions continues de x données (ou des constantes). Pour résoudre cette équation, on cherche une solution sous la forme d’un produit de deux fonctions de x comme y = u(x)v(x). Alors : dy dv du =u +v dx dx dx et (2.18) devient :

 u

 dv du + Pv + v = Q. dx dx

(2.19)

On choisit v de sorte que l’on ait : dv + P v = 0, dx

(2.20)

2 − Les équations différentielles

30

soit dv/v = −P dx, dont la solution obtenue par intégration est :  ln |v| = ln |k| − P dx    ou : v = k exp − P dx , k étant une constante. Comme il nous suffit d’avoir une solution quelconque non nulle de (2.20) nous prendrons :    v(x) = exp − P dx . (2.21) Remarquons que (2.20) n’est autre que l’équation différentielle (2.18) sans le second membre Q(x). On peut encore dire que (2.21) est une solution de l’équation sans second membre (2.20). Avec ce choix, l’équation (2.19) s’écrit vdu/dx = Q, soit du/dx = Q(x)/v(x), d’où :  Q(x) dx + C u= v(x) et finalement :

 y = v(x)

 Q(x) dx + C . v(x)

(2.22)

Remarquons que l’expression (2.22) est inchangée si l’on remplace v(x) donnée par (2.21) par kv(x), puisque l’on aura simplement une nouvelle constante arbitraire  C  = kC. Si l’on pose ϕ(x) = dx Q(x)/v(x), alors l’intégrale générale de (2.18) devient : y = v(x)ϕ(x) + Cv(x).

(2.22 )

Si l’on impose une condition initiale y = y0 pour x = x0 , la constante C est déterminée par la relation y0 = v(x0 )ϕ(x0 ) + Cv(x0 ). L’exercice 2.3 donne un exemple de résolution d’une équation linéaire du 1er ordre. Un cas particulier important concerne les équations où P (x) et Q(x) se réduisent à des constantes a et b respectivement. L’équation (2.18) devient : dy + ay = b. dx

(2.23)

La solution de l’équation sans second membre est v = exp(−ax) et :  ϕ(x) = b exp(ax) dx = (b/a) exp(ax). La solution y s’écrit d’après (2.22 ) : y = C exp(−ax) + b/a.

(2.24)

Notons qu’il était possible de résoudre (2.23) directement puisqu’il s’agit d’une équation à variables séparées, dx = dy/(b − ay).

2.8 − L’équation de Bernoulli

31

2.8. L’équation de Bernoulli L’équation de Bernoulli est une équation du type : dy + P (x)y = Q(x)y n , dx

(2.25)

où P (x) et Q(x) sont des fonctions continues de x (ou des constantes), et n = 0, n = 1, sinon on a une équation linéaire. Notons que le mouvement d’une particule de masse m dans un milieu où la résistance F dépend de la vitesse, F = aV + bV n se ramène à une équation de ce type puisque la loi fondamentale de la dynamique s’écrit mdV /dt = −aV − bV n , soit dV /dt + (a/m)V = −(b/m)V n . On peut ramener (2.25) à une équation linéaire en divisant les deux membres par y n : y −n

dy + P (x)y 1−n = Q(x), dx

(2.26)

puis en changeant de fonction inconnue en posant z = y 1−n , d’où : dz dy = (1 − n)y −n . dx dx L’équation (2.26) devient, après multiplication par (1 − n) : dz + (1 − n)P z = (1 − n)Q dx

(2.27)

qui est une équation linéaire. On calcule l’intégrale générale z de (2.27) et on égale son expression à y 1−n pour obtenir la solution générale de l’équation de Bernoulli.

2.9. Les équations aux différentielles totales M (x, y) dx + N (x, y) dy = 0

L’équation :

(2.28)

est une équation aux différentielles totales si M (x, y) et N (x, y) sont des fonctions continues dérivables telles que : ∂N ∂M = , ∂y ∂x

(2.29)

les dérivées ∂M/∂y et ∂N/∂x étant continues dans un certain domaine. Si le premier membre de (2.28) est la différentielle totale d’une fonction f (x, y), on a : M dx + N dy = df =

∂f ∂f dx + dy. ∂x ∂y

Donc M = ∂f /∂x, N = ∂f /∂y ; ainsi : ∂M ∂2f = ; ∂y ∂y∂x

∂N ∂2f = ∂x ∂x∂y

et

∂M ∂N = . ∂y ∂x

2 − Les équations différentielles

32

Réciproquement, montrons que si la relation (2.29) est satisfaite, le premier membre de (2.28) est la différentielle d’une fonction f (x, y). De la relation ∂f /∂x = M (x, y), on déduit que : x f = M (x, y) dx + ϕ(y), x0

où x0 est l’abscisse d’un point arbitraire dans le domaine d’existence de la solution. Choisissons ϕ(y) de manière à ce que l’on ait ∂f /∂y = N (x, y). Nous avons : x ∂M dx + ϕ (y) = N (x, y) ∂y x0

soit, en vertu de (2.29) : x ∂N dx + ϕ (y) = N (x, y) − N (x0 , y) + ϕ (y) = N (x, y) et ϕ (y) = N (x0 , y). ∂x x0

y ϕ(y) =

D’où :

N (x0 , y) dy + k. y0

La fonction cherchée est donc : x y f = M (x, y) dx + N (x0 , y) dy + k. x0

y0

L’équation différentielle (2.28) s’écrit alors df (x, y) = 0 et son intégrale générale f (x, y) = C, soit : x

y M (x, y) dx +

x0

N (x0 , y) dy = C.

(2.30)

y0

Dans cette expression (x0 , y0 ) sont les coordonnées d’un point au voisinage duquel la solution de (2.28) existe. Exemple : L’équation 2x y 2 − 3x2 dx + dy = 0 y3 y4 est de la forme (2.28) et satisfait à (2.29). En effet, ∂M ∂N 6x = =− 4, ∂y ∂x y

pour y = 0.

La solution de (2.30) s’écrit en prenant x0 = 0 : x2 + y3

y y0

dy = C, y2

soit

x2 1 − = C1 . 3 y y

2.10 − Facteur intégrant

33

2.10. Facteur intégrant Supposons que le premier membre de l’équation : M (x, y) dx + N (x, y) dy = 0

(2.31)

ne soit pas une différentielle totale. Il est parfois possible de choisir une fonction μ(x, y) telle, que si l’on multiplie ce premier membre par μ, l’on obtienne une différentielle totale. La solution générale de l’équation ainsi obtenue coïncide avec la solution générale de l’équation de départ. La fonction μ(x, y) est un facteur intégrant de l’équation (2.31). On a : μM dx + μN dy = 0.

(2.32)

Pour que le premier membre de (2.32) soit une différentielle totale, il faut et il suffit que : ∂ ∂ (μM ) = (μN ), ∂y ∂x ∂M ∂μ ∂N ∂μ +M =μ +N , μ ∂y ∂y ∂x ∂x   ∂N ∂μ ∂M ∂μ −N =μ − M ∂y ∂x ∂x ∂y

soit : ou encore :

et en divisant par μ : ∂ ∂ ln μ − N ln μ = M ∂y ∂x



∂N ∂M − ∂x ∂y

 .

(2.33)

Toute fonction μ satisfaisant à (2.33) est un facteur intégrant de (2.31). L’équation (2.33) est une équation aux dérivées partielles qui, dans des conditions déterminées qui sortent du cadre de cet ouvrage, possède une infinité de solutions. Donc, en général, μ existe, mais (2.33) est souvent plus difficile à résoudre que l’équation de départ (2.31). Il n’y a que dans des cas particuliers que l’on peut déterminer μ. Supposons d’abord que l’équation (2.31) admette un facteur intégrant μ(y) fonction uniquement de y. D’après (2.33) on a alors :   1 ∂N ∂M d ln μ = − . (2.34) dy M ∂x ∂y Ceci n’est possible que si le second membre de (2.34) ne dépend pas de x. Par intégration, on peut obtenir μ(y) à partir de ln μ. De même, si   ∂M 1 ∂N − N ∂x ∂y ne dépend que de x, on peut trouver un facteur intégrant μ(x) indépendant de y.

2 − Les équations différentielles

34

Exemple : Soit à résoudre l’équation (y + xy 2 ) dx − xdy = 0. On a : M = y + xy 2 ; N = −x ; ∂M ∂N − = −2(1 + xy) ; ∂x ∂y

1 M



∂N ∂M − ∂x ∂y



2 =− . y

Il y a donc un facteur intégrant μ(y) qui, d’après (2.34), est donné par : d 2 ln μ = − , dy y

soit μ =

1 . y2

La résolution de l’équation de départ se ramène à celle de l’équation différentielle totale :   1 x + x dx − 2 dy = 0 (y = 0) y y dont l’intégration est immédiate avec (2.30), en prenant x0 = 0 : x x2 + + C = 0, y 2

soit y = −

x2

2x . + 2C

2.11. Solution singulière d’une équation du 1er ordre Supposons que l’équation F (x, y, y  ) = 0 ait pour intégrale générale Φ(x, y, C) = 0. En prenant différentes valeurs de la constante C, on définit ainsi une famille de courbes dans le plan xOy. Si cette famille de courbes possède une enveloppe, la fonction représentative de cette dernière est aussi solution de l’équation différentielle. C’est une intégrale singulière. En effet, en un point M de l’enveloppe, la relation entre y  et x, y est la même que pour la solution particulière passant par ce point puisque, par définition, l’enveloppe est tangente à cette solution (figure 2.3). y

M

O

x

Figure 2.3 – Enveloppe d’une famille de courbes solutions d’une équation F (x, y, y  ) = 0.

En M on a ainsi deux solutions différentes de l’équation différentielle. Le théorème d’unicité est mis en défaut. Il s’agit donc d’un point singulier situé à la frontière du domaine d’existence et d’unicité des solutions.

2.11 − Solution singulière d’une équation du 1er ordre

35

Cherchons alors l’équation de la courbe singulière (si elle existe). En tout point M on a : ∂Φ ∂Φ dx + dy = 0, ∂x ∂y soit : ∂Φ ∂Φ dy + = 0. ∂x ∂y dx

(2.35)

Par ailleurs, si l’on fait varier C, le point M se déplace sur l’enveloppe et l’on a : ∂Φ ∂Φ ∂Φ dx + dy + dC = 0, ∂x ∂y ∂C soit : ∂Φ ∂Φ dy ∂Φ dC + + = 0. ∂x ∂y dx ∂C dx

(2.36)

Mais, pour l’enveloppe, C étant variable, dC/dx = 0 et, compte tenu de (2.35), l’équation (2.36) s’écrit ∂Φ/∂C = 0. Ainsi, l’équation de l’enveloppe s’obtient en éliminant C du système d’équations : ⎧ ⎨ Φ(x, y, C) = 0 (2.37) ∂Φ ⎩ (x, y, C) = 0. ∂C Exemple : Cherchons la solution singulière de l’ équation : y 2 (1 + y 2 ) = R2

(2.38)

qui s’écrit encore : dy =± dx

 R2 − y 2 y

ou

ydy ± = dx. R2 − y 2

Il s’ agit d’une équation à variables séparées dont l’intégrale générale est  ± R2 − y 2 = x + C, soit encore (x + C)2 + y 2 = R2 . On obtient ainsi une famille de cercles de rayon R centrés sur l’axe des x (figure 2.4). Il est clair que les deux droites y = ±R, tangentes à ces cercles, sont des solutions singulières de (2.38). Ces solutions s’obtiennent analytiquement à partir de (2.37) en résolvant le système :  (x + C)2 + y 2 = R2 , 2(x + C) = 0 d’où y = ±R.

2 − Les équations différentielles

36 y R

R x

O −R C Figure 2.4 – Famille de cercles solutions de (2.38) et les deux solutions singulières y = ±R.

2.12. Généralités sur les équations d’ordre supérieur à 1 Comme nous l’avons vu, une équation différentielle d’ordre n s’écrit F (x, y, y  y  , . . . , y (n) ) = 0. Nous nous limiterons au cas où l’on peut résoudre cette équation par rapport à y (n) soit : y (n) = f (x, y, y  y  , . . . , y (n−1) ).

(2.39)

On démontre le théorème d’existence suivant par extension du § 2.2. Si dans (2.39) la fonction f et ses dérivées partielles par rapport à y, y  , . . ., y (n−1) (n−1) sont continues dans un certain domaine contenant les valeurs x0 , y0 , y0 , . . ., y0 , il existe une solution unique y = ϕ(x) de l’équation vérifiant les conditions initiales (n−1) pour x = x0 . y = y0 , y  = y0 , . . ., y (n−1) = y0 Ce résultat a déjà été établi pour le cas particulier d’une équation du 2e ordre au § 2.2. La solution générale de (2.39) est une fonction y = ϕ(x, C1 , C2 , . . . , Cn ) dépendant de n constantes arbitraires. Les conditions initiales étant fixées, il existe un jeu unique des constantes C1 , C2 , . . . , Cn satisfaisant à ces conditions. On obtient alors une solution particulière de (2.39).

2.13. Les équations de la forme y (n) = f (x) L’équation la plus simple d’ordre n s’écrit : y (n) = f (x). Pour trouver sa solution générale, il suffit d’intégrer n fois. On a donc : x (n−1) = f (x) dx + C1 , y x0

(2.40)

2.14 − Equations du 2e ordre se ramenant à celles du 1er ordre

37

où x0 est arbitraire dans le domaine d’existence. Puis : ⎞ ⎛ x x y (n−2) = ⎝ f (x) dx⎠ dx + C1 (x − x0 ) + C2 , x0

x0

et finalement : x y=

x f (x)dx + C1

... n fois

x0

x0

(x − x0 )n−1 (x − x0 )n−2 + C2 + ... (n − 1)! (n − 2)! +Cn−1 (x − x0 ) + Cn .

(2.41)

Pour trouver la solution particulière vérifiant les conditions initiales : (n−1)

y = y0 , y  = y0 , . . . , y (n−1) = y0 pour x = x0 , il suffit de prendre :

(n−1)

Cn = y0 , Cn−1 = y0 , Cn−2 = y0 , . . . , C1 = y0

.

Exemple : Il est facile de vérifier que la solution de l’équation y  = sin kx, telle que pour x = 0, y = 0 et y  = 1 est y = −(sin kx)/k 2 + x(1 + 1/k) (choisir x0 = 0 pour simplifier les calculs).

2.14. Exemples d’équations du 2e ordre se ramenant à des équations du 1er ordre • Considérons les équations du type : d2 y =f dx2

  dy x, dx

(2.42)

ne contenant pas explicitement la fonction inconnue y. Posons p = dy/dx. On a : dp = f (x, p) . dx

(2.43)

Il s’agit d’une équation du premier ordre qui, par intégration, donne une solution p = p(x, C1 ). A l’aide d’une seconde intégration on obtient la solution générale de (2.42) :  y = p(x, C1 ) dx + C2 . (2.44) L’exercice 2.4 donne un exemple du type (2.42).

2 − Les équations différentielles

38 Remarque : Les équations du type :

y (n) = f (x, y (n−1) )

(2.45)

se ramènent également à l’équation du 1er ordre (2.43) en posant p = y (n−1) . Une fois obtenue la solution p(x), la résolution de (2.45) s’effectue par la méthode du § 2.13. • Considérons les équations du type : d2 y =f dx2

  dy y, dx

(2.46)

ne contenant pas explicitement la variable x. On pose à nouveau p = dy/dx, mais ici p est considéré comme une fonction de y, p(y) et non de x. On a : dp dy dp dp d2 y = = p. = 2 dx dx dy dx dy En substituant dans (2.46), on obtient une équation du 1er ordre pour p(y) : dp p = f (y, p) dy qui, par intégration, nous donne p = p(y, C1 ). Ainsi, on a dy/dx = p(y, C1 ), ou encore dy/p(y, C1 ) = dx, qui est une équation à variables séparées dont l’intégration fournit la solution générale cherchée de (2.46) : Φ(x, y, C1 , C2 ) = 0. Un exemple partculièrement simple est celui du mouvement d’un point matériel sur une droite sous l’action d’une force F (x) dépendant seulement de la position x du point. L’équation fondamentale de la dynamique s’écrit md2 x/dt2 = F (x). Prenons comme conditions initiales x = x0 , V = V0 pour t = 0. On a d2 x/dt2 = dV /dt = V dV /dx et 1’ équation devient mV dV /dx = F (x). Par intégration entre 0 et t, on obtient : ⎡ x ⎤  1 1 2 mV + ⎣− F (x) dx⎦ = mV02 = Cte. 2 2 x0

Dans le premier membre, on reconnaît l’énergie cinétique et l’énergie potentielle. Cette équation exprime la conservation de l’énergie totale.

2.15. Les équations linéaires homogènes 2.15.1. Définitions Une équation différentielle d’ordre n est dite linéaire si elle est du 1er degré par rapport à y, y  , . . . , y (n) , c’est-à-dire si elle est de la forme : a0 y (n) + a1 y (n−1) + . . . + an y = f (x),

(2.47)

2.15 − Les équations linéaires homogènes

39

où a0 , a1 , . . . , an et f (x) sont des fonctions données de x ou des constantes, avec a0 = 0, quel que soit x dans le domaine de définition de (2.47). On suppose que les fonctions a0 , a1 , . . . , an et f (x) sont continues et on ne restreint pas le problème en prenant a0 = 1 (sinon il suffit de diviser tous les termes par a0 ). La fonction f (x) est le second membre de l’équation. Si f (x) = 0, on dit que l’équation (2.47) est non homogène ou avec second membre. Si f (x) ≡ 0, on a : y (n) + a1 y (n−1) + . . . + an y = 0

(2.48)

qui est une équation homogène ou sans second membre. Nous allons établir quelques propriétés fondamentales des équations linéaires homogènes en nous bornant dans les démonstrations aux équations du 2e ordre.

2.15.2. Propriétés • Propriété 1 : Si y1 et y2 sont deux solutions particulières de l’équation : y  + a1 y  + a2 y = 0,

(2.49)

toute combinaison linéaire C1 y1 + C2 y2 , où C1 et C2 sont des constantes, est aussi solution. En effet, si : y1 + a1 y1 + a2 y1 = 0 on a :

et

y2 + a1 y2 + a2 y2 = 0,

(2.50)

(C1 y1 + C2 y2 ) + a1 (C1 y1 + C2 y2 ) + a2 (C1 y1 + C2 y2 ) = 0.

Par définition, deux solutions y1 et y2 de (2.49) sont linéairement indépendantes dans un intervalle [a, b] de x, si leur rapport n’est pas constant dans cet intervalle soit y1 /y2 = Cte. Dans le cas contraire, ces solutions sont linéairement dépendantes et y1 = λy2 pour a ≤ x ≤ b. • Propriété 2 : Par définition, si y1 et y2 sont des fonctions de x, le déterminant :

y1 y2

= y1 y2 − y1 y2

W (y1 , y2 ) =  y1 y2 est le Wronskien des deux fonctions. Si les solutions y1 et y2 de (2.49) sont linéairement dépendantes dans l’intervalle [a, b], leur Wronskien est nul dans cet intervalle. En effet, on a alors y1 = λy2 , λ étant une constante et y1 = λy2 , d’où W (y1 , y2 ) = λ(y2 y2 − y2 y2 ) = 0. Si les solutions y1 et y2 de (2.49) ont un Wronskien W (y1 , y2 ) = 0 en un point x0 de l’intervalle [a, b] où les coefficients de l’équation sont continus, W n’est jamais nul dans cet intervalle. En effet, y1 et y2 étant solutions, les deux relations (2.50) sont satisfaites. Multiplions la première par y2 , la seconde par y1 , et retranchons ; nous avons : y1 y2 − y2 y1 + a1 (y1 y2 − y2 y1 ) = 0 qui s’écrit :

dW + a1 W = 0. dx

2 − Les équations différentielles

40

Sachant que pour x = x0 , W = W0 = 0, on obtient par intégration : ⎛ x ⎞  W = W0 exp ⎝− a1 dx⎠ . x0

L’exponentielle ne s’annulant jamais pour des valeurs finies de x, on voit très bien que W = 0. Au contraire, si W0 = 0, alors W est nul partout dans l’intervalle. Nous déduisons de ce qui précède que si les solutions y1 et y2 de (2.49) sont linéairement indépendantes dans [a, b], W (y1 , y2 ) = 0 en tout point de cet intervalle. En effet, si W (y1 , y2 ) = 0 en un point de l’intervalle, nous venons de voir que W est nul partout dans [a, b]. Donc y1 y2 − y2 y1 = 0. Si y1 = 0, (y1 y2 − y2 y1 )/y12 = 0, soit d(y2 /y1 )/dx = 0 et y2 /y1 = λ =Cte. Les deux solutions sont linéairement dépendantes, ce qui démontre par l’absurde notre proposition. Si y1 = 0 en certains points x1 , x2 , . . ., xk dans [a, b], y1 est non nul dans [a, x1 ] et y2 /y1 = λ dans cet intervalle ; il s’ensuit que y = y2 − λy1 = 0 est solution de (2.49) dans [a, x1 ], avec y  = 0. En vertu de l’unicité de la solution y = 0 de l’équation (2.49) satisfaisant à la condition initiale y = 0, y  = 0 en un point x0 quelconque de [a, b], on en déduit là encore que y2 = λy1 dans tout l’intervalle. • Propriété 3 : Si y1 et y2 sont deux solutions particulières linéairement indépendantes de l’équation homogène (2.49), la solution générale de cette équation est : y = C1 y1 + C2 y2

(2.51)

où C1 et C2 sont des constantes arbitraires. En effet, nous avons vu plus haut que y donné par (2.51) est solution de (2.49) quels que soient C1 et C2 . Il suffit donc de montrer que pour une condition initiale donnée y = y0 , y  = y0 pour x = x0 , il existe un jeu unique de valeurs de C1 et C2 tel que : y0 = C1 y10 + C2 y20   y0 = C1 y10 + C2 y20 .

(2.52)

Or la résolution de (2.52) est toujours possible puisque le déterminant des coefficients de C1 et C2 est :

y10 y20

= W0

 

y10 y20 qui s’identifie au Wronskien des deux solutions pour x = x0 , avec W0 = 0 car y1 et y2 sont linéairement indépendantes. La proposition est donc démontrée. Exemple : Soit à résoudre l’équation : y  +

1  1 y − 2 y = 0. x x

En cherchant des solutions du type xα , on a (α2 − 1)xα−2 = 0, d’où α = ±1. Ainsi y1 = x et y2 = 1/x sont deux solutions particulières (x = 0). D’après (2.51), la solution générale est donc : y = C1 x + C2 /x.

2.15 − Les équations linéaires homogènes

41

Notons que si dans (2.49) a1 et a2 sont constants, il existe une méthode générale pour résoudre l’équation (cf. § 2.16), ce qui n’est pas le cas lorsque a1 et a2 sont fonctions de x. Néanmoins la propriété suivante permet souvent de résoudre le problème. • Propriété 4 : Si l’on connaît une solution particulière de l’équation homogène (2.49), la solution générale se ramène à des intégrations. Supposons, en effet, que nous connaissions une solution particulière y1 de (2.49). Nous devons d’abord chercher une autre solution y2 linéairement indépendante de y1 et y2 . On a :      W = y2 y1 − y2 y1 = C exp − a1 dx . Il s’agit d’une équation du 1er ordre pour y2 qui s’écrit encore :      d y2 1 y2 y1 − y2 y1 = 2 C exp − a1 dx , = dx y1 y12 y   1   y2 C d’où : = exp − a1 dx dx + C  . y1 y12 Puisqu’il nous suffit d’avoir une seule solution y2 particulière, nous prenons C  = 0 et C = 1, d’où     dx y2 = y1 exp − a dx 1 y12 et la solution générale de l’équation est connue par (2.51). Exemple : Soit à résoudre l’équation : (1 − x2 )y  − 2xy  + 2y = 0. On a une solution particulière y1 = x. Dans les notations précédentes :    2x dx ; pour x =  ±1, y = x exp − ln |1 − x2 | , a1 = − 2 2 2 1−x x soit :

   1 1 dx 1 = x ± + + dx x2 |1 − x2 | x2 2(1 − x) 2(1 + x)



  1 1 1 + x

x 1 + x

x ∓ ± ln

= ± ln

∓1

x 2 1−x 2 1 − x 

y2

= =

x

selon que |x| < 1 ou > 1. D’où la solution générale :  y = C1 x + C2

 x

1 + x

∓1 . ± ln 2 1 − x

2 − Les équations différentielles

42

2.16. Les équations linéaires homogènes du 2e ordre à coefficients constants Considérons l’équation : y  + py  + qy = 0

(2.53)

où p et q sont des constantes réelles. Pour obtenir deux solutions particulières indépendantes, on cherche des solutions de la forme y = ekx où k est une constante. Dans ces conditions, on a (k 2 + pk + q)ekx = 0, et puisque ekx = 0, on obtient une équation caractéristique : k 2 + pk + q = 0 dont les racines : p k1 = − + 2



p2 −q 4

et

p k2 = − − 2



p2 −q 4

fournissent les solutions cherchées. Plus précisément, trois cas sont à considérer. • Cas 1 : k1 et k2 sont réels ; k1 = k2 : Les solutions y1 = ek1 x et y2 = ek2 x sont linéairement indépendantes puisque y2 /y1 = exp(k2 − k1 )x =Cte et la solution générale de (2.53) est : y = C1 ek1 x + C2 ek2 x .

(2.54)

Par exemple, l’équation y  + y  − 2y = 0 a pour solution y = C1 ex + C2 e−2x . • Cas 2 : k1 et k2 sont complexes : Ceci signifie que q > p2 /4. En posant α = −p/2 et β = réels, les solutions particulières de (2.53) sont : y1 = e(α+iβ)x

et

 q − p2 /4, où α et β sont

y2 = e(α−iβ)x .

Mais si une fonction complexe y = u(x) + iv(x) de la variable réelle x est solution, u(x) et v(x) sont aussi des solutions de l’équation. En effet, en remplaçant y par son expression dans (2.53), on a : [u(x) + iv(x)] + p[u(x) + iv(x)] + q[u(x) + iv(x)] = 0 (u + pu + qu) + i(v  + pv  + qv) = 0. En séparant les parties réelle et imaginaire de la fonction complexe nulle, u + pu + qu = 0,

v  + pv  + qv = 0,

on montre bien que u(x) et v(x) sont des solutions particulières de (2.53).

2.17 − Généralisation à une équation d’ordre N

43

On peut donc prendre pour solutions particulières indépendantes : y˜1 = eαx cos βx

et

y˜2 = eαx sin βx

puisque y˜2 /˜ y1 = tan βx = Cte. La solution générale de (2.53) s’écrit alors : y = eαx (C1 cos βx + C2 sin βx)

(2.55)

Par exemple, l’équation y  + 2y  + 5y = 0 a pour solution : y = e−x (C1 cos 2x + C2 sin 2x). Dans le cas particulier où p = 0, l’équation caractéristique est k 2 + q = 0, avec les √ racines k1,2 = ± −q.    Si q < 0, k1,2 = ± |q| et y = C1 exp( |q|x) + C2 exp(− |q|x), √ √ √ Si q > 0, α = 0, β = q et y = C1 cos( qx) + C2 sin( qx). • Cas 3 : L’équation caractéristique a une racine double k1 = k2 = − p/2 : Dans ce cas, on ne connaît qu’une solution particulière y1 = exp(k1 x). Cherchons la deuxième solution particulière sous la forme y2 = u(x) exp(k1 x) où u(x) est une fonction inconnue à déterminer. En substituant dans (2.53), on a :   ek1 x u + (2k1 + p)u + (k12 + pk1 + q)u = 0. Mais, dans cette expression, les coefficients de u et u sont nuls, et il suffit d’avoir u = 0 pour que la relation précédente soit satisfaite. Ainsi, u(x) = λx + μ, et nous pouvons choisir μ = 0, λ = 1 soit u = x, pour obtenir une deuxième solution particulière y2 = xek1 x . Notons que cette solution est bien indépendante de y puisque le rapport y2 /y1 = x = Cte. La solution générale de (2.53) est donc : y = ek1 x (C1 + C2 x).

(2.56)

Par exemple, la solution de l’équation y  − 4y  + 4y = 0 est e2x (C1 + C2 x).

2.17. Généralisation à une équation différentielle linéaire homogène d’ordre N à coefficients constants Soit l’équation : y (n) + a1 y (n−1) + . . . + an y = 0,

(2.57)

où a1 , a2 , . . ., an sont des constantes. Si pour tout x dans l’intervalle [a, b], les fonctions y1 , y2 , . . ., yn sont des solutions linéairement indépendantes de (2.57), c’est-à-dire

2 − Les équations différentielles

44

si aucune de ces solutions ne peut s’exprimer sous forme d’une combinaison linéaire des n − 1 autres solutions, la solution générale de l’équation est de la forme : y = C1 y1 + C2 y2 + . . . + Cn yn ,

(2.58)

où les Ci sont des constantes arbitraires. Si a1 , a2 , . . ., an sont constants, on cherche des solutions particulières du type exp(kx) et on obtient l’équation caractéristique k n + a1 k n−1 + . . . + an = 0 dont les racines sont k1 , k2 , . . ., kn . – A toute racine simple k, correspond une solution particulière ekx . – A tout couple de racines complexes conjuguées simples ki = α + iβ et kj = α − iβ, correspondent deux solutions particulières eαx cos βx et eαx sin βx. – A toute racine réelle k d’ordre r correspondent r solutions particulières indépendantes ekx , xekx , . . ., xr−1 ekx . – A tout couple de racines complexes conjuguées ki = α + iβ et kj = α − iβ d’ordre r, correspondent 2r solutions particulières indépendantes : eαx cos βx,

xeαx cos βx,

...,

xr−1 eαx cos βx

eαx sin βx,

xeαx sin βx,

...,

xr−1 eαx sin βx.

Une fois trouvées les n solutions particulières y1 , y2 , . . ., yn , la solution générale de (2.57) est donnée par (2.58). Par exemple, l’équation y (iv) − y = 0, a pour équation caractéristique k 4 − 1 = 0 dont les racines sont k1 = 1, k2 = −1, k3 = i, k4 = −i et la solution générale est y = C1 ex + C2 e−x + C3 cos x + C4 sin x.

2.18. Les équations linéaires non homogènes du 2e ordre Comme nous l’avons vu, il s’agit d’équations du type (cf. (2.47)) : y  + a1 y  + a2 y = f (x).

(2.59)

Théorème : la solution générale de (2.59) est la somme d’une solution particulière quelconque yp de cette équation et de la solution générale yh de l’équation homogène sans second membre : y = yp + yh .

(2.60)

En effet, il est facile de vérifier que y donnée par (2.60) est bien solution de (2.59), mais encore faut-il s’assurer qu’il s’agit bien de la solution générale, c’est-à-dire que

2.18 − Les équations linéaires non homogènes du 2e ordre

45

l’on peut choisir les constantes arbitraires de sorte que les conditions initiales y = y0 , y  = y0 pour x = x0 soient satisfaites quels que soient x0 , y0 et y0 dans le domaine de continuité de a1 , a2 et f (x). La solution (2.60) s’écrit encore y = C1 y1 + C2 y2 + yp où y1 et y2 sont deux solutions particulières, linéairement indépendantes de l’équation sans second membre. Les constantes C1 et C2 doivent satisfaire au système :  C1 y10 + C2 y20 = y0 − yp0    C1 y10 + C2 y20 = y0 − yp0 .

Mais le déterminant des coefficients des deux constantes inconnues C1 et C2 n’est   − y10 y20 des fonctions y1 et y2 pour x = x0 . Nous autre que le Wronskien y10 y20 savons que W = 0 puisque y1 et y2 sont indépendantes. On a donc une solution unique pour C1 et C2 satisfaisant aux conditions initiales et (2.60) est bien la solution générale de (2.59). La seule difficulté réside en la détermination d’une solution particulière yp . Il existe à cet effet une méthode dite de variation des constantes que nous allons exposer. Méthode de variation des constantes Nous savons que : y = C1 y1 + C2 y2

(2.61)

est la solution générale de l’équation (2.59) sans second membre. Considérons C1 et C2 comme des fonctions de x à déterminer de manière à ce que (2.61) soit une solution particulière de (2.59). On a alors y  = C1 y1 + C2 y2 + C1 y1 + C2 y2 . De plus, choisissons C1 et C2 afin que pour toute valeur de x appartenant au domaine de convergence, l’on ait : C1 y1 + C2 y2 = 0. Dans ces conditions, on peut écrire : y  = C1 y1 + C2 y2 y  = C1 y1 + C2 y2 + C1 y1 + C2 y2 et en substituant dans (2.59) on obtient : C1 (y1 + a1 y1 + a2 y1 ) + C2 (y2 + a1 y2 + a2 y2 ) + C1 y1 + C2 y2 = f (x), soit C1 y1 + C2 y2 = f (x). Donc (2.61) est solution de (2.59) si C1 et C2 satisfont au système :   C1 y1 + C2 y2 = 0 C1 y1 + C2 y2 = f (x).

(2.62)

2 − Les équations différentielles

46

Le déterminant des coefficients de C1 et C2 est W = y1 y2 − y1 y2 = 0, et les solutions C1 et C2 du système (2.62) existent et sont déterminées en résolvant ce système de deux équations algébriques linéaires. On obtient ainsi C1 = ϕ1 (x) ; C2 = ϕ2 (x). Par intégration on a :   C1 = ϕ1 (x) dx + c1 et C2 = ϕ2 (x) dx + c2 et :

 y = y1

 ϕ1 (x) dx + y2

ϕ2 (x) dx + c1 y1 + c2 y2

(2.63)

où c1 et c2 sont des constantes. L’expression (2.63) est la solution générale de (2.61) et elle se présente bien sous la forme d’une somme d’une solution particulière   yp = y1 ϕ1 (x) dx + y2 ϕ2 (x) dx et de la solution générale de l’équation sans second membre c1 y1 + c2 y2 . Exemple : Soit à résoudre l’équation : y  +

1 y − 2 y = x2 . x x

L’équation sans second membre a été résolue au § 2.15.2 et a conduit aux deux solutions particulières y1 = x, y2 = 1/x. Le système (2.62) s’écrit donc :   C1 x + C2 /x = 0 avec x = 0. C1 − C2 /x2 = x2 D’où C1 = x2 /2, C2 = −x4 /2 et C1 = x3 /6 + c1 , C2 = −x5 /10 + c2 . La solution générale de l’équation est donc, d’après (2.63) : y=

x4 c2 + c1 x + . 15 x

2.19. Les équations linéaires non homogènes du 2e ordre à coefficients constants Soit l’équation : y  + py  + qy = f (x)

(2.64)

où p et q sont des constantes réelles. Il est souvent plus simple dans ce cas de trouver directement une solution particulière yp , plutôt que d’utiliser la méthode de variations des constantes exposée plus haut et qui nécessite des intégrations. Donnons quelques exemples.

2.19 − Les équations linéaires du 2e ordre à coefficients constants 47 • Exemple 1 : f (x) = Pn (x)eαx

(2.65)

où Pn (x) est un polynôme de degré n et α est une constante. L’équation caractéristique de l’équation sans second membre est : k 2 + pk + q = 0.

(2.66)

Si α n’est pas racine de cette équation, on peut chercher yp sous la forme :   yp = a0 xn + a1 xn−1 + . . . + an eαx = Qn (x)eαx (2.67) où Qn (x) est un polynôme de degré n et a0 , a1 , . . ., an des coefficients à déterminer. En substituant dans (2.64), on a : Qn (x) + (2α + p)Qn (x) + (α2 + pα + q)Qn (x) = Pn (x).

(2.68)

En égalant les coefficients des mêmes puissances de x dans les deux membres de (2.68), on obtient n + 1 équations linéaires permettant de déterminer les n + 1 coefficients a0 , a1 , . . ., an . Si α est une racine simple de l’équation caractéristique, le premier membre de (2.68) est un polynôme de degré n − 1 et l’on cherche alors yp sous la forme :   yp = xQn (x)eαx = a0 xn+1 + a1 xn + . . . + an x eαx (2.69) et l’on procède comme précédemment. Enfin, si α est une racine double de l’équation caractéristique, on cherche yp sous la forme yp = x2 Qn (x)eαx . Exemples : L’équation y  + 4y  + 3y = x a pour solution générale : y = c1 e−x + c2 e−3x +

x 4 − . 3 9

L’équation y  − 7y  + 6y = (x − 2)ex a pour solution générale :   9 x 6x x y = c1 e + c2 e + x − + ex . 10 25 Remarque : La solution particulière yp de l’équation y  + py  + qy = f1 (x) + f2 (x), est la somme y1p + y2p , des solutions particulières des équations :   y1p + py1p + qy1p = f1 (x)

et

  y2p + py2p + qy2p = f2 (x),

ce qui se vérifie aisément en ajoutant ces deux équations. • Exemple 2 : f (x) = P (x)eαx cos βx + Q(x)eαx sin βx, P (x) et Q(x) étant des polynômes. On a encore : f (x) =

P (x) − iQ(x) (α+iβ)x P (x) + iQ(x) (α−iβ)x e e + . 2 2

(2.70)

2 − Les équations différentielles

48

Compte tenu de la remarque ci-dessus, on se ramène au cas précédent. Si α + iβ n’est pas une racine de l’équation caractéristique (2.66), on cherche une solution particulière de (2.64) sous la forme : yp = U (x)eαx cos βx + V (x)eαx sin βx

(2.71)

où U (x) et V (x) sont des polynômes de degré égal au degré le plus élevé des polynômes P et Q. Si α + iβ est une racine simple de (2.66), on cherche yp sous la forme : yp = x [U (x)eαx cos βx + V (x)eαx sin βx] .

(2.72)

Un cas particulier important et très simple est celui où α = 0 et P et Q sont des constantes. Alors, f (x) = P cos βx + Q(x) sin βx.

(2.73)

Si iβ n’est pas racine de l’équation caractéristique (2.66), on cherche une solution particulière de la forme yp = A cos βx + B sin βx. Si iβ est une racine de (2.66), on cherche une solution yp = x(A cos βx + B sin βx). Exemples : La solution générale de l’équation y  + 2y  + 5y = 2 cos x est : y = e−x (c1 cos 2x + c2 sin 2x) +

1 2 cos x + sin x. 5 5

La solution générale de y  + 4y = cos 2x est : y = c1 cos 2x + c2 sin 2x +

x sin 2x. 4

Remarquons que tous les raisonnements précédents s’appliquent aux équations linédy aires du 1er ordre. En particulier, l’équation à coefficients constants : dx + ay = b, où a et b sont des constantes, a pour solution : y = c e−ax + b/a, b/a étant la solution particulière yp .

2.20. Application à un circuit électrique Soit un circuit comprenant en série une résistance R, une self L et un condensateur C soumis à une tension V (t) (figure 2.5). On cherche le courant I(t) qui traverse ce circuit. Les tensions aux bornes des trois éléments sont respectivement RI, LdI/dt et (1/C) Idt. Donc :  1 dI + RI + I dt = V (2.74) L dt C et en dérivant on obtient : L

I dV dI d2 I + = . +R dt2 dt C dt

(2.75)

2.20 − Application à un circuit électrique

R

L

49

C

I(t) V (t) Figure 2.5 – Circuit RLC.

En introduisant√le coefficient d’amortissement α = R/(2L) et la pulsation propre du circuit ω0 = 1/ LC, (2.75) devient : d2 I dI 1 dV . + 2α + ω02 I = dt2 dt L dt

(2.76)

Il s’agit d’une équation non homogène du 2e ordre à coefficients constants. L’équation caractéristique de l’équation sans second membre est k 2 + 2αk + ω02 = 0, dont les  2 racines sont k = −α ± α − ω02 = −α ± β, où β est réel ou imaginaire selon que α ≥ ω0 ou α < ω0 . La solution de l’équation sans second membre est :   I(t) = e−αt C1 eβt + C2 e−βt . Comme la partie réelle de k est toujours négative, I(t) tend rapidement vers 0 et cette solution n’intervient qu’en régime transitoire et non en régime permanent. Ainsi, seule la solution particulière Ip (t) de (2.76) est intéressante. Supposons que V (t) = V0 sin ωt (tension sinusoïdale de pulsation ω). On a : V0 ω 1 dV = cos ωt. L dt L Il convient alors de chercher Ip sous la forme Ip = A cos ωt + B sin ωt, où, de manière plus commode mais équivalente, Ip = I0 sin(ωt + ϕ) avec A = I0 sin ϕ, B = I0 cos ϕ, soit : π  π A I0 = A2 + B 2 et − ≤ϕ≤ . tan ϕ = B 2 2 En substituant cette solution dans (2.76) on obtient : I0 (ω02 − ω 2 ) sin(ωt + ϕ) + 2I0 αω cos(ωt + ϕ) = (V0 ω/L) cos ωt. En égalant les coefficients de sin ωt et cos ωt dans cette expression, on a : I0 [(ω02 − ω 2 ) sin ϕ + 2αω cos ϕ] = V0 ω/L (ω02 − ω 2 ) cos ϕ − 2αω sin ϕ = 0 d’où : tan ϕ =

(1/LC) − ω 2 (1/Cω) − Lω ω02 − ω 2 = = 2αω Rω/L R

(2.77)

2 − Les équations différentielles

50 et, comme ω02 − ω 2 = 2αω tan ϕ, I0 =

V0 1 V0 ω cos ϕ  = L 2αω R 1 + tan2 ϕ

soit : V0 I0 =  . 2 R + [(1/Cω) − Lω]2

(2.78)

Nous voyons que si Lω > 1/Cω, tan ϕ < 0, le courant est en retard de phase sur la tension ; si Lω < 1/Cω, tan ϕ > 0, le courant est en avance de phase sur la tension ; enfin si 1/Cω = Lω, le courant est en phase avec la tension avec I = V /R.

2.21. Les systèmes d’équations linéaires à coefficients constants Nous nous proposons de résoudre le système d’équations différentielles du 1er ordre : ⎧ dy1 ⎪ ⎪ = a11 y1 + a12 y2 + . . . + a1n yn ⎪ ⎪ ⎪ dx ⎪ ⎪ dy2 ⎪ ⎨ = a21 y1 + a22 y2 + . . . + a2n yn dx (2.79) ⎪ .. ⎪ ⎪ . ⎪ ⎪ ⎪ ⎪ ⎪ ⎩ dyn = a y + a y + . . . + a y n1 1 n2 2 nn n dx où y1 (x), y2 (x), . . ., yn (x) sont des fonctions inconnues de la variable x et aij sont des constantes. On dit que le système (2.79) est un système d’équations différentielles homogène à coefficients constants. Comme nous l’avons vu au § 2.1, nous pouvons ramener ce système à la résolution d’une équation différentielle d’ordre n par rapport à l’une des fonctions. Cette équation est ici homogène et à coefficients constants et admet donc des solutions de type exponentiel. On peut cependant éviter son écriture en cherchant directement des solutions de la forme : y1 = α1 ekx , y2 = α2 ekx , . . . , yn = αn ekx , où α1 , α2 , . . ., αn et k sont des constantes à déterminer de manière à ce que le système (2.79) soit satisfait. Par substitution on obtient : ⎧ kα1 ekx = (a11 α1 + a12 α2 + . . . + a1n αn )ekx ⎪ ⎪ ⎪ ⎨ kα2 ekx = (a21 α1 + a22 α2 + . . . + a2n αn )ekx .. ⎪ . ⎪ ⎪ ⎩ kαn ekx = (an1 α1 + an2 α2 + . . . + ann αn )ekx .

2.21 − Les systèmes d’équations linéaires à coefficients constants Il faut donc résoudre le système d’équations linéaires : ⎧ (a11 − k)α1 + a12 α2 + . . . + a1n αn = 0 ⎪ ⎪ ⎪ ⎨ a21 α1 + (a22 − k)α2 + . . . + a2n αn = 0 . ⎪ ⎪ .. ⎪ ⎩ an1 α1 + an2 α2 + . . . + (ann − k)αn = 0.

51

(2.80)

Le système (2.80) n’a de solutions non nulles que si le déterminant Δ(k) formé par les coefficients des αi est nul (cf. chapitre 8 § 8.8). Dans ces conditions, on doit avoir :

a11 − k a12 ... a1n

a21 a22 − k . . . a2n

Δ(k) = (2.81)

= 0. .. .. ..

. . .

an1 an2 . . . ann − k On obtient ainsi une équation caractéristique k n + A1 k n−1 + . . . + An = 0 dont les racines sont k1 , k2 , . . ., kn . On substitue alors chaque racine ki dans le système (2.80) (i) (i) (i) et on détermine les coefficients α1 , α2 , . . ., αn relatifs à cette racine. Notons que ces coefficients ne sont définis qu’à une constante multiplicative commune près et que l’on peut toujours choisir l’un des coefficients égal à 1. Plusieurs cas peuvent se présenter : • Cas 1 : Les racines sont réelles et distinctes Nous avons obtenu par la méthode précédente un jeu de solutions particulières pour chaque racine de l’équation caractéristique : – pour la racine k1 : (1)

(1)

(2)

(2)

(n)

(n)

k1 x ; y1 = α1 ek1 x , y2 = α2 ek1 x , . . . , yn = α(1) n e

– pour la racine k2 : k2 x y1 = α1 ek2 x , y2 = α2 ek2 x , . . . , yn = α(2) ; n e

– pour la racine kn : kn x . y1 = α1 ekn x , y2 = α2 ekn x , . . . , yn = α(n) n e

La solution générale du système (2.79) est une combinaison linéaire quelconque de ces solutions particulières : ⎧ (1) (2) (n) y1 = C1 α1 ek1 x + C2 α1 ek2 x + . . . + Cn α1 ekn x ⎪ ⎪ ⎪ ⎪ ⎨ y = C α(1) ek1 x + C α(2) ek2 x + . . . + C α(n) ekn x 2 1 2 2 2 n 2 (2.82) .. ⎪ ⎪ . ⎪ ⎪ ⎩ (1) (2) (n) yn = C1 αn ek1 x + C2 αn ek2 x + . . . + Cn αn ekn x .

2 − Les équations différentielles

52

On montre aisément que pour des conditions initiales données y1 = y10 , y2 = y20 , . . ., yn = yn0 , pour x = x0 , on peut trouver un jeu de constantes C1 , C2 , . . ., Cn satisfaisant à ces conditions. Exemple : Déterminer la solution générale du système : ⎧ dy1 ⎪ ⎨ = 2y1 + 2y2 dx dy ⎪ 2 ⎩ = y1 + 3y2 , dx puis la solution particulière telle que pour x = 0, y1 = 1 et y2 = 2. L’équation (2.81) s’écrit :

2−k Δ =

1

2

= 0, 3−k

soit k 2 − 5k + 4 = 0 dont les racines sont k1 = 1 et k2 = 4. En cherchant des solutions (1)

(1)

y1 = α1 ex ,

(1)

(1)

y2 = α2 ex ,

(2)

(2)

(2)

y1 = α1 e4x ,

(2)

y2 = α2 e4x ,

on a, d’après (2.80) : (1)

(1)

(1)

(1)

α1 + 2α2 = 0 d’où α1 = 1, α2 = −1/2, (2) (2) (2) (2) −2α1 + 2α2 = 0 d’où α1 = α2 = 1. La solution générale du système est donc : y1 = C1 ex + C2 e4x C1 y2 = − ex + C2 e4x . 2 Pour la solution particulière, on a C1 = −2/3, C2 = 5/3. • Cas 2 : Les racines de Δ(k) = 0 sont distinctes, mais certaines sont complexes Supposons que parmi les racines de l’équation caractéristique, il y ait deux racines complexes conjuguées k1 = a + ib et k2 = a − ib. A ces racines correspondent les solutions : (1)

yj

(1)

= αj e(a+ib)x

et

(2)

yj

(2)

= αj e(a−ib)x

(j = 1, 2, . . . , n).

Dans ces conditions, il est facile de montrer que les parties réelles et imaginaires de ces solutions, déterminées à partir du système (2.80), sont aussi solutions. On obtient ainsi deux solutions particulières : (1) (1) (2) y˜j = eax βj cos bx + βj sin bx (2.83) (2) (1) (2) y˜j = eax γj cos bx + γj sin bx

2.21 − Les systèmes d’équations linéaires à coefficients constants (1)

(2)

(1)

(2)

où βj , βj , γj , γj (2)

53 (1)

sont des coefficients réels qui s’expriment à l’aide des αj

et αj . Des combinaisons linéaires de (2.83) entrent alors dans la solution générale du système. Exemple : Déterminons la solution générale du système : ⎧ dy1 ⎪ ⎨ = −7y1 + y2 dx ⎪ ⎩ dy2 = −2y − 5y . 1 2 dx L’équation caractéristique s’écrit :

−7 − k Δ =

−2

1

= 0, −5 − k

soit k 2 + 12k + 37 = 0 et a pour racines k1 = −6 + i, k2 = −6 − i. On a des solutions proportionnelles à e(−6+i)x et e(−6−i)x . D’après (2.80) : (1)

(1)

d’où α1 = 1, α2 = 1 + i,

(2)

(2)

d’où α1 = 1, α2 = 1 − i.

(−1 − i)α1 + α2 = 0 (−1 + i)α1 + α2 = 0

(1)

(1)

(2)

(2)

On peut remplacer les deux solutions particulières : (1)

y2 = (1 + i)e(−6+i)x ,

(2)

y2 = (1 − i)e(−6−i)x

y1 = e(−6+i)x , y1 = e(−6−i)x ,

(1) (2)

par leurs parties réelle et imaginaire, soit : (1)

y˜2 = e−6x (cos x − sin x),

(2)

y˜2 = e−6x (cos x + sin x),

y˜1 = e−6x cos x, y˜1 = e−6x sin x,

(1) (2)

et la solution générale du système s’écrit : y1 = e−6x (C1 cos x + C2 sin x) y2 = e−6x [C1 (cos x − sin x) + C2 (cos x + sin x)]. Il est aussi simple d’écrire directement la solution générale sous la forme : y1 = C1 e(−6+i)x + C2 e(−6−i)x y2 = C1 (1 + i)e(−6+i)x + C2 (1 − i)e(−6−i)x et de remplacer ces expressions par les mêmes combinaisons des parties réelles et imaginaires pour retrouver le résultat précédent. Remarque : Par une méthode analogue à celle développée pour résoudre le système (2.79), on peut trouver la solution d’un système d’équations différentielles d’ordre

2 − Les équations différentielles

54

supérieur à 1, à coefficients constants. Par exemple, soit à résoudre le système des deux équations du 2e ordre : ⎧ 2 d y1 ⎪ ⎪ ⎨ = a11 y1 + a12 y2 dx2 (2.84) ⎪ d2 y2 ⎪ ⎩ = a21 y1 + a22 y2 . dx2 On cherche des solutions sous la forme y1 = αekx et y2 = βekx et, en reportant ces expressions dans (2.84), on obtient après simplification par ekx : (a11 − k 2 )α + a12 β = 0 a21 α + (a22 − k 2 )β = 0.

(2.85)

Ce système n’a de solutions non nulles que si le déterminant des coefficients de α et β est nul, soit :

a11 − k 2

a12

= 0. Δ= a21 a22 − k 2 L’équation caractéristique s’écrit : k 4 − (a11 + a22 )k 2 + a11 a22 − a21 a12 = 0 et admet quatre racines k1 , k2 , k3 , k4 que nous supposons distinctes. Pour chaque racine ki , nous trouvons les valeurs de α(i) et β (i) grâce à (2.85) et la solution générale du système (2.84) est : y1 = C1 α(1) ek1 x + C2 α(2) ek2 x + C3 α(3) ek3 x + C4 α(4) ek4 x y2 = C1 β (1) ek1 x + C2 β (2) ek2 x + C3 β (3) ek3 x + C4 β (4) ek4 x .

(2.86)

2.22. L’intégration approchée des équations différentielles La résolution exacte d’une équation différentielle n’est pas toujours aisée et l’on utilise souvent des méthodes numériques approchées qui se prêtent bien au calcul par ordinateur. Nous ne donnons ici que le principe de deux méthodes simples en nous limitant à l’intégration approchée d’une équation du 1er ordre, sachant que la résolution d’une équation d’ordre quelconque p se ramène à celle d’un système de p équations du 1er ordre.

2.22.1. L’intégration approchée d’une équation du 1er ordre Considérons l’équation : dy = f (x, y). dx

(2.87)

2.22 − L’intégration approchée des équations différentielles

55

Nous cherchons une solution approchée de (2.87) satisfaisant à la condition initiale y = y0 si x = x0 , pour des valeurs x > x0 dans le domaine d’existence des solutions. Ceci revient à trouver le plus précisément possible les valeurs y1 , y2 , . . ., de la fonction y cherchée pour des valeurs x1 , x2 , . . . de la variable. Il existe de nombreuses méthodes pour réaliser ceci mais nous nous contenterons de deux d’entre-elles parmi les plus simples ; la méthode de la série de Taylor dont l’application est limitée aux cas où le calcul des dérivées partielles de f (x, y) est facile, et la méthode de Runge et Kutta, plus générale.

2.22.2. Méthode de la série de Taylor Donnons à la variable x des valeurs croissant en progression arithmétique de raison h : x0 , x1 = x0 +h, x2 = x0 +2h, . . ., xk = x0 +kh. Le développement en série de Taylor de la fonction cherchée y donne la valeur yk+1 pour la valeur xk+1 de la variable en fonction de la valeur de y et de ses dérivées successives pour la valeur xk de la variable : yk+1 = yk + hyk +

h2  hn (n) yk + . . . + y + ... 2! n! k

(2.88)

Mais l’équation (2.87) à résoudre nous donne yk = f (xk , yk ) et, par dérivations successives :     ∂f ∂f  + y yk = ∂x k ∂y k k  2   2   2    ∂ f ∂ f ∂ f ∂f   2 yk = + 2 y + (y ) + y  . k k 2 2 ∂x k ∂x∂y k ∂y k ∂y k k On applique alors la formule (2.88) pour k = 0, 1, 2, . . . Si on arrête le développement au terme n = p, ceci revient à remplacer entre les abscisses xk et xk+1 la solution y par le polynôme qui a au point xk , yk la même valeur de y et de ses p premières dérivées que la solution exacte qui passe par ce point. Exemple : Soit à calculer numériquement la solution de l’équation : y  = (x + y)2

(2.89)

satisfaisant à la condition initiale y = 0 pour x = 0, aux points d’abscisse x = 0, 1 ; 0,2 ; 0,3 et 0,4. Dans ce cas, l’équation se résoud exactement en posant z = x + y. On a alors dz/dx = 1 + z 2, d’où z = tan(x + c). L’intégrale particulière cherchée est donc y = tan x − x. On a par ailleurs : y  = (x + y)2 y  = 2(x + y)(1 + y  ) y  = 2(1 + y  )2 + 2(x + y)y  y (iv) = 6(1 + y  )y  + 2(x + y)y  y (v) = 8(1 + y  )y  + 6(y  )2 + 2(x + y)y (iv) .

2 − Les équations différentielles

56

A l’origine, y = 0, y  = 0, y  = 0, y  = 2, y (iv) = 0, y (v) = 16. Avec h = 0, 1 on (v)   calcule successivement yk+1 à l’aide de (2.88) et yk+1 , yk+1 , . . ., yk+1 à l’aide des formules précédentes ; ceci nous conduit au tableau 2.1, où nous pouvons comparer yexact = tan x − x avec y calculé par (2.88). Les résultats sont excellents et peuvent facilement être améliorés en poussant le développement de Taylor (2.88) à un ordre plus élevé. Tableau 2.1 – Illustration de la méthode de la série de Taylor.

x

0

0,1

0,2

0,3

0,4

y

0

0,000 335

0,002 710

0,009 336

0,022 793

y

0

0,010 067

0,041 091

0,095 689

y 

0

0,202 689

0,422 079

0,677 872

y 

2

2,081 l44

2,338 860

2,820 449

y (iv)

0

1,646 000

3,584 757

6,201 354

y (v)

16

17,393 559

22,001 965

31,316 346

yexact

0

0,000 335

0,002 710

0,009 336

0,022 793

2.22.3. Méthode de Runge et Kutta Nous partons de l’équation (2.87) et nous prenons comme condition initiale y = y0 pour x = x0 . Nous cherchons les valeurs de y pour les valeurs x0 + h, x0 + 2h, . . . de la variable x. On a : x0 +h f (x, y) dx. y(x0 + h) = y0 + x0

Désignons par y1/2 la valeur de y au point x1/2 = x0 + h/2 et par y1 la valeur de y au point x = x0 + h. L’intégrale se calcule par la formule de Simpson (cf. annexe II) : y1 = y0 +

 h f (x0 , y0 ) + 4f (x1/2 , y1/2 ) + f (x1 , y1 ) . 6

(2.90)

2.22 − L’intégration approchée des équations différentielles

57

Dans le second membre de (2.90) nous devons prendre des valeurs approchées y a de y1/2 et y1 . On peut choisir :



a y1/2

h k1 a avec k1 = hf (x0 , y0 ) ou y1/2 = y0 + f (x0 , y0 ) = y0 + 2    2  h h k1 k2 h k1 avec k2 = hf x0 + , y0 + = y0 + f x0 + , y0 + = y0 + . 2 2 2 2 2 2

De même, on peut choisir :     h k2 h k2 y1a = y0 + hf x0 + , y0 + = y0 + k3 avec k3 = hf x0 + , y0 + . 2 2 2 2 Tableau 2.2 – Illustration de la méthode de de Runge et Kutta.

x

y

k

x0 = 0

y0 = 0

k1 = 0

x0 + h/2 = 0, 05

y0 + k1 /2 = 0

k2 = 0, 000 250

y0 + k2 /2 = 0, 000 125

k3 = 0, 000 251

y0 + k3 = 0, 000 251

k4 = 0, 001 005

x1 = x0 + h = 0, 1

y1 = 0, 000 334 x1 = 0, 1

y1 = 0, 000 334

k1 = 0, 001 007

x1 + h/2 = 0, 15

y1 + k1 /2 = 0, 000 837

k2 = 0, 002 275

y1 + k2 /2 = 0, 001 471

k3 = 0, 002 294

y1 + k3 = 0, 002 628

k4 = 0, 004 106

x2 = x1 + h = 0, 2

y2 = 0, 002 709

La formule de Simpson (2.90) nous donne alors la valeur approchée de y1 :    h h k1 y1 = y0 + f (x0 , y0 ) + 2f x0 + , y0 + 6 2 2 !   h k2 + 2 f x0 + , y0 + + f (x0 + h, y0 + k3 ) , 2 2

2 − Les équations différentielles

58 soit : y1 = y0 +

1 (k1 + 2k2 + 2k3 + k4 ) 6

où k4 = hf (x0 + h, y0 + k3 ).

(2.91)

Pour obtenir une valeur approchée de y2 correspondant à x2 = x0 + 2h, on recommence le processus précédent en remplaçant les couples (x0 , y0 ) et (x1 , y1 ) par (x1 , y1 ) et (x2 , y2 ) respectivement. Et on continue ainsi, de proche en proche, jusqu’à ym , correspondant à xm = x0 + mh. Concrètement on dispose les calculs de la manière suivante, illustrée par la résolution approchée de (2.89) avec les mêmes conditions initiales, pour x = 0, 1 et x = 0, 2 dans le tableau 2.2. Les valeurs de y1 , et y2 sont en excellent accord avec les valeurs exactes données dans le tableau 2.1. Ces calculs se prêtent très bien à la programmation et il s’agit d’une méthode très courante de calcul des solutions d’une équation différentielle par ordinateur.

2.23. Exercices Exercice 2.1. Intégrer l’équation différentielle suivante : dy x+y−3 = . dx x−y−1 Exercice 2.2. Intégrer l’équation différentielle suivante : 2x + y − 1 dy = . dx 4x + 2y + 5 Exercice 2.3. Intégrer l’équation différentielle suivante : dy y x+1 −a = dx x x dans le cas général (a = 1) et pour a = 1. Exercice 2.4. Intégrer l’équation différentielle suivante : d2 y dy tan x = sin 2x. + dx2 dx Donner la solution particulière telle que pour x = 0, y = −1 et y  = 0. Exercice 2.5. Intégrer l’équation différentielle suivante : (3y − 7x + 7) dx − (3x − 7y − 3) dy = 0. Exercice 2.6. Intégrer l’équation différentielle suivante : dy 1 − 2x + y = 1. dx x2

2.23 − Exercices

59

Exercice 2.7. Intégrer l’équation différentielle suivante : (y 3 − x)

dy = y. dx

Exercice 2.8. Intégrer l’équation différentielle suivante : x dx + (2x + y) dy = 0. (x + y)2 Exercice 2.9. Soit une courbe plane y(x) et M le point courant de cette courbe. On désigne par A le point d’intersection de la normale en M à la courbe avec l’axe Ox. 1. Montrer que la courbe y(x), telle que le rapport des longueurs OA/OM est une constante m, obéit à l’équation différentielle : dy x + y dx  = m. x2 + y 2

2. Trouver la solution générale de cette équation sous la forme la plus simple possible. 3. Trouver pour m = 1 la solution particulière telle que pour x = 4, y = 3.

Exercice 2.10. Intégrer l’équation différentielle suivante : "  2 dy d2 y 1 = 1 + . dx2 a dx Exercice 2.11. Intégrer l’équation différentielle suivante : y  =

1 . 2y 

Trouver la solution particulière y(x) passant par le point (x = 1, y = 2) et telle que la tangente en ce point forme avec l’axe Ox un angle de −π/4. Exercice 2.12. On cherche la forme d’un miroir tel que les rayons issus d’un point O situé sur l’axe des x, soient réfléchis parallèlement à cet axe dans le sens −Ox. Le système étant de révolution autour de Ox, il suffit de bâtir la courbe y(x) dans le plan satisfaisant à cette condition. Nous désignerons par M(x, y) le point courant de cette courbe. Soit OM le rayon incident, MP le rayon réfléchi parallèle à Ox (P est à −∞), Q le point où la normale en M à la courbe y(x) coupe l’axe des x et N la projection orthogonale de M sur l’axe des x. 1. Démontrer que OM = OQ. 2. Calculer le rapport NM/QN en fonction de x et y.

2 − Les équations différentielles

60

3. Ce rapport est égal au rapport des cosinus directeurs du vecteur définissant la direction de la normale en M à la courbe cherchée. Evaluer ce rapport en fonction de dy/dx. 4. Etablir que la courbe cherchée obéit à l’équation différentielle :  x + x2 + y 2 dy =− . dx y

(2.92)

5. Trouver l’intégrale générale de (2.92). 6. Donner la solution particulière telle que pour x = 1/2, y = 0. 7. Quelle est la nature de cette courbe ? représentez-la. En déduire la forme du miroir dans l’espace. Que représente O pour cette courbe ?

Exercice 2.13. Intégrer l’équation différentielle suivante : x dx + y dy =

y dx − x dy . x2 + y 2

Exercice 2.14. Intégrer l’équation différentielle suivante : (y ln x − 2)y dx = x dy. Exercice 2.15. Intégrer l’équation différentielle suivante :     y2 1 x2 1 − − dy = 0. dx + (x − y)2 x y (x − y)2 Exercice 2.16. Intégrer l’équation différentielle suivante :   y 4y − 3x dx − − 1 dy = 0. x x (Utiliser un facteur intégrant.) Exercice 2.17. On cherche une courbe telle que le segment de sa tangente compris entre les axes de coordonnées Ox et Oy ait une longueur constante a. 1. Montrer qu’une telle courbe obéit à l’équation différentielle :  2 (y − xy  ) 1 + 1/y 2 = a2 . 2. Montrer, en dérivant l’équation ci-dessus, qu’il existe une solution y  = 0 et donc que l’on a une famille de droites qui sont solutions. Exprimer l’équation générale de ces droites en fonction d’une seule constante C. 3. Chercher la solution singulière de cette famille de droites. 4. Dessiner cette solution singulière pour a = 1.

2.23 − Exercices

61

Exercice 2.18. On se propose d’intégrer l’équation différentielle y = y 2 (1 + x). 1. Effectuer un changement de variable pour ramener cette équation à une équation homogène dont on donnera la solution générale. 2. Trouver la solution particulière telle que pour x = 0, y = 1. 3. Chercher la solution singulière de la famille de courbes obtenue dans la 1e question. Exercice 2.19. Intégrer l’équation y  − 7y  + 6y = sin x et donner la solution particulière telle que, pour x = 0, y = 0, y  = 0. Exercice 2.20. Trouver la solution de l’équation différentielle : d2 x + m2 x = a cos nt dt2 (m et n étant réels) telle que pour t = 0, x = x0 , dx/dt = x˙ 0 . 1. Pour m = n. 2. Pour m = n.

Exercice 2.21. Une particule de masse m est soumise à une force de rappel proportionnelle à l’élongation −mω02 x et à une force imposée mA sin ωt. Il s’agit donc d’un oscillateur harmonique sans force de frottement, attaqué par une force sinusoïdale. 1. Ecrire l’équation différentielle du mouvement. 2. Donner la solution de cette équation satisfaisant aux conditions initiales x = 0, dx/dt = 0 pour t = 0, dans le cas général où ω = ω0 . 3. On considère le cas où ω = ω0 (résonance). Chercher la solution x(t) satisfaisant aux mêmes conditions initiales x = 0, x˙ = 0 pour t = 0. Comment se comporte l’amplitude des oscillations lorsque t croît et devient grand ? 4. Quel est l’équivalent électrique de ce système mécanique ?

Exercice 2.22. Trouver la solution générale du système différentiel : ⎧ dx ⎪ ⎪ =y+z ⎪ ⎪ ⎪ ⎨ dt dy =x+z ⎪ dt ⎪ ⎪ ⎪ ⎪ ⎩ dz = x + y. dt Donner la solution particulière telle que, pour t = 0, x = 0, y = 1, z = −2.

62

2 − Les équations différentielles

Exercice 2.23. Intégrer le système : ⎧ dy ⎪ ⎨ + 2y + z = sin x dx ⎪ ⎩ dz − 4y − 2z = cos x. dx Donner la solution particulière telle que, pour x = 0, y = 1, z = 3. Exercice 2.24. Intégrer le système : ⎧ 2 d x ⎪ ⎪ ⎨ =y dt2 2 ⎪ d y ⎪ ⎩ = x. dt2 Donner la solution particulière telle que, pour t = 0, x = 0, y = 0, dx/dt = 1 et dy/dt = 0. Exercice 2.25. Résoudre le système : ⎧ dy ⎪ ⎨ =z−y dx ⎪ ⎩ dz = −y − 3z. dx Donner la solution particulière telle que, pour x = 0, y = 1, z = 0. Exercice 2.26. A l’aide de changements de fonction convenables, trouver les solutions générales y(x) et z(x) du système : ⎧ 1 dy ⎪ ⎪ ⎨ =1− dx z 1 dz ⎪ ⎪ = . ⎩ dx y − x Donner la solution particulière telle que, pour x = 1, y = 2 et z = 1. Exercice 2.27. Intégrer le système : ⎧ dy ⎪ ⎪ ⎨ = dx dz ⎪ ⎪ ⎩ = dx

x yz x . y2

Donner la solution particulière telle que, pour x = 1, y = 1, z = 1.

2.23 − Exercices

63

Exercice 2.28. Résoudre le système : ⎧ dy dx ⎪ ⎨ 3 + 2x + =1 dt dt ⎪ ⎩ dx + 4 dy + 3y = 0 dt dt avec les conditions initiales x = 0, y = 0 pour t = 0. Exercice 2.29. Donner la solution générale du système : ⎧ 2 d x dy ⎪ ⎪ ⎨ + x = et + dt2 dt ⎪ dx d2 y ⎪ ⎩ + 2 = 1. dt dt Donner la solution particulière telle que, pour t = 0, x = y = 0 et dx/dt = dy/dt = 1. Exercice 2.30. Trouver les valeurs approchées des solutions de l’équation dy = y2 + x dx vérifiant la condition initiale y = 1 pour x = 0, pour x = 0,1 ; 0,2 ; 0,3 ; 0,4 ; 0,5. On utilisera la méthode de la série de Taylor puis celle de Runge et Kutta.

7KLVSDJHLQWHQWLRQDOO\OHIWEODQN

Chapitre 3 Fonctions d’une variable complexe

Dans ce chapitre nous introduirons la notion de fonction analytique dans le plan complexe, puis nous établirons le théorème de Cauchy et la formule de Cauchy relatifs à l’intégration de ces fonctions sur un contour fermé. Nous donnerons les développements en série de Taylor et de Laurent des fonctions analytiques et nous présenterons la fameuse méthode des résidus pour le calcul d’intégrales définies réelles en donnant plusieurs exemples. Nous terminerons par l’exposé de la transformation conforme qui a de nombreuses applications en physique.

3.1. Définitions et propriétés élémentaires Soit z = x + iy une variable complexe représentée par un point m dans le plan complexe (figure 3.1). Rappelons que z s’écrit encore sous la forme z = rei(ϕ+2kπ) avec r = x2 + y 2 et tan ϕ = y/x. y y Figure 3.1 – La variable z = x + iy = rei(ϕ+2kπ) représentée par le point m.

m r ϕ

O

x

x

Si X(x, y) et Y (x, y) sont fonctions des variables réelles x et y, la fonction complexe Z définie par Z = X(x, y) + iY (x, y) (3.1) prendra une ou plusieurs valeurs bien déterminées pour chaque couple de valeurs x, y. Ainsi Z est une fonction de la variable complexe z = x + iy ; elle s’écrira Z = f (z).

(3.2)

3 − Fonctions d’une variable complexe

66

3.1.1. Continuité Une fonction f (z) est continue pour z = a si à tout nombre positif ε, aussi petit que l’on voudra, on peut faire correspondre un nombre positif η tel que l’inégalité |z − a| < η entraîne |f (z) − f (a)| < ε.

3.1.2. Fonction uniforme On dit qu’une fonction Z = f (z) est uniforme quand, à une valeur de la variable, correspond une seule valeur de la fonction. Par exemple la fonction Z = z 1/m , où m est entier, n’est pas uniforme. En effet, en posant z = rei(ϕ+2kπ) , Z = ρeiθ , nous avons : ρ = r1/m ,

θ=

2kπ ϕ + m m

(k entier).

En prenant k = 0, 1, 2, . . . , m − 1, nous obtenons, pour une valeur de z, m déterminations de Z. Lorsque ϕ croît de 2π, θ croît de 2π/m, c’est-à-dire que si z effectue un tour complet sur un cercle de rayon r centré sur l’origine O, Z n’effectue que 1/m tour sur un cercle de rayon ρ centré en O. Les fonctions Z = f (z) jouissent d’un certain nombre de propriétés des fonctions de variables réelles mais ne possèdent pas en général les deux propriétés fondamentales de dérivabilité et d’intégrabilité.

3.1.3. Fonction analytique La dérivée d’une fonction uniforme (où de l’une de ses déterminations si la fonction est multiforme) est définie comme la limite lim

Δz→0

f (z + Δz) − f (z) , Δz

où z  = z + Δz est représenté par un point m voisin de m dans le plan complexe (figure 3.2). Si cette limite existe et est indépendante de la façon dont Δz tend vers zéro, on dit que la fonction est analytique. Cherchons à exprimer de façon plus précise cette condition d’indépendance. y

m m

z + Δz

z

O

x

Figure 3.2 – z et z + Δz sont représentés par deux points voisins m et m .

3.1 − Définitions et propriétés élémentaires

67

Donnons à z un accroîssement Δz auquel correspond un accroîssement ΔZ de la fonction Z = f (z) = X(x, y) + iY (x, y). On a : ΔX + iΔY ΔZ = . Δz Δx + iΔy A la limite où Δz → 0, et sous réserve que X et Y soient dérivables, le rapport précédent s’écrit : $ # $ # ∂Y ∂X ∂Y ∂X +i dx + +i dy ∂x ∂x ∂y ∂y dZ = , dz dx + idy $ # $ # ∂Y ∂X ∂Y dy ∂X +i + +i ∂x ∂x ∂y ∂y dx dZ = soit encore . dz dy 1+i dx Pour que cette limite soit indépendante de la façon dont l’accroîssement Δz tend vers zéro, c’est-à-dire de l’orientation du petit segment dz, il faut que ce rapport soit indépendant de dy/dx, donc que   ∂X ∂Y 1 ∂X ∂Y +i = +i . ∂x ∂x i ∂y ∂y On en déduit les relations de Cauchy-Riemann : ∂Y ∂X = , ∂x ∂y

∂X ∂Y =− . ∂y ∂x

(3.3)

Ce sont les conditions nécessaires et suffisantes pour qu’une fonction Z = X(x, y) + iY (x, y) soit analytique. Seules les fonctions analytiques Z de la variable complexe z présentent un réel intérêt. En dérivant les deux équations (3.3) par rapport à x et y et en additionnant, on obtient : ∂2X ∂2X + =0 ∂x2 ∂y 2

et

∂2Y ∂2Y + = 0. ∂x2 ∂y 2

(3.4)

Les parties réelle et imaginaire d’une fonction analytique satisfont à l’équation de Laplace ΔX = 0 et ΔY = 0. On dit que les fonctions X et Y sont des fonctions harmoniques. Les conditions (3.4) sont nécessaires mais pas suffisantes pour que Z = X + iY soit une fonction analytique. Si l’on se donne une fonction harmonique X(x, y) solution de l’équation de Laplace, montrons qu’il existe une fonction analytique Z admettant X pour partie réelle. Il suffit pour cela d’établir que l’on peut calculer une fonction Y de telle sorte que X et Y vérifient les conditions (3.3).

3 − Fonctions d’une variable complexe

68 M=

Posons

∂X ∂Y =− ; ∂x ∂y

N=

∂X ∂Y = . ∂x ∂y

Le système M = ∂Y /∂x, N = ∂Y /∂y est intégrable si dY = M dx + N dy est une différentielle totale, c’est-à-dire si ∂M ∂N − = 0, ∂x ∂y

soit

∂2X ∂2X + = 0, ∂x2 ∂y 2

ce qui est l’hypothèse de départ. On peut donc calculer Y en utilisant les résultats du § 2.9 : x,y Y =

  x,y  ∂X ∂X dy , (M dx + N dy) = − dx + ∂y ∂x

x0 ,y0

soit

x0 ,y0

  x  y  ∂X ∂X Y = dy + C. − dx + ∂y ∂x x=x0 x0

y0

La fonction Y est déterminée à une constante près.

3.1.4. Critère pour une fonction analytique Un critère commode pour vérifier qu’une fonction Z de la variable z = x + iy est analytique est qu’elle puisse s’exprimer en fonction de z seul. En effet, remplaçons x par z − iy dans l’expression (3.1) et dérivons le résultat de cette substitution par rapport à y ; nous obtenons :       ∂Y ∂x ∂Y ∂X ∂x ∂X ∂X ∂Y ∂Y ∂X ∂Z = + +i + + − = +i . ∂y ∂x ∂y ∂y ∂x ∂y ∂y ∂y ∂x ∂y ∂x Si la fonction Z est analytique, d’après les relations de Cauchy (3.3), ∂Z/∂y est identiquement nul. Ainsi la substitution ne dépend pas de y et par conséquent Z s’exprime en fonction de z seul. La réciproque est évidente. Si l’on considère une fonction ϕ(t) de la variable réelle t, la fonction ϕ(x + iy) est analytique. Par exemple Z = x + 2iy n’est pas une fonction analytique, alors que Z = x2 − y 2 + 2ixy = z 2 est analytique.

3.1.5. Mise d’une fonction analytique sous la forme Z = f (z) Soit Z = X(x, y) + iY (x, y) une fonction analytique pour laquelle les relations de Cauchy sont satisfaites. Remplaçons y par 0 : X(x, 0) + iY (x, 0) est une fonction de x, f (x). On sait d’après ce qui précède que la fonction f (z) est analytique et correspond à Z. On a donc : Z = X(z, 0) + iY (z, 0) = f (z). Par exemple, si Z = x2 − y 2 + 2ixy, d’après (3.5), f (z) = z 2 .

(3.5)

3.1 − Définitions et propriétés élémentaires

69

3.1.6. Quelques fonctions analytiques élémentaires Citons quelques fonctions simples et leurs propriétés. – Z = z m avec m entier. Il s’agit d’une fonction uniforme. Sa dérivée est

dZ = mz m−1 . dz

– Z = ez . On a encore Z = ex+iy = ex cos y + iex sin y = X + iY . On vérifie que les relations de Cauchy sont satisfaites puisque ∂Y ∂X = = ex cos y ∂x ∂y

et

∂Y ∂X =− = −ex sin y. ∂y ∂x

Si l’on rajoute 2π à y, la fonction Z reprend sa valeur. Donc ez est une fonction périodique de période 2iπ. Sa dérivée est dZ/dz = ez . – Z = cos z. eiz + e−iz e2iz + 1 = . 2 2eiz Ajouter 2π à z revient à multiplier eiz par e2iπ = 1 ; cos z est donc une fonction périodique de période 2π. On a dZ/dz = − sin z. Cette fonction s’écrit Z = cos z =

– Z = sin z. On a de même Z = sin z = (eiz − e−iz )/2i qui est une fonction périodique de période 2π. On a dZ/dz = cos z. – Z = tan z. Cette fonction s’écrit tan z =

1 eiz − e−iz 1 e2iz − 1 sin z = . = iz −iz cos z i e +e i e2iz + 1

Il s’agit d’une fonction analytique de période π. On a

dZ 1 = = 1 + tan2 z. dz cos2 z

– Z = ln z. C’est la fonction inverse de la fonction exponentielle z = eZ . En posant z = ρeiθ , Z = X + iY , on a : ρeiθ = eX eiY . Donc ρ = eX et Y = θ + 2kπ. La fonction Y est définie à 2kπ près. Finalement Z = ln ρ + i(θ + 2kπ). C’est une fonction multiforme de la variable z. Sa dérivée est

1 dZ = . dz z

– Z = z α , α étant quelconque, réel ou imaginaire. Cette fonction s’étudie sous la forme Z = eα ln z . En particulier

dZ = αz α−1 . dz

3 − Fonctions d’une variable complexe

70

3.2. Points singuliers des fonctions analytiques. Fonctions holomorphes Une valeur de la variable complexe z est une valeur singulière d’une fonction analytique f (z), ou le point z qui représente cette valeur est un point singulier de f (z), si en ce point la fonction f (z) ou l’une quelconque de ses dérivées cesse d’être finie ou bien déterminée. Par exemple, z = 0 est un point singulier de la fonction f (z) = 1/z √ ; z = a est un z − a car, alors, point singulier de la fonction f (z) = 1/(z − a) ainsi que de f (z) = √ la dérivée f  (z) = 1/(2 z − a) diverge pour z = a. Une fonction analytique f (z) est holomorphe dans un certain domaine D du plan complexe, si elle n’admet aucun point singulier dans D. Ainsi la fonction f (z) = 1/(z − a) est holomorphe dans tout domaine D en dehors de a, mais n’est pas holomorphe dans un domaine contenant a (figure 3.3). y D1 D2 a Figure 3.3 – La fonction f (z) = x

O

morphe dans D1 mais pas dans D2 .

1 est holoz−a

Il existe des fonctions holomorphes dans tout le plan complexe comme, par exemple, la fonction f (z) = A0 z n + A1 z n−1 + . . . + An , où A0 , A1 , . . . , An sont des constantes. Une fonction holomorphe est une fonction analytique à la fois continue et uniforme. Si l’on écrit la fonction sous la forme f (z) = X(x, y) + iY (x, y), alors X(x, y) et Y (x, y) sont des fonctions continues réelles et finies de x, y et il en est de même de leurs dérivées partielles.

3.3. Fonctions multiformes 3.3.1. Exemples Le caractère multiforme d’une fonction analytique est lié à l’existence de points singuliers. Considérons deux exemples.

3.3 − Fonctions multiformes

71

1. Z = (z − a)1/m avec m entier. Le point a est singulier. En posant z − a = ρ ei(θ+2kπ) , on a : Z = ρ1/m ei(θ+2kπ)/m . En donnant à k les m valeurs consécutives 0, 1, 2, . . ., m − 1, on obtient m déterminations distinctes de Z qui est donc une fonction multiforme. Lorsque z décrit le chemin fermé C1 laissant a à son extérieur (figure 3.4a), ρ et θ reprennent la même valeur. Donc ρ1/m eiθ/m est une fonction uniforme dans tout domaine d’holomorphie. Au contraire, si z décrit dans le sens direct le contour C2 entourant le point a (figure 3.4b), ρ reprend la même valeur mais θ devient θ + 2π. (a) y

(b) y C1 C2 ρ

z

ρ

θ

a

a x

O

z θ

O

x

Figure 3.4 – (a) Contour C1 laissant le point singulier a à l’extérieur et (b) contour C2 entourant le point a.

Ainsi ρ1/m eiθ/m se transforme en ρ1/m ei(θ+2π)/m . On obtient la seconde racine d’ordre m de (z − a), c’est-à-dire la seconde détermination de Z. En tournant deux fois autour du point a, on obtient la troisième détermination de Z. Les m racines d’ordre m de (z − a) sont√les différentes déterminations de la fonction Z. En particulier la fonction Z = z − a = (z − a)1/2 a deux racines opposées : √ Z1 = ρ eiθ/2 et Z2 = −Z1 . Si, comme dans ces exemples, on a un nombre fini de déterminations de la fonction Z, obtenues en tournant autour du point singulier ; on dit que a est un point critique algébrique ou un point de branchement. 2. Z = ln z. Nous avons vu que si z = ρ eiθ , on a Z = ln ρ + i(θ + 2kπ). La fonction Z = ln z admet donc une infinité de déterminations. Si l’on fait décrire à z un contour fermé quelconque laissant l’origine O à son extérieur, on retrouve la valeur initiale de Z. Si z effectue une rotation autour de O dans le sens direct, une détermination Z1 = ln ρ + iθ devient Z2 = ln ρ + i(θ + 2π). En tournant autour de O, on passe d’une détermination de Z à la suivante. S’il y a une infinité de déterminations obtenues en tournant autour d’un point singulier a, on dit que a est un point critique logarithmique. C’est le cas dans l’exemple précédent du point O correspondant à z = 0.

3 − Fonctions d’une variable complexe

72

3.3.2. Uniformisation des fonctions multiformes à l’aide de coupures Une coupure est une ligne infranchissable, tracée dans le plan complexe, afin de séparer les différentes déterminations d’une fonction multiforme. Chacune de celles ci devient alors une fonction uniforme. Considérons les exemples suivants : √ 1. Z = z − a Cette fonction possède deux déterminations opposées. Pour une valeur z0 de z, Z admet deux valeurs numériques (Z1 )0 et (Z2 )0 = −(Z1 )0 . Si z part d’un point z0 et si l’on choisit la détermination Z1 , en décrivant un chemin fermé entourant a, on se retrouve en z0 avec la valeur (Z2 )0 , (figure 3.5a). Pratiquons dans le plan complexe une coupure formée par une demi-droite at partant de a (figure 3.5b). Partant d’un point z0 avec la détermination Z1 de Z, en faisant varier z dans le plan on conserve cette détermination. En repassant en z0 on retrouve la valeur (Z1 )0 initiale. Z1 est une fonction uniforme du plan entaillé. (a)

(b)

y

y

a

C1

a

x

O

t

e pur cou z0

z0

C2

O

x

√ Figure 3.5 – (a) Si z parcourt C1 , Z = z − a change de détermination. (b) En présence de coupure chaque détermination de Z est uniforme ; lorsque z parcourt C2 , on conserve la détermination choisie.

2. Z =

 (z − a)(z − b)

On a deux déterminations opposées. Quand z tourne autour de a sans tourner autour de b, on passe d’une détermination à l’autre. Il en est de même si z tourne autour de b sans tourner autour de a. Si, au moyen de coupures, on empêche z de tourner autour de a et b, on rend chacune des deux déterminations uniformes. Ceci peut être réalisé soit à l’aide de deux demi-droites at et bt , soit au moyen d’une coupure unique joignant a et b (figure 3.6). En effet, z ne peut pas tourner autour d’un point sans tourner autour de l’autre. La rotation de z autour des deux points entraîne un double changement de signe et l’on retrouve la détermination initiale. Chacune des deux déterminations devient uniforme dans le plan entamé par la coupure unique ab. 3. Z = ln(z − a) Nous avons vu que a est un point critique logarithmique. Z possède une infinité de déterminations qui peuvent être rendues uniformes à l’aide d’une coupure at.

3.3 − Fonctions multiformes y

73 y

t

t

b a

a x

O

b

O

x

 Figure 3.6 – Pour la fonction Z = (z − a)(z − b), on peut remplacer les deux coupures par une coupure unique ab.

4. Z = arcsin z Il s’agit d’un cas plus délicat. Cherchons d’abord les points singuliers de Z. On a : eiZ − e−iZ ; 2i U2 − 1 U − 1/U posons U = eiZ ; ainsi z = = et U 2 − 2izU − 1 = 0. 2i 2iU Les racines de cette équation sont   U1 = iz + 1 − z 2 , U2 = iz − 1 − z 2 , z = sin Z =

ce qui signifie que U peut prendre deux valeurs et que  1 1 Z = ln U = ln(iz ± 1 − z 2 ). i i Ainsi la fonction Z = arcsin z apparaît comme un logarithme et c’est une fonction multiforme ; de plus U est également multiforme et a deux déterminations U1 et U2 . Pour une valeur z0 de z, on peut choisir l’une ou l’autre de ces déterminations. Dans l’expression de Z, les signes ± correspondent à la détermination choisie pour U . Les points critiques de Z sont ceux de U et de ln U . Les points critiques de√U sont z = ±1 ; ceux de ln U sont les valeurs de z telles que U = 0, soit iz = ± 1 − z 2 ou −z 2 = 1 − z 2 , ce qui est impossible. Donc, en résumé, les deux seuls points singuliers de z sont ±1. Commençons par choisir U = U1 ; Z1 = 1i ln U1 . Les autres déterminations de Z s’obtiennent en ajoutant 2kπi à ln U1 , donc 2kπ à Z1 . Les différentes déterminations ainsi obtenues sont alors Z = Z1 + 2kπ. De même en choisissant U = U2 , on obtient Z = Z2 +2hπ (k et h sont des nombres entiers). Cependant il y a une relation simple entre les deux familles de déterminations que nous venons d’obtenir. En effet, 1 1 1 Z1 + Z2 = (ln U1 + ln U2 ) = ln U1 U2 = ln(−1), i i i 1 soit Z1 + Z2 = ln eiπ = π + 2nπ (n entier), i et

Z2 = −Z1 + (2n + 1)π.

3 − Fonctions d’une variable complexe

74

En définitive, les deux familles de déterminations de Z sont : Z = Z1 + 2kπ,

Z = −Z1 + (2k + 1)π.

Pour uniformiser la fonction Z = arcsin z, il faut empêcher les rotations autour des points critiques +1 et −1. Cela peut évidemment se faire à l’aide de deux coupures formées de deux demi-droites issues de −1 et +1 (figure 3.7). On pourrait être tenté de remplacer ces deux coupures par une coupure unique joignant les deux points singuliers, mais ce n’est pas possible comme nous allons le voir si, partant d’un point z0 avec une détermination quelconque de la première famille Z1 + 2kπ, on tourne à la fois autour des deux points singuliers. Une rotation de z autour de l’un des deux points singuliers fait passer de la détermination choisie de la première famille à une détermination de la deuxième famille. Une rotation autour de −1 et +1 simultanément ramène à une détermination de la famille initiale mais différente car correspondant à une autre valeur de k. En effet, pour obtenir la même valeur de k donc la même détermination de Z, il faudrait qu’au cours de la rotation de z, U n’effectue pas une rotation autour de l’origine, donc ne franchisse pas l’axe √ imaginaire Oy, en prenant une valeur ia avec a réel. Or la condition iz ± 1 − z 2 = ia se traduit par 1 − z 2 = −(a − z)2 soit z = (a2 + 1)/2a, ce qui est toujours possible si z peut prendre une valeur réelle supérieure à 1. On ne peut donc pas remplacer les deux coupures par une seule. y

coupure

−1

O

1 coupure x

Figure 3.7 – La fonction Z = arcsin z ne peut pas être uniformisée par une coupure unique joignant z = −1 et z = 1.

3.4. Intégrales des fonctions analytiques 3.4.1. Intégrale curviligne d’une fonction complexe Soient f (z) une fonction de la variable complexe z, C une courbe continue, z0 et z les affixes des extrémités A et B de cette courbe (figure 3.8). Partageons cette courbe par un nombre arbitraire de points intermédiaires dont les affixes sont z1 , z2 , zn−1 , zn ≡ z. Soit pm un point situé entre les points zm−1 et zm . Le segment dont l’origine est zm−1 et l’extrémité zm sera désigné par Δzm . Considérons la somme Sn =

n

m=1

f (pm )Δzm .

3.4 − Intégrales des fonctions analytiques

75

Si l’on fait tendre n vers l’infini en divisant la courbe C de façon que tous les modules |Δzm | tendent vers zéro, la somme Sn a une limite indépendante du choix des points intermédiaires. Cette limite est l’intégrale curviligne de f (z) le long de la courbe C. Cette intégrale s’écrit :   f (z)dz = f (z)dz ; 

C

AB y

elle dépend de la forme de la courbe C.

zm−1

z2 z1

zn−1 zn = z B

pm

C

z0 A



Figure 3.8 – Courbe AB décomposée en éléments infinitésimaux.

zm

x

O

Supposons que la longueur de la courbe C soit finie et égale à s, on a :   |dz| = ds = s. 

AB



AB

Si, lors du déplacement du point z sur la courbe C, le module de f (z) est borné supérieurement, soit |f (z)| < M avec M > 0, on peut déduire, du fait que le module d’une somme est inférieur ou égal à la somme des modules, l’inégalité suivante :





 



f (z)dz ≤ |f (z)||dz| < M |dz| = M s.





AB AB Dans le cas général si f (z) = X(x, y) + iY (x, y).     f (z) dz = (X + iY )(dx + idy) = X dx − Y dy + i X dy + Y dx. 

AB





AB



AB

AB

L’intégrale précédente dépend en général de A(z0 ), B(z) et du chemin C choisi. Si la fonction f (z) est analytique,   X dx − Y dy = P dx + Q dy 



AB

AB

avec P = X, Q = −Y . Cette intégrale est indépendante du chemin C si ∂Q ∂P = , ∂y ∂x

soit

∂X ∂Y =− ∂y ∂x

3 − Fonctions d’une variable complexe

76

qui n’est autre que la deuxième relation de Cauchy (3.3). De même  Xdy + Y dx 

AB est indépendante du chemin choisi si la condition ∂Y /∂y = ∂X/∂x est satisfaite et qui est la première relation de Cauchy (3.3). Donc si f (z) est une fonction analytique,  f (z)dz 

AB est indépendante du chemin C ; il s’agit d’une certaine fonction de z que nous écrirons F (z) : z F (z) =

f (z)dz.

(3.6)

z0

Les fonctions analytiques de z sont non seulement dérivables, mais aussi intégrables. F (z) est aussi une fonction analytique de z ; en effet si nous écrivons F (z) = P + iQ, avec z P =

z Xdx − Y dy ;

Q=

z0

Xdy + Y dx,

(3.7)

z0

nous avons bien : ∂Q ∂P = =X ∂x ∂y

et

∂P ∂Q =− = −Y. ∂y ∂x

3.4.2. Théorème de Cauchy Supposons que la fonction f (z) soit holomorphe dans un certain domaine D du plan complexe. Les fonctions X(x, y) et Y (x, y) définissant f (z) sont alors des fonctions continues et uniformes dans ce domaine et elles admettent des dérivées jouissant des mêmes propriétés. Si l’on considère un contour fermé C quelconque situé dans D (figure 3.9), on a 1  f (z)dz = 0. (3.8) 

C





1. Les symboles C ou C signifient que le contour C est parcouru dans le sens direct (inverse des aiguilles d’une montre) ou le sens inverse.

3.4 − Intégrales des fonctions analytiques

77

y D z C Figure 3.9 – L’intégrale de f (z) sur le contour fermé C, à l’intérieur du domaine d’holomorphie D, est nulle.

x

O

En effet, les deux intégrales P et Q définies par (3.7), étant des intégrales de différentielles totales exactes, sont nulles sur un contour fermé. D’où le théorème de Cauchy : L’intégrale d’une fonction analytique holomorphe dans un certain domaine D, prise le long d’un contour fermé dans D est nulle. Si le domaine D n’est plus limité par un contour simple, mais par deux contours fermés Γ et Γ , Γ étant intérieur à Γ et si l’on considère les deux contours C et C  représentés sur la figure 3.10, on a : y Γ   f (z) dz = 0 mais f (z) dz = 0. C





C

C

D

Figure 3.10 – Contours C et C  dans le domaine d’holomorphie D limité par Γ et Γ .

O

Γ



C

x

3.4.3. Extension du théorème de Cauchy Considérons deux contours C et C  situés dans D et laissant le contour fermé Γ à l’interieur (figure 3.11a), C et C  délimitent une couronne à l’intérieur et sur la frontière de laquelle f (z) est holomorphe. Montrons que :   f (z) dz = f (z) dz. 



C

C

En effet, soient A et B deux points infiniment voisins sur C et A’, B’ deux points infiniment voisins sur C  (figure 3.11b). Joignons AA’ et BB’ par deux arcs infiniment



voisins. Supprimons AB du contour C et A’B’ du contour C  . On réalise ainsi un contour Γ1 : ACBB’C  A’A. D’après le théorème de Cauchy,  f (z)dz = 0. 

Γ1

3 − Fonctions d’une variable complexe

78 (a)

y C

Γ



(b)

Γ

AB

C

C

A’ B’ C Γ1 x

O

Figure 3.11 – Extension du théorème de Cauchy.



Les intégrales relatives à AA et BB se compensent car f (z) est holomorphe et ces arcs sont décrits en sens inverse. On a donc :    f (z) dz = − f (z) dz = f (z) dz. 

C





C

C

Si f (z) est holomorphe dans un domaine limité par un contour fermé C et par divers contours fermés C  , C  , C  extérieurs les uns aux autres et intérieurs à C (figure 3.12a), on a d’après la figure 3.12b :     f (z) dz = f (z) dz + f (z) dz + f (z) dz. (3.9) 



(a)

C 

C



C 



C

C

(b)

C

C

C 

C 

C

C 

C 

Figure 3.12 – Généralisation du théorème de Cauchy.

3.5. Séries entières dans le domaine complexe A partir des séries entières, il est possible de construire une infinité de fonctions analytiques. Considérons la série a0 + a1 z + a2 z 2 + . . . + an z n + Rn (z), où a0 , a1 ,. . . , an sont des constantes.

(3.10)

3.5 − Séries entières dans le domaine complexe

79

La série converge dans un domaine du plan complexe limité par un cercle C de centre O et de rayon ρ si, à l’intérieur de ce cercle, Rn (z) → 0 si n → ∞. On dit alors que ρ est le rayon de convergence de la série (figure 3.13).

ρ O Figure 3.13 – Cercle de rayon ρ limitant le domaine de convergence d’une série entière.

C

Notons que sur le cercle C, la série peut être ou ne pas être convergente. Par exemple la série 1 + z + z2 + . . . + zn + . . . est convergente à l’intérieur du cercle de rayon 1 et de centre O. Sa somme est S=

1 1−z

(ρ < 1).

Sur le cercle cette série n’est pas convergente et ne représente pas la fonction 1/(1−z). En effet, en tout point du cercle de rayon 1, |z|n = 1 et le terme général de la série ne tend pas vers zéro. Notons qu’une série entière d’une variable complexe converge à l’intérieur d’un cercle du plan complexe alors qu’une série entière d’une variable réelle x converge sur une portion de l’axe des x. Une série entière dans le plan complexe est absolument convergente si la série des modules de z correspondante converge. Les séries suivantes sont absolument convergentes dans tout le plan complexe : z2 zn z + + ... + + . . . = ez 1! 2! n! z4 z 2n z2 + + . . . + (−1)n + . . . = cos z 1− 2! 4! (2n)! z3 z5 z 2n+1 z− + + . . . + (−1)n + . . . = sin z. 3! 5! (2n + 1)!

1+

La notion de convergence uniforme s’étend aisément aux séries dans le domaine complexe. Une série définie par (3.10) est uniformément convergente dans le domaine D, s’il existe un nombre entier p > 0, tel que |Rn (z)| < ε, avec ε > 0 arbitrairement petit, pour toutes les valeurs de n > p. La série entière peut alors être dérivée et intégrée. Si f (z) est la somme de la série, la nouvelle série obtenue en dérivant (3.10) terme à terme, a1 + 2a2 z + 3a3 z 2 + . . ., admet le même cercle de convergence et sa somme est égale à f  (z). De même si l’on intègre les différents termes de (3.10) à l’intérieur du cercle de convergence, on obtient une nouvelle série entière ayant le même cercle de convergence et dont la somme est l’intégrale de f (z).

3 − Fonctions d’une variable complexe

80

3.6. Formule de Cauchy



Soit f (z) une fonction holomorphe à l’intérieur d’un contour C et sur ce contour, et soit z0 un point intérieur. La formule de Cauchy nous dit que  f (z) 1 dz. (3.11) f (z0 ) = 2iπ z − z0 C

C

z0

ρ

γ



Figure 3.14 – Le cercle γ de rayon ρ centré sur z0 .





Démonstration : La fonction f (z)/(z − z0 ) est holomorphe à l’intérieur du contour C sauf au point z = z0 . Enlevons l’aire d’un petit cercle γ de centre z0 et de rayon ρ (figure 3.14). La fonction f (z)/(z − z0 ) est devenue holomorphe à l’intérieur de la zone limitée par C et γ. Par ailleurs, on a :   f (z) f (z0 ) dz = dz z − z0 z − z0 γ γ  f (z) − f (z0 ) + dz. (3.11a) z − z0 γ

La première intégrale du second membre de l’équation précédente s’écrit :  f (z0 ) 

γ

dz = f (z0 ) z − z0

2π 0

ρeiθ idθ = 2iπf (z0 ). ρeiθ

(3.11b)

γ

0





Vu que f (z) est continue, on peut choisir ρ assez petit pour que |f (z) − f (z0 )| < ε avec ε > 0 aussi petit que l’on veut. Alors,



 2π

f (z) − f (z0 ) ε ε

|dz| = dz < ρdθ = 2πε,

z − z0 |z − z0 | ρ

γ

ce qui montre que la deuxième intégrale de (3.11a) est nulle. L’équation (3.11b) établit ainsi la formule de Cauchy. Extension de la formule de Cauchy Si la fonction f (z) est holomorphe dans un domaine limité par deux contours fermés C et C  (figure 3.15a), on voit d’après la figure 3.15b que  f (z) 1 f (z0 ) = dz, 2iπ z − z0 

Γ

3.7 − Développement d’une fonction holomorphe en série de Taylor 81 (a)

(b)

C z0

Γ

C

C z0 C

Figure 3.15 – Extension de la formule de Cauchy.

soit

⎡ ⎤   f (z) f (z) 1 ⎣ f (z0 ) = dz − dz ⎦ . 2iπ z − z0 z − z0

(3.12)





C

C

3.7. Développement d’une fonction holomorphe en série de Taylor Soit f (z) une fonction holomorphe à l’intérieur d’un cercle C de centre a et soit z0 un point à l’intérieur de ce cercle (figure 3.16). z0 a Figure 3.16 – Développement de f (z0 ) en série de Taylor autour de a.

C



D’après la formule de Cauchy, nous avons :  f (z) 1 f (z0 ) = dz. 2iπ z − z0 C

1 1 1 1 = , = 0 −a z − z0 z − a − (z0 − a) z − a 1 − zz−a

Ecrivons : soit

% &   2 n z0 − a z0 − a f (z) z0 − a f (z) 1+ + = + ...+ + ... . z − z0 z−a z−a z−a z−a



Multiplions cette égalité par 1/2iπ et intégrons le long de C. Ceci est possible car la série est uniformément convergente pour tout z sur la circonférence. Donc, nous avons  f (z) 1 dz = f (z0 ) = A0 + A1 (z0 − a) + .. + An (z0 − a)n + . . . (3.13) 2iπ z − z0 C

3 − Fonctions d’une variable complexe

82 avec 1 2iπ

An =

 

C

f (z) dz. (z − a)n+1

(3.14)



Mais d’après (3.11), en dérivant par rapport à z0 , nous obtenons successivement :  f (z) 1  f (z0 ) = dz, 2iπ (z − z0 )2 C  f (z) 2! f  (z0 ) = dz, (3.15) 2iπ (z − z0 )3 C  f (z) n! (n) f (z0 ) = dz, 2iπ (z − z0 )n+1 



C

d’où : An =

1 (n) f (a). n!

(3.16)

Ainsi le développement de Taylor de la fonction f (z) autour du point a s’écrit : f (z0 ) = f (a) +

(z0 − a)  (z0 − a)2  (z0 − a)n (n) f (a) + f (a) + . . . + f (a) + . . .(3.17) 1! 2! n!

Toute fonction analytique holomorphe en un point et au voisinage de ce point est développable en série de Taylor. L’ensemble des fonctions f (z) analytiques est formé par l’ensemble des fonctions développables en série entière. Si dans (3.16) on prend a = 0, on obtient la série de Mac Laurin : f (z0 ) = f (0) +

z0  z0 2  z0 n (n) f (0) + f (0) + . . . + f (0) + . . . 1! 2! n!

(3.18)

Ce développement est valable pour tout point z0 à l’intérieur d’un cercle de rayon Oα où α est le point singulier de la fonction f (z) le plus proche de 0. Il est clair que Oα est le rayon de convergence de la série de Mac Laurin. Si f (z) est holomorphe dans tout le plan, le développement (3.18) est aussi valable dans tout le plan et l’on a alors affaire à une fonction entière de z. Remarque. Considérons le coefficient An du terme général de degré n dans (3.18) ; d’après (3.15) et (3.16), on a :  1 f (z) f (n) (0) = dz. An = n! 2iπ z n+1 

C

Le long d’un cercle C de rayon R centré sur l’origine, |f (z)| reste bornée par une valeur M : |f (z)| < M et  |f (z)| 1 M |dz| < 2πR. |An | ≤ 2π Rn+1 2πRn+1 

C

3.8 − Les zéros des fonctions analytiques

83

Finalement on a : |An | ≤

M . Rn

(3.19)

Théorème de Liouville. Toute fonction entière dont le module reste borné dans le plan complexe se réduit à une constante. En effet, autour de l’origine, on a : f (z) = A0 + A1 z + . . . + An z n + . . . Ce développement étant valable à l’intérieur d’un cercle de centre O et de rayon aussi grand que l’on veut, d’après (3.19) si l’on prend pour M la borne supérieur de |f (z)| dans le plan, |An | → 0 si R → ∞ pour n ≥ 1. La fonction f (z) se réduit donc à A0 c’est-à-dire à une constante. Théorème de d’Alembert : Toute équation algébrique de degré quelconque m admet au moins une racine. En effet, soit l’équation P (z) = a0 z m + a1 z m−1 + . . . + am = 0. Le polynôme P (z) est une fonction analytique de z et il en est de même de son inverse 1/P (z). Si l’équation précédente n’avait pas de racine, 1/P (z) ne deviendrait jamais infini ; il s’agirait donc d’une fonction entière bornée qui, d’après le théorème de Liouville, se réduirait à une constante. Ainsi P (z) serait une constante et non un polynôme de degré m. L’équation algébrique a donc au moins une racine.

3.8. Les zéros des fonctions analytiques Si en un point a du plan complexe et dans son voisinage, la fonction f (z) est holomorphe, on peut la développer en série de Taylor sous la forme f (z) = A0 + A1 (z − a) + . . . + An (z − a)n + . . . Si le développement précédent commence par le terme Am (z − a)m , on dit que z = a est un zéro d’ordre m de f (z). On a alors : f (z) = (z − a)m [Am + Am+1 (z − a) + . . .] = (z − a)m ϕ(z), où la fonction ϕ(z) est holomorphe autour de a et telle que ϕ(a) = 0. Nous voyons que les zéros de f (z) sont des points isolés, car ϕ(z) ne s’annulant pas au point a, on peut tracer un cercle de rayon ρ et de centre a à l’intérieur duquel ϕ(z) = 0. Dans ce cercle les seuls zéros possibles de f (z) sont ceux de (z − a)m et il n’y a qu’un seul zéro z = a. Ainsi une fonction f (z) holomorphe à l’intérieur d’un domaine D et sur la frontière C du domaine, qui n’est pas identiquement nulle, ne peut avoir dans ce domaine qu’un nombre fini de zéros. Un contre exemple est fourni par la fonction f (z) = sin(1/z) dans le domaine D formé par le demi-cercle de la figure 3.17.

3 − Fonctions d’une variable complexe

84 y

D O

x Figure 3.17 – Le point z = 0 est situé sur le contour C qui entoure le domaine D formé par un demi-cercle.

C

f (z) est holomorphe à l’intérieur de D mais admet un point singulier z = 0 sur la frontière de D. Les zéros de f (z) sont donnés par 1/z = kπ soit z = 1/kπ et il y en a une infinité.

3.9. Prolongement analytique d’un développement en série de Taylor Cette notion est très importante dans la théorie des fonctions analytiques. Soit f (z) une fonction analytique, uniforme, holomorphe en a et dans son voisinage. A l’intérieur d’un cercle Ca centré en a et de rayon inférieur ou égal à aα, où α est le point singulier de f (z) le plus proche de a, on peut développer f (z) en série de Taylor sous la forme : f (z) = f (a) +

(z − a)  (z − a)2  (z − a)n (n) f (a) + f (a) + . . . + f (a) + . . . 1! 2! n!

En un point b (figure 3.18) on connait f (b), f  (b), f (n) (b).

×

β

× c

b a

Ca

Cb

γ l Cc

× α Figure 3.18 – Principe du prolongement analytique d’une fonction f (z) de a à l. Les croix représentent des points singuliers.

On peut alors former un nouveau développement de f (z) autour de b dans un cercle Cb centré en b et de rayon inférieur ou égal à bβ où β est le point singulier de f (z) le plus proche de b. La surface délimitée par Cb a une partie commune avec celle délimitée par Ca et une partie extérieure. En tout point z à l’intérieur de Cb on peut écrire : f (z) = f (b) +

(z − b)  (z − b)2  (z − b)n (n) f (b) + f (b) + . . . + f (b) + . . . 1! 2! n!

3.10 − Différents types de points singuliers

85

On a ainsi prolongé f (z) en dehors de Ca . Au point c (figure 3.18), on connait f (c), f  (c), f (n) (c). On peut ainsi répéter l’opération et prolonger f (z) dans tout son domaine d’existence et en particulier obtenir f (l) en prenant une courbe continue joignant a à l avec un nombre limité de prolongements.

3.10. Différents types de points singuliers Tout point au voisinage duquel une fonction analytique f (z) est développable en série de Taylor est un point ordinaire. Tout point au voisinage duquel ce développement n’est pas possible est un point singulier. On distingue alors : 1. Les pôles : Ce sont des points singuliers isolés, autour desquels f (z) reste uniforme et qui sont des points ordinaires pour le fonction 1/f (z). Par exemple 1/z 2 a en z = 0 un pôle double ; 1/(1 + z 2 ) possède deux pôles simples pour z = i et z = −i. 2. Les points singuliers essentiels : Ce sont des points singuliers autour desquels f (z) reste uniforme, mais qui sont encore des points singuliers pour 1/f (z). La fonction sin(1/z) présente à l’origine un point singulier essentiel. 3. Points critiques algébriques ou points de branchement : Ce sont des points singuliers au voisinage desquels la fonction f (z) ne reste pas uniforme mais possède un nombre fini de déterminations. La fonction z 1/n avec n entier a présente en z = 0 un point de branchement. 4. Points critiques logarithmiques : Ce sont des points singuliers au voisinage desquels f (z) ne reste pas uniforme et possède un nombre infini de déterminations. La fonction ln(z − a) présente un point critique logarithmique pour z = a.

3.11. Développement en série de Laurent



Γ



Soit une fonction f (z) possédant un pôle ou un point singulier essentiel pour z = a. Si l’on entoure ce point avec un petit cercle γ de rayon ρ, la fonction f (z) devient holomorphe à l’intérieur de la zone annulaire D comprise entre γ et une circonférence Γ de rayon R ayant également le point a comme centre (figure 3.19). En appliquant la formule de Cauchy (3.12) en un point z0 de D, on a :   f (z) f (z) 1 1 f (z0 ) = dz − dz. 2iπ z − z0 2iπ z − z0 γ

z0 R a ρ Figure 3.19 – La fonction f (z) est holomorphe entre γ et Γ mais possède un point singulier en a.

γ D

Γ

3 − Fonctions d’une variable complexe

86



D’après (3.13) et (3.14) on a :  1 f (z) dz = A0 + A1 (z − a) + . . . + An (z − a)n + . . . 2iπ z − z0 Γ  f (z) 1 avec An = dz. 2iπ (z − a)n+1 

Γ

Mais on ne peut pas écrire comme dans (3.16), An = f (n) (a)/n! car f (z) n’est pas holomorphe au point a. De manière analogue, on peut écrire : 1 1 1 1 = = . z0 − z z0 − a − (z − a) z0 − a 1 − zz−a 0 −a Si z se déplace sur le cercle γ, |z0 − a| > |z − a| et % &   2 n z−a z−a f (z) z−a f (z) = 1+ + + ...+ + ... . z0 − z z0 − a z0 − a z0 − a z0 − a Ainsi on a : 1 2iπ

 

γ

A−1 A−2 f (z) A−n dz = + + ... + + ... 2 z0 − z z0 − a (z0 − a) (z0 − a)n

avec A−n =

1 2iπ

 f (z)(z − a)n−1 dz.

(3.20)



γ

Remarquons que si le long de γ, |f (z)| reste bornée par une valeur M  : |f (z)| < M  , on a :  1 |f (z)|ρn−1 |dz|, |A−n | ≤ 2π 

γ

soit |A−n | < M  ρn .

(3.21)

Finalement au voisinage du point singulier a, on obtient le développement en série de Laurent : f (z0 ) = . . . +

A−n A−1 + A0 + ... + (z0 − a)n (z0 − a) +A1 (z0 − a) + . . . + An (z0 − a)n + . . .

(3.22)

où A0 , A1 , . . . , An sont donnés par (3.14) et A−1 , A−2 , . . ., A−n par (3.20). La partie du développement faisant intervenir les puissance négatives de (z0 − a), c’est-à-dire les termes A−n , . . . A−1 , est désignée par “partie principale” du développement en série de Laurent.

3.11 − Développement en série de Laurent

87

Vu que le rayon ρ du cercle γ peut être choisi aussi petit que l’on veut, z0 peut être aussi proche que l’on veut du point a. Le développement en série de Laurent représente donc le développement en série de la fonction f (z) au voisinage d’un pôle ou d’un point singulier essentiel. Ce développement peut être infini ou limité. S’il n’y a qu’un nombre fini de coefficients A−n , le point singulier est un pôle. Lorsque le terme de plus haut degré en 1/(z0 − a) est A−n /(z0 − a)n , le pôle est d’ordre n. Si n = 1, le pôle est simple. Si le développement suivant les puissances négatives de (z0 − a) s’étend à l’infini, a est un point singulier essentiel. Exemples 1. Soit la fonction f (z) =

1 . z(z − 1)

Le développement en série de Laurent au voisinage du pôle z = 0 est : 1 1 1 = − (1 + z + z 2 + z 3 + . . .) = − − 1 − z − z 2 + . . . z(z − 1) z z Au voisinage du pôle z = 1, on a en posant z − 1 = h 1 1 1 = = (1 − h + h2 − h3 + . . .), z(z − 1) (h + 1)h h soit 1 1 = − 1 + (z − 1) − (z − 1)2 + . . . z(z − 1) z−1 2. Soit la fonction f (z) = e1/z . Le développement de Laurent au voisinage du point singulier essentiel z = 0 s’écrit e1/z = 1 +

1 1 1 1 1 + + ...+ + ... z 2! z 2 n! z n

Comme nous l’avons vu plus haut, les coefficients An et A−n s’obtiennent d’une manière générale à partir des formules (3.14) et (3.20) en notant cependant que les deux intégrales peuvent se calculer sur un même contour C dans la région d’holomorphie entourant le point a (figure 3.20).

a γ Figure 3.20 – Contour C unique autour du point singulier a permettant le calcul des coefficients du développement en série de Laurent.

C

Γ

3 − Fonctions d’une variable complexe

88 On a donc : An =

1 2iπ



A−n =

1 2iπ

 f (z)(z − a)n−1 dz.

(3.23)





C

f (z) dz; (z − a)n+1

C

D’un point de vue pratique, on évite le calcul d’intégrales par des développements directs chaque fois que cela est possible. 3. Soit la fonction f (z) =

1 , qui a deux points singuliers z = 1 et z = 3. (z − 1)2 (z − 3)

Cette fonction est développable en série de Taylor partout sauf en ces points. Autour de l’origine O, le cercle de convergence de ce développement est de rayon 1 et l’on a :   1 1 z2 1 z 2 2 = − (1 + z + z + . . .) 1 + + + ... f (z) = − 3 (z − 1)2 (1 − z/3) 3 3 9 1 7 34 = − − z − z2 + . . . 3 9 27 Autour du pôle z = 1, on peut effectuer un développement en série de Laurent ; en posant z − 1 = h, on obtient :   1 1 1 h3 1 h h2 f (z) = 2 =− 2 =− 2 1+ + + + ... h (h − 2) 2h 1 − h/2 2h 2 4 8 1 1 h 1 =− 2 − − − + ... 2h 4h 8 16 1 1 1 1 1 1 − − (z − 1) + . . . soit f (z) = − − 2 (z − 1)2 4 z − 1 8 16 On a donc : A−2 = −1/2, A−1 = −1/4, A0 = −1/8, A1 = −1/16. Ce développement cesse d’être valable pour z = 3. Le rayon de validité autour de z = 1 est ρ = 2.

3.12. Intégration par la méthode des résidus 3.12.1. Théorème des résidus Soit a un pôle de la fonction f (z) et C un contour entourant le point a, parcouru dans le sens direct et tel que f (z) soit holomorphe sur ce contour et à l’intérieur, à l’exception du point a. On peut remplacer C par un cercle γ de centre a et de rayon ρ (figure 3.20) entièrement à l’intérieur de C car il n’y a pas de point singulier à l’intérieur de l’espace annulaire ainsi formé. D’après (3.23) on a :   f (z)dz = f (z)dz = 2iπA−1 , (3.24) 



C

γ

3.12 − Intégration par la méthode des résidus

89

où A−1 est le coefficient de 1/(z − a) dans le développement en série de Laurent de f (z). On désigne ce coefficient A−1 par résidu Ra relatif au pôle a. Si l’on a plusieurs points singuliers à l’intérieur de C (figure 3.21) en I1 , I2 , . . . , Ip , on sait d’après (3.9) que  f (z) dz = 

C





=

f (z) dz + . . . +

f (z) dz 





C1

C2

I2

C1 I3

C3

C2 Ip

Cp

C



f (z) dz +

I1

Cp

Figure 3.21 – Contours Ci entourant les pôles Ii pour calculer  f (z)dz par la méthode des résidus.

= 2iπ(R1 + R2 + . . . + Rp ),



C

soit en résumé :  f (z) dz = 2iπ 

C

p

Ri .

(3.25)

i=1

Le théorème des résidus s’énonce donc ainsi : Pour avoir la valeur de l’intégrale d’une fonction uniforme le long d’un contour fermé C ne passant par aucun point singulier, il suffit de multiplier par 2iπ la somme des résidus de la fonction relatifs aux pôles situés à l’intérieur du contour C.

3.12.2. Calcul des résidus relatifs aux pôles Soit une fonction analytique f (z) possédant un pôle a d’ordre m qui a donc un développement en série de Laurent de la forme : f (z) =

A−m+1 A−1 A−m + A0 + + ...+ (z − a)m (z − a)m−1 (z − a) +A1 (z − a) + . . . + An (z − a)n + . . .

On a donc : f (z)(z − a)m = A−m + A−m+1 (z − a) + . . . + A−1 (z − a)m−1 + A0 (z − a)m + . . . En dérivant m − 1 fois cette égalité et en faisant z = a, on obtient : dm−1 [f (z)(z − a)m ]z=a = (m − 1)!A−1 , dz m−1 d’où A−1 =

dm−1 1 [f (z)(z − a)m ]z=a . (m − 1)! dz m−1

(3.26)

3 − Fonctions d’une variable complexe

90



Cette formule est tout à fait générale et l’on remarque, d’après (3.24) et (3.26), que le  calcul de C f (z) dz s’effectue sans recherche explicite d’une primitive, mais à l’aide de simples dérivations. Notons cependant que chaque fois que celà est possible, il vaut mieux calculer directement A−1 en cherchant le terme en (z − a)m−1 du développement de f (z)(z − a)m . Exemples 1. Cherchons le résidu de f (z) =

d’où

zez pour z = a. D’après (3.26), (z − a)3   1 d2 z A−1 = (ze ) , 2! dz 2 z=a A−1 = (1 + a/2)ea .

Directement en posant z − a = t, on a :    1 (a + t)ea+t a t2 a + . . . . f (z) = = e + 1 + t + t3 t2 t3 2 Le résidu est le coefficient de 1/t, soit ea (1 + a/2). 2. Cherchons le résidu de f (z) =

ez pour z = 1. (z − 1) sin (z − 1)

La fonction f (z) est uniforme ; z = 1 est un pôle d’ordre 2. En posant z − 1 = t, on a : f (z)(z − 1)2

= =

ez (z − 1) et+1 t et(1 + t + t2 /2 + . . .) = = sin (z − 1) sin t t − t3 /6 + . . . e(1 + t + t2 /2 + . . .) = e(1 + t + 2t2 /3 + . . .). 1 − t2 /6 + . . .

Le résidu est le coefficient du terme en t soit A−1 = e. 3. Considérons la fonction f (z) = P (z)/Q(z) où P (z) et Q(z) sont des fonctions uniformes. Supposons de plus que z = a soit une racine simple de Q(z) et qu’en ce point P (z) soit continue avec P (a) = 0. Le point z = a est un pôle simple de f (z). L’équation (3.26) donne alors   P (z)(z − a) A−1 = [f (z)(z − a)]z=a = . Q(z) z=a La règle de l’Hopital permet d’écrire : A−1

P  (z)(z − a) + P (z)

= ,

Q (z) z=a

soit A−1 =

P (a) . Q (a)

(3.27)

3.12 − Intégration par la méthode des résidus

91

3.12.3. Applications au calcul d’intégrales définies réelles Etablissons d’abord deux propriétes importantes : Propriété A. Soit une fonction f (z) continue au voisinage d’un point a qui est un point singulier et un cercle C de rayon r centré en a. Si, sur ce sercle, |f (z)(z −a)| → 0 quand r = |z − a| → 0, alors  f (z)dz → 0 

C

lorsque r → 0.

C





En effet, si ε est un nombre positif arbitrairement petit, on peut choisir r suffisamment petit pour que |f (z)(z − a)| < ε, soit |f (z)| < ε/r. Ainsi





f (z)dz ≤ |f (z)||dz| < ε 2πr = 2πε → 0.

r

C

Remarquons que si l’on remplace C par un arc de cercle, la propriété reste vraie. Propriété B. De même si |f (z)z| → 0 lorsque z se déplace sur un cercle C dont le rayon r = |z − a| → ∞, alors  f (z)dz → 0 

C

lorsque r → ∞. La démonstration est identique au cas A. Applications 1. Proposons-nous de calculer l’intégrale +∞ 

−∞

P (x) dx, Q(x)

(3.28)

où P (x) et Q(x) sont deux polynômes tels que Q(x) n’ait pas de racines réelles et que son degré dépasse de deux unités au moins celui de P (x). Calculons l’intégrale de fonction analytique  P (z) dz Q(z) 

Γ

sur le contour Γ représenté sur la figure 3.22. La fonction P (z)/Q(z) est uniforme et admet comme points singuliers les racines de Q(z) = 0. Il y a autant de pôles situés au-dessus et au-dessous de l’axe réel. On a : 

+r −r

P (x) dx + Q(x)

 



Γ

P (z) dz = Q(z)

C

p

P (z) dz = 2iπ Ri , Q(z) i=1

3 − Fonctions d’une variable complexe

92 y C

Γ I2 I1

r I3

θ −r

x

r

O

Figure 3.22 – Le contour Γ est formé du segment (−r,+r) et du demi-cercle C de rayon r centré en O dans le demi-plan supérieur. Les points Ip sont les racines de Q(z) = 0 situées à l’intérieur du contour Γ.

où les Ri sont les résidus de la fonction P (z)/Q(z) situés à l’intérieur du contour Γ. Si r → ∞, |zP (z)/Q(z)| → 0 et d’après la propriété B, on obtient : +∞ 

−∞

p

P (x) dx = 2iπ Ri . Q(x) i=1 +∞ 

Exemple : −∞

Les pôles de f (z) =

(3.29)

dx . 1 + x6

1 sont les racines de Q(z) = 1 + z 6 , soit 1 + z6 z 6 = −1 = ei(π+2kπ) .

Les pôles situés au-dessus de l’axe des x sont : √ √ i i 3 3 iπ/6 i3π/6 i5π/6 α=e + , β=e + . = = i, γ=e =− 2 2 2 2 D’après (3.27), on a : 1 α α β −γ Rβ = − , Rγ = , = =− , 6α5 6α6 6 6 6 +∞    2π dx 1 iπ . = 2iπ − (α + β + γ) = − 2i = 1 + x6 6 3 3 Rα =

d’où

−∞

2. Calculons 2π F (cos θ, sin θ)dθ,

(3.30)

0

où F est une fonction rationnelle de sin θ et cos θ. On peut, soit calculer cette intégrale en posant t = tan(θ/2), soit de manière souvent plus simple, utiliser la méthode des résidus. Dans ce cas on pose z = eiθ d’où cos θ =

z + 1/z z2 + 1 = , 2 2z

sin θ =

z2 − 1 , 2iz

θ=

1 ln z, i

dθ =

1 dz . i z

3.12 − Intégration par la méthode des résidus On se ramène donc au calcul de  2   1 z + 1 z 2 − 1 dz , F i 2z 2iz z

93

(3.31)



C

sur le cercle C de centre O et de rayon 1, c’est-à-dire à l’intégrale d’une fonction uniforme de z pour laquelle on peut appliquer la formule (3.25) des résidus. 2π I=

Exemple :

0

dθ . 4 + cos θ





Cette intégrale a un sens car 4 + cos θ = 0. D’après (3.31) on a :   dz dz 1 2 . I=   = 2 i i z 2 + 8z + 1 4 + z 2z+1 z C

C

√ La fonction √ à intégrer est du type P (z)/Q(z). Ses pôles sont α = −4 + 15 et β = −4 − 15. Mais puisque αβ = 1, seul le pôle α est à l’intérieur du cercle C de rayon 1 centré à l’origine. D’après (3.27), Rα = 2π Finalement

I= 0

1 1 P (α) = = √ . Q (α) 2α + 8 2 15

2 1 2π dθ = 2iπ √ = √ . 4 + cos θ i 2 15 15

3. Calculons +∞  P (x) dx, eimx Q(x)

(3.32)

−∞

où m est réel et P (x), Q(x) sont deux polynômes tels que Q(x) n’ait pas de racines réelles et que son degré dépasse de deux unités au moins celui de P (x). Pour m = 0, le calcul a déjà été fait (cf. équations (3.28) et (3.29)). Pour m > 0, on choisit le contour Γ de la figure 3.22 ; pour r assez grand pour contenir tous les pôles de eimz P (z)/Q(z) au-dessus de Ox, on a :



 +r p

P (x) P (z) dx + eimz dz = 2iπ eimx Ri . Q(x) Q(z) i=1 −r C





imz P (z) −mr sin θ P (z)

e z =e

Q(z) z .

Q(z)

Mais on a :

Ainsi pour 0 ≤ θ ≤ π, sin θ ≥ 0, et e−mr sin θ tend vers 0 ou 1 lorsque r → ∞ ; le module précédent tend vers 0, ce qui entraîne la nullité de l’intégrale sur C. Donc : +∞  p

imx P (x) dx = 2iπ e Ri . Q(x) i=1

−∞

(3.33)

3 − Fonctions d’une variable complexe

94

Si m < 0, il faut prendre un demi-cercle dans le demi-plan inférieur et l’on obtient : +∞ 

P (x) dx = −2iπ eimx Ri . Q(x) i

−∞

Notons qu’en prenant les parties réelle et imaginaire des résultats de (3.33) on peut calculer +∞ +∞   P (x) P (x) dx et dx. cos mx sin mx Q(x) Q(x) −∞

−∞

Exemples : +∞ 

a) −∞

eix dx. 1 + x2

On a m = 1 ; le seul pôle de f (z) = eiz /(1 + z 2 ) au-dessus de l’axe réel est z = i et c’est un pôle simple. Le résidu correspondant est d’après (3.26) :

eiz e−1

. (z − i) =

2 1+z 2i z=i Finalement d’après (3.33), +∞ 

−∞

eix π dx = . 2 1+x e +∞ 

I=

b)

−∞

sin x dx. x

1 I= i

On a

+∞ 

car −∞



+∞ 

−∞

eix dx x

cos x dx = 0. x

Calculons Γ dz e /z où le contour Γ est formé de deux demi-cercles centrés en O et de rayon R et r et des segments (−R, −r) et (r, R) sur l’axe réel (figure 3.23). Le point z = 0 est singulier. Vu que la fonction eiz /z est holomorphe à l’intérieur de Γ, on a : iz



−r

 γ

eiz dz + z

R r

eix dx + x

 



−R

eix dx + x

C

eiz dz = 0. z

3.12 − Intégration par la méthode des résidus

95 y Γ

C

γ −R

Figure 3.23 – Contour Γ pour le calcul de I.

−r O r

R x

Faisons tendre r vers 0 et R vers ∞ :      iz z2 e dz z lim dz = + i − − i + . . . dz ; r→0 z z 2 6 





γ

γ

γ



la seconde intégrale tend vers 0 quand r → 0 et  iz e lim dz = | ln z|γ = −iπ. r→0 z 

γ





Pour calculer C dz eiz /z, on pose 1/z = u, eiz dz = dv et on effectue une intégration par parties :

iz  iz  iz

1 e e e

+1 dz =

dz.

z i z C i z2 





C

C

Mais |e | est borné et égal à 0 ou 1 sur C lorsque R → ∞ et eiz /iz → 0 en tout point de C ; la variation de ce terme est donc nulle. iz

 D’autre part

eiz dz → 0 z2

si

|z| → ∞



C



eiz

car, dans ces conditions, 2 z → 0 (propriété B). Finalement on obtient :

z +∞ 

−∞ +∞ 

On en déduit que 0

sin x dx = π. x

(3.34)

π sin x dx = . x 2

Remarque. Si l’on considère la fonction de Heaviside ou « échelon unité » définie par H(t) = 1 si t > 0 ;

H(t) = 0 si t < 0,

on peut écrire pour toute valeur réelle de t : ∞ 1 1 sin ωt H(t) = + dω. 2 π ω 0

(3.35)

3 − Fonctions d’une variable complexe

96

3.12.4. Intégration des fonctions multiformes



Si la fonction f (z) n’est pas uniforme, on ne peut  plus appliquer aussi sinplement le théorème des résidus au calcul de l’intégrale C f (z)dz sur le contour fermé C. La valeur de l’intégrale dépend du point de départ et de la détermination choisie de f (z). Si, à l’intérieur de C, la fonction ne présente que des pôles ou des points singuliers essentiels, on peut se ramener au cas d’une fonction uniforme en considérant une détermination quelconque de f (z) pour laquelle le théorème des résidus peut être appliqué. Si, à l’intérieur de C, la fonction f (z) possède des points critiques ou logarithmiques, le processus d’intégration est différent. Supposons, par exemple, que l’on ait un point de branchement P. On relie P au contour C par une courbe que z ne pourra pas franchir (coupure). Le point z pourra se déplacer sur un contour total Γ formé de C, d’un petit cercle γ entourant P et d’un chemin infiniment étroit de part et d’autre de la coupure (figure 3.24). Le contour Γ est donc constitué de C amputé d’un arc

infiniment petit AB et d’un « lacet » autour de P. La coupure oblige la fonction f (z) à reprendre z la même valeur, donc la même détermination C lorsque z revient à son point de départ car l’argument θ de z reste inférieur à 2π. A l’inθ térieur de Γ, f (z) est holomorphe sauf en un γ A nombre fini de pôles et le théorème des résidus B coupure peut s’appliquer. Cependant, ici, les intégrales P sur les chemins aller et retour du lacet ne sont pas opposées car les valeurs que prend f (z) de Γ chaque côté de la coupure sont différentes. Par exemple pour z 1/2 , le point P est à l’origine et au cours d’une rotation de 2π sur √ le cercle Figure 3.24 – Contour Γ pour l’intéiθ0 /2 re√ γ√ de rayon r, on passe d’une valeur √ gration d’une fonction multiforme avec à √ rei(θ0 +2π)/2 = − reiθ0 /2 , soit, ici de r à un point de branchement P. − r. Exemples :  a)

ln(z − 1) dz, z2



C

où C est un cercle centré à l’origine de rayon R > 1. La fonction f (z) =

ln(z − 1) z2

a un pôle double en z = 0 et un point critique logarithmique en z = 1. On choisit le contour Γ=(ACBB’γ A’A) représenté sur la figure 3.25 et la détermination de ln (z − 1) qui prend la valeur ln(x − 1) = ln(R − 1) au point A d’abscisse x = R.

3.12 − Intégration par la méthode des résidus

97 y C



O

1 A’

A

B’

B

γ

x





BB 

R





 ln(z − 1) ln(z − 1) On a : dz = dz z2 z2 Γ C   ln(x − 1) + 2iπ ln(z − 1) + 2iπ + dx + dz 2 x z2 γ

 + 

Γ

ln(x − 1) dx = 2iπR0 , x2

A A

où R0 est le résidu relatif au pôle z = 0. Remarquons qu’en B et en A’ nous avons changé de détermination. Lorsque z décrit le cercle γ, z − 1 = reiθ et si r → 0,

Figure 3.25 – Contour Γ comprenant le cercle de rayon R et un lacet autour du point critique logarithmique z = 1.



ln(z − 1) + 2iπ

lim r| ln r + i(θ + 2π)| lim

(z − 1)

= r→0 r→0 z2   = lim r (ln r)2 + (θ + 2π)2 = lim (r ln r)2 + r2 (θ + 2π)2 → 0. r→0

r→0

 f (z) dz = 0.

Ainsi d’après la propriété A, 

γ

D’après (3.26),

et





d 1

R0 = ln(z − 1) = = −1 dz z − 1 z=0 z=0

1 

1 ln(z − 1)

= −2iπ, dz − 2iπ

x z2 R C  ln(z − 1) 2iπ . dz = − 2 z R

soit



C

 b)

z p−1 dz, 1+z



C

où C est un cercle centré à l’origine de rayon R > 1 et 0 < p < 1. La fonction f (z) = z p−1 /(1 + z) est multiforme car p − 1 est fractionnaire ou irrationnel. On a un pôle simple en z = −1 et un point critique en z = 0. On choisit le contour Γ représenté sur la figure 3.26 et la détermination de z p−1 qui vaut Rp−1 en A.

3 − Fonctions d’une variable complexe

98 y C



R −1

B’

B

x

 + 



O

A

γ

BB’ Γ



A’



z p−1 dz 1+z Γ C  p−1 z xp−1 i2π(p−1) e ei2π(p−1) dz dx + 1+x 1+z 

γ

On a :

z p−1 dz = 1+z

 + 

xp−1 dx = 2iπR−1 , 1+x

A’A Figure 3.26 – Contour Γ comprenant un cercle de rayon R et un lacet autour du point critique z = 0.

où R−1 est le résidu relatif au pôle z = −1. En B et en A’ nous avons changé de détermination. Lorsque z décrit le cercle γ de rayon r, si r → 0,

p−1

z

= lim |z p | → 0. lim

z r→0 1 + z r→0 Ainsi l’intégrale sur γ est nulle. Puisque R−1 = z p−1 |z=−1 = eiπ(p−1) = −eiπp ,  p−1 R p−1  2iπp  z x dz = e dx − 2iπeiπp . on a : −1 1+z 1+x 

C

Si R → ∞,

0

p−1 p  p−1

z

z z

=

→ 0 et

z dz = 0,

1 + z 1 + z 1+z 

C

d’après la propriété B. Finalement on déduit de ce calcul que ∞ 0

2iπeiπp π xp−1 dx = 2iπp = , 1+x e −1 sin πp

(3.36)

intégrale utilisée pour établir la formule des compléments (voir chapitre 4).

3.13. Transformation conforme Il s’agit d’une propriété importante des fonctions analytiques très utile en physique quand le problème peut se réduire à deux dimensions, comme par exemple en électrostatique, en élasticité ou en mécanique des fluides.

3.13.1. Définition Soit une fonction analytique Z = f (z). Quand le point m dont l’affixe est z = x + iy décrit une courbe γ dans le plan des z, le point M, dont l’affixe est Z = X + iY , décrit

3.13 − Transformation conforme

99

une courbe Γ dans le plan des Z (figure 3.27). La courbe Γ est la courbe transformée de la courbe γ et réciproquement. y

Y

Γ

γ

M’

m M

m x

O

X

O

Figure 3.27 – Γ est la transformée de γ par la fonction Z = f (z).

Les points M et m sont dits conjugués. La propriété fondamentale de cette transformation est de conserver les angles, donc les formes des éléments infiniment petits, d’où le nom de transformation conforme. Un triangle infiniment petit entourant m sera transformé en un autre triangle entourant M et semblable au premier. En effet, pour exprimer la similitude de ces deux triangles, il suffit d’exprimer la proportionalité de deux éléments d’arc homologues ds et dS issus de m et M respectivement. On doit donc avoir pour tout ds, la relation dS = kds. Bien sûr le coefficient k dépend de m ; c’est une fonction k(x, y). Cherchons donc la condition équivalente pour que l’on ait dS 2 = k 2 ds2 qui s’écrit : 2  2  ∂X ∂Y ∂X ∂Y 2 2 2 2 2 k (dx + dy ) = dX + dY = dx + dy + dx + dy ∂x ∂y ∂x ∂y & %  2  2  ∂X ∂Y ∂X ∂X ∂Y ∂Y 2 + dx + 2 = + dxdy ∂x ∂x ∂x ∂y ∂x ∂y % 2  2 & ∂Y ∂X + dy 2 . + ∂y ∂y

Il faut donc que

∂X ∂X ∂Y ∂Y + = 0, soit : ∂x ∂y ∂x ∂y

∂X ∂Y ∂x = − ∂x = λ ∂Y ∂X ∂y ∂y

avec

λ2

%

∂Y ∂y



2 +

∂X ∂y

2 &

% =

∂X ∂y



2 +

∂Y ∂y

2 & ,

ce qui montre que λ2 = 1 et λ = ±1. ∂Y ∂Y ∂X ∂X = et =− , ∂x ∂y ∂x ∂y c’est-à-dire les relations de Cauchy (3.3). Ainsi pour une fonction analytique quelconque Z = f (z), la transformation qui fait passer de z à Z est conforme. Si λ = 1, on a :

3 − Fonctions d’une variable complexe

100

∂(−Y ) ∂X ∂(−Y ) ∂X = et =− , ∂x ∂y ∂y ∂x qui exprime que X − iY est une fonction analytique de z = x + iy, ou encore que X + iY est fonction analytique de x − iy.

Si λ = −1, on a :

En résumé la relation X + iY = f (x ± iy)

(3.37)

définit deux familles : les transformations conformes directes et inverses. Notons que si ϕ et Φ désignent les angles de ds et dS avec les axes Ox et OX respectivement, on a : dz = ds eiϕ ,

dZ = dS eiΦ

dS i(Φ−ϕ) dZ = e . dz ds

et

A la limite d’éléments ds et dS infiniments petits, on a : dZ = |f  (z)|ei arg f



(z)

dz,

(3.38) 

ce qui montre que dZ s’obtient en multipliant dz par |f (z)| et en le faisant tourner de l’angle arg f  (z), à condition bien sûr que f  (z) = 0. Exemples de transformations conformes Les fonctions Z = z + a, Z = az avec a = ρeiθ , Z = k/z (k réel) définissent des transformations conformes directes alors que Z=

k k(x + iy) = 2 = X + iY x − iy x + y2

définit une transformation conforme inverse (figure 3.28). (a)

(b) y, Y

M

y, Y

M

OM = ρ Om

a

m m

(c)

x, X

O y, Y

θ

OM = k/Om m

(d)

x, X

O y, Y

m M

x, X

O

O

x, X

M Figure 3.28 – Transformations conformes directes : (a) Z = z + a, (b) Z = az = ρeiθ z, (c) Z = k/z et transformation conforme inverse (d) Z = k/(x − iy).

3.13 − Transformation conforme

101

3.13.2. Systèmes orthogonaux du plan Deux familles de courbes sont orthogonales si toute courbe de la première famille est orthogonale à toute courbe de la deuxième famille. Considérons la transformation conforme définie par Z = X(x, y) + iY (x, y) = f (z).

(3.39)

Si z décrit les courbes X(x, y) = a ou Y (x, y) = b, a et b étant des paramètres réels, Z décrit des droites parallèles à OY et OX, respectivement, qui sont orthogonales. Donc les courbes X(x, y) = a et Y (x, y) = b sont aussi orthogonales (figure 3.29). Y

D

D

y

Γ

Γ

Δ C Δ



C X

O

O

x

Figure 3.29 – Les droites D, D et Δ, Δ correspondent à X(x, y) = Cte et Y (x, y) = Cte, respectivement, représentées par les courbes C, C  , Γ, Γ . Lorsque z se déplace sur C, C  , Γ, Γ , Z se déplace sur D, D , Δ, Δ et réciproquement.

Souvent, au lieu de considérer la transformation Z = f (z), c’est la transformation inverse z = F (Z) qui est plus simple. On a alors x = x(X, Y ) et y = y(X, Y ). Les courbes transformées des parallèles à OX et OY sont données sous forme paramétrique en laissant Y fixe et en faisant varier X, ou en laissant X fixe et en faisant varier Y . En éliminant X ou Y on a les équations : g(x, y, Y ) = 0,

h(x, y, X) = 0,

qui donnent respectivement les équations des faisceaux de courbes transformées des parallèles à OX et OY . Dans ces conditions X et Y jouent le rôle d’un paramètre définissant chaque courbe. Exemple : Soit la transformation conforme Z = arg cosh avec d réel > 0. On a encore soit Donc

z=

z d

z = d cosh Z,

 d  X+iY e + e−X−iY = d cosh X cos Y + id sinh X sin Y. 2 x = d cosh X cos Y ; y = d sinh X sin Y.

3 − Fonctions d’une variable complexe

102 y

Si X = Cte, en éliminant Y , on obtient dans le plan xOy : y2 x2 + = 1, 2 d2 cosh X d2 sinh2 X

F

O

F

x

qui définit un réseau d’ellipses homofocales et de foyers F et F  distants de 2d. Si Y = Cte, on a en éliminant X, y2 x2 − = 1, d2 cos2 Y d2 sin2 Y

Figure 3.30 – Réseau orthogonal d’ellipses et d’hyperboles construit à partir de z = d cosh Z.

qui définit un réseau d’hyperboles orthogonal au réseau d’ellipses précédent et avec les mêmes foyers (figure 3.30).

3.13.3. Applications physiques Rappelons d’abord que dans (3.39), X et Y sont des fonctions harmoniques obéissant à l’équation de Laplace (3.4). Etant donnée une courbe y = ϕ(x) du plan des z, le problème consistant à trouver une relation Z = f (z) qui transforme la courbe en une parallèle à l’un des axes OX ou OY , afin d’obtenir un réseau de courbes orthogonales, n’est pas soluble en général. Aussi, se contente-t-on, à partir d’une transformation conforme donnée à priori, de trouver des réseaux orthogonaux de fonctions harmoniques à deux dimensions qui permettent de résoudre des cas particuliers de problèmes de champ de vecteurs dérivant d’un potentiel scalaire lorsque la direction du champ reste constamment parallèle à un plan. On sait, en effet, que dans ce cas, les lignes de force du champ sont orthogonales aux lignes équipotentielles. Parmi les exemples physiques de couples orthogonaux de lignes de champ et de lignes équipotentielles, citons les lignes de champ électrostatique et les lignes de potentiel électrostatique constant pour une distribution de charges, les lignes de courant et les lignes équipotentielles d’un conducteur parcouru par un courant électrique, les lignes de flux de chaleur et les lignes d’isothermes d’un corps chauffé, les lignes de courant et celles d’égal potentiel de vitesse d’un fluide parfait, etc . . . Dans le cas de l’électrostatique, si l’on se donne une transformation conforme quelconque Z = f (z) et si X(x, y) est la fonction potentiel, les courbes X(x, y) = Cte sont les lignes équipotentielles et les courbes Y (x, y) = Cte sont les lignes de champ −−→  électrique avec E(x, y) = −grad X(x, y). Dans l’exemple du § 3.13.2, si les ellipses sont des lignes équipotentielles correspondant à des sections droites de cylindres elliptiques electrisés formant des surfaces équipotentielles, les hyperboles représentent des lignes de force du champ électrique.

3.14 − Exercices

103

Exemple : Soit la transformation conforme Z = z 2 . Si z = x + iy et Z = X + iY , on a X = x2 − y 2 et Y = 2xy. En coordonées polaires, z = ρeiϕ et Z = ρ2 e2iϕ = P eiΦ . Dans cette transformation, le demi-plan supérieur du plan des z (0 ≤ ϕ < π) se transforme en plan entier des Z (0 ≤ Φ < 2π). Si Y (x, y) représente la fonction potentiel électrique, les lignes ou les surfaces verticales équipotentielles sont données par y = Y /2x, c’est-à-dire des hyperboles ou des cylindres hyperboliques. En se limitant √ à x ≥ 0 et y ≥ 0, les lignes de champ sont y = x2 − X où X est constant, et il s’agit de branches d’hyperboles orthogonales aux lignes équipotentielles. On représente les lignes correspondant à Y = 1 et X = 1 sur la figure 3.31. y X=1

1 Y =1

1 O

1

x

Figure 3.31 – Ligne équipotentielle et ligne de champ pour un dièdre électrique rectangulaire contenant xOy. Les courbes Y = 1 et X = 1 correspondent à √ y = 1/2x et y = x2 − 1 respectivement.

Notons que si l’on considère un dièdre uniformément électrisé formé par les demiplans zOx et zOy correspondant à un potentiel nul et donc à Y = 0, les surfaces équipotentielles et les lignes de champ sont les mêmes que celles obtenues plus haut.

3.14. Exercices Exercice 3.1. 1. Montrer que la fonction X(x, y) = x3 − 3xy 2 est harmonique, c’est-à-dire que ΔX = 0. 2. Trouver les fonctions à valeurs réelles Y (x, y) telles que Z = X + iY soit une fonction analytique de z = x + iy et expliciter la relation Z = f (z).

3 − Fonctions d’une variable complexe

104

Exercice 3.2. Soit la fonction analytique f écrite sous la forme : f (z) = u(r, ϕ) + iv(r, ϕ) faisant apparaître les coordonnées polaires (r, ϕ) de z = reiϕ . 1. Ecrire les conditions de Cauchy-Riemann en fonction de r et ϕ qui expriment l’analicité de f . 2. En déduire les fonctions analytiques dont la partie réelle ne dépend que de |z|.

Exercice 3.3. Déterminer pour les fonctions f1 (z) =

cos 2z 1 et f2 (z) = z sin z−π z

les singularités, leur nature et le développement en série de Laurent au voisinage de ces singularités. Exercice 3.4. Une fonction analytique f (z) réalise une transformation d’un domaine D du plan complexe dans un domaine D de ce plan. La transformation est dite bi-univoque si pour tout couple z1 , z2 de D, avec z1 = z2 , on a f (z1 ) = f (z2 ). 1. Quels sont les domaines D pour lesquels la fonction f1 (z) = ez est bi-univoque ? Quelles sont les images des droites x = a et y = b, a et b étant des constantes, dans cette transformation ? 2. Quels sont les domaines D pour lesquels la fonction f2 (z) = 12 (z + z −1 ) est biunivoque ? Quelles sont les images des courbes |z| = R et arg z = ϕ, R et ϕ átant des constantes, dans cette transformation ?

Exercice 3.5. Calculer par la méthode des résidus les intégrales +∞ 

I= −∞

dx ; 1 + x4

+∞ 

J= −∞

dx . (1 + x2 )4

Exercice 3.6. Calculer par la méthode des résidus l’intégrale 2π I= 0

où a est réel avec |a| < 1.

1 dθ, 1 − 2a cos θ + a2

3.14 − Exercices

105

Exercice 3.7. Calculer par la méthode des résidus les intégrales 2π A= 0

π C= 0

dθ ; 2 + sin θ

2π B= 0

cos 3θ dθ ; 5 − 4 cos θ π

sin2 θ √ dθ ; 2 + 3 cos θ

D= −π

cos nθ dθ. 2 + cos θ

Exercice 3.8. Calculer par la méthode des résidus l’intégrale +∞  1 − x2 I(p) = cos (px) dx (1 + x2 )2

(p réel).

−∞

En déduire la valeur de +∞  1 − x2 J= eix dx. (1 + x2 )2 −∞

Exercice 3.9.

y C

1. Soit la √ fonction de la variable complexe z ln z f (z) = . (1 + z)2

R

Quels sont les points singuliers de cette fonction et leur nature ?

ε γ

E



2. Calculer  par la méthode de résidus l’intégrale C f (z)dz sur le contour C représenté ci-contre où R est arbitrairement grand et ε arbitrairement petit.

A

3. En déduire les valeurs de ∞ √ ∞ √ x ln x x I= dx et J = dx. (1 + x)2 (1 + x)2 0

Figure 3.32 – Contour d’intégration.

0

Exercice 3.10. Calculer ∞ I= 0

xp dx, (1 + x2 )2

−1 < p < 3.

B D

x

106

3 − Fonctions d’une variable complexe

Exercice 3.11. Deux plaques conductrices très minces sont assimilées à deux demiplans perpendiculaires au plan (x, y) et dont les intersections avec ce dernier sont les deux demi-droites selon l’axe x avec −∞ < x < −d et d < x < ∞. Elles sont respectivement au potentiel V = V0 > 0 et V = 0. 1. En considérant la transformation conforme Z = X + iY = f (z) =

z V0 arg cosh , π d

avec des coupures formées par les demi-droites précédentes, on peut obtenir, à partir de la condition Y = Cte, les lignes équipotentielles (0 < V < V0 ) dans le plan (x, y) dont on donnera la nature. 2. Trouver l’équation et la nature des lignes de champ. 3. Montrer que les composantes du champ électrostatique (Ex , Ey ) sont données par Ey + iEx = −df /dz. En déduire le module du champ électrostatique en tout point du plan complexe (coupé). Montrer qu’il diverge sur le bord des plaques. 4. On rappelle que la densité superficielle de charge électrique σ d’une plaque est liée à la discontinuité ΔEn de la composante normale à la plaque du champ électrique par la relation σ = ε0 ΔEn . Déterminer σ pour chacune des plaques.

Exercice 3.12. 1. Quelle est l’image par la transformation conforme Z = ez d’un quadrillage de côté a dans le plan z ? 2. Quelle est, dans cette transformation, l’image de la droite d’équation y = αx + β, avec α = 0 ?

Chapitre 4 Fonctions spéciales

Il existe de nombreuses fonctions spéciales mais nous nous limiterons ici aux intégrales eulériennes et à la fonction d’erreur qui sont particulièrement simples et qui interviennent dans de nombreux secteurs des sciences expérimentales.

4.1. La fonction bêta On définit la fonction bêta par l’équation : 1 β(p, q) =

xp−1 (1 − x)q−1 dx

(4.1)

0

où p et q sont deux paramètres. Cette fonction n’a de sens que pour p > 0 et q > 0 qui sont les conditions de convergence de l’intégrale en x = 0 et x = 1 respectivement. Il est clair que : β(p, q) = β(q, p). (4.2) En effet, posons dans (4.1), t = 1 − x ; on trouve : 0 β(p, q) = −

dt(1 − t)p−1 tq−1 = β(q, p). 1

Effectuons dans (4.1) le changement de variable x = sin2 ϕ : π/2 β(p, q) = 2 (sin ϕ)2p−2 (cos ϕ)2q−2 sin ϕ cos ϕ dϕ 0

soit :

π/2 β(p, q) = 2 (sin ϕ)2p−1 (cos ϕ)2q−1 dϕ. 0

(4.3)

4 − Fonctions spéciales

108

En particulier, β(1, 1) = 1 ; β(1/2, 1/2) = π ; β(1, 1/2) = β(1/2, 1) = 2. On désigne cette fonction β par intégrale eulérienne de 1ère espèce.

4.2. La fonction gamma et la fonction factorielle La fonction gamma ou intégrale eulérienne de 2e espèce est définie par : ∞ Γ(x) =

tx−1 e−t dt

(4.4)

0

où x est un paramètre que nous choisirons réel. Cette intégrale ne converge que si x > 0. En effet, s’il n’y a aucun problème du côté de la borne supérieure puisque tx−1 e−t → 0 lorsque t → ∞ pour toute valeur de x, lorsque t → 0, e−t → 1 et l’intégrant se comporte comme tx−1 . Si ε est un infiniment petit positif, ε tx−1 dt = |tx /x|ε0 0

et x doit être positif pour que ce terme reste fini. Par la suite il sera plus commode d’introduire la fonction factorielle définie par : ∞ x! = Γ(x + 1) =

tx e−t dt.

(4.5)

0

L’intégrale précédente converge si x > −1. Ainsi la fonction factorielle est définie dans l’intervalle ] − 1, +∞[. Elle est continue et dérivable dans cet intervalle. • Pour x > 0, on a en intégrant (4.5) par parties :

∞ x! = −e−t tx + x

∞

0

tx−1 e−t dt

0

soit : x! = x(x − 1)! .

(4.6)

• Si x > 1, on peut poursuivre le processus et écrire : x! = x(x − 1)(x − 2)! et, d’une façon plus générale, pour x > n − 1 où n est un entier positif : x! = x(x − 1)(x − 2) . . . (x − n)! .

(4.7)

Cette relation permet de connaître x! en un point quelconque où elle est définie, si ses valeurs sont connues dans un intervalle de x de longueur unité.

4.3 − Relation entre les fonctions bêta et gamma

109

• Si x prend une valeur entière positive ou nulle x = n, on a, d’après (4.7) : n! = n(n − 1)(n − 2) . . . 1 · 0! . Mais, vu la définition (4.5),

∞ 0! =

e−t dt = 1.

0

Donc, pour n entier n ≥ 0, n! = n(n − 1)(n − 2) . . . 1.

(4.8)

On retrouve la définition bien connue de la factorielle d’un nombre entier. L’intégrale (4.5) est une généralisation de la factorielle pour x réel quelconque, avec la condition x > −1.

4.3. Relation entre les fonctions bêta et gamma Calculons l’intégrale double : ∞ ∞ I= 0

x2p+1 y 2q+1 e−(x

2

+y 2 )

dxdy

0

avec p et q > −1. On peut calculer I de deux manières différentes. • On peut séparer les variables x et y et en posant x2 = u, y 2 = v, 1 I= 2

∞

p −u

u e 0

1 du × 2

∞

v p e−v dv

0

1 I = p!q! . 4

et d’après (4.5) :

• On peut également se placer en coordonnées polaires x = r cos ϕ, y = r sin ϕ et : ∞ I=

r

2(p+q)+3 −r 2

e

0

π/2 dr (cos ϕ)2p+1 (sin ϕ)2q+1 dϕ. 0

La partie radiale de cette intégrale s’écrit en posant r2 = t : 1 2

∞ 0

tp+q+1 e−t dt =

1 (p + q + 1)! . 2

4 − Fonctions spéciales

110

Quant à la partie angulaire, elle est donnée par (4.3) soit : 1 1 β(q + 1, p + 1) = β(p + 1, q + 1). 2 2 1 1 p!q! = (p + q + 1)!β(p + 1, q + 1) 4 4

On a donc : et finalement :

β(p + 1, q + 1) =

p!q! (p + q + 1)!

(p, q > −1).

(4.9)

Du fait que (p − 1)! = Γ(p) et (q − 1)! = Γ(q), la relation (4.9) s’écrit encore : Γ(p)Γ(q) Γ(p + q)

β(p, q) =

(p, q > 0).

(4.10)

Notons enfin que d’après (4.3) et (4.9), pour p et q > −1, p!q! =2 (p + q + 1)!

π/2 (sin ϕ)2p+1 (cos ϕ)2q+1 dϕ.

(4.11)

0

Conséquences : Si dans (4.9) on prend p = q = −1/2, on a :  1  2 − 2 ! = β(1/2, 1/2) = π d’où :

 1 √ − 2 ! = π.

On en déduit, d’après (4.6), que : 1 2 != ∞ Calculons l’intégrale J =

1 2

(4.12)

 1 √ − 2 ! = π/2.

2

e−x dx. En posant x2 = u, on a :

0

1 J= 2

∞

e−u u−1/2 du =

1 2

 1 −2 !

0

d’où : ∞

2

e−x dx =

0

1√ π. 2

(4.13)

D’une manière plus générale, pour λ > −1 : ∞

2λ+1 −x2

x 0

e

1 dx = 2

∞ 0

uλ e−u du =

1 (λ)! 2

(4.14)

4.4 − La formule des compléments

111

et en particulier : ∞

2

x2 e−x dx =

1 1√ 2 ! = 4 π.

1 2

0

(4.15)

4.4. La formule des compléments Nous voulons établir que, pour 0 < x < 1, on a une relation extrêmement utile qui est la formule des compléments : (x)!(−x)! =

πx . sin πx

(4.16)

En effet, nous pouvons écrire d’après (4.9) : (x)!(−x)! = x(x − 1)!(−x)! = xβ(x, 1 − x) ou encore avec la définition (4.1) : 1 (x)!(−x)! = x

tx−1 (1 − t)−x dt.

0

Posons dans cette intégrale t = 1/(1 + u), nous obtenons ∞ (x)!(−x)! = x 0

u−x du. 1+u

Mais nous avons vu d’après l’équation (3.36) que ∞ 0

π up−1 du = 1+u sin πp

(0 < p < 1).

Donc, si p = 1 − x, nous avons 0 < x < 1, et (x)!(−x)! = x

πx π = , sin π(1 − x) sin πx

conformément à (4.16). Notons que la formule des compléments établie pour 0 < x < 1, se généralise en fait, à tout x non entier comme nous le verrons dans la section suivante ; à titre d’exemple, d’après (4.12) et (4.13), on a (1/2)!(−1/2)! = π/2, conformément à la formule (4.16) pour x = 1/2.

4 − Fonctions spéciales

112

4.5. Propriétés de la fonction factorielle 4.5.1. Fonctions gamma et factorielle pour les valeurs négatives de l’argument Nous avons vu que la fonction Γ(x) définie par (4.4), n’avait de sens que pour x > 0 et que, par suite, la fonction factorielle x! définie par (4.5), n’a de sens que pour x > −1. Si nous nous reportons à la relation (4.6), nous avons : (x − 1)! =

(x)! . x

(4.17)

Si 0 < x < 1, on a −1 < x − 1 < 0 et (x − 1)! est définie dans cet intervalle. Pour x = 0 le second membre de (4.17) diverge, ce qui signifie que (−1)! n’est pas définie. Pour x = 1, on retrouve un résultat obtenu précédemment à savoir que 0! = 1!/1 = 1. Cependant rien ne nous empêche de prolonger la définition de la fonction x! pour n’importe quelle valeur négative non entière de x en utilisant la relation (4.17). En particulier en supposant toujours 0 < x < 1, on a : (x − 2)! =

(x)! (x − 1)! = . x−1 x(x − 1)

(4.18)

Nous définissons ainsi (x − 2)! pour −2 < x − 2 < −1. Par exemple, (−3/2)! =

√ (1/2)! = −2 π. (1/2)(−1/2)

Mais pour x = 0, (−2)! n’est pas définie et diverge. On peut aisément poursuivre ainsi le processus. Si n est un entier > 0, on a, par définition : (x − n)! =

(x)! x(x − 1) . . . (x − n + 1)

(4.19)

et nous avons, avec l’hypothèse de départ −n < x − n < 1 − n, sachant bien que (−n)! n’est pas définie. Il convient de souligner que (x − n)! pour x − n < −1 est définie par (4.19) et non plus par l’intégrale (4.5) qui n’a plus de sens. Notons enfin que la relation (4.19) est tout à fait générale et s’applique pour toute valeur de x non entière. Si nous reprenons la formule des compléments qui a été établie pour 0 < x < 1, nous voyons que si x a maintenant une valeur arbitraire positive non entière, nous pouvons toujours poser x = y + n, où n est un entier > 0 et 0 < y < 1. Alors grâce à (4.19) on a : (x)!(−x)!

=

(y + n)!(−y − n)! = y!

=

y!(−y)!

y+n (−1)n . y

(y + 1)(y + 2) . . . (y + n − 1)(y + n)(−y)! (−y)(−y − 1) . . . (−y − n + 1)

4.5 − Propriétés de la fonction factorielle

113

En utilisant la formule des compléments (4.16) pour y qui est bien compris entre 0 et 1, l’on obtient : (x)!(−x)! = (−1)n

πy y + n . sin πy y

Mais (−1)n sin(πy) = sin(πy + πn) = sin(πx) et finalement : (x)!(−x)! =

πx . sin πx

(4.20)

Nous établissons ainsi que la formule des compléments est bien valable pour tout x non entier.

4.5.2. Représentation graphique de la fonction factorielle Les valeurs de la fonction x! sont obtenues par intégration numérique de l’intégrale (4.5) pour x > −1, puis à partir de ces dernières valeurs, par application de la formule (4.19) pour x < −1. En faisant varier x, on obtient une succession d’arches (figure 4.1). Cette fonction présente un minimum √ pour x = 0, 461 63 ; ce minimum vaut 0, 885 60 qui est assez proche de (1/2)! = π/2 = 0, 886 23. x! 5 4 3 2

−4

−3

−2

−1

0

1

2

3 x

−1 −2 −3 −4

Figure 4.1 – Représentation de la fonction x! (x réel).

4 − Fonctions spéciales

114

4.5.3. La fonction factorielle pour les nombres demi-entiers Si nous partons de l’équation (4.11) et si nous posons p = q = x > −1, nous avons : (x!)2 =2 (2x + 1)!

π/2 (sin ϕ cos ϕ)2x+1 dϕ. 0

En effectuant le changement de variable θ = 2ϕ, le second membre de l’équation ci-dessus s’écrit : 2

−(2x+1)



2x+1

(sin θ)

dθ = 2

0

−(2x+1)

π/2 x!(−1/2)! 2 (sin θ)2x+1 dθ = 2−(2x+1) (x + 1/2)! 0

où nous avons à nouveau utilisé la formule (4.11) avec p = x et q = −1/2. Nous avons ainsi établi que, pour x > −1, √ 22x+1 x!(x + 1/2)! = (2x + 1)! π.

(4.21)

En fait, il est facile de montrer par des arguments analogues à ceux utilisés pour la formule des compléments (cf. § 4.5.1) que la relation (4.21) est valable pour tout x à l’exclusion des nombres entiers négatifs et des nombres demi-entiers négatifs ≤ −3/2. En particulier si n est un entier ≥ 0, on obtient d’après (4.21) l’importante relation : √ π(2n + 1)! (n + 1/2)! = (4.22a) 22n+1 n! qui permet d’exprimer les factorielles des nombres demi-entiers en fonction des factorielles de nombres entiers. On a encore : √ π(2n)! . (4.22b) (n − 1/2)! = 2n) 2 n!

4.5.4. La formule de Stirling Lorsque l’on a affaire à des valeurs de x positives assez grandes et, en particulier, à des nombres entiers assez grands comme en mécanique statistique où l’on travaille sur des nombres de l’ordre du nombre d’Avogadro (NA = 6, 022 × 1023 ), le calcul de x! conduit à des valeurs considérables. La formule de Stirling permet alors d’avoir une valeur approchée de x! avec une bonne précision. Partons de la définition (4.5) : ∞ x! = 0

tx e−t dt

(4.23)

4.5 − Propriétés de la fonction factorielle

115

en supposant que x  1. L’expression précédente s’écrit encore : ∞

∞ exp(x ln t − t)dt =

x! = 0

exp[u(t)]dt.

(4.24)

0

L’exposant u(t) = x ln t − t a pour dérivées successives u (t) = x/t − 1, u (t) = −x/t2 , u (t) = 2x/t3 , etc. u(t) est maximum pour t = x ; pour cette valeur de t, u (x) = 0, u (x) = −1/x, u (x) = 2/x2 , etc. Développons alors u(t) en série de Taylor autour de t = x : u(t)

1 1 = u(x) + (t − x)u (x) + (t − x)2 u (x) + (t − x)3 u (x) + . . . 2   3! 1 (t − x)2 = x ln x − x − +O . 2x x2

Lorsque x est grand, on peut se limiter au terme en 1/x et en posant y = t − x, (4.24) s’écrit : ∞ x! = exp(x ln x − x) exp(−y 2 /2x)dy. −x

La contribution majeure (99,7%) à cette intégrale provient de la région où y 2 < 3x, √ soit |y| < 3x ; lorsque x est grand, on peut remplacer la borne inférieure d’intégration −x par −∞. On a alors : x! ∼ = exp(x ln x − x)

∞

exp(−y 2 /2x)dy.

−∞

Mais d’après (4.13), ∞

∞ √  √ exp(−y /2x)dy = 2x exp(−v 2 )dv = 2πx 2

−∞

−∞

et finalement : x! ∼ =

√ 2πx exp(x ln x − x).

(4.25)

C’est la formule de Stirling. Elle est d’autant plus précise que x est plus grand. Mais même pour x = 50, la valeur de 50! est 3, 041 × 1064 alors que la formule de Stirling donne 3, 036 × 1064 soit une erreur relative de 0,16%. On utilise surtout la formule de Stirling sous forme logarithmique : ln x! ∼ = x ln x − x + (1/2) ln(2πx) = (x + 1/2) ln x − x + (1/2) ln(2π).

(4.26)

Pour des valeurs de x de l’ordre de 103 ou supérieures, on peut même se contenter de la forme simplifiée : ln x! ∼ = x ln x − x

(4.27)

4 − Fonctions spéciales

116

avec une erreur relative inférieure à 10−3 . Pour x grand, on déduit de (4.27) que : d ln x! ∼ = ln x. dx

(4.28)

Certes d’un point de vue mathématique, il est très dangereux de calculer cette dérivée à partir d’une forme approchée qui n’est que le début d’une série asymptotique, mais il se trouve que le résultat (4.28) est correct.

4.6. La fonction d’erreur Il s’agit d’une fonction très importante pour la théorie des probabilités et, d’une manière générale, pour l’analyse des données dans les sciences expérimentales.

4.6.1. Définition et propriétés élémentaires La fonction erf (x) d’une variable réelle x est l’intégrale de 0 à x de la fonction √ 2 (2/ π)e−u , soit : 2 erf (x) = √ π

x

2

e−u du.

(4.29)

0

C’est une fonction impaire, erf (−x) = −erf (x), et développable en série entière : 2

e−u =



(−1)k

k=0

u2k k!

∞ x2k+1 2

. erf (x) = √ (−1)k π (2k + 1)k!

d’où :

(4.30)

k=0

√ Si x → 0, erf (x) ∼ = 2x/ π. D’autre part d’après (4.13), on a erf (∞) = 1. On représente dans la figure 4.2 la fonction y = erf (x) pour x ≥ 0. y 1 0, 8

√ 2x/ π

y = erf f (x)

0, 6 0, 4 0, 2 0

1

2

x

Figure 4.2 – La fonction d’erreur y = erf (x) et sa tangente à l’origine.

4.6 − La fonction d’erreur Si dans (4.29), on pose u =



117

v, on obtient pour x > 0,

1 erf (x) = √ π

x2 0

e−v √ dv v

(4.31)

qui est une autre forme √ particulier, on retrouve le √ utile de la fonction d’erreur. En fait que erf (∞) = (1/ π)(−1/2)! = 1. En posant x = t, (4.31) s’écrit : √ 1 erf ( t) = √ π

t 0

e−v √ dv. v

(4.32)

Une des principales utilisations de la fonction d’erreur se rencontre en statistique pour l’étude des variables aléatoires gaussiennes 1 . Soit une variable aléatoire dont la fonction de distribution est :   x2 1 exp − 2 , (4.33) ρ(x) = √ 2σ 2πσ ce qui signifie que la probabilité dP d’obtenir dans une mesure de x, une valeur comprise entre x et x + dx (dx → 0), est : dP = ρ(x)dx. Ainsi la probabilité pour que, dans une mesure, la valeur de x soit comprise entre x1 et x2 est :   x2 1 x2 P (x1 < x < x2 ) = √ exp − 2 dx. 2σ 2πσ √ En posant x = 2σu, on obtient ;

x1

     x2 x1 1 P (x1 < x < x2 ) = erf √ − erf √ . 2 2σ 2σ

(4.34)

Notons que les valeurs de erf (x) peuvent s’obtenir par intégration numérique à partir de la définition (4.29) et qu’elles sont tabulées 2 pour 0 ≤ x ≤ 2.

4.6.2. Développement asymptotique de la fonction d’erreur Lorsque x  1, erf (x) est très proche de l’unité (cf. figure 4.2). Il est cependant intéressant d’obtenir une valeur approchée de la fonction complémentaire erfc (x) définie par : erfc (x) = 1 − erf (x).

(4.35)

1. cf. E. Belorizky et W. Gorecki, Introduction à la mécanique statistique (Presses Universitaires de Grenoble, 1992). 2. cf. M. Abramovitz et I.A. Stegun, Handbook of Mathematical Functions (Dover Publications, New York, 1970).

4 − Fonctions spéciales

118

D’après (4.32) on a :

∞ −v √ 1 e √ dv, erf ( t) = erf (∞) − √ π v t

d’où

√ √ 1 erfc ( t) = 1 − erf ( t) = √ π

∞

e−v √ dv. v

t

En intégrant n + 1 fois par parties l’intégrale précédente, on obtient : ⎡ ⎤ ∞ −v −t √ e e 1 1 erfc ( t) = √ ⎣ √ − dv ⎦ π 2 v 3/2 t t ⎡ ⎤ ∞ −v −t −t e e 1 1·3 1e = √ ⎣ √ − 3/2 + 2 dv ⎦ π 2t 2 v 5/2 t t   e−t 1·3 1·3·5 1 n 1 · 3 · . . . (2n − 1) = √ −+ − + . . . + (−1) 1− 2t (2t)2 (2t)3 (2t)n πt ∞  1 · 3 · . . . (2n + 1) e−v √ n+1 +(−1)n+1 dv. n+3/2 π2 v t

On en déduit que, pour x > 0 :

& % n 2 e−x

(2k)! erfc (x) = √ (−1)k + rn (x) k!(4x2 )k πx

(4.36)

k=0

avec

n+1 (2n

rn (x) = (−1)

+ 1)! √ πn!22n

∞

2

e−u du. u2n+2

x

En effet, et

(2n)! 1 · 2 · 3 · . . . (2n − 1)(2n) = 2 · 4 · . . . (2n) n!2n (2n + 1)! 1 · 3 · . . . (2n + 1) = . n!2n

1 · 3 · . . . (2n − 1) =

Pour x assez grand, rn (x) est de l’ordre de exp(−x2 )/x2n+3 . On peut donc écrire le développement asymptotique de erfc (x) sous la forme : % n  & −x2

1 (2k)! e k erfc (x) = 1 − erf (x) ∼ (−1) +O , (4.37) =√ πx k!(2x)2k x2n+2 k=0

soit, en se limitant aux premiers termes :  2  e−x 3 1 erfc (x) ∼ 1− 2 + 4 . =√ πx 2x 4x

(4.38)

Si x est assez grand, on peut même se limiter au premier terme et : 2

e−x erfc (x) ∼ =√ . πx

(4.39)

4.7 − Exercices

119

√ Par exemple, en considérant que erfc (10) ∼ = e−100 /(10 π) = 2, 10 × 10−45, on ne fait qu’une erreur de l’ordre de 0,5%.

4.7. Exercices ∞ xm exp(−xn )dx,

Exercice 4.1. Calculer

(m > −1, n > 0).

0

∞ Exercice 4.2. Calculer

exp(2ax − x2 )dx.

a

π/2 π/2 n Exercice 4.3. Montrer que (sin θ) dθ = (cos θ)n dθ et calculer ces intégrales. 0

0

π/2 Exercice 4.4. Calculer (tan θ)n dθ pour |n| < 1. 0

Exercice 4.5. Exprimer chacune des intégrales ci-dessous en termes de fonctions bêta, gamma (ou factorielle) : 1 # 1. 0

1 −1 x

$1/4

1 2.

[ln(1/x)]

dx ;

a−1

dx,

(a > 0) ;

0

b 3.

(b − x)m−1 (x − a)n−1 dx,

(b > a, m > 0, n > 0) ;

a

1 4.

xm (1 − xn )p dx,

(m > −1, p > −1, n > 0) ;

0

1 5. I = 0

dx  , (1 − xn )

(n > 0) ;

donner I numériquement pour n = 4 sachant que (1/4)! = 0, 9064. ∞ dt √ 6. I = . t(1 + t) 0

4 − Fonctions spéciales

120

Exercice 4.6. Calculer la surface délimitée par la courbe x4 + y 4 = 1.     Exercice 4.7. Calculer − 21 + x ! − 12 − x ! (x non demi-entier). Exercice 4.8. π 1. Calculer I =

dθ sin2l+1 θ avec l entier > 0.

0

On exprimera le résultat à l’aide de factorielles de nombres entiers. 2. Application : on considère la fonction : Cl (θ, ϕ) = A sinl θ cos(lϕ) définie sur la sphère unité. Calculer la constante A pour que cette fonction soit normée, c’est-à-dire que :  dΩ[Cl (θ, ϕ)]2 = 1 sphère unité

où dΩ est un élément d’angle solide. Exercice 4.9. ∞ On considère l’intégrale I(p, q) =

exp(−xp )xq dx avec p et q réels. 0

1. Dans quels domaines de valeurs de p et q cette intégrale converge-t-elle ? 2. Calculer I(p, q) à l’aide de la fonction factorielle pour chaque domaine de convergence. 3. Donner numériquement I(3, 1/2) et I(−3, −5/2). 4. Démontrer que si p et q appartiennent au même domaine de convergence, on a I(p, q) = I(−p, −q, −2). Exercice 4.10. ∞ On considère l’intégrale : K =

xα (1 + x)β dx avec α et β réels. 0

1. Pour quelles valeurs de α et β converge-t-elle ? 2. Poser x = tan2 φ et calculer K à l’aide de fonctions factorielles. 3. Donner K numériquement pour α = −1/2, β = −2. ∞ 4. On considère l’intégrale : I = 0

cosh(2αφ) dφ avec β > 0, |α| + (β/2) > 0. (cosh φ)β

4.7 − Exercices

121

Mettre I sous la forme I = I1 + I2 , faire les changements de variable x = e2φ pour I1 et x = e−2φ pour I2 et montrer que l’intégrale I est du type K vu plus haut. 5. Calculer I à l’aide des fonctions factorielles. Evaluer I numériquement pour α = 1/2, β = 2. x Exercice 4.11. Calculer, par intégration par parties, intégrale I =

erf (t)dt. 0

Exercice 4.12. ∞ 1. Exprimer intégrale I(x) =

2

u2 e−u du à l’aide de la fonction d’erreur.

x

2. Donner le comportement asymptotique de I(x). 3. Donner une expression approchée de I(x) en se bornant au 1er terme du développement asymptotique de erfc (x). 4. Pour un gaz constitué de molécules de masse m à la température absolue T , la théorie cinétique montre que la fonction de distribution de la vitesse absolue V des molécules est donnée par la formule de Maxwell :   m 3/2 mV 2 ρ(V ) = 4πV 2 exp − 2πkT 2kT où k est la constante de Boltzmann k = R/NA (R, constante des gaz parfaits R = 8, 32 J . K−1 mole−1 ; NA , nombre d’Avogadro NA = 6, 02 × 1023 ). A l’aide des résultats précédents, déterminer la proportion P des molécules qui ont une vitesse V > V0 . 5. Pour l’hydrogène moléculaire (masse molaire = 2×10−3 kg), quelle est la proportion de molécules ayant une vitesse supérieure à 1 km . s−1 à température ordinaire (T = 300 K). Même question pour l’oxygène moléculaire (masse molaire = 32 × 10−3 kg). Exercice 4.13. Montrer que :

erf (x) =

2 π

∞ 0

2

e−u

sin(2xu) du. u

7KLVSDJHLQWHQWLRQDOO\OHIWEODQN

Chapitre 5 La transformation de Laplace

La transformation de Laplace est à la base de ce que l’on désigne par calcul opérationnel ou encore calcul symbolique. Il s’agit d’une méthode puissante pour résoudre une assez grande variété d’équations différentielles qui interviennent en mécanique et dans les circuits électriques. De plus, c’est une excellente introduction à la transformation de Fourier qui est encore plus utilisée et qui fera l’objet du chapitre suivant.

5.1. Définition. Original et image Soit une fonction f (x) de la variable réelle x, nulle pour x < 0. On définit la transformée de Laplace de f (x) par la fonction F (p) de la variable complexe p donnée par l’intégrale : ∞ F (p) =

f (x)e−px dx = T.L.f (x).

(5.1)

0

F (p) est l’image de l’original f (x). La fonction f (x) est supposée continue par morceaux, c’est-à-dire que dans chaque intervalle fini elle possède un√nombre fini de discontinuités. La fonction f (x) peut être infinie en certains points (1/ x a une image, mais 1/x n’en a pas du fait de la divergence de l’intégrale (5.1) lorsque x → 0) et elle ne doit pas croître plus vite qu’une exponentielle lorsque x → ∞. Si |f (x)| < Ceax pour x > M > 0, l’intégrale (5.1) converge à l’infini si la partie réelle de p, Ré p > a ; en effet :





∞

f (x)e−px dx < C exp [(a − Ré p)x] dx



M

M

où le second membre de cette inégalité est fini.

5 − La transformation de Laplace

124

La fonction F (p) ainsi obtenue est analytique et régulière dans cette région (dérivable dans le plan complexe). Ainsi, l’image de cos x (c’est-à-dire de la fonction égale à cos x pour x > 0, nulle pour x < 0) est régulière pour Ré p > 0 ; ex a une image régulière 2 2 pour Ré p > 1 ; ex n’admet pas de transformée de Laplace alors que e−x admet une transformée régulière dans tout le plan complexe. Une propriété importante de la transformation est la linéarité : si C1 et C2 sont des coefficients complexes quelconques : T.L.(C1 f1 + C2 f2 ) = C1 T.L.f1 + C2 T.L.f2 .

(5.2)

Si f (x) est réelle, F (p) l’est aussi pour p réel. On montre que la correspondance original → image est biunivoque. Deux originaux différents ne peuvent pas avoir la même image. Réciproquement, si f (x) et g(x) ont la même image F (p), ces fonctions sont identiques (théorème d’unicité). Notons enfin, que si Ré p → ∞, pour x fixe > 0, e−px → 0 donc F (p = ∞) = 0, alors que si p → 0, avec Ré p > 0, ∞ lim F (p) = f (x) dx. p→0

0

Dans la plupart des applications qui vont suivre on pourra prendre p réel.

5.2. Image d’un monôme Considérons d’abord l’image de la fonction H(x) définie par :  1 pour x ≥ 0 H(x) = 0 pour x < 0; c’est la fonction unité de Heaviside (figure 5.l.) ou échelon unité introduite au § 3.12.3. On a : ∞ T.L.H(x) = F (p) = 0



1 1 e−px dx =

− e−px

= . p p 0

(5.3)

y = H(x) 1

0

x

Figure 5.1 – Fonction unité de Heaviside H(x).

Pour toutes les fonctions envisagées dans la suite on sous-entend que l’échelon unité est en facteur, afin que les fonctions soient nulles pour x < 0. L’image d’un monôme

5.3 − Images des fonctions exponentielle et trigonométriques

125

f (x) = xα avec α réel existe si α > −1 et bien sûr Ré p > 0 afin d’assurer la convergence de l’intégrale (5.1) en x = 0 et x = ∞ respectivement. On a alors, d’après l’équation (4.5), ∞ F (p) =

e−px xα dx =

0

α! pα+1

.

(5.4)

En particulier si α = n où n est un nombre entier ≥ 0, F (p) = n!/pn+1 . Il est alors aisé d’avoir l’image d’un polynôme ; si n

f (x) =

Ck xk ,

k=0

on a : k! 1

Ck k . p p n

F (p) =

(5.5)

k=0

5.3. Images des fonctions exponentielle et trigonométriques La transformée de Laplace de la fonction eαx avec α réel converge pour Ré p > α et l’on a : T.L.eαx =

1 . p−α

(5.6)

Les transformées de Laplace des fonctions cos αx et sin αx avec α réel convergent pour Ré p > 0 et l’on a, d’après la propriété de linéarité (5.2) :    1 1 1 1 iαx −iαx T.L.e + = T.L. cos αx = + T.L.e , 2 2 p − iα p + iα d’où : T.L. cos αx =

p . p2 + α2

(5.7)

α ; + α2

(5.8)

De même, on établit facilement que : T.L. sin αx = T.L. cosh αx =

p2

p ; − α2

p2

T.L. sinh αx =

p2

α . − α2

(5.9)

5 − La transformation de Laplace

126

5.4. Les correspondances opératoires Un opérateur linéaire agissant sur une fonction f (x) entraîne l’existence d’un opérateur linéaire agissant sur la fonction F (p). Ainsi, si : g(x) = αf (x),

(5.10)

où α est linéaire, il existe un opérateur linéaire A tel que : G(p) = AF (p),

(5.11)

F (p) et G(p) étant les images de f (x) et g(x). La correspondance α → A est une correspondance opératoire. Donnons quelques exemples importants.

5.4.1. Le théorème du déplacement Si F (p) est l’image de f (x), F (p + α) est l’image de e−αx f (x). En effet, ∞

e−px e−αx f (x) dx =

0

∞

e−(p+α)x f (x) dx,

0

donc : T.L.e−αx f (x) = F (p + α).

(5.12)

(On suppose ici que Ré (p + α) > a ; cf. § 5.1). Ce théorème élargit notablement la classe des images pour lesquelles l’original peut être facilement retrouvé. Ainsi, d’après (5.7), (5.8) et (5.12) : p+α , (p + α)2 + a2 a T.L.e−αx sin ax = . (p + α)2 + a2

T.L.e−αx cos ax =

(5.13) (5.14)

5.4.2. La multiplication de la variable par une constante Cherchons l’image de f (λx) où λ est une constante réelle et positive. On a, en posant x = λx : 1 T.L.f (λx) = λ

∞

exp(−px /λ)f (x ) dx ,

0

d’où : T.L.f (λx) =

1 p F . λ λ

(5.15)

5.4 − Les correspondances opératoires

127

5.4.3. La dérivation Partons de la définition (5.1) et dérivons par rapport à p ; nous avons : dF (p) =− dp

∞

xf (x)e−px dx,

0

soit : T.L.xf (x) = −

dF (p) . dp

(5.16)

En poursuivant le processus de dérivation, on obtient : T.L.xn f (x) = (−1)n

dn F (p) . dpn

(5.17)

Considérons maintenant l’image de df /dx, soit : T.L.

df (x) = dx

∞ 0

e−px

df (x) dx. dx

En intégrant par parties, on a :

∞ df (x)

T.L. = f (x)e−px 0 + p dx

∞

f (x)e−px dx.

0



Il est clair que f (0) doit être finie pour que f (x) ait une transformée de Laplace. On trouve ainsi : T.L.

df (x) = pF (p) − f (0). dx

(5.18)

La généralisation aux dérivées d’ordre supérieur se fait par itération à partir de (5.18) : d2 f (x) = p2 F (p) − pf (0) − f  (0), dx2 n−1

dn f (x) n T.L. = p F (p) − pn−1−k f (k) (0). n dx T.L.

(5.19) (5.20)

k=0

Dans le cas particulier où f (0) = f  (0) = . . . f (n−1) (0) = 0, on a simplement : T.L.

dn f (x) = pn F (p). dxn

(5.20 )

En combinant (5.16) et (5.18), on a : T.L.x

df (x) d = − [pF (p)]. dx dp

(5.21)

5 − La transformation de Laplace

128

5.5. Le produit de convolution On appelle produit de convolution de deux fonctions d’une variable réelle, f1 (x) et f2 (x), la fonction g(x) définie par : +∞  f1 (x − x )f2 (x ) dx . g(x) =

(5.22)

−∞

On note g(x) sous la forme : g = f1 ∗ f2 . Si f1 et f2 sont nulles pour x < 0, x g(x) =

f1 (x − x )f2 (x ) dx .

(5.23)

0

Cherchons l’image G(p) de la fonction g(x) ainsi définie : ∞ G(p) =

e

−px

∞ g(x) dx =

0

dx e

−px

0

x

f1 (x − x )f2 (x ) dx .

0

On a une intégrale double étendue au domaine hachuré de la figure 5.2. x

x = x

0

x

Figure 5.2 – Domaine d’intégration pour le produit de convolution.

Changeons l’ordre d’intégration des variables x et x : ∞ G(p) =

dx f2 (x )

0

∞

e−px f1 (x − x ) dx,

x

et effectuons le changement de variable x = x + u : ∞

−px

e

∞



f1 (x − x ) dx =



0

x

∞ d’où :



e−px −pu f1 (u) du = e−px F1 (p),

G(p) = 0



f2 (x )e−px dx F1 (p),

5.6 − Exemples de transformées de Laplace

129

et finalement : G(p) = F1 (p)F2 (p),

(5.24)

F1 (p) et F2 (p) étant les images de f1 (x) et f2 (x). L’image du produit de convolution de deux fonctions est le produit des images de ces deux fonctions. Remarque : Si dans (5.23) on remplace x − x par u, on obtient : 0 g(x) = −

x f1 (u)f2 (x − u) du =

f1 (u)f2 (x − u) du. 0

x

Donc : x







x

f1 (x − x )f2 (x ) dx = 0

f1 (x )f2 (x − x ) dx .

(5.25)

0

Le produit de convolution est donc commutatif vis-à-vis des deux fonctions f1 et f2 . D’une manière générale, on a donc : T.L.f1 ∗ f2 = F1 (p)F2 (p).

(5.26)

Primitive : Particularisons (5.25) et (5.26) au cas où f2 = 1, c’est-à-dire où f2 est l’échelon unité ; d’après (5.3), T.L.f1 ∗ 1 = F1 (p)/p, donc d’une manière générale : x T.L.

f (x ) dx =

0

1 F (p). p

(5.27)

5.6. Exemples de transformées de Laplace Signalons d’abord deux propriétés élémentaires et fort utiles pour la suite : • Si f (x) = 0 pour x < 0, considérons f (x − a) avec a > 0, qui est la fonction f (x) décalée vers la droite ; son image est : ∞ T.L.f (x − a) =

e

−px

∞ f (x − a) dx =

0

e−p(a+u) f (u) du,

0

soit : T.L.f (x − a) = e−pa F (p).

(5.28)

• Si l’original f (x, λ) dépend d’un paramètre λ, il en est de même de son image : T.L. f (x, λ) = F (p, λ) et, en dérivant par rapport à λ, on obtient : ∂f ∂F = . ∂λ ∂λ Considérons les trois fonctions f1 , f2 et f3 représentées sur la figure 5.3. T.L.

(5.29)

5 − La transformation de Laplace

130 f1

f2

f3

1

1

a

0

a

0

x

a

x

0

a

x

Figure 5.3 – Graphe des fonctions f1 , f2 et f3 .

1. La fonction f1 est définie par :



f1 (x) =

0 1

pour x < a pour x > a.

C’est l’échelon unité décalé de a soit H(x − a) ; d’après (5.3) et (5.28) : F1 (p) = T.L.H(x − a) = 2. La fonction f2 est définie par :



1 0

f2 (x) =

e−pa . p

(5.30)

pour 0 < x < a pour x > a.

On a : f2 = 1 − f1 , d’où : F2 (p) =

1 − e−pa . p

(5.31)

3. La « dent de scie » f3 est définie par :  x pour 0 < x < a f3 (x) = 0 pour x > a. a    1 a 1 + On a : T.L.f3 (x) = e−px x dx = −e−pa + 2, p2 p p 0

d’où : F3 (p) =

1 − e−pa ae−pa . − 2 p p

Notons que ce résultat s’obtient également en remarquant que : x f3 (x) = 0

et en utilisant (5.27).

f2 (x ) dx − af1 (x)

(5.32)

5.6 − Exemples de transformées de Laplace

131

Considérons une fonction ϕ(x) nulle en dehors de l’intervalle [0, a]. La fonction f (x) =



ϕ(x − na)

n=0

est périodique, avec une période a (figure 5.4). Son image est, d’après (5.2) et (5.28), en désignant par Φ(p) l’image de ϕ(x) : F (p) =



e−npa Φ(p) =

n=0

Φ(p) . 1 − e−pa

(5.33)

f (x)

Figure 5.4 – Graphe de la fonction ∞  ϕ(x − na). f (x) =

0

n=0

a

2a

3a x

De même la fonction, de période 2a, définie par : g(x) =



(−1)n ϕ(x − na)

n=0

a pour image : G(p) =

Φ(p) . 1 + e−pa

(5.34)

Un exemple important en électricité est la « dent de scie » périodique (figure 5.5). D’ après (5.32) et (5.33), on a : F (p) =

1 1 a e−pa 1 a . − = 2− p2 p 1 − e−pa p p epa − 1

(5.35)

f (x) a

Figure 5.5 – La « dent de scie » périodique.

0

a

2a

3a

x

5 − La transformation de Laplace

132

5.7. La fonction de Dirac et son image La fonction de Dirac ou fonction delta joue un rôle pratique très important comme nous le verrons dans toute la suite de cet ouvrage. Pour l’introduire simplement, considérons la fonction f (x) définie par :  1/a pour 0 < x < a f (x) = 0 pour x > a. Cette  x2 fonction n’est autre que f2 (x)/a étudiée au § 5.6. On a, pour x1 < 0 < a < x2 , f (x) dx = 1 et : x1 T.L.f (x) = F (p) =

1 − e−pa . ap

(5.36)

La fonction de Dirac δ(x) peut être considérée comme la limite quand a → 0 de la fonction f (x), c’est-à-dire la limite d’un rectangle de surface constante égale à l’unité et de largeur a, donc de hauteur 1/a lorsque a → 0 (figure 5.6). Ainsi, on a :  0 si x = 0 δ(x) = (5.37) ∞ si x = 0 avec : x2

+∞  ε δ(x) dx = δ(x) dx = δ(x) dx = 1, −∞

x1

(5.37 )

−ε

où ε est un nombre > 0 aussi petit que l’on veut. L’image de la fonction δ(x) s’obtient en prenant la limite pour a → 0 de F (p) donnée par (5.36). Donc : T.L.δ(x) = 1. f (x)

δ(x)

1/a

0

a

(5.38)

x

−ε 0 ε

x

Figure 5.6 – La fonction δ(x) comme limite d’un rectangle de surface unité.

Pour une fonction f (x) continue en x = 0 on a : x2 x1

+∞  ε f (x)δ(x) dx = f (x)δ(x) dx = f (x)δ(x) dx = f (0) −∞

−ε

(5.39)

5.8 − Applications à la résolution d’équations différentielles

133

car f (0) est la seule contribution aux intégrales (5.39) et peut donc être mise en facteur. Notons que si la fonction δ(x) est intégrable, elle n’est pas dérivable. Par extension, pour x0 = 0, on définit la fonction de Dirac déplacée δ(x − x0 ) par :  0 si x = x0 δ(x − x0 ) = (5.40) ∞ si x = x0 avec : x0 +ε +∞  δ(x − x0 ) dx = δ(x − x0 ) dx = 1. −∞

(5.40 )

x0 −ε

Si f (x) est une fonction continue en x0 , x0 +ε +∞  f (x)δ(x − x0 ) dx = f (x)δ(x − x0 ) dx = f (x0 ). −∞

(5.41)

x0 −ε

Ainsi l’image de δ(x − x0 ) est donnée pour x0 > 0 par : ∞ T.L.δ(x − x0 ) =

e−px δ(x − x0 ) dx = e−px0 ,

(5.42)

0

résultat qui pouvait s’obtenir directement à partir de (5.28) et (5.38). En mécanique il est commode de considérer une force agissant pendant un très bref intervalle de temps (coup de marteau à t = 0) comme une fonction de Dirac. Cette force communique à un point matériel de masse m, une variation d’impulsion ΔP finie. En effet, si F (t) = Aδ(t) où A est une constante, la loi fondamentale de la dynamique s’écrit F (t) = Aδ(t) = dP/dt et, par intégration, on a : ΔP =

+ε Aδ(t) dt = A. −ε

On trouvera en Annexe IV un tableau récapitulatif des transformées de Laplace de fonctions usuelles.

5.8. Applications à la résolution d’équations différentielles Le principe de la méthode est le suivant : soit à résoudre une équation du type : dn−1 x dn x + a + . . . + an x = f (t), 1 dtn dtn−1

(5.43)

5 − La transformation de Laplace

134

où a1 , a2 , . . ., an sont des constantes. On cherche la solution x(t) pour t ≥ 0, avec les conditions initiales x(0) = x (0) = x (0) = x(n−1) (0) = 0 pour t = 0. (Si ces conditions sont différentes, il est souvent possible de s’y ramener en changeant la variable et/ou la fonction et, de toutes les manières, la méthode est encore applicable mais perd un peu de sa simplicité). En prenant l’image de (5.43) et en désignant par x ¯(p) et F (p) les transformées de Laplace de x(t) et f (t), on a, d’après (5.18), l’équation auxiliaire :   n ¯(p) = F (p). (5.44) p + a1 pn−1 + . . . + an x Cela suppose que les images de la solution x(t) de (5.43) et de ses n premières dérivées existent, ce que l’on peut vérifier a posteriori une fois la solution trouvée. A partir de (5.44) ton tire une expression de x ¯(p) et il suffit alors de déterminer son original x(t) pour obtenir la solution cherchée. Cette méthode est souvent plus rapide que la méthode générale exposée aux § 2.18 et 2.19. Donnons quelques exemples simples. 1. Soit à résoudre l’équation (dx/dt) + x = 1 vérifiant la condition initiale x = 0 pour t = 0. Pour t ≥ 0, l’image de Laplace de cette équation est : p¯ x(p) + x ¯(p) = 1/p 1 1 1 = − x¯(p) = p(p + 1) p p+1

d’où :

et en repassant à l’original, d’après (5.3) et (5.6), on obtient la solution cherchée x(t) = 1 − e−t . 2. Soit à déterminer la solution de l’équation (d2 x/dt2 )+4x = sin 3t avec les conditions initiales x(0) = x (0) = 0. La transformation de Laplace conduit à l’équation auxiliaire pour t ≥ 0 : 3 , p2 + 9 3 1 3 3 2 x ¯(p) = 2 =− 2 + (p + 9)(p2 + 4) 5 p + 9 10 p2 + 4 (p2 + 4)¯ x(p) =

d’où :

et en prenant l’original, on a, d’après (5.8) : 3 1 sin 2t. x(t) = − sin 3t + 5 10

5.9. Oscillateur harmonique amorti soumis à une force imposée Considérons une particule de masse m se déplaçant sur un axe Ox, soumise à une force de rappel proportionnelle à sa distance à la position d’équilibre située à l’origine −mω02 x, à une force de frottement proportionnelle à sa vitesse −mβdx/dt, et à une force imposée f (t). L’équation du mouvement s’écrit : m

d2 x dx + f (t) = −mω02 x − mβ 2 dt dt

(5.45)

5.9 − Oscillateur harmonique amorti soumis à une force imposée

135

où ω0 est la pulsation propre de l’oscillateur (pulsation en l’absence de frottement et de force imposée) et β est le coefficient d’ amortissement. L’équation (5.45) s’ écrit encore : d2 x dx f (t) + ω02 x = . +β dt2 dt m

(5.46)

Remarquons qu’il s’agit de la même équation que pour un circuit RLC, soumis à une tension V (t) (cf. équation (2.76)). Plaçons nous dans la situation où f (t) = 0 pour t < 0, et où la particule est initialement au repos à l’origine : x(0) = x (0) = 0. L’équation auxiliaire faisant intervenir l’image x ¯(p) de x(t) s’écrit :   2 F (p) , p + βp + ω02 x¯(p) = m

(5.47)

où F (p) est l’image de f (t). Les deux racines du trinôme p2 + βp + ω02 sont : p1 = −

β + iω0 2

et

p2 = −

β − iω0 2

(5.48)

 avec ω0 = ω02 − β 2 /4 ; ω0 est réel si β < 2ω0 (amortissement inférieur à la valeur critique 2ω0 ). D’après (5.47), on a : x ¯(p) =

F (p) . m(p − p1 )(p − p2 )

(5.49)

Deux cas particuliers sont analysés avant le cas général. • Cas de la percussion La percussion correspond à l’effet d’une force appliquée pendant un temps très court. On peut représenter f (t) à l’aide d’une fonction delta de Dirac et écrire f (t) = mAδ(t) où A est une constante homogène à une vitesse. Dans ces conditions, d’après (5.38), F (p) = mA et (5.49) devient :   A A 1 1 x ¯(p) = = . (5.50) − (p − p1 )(p − p2 ) p1 − p2 p − p1 p − p2 L’original de (5.50) est d’après (5.6) : x(t) =

 A  p1 t A −βt/2 iω0 t p2 t −iω0 t e − e e − e e = 2iω0 2iω0

et, finalement, la solution cherchée s’écrit : x(t) = Ae−βt/2 C’est une fonction périodique amortie.

sin ω0 t . ω0

(5.51)

5 − La transformation de Laplace

136 • Cas d’une force constante

On suppose que f (t) = mB pour t > 0. Donc F (p) = mB/p et, d’après (5.49), x¯(p) = =

B p(p − p1 )(p − p2 )   1 1 1 1 1 1 B − + . p1 p2 p p1 (p2 − p1 ) p − p1 p2 (p2 − p1 ) p − p2

En repassant à l’original et en utilisant les expressions (5.48) de p1 et p2 , on a :    1 1 p1 t 1 1 p2 t x(t) = B + e − e ω2 2iω0 p1 p2   0    ! 1 β 1 1 −βt/2 β  iω0 t  −iω0 t − iω0 e + e + = B − − iω0 e ω02 2iω0 ω02 2 2 soit :

   B β −βt/2   x(t) = 2 1 − e sin ω0 t . cos ω0 t + ω0 2ω0

(5.52)

• Cas général Si l’on a une fonction quelconque f (t) pour t > 0, nulle pour t < 0, mais possédant une image de Laplace F (p) on a, d’après (5.49) :   F (p) 1 1 F (p) = − , x ¯(p) = m(p − p1 )(p − p2 ) m(p1 − p2 ) p − p1 p − p2    1 [T.L.f (t)] T.L. ep1 t − ep2 t . soit x ¯(p) = 2imω0 Ceci correspond à un produit de deux transformées de Laplace dont l’original est donc un produit de convolution conformément à (5.23) et (5.24). Donc : 1 x(t) = 2imω0

t

  f (t − t ) ep1 t − ep2 t dt

0

et la solution s’ écrit : 1 x(t) = mω0

t



f (t − t )e−βt /2 sin ω0 t dt .

(5.53)

0

On vérifie facilement que (5.51) et (5.52) s’obtiennent comme cas particuliers de (5.53) en remplaçant dans cette dernière équation f (t − t ) par mAδ(t − t ) ou mB.

5.10. Exercices Exercice 5.1. Trouver l’image F (p) de la fonction f (x) définie par :  sin x pour 0 ≤ x ≤ π f (x) = 0 pour x ≥ π

5.10 − Exercices

137

Exercice  ∞5.2. Soit F (p) l’image d’une fonction f (t). Calculer, si elle existe, l’intégrale définie 0 F (p) dp. Exercice 5.3. Calculer à l’aide de la transformée de Laplace : ∞ 1. 0

∞

sin t dt t

et 0

sin2 t dt. t2

2. La limite, lorsque λ → ∞, de : +∞  sin2 λt I(λ) = f (t) dt λt2 −∞

où λ est un paramètre réel et f (t) une fonction continue.

Exercice 5.4. Calculer l’intégrale : ∞ I= 0

e−at − e−bt dt. t

Exercice 5.5. 1. Donner la transformée de Laplace de ∞ dt 0

f (t) t

en fonction de p et de l’image F (p) de f (t). p 2. Calculer 0 F (p ) dp et en déduire l’expression de l’image de f (t)/t en fonction de p et F (p). 3. Trouver les images des fonctions g(x) et h(x) définies par : x g(x) = 0

f (t) dt t

∞ et

h(x) =

f (t) dt. t

x

4. On définit deux fonctions importantes, le sinus intégral Si(x) et le cosinus intégral Ci(x) par : x Si(x) = 0

sin t dt t

∞ et

Ci(x) =

Déterminer les images de ces deux fonctions.

x

cos t dt. t

5 − La transformation de Laplace

138

Exercice 5.6. Trouver l’image F (p) de la fonction f (x) = (sin ax)/x (a réel). On calculera dF/dp, puis F (p). Exercice 5.7. Trouver l’image F (p) de la fonction f (x) = [π(x + k)]−1/2 avec k ≥ 0. Le résultat s’exprimera à l’aide de la fonction d’erreur. Exercice 5.8. Calculer la transformée de Laplace F (p) de la fonction d’erreur erf(x). Le résultat s’exprimera à l’aide de erf(p/2). √ Exercice 5.9. Pour déterminer l’image F (p) de la fonction f (x) = (1/ x)e−1/x , effectuer dans l’intégrale de Laplace le changement de variable px = 1/y, calculer √ (d/dp)[ pF (p)] et en déduire une équation différentielle à laquelle obéit F (p). Intégrer cette équation et donner F (p). Exercice 5.10. On cherche la transformée de Laplace F (p) de la fonction √ f (x) = sinh x. Pour cela : 1. Développer f (x) en série et donner le terme général de cette série. 2. Donner F (p) sous forme de développement en série en donnant, là encore, le terme général de la série. 3. Utiliser la relation permettant d’exprimer (n + 1/2)! en fonction de factorielles entières pour simplifier le terme général de la série F (p), sommer la série précédente et donner une forme compacte à F (p) cherchée. 4. Utiliser la même méthode pour obtenir la transformée de Laplace G(p) de la √ fonction g(x) = sin x. √ √ 5. En déduire la transformée de Laplace de la fonction (cos x)/ x.

Exercice 5.11. Trouver les fonctions f1 (x) et f2 (x) dont les transformées de Laplace F1 (p), F2 (p) sont : F1 (p) =

(p − 2)2 ; p(p2 + 4)

F2 (p) =

3p − 20 . p2 − 25

Exercice 5.12. Trouver les fonctions f (x) et g(x) qui ont pour image : F (p) =

1 ; p 4 − a4 )

G(p) =

p . p4 + 4a4

Exercice 5.13. Trouver la fonction f (x) dont l’image est F (p) =

p+3 . p2 + 2p + 10

5.10 − Exercices

139

Exercice 5.14. Déterminer la fonction f1 (t ) telle que : t 0

f1 (t ) √

1 dt = t. t − t

Exercice 5.15. Trouver les fonctions f (x) et g(x) qui ont pour image :   π π 1 et G(p) = . F (p) = p p p−1 Exercice 5.16. Trouver la solution de l’équation différentielle : d2 x dx = t2 , − dt2 dt satisfaisant aux conditions initiales x = 0, dx/dt = 0 pour t = 0. Exercice 5.17. 1. Donner à l’aide de la transformation de Laplace la solution de l’équation différentielle : d2 x = f (t) + δ(t) dt2

(5.54)

telle que, pour t = 0, x = 0, x˙ = dx/dt = 0, où f (t) est une fonction quelconque continue bornée entre 0 et t, et δ(t), la fonction de Dirac. 2. Donner la solution de l’équation différentielle lorsque f (t) = sin t. 3. Vérifier que la solution obtenue est la même que celle de l’équation x ¨ = sin t avec les conditions initiales t = 0, x = 0, x˙ = 1. 4. Montrer plus généralement que l’existence de la fonction δ(t) dans le second membre de l’équation (5.54) revient simplement à changer la condition initiale sur x˙ dans l’équation x¨ = f (t). Exercice 5.18. Une force électromotrice E(t) alimente un circuit avec une résistance R et une self L en série. On va chercher le courant I(t) pour diverses formes de E(t) à l’aide de la transformation de Laplace. 1. On suppose que E(t) est de la forme E(t) = E0 f2 (t) (cf. § 5.6), soit :  0 pour t < 0 et t > T E(t) = E0 pour 0 ≤ t ≤ T. Donner l’image E(p) de E(t). En déduire l’image I(p) de I(t) (I = 0 pour t < 0).

5 − La transformation de Laplace

140 2. Déterminer I(t) pour 0 < t < ∞.

On désignera par f1 (t − a) l’échelon unité pour t > a, c’est-à-dire f1 = 0 pour t < a et f1 = 1 pour t > a, et l’on posera α = R/L. Représenter l’allure de I(t). 3. On suppose que E(t) a la forme périodique suivante pour t > 0 avec un très grand nombre (→ ∞) de créneaux (figure 5.7). E(t) E0

0

T

2T

3T

4T

5T

t

Figure 5.7 – Allure de la fonction « créneau » périodique E(t).

Donner sous la forme la plus simple possible l’image E(p) de E(t). Effectuer ensuite un développement de E(p) en série d’exponentielles e−pnT . 4. En déduire le développement en série de I(p) et donner ensuite I(t) sous la forme d’un développement en série. 5. Donner une forme compacte de I(t) pour N T ≤ t ≤ (N + 1)T , en distinguant le cas où N est pair ou impair. 6. Vers quelles limites tend I(N T ) selon que N est pair ou impair pour N grand ?

Chapitre 6 Analyse de Fourier

Dans ce chapitre nous exposons brièvement les développements en série de Fourier puis l’extension aux intégrales de Fourier (ou transformation de Fourier). Cette technique d’analyse a de multiples applications et elle s’avère indispensable dans de nombreux domaines, en particulier dans la théorie du traitement du signal, dans les problèmes ondulatoires (optique, rayons X) et de manière générale, dans tous les phénomènes de propagation. De plus, il s’agit d’une technique puissante de résolution de certaines équations aux dérivées partielles.

6.1. Séries de Fourier On appelle série trigonométrique une série de la forme : ∞

a0

+ (an cos nx + bn sin nx) 2 n=1

(6.1)

où x est une variable réelle et les coefficients a0 , an et bn de la série sont des constantes. Si la série (6.1) converge, sa somme est une fonction périodique f (x) de période 2π : f (x + 2π) = f (x). Réciproquement, considérons une fonction périodique f (x) de période 2π satisfaisant aux conditions suivantes, dites de Dirichlet : 1. La fonction f (x) est bornée dans l’intervalle [−π, π]. 2. Elle est continue par morceaux dans cet intervalle où elle présente un nombre fini de discontinuités, de maxima et de minima. Dans ces conditions, la fonction f (x) peut être développé sous la forme (6.1) : ∞

f (x) =

a0

+ (an cos nx + bn sin nx) 2 n=1

qui est le développement en série de Fourier de f (x).

(6.2)

6 − Analyse de Fourier

142

En tout point où la fonction f (x) est continue dans l’intervalle considéré , on a identité entre f (x) et la somme s(x) de la série dans le second membre de (6.2). Si en un point x0 de l’intervalle on a une discontinuité de première espèce (discontinuité finie) de la fonction avec f (x0 + ε) = f (x0 − ε), où ε est infiniment petit, la somme s(x0 ) de la série en ce point est donnée par la moyenne arithmétique de f (x0 + ε) et de f (x0 − ε) lorsque ε → 0, c’est-à-dire que : s(x0 ) = lim

ε→0

f (x0 + ε) + f (x0 − ε) . 2

(6.3)

Le calcul des coefficients de la série de Fourier s’effectue de la manière suivante : Le coefficient a0 résulte d’une intégration membre à membre de l’équation (6.2), soit : π π a0 dx = πa0 . f (x)dx = (6.4) 2 −π

−π

Pour obtenir an (n = 0), multiplions les deux membres de l’équation (6.2) par cos nx et intégrons entre −π et +π ; on a : π ∞ π

f (x) cos nx dx = (am cos mx cos nx + bm sin mx cos nx)dx. m=1−π

−π

Mais cos mx cos nx = 12 [cos(m + n)x + cos(n − m)x], donc : 

π cos mx cos nx dx = −π

0 π

si m = n si m = n.

π sin mx cos nx dx = 0

De plus, −π

dans tous les cas, car sin mx cos nx est une fonction impaire de x. Ainsi : π f (x) cos nx dx = πan .

(6.5)

−π

Enfin, pour obtenir bn , multiplions les deux membres de (6.2) par sin nx et intégrons entre −π et π : π ∞ π

f (x) sin nx dx = (am cos mx sin nx + bm sin mx sin nx)dx. m=1−π

−π

Un raisonnement analogue au précédent montre que la seule contribution non nulle dans la série provient du terme m = n : π π 1 − cos 2nx sin nx sin nx dx = dx = π, 2 −π

−π

6.2 − Exemples de développement en série de Fourier

143

d’où : π f (x) sin nx dx = πbn .

(6.6)

−π

En résumé, d’après (6.4), (6.5) et (6.6), pour n entier ≥ 0, on a : an =

1 π

π f (x) cos nx dx ;

bn =

−π

1 π

π f (x) sin nx dx .

(6.7)

−π

Notons que si la fonction f (x) est paire, f (−x) = f (x), les coefficients bn sont nuls ; au contraire, si la fonction f (x) est impaire, f (−x) = −f (x), ce sont les coefficients an qui s’annulent. Remarque. Si la fonction f (x) est périodique, avec une période 2π, le développement en série de Fourier (6.2) est valable pour toutes les valeurs de x de −∞ à +∞ et il représente la fonction en tout point. Si f (x) n’est pas une fonction périodique, le développement (6.2) est encore valable, mais il ne représente la fonction que pour −π < x < π.

6.2. Exemples de développement en série de Fourier 1. Considérons la fonction périodique, de période 2π, f (x) définie par f (x) = x, −π ≤ x ≤ π (figure 6.1). Il s’agit d’une fonction impaire ; les coefficients an sont nuls et, d’après (6.7) : 1 bn = π

π x sin nx dx, −π

y π −π

−3π −4π

−2π



π 0





x

−π

Figure 6.1 – Fonction périodique f (x) = x (−π ≤ x ≤ π).

soit :

π π 2 1

−x cos nx

1 2 bn = + cos nx dx = − cos nπ = (−1)n+1 .

π n nπ n n −π −π

6 − Analyse de Fourier

144

On obtient ainsi le développement en série de la fonction f (x) :   sin 2x sin 3x sin nx + − . . . (−1)n+1 + ... . f (x) = 2 sin x − 2 3 n Cette égalité a lieu partout, sauf aux points de discontinuités. En ces points donnés par x = ±(2m + 1)π, la somme de la série est égale à la moyenne arithmétique des limites de la fonction de part et d’autre de la discontinuité, c’est-à-dire zéro conformément à (6.3). 2. Considérons la fonction « créneau » périodique de période 2π, définie par f (x) = −1 pour −π < x < 0 ; f (x) = 1 pour 0 ≤ x ≤ π (figure 6.2). Il s’agit là encore d’une fonction impaire ; les coefficients an sont nuls, et d’après (6.7) : π 1 (−1) sin nx dx + sin nx dx. π −π 0 ⎧ ⎨ 0 pour n pair 2 (1 − cos nπ) = bn = 4 ⎩ nπ pour n impair. nπ 1 bn = π

Donc :

0

y 1 −3π

−2π

−π

0 −1

π



3π x

Figure 6.2 – Fonction « créneau » périodique.

La série de Fourier de la fonction considérée s’écrit :   sin(2p + 1)x 4 sin 3x sin 5x + + ... + + ... . f (x) = sin x + π 3 5 (2p + 1) Cette égalité est valable partout sauf aux points de discontinuité où conformément à (6.3), on a : f (x) = (−1 + 1)/2 = 0.

6.3. Séries de Fourier des fonctions de période spatiale L ou temporelle T On a souvent affaire à des fonctions f (x) périodiques, mais dont la période est L au lieu de 2π. On peut donc prendre les limites d’une période entre −L/2 et L/2. (Notons que le problème est identique pour une fonction f (t) périodique du temps, de période T ). Bien entendu on suppose que dans l’intervalle [−L/2, L/2], la fonction f (x) obéit aux

6.3 − Séries de Fourier des fonctions de période L ou T

145

conditions de Dirichlet. Il est alors aisé de se ramener au cas précédent en posant q = 2π/L (nombre d’onde) et en prenant une nouvelle variable u = qx. Dans ces conditions, f (x) = ϕ(u)

du = qϕ(u), dx

où ϕ(u) a une période 2π. Ainsi on peut écrire f (x) sous la forme du développement en série de Fourier (6.8) : ∞

f (x) =

A0

+ [An cos nqx + Bn sin nqx] 2 n=1

(6.8)

avec : q An = qan = π

π ϕ(u) cos nu du ;

et

−π

q Bn = qbn = π

π ϕ(u) sin nu du, −π

soit : L/2 

2 An = L

L/2 

2 Bn = L

f (x) cos(nqx) dx ; −L/2

f (x) sin(nqx) dx .

(6.9)

−L/2

Pour une fonction f (t) de période T , on a de même en posant ω = 2π/T (pulsation) et u = ωt : ∞

f (t) =

A0

+ (An cos nωt + Bn sin nωt) 2 n=1

(6.8 )

avec : 2 An = T

T /2 

T /2 

2 Bn = T

f (t) cos(nωt) dt ; −T /2

f (t) sin(nωt) dt .

(6.9 )

−T /2

Exemple : Cherchons le développement en série de Fourier de la fonction périodique de période L définie par f (x) = |x| dans l’intervalle [−L/2, L/2] (figure 6.3). y L/2

−2L −3L/2 −L

−L/2

0

L/2

L

3L/2

2L

5L/2

Figure 6.3 – Fonction f (x) = |x| avec −L/2 ≤ x ≤ L/2).

x

6 − Analyse de Fourier

146

La fonction f (x) considérée étant paire, les coefficients Bn sont nuls et, d’après (6.9) : A0

L/2 

2 L

=

4 |x| dx = L

−L/2

An

0

  2π x cos n x dx L

L/2 

4 L

=

L/2  L x dx = , 2

0



⎤ L/2

   L/2   4 ⎢ L

n2πx

L n2πx ⎥ sin − sin dx⎦ , ⎣

L 2nπ L 2nπ L 0

=

0

soit, pour n = 0 :

 2 L 4 L (cos nπ − 1) = 2 2 [(−1)n − 1] L 2nπ n π ⎧ ⎨ 0 si n est pair = 2L ⎩ − si n est impair. n2 π 2 =

An

D’où : |x| =

     6πx 2πx L 2L 1 − 2 cos + cos + ... 4 π L 9 L    2(2p + 1)πx 1 cos + . . . . + (2p + 1)2 L

6.4. Série de Fourier d’une fonction non périodique Considérons une fonction f (x) non périodique, définie dans l’intervalle [−L/2, L/2] et obéissant aux conditions de Dirichlet. Dans cet intervalle, on peut développer cette fonction en série de Fourier (6.8) avec les coefficients An et Bn donnés par (6.9). Insistons sur le fait que le développement n’est alors valable que dans l’intervalle considéré, alors que pour une fonction périodique, il est valable partout. Supposons maintenant que f (x) soit définie dans l’intervalle [0, L] uniquement. On peut prolonger arbitrairement la fonction dans l’intervalle [−L, 0] (tout en conservant la monotonie par tranches) et utiliser un développement de Fourier de type (6.8) qui, appliqué à l’intervalle [0, L], nous donnera le développement cherché de f (x). Cette procédure s’avère intéressante si l’on prolonge f (x) sur l’intervalle −L ≤ x < 0 de manière à ce que f (x) = f (−x). On obtient alors une fonction paire entre −L et L (figure 6.4a) ; les coefficients Bn sont nuls et les coefficients An sont donnés par : 1 An = L

L f (x) cos −L

nπx L

2 dx = L

L f (x) cos 0

nπx L

dx.

(6.10)

6.5 − Forme complexe du développement y

(a)

147 y

(b) f (x)

f (x) −L

−L

0

0

L x

L x

Figure 6.4 – Prolongement de la fonction f (x) définie entre 0 et L par (a) f (x) = f (−x) et (b) f (x) = −f (−x) entre −L et 0.

De même si l’on prolonge la fonction f (x) pour −L ≤ x < 0 de manière à ce que f (x) = −f (−x) (figure 6.4b) , on obtient une fonction impaire, les coefficients An sont nuls et les coefficients Bn sont donnés par : 1 Bn = L

L f (x) sin

nπx

−L

L

2 dx = L

L f (x) sin 0

nπx L

dx.

(6.11)

En définitive, notre fonction f (x) définie entre 0 et L peut se développer, soit en série de cosinus : ∞ nπx A0

+ , (6.12) f (x) = An cos 2 L n=1 soit en série de sinus : f (x) =



Bn sin

n=1

nπx L

,

(6.13)

où les coefficients An et Bn sont donnés par (6.10) et (6.11). Il faut cependant prendre des précautions aux extrémités 0 et L de l’intervalle. En effet, la fonction périodique de période 2L, qui s’identifie à la fonction f (x) prolongée de manière symétrique ou antisymétrique, doit être continue en chaque point pour que f (x) ait une valeur unique. Sinon le développement en série de Fourier conduit à une valeur donnée par (6.3) en un point de discontinuité.

6.5. Forme complexe du développement Considérons la fonction périodique f (x) de période 2π dont le développement en série de Fourier est donné par (6.2). En remplaçant cos nx et sin nx par leurs expressions en termes d’exponentielles, nous avons : an cos nx + bn sin nx

einx + e−inx einx − e−inx + bn 2 2i inx −inx + c−n e (n ≥ 1) = cn e = an

6 − Analyse de Fourier

148 avec : cn =

an − ibn 2

c−n =

et

an + ibn . 2

(6.14)

En posant c0 = a0 /2, le développement (6.2) s’écrit sous la forme : f (x) = c0 +



 inx  cn e + c−n e−inx , n=0

ou encore sous la forme plus compacte : +∞

f (x) =

cn einx

(6.15)

n=−∞

avec, d’après (6.7) et (6.14) : 1 cn = 2π

π f (x)e

−inx

dx ;

c−n

−π

1 = 2π

π f (x)einx dx.

(6.16)

−π

Ces deux expressions peuvent être regroupées en une formule unique : 1 cn = 2π



f (x)e−inx dx

(n = 0, ±1, ±2, etc.).

(6.16 )

−π

Si la fonction f (x) a pour période L, on a de même, d’après (6.8) et (6.9) : f (x) =

+∞

Cn einqx

(6.17)

f (x)e−inqx dx.

(6.18)

n=−∞

avec q = 2π/L et : 1 Cn = L

L/2 

−L/2

Les expressions de la forme exp[i(2nπ/L)x] sont les harmoniques et les nombres kn = nq = n2π/L (n = 0, ±1, ±2, . . .) sont les nombres d’onde de la fonction f (x) =



Cn eikn x .

n=−∞

L’ensemble des nombres d’onde est le spectre de la fonction. Il s’agit d’un spectre discret ; les coefficients Cn donnés par (6.18) sont les amplitudes complexes. Notons enfin que la fonction f (x) est représentée par une série infinie. Si on limite le nombre de termes dans le second membre de (6.17), on n’obtient qu’une description approchée de f (x), d’autant meilleure que le nombre de termes considérés est plus grand. Pour une fonction f (t) de période T , il suffit de remplacer dans (6.17) et (6.18) L par T et q par ω = 2π/T . On obtient de même les harmoniques exp(inωt) et le spectre de fréquences ωn = nω.

6.6 − Intégrale de Fourier

149

6.6. Intégrale de Fourier Soit une fonction f (x) définie dans tout l’intervalle [−∞, +∞] et absolument intégrable dans cet intervalle, ce qui signifie que l’intégrale : +∞  |f (x)| dx = Q

(6.19)

−∞

existe. Supposons que cette fonction obéisse aux conditions de Dirichlet (fonction bornée, continue par morceaux, avec un nombre fini de discontinuités de première espèce, de maxima et de minima) ; elle est donc développable en série de Fourier dans un intervalle quelconque [−L/2, L/2]. Remplaçons dans (6.17), Cn par son expression (6.18) en introduisant les nombres d’onde kn = nq : ⎞ ⎛ L/2  +∞ 1 ⎜ ⎟ f (x) = f (u)e−ikn u du⎠ eikn x . (6.20) ⎝ L n=−∞ −L/2

Les valeurs de kn sont 0, ±2π/L, ±4π/L, etc. Entre deux valeurs consécutives de kn , on a un intervalle Δkn = 2π/L. Ainsi, (6.20) s’écrit encore : ⎛ ⎞ L/2  +∞

1 ⎜ ⎟ f (u)e−ikn u du⎠ eikn x Δkn . f (x) = ⎝ 2π n=−∞ −L/2

Quand L → ∞ chacune des intégrales entre parenthèses converge. En effet :



L/2 L/2 +∞  



−ikn u f (u)e du |f (u)| du < |f (u)| du = Q. ≤



−L/2

−L/2 −∞ D’autre part, l’intervalle Δkn → 0 lorsque L → ∞ et l’on peut remplacer la sommation sur les kn par une intégrale. Ainsi : ⎛ +∞ ⎞ +∞   1 ⎝ f (x) = f (u)e−iku du⎠ eikx dk. (6.21) 2π −∞

−∞

Posons : 1 F (k) = √ 2π

+∞  f (x)e−ikx dx ;

(6.22)

−∞

on a, d’après (6.21) : 1 f (x) = √ 2π

+∞  F (k)eikx dk. −∞

(6.23)

6 − Analyse de Fourier

150

On dit que F (k) est l’intégrale de Fourier ou la transformée de Fourier de la fonction f (x). On la note F (k) = T.F.f (x). L’expression (6.23) est la transformée de Fourier inverse et se note f (x) = T.F.−1 F (k). Par analogie avec la transformation de Laplace, on dit encore que F (k) est l’image de Fourier de f (x) et que f (x) est l’original de F (k). L’expression (6.23) est valable en tout point de continuité de la fonction f (x). Aux points de discontinuités xi , il convient de remplacer f (xi ) par [f (xi + ε) + f (xi − ε)]/2 où ε → 0, conformément à (6.3). En introduisant les fonctions a(k) et b(k) définies par : 1 a(k) = √ 2π

+∞  f (x) cos kx dx ; −∞

1 b(k) = √ 2π

+∞  f (x) sin kx dx,

(6.24)

−∞

l’équation (6.22) devient : F (k) = a(k) − ib(k),

(6.25)

où a(k) et b(k) sont des fonctions paires et impaires de k respectivement. En substituant l’expression (6.25) de F (k) dans (6.23), on a : 1 f (x) = √ 2π

+∞  [a(k) − ib(k)](cos kx + i sin kx) dk. −∞

Les termes b(k) cos kx et a(k) sin kx ne contribuent pas à l’intégrale (fonctions impaires de k) et finalement :   +∞ 2 [a(k) cos kx + b(k) sin kx] dk. (6.26) f (x) = π 0

Les équations (6.24) et (6.26) sont une autre forme de la transformation de Fourier et de son inversion. Cette forme est surtout utile lorsque f (x) est soit une fonction paire, soit une fonction impaire de x car alors b(k) et a(k) sont respectivement nuls. Exemple 1 : Impulsion rectangulaire Considérons une impulsion de hauteur unité et de durée T définie par la fonction f (t) = 1 si |t| < T /2 et f (t) = 0 si |t| > T /2 (figure 6.5a). Sa transformée de Fourier (ou spectre) F (ω) est donnée par (6.22) ou (6.24) : 1 F (ω) = √ 2π d’où :

 F (ω) =

21 sin πω

T /2 

e

−iωt

−T /2



ωT 2



1 dt = a(ω) = √ 2π

T = √ sin 2π



ωT 2

T /2 

cos ωt dt, −T /2

 +

ωT 2



√ La fonction ( 2π/T )F (ω) est représentée sur la figure 6.5b.

T sin u . =√ 2π u

6.6 − Intégrale de Fourier (a)

151 sin u u 1

(b)

f1 (t) 1

−T /2 0 T /2 t

−π

−3π −2π

0

π



3π u = ωT /2

Figure 6.5 – Impulsion rectangulaire (a) et sa transformée de Fourier (b).

Exemple 2 : Train d’ondes Soit une onde se propageant dans le sens Ox, mais limitée à un intervalle [−a, a] à un instant donné t = 0. On a : f (x) = eik0 x pour |x| < a ;

f (x) = 0 pour |x| > a.

Si a était infini, on aurait une onde plane indéfinie de nombre d’onde k0 . Mais ici, x est limité dans l’espace. Cherchons la transformée de Fourier F (k) de f (x) ; d’après √ (6.23) et (6.22), en posant A(k) = F (k)/ 2π, on a : +∞  A(k)eikx dk f (x) =

(6.27)

−∞

et 1 A(k) = 2π

+∞  f (x)e−ikx dx.

(6.28)

−∞

Le train d’onde f (x) apparaît comme une superposition continue d’ondes planes indéfinies de nombre d’onde k et d’amplitude A(k). D’après (6.28), on a encore : 1 A(k) = 2π

a

ei(k0 −k)x dx

−a

et, en posant Δk = k − k0 , on obtient aisément : A(k) =

a sin(aΔk) . π aΔk

(6.29)

Le graphe de la fonction sin u/u (figure 6.5b) montre qu’elle prend des valeurs négligeables pour |u| > π. Ainsi, dans l’intégrale (6.27), ce sont les valeurs de k voisines de k0 qui jouent un rôle important. Plus précisément ce sont les valeurs de k telles que |k − k0 |a < π qui sont importantes. En mécanique quantique, l’inégalité précédente est directement reliée au fameux principe d’incertitude.

6 − Analyse de Fourier

152

6.7. Les correspondances opératoires La notion de correspondance opératoire est absolument analogue à celle que nous avons considérée dans le cadre de la transformation de Laplace (cf. § 5.4). Si α est un opérateur agissant sur les fonctions de x tel que g(x) = αf (x), il existe un opérateur A agissant sur les fonctions de k tel que : G(k) = AF (k). Ainsi, on obtient très facilement à partir des définitions (6.22) et (6.23) les correspondances opératoires suivantes : g(x) = f (x + a)

G(k) = eika F (k)

(6.30)

g(x) = eik0 x f (x)

G(k) = F (k − k0 ) 1 F (k/λ) (λ réel) G(k) = |λ|

(6.31)

g(x) = f (λx) g(x) =

d f (x) dx

G(k) = ikF (k) d F (k) dk ∗ G(k) = F (−k).

g(x) = xf (x)

G(k) = i



g(x) = f (x)

(6.32) (6.33) (6.34) (6.35)

Démontrons (6.34) à titre d’exemple ; en supposant que xf (x) est absolument intégrable de −∞ à +∞, 1 G(k) = √ 2π

+∞ +∞   i d  −ikx  d −ikx xf (x)e dx = √ f (x) dx = i F (k). e dk dk 2π

−∞

−∞

Notons que, d’après (6.32), T.F. f (−x) = F (−k) ; il en résulte que : – si f (x) est réelle, F (−k) = F ∗ (k) ; – si f (x) est réelle et paire, F (k) l’est aussi ; – si f (x) est réelle et impaire, F (k) est imaginaire pure et impaire. • Produit de convolution Le produit de convolution g(x) de deux fonctions f1 (x) et f2 (x) a été défini au § 5.5. Ici les fonctions f1 (x) et f2 (x) n’étant pas forcément nulles pour x < 0, nous prenons la définition (5.22) : +∞  f1 (x − x )f2 (x ) dx ≡ f1 ∗ f2 . g(x) = −∞

(6.36)

6.7 − Les correspondances opératoires

153

Désignons par F1 (k), F2 (k) et G(k) les transformées de Fourier de f1 (x), f2 (x) et g(x). Par définition, on a : G(k)

=

=

1 √ 2π 1 √ 2π

+∞ +∞   −ikx e dx f1 (x − x )f2 (x ) dx −∞ +∞ 

−∞

e−ikx f1 (x − x )f2 (x ) dxdx .

−∞

Si cette intégrale double existe, on peut la calculer en effectuant le changement de variables x = u + v, x = v. Le jacobien de la transformation est :

∂x ∂x



∂u ∂v

= Det 1 1 = 1. Det

0 1

∂x ∂x

∂u ∂v Donc dxdx = dudv et : 1 G(k) = √ 2π

+∞ 

e−ik(u+v) f1 (u)f2 (v) dudv.

−∞

Nous voyons apparaître F1 (k) et F2 (k) et, finalement : √ G(k) = 2πF1 (k)F2 (k).

(6.37)

• Remarque sur la relation entre les transformées de Laplace et de Fourier Alors que la transformation de Laplace fait correspondre à des fonctions nulles pour x < 0, des fonctions F (p) où p peut être réel ou complexe, la transformation de Fourier associe à une fonction f (x) définie de −∞ à +∞ une fonction F (k) = T.F.f (x) où k est réel. Etablissons d’abord une relation entre les deux transformations, lorsqu’elles existent, dans le cas où f (x) = 0 pour x < 0. La transformée de Laplace de f (x) est : +∞  F (p) = e−px f (x) dx. 0

En particulier, si p = ik avec k réel : √ F (ik) = 2πT.F.f (x).

(6.38)

6 − Analyse de Fourier

154

La transformation de Fourier inverse (6.23) nous permet d’écrire que, pour x > 0, 1 f (x) = 2π

+∞  F (ik)eikx dk.

(6.39)

−∞

Considérons maintenant une fonction f (x) réelle et paire : f (−x) = f (x). On a : ⎡ +∞ ⎤  0 1 T.F.f (x) = √ ⎣ f (x)e−ikx dx + f (x)e−ikx dx⎦ . (6.40) 2π −∞

0

Effectuons dans la seconde intégrale le changement de variables x = −x : 0 f (x)e

−ikx

+∞ +∞     ikx  dx = f (−x )e dx = f (x )eikx dx .

−∞

0

0

On obtient une intégrale qui est la complexe conjuguée de la première intégrale de (6.40). Donc si Ré F désigne la partie réelle de la transformée de Laplace de f (x) pour x > 0 on a :  2 Ré F (p = ik). (6.41) T.F.f (x) = π Cette expression est très utile pour évaluer les transformées de Fourier de nombreuses fonctions paires dont on connaît la transformée de Laplace pour x > 0.

6.8. Exemples de transformées de Fourier Nous allons établir les transformées de Fourier de quelques fonctions usuelles qui interviennent souvent en optique, en mécanique quantique et en physique statistique. • Fonction de Lorentz Calculons l’intégrale +∞  f (x) = e−σ|k| eikx dk −∞

avec σ > 0. On a : +∞  0 −σk ikx f (x) = e e dk + eσk eikx dk = 0

−∞

1 1 2σ . + = 2 σ − ix σ + ix x + σ2

On en déduit, d’après (6.23), que : T.F.

√ 2σ = 2πe−σ|k| . x2 + σ 2

6.8 − Exemples de transformées de Fourier

155

Donc, la transformée de Fourier de la fonction de Lorentz σ/(x2 + σ 2 ) est :  π −σ|k| σ e T.F. 2 = . (6.42) x + σ2 2 En prenant la transformée inverse,  T.F.−1 e−σ|k| =

σ 2 . π x2 + σ 2

(6.43)

• Fonction gaussienne Nous cherchons la transformée de Fourier de la fonction de Gauss :   x2 f (x) = exp − 2 . 2σ Cette fonction obéit à l’équation différentielle : df x = − 2 f (x). dx σ En prenant les transformées de Fourier des deux membres de cette équation, on a, d’après (6.33) et (6.34) : ikF (k) = −

1 dF = −kσ 2 F dk 

soit : et

i dF (k) , σ 2 dk

σ2 k2 F (k) = F (0) exp − 2

 .

Pour déterminer F (0), on remarque avec (6.22) que : 1 F (0) = √ 2π

+∞  f (x) dx, −∞

soit (cf. équation (4.13)) : 1 F (0) = √ 2π Donc :

+∞    x2 exp − 2 dx = σ. 2σ

−∞

    x2 σ2 k2 T.F. exp − 2 = σ exp − . 2σ 2

(6.44)

6 − Analyse de Fourier

156 • Fonction de Dirac

La fonction de Dirac a été définie au § 5.7. Bien que cette fonction ne soit pas bornée (elle ne satisfait pas aux conditions de Dirichlet), on peut utiliser les relations générales (5.39) et (5.41) pour la fonction continue f (x) = exp(ikx) ; dans ces conditions, on peut écrire formellement, d’après (6.22) : 1 √ 2π

+∞  1 δ(x)e−ikx dx = √ = T.F.δ(x), 2π

(6.45)

−∞

+∞  1 1 √ δ(x − x0 )e−ikx dx = √ e−ikx0 = T.F.δ(x − x0 ). 2π 2π

(6.46)

−∞

Nous admettrons sans démonstration que l’on peut prendre la transformation inverse avec, d’après (6.23) : 1 δ(x) = 2π

+∞ +∞   1 ikx e dk = e−ikx dk, 2π

−∞

(6.47)

−∞

puisque δ(x) est réelle et : 1 δ(x − x0 ) = 2π

+∞  eik(x−x0 ) dk.

(6.48)

−∞

Ainsi, la transformée de Fourier d’une fonction constante f (x) = A est : A T.F. A = √ 2π

+∞  √ e−ikx dx = A 2πδ(k).

(6.49)

−∞

Les équations (6.45) et (6.47) sont très utilisées en mécanique quantique.

6.9. Transformée de Fourier des fonctions de plusieurs variables La théorie de la transformation de Fourier des fonctions f (x) d’une variable réelle peut être généralisée au cas des fonctions à plusieurs variables réelles. Nous traiterons le cas des trois variables x, y et z qui sont les coordonnées d’un point M de l’espace. −−→ Désignons par x = OM le vecteur de composantes (x, y, z) et par d3 x = dxdydz l’élément de volume autour du point M. Soit une fonction scalaire réelle f (x, y, z) ≡ f (x) (champ scalaire) ; on définit la transformée de Fourier F (k) ≡ F (kx , ky , kz ) où k est un vecteur quelconque réel de

6.9 − Transformée de Fourier des fonctions de plusieurs variables 157 composantes kx , ky , kz , par : F (k) =

1 (2π)3/2





f (x)e−ik·x d3 x

(6.50)

où l’intégration est étendue à tout l’espace. Cette formule est la simple extension à trois dimensions de (6.22). L’inversion de (6.50) se traite comme dans le § 6.6 et, par analogie avec (6.23), on a :  1  f (x) = (6.51) F (k)eik·x d3k 3/2 (2π) où d3k = dkx dky dkz . Les résultats du § 6.7, se généralisent aisément. Si g(x) = αf (x) où α est un opérateur, on a G(k) = AF (k) où A est un opérateur reliant les images F (k) et G(k) des deux fonctions considérées. On obtient à partir de (6.50) et (6.51) les correspondances opératoires suivantes : g(x) = f (x + a) 

g(x) = eik0 ·x f (x) g(x) = f (λx) ∂ f (x) ∂x g(x) = f (x)

g(x) =

g(x) = xf (x) g(x) = f ∗ (x)

 G(k) = eik·a F (k)

(6.52)

G(k) = F (k − k0 ) 1 G(k) = F (k/λ) (λ réel) |λ|3

(6.53)

G(k) = ikx F (k) 2 G(k) = −k F (k) ∂ F (k) G(k) = i ∂kx G(k) = F ∗ (−k).

(6.55)

(6.54)

(6.55) (6.57) (6.58)

D’après (6.54), T.F. f (−x) = F (−k), et si f (x) est réelle, on a d’après (6.58) : F (k) = F ∗ (−k). • Produit de convolution Le produit de convolution de deux fonctions f1 (x) et f2 (x) se définit de manière analogue à (6.36) :  g(x) = f1 (x − x  )f2 (x  ) d3 x  ≡ f1 ∗ f2 . (6.59) L’extension de (6.37) permet d’écrire : G(x) = T.F. f1 ∗ f2 = (2π)3/2 F1 (k)F2 (k).

(6.60)

La transformation inverse conduit à : f1 ∗ f2 = T.F.−1 (2π)3/2 F1 (k)F2 (k).

(6.61)

6 − Analyse de Fourier

158 • Cas particuliers 1. Si f (x) = f1 (x)f2 (y)f3 (z), F (k) = F1 (kx )F2 (ky )F3 (kz ).

(6.62)

2. Si f (x) ne dépend que de r = |x|, on peut écrire :   (2π)3/2 F (k) = f (r)e−ik·x d3 x. Choisissons Oz parallèle à k et de même sens. On a k · x = kr cos θ, r, θ et ϕ étant les coordonnées sphériques du point x. Ainsi, d3 x = r2 sin θdrdθdϕ et : 3/2

(2π)

∞ F (k) =

2π

2

f (r)r dr 0

π exp(−ikr cos θ) sin θ dθ.

dϕ 0

0

Nous voyons que F (k) est indépendant de la direction de k et ne dépend que de |k| = k. Or : π

1 exp(−ikr cos θ) sin θ dθ =

0

exp(−ikru) du = 2 −1

sin kr , kr

donc :  F (k) =

21 πk

∞ rf (r) sin kr dr.

(6.63)

0

Un exemple important est celui de la transformée de Fourier de la fonction f (r) =

e−λr r

avec λ réel > 0 (potentiel de Yukawa). D’après (6.63) :  F (k) =

21 πk

∞

e−λr sin kr dr

0

soit, d’après l’équation (5.8) :  F (k) = T.F. (e

−λr

/r) =

Notons que si λ → 0 :

 T.F. (1/r) =

1 2 . π λ2 + k 2

2 1 . π k2

(6.64)

(6.65)

6.10 − Exercices

159

3. Terminons par la fonction de Dirac à trois dimensions définie par : δ(x) = δ(x)δ(y)δ(z) ; avec



δ(x − x0 ) = δ(x − x0 )δ(y − y0 )δ(z − z0 ), 

3

f (x)δ(x − x0 ) d3 x = f (x0 ).

f (x)δ(x) d x = f (0) ;

(6.66)

(6.67)

Par analogie avec (6.45), (6.46) et (6.47), on a : T.F. δ(x) = (2π)−3/2 ; 

T.F. δ(x − x0 ) = (2π)−3/2 exp(−ik · x0 ) ; exp(ik · x)d3k = (2π)3 δ(x).

(6.68) (6.69)

Des exemples d’applications des transformées de Fourier de fonctions à une et plusieurs variables seront donnés dans le chapitre suivant consacré à la résolution de quelques équations aux dérivées partielles.

6.10. Exercices Exercice 6.1. Montrer que les fonctions 1/x et sin(1/x) ne sont pas développables en série de Fourier dans un intervalle comprenant la valeur x = 0. Exercice 6.2. Développer en série de Fourier la fonction périodique, de période 2π, définie par f (x) = x2 pour −π ≤ x ≤ π. En déduire la somme des séries ∞

1 2 n n=1

et



(−1)n+1 . n2 n=1

Exercice 6.3. Développer la fonction f (x) = x dans l’intervalle [0, π] en série de cosinus. Exercice 6.4. Calculer la somme de la série ∞

(−1)n (2n + 1) n=0

à partir du développement en série de Fourier de la fonction f (x) = 1 dans l’intervalle [0, π]. Exercice 6.5. Développer la fonction y = sin x, dans l’intervalle [0, π] , en série de cosinus.

6 − Analyse de Fourier

160

Exercice 6.6. Développer la fonction y = cos 2x, dans l’intervalle [0, π], en série de sinus. Exercice 6.7. Développer en série de Fourier la fonction y = ex dans l’intervalle [−L/2, L/2]. Exercice 6.8. Développer en série de Fourier, dans l’intervalle [−π, π], la fonction f (x) = x pour −π < x ≤ 0, f (x) = 2x pour 0 ≤ x ≤ π. Exercice 6.9. Calculer la transformée de Fourier F (k) de la fonction f (x) définie par : f (x) = A(1 − |x|/L) si |x| < L,

f (x) = 0 si |x| > L.

Exercice 6.10. Calculer le module de l’amplitude |F (k)| |A(k)| = √ 2π du train d’ondes défini par f (x) = cos k0 x pour |x| ≤ a = nπ/k0 et f (x) = 0 pour |x| > a. Exercice 6.11. Calculer les transformées de Fourier F (k) et G(k) des fonctions : f (x) =

(x2

x ; + a2 )2

et

g(x) =

(x2

a . + a2 )2

Exercice 6.12. Trouver la transformée de Fourier de la fonction f (x) = x−α si 0 ≤ x < ∞, f (x) = 0 si x < 0 (0 < α < 1). En déduire les valeurs des intégrales : ∞ f (k) =

−α

x

∞ cos kx dx

et

0

g(k) =

x−α sin kx dx.

0

Exercice 6.13. Trouver la transformée de Fourier de la fonction f (x) = A cos ax exp(−α|x|). Exercice 6.14. Soient deux fonctions complexes f (x) et g(x) de la variable réelle x dont les transformées de Fourier sont F (k) et G(k). Démontrer que : +∞ +∞   f ∗ (x)g(x) dx = F ∗ (k)G(k) dk. −∞

Cas particulier où f (x) ≡ g(x).

−∞

6.10 − Exercices

161

Indication : on posera f1 (x) = f ∗ (−x) et on fera apparaître un produit de convolution. Exercice 6.15. Soit une fonction périodique f (x), de période L, développable en série de Fourier selon (6.17) : +∞

f (x) =

Cn einqx

n=−∞

avec q = 2π/L et où Cn est donné par (6.18). 1. Calculer la transformée de Fourier F (k) de cette fonction. 2. Appliquer le résultat à la fonction +∞

f (x) =

δ(x − nL)

n=−∞

(peigne de Dirac). 3. En déduire que, pour une fonction g(x) ayant pour T.F. G(k), on a : +∞

+∞

q g(nL) = √ G(nq) 2π n=−∞ n=−∞

(q = 2π/L).

(6.70)

Exercice 6.16. Calculer, à l’aide de (6.70), la somme S1 =

+∞

n=0

n2

1 . + a2

Exercice 6.17. Calculer la transformée de Fourier de la fonction f (r) = (1/rp ) (1 < p < 3) ; (r = |x|). Cas particulier où p = 2. Exercice 6.18. Calculer la transformée de Fourier de f (r) = exp(−λr). Exercice 6.19. Calculer la transformée de Fourier F (k) de la fonction :  2 1 f (r) = (sin k0 r − k0 r cos k0 r) (k0 > 0). π r3

7KLVSDJHLQWHQWLRQDOO\OHIWEODQN

Chapitre 7 Les équations aux derivées partielles

7.1. Introduction Lorsque le nombre de variables est supérieur à l’unité, une équation différentielle comporte des dérivées partielles par rapport à ces variables. On obtient alors une équation aux dérivées partielles. Pour deux variables x et y, la fonction inconnue z(x, y) obéit à une équation du type :   ∂z ∂z ∂ 2 z ∂ 2 z ∂ 2 z , , 2, , 2 = 0. f x, y, z, (7.1) ∂x ∂y ∂x ∂x∂y ∂y L’équation (7.1) est une équation du 2e ordre car les dérivées partielles d’ordre le plus élevé sont des dérivées secondes. Les équations aux dérivées partielles ne peuvent se résoudre que dans des cas particuliers, dont quelques exemples seront traités ici. Il s’agit des équations linéaires homogènes à coefficients constants et de quelques équations fondamentales dans les sciences physiques : l’équation des cordes vibrantes (ou équation de propagation des ondes), l’équation de diffusion (ou équation de la chaleur), l’équation de Laplace et l’équation de Poisson. A part les premières qui sont très simples, il existe deux méthodes générales de résolution de ces équations : la séparation des variables et le passage à la transformée de Fourier.

7.2. Les équations linéaires homogènes à coefficients constants Limitons nous à une équation du 2e ordre par rapport aux deux variables x et y, la méthode se généralisant aisément aux équations d’ordre plus élevé et à un nombre

164

7 − Les équations aux derivées partielles

supérieur de variables. Nous cherchons à résoudre l’équation : ∂2z ∂2z ∂2z + a2 2 = 0, + a1 2 ∂x ∂x∂y ∂y

(7.2)

où a1 , a2 sont des constantes. Posons p = ∂/∂x et q = ∂/∂y. L’équation (7.2) s’écrit sous la forme :  2  p + a1 pq + a2 q 2 z = 0, (7.3) où le polynôme homogène dans (7.3) peut s’exprimer en produits de binômes : (p − r1 q) (p − r2 q) z = 0,

(7.4)

r1 et r2 étant les racines de l’équation r2 +a1 r+a2 = 0. La formule (7.4) se décompose en deux équations de la forme : (p − ri q) z = 0

(i = 1, 2),

soit : ∂z ∂z − ri = 0. ∂x ∂y

(7.5)

Chaque équation (7.5) est satisfaite par z = fi (y + ri x) où fi est une fonction quelconque dérivable. La solution générale de (7.2) est donc : z = f1 (y + r1 x) + f2 (y + r2 x).

(7.6)

Exemple : Soit à résoudre l’équation : ∂2z ∂2z ∂2z − 2 2 = 0. − 2 ∂x ∂x∂y ∂y L’équation s’écrit sous la forme (p + q)(p − 2q)z = 0, d’où la solution : z = f1 (y − x) + f2 (y + 2x). Remarquons que si r est une racine double, l’équation (7.4) devient : (p − rq)2 z = 0. Dans ces conditions la solution (7.6) est remplacée par : z = f1 (y + rx) + xf2 (y + rx),

(7.7)

comme on peut le vérifier facilement.

7.3. Equation de propagation des ondes Une onde est une fonction s(x, t) qui dépend de la position x et du temps t. A une dimension, l’équation générale de propagation de l’onde s(x, t) s’écrit : ∂2s 1 ∂2s − = 0, ∂x2 V 2 ∂t2

(7.8)

7.3 − Equation de propagation des ondes

165

où V est la vitesse de propagation de l’onde, alors que dans un milieu à trois dimensions s(x, t) obéit à l’équation : 1 ∂2s = 0, V 2 ∂t2 où Δs est le Laplacien de s. En coordonnées cartésiennes, on a : Δs −

Δs =

(7.9)

∂2s ∂2s ∂2s + 2+ 2. 2 ∂x ∂y ∂z

(7.10)

Les équations (7.8) et (7.9) sont des équations fondamentales qui interviennent dans la propagation des ondes électromagnétiques (équations de Maxwell), des ondes acoustiques, des vibrations transversales d’une corde, des vibrations longitudinales d’une tige, des oscillations de courant électrique dans un conducteur, etc.

7.3.1. Milieu infini à une dimension Considérons une onde s(x, t) qui se propage selon un axe x avec la vitesse V > 0 sans déformation. Une « photographie » du profil de l’onde à t = 0 conduit à une fonction s(x, 0) = f (x). Au bout d’un temps t > 0, l’onde se sera déplacée sans se déformer de V t. Choisissons une nouvelle origine au point d’abscisse V t ; on a x = X + V t (figure 7.1). Une « photographie » du profil de l’onde à l’instant t donnera une fonction s(x, t) = f (X) ≡ f (x) où f (X) est identique à f (x). Par rapport à l’ancienne origine, on a s(x, t) = f (x − V t). s

f (x) Figure 7.1 – Onde se propageant sans déformation selon Ox.

f (X)

Vt

x

O X

Il est facile de vérifier que la fonction f (x − V t) obéit à l’équation (7.8). Réciproquement, cherchons la solution générale de (7.8). Nous disposons de plusieurs méthodes. La plus simple consiste à effectuer les changements de variables λ = x−V t, μ = x+V t. Dans ces conditions s devient une fonction s(λ, μ). On a :  2  ∂2s ∂ s ∂2s ∂2s ∂2s ∂ 2s ∂2s ∂2s 2 , = + +2 =V + −2 ∂x2 ∂λ2 ∂μ2 ∂λ∂μ ∂t2 ∂λ2 ∂μ2 ∂λ∂μ et (7.8) devient : ∂ 2 s/∂λ∂μ = 0. Donc ∂s/∂λ = a(λ),  s(λ, μ) = a(λ) dλ + g(μ) = f (λ) + g(μ), où f et g sont des fonctions quelconques. En revenant aux anciennes variables, on obtient la solution générale de (7.8) : s(x, t) = f (x − V t) + g(x + V t).

(7.11)

7 − Les équations aux derivées partielles

166

Dans cette expression f (x − V t) représente, comme nous l’avons vu, une onde se propageant sans déformation vers la droite avec la vitesse V , et g(x + V t) représente une onde qui se déplace vers la gauche à la même vitesse. Nous aurions pu obtenir le résultat (7.11) directement à partir des résultats généraux du § 7.2. En effet, en posant y = V t, (7.8) s’écrit : ∂2s ∂2s − =0 ∂x2 ∂y 2 qui est du type (7.2) avec a1 = 0 et a2 = −1. On a r1 = −1, r2 = 1, et la solution (7.6) s’écrit sous la forme (7.11). Une autre méthode, moins directe mais très générale, consiste à prendre la transformée de Fourier de l’équation (7.8) : 1 S(k, t) = √ 2π On a ainsi : d’où :

+∞  s(x, t) exp(−ikx) dx. −∞

1 ∂ 2 S(k, t) = 0, V2 ∂t2 S(k, t) = f (k) exp(−ikV t) + g(k) exp(ikV t). − k 2 S(k, t) −

Si f (x) et g(x) sont les transformées de Fourier inverses des fonctions f (k) et g(k), on a, d’après l’équation (6.30) : s(x, t) = f (x − V t) + g(x + V t).

7.3.2. Milieu fini à une dimension. Equation des cordes vibrantes Soit une corde flexible et élastique de longueur L, fixée à ses deux extrémités et qui, à l’équilibre, est dirigée selon l’axe Ox. Ecartons la corde de sa position d’équilibre en imprimant à ses points un certain déplacement et une certaine vitesse ; lorsqu’on relâche la corde, celle-ci est animée d’un mouvement et l’on dit qu’elle vibre. Nous cherchons alors à déterminer le mouvement de chacun de ses points au cours du temps. Nous ne considérons que les petits écarts des points de la corde par rapport à sa position d’équilibre et on peut admettre que le mouvement des points s’effectue perpendiculairement à l’axe Ox et dans un même plan. Ainsi, le mouvement de la corde est décrit par une seule fonction u(x, t) qui donne le déplacement d’un point d’abscisse x à l’instant t (figure 7.2a). Comme nous ne considérons que de petits écarts de la corde dans le plan (u, x), la longueur de l’élément M1 M2 est pratiquement égale à x2 − x1 . Nous supposons également que la tension T , tangente au profil de la corde, a la même valeur absolue T en tout point de la corde. Les tangentes aux points M et M’ d’abscisses x et x + Δx forment avec l’axe Ox des angles ϕ et ϕ + Δϕ (figure 7.2b). La projection sur l’axe Ou des forces agissant sur l’élément MM’ est égale à T sin(ϕ + Δϕ) − T sin ϕ.

7.3 − Equation de propagation des ondes (a) u

O

u

(b) M u(x, t) x

M1

167

M M2 T (x)

x1 x2

L x

M’

T (x + Δx) ϕ + Δϕ

ϕ O

x x + Δx

L x

Figure 7.2 – Corde vibrante.

Mais les angles ϕ étant petits, on a ∂u/∂x = tan ϕ  sin ϕ. Ainsi, en se limitant à un développement au 1er ordre en Δx,   ∂u(x + Δx, t) ∂u(x, t) ∂ 2 u(x, t) T sin(ϕ + Δϕ) − T sin ϕ  T − Δx. T ∂x ∂x ∂x2 Pour obtenir l’équation du mouvement, il faut égaler à la force d’inertie les forces extérieures appliquées à l’élément MM’. Soit ρ la densité linéaire de la corde, la masse de l’élément MM’ est ρΔx alors que son accélération est ∂ 2 u/∂t2 . La loi fondamentale de la dynamique s’écrit donc ρΔx(∂ 2 u/∂t2 ) = T Δx(∂ 2 u/∂x2 ) et, finalement, on obtient l’équation du mouvement : ∂2u 1 ∂2u − = 0, ∂x2 V 2 ∂t2 avec V 2 = T /ρ. On retrouve l’équation de propagation des ondes (7.8).

(7.12)

Nous nous proposons de résoudre (7.12) avec les conditions initiales suivantes : u(0, t) = 0 ;

u(L, t) = 0 ;

∂u(x, t)

= ϕ(x). ∂t t=0

u(x, 0) = f (x) ;

(7.13) (7.14)

Les équations (7.13) expriment que la corde est fixée aux deux extrémités et les équations (7.14) expriment le profil de la corde et la vitesse de chaque point à l’instant initial, donnés par f (x) et ϕ(x) respectivement. Cherchons une solution de (7.12) sous la forme : u(x, t) = X(x)T (t) = 0.

(7.15)

(Une solution nulle correspondrait à une corde en équilibre au repos à chaque instant). Substituons (7.15) dans (7.12) et divisons par X(x)T (t) : X  (x) 1 T  (t) = = −k 2 . V 2 T (t) X(x)

(7.16)

En effet, le premier membre de (7.16) ne dépend que de t et le second ne dépend que de x. Ces deux membres sont égaux à une constante C que nous écrivons C = −k 2 . (Nous verrons par la suite que C doit être négatif pour satisfaire aux conditions initiales). On a donc : X  + k 2 X = 0 soit :

et

T  + k 2 V 2 T = 0,

X(x) = A cos kx + B sin kx, T (t) = C cos kV t + D sin kV t.

7 − Les équations aux derivées partielles

168

Les conditions (7.13) imposent A = 0, kL = nπ (n entier > 0). La valeur n = 0 conduirait à X(x) = 0, donc u(x, t) = 0, ce qui est exclu par hypothèse. Remarquons que si l’on avait pris C = k 2 > 0, on aurait des solutions du type X(x) = A cosh kx + B sinh kx et que les conditions (7.13) ne pourraient pas être simultanément satisfaites. Pour chaque valeur de n on a une solution Xn (x) = Bn sin(nπx/L). Connaissant les valeurs kn = nπ/L, les solutions de (7.12) s’écrivent :     nπx  nπV t nπV t un (x, t) = sin Cn cos + Dn sin , L L L où la constante Bn est incluse dans Cn et Dn . Comme l’équation (7.12) est linéaire, la solution générale satisfaisant à (7.13) s’écrit u(x, t) =



un (x, t),

n=1

soit : u(x, t) =



n=1

sin

nπx  L

 Cn cos

nπV t L



 + Dn sin

nπV t L

 .

(7.17)

Cette solution doit encore obéir aux conditions (7.14). Si la série (7.17) converge ainsi que la série obtenue par dérivation par rapport au temps, on doit avoir : ∞ nπx

= f (x), (7.18) Cn sin L n=1 ∞

Dn

n=1

nπx nπV sin = ϕ(x). L L

(7.19)

On reconnaît les développements en série de sinus des fonctions f (x) et ϕ(x) entre 0 et L (cf. l’équation (6.13)). Les coefficients Cn et Dn sont alors donnés par l’équation (6.11), soit : 2 Cn = L

L f (x) sin 0

2 Dn = nπV

nπx L

L ϕ(x) sin 0

dx,

nπx L

(7.20)

dx.

(7.21)

En conclusion, la série (7.17), dont les coefficients sont donnés par (7.20) et (7.21), représente la solution de (7.12) qui obéit aux conditions initiales (7.13) et (7.14). Insistons sur l’impérieuse nécessité de considérer dans (7.17) tous les termes de n = 1 à n = ∞ afin d’avoir un développement complet et de pouvoir déterminer les coefficients Cn et Dn à partir des formules de Fourier. Notons que dans le cas important où la corde est immobile (mais déplacée) à l’instant initial, ϕ(x) = 0 et la solution (7.17) se simplifie car les coefficients Dn sont nuls.

7.3 − Equation de propagation des ondes

169

7.3.3. Equation de propagation à trois dimensions Il s’agit de résoudre l’équation (7.9). Cette équation possède une grande variété de solutions. En pratique on ne doit la résoudre que dans des conditions particulières. Nous citerons quelques exemples : • Ondes planes Dans un milieu infini, il existe des solutions en ondes planes, c’est-à-dire telles que s(x, y, z, t) ait à un instant t donné une valeur constante dans tout plan normal à une direction n caractérisée par ses cosinus directeurs p, q, r. L’équation de ces plans est donc x · n = C, où x est un point courant du plan. Il est clair que toute fonction du type : f (x · n ∓ V t) = f (px + qy + rz ∓ V t)

(7.22)

est solution de l’équation (7.9). En fait, (7.22) est la simple généralisation de (7.11) dans le cas d’une onde plane se propageant à la vitesse ±V , selon une direction définie par n au lieu de Ox. • Ondes sphériques Si l’onde est issue d’une source ponctuelle située à l’origine (ou converge vers ce point), et si l’espace est isotrope, l’état vibratoire en un point M quelconque ne dépend que de sa distance r = (x2 + y 2 + z 2 )1/2 à la source. La solution de (7.9) s’écrira sous la forme s(r, t). En passant en coordonnées sphériques, d’après l’expression (1.25), l’équation de propagation s’écrit :   1 ∂2s 1 ∂ 2 ∂s (7.23) r − 2 2 = 0. 2 r ∂r ∂r V ∂t Posons s(r, t) = f (r, t)/r ; (7.23) devient, après multiplication par r : ∂2f 1 ∂2f − 2 2 = 0. 2 ∂r V ∂t

(7.24)

Donc, f (r, t) obéit à l’équation (7.8), dont la solution générale est donnée par (7.11). Finalement la solution cherchée s’écrit : s(r, t) = f (r − V t)/r + g(r + V t)/r.

(7.25)

Le premier terme représente une onde sphérique divergente issue de la source, se propageant à la vitesse V et le second représente une onde sphérique convergente vers l’origine. L’origine physique du facteur 1/r est la suivante : la densité d’énergie associée à l’onde divergente, par exemple, est proportionnelle au module du carré de son amplitude soit |s(r, t)|2 . Celle-ci est répartie, à un instant t, sur la sphère de rayon r et de surface 4πr2 . Donc r2 |s(r, t)|2 doit être indépendant de r, ce qui implique que le module de s soit proportionnel à 1/r.

7 − Les équations aux derivées partielles

170

• Ondes dans un milieu fini en coordonnées cartésiennes On cherche des solutions de (7.9) où Δs est donné par (7.10) dans le cas où s(x, t) (ou sa dérivée relative à une certaine direction) prend des valeurs constantes connues sur certaines surfaces limitant l’espace. On peut alors décomposer les fonctions s(x, t) en fonctions sinusoïdales du temps et chercher des solutions du type s(x, y, z, t) = s(x, y, z) exp(ikV t). En substituant dans (7.9) on est ramené à l’équation : ∂2s ∂2s ∂2s + + + k2 s = 0 ∂x2 ∂y 2 ∂z 2

ou

s + k 2 s = 0.

(7.26)

On cherche alors des solutions de (7.26) sous la forme s(x, y, z) = X(x)Y (y)Z(z), que l’on désigne par produits de Laplace. Les fonctions X, Y , Z contiennent des constantes arbitraires. Le caractère linéaire des équations (7.9) ou (7.26) montre que ces équations sont satisfaites par toute combinaison linéaire de ces produits de Laplace. Les solutions cherchées sont les combinaisons dans lesquelles les coefficients arbitraires prennent toutes les valeurs compatibles avec les conditions aux limites. En substituant le produit de Laplace dans (7.26) et après division XY Z, on a : 1 d2 X 1 d2 Y 1 d2 Z + + + k 2 = 0. 2 2 X dx Y dy Z dz 2

(7.27)

Les trois premiers termes de (7.27) ne dépendent que de x, y et z respectivement. Chacun de ces termes doit être constant soit : X  + p2 X = 0 ;

Y  + q 2 Y = 0 ;

Z  + r2 Z = 0.

Les constantes arbitraires p, q et r sont des nombres quelconques réels ou complexes devant seulement satisfaire à la condition p2 + q 2 + r2 = k 2 . Ainsi : X = A1 cos px + B1 sin px, Y = A2 cos qy + B2 sin qy, Z = A3 cos rz + B3 sin rz.

(7.28)

Les conditions aux limites imposent aux nombres p, q et r d’autres restrictions. La solution cherchée est la somme des produits de Laplace remplissant toutes les conditions imposées. Exemple : Champ électrique dans un guide d’ondes Le champ électrique d’une onde électromagnétique est perpendiculaire à la direction de l’onde et obéit à l’équation : − E où c est la vitesse de la lumière.

 1 ∂2E = 0, 2 2 c ∂t

7.3 − Equation de propagation des ondes

171

Supposons que cette onde se propage dans le vide, à l’intérieur d’une cavité rectangulaire dont les parois sont métalliques (guide d’ondes). Désignons par b, h, la largeur et la hauteur de la cavité (figure 7.3) et considérons une onde se propageant selon l’axe x de cette cavité. Nous supposons, de plus, que l’onde est polarisée selon Oz (seul Ez = 0) et que ∂Ez /∂z = 0, c’est-à-dire que Ez est indépendant de z. En outre, la composante tangentielle du champ électrique doit être nulle sur une paroi conductrice, ce qui implique que Ez = 0 pour y = 0 et y = b. Cette dernière condition est imposée par les lois de l’électromagnétisme, contrairement aux deux premières qui résultent d’un choix particulier. Nous cherchons donc à résoudre l’équation : Ez −

1 ∂ 2 Ez =0 c2 ∂t2

(7.29)

avec les conditions aux limites précédentes. On aura donc, en posant ω = kc : Ez = X(x)Y (y) exp(iωt), où X(x) et Y (y) sont de la forme (7.28). Mais pour satisfaire aux conditions aux limites en y = 0 et y = b, on doit avoir A2 = 0, qb = nπ, avec p2 + q 2 = k 2 = ω 2 /c2 . Donc :  ω2 n2 π 2 − . (7.30) p=± c2 b2 On a une solution particulière pour chaque valeur de n ≥ 1. Pour qu’il y ait propagation, il faut que p soit réel (sinon l’onde serait amortie avec une amplitude décroissant exponentiellement). Donc pour chaque solution on doit avoir ω > ωc = nπc/b, où ωc est la pulsation de coupure et Ez est donnée par : nπy Ez = (A cos px + B sin px) sin (7.31) eiωt , b où p est donné par (7.30). La solution générale de (7.29) est la somme des solutions particulières (7.31) pour les différentes valeurs de n. On représente sur la figure 7.3 la dépendance de Ez en fonction de y pour le mode fondamental n = 1. z

 E

Figure 7.3 – Mode fondamental d’une onde polarisée selon Oz et se propageant selon Ox.

y

h b O

x

7 − Les équations aux derivées partielles

172

7.4. L’équation de diffusion Considérons un milieu diffusif, c’est-à-dire un milieu dans lequel des particules d’un fluide en mouvement subissent des collisions. Il peut s’agir des molécules d’un gaz ou d’un liquide, des électrons dans un métal, etc. Désignons par n(x, t) le nombre  x, t) la dende particules par unité de volume en un point x au temps t et par J( sité de courant du fluide, c’est-à-dire le nombre de particules traversant une surface unité normale à la vitesse d’écoulement du fluide en ce point, par unité de temps. Le phénomène de diffusion est décrit par la loi de Fick : −−→ J = −D grad n, (7.32) qui exprime que les particules ont tendance à aller des zones à forte concentration vers celles à faible concentration. D est le coefficient de diffusion. A une dimension, on aurait plus simplement Jx = −D∂n/∂x. Par ailleurs, l’équation de conservation du fluide s’écrit d’après l’équation (1.15) : ∂n = 0. (7.33) div J + ∂t En combinant (7.32) et (7.33) on obtient l’équation fondamentale de la diffusion :  2  ∂ n ∂2n ∂2n ∂n = Dn = D + 2 + 2 . (7.34) ∂t ∂x2 ∂y ∂z La conduction de la chaleur dans un matériau s’effectue très souvent grâce à un mécanisme de diffusion. Dans un milieu où il existe un gradient de température, −−→ grad T , la densité de flux de chaleur j est donnée, par analogie avec la loi de Fick (7.32), par la loi de Fourier : −→ j = −κ − grad T, (7.35) où κ est le coefficient de conductibilité thermique. En l’absence de source de chaleur interne, si l’on effectue un bilan thermique dans un volume unité, on obtient une équation de conservation de la chaleur analogue à (7.33) qui s’écrit : ∂ρ = 0, ∂t où ρ(x, t) est la densité d’énergie. Par ailleurs : div j +

(7.36)

∂ρ ∂T ∂T ∂ρ = = Cv , (7.37) ∂t ∂T ∂t ∂t où Cv est la chaleur spécifique du milieu à volume constant et par unité de volume. En combinant (7.35), (7.36) et (7.37), on obtient l’équation de diffusion de la chaleur : ∂T = κT (7.38) ∂t qui a la même forme que (7.34) en prenant D = κ/Cv . Notons qu’en présence de sources de chaleur internes créant une chaleur q uniforme par unité de volume, on a : Cv

Cv

∂T = κT + q. ∂t

(7.39)

7.4 − L’équation de diffusion

173

Remarque : Dans un conducteur métallique soumis à une tension variable, par suite  où de la difusion des électrons, on a selon la loi d’Ohm une densité de courant j = σ E,  le champ électrique à l’intérieur du conducteur. σ est la conductivité électrique et E D’après les équations de Maxwell, en négligeant le courant de déplacement à basse fréquence, on a :  = μσ E

 ∂E , ∂t

ou μ est la perméabilité magnétique du milieu. Le facteur 1/μσ joue le rôle d’un coefficient de diffusion.

7.4.1. Diffusion à une dimension A une dimension l’équation (7.34) se réduit à : ∂2n ∂n = D 2, ∂t ∂x

(7.40)

où n est une fonction n(x, t) à déterminer qui représente le nombre de particules par unité de longueur. Introduisons la transformée de Fourier de n(x, t) : 1 T.F. n(x, t) = F (k, t) = √ 2π On a :

et :

n(x, t) = T.F.

−1

+∞  n(x, t)e−ikx dx. −∞

1 F (k, t) = √ 2π

∂2n T.F. = −k 2 F (k, t) ; ∂x2

+∞  F (k, t)eikx dk −∞

T.F.

∂F ∂n = . ∂t ∂t

L’équation (7.40) devient par transformation de Fourier : ∂F = −Dk 2 F, ∂t soit :

1 ∂F = −Dk 2 F ∂t

et

(7.41)

2

F (k, t) = Ce−Dk t .

Pour t = 0, F (k, 0) = C et : 2

F (k, t) = F (k, 0)e−Dk t .

(7.42)

D’après l’équation (6.44), qui donne la transformée de Fourier d’une fonction gaussienne, en posant σ 2 /2 = Dt, nous voyons que (7.42) s’écrit : # $ 2 e−x /4Dt √ T.F. n(x, t) = T.F. n(x, 0) T.F. . (7.43) 2Dt

7 − Les équations aux derivées partielles

174

On voit apparaître un produit de transformées de Fourier dont la transformée inverse est un produit de convolution. D’après les équations (6.36) et (6.37), la solution de (7.40) est : 1 n(x, t) = √ 4πDt

+∞    (x − x )2 n(x , 0) exp − dx . 4Dt

(7.44)

−∞

Un cas particulier intéressant est celui où, pour t = 0, toutes les particules ont une abscisse x = 0. On a alors n(x, 0) = N δ(x) où N est le nombre total de particules avec : +∞ +∞   n(x, t) dx = n(x, 0) dx = N −∞

−∞

comme il se doit. L’expression (7.44) se simplifie et donne :   x2 N exp − . n(x, t) = √ 4Dt 4πDt

(7.45)

On obtient alors une fonction gaussienne pour n(x, t) que l’on peut représenter pour des temps successifs t = 0, t1 et t2 > t1 (figure 7.4). n(x, t)

t1

t=0

t2 x

O

Figure 7.4 – Nombre de particules par unité de longueur n(x, t), dans un processus diffusif à des temps t1 , t2 > t1 , sachant que pour t = 0, n(x, 0) = N δ(x).

Notons que [n(x, t)/N ] dx représente la probabilité de trouver une particule entre x et x + dx au temps t. Il est alors aisé de calculer le carré moyen de l’abscisse d’une particule au temps t : +∞ 

x2 = −∞

  x2 x2 √ exp − dx = 2Dt, 4Dt 4πDt

(7.46)

où nous avons utilisé l’équation (4.15). Comme nous l’avons expliqué plus haut, la solution (7.44) donne aussi la distribution de température T (x, t) dans une barre infinie si l’on se donne la distribution T (x, 0). Dans le cas d’une barre de longueur finie, avec des conditions aux limites supplémentaires, il est plus indiqué de résoudre l’équation (7.40) par la méthode de séparation des variables, comme nous l’avons fait pour l’équation de propagation.

7.4 − L’équation de diffusion

175

7.4.2. Diffusion à trois dimensions Nous voulons résoudre l’équation (7.34) dans un milieu infini. La procédure est identique au cas précédent. On introduit la transformée de Fourier F (k, t) de la fonction n(x, t) cherchée :  1  F (k, t) = n(x, t)e−ik·x d3 x, (2π)3/2 et l’on obtient, par transformation de Fourier de (7.34) : ∂F (k, t) = −Dk 2 F (k, t) ∂t

avec k 2 ≡ |k|2 .

D’où : 2

F (k, t) = F (k, 0)e−Dk t .

(7.47)

Mais : exp(−Dk 2 t) = = =

exp(−Dkx2 t) exp(−Dky2 t) exp(−Dkz2 t) 1 −x2 /4Dt −y 2 /4Dt −z 2 /4Dt T.F.e T.F.e T.F.e (2Dt)3/2 2 1 T.F.e−|x| /4Dt , 3/2 (2Dt)

où nous avons utilisé la propriété (6.62). Finalement on obtient, par transformée de Fourier inverse de (7.47), le produit de convolution :    1 |x − x |2  n(x, t) = n( x , 0) exp − (7.48) d3 x  , 4Dt (4πDt)3/2 qui est la solution générale de (7.34). Dans le cas particulier où n(x, 0) = N δ(x), à savoir toutes les particules concentrées à l’origine à t = 0, (7.48) devient :   |x|2 N n(x, t) = exp − . 4Dt (4πDt)3/2

(7.49)

Il est facile de vérifier que la relation (7.46) reste valable et l’on en déduit que : l2 = |x|2 = 3x2 = 6Dt. √

(7.50)

l = 6Dt donne un ordre de grandeur de la distance moyenne à l’origine d’une particule, au temps t.

176

7 − Les équations aux derivées partielles

7.5. L’équation de Laplace Il s’agit de l’équation : u = 0,

(7.51)

où u(x, y, z) est une fonction à déterminer que l’on désigne par fonction harmonique ; u peut représenter le potentiel électrostatique V en tout point où la charge est nulle (cf. équation (1.48)). Mais l’équation de Laplace apparaît également comme un cas particulier de l’équation de diffusion (7.34) ou de la chaleur (7.38) pour des systèmes stationnaires, c’est-à-dire lorsque la densité n ou la température T ne dépendent pas du temps, mais uniquement des coordonnées du point considéré. Afin de déterminer de manière univoque la température d’un corps en chacun de ses points, pour lesquels l’équation de Laplace ΔT = 0 est satisfaite, il faut connaître la température de ce corps sur une surface (par exemple, sa surface extérieure). Ainsi la résolution de l’équation de Laplace se ramène à la recherche d’une fonction u(x, y, z) vérifiant (7.51) en tout point M d’un volume V et prenant en chaque point P de la surface S délimitant V des valeurs données, soit u |S = f ( P), f (P) étant une fonction connue. C’est le problème de Dirichlet ou premier problème aux limites pour l’équation (7.51). Si sur la surface du corps la température n’est pas connue, mais si l’on connaît le flux de chaleur en chaque point de la surface caractérisée par sa normale n, on doit avoir :

−→

j · n = −κ − grad T · n = g(P), S

g(P) étant une fonction connue. Le problème de la résolution de (7.51) avec la condition aux limites précédente est le problème de Neumann ou le deuxième problème aux limites pour l’équation de Laplace. Les considérations précédentes s’appliquent à un problème à deux dimensions limité par un contour C, l’une ou l’autre des conditions aux limites devant être satisfaites sur le contour C. La méthode générale utilisée pour résoudre l’équation de Laplace avec les problèmes aux limites est celle de la séparation des variables. En coordonnées cartésiennes x, y, z, le problème est identique à celui de la propagation des ondes dans un milieu fini (équation (7.26)) dans le cas particulier où k = 0. On cherche donc des solutions u(x, y, z) sous la forme de produits de Laplace X(x)Y (y)Z(z), et les constantes arbitraires sont ajustées pour satisfaire aux conditions aux limites.

7.5.1. Coordonnées sphériques Si la surface S délimitant le volume V est sphérique, on se place en coordonnées sphériques r, θ et ϕ et l’on cherche une solution du type R(r)Θ(θ)Φ(ϕ) ; il faut alors utiliser l’expression (1.25) donnant le Laplacien dans ce système de coordonnées. Contentons nous de résoudre l’équation de Laplace dans un volume V limité par deux surfaces sphériques de même centre, de rayons R1 et R2 en supposant que u prend

7.5 − L’équation de Laplace

177

des valeurs constantes u1 et u2 sur ces deux surfaces. Le problème étant isotrope, u ne dépend que de r, soit u = R(r). L’équation de Laplace s’écrit alors :   1 d 2 d R = 0. (7.52) r r2 dr dr Posons R(r) = χ(r)/r. L’équation (7.52) devient (1/r)d2 χ/dr2 = 0 et, puisque r = 0 dans V , χ = 0, χ = C1 r + C2 , R = C1 + C2 /r. Les constantes C1 et C2 sont déterminées par les relations : C2 = u1 ; R1 R1 R2 C2 = (u1 − u2 ) ; R2 − R1

C2 = u2 , R2 u2 R2 − u1 R1 C1 = , R2 − R1

C1 +

d’où :

C1 +

et la solution de l’équation de Laplace est : u=

u2 R2 − u1 R1 u1 − u2 R1 R2 + . R2 − R1 r R2 − R1

(7.53)

7.5.2. Coordonnées cylindriques Si la surface S délimitant le volume V est cylindrique, on se place en coordonnées cylindriques : x = ρ cos ϕ,

y = ρ sin ϕ,

z.

On cherche alors une solution de l’équation de Laplace dans la forme : u(ρ, ϕ, z) = R(ρ)Φ(ϕ)Z(z), en utilisant l’expression du Laplacien en coordonnées cylindriques (cf. exercice 1.4), u =

∂ 2 u 1 ∂u 1 ∂2u ∂2u + 2 + + 2. 2 ∂ρ ρ ∂ρ ρ ∂ϕ2 ∂z

(7.54)

Proposons nous de résoudre (7.51) dans le cas particulier où u est indépendant de z et où le volume V est délimité par deux cylindres de même axe, de rayons R1 et R2 et sur la surface desquels u a une valeur constante u1 et u2 respectivement. Ainsi, u ne dépend pas de ϕ et l’équation de Laplace se réduit à : d2 u 1 du = 0. + dρ2 ρ dρ Posons p = du/dρ, on a dp/dρ + p/ρ = 0, d’où : p=

C1 ρ

et

u = C1 ln ρ + C2 .

Les constantes C1 et C2 sont déterminées par les relations :

d’où :

C1 ln R1 + C2 = u1 ; u2 − u1 C1 = ; ln R2 − ln R1

C1 ln R2 + C2 = u2 , u1 ln R2 − u2 ln R1 C2 = , ln R2 − ln R1

(7.55)

7 − Les équations aux derivées partielles

178

et la solution de l’équation de Laplace est : u=

u2 ln(ρ/R1 ) − u1 ln(ρ/R2 ) . ln(R2 /R1 )

(7.56)

7.6. L’équation de Poisson L’équation de Poisson est une équation du type : u = −f (x, y, z),

(7.57)

où f (x, y, z) est une fonction donnée et u(x, y, z) la fonction inconnue. Nous avons déjà rencontré cette équation lors de la recherche du potentiel V créé par une distribution de charges ρ(x, y, z) (cf. équation (1.47)). Il est clair que si u est une solution de (7.57) et v est solution de l’équation de Laplace Δv = 0, u + v est aussi solution de (7.57) et il s’agira de l’intégrale générale de l’équation de Poisson. Pour établir la solution u, nous cherchons la fonction g(x), dite fonction de Green (cf. § 7.7), solution de l’équation : g = δ(x),

(7.58)

où x est le vecteur de composantes x, y, z et δ(x) est la fonction de Dirac (cf. § 6.9). En prenant la transformée de Fourier de (7.58), on a, en désignant par G(k) la T.F. de g(x) : G(k) = −

1 1 . 3/2 (2π) k 2

Mais nous avons vu, grâce à l’équation (6.64), que si r = |x|,  1 2 −λr T.F. (e /r) = . π λ2 + k 2

(7.59)

(7.60)

Si l’on fait tendre λ vers zéro par valeurs positives (λ → 0+ ), (7.60) devient :  2 1 1 T.F. = . r π k2 Donc : 1 1 G(k) = − T.F. 4π r

(7.61)

et : g(x) = −

1 1 . 4π r

(7.62)

7.7 − La fonction de Green

179

Donc la solution g(x, x  ) de l’équation : g = δ(x − x  )

(7.63)

est, d’après (7.58) et (7.62) : g(x, x  ) = −

1 1 . 4π |x − x  |

Par ailleurs, nous pouvons écrire une fonction continue f (x) sous la forme :  f (x) = f (x  )δ(x − x  )d3 x  .

(7.64)

(7.65)

Le caractère linéaire de l’équation de Poisson (7.57) nous permet de superposer les solutions (7.64) à l’aide de (7.65) et, finalement, nous obtenons :    1 1 1 1  3  d x = f (x ) u(x) = f∗ . (7.66) 4π |x − x  | 4π r Au facteur (1/4π) près, u(x) apparaît comme le produit de convolution des fonctions f (x) et 1/r. La recherche de la solution de l’équation de Poisson se ramène donc au calcul du potentiel V (x) créé par une densité de charges fictive ρ(x  ) = ε0 f (x  ) au point x puisque :  1 ρ(x  ) 3  V (x) = (7.67) d x . 4πε0 |x − x  |

7.7. La fonction de Green La technique de la fonction de Green utilisée pour résoudre l’équation de Poisson est en fait très générale et s’applique à une équation aux dérivées partielles linéaire du type : Au(x) = f (x),

(7.68)

où A est un opérateur différentiel ou une combinaison linéaire d’opérateurs différentiels, f (x) une fonction connue et u(x) la fonction inconnue à déterminer. Notons que si v(x) est solution de l’équation sans second membre, Av(x) = 0, u(x) + v(x) est aussi solution de (7.68). En général, v(x) s’obtient par la méthode de séparation des variables où par transformation de Fourier et doit obéir aux conditions aux limites particulières du problème. Nous cherchons ici une méthode générale pour obtenir u(x). Supposons que nous sachions résoudre (en général par transformation de Fourier) l’équation : Ag(x) = δ(x).

(7.69)

7 − Les équations aux derivées partielles

180

On connaît alors la fonction de Green g(x, x  ), solution de : Ag(x, x  ) = δ(x − x  ).

(7.70)

En utilisant (7.65) et la propriété de linéarité de (7.68), on obtient immédiatement :  u(x) = g(x, x  )f (x  ) d3 x  . (7.71) Un exemple de ce type est donné dans l’exercice 7.12.

7.8. Exercices Exercice 7.1. Trouver la solution u(x, y) de l’équation de Laplace ∂2u ∂2u + 2 =0 ∂x2 ∂y dans le carré 0 ≤ x ≤ 1, 0 ≤ y ≤ 1, vérifiant les conditions : u(0, y) = 0,

u(1, y) = e−y sin 1,

u(x, 0) = sin x,

u(x, 1) = e−1 sin x.

Exercice 7.2. Trouver la solution de l’équation de Laplace ∂ 2 u/∂x2 + ∂ 2 u/∂y 2 = 0 dans la bande 0 ≤ x ≤ a, 0 ≤ y ≤ ∞, vérifiant les conditions : u(0, y) = 0,

u(a, y) = 0,

u(x, 0) = (1 − x/a),

u(x, ∞) = 0.

Exercice 7.3. Trouver la solution de l’équation de Laplace à l’intérieur de l’anneau limité par deux cercles de rayons R1 et R2 vérifiant les conditions :

∂u

A = ; u |ρ=R2 = u2 = Cte.

∂ρ ρ=R1 R1 Exercice 7.4. Soit un cercle de rayon R centré à l’origine des coordonnées d’un plan et une fonction f (ϕ) donnée sur sa circonférence (ϕ angle polaire) développable en série de Fourier. On cherche une fonction u(ρ, ϕ) continue dans le cercle et sur sa frontière vérifiant, à l’intérieur du cercle, l’équation de Laplace Δu = 0 et la condition u |ρ=R = f (ϕ). 1. Exprimer cette solution à l’aide des coefficients an et bn du développement de f (ϕ) en série de Fourier. 2. Démontrer que cette solution s’exprime sous forme d’intégrale de Poisson : 1 u(ρ, ϕ) = 2π

π −π

f (ϕ )

R 2 − ρ2 dϕ . R2 − 2ρR cos(ϕ − ϕ) + ρ2

7.8 − Exercices

181

Exercice 7.5. Résoudre, par la méthode de séparation des variables, l’équation de diffusion à une dimension ∂u/∂t = a2 ∂ 2 u/∂x2 sur un segment de longueur L, vérifiant les conditions aux limites : u(0, t) = u(L, t) = 0,

u(x, 0) = x(L − x)/L2 .

Exercice 7.6. Résoudre le problème de l’exercice 7.5 en remplaçant la dernière condition par : u(x, 0) = x/L pour 0 ≤ x ≤ L/2 et u(x, 0) = 1 − x/L pour L/2 < x < L. Exercice 7.7. En présence d’un gradient de température et de sources de chaleur internes créant une chaleur uniforme q par unité de volume, l’équation de diffusion de la chaleur est, d’après (7.39) : Cv ∂T /∂t = κΔT + q. On considère le cas où le milieu est une sphère homogène de rayon R. Etablir, en régime permanent, la loi de variation T (r) en fonction de la distance r au centre de la sphère et calculer T (0) − T (R) en fonction de q, κ et R. Exercice 7.8. Trouver la solution de l’équation de diffusion ∂n/∂t = D∂√2 n/∂x2 qui satisfait aux conditions suivantes : pour x = 0, n = 0 si t ≤ 0, n = a/ t si t > 0, ∂n/∂x = 0. Exercice 7.9. Par analogie avec l’équation des cordes vibrantes, établir l’équation des vibrations longitudinales d’une barre cylindrique homogène de masse volumique ρ et de section S. On désignera par u(x, t) le déplacement de la section du cylindre d’abscisse x à l’instant t et par T (x) la force de traction de la section x, donnée par la loi de Hooke T = ES(∂u/∂x), E étant le module d’élasticité du matériau. Exercice 7.10. Une barre homogène de longueur 2L s’est raccourcie de 2λ sous l’action de forces appliquées à ses extrémités. A l’instant t = 0, on la libère de l’action des forces extérieures qui lui étaient appliquées. Déterminer le déplacement u(x, t) de la section de la barre d’abscisse x à l’instant t, le milieu de l’axe de la barre étant situé en x = 0. Indications : on utilisera l’équation de propagation obtenue dans l’exercice 7.9. On résoudra cette équation par la méthode de séparation des variables avec les conditions initiales u(x, 0) = −λx/L pour −L ≤ x ≤ L et ∂u(x, 0)/∂t = 0. Exercice 7.11. Déterminer, à l’aide de l’équation de Poisson, la distribution de charge ρ(x) donnant lieu au potentiel V =

q e−λr . 4πε0 r

Exercice 7.12. En mécanique quantique, lorsqu’une particule se déplace librement sur l’axe x, son onde associée est ϕ(x) = exp(ikx), solution de l’équation Δϕ + k 2 ϕ = 0.

7 − Les équations aux derivées partielles

182

Si cette particule est soumise à un potentiel V (r), où r = |x|, centré à l’origine des coordonnées sur l’axe des x, la nouvelle fonction d’onde ψ(x) est en première approximation, solution de l’équation : ψ + k 2 ψ = AV (r)eikx , où A est une constante positive. Déterminer ψ(x) par la technique des fonctions de Green. Exercice 7.13. On considère l’équation aux dérivées partielles Δu + k 2 u = 0 où k est une constante réelle donnée. 1. Vérifier que exp(ikr)/r est solution de cette équation (r = |x| > 0). 2. Démontrer qu’en tout point P à l’intérieur d’une surface fermée S de normale extérieure n, on a pour une solution régulière de l’équation aux dérivées partielles :      ikr −−→ eikr e −−→ 1 u(P) = grad u − u grad · n dS. 4π r r S

Indication : on appliquera le théorème d’Ostrogradsky à un volume V compris entre la surface S et une surface sphérique Σ centrée au point P dont le rayon R → 0. Exercice 7.14. Montrer que la solution de l’équation de propagation à une dimension (7.8), dans un milieu infini, obéissant aux conditions initiales s(x, 0) = ϕ(x), ∂s(x, t)/∂t |t=0 = ψ(x), où ϕ(x) et ψ(x) sont des fonctions données, est : 1 ϕ(x − V t) + ϕ(x + V t) + s(x, t) = 2 2V

x+V  t

ψ(u) du. x−V t

Chapitre 8 Algèbre linéaire, calcul matriciel

Dans ce chapitre, après un bref rappel sur les propriétés des opérateurs et plus particulièrement des opérateurs linéaires, nous introduisons les matrices qui sont d’un usage courant dans de nombreux domaines des mathématiques et de la physique. Elles interviennent par exemple dans la résolution des systèmes d’équations linéaires, dans les opérations de changement de repère en géométrie, dans l’étude mécanique des vibrations des molécules au voisinage de leur position d’équilibre, dans les propriétés des réseaux électriques. Il faut aussi souligner qu’elles sont à la base du formalisme de la mécanique quantique. Nous commençons par donner les définitions et les propriétés élémentaires des matrices, puis nous montrons leur rôle dans la représentation des opérateurs linéaires dans les espaces vectoriels réels et complexes. Nous donnons ensuite quelques exemples d’applications avant de terminer par le formalisme général de Dirac. De nombreuses propriétés des matrices mettent en jeu les déterminants dont les principales propriétés sont rappelées dans l’annexe III.

8.1. Les opérateurs D’une manière générale, un opérateur F fait correspondre à certains objets mathématiques X d’autres objets F (X). Ces objets peuvent être des nombres réels ou complexes, des points, des vecteurs, des fonctions. Un opérateur peut être une fonction, une dérivée, une intégrale, une translation, une rotation, une symétrie par rapport à un plan, une inversion, une permutation, etc. Nous étudierons dans ce chapitre et le chapitre suivant les opérateurs linéaires particuliers que sont les matrices et les tenseurs. Nous avons déjà défini au chapitre 1 les opérateurs différentiels. Nous donnons ci-dessous quelques définitions et propriétés des opérateurs.

184

8 − Algèbre linéaire, calcul matriciel

a) Un opérateur est univoque si F (X) a une seule détermination : {X = Y } =⇒ {F (X) = F (Y )} b) Deux opérateurs F et G sont égaux si quel que soit X, on a F (X) = G(X). c) On peut aisément définir la somme de deux opérateurs A et B ainsi que la multiplication d’un opérateur par un scalaire λ : (A + B)(X) = A(X) + B(X) (λA)(X) = λA(X) d) Le produit de deux opérateurs A et B, aussi dénommé composition de ces opérateurs, est défini par (AB) (X) = A [B(X)] et s’écrit simplement AB. Il s’agit pour des opérateurs fonctionnels d’une fonction de fonction. Par exemple si A(x) = 1 + x et B(x) = 2x, AB(x) = 1 + 2x alors que BA(x) = 2(1 + x). Deux opérateurs commutent si AB = BA, c’est-à-dire si pour tout X on a AB(X) = BA(X). e) L’opérateur unité 1 est tel que 1X = X. Il commute avec tous les autres opérateurs : 1A = A1. f) Un opérateur commute avec lui-même : AA = AA = A2 . g) La multiplication des opérateurs est associative : (AB)C = A(BC) = ABC. h) Théorème : Si A commute avec B et C, il commute avec leur produit BC. En effet, on a : A(BC) = (AB)C = (BA)C = B(AC) = B(CA) = (BC)A. Donc si A commute avec B, il commute avec B 2 et avec B N . Il en résulte que si deux opérateurs commutent, toute puissance de l’un commute avec toute puissance de l’autre : An B m = B m An . i) Un opérateur A est régulier (ou bijectif ) s’il obéit à la propriété suivante : l’équation A(X) = Y admet une seule solution en X pour tout Y . Par conséquent : – A agissant sur deux objectifs différents, X = Y , donne deux résultats différents A(X) = A(Y ) ; – l’équation A(X) = A(Y ) entraîne X = Y . Par exemple, – A(x) = x + 1 est régulier car x + 1 = y + 1 =⇒ x = y, – A(x) = x2 n’est pas régulier car x2 = y 2 n’entraîne pas x = y.

8.2 − Espaces vectoriels et opérateurs linéaires

185

j) Si un opérateur A est régulier on peut définir son opérateur inverse A−1 , tel que A(X) = Y =⇒ X = A−1 Y . Si X et Y ont le même domaine de définition, on a : AA−1 = A−1 A = 1. Cherchons l’inverse d’un produit d’opérateurs réguliers A et B : Si (AB)(X) = Y soit A[B(X)] = Y , on a     B(X) = A−1 (Y ), X = B −1 A−1 (Y ) = B −1 A−1 (Y ). Donc (AB) Et en généralisant,

−1

= B −1 A−1 .

(8.1)

(ABC)−1 = C −1 B −1 A−1 .

8.2. Espaces vectoriels et opérateurs linéaires 8.2.1. Les espaces vectoriels On appelle espace vectoriel un ensemble E d’éléments X1 , X2 , . . . , ayant les propriétés suivantes : 1. On peut définir l’addition X1 + X2 de deux éléments de E. Cette opération fournit un nouvel élément de E de sorte que : a) X1 + X2 = X2 + X1 (commutativité) b) (X1 + X2 ) + X3 = X1 + (X2 + X3 ) = X1 + X2 + X3 (associativité) c) Il existe un élément nul 0 tel que pour tout X, X + 0 = X. 2. On peut définir le produit sX d’un élément de E par un scalaire s. On obtient alors un nouvel élément de E tel que : a) s(X1 + X2 ) = sX1 + sX2 b) (s1 + s2 )X = s1 X + s2 X. Les nombres réels forment un espace vectoriel R ; les nombres complexes forment un espace vectoriel complexe C. Les vecteurs d’un plan ou de l’espace géométrique Euclidien à 3 dimensions forment un espace vectoriel.

8.2.2. Opérateur linéaire sur un espace vectoriel On dit qu’un opérateur F agissant sur les éléments X1 , X2 , . . . d’un espace vectoriel E, est un opérateur linéaire si, s désignant un scalaire, on a : F (X1 + X2 ) = F (X1 ) + F (X2 ) F (sX) = sF (X)

8 − Algèbre linéaire, calcul matriciel

186 et plus généralement ⎛ F⎝

n

⎞ sj X j ⎠ =

j=1

n

F (sj Xj ) =

j=1

n

sj F (Xj ).

(8.2)

j=1

Par exemple dans l’espace vectoriel des fonctions continues, réelles g(x) de la variable x, les opérateurs x (multiplication par x) et d/dx (dérivée par rapport à x) sont des opérateurs linéaires. Mais l’opération [g(x)]2 qui consiste à élever la fonction au carré n’est pas linéaire. Il est évident que si A et B sont deux opérateurs linéaires, la somme A+B est linéaire ; de même si s est un scalaire, le produit sA est linéaire. Théorème : Le produit de deux opérateurs linéaires est linéaire. En effet, si A et B sont linéaires, on a : ⎛ (AB) ⎝



⎞ sj X j ⎠

⎞⎤ ⎤ ⎡ ⎛ ⎡



= A ⎣B ⎝ sj Xj ⎠⎦ = A ⎣ sj B(Xj )⎦

j

j

=



sj A [B (Xj )] =

j

j



sj (AB) (Xj ) .

j

On démontre aisément que si A est linéaire et régulier, A−1 est linéaire.

8.3. Définition des matrices Les matrices (n × m) sont des tableaux de nombres réels ou complexes comportant n lignes et m colonnes pouvant être combinées selon des règles qui sont données dans la section 8.4. Les membres individuels de chaque tableau sont les éléments de la matrice considérée. Chaque élément d’une matrice A est désigné par une paire d’indices, le premier désignant la ligne et le second la colonne. L’élément Aij appartient à la i-ème ligne et à la j-ème colonne. La matrice A s’écrit donc sous la forme : ⎞ ⎛ A11 A12 A13 · · · A1m ⎜ A21 A22 A23 · · · A2m ⎟ ⎟ ⎜ (8.3) A=⎜ . .. ⎟ . ⎝ .. . ⎠ An1 An2 An3 · · · Anm Contrairement aux tableaux carrés définissant les déterminants, les matrices peuvent être rectangulaires si n = m ou carrées si n = m. Lorsqu’une matrice contient uniquement une ligne ou une colonne, on l’appelle vecteur. Un vecteur ligne s’écrit :   X = x1 x2 · · · xn .

8.4 − Combinaisons de matrice Un vecteur colonne s’écrit :

187 ⎛

⎞ y1 ⎜ y2 ⎟ ⎜ ⎟ Y = ⎜ . ⎟. ⎝ .. ⎠ yn

Les éléments d’une matrice A carrée (n×n) sont définis comme ceux d’un déterminant (voir annexe III) ; on dit que A est une matrice d’ordre n. Si, pour une matrice de ce type, son déterminant Det A = 0, la matrice est singulière. Supposons que l’on forme les déterminants de tous les ordres possibles en prenant successivement 1, 2, . . . , n lignes et colonnes d’une matrice carrée A. Si au moins un déterminant d’ordre r est différent de zéro et si tous les déterminants d’ordre supérieur à r sont nuls, on dit que A est de rang r. Donc si A est singulière et d’ordre n, on a r < n ; si A n’est pas singulière, r = n. Par exemple la matrice



1 ⎜2 A=⎜ ⎝0 3

1 2 0 3

⎞ 1 1 3 −1⎟ ⎟ 1 −3⎠ 5 −3

est de rang 2 ; en effet, Det A = 0, car les deux premières colonnes de A sont identiques, tous les déterminants d’ordre 3 sont nuls mais il est possible de former des déterminants d’ordre 2 non nuls.

8.4. Combinaisons de matrices Deux matrices A et B sont égales si et seulement si tous leurs éléments sont identiques. Si A = B, on a Aij = Bij pour tout i et j.

8.4.1. Addition et multiplication par un scalaire L’addition ou la soustraction de deux matrices (n × m) donne une matrice (n × m) selon la règle suivante : Si C = A ± B, Cij = Aij ± Bij . L’addition des matrices est commutative et associative ; par exemple : A ± B = ±B + A ; (A ± B) ± C = A + (±B ± C) = A ± B ± C. La multiplication d’une matrice A par un scalaire s est définie par : (sA)ij = sAij , ce qui signifie que tous les éléments de A sont multipliés par s.

8 − Algèbre linéaire, calcul matriciel

188

8.4.2. Multiplication de deux matrices On ne peut multiplier deux matrices dans l’ordre AB que si le nombre de colonnes de A est égal au nombre de lignes de B. Si A est une matrice (n × h) et B une matrice (h × m), le produit C = AB est une matrice (n × m). Ses éléments sont donnés par Cij =

h

Aik Bkj

(i = 1, 2, . . . , n; j = 1, 2, . . . , m) .

(8.4)

k=1

 a Par exemple si A = c

on a donc

et l’on peut écrire

   b x et B = , d y     ax + by x C= = ; cx + dy y C11 = x = ax + by C21 = y  = cx + dy    a x = y c

(8.5)

  b x . d y

Dans le cas où les deux matrices A et B sont carrées (n × n), C est également une matrice carrée (n×n). La règle de multiplication (8.4) des matrices n’est pas arbitraire car elle est liée aux propriétés des transformations linéaires dont le système (8.5) est un cas simple et dont de nombreux exemples seront étudiés par la suite. Nous remarquerons que pour les matrices carrées, la règle de multiplication (8.4) est exactement la même que celle obtenue pour le calcul des éléments d’un déterminant produit de deux déterminants (voir l’équation (III.8) de l’annexe III). Donc si A et B sont des matrices carrées et C = AB, Det C = (Det A)(Det B).

(8.6)

Cependant il faut noter que Det (A + B) = Det A + Det B. En général AB = BA. Par exemple,     1 1 1 =2, 1

  1  1 1

 1 =

 1 1

 1 . 1

Si deux matrices carrées sont telles que AB = BA, on dit que les matrices commutent. Les propriétés suivantes de distributivité et d’associtativité s’appliquent aux produits matriciels : A(B + C)D = ABD + ACD (AB)C = A(BC) = ABC. Il résulte de la définition générale (8.4) du produit de deux matrices que si A est une matrice (m × n), X un vecteur ligne (1 × m), Y un vecteur colonne (n × 1), X  = XA

8.4 − Combinaisons de matrice

189

est un vecteur ligne (1 × n), Y  = AY est un vecteur colonne (m × 1), Y X est une matrice (n × m), mais le produit XY n’a de sens que si m = n et donne alors un scalaire s, c’est-à-dire une matrice (1 × 1). Notons que si A est une matrice carrée (n × n) et Y1 , Y2 sont deux vecteurs colonne (n × 1), on a : A(s1 Y1 + s2 Y2 ) = s1 AY1 + s2 AY2 , ce qui montre que A est un opérateur linéaire de l’espace vectoriel formé par les vecteurs colonne Y .

8.4.3. Sous-matrices Une matrice peut être décomposée en matrices plus petites désignées par sous-matrices. Par exemple une matrice carrée A d’ordre 3 peut être décomposée en 4 sous-matrices : ⎞ ⎛   A11 A12 A13 a11 a12 ⎠ ⎝ A = A21 A22 A23 = a21 a22 A31 A32 A33 avec a11

 A11 = A21

    A13 A12 , a12 = , a21 = A31 A22 A23

 A32 , a22 = A33 .

Si B est une matrice similaire à A, d’éléments Bij , elle peut être partagée de la même manière en sous-matrices bij . Dans le produit AB = C, les sous-matrices aij et bij peuvent être traitées comme de simples éléments. Dans l’exemple précédent on a :   a11 b11 + a12 b21 a11 b12 + a12 b22 . AB = C = a21 b11 + a22 b21 a21 b12 + a22 b22

8.4.4. Trace d’une matrice La somme des éléments diagonaux d’une matrice carrée est par définition la trace Tr de la matrice. Pour une matrice A d’ordre n, on a donc : Tr A =

n

Aii .

(8.7)

i=1

Si A et B sont deux matrices carrées n × n et s un scalaire, on a : Tr (A + B) = Tr A + Tr B ;

Tr (sA) = s Tr A.

La trace du produit de deux matrices carrées est indépendante de l’ordre de multiplication. En effet, n n



Tr (AB) = (AB)ii = Aij Bji i=1

Tr (BA) =

n

j=1

(BA)jj =

i,j=1 n

i,j=1

Bji Aij

190

8 − Algèbre linéaire, calcul matriciel

d’où Tr (AB) = Tr (BA) .

(8.8)

Par extension on a : Tr (ABC) = Tr (BCA) = Tr (CAB) . La trace reste invariante par permutation circulaire de l’ordre des produits de matrice, mais pas pour les autres permutations.

8.4.5. Produit direct de matrices Si A est une matrice carrée d’ordre m d’éléments Aij et B une matrice carrée d’ordre n d’éléments Bij , le produit direct (ou tensoriel) C = A ⊗ B de ces deux matrices est une matrice carrée C d’ordre mn, d’éléments Cik,jl = Aij Bkl .

(8.9)

Dans cette expression, les indices ik et jl se réfèrent respectivement aux mn lignes et colonnes de C. Il est facile de vérifier que Tr (A ⊗ B) = Tr C = ( Tr A)( Tr B).

8.5. Matrices particulières 8.5.1. Matrice nulle, unité, diagonale – Lorsque tous les éléments d’une matrice sont nuls, on dit que la matrice est nulle. On l’écrit 0 ; pour toute matrice A, 0 + A = A et 0A = A0 = 0. Remarquons que si A et B sont deux matrices d’ordre n, le fait que AB = 0, n’implique pas forcément que l’une ou l’autre de ces matrices soit nulle. Par exemple si     1 1 1 −1 A= , B= , AB = 0, mais BA = 0. 0 0 −1 1 – La matrice unité E d’ordre n est une matrice carrée (n×n) qui a tous ses éléments selon la diagonale principale égaux à 1 et les autres éléments nuls. Les éléments de la matrice unité sont symbolisés de manière commode par le symbole de Kronecker δij :  0 si i = j δij = 1 si i = j Pour toute matrice A on a : EA = AE. – Si tous les éléments d’une matrice carrée sont nuls à part les éléments diagonaux, on dit que la matrice est diagonale. L’élément général d’une matrice diagonale s’écrit

8.5 − Matrices particulières

191

donc Di δij . Toutes les matrices diagonales de même ordre commutent entre elles ; en effet si D et D sont diagonales, on a : 

(DD )ij =

n

 Dik Dkj

=

k=1

n

Di δik Dj δkj = Di Dj δij = (D D)ij .

k=1

Si une matrice carrée A commute avec une matrice diagonale D de même ordre, les éléments de Aij sont nuls pour i = j sauf si les éléments Di et Dj sont égaux. En effet si AD = DA, on a : n

Aik Dk δkj =

k=1

n

Di δik Akj ,

k=1

soit Aij Dj = Di Aij ; Aij (Di − Dj ) = 0. Donc Aij = 0 si Di = Dj .

8.5.2. Matrice transposée, adjointe, hermitique, unitaire – La matrice transposée AT d’une matrice A s’obtient à partir de A en permutant les lignes et les colonnes. Pour une matrice carrée, AT s’obtient en effectuant une symétrie par rapport à la diagonale principale. On a :  T (8.10) A ij = Aji . Par exemple, si

 A=

  a a b T ,A = b c d

 c . d

Si C = AB, C T = B T AT . En effet, n n



 T   T T C ij = Cji = Ajk Bki = Bik Akj = B T AT ij . k=1

k=1

– Une matrice carrée est symétrique si elle est égale à sa transposée A = AT , ce qui revient à dire que les éléments symétriques par rapport à la diagonale principale sont égaux : Aij = Aji . – Une matrice carrée est antisymétrique si les éléments symétriques par rapport à la diagonale principale sont de signe opposé : Aij = −Aji . Ses éléments diagonaux sont donc nuls : Aii = 0. – Si la matrice A a des éléments complexes, on définit la matrice complexe conjuguée A∗ par (A∗ )ij = A∗ij . Si C = AB, C ∗ = A∗ B ∗ . – La matrice adjointe A† d’une matrice A, dont les éléments peuvent être complexes, est obtenue en prenant les complexes conjugués des éléments de AT :  ∗  †  A† = AT A ij = A∗ji . (8.11)

192

8 − Algèbre linéaire, calcul matriciel

Ceci signifie que pour une matrice carrée les éléments symétriques par rapport à la diagonale principale sont complexes conjugués. Par exemple :  ∗    a c∗ a b † A= ,A = ∗ . c d b d∗ Si C = AB, C † = B † A† . En effet, ∗  ∗  T ∗  ∗  A = B † A† . C † = C T = B T AT = B T Par extension,

(ABC)† = C † B † A† .

– Une matrice hermitique (ou hermitienne) est une matrice carrée égale à son adjointe ; donc (8.12) A = A† =⇒ Aij = A∗ji . Les éléments de A symétriques par rapport à la diagonale principale sont complexes conjugués et les éléments diagonaux sont réels.   2 1+i Exemple : A = est une matrice hermitique. 1−i 3 Une matrice réelle et symétrique est un cas particulier de matrice hermitique. Le produit de deux matrices hermitiques A, B est hermitique si A et B commutent car alors, puisque A = A† et B = B † , on a (AB)† = B † A† = BA = AB. Les matrices hermitiques jouent un rôle très important dans le formalisme de la mécanique quantique. – Une matrice carrée est unitaire si son produit par sa matrice adjointe est égal à la matrice unité, soit : AA† = A† A = E. (8.13) Si la matrice A est réelle, la relation (8.13) s’écrit : AAT = AT A = E ;

(8.14)

on dit alors que la matrice est orthogonale. Par exemple les trois matrices de Pauli qui interviennent pour décrire le spin d’un électron en mécanique quantique :       0 1 0 −i 1 0 , σy = , σz = (8.15) σx = 1 0 i 0 0 −1 sont des matrices unitaires ; de plus, σx et σz sont orthogonales.

8.6. Calcul des déterminants Nous allons utiliser les propriétés des sous-matrices pour donner une méthode puissante, développée par Souriau, pour calculer les déterminants d’ordre élevé. Le calcul d’un déterminant d’ordre n par la méthode des cofacteurs c’est-à-dire à l’aide des formules (III.5) et (III.6) de l’annexe III, fait intervenir la somme de n déterminants

8.6 − Calcul des déterminants

193

d’ordre n − 1, donc de n(n − 1) déterminants d’ordre n − 2, . . . et conduit à une somme de n ! termes qui croît très rapidement avec n. La méthode de Souriau, basée sur le calcul matriciel, est beaucoup plus rapide. On écrit la matrice carrée A d’ordre n ≥ 2 d’éléments Aij dont on veut calculer le déterminant sous la forme :   a L A= (8.16) C B où a est l’élément au croisement de la première ligne et de la première colonne, soit a = A11 , L est la matrice ligne à n − 1 éléments   L = A12 · · · A1n , C est la matrice colonne à n − 1 éléments ⎛

⎞ A21 ⎜ ⎟ C = ⎝ ... ⎠ An1

et B la matrice carrée à n − 1 lignes et colonnes ⎞ ⎛ A22 · · · A2n ⎜ .. ⎟ . B = ⎝ ... . ⎠ An2 On introduit la matrice P (n × n)



P =

···

1 −C

Ann

0 aE



où 0 est la matrice ligne (1 × (n − 1)), aE est a fois la matrice unité E d’ordre n − 1. D’après la règle de multiplication matricielle établie dans la section 8.4.3, on a :   a L PA = . 0 aB − CL Mais Det (P A) = (Det P )(Det A) = a Det (aB − CL) et Det P = an−1 . Donc Det A =

1 Det (aB − CL). an−2

(8.17)

On ramène ainsi le calcul du déterminant d’ordre n au calcul du déterminant de aB − CL qui est un déterminant d’ordre n − 1. En effectuant la même opération sur le nouveau déterminant, on se ramène au calcul d’un déterminant d’ordre n − 2 et ainsi de suite. Au total on a seulement n − 1 opérations à effectuer au lieu de n ! par la méthode des cofacteurs. Le gain est considérable dès que n ≥ 4. Exemple :

2

1

4

−1



3 −1 −2

−1 −5 6





1 1 −3 2

−8 6 6 = − 1 −46 42 = −55. =



2 1 −1 4 4 32 −34 5 −7 4

1 −3 3

8 − Algèbre linéaire, calcul matriciel

194

8.7. Inverse d’une matrice carrée Introduisons d’abord la matrice complémentaire Aˆ ≡ Comp A de la matrice A, obtenue en remplaçant chaque élément Aij par son cofacteur Aij , c’est-à-dire par (−1)i+j M ij où M ij est le mineur de l’élément Aij (voir annexe III), puis en transposant la matrice obtenue :  ij = Aji = AT . (8.18) Aˆ ij

Par exemple, ⎛

1 2 si A = ⎝1 0 3 2

⎞ 3 −1⎠ , 1



1 AT = ⎝2 3

⎞ 1 3 0 2⎠ , −1 1



⎞ 2 4 −2 Aˆ = ⎝−4 −8 4 ⎠ . 2 4 −2

D’après les propriétés des déterminants (III.5) et (III.6) de l’annexe III, on a respectivement : n n



Aik Aik = Aik Aˆki = AAˆ Det A = k=1

Det A =

n

ii

k=1

Aki Aki =

k=1

n

ˆ Aki Aˆik = AA . ii

k=1

D’autre part, si i = j, on a d’après (III.7) : n

Aik Ajk =

k=1 n

n

Aik Aˆkj = AAˆ =0 ij

k=1

Aki Akj =

k=1

n

ˆ Aki Aˆjk = AA = 0.

k=1

ji

Nous avons ainsi montré que ˆ = E Det A. AAˆ = AA

(8.19)

ˆ = 0. Si Det A = 0, la matrice A est singulière : AAˆ = AA Si A est une matrice carrée régulière, c’est-à-dire que Det A = 0, on peut définir une matrice A−1 , matrice inverse de A telle que AA−1 = A−1 A = E.

(8.20)

Il est clair que seules les matrices carrées régulières ont un inverse. D’après (8.19) et (8.20) on a : Aˆ A−1 = . (8.21) Det A

8.8 − Résolution des systèmes d’équations linéaires

195

En résumé pour calculer l’inverse d’une matrice carrée A, a) on doit s’assurer que A n’est pas singulière donc que Det A = 0 ; b) on écrit AT transposée de A ; c) on bâtit la matrice complémentaire Aˆ en prenant les cofacteurs de AT : d) on divise Aˆ par Det A. Exemple : ⎛ ⎞ 3 2 1 A = ⎝ 1 −2 −1⎠ , −1 2 −1



A−1

4 1 ⎝ = 2 16 0

⎛ ⎞ 4 0 2 1 −2 4 ⎠ = ⎝1 8 −8 −8 0

⎞ 2 0 −1 2 ⎠ . −4 −4

Propriétés i) Si AB = 0, cela ne signifie pas nécessairement que A ou B ou A et B sont nuls. B = A−1 A B = A−1 (AB) = 0. Toutefois, si A−1 existe (A non singulière),  −1 −1 = (AB)B −1 = 0. De même, si B existe, A = A BB ii) Si C = AB, en supposant que A, B, C sont des matrices régulières, on a : B −1 A−1 C = B −1 A−1 AB = B −1 EB = B −1 B = E = C −1 C et la comparaison du premier et du dernier terme montre que C −1 = B −1 A−1 .

(8.22)

La généralisation est immédiate. Pour inverser un produit de matrices régulières, on doit effectuer le produit de l’inverse des matrices dans l’ordre inverse : (ABC)−1 = C −1 B −1 A−1 .

(8.23)

iii) Nous avons défini une matrice unitaire par la relation (8.13). On déduit de (8.20) que pour une matrice de ce type on a A† = A−1 .

(8.24)

L’inverse d’une matrice unitaire est égal à sa matrice adjointe. Si A est orthogonale, on a AT = A−1 .     iv) D’après (8.6) et (8.20), Det AA−1 = (Det A) Det A−1 = Det E = 1, d’où Det A−1 =

1 . Det A

(8.25)

v) Nous avons défini quatre opérations importantes sur une matrice A conduisant à A∗ , AT , A† , A−1 . Chacune de ces opérations effectuée deux fois redonne la matrice de départ :  T T  † †  −1 −1 ∗ (A∗ ) = A ; A = A; A = A; A = A. Nous résumons dans le tableau 8.1 les définitions et les propriétés des matrices particulièrement utiles obtenues à partir d’une matrice carrée A d’éléments Aij .

8 − Algèbre linéaire, calcul matriciel

196

Tableau 8.1 – Différents types de matrices carrées.

Nom de la matrice

Symbole, définition

Eléments de matrice

Complexe conjuguée

A

(A∗ )ij = A∗ij

Transposée

AT

ATij = Aji

Symétrique

AT = A

Aij = Aji

AT = −A

Aij = −Aij ; Aii = 0

A∗ = A

A∗ij = Aij

Antisymétrique Réelle Imaginaire pure

Complémentaire



A∗ = −A Aˆ ≡ CompA

Aij = −Aij ; Aij = iaij aij réel Aˆij = A = (−1)j+i M ji ji

A†

M ji mineur de Aji  −1  A = Aˆij / Det A ij  † A ij = A∗ji

A = A†

Aij = A∗ji

Antihermitique

A = −A†

Unitaire

A† = A−1

Orthogonale

AT = A−1

Aij = −A∗ji ∗  Aij = A−1 ji   Aij = A−1 ji

Inverse Adjointe Hermitique

A−1

8.8. Application à la résolution des systèmes d’équations linéaires Les matrices sont très utiles pour résoudre les systèmes d’équations linéaires. Soit le système de n équations A11 x1 + A12 x2 + . . . + A1n xn = y1 A21 x1 + A22 x2 + . . . + A2n xn = y2 .. .

(8.26)

An1 x1 + An2 x2 + . . . + Ann xn = yn où les éléments Aij et yi sont donnés et où l’on cherche à déterminer les xi inconnus. Le système (8.26) s’écrit sous forme matricielle : AX = Y

(8.27)

8.8 − Résolution des systèmes d’équations linéaires où



A11 ⎜ A21 ⎜ A=⎜ . ⎝ ..

A12 A22

··· ···

⎞ A1n A2n ⎟ ⎟ .. ⎟ . ⎠

An1

An2

···

Ann

197

est une matrice (n × n) et X, Y sont des vecteurs colonnes ⎛ ⎞ ⎛ ⎞ y1 x1 ⎜ y2 ⎟ ⎜ x2 ⎟ ⎜ ⎟ ⎜ ⎟ X =⎜ . ⎟ , Y =⎜ . ⎟ . ⎝ .. ⎠ ⎝ .. ⎠ xn yn A et Y sont connus et l’on cherche X. i) Dans le cas où Det A = 0, A−1 existe et l’on a immédiatement : X = A−1 Y =

ˆ AY Det A

où Aˆ est la matrice complémentaire de A. On obtient une solution unique :



1 1 Aˆij yj = Aji yj . Det A j=1 Det A j=1 n

xi =

n

(8.28)

Aji étant le cofacteur de Aji . En particulier, si Y = 0, X = 0, tous les xi sont nuls. ii) Considérons le cas où Det A = 0 et où au moins un cofacteur Aij correspondant à un couple i, j, est différent de zéro. Si Y = 0, pour chaque ligne j, on a : n ik où C est une constante arbitraire et k=1 Ajk xk = 0. Si l’on choisit xk = CA ik A le cofacteur de Aik , on a d’après l’équation (III.7) de l’annexe III, n

Ajk Aik = 0 pour tout i = j,

k=1 n

Aik Aik = 0 puisque Det A = 0.

k=1

On a donc une infinité de solutions car il existe au moins une ligne telle que tous les Aik ne soient pas nuls. En résumé le système AX = 0 ne peut admettre des solutions non nulles que si Det A = 0 et si au moins un cofacteur Aij est non nul. Exemple : Soit à résoudre le système : 8x1 − 6x2 + 2x3 = 0 −6x1 + 7x2 − 4x3 = 0 2x1 − 4x2 + 3x3 = 0

8 − Algèbre linéaire, calcul matriciel

198 ⎛

⎞ 8 −6 2 A = ⎝−6 7 −4⎠ ; on vérifie que Det A = 0. Si l’on choisit xi = A1i , on obtient 2 −4 3 ⎛ ⎞ ⎛ ⎞ 5 1 A11 = 5, A12 = 10, A13 = 10. Ainsi X = C = ⎝10⎠ = λ ⎝2⎠, λ étant arbitraire. 10 2

8.9. Matrices équivalentes Deux matrices carrées d’ordre n sont dites équivalentes s’il existe deux matrices non singulières de même ordre P et Q telles que B = P AQ.

(8.29)

Les matrices équivalentes ont de nombreuses propriétés communes comme nous le verrons ; leur importance vient de ce qu’il est souvent possible à l’aide d’une transformation linéaire du type (8.29) de trouver une matrice équivalente ayant des propriétés plus simples que la matrice initiale. Lorsqu’une matrice équivalente se présente sous sa forme la plus simple, habituellement sous forme diagonale, on dit que l’on a effectué une transformation canonique. On peut citer différents cas particuliers de transformations canoniques qui dépendent de la nature des matrices P et Q. i) Si P Q = E,

B = Q−1 AQ,

(8.30)

il s’agit d’une transformation de similitude. ii) Si P = QT B = QT AQ,

(8.31)

la transformation est dite congruente. iii) Si P = Q† ,

B = Q† AQ,

(8.32)

la transformation est conjonctive. iv) Si P Q = E, P = QT (donc Q est orthogonale) et si tous les éléments de A sont réels, B = QT AQ = Q−1 AQ, (8.33) la transformation est orthogonale réelle. v) Si la matrice A est complexe et P Q = E, P = Q† = Q−1 , (donc Q est unitaire) B = Q† AQ = Q−1 AQ, la transformation est unitaire.

(8.34)

8.10 − Valeurs propres, vecteurs propres

199

Notons deux propriétés importantes des transformations de similitude et qui s’appliquent donc aux transformations orthogonales réelles et aux transformations unitaires : La trace et le déterminant d’une matrice sont invariants dans une transformation de similitude. En effet d’après (8.8) et (8.30), Tr Q−1 AQ = Tr QQ−1 A = Tr EA = Tr A et d’après (8.6), Det Q−1 AQ

= =

  −1 A) (Det Q)  Det Q−1 (Det Det Q Q (Det A) = (Det E) (Det A) = Det A.

(8.35)

(8.36)

8.10. Valeurs propres, vecteurs propres, équation caractéristique d’une matrice Considérons une matrice carrée A d’ordre n et un vecteur colonne X = 0 de sorte que AX = λX

(8.37)

La matrice A agissant sur X multiplie simplement X par un facteur scalaire λ. On dit que λ est une valeur propre de A et X le vecteur propre associé . La recherche des valeurs propres et des vecteurs propres d’une matrice est d’une importance primordiale en raison des informations physiques qu’elles fournissent et des simplifications de calcul qu’elles permettent comme nous le verrons dans les sections suivantes.

8.10.1. Recherche des valeurs propres L’équation (8.37) s’écrit encore n

Aij xj = λxi

j=1

ou

n

(Aij − λδij )xj = 0 ,

(8.38)

j=1

soit en explicitant, (A11 − λ)x1 + A12 x2 + . . . + A1n xn A21 + (A22 − λ)x2 + . . . + A2n xn An1 + An2 x2 + . . . + (Ann − λ)xn

= 0 = 0 .. . = 0.

8 − Algèbre linéaire, calcul matriciel

200

Comme nous l’avons vu dans la section (8.8), ce système n’admet de solutions non triviales (X = 0) que si le déterminant Det (A − λE) = 0. Cette équation s’écrit sous la forme λn + k1 λn−1 + k2 λn−2 + · · · + kn−1 λ + kn = 0 (8.39) où les coefficients ki s’expriment en fonction des éléments Aij . C’est l’équation caractéristique de la matrice. Les n racines λ1 , λ2 , . . . λn , qui ne sont pas nécessairement toutes différentes, sont les valeurs propres cherchées. L’équation (8.39) s’écrit encore sous la forme (λ − λ1 )(λ − λ2 ) . . . (λ − λn ) = 0 et il est clair que k1 = −(λ1 + λ2 + . . . + λn ),

(8.40)

kn = (−1) λ1 λ2 . . . λn . n

(8.41) −1

Remarque : Si l’on effectue une transformation de similitude définie par B = Q AQ où Q est une matrice régulière, on a d’après (8.6) et (8.25),     Det (B − λE) = Det Q−1 AQ − λE = Det Q−1 (A − λE) Q = Det (A − λE) . Deux matrices liées par une transformation de similitude ont les mêmes valeurs propres.

8.10.2. Recherche des vecteurs propres a) Si les valeurs propres de A sont toutes différentes, on choisit une valeur propre particulière λi telle que AXi = λi Xi , c’est-à-dire que (A − λi E)Xi ≡ Ai Xi = 0. Comme Det Ai = 0, nous avons vu dans la section (8.8) que l’on pouvait choisir ⎛ ⎞ x1i ⎜ x2i ⎟ ⎜ ⎟ Xi = ⎜ . ⎟ ⎝ .. ⎠ xni jk étant le cofacteur de l’élément (Ai )jk d’une ligne j de avec xki = CAjk i , Ai la matrice Ai et C une constante arbitraire. Les autres vecteurs propres sont obtenus de la même manière. Notons bien que les vecteurs propres sont définis à une constante multiplicative près.

Formons la matrice S = (X1 , X2 , . . . , Xn ) dont les colonnes sont les vecteurs propres de A. On a : AS = (AX1 , AX2 , . . . , AXn ) = (λ1 X1 , λ2 X2 , . . . , λn Xn ), soit



λ1 ⎜0 ⎜ AS = (X1 , X2 , . . . , Xn ) ⎜ . ⎝ ..

0 λ2

··· ···

0 0 .. .

0

0

···

λn

⎞ ⎟ ⎟ ⎟ = SA ⎠

(8.42)

8.10 − Valeurs propres, vecteurs propres

201

où A est la matrice diagonale d’éléments Aij = λi δij , δij étant le symbole de Kronecker. Les valeurs propres étant toutes différentes, on peut démontrer que les Xi sont indépendants, donc Det S = 0, S est une matrice régulière qui possède un inverse et on déduit de ce qui précède que S −1 AS = A.

(8.43)

La transformation de similitude avec Q = S conduit à une matrice diagonale dont les éléments sont les valeurs propres de la matrice A. La réduction à la forme diagonale, désignée par diagonalisation , présentée ici est unique si ce n’est l’ordre selon lequel les valeurs propres apparaissent le long de la diagonale. D’après (8.35) et (8.43), on a : Tr A = Tr A =

n

λi .

(8.44)

i=1

La trace de la matrice A est égale à la somme de ses valeurs propres. De même d’après (8.36), Det A = Det A =

n ,

λi .

(8.45)

i=1

Le déterminant de la matrice A est égal au produit de ses valeurs propres. Exemple 1 : Considérons la matrice A=

 a b

 b . a

L’équation caractéristique s’écrit λ2 − 2aλ + a2 − b2 = 0, les valeurs propres sont λ1 = a + b, λ2 = a − b et les vecteurs propres correspondants sont     1 1 X1 = , X2 = . 1 −1 La matrice S qui permet de diagonaliser A est donc   1 1 S= 1 −1 avec S −1 =

1 2

  1 1 . 1 −1

Exemple 2 : Soit la matrice ⎛ 8 A = ⎝4 3

⎞ −8 −2 −3 −2⎠ . −4 1

8 − Algèbre linéaire, calcul matriciel

202

L’équation caractéristique s’écrit λ3 − 6λ2 + 11λ − 6 = 0, les valeurs propres sont λ1 = 1, λ2 = 2, λ3 = 3. Pour obtenir le vecteur propre X1 , on écrit la matrice ⎛ ⎞ 7 −8 −2 A1 = A − λ1 E = ⎝4 −4 −2⎠ 3 −4 0 et on calcule les cofacteurs des éléments d’une ligne de A1 , par exemple la première :





−4 −2

4 −2

4 −4 11 12 13

=4 ,

= −8, A = − = −6, A = A = −4 0 3 0 3 −4 ⎛

d’où

⎞ −8 X1 = ⎝−6⎠ −4

ou plus simplement

⎛ ⎞ 4 X1 = ⎝3⎠ . 2

Le même processus conduit à

⎛ ⎞ ⎛ ⎞ 3 2 X2 = ⎝2⎠ , X3 = ⎝1⎠ . 1 1

La matrice S diagonalisant A est donc ⎛ 4 S = ⎝3 2 avec S −1

⎛ −1 =⎝ 1 1

⎞ 3 2 2 1⎠ 1 1 ⎞ 1 1 0 −2⎠ . −2 1

b) Lorsque les valeurs propres de A ne sont pas toutes distinctes, on dit qu’elles sont multiples ou dégénérées. Par exemple une matrice d’ordre 3 peut avoir une racine double et une racine simple ou encore une racine triple. Dans ces conditions la recherche des vecteurs propres est plus délicate. On peut trouver un vecteur propre pour chaque racine distincte par la méthode précédente mais il n’y a pas de méthode systématique pour trouver les autres vecteurs propres indépendants qui n’existent d’ailleurs pas toujours. Ainsi la diagonalisation d’une matrice possédant des valeurs propres multiples n’est pas toujours possible. Nous traiterons ce problème dans les cas particuliers très importants des matrices symétriques et des matrices hermitiques dans la section (8.14). Nous remarquerons que s’il existe deux vecteurs propres indépendants X1 , X2 associés à la même valeur propre λ d’une matrice A, on a A(c1 X1 + c2 X2 ) = c1 AX1 + c2 AX2 = λ(c1 X1 + c2 X2 )

8.11 − Théorème de Cayley-Hamilton

203

c1 , c2 étant des constantes. Ceci montre que c1 X1 + c2 X2 est aussi vecteur propre de A pour la valeur propre λ. Donc l’ensemble des vecteurs propres associés à λ constitue un espace vectoriel. Nous admettrons enfin sans démonstration que dans tous les cas la trace d’une matrice est égale à la somme de ses valeurs propres.

8.11. Théorème de Cayley-Hamilton Nous avons vu que l’équation caractéristique d’une matrice carrée A d’ordre n s’écrit sous la forme (8.39) que nous écrirons encore P (λ) = 0. Le théorème de CayleyHamilton affirme que la matrice A obéit à l’équation P (A) = 0 obtenue en remplaçant formellement λ par A dans l’équation caractéristique soit : An + k1 An−1 + k2 An−2 + . . . + kn−1 A + kn E = 0. Ce théorème est très facile à démontrer pour une s’il existe une matrice S telle que A = S −1 AS où ⎛ λ1 0 · · · ⎜ 0 λ2 · · · ⎜ A=⎜ . .. ⎝ .. . 0

0

···

(8.46)

matrice A diagonalisable ; en effet, 0 0 .. .

⎞ ⎟ ⎟ ⎟, ⎠

λn

λi (i = 1, 2, . . . , n) désignant les valeurs propres de A, on a évidemment P (λi ) = 0 et ⎛ ⎞ P (λ1 ) 0 ··· 0 ⎜ 0 0 ⎟ P (λ2 ) · · · ⎜ ⎟ P (A) = ⎜ . . .. ⎟ = 0. .. ⎝ .. . ⎠ 0 0 · · · P (λn )  2  n D’autre part A = SAS −1 , A2 = SAS −1 SAS −1 = S A S −1 , . . ., An = S A S −1 ;   −1 on en déduit que P (A) = SP A S = 0. Par exemple si une matrice d’ordre 2 a deux valeurs propres λ1 = 1, λ2 = −1, son équation caractéristique est λ2 − 1 = 0. On a donc A2 = E. C’est le cas des matrices de Pauli (8.15). La démonstration du théorème de Cayley-Hamilton dans le cas général d’une matrice A d’ordre n est un peu plus délicate et peut être omise en première lecture. Partons de l’expression du premier membre de l’équation caractéristique (8.39) P (λ)

= = =

Det (λE − A) λn + k1 λn−1 + . . . + kn−1 λ + kn n

ki λn−i (k0 = 1). i=0

(8.47)

8 − Algèbre linéaire, calcul matriciel

204

On peut écrire par substitution de λ par A : P (A) = An + k1 An−1 + . . . + kn−1 A + kn E =

n

ki An−i

(8.48)

i=0

avec k0 = 1, A0 = E. Par ailleurs la matrice complémentaire de A que nous écrirons par commodité Comp A satisfait à la relation (8.19) qui s’écrit encore A Comp A = E Det A. On a donc aussi : (λE − A) Comp (λE − A) = E Det (λE − A).

(8.49)

Mais on peut toujours écrire Comp (λE − A) sous la forme : Comp (λE − A) =

n−1

Bi λn−1−i

(8.50)

i=0

où les Bi sont des matrices d’ordre n avec B0 = E. En substituant dans (8.48), on a, compte tenu de (8.47) : n−1

λn−i (Bi − ABi−1 ) − ABn−1 (λE − A) Comp (λE − A) = λn E + i=1

= EP (λ) = E

n

ki λn−i .

(8.51)

i=0

Par identification des termes de même degré en λ, on obtient : k0 E = E,

ki E = Bi − ABi−1

(1 ≤ i ≤ n − 1),

kn E = −ABn−1 ,

d’où : B0 = E B1 = A + k1 E B2 = B1 A + k2 E = A2 + k1 A + k2 E Bi = Bi−1 A + ki E = Ai + k1 Ai−1 + . . . + ki E Bn−1 = Bn−2 A + kn−1 E = An−1 + k1 An−2 + . . . + kn−1 E 0 = Bn−1 A + kn E = An + k1 An−1 + . . . + kn−1 A + kn E = P (A)

(8.52)

ce qui démontre le théorème. Le théorème de Cayley-Hamilton permet des simplifications notables dans certains calculs matriciels. Par exemple, considérons la matrice A=

 1 3

 2 . 4

Son polynôme caractéristique s’écrit P (λ) = (λ − 1)(λ − 4) − 6 = λ2 − 5λ − 2. Nous savons donc que A2 − 5A − 2E = 0. On en déduit que A2 = 5A + 2E, A3 = 5A2 + 2A = 27A + 10E A4 = 27A2 + 10A = 145A + 54E.

8.11 − Théorème de Cayley-Hamilton

205

Les différentes puissances de A s’obtiennent ainsi plus rapidement que par un calcul direct. De même en partant de l’expression du théorème de Cayley-Hamilton sous la forme A(A − 5E) = 2E, on obtient l’inverse de A : A−1 = (A − 5E)/2. Remarques : a) Fonction d’une matrice carrée diagonalisable Nous avons vu que si A est diagonalisable en une matrice A par une transformation de similitude S formée à partir de ses vecteurs propres, on a :  n An = S A S −1 . ∞ k Soit une fonction f (x) = k=0 ck x développable en série entière ; si les séries ∞ k f (λi ) = k=0 ck λi convergent pour toutes les valeurs propres λi , ⎛ ⎞ f (λ1 ) 0 ··· 0 ∞ 0 ⎟ f (λ2 ) · · ·  

 k ⎜ ⎜ 0 ⎟ f A = ck A = ⎜ . . .. ⎟ .. ⎝ .. . ⎠ k=0

0

et f (A) =



0

f (λn )

···

  ck Ak = Sf A S −1 .

(8.53)

k=0

Par exemple



eλ1 ⎜ 0 ⎜ eA = S ⎜ . ⎝ .. 0



0 eλ2 .. .

··· ···

0 0 .. .

0

···

eλn

⎟ ⎟ −1 ⎟S . ⎠

b) Puissance fractionnaire d’une matrice Il existe mn racines m-ièmes d’une matrice carrée d’ordre n, à condition que toutes les valeurs propres soient distinctes. On les obtient à l’aide de la formule ⎛ 1/m ⎞ λ1 0 ··· 0 ⎜ ⎟ 1/m ⎜ 0 ··· 0 ⎟ −1 λ2  1/m −1 1/m ⎜ A =S A S =S⎜ . (8.54) .. .. ⎟ ⎟S . . ⎝ . . . ⎠ 0

0

···

1/m

λn

En effet, pour chaque valeur propre λk = |λk |eiφk il y a m racines 1/m

λk

= |λk |1/m ei(φk +2πp)/m

(0 ≤ p ≤ m − 1)

et avec n racines distinctes on a mn valeurs de A1/m . Si la matrice A possède des racines multiples, on trouve une infinité de solutions. Prenons l’exemple de la racine carrée de la matrice   1 0 A= 0 1

8 − Algèbre linéaire, calcul matriciel

206

qui a une valeur propre double λ = 1. On cherche une matrice   a b B= c d telle que B 2 = A, soit    1 0 a2 + bc ab + bd = . ac + cd bc + d2 0 1



On peut prendre soit a = ±1, d = ±1, b = c = 0, soit 1 − a2 = bc, d = −a. On a donc   ±1 0 B= 0 ±1 ou   a b B= c −a avec 1 − a2 = bc, c’est-à-dire une infinité de solutions.

8.12. Application aux quadripôles électriques Par définition un quadripôle est un réseau électrique dans lequel on distingue deux bornes d’entrée et deux bornes de sortie selon la figure 8.1. On se limite ici aux quadripôles linéaires passifs pour lesquels les impédances et les tensions sont indépendantes de l’intensité et qui ne comportent que des résistances, des self-inductances et des capacités. L’étude de ces quadripôles est facilitée par l’usage du calcul matriciel.

Entrée

^

Ie

Is

Ve

Vs

^

Sortie

Figure 8.1 – Quadripôle.

On se place en régime sinusoïdal permanent de sorte que ie = Ie eiωt , is = Is eiωt , ve = Ve eiωt , vs = Vs eiωt , où Ie , Is , Ve , Vs représentent les courants et les tensions complexes à l’entrée et à la sortie du quadripôle, ie , is , ve , vs étant les courants et les tensions instantanés correspondants. Dans ces conditions, les tensions et intensités de sortie dépendent linéairement des tensions et intensités d’entrée. On peut écrire :

    V Vs =Q e Is Ie

(8.55)

8.12 − Application aux quadripôles électriques

207

où Q est une matrice (2 × 2) caractéristique du quadripôle. Si l’on associe plusieurs quadripôles en chaîne, par exemple Q1 , Q2 , Q3 (figure 8.2), on a :           Vs V2 V1 Ve V = Q3 = Q3 Q2 = Q3 Q2 Q1 =Q e , Is I2 I1 Ie Ie soit Q = Q3 Q2 Q1 . La matrice Q est égale au produit des matrices Qi de chaque quadripôle dans l’ordre inverse de leur succession. I1 V1

Q1

I2 V2

Q2

Q3

Is Vs



Sortie

Entrée



Ie Ve

Figure 8.2 – Quadripôles en série.

Exemple : Considérons le quadripôle en T de la figure 8.3 où Z1 Z2 Z3 sont des impédances complexes. Ie

Is Z1

Ve

Z3

Z2

Vs

Figure 8.3 – Quadripôle en T.

On peut décomposer ce quadripôle en trois quadripôles en série (figure 8.4). Ie

I1 Z1

Ve

I2

V1

Z3

V2

Z2

Q1

Is

Q2

Q3

Figure 8.4 – Décomposition d’un quadripôle en T.

Pour Q1 , V1 = Ve − Z1 Ie , I1 = Ie , d’où  1 Q1 = 0 pour Q2 , V2 = V1 , I2 = I1 −

V1 , d’où Z2



 −Z1 , 1

1 Q2 = ⎝ 1 − Z2 pour Q3 , Vs = V2 − Z3 I2 , Is = I2 , d’où Q3 =

 1 0

⎞ 0 ⎠, 1

 −Z3 . 1

Vs

8 − Algèbre linéaire, calcul matriciel

208 Finalement, ⎛

Z3 1+ ⎜ Z2 Q = Q3 Q2 Q1 = ⎝ 1 − Z2

⎞  Z1 Z3 − Z1 + Z3 + Z2 ⎟ . ⎠ Z1 +1 Z2

(8.56)

Impédance itérative d’un quadripôle Considérons un quadripôle dont la matrice caractéristique est Q. Si l’on ferme ce quadripôle sur une impédance Z, il présentera à l’entrée une impédance apparente Ze (figure 8.5). Ie

Is

Ve

Vs

Z

Figure 8.5 – Quadripôle fermé sur une impédance Z.

Nous avons : Vs = ZIs , Ve = Ze Ie ,

(8.57)

où Ze est l’impédance d’entrée. Par définition l’impédance itérative Zi est une impédance Z égale à l’impédance d’entrée : Z = Ze = Zi . On doit donc avoir Vs /Is = Ve /Ie = Zi , soit Vs /Ve = Is /Ie = λ. Ceci se traduit par la relation        Vs Ve λ 0 Ve =Q = . (8.58) Is Ie Ie 0 λ Il est clair que λ est une valeur propre de la matrice Q et que   Ve Ie est le vecteur colonne propre associé. L’impédance itérative s’obtient à partir du rapport Ve /Ie . Plus précisément si l’on écrit la matrice caractéristique du quadripôle sous la forme   Q11 Q12 Q= , Q21 Q22 on a : Q11 Ve + Q12 Ie = λVe (8.59) Q21 Ve + Q22 Ie = λIe δ Q11 + Q22 2 ± , δ = (Q11 − Q22 ) + 4Q12 Q21 . 2 2 D’après (8.59) on a : Ve Q12 λ − Q22 Zi = = = . Ie λ − Q11 Q21

et

λ=

(8.60)

(8.61)

8.13 − Espace vectoriel réel Rn

209

Par exemple pour le quadripôle en T de la figure 8.4, on a d’après (8.56) et (8.60) " 2 Z1 + Z3 Z1 + Z3 1 Z1 + Z3 λ=1+ ± +4 , (8.62) 2Z2 2 Z2 Z2 et d’après (8.61), Zi =

1 Z1 − Z3 ∓ 2 2

2 (Z1 + Z3 ) + 4Z2 (Z1 + Z3 ).

(8.63)

8.13. Espace vectoriel réel Rn 8.13.1. Définition, produit scalaire et bases Par définition, l’ensemble Rn est formé des familles de n nombres réels x1 , x2 , . . . , xn . Il est commode de représenter une telle famille X par une matrice colonne ⎛ ⎞ x1 ⎜ x2 ⎟ ⎜ ⎟ X =⎜ . ⎟ (8.64) ⎝ .. ⎠ xn ou par une matrice ligne  X T = x1

x2

···

 xn .

Les opérations d’addition de deux matrices et de multiplication d’une matrice par un scalaire s’appliquent aux matrices de Rn et elles ont les mêmes propriétés algébriques que les opérations analogues relatives aux vecteurs de l’espace géométrique ordinaire E3 à trois dimensions. C’est pourquoi, on dit que Rn est un espace vectoriel réel et l’un  Les composantes de ses éléments X peut être désigné par la notation vectorielle X.  sont les nombres réels définissant ce vecteur. naturelles (ou canoniques) de X  et Y  est la grandeur scalaire Le produit scalaire de deux vecteurs X  ·Y  = X T Y = x1 y1 + x2 y2 + . . . + xn yn . X

(8.65)

Le carré de la longueur du vecteur est défini par :  ·X  = X T X = x21 + x22 + . . . + x2n . l2 = X

(8.66)

Considérons p vecteurs u1 , u2 , . . . , up de Rn . Ces vecteurs sont linéairement indépendants s’il n’existe aucun jeu de nombres réels c1 , c2 , . . . , cp non tous nuls tels que c1 u1 + c2 u2 + . . . + cp up = 0.

(8.67)

Dans le cas contraire, les vecteurs sont linéairement dépendants. Des vecteurs linéairement indépendants sont nécessairement tous non nuls. On appelle base de Rn un

8 − Algèbre linéaire, calcul matriciel

210

jeu de p vecteurs u1 , u2 , . . . , up linéairement indépendants dont les combinaisons linéaires engendrent tous les vecteurs de Rn . On peut montrer le théorème fondamental suivant : toutes les bases d’un espace vectoriel ont le même nombre d’éléments, appelé dimension de cet espace. Par exemple, les n vecteurs unité ei définis par les vecteurs colonne ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 0 0 0 ⎜0⎟ ⎜1⎟ ⎜0 ⎟ ⎜0⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ e1 = ⎜0⎟ , e2 = ⎜0⎟ , e3 = ⎜1⎟ , . . . , en = ⎜0⎟ ⎜ .. ⎟ ⎜ .. ⎟ ⎜ .. ⎟ ⎜ .. ⎟ ⎝.⎠ ⎝.⎠ ⎝.⎠ ⎝.⎠ 0

0

0

1

forment une base, dite naturelle, de Rn qui est donc de dimension n. En effet, il est  s’écrit sous clair que ces vecteurs sont linéairement indépendants et tout vecteur X la forme :  = x1e1 + x2e2 + . . . + xnen (8.68) X  utilisé pour les nombres x1 , x2 , . . . , xn . qui justifie le terme de composantes de X  s’exprime sous forme d’une combinaison linéaire unique des ei . Plus Tout vecteur X  s’écrit encore comme généralement, si u1 , u2 , . . . , un est une base différente des ei , X une combinaison linéaire unique, mais différente des ui . Les vecteurs ei ont une longueur unité et sont mutuellement orthogonaux car ei · ej = eTi ej = δij .

(8.69)

On dit que cette base est orthonormée. On peut construire une infinité de bases à partir des combinaisons linéaires des vecteurs u1 , u2 , . . . , un d’une base donnée, mais par simple extension des concepts de la géométrie, on peut choisir ces combinaisons de sorte qu’elles soient mutuellement orthogonales et de longueur unité pour former une base orthonormée.

8.13.2. Processus d’orthogonalisation de Schmidt Si l’on part d’une base formée par n vecteurs indépendants u1 , u2 , . . . , un qui forment une base quelconque de l’espace vectoriel Rn , il est possible de construire simplement à partir de ces vecteurs une base orthonormée e1 , e2 , . . . , en de la manière suivante : • On choisit un vecteur, par exemple u1 et on pose v1 = u1 ,

e1 = v1 /l1

où l1 est la longueur de u1 , c’est-à-dire que u1 · u1 = l12 . • On définit v2 = u2 − c21e1 et l’on choisit c21 de manière à ce que v2 · e1 = u2 · e1 − c21 = 0, d’où c21 = u2 · e1 et v2 = u2 − (u2 · e1 ) u1 . Donc si l’on pose e2 = v2 /l2 , l2 étant la longueur de v2 , on a e1 · e2 = δ12 .

8.13 − Espace vectoriel réel Rn

211

• On définit ensuite v3 = u3 − c31e1 − c32e2 et on cherche les constantes pour que v3 · e1 = v3 · e2 = 0, d’où u3 · e1 − c31 = 0, u3 · e2 − c32 = 0 et v3 = u3 − (u3 · e1 ) u1 − (u3 · e2 ) u2 de sorte que e3 = v3 /l3 . On poursuit le processus jusqu’à l’obtention de l’ensemble complet des vecteurs de base ; en particulier on a : vn = un −

n−1

(un · ek ) ek ;

en = vn /ln .

k=1

8.13.3. Représentation d’un opérateur linéaire  en un Soit un opérateur linéaire α qui, dans un espace Rn transforme un vecteur X  vecteur Y et une base orthonormée complète ei (i = 1, . . . , n) de cet espace. On peut écrire :  = n xj ej ; αX  = n yiei .  =Y X j=1 i=1 On a :  = ei · αX  = yi = ei · Y

n

xj ei · αej .

j=1

Mais αej est un vecteur de Rn qui s’écrit αej =

n

Akj ek avec Akj = ek · αej . Donc

k=1

yi =

n

Aij xj .

(8.70)

j=1

Sous forme matricielle cette relation s’écrit : ⎛ ⎞ ⎛ y1 A11 A12 A13 ⎜ y2 ⎟ ⎜ A21 A22 A23 ⎜ ⎟ ⎜ ⎜ .. ⎟ = ⎜ .. ⎝.⎠ ⎝ . yn

An1

An2

An3

··· ···

⎞⎛ ⎞ A1n x1 ⎜ x2 ⎟ A2n ⎟ ⎟⎜ ⎟ .. ⎟ ⎜ .. ⎟ . . ⎠⎝ . ⎠

···

Ann

(8.71)

xn

L’opérateur α est représenté dans la base orthonormée par une matrice carrée A (n × n) et l’on a Y = AX (8.72)  et Y . X et Y étant les vecteurs colonnes représentant X Cas d’une transformation orthogonale Dans le cas particulier où la matrice A est orthogonale, AT A = E, la transformation laisse la longueur d’un vecteur invariante, c’est-à-dire que n

i=1

x2i

=

n

i=1

y12

ou X T X = Y T Y .

(8.73)

8 − Algèbre linéaire, calcul matriciel

212

En effet, d’après (8.72), Y T Y = X T AT AX = X T EX = X T X. De plus, on a Det (AT A) = (Det A)(Det AT ) = 1. Mais Det AT = Det A puisque le déterminant reste inchangé en permutant les lignes et les colonnes. Donc (Det A)2 = 1 et Det A = ±1.

8.13.4. Changement de base Soit un espace vectoriel Rn et deux bases orthonormées distinctes e1 , e2 , . . . , en et  quelconque de Rn s’écrit e1 , e2 , . . . , en de cet espace. Un vecteur X n

 = X

xiei =

i=1

n

xI eI

(8.74)

I=1

 et x = e · X.  Mais e est un vecteur de Rn qui peut s’exprimer avec xi = ei · X I I I dans la base e1 , e2 , . . . , en sous la forme eI =

n

SiI ei =

i=1

n

RIiei

(8.75)

i=1

où R = S T est une matrice (n × n). Notons que pour décrire la transformation permettant de passer de la base ei à la base eI , on peut aussi bien choisir la matrice S que la matrice R. Evidemment on peut écrire en sens inverse ei =

n

(S −1 )Ii eI .

(8.76)

I=1

Vu que les bases sont orthonormales, on a encore eI · eJ

n

= =

SiI SjJ ei · ej =

i,j=1 n

n

i=1

i=1

SiI SiJ =

n

SiI SjJ δij

i,j=1

  T SJi SiI = S T S JI = δIJ

où S est la matrice transposée de S, ce qui montre que S est orthogonale : S T S = E. T = SiI et d’après (8.74), (8.75) et (8.76). Ainsi S −1 Ii = SIi T

 = X

n

xiei =

i=1

Donc

n

xi SiI eI =

i,I=1

xI =

n

n

xI eI .

I=1

SiI xi .

(8.77)

i=1

Les nouvelles composantes xI se déduisent des anciennes composantes xi à l’aide de la même transformation S qui permet de passer des anciens vecteurs de base aux nouveaux. En inversant la relation (8.77) on a n n



 −1   S xi = x = SiI xI Ii I I=1

I=1

(8.78)

8.13 − Espace vectoriel réel Rn

213

qui est similaire à (8.76). En introduisant les vecteurs colonnes X et X  de composantes xi et xI , (8.78) s’écrit : (8.79) X = SX  . Notons que si une matrice A représente un opérateur α dans une base ei avec les éléments Aij = ei · αej , dans la nouvelle base eI , α est représenté par une matrice A d’éléments AIJ = eI · αe J . On a d’après (8.75) : ⎞ ⎛ n n



AIJ = SiI ei · α ⎝ SjJ ej ⎠ = =

i=1 n

i,j=1 n

j=1

SiI Aij SjJ  −1    S A S = S −1 AS IJ , Ii ij jJ

i,j=1

ce qui montre que

A = S −1 AS et A = SAS −1 .

(8.80)

8.13.5. Application aux rotations planes Considérons dans un plan deux axes orthogonaux Ox, Oy d’origine O, de vecteurs  d’origine O et d’extrémité M s’écrit dans cette unitaires de base i et j. Un vecteur V  = xi + yj. Effectuons une rotation R(ϕ) d’un angle ϕ des axes de coordonnées. base V On obtient de nouveaux axes Ox , Oy  de vecteurs unitaires i , j et, dans cette base,  = x i + y  j (figure 8.6a). Comme V      i i cos ϕ sin ϕ = j , − sin ϕ cos ϕ j on a :

   cos ϕ x = y − sin ϕ

    sin ϕ x x = R(ϕ) . cos ϕ y y

La rotation est représentée par la matrice  cos ϕ R(ϕ) = − sin ϕ

 sin ϕ . cos ϕ

(8.81)

(8.82)

On vérifie que la matrice R(ϕ) est orthogonale. L’équation (8.81) permet d’expri dans la base i , j , en fonction de ses anciennes mer les nouvelles composantes de V composantes dans la base i, j. Maintenant plaçons-nous dans le système Oxy et faisons tourner le vecteur V de composantes x = r cos θ, y = r sin θ (figure 8.6b) d’un angle ϕ. Le nouveau vecteur V  aura, dans ce système, des composantes x = r cos (θ + ϕ) = r (cos θ cos ϕ − sin θ sin ϕ) = x cos ϕ − y sin ϕ y  = r sin (θ + ϕ) = r (sin θ cos ϕ + cos θ sin ϕ) = x sin ϕ + y cos ϕ

8 − Algèbre linéaire, calcul matriciel

214 soit

       x cos ϕ − sin ϕ x x = = R(−ϕ) , sin ϕ cos ϕ y y y

(8.83)

 . La rotation d’un vecteur V  d’un angle ϕ dans un c’est-à-dire que V  = R(−ϕ)V système d’axes se traduit de la même manière qu’une rotation d’un angle −ϕ de ce système d’axes en laissant le vecteur fixe. y’

y

(a) V

ij j’

j O i

i’

M

y

(b) V r ij r ș

x’

ij x

O

V’ x

Figure 8.6 – Rotation plane (a) des axes de coordonnées, (b) d’un vecteur.

8.13.6. Application aux rotations dans l’espace : angles d’Euler Le mouvement d’un solide par rapport à un référentiel fait intervenir 6 paramètres : les trois coordonnées décrivant la position de son centre de masse (ou d’un point quelconque du solide) et trois angles qui sont les angles d’Euler (figure 8.7). Plus précisément on passe dans l’espace géométrique à 3 dimensions d’un trièdre fixe Oxyz au trièdre lié au solide Ox y  z  par trois rotations successives. • La précession ψ autour de l’axe Oz qui fait passer de Oxyz au trièdre Ouvz. • La nutation θ autour de l’axe Ou qui fait passer de Ouvz au trièdre Ouwz  . • La rotation propre ϕ autour de l’axe Oz  qui fait passer de Ouwz  au référentiel lié au solide Ox y  z  . D’après (8.81), on a successivement : ⎛ ⎞ ⎛ u cos ψ sin ψ ⎝v ⎠ = ⎝− sin ψ cos ψ z 0 0

⎞⎛ ⎞ ⎛ ⎞ 0 x x 0⎠ ⎝y ⎠ = A ⎝y ⎠ , 1 z z

⎞⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ 1 0 0 u u u ⎝w ⎠ = ⎝0 cos θ sin θ ⎠ ⎝v ⎠ = B ⎝v ⎠ , 0 − sin θ cos θ z z z ⎛ ⎞ ⎛ ⎞⎛ ⎞ ⎛ ⎞ x cos ϕ sin ϕ 0 u u ⎝y  ⎠ = ⎝− sin ϕ cos ϕ 0⎠ ⎝w ⎠ = C ⎝ v ⎠ z 0 0 1 z z

8.13 − Espace vectoriel réel Rn

215

z

ȥ

v

ȥ

O

y

ȥ

(a)

u

x

z z’ w

ș

ș

v

O

y

 ș

(b)

u

x z z’

ij

y’

w

ij

v

O

x’

ij x

y (c)

u

Figure 8.7 – Angles d’Euler ; ψ˙ = dψ/dt, θ˙ = dθ/dt, ϕ˙ = dϕ/dt représentent les vitesses angulaires de rotation autour des axes Oz, Ou et Oz  respectivement.

et avec

⎛ ⎞ ⎛ ⎞ ⎛ ⎞ x x x ⎝y  ⎠ = CBA ⎝y ⎠ = R(ψ, θ, ϕ) ⎝y ⎠ z z z ⎛

cϕ cψ − sϕ cθ sψ R(ψ, θ, ϕ) = ⎝−sϕ cψ − cϕ cθ sψ sθ sψ

cϕ sψ + sϕ cθ cψ −sϕ sψ + cϕ cθ cψ −sθ cψ

où nous avons adopté les notations cX = cos X et sX = sin X.

(8.84) ⎞ sϕ sθ cϕ sθ ⎠ , cθ

(8.85)

216

8 − Algèbre linéaire, calcul matriciel

La matrice R étant orthogonale, puisque A, B, C le sont, la transformation inverse s’effectue par la matrice R−1 (ψ, ϕ, θ) = RT (ψ, ϕ, θ) soit : ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ x x cϕ cψ − sϕ cθ sψ −sϕ cψ − cϕ cθ sψ sθ sψ ⎝y ⎠ = ⎝cϕ sψ + sϕ cθ cψ −sϕ sψ + cϕ cθ cψ −sθ cψ ⎠ ⎝y  ⎠ (8.86) sϕ sθ cϕ sθ cθ z z Les équations (8.85) et (8.86) permettent de relier les composantes x , y  , z  d’un vecteur dans le trièdre mobile à ses composantes x, y, z dans le trièdre fixe et réciproquement. Il s’agit encore d’un changement de base.

8.14. Espace vectoriel complexe C n 8.14.1. Généralités, produit scalaire hermitique Souvent, les matrices qui interviennent dans les problèmes physiques sont complexes. Il faut alors généraliser ce que nous avons vu à propos des espaces vectoriels réels. L’ensemble C n est formé des familles X de n nombres complexes x1 , x2 , . . . , xn que l’on peut représenter par une matrice colonne analogue à (8.64) ou une matrice ligne. Les propriétés d’addition et de multiplication d’une matrice par un scalaire sont les mêmes que pour Rn ; on dit que C n est un espace vectoriel complexe. Les composantes naturelles d’un vecteur X de cet espace sont les nombres complexes x1 , x2 , . . . , xn . Le produit scalaire hermitique de deux vecteurs s’écrit : X † Y = x∗1 y1 + x∗2 y2 + . . . + x∗n yn =

n

x∗i yi .

(8.87)

i=1

Notons que

 ∗ Y †X = X †Y .

(8.88)

Le produit scalaire hermitique d’un vecteur par lui même est réel et désigné comme le carré de la norme  X  du vecteur :  X 2 = X † X =

n

x∗i xi =

i=1

n

|xi |2 .

(8.89)

i=1

Si X † Y = Y † X = 0, les deux vecteurs X et Y sont orthogonaux. Si X † X = 1 on dit que X est un vecteur unité ou un vecteur normalisé ou normé. Par extension de ce que nous avons vu pour Rn , une base orthonormée d’un espace C n à n dimensions est formée de n vecteurs unités e1 , e2 , . . . , en obéissant aux relations e†i ej = δij . Le produit scalaire hermitique est distributif par rapport à l’addition : X † (Y + Z) = X † Y + X † Z.

(8.90)

8.14 − Espace vectoriel complexe C n

217 †

Si A est une matrice (n×n) quelconque, A† sa matrice adjointe, vu que (AX) = X † A† , on a : † (AX) Y = X † A† Y . (8.91)      † ∗ De même, X † AY = A† X Y = Y † A† X , d’où :  † ∗ X AY = Y † A† X.

8.14.2. Matrices hermitiques Rappelons qu’une matrice hermitique H est une matrice auto-adjointe c’est-à-dire égale à sa matrice adjointe :   ∗ H = H † Hij = H † ij = Hji . (8.92) Les matrices hermitiques jouent un rôle essentiel en mécanique quantique. On définit une forme bilinéaire hermitique de n variables complexes xi (i = 1, . . . , n) par la relation H(X, X) =

n

Hij x∗i xj = X † HX

H = H† .

(8.93)

i,j=1

Il est facile de vérifier que la forme H(X, X) est réelle puisque ∗

H (X, X) =

n

∗ Hij xi x∗j =

i,j=1

n

Hji x∗j xi = H(X, X).

i,j=1

Les matrices hermitiques jouissent de deux propriétés fondamentales qui sont à l’origine de leur importance. a) Les valeurs propres d’une matrice hermitique sont réelles. En effet, par définition, HX = λX, X † HX = λX † X. Comme nous avons vu que H(X, X) est réel et que X † X =

n

i=1

x∗i xi =

n

|xi |2

i=1

est réel, on en déduit que λ est réel. b) Les vecteurs propres associés à deux valeurs propres différentes sont orthogonaux. Si   HX = λX, HX  = λ X  (λ = λ ), En multipliant la première équation par X † à gauche et la seconde équation par X † à gauche, on obtient : 

X † HX = λX † X, X † HX  = λ X † X  . En retranchant de la première égalité ci-dessus l’adjoint de la seconde, on a :  (λ − λ )X † X = 0 d’où X † X = 0, ce qui montre l’orthogonalité des deux vecteurs.

8 − Algèbre linéaire, calcul matriciel

218

Base propre d’une matrice hermitique On peut normer les vecteurs propres d’une matrice hermitique H d’ordre n ; ils forment alors une base orthonormée de Cn . La matrice S formée par ces vecteurs propres est unitaire. En effet, ⎛ †⎞ X1 ⎜X † ⎟ ⎜ 2⎟ S = (X1 , X2 , . . . , Xn ) , S † = ⎜ . ⎟ (8.94) ⎝ .. ⎠ Xn†

et



X1† X1 ⎜ X † X1 ⎜ 2 S†S = ⎜ . ⎝ ..

Xn† X1

X1† X2 X2† X2

··· ···

Xn† X2

···

⎞ ⎛ X1† Xn 1 ⎜0 X2† Xn ⎟ ⎟ ⎜ = ⎜. .. ⎟ . . ⎠ ⎝. † 0 Xn Xn

0 ··· 1 ···

⎞ 0 0⎟ ⎟ .. ⎟ = E. .⎠

0 ···

1

Si les valeurs propres distinctes λ1 , λ2 , . . . , λi de la matrice H sont multiples d’ordre g1 , g2 , . . . , gi , les vecteurs propres associés à λi forment un espace vectoriel Ei à gi dimensions. Dans Ei on peut trouver gi vecteurs orthonormés Xik (k = 1, 2, . . . , gi ). Nous disposons ainsi d’une famille de vecteurs orthonormés Xik qui obéissent à : † Xik = δkk . Xik

Mais nous savons d’après la propriété b) que : † Xij Xjk = 0 (i = j).

Au total,

† Xik Xjk = δij δkk .

(8.95)

Les vecteurs Xik constituent une base orthonormée, et nous admettrons qu’elle est complète. C’est la base propre de H. Si toutes les valeurs propres de H sont simples, l’indice k devient inutile, chaque vecteur propre est unique, mise à part la possibilité de le multiplier par un facteur de module 1 qui laisse Xi normé. Notons que par définition on a : HXik = λi Xik , d’où l’on déduit que † Xjk  HXik = λi δij δkk .

(8.96)

Diagonalisation d’une forme bilinéaire hermitique Considérons la forme bilinéaire H(X, X) définie par (8.93) où la matrice H est hermitique et ⎛ ⎞ x1 ⎜ x2 ⎟ ⎜ ⎟ X = ⎜ . ⎟. ⎝ .. ⎠ xn

8.14 − Espace vectoriel complexe C n

219

Posons X = SX  où S est la matrice formée par les vecteurs propres normés de H, définie par (8.94). On a : †

H(X, X) = (SX  ) HSX  = X † S † HSX  = X † S −1 HSX  . Mais d’après (8.42), HS = SH et S −1 HS = H, H étant la matrice diagonale d’éléments H ij = λi δij . Donc si xi (i = 1, . . . , n) désignent les composantes de X  , n

Hij x∗i xj = H(X, X) = X † HX  =

i,j=1

n

 x∗ i H ij xj =

i,j=1

n

λi |xi |2 .

(8.97)

i=1

Nous avons diagonalisé la forme bilinéaire hermitique. Fonction de matrice hermitique Une matrice hermitique H d’ordre n peut s’écrire sous la forme H=

n

Xi λi Xi†

(8.98)

i=1

où les Xi sont les vecteurs propres normés associés aux valeurs propres λi . (Par simplicité on a pris le cas de valeurs propres simples, mais en rajoutant un indice supplémentaire on peut aussi traiter le cas des valeurs propres multiples). En effet, on a : n n



HXj = Xi λi Xi† Xj = Xi λi δij = λj Xj i=1

i=1

comme il se doit. Ainsi, H2 =



Xi λi Xi†



i

Xj λj Xj† =



j

Xi λ2i Xi† .

i

Une fonction f (H) s’écrit de même f (H) =



Xi f (λi )Xi†

(8.99)

i

sous réserve que f (λi ) ait un sens pour toutes les valeurs propres. On peut ainsi calculer simplement les racines carrées d’une matrice hermitique :

 √ H= Xi λi Xi† . i

√ Exemple. Soit à calculer A où

 2 A= 1

 1 . 2

Les valeurs propres sont λ1 = 1, λ2 = 3 et les vecteurs propres normés associés     1 1 1 1 X1 = √ , X2 = √ . 2 −1 2 1

8 − Algèbre linéaire, calcul matriciel

220

√ √ √ D’où, en choisissant λ1 = 1 et λ2 = 3,     √  1 1 √  1  1 −1 + A= 3 1 1 −1 2 On vérifie que

√    1 1+ 3 √ 1 = 2 −1 + 3

√  −1 +√ 3 1+ 3

√ 2 A = A.

8.14.3. Matrices unitaires Rappelons qu’une matrice unitaire est définie par la relation (8.13), c’est-à-dire par AA† = A† A = E, soit A† = A−1 . Ces matrices possèdent les propriétés suivantes : a) Le produit de deux matrices unitaires A et B est aussi unitaire car †

(AB) = B † A† = B −1 A−1 = (AB)

−1

.

b) L’inverse d’une matrice unitaire est unitaire car −1   −1 †  † † = A = A = A−1 . A c) Les matrices unitaires conservent la norme d’un vecteur. En effet si Y = AX, A étant unitaire, Y † Y = (AX)† AX = X † A† AX = X † X.

(8.100)

Les valeurs propres d’une matrice unitaire sont des nombres complexes de module 1. En effet, si AX = λX, en prenant le carré de la norme des deux membres de cette égalité on a d’après (8.100) : †

X † X = (λX) λX = X † λ∗ λX = |λ|2 X † X, d’où

|λ|2 = 1, λ = eiϕ .

(8.101)

d) Deux vecteurs propres associés à deux valeurs propres différentes d’une matrice unitaire sont orthogonaux : Si AX1 = λ1 X1 , AX2 = λ2 X2 , λ1 = λ2 X2† X1 =

(AX2 )† AX1 X2† X1 = . λ∗2 λ1 λ∗2 λ1

Mais d’après (8.101), λ∗2 λ1 = e−iϕ2 eiϕ1 = 1, donc X2† X1 = 0.

8.15 − Formes quadratiques et applications

221

8.15. Formes quadratiques et applications 8.15.1. Diagonalisation d’une forme quadratique réelle Considérons la forme quadratique de n variables réelles xi (i = 1, . . . , n) A(X, X) =

n

xi Aij xj

A = AT

(8.102)

i,j=1

où A est une matrice symétrique réelle. Notons que si l’on considère le cas où A est réelle mais pas symétrique, le coefficient de xi xj étant Aij + Aji , on ne change pas A(X, X) en remplaçant Aij et Aji par (Aij + Aji ) /2 et on se ramène à la forme symétrique (8.102). Cette dernière apparaît comme un cas particulier de (8.93) et sa diagonalisation s’effectue de la même manière en posant X = SX  , où S est la matrice formée par les vecteurs propres normés de A que l’on peut choisir réels puisqu’ils sont donnés, à un coefficient multiplicatif près, par les cofacteurs des matrices (A − λi E) qui sont réelles (voir section 8.10.2). La matrice S est donc orthogonale S = S T , et X  = S T X. La forme quadratique devient : n

xi Aij xj = A(X, X) =

i,j=1

n

λi x2 i .

(8.103)

i=1

Si A(X, X) > 0 pour toutes les valeurs des variables xi , on dit que la forme quadratique est définie positive ; les valeurs propres de A sont toutes positives. Si A(X, X) ≥ 0 pour toutes les valeurs des variables xi , on dit que la forme quadratique est semi définie ; les valeurs propres de A sont positives ou nulles. Exemple : Soit à diagonaliser la forme quadratique   f (x1 , x2 , x3 ) = a x21 + x22 + x23 + 2bx2 (x1 + x3 ) où a, b et les variables xi sont réels. La matrice A s’écrit : ⎛ ⎞ a b 0 A = ⎝b a b⎠ . 0 b a   Son équation caractéristique (a − λ) (a − λ)2 − 2b2 = 0 donne les valeurs propres √ √ λ1 = a, λ2 = a + b 2, λ3 = a − b 2 et les vecteurs propres normés correspondants sont : ⎞ ⎞ ⎛ √ ⎞ ⎛ ⎛ 1/2 1/2 1/ 2 √ √ X1 = ⎝ 0√ ⎠ , X2 = ⎝1/ 2⎠ , X3 = ⎝−1/ 2⎠ . 1/2 1/2 −1/ 2 Les matrices S et S T s’écrivent ⎛ √ ⎞ 1/ 2 1/2 1/2 √ √ S = ⎝ 0√ 1/ 2 −1/ 2⎠ , −1/ 2 1/2 1/2

⎛ √ 1/ 2 S T = ⎝ 1/2 −1/2

√ ⎞ 0√ −1/ 2 1/2 ⎠ 1/ √2 −1/ 2 1/2

8 − Algèbre linéaire, calcul matriciel

222 et 1 x1 = √ (x1 − x3 ) , 2

1 1 x2 = √ x2 + (x1 + x3 ) , 2 2

1 1 x3 = − √ x2 + (x1 + x3 ) . 2 2

La forme quadratique devient :

√ 2 √ 2 f (x1 , x2 , x3 ) = ax2 1 + a + b 2 x2 + a − b 2 x3 .

8.15.2. Application à l’étude des petits mouvements Il s’agit d’un exemple d’application de la diagonalisation de formes quadratiques permettant l’analyse des petites oscillations d’un système mécanique autour de sa position d’équilibre stable et notamment l’étude des vibrations moléculaires. Soit un système à f degrés de liberté qi (i = 1, . . . , f ), c’est-à-dire qu’il faut f paramètres pour définir la position de ce système. Une position d’équilibre stable du (0) système correspond à un minimum d’énergie potentielle V (qi ) pour qi = qi = 0, ce qui revient à choisir l’origine de l’espace de configuration en ce point. On peut développer V (qi ) autour de la position d’équilibre et écrire pour les petits mouvements autour de cette position :  2 

 ∂V  1

∂ V qi + qi qj + . . . V (qi ) = V (0) + ∂q 2 ∂q i 0 i ∂qj 0 i i,j On sait que pour tous les qi ,



∂V ∂qi 0

= 0. En se limitant aux termes quadratiques et en

remarquant que V (0) correspondant à l’équilibre est une simple constante ne jouant aucun rôle puisque l’on peut choisir l’origine des énergies arbitrairement, on a :

2V = Vij qi qj ≥ 0 (8.104) ij



avec Vij = Vji =

∂2V ∂qi ∂qj

 . 0

Ainsi 2V est une forme quadratique positive ou nulle. D’autre part l’énergie cinétique i correspondant à ces petits mouvements s’écrit en posant q˙i = dq dt :

gij q˙i q˙j (8.105) 2T = ij

où les coefficients gij sont des constantes ou des fonctions des qi . Nous avons deux formes quadratiques correspondant à l’énergie potentielle et à l’énergie cinétique et nous allons effectuer des transformations permettant de les diagonaliser simultanément. Effectuons un premier changement de coordonnées à l’aide d’une transformation orthogonale R :

Rik qk . (8.106) qi = k

8.15 − Formes quadratiques et applications On a alors :

2T =



 ˙ ˙ qi qj gij

223

avec g  = RT gR .

ij

Si l’on choisit R de manière à ce que g  soit diagonal, c’est-à-dire que R est la matrice formée par les vecteurs propres normés de la matrice g, on a :

2

 ˙ 2 Q˙ i gii (8.107) qi = 2T = i

i

avec



Qi =

 q . gii i

(8.108)

L’énergie potentielle devient alors 2V =



Aij Qi Qj

(8.109)

ij

avec

  T R V R ij Aij = .  g gii jj

Notons que souvent l’énergie cinétique se présente sous forme diagonale et que l’on a √ directement les formes (8.107) et (8.109) en posant simplement Qi = gii qi . Effectuons un nouveau changement de coordonnées à l’aide de la matrice orthogonale S qui diagonalise la matrice A,

ˆk. Qi = Sik Q (8.110) k

On a S T AS = Aˆ et l’énergie potentielle (8.109) devient :

ˆ2 Aˆkk Q 2V = k

(8.111)

k

où les éléments Aˆkk sont les valeurs propres de la matrice A. Dans cette transformation l’énergie cinétique donnée par (8.107) devient : 2T =

ˆ Q˙2k

(8.112)

k

puisque S T ES = E. ˆ k sont : Avec ces nouvelles coordonnées, les moments conjugués Pˆk associés aux Q ∂T Pˆk = = Qˆ˙k ˆ ˙ ∂ Qk et les équations du mouvement s’écrivent très simplement : ∂V Pˆ˙k = − , ˆk ∂Q

8 − Algèbre linéaire, calcul matriciel

224 soit Posons Aˆkk

ˆ ˆ k = 0. ¨ k + Aˆkk Q Q = ωk2 (2V étant ≥ 0, Aˆkk ≥ 0) ; on a :

(8.113)

ˆ k = αk cos (ωk t + ϕk ) . Q

(8.114)

ˆ k , dite coordonnée normale, on a un mouvement harmoPour chaque coordonnée Q ˆ l=k = 0, on dit que l’on a affaire ˆ k = 0, Q nique. Si une seule coordonnée est excitée, Q au mode normal de vibration k. Les ωk sont les pulsations propres. Le mouvement le plus général du système peut s’exprimer à l’aide des coordonnées normales et d’après (8.106), (8.108) et (8.110) on a : qi =

Rij Sjk ˆk. Q  gjj jk

ˆ Les pulsations propres sont les racines carrées des valeurs propres Aˆkk de la matrice A, donc des valeurs propres de la matrice A définie par (8.109). Exemple : Modes normaux d’un oscillateur couplé à deux degrés de liberté. Soit une masse m se déplaçant dans un plan xOy. Son énergie cinétique T et son énergie potentielle V sont données par : T =

 1  2 m x˙ + y˙ 2 , 2

V =

 1  2 k x + y 2 − Cxy . 2

En l’absence du terme de couplage (C = 0), on aurait deux oscillateurs indépendants et les équations du mouvement seraient simplement : m¨ x + kx = 0, soit :

m¨ y + ky = 0,

 y¨ + ω02 y = 0, ω0 = k/m. √ √ Si C =  0, il faut diagonaliser V . On pose Q1 = mx, Q2 = my et l’on a :    2 2 2T = Q˙ 1 + Q˙ 2 , 2V = ω02 Q21 + Q22 − 2ω12 Q1 Q2 ω1 = C/m. x ¨ + ω02 x = 0,

La matrice A définie par (8.109) s’écrit :  2 ω0 A= −ω12

−ω12 ω02

 ;

ses valeurs propres sont ω02 − ω12 , ω02 + ω12 et les vecteurs propres normés associés     1 1 1 1 √ , √ 1 −1 2 2 respectivement. La matrice S qui diagonalise A est   1 1 1 S=√ . 2 1 −1

8.16 − Espace vectoriel et algèbre de Dirac

225

ˆ ˆ En résumé on a deux modes   normaux Qa , Qb correspondant aux pulsations propres ωa = ω02 − ω12 et ωb = ω02 + ω12 et l’on a : 1 ˆ ˆ Q1 = √ Q a + Qb 2 d’où

1 ˆ ˆ Q2 = √ Q a − Qb 2

1 x= √ [αa cos (ωa t + ϕa ) + αb cos (ωb t + ϕb )] 2m 1 y=√ [αa cos (ωa t + ϕa ) − αb cos (ωb t + ϕb )] . 2m

Les constantes αa , αb , ϕa , ϕb sont déterminées par les conditions initiales.

8.16. Espace vectoriel et algèbre de Dirac Nous voulons généraliser les notions de base et d’opérateur linéaire introduites dans le cas des espaces vectoriels Rn et C n aux sections 8.13 et 8.14 à un espace vectoriel quelconque En . Cette généralisation s’impose en mécanique quantique pour décrire l’état dynamique d’un système microscopique (particule, atome, etc.). Cet état est caractérisé par un ensemble de valeurs numériques (les nombres quantiques) qui correspondent à des résultats de mesure. Par exemple l’état orbital d’un électron dans un atome est caractérisé par les nombres quantiques n, l, ml où n = 1, 2, 3, . . . est le nombre quantique principal qui numérote la couche atomique 0 ≤ l ≤ n − 1, caractérise le moment cinétique orbital de l’électron et −l ≤ ml ≤ l représente la composante de ce moment orbital selon un axe. De plus, ces états obéissent à un principe fondamental qui est le principe de superposition linéaire : les états dynamiques possibles d’un système quantique possèdent la propriété d’être linéairement superposables et peuvent donc être représentés par des vecteurs d’un espace vectoriel abstrait. Dirac a élaboré un formalisme à la fois simple et élégant permettant de décrire les propriétés des systèmes physiques considérés dans cet espace.

8.16.1. Vecteurs droits et gauches Suivant les hypothèses précédentes, on associe à chaque état dynamique un vecteur auquel nous donnons, après Dirac , le nom de vecteur droit ou de ket que nous représentons par le symbole |. Afin de distinguer les kets les uns des autres, nous complétons chaque symbole en y insérant soit une lettre particulière, soit un ou même plusieurs indices susceptibles de prendre, selon les cas, des valeurs discrètes ou continues. Ainsi le ket x est représenté par le symbole |x. L’état orbital d’un électron atomique est représenté par le symbole |n, l, ml . Les kets forment un espace vectoriel : toute combinaison linéaire de plusieurs kets est également un ket. En particulier si |1 et |2 sont des kets et λ1 , λ2 deux nombres complexes quelconques, la combinaison linéaire λ1 |1 + λ2 |2 est aussi un vecteur de l’espace des kets.

226

8 − Algèbre linéaire, calcul matriciel

Par définition, les kets d’un ensemble donné sont linéairement indépendants si aucun d’eux ne peut s’exprimer sous forme d’une combinaison linéaire des autres. Si l’espace vectoriel considéré contient au maximum n vecteurs linéairement indépendants, c’est un espace à n dimensions que l’on désigne par En . On peut choisir un ensemble fini de n vecteurs |i (i = 1, . . . , n) linéairement indépendants tels que tout vecteur droit n |x s’écrive de manière unique |x = i xi |i. Cet ensemble ordonné est appelé base de En . Les nombres xi sont les coordonnées ou composantes de |x par rapport à cette base. L’unicité de ces coordonnées permet d’identifier En à l’espace Rn ou C n . Comme dans les sections précédentes, tout vecteur |x peut être représenté par la matrice colonne ⎛ ⎞ x1 ⎜ x2 ⎟ ⎜ ⎟ (8.115) X =⎜ . ⎟ ⎝ .. ⎠ xn de ses coordonnées par rapport à la base |i (i = 1, . . . , n). Il est aussi entièrement défini par la matrice ligne adjointe   X † = x∗1 x∗2 · · · x∗n (8.116) où les x∗i sont les complexes conjugués des xi . Toute fonction linéaire y(|x) des kets |x possède la propriété de superposition caractéristique des vecteurs, ce qui signifie que, d’une part, on a la relation y(λ1 |1+λ2 |2) = λ1 y(|1) + λ2 y(|2) et que, d’autre part, si deux fonctions y1 et y2 possèdent cette propriété, toute combinaison linéaire μ1 y1 + μ2 y2 de ces deux fonctions la possède également. Toute fonction linéaire y(|x) définit ainsi un nouveau type de vecteur auquel nous donnons, après Dirac, le nom de vecteur gauche ou bra que nous représentons par le symbole  |. Ainsi la fonction y(|x) définit le bra y|. La valeur prise par cette fonction pour un ket particulier est un nombre , en général complexe, que nous représentons par le symbole y|x. Les bras y| appartiennent à un espace vectoriel En∗ qui est l’espace dual associé à En . Produit scalaire hermitique Un produit scalaire hermitique est une fonction f qui à deux vecteurs |x et |y fait correspondre un nombre complexe f (|x, |y) et qui possède les trois propriétés suivantes : i) pour un vecteur |x donné, la fonction f (|x, |y) dépend linéairement de |y ; ii) f (|x, |y) = f (|y, |x)∗ (propriété de symétrie hermitique) ; iii) f (|x, |x) > 0 pour tout vecteur |x non nul. Notons que d’après (i) et (ii), pour un vecteur |y donné, la fonction f (|x, |y)∗ dépend linéairement de |x. Considérons un exemple simple et particulièrement important de produit scalaire hermitique des vecteurs de En . Par rapport à toute base |i (i = 1, . . . , n) de En , on peut définir un produit scalaire hermitique naturel de la manière suivante. Aux

8.16 − Espace vectoriel et algèbre de Dirac

227

vecteurs |x et |y représentés par leurs coordonnées xi et yi , on fait correspondre le nombre complexe ni=1 x∗i yi . La fonction f (|x, |y) =

n

x∗i yi

(8.117)

i=1

satisfait bien aux propriétés (i), (ii), (iii) et il s’agit d’une fonction linéaire de |y que l’on peut écrire x|y comme plus haut en introduisant le bra x|. Nous noterons que la dénomination bra x| et ket |y au lieu de vecteur gauche et vecteur droit provient du terme anglais bracket (bra-c-ket en décomposant), qui signifie crochet ou parenthèse, comme le produit scalaire qui s’interprète comme l’action du bra x| sur le ket |y. Il est clair qu’avec la définition (8.117) du produit scalaire hermitique, on a la relation : x|y = y|x∗ . Utilisant les propriétés du produit scalaire, on vérifie la propriété antilinéaire suivante : λ1 x1 + λ2 x2 | = λ∗1 x1 | + λ∗2 x2 |. Des vecteurs |i (i = 1, . . . , p) sont dits orthonormés si i|j = δij pour 1 ≤ i, j ≤ p. On peut montrer qu’il existe une base |i (i = 1, . . . , n) de En constituée de vecteurs orthonormés (avec la définition (8.117) du produit scalaire hermitique) tels que pour 1 ≤ i, j ≤ n, on ait : (8.118) i|j = δij . Tout vecteur |x de En se développe sur cette base orthonormée sous la forme : |x =

n

xi |i,

(8.119)

i=1

où les xi sont les composantes de |x dans la base choisie. On vérifie aisément que xi = i|x

(8.120)

et que x|i = xi . Nous pouvons représenter le ket |x dans la base orthonormée |i par la matrice colonne formée à partir de l’ensemble des n nombres complexe xi , c’est-à-dire par une matrice X de la forme (8.115) ; dans ces conditions la matrice du bra x| est la matrice adjointe X † donnée par (8.116). Si |y est un autre ket de En qui s’écrit |y = ni=1 yi |i, le produit scalaire de |x et de |y est donné par : ⎛ ⎞ y1 ⎜ y2 ⎟

  ⎜ ⎟ x|y = X † Y = x∗1 x∗2 · · · x∗n ⎜ . ⎟ = x∗i yi . (8.121) ⎝ .. ⎠ i

yn

8 − Algèbre linéaire, calcul matriciel

228

En particulier le carré de la norme de |x s’écrit x|x =



|xi |2 .

i

Si l’espace des kets a une dimension finie n, l’espace dual des bras a le même nombre de dimensions.

8.16.2. Opérateurs Linéaires Ayant défini l’espace des vecteurs kets, on peut définir les opérateurs linéaires de cet espace. Si un ket |y dépend linéairement d’un ket |x, on écrit symboliquement : |y = α|x

(8.122)

où α est un opérateur linéaire. Soit un opérateur α défini par (8.122) et un vecteur gauche (ou bra) u| ; le produit scalaire u|y = u|(α|x) = u(y) est une fonction linéaire de |x, v(x). Nous convenons d’écrire en posant v| = u|α u|(α|x) = v|x = (u|α)|x = u|α|x.

(8.123)

Une fois choisie une base orthonormée complète |i de En , nous avons représenté plus haut le ket |x et le bra x| par des collections de nombres définies par rapport à cette base, soit la matrice colonne X et la matrice ligne X † , respectivement, qui sont les matrices représentatives de ces vecteurs. De même, la matrice représentative d’un opérateur α est constituée par les nombres Aij = i|α|j à partir desquels on peut construire une matrice carrée (n × n) d’éléments Aij . Il est aisé de vérifier que toute relation algébrique entre kets, bras et opérateurs donne lieu à la même relation entre les matrices représentatives. Opérateurs adjoints et hermitiques Si |y = α|x, y| dépend linéairement de x|. Par définition nous écrirons y| = x|α†

(8.124)

où α† est l’opérateur adjoint de α. Formons avec un bra u| le produit scalaire u|y = u|α|x. D’après (8.124), on a y|u = u|y∗ = x|α† |u, d’où la relation importante : (8.125) x|α† |u = u|α|x∗ . Un opérateur hermitique est un opérateur égal à son adjoint : α = α† . Dans ce cas (8.125) devient : x|α|u = u|α|x∗ . (8.126) La matrice représentative d’un opérateur hermitique est hermitique ; en effet, d’après (8.126), on a i|α|j = j|α|i∗ , soit Aij = A∗ji .

8.16 − Espace vectoriel et algèbre de Dirac

229

Opérateurs inverses, opérateurs unitaires Si α|x = 0 quel que soit le ket |x non nul de En , on dit que α est régulier. Il existe alors un opérateur unique noté α−1 tel que αα−1 = α−1 α = 1, 1 étant l’opérateur unité ; α−1 est l’opérateur inverse de α. S’il existe au moins un ket |x0  non nul tel que α|x0  = 0, α n’est pas régulier et ne possède pas d’inverse. Un opérateur est dit unitaire si son inverse est égal à son adjoint : α−1 = α† . On a alors : αα† = α† α = 1. Les opérateurs unitaires conservent le produit scalaire : si |y = α|x et |y   = α|x , α étant unitaire, on a y|y   = x|x . Réciproquement il suffit qu’un opérateur conserve la norme pour qu’il soit unitaire.

8.16.3. Commutateur de deux opérateurs Par définition, le commutateur de deux opérateurs α et β s’écrit : [α, β] = αβ − βα.

(8.127)

Citons quelques propriétés évidentes : [α, β] = − [β, α] [λ1 α1 + λ2 α2 , β] = λ1 [α1 , β] + λ2 [α2 , β] [α, λ1 β1 + λ2 β2 ] = λ1 [α, β1 ] + λ2 [α, β2 ] λ1 , λ2 étant des nombres. En prenant l’adjoint de (8.127) on a : †



[α, β] = (αβ − βα) = β † α† − α† β † d’où

  † [α, β] = β † , α† .

La relation suivante est très utile dans la pratique : [α, β1 β2 ] = [α, β1 ] β2 + β1 [α, β2 ] . On l’établit en écrivant que [α, β1 β2 ]

= αβ1 β2 − β1 αβ2 + β1 αβ2 − β1 β2 α = [α, β1 ] β2 + β1 [α, β2 ] .

(On a ajouté et retranché la même expression β1 αβ2 ). On a de même : [α1 α2 , β] = α1 [α2 , β] + [α1 , β] α2 .

(8.128)

8 − Algèbre linéaire, calcul matriciel

230

8.16.4. Valeurs et vecteurs propres Le nombre λ est dit valeur propre de l’opérateur α s’il existe un ket |x tel que : α|x = λ|x.

(8.129)

Le vecteur droit |x est alors un vecteur propre associé à la valeur propre λ. S’il existe deux vecteurs propres |x1  et |x2  associés à la même valeur propre λ, toute combinaison linéaire de ces deux vecteurs est encore vecteur propre de α associé à λ. En effet : α (c1 |x1  + c2 |x2 ) = c1 α|x1  + c2 α|x2  = λ (c1 |x1  + c2 |x2 ) . Donc, l’ensemble des états propres associés à λ est un espace vectoriel Eλ que l’on désigne par sous-espace propre associé à λ. Le nombre de dimensions de Eλ est la multiplicité g de la valeur propre. Cas des opérateurs hermitiques Comme nous l’avons vu pour les matrices hermitiques dans la section 8.14.2, les opérateurs hermitiques ont des propriétés remarquables : i) Les valeurs propres d’un opérateur hermitique sont réelles. En effet, en multipliant (8.129) par x|, il vient : x|α|x = λx|x. Or, d’après (8.126), x|α|x est réel et il en est de même de x|x, donc λ est réel. ii) Deux vecteurs propres |x et |x  associés à deux valeurs propres différentes sont orthogonaux. Si α|x = λ|x et α|x  = λ |x  (λ = λ ), on a : x |α|x = λx |x, x|α|x  = λ x|x . En prenant l’expression complexe conjuguée de la deuxième égalité, x |α|x = λ x |x et en la retranchant de la première, on trouve : (λ − λ ) x|x  = 0 qui montre que x |x = 0. Base propre d’un opérateur hermitique Soient λ1 , λ2 , . . . , λn les valeurs propres distinctes d’un opérateur hermitique α, multiples d’ordre g1 , g2 , . . . , gn . Les vecteurs propres associés à λi forment un espace Ei à gi dimensions. Dans Ei on peut trouver gi vecteurs orthonormés qu’il convient de numéroter par un second indice k prenant gi valeurs : |i, k. On dispose donc d’une famille de vecteurs orthonormés qui obéissent à i, k|i, k   = δkk . Mais d’après la propriété b) précédente, i, k|j, k   = 0 (i = j)

8.16 − Espace vectoriel et algèbre de Dirac et au total

231

i, k|j, k   = δij δkk .

(8.130)

Les vecteurs |i, k constituent une base orthonormée, dont nous admettrons qu’elle est complète. On la désigne par « base propre de α ». Si toutes les valeurs propres λi sont simples, l’indice k devient inutile, chaque vecteur |i est unique, mis à part la possibilité de le multiplier par un facteur de module 1, qui laisse |i normé. En résumé, nous pouvons écrire : α|i, k =

λi |i, k

j, k  |α|i, k =

λi δij δkk

.

(8.131)

8.16.5. Produit ket-bra. Projecteurs. Soit |x un ket quelconque de En ; le ket |a (b|x) dépend linéairement de |x. Nous convenons de l’écrire |y = (|ab|) |x = |ab|x. Le produit ket-bra |ab| apparaît ainsi comme un opérateur linéaire. Il est facile de vérifier que (|ab|)† = |ba|. Considérons maintenant un sous-espace Em de l’espace En de « travail » et soit |i (i = 1, . . . , m) une base orthonormée complète de Em . Un vecteur |x de En peut être décomposé en deux parties |x = |x  + |x  où |x  ∈ Em et |x  est orthogonal à Em : |x  est la projection de |x dans Em . Le passage de |x à |x  est linéaire et l’on peut définir un opérateur de projection P tel que |x  = P |x. D’autre part nous avons |x  =

m

(8.132)

xi |i avec xi = i|x  = i|x. Donc

i=1 

|x  =

m

|ii|x et

i=1

P =

m

|ii|.

(8.133)

i=1

On dit que P est le projecteur sur Em . On remarque que P est hermitique et idempotent, c’est-à-dire que P 2 = P . Dans le cas particulier où m = n, |x  = 0, |x  = |x et P = 1 ; on a alors la relation très importante, appelée relation de fermeture n

i=1

|ii| = 1.

(8.134)

8 − Algèbre linéaire, calcul matriciel

232

8.16.6. Changement de base Souvent on est amené à rapporter l’espace En à deux bases orthonormées complètes différentes |i et |k. Chaque vecteur ou opérateur a alors deux représentatives et le problème est de passer de l’une à l’autre. La transformation est caractérisée par la donnée des composantes des vecteurs de l’une des bases dans l’autre base, par exemple par les produits scalaires Sik = i|k. Les Sik sont les éléments

d’une matrice S qui est unitaire. En effet en utilisant la relation de fermeture |kk| = 1, on a : k



 †   SS ij = Sik S † kj = i|kk|j = i|j = δij . k

k

Etudions l’effet d’un changement de base sur un vecteur droit |x :



i|kk|x = Sik k|x, i|x = k

k

d’où : X = SX,

(8.135)

X et X étant les matrices représentatives de |x dans les bases |i et |k, respectivement. En ce qui concerne un opérateur, si A et A sont les matrices représentatives de α dans les bases |i et |k, on a :

i|kk|α|ll|j i|α|j = k,l

Aij =



  Sik Akl S † lj

k,l

soit

A = SAS −1 .

(8.136)

On a donc une transformation de similitude.

8.16.7. Fonction d’opérateur hermitique D’après (8.131) la représentative d’un opérateur hermitique α dans une base propre |i, k est une matrice diagonale dont les éléments sont les valeurs propres λi . Dans cette base propre , il est facile de vérifier que l’opérateur α s’écrit # $



α= λi |i, ki, k| = λi Pi (8.137) i

k

i

8.16 − Espace vectoriel et algèbre de Dirac

233

où Pi est le projecteur dans le sous-espace associé à λi , puisque α|j, k   = λj |j, k  . Considérons maintenant une fonction f (x) d’une variable réelle x dans un domaine de valeurs de x comprenant toutes les valeurs propres λi d’un opérateur hermitique α. Si |i, k désigne une base orthonormée complète de cet opérateur, nous définirons la fonction d’opérateur f (α) par # $



f (α) = f (λi ) |i, ki, k| = f (λi )Pi . (8.138) i

i

k

On vérifie que cette formule est en accord avec la définition habituelle de la puissance d’un opérateur ; c’est ainsi que d’après (8.137), $ $ $ # # #







2   2 λi |i, ki, k| λj |j, k j, k | = λi |i, ki, k| . α = i

k

j

k

i

k

Mais la relation (8.138) est plus générale et permet, par exemple, de définir sans ambiguïté la racine carrée d’un opérateur hermitique dont les valeurs propres sont positives ou nulles.

8.16.8. Produit direct ou tensoriel Soit un espace vectoriel Em à m dimensions et une base orthonormée |i de Em (i = 1, . . . , m) ; soit En un espace à n dimensions et |j une base orthonormée de En (j = 1, . . . , n). Construisons un espace Emn = Em ⊗ En à mn dimensions en associant à tout couple |i et |j obtenu en prenant un vecteur de base de Em et un vecteur de base de En , un vecteur |i, j formant une base orthonormée : i , j  |i, j = δi i δj  j . (8.139) Soit |x = i xi |i un ket de Em et |y = j yj |j un ket de En . Nous définissons le produit direct de deux kets par la relation

xi yj |i, j (8.140) |x|y = i,j

où |x|y appartient visiblement à Emn . D’après (8.140) on a : |i, j = |i|j.

(8.141)

De même, nous pouvons définir le produit direct de deux bras par le même processus :

x|y| = x∗i yj∗ i, j|. (8.142) i,j

D’après les équations (8.140) à (8.142) nous pouvons établir que : (x|y|) (|x |y  ) = x|x y|y  .

(8.143)

8 − Algèbre linéaire, calcul matriciel

234

Il convient de noter que le produit direct |x|y dépend de m + n − 1 paramètres ; en effet, en multipliant les xi par un paramètre arbitraire k et en divisant les yi par le même k, on obtient exactement le même résultat. Or m + n − 1 < mn si m et n > 1 ; donc |x|y n’est pas le vecteur le plus général de Emn qui s’écrit sous la forme

|z = zij |i|j. (8.144) i,j

Produit direct d’opérateurs Soit α un opérateur linéaire défini dans Em et β un opérateur linéaire défini dans En . On a : α|i = |i ∈ Em β|j = |j ∈ En . Si |z ∈ Emn et est donné par (8.144), on peut construire un vecteur |z   donné par

|z   = zij |i|j i,j

qui appartient à Emn et dépend linéairement de |z. Nous posons |z   = (α ⊗ β)|z

(8.145)

et nous définissons ainsi l’opérateur produit direct de α et β. Dans le cas particulier où |z = |x|y, nous avons d’après (8.140) et (8.144) zij = xi yj . Ainsi :



xi yj |i|j = xi yj (α|i) (β|j) |z   = i,j

# =

α

i

$⎛

i,j

xi |i ⎝β



⎞ yj |j⎠ = (α|x) (β|y) .

j

Donc : (α ⊗ β) |x|y = (α|x) (β|y) .

(8.146)

De (8.143) et (8.146) nous déduisons aisément que si |u et |v sont deux vecteurs appartenant à Em et En respectivement,

En particulier,

u|v| (α ⊗ β) |x|y = u|α|xv|β|y.

(8.147)

i , j  |α ⊗ β|i, j = i |α|ij  |β|j.

(8.148)

Si nous désignons par A la matrice (m×m) représentative de α dans la base |i, par B la matrice (n × n) représentative de β dans la base |j et par C la matrice (mn × mn) représentative de l’opérateur γ = α× β dans la base |i, j, nous avons d’après (8.148) : Ci j  ij = Ai i Bj  j .

(8.149)

8.16 − Espace vectoriel et algèbre de Dirac

235

Nous retrouvons la définition (8.9) d’un produit direct des matrices A et B et nous écrivons donc C = A ⊗ B. On vérifie aisément en prenant les matrices représentatives que si α1 , α2 sont deux opérateurs de Em et β1 , β2 deux opérateurs de En , on a : (α1 ⊗ β1 ) (α2 ⊗ β2 ) = α1 α2 ⊗ β1 β2 .

(8.150)

En particulier si 1m et 1n sont les opérateurs unité dans Em et En , on a d’après (8.150) : (α1 ⊗ 1n ) (1m ⊗ β) = α ⊗ β.

(8.151)

Remarquons enfin que si α|a = λ|a et β|b = μ|b, on a : (α ⊗ β) |a|b = λμ|a|b. Les valeurs propres de α ⊗ β sont les produits des valeurs propres de α et β ; les vecteurs propres de α ⊗ β sont les produits directs de α et de β. Nous notons aussi que Tr (α ⊗ β) = ( Tr α) ( Tr β) . Tr (α ⊗ 1n ) = n Tr α

8.16.9. Espaces à une infinité continue de dimensions Il arrive dans certaines situations et notamment en mécanique quantique que l’on rencontre des espaces à un nombre infini de dimensions dont les vecteurs de base constituent un continuum plutôt qu’un ensemble discret. Le vecteur de base, au lieu de dépendre d’un (ou de plusieurs) indice(s) discret(s) dépend de un (ou plusieurs) paramètre(s) continu(s). Par simplicité supposons que le vecteur de base dépende d’un seul paramètre k ; nous le noterons |k. L’extension à ce cas de l’équation (8.119) s’écrit :  |x = dk x(k)|k (8.152) et par analogie avec (8.120), nous voulons avoir la relation x(k) = k|x,

(8.153)

où x(k) est la « composante continue » de |x. Substituons (8.152) dans (8.153) :      x(k) = k| dk x(k )|k  = dk  x(k  )k|k  , et en utilisant (5.41), nous obtenons la relation d’orthogonalité cherchée : k|k   = δ(k − k  ). Il est facile de vérifier que la relation de fermeture (8.134) devient :  |kdkk| = 1

(8.154)

(8.155)

8 − Algèbre linéaire, calcul matriciel

236

et que le produit scalaire de deux vecteurs s’écrit :   x|y = x|kdkk|y = dk x∗ (k)y(k).

(8.156)

Une fonction réelle ou complexe ψ(x) est simplement la composante d’un ket où vecteur droit |ψ d’un espace vectoriel à une infinité de dimensions dans la base continue |x, soit ψ(x) = x|ψ. (8.157) Les relations d’orthogonalité et de fermeture s’écrivent : x|x  = δ (x − x ) 

. |xdxx| = 1

Dans la base |x il est possible de représenter un opérateur linéaire α agissant dans l’espace abstrait de Dirac par un opérateur linéaire fonctionnel désigné par (α)op agissant sur les fonctions ψ(x). En effet, si |χ = α|ψ, χ(x) = x|χ dépend linéairement de ψ(x) et il existe un opérateur (α)op tel que χ(x) = (α)op ψ(x).

(8.158)

Dans ces conditions, en considérant deux vecteurs |ψ et |ϕ quelconques, on a :    ϕ|α|ψ = ϕ|xdxx|α|ψ = ϕ|xdxx|χ = dx ϕ∗ (x)χ(x), soit d’après (8.158),

 ϕ|α|ψ =

ϕ∗ (x)(α)op ψ(x)dx.

(8.159)

Il est aisé d’étendre ces résultats à des fonctions de plusieurs variables comme ψ(x, y, z).

8.17. Exercices Exercice 8.1. On définit

  a F (x) = ax + b , b

où a, b, x sont des nombres réels ou complexes.   a 1. L’opérateur F est-il régulier ? b     a a 2. Calculer F F . b b     a a commutent-ils ? 3. F et F b b

8.17 − Exercices

237

4. Pour a = 0 calculer l’inverse de F

  a . b

  n a 5. Calculer F (n entier > 0 ou < 0). Cas particulier où a = 1. b Exercice 8.2. Soit une matrice d’ordre 2,  a A= c montrer que A−1 =

 b ; d

E Tr A − A ,. Det A

Exercice 8.3. Soit A une matrice hermitique d’éléments Aij ; montrer que la trace du carré de cette matrice est égale à la somme des modules carrés de ses éléments. Exercice 8.4. Calculer par la méthode ⎛ 9 ⎜2 A=⎜ ⎝6 5

de Souriau le déterminant de la matrice ⎞ 2 6 5 3 5 8⎟ ⎟. 5 9 7⎠ 8 7 9

Exercice 8.5. On considère les deux matrices    1 0 0 A= , B= 0 −1 1

 1 . 0

Résoudre l’équation AX + XB = λX où λ est un nombre.   Exercice 8.6. Soit une matrice hermitique A. Montrer que Det eA = e Tr A . Exercice 8.7. Soit C = A ⊗ B le par ⎛ 1 A=⎝0 −i

produit direct des deux matrices A et B données ⎞   0 i 1 i 1 0 ⎠B = . −i −1 0 −1

Calculer Tr C et Tr etC , t étant un paramètre. Exercice 8.8. On considère la matrice A= calculer eAϕ , ϕ étant un paramètre.

 0 1

 1 , 0

8 − Algèbre linéaire, calcul matriciel

238 Exercice 8.9. Soit la matrice



1 A = ⎝1 1

⎞ 1 1 1 1⎠ . 1 1

1. Calculer A2 , An (n entier > 0). 2. Calculer B = exA , x étant un paramètre. Donner les éléments de matrice Bij . Exercice 8.10. Soit la matrice 1 A= 2



 1 −1 . 1 3

Calculer An (n entier > 0). Exercice 8.11. On cherche à démontrer le théorème de Glauber : Si le commutateur de deux opérateurs A, B commute avec chacun d’eux, [A, [A, B]] = [B, [A, B]] = 0, [A,B] on a l’identité eA+B = eA eB e 2 .   1. Si [B, A] commute avec A, calculer les commutateurs [B, An ] et B, eAx , x étant un paramètre. df 2. Soit l’opérateur f (x) = eAx eBx ; exprimer dx en fonction de f (x) et utiliser le df résultat de la 1ère question pour montrer que dx = (A + B + x [A, B]) f (x).

3. En déduire le théorème de Glauber. Exercice 8.12. Soit la matrice ⎛ 0 1 ⎝√ A= 2 2 0

√ ⎞ 2 √0 2⎠ . √0 2 0

Calculer An (n entier > 0) à l’aide de (8.99) ; on distinguera les cas où n est pair ou impair. Exercice 8.13. Soit une matrice A d’ordre n diagonalisable. Son équation caractéristique peut s’écrire sous la forme (8.39) soit P (λ) = Det (λE − A) = λn + k1 λn−1 + k2 λn−2 + · · · + kn−1 λ + kn = 0.

λi = − Tr A et kn = (−1)n λ1 λ2 . . . λn = (−1)n Det A, Nous avons vu que k1 = − i

les λi désignant les valeurs propres de A. Il est possible de déterminer les coefficients k2 , k3 , . . . , kn sans développer Det (A − λE) : 1. Exprimer la trace de la matrice complémentaire Aˆ ≡ Comp A en fonction de Det A et des λi .

8.17 − Exercices

239

ˆ 2. Montrer que Tr (AdA) = d(Det A). En déduire que Q(λ) = Comp (λE − A) obéit  à la relation Tr Q(λ) = dP dλ = P (λ) (les différencielles sont prises par rapport aux λi ). 3. Utiliser le développement (8.50) de Q(λ) en fonction des matrices Bi pour relier Tr Bi à ki . En déduire ki en fonction de Tr (Bi−1 A). 4. Application ; utiliser la méthode précédente pour obtenir l’équation caractéristique de la matrice ⎛ ⎞ 3 1 4 A = ⎝1 1 5⎠ . 4 5 9 Exercice 8.14. Considérons le quadripôle en Π de la figure 8.8. Ie

Ve

Is Z1

Z2

Z3

Vs

Figure 8.8 – Quadripôle en Π.

1. Donner la matrice caractéristique Q de ce quadripôle. 2. Calculer son impédance itérative. Exercice 8.15. Soit un solide ayant une symétrie de révolution autour de l’axe Oz  comme une toupie ou un gyroscope. Ses moments d’inertie par rapport aux axes principaux Ox , Oy  , Oz  sont Ix = Iy = I1 , Iz = I2 . Ce solide est animé d’un mouvement de rotation de vitesse angulaire  ω(ωx , ωy , ω  z ) autour du point fixe O. Son énergie cinétique est donnée par T = 12 I1 ωx2 + ωy2 + 12 I2 ωz2 . Exprimer cette énergie cinétique dans le repère fixe Oxyz à l’aide des angles d’Euler ψ, θ, ϕ qui permettent de définir l’orientation du solide selon les notations de la section ˙ θ, ˙ ϕ˙ les vitesses angulaires selon les 8.13.6 et de la figure 8.7. (On désignera par ψ, axes Oz, Ou, Oz  ). Exercice 8.16. On considère p lames à faces parallèles, d’indice n, parallèles entre elles et séparées par du vide. Un faisceau de lumière incident normal aux lames, d’intensité a0 , est envoyé sur la première lame. A chaque dioptre c’est-à-dire à chaque surface séparant le verre et le vide, une partie  2 n−1 R= n+1 de la lumière est réfléchie et une partie T = 1 − R est transmise. On désigne par 2k (0 ≤ k ≤ p) les milieux vides et par 2k + 1 (0 ≤ k ≤ p − 1) les milieux en verre. On cherche l’intensité a2p de sortie du faisceau et l’intensité b0 de retour. On désigne par ai et bi les intensités du faisceau incident et du faisceau de retour dans le milieu i (figure 8.9).

Entrée

3

i

i+1

2p–1

0

1

2

a0

a1

a2 a3

ai ai+1

a2p–1 a2p

b0

b1

b2

bi bi+1

b2p–1

b3

2p 0

Sortie

8 − Algèbre linéaire, calcul matriciel

240

Figure 8.9 – Système de lames à faces parallèles.

1. Exprimer ai+1 et bi+1 en fonction de ai et bi . Soit A la matrice correspondante ; donner ses éléments en fonction de R. 2. Donner l’équation caractéristique de la matrice A et en déduire une relation algébrique simple à laquelle obéit A. 3. Poser A = E + B où E est la matrice unité et montrer que An = E + nB, (n entier > 0). 4. Calculer A2p et en déduire les rapports a2p /a0 et b0 /a0 que l’on exprimera en fonction du paramètre t = 2pR/ (1 − R).   cos x − sin x A= . sin x cos x

Exercice 8.17. Soit

1. Donner les valeurs propres et les vecteurs propres normés de la matrice A. 2. Calculer Ap où p est un paramètre réel.  4 A= 3

Exercice 8.18. Soit

 3 ; −4

calculer la racine réelle de A1/3 . Exercice 8.19. On cherche les modes normaux des vibrations longitudinales d’une molécule triatomique linéaire et symétrique ABA. Les masses des atomes A et B sont m et M , respectivement, et la distance d’équilibre entre A et B est l. Les coordonnées des trois atomes à l’équilibre sont x01 = −l, x02 = 0, x03 = l (figure 8.10). A 1

l

B 2

l

A 3

x

Figure 8.10 – Molécule linéaire triatomique symétrique.

On désigne par ui = xi − x0i (i = 1, 2, 3) les petits déplacements des atomes selon l’axe x. On suppose que l’énergie potentielle de vibration est donnée par V =

/ 1 . 2 2 k (u1 − u2 ) + (u3 − u2 ) . 2

8.17 − Exercices

241

1. Exprimer en fonction des ui le fait que le centre de gravité de la molécule reste fixe et donner l’énergie cinétique T et l’énergie potentielle V en fonction des déplacements u1 et u3 . 2. Déterminer les fréquences propres et les modes normaux de vibration selon x. 3. Représenter schématiquement ces modes. Exercice 8.20. On cherche les fréquences propres des petites oscillations d’un double pendule formé par deux masses ponctuelles m1 et m2 suspendues à des fils de longueur l1 et l2 de masse négligeable (figure 8.11). On suppose que m1 = m2 = m et que l1 = l2 = l. y l1 ș1

x

m1 l2 ș2

m2

Figure 8.11 – Double pendule.

1. En désignant par θ1 et θ2 les angles des deux fils avec la verticale, exprimer l’énergie cinétique du sytème en fonction de θ˙1 et θ˙2 . 2. En désignant par g l’accélération de la pesanteur, et en prenant pour origine de l’énergie potentielle la situation où les deux fils sont verticaux (θ1 = θ2 = 0), donner l’expression de cette énergie V . 3. On suppose que θ1  1, θ2  1 ; donner des expressions approchées de T et de V sous forme quadratique. 4. Calculer les fréquences propres d’oscillation du système. Exercice 8.21. Soient |x et |y deux kets d’un espace vectoriel En . Calculer Tr (|xy|). Exercice 8.22. Dans un espace vectoriel E2 , à deux dimensions, on considère deux kets |a et |b normés non colinéaires. Trouver les valeurs propres et les vecteurs propres de l’opérateur α = |ab| + |ba|. Exercice 8.23. Dans un espace vectoriel En à n dimensions, on considère un sousespace Em à m dimensions. Soit P le projecteur dans ce sous-espace. Calculer la trace Tr En P de P dans En .

242

8 − Algèbre linéaire, calcul matriciel

Exercice 8.24. 1. Montrer que si dans un espace vectoriel En , deux opérateurs α et β ont une base propre commune |i, ces deux opérateurs commutent. 2. Montrer que la réciproque est vraie, c’est-à-dire que si deux opérateurs commutent ils ont une base propre commune (pour simplifier on se placera dans le cas où α a des valeurs propres simples, bien que le résultat soit général). Exercice 8.25. Soit α un opérateur hermitique agissant dans un espace vectoriel En à n dimensions. A quelle condition existe-t-il un opérateur β tel que αβ + βα = 0 ? Exercice 8.26. Une onde plane se propageant selon l’axe x peut se représenter sous la forme ψ(x, t) = Aei(kx−ωt) où k = 2π/λ est le vecteur d’onde, λ étant la longueur d’onde, et où ω = 2πν, ν étant la fréquence. Pour t = 0, ψ(x, t) se ramène à la fonction d’onde ψ(x) = A exp ikx et peut, dans le formalisme de Dirac, être considérée comme la composante d’un vecteur droit ou ket |k dans la base continue |x : x|k = Aeikx . Déterminer la constante de normalisation A pour que la relation d’orthogonalité k  |k = δ(k  − k) soit satisfaite.

Chapitre 9 Les tenseurs

9.1. Introduction Certaines grandeurs physiques ne peuvent pas s’exprimer mathématiquement par des scalaires ou des vecteurs, mais sont représentées par des objets mathématiques désignés par « tenseurs ». Les tenseurs constituent une généralisation de la notion de vecteur. Considérons une grandeur physique représentée par un ensemble de rn composantes [Ai1 ,i2 ,...,in ], chacun des indices ik prenant r valeurs. Des exemples simples sont donnés  par les composantes Ei , à un indice (i ≡ x, y, z) d’un champ électrique E(x, y, z) dans l’espace Euclidien à trois dimensions, ou par le gradient de ce champ électrique Uij = ∂Ei /∂xj qui a neuf composantes à deux indices. Cependant, il ne suffit pas qu’une grandeur soit représentée par un « tableau » de n indices pour constituer un tenseur. Ces composantes doivent obéir, en plus, à des lois de transformation bien précises dans un changement de repère, ce qui permet en outre de définir les différentes variétés de tenseurs. Nous verrons par exemple qu’un  et une induction magnétique B  ne se transforment pas de la même champ électrique E manière dans les rotations impropres (rotations suivies de l’inversion par rapport à  devient −E  dans l’inversion, alors que B  reste invariant. E  est un l’origine). Ainsi, E  vecteur polaire qui se transforme comme un segment orienté, alors que B est un vecteur axial qui se transforme comme une boucle orientée.

9 − Les tenseurs

244

9.2. Tenseurs en coordonnées cartésiennes 9.2.1. Définition des tenseurs Dans ce paragraphe, nous allons définir les tenseurs dans un espace vectoriel Euclidien en choisissant des systèmes de coordonnées cartésiennes. Pour fixer les idées nous considérons l’espace géométrique ordinaire à trois dimensions E3 , mais les résultats se généralisent aisément à un espace vectoriel Er à r dimensions avec r quelconque. Prenons un repère orthonormé de E3 , ei (i = 1, 2, 3) ; le produit scalaire de deux vecteurs de base de ce repère obéit donc à la relation ei ·ej = δij où δij est le symbole de Kronecker. Un vecteur x quelconque de cet espace est entièrement caractérisé par la donnée de ses composantes xi :

xiei avec xi = ei · x. (9.1) x = i

Effectuons un changement de repère qui transforme le repère ei en eI (I = 1, 2, 3). La matrice S qui correspond à cette transformation est définie par :

SIiei . (9.2) eI = i

Vu que : eI · eJ = δIJ =



SIi SJj ei · ej =



i,j

SIi SJi =



i

  T SIi SiJ = SS T IJ ,

i

S T désignant la matrice transposée de S (matrice obtenue à partir de S après une symétrie par rapport à la diagonale principale), on voit que S est orthogonale, c’està-dire unitaire et réelle ; on a donc :  −1  S = (S T )iI = SIi . (9.3) iI Dans la nouvelle base, le vecteur x s’écrit :



x = xI eI = xI SIiei , I

(9.4)

I,i

soit, en comparant (9.1) et (9.4) et en utilisant (9.3), on a :

  S −1 iI xI , SIi xI = xi = I

(9.5)

I

et en inversant cette relation, xI =

i

SIi xi .

(9.6)

9.2 − Tenseurs en coordonnées cartésiennes

245

Considérons maintenant deux vecteurs de E3 , x et y définis par :



xiei et y = yj ej . x = i

j

Formons le tableau T à trois lignes et trois colonnes dont les éléments sont tij = xi yj : ⎞ ⎛ t11 t12 t13 T = ⎝ t21 t22 t23 ⎠ . t31 t32 t33 Dans le changement de repère défini par (9.2), les composantes tij se transforment d’après (9.6) en :



tIJ = SIi SJj xi yj = SIi SJj tij . (9.7) i,j

i,j

Nous avons ainsi introduit un tenseur de rang 2 dans l’espace à trois dimensions. De façon plus générale, si l’on considère n vecteurs de E3 , on peut construire un être mathématique à n indices obéissant à la loi de transformation suivante dans un changement de repère :

SI1 i1 SI2 i2 . . . SIn in ti1 i2 ...in . (9.8) tI1 I2 ...In = i1 ,i2 ,...,in

Définition : Dans un espace Er à r dimensions, on appelle tenseur Euclidien de rang n, une grandeur représentée par un ensemble de rn composantes Ti1 i2 ...,in qui se transforment selon une loi analogue à (9.8) avec des matrices S (r × r) dans un changement de repère cartésien. Il est clair que tout ensemble de composantes à n indices ne constitue pas, en général, un tenseur de rang n. Replaçons nous dans l’espace à trois dimensions et considérons l’inversion qui est une transformation particulière représentée par la matrice ⎛ ⎞ −1 0 0 S = ⎝ 0 −1 0 ⎠ . (9.9) 0 0 −1 Dans cette opération un tenseur de rang 1 obéit à la loi de transformation

SIi Ti = −TI . TI =

(9.10)

i

 se transforment bien ainsi dans l’inversion ; Les composantes d’un champ électrique E  ainsi E, et plus généralement tout vecteur polaire est bien un tenseur de rang 1.  restent invariantes dans Par contre, les composantes d’une induction magnétique B  l’inversion ; B ainsi que tout vecteur axial n’est pas un tenseur de rang 1 , mais un objet mathématique plus complexe (voir § 9.3.6).

9 − Les tenseurs

246

9.2.2. Critère de tensorialité Théorème : Une condition nécessaire et suffisante pour que les éléments Ti1 i2 ...in constituent les composantes d’un tenseur de rang n est que la quantité

A= Ti1 i2 ...in xi1 yi2 . . . zin i1 ,i2 ,...,in

soit invariante dans tout changement de repère cartésien quels que soient les vecteurs x, y , . . ., z. Démontrons ce théorème dans le cas où n = 2, la généralisation au cas où n est quelconque étant évidente. La condition est nécessaire car si Tij est un tenseur,



 TIJ xI yJ = (SIi SJj Tij ) (SIi xi ) (SJj  yj  ) A = I,J

=

I,J i,j i ,j 

#



i,j i ,j 

$#

(S

)iI SIi

I



$ (S

−1

)jJ SJj 

Tij xi yj  =



(S −1 )iI SIi = δii et

I

Tij xi yj = A,

i,j

J



car

−1



(S −1 )jJ SJj  = δjj  .

J 

La condition est suffisante car si A = A, quels que soient x, y, et S, on a :



  TIJ xI yJ = TIJ (SIi xi ) (SJj yj ) I,J

I,J i,j



 (S −1 )iI (S −1 )jJ TIJ xi yj = Tij xi yj . = I,J i,j

Donc on a bien :

 TIJ

=



i,j

SIi SJj Tij .

i,j

Corollaire : Une condition nécessaire et suffisante pour que les éléments Tijklm constituent les composantes d’un tenseur est que pour tous les vecteurs x, y , z, les éléments

Tijklm xk yl zm Mij = k,l,m

forment un tenseur.

9.3. Cas particuliers 9.3.1. Scalaire Par définition, un tenseur de rang 0 possède une seule composante qui est invariante dans tout changement de repère : c’est un scalaire.

9.3 − Cas particuliers

247

Citons comme exemple le produit scalaire de deux vecteurs : % &





x  ·  y= xI yI = SIi xi SIj yj = (S −1 )iI SIj xi yj = xi yi , I

car



i,j

I,i,j

i

I

(S −1 )iI SIj = δij . Donc

I

y. x  · y  = x · 

(9.11)

9.3.2. Vecteur polaire Un tenseur de rang 1 est simplement un vecteur polaire ou un vrai vecteur.  le vecteur position x ou la Des exemples sont donnés par un champ électrique E, quantité de mouvement p d’une particule.

9.3.3. Tenseur de rang 2 Un tenseur de rang 2 peut s’écrire comme une matrice ; dans l’espace à trois dimensions, on a : ⎞ ⎛ T11 T12 T13 Tij = ⎝ T21 T22 T23 ⎠ . T31 T32 T33 Ce tenseur possède 9 composantes. Dans un espace Er à r dimensions il aurait r2 composantes. Un tenseur de rang 2 peut toujours être décomposé en la somme d’un tenseur symétrique TijS et d’un tenseur antisymetrique TijA : Tij = TijS + TijA avec TijS =

Tij + Tji = TjiS 2

et

TijA =

Tij − Tji = −TjiA. 2

(9.12)

On vérifie aisément que les propriétés de symétrie et d’antisymétrie se conservent dans tout changement de repère.

9.3.4. Tenseur symétrique de rang 2 Dans E3 , le tenseur symétrique TijS possède 6 composantes indépendantes : S S S S S S S S S T11 , T22 , T33 , T12 = T21 , T23 = T32 et T31 = T13 .

Si les composantes sont réelles, il existe une matrice S de changement de repère telle S comme seules que, dans la nouvelle base, le tenseur soit sous forme diagonale avec TII  composantes non nulles. Ces vecteurs de base eI du nouveau repère définissent les directions des axes principaux du tenseur.

9 − Les tenseurs

248 x3

Si xi sont les composantes d’un vecteur x de E3 , le critère de tensorialité permet d’écrire que

TijS xi xj = A,

c

i,j

0

b

x2

a x1

où A est une constante. Il s’agit de l’équation d’une quadrique. On peut toujours choisir la norme de x de manière à ce que A = 1 . Dans le système d’axes principaux l’équation de la quadrique devient :

S 2 TII xI = 1. I

Figure 9.1 – Ellipsoïde associé à un  S ; tenseursymétrique : a = 1/ T11 S S b = 1/ T22 ; c = 1/ T33 .

S Si les éléments diagonaux TII sont positifs, la quadrique est un ellipsoïde, ce qui permet de représenter géométriquement le tenseur (figure 9.1).

9.3.5. Exemples de tenseurs symétriques On rencontre de nombreux tenseurs de rang 2 symétriques en physique et en mécanique. Citons : – Le tenseur de susceptibilité électrique αij , dans un milieu diélectrique anisotrope, reliant la composante Pi de la polarisation électrique (moment dipolaire électrique par unité de volume) à la composante Ej du champ électrique appliqué :

Pi = ε0 αij Ej (ε0 est la permittivité du vide). j

– Le tenseur de susceptibilité magnétique χij , dans un milieu paramagnétique anisotrope, reliant la composante Mi de l’aimantation (moment magnétique par unité de volume) à la composante Bj du champ magnétique appliqué :

χij Bj (μ0 est la perméabilité du vide). μ0 M i = j

– Le tenseur d’inertie (voir exercice 9.2). – Le tenseur de déformation. Soumis à des forces, les corps solides changent de forme et de volume. Pour décrire mathématiquement la déformation d’un corps, on choisit un système de coordonnées et on repère chaque point M par son rayon vecteur x (de composantes x1 = x, x2 = y, x3 = z). Lorsque le corps se déforme, tous ses points se déplacent et le point M se retrouve en x  avec des composantes xi ; son déplacement au cours de la déformation est alors représenté par le vecteur

9.3 − Cas particuliers

249

u = x  − x de composantes ui . Vu que u dépend de x, ui est une fonction continue des composantes xi et l’on a : dui =

∂ui dxk . ∂xk

(9.13)

k

Au cours de la déformation du corps les distances entre ses points varient, et deux points quelconques infiniment voisins et distants de ds avant la déformation, se retrouvent après, distants de ds avec



ds2 = dx2i et ds2 = dx2 i . i

i

On a donc : ds2 − ds2



(dxi − dxi )(dxi + dxi ) = dui (2dxi + dui )

=

i

i

∂ui

∂ui ∂ui 2 dxi dxk + dxk dxl . ∂xk ∂xk ∂xl

=

i,k

i,k,l

Après interversion des indices muets i et k, on peut écrire :

∂uk

∂ui dxi dxk = dxi dxk , ∂xk ∂xi i,k

i,k

et après interversion des indices i et l,

∂ul ∂ul

∂ui ∂ui dxk dxl = dxi dxk . ∂xk ∂xl ∂xi ∂xk

i,k,l

i,k,l

Finalement on obtient : ds2 − ds2 = 2



eik dxi dxk ,

(9.14)

i,k

le tenseur de déformation étant défini par : # $ 1 ∂ui ∂uk ∂ul ∂ul . + + eik = 2 ∂xk ∂xi ∂xi ∂xk

(9.15)

l

Il s’agit d’un tenseur de rang 2 symétrique : eik = eki qui peut être réduit en chaque point donné à une forme diagonale dans ses axes principaux. Notons que si l’on se limite aux faibles déformations, on peut négliger dans (9.13) les termes du second ordre et l’on obtient ainsi la forme plus usuelle du tenseur des déformations :   1 ∂ui ∂uk + . (9.16) eik = 2 ∂xk ∂xi

9 − Les tenseurs

250

– Le tenseur de contraintes. Soit un milieu (élastique, plastique ou fluide) pouvant se déformer et en équilibre. Isolons dans ce milieu la portion intérieure à une surface fermée S (figure 9.2). Si la partie du milieu extérieure à S était supprimée, la portion intérieure ne resterait pas en équilibre , ce qui montre que la portion extérieure exerce sur chaque point A de la surface une force de tensions (ou de contraintes). Notons que d’après le principe de l’action et de la réaction, la portion interne exerce en A une force égale et opposée sur la portion externe du milieu. Désignons par dS un élément de surface autour du point A et par αi les cosinus directeurs de la normale n à dS orientée vers l’extérieur ; cet élément est soumis de la part du milieu à une force dont les composantes sont

σij αj , dFi = dS j

où σij est le tenseur des contraintes. On a donc une force de tension exercée par unité de surface :

fi = σij αj . (9.17) j

n S dS

 dF

A

 agissant sur un Figure 9.2 – Force dF élément de surface dS dans un milieu fluide anisotrope : la force n’est pas normale à dS.

9.3.6. Tenseur antisymétrique de rang 2 Dans E3 , le tenseur antisymétrique de rang 2, TijA , possède trois composantes indéA A A A A A pendantes : T12 = −T21 , T23 = −T32 , T31 = −T13 , avec TiiA = 0. On a donc : ⎛ ⎞ 0 T12 T13 0 T23 ⎠ . TijA = ⎝ −T12 (9.18) −T13 −T23 0 A A A Posons σ1 = T23 , σ2 = T31 , σ3 = T12 et examinons la loi de transformation des composantes TijA ou σk dans un changement de repère. On a : A TIJ =



SIi SJj TijA

A A = (SI2 SJ3 − SI3 SJ2 )T23 + (SI3 SJ1 − SI1 SJ3 )T31

i,j A +(SI1 SJ2 − SI2 SJ1 )T12 .

9.3 − Cas particuliers

251

A A Le caractère antisymétrique du tenseur est bien conservé puisque TIJ = −TJI . Cette transformation peut encore s’écrire sous la forme :

 A σK = TIJ = S Kk σk , (9.19) k

où S Kk = SIi SJj − SIj SJi et où les indices (i, j, k) et (I, J, K) correspondent aux permutations circulaires de (1, 2, 3). On note que S Kk est simplement le cofacteur de la matrice S relatif à l’élément SKk ; de plus, si l’on désigne par Δ le déterminant de S, on a d’après la formule d’inversion des matrices régulières, S Kk = Δ(S −1 )kK = ΔSKk , et, finalement, l’équation (9.19) s’écrit :

 =Δ SKk σk . σK

(9.20)

k

Les composantes de σk se transforment comme celles d’un tenseur de rang 1 dans les rotations propres (Δ = 1) et comme leurs opposées (−σk ) dans les rotations impropres qui sont des rotations suivies d’une inversion (Δ = −1). Ce sont précisément les lois de transformation d’un vecteur axial dans E3 . Le produit vectoriel de deux vecteurs x et y est un tenseur antisymétrique de rang 2 ou vecteur axial, que l’on désigne encore sous le nom de pseudo vecteur. On a, en effet : (x ∧  y )k = xi yj − xj yi ,

(9.21)

où (i, j, k) est une permutation circulaire de (1, 2, 3) et



y  )K = xI yJ − xJ yI = SIi SJj xi yj − SJj SIi xj yi (x  ∧  =



i,j

SIi SJj (xi yj − xj yi ).

i,j

(9.22)

i,j

Le moment cinétique orbital d’une particule par rapport à un point fixe pris pour origine, σ = x ∧  p, où x et p définissent la position et la quantité de mouvement de la particule, est un pseudo vecteur. D’autres exemples sont fournis par le moment d’une  = x ∧ F , par une induction magnétique ou force F agissant sur la particule soit M par un moment magnétique.

9.3.7. Tenseur de rang 3 Dans l’espace à trois dimensions E3 , le tenseur de rang 3 le plus général Tijk possède 27 composantes. S symétrique par permutation des indices j et k a 18 composantes Le tenseur Ti,jk indépendantes (voir exercice 9.4). Par exemple dans certains cristaux anisotropes,

9 − Les tenseurs

252

une déformation mécanique peut faire apparaître une polarisation électrique P qui, en première approximation, lui est proportionnelle. Cette relation fait intervenir le tenseur piézoélectrique di,jk symétrique par rapport aux indices j et k défini par :

di,jk ejk , Pi = j,k

où ejk est le tenseur symétrique de déformation. S Le tenseur Tijk complètement symétrique par permutation de deux indices quelconques a 10 composantes indépendantes (voir exercice 9.4). Un tenseur de rang 3 très particulier qui joue un rôle essentiel est le tenseur antisymétrique dans toute A , ne possède qu’une seule composante permutation de deux indices. Ce tenseur, Tijk indépendante : A A A A A A = −T213 = T231 = −T321 = T312 = −T132 , τ = T123

(9.23)

les autres composantes étant toutes nulles. La loi de transformation de ce tenseur s’obtient aisément à partir de la définition générale :

A τ = S1i S2j S3k Tijk = (S11 S22 S33 − S11 S23 S32 − S12 S21 S33 i,j,k

+S12 S23 S31 + S13 S21 S32 − S13 S22 S31 )τ soit, en introduisant Δ, le déterminant de la matrice S, τ  = Δτ.

(9.24)

Ainsi τ représente une grandeur pseudo scalaire, c’est-à-dire qui est invariante dans les rotations propres (Δ = 1) et qui change de signe dans les rotations impropres (Δ = −1). On écrit généralement un tenseur de ce type sous la forme : A = τ εijk , Tijk



(9.25)

εijk = +1 si (i j k) est une permutation paire de (123), εijk = −1 si (i j k) est une permutation impaire de (123), εijk = 0 si deux indices sont égaux.

Le produit vectoriel de deux vecteurs peut alors, d’après (9.21) et (9.25), s’écrire sous la forme :

εijk xj yk . (9.26) (x ∧ y)i = j,k

Le produit mixte de trois vecteurs x, y, z qui représente le volume orienté V engendré par ces vecteurs est un pseudoscalaire : ⎛ ⎞ x1 x2 x3 V = (x ∧ y ) · z = Det ⎝ y1 y2 y3 ⎠ . (9.27) z1 z2 z3 En effet, compte tenu des lois de transformation du produit scalaire et du produit vectoriel, on a bien la loi V  = ΔV .

9.4 − Principe de symétrie. Applications

253

9.4. Principe de symétrie. Application aux propriétés physiques représentées par des tenseurs Lorsqu’un système physique est invariant dans certaines opérations, on dit qu’il possède des propriétés de symétrie. Le principe de symétrie fut introduit en 1833 par Franz Neuman et énoncé de manière plus complète en 1894 par Pierre Curie de la manière suivante : « lorsque certaines causes produisent certains effets, les éléments de symétrie des causes doivent se retrouver dans les effets produits. La réciproque n’est pas vraie, c’est-à-dire que les effets produits peuvent être plus symétriques que les causes ». Ce principe découle du principe de causalité : « les mêmes causes produisent les mêmes effets ». Si parfois les effets peuvent être plus symétriques que les causes, c’est parce que les mêmes effets peuvent être produits par des causes différentes qui n’ont pas toutes les mêmes symétries. D’un point de vue plus mathématique, on peut dire que lorsqu’un système possède une certaine symétrie décrite par un groupe de symétrie G, et qu’une propriété de ce système possède également une certaine symétrie décrite par le groupe K, la symétrie de l’effet étant supérieure ou égale à celle de la cause, ou bien G est un sous groupe de K, ou bien les groupes G et K sont identiques. Neuman appliqua ce principe aux propriétés physiques (intrinsèques) d’un corps : « les propriétés physiques de ce corps sont invariantes dans les opérations de symétrie qui laissent le corps globalement inchangé ». Si cette propriété est décrite par un tenseur, les composantes de ce tenseur doivent rester invariantes pour toute transformation S (rotation propre ou impropre) qui laisse le corps invariant, c’est-à-dire dans toutes les opérations du groupe de symétrie G :

SI1 i1 SI2 i2 . . . SIn in Ti1 i2 ...in = TI1 I2 ...In . (9.28) TI1 I2 ...In = i1 ,i2 ,...,in

Ce principe permet d’établir des règles de sélection entre les différentes composantes du tenseur : certaines sont nulles et d’autres sont reliées entre elles. Exemples • Soit un corps centro-symétrique, ce qui signifie que le groupe de symétrie G de ce corps possède l’inversion par rapport à un de ses points comme élément de symétrie ; la transformation S correspondante est représentée par la matrice (9.9), et d’après (9.10), un tenseur de rang n se transforme dans cette opération d’inversion selon la loi : TI1 I2 ...In = (−1)n TI1 I2 ...In ≡ TI1 I2 ...In .

(9.29)

Donc TI1 I2 ...In ≡ 0 si n est impair. Il est impossible d’avoir une propriété physique décrite par un tenseur de rang impair dans un milieu centro-symétrique. C’est le cas de la piézoélectricité.

254

9 − Les tenseurs

• Les fluides (hormis le cas particulier des cristaux liquides) sont en moyenne isotropes, c’est-à-dire invariants dans toute rotation propre. Il n’est alors pas possible d’avoir une propriété physique décrite par un vecteur (tenseur de rang 1) dans un tel milieu. En effet, s’il existe un axe de symétrie de rotation propre, la composante invariante est nécessairement selon cet axe ; en présence de deux axes de rotation non colinéaires, le vecteur invariant est forcément nul. Cependant il est possible de distinguer deux types de fluides : ceux, non chiraux, qui sont invariants dans les rotations impropres et ceux, chiraux, qui ne le sont pas. En effet, si le fluide est constitué de molécules ne possédant aucun plan ou centre de symétrie, on dit que ces molécules sont chirales, c’est-à-dire qu’elles ne sont pas identiques à leur image dans un miroir comme la main droite dont l’image est une main gauche. Une rotation impropre transforme alors un fluide de molécules « droites » en un fluide de molécules « gauches » ; ces deux fluides ne sont pas identiques et ont des activités optiques différentes. • Les cristaux sont anisotropes puisqu’ils ne sont invariants que par un nombre fini de rotations. On peut les classer selon leur symétrie d’orientation en 32 groupes ponctuels cristallographiques. Pour les cristaux, seuls 10 groupes ponctuels sont compatibles avec l’existence d’une grandeur vectorielle invariante : les groupes C1 , Cs , C2 , C2v , C4 , C4v , C3 , C3v , C6 , C6v . Toute propriété décrite par un tenseur symétrique de rang 2, de composantes réelles, comme une susceptibilité électrique ou magnétique est compatible avec tous les groupes de symétrie ponctuels. On peut distinguer trois cas, en se plaçant dans la base qui diagonalise le tenseur : S S S – Les trois composantes principales (valeurs propres) sont égales T11 = T22 = T33 , ce qui est le cas pour des milieux isotropes et des cristaux cubiques avec les 5 groupes de symétrie T , Th , Td , O, Oh . S S S – Deux valeurs propres sont égales T11 = T22 = T33 , ce qui est le cas des milieux « uniaxes » comme les cristaux rhomboédriques, hexagonaux et tétragonaux qui totalisent 19 groupes de symétrie. S S S = T22 = T33 , ce qui est le cas des mi– Les trois valeurs propres sont distinctes T11 lieux « biaxes » comme les cristaux tricliniques, monocliniques et orthorhombiques représentés par 8 groupes de symétrie.

9.5 − Les tenseurs en coordonnées non cartésiennes

255

9.5. Les tenseurs en coordonnées non cartésiennes 9.5.1. Covariance et contravariance Dans certains problèmes physiques, on est amené à utiliser des coordonnées non cartésiennes. C’est le cas, en particulier, de la relativité générale où l’utilisation de coordonnées curvilignes est indispensable. Considérons dans l’espace à trois dimensions E3 , pour commencer, un repère ei qui n’est pas orthonormé ; on pose : gij = ei · ej = ei ej cos(ei , ej ),

(9.30)

où gij est le produit scalaire des deux vecteurs de base ei et ej de longueurs respectives ei et ej . On est alors amené à définir deux types de composantes d’un vecteur x de cet espace : – Les composantes covariantes définies par xi = ei · x.

(9.31)

– Les composantes contravariantes xi définies par

xiei . x =

(9.32)

i

Pour comprendre la différence, prenons l’exemple simple d’un vecteur x dans un système de trois axes obliques dans E3 avec e1 = e2 = e3 = 1 (figure 9.3). On a

x3 M

A

−−→ x = OM = OA e1 + AB e2 + BM e3

0

où AB et BM sont respectivement parallèles à Ox2 et Ox3 . Ainsi, d’après (9.32), les composantes contravariantes du vecteur x sont données par

x1

K B

x2 Figure 9.3 – Systèmes de coordonnées en axes rectilignes obliques.

x1 = OA, x2 = AB, x3 = BM.

D’après (9.31), la composante covariante x1 est donnée par x1 = x · e1 = OK et représente la projection orthogonale de x sur x1 . Les définitions (9.30), (9.31), (9.32) s’étendent aisément à un espace à n dimensions En . Les deux types de composantes d’un vecteur sont liées par la relation :  j  j x ej = x (ei · ej ), xi = ei · x = ei · j

j

9 − Les tenseurs

256 xi =

soit



gij xj .

(9.33)

j

Naturellement, en repère cartésien, gij = δij et xi = xi , de sorte que la distinction entre composantes covariantes et contravariantes est inutile. En inversant les relations (9.33), on a : xi =



(g −1 )ij xj .

j

g

On convient de poser

ij

= (g −1 )ij

(9.34)

et les composantes contravariantes s’expriment en fonction des composantes covariantes sous la forme :

xi = g ij xj . (9.35) j

Le produit scalaire de deux vecteurs x et y s’écrit alors :  i   j 

x ei · y ej = gij xi y j , x · y = i

j

soit, d’après (9.33) et (9.35),



xi yi = g ij xj yi = g ij xi yj , x ·  y= i

i,j

(9.36)

i,j

(9.37)

i,j

car par définition, gij = gji et donc g ij = g ji . On écrit souvent les relations du type (9.36) ou (9.37) en utilisant la convention d’Einstein qui consiste à sous-entendre le signe i lorsqu’un même indice i est répété une fois en position haute (contravariante) et une fois en position basse (covariante) dans une même expression : x · y = gij xi y j = g ij xi yj .

(9.38)

La généralisation de la définition des tenseurs euclidiens au cas des repères non cartésiens peut s’effectuer en suivant la même démarche qu’au § 9.2. On considère un changement de repère défini par une matrice S :

eI = SIiei . (9.39) i

La matrice S doit être régulière mais elle n’est plus orthogonale, c’est-à-dire que (S −1 )iI = SIi . Afin d’utiliser la convention d’Einstein, on convient de noter par SIi les éléments SIi , de sorte que les lois de transformation des composantes covariantes et contravariantes d’un vecteur s’écrivent : xI = eI · x = SIi ei · x = SIi xi

(9.40)

9.5 − Les tenseurs en coordonnées non cartésiennes

257

et x = xiei = xI eI = xI SIi ei , soit : xi = xI SIi ,

(9.41)

xI = (S −1 )Ii xi .

(9.42)

Les composantes covariantes d’un vecteur se transforment comme les vecteurs de base, alors que les composantes contravariantes se transforment selon la matrice inverse. Les tableaux à deux indices tij = xi yj , tij = xi y j et tji = xi y j se transforment selon les lois : tIJ = SIi SJj tij ,

tIJ = (S −1 )Ii (S −1 )Jj tij ,

i −1 J j tJ )j ti , I = SI (S

(9.43)

et permettent de définir des tenseurs de rang 2 respectivement deux fois covariant, deux fois contravariant et une fois covariant et contravariant (tenseur mixte). La généralisation au cas de tenseurs de rang n quelconque est immédiate : i

i

...i

p+2 p+q Définition : Un ensemble de composantes Ti1p+1 forme un tenseur p fois i2 ...ip covariant et q fois contravariant de rang n = p + q, si, dans tout changement de repère défini par S, il obéit à la loi de transformation :

I

I

p+2 TI1 p+1 I2 ...Ip

...Ip+q

p+1 p+2 p+q p+2 = SIi11 SIi22 . . . SIpp (S −1 )ip+1 (S −1 )ip+2 . . . (S −1 )ip+q Ti1p+1 i2 ...ip

i

I

I

I

i

i

...ip+q

. (9.44)

Le critère de tensorialité établi au § 9.2.2 se généralise sans difficulté à condition de tenir compte de la variance des composantes. i

i

p+2 Théorème : Si Ti1p+1 i2 ...ip

i

...ip+q i

p+2 A = Ti1p+1 i2 ...ip

est un tenseur, la quantité

...ip+q i1 i2

x y . . . z ip uip+1 vip+2 . . . wip+q

est invariante dans tout changement de repère quels que soient les vecteurs x, y , . . . z et u, v , . . . w.  On vérifie que δij défini par δij = 1 si i = j et δij = 0 si i = j est un tenseur mixte symétrique ; en effet, si l’on considère deux vecteurs quelconques x et y , on a : δij xi yj = δji xi y j = xi yi = xi y i = x · y

(9.45)

qui est un invariant ; δij est le tenseur de Kronecker.

9.5.2. Contraction des indices d’un tenseur Considérons un tenseur mixte de rang n ayant des indices covariants et contravariants ; on peut former à partir de ce tenseur un autre tenseur de rang n − 2 en égalant un indice covariant à un indice contravariant, c’est-à-dire en imposant la condition que ces deux indices aient toujours la même valeur et en effectuant la sommation sur la valeur commune de ces deux indices. C’est l’opération que l’on désigne par contraction d’un tenseur.

9 − Les tenseurs

258

Par exemple, à partir de tkij , tenseur mixte de rang 3, imposons la condition j = k et effectuons une sommation sur j ; nous obtenons un tenseur de rang 1, ici un vecteur covariant :

j tij = tjij = ui . (9.46) j

En effet, la formule de transformation du tenseur tkij est : i j −1 K k tK )k tij . IJ = SI SJ (S

En opérant sur tK IJ , une contraction portant sur les mêmes indices, nous obtenons : i j −1 J k )k tij = SIi δkj tkij = SIi tjij , tJ IJ = SI SJ (S

soit uI = SIi ui , qui est bien la formule de transformation d’un vecteur covariant d’après (9.40). De même, tii est un tenseur de rang zéro (un scalaire) ; c’est la trace du tenseur mixte tji . Il est clair que tii se transforme comme xi y i , c’est-à-dire comme un produit scalaire.

9.5.3. Tenseur métrique Le critère de tensorialité montre que gij et g ij sont des tenseurs symétriques de rang 2. En effet, d’après (9.36) et (9.37), gij xi y j = g ij xi yj = x · y sont des grandeurs invariantes. Comme nous l’avons vu, ces tenseurs permettent le passage des composantes contravariantes aux composantes covariantes d’un vecteur. Si l’on considère des tenseurs de rang 2, on voit d’après (9.33) et (9.35) que gij tik = gij xi y k = xj y k = tkj

(9.47)

g ij tik = g ij xi yk = xj yk = tjk .

(9.48)

et

Ces relations peuvent être généralisées à des tenseurs de rang quelconque, gij servant à « descendre » un indice g ij à « monter » un indice. Par exemple, ikn n gij gkl Tm = Tjlm .

En particulier, à partir de (9.34), on obtient la relation g ik gkj = δji .

(9.49)

Le tenseur gij définit la métrique de l’espace. En effet le carré de la distance entre deux points infiniment voisins de l’espace considéré s’écrit : ds2 = dx · dx = dxi dxi = gij dxi dxj .

(9.50)

9.5 − Les tenseurs en coordonnées non cartésiennes

259

Vu que ds2 est invariant dans tout changement de système de référence, on voit que gij est un tenseur deux fois covariant et il résulte de (9.49) que g ij est un tenseur deux fois contravariant. Si l’on considère des repères orthogonaux, gij = ei · ej ne possède comme éléments non nuls que les éléments diagonaux gii qui sont ainsi associés à la longueur élémentaire dans la direction ei . Donnons comme exemples les systèmes de coordonnées cylindriques et sphériques dans E3 où nous avons respectivement : ds2 = dρ2 + ρ2 dϕ2 + dz 2 ,

soit gρρ = 1, gϕϕ = ρ2 , gzz = 1,

et ds2 = dr2 + r2 dθ2 + r2 sin2 θdϕ2 ,

soit grr = 1, gθθ = r2 , gϕϕ = r2 sin2 θ.

Soulignons que pour des coordonnées curvilignes, le tenseur gij dépend en général des coordonnées du point considéré. Compte tenu de sa nature tensorielle, gij se transforme dans un changement de repère selon la loi :  gIJ = SIi SJj gij .

(9.51)

En introduisant les déterminants des matrices formées par les éléments du tenseur métrique, g = Det (gij ), on a d’après (9.51) : soit en posant Δ = Det S,

 g  = Det (gIJ ),

 gIJ = (SgS T )IJ ,

g  = Δ2 g   |g  | = |Δ| |g|.

et (9.52)

Si l’on convient de définir une grandeur ε qui vaut +1 pour un trièdre direct et −1 pour un trièdre inverse, on a :   ε |g  | = Δε |g|, (9.53) car le signe de Δ est positif pour les rotations propres qui conservent la nature du trièdre et négatif pour les rotations impropres qui changent la nature du trièdre. Dans un repère e1 , e2 , e3 associé à un système de coordonnées curvilignes orthogonales comme les coordonnées cylindriques ou sphériques d’un espace à 3 dimensions, il est clair que le volume élémentaire orienté est donné par  (9.54) dV = ε |g|dx1 dx2 dx3 . où g = e21 e22 e23 . Si, à l’aide d’une transformation S, on passe à un nouveau repère e1 , e2 , e3 de coordonnées curvilignes non orthogonales, il est facile de voir que le nouveau volume élémentaire orienté devient d’après (9.53) :   εΔ |g|dx1 dx2 dx3 = ε |g  |dx1 dx2 dx3 , ce qui montre que l’expression (9.54) est tout à fait générale.

9 − Les tenseurs

260

9.5.4. Tenseurs antisymétriques On peut généraliser les résultats obtenus au § 9.3.6 concernant les tenseurs antisymétriques de rang 2 et 3 de l’espace E3 en coordonnées cartésiennes au cas des coordonnées curvilignes. – Au tenseur antisymétrique covariant de rang deux, Tij , on peut associer un pseudo vecteur contravariant de composantes σ k : σ 1 = T23 ;

σ 2 = T31 ;

σ 3 = T12 ;

en effet, dans une transformation S, on a :  TIJ = SIi SJj Tij ,

soit, en reprenant la démarche du § 9.3.6, k σ K = Δ(S −1 )K k σ ,

(9.55)

où Δ = Det S. On dit que les σ k sont les composantes d’un pseudo vecteur de type densité vectorielle. – De même au tenseur antisymétrique contravariant de rang deux, T ij , on peut associer un pseudo vecteur covariant de composantes τk : τ1 = T 23 ;

τ2 = T 31 ;

τ3 = T 12 ;

en effet, dans une transformation S, on a : T IJ = (S −1 )Ii (S −1 )Jj T ij , 1 k  soit τK = SK τk . (9.56) Δ On dit que les τk sont les composantes d’un pseudo vecteur de type capacité vectorielle. – Un tenseur antisymétrique covariant de rang trois se réduit à un pseudo scalaire σ = T123 désigné par densité scalaire. En effet  k TIJK = SIi SJj SK Tijk ,

soit

σ  = Δσ.

(9.57)

– De même un tenseur antisymétrique contravariant de rang trois se réduit à un pseudo scalaire désigné par capacité scalaire et dont les propriétés de transformation sont données par : ijk T IJK = (S −1 )Ii (S −1 )Jj (S −1 )K , k T 1 (9.58) soit τ  = τ. Δ   On note que conformément à (9.53), ε |g| est une densité scalaire alors que ε/ |g| est une capacité scalaire.

9.6 − Application à la relativité et aux équations de Maxwell

261

9.6. Application à la relativité et aux équations de Maxwell 9.6.1. Les tenseurs en relativité La théorie de la relativité fournit une excellente illustration de l’utilisation des tenseurs avec une situation où le tenseur métrique gij ne se réduit pas au tenseur unité. En relativité restreinte, on considère un espace à 4 dimensions (l’espace temps de Minkowski) dans lequel l’invariant fondamental est le carré de la « distance » entre deux points infiniment voisins, c’est-à-dire entre deux événements : ds2 = c2 dt2 − dx2 − dy 2 − dz 2 ,

(9.59)

où c est la vitesse de la lumière dans le vide. En introduisant la notation x0 = ct ;

x1 = x ;

x2 = y ;

x3 = z,

(9.60)

où xi sont les composantes du “ quadri rayon vecteur ”, on a : ds2 = (dx0 )2 − (dx1 )2 − (dx2 )2 − (dx3 )2 . Le tenseur métrique fondamental gij ⎛ 1 ⎜ 0 gij = ⎜ ⎝ 0 0

s’écrit alors sous la forme : ⎞ 0 0 0 −1 0 0 ⎟ ⎟. 0 −1 0 ⎠ 0 0 −1

(9.61)

Ce tenseur est indépendant du système de coordonnées choisies dans l’espace à 4 dimensions, mais il est clair que ds2 n’est pas nécessairement une forme quadratique définie positive. On appelle quadrivecteur un ensemble de quatre grandeurs Ai (i = 0, 1, 2, 3) qui, dans les transformations du système des coordonnées à 4 dimensions, se transforment comme les composantes xi du quadri rayon vecteur. En particulier, dans une transformation de Lorentz, qui, rappelons le consiste à passer d’un trièdre rectangulaire Oxyz avec un temps t, à un trièdre rectangulaire O x y  z  parallèle à Oxyz et animé, par rapport à celui-ci, d’un mouvement rectiligne et uniforme de vitesse v selon la direction commune Ox, O x et caractérisé parun temps t , on a avec les notations précédemment introduites et en posant γ = 1/ 1 − v 2 /c2 : v v (9.62) A0 = γ A0 + A1 , A1 = γ A1 + A0 , A2 = A2 , A3 = A3 . c c Les Ai sont les coordonnées contravariantes du quadrivecteur ; il est facile d’introduire ses coordonnées covariantes à l’aide de (9.33) et (9.61). On a : A0 = A0 , A1 = −A1 , A2 = −A2 , A3 = −A3 .

(9.63)

9 − Les tenseurs

262

Notons que la nature tensorielle de certaines grandeurs physiques n’est pas la même en relativité et en mécanique classique. Ainsi, l’énergie E d’une particule qui est une grandeur scalaire en mécanique non relativiste, apparaît comme la composante du quadrivecteur énergie impulsion en relativité : pi = (E/c, px , py , pz ). Le produit scalaire de ce quadrivecteur avec lui même (carré scalaire) s’écrit d’après (9.33), (9.38) et (9.61) : gij pi pj = pi pi =

E2 − p c2

2

= m2 c2 ,

où m est la masse invariante de la particule (masse au repos dans un repère).  et l’induction magnétique B  En électromagnétisme, on sait que le champ électrique E,  sont liés au potentiel scalaire V et au potentiel vecteur A en tout point de l’espace par les relations   = −∇V  − ∂A , E ∂t

 =∇  ∧ A.  B

(9.64)

 sont les coordonnées contravariantes En relativité, V /c et les trois composantes de A i du quadrivecteur potentiel A = (V /c, Ax , Ay , Az ) ; les coordonnées covariantes correspondantes sont d’après (9.63) Ai = (V /c, −Ax , −Ay , −Az ). De même, la densité de charge ρ, multipliée par c, et les trois composantes de la densité de courant j apparaissent comme les coordonnées contravariantes du quadrivecteur densité de courant j i = (ρc, jx , jy , jz ).  et B  entrent dans un même tenseur antisymétrique Les composantes des champs E de rang 2 deux fois covariant dans l’espace à 4 dimensions ; ce tenseur est défini par Fik =

∂Ak ∂Ai − = ∂i Ak − ∂k Ai . i ∂x ∂xk

(9.65)

En effet, on a d’après (9.60), (9.64) et (9.65) :   1 ∂(−Ax ) ∂(V /c) ∂Ax ∂V Ex − = − , F01 = − = c∂t ∂x c ∂t ∂x c et on vérifie facilement que F02 = Ey /c et F03 = Ez /c. De même on a : F12 =

∂(−Ay ) ∂(−Ax ) − = −Bz , ∂x ∂y

et on vérifie que F31 = −By et F23 = −Bx . En définitive le tenseur électromagnétique covariant s’écrit : ⎛ ⎞ 0 Ex /c Ey /c Ez /c ⎜ −Ex /c 0 −Bz By ⎟ ⎟. (9.66) Fik = ⎜ ⎝ −Ey /c Bz 0 −Bx ⎠ −Ez /c −By Bx 0

9.6 − Application à la relativité et aux équations de Maxwell

263

Le tenseur contravariant associé s’obtient grâce à la relation F ik = g il g km Flm , soit,



F ik

0 ⎜ Ex /c =⎜ ⎝ Ey /c Ez /c

−Ex /c 0 Bz −By

−Ey /c −Bz 0 Bx

⎞ −Ez /c By ⎟ ⎟. −Bx ⎠ 0

(9.67)

9.6.2. Les équations de Maxwell sous forme tensorielle On rappelle que les équations de Maxwell de l’électromagnétisme dans le vide sont données par :  = ρ, div E (9.68) ε0   ∧B  = 1 ∂ E + μ0j, ∇ (9.69) 2 c ∂t   ∧E  = − ∂B , ∇ (9.70) ∂t  = 0, div B (9.71)  B,  ρ, j ont été définis plus haut et où ε0 , μ0 désignent respectivement la où E, permittivité et la perméabilité du vide. On vérifie facilement que les deux premières équations de Maxwell (9.68) et (9.69) sont obtenues en considérant les 4 composantes i du quadrivecteur densité de courant j i dans l’équation ∂F ki = ∂k F ki = μ0 j i , ∂xk

(9.72)

où F ki est donné par (9.67). En effet, en faisant i = 0 puis i = 1, 2, 3, on obtient successivement :   ∂Ey ∂Ez 1 ∂Ex + + = μ0 ρc, c ∂x ∂y ∂z  = ρ/ε0 , du fait que c2 = 1/ε0 μ0 , puis soit div E − soit

∂Bz ∂By 1 ∂Ex + − = μ0 jx , c2 ∂t ∂y ∂z 1 ∂Ex  ∧B  + μ0 jx ∇ = 2 c ∂t x

et des expressions analogues pour les composantes y et z.

9 − Les tenseurs

264

De même les deux équations de Maxwell (9.70) et (9.71) s’obtiennent en donnant à i, j, k trois des quatre valeurs 0, 1, 2, 3 dans l’équation ∂Fki ∂Fjk ∂Fij + + = 0, k j ∂x ∂x ∂xi

(9.73)

où les composantes Fij sont données par (9.66). En effet, en prenant par exemple i, j, k ≡ 0, 1, 2 puis i, j, k ≡ 3, 2, 1, on obtient successivement :   ∂Ey 1 ∂Ex 1 ∂Bz − = 0, − c ∂y ∂x c ∂t soit et soit

 ∧E  ∇

z

=−

∂Bz ∂t

∂Bz ∂Bx ∂By + + = 0, ∂x ∂y ∂z  = 0. div B

Le seul inconvénient des équations très compactes (9.72) et (9.73) est d’utiliser dans un cas le tenseur contravariant F ij et dans l’autre le tenseur covariant Fij . On peut s’affranchir de ce problème en définissant le tenseur F˜ ij « dual » de Fij : 1 F˜ ij = eijkl Fkl , 2

(9.74)

où eijkl est le tenseur unité de rang 4 complètement antisymétrique c’est-à-dire tel que eijkl = 1 si (i, j, k, l) se déduit de (0, 1, 2, 3) par un nombre pair de permutations binaires et eijkl = −1 si (i, j, k, l) se déduit de (0, 1, 2, 3) par un nombre impair de permutations binaires ; il résulte du caractère antisymétrique de ce tenseur que eijkl = 0 dès que deux indices sont identiques. Le tenseur F˜ ij , lui même antisymétrique, s’écrit alors : ⎛ ⎞ 0 −Bx −By −Bz ⎜ Bx 0 Ez /c −Ey /c ⎟ ⎟. (9.75) F˜ ij = ⎜ ⎝ By −Ez /c 0 Ex /c ⎠ Bz Ey /c −Ex /c 0 Les équations (9.70), (9.71) ou leurs équivalents tensoriels (9.73) deviennent alors : ∂k F˜ ki = 0. En effet, en faisant i = 0 et i = 1, on obtient successivement : ∂Bx ∂By ∂Bz + + = 0, ∂x ∂y ∂z soit et

 = 0, div B   1 ∂Bx 1 ∂Ey ∂Ez − + + − = 0, c ∂t c ∂y ∂z

(9.76)

9.7 − Exercices soit

265 ∂Bx  ∧E  ∇ =− . ∂t x

Les équations (9.72) et (9.76) représentent la forme tensorielle totalement covariante des équations de Maxwell. Il s’agit ici simplement d’une présentation élégante de ces équations. En relativité générale, la gravitation conduit à un tenseur métrique gij de l’espace temps à 4 dimensions qui dépend des coordonnées car la masse crée une courbure de cet espace. La métrique n’est plus Euclidienne mais Riemanienne et l’utilisation des coordonnées curvilignes devient indispensable.

9.7. Exercices Exercice 9.1. On se place dans une base orthonormée d’un espace vectoriel Euclidien E3 . 1. Rappeler les expressions tensorielles du produit scalaire et du produit vectoriel de deux vecteurs x et  y. 2. Ecrire sous forme tensorielle le Laplacien Δω d’un champ scalaire ω(M), le rota− →   ∧A  d’un champ vectoriel A(M)  tionnel rot A = ∇ et le produit mixte de trois vecteurs (x ∧ y) · z . 3. En utilisant la notation tensorielle, montrer que (cf. les équations (1.29) et (1.30)) :  2) = A  2 · (∇  ∧A 1) − A  1 · (∇  ∧A  2 ).  · (A 1 ∧ A a) ∇  ∧ (ω A)  =ω∇  ∧A  + ∇ω  ∧ A.  b) ∇ Exercice 9.2. Dans l’espace à trois dimensions, on considère un système de N masses ponctuelles mα liées rigidement entre elles, et dont les positions sont déterminées −→ par les vecteurs OAα = rα de composantes xαi (i = 1, 2, 3) dans un système de coordonnées rectangulaires Ox1 x2 x3 . Soit Δ une droite passant par l’origine et dont la direction est définie par le vecteur unitaire u de cosinus directeurs ui . On appelle moment d’inertie de ce système de masses par rapport à Δ, le nombre positif :

M= mα d2α , α

où dα est la distance de Aα à Δ. 1. Montrer que M peut s’écrire sous la forme :

Iij ui uj , M= i,j

où Iij est un tenseur symétrique (tenseur d’inertie) dont on donnera les composantes. Ecrire explicitement le tableau représentatif de ce tenseur I.

9 − Les tenseurs

266

2. Donner en fonction des Iij l’expression des composantes Ji du moment cinétique J de ce système lorsqu’il tourne autour de la droite Δ avec la vitesse angulaire ω = ωu.  3. Donner l’expression tensorielle de l’énergie cinétique T du système. Exercice 9.3. 1. Exprimer les trois harmoniques sphériques Ylm (θ, ϕ) avec m = 0, ±1, (voir § 10.6) en fonction des coordonnées cartésiennes xi du point M situé sur la sphère unité et repéré par ses coordonnées sphériques θ, ϕ. Inverser les relations obtenues. 2. Exprimer les cinq harmoniques Y2m (θ, ϕ) avec m = 0, ±1, ±2, en fonction des cinq composantes indépendantes du tenseur symétrique et de trace nulle défini par : 1 TijS = xi xj − δij . 3 Exercice 9.4. 1. Donner, dans l’espace à trois dimensions E3 , les composantes indépendantes du S , symétrique par permutation des indices j et k. tenseur de rang 3, Ti,jk 2. Donner, de même, les composantes indépendantes du tenseur Tijk complètement symétrique par permutation de deux indices quelconques. 3. Certains cristaux possèdent des propriétés optiques non linéaires et sont susceptibles, en particulier, de réaliser l’addition de deux fréquences lumineuses. Cet effet est caractérisé par un tenseur de susceptibilité non linéaire de rang 3, Tijk , complètement symétrique dans toute permutation des indices. Quelles sont les composantes non nulles de ce tenseur dans des cristaux possédant les éléments de symétrie suivants : a) un axe de rotation d’ordre 2 et un plan de symétrie perpendiculaire à cet axe ; b) trois axes de rotation d’ordre 2 perpendiculaires. Exercice 9.5. Dans l’espace à 4 dimensions de la relativité (x0 = ct, x1 = x, x2 = y, x3 = z) montrer que les composantes d’un tenseur antisymétrique de rang 2 se transforment, dans les rotations d’espace, comme les composantes de deux vecteurs à 3 dimensions indépendants. Exercice 9.6. On considère un solide cristallin de symétrie ponctuelle D2d (¯42m en notation cristallographique). Ce cristal est invariant dans les opérations de symétrie suivantes : – deux rotations impropres S4 de ±π/2 autour de l’axe Oz suivies d’une réflexion dans un plan perpendiculaire à cet axe ; – une rotation propre C2 de π autour de Oz ;

9.7 − Exercices

267

– deux rotations propres C2 de π autour de deux axes perpendiculaires entre eux et à Oz choisis comme axes Ox et Oy ; – deux réflexions σd dans deux plans perpendiculaires contenant l’axe Oz, bisecteurs des axes x et y. 1. Dans la rotation S4 de +π/2 et dans la rotation C2x autour de Ox, un point de coordonnées (x, y, z) dans un repère cartésien se transforme en deux points de coordonnées (−y, x, −z) et (x, −y, −z) respectivement. Ecrire sous forme matricielle ces deux transformations. Vérifier que les autres opérations de symétrie peuvent être engendrées à partir de ces deux opérations fondamentales (générateurs). 2. Montrer que ce solide ne possède pas de moment dipolaire permanent. 3. Une propriété physique de ce système étant caractérisée par un tenseur de rang 2, préciser la structure de ce tenseur. 4. Le corps solide considéré est piézoélectrique. Les composantes Pi de la polarisation s’écrivent en fonction des composantes ejk du tenseur symétrique des déformations sous la forme :

di,jk ejk . Pi = j,k

Montrer que, pour des raisons de symétrie, seuls deux coefficients piézoélectriques indépendants que l’on précisera subsistent. Exercice 9.7. Soit une distribution de N charges ponctuelles fixes qα (α = 1 à N ). La position de chaque charge qα est repérée par un vecteur rα de coordonnées cartésiennes xα,i (i = 1 à 3). Les moments multipolaires de cette distribution sont définis par les composantes suivantes : Di =

moment dipolaire

N

qα xα,i ,

α=1

moment quadrupolaire

Qij =

N

1 qα (xα,i xα,j − rα2 δij ), 3 α=1

moment octupolaire   N

1 2 Oijk = qα xα,i xα,j xα,k − rα (xα,i δjk + xα,j δik + xα,k δij − 2xα,i δij δjk ) . 3 α=1 1. Montrer que Qij et Oijk sont des tenseurs symétriques dans toute permutation des indices. 2. Montrer que : a)

b)

3

i=1 3

j=1

Qii = 0 ; Oijj = 0, pour tout i.

9 − Les tenseurs

268

3. Montrer que les tenseurs Di , Qij et Oijk ont respectivement ont 3, 5 et 7 composantes indépendantes dans le cas général. 4. On considère une répartition de charges possédant la symétrie du tétraèdre régulier (groupe Td où ¯ 43m en notation cristallographique). L’origine des coordonnées étant prise au centre du tétraèdre, montrer que a) les tenseurs Di et Qij sont identiquement nuls ; b) l’élément O123 du tenseur octupolaire n’est pas nul par symétrie . Donnée : Toutes les transformations du groupe sont engendrées à partir des opérations de symétrie suivantes (générateurs) : Une rotation impropre S4 de π/2 autour de l’axe [001], une rotation propre C3 de 2π/3 autour de l’axe [111], une symétrie σd par rapport au plan contenant le centre du tétraèdre et l’arête parallèle à la direction [110], représentées par les matrices : ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 0 −1 0 0 1 0 0 1 0 0 ⎠, S4 = ⎝ 1 0 C3 = ⎝ 0 0 1 ⎠ , σd = ⎝ 1 0 0 ⎠ . 0 0 −1 1 0 0 0 0 1 Exercice 9.8. Dans l’espace Euclidien à 4 dimensions (x1 , x2 , x3 , x4 ), trouver le nombre de composantes indépendantes d’un tenseur de rang 3, antisymétrique dans l’échange de deux indices quelconques. Montrer que ces composantes se transforment dans les rotations comme les composantes d’un pseudo vecteur à 4 dimensions. Exercice 9.9. Soient trois vecteurs de base normés mais non orthogonaux et α l’angle entre deux quelconques de ces vecteurs : (ei , ej ) = α

si

i = j

(on posera λ = cos α).

Le trièdre (e1 , e2 , e3 ) est direct. 1. Déterminer les tenseurs gij et g ij dans ce repère. 2. Soient deux vecteurs u et v de composantes contravariantes ui et v i dans cette base ; déterminer les composantes covariantes de u ∧ v . 3. On considère trois points A, B, C, définis par : −→ OA = u = ae1 ,

−→ OB = v = be2 ,

−→ OC = w  = ce3 .

Déterminer les composantes covariantes et contravariantes de u ∧ v . 4. Calculer la surface du triangle ABC en fonction de a, b, c. Pour cela, montrer que cette surface est liée à la longueur d’un vecteur P construit à l’aide de u ∧ v , v ∧ w,  w  ∧ u.

Chapitre 10 Les polynômes orthogonaux

Il existe plusieurs familles de polynômes orthogonaux qui sont solutions d’équations différentielles intervenant dans de nombreux problèmes de physique. Nous nous bornerons ici à quelques propriétés générales de ces polynômes, puis nous étudierons les polynômes de Legendre, les fonctions de Legendre associées et nous introduirons les fonctions harmoniques sphériques qui jouent un rôle essentiel en physique atomique. Enfin, nous nous intéresserons aux polynômes d’Hermite et de Laguerre qui permettent de résoudre, en mécanique quantique, respectivement les problèmes de l’oscillateur harmonique et de l’atome d’hydrogène.

10.1. Définitions Soit une fonction ρ(x) de la variable réelle x, définie et intégrable sur [a, b]. On suppose que ρ(x) est positive ou nulle et continue par morceaux. Bien sûr on admet que ρ n’est pas nulle partout. Dans le cas d’un intervalle infini, on suppose que toutes les intégrales b ρ(x)xm dx où m est entier ≥ 0, convergent. a Etant donnés deux polynômes réels de x, P (x) et Q(x) on notera b P (x)Q(x)ρ(x)dx = P |Q.

(10.1)

a

L’intégrale P |Q existe toujours compte tenu des hypothèses précédentes ; elle possède toutes les propriétés d’un produit scalaire : P |Q = Q|P .  b >0 2 P |P  = P ρ dx =0 a

si P (x) = 0 si P (x) = 0.

10 − Les polynômes orthogonaux

270

Les polynômes P et Q sont dits orthogonaux sur [a, b] relativement au poids ρ(x) lorsque P |Q = 0. La famille de polynômes Pn (x), où Pn (x) est de degré n, est dite famille ou suite de polynômes orthogonaux par rapport au poids ρ(x) sur l’intervalle [a, b] si Pn |Pm  = 0 pour n = m. La suite des Pn est dite orthonormale si Pn |Pm  = δmn

(δmn = 0 si m = n et δnn = 1).

Si P (x) est un polynôme de degré m et Pn (x) une suite de polynômes orthogonaux, on peut écrire : P (x) =

m

cn Pn (x)

n=0

Pk |P  =

En effet :



cn =

avec

Pn |P  . Pn |Pn 

(10.2)

cn Pk |Pn  = ck Pk |Pk .

n

10.2. Formules de récurrence Si Pn (x) est une famille de polynômes orthogonaux, il existe trois nombres An , Bn , Cn tels que pour n ≥ 1 : xPn = An Pn+1 (x) + Bn Pn (x) + Cn Pn−1 (x)

(10.3)

et An Cn = 0. En effet, xPn est un polynôme de degré n + 1 qui s’écrit xPn =

n+1

ck Pk (x)

ck =

avec

k=0

Pk |xPn  . Pk |Pk 

Or Pk |xPn  = Pn |xPk  = 0 si k > n + 1 et n > k + 1, c’est-à-dire si k < n − 1 et k > n + 1. Seuls les coefficients cn−1 , cn et cn+1 interviennent dans (10.2) et s’identifient à An , Bn , Cn , respectivement, dans (10.3). Pn (x) =

Posons

n

(n)

ak xk .

k=0

La comparaison des termes de même degré dans (10.3) conduit à : (n+1)

An = a(n) n /an+1

(n)

An a(n+1) + Bn a(n) n n = an−1 ,

et (n)

Bn =

d’où

an−1 (n)

an

(n+1)



(n−1)

xPn−1 (x) =

Donc

an−1

(n)

an

Pn (x) +

an

(n+1)

.

an+1 n−1

ck Pk (x)

k=0 (n−1)

et

Cn =

a Pn |xPn−1  Pn |Pn  xPn |Pn−1  = = n−1 . (n) Pn−1 |Pn−1  Pn−1 |Pn−1  an Pn−1 |Pn−1 

Si la famille de polynômes Pn (x) est orthonormale, on voit que Cn = An−1 = 0.

10.3 − Fonction génératrice

271

10.3. Fonction génératrice Soit une fonction G(x, t) développable en série entière de t dans un certain domaine D : G(x, t) =



φn (x)tn .

n=0

On dit alors que G(x, t) est la fonction génératrice des fonctions φn (x). Si les fonctions φn (x) sont des polynômes de degrés n, Pn (x) on a : G(x, t) =



Pn (x)tn .

(10.4)

n=0

Théorème : La condition nécessaire et suffisante pour que les polynômes Pn (x) définis par le développement (10.4) soient orthogonaux sur un intervalle [a, b] relativement au poids ρ(x) est que l’intégrale b I=

G(x, t)G(x, t )ρ(x) dx

a

ne dépende que du produit tt . En effet : I=

b



Pn (x)Pm (x)tn tm ρ(x) dx =

a n,m=0



tn tm Pn |Pm .

n,m=0

Si la famille Pn (x) est orthonormale, I ne dépend que du produit tt : I=



(tt )n Pn |Pn  = I(tt ).

(10.5)

n=0

Réciproquement si I(tt ) =



cn (tt )n , on a cn = Pn |Pn .

n=0

10.4. Les polynômes de Legendre 10.4.1. Définition Les polynômes de Legendre ont été introduits en physique à propos du potentiel Newtonien mais leur intérêt est plus général. Un corps situé en A de coordonnées cartésiennes x = 0, y = 0, z = 1, crée en un point P de coordonées sphériques r, θ (θ étant l’angle entre Oz et OP) un potentiel proportionnel à 1 1 =√ . AP 1 − 2r cos θ + r2

10 − Les polynômes orthogonaux

272

La longueur OA a été choisie pour unité. Posons cos θ = x et développons 1/AP selon les puissances de r. La formule du binôme nous permet d’écrire si |r(2x − r)| < 1, soit pour 12 (r − 1/r) < x < 12 (r + 1/r), [1 − r(2x − r)]−1/2

  (− 21 )(− 32 ) [−r(2x − r)]2 + . . . = 1 + − 12 [−r(2x − r)] + 2! (− 1 )(− 32 ) . . . (− 2h−1 2 ) [−r(2x − r)]h + . . . + 2 h! ∞

(−1)h 1.3.5 . . . .(2h − 1) (−1)h rh (2x − r)h = 2h h! h=0 ∞

=

h=0

car

Mais

(2h)! 22h (h!)2

1.3.5 . . . .(2h − 1) =

(2x − r) = h

rh (2x − r)h .

1.2.3.4.5 . . . .(2h − 1)2h (2h)! = h . 2.4 . . . .2h 2 h! h

k=0

h! (2x)h−k (−r)k . k!(h − k)!

Donc (1 − 2rx + r2 )−1/2 =

∞ h

(2h)!

h! (−1)k rh+k (2x)h−k . 22h (h!)2 k!(h − k)!

h=0

k=0

On cherche le coefficient de rl ; on pose alors h + k = l et on peut écrire : ∞

1 √ = Pl (x)rl 1 − 2rx + r2 l=0

(10.6)

avec [l/2]

Pl (x) =



k=0

(−1)k

(2l − 2k)! xl−2k , − k)!(l − 2k)!

2l k!(l

(10.7)

où [l/2] désigne la partie entière de l/2, c’est-à-dire l/2 si l est pair et (l − 1)/2 si l est impair. Les polynômes Pl (x) sont les polynômes de Legendre. Notons que Pl (x) a la parité de l : Pl (−x) = (−1)l Pl (x).

(10.8)

Il est cependant plus commode de donner une autre expression de Pl (x) équivalente à (10.7). Puisque dl p p! xp−l , x = dxl (p − l)!

10.4 − Les polynômes de Legendre

273

on peut écrire à partir de (10.7) : Pl (x) =

l

(−1)k

k=0

l dl 2l−2k 1 l! 1 dl

x2l−2k x = (−1)k 2l k!(l − k)! dxl 2l l! dxl k!(l − k)! k=0

et finalement : Pl (x) =

1 dl 2 (x − 1)l . 2l l! dxl

(10.9)

D’après (10.6) on a pour r < 1 : ∞

1 = Pl (1)rl , 1−r l=0

ce qui montre que Pl (1) = 1.

(10.10)

Les premiers polynômes de Legendre obtenus à partir de (10.7) ou (10.9) sont : P0 (x) = 1; P1 (x) = x; P2 (x) = P3 (x) =

3x2 − 1 ; 2

(10.11)

1 1 (5x3 − 3x); P4 (x) = (35x4 − 30x2 + 3). 2 8

Notons que d’après (10.8) on a : Pl (−1) = (−1)l , et que d’après (10.8) et (10.7), P2l+1 (0) = 0; P2l (0) = (−1)l

1 (2l)! . 22l (l!)2

(10.12)

10.4.2. Orthogonalité Théorème. Les polynômes Pl (x) constituent une famille de polynômes orthogonaux par rapport au poids  1 si |x| ≤ 1 ρ(x) = 0 si |x| > 1. En effet, désignons par f (x) une fonction continue et dérivable n fois sur l’intervalle [−1, 1] et considérons l’intégrale : I

=

=

1 2l l!



1 f (x) −1

 dl 2 l (x − 1) dx dxl

1

 l−1  1

d dl−1 2 1

1 l  2 l f (x) (x − 1) − f (x) (x − 1) dx.

2l l! dxl−1 2l l! dxl−1 −1 −1

10 − Les polynômes orthogonaux

274

La variation du premier terme est nulle. En intégrant l fois par parties, on obtient : 1 I= l 2 l!

1 −1

dl f (1 − x2 )l dx. dxl

(10.13)

Donc pour tout polynôme Qm (x) de degré m < l, 1 Qm (x)Pl (x)dx = 0. −1

En particulier les polynômes de Legendre Pl (x) constituent une famille de polynômes orthogonaux par rapport à ρ(x). Calculons le carré de la norme de Pl (x) ; d’après (10.13), 1 −1

1 [Pl (x)] dx = l 2 (2 l!) 2

1  −1

 1 d2l 2 (2l)! l 2 l (x − 1) (1 − x ) dx = l 2 (1 − x2 )l dx. dx2l (2 l!) −1

En posant x = cos θ, l’intégrale ci-dessus s’écrit d’après les équations (4.3), (4.9) et (4.22) : π

sin2l+1 θ dθ = β(l + 1, 1/2) =

0

1 d’où

[Pl (x)]2 dx =

−1

(l!)2 22l+1 l!(−1/2)! = , (l + 1/2)! (2l + 1)! 2 . 2l + 1

En résumé les relations d’orthogonalité s’écrivent : 1 Pl (x)Pm (x)dx = −1

2 δlm . 2l + 1

(10.14)

10.4.3. Relations de récurrence. Equation de Legendre 1. D’après (10.3) on a une relation de la forme xPl (x) = Al Pl+1 (x) + Bl Pl (x) + Cl Pl−1 (x);

(10.15)

cependant Bl = 0 car xPl |Pl  = 0, vu qu’il s’agit d’une intégrale entre −1 et 1 d’une fonction impaire de x. De plus, pour x = 1, on a 1 = Al +Cl , et l’identification des termes de plus haut degré dans (10.15) conduit à : (2l + 2)! (2l)! = Al l+1 l 2 2 (l!) 2 [(l + 1)!]2 Donc

Cl = 1 −

et

Al =

l+1 2(l + 1)2 = . (2l + 1)(2l + 2) 2l + 1

l l+1 = . 2l + 1 2l + 1

10.4 − Les polynômes de Legendre

275

On obtient ainsi la relation de récurrence : (2l + 1)xPl (x) = (l + 1)Pl+1 (x) + lPl−1 (x)

(10.16)

2. Considérons le polynôme (x2 − 1)Pl (x) de degré l + 1. L’intégrale 1

2

Pk (x)(x −

1)Pl (x)

1 dx = −

−1

Pl (x)

−1

d [Pk (x)(x2 − 1)] dx dx

est nulle pour k > l + 1 et l > k + 1. Donc (x2 − 1)Pl (x) = al Pl+1 (x) + bl Pl−1 (x) car (x2 − 1)Pl (x) a la parité de l + 1. Pour x = 1, l’égalité précédente devient al + bl = 0 et l’identification des termes de plus haut degré en xl+1 conduit à : (2l)!l (2l + 2)! = al l+1 2l (l!)2 2 [(l + 1)!]2

et

al =

l(l + 1) ; 2l + 1

donc (2l + 1)(x2 − 1)Pl (x) = l(l + 1)[Pl+1 (x) − Pl−1 (x)].

(10.17)

3. En remplaçant dans (10.17) Pl−1 (x) par son expression déduite de (10.16), on trouve : (x2 − 1)Pl (x) = (l + 1)[Pl+1 (x) − xPl (x)].

(10.18)

(x2 − 1)Pl (x) = l[xPl (x) − Pl−1 (x)].

(10.19)

De même on a :

4. Sachant que Pl (x) est un polynôme de degré l − 1, on peut écrire : Pl (x) = cl−1 Pl−1 (x) + cl−3 Pl−3 (x) + . . . + cl−1−2k Pl−1−2k (x) + . . . 1 2l − 4k − 1 avec cl−1−2k = Pl (x)Pl−1−2k (x) dx, 2 −1

soit en intégrant par parties, cl−1−2k

1

2l − 4k − 1

Pl (x)Pl−1−2k (x)

= 2l − 4k − 1. =

2 −1

On trouve ainsi : [(l−1)/2]

Pl (x) =



k=0

(2l − 4k − 1)Pl−2k−1 (x).

(10.20)

10 − Les polynômes orthogonaux

276 On en déduit que :

 Pl+1 (x) = (2l + 1)Pl (x) + (2l − 3)Pl−2 (x) + (2l − 7)Pl−4 (x) + . . .  (x) = (2l − 3)Pl−2 (x) + (2l − 7)Pl−4 (x) + . . . , Pl−1

d’où par différence :   (x) − Pl−1 (x) = (2l + 1)Pl (x). Pl+1

(10.21)

En dérivant les deux membres de (10.17), on a :   (x) − Pl−1 (x)] (2l + 1)(x2 − 1)Pl (x) + (2l + 1)2xPl (x) = l(l + 1)[Pl+1

et, compte tenu de (10.21), on obtient l’équation de Legendre : (x2 − 1)Pl (x) + 2xPl (x) − l(l + 1)Pl (x) = 0,

(10.22)

qui est l’équation différentielle du second ordre à laquelle satisfait Pl (x). Notons que Pl (1) = l(l + 1)/2

et

Pl (−1) = (−1)l−1 l(l + 1)/2.

10.4.4. Développement d’une fonction en série de Pl (x) Toute fonction f (x), pour laquelle l’intégrale série des Pl (x) sur l’intervalle [−1, 1] : f (x) =



l=0

1 −1

[f (x)]2 dx existe, est développable en

1 cl Pl (x), avec cl = (l + ) 2

1 f (x)Pl (x)dx.

(10.23)

−1

De plus, si la fonction f (x) satisfait aux conditions de Dirichlet sur l’intervalle

[−1, 1], la série cl Pl (x) est égale à : l

1 [f (x + ) + f (x − )] si |x| < 1 →0 2 lim

et à f (±1 ∓ ) si x = ±1. Exemple

f (x) 1

−1

0

1

x

−1 Figure 10.1 – Fonction f (x) = x/|x|pour (−1 ≤ x ≤ 1).

Développons en série de Pl (x) la fonction définie par  0, si x = 0 f (x) = x/|x|, si 0 < |x| ≤ 1 (figure 10.1). La fonction f (x) est impaire et satisfait aux conditions de Dirichlet ; les coefficients c2l de son développement sont nuls.

10.5 − Fonctions de Legendre associées

277

On a : c2l+1

4l + 3 = 2

1

1 f (x)P2l+1 (x) dx = (4l + 3)

−1

P2l+1 (x) dx. 0

D’après (10.21) et (10.12), c2l+1

(2l + 2)! (2l)! 1 1 = |P2l+2 (x)|0 − |P2l (x)|0 = −(−1)l+1 2l+2 + (−1)l 2l 2 2 2 [(l + 1)!] 2 (l!)   (2l)! (2l)! 4l + 3 (2l + 1) , = (−1)l 2l 2 1 + = (−1)l 2l+1 2 2 (l!) 2(l + 1) 2 (l!) l + 1

d’où le développement cherché : 1=



(−1)l

l=0

4l + 3 (2l)! P2l+1 (x), 0 < x ≤ 1. l + 1 22l+1 (l!)2

10.5. Fonctions de Legendre associées 10.5.1. Définition Les fonctions Plm (x) = (1 − x2 )m/2

dm Pl (x), dxm

(10.24)

où m = 1, 2, . . . , l, sont appelées fonctions de Legendre associées d’ordre m. Il résulte de l’expression (10.9) des polynômes de Legendre que : Plm (x) =

(1 − x2 )m/2 dl+m 2 (x − 1)l . 2l l! dxl+m

(10.25)

L’équation (10.25) définit Plm (x) pour m entier ≥ −l. Notons que Pl0 (x) = Pl (x) et que Plm (x) = 0 pour m > l. Montrons que Pl−m (x) est proportionnelle à Plm (x) : dl+m (x − 1)l (x + 1)l dxl+m

=

l

k=0

=

  l+m−k   k d (l + m)! d l l (x − 1) (x + 1) k!(l + m − k)! dxk dxl+m−k

l

(l + m)!(l!)2 (x − 1)l−k (x + 1)k−m k=0

k!(l + m − k)!(l − k)!(k − m)!

.

En posant k − m = h, on voit que l−m

(l + m)!(l!)2 (x − 1)l−h (x + 1)h+m dl+m 2 l (x2 − 1)−m ; (x − 1) = l+m dx (m + h)!(l − h)!(l − m − h)!h! h=0

10 − Les polynômes orthogonaux

278 par ailleurs,

l−m

(l − m)!(l!)2 (x − 1)l−h (x + 1)h+m dl−m 2 l . (x − 1) = dxl−m h!(l − m − h)!(l − h)!(h + m)! h=0

La comparaison des deux dernières expressions montre que : dl−m dl+m 2 (l + m)! 2 (x − 1)−m l−m (x2 − 1)l , (x − 1)l = l+m dx (l − m)! dx d’où d’après (10.25), Pl−m = (−1)m

(l − m)! m P (x). (l + m)! l

(10.26)

10.5.2. Relations d’orthogonalité Montrons que 1 Plm (x)Plm  (x)dx = −1

2(l + m)! δll . (2l + 1)(l − m)!

(10.27)

Compte tenu de (10.26), il suffit d’établir cette propriété pour m ≥ 0 ; supposons que l ≥ l et désignons par I le premier membre de (10.27). On a d’après (10.24) : 1

2 m

(1 − x )

I= −1



 m  d dm Pl (x) Pl (x) dx. dxm dxm

En intégrant I par parties, on trouve :

  m−1  1  m

d d  (x) P (x) P I =

(1 − x2 )m l l

m m−1 dx dx −1 1 

− −1

! m−1  d d dm Pl (x) dx. (1 − x2 )m m Pl (x) dx dx dxm−1

Le terme tout intégré est nul ; en itérant m fois le procédé, on obtient : 1  I = (−1)m −1

!  1 m dm 2 m d m  ) P (x) P (x) dx = (−1) Q(x)Pl (x) dx, (1 − x l l dxm dxm −1

où Q(x) est un polynôme de degré l. Si l > l, on sait que I = 0. Si l = l, I n’est pas nulle. Le terme de plus haut degré de Q(x) est :   dm (2l)! dm (2l)! (l + m)! l x, (−1)m m x2m l 2 m xl = (−1)m l 2 dx 2 (l!) dx 2 (l!) (l − m)!

10.5 − Fonctions de Legendre associées

279

d’où Q(x) = al Pl (x)+ polynôme de degré inférieur à l, avec al = (−1)m (l + m)! I= (l − m)!

Finalement

1

2

[Pl (x)] dx = −1

(l + m)! . (l − m)!

2 (l + m)! , 2l + 1 (l − m)!

conformément au résultat annoncé.

10.5.3. Equation différentielle En dérivant m fois l’équation (10.22), on obtient : (m+2)

(1 − x2 )Pl

(m+1)

− 2mxPl

(m+1)

−2xPl

(m)

− 2mPl

(m)

− m(m − 1)Pl (m)

+ l(l + 1)Pl

= 0,

soit (m+2)

(1 − x2 )Pl

(m+1)

− 2(m + 1)xPl

(m)

+ [l(l + 1) − m(m + 1)]Pl

= 0.

(10.28)

L’équation (10.28) s’écrit encore d’après (10.24) : / / d2 . d . (1 − x2 )−m/2 Plm (1 − x2 ) 2 (1 − x2 )−m/2 Plm − 2(m + 1)x dx dx + [l(l + 1) − m(m + 1)] (1 − x2 )−m/2 Plm = 0, soit en développant et en simplifiant par (1 − x2 )−m/2 :   2 d m m(m + 2)x2 2 d m (1 − x ) 2 Pl + 2mx Pl + m + Plm dx dx 1 − x2 2m(m + 1)x2 m d − Pl − 2(m + 1)x Plm + [l(l + 1) − m(m + 1)] Plm = 0. 2 1−x dx Ainsi on obtient l’équation différentielle satisfaite par les fonctions de Legendre associées :   d2 d m2 (10.29) Plm = 0. (1 − x2 ) 2 Plm − 2x Plm + l(l + 1) − dx dx 1 − x2

10.5.4. Relations de récurrence 1. Multiplions l’équation (10.28) par (1 − x2 )m/2 ; on trouve : (m+2)

(1 − x2 )(m/2+1) Pl

(m+1)



2(m + 1)x(1 − x2 )m/2 Pl

+

[l(l + 1) − m(m + 1)](1 − x2 )m/2 Pl

(m)

=0;

en remplaçant m par (m − 1) dans cette relation, on a : Plm+1 (x) −

2mx P m (x) + [l(l + 1) − m(m − 1)]Plm−1 (x) = 0. (1 − x2 )1/2 l

(10.30)

10 − Les polynômes orthogonaux

280

2. En dérivant (10.16) m fois et (10.21) m − 1 fois, on trouve : . / (m) (m−1) (m) (m) (2l + 1) xPl + mPl = (l + 1)Pl+1 + lPl−1 et (m)

(m)

(m−1)

Pl+1 − Pl−1 = (2l + 1)Pl (m−1)

L’élimination de Pl

.

(10.31)

entre ces deux relations donne :

(m)

(m)

(l + 1)Pl+1 − (2l + 1)xPl

(m)

(m)

(m)

− m[Pl+1 − Pl−1 ] + lPl−1 = 0,

soit, en multipliant cette équation par (1 − x2 )m/2 et en groupant les termes analogues : m m (l + 1 − m)Pl+1 (x) − (2l + 1)xPlm (x) + (l + m)Pl−1 (x) = 0.

(10.32)

3. L’équation (10.31) peut encore s’écrire : m m − Pl−1 = (2l + 1)(1 − x2 )1/2 Plm−1 . Pl+1

(10.33)

et, en remplaçant m par m + 1, on a : (1 − x2 )1/2 Plm (x) =

1 m+1 [P m+1 (x) − Pl−1 (x)]. 2l + 1 l+1

(10.34)

4. L’élimination de xPlm entre (10.30) et (10.32) permet d’écrire : (1 − x2 )1/2 Plm+1

− +

 2m  m m (l + m)Pl−1 + (l + 1 − m)Pl+1 2l + 1 (1 − x2 )1/2 [l(l + 1) − m(m − 1)]Plm−1 = 0

soit, en remplaçant Plm−1 par son expression (10.33) et m par m − 1 : (1 − x2 )1/2 Plm (x) =  1  m−1 m−1 (x) − (l − m + 1)(l − m + 2)Pl+1 (x) . (10.35) (l + m)(l + m − 1)Pl−1 2l + 1 L’utilité des fonctions de Legendre associées est surtout liée aux harmoniques sphériques étudiées dans la section suivante.

10.6. Les harmoniques sphériques Ces fonctions sont très importantes et jouent le même rôle sur la sphère unité que les fonctions trigonométriques sinus et cosinus sur le cercle unité.

10.6 − Les harmoniques sphériques

281

10.6.1. Résolution de l’équation de Laplace en coordonnées sphériques En coordonnées sphériques r, θ, φ, l’équation de Laplace ΔΨ(r, θ, φ) = 0, où Ψ(r, θ, φ) est la fonction à déterminer, s’écrit d’après l’équation (1.25), 1 1 ∂ 2 ∂ r Ψ + 2 ΛΨ = 0, r2 ∂r ∂r r

(10.36)

où Λ=

1 ∂ ∂ 1 ∂2 sin θ + sin θ ∂θ ∂θ sin2 θ ∂φ2

(10.37)

est la partie angulaire du Laplacien Δ. Cherchons une solution de (10.36) par la méthode de séparation des variables, c’est-àdire sous la forme Ψ(r, θ, φ) = R(r)Θ(θ)Φ(φ), où R, Θ, Φ sont des fonctions d’une seule variable à déterminer. Après multiplication de (10.36) par r2 /(RΘΦ), on obtient : 1 1 d 2 dR r =− ΛΘΦ. R dr dr ΘΦ

(10.38)

Dans cette équation, le premier membre est fonction de la variable r et le second est fonction de θ, φ ; ces variables étant indépendantes, chacun des deux membres de (10.38) est constant et égal à K. On a donc : d 2 dR r = KR dr dr

(10.39)

ΛΘΦ + KΘΦ = 0.

(10.40)

et

1. La partie angulaire des solutions régulières de l’équation de Laplace s’écrit d’après (10.37) :   sin θ d 1 d2 Φ dΘ . sin θ + Ksin2 θ = − Θ dθ dθ Φ dφ2 La valeur commune des deux membres de cette équation est une constante λ et l’on a : 1 d2 Φ = λ, Φ dφ2     1 d dΘ λ Θ = 0. sin θ + K− sin θ dθ dθ sin θ2 −

Seules les solutions uniformes sur la sphère nous intéressent : Φ(φ) = Φ(φ + 2π); λ doit donc être le carré m2 d’un nombre entier.

(10.41) (10.42)

10 − Les polynômes orthogonaux

282

Φ(φ) = Aeimφ + Be−imφ .

On a alors :

Si l’on pose x = cos θ, on constate que Θ est solution de l’équation différentielle     d dΘ m2 Θ=0 (1 − x2 ) + K− dx dx 1 − x2 qui s’identifie à (10.29) pour K = l(l + 1). Ainsi les fonctions F (θ, φ) = (Aeimφ + Be−imφ )Plm (cos θ)

(10.43)

sont les solutions uniformes de l’équation ΛF + l(l + 1)F = 0.

(10.44)

F (θ, φ) peut s’écrire compte tenu de (10.26) : F (θ, φ) = αeimφ Plm (cos θ) + βe−imφ Pl−m (cos θ), (l + m)! B. α=A et β = (−1)m (l − m)!



Les fonctions Ylm (θ, φ) = Ceimφ Plm (cos θ) obtenues à partir des deux jeux de fonctions orthogonales 1 0 imφ , 0 < φ ≤ 2π et {Plm (cos θ), 0 ≤ θ ≤ π} , e sont des fonctions orthogonales sur la sphère unité, appelées harmoniques sphériques. Le coefficient C, réel, est choisi de manière à ce que les Ylm constituent un système orthonormé de fonctions : 2π



0



sin θYlm∗ (θ, φ)Ylm (θ, φ) dθ = δll δmm . 



(10.45)

0

On doit donc avoir : 2

2π

|C|

e

i(m −m)φ



0

0

soit d’après (10.27),



sin θPlm (cos θ)Plm  (cos θ)dθ = δll δmm ,



|C| =



(2l + 1)(l − m)! 4π(l + m)!

1/2 ;

un arbitraire règne sur le choix du signe de C que nous prendrons égal à (−1)m selon l’usage. Donc :  Ylm (θ, φ)

= (−1)

m

(2l + 1)(l − m)! 4π(l + m)!

1/2 eimφ Plm (cos θ).

(10.46a)

10.6 − Les harmoniques sphériques

283

Compte tenu de l’expression (10.25) de Plm (x), on a encore : Ylm (θ, φ)

= (−1)

l+m

 1/2 1 (2l + 1)(l − m)! 2l l! 4π(l + m)!  l+m d sinm θ sin2l θ eimφ . d cos θ

(10.46b)

Nous donnons ci dessous les premières harmoniques sphériques : 1 Y00 = √ 4π  3 cos θ Y10 = 4π  3 sin θeiφ = −Y1−1∗ Y11 = − 8π  5 0 (3 cos2 θ − 1)/2 Y2 = 4π  15 1 Y2 = − sin θ cos θeiφ = −Y2−1∗ 8π  15 2 sin2 θe2iφ = Y2−2∗ Y2 = 32π

(10.47)

2. La partie radiale des solutions régulières de l’équation de Laplace s’obtient à partir de (10.39) avec K = l(l + 1), soit : d 2 dR r = l(l + 1)R. dr dr

(10.48)

En posant R = χ/r, on a : d 2 r dr d’où :



 χ χ d  − 2 = (χ r − χ) = χ r, r r dr d2 χ l(l + 1)χ − = 0, dr2 r2

équation qui a des solutions du type rα avec α(α − 1) − l(l + 1) = 0 soit α = −l et α = l + 1. La solution de (10.48) est donc : R(r) = Arl + Br−l−1 . En définitive les solutions uniformes de l’équation de Laplace ΔΨ(r, θ, φ) = 0 sont : Ψ(r, θ, φ) =

l ∞

l=0 m=−l

(Alm rl + Blm r−l−1 )Ylm (θ, φ).

(10.49)

10 − Les polynômes orthogonaux

284

10.6.2. Propriétés des harmoniques sphériques Les harmoniques sphériques (10.46a) qui apparaissent naturellement dans la résolution de l’équation de Laplace, sont des polynômes en cos θ, sin θ, cos φ et sin φ. Notons d’abord que d’après (10.26), Ylm∗ (θ, φ) = (−1)m Yl−m (θ, φ).

(10.50)

−−→ La fonction de OM, définie par rl Ylm (θ, φ), peut s’écrire si m ≥ 0 : (m)

C(r sin θeiφ )m rl−m Pl (m)

On vérifie simplement que rl−m Pl en x, y, z. Or

(cos θ).

(cos θ) est un polynôme homogène de degré l − m

(r sin θeiφ )m = (x + iy)m ; on en déduit que si m ≥ 0, rl Ylm (θ, φ) est un polynôme homogène de degré l en x, y, z. Si m < 0, la relation (10.50) nous ramène au cas précédent. On en déduit que Ylm a la parité de l dans la symétrie par rapport à l’origine où au point (θ, φ) correspond le point (π − θ, φ + π). On a donc : Ylm (π − θ, φ + π) = (−1)l Ylm (θ, φ).

(10.51)

Cette propriété, qui peut aussi s’établir directement à partir de (10.46b), est très importante pour les règles de sélection des transitions optiques atomiques. A partir de (10.32) on déduit aisément que :  cos θ Ylm =

(l + 1 + m)(l + 1 − m) (2l + 1)(2l + 3)



1/2 m Yl+1 +

(l + m)(l − m) (2l + 1)(2l − 1)

1/2 m Yl−1 . (10.52)

10.6.3. Développement d’une fonction en série des Ylm Les Ylm constituent une base orthonormée complète de l’espace des fonctions de carré sommable sur la sphère de rayon 1. Pour une fonction f (θ, φ) de cet espace, on peut alors écrire : f (θ, φ) =

l ∞



alm Ylm (θ, φ)

(10.53)

l=0 m=−l

 avec

alm =

f (θ, φ)Ylm∗ (θ, φ) sin θ dθdφ.

Si f (θ, φ) a ses deux dérivées premières continues, la série (10.53) converge absolument et uniformément sur la sphère de rayon 1.

10.6 − Les harmoniques sphériques

285

10.6.4. Théorème d’addition des Ylm Considérons deux vecteurs unitaires u0 et u1 et désignons par γ l’angle qu’ils forment. Le vecteur u0 est choisi selon l’axe Oz0 d’un trièdre fixe T0 dont les axes Ox0 et Oy0 n’ont pas besoin d’être précisés. Soient i, j, k les vecteurs unitaires du trièdre de référence T d’axes Ox, Oy, Oz (figure 10.2). On a : z z0

cos γ = u0 · u1 = (i sin θ0 cos φ0 + j sin θ0 sin φ0 + k cos θ0 ) ·

z1

u0

(i sin θ1 cos φ1 + j sin θ1 sin φ1 + k cos θ1 ),

γ

k

soit cos γ = cos θ0 cos θ1 + sin θ0 sin θ1 cos(φ0 − φ1 ).

x

Pl (cos γ) est donc une fonction de θ0 , φ0 , θ1 , φ1 développable en série des Ylm (θ1 , φ1 ) et solution de (10.44).

i

O j

u1 y

Figure 10.2 – Illustration du théorème d’addition des Ylm .

On peut donc écrire : Pl (cos γ) =

l

alm Ylm (θ1 , φ1 ),

(10.54)

m=−l

où alm dépend de θ0 , φ0 et a pour expression :  Pl (cos γ)Ylm∗ (θ1 , φ1 )dΩ1 , alm = dΩ1 étant l’élément d’angle solide sin θ1 dθ1 dφ1 . Mais  1/2 4π Yl0 (γ, ψ), Pl (cos γ) = 2l + 1 où γ, ψ sont les coordonées sphériques de u1 par rapport à T0 . Donc  1/2   4π Yl0 (γ, ψ)Ylm∗ (θ1 , ϕ1 )dΩ1 . alm = 2l + 1

(10.55)

Mais la fonction f (u1 ) = Ylm (θ1 , φ1 ) peut être développée suivant les harmoniques sphériques Ylk (γ, ψ) : Ylm (θ1 , φ1 ) =

l

blk Ylk (γ, ψ).

(10.56)

k=−l

Pour u1 = u0 , γ = 0 et (10.56) se réduit à : Ylm (θ0 , φ0 )

=

bl0 Yl0 (0, ψ)

 = bl0

2l + 1 4π

1/2 (10.57)

10 − Les polynômes orthogonaux

286

car Ylk (0, ψ) = 0 si k = 0. Mais dans le développement (10.56),  bl0 = Ylm (θ1 , φ1 )Yl0∗ (γ, ψ)dΩγψ . Cette dernière intégrale a une valeur indépendante des variables choisies pour la calculer ; on a donc, compte tenu de (10.57) :  bl0 =

Ylm (θ1 , φ1 )Yl0∗ (γ, ψ)dΩ1 =



4π 2l + 1

1/2 Ylm (θ0 , φ0 ).

L’expression (10.55) peut alors s’écrire : alm =

4π Y m∗ (θ0 , φ0 ). 2l + 1 l

(10.58)

Finalement, d’après (10.54) et (10.58), on obtient le théorème d’addition : Pl (cos γ) =

l 4π m∗ Yl (θ0 , φ0 )Ylm (θ1 , ϕ1 ). 2l + 1

(10.59)

m=−l

10.7. Les polynômes d’Hermite 10.7.1. Définition Développons la fonction 2

G(x, t) = e2xt−t ,

(10.60)

suivant les puissances de t ; on obtient : 2

G(x, t) = e2xt e−t =

∞ ∞



(2xt)r (−t2 )k (2x)r r+2k = t (−1)k , r! k! r!k! r=0 k=0

r,k

soit en posant r + 2k = n, G(x, t) =



n=0

Hn (x)

tn n!

avec [n/2]

Hn (x) =



k=0

(−1)k

n! (2x)n−2k . k!(n − 2k)!

(10.61)

Hn (x) est un polynôme de degré n appelé polynôme d’Hermite. Montrons que ces polynômes constituent une famille orthogonale sur l’intervalle [−∞, ∞] relativement 2 au poids e−x .

10.7 − Les polynômes d’Hermite

287

Considérons l’intégrale I

=

+∞ +∞   2  2 2  −x2 G(x, t)G(x, t )e dx = e2xt−t e2xt −t e−x dx −∞

=

−∞ +∞ 



e2tt

 2

e−(x−t−t ) dx =

−∞

∞ √ 2tt √

(tt )n . πe = π 2n n! n=0

I ne dépend que du produit tt et d’après (10.5), la suite des polynômes Hn (x) est 2 orthogonale sur l’axe réel par rapport au poids e−x . On a : +∞  √ 2 e−x Hn (x)Hm (x)dx = π2n n!δnm .

(10.62)

−∞

10.7.2. Propriétés élémentaires des Hn (x) Les premiers polynômes d’Hermite sont : H0 (x) = 1 ; H1 (x) = 2x ; H2 (x) = 4x2 − 2 ; H4 (x) = 16x4 − 48x2 + 12. H3 (x) = 8x3 − 12x ; Hn (x) a la parité de n. De (10.61) on déduit que : H2n (0) = (−1)n

(2n)! ; n!

H2n+1 (0) = 0.

(10.63)

D’autre part on peut écrire d’après (10.60) :  ∞ n  n

∂ −(x−t)2 t e n! ∂tn t=0 n=0  n  2 2 ∂ −(x−t) Hn (x) = ex e ; ∂tn t=0 2

2

G(x, t) = ex e−(x−t) = ex et

2

2

si l’on pose x − t = u et f (u) = e−u ,     n   n   df ∂ f ∂ n d f f (u) =− ; = (−1) ; ∂t du u=x ∂tn t=0 dun u=x t=0 et Hn (x) = (−1)n ex

2

dn −x2 e . dxn

(10.64)

A partir de cette formule trés simple, il est aisé de retrouver l’expression des premiers polynômes d’Hermite.

10 − Les polynômes orthogonaux

288

10.7.3. Relations de récurrence Le développement de G(x, t) suivant les puissances de t est uniformément convergent par rapport à x sur tout intervalle fini ; il est donc dérivable terme à terme et : ∞

Hn (x)

n=1



2 Hn (x) n ∂G tn = = 2te2tx−t = 2t t , n! ∂x n! n=0

∞ ∞

Hn (x) n 2nHn−1 (x) n t = t n! n! n=1 n=1

d’où : et :

Hn (x) = 2nHn−1 (x).

(10.65)

Dérivons la fonction génératrice par rapport à t. On obtient :

et :

On a donc : et :

∂G = (2x − 2t)G(x, t) ∂t ∞ ∞



Hn (x) n tn−1 = (2x − 2t) t . Hn (x) (n − 1)! n! n=1 n=0 ∞

Hn+1 (x)

n=0



2xHn (x) − 2nHn−1 (x) n tn = t n! n=0 n!

Hn+1 (x) − 2xHn (x) + 2nHn−1 (x) = 0.

(10.66)

En dérivant cette dernière relation, on obtient :   − 2Hn − 2xHn + 2nHn−1 = 0, Hn+1

soit, compte tenu de (10.65), 2(n + 1)Hn − 2Hn − 2xHn + Hn = 0; Hn est donc solution de l’équation différentielle : Hn (x) − 2xHn (x) + 2nHn (x) = 0.

(10.67)

Introduisons les fonctions de Weber-Hermite d’ordre n définies par : un (x) = e−x un = e−x

On a :

un = e−x

2

/2

2

/2

2

/2

Hn (x).

(10.68)

(Hn − xHn )

(Hn − Hn − 2xHn + x2 Hn ),

et, en utilisant (10.67), on obtient : un = e−x

2

/2

(x2 − 2n − 1)Hn = (x2 − 2n − 1)un .

Ainsi la fonction un (x) obéit à l’équation différentielle : un (x) + (2n + 1 − x2 )un = 0.

(10.69)

10.7 − Les polynômes d’Hermite

289

10.7.4. Application à la résolution de l’équation de Schrödinger d’un oscillateur harmonique L’équation de Schrödinger d’une particule de masse m soumise à une énergie potentielle V (x) = Cx2 /2 (ce qui correspond en mécanique classique à un oscillateur  harmonique de fréquence propre ω = C/m) s’écrit : d2 Ψ 2m 1 + 2 (E − Cx2 )Ψ = 0, (10.70) 2 dx  2 où la fonction d’onde Ψ(x) est la fonction inconnue qui doit s’annuler lorsque x → ±∞, E représente l’énergie de la particule et apparaît ici comme un paramètre,  est la constante de Planck h/2π. Effectuons le changement de variable x = aQ où a est une constante. L’équation (10.70) devient : d2 Ψ(Q) 2m 1 + 2 (Ea2 − Ca4 Q2 )Ψ(Q) = 0 dQ2  2 et s’identifie à (10.69) à condition de choisir – le coefficient de Q2 égal à 1, soit mCa4 /2 = 1, ou encore   = , a2 = √ mω mC

(10.71)

– et le paramètre E de sorte que 2mEa2 /2 = 2n + 1, soit En =

2 (n + 1/2), ma2

ou, finalement, En = (n + 1/2)ω.

(10.72)

L’équation (10.72) nous donne les niveaux d’énergie du sytème et les fonctions d’onde associées Ψn (Q) sont les solutions un (Q). En définitive la solution Ψn (x) associée à une valeur En = (n + 1/2)ω de E s’écrit sous la forme : Ψn (x) = Cte un (Q) = An e−(x

2

/(2a2 ))

Hn (x/a),

(10.73)

où a est donné par (10.71) et An est une constante que l’on choisit habituellement de  +∞ sorte que la fonction Ψn (x) soit normée, c’est-à-dire telle que −∞ [Ψn (x)]2 dx = 1. La fonction Ψ0 (x) associée au niveau fondamental E0 = ω/2, s’écrit par exemple : √ 2 2 Ψ0 (x) = (a π)−1/2 e−(x /(2a )) . On peut se demander si le processus d’identification utilisé conduit à toutes les solutions de (10.70). On peut montrer qu’il en est bien ainsi car les solutions obtenues Ψn (x) sont alternativement paires (n pair) et impaires (n impair) avec un nombre de zéros égal à n conformément à la théorie générale des puits de potentiels symétriques 1 . 1. Voir par exemple : Y. Ayant et E. Belorizky, Cours de mécanique quantique (Dunod, Paris, 3e édition, 2000), pp. 75–76.

10 − Les polynômes orthogonaux

290

10.8. Les polynômes de Laguerre 10.8.1. Définition. Propriétés élémentaires Considérons la fonction Gk (x, t) =

  1 xt exp − , (1 − t)k+1 1−t

(10.74)

et son développement en série entière de t pour |t| < 1 : Gk (x, t) =



(−1)m

m=0

∞ ∞ m

xm (m + k + h)! tm mx . = (−1) tm+h m+k+1 m! (1 − t) m! (m + k)!h! m=0 h=0

Posons m + h = n, Gk (x, t) =

n ∞



(−1)m

n=0 m=0

xm (n + k)! tn . m!(m + k)!(n − m)!

(10.75)

On peut alors écrire Gk (x, t) sous la forme : Gk (x, t) =



Lkn (x)tn ,

(10.76)

n=0

où Lkn (x) est un polynôme de degré n appelé polynôme de Laguerre généralisé donné d’aprés (10.75) par : n

Lkn (x) =

(−1)m

m=0

(n + k)! xm . m!(m + k)!(n − m)!

(10.77)

(n + k)! . k!n! Si k = 0, L0n (x) sera noté Ln (x) et on définit ainsi les polynômes de Laguerre soit :

Notons que Lk0 (x) = 1 ;

Lkn (0) =

Ln (x) =

n

(−1)m

m=0

n! xm . (m!)2 (n − m)!

(10.78)

Les premiers polynômes de Laguerre sont : L0 (x) = 1 ; L3 (x) =

L1 (x) = 1 − x ;

1 (6 − 18x + 9x2 − x3 ) ; 3!

1 (2 − 4x + x2 ) ; 2 1 L4 (x) = (24 − 96x + 72x2 − 16x3 + x4 ). 4!

L2 (x) =

Montrons que les polynômes Lkn (x) constituent une famille de polynômes orthogonaux. En effet, conformément au théorème du § 10.3, on calcule l’intégrale ∞ I= 0

Gk (x, t)Gk (x, t )xk e−x dx,

10.8 − Les polynômes de Laguerre

291

et on obtient : 1 I= (1 − t)k+1 (1 − t )k+1 soit en posant

∞

 xk exp −x(1 +

0

 t t + ) dx, 1 − t 1 − t

 1+

 t t 1 − tt + x, x=  1−t 1−t (1 − t)(1 − t ) ∞ 1 k! I= uk e−u du = . (1 − tt )k+1 (1 − tt )k+1

u=

0

I ne dépend que du produit tt et s’écrit encore : I=



(k + n)!  n (tt ) n! n=0

et, d’aprés (10.5), on établit l’orthogonalité des polynômes de Laguerre généralisés : ∞

xk e−x Lkm (x)Lkn (x)dx =

0

(k + n)! δmn , n!

(10.79)

m et n sont des entiers ≥ 0 et k > −1, pour que les intégrales existent. En multipliant les deux membres de (10.77) par xk e−x , on obtient : xk e−x Lkn (x)

n

(n + k)! xm+k e−x m!(m + k)!(n − m)! m=0  m   n−m n

d d 1 1 dn n+k −x n+k −x = x e (x e ) = m!(n − m)! dxn−m dxm n! dxn m=0

=

(−1)m

et Lkn (x) =

1 −k x dn n+k −x x e (x e ). n! dxn

(10.80)

ex dn n −x (x e ). n! dxn

(10.81)

En particulier Ln (x) =

10.8.2. Relations de récurrence. Equation différentielle 1. Dérivons la fonction génératrice Gk (x, t) par rapport à t. D’après (10.74) on a :   k+1 ∂Gk (x, t) x = − Gk (x, t), ∂t 1−t (1 − t)2 ∂Gk (x, t) − [(k + 1)(1 − t) − x] Gk (x, t) = 0. d’où : (1 − t)2 ∂t

10 − Les polynômes orthogonaux

292 D’après (10.76),

∞ ∞

∂Gk (x, t) k n−1 = Ln (x)nt = Lkn+1 (x)(n + 1)tn ∂t n=1 n=0

et l’on a : (1 − 2t + t2 )



Lkn+1 (x)(n + 1)tn − [(k + 1) − x − (k + 1)t]

n=0



Lkn (x)tn = 0 ;

n=0 n

on en déduit en annulant le coefficient de t que : (n + 1)Lkn+1 − 2nLkn + (n − 1)Lkn−1 − (k + 1 − x)Lkn + (k + 1)Lkn−1 = 0, soit : (n + 1)Lkn+1 (x) − (2n + k + 1 − x)Lkn (x) + (n + k)Lkn−1 (x) = 0.

(10.82)

2. Remarquons d’autre part que d’après (10.77), Lkn−1 (x) + Lk−1 n (x)   n−1

(n − 1 + k)! (n + k − 1)! xn = (−1)m + xm + (−1)n m!(m + k)!(n − 1 − m)! m!(m + k − 1)!(n − m)! n! m=0   n−1

1 1 (n + k − 1)! xn = (−1)m + xm + (−1)n m!(m + k − 1)!(n − m − 1)! m + k n − m n! m=0 =

n−1

(−1)m

m=0

(n + k)! xn xm + (−1)n = Lkn (x) m!(m + k)!(n − m)! n!

et k Lkn−1 (x) + Lk−1 n (x) = Ln (x).

(10.83)

3. En dérivant la relation (10.83) par rapport à x, on obtient : d k d k d k−1 L (x) = L L (x) + (x). dx n dx n−1 dx n Or :

(10.84)

n−1

(n + k)! d k Ln (x) = − xm , (−1)m dx m!(k + 1 + m)!(n − 1 − m)! m=0

donc : d k L (x) = −Lk+1 n−1 (x), dx n

(10.85)

et d’après (10.84) et (10.85) : Lkn−1 (x) =

d k [L (x) − Lkn (x)]. dx n−1

(10.86)

10.9 − Exercices

293

En différentiant (10.82) et en remarquant d’après (10.86) que : d k d k Ln+1 (x) = L (x) − Lkn (x) dx dx n d k d k L L (x) + Lkn−1 (x), (x) = dx n−1 dx n

et que : on obtient :

d k L (x) = nLkn (x) − (n + k)Lkn−1 (x). dx n On en déduit, compte tenu de (10.86), que : x

(10.87)

d k d [Ln−1 (x) − Lkn (x)] = nLkn (x) − x Lkn (x), dx dx d k d k (n + k) Ln−1 (x) = (n + k − x) Ln (x) + nLkn (x). dx dx

(n + k) d’où :

L’équation différentielle satisfaite par les polynômes de Laguerre s’en déduit par dérivation de la relation (10.87) : x

dLkn (x) d2 Lkn (x) + nLkn (x) = 0. + (k + 1 − x) dx2 dx

(10.88)

Les polynômes de Laguerre généralisés interviennent dans l’expression des fonctions d’onde de l’atome d’hydrogène obtenues en résolvant l’équation de Schrödinger correspondante.

10.9. Exercices Exercice 10.1. Calculer 1 xPl (x)Pl−1 (x) dx,

I= −1

où Pl (x) est le polynôme de Legendre de degré l. 1 Exercice 10.2. Calculer l’intégrale I =

Pl (x) dx lorsque l = 2m + 1 est impair. 0

Exercice 10.3. Développer en série de polynômes de Legendre la fonction f (x) = |x| pour −1 ≤ x ≤ 1. Exercice 10.4. {1, x, x2 } est une base d’un espace vectoriel à 3 dimensions. On définit sur cet espace le produit scalaire par :  f |g = ρ(x)f (x)g(x) dx. D

10 − Les polynômes orthogonaux

294

Déterminer une base orthogonale dans chacun des cas suivants : 1. D = [−1, 1] et ρ(x) = 1. 2. D = [0, +∞[ et ρ(x) = e−x . 3. D =] − ∞, +∞[ et ρ(x) = e−x

2

/2

.

Exercice 10.5. 1. A l’aide de la fonction génératrice des polynômes de Legendre, établir que : ∞

1 − r2 = (2l + 1)Pl (x)rl . (1 − 2xr + r2 )3/2 l=0 2. Evaluer l’intégrale 1 I= −1

Pl (x) dx. (1 − 2xr + r2 )3/2

Exercice 10.6. Calculer Ylm (0, φ). Exercice 10.7. En mécanique quantique, les opérateurs associés aux composantes du moment cinétique orbital d’une particule de coordonnées r, θ, φ sont :   ∂ 1 ∂ ∂ , l± = lx ± ily = e±iφ ± + i cot θ lz = . i ∂ϕ ∂θ ∂φ Montrer que

lz Ylm (θ, φ) = mYlm (θ, φ)  l± Ylm (θ, φ) = (l ∓ m)(l ± m + 1)Ylm±1 (θ, φ).

dm Exercice 10.8. Calculer m Hn (x) (m < n), où Hn (x) est le polynôme d’Hermite dx de degré n. Exercice 10.9. Calculer l’intégrale I=

+∞  2 xe−x Hn (x)Hm (x) dx. −∞

dk Exercice 10.10. Exprimer Ln+k (x) en fonction de Ln+k (x), où Ln (x) désigne le dxk polynôme de Laguerre de degré n.

10.9 − Exercices

295

Exercice 10.11. Calculer

d2 Ln (x)

dx2

= Ln (0).

x=0

Exercice 10.12. Si P (x) est un polynôme de degré n, montrer que P (x) peut s’écrire sous la forme P (x) =

n

∞ cr Lr (x)

avec

r=0

cr =

e−x Lr (x)P (x) dx.

0

En déduire la valeur de l’intégrale ∞ I=

e−x xk Ln (x) dx

0

pour k entier. Exercice 10.13. Montrer que la fonction u(x) = xλ e−x/2 Lkn (x) obéit à l’équation différentielle :     λ(λ − k) 1 1 k+1 d2 u k + 1 − 2λ du + + n − + + u = 0. dx2 x dx x2 2 x 4

7KLVSDJHLQWHQWLRQDOO\OHIWEODQN

Chapitre 11 Fonctions de Bessel et applications

Les fonctions de Bessel sont les solutions de l’équation différentielle de Bessel, que l’on rencontre souvent en physique, notamment dans les problèmes d’ondes stationnaires et dans la résolution de l’équation de Schrödinger, en mécanique quantique, pour la diffusion par un centre de forces. Dans ce chapitre nous donnerons quelques propriétés essentielles de ces fonctions et nous les appliquerons à quelques exemples physiques simples.

11.1. L’équation différentielle de Bessel L’équation de Bessel Eν est l’équation linéaire homogène du second ordre :   ν2 d2 y 1 dy + 1 − + y = 0, (11.1) dx2 x dx x2 où x est la variable, y(x) la fonction inconnue et ν un paramètre pouvant être complexe. Les équations Eν et E−ν sont identiques. On désigne souvent par Zν (x) la solution générale de l’équation (11.1) qui dépend linéairement de deux solutions particulières Jν (x) et Yν (x) soit Zν (x) = aJν (x) + bYν (x). De nombreuses équations se ramènent à la forme (11.1) par changement de variable et de fonction. Par exemple l’équation   d2 y 1 − 2α dy α2 − ν 2 β 2 β−1 2 + (Kβx + ) + y=0 (11.2a) dx2 x dx x2 a pour solution y(x) = xα Zν (Kxβ ) (voir exercice 11.1).

(11.2b)

11 − Fonctions de Bessel et applications

298 En particulier :

– si α = −ν et K = β = 1, l’équation (11.2a) s’écrit : x(y  + y) + (2ν + 1)y  = 0 −ν

y(x) = x

et a pour solution

Zν (x) ;

(11.3a) (11.3b)

– si α = 0, K = k, β = 1, y  +

  y ν2 + k 2 − 2 y = 0, x x y(x) = Zν (kx) ;

– si α = 1/2, K = k, β = 1, ν = l + 1/2 ,   l(l + 1)  2 y = 0, y + k − x2 √ y(x) = xZl+1/2 (kx) ;

(11.4a) (11.4b)

(11.5a) (11.5b)

√ A 1 n 1 , β =± =1+ , – si α = , K = 2 β 2ν 2 y  + Axn y = 0, √ √ y(x) = xZ1/(2β) ( Axβ /β). Enfin il est facile de vérifier que l’équation   y  + α2 A2 e2αx − ν 2 y = 0

(11.6a) (11.6b)

(11.7a)

a pour solution y(x) = Zν (Aeαx ).

11.2. Fonctions de Bessel de première et de deuxième espèce 11.2.1. Fonctions de Bessel de première espèce Cherchons une solution de (11.1) sous la forme : y(x) = xα



k=0

ak xk .

(11.7b)

11.2 − Fonctions de Bessel de première et de deuxième espèce On a :



ak (k + α)(k + α − 1)xk+α−2

+

k



299

ak (k + α)xk+α−2

k

+



ak (xk+α − ν 2 xk+α−2 ) = 0,

k

et en égalant à zéro tous les termes de même degré, on obtient :

a1



a0 (α2 − ν 2 ) = 0  (α + 1)2 − ν 2 = 0

(k = 0) (k = 1)

(11.8a) (11.8b)

et   ak (k + α)2 − ν 2 + ak−2 = 0

(k ≥ 2).

(11.8c)

A condition d’avoir a0 = 0, l’équation (11.8c) nous permet d’obtenir ak en fonction de ak−2 . D’autre part l’équation (11.8a) nous montre que α = ±ν ; si ν est réel nous supposerons que ν > 0 et s’il est complexe que Ré ν > 0. Examinons les deux cas possibles : 1. Nous voyons que si α = ν, d’après (11.8b), a1 = 0 et (11.8c) montre que les coefficients avec k impair sont tous nuls. En posant k = 2r, on a : a0 a0 a2 ; a4 = − = ; 4(ν + 1) 2.4(ν + 2) 2.42 (ν + 1)(ν + 2) a0 a4 a6 = − =− 3 3.4(ν + 3) 4 3!(ν + 1)(ν + 2)(ν + 3) a2 = −

et, d’une manière générale, a2r = (−1)r

a0 a0 ν! = (−1)r 2r . 22r r!(ν + 1)(ν + 2)...(ν + r) 2 r!(ν + r)!

Par définition la fonction de Bessel de première espèce d’ordre ν, Jν (x) est celle qui correspond à la valeur arbitraire a0 = 1/(2ν ν!). Donc : Jν (x) =



(−1)r

r=0

x ν+2r 1 . r!(ν + r)! 2

(11.9)

Cette série converge car le rapport entre les termes r + 1 et r,

x 2

ur+1 1

ur = (r + 1)(ν + r + 1) 2 tend vers 0 lorsque r → ∞ quel que soit x (critère de d’Alembert). Si ν est un nombre entier n, on a : Jn (x) =



r=0

(−1)r

x n+2r 1 , r!(n + r)! 2

(11.10)

11 − Fonctions de Bessel et applications

300 et en particulier pour n = 0, J0 (x) =



(−1)r

r=0

1 x 2r . (r!)2 2

(11.11)

2. Si α = −ν, les coefficients pairs a2r , a2r−2 , sont liés par : a2r [2r(2r − 2ν)] + a2r−2 = 0, et les coefficients impairs par : a2r+1 [(2r + 1)(2r + 1 − 2ν)] + a2r−1 = 0. En particulier a1 (1 − 2ν) = 0 et si ν = 1/2, a1 = 0 et tous les coefficients impairs a2r+1 sont nuls. Pour ν = 1/2, a1 est indéterminé mais peut être choisi nul. Notons également que si ν est égal à la moitié d’un nombre impair, ν = (2m + 1)/2, les coefficients impairs ne sont pas nécéssairement nuls à partir de r = m, mais peuvent être choisis nuls. En définitive un calcul identique à celui mené dans le cas où α = ν, conduit en prenant a0 = 1/[2−ν (−ν)!] à : J−ν (x) =



r=0

(−1)r

x 2r−ν 1 . r!(r − ν)! 2

(11.12)

Cette expression est valable à condition que ν soit différent d’un entier car alors (−ν)! n’a pas de sens. Si ν est réel et x réel, Jν (x) et J−ν (x) sont réels. Il est possible de regrouper les équations (11.9) et (11.12) en une formule unique à condition d’autoriser ν à prendre toute valeur à l’exception des entiers négatifs. D’autre part l’expression (11.9) nous fournit le comportement de Jν (x) pour x petit : 1 x ν Jν (x) ∼ . (11.13) = ν! 2 Dans ces conditions, lorsque x → 0, on voit que si Ré ν > 0, Jν (x) → 0, alors que si Ré ν < 0, Jν (x) → ∞ et que J0 (0) = 1.

11.2.2. Relation entre Jν et J−ν Examinons dans quels cas les solutions Jν (x) et J−ν (x) sont linéairement indépendantes. Supposons d’abord que ν est différent d’un nombre entier n > 0 ; (r − ν)! a une valeur finie pour tout r entier. Si x → 0, nous avons vu que Jν (x) → 0 et J−ν (x) → ∞. Les deux solutions sont donc linéairement indépendantes. La solution générale de l’équation de Bessel (11.1) est alors : Zν (x) = aJν (x) + bJ−ν (x), où a et b sont deux constantes arbitraires.

(11.14)

11.2 − Fonctions de Bessel de première et de deuxième espèce

301

Cependant, si ν est égal à un entier n > 0, l’équation (11.12) s’écrit : J−n (x) =



r=0

(−1)r

x 2r−n 1 . r!(r − n)! 2

Même pour x = 0, les premiers termes de ce développement sont nuls tant que r − n est un entier négatif. En posant r − n = k, on a : J−n (x) =



(−1)k+n

k=0

x n+2k 1 (n + k)!k! 2

et par comparaison avec (11.10) : J−n (x) = (−1)n Jn (x).

(11.15)

Les deux fonctions Jn (x) et J−n (x) ne sont pas linéairement indépendantes et l’intégrale générale de (11.1) n’est pas aJn (x) + bJ−n (x).

11.2.3. Fonctions de Bessel de deuxième espèce Considérons la fonction Yν (x) =

cos(νπ)Jν (x) − J−ν (x) . sin(νπ)

(11.16)

Si ν n’est pas un nombre entier, cette fonction est une solution particulière de (11.1). Si l’on fait tendre ν vers un nombre entier n, cette fonction est indéterminée. La règle de l’Hôpital permet de lever cette indétermination et conduit à :

Yn (x)

=

=

∂ [cos(νπ)Jν (x) − J−ν (x)]|ν=n ∂ν ∂ [sin(νπ)]|ν=n ∂ν

∂Jν (x)

−π sin(nπ)Jn + cos(nπ)

∂ν

soit Yn (x) =

ν=n

∂J−ν (x)



∂x

π cos nπ   ∂J−ν (x) 1 ∂Jν (x) − (−1)n . π ∂ν ∂ν ν=n

ν=n

,

(11.17)

Nous devons montrer que Yn (x) définie par (11.17) obéit à l’équation de Bessel et qu’il s’agit d’une solution indépendante de Jn (x). Vu que Jν (x) est solution de l’équation de Bessel (11.1), on a :   ν2 1 dJν d2 Jν + 1 − + Jν = 0 dx2 x dx x2

11 − Fonctions de Bessel et applications

302

et en prenant la dérivée partielle par rapport à ν de cette expression,   1 d ∂Jν ν 2 ∂Jν 2ν d2 ∂Jν + + 1 − − 2 Jν = 0. dx2 ∂ν x dx ∂ν x2 ∂ν x Puisque J−ν (x) est aussi solution, on peut écrire de même que   d2 ∂J−ν 1 d ∂J−ν ν 2 ∂J−ν 2ν + + 1 − − 2 J−ν = 0. 2 2 dx ∂ν x dx ∂ν x ∂ν x

(11.18a)

(11.18b)

En multipliant (11.18b) par (−1)ν et en soustrayant de (11.18a) on a     d2 ∂Jν 1 d ∂Jν −ν ∂J−ν −ν ∂J−ν − (−1) − (−1) + dx2 ∂ν ∂ν x dx ∂ν ∂ν    2   ∂Jν ∂J−ν 2ν ν − (−1)−ν + 1− 2 − 2 Jν − (−1)−ν J−ν = 0. x ∂ν ∂ν x Mais si l’on prend ν = n entier, d’aprés (11.15) et (11.17), on voit que Yn (x) est solution de l’équation de Bessel. On peut montrer que cette solution est linéairement indépendante de Jn (x) car si n x → 0, Jn (x) → 0 si n = 0 et J0 (x) → 1 alors que Yn (x) → −[(n − 1)!/π] (2/x) si n = 0 et Y0 (x) → (2/π) ln x, ces deux fonctions tendant vers −∞. Notons enfin que l’on désigne souvent Yn (x) par la fonction de Neumann Nn (x).

11.3. Forme intégrale des fonctions de Bessel Considérons l’intégrale 1 I=

(1 − t2 )ν−1/2 eixt dt

(ν > −1/2).

−1

On a encore : 1 I=

2 ν−1/2

(1 − t )



(ixt)r r=0

−1

r!

dt =

1 ∞

(ix)r r=0

r!

(1 − t2 )ν−1/2 tr dt.

−1

L’intégrale qui apparaît ci-dessus est nulle lorsque r est impair. Lorsque r est pair (r = 2s) l’intégrale s’écrit en posant t2 = u et grâce à l’équation (4.1) : 1

2 ν−1/2 2s

(1 − t )

2 0

1

t dt =

(1 − u)ν−1/2 us−1/2 du = β(ν + 1/2, s + 1/2). 0

11.4 − Relations de récurrence

303

D’après les équations (4.9) et (4.22b), I=



(ix)2s (ν − 1/2)!(s − 1/2)! s=0

(2s)!

soit

(ν + s)!

= (ν − 1/2)!



(−1)s

s=0

x2s √ (2s)! , π 2s (2s)! 2 s!(ν + s)!

∞ x 2s+ν √ x −ν

1 . I = (ν − 1/2)! π (−1)s 2 2 s!(ν + s)! s=0

Nous reconnaissons le développement (11.9) de Jν (x), d’où : √ x −ν I = (ν − 1/2)! π Jν (x) 2 ou encore : x ν 1 1 √ Jν (x) = (1 − t2 )ν−1/2 eixt dt (ν − 1/2)! π 2

(ν > −1/2).

(11.19)

−1

11.4. Relations de récurrence Partons du développement (11.9) de Jν (x) ; nous avons : / d . x ν Jν (x) dx 2

=



(−1)r

(ν + r) x 2ν+2r−1 r!(ν + r)! 2

(−1)r

x ν+ν−1+2r 1 r!(ν + r − 1)! 2

r=0

=



r=0

=

x ν 2

Jν−1 (x).

De même 

 ∞ x 2r−1 d x −ν 1 Jν (x) = (−1)r , dx 2 (r − 1)!(ν + r)! 2 r=1 soit en posant r = 1 + k   ∞ x 2k+1 x −ν

d x −ν 1 Jν (x) = − (−1)k =− Jν+1 (x). dx 2 k!(ν + k + 1)! 2 2 k=0

On obtient ainsi les relations de récurrence : d ν [x Jν (x)] = xν Jν−1 (x) dx  d  −ν x Jν (x) = −x−ν Jν+1 (x). dx

(11.20) (11.21)

11 − Fonctions de Bessel et applications

304

Il est facile de montrer que les relations (11.20) et (11.21) sont valables pour les fonctions de Bessel de deuxième espèce Yν (x) ≡ Nν (x). On a par exemple à partir de (11.16) : d ν (x Yν ) dx

d ν d ν 1 (x Jν ) − (x J−ν ) dx sin νπ dx 1 xν J−ν+1 = cot νπ xν Jν−1 + sin νπ 1 xν J−ν+1 = xν Yν−1 . = cot (ν − 1)π xν Jν−1 − sin (ν − 1)π

= cot νπ

Donc la solution générale de l’équation de Bessel (11.1) qui s’écrit Zν = aJν + bYν obéit aux relations de récurrence : d  −ν  d (xν Zν ) = xν Zν−1 et x Zν = −x−ν Zν+1 . (11.22) dx dx En développant (11.20) et (11.21) on trouve : ν Jν + Jν = Jν−1 x ν Jν − Jν = −Jν+1 , x d’où : 2ν Jν = Jν−1 + Jν+1 x 2Jν = Jν−1 − Jν+1 .

(11.23) (11.24)

(11.25) (11.26)

Bien entendu ces relations sont valables si l’on remplace Jν par Zν . Les équations (11.25) et (11.26) permettent, par exemple, de calculer de proche en proche les fonctions de Bessel et de Neumann d’indice entier, ainsi que leurs dérivées, si une table fournit J0 , J1 , Y0 , Y1 . Notons que J0 = −J1 ;

Y0 = −Y1 .

(11.27)

11.5. Fonctions de Bessel d’indice entier et demi-entier 11.5.1. Fonctions de Bessel d’indice entier Nous savons d’après (11.15) que lorsque ν = n avec n entier > 0, Jn et J−n ne sont pas des solutions indépendantes de l’équation de Bessel (11.1) et que la solution générale de cette équation s’écrit sous la forme : Zn (x) = aJn (x) + bYn (x), où Yn (x) est définie par (11.17).

(11.28)

11.5 − Fonctions de Bessel d’indice entier et demi-entier

305

Nous représentons sur les figures 11.1 et 11.2 l’allure des fonctions Jn (x) et Yn (x) pour n = 0, 1, 2. Jn (x) 1, 0 J0 (x) 0, 8 0, 6

J1 (x)

J2 (x)

0, 4 0, 2 0

12

4 2

6

8

10

x

−0, 2 −0, 4

Figure 11.1 – Jn (x), n = 0, 1, 2. Yn (x)

Y0 (x)

Y1 (x)

0, 4

Y2 (x)

0, 2 2 0

4 6

8

−0, 2 −0, 4 −0, 6 −0, 8 −1, 0 Figure 11.2 – Yn (x), n = 0, 1, 2.

10

x

11 − Fonctions de Bessel et applications

306

11.5.2. Fonctions de Bessel d’indice demi-entier Lorsque ν est demi-entier, les fonctions de Bessel Jν (x) s’expriment à l’aide des fonctions trigonométriques. D’après (11.9), on a : J1/2 (x) =



(−1)r

r=0

x 1/2+2r 1 , r!(r + 1/2)! 2

soit en utilisant l’expression (4.22a) de (r + 1/2)!, J1/2 (x) = soit

x 1/2+2r 22r+1 (−1)r √ = π(2r + 1)! 2 r=0  2 sin x. J1/2 (x) = πx





(11.29)

De même : x −1/2+2r 1 J−1/2 (x) = (−1) = r!(r − 1/2)! 2 r=0  2 J−1/2 (x) = cos x. πx ∞

soit



2

x2r+1 , (−1)r πx r=0 (2r + 1)!



r



2

x2r , (−1)r πx r=0 (2r)! (11.30)

On peut alors utiliser les relations de récurrence pour calculer Jn+1/2 à partir de J1/2 . Posons x−n−1/2 Jn+1/2 = Un . On a d’après (11.21) : d’où : et Par exemple :

dUn = −x−n−1/2 Jn+3/2 = −xUn+1 , dx  n 1 d n U0 (n entier ≥ 0) Un = (−1) x dx   n 2 n+1/2 1 d sin x x . Jn+1/2 (x) = (−1)n π x dx x    2 sin x J3/2 (x) = − cos x . πx x

On établit de même que :



J−n−1/2 (x) =

2 n+1/2 x π



1 d x dx

n

cos x , x

et d’après (11.16) Yn+1/2 (x) = (−1)n+1 J−n−1/2 (x). En particulier :

 J−3/2 (x) = −

2 cos x + sin x . πx x

(11.31) (11.32)

(11.33)

11.6 − Fonctions de Hankel

307

11.6. Fonctions de Hankel On définit les fonctions de Hankel (parfois désignées par fonction de Bessel de troisième espèce) par : (1)

Hν (x) = Jν (x) + iYν (x) (2) Hν (x) = Jν (x) − iYν (x).

(11.34)

Il s’agit évidemment de solutions indépendantes de l’équation de Bessel. Leur intérêt est lié à leur comportement asymptotique qui sera examiné au § 11.8.2. Il est clair que les relations de récurrence (11.20), (11.21) demeurent valables si l’on remplace Jν (x) (1) (2) par Hν (x) et Hν (x).

11.7. Les fonctions de Bessel modifiées Nous désignons par équation de Bessel modifiée l’équation différentielle :   1 dy d2 y ν2 + − 1 + 2 y = 0. dx2 x dx x

(11.35)

Si l’on remplace x par ix dans l’équation de Bessel (11.1), on obtient (11.35). Autrement dit, si Zν (x) = aJν (x) + bYν (x) désigne la solution générale de l’équation de Bessel (11.1), Zν (ix) = aJν (ix) + bYν (ix)

(11.36)

représente la solution générale de l’équation de Bessel modifiée (11.35). Nous allons chercher à construire des solutions qui soient réelles pour x réel > 0.

11.7.1. Fonctions Iν (x) et Kν (x) On définit la fonction de Bessel modifiée de première espèce par Iν (x) = i−ν Jν (ix)

(11.37)

et d’après (11.9), on a : Iν (x) =



r=0

x ν+2r 1 . r!(ν + r)! 2

(11.38)

Lorsque ν n’est pas entier Iν et I−ν sont deux solutions non proportionnelles de (11.35) à partir desquelles on peut bâtir la solution la plus générale. D’après (11.19) et (11.37), la forme intégrale de Iν (x) est donnée par : x ν 1 Iν (x) = √ π(ν − 1/2)! 2

1 −1

(1 − t2 )ν−1/2 e−xt dt

(ν > −1/2).

(11.39)

11 − Fonctions de Bessel et applications

308

Si ν est entier égal à n, on a d’après (11.15) et (11.37) : I−n (x) = In (x).

(11.40)

Dans ce cas on peut obtenir la seconde solution indépendante de l’équation de Bessel modifiée (11.35) en considérant la fonction Yn (ix). Plus précisément on définit la fonction de Bessel modifiée de deuxième espèce par : Kν (x) =

π I−ν (x) − Iν (x) . 2 sin νπ

(11.41)

Lorsque ν est non entier, Iν et Kν sont des solutions indépendantes de (11.35). Lorsque ν = n entier, Kn (x) est indéterminée, mais à la limite ou ν → n, on a par analogie avec (11.17) :   (−1)n ∂I−ν (x) ∂Iν (x) − , Kn (x) = 2 ∂ν ∂ν ν=n et l’on peut vérifier que Kn (x) est une solution de(11.35) linéairement indépendante de In (x). On représente sur les figures 11.3 et 11.4 les fonctions In (x) et Kn (x) pour n = 0, 1, 2. Remarquons que d’après (11.37) et (11.41), on a : Kν (x) =

π iν J−ν (ix) − i−ν Jν (ix) . 2 sin νπ

Mais d’après la définition (11.16) de Yν (x), J−ν (ix) = cos νπ Jν (ix) − sin νπ Yν (ix),   π i cos νπ + i−2ν−1 Jν (ix) . Kν (x) = iν+1 iYν (ix) − 2 sin νπ

d’où

Mais

i cos νπ + i−2ν−1

= i cos νπ − i(eiπ/2 )−2ν = i cos νπ − i(cos νπ − i sin νπ) = − sin νπ,

et finalement Kν (x) =

π ν+1 i [Jν (ix) + iYν (ix)], 2

(11.42)

π ν+1 (1) i Hν (ix). 2

(11.43)

soit d’après (11.34), Kν (x) =

11.7 − Les fonctions de Bessel modifiées In (x) 20

309

I0 (x)

I1 (x)

16

12 I2 (x) 8

4 2 1 0

1

2 3 4 Figure 11.3 – In (x), n = 0, 1, 2.

5

x

11.7.2. Relations de récurrence des fonctions de Bessel modifiées Si dans (11.20) on remplace x par ix, on a :

soit et

d [(ix)ν Jν (ix)] = iν xν Jν−1 (ix), d(ix) 1 d ν ν ν [i x i Iν (x)] = iν xν iν−1 Iν−1 (x) i dx d ν [x Iν (x)] = xν Iν−1 (x). dx

(11.44)

On établit de même à partir de (11.21) que  d  −ν x Iν (x) = x−ν Iν+1 (x). dx On a par exemple I1 = I0 .

(11.45)

11 − Fonctions de Bessel et applications

310 Kn (x) 20

K1 (x)

16

12 K2 (x) 8 K0 (x) 4

0

1

2

3

4

5

x

Figure 11.4 – Kn (x), n = 0, 1, 2.

Mais alors que les fonctions Jν (x) et Yν (x) satisfont aux mêmes relations de récurrence, il n’en est pas de même des fonctions Iν (x) et Kν (x). D’après (11.20) et (11.34) on a : d . ν (1) / (1) x Hν (x) = xν Hν−1 (x), dx ce qui donne en remplaçant x par ix : / d . ν ν (1) (1) i x Hν (ix) = iν xν Hν−1 (ix) d(ix) soit, en vertu de (11.43) :   1 d ν ν 2 −ν−1 2 Kν (x) = iν xν i−ν Kν−1 (x) i x i i dx π π d ν [x Kν (x)] = −xν Kν−1 (x). et dx

(11.46)

11.7 − Les fonctions de Bessel modifiées

311

On montre de même que :  d  −ν x Kν (x) = −x−ν Kν+1 (x). dx

(11.47)

K1 = −K0 .

En particulier :

11.7.3. Forme intégrale de Kν (x) Montrons d’abord que l’intégrale ∞ P =x

ν

e−xt (t2 − 1)ν−1/2 dt

(ν > −1/2, x > 0)

1

satisfait à l’équation de Bessel modifiée (11.35). On a : dP = νxν−1 dx

∞ e

−xt

2

(t − 1)

ν−1/2

∞ dt + x (−t)e−xt (t2 − 1)ν−1/2 dt

1

ν

1

et d2 P dx2

∞ =

ν(ν − 1)xν−2

e−xt (t2 − 1)ν−1/2 dt + 2νxν−1

1

∞ +xν

∞ (−t)e−xt (t2 − 1)ν−1/2 dt 1

t2 e−xt (t2 − 1)ν−1/2 dt,

1

d’où l’on déduit que   ν2 d2 P 1 dP − 1+ 2 P + dx2 x dx x ∞  = xν−2 [ν(ν − 1) − 2νxt + x2 t2 + ν − tx − x2 − ν 2 ]e−xt (t2 − 1)ν−1/2 dt 1

=

∞ ν−1 x [x(t2 − 1) − 2(ν + 1/2)t]e−xt (t2 − 1)ν−1/2 dt

=

∞ ν−1 [xe−xt (t2 − 1)ν+1/2 − (ν + 1/2)(t2 − 1)ν−1/2 2te−xt ]dt x

1

1

∞ =

−xν−1 1

∞ d −xt 2

[e (t − 1)ν+1/2 ]dt = −xν−1 e−xt (t2 − 1)ν+1/2 = 0, dt 1

puisque la partie intégrée s’annule pour x = 1 et x = ∞. Ainsi P étant solution de (11.35), elle est nécessairement de la forme P = AIν (x) + BKν (x).

11 − Fonctions de Bessel et applications

312

Montrons que A = 0. En considérant la série (11.38) qui montre que Iν (x) est une série de puissances de x avec des coefficients positifs, nous savons que Iν (x) → ∞ lorsque x → ∞. D’autre part P (x) est une fonction positive qui tend vers 0 lorsque x → ∞ ; en effet : (t2 − 1)ν−1/2 < ext/2 si x → ∞ et ∞ P (x) < x

ν

e−xt/2 dt = 2xν−1 e−x/2 → 0.

1

Ainsi P (x) ne peut contenir un multiple de Iν (x) et l’on a : P (x) = BKν (x) = B

π I−ν (x) − Iν (x) . 2 sin νπ

(11.48)

Le terme de plus bas degré dans Kν (x) est d’après (11.38) et (11.41) 1 x −ν π , 2 sin νπ (−ν)! 2 donc, en utilisant la formule des compléments : ν!(−ν)! =

πν , sin νπ

(11.49)

on voit que si x → 0, Kν (x) → 2ν−1

(ν − 1)! . xν

(11.50)

Directement, à partir de sa définition, étudions le comportement de P (x) lorsque x → 0. A cet effet effectuons le changement de variable t = 1 + u/x. On a : ∞ P (x) = x

ν−1

e−x−u

0 −x

e = xν

∞ e 0

−u



u2 2u + 2 x x

ν−1/2 du

 ν−1/2 2x u2ν−1 du. 1+ u

$−ν−1/2 2x ∼ 1+ = 1, donc u

# Si x → 0, e

−x

∼ = 1 et

1 P (x) → ν x

∞ 0

e−u u2ν−1 du =

(2ν − 1)! . xν

La comparaison avec (11.48) et (11.50) montre que B =

(2ν − 1)! . 2ν−1 (ν − 1)!

11.8 − Comportement des fonctions de Bessel dans les cas limite

313

Or, d’après l’équation (4.21),

et on a encore

√ 22ν−1 (ν − 1)!(ν − 1/2)! = π(2ν − 1)!, 1 B = √ 2ν (ν − 1/2)! . π

Finalement Kν (x) = P (x)/B soit : √ x ν ∞ π e−xt (t2 − 1)ν−1/2 dt. Kν (x) = (ν − 1/2)! 2

(11.51)

1

11.8. Comportement des fonctions de Bessel dans les cas limite 11.8.1. Faibles valeurs de l’argument Lorsque x est petit, nous avons vu que 1 x ν Jν (x) ∼ = ν! 2 (cf. équation (11.13)). Si ν est différent d’un nombre entier, d’après la définition (11.16) de Yν (x), en prenant le terme de plus bas degré en x, on voit que Yν (x) ∼ =−

1 x −ν 1 , sin νπ (−ν)! 2

soit d’après (11.49) : 1 Yν (x) ∼ = − (ν − 1)! π

 ν 2 . x

(11.52)

Si ν est un entier ν = n, on peut montrer à partir de (11.12), (11.15) et (11.17) que : 1 Yn (x) ∼ = − (n − 1)! π 2 Y0 (x) ∼ = ln x π

 n 2 x

(n = 0) (11.53) (n = 0).

L’équation (11.50) nous donne le comportement de Kν (x) lorsque x est petit.

11 − Fonctions de Bessel et applications

314

11.8.2. Comportement asymptotique des fonctions de Bessel Il est important pour de nombreuses applications, notamment dans les problèmes de diffusion d’une particule par un centre de forces, de connaître le comportement des fonctions de Bessel pour des grandes valeurs de l’argument x. Nous allons d’abord établir le résultat pour la fonction Kν (x), puis nous déduirons le comportement des autres fonctions. Partons donc de l’expression intégrale de Kν (x) donnée par (11.51). Effectuons un changement de variable t = 1 + u/x. On a : Kν (x)

=

 2 ν−1/2 √ x ν ∞ u π 2u e−(x+u) + du (ν − 1/2)! 2 x2 x

=

 ν−1/2 ∞  ν−1/2 √ x ν 2 π 1 u2 −x e e−u u + du (ν − 1/2)! 2 x x 2x

0

 = # Si x est grand,

0

−x

e π 2x (ν − 1/2)!

∞ 0

u ν−1/2 ν−1/2 e−u 1 + u du. 2x

$ν−1/2 u ∼ 1+ = 1 et 2x Kν (x) ∼ =



π −x 1 e 2x (ν − 1/2)!

soit Kν (x) ∼ =



∞

e−u uν−1/2 du,

0

π −x e . 2x

Nous savons d’après (11.43) que Hν(1) (ix) =

  iπ(ν + 1) 2 exp − Kν (x) ; π 2

en remplaçant x par −ix, on a : Hν(1) (x)

  iπ(ν + 1) 2 = exp − Kν (−ix). π 2 (1)

Donc le comportement asymptotique de Hν (x) est donné par :   iπ(ν + 1) iπ ix 2 (1) ∼ e , Hν (x) = exp − π 2 2x

(11.54)

11.9 − Les fonctions de Bessel sphériques soit

 Hν(1) (x)

∼ =

(2)

315

2 i[x−(ν+1/2)π/2] e . πx

(11.55)

(1)∗

Puisque d’après (11.34), Hν (x) = Hν (x) pour x réel, on a pour x grand :  2 −i[x−(ν+1/2)π/2] (2) ∼ e Hν (x) = , (11.56) πx (1)

(1)

et comme l’on a Jν (x) = Ré Hν (x) et Yν (x) = Im Hν (x) respectivement, on en déduit les comportements asymptotiques suivants :  2 ∼ cos [x − (ν + 1/2)π/2] (11.57) Jν (x) = πx  2 Yν (x) ∼ sin [x − (ν + 1/2)π/2] . (11.58) = πx Enfin d’après (11.37) : Iν (x)

 2 −ν cos [ix − (ν + 1/2)π/2] = i−ν Jν (ix) ∼ i = πix / 1 . (−i)ν+1/2 e−x + iν+1/2 ex , = i−ν−1/2 √ 2πx

soit en ne conservant que le terme dominant lorsque x est grand : 1 ex . Iν (x) ∼ = √ 2πx

(11.59)

11.9. Les fonctions de Bessel sphériques Lorsque l’on a affaire à des fonctions de Bessel d’indice demi-entier, il est commode d’introduire les fonctions de Bessel sphériques définies par :  π jl (x) = Jl+1/2 (x) (l entier) (11.60) 2x  π yl (x) = (x) (l entier) (11.61) Y 2x l+1/2 Ces fonctions interviennent dans des systèmes de symétrie sphérique comme nous le verrons dans le paragraphe suivant. Il est clair d’après (11.16), (11.29) et (11.30) que : j0 (x) =

sin x ; x

y0 (x) = −

cos x . x

11 − Fonctions de Bessel et applications

316 On introduit de même (1)

hl (x) = jl (x) + iyl (x) (11.62)

(2)

hl (x) = jl (x) − iyl (x), (1)

h0 (x) = −i

d’où :

eix ; x

(2)

h0 (x) = i

e−ix . x

Pour x petit on a : jl (x) ∼ =



x l+1/2 1 π , 2x (l + 1/2)! 2

soit jl (x) ∼ =

2l l! xl xl = (2l + 1)! (2l + 1)!!

(11.63)

où (2l + 1)!! = (2l + 1)(2l − 1)...5.3.1 ; par analogie, d’après (11.52), yl (x) ∼ =−



π (l − 1/2)! 2x π

 l+1/2 2 , x

soit 1 (2l − 1)! 1 (2l − 1)!! yl (x) ∼ =− . = − l−1 l+1 2 (l − 1)! x xl+1

(11.64)

Pour x grand, il est clair d’après les définitions et les résultats (11.55) à (11.58) que : 1 jl (x) ∼ = sin(x − lπ/2) x 1 yl (x) ∼ cos(x − lπ/2) − = x i (1) hl (x) ∼ = − ei(x−lπ/2) x i −i(x−lπ/2) (2) ∼ hl (x) = e . x

(11.65)

Nous représenterons sur les figures 11.5 et 11.6 les fonctions jl (x) et yl (x) pour l = 0, 1, 2, et sur la figure 11.7 quelques fonctions Jν (x) pour −3/4 ≤ ν ≤ 5/2. Une expression simple et importante de jl (x) qui est l’objet de l’exercice 11.12 est :  jl (x) = (−1) x

l l

1 d x dx

l 

sin x x

 .

(11.66)

11.9 − Les fonctions de Bessel sphériques

317

jn (x) 1, 0 0, 8

j0 (x)

0, 6 j1 (x) 0, 4

j2 (x)

0, 2 6 0

10

4

2

12

14

8

x

−0, 2

Figure 11.5 – jl (x), l = 0, 1, 2.

y0 (x)

yn (x) 0, 3

y1 (x)

0, 2

y2 (x)

0, 1 0

8 2

4

6

12 10

−0, 1 −0, 2

Figure 11.6 – yl (x), l = 0, 1, 2.

x

11 − Fonctions de Bessel et applications

318 Jν (x) 2

1, 5

1

0, 5

0

J5/2

3 1

J3/2 4

6

2

5

J−1/4 −0, 5

J3/4

7

8

x

J1/4

J−3/4

Figure 11.7 – Allure des fonctions Jν (x).

11.10. Applications des fonctions de Bessel 11.10.1. Résolution de l’équation ΔΨ + k2 Ψ = 0 dans le plan Cherchons une solution Ψ(x, y) de l’équation ΔΨ + k 2 Ψ = 0

(11.67)

qui soit uniforme, continue et indéfiniment dérivable par rapport à x et y à l’intérieur d’une couronne de rayons a et b (a < b). Dans (11.67) k est une constante réelle. Si l’on choisit les coordonnées polaires r, ϕ de tout point du plan comme variables, la solution Ψ(r, ϕ) est une fonction périodique de ϕ, de période 2π lorsque r est fixe, qui est développable en série de Fourier : Ψ(r, ϕ) =

+∞

n=−∞

cn (r)einϕ .

(11.68)

11.10 − Applications des fonctions de Bessel

319

En remplaçant dans (11.67) le Laplacien par son expression en coordonnées polaires, et Ψ(r, ϕ) par son développement (11.68), on a :

soit :

 +∞ 

1 ∂ ∂ 1 ∂2 2 r + 2 + k cn (r)einϕ = 0, 2 r ∂r ∂r r ∂ϕ n=−∞     +∞

1 d d n2 r cn (r) + k 2 − 2 cn (r) = 0. einϕ r dr dr r n=−∞

Le premier membre de cette équation étant nul quel que soit ϕ, le crochet doit être nul pour tout n si a < r < b. Le coefficient cn (r) obéit donc à l’équation différentielle :   d2 cn 1 dcn n2 2 + k + − cn = 0 dr2 r dr r2 qui est du type (11.4a). Donc cn (r) = Zn (kr) et la solution générale de (11.67) est : Ψ(r, ϕ) =

+∞

[An Jn (kr) + Bn Yn (kr)] einϕ .

(11.69)

n=−∞

Si a est nul et si Ψ est finie à l’origine, on a Bn = 0 car Yn (kr) diverge lorsque r → 0 d’après (11.53). On peut également résoudre l’équation (11.67), avec les mêmes conditions, par la méthode de séparation des variables. On cherche une solution de la forme du produit Ψ(r, ϕ) = R(r)Φ(ϕ), d’où :   1 d dR 1 r Φ + 2 RΦ + k 2 RΦ = 0. r dr dr r En multipliant par r2 /(RΦ), on obtient : r d dR Φ r + k 2 r2 = − . R dr dr Φ Une fonction purement radiale étant égale à une fonction de ϕ purement angulaire, cela implique que ces deux fonctions sont égales à une constante λ2 . On a donc Φ + λ2 Φ = 0 d’où Φ(ϕ) = e±iλϕ et la périodicité de ϕ entraîne que λ = n entier. La fonction R(r) obéit alors à l’équation :   n2 1 d d 2 r R + k − 2 R = 0, r dr dr r   d2 R 1 dR n2 2 k + soit : + − R = 0, dr2 r dr r2 c’est-à-dire à la même équation que cn (r). Donc Zn (kr)einϕ est solution de (11.67). Vu que toute combinaison linéaire de ces solutions est encore solution de l’équation (11.67) qui est linéaire et homogène, on retrouve la solution générale (11.69).

11 − Fonctions de Bessel et applications

320

11.10.2. Résolution de l’équation ΔΨ + k2 Ψ = 0 dans l’espace On cherche à résoudre l’équation (11.67) avec une solution Ψ continue, uniforme à l’intérieur d’une couronne sphérique de rayons a, b (a < b). On se place en coordonnées sphériques et la solution Ψ(r, θ, ϕ) obéit à l’équation : 1 1 ∂ 2 ∂ r Ψ + 2 ΛΨ + k 2 Ψ = 0 r2 ∂r ∂r r

(11.70)

où Λ est la partie angulaire du Laplacien Λ=

1 ∂ ∂ 1 ∂2 sin θ + . sin θ ∂θ ∂θ sin2 θ ∂ϕ2

On cherche une solution du type Ψ(r, θ, ϕ) = R(r)F (θ, ϕ) et l’on a après multiplication de (11.70) par r2 /(RF ) : ΛF 1 d 2 d r R + k 2 r2 = − = C. R dr dr F La dernière égalité n’admet de solutions uniformes sur la sphère que si C = l(l + 1) avec l entier ≥ 0 (equation (10.44)). On sait alors que pour une valeur de l donnée, les 2l + 1 solutions linéairement indépendantes de l’équation ΛF + l(l + 1)F = 0 sont les harmoniques sphériques Ylm (θ, ϕ). On a d’autre part : l(l + 1) 1 d 2 dR r + k2 R = R, r2 dr dr r2 soit en posant x = kr,   l(l + 1) 2 dR d2 R + 1 − + R = 0. dx2 x dx x2 Cette équation s’identifie à (11.2a) avec α = −1/2, β = K = 1, ν 2 = (l + 1/2)2 ; donc, d’après (11.2b), R = x−1/2 Zl+1/2 (x) = (kr)−1/2 Zl+1/2 (kr). Finalement la solution cherchée s’écrit : Ψ(r, θ, ϕ) = (kr)−1/2

l ∞



[Alm Jl+1/2 (kr) + Blm Yl+1/2 (kr)]Ylm (θ, ϕ). (11.71)

l=0 m=−l

Là encore si a → 0 et si Ψ(0) est finie, Blm = 0. En résumé les solutions de l’équation (11.67) dans le plan font intervenir les fonctions de Bessel d’indice entier alors que dans l’espace elles font appel aux fonctions de Bessel d’indice demi-entier.

11.10 − Applications des fonctions de Bessel

321

11.10.3. Ondes stationnaires dans le plan Soit une fonction d’un point du plan et du temps s(r, ϕ, t) qui obéit à l’équation de propagation d’un phénomène ondulatoire non dispersif : Δs −

1 ∂2s =0 c2 ∂t2

(11.72)

où c est la vitesse de propagation. On appelle onde stationnaire une solution de (11.72) de la forme s(r, ϕ, t) = Ψ(r, ϕ)f (t). En remplaçant dans (11.72) on obtient aisément :

On a donc :

1 1 d2 f ΔΨ = 2 = −k 2 . Ψ c f dt2 d2 f + ω2f = 0 dt2

avec ω = ck. On a donc des solutions de type Ψ(r, ϕ)e±iωt où Ψ(r, ϕ) obéit à (11.67). La solution réelle la plus générale est donc Ψ(r, ϕ) cos(ωt + Cte). Il faut maintenent faire intervenir les conditions aux limites du fait que le phénomène ondulatoire est confiné dans un domaine D limité du plan. En leur absence, le phénomène se propagerait à l’infini et donnerait lieu à des ondes progressives et non plus stationnaires. Les conditions aux limites les plus fréquentes sont : – Condition (A) : Ψ = 0 en tout point de la frontière du domaine D, c’est-à-dire sur une courbe C.  = 0, n étant – Condition (B) : En chaque point de la courbe frontière C, on a n · ∇Ψ la normale à C en ce point. La forme du domaine D entraîne le choix du système de coordonnées. Pour un domaine rectangulaire on prend les axes cartésiens Ox, Oy parallèles aux côtés du rectangle de longeur a, b. On résoud (11.67) par la méthode de séparation des variables (cf. § 7.3.3). On a des solutions du type Ψ(x, y) = X(x)Y (y) avec Y  X  + = −k 2 X Y d’où X(x) = cos kx x ou sin kx x et Y (y) = cos ky y ou sin ky y avec k 2 = kx2 + ky2 . Avec la condition (A), en choisissant l’origine sur l’un des sommets du rectangle, X(x) = sin(πn1 x/a), Y (y) = sin (πn2 y/b) où n1 et n2 sont des entiers positifs. Les pulsations propres des ondes stationnaires sont discrètes et données par :  n1 2 n2 2 + . (11.73) ω = ck = πc a b Si le domaine D est un cercle de rayon b, centré à l’origine, l’emploi des coordonnées polaires s’impose. Si Ψ reste finie dans D, la solution de (11.67) est donnée par (11.69)

11 − Fonctions de Bessel et applications

322

avec Bn = 0. Avec la condition (A) nous devons avoir quel que soit ϕ : +∞

Am Jm (kb)eimϕ = 0.

m=−∞

Donc Am Jm (kb) = 0 pour tout m entier. Il n’existe pas deux fonctions de Bessel d’indices entiers différents ayant le même zéro non nul. Si kb est égal au q-ième zéro non nul de Jn (ρ), soit ζn,q , An et A−n peuvent être quelconques, mais Am = 0 pour m = n. La solution Ψ peut alors s’écrire : Ψ(r, ϕ) = CteJn (kr) cos n(ϕ − ϕ0n ) ;

(11.74)

elle dépend linéairement de deux paramètres sauf dans le cas où n = 0, où elle est unique à un coefficient multiplicatif près. Les modes n = 0 sont simples et les modes n > 0 sont doublement dégénérés. Les valeurs permises pour k et ω sont discrètes et dépendent de deux indices entiers : kb = ζn,q ;

ω = c ζn,q /b.

(11.75)

Cette analyse correspond physiquement au cas de la membrane élastique circulaire. Le mode fondamental, c’est-à-dire l’onde stationnaire de plus basse pulsation propre, s’obtient en prenant le premier zéro de J0 (x) : n = 0, q = 1 soit ζ0,1 = 2, 40 (cf. figure 11.1). Avec la condition (B) le raisonnement est très voisin. Une solution Ψ, telle que   ∂Ψ = 0, ∂r r=b s’écrit sous la forme (11.74) où k obéit à la condition Jn (kb) = 0. On désignera par  le q-ième zéro non nul de Jn (ρ) = 0 ; on a alors : ζn,q  ; kb = ζn,q

 ω = c ζn,q /b.

(11.76)

 Le mode fondamental correspond à n = 1, q = 1 soit ζ11 = 1, 85 (cf. figure 11.1).

11.10.4. Ondes stationnaires en symétrie sphérique Ce problème est très voisin du précédent. Le phénoméne ondulatoire est ici confiné dans une cavité sphérique de rayon a. On cherche des solutions de l’équation (11.72) de la forme s(r, θ, ϕ, t) = Ψ(r, θ, ϕ)eiωt avec ω = ck. Cela ne restreint pas la généralité du problème car la solution générale s’obtient en superposant toutes les ondes stationnaires possibles. Nous avons vu que Ψ se met sous la forme (11.71). La fonction Ψ étant régulière à l’intérieur de la sphère, les fonctions Yl+1/2 (kr) sont exclues, donc Blm = 0 et Ψ = (kr)−1/2

l ∞

l=0 m=−l

Alm Jl+1/2 (kr)Ylm (θ, ϕ).

(11.77)

11.11 − Exercices

323

– Avec la condition aux limites (A), Ψ(r = a) = 0 et Ψ se réduit à : Ψ = (kr)−1/2 Jl+1/2 (kr)

l

Alm Ylm (θ, ϕ)

(11.78)

m=−l

avec Jl+1/2 (ka) = 0. Chaque mode est 2l + 1 fois dégénéré pour l = 0, alors que pour l = 0 on a un mode simple. Si ζl+1/2,n désigne le n-ième zéro de Jl+1/2 (x), on a : ka = ζl+1/2,n ;

ω = c ζl+1/2,n /a.

(11.79)

Le mode fondamental correspond à l = 0, et d’après (11.29) ζ1/2,1 = π, d’où on obtient ωfond = cπ/a (mode simple). – Avec la condition aux limites (B), 

∂Ψ ∂r

 = 0. r=a

 Si ζl+1/2,n désigne le n-ième extrêmum de ρ−1/2 Jl+1/2 (ρ) c’est-à-dire de jl (ρ), on a :  ; ka = ζl+1/2,n

 ω = c ζl+1/2,n /a.

(11.80)

 = 2, 08 (cf. figure 11.5) Le mode fondamental correspond à l = 1, n = 1, soit ζ3/2,1 et ωfond = 2, 08c/a (mode triple).

11.11. Exercices Exercice 11.1. Démontrer que l’expression (11.2b) est solution de l’équation (11.2a). Exercice 11.2. 1. Calculer à partir de l’équation de Bessel la transformée de Laplace de J0 (x). 2. Démontrer que x I=

J0 (t)J0 (x − t)dt = sin x. 0

Exercice 11.3. Montrer que la fonction génératrice des fonctions de Bessel d’indice entier Jn (x) s’écrit :   +∞

1 1 tn Jn (x). G(t) = exp x t − = 2 t n=−∞ 

11 − Fonctions de Bessel et applications

324 Exercice 11.4.

1. A partir des résultats de l’exercice précédent, et en posant t = eiϕ , donner le développement en série de Fourier complexe de la fonction eix sin ϕ . 2. En déduire que pour n entier, 1 Jn (x) = π

π cos (nϕ − x sin ϕ) dϕ. 0

Exercice 11.5. Montrer que x J0 (t) cos(x − t)dt = xJ0 (x). 0

Exercice 11.6. Calculer

∞ Jn (x)dx 0

avec n entier ≥ 0. (On calculera cette intégrale pour n = 0, puis n = 1 et on généralisera au cas n entier ≥ 0). Exercice 11.7. Calculer ∞ 0

Jν+1 (x) dx xν

pour ν > −1/2. Exercice 11.8. Calculer les intégrales ∞ I=

∞ J0 (x) cos(kx) dx ;

0

J=

J0 (x) sin(kx) dx 0

(On utilisera le résultat de l’exercice 11.2). Exercice 11.9. – Calculer à partir du développement en série de Jν (x) la transformée de Laplace √ de xν/2 Jν (2 x).  – Trouver la transformée de Fourier de J0 (2 |x|).

11.11 − Exercices

325

Exercice 11.10. Soit Wν (x) = Jν (x)Yν (x) − Jν (x)Yν (x). Déterminer l’équation différentielle à laquelle satisfait Wν (x). En déduire que Wν (x) = 2/(πx). Exercice 11.11. Etablir les relations de récurrence des fonctions de Bessel sphériques jl (x) et yl (x) analogues aux relations (11.20) à (11.26). Exercice 11.12. Montrer que  jl (x) = (−1) x

l l

1 d x dx

l 

sin x x

 ,

en utilisant une des relations de l’exercice 11.11. Exercice 11.13. Calculer ∞ 0

Jn (x) dx x

( n entier > 0)

(On utilisera le résultat de l’exercice 11.6). Exercice 11.14. Développement d’une onde plane en ondes sphériques. Soit un onde plane eikz = eikr cos θ se propageant selon l’axe Oz. Développer cette onde en série des polynômes de Legendre Pl (cos θ) et montrer que les coefficients cl de cette série s’expriment à l’aide des fonctions de Bessel sphériques jl (kr). Exercice 11.15. Soit une membrane circulaire de centre O, de rayon R dont le bord est fixe. On étudie les mouvements de la membrane qui sont de révolution autour de l’axe Oz perpendiculaire au plan de la membrane. Le déplacement d’un point à la distance r de O, z(r, t) satisfait à l’équation ∂ 2z T = Δz, ∂t2 ρ où ρ est la masse spécifique de la membrane et T sa tension. 1. Chercher les solutions stationnaires du type Z(r) cos(ωt − ϕ) et déterminer l’équation différentielle satisfaite par Z(r). 2. Effectuer un changement de variable afin de ramener l’équation précédente à une équation de Bessel. 3. Déterminer les solutions qui tiennent compte des conditions aux limites. En déduire les pulsations de résonance ou pulsations propres. Donner le mode fondamental.

11 − Fonctions de Bessel et applications

326 Exercice 11.16.

1. Donner les solutions stationnaires s(r, ϕ, z, t) de l’équation de propagation Δs −

1 ∂2s =0 c2 ∂t2

en coordonnées cylindriques. 2. On se place dans le cas où ces ondes sont confinées dans une cavité cylindrique de rayon R et d’axe Oz, le cylindre étant limité par des faces planes en z = 0 et z = a. Donner les expressions des ondes stationnaires et les pulsations propres en supposant que s s’annule sur les parois de la cavité. Donner le mode fondamental. Exercice 11.17. On cherche à déterminer les niveaux d’énergie E d’une particule de masse m enfermée dans une sphère de rayon a. L’énergie potentielle est donc :  0 pour 0 ≤ r ≤ a V (r) = ∞ pour r > a. On doit résoudre l’équation de Schrödinger ΔΨ + k 2 Ψ = 0 avec k 2 =

2mE . 2

1. Donner la solution générale Ψ restant finie à l’intérieur de la sphère. 2. La surface de la sphère étant infranchissable, on sait que Ψ doit s’annuler sur la sphère ; en déduire les valeurs de k permises. 3. Donner en unités de 2 /(2ma2 ) les valeurs des 3 plus bas niveaux d’énergie s correspondant à l = 0 et les deux plus bas niveaux p correspondant à l = 1.

Chapitre 12 Les relations de Kramers–Kronig

Dans ce chapitre nous rappelerons la notion de valeur principale d’une intégrale puis nous établirons les relations générales de Kramers–Kronig qui jouent un rôle important en physique et seront illustrées par l’étude des systèmes à réponse linéaire et l’exemple des susceptibilités.

12.1. Valeur principale d’une intégrale Nous avons déjà introduit cette notion dans le chapitre sur les fonctions analytiques x (cf. § 3.11). Plus généralement on rencontre souvent des intégrales définies x12 f (x) dx  x2 g(x) qui divergent, comme par exemple l’intégrale x1 x−a dx avec x1 < a < x2 et g(a) = 0,  +∞ ou encore −∞ sin x dx. Il peut cependant être utile d’étudier les limites suivantes : ⎛ a−ε ⎞  x2 R lim ⎝ f (x)dx + f (x)dx⎠ f (x)dx. ou lim ε→0+

x1

R→+∞ −R

a+ε

Lorsque cette limite existe, on convient de la nommer valeur principale au sens de Cauchy, ou plus simplement partie principale (P.P.) de l’intégrale. Nous avons déjà vu (équation (3.34)) que +∞ 

P.P. −∞

eix dx = iπ, x

(12.1)

d’où l’on déduit aisément que pour α réel, +∞ 

P.P. −∞

eiαx dx = iπ signe(α). x

(12.2)

12 − Les relations de Kramers–Kronig

328

En égalant les parties imaginaires des deux membres de (12.2), on obtient : +∞ 

P.P. −∞

sin αx dx = π signe(α) ; x

le symbole P.P. n’étant plus nécessaire car sin(αx)/x est finie à l’origine.

12.2. Valeur principale d’une fonction et fonction de Dirac Soit f (x) une fonction dérivable, sauf en des points isolés ne comprenant pas l’origine, et qui tend vers 0 quand x → ±∞. Evaluons +∞ 

I = lim+ ε→0

−∞

f (x) dx. x + iε

Il existe un segment [−a, a] sur lequel f (x) est partout dérivable ; on peut écrire ⎛ −a ⎞  a ∞ f (x) I = lim+ ⎝ dx + + ⎠ x + iε ε→0 −∞ −a a ⎡ ⎛ −a ∞ ⎞ ⎡ ⎤ ⎤   a f (x) f (x) et lim I = lim ⎣ lim+ ⎝ + ⎠ dx⎦ + lim ⎣ lim+ dx⎦ . a→0 a→0 ε→0 a→0 ε→0 x + iε x + iε −∞

−a

a

Notons que la limite de I est indépendante de la manière dont ε et a tendent vers zéro ; cette manière étant choisie, elle doit être la même pour les deux termes du second membre. On a ⎤ ⎛ −a ∞ ⎞ ⎡ +∞   a  f (x) f (x) f (x) ⎝ ⎠ ⎣ ⎦ lim I = lim dx + lim lim+ dx = P.P. dx + J. + a→0 a→0 a→0 ε→0 x x + iε x −∞

−a

a

−∞

Nous commettons une erreur infiniment petite en remplaçant f (x) par f (0) dans J, donc : ⎞ ⎛ a 1 a + iε J = lim f (0) ⎝ lim+ dx⎠ = lim f (0) lim+ ln . a→0 a→0 x + iε −a + iε ε→0 ε→0 −a

a 1 et J = −iπf (0). Notons que limε→0+ −a x+iε dx peut se calculer par la méthode des résidus (cf. exercice 12.2). Finalement on obtient +∞ 

lim

ε→0+

−∞

f (x) dx = P.P. x + iε

+∞ 

−∞

f (x) dx − iπf (0). x

(12.3)

12.3 − Les relations de Kramers–Kronig

329

Si l’on introduit la notion de partie principale de la fonction 1/x qui s’identifie à cette dernière sauf dans l’intervalle [−a, a] avec a → 0, l’équation (12.3) conduit à : 1 1 = P.P. − iπδ(x). x + iε x

(12.4)

On a de même pour une fonction f (x) définie pour x = x0 , f (z) étant holomorphe au voisinage de x0 : +∞ 

lim+

ε→0

−∞

f (x) dx = P.P. x − x0 ± iε

+∞ 

−∞

f (x) dx ∓ iπf (x0 ) x − x0

(12.5)

d’où : 1 1 = P.P. ∓ iπδ(x − x0 ). x − x0 ± iε x − x0

(12.6)

12.3. Les relations de Kramers–Kronig Nous allons chercher la transformation de Fourier F (k) d’une fonction f (x) nulle pour x < 0. Désignons par fˆ(x) la fonction égale à f (x) si x > 0 et à f ∗ (−x) si x < 0. La transformée de Fourier Fˆ (k) de fˆ(x) est réelle ; en effet : ∞ 0 √ −ikx ˆ 2π F (k) = f (x)e dx + f ∗ (−x)e−ikx dx, −∞

0

où la première intégrale est égale à x = −x ∞

√ 2πF (k), alors que la seconde s’écrit en posant



f ∗ (x )eikx dx =



2πF ∗ (k);

0

il en résulte que

Fˆ (k) = F (k) + F ∗ (k).

(12.7)

Décomposons F (k) en parties réelle et imaginaire : F (k) = F1 (k) − iF2 (k); d’après (12.7),

Fˆ (k) = 2F1 (k).

(12.8)

On constate ainsi que lorsque la partie réelle de F (k) est connue, on connaît Fˆ (k) ; fˆ(x) et f (x) s’en déduisent et la partie imaginaire F2 (k) de F (k) peut être déterminée. Ainsi F2 (k) doit s’exprimer linéairement en fonction de F1 (k). L’usage d’une fonction

12 − Les relations de Kramers–Kronig

330

f¯(x) égale à f (x) si x > 0 et à −f ∗ (−x) si x < 0 permet de montrer, d’une manière analogue, que F¯ (k) = F (k) − F ∗ (k) = −2iF2 (k), et donc que F1 (k) s’exprime linéairement en fonction de F2 (k). Etablissons la correspondance entre F1 (k) et F2 (k). Nous avons :  √ 2πF (k) = lim f (x)e−(ik+ε)x dx ∞

(ε > 0) ;

ε→0

0

1 f (x) = √ 2π

or

+∞   F (k  )eik x dk  ; −∞

+∞  ∞    2πF (k) = lim F (k )dk e−[i(k−k )+ε]x dx

donc

ε→0 −∞

+∞ 

= lim

ε→0 −∞

0

F (k  ) dk  = lim i ε→0 i(k − k  ) + ε

+∞ 

−∞

F (k + u) du u + iε



avec u = k − k. D’après (12.3), nous pouvons écrire : 2πF (k) = iP.P.

+∞ +∞   F (k  )  du + πF (k) = iP.P. dk + πF (k) F (k + u) u k − k

−∞

−∞

+∞ 

et

πF (k) = iP.P. −∞

F (k  )  dk . k − k

En égalant les parties réelles et imaginaires des deux membres de cette équation, et en supposant que F (k) tend vers 0 lorsque k → ∞, nous obtenons les relations de H. Kramers et R. Kronig établies en 1927 : +∞  1 F2 (k  )  F1 (k) = − P.P. dk , π k − k −∞

F2 (k) =

1 P.P. π

+∞ 

−∞

(12.9) 

F1 (k ) dk  . k − k

Cas d’une fonction réelle Si f (x) est réelle, Fˆ (k) qui est donnée par :  ∞ 2 ˆ F (k) = f (x) cos kx dx π 0

12.3 − Les relations de Kramers–Kronig

331

est une fonction réelle et paire. Il en résulte que F1 (k) est paire. On établit de même que F¯ (k) est imaginaire et impaire et donc que F2 (k) est impaire. Ainsi d’après (12.9) : ⎞ ⎛ +∞ +∞ +∞      1 1 F1 (k  ) + F1 (−k  )  F (k ) F (k ) 1 1 dk = dk  + dk  ⎠ , F2 (k) = P.P. P.P. ⎝ 2π k − k 2π k − k k + k −∞

−∞

−∞

et 2k F2 (k) = P.P. π

∞ 0

F1 (k  ) dk  . k 2 − k 2

(12.10)

D’une manière analogue on obtient : F1 (k)

1 − P.P. 2π

=

+∞ 

−∞

F1 (k)

2 − P.P. π

=

∞ 0

1 1 −  k−k k + k



F2 (k  )dk  ,

k F2 (k  )dk  . k 2 − k 2

(12.11)

Si g(x) est une fonction réelle présentant un pic de Dirac à l’origine, on peut écrire : g(x)

=

G(k)

=

G1 (k) = G2 (k) =

f (x) + Aδ(x) où A est réel ; A F (k) + √ , 2π A = F1 (k) + G1 (∞) ; F1 (k) + √ 2π F2 (k).

Les relations (12.11) et (12.10) deviennent :

G2 (k) =

2k P.P. π

∞ 0

∞

k  G2 (k  )  dk , k 2 − k 2

(12.12)

G1 (k  ) − G1 (∞)  dk . k 2 − k 2

(12.13)

2 G1 (k) − G1 (∞) = − P.P. π

0

Ces relations permettent de traiter le cas où G(k) = 0 lorsque k → ∞. Si l’on remarque que ∞ P.P. 0

dk  = P.P. k 2 − k 2

∞ 0

1 2k



1 1 +  k−k k + k



1 dk = P.P. 2k 

+∞ 

−∞

dk  = 0, k − k

l’expression (12.13) se simplifie : 2k P.P. G2 (k) = π

∞ 0

G1 (k  )  dk . k 2 − k 2

(12.14)

12 − Les relations de Kramers–Kronig

332

12.4. Etude des systèmes à réponse linéaire 12.4.1. Définition On rencontre en physique un grand nombre de systèmes qui, excités par une grandeur x(t) d’entrée dépendant du temps t, donnent lieu à une grandeur de sortie y(t) ayant les propriétés suivantes : – y(t) est entièrement déterminée lorsque x(t) l’est et la correspondance entre les deux grandeurs est linéaire : y(t) = αx(t) ; – La correspondance entre x(t) et y(t) est stationnaire dans le temps : si y(t) est la réponse à x(t), la réponse à x(t + Δt) est y(t + Δt) ; Il y a une réponse de cause à effet entre l’excitation et la réponse : si x(t) = 0 pour t < t0 , y(t) = 0 pour t < t0 .

12.4.2. Exemples – Une substance magnétique isotrope, non ferromagnétique, à laquelle on applique un  Cette substance acquiert une aimantation (moment faible champ magnétique H.  colinéaire à H.  L’excitation H  et la réponse magnétique par unité de volume) M  satisfont bien aux conditions énoncées dans le paragraphe 12.4.1. M – Un exemple analogue est celui d’un milieu polarisable où x(t) est un champ électrique et y(t) la polarisation électrique. – Un circuit électrique passif où l’excitation est la tension appliquée aux bornes et où la réponse est l’intensité I ou encore la charge Q d’un condensateur faisant partie du circuit.

12.4.3. Propriétés des systèmes linéaires Physiquement x(t) et y(t) sont réels, mais il est toujours loisible de les considérer comme complexes. Par ailleurs, la correspondance y = αx est complètement déterminée par la donnée de la réponse percussionnelle k(t), consécutive à l’excitation x(t) = δ(t). La fonction k(t) est réelle et nulle pour t < 0 d’après le § 12.4.1. Si x(t) = δ(t + Δt), y(t) = k(t + Δt) d’après le caractère stationnaire de la réponse. D’autre part : +∞  x(t )δ(t − t )dt , x(t) = −∞

et par suite de la linéarité, +∞  t    x(t )k(t − t )dt = x(t )k(t − t )dt , y(t) = −∞

−∞

12.4 − Etude des systèmes à réponse linéaire

333

soit : y(t) = x(t) ∗ k(t).

(12.15)

Cette équation montre bien que la réponse à l’instant t est indépendante de l’excitation aux instants ultérieurs à t et se trouve complétement déterminée par la donnée de k(t). Dans (12.15) on voit apparaître un produit de convolution, ce qui suggère de considérer l’image de Fourier de cette équation. Si l’on pose ∞ Z(ω) =

k(t)e−iωt dt =

√ 2πT.F.k(t),

0

on a :

1 k(t) = 2π

+∞  Z(ω)eiωt dω. −∞

Si X(ω) et Y (ω) désignent les transformées de Fourier de x(t) et y(t), Y (ω) = Z(ω)X(ω).

(12.16)

Cette relation est très générale : dans le cas d’un circuit électrique Z(ω) est l’impédance complexe (ou admittance complexe) ; si le système étudié comporte une substance soumise à un champ électrique (ou magnétique), Z(ω) est la susceptibilité électrique (ou magnétique) ; pour une molécule soumise à un champ électrique induisant un moment électrique, Z(ω) est la polarisabilité.

12.4.4. Excitation sinusoïdale Si le système physique est excité par une grandeur sinusoïdale x(t) = eiω0 t , on a : √ X(ω) = 2πδ(ω − ω0 ) √ √ et Y (ω) = 2πZ(ω)δ(ω − ω0 ) = 2πZ(ω0 )δ(ω − ω0 ), d’où y(t) = Z(ω0 )eiω0 t = Z(ω0 )x(t).

(12.17)

A une excitation monochromatique correspond une réponse monochromatique de même fréquence. En particulier si :   x(t) = cos ω0 t = Ré eiω0 t , y(t) = Ré Z(ω0 )eiω0 t = |Z(ω0 )| cos(ω0 t + ϕ), où ϕ = arg Z(ω0 ).

12 − Les relations de Kramers–Kronig

334

La fonction k(t) étant réelle et nulle pour t < 0, les conditions de validité des formules de Kramers-Kronig sont remplies. En posant Z(ω) = Z1 (ω) − iZ2 (ω), on a d’après (12.12) et (12.14) : Z1 (ω) =

Z2 (ω) =

2 Z1 (∞) − P.P. π 2ω P.P. π

∞ 0

∞ 0

ω  Z2 (ω  ) dω  , ω 2 − ω 2

Z1 (ω  ) dω  . ω 2 − ω 2

(12.18)

(12.19)

12.5. Application aux susceptibilités Considérons le cas des susceptibilités électriques en notant que les résultats seraient similaires pour les susceptibilités magnétiques. Une mole de matière, soumise au champ  acquiert un moment dipolaire induit P . La variation d’énergie dW du électrique E,  du champ électrique est : système consécutive à la variation dE  = −P dE, dW = −P · dE  sont colinéaires (dans un milieu homogène, isotrope). Si lorsque P et E E(t) = E0 cos ωt = Ré E0 eiωt ,

P (t) = Ré E0 χ(ω)eiωt ,

où nous avons introduit la susceptibilité molaire complexe χ(ω). Posons χ(ω) = χ (ω) − iχ (ω), alors : P (t) = E0 Ré (χ − iχ )(cos ωt + i sin ωt) = E0 (χ cos ωt + χ sin ωt). La puissance moyenne W absorbée par le système durant une période d’excitation [0, T ] est : W =

1 T

T dW = − 0

1 T

T P dE = 0

1 T

T

E0 (χ cos ωt + χ sin ωt)E0 ω sin ωt dt,

0

soit : W =

1 2  E ωχ (ω). 2 0

(12.20)

Cette dernière relation justifie le nom d’absorption donnée à χ . Très souvent χ n’est notable que dans certaines régions appelées bandes d’absorption. En dehors de ces régions, χ  χ et χ(ω) ∼ = χ (ω). On montre en optique que l’indice de réfraction √ n est lié à la constante diélectrique relative εr par la relation n = εr où εr = 1 + χ.

12.6 − Exercices

335

En dehors des bandes d’absorption n est réel ; la substance est transparente et l’indice de réfraction est fonction de χ (ω) seulement. Illustrons quantitativement ces résultats en supposant que l’absorption présente un seul pic idéalisé par une fonction de Dirac : χ (ω) = Aδ(ω − ω0 ),

avec ω > 0.

On peut montrer que χ (∞) = 0 et d’après (12.18), 2 χ (ω) = − P.P. π

∞ 0

2A ω0 ω  Aδ(ω  − ω0 )  dω = − . ω 2 − ω 2 π ω 2 − ω02

(12.21)

On note que pour ω < ω0 , n > 1 et que pour ω > ω0 , n < 1. Dans le cas d’un verre, les bandes d’absorption sont en général dans l’ultraviolet ; l’indice de réfraction est supérieur à 1 dans le visible car ω < ω0 . Dans ces conditions, on a d’après (12.21) :   ω2 2A ω4 2A 1 χ (ω) = 1 + + + . . . . = πω0 1 − (ω 2 /ω02 ) πω0 ω02 ω04 Cette relation est à l’origine de la loi de dispersion des verres. Comme ω = 2πc/λ, on a pour λ > λ0 n(λ) = a +

b c + 4 + ..., λ2 λ

alors que dans le domaine des rayons X où ω  ω0 , λ  λ0 , χ (ω) = −

2Aω0 πω 2

et

n(λ) = 1 − αλ2 .

12.6. Exercices Exercice 12.1. Evaluer la fonction +∞ 

J(λ) = −∞

1 − cos λx dx, x2

où λ est un paramètre réel, à partir de

∂J(λ) ∂λ .

Exercice 12.2. Calculer par la méthode des résidus l’intégrale : a I = lim

ε→0+

−a

dx . x + iε

Exercice 12.3. Montrer que I = lim+ ε→0

ε 1 = δ(x − x0 ). π (x − x0 )2 + ε2

12 − Les relations de Kramers–Kronig

336

Exercice 12.4. Montrer que si la fonction f (x) est continue et s’annule pour x = x0 , on a : δ[f (x)] =

δ(x − x0 ) . |f  (x0 )|

Exercice 12.5. Trouver par la méthode des résidus la partie principale de la transformée de Fourier de la fonction f (x) =

1 . x(1 + x2 )

Exercice 12.6. Montrer que la partie imaginaire de la susceptibilité complexe χ(ω) d’un système à réponse linéaire tend vers 0 lorsque ω tend vers l’infini. Exercice 12.7. Soit un oscillateur amorti de masse nulle excité par une force sinusoïdale f (t) = f eiωt ; l’équation du mouvement s’écrit sous la forme : ax + bx˙ = f (t). Trouver la réponse x(t) du système et donner les expressions des parties réelle et imaginaire de l’admittance complexe du système (dispersion et absorption). On posera Z(0) = 1/a et τ = b/a. Exercice 12.8. Trouver la charge Q(t) du condensateur C d’un circuit R, L, C en série excité par la tension V (t) = V eiωt . Donner les impédances d’absorption et de dispersion de ce système. On posera Z(0) = C, ω02 = 1/LC et Δω = R/2L.

Corrigés des exercices Exercices du chapitre 1 Exercice 1.1 1. ur = sin θ cos ϕ i + sin θ sin ϕ j + cos θ k uθ = cos θ cos ϕ i + cos θ sin ϕ j − sin θ k uϕ = − sin ϕ i + cos θ j. 2.

∂ur = cos θ cos ϕ i + cos θ sin ϕ j − sin θ k = uθ . ∂θ

Exercice 1.2

z

1. D’après la figure C.1, on a : uρ = cos ϕ i + sin ϕ j uϕ = − sin ϕ i + cos ϕ j uz = k. 2. Donc : −−→ dOM = dρ uρ + ρdϕ uϕ + dz uz  = uρ ∂ + uϕ 1 ∂ + uz ∂ . et : ∇ ∂ρ ρ ∂ϕ ∂z

ρ

uz

ϕ

uϕ  M

k O x

uρ 

j i

y

Exercice 1.3  = Aρ uρ + Aϕ uϕ + Az uz . A =∇  ·A = div A

Figure C.1 – Coordonnées cylindriques.

1 ∂(ρAρ ) 1 ∂Aϕ ∂Az 1 ∂Aϕ ∂Az ∂Aρ 1 + Aρ + + = + + . ∂ρ ρ ρ ∂ϕ ∂z ρ ∂ρ ρ ∂ϕ ∂z

Exercice 1.4

$ $ # $ # 1 ∂Az ∂Aϕ ∂Aρ ∂Az 1 ∂(ρAϕ ) ∂Aρ − + uϕ − + uz − . ρ ∂ϕ ∂z ∂z ∂ρ ρ ∂ρ ∂ϕ # $ ∂ 2 ω 1 ∂ω 1 ∂2ω ∂2ω ∂ω 1 ∂ω ∂ω • ω = div uρ + uϕ + uz , soit : ω = + + + . ∂ρ ρ ∂ϕ ∂z ∂ρ2 ρ ∂ρ ρ2 ∂ϕ2 ∂z 2

− →    • rot A = ∇ ∧ A = uρ

#

338

Corrigés des exercices

Exercice 1.5 On se place en coordonnées cartésiennes et on explicite les composantes. Exercice 1.6 −→ −→   dérive d’un potentiel scalaire : A  = −− rot A = 0, donc A grad ω ; ∂ω =x ∂x ∂ω =y − ∂y ∂ω − =z ∂z −

x2 + f (y, z) ; 2 x2 y 2 donc ω = − − + g(z) ; 2 2 x2 y 2 z 2 r2 donc ω = − − − + C = − + C. 2 2 2 2 donc ω = −

Exercice 1.7 −→  1. On doit avoir rot A = 0, soit ∂f ∂z = −y 2 et ∂f ∂y = 3x2 − 2yz, d’où on obtient 2 2 f = 3x y − y z + h(x). Avec la condition f (x, 0, 0) = 0, on a h = 0. Ainsi, f (x, y, z) = 3x2 y − y 2 z. −→  = −− 2. En écrivant A grad ω, on obtient, par un processus similaire à celui de l’exercice 1.6 : ω = −x3 y + xy 2 z − (1/3)yz 3 + C. Exercice 1.8 − →   eik·r = ik ∧ A.  rot A = ik ∧ A k

 = ik · A  eik·r = ik · A ; div A k Exercice 1.9

• dC = ydx − xdy car dz = 0. En passant en coordonnées polaires x = R cos ϕ, y = R sin ϕ, on a : 2π C = −R2 dϕ = −2πR2 . 0

∂Ay ∂Ax − = −2 et C = • Par la formule de Green, ∂x ∂y



−2dσ = −2πR2 .

Σ

Exercice 1.10  dérive d’un potentiel vecteur car div B  = ∂B/∂z = 0. D’après les Le champ B résultats des exercices 1.3 et 1.4, les conditions sont satisfaites si : ∂Az = 0, ∂ρ Donc :

Az = C1 ,

où C1 , C2 et C3 sont des constantes.

∂(ρAϕ ) ∂(ρAρ ) = ρB, = 0. ∂ρ ∂ρ C2 B C3 , Aρ = Aϕ = ρ + 2 ρ ρ

339

Exercices du chapitre 1 Exercice 1.11 

2π ydx − xdy = −ab (sin2 t + cos2 t)dt = −2πab. 0

Exercice 1.12 

ydx + xdy = x2 + y 2

2 1

2x dx = 2x2

2 1

dx = ln 2. x

Exercice 1.13 1. Si r est le rayon du cercle obtenu par intersection de la surface conique et d’un plan horizontal à la hauteur z, on a : S

a r = , z b

r b 2 donc z = b = x + y2. a a

z M

a

b

r

Pour un déplacement élémentaire sur la surface S, dz =

y bx by b x dx + dy , donc p = , q= . a r r ar ar

D’après l’équation (1.37),   S= 1 + b2 /a2 dxdy

x

S

où S  est la surface de la base du cône (cercle de rayon a). Donc :   S = πa2 1 + b2 /a2 = πa a2 + b2 . 2. I =

O

y

Figure C.2 – Représentation de la surface conique d’équation : 2 2 y z2 x + 2 − 2 = 0, 0 ≤ z ≤ b. a2 a b

     x2 + y 2 dS = 1 + b2 /a2 x2 + y 2 dxdy. Soit, en coordonnées poS

S

laires : x = ρ cos ϕ, y = ρ sin ϕ :

   2π 2  2 2 2 2 a a + b2 . ρ dρ dϕ = I = 1 + b /a 3 a

0



0

3. Le volume d’un disque compris entre z et z + dz est dV = πr2 dz = π(a2 /b2 )z 2 dz, d’où : b π V = π(a2 /b2 )z 2 dz = a2 b. 3 0

340

Corrigés des exercices 

 = 2(x + y + z) et Φ = 4. On a div A

2(x + y + z)dV . De plus, V



 x dV = V

y dV = 0 V

par raison de symétrie, d’où :  Φ=

2

2

b

2zdV = 2π(a /b ) 0

V

z 3 dz =

π 2 2 a b . 2

Le flux à travers la base S  est πa2 Az = πa2 b2 et le flux à travers la surface latérale du cône est ΦS = Φ − πa2 b2 = −πa2 b2 /2. Exercice 1.14 La formule d’Ostrogradsky s’écrit :     · ndσ =  dV = A (div A) (αAx + βAy + γAz )dσ. Σ

V

Mais :

Σ

   ∂g ∂f −f g dσ ∂n ∂n Σ         ∂g ∂g ∂g ∂f ∂f ∂f −f −f −f α g = +β g +γ g dσ. ∂x ∂x ∂y ∂y ∂z ∂z Σ

Posons :

∂g ∂g ∂g ∂f ∂f ∂f −f ; Ay = g −f ; Az = g −f , ∂x ∂x ∂y ∂y ∂z ∂z  2   2  2 2 2 2 ∂ ∂ f f f g g g ∂ ∂ ∂ ∂ =g + 2 + 2 −f + 2 + 2 = gf − f g, div A ∂x2 ∂y ∂z ∂x2 ∂y ∂z Ax = g

 d’où :

   ∂g ∂f −f (gf − f g) dV = g dσ. ∂n ∂n

V

Σ

Exercices du chapitre 2 Exercice 2.1 Cette équation se ramène à une équation homogène en posant x = x1 + 2, y = y1 + 1 soit dy1 /dx1 = (x1 + y1 )/(x1 − y1 ). Soit u = y1 /x1 , on a (1 − u)du/(1 + u2) = dx1 /x1 , d’où l’on obtient :



arctan u = ln Cx1 1 + u2 , C x21 + y12 = exp[arctan (y1 /x1 )].

341

Exercices du chapitre 2 La solution générale est donc :

    y−1 2 2 C (x − 2) + (y − 1) = exp arctan . x−2

Exercice 2.2 En posant z = 2x + y, on se ramène à l’équation à variables séparées : dz

2z + 5 = dx 5z + 9

qui s’écrit

(2/5)(5z + 9) + (7/25)5 dz = dx, 5z + 9

d’où : (2/5)z + (7/25) ln |5z + 9| = x + C1 et la solution générale : 7 ln |10x + 5y + 9| − 5x + 10y = C. Exercice 2.3 dv v − a = 0 a pour C’est une équation linéaire. L’equation sans second membre dx x solution v = xa . • Si a = 1,

 

y=x

a

1 1 + a+1 xa x



 dx + C ,

soit :

y=

1 x − + Cxa . 1−a a

• Si a = 1, y = x ln |x| − 1 + Cx. Exercice 2.4 En posant p = dy/dx, on se ramène à l’équation linéaire (dp/dx) + p tan x = sin 2x dont la solution est p = C1 cos x − (1 + cos 2x). D’où : y = −x −

1 sin 2x + C1 sin x + C2 . 2

Avec les conditions initiales, y = 2 sin x − sin x cos x − x − 1. Exercice 2.5 Cette équation se ramène à l’équation homogène : dy1 3y1 − 7x1 = dx1 3x1 − 7y1 en posant x = x1 + 1, y = y1 . Par la méthode du § 2.5, on a avec u = y1 /x1 ,   1 dx1 3 − 7u du = + C1 7 u2 − 1 x1 et, par intégration, on trouve : (y1 − x1 )2 (y1 + x1 )5 = C,

342

Corrigés des exercices

d’où la solution : (y − x + 1)2 (y + x − 1)5 = C. Exercice 2.6 y = x2 + Cx2 exp(1/x). Exercice 2.7 On a ydx + (x − y 3 )dy = 0 ; c’est une équation aux différentielles totales avec M = y, N = x − y 3 , ∂M/∂y = ∂N/∂x = 1. Donc : x

y ydx +

0

(−y 3 )dy = C1 ,

0

et la solution s’écrit : y 4 = 4xy + C. Exercice 2.8 C’est une équation aux différentielles totales avec : ∂N 2x ∂M = =− . ∂y ∂x (x + y)3 En prenant un point de coordonnées x0 = 0, y0 = 0, on obtient : ln |x + y| +

y = C. x+y

Exercice 2.9  1. OM = x2 + y 2 , OA = x + y tan α = x + y(dy/dx) (cf. figure C.3). La condition cherchée est donc :  m x2 + y 2 − x dy = . dx y

y

α

y(x)

M α

2. C’est une équation homogène dont la solution générale est

α

x2 + y 2 = (mx − C)2 . O

A

Figure C.3 – Courbe y(x).

x

3. y =

√ 2x + 1. C’est une parabole d’axe Ox.

343

Exercices du chapitre 2 Exercice 2.10 En posant p = dy/dx, on a une équation à variables séparées dp/ d’où p = sinh (x/a + C1 ) et y = a cosh (x/a + C1 ) + C2 .

 1 + p2 = dx/a,

Exercice 2.11 2 2 8 y = ± (x + C1 )3/2 + C2 . Solution particulière : y = − x3/2 + . 3 3 3 y

Exercice 2.12

y(x)

 = 2α (figure C.4), donc 1. L’angle xOM  OQM = α, le triangle OQM est isocèle.  2. NM = y ; QN = x + x2 + y 2 . 3. Les cosinus directeurs du vecteur tangent au miroir en M sont proportionnels à dx et dy, ceux du vecteur normal n sont proportionnels à −dy et dx. Donc NM/QN = −dx/dy.

n

M

P α α



α Q

O

Miroir N

x

Figure C.4 – Réflexion sur un miroir.

y  , d’où x + x2 + y 2 l’équation différentielle (2.92).

4. On a dx/dy = −

y

5. Il s’agit d’une équation homogène dont la solution générale est :  x2 + y 2 = C − x, ou  y = ± C 2 − 2Cx.

O

1/2

x

√ 6. y = ± 1 − 2x. 7. C’est un paraboloïde de révolution ayant O pour foyer (figure C.5). Figure C.5 – Miroir parabolique.

Exercice 2.13 L’équation s’écrit :  x−

y x2 + y 2



 dx + y +

x x2 + y 2

 dy = 0.

C’est une équation aux différentielles totales dont l’intégration, au voisinage d’un point (x0 , y0 ) = 0, conduit à : x2 y2 x x0 y = C1 . + − arctan + arctan + arctan 2 2 y y x0

344

Corrigés des exercices

Mais arctan u + arctan (1/u) = ±π/2 =Cte, d’où la solution : y2 x x2 + − arctan = C. 2 2 y Exercice 2.14 2y ln x 2 dy + = y . dx x x C’est une équation de Bernouilli. En posant z = 1/y on a l’équation linéaire : On a :

2 ln x dz − z=− dx x x dont la solution générale est : z=

1 ln x 1 + + C1 x2 = 2 4 y

ou

y=

4 . 1 + 2 ln x + Cx2

Exercice 2.15 C’est une équation aux différentielles totales. Sa solution pour x = 0, y = 0 et x = y est :

y xy

= C. ln − x x−y Exercice 2.16 En posant M = (y/x) − 3x, N = 1 − (4y/x), on a :   1 ∂N ∂M 1 − =− . N ∂x ∂y x Il y a donc un facteur intégrant μ(x) tel que, pour x = 0, d ln μ 1 = , dx x

soit

μ(x) = x.

L’équation se ramène à la résolution de (y − 3x2 )dx − (4y − x)dy qui est aux différentielles totales. Son intégration donne 2y 2 − xy + x3 = C. Exercice 2.17 1. D’après la figure C.6, OA = y − xy  ; OB = x − y/y  ; a2 = AB2 = (y − xy  )2 + (x − y/y  )2 , d’où :   1 (y − xy  )2 1 + 2 = a2 . y

(1)

345

Exercices du chapitre 2

√ 2. y  = 0 ; y = Cx + D, et, en remplaçant dans (1), D = ±aC/ 1 + C 2 , d’où on a :  y = Cx ± aC/ 1 + C 2 . √ 3. Soit Φ(x, y, C) = Cx ± aC/ 1 + C 2 − y, la résolution du système Φ(x, y, C) = 0,

et

∂Φ(x, y, C) =0 ∂C

conduit à la solution particulière y 2/3 + x2/3 = a2/3 . 4. Si a = 1, y = ±(1 − x2/3 )3/2 avec |x| < 1 et |y| < 1 (figure C.7). y

y 1

A

M −1

y

x

O

B

Figure C.6 – Tangente à la courbe.

0

1

x

−1

x

Figure C.7 – Solution pour a = 1.

Exercice 2.18

 1. En posant t = 1 + x, on a dy/dt = ± y/t. Cette équation est à variables séparées √  √ 2 √ et sa solution générale est y = ± t + C, d’où y = ± x + 1 + C . 2. Solution particulière : y = x + 1. 3. Solution singulière : y = 0.

Exercice 2.19 • Solution générale : y = C1 ex + C2 e6x + (7 cos x + 5 sin x)/74. • Solution particulière : C1 = −1/10 ; C2 = 1/185. Exercice 2.20 • Si m = n, • Si m = n,

a x˙ 0 sin mt. (cos nt − cos mt) + 2 −n m   x˙ 0 at + x = x0 cos mt + sin mt. m 2m

x = x0 cos mt +

m2

346

Corrigés des exercices

Exercice 2.21 d2 x + ω02 x = A sin ωt. dt2 $ # A ω 2. x = 2 sin ω0 t . sin ωt − ω0 − ω 2 ω0 # $ A sin ω0 t 3. x = − t cos ω0 t . 2ω0 ω0

1.

Lorsque t est grand, le premier terme devient négligeable devant le second ; l’amplitude croît comme At/2ω0 (résonance). 4. D’après l’équation (2.76), il s’agit d’un circuit avec une self L et une capacité C en série avec R = 0, ω02 = 1/LC, soumis à une tension V telle que : 1 dV = A sin ωt, L dt soit V = −(A/ω)L cos ωt. Exercice 2.22 Posons S = x + y + z ; dS/dt = 2S ; d’où S = Ce2t .

et :

x˙ + x = y˙ + y = z˙ + z = S = Ce2t C C C x = C1 e−t + e2t ; y = C2 e−t + e2t ; z = C3 e−t + e2t 3 3 3

avec C1 + C2 + C3 = 0. Donc, en posant C  = C/3, x = C1 e−t + C  e2t ;

y = C2 e−t + C  e2t ;

z = −(C1 + C2 )e−t + C  e2t .

Solution particulière : C1 = 1/3, C2 = 4/3, C  = −1/3. Exercice 2.23 En dérivant, on a d2 y/dx2 + 2 sin x = 0, d’où : y = 2 sin x + C1 x + C2

et

z = −3 sin x − 2 cos x − C1 (2x + 1) − 2C2 .

Solution particulière : C1 = −7, C2 = 1. Exercice 2.24 C’est un système du type (2.84). x = C1 et + C2 e−t + C3 cos t + C4 sin t y = C1 et + C2 e−t − C3 cos t − C4 sin t. Solution particulière : C1 = 1/4, C2 = −1/4, C3 = 0, C4 = 1/2 d’où l’on obtient : x = (sinh t + sin t)/2 ; y = (sinh t − sin t)/2.

347

Exercices du chapitre 2 Exercice 2.25 En dérivant, on a

d2 y dy + 4 + 4y = 0, d’où : 2 dx dx

y = e−2x (C1 + C2 x)

z = e−2x (−C1 + C2 − C2 x).

et

Solution particulière : C1 = C2 = 1. Exercice 2.26 On pose u = 1/z et v = y − x et le système devient : dv = −u, dx

du u2 =− , dx v

d’où

d2 v u2 , = dx2 v

soit v  /v = v  /v. Par intégration, v  = C1 v et v = C2 exp(C1 x). Finalement, y = x + C2 exp(C1 x)

et

z=−

1 exp(−C1 x). C1 C2

Solution particulière : C1 = −1, C2 = e, d’où y = x + e1−x ; z = ex−1 . Exercice 2.27 On a dy/dz = y/z, soit dy/y = dz/z et z = C1 y, d’où l’on tire C1 y 2 dy = xdx dont l’intégrale générale est C1 y 3 /3 − x2 /2 = C2 . La solution particulière correspond à C1 = 1, C2 = −1/6. Exercice 2.28 On déduit du système que : 

x˙ = (−8x + 3y + 4)/11 y˙ = (2x − 9y − 1)/11.

En posant x = x1 + 1/2, on a un système homogène :  11x˙1 = −8x1 + 3y 11y˙ = 2x1 − 9y,  x1 = x − 1/2 = C1 e−t + C2 e−6t/11 d’où : y = −C1 e−t + (2/3)C2 e−6t/11 . Solution particulière : C1 = −1/5, C2 = −3/10. Exercice 2.29 On a x + (dy/dt) = C1 + t, d’où d2 x/dt2 = et − C1 − t. Par intégration, on obtient : x = et − t3 /6 − C1 t2 /2 + C2 t + C3 y = −et + t4 /24 + C1 t3 /6 + (1 − C2 )t2 /2 + (C1 − C3 )t + C4 . Solution particulière : C1 = 1, C2 = 0, C3 = −1, C4 = 1.

348

Corrigés des exercices

Exercice 2.30 Par les deux méthodes, on obtient : y(0, 1) = 1, 116, y(0, 2) = 1, 274, y(0, 3) = 1, 488, y(0, 4) = 1, 789, y(0, 5) = 2, 234.

Exercices du chapitre 3 Exercice 3.1. 1. On a ΔX =

∂2X ∂2X + = 6x − 6x = 0. ∂x2 ∂y 2

2. D’après le § 3.1.3,

x

y 6xy dx +

Y = x0

(3x20 − 3y 2 )dy + C,

y0

soit en posant x0 = y0 = 0, Y = 3x2 y − y 3 + C. D’après (3.5), Z = z 3 + iC. Exercice 3.2. 1. En coordonnées polaires, on a : x = r cos φ, y = r sin φ, soit r = φ = arctan(y/x).



x2 + y 2 et

Les conditions de Cauchy s’écrivent respectivement : sin φ ∂u ∂v ∂v cos φ ∂u cos φ − = sin φ + ∂r r ∂φ ∂r ∂φ r cos φ ∂u ∂v ∂v sin φ ∂u sin φ + =− cos φ + . ∂r r ∂φ ∂r ∂φ r En multipliant la première équation par cos φ, la deuxième par sin φ et en ajoutant on obtient : 1 ∂v ∂u = . (1) ∂r r ∂φ De même en multipliant la première équation par sin φ, la seconde par cos φ et en retranchant, on a : ∂v 1 ∂u =− . ∂r r ∂φ

(2)

Les équations (1) et (2) sont les conditions cherchées. 2. Vu que |z| = r, u est une fonction de r seul u(r) et, d’après (2), v est une fonction de φ seul. L’équation (1) devient : r

du dv = = A, dr dφ

349

Exercices du chapitre 3 où A est une constante réelle. Ainsi : u = A ln r + B et v = Aφ + C, soit

f (z) = A(ln r + iφ) + B + iC.

La fonction cherchée est, à une constante additive et multiplicative près, une détermination de la fonction logarithme.

Exercice 3.3. 1. cos 2z est holomorphe dans le plan complexe ; f1 (z) a un pôle simple en z = π. Posons z − π = h : f1 (z) = f1 (π + h) =

∞ 1

(2h)2n cos 2h = . (−1)n h h n=0 (2n)! ∞

Donc :

1

22n 2n−1 f1 (π + h) = + h (−1)n , h n=1 (2n)! ∞

f1 (z) =

22n 1 + (z − π)2n−1 . (−1)n z − π n=1 (2n)!

2. Pour f2 (z) on a une singularité en z = 0. f2 (z) = z soit



(−1)n

n=0 ∞

f2 (z) = 1 +

1 (2n + 1)!

(−1)n

n=1

 2n+1 1 , z

1 z −2n . (2n + 1)!

Le développement de f2 (z) fait apparaître un nombre infini de termes à exposant négatif ; z = 0 est donc un point singulier essentiel.

Exercice 3.4. f1 (z) = ez = ex+iy .

1. On a : L’égalité ez1 = ez2 s’écrit :

ex1 (cos y1 + i sin y1 ) = ex2 (cos y2 + i sin y2 ), soit x1 = x2 , y1 = y2 + 2kπ. La condition pour que la transformation soit bi-univoque est donc : z1 − z2 = 2ikπ pour tout couple z1 , z2 . Les domaines D correspondants sont des bandes du plan complexe parallèles à l’axe réel et de largeur 2π. Par exemple la bande {−∞ < x < ∞; 0 < y ≤ 2π}.

350

Corrigés des exercices

Si x = a, on a |f1 (z)| = ea = Cte et l’image correspondante est un cercle de rayon ea . Si y = b, f1 (z) = ex+ib , donc arg(ez ) = b = Cte et l’image correspondante est une demi-droite issue de l’origine et faisant un angle b avec l’axe réel. Le domaine D , image de la bande D est le plan complexe tout entier. 2. On a f2 (z1 ) = f2 (z2 ) si (z1 − z2 )(1 − 1/(z1 z2 )) = 0, soit z1 = z2 ou z1 z2 = 1. La condition pour que la transformation soit bi-univoque est donc : z1 z2 = 1 pour tout couple z1 , z2 de D. Les deux domaines D possibles sont donc soit D1 à l’intérieur du cercle unité, soit D2 à l’extérieur de ce cercle. Si |z| = R, f2 (z) = X + iY = En posant a =

R − R−1 R + R−1 cos φ + i sin φ. 2 2

R − R−1 R + R−1 , b= , on a : 2 2 Y2 X2 + = 1, a2 b2

ce qui montre que l’image d’un cercle de rayon R est une ellipse de demi-axes a et b et dont les foyers sont situés sur l’axe réel en X = +1 et X = −1. Si arg z = φ,

X2 Y2 − = a2 − b2 = 1, 2 cos φ sin2 φ

ce qui montre que l’image d’une demi-droite issue de l’origine faisant un angle φ avec l’axe réel est une hyperbole ayant les mêmes foyers que l’ellipse précédente. Le domaine D image de l’intérieur ou de l’extérieur du cercle unité est le plan complexe tout entier.

Exercice 3.5. Calcul de I. C’est une intégrale du type +∞ 

−∞

P (x) dx, Q(x)

où Q n’a pas de racines réelles. Le degré de Q(x) est 4, celui de P est 0. On calcule  dz , 1 + z4 

Γ

où Γ est le contour de la figure 3.22 avec r → ∞. Les points singuliers de la fonction f (z) = 1/(1 + z 4 ) sont les racines de z 4 = −1 = exp[i(π + 2kπ)]. Les pôles à l’intérieur de Γ sont : α = exp(iπ/4) et β = exp(3iπ/4). D’autre part



1

z

1 + z4 → 0

351

Exercices du chapitre 3

si r → ∞ et l’intégrale sur le demi-cercle est nulle. Le théorème des résidus donne +∞ 

−∞

dx = 2iπ(Rα + Rβ ). 1 + x4

P (α) α β 1 = − et de même Rβ = − . Donc = Q (α) 4α3 4 4   iπ 1 i 1 i iπ √ +√ −√ +√ I = − (α + β) = − , 2 2 2 2 2 2

D’après l’équation (3.27), Rα =

π soit I = √ . 2 Calcul de J. On utilise la même méthode avec f (z) = 1/(1 + z 2 )4 , sur le même contour. Le seul pôle à l’intérieur de Γ est un pôle d’ordre 4 en z = i. Vu que |zf (z)| → 0 si r → ∞, on a : J = 2iπRi avec

  1 1 d3 20

5 , Ri = = − = 3! dz 3 (z + i)4 z=i (z + i)7 z=i 32i d’où J =

5π . 16

Exercice 3.6.



Le dénominateur de la fonction à intégrer ne s’annule jamais car il est compris entre 2 iθ (1 − a)2 et  (1 + a) . On pose z = e et on se ramène à l’intégrale sur le cercle C de rayon 1, C f (z)dz, de la fonction f (z) =

1 1 i . = 2 iz 1 − 2a z22z+1 + a2 az − (1 + a2 )z + a

Cette fonction possède deux pôles simples : z1 = 1/a et z2 = a, mais seul z2 se trouve à l’intérieur de C. Le résidu de f (z) relatif au pôle a est Ra = i/(a2 − 1) et finalement I = 2iπRa , soit I=

2π . 1 − a2

Exercice 3.7. Dans tous les cas les dénominateurs des fonctions à intégrer ne s’annulent pas. On pose z = eiθ et on intègre sur le cercle C de rayon 1 les fonctions f (z) obtenues. √ 2 – Pour A, f (z) 3) et √ = 2/(z + 4iz − 1). On a deux pôles simples α = i(−2 + √ β = i(−2− 3). Seul α est à l’intérieur de C. Le résidu relatif à α est Rα = −i/ 3 et √ A = 2π/ 3.

352

Corrigés des exercices

– Pour B, vu que cos 3θ = 12 (z 3 + z −3 ), on obtient : f (z) =

1 1 + z6 . 2i z 3 (−2z 2 + 5z − 2)

Les pôles à l’intérieur de C sont z0 = 0 (pôle triple) et z1 = 1/2 (pôle simple). Les résidus correspondants sont : R0 =

 1 d2  3 21 1 z f (z) z=0 = − 2 2 dz 8 2i

et

R1/2 =

1 65 . 2i 24

B = 2iπ(R0 + R1/2 ),

On a alors :

B=

soit :

π . 12

– Pour C, la fonction étant paire, on a C

=

f (z) =

1 2



sin2 θ √ , 2 + 3 cos θ

−π



1 (z 2 − 1)2 √ √ . 4iz 2 3z 2 + 4z + 3

√ Les pôles à l’intérieur de C sont z0 = 0 (pôle double) et z1 = −1/ 3 (pôle simple). Les résidus correspondants sont R0 = 1/3i et R1 = −1/6i d’où : C= – Pour D, on remarque que

π D= −π

et en posant z = e , on obtient :

π . 3

einθ dθ 2 + cos θ





D=

f (z) dz 

C

où C est le cercle de rayon 1 et 2 zn . i z 2 + 4z + 1 √ Le seul pôle à l’intérieur de C est z1 = −2 + 3 (pôle simple) et le résidu associé est f (z) =

R1 = d’où :

√ √ 2 z1n = (−2 + 3)n /i 3, i 2z1 + 4 √ 2π D = √ (−2 + 3)n . 3

353

Exercices du chapitre 3 Exercice 3.8. +∞  1 − x2 eipx dx. I(p) = (1 + x2 )2

On a :

−∞

Cette intégrale est du type (3.32). En passant au plan complexe, on pose f (z) = eipz

1 − z2 . (1 + z 2 )2

Si p > 0, on intègre f (z) sur le contour Γ de la figure 3.22. Vu que |zf (z)| → 0 si r → ∞, on a

I(p) = 2iπ Ri , i

où les Ri sont les résidus des pôles à l’intérieur de Γ. Le seul pôle à considérer est donc le pôle double z = i et

d eipz (1 − z 2 )

= e−p (−ip/2). Ri = dz (z + i)2 z=i I(p) = πp e−p .

Donc :

Si p < 0, on doit intégrer f (z) sur le demi-cercle dans le demi-plan inférieur. Le seul pôle à considérer est le pôle double z = −i et R−i = −ip ep /2 d’où : I(p) = πp ep . I(p) = π|p|e−|p| . π J = I(1) = . e

En résumé, On a : Exercice 3.9.





1. Les points singuliers de f (z) sont z = 0 qui est un point critique algébrique et logarithmique et z = −1 qui est un pôle double. √ √ 2. En choisissant la détermination de z ln z qui vaut x ln x sur AB, √   √  √  x ln x z ln z − x(ln x + 2iπ) f (z)dz = dx + dz + dx (1 + x)2 (1 + z)2 (1 + x)2 C C DE AB √  − z(ln z + 2iπ) + dz = 2iπR−1 . (1 + z)2 

γ

Le résidu R−1 est donné par : R−1

 

 1 1 d √

√ ln z + √ = z ln z

=

dz 2 z z z=−1

, z=−1

354

Corrigés des exercices   iπ π + 1 = − i. R−1 = e−iπ/2 2 2  f (z)dz = (2 + iπ)π.

soit Donc :



C

ln R | ln z| → √ → 0. |z|1/2 R



z z(ln z + 2iπ)

→ 3/2 | ln | → 0.

(1 + z)2

3. Si R → ∞

|zf (z)| →

Si  → 0

On peut donc écrire : ∞ √ ∞ √ x ln x x 2 dx + 2iπ dx = (2 + iπ)π. 2 (1 + x) (1 + x)2 0

0

En égalant les parties réelles et imaginaires, on obtient : I = π,

J = π/2.

Exercice 3.10. La fonction f (z) = z p /(1 + z 2 )2 possède deux pôles doubles z = ±i. Si p n’est pas entier, z = 0 est un point de branchement. On intègre f (z) sur le même contour que dans l’exercice précédent. On choisit la détermination qui vaut xp /(1 + x2 )2 sur AB. Si |z| → ∞, |zf (z)| =

|z|p+1 → 0 et si |z| → 0, |zf (z)| = |z|p+1 → 0. |z|4

Donc les intégrales sur C et γ sont nulles. On a donc : 

∞ f (z)dz =



C

soit : avec et de même

0

xp dx + e2iπp (1 + x2 )2

et



xp dx = 2iπ(Ri + R−i ), (1 + x2 )2

I(1 − e2iπp ) = 2iπ(Ri + R−i ),

z p

d 1 − p p−1 i = Ri =

2 dz (z + i) z=i 4

z p

1 − p p−1 d i . R−i = = −(−1)p dz (z − i)2 z=−i 4 iπ

Donc :

0

I=



2πe 2 p 1 − p 2πe 2 p 1 − p iπp (1 − e ) = 1 − e2iπp 4 1 + eiπp 4 π 1−p . I= 4 cos πp 2

355

Exercices du chapitre 3 Exercice 3.11. 1. La transformation inverse s’écrit :     πZ X + iY z = x + iy = d cosh = d cosh π . V0 V0 On a donc :



x = d cosh

πX V0



 cos

πY V0



 ; y = d sinh

πX V0



 sin

πY V0

 .

Pour Y = V0 on a x = −d cosh(πX/V0 ), y = 0 et pour Y = 0, on obtient x = d cosh(πX/V0 ), y = 0, ce qui correspond à l’équation des demi-droites lorsque X varie entre 0 et l’infini. La fonction Y (x, y) est harmonique, donc elle obéit à l’équation de Laplace à l’extérieur des conducteurs et elle est égale à la valeur du potentiel sur les conducteurs. C’est le potentiel électrostatique du système. Les lignes équipotentielles sont données par Y (x, y) =Cte. En éliminant X dans les expressions de x et y on obtient : y2 x2 − =1 d2 cos2 ( πY d2 sin2 ( πY V0 ) V0 )

(0 < Y < V0 ).

Il s’agit d’un réseau d’hyperboles (voir figure 3.30). 2. Les lignes de champ sont données par X(x, y) =Cte, soit en éliminant Y des expressions de x et y : y2 x2 + =1 d2 cosh2 ( πX d2 sinh2 ( πX V0 ) V0 )

(0 < X < ∞).

Il s’agit d’ellipses dont les foyers sont en x = ±d. Pour X = 0, la ligne de champ est le segment y = 0, −d < x < d. dy dZ est indépendant de , donc dz dx df ∂X ∂Y ∂Y ∂Y dZ = = +i = +i . dz dz ∂x ∂x ∂y ∂x −→  = −− Vu que Y s’identifie au potentiel V et que E grad V , on a :

3. On sait que

− Ici dz πd = sinh dZ V0



πZ V0

df ∂V ∂V =− −i = Ey + iEx . dz ∂y ∂x

 =

π 2 z − d2 V0

et

V0 1 df √ = 2 dz π z − d2

(avec des coupures le long des plaques). On en déduit : |E(x, y)| =

1 1 V0 V0  = . 2 2 2 2 2 π |z − d | π [(x − y − d )2 + 4x2 y 2 ]1/4

Si y = 0, x → ±d, |E(x, y)| → ∞, c’est “l’effet de pointe” sur les bords de la plaque.

356

Corrigés des exercices

4. Pour la plaque au potentiel V0 , 1 V0 √ , π x2 − d2 1 V0 Ey (x, 0− ) = − √ , 2 π x − d2 Ey (x, 0+ ) =

alors que

√ du fait du changement de détermination de la fonction 1/ z 2 − d2 lorsqu’on tourne de 2π autour du point singulier z = −d. Pour la plaque à V = 0, les signes de Ey (x, 0+ ) et Ey (x, 0− ) sont opposés aux précédents. En résumé : σ = ±20

1 V0 √ 2 π x − d2

avec le signe + pour la plaque à V = V0 et le signe − pour celle à V = 0. Exercice 3.12. 1. – Une droite horizontale a pour équation z = x + ina. Son image par la transformation Z = ez a pour équation : Z = ex+ina . C’est une demi-droite d’angle polaire na. – Une droite verticale a pour équation z = na + iy. Son image a pour équation Z = ena+iy . C’est un cercle centré à l’origine de rayon ena . Ainsi l’image d’une bande horizontale est un secteur angulaire et celle d’une bande verticale est une couronne (voir figure C.8). y y = +a

x

=

x



a

=

0

x

=

+

a

y

x

x

y=0

y = −a

Figure C.8 – Image d’une bande horizontale et d’une bande verticale dans la transformation Z = ez .

2. L’image de la droite y = αx + β a pour équation : ex+i(αx+β) = reiθ avec r = ex et θ = αx + β. Lorsque x varie de −∞ à +∞, r augmente de 0 à +∞ et θ varie linéairement avec x. On obtient une spirale d’équation polaire : r = exp[(θ − β)/α].

357

Exercices du chapitre 4

Exercices du chapitre 4 Exercice 4.1. En posant xn = u, on obtient, pour m > −1 et n > 0 : ∞ xm exp(−xn )dx = 0

1 Γ n



m+1 n

 =

1 n



m+1 −1 n



!

.

Exercice 4.2. ∞

2

exp(2ax − x )dx = e

a2

a

∞

2

exp[−(x − a) ]dx = e

a2

∞

2

e−u du =

0

a

√ π a2 e . 2

Exercice 4.3. D’après l’équation (4.11), les deux intégrales sont égales à :    1 √  n−1  1 n−1 π 2 ! 2  ! − 2 ! n . = n 2 2 2 ! 2 ! Exercice 4.4. Pour |n| < 1,   π/2 π/2 1 n−1 n tan θ dθ = sinn θ cos−n θ dθ = 2 2 0

0

Exercice 4.5. 1.

!

 β

3 5 , 4 4



  1 = 4

!

  1 − 4

!

=



−n − 1 2



!

.

1 π π = √ . 4 sin(π/4) 2 2

2. En effectuant le changement de variable u = − ln x, soit x = e−u , on obtient : ∞

ua−1 e−u du = Γ(a) = (a − 1)! .

0

3. En effectuant le changement de variable u = (x − a)/(b − a), on obtient : (b − a)m+n−1 β(m, n). 4. En effectuant le changement de variable u = xn , on obtient :   m+1 1 β ,p + 1 . n n

358

Corrigés des exercices

5. En posant u = xn , on a : I=

      √ 1 1 1 π n −1 ! 1 Γ n1 Γ 12  1 , = =   . n 2 n Γ n + 12 n 1−1 ! n 2 √ π (−3/4)! √ (1/4)! = π I= 4 (−1/4)! (−1/4)!

1 β n

Pour n = 4,



et d’après la formule des compléments, 4 I = √ [(1/4)!]2 = 1, 311. 2π 6. En posant u = 1/(1 + t), on obtient β(1/2, 1/2) = π. Ce résultat se retrouve directement si l’on pose t = tan2 ϕ.

Exercice 4.6. La surface cherchée est : 2

2

S=

y dx =

4 1/4

(1 − x )

1 dx = 2

(1 − x4 )1/4 dx,

−1

soit, en posant u = x4 , 1 S=

(1 − u)1/4 u−3/4 du = β



0

5 1 , 4 4

 =

( 14 )!(− 34 )! , ( 12 )!

8 S = √ [(1/4)!]2 = 3, 708. π

d’où :

  1 x− 2

Exercice 4.7.

!

  1 −x − 2

!

=

π . cos(πx)

Exercice 4.8. 1.

π/2 l!(−1/2)! I=2 dθ sin2l+1 θ = (l + 1/2)!

et, d’après (4.22a),

0

 2.

dΩ[Cl (θ, ϕ)]2 = A2

π 0

sin2l+1 θ dθ

2π

2

2π

cos lϕ dϕ = 0

0

(l!)2 22l+1 . (2l + 1)!

cos2 lϕ dϕ = 1

0

puisque dΩ = sin θ dθ dϕ avec 0 ≤ θ ≤ π, 0 ≤ ϕ ≤ 2π ; 2π

I=

1 + cos 2lϕ dϕ = π. 2

359

Exercices du chapitre 4 2 2l+1 2 (l!) 2

A

Donc :

(2l + 1)!

 π=1

et

A=

(2l + 1)! 1 1 . 2π l! 2l

Exercice 4.9. 1. Deux domaines : p > 0, q > −1 et p < 0, q < −1. 2. Dans le 1er domaine, en posant xp = u, on a :   1 q+1 −1 I(p, q) = , p p

!

alors que le même changement de variable conduit dans le second domaine à :   1 q+1 −1 I(p, q) = − . p p

!

3. I(3, 1/2) = 13 (− 21 )! =



π/3 ; I(−3, −5/2) = 13 (− 12 )! =

√ π/3.

4. Si p > 0, q > −1, on a −p < 0, −q − 2 < −1 ; on passe ainsi d’un domaine de convergence à l’autre. Pour p > 0, on a :      1 q+1 1 −q − 2 + 1 −1 −1 = = I(p, q). I(−p, −q − 2) = − − p −p p p

!

!

Le résultat de la 3e question est un cas particulier de cette relation. Exercice 4.10. 1. α > −1, α + β < −1. π/2 α!(−α − β − 2)! . 2. K = 2 dϕ sin2α+1 ϕ cos−2α−2β−3 ϕ = (−β − 1)! 0

3. K(−1/2, −2) = π/2. 4.

I1 =

I2 =

1 2 1 2

I=2 5.

∞ 0

∞

0 β−2

e2αϕ dϕ = 2β−2 (cosh ϕ)β e−2αϕ dϕ = 2β−2 (cosh ϕ)β

∞

xα+β/2−1 (1 + x)−β dx,

1

1

xα+β/2−1 (1 + x)−β dx,

0

K(α + β/2 − 1, −β).

I = 2β−2

(α + β/2 − 1)!(−α + β/2 − 1)! . (β − 1)!

Si α = 1/2, β = 2, I = (1/2)!(−1/2)! = π/2.

360

Corrigés des exercices

Exercice 4.11.

2 1 I = x erf (x) + √ e−x − 1 . π

Exercice 4.12. 1. En intégrant par parties on a :

√ π x −x2 erfc(x). + I(x) = e 2 4

2. Compte tenu de (4.37), I(x) ∼ =e

%

−x2

& n 1

1 x k (2k)! + (−1) + ... . 2 4x k! (2x)2k k=0

e−x 3. I(x) ∼ = 4

2



1 2x + x

∞ 4. P (V > V0 ) =

 .

  m 3/2 mV 2 2 4π V exp − dV, 2πkT 2kT

V0

mV 2 2 mV02 ,x = , 2kT 2kT ∞ 4 4 P = √ u2 exp(−u2 )du = √ I(x). π π

soit, en posant u2 =

x

5. Pour l’hydrogène, x = 0, 633, erfc(x) = 0, 371, I(x) = 0, 376, P = 0, 85. Pour l’oxygène, x = 2, 532, et en utilisant le résultat de la 3e question, P = 0, 005.

Exercice 4.13. Posons : ∞ I=

e 0

−u2

sin(2xu) du = 2x u

∞ 0

2

e−u



(−1)n

n=0

(2xu)2n du ; (2n + 1)!

en faisant le changement de variables u2 = t, on a : ∞ ∞ ∞ 2n+1 



(2x)2n+1 n (2x) (n − 1/2)! (−1) e−t tn−1/2 dt = (−1)n I= 2(2n + 1)! 2(2n + 1)! n=0 n=0 0

et, compte tenu de (4.22b) et (4.30), I=

∞ √

π (−1)n n=0

π x2n+1 = erf (x). (2n + 1)n! 2

361

Exercices du chapitre 5

Exercices du chapitre 5 Exercice 5.1. ∞

On a :

(−1)n f (x − nπ) = sin x

n=0

et, d’après (5.8) et (5.34), F (p) 1 = , 1 + e−pπ 1 + p2

d’où :

1 + e−pπ . 1 + p2

F (p) =

Le calcul peut se faire directement à partir de la définition. Exercice 5.2. ∞

∞ F (p)dp =

0

∞ dp

0

f (t)e−pt dt =

0

∞ 0

f (t) dt. t

Exercice 5.3. 1. D’après l’exercice précédent : ∞ 0

sin t dt = t

∞ 0

dp

arctan =

2 1+p



π p

= ; 2 0

en intégrant par parties, on a : ∞ 0

sin2 t dt = t2

∞ 0

π sin 2t dt = . t 2

2. En posant λt = u, +∞  u sin2 u I(λ) = f du. λ u2 −∞

Si λ → ∞, f (u/λ) → f (0) qui est une constante que l’on peut sortir de l’intégrale. Donc : +∞ 

lim I(λ) = f (0)

λ→∞

−∞

sin2 u du = πf (0). u2

362

Corrigés des exercices

Exercice 5.4. D’après l’exercice 5.2 :

 ∞ ∞ 

b 1 1 −at −bt I = (T.L.e − − T.L.e ) dp = dp = ln



. p+a p+b a 0

0

Exercice 5.5. 1. On sait que (cf. exercice 5.2) : ∞

f (t) dt = t

0

∞ Donc

T.L. 0

∞ F (p) dp = Cte. 0

1 f (t) dt = t p

∞ F (p) dp. 0

2. En partant de la définition de F (p), on a : p

F (p ) dp =

0

∞ 0

f (t) f (t) dt − T.L. t t

et, d’après l’exercice 5.2, T.L.

f (t) = t

∞

F (p ) dp .

p

3. D’après l’équation (5.27), T.L.g(x) =

1 p

∞ p

F (p ) dp , ⎛

T.L.h(x) = T.L. ⎝

∞ 0

4.

1 T.L.Si(x) = p

∞

f (t) dt − t

x 0

⎞ p f (t) ⎠ 1 dt = F (p ) dp . t p

1 1 dp 1 π − arctan p = arctan , = 2 1+p p 2 p p

p

1 T.L.Ci(x) = p

p 0

0

p 1 ln(1 + p2 ). dp = 1 + p2 2p

363

Exercices du chapitre 5 Exercice 5.6. dF =− dp

∞

e−px sin ax dx = −

0

p2

a , + a2

F (p) = −arctan (p/a) + C. Pour a = 0, F (p) = 0, d’où C = π/2. Finalement : F (p) = −arctan (p/a) + π/2 = arctan (a/p). En effet, arctan u + arctan (1/u) = π/2. Exercice 5.7. epk F (p) = √ π

En posant x + k = u,

∞



1 e−pu √ du, u

k

epk 1 F (p) = √ ⎝1 − √ p π

pk 0

⎞ 1 e−v √ dv ⎠ v

avec v = pu, et d’après l’équation (4.32),  epk F (p) = √ 1 − erf pk . p Exercice 5.8. ∞ Pour p > 0,

F (p) =

e−px erf(x) dx =

0

1 p

∞

e−px

0

d erf(x) dx, dx

car erf (∞) = 1 et erf (0) = 0. Donc : ∞

2 F (p) = √ πp

2

e−px−x dx.

0

En remplaçant l’exposant par −(x + p/2)2 + p2 /4, on voit facilement que : 2 1 2 F (p) = ep /4 √ p π

∞

2

e−u du =

1 p2 /4 e [1 − erf(p/2)]. p

p/2

Exercice 5.9. On a :

1 F (p) = √ p d √ [ pF (p)] = − dp

∞

e−py y −3/2 e−1/y dy,

0 ∞

0

e−py y −1/2 e−1/y dy = −F (p),

364

Corrigés des exercices dF = −dp F

d’où :



1 1 √ + p 2p

 .

√ C F (p) = √ e−2 p . p

Par intégration : Pour p = 0, √ pF (p) =

∞ e

−1/y −3/2

y

∞ dy =

0

  √ e−u u−1/2 du = − 21 ! = π.

0

√ D’où C = π et finalement :

 F (p) =

π −2√p e . p

Exercice 5.10. sinh

1. T.L. sinh

2.



√ xn+1/2 . x= (2n + 1)! n=0



√ x = F (p) = n=0

(n + 1/2)! . + 1)!

pn+3/2 (2n

3. En utilisant l’équation (4.22a), √

√ ∞ π 1 π 1/4p F (p) = 3/2 = e . n n! 3/2 (4p) 2p 2p n=0 √ π −1/4p e . 2p3/2 √  cos x dg 1 π −1/4p = T.L. √ = pG(p) = e T.L. , d’où : dx 2 p 2 x √  π −1/4p cos x e . = T.L. √ p x √ T.L. sin x = G(p) =

4. 5.

Exercice 5.11. f1 (x) = 1 − 2 sin 2x ;

f2 (x) = 3 cosh 5x − 4 sinh 5x.

Exercice 5.12. f (x) =

1 (sinh ax − sin ax) ; 2a3

Exercice 5.13.

g(x) =

1 (sin ax)(sinh ax). 2a2

  2 f (x) = e−x cos 3x + sin 3x . 3

365

Exercices du chapitre 5 Exercice 5.14. En prenant l’image du produit de convolution, on a :  1 π = 2, F1 (p) p p 1 2√  t. d’où : F1 (p) = √ p−3/2 et f1 (t ) = π π Exercice 5.15. f (x) = x−1/2 ; G(p) = (T.L. x−1/2 )(T.L. ex ). L’original est donc le produit de convolution : x g(x) = 0

 1 √ ex dx =  x−x

x 0

 1 ex−x √ dx . x

D’après l’équation (4.32), g(x) =

√ x √ πe erf ( x).

Exercice 5.16. En prenant la transformée de Laplace de l’équation, on a : x ¯(p)(p2 − p) =

2 , p3

2 2 2 2 2 − 3− 2− + 4 p p p p p−1 t3 x(t) = − − t2 − 2t − 2 + 2et . 3

x¯(p) = −

d’où et Exercice 5.17.

1. En prenant l’image de l’équation, on a : x¯(p) = [F (p) + 1]/p2 . L’original x(t) est donc : t x(t) =







t

f (t )(t − t ) dt + t = 0

t f (t − t ) dt + t.

(3)

0

2. Si f (t) = sin t, x(t) = 2t − sin t. 3. x(t) = − sin t + C1 t + C2 et avec les conditions initiales, C1 = 2, C2 = 0. ¨ = f (t) est 4. Avec la condition initiale x(0) = 0, x(0) ˙ = x˙ 0 , l’image de l’équation x x¯(p) = [F (p) + x˙ 0 ]/p2 alors que celle de l’équation (5.54) est donnée dans la 1e question. On a identité entre les deux expressions si x˙ 0 = 1.

366

Corrigés des exercices

Exercice 5.18.  E0  1 − e−pT = (R + Lp)I(p), p   E0 1 − e−pT . d’où : I(p) = p(R + Lp)   1 1 1 1 2. On a encore : = − p(R + Lp) R p p+α /   E0 . f1 (t) 1 − e−αt − f1 (t − T ) 1 − e−α(t−T ) . et : I(t) = R I(t) est représentée schématiquement sur la figure C9. E(p) =

1.

RI/E0 1 1 − e−αT

0

2T

T

t

Figure C9 – La fonction I(t).

3.

E(t) =



E0 f2 (t − 2nT ).

n=0

D’après l’équation (5.33),   E0 E0 1 − e−pT 1 = , E(p) = p (1 − e−2pT ) p (1 + e−pT ) ∞ E0

soit : E(p) = (−1)n e−pnT . p n=0

4.

E0 I(p) = R



1 1 − p p+α





(−1)n e−pnT ,

n=0

∞ E0

I(t) = (−1)n f1 (t − nT ) 1 − e−(t−nT )α . R n=0

5. Si N est pair, pour N T ≤ t ≤ (N + 1)T , on a :   E0  I(t) = 1 − e−αt 1 − eαT + e2αT + . . . (−1)N eN αT , R   1 + e(N +1)αT E0 I(t) = . 1 − e−αt R 1 + eαT

367

Exercices du chapitre 6 Si N est impair,  E0  −αt  1 − eαT + e2αT + . . . (−1)N eN αT , −e R E0 1 − e(N +1)αT . I(t) = − e−αt R 1 + eαT

I(t) =

6. Si N → ∞, 1 E0 , R 1 + eαT 1 E0 I(N T ) = . R 1 + e−αT

I(N T ) =

pour N pair pour N impair

Exercices du chapitre 6 Exercice 6.1. La fonction 1/x n’est pas bornée en x = 0. La fonction sin(1/x) a une infinité de maxima et de minima au voisinage de x = 0. Ainsi les conditions 1 et 2 de Dirichlet ne sont pas satisfaites. Exercice 6.2. x2 est une fonction paire. D’après l’équation (6.7), 2 an = π



x2 cos nx dx.

0

On trouve a0 = 2π 2 /3 et an = (−1)n 4/n2 (n ≥ 1). D’où :   cos 2x cos 3x π2 x2 = + 4 − cos x + − + . . . . 3 22 32 Cette égalité a lieu partout. Si l’on prend x = π, puis x = 0, on a : ∞

π2 1 = ; 2 6 n n=1



(−1)n+1 π2 = . 12 n=1 n2

Exercice 6.3. Pour avoir un développement en série de cosinus, il faut une fonction paire dans l’intervalle −π < x ≤ π. On prolonge la fonction f (x) par f (x) = −x pour −π < x ≤ 0. Dans ces conditions f (x) = |x|, bn = 0 et d’après l’équation (6.7), 2 an = π

π x cos nx dx. 0

368

Corrigés des exercices

On trouve a0 = π et an = 0 pour n pair et an = −4/(πn2 ) pour n impair. D’où :   π 4 cos 3x cos 5x + + . . . . |x| = − cos x + 2 π 32 52 Ce développement est valable pour −π < x ≤ π. Donc, dans [0, π], on a :   4 π cos 3x cos 5x x= − + + ... . cos x + 2 π 32 52 Exercice 6.4. Pour la fonction créneau (figure 6.2), on a :   4 sin(2n + 1)x sin 3x f (x) = + ...+ + ... . sin x + π 3 (2n + 1) Or, f (x) = 1 pour 0 ≤ x ≤ π ; en prenant x = π/2, on obtient :   4 (−1)n 1 1 1= + ... . 1 − + + ...+ π 3 5 (2n + 1) ∞

π (−1)n = . Donc : (2n + 1) 4 n=0 Exercice 6.5. Le développement de sin |x| entre −π et π donne le développement de sin x entre 0 et π. D’après l’équation (6.7), an =

2 π

π sin x cos nx dx. 0

On trouve a0 = 4/π et an = (4/π)[1/(1 − n2 )] pour n pair, an = 0 pour n impair. Ainsi, 0 ≤ x ≤ π, on a :   1 1 4 1 1 − cos 2x − cos 4x + . . . + sin x = cos 2px + . . . . π 2 3 15 1 − 4p2 Exercice 6.6. Pour avoir un développement en série de sinus il faut une fonction impaire dans [−π, π] ; on prolonge la fonction cos 2x par − cos 2x entre −π et 0. Dans ces conditions an = 0 et, d’après (6.7), 2 bn = π

π cos 2x sin nx dx. 0

On obtient bn = 0 pour n pair et bn = −(4/π)[n/(4 − n2 )] pour n impair. D’où le développement :   2p + 1 4 sin x 3 − sin 3x + . . . + cos 2x = − sin(2p + 1)x + . . . . π 3 5 4 − (2p + 1)2

369

Exercices du chapitre 6 Exercice 6.7. En utilisant la forme complexe (6.17), Cn est donné, d’après (6.18), par : L/2 

1 Cn = L

−L/2

Cn = 2L sinh

d’où :

  2π ex exp −in x dx, L   L 1 + 2inπ/L . (−1)n 2 2 L + 4n2 π 2

On obtient les valeurs An et Bn du développement (6.8), grâce aux deux relations An = Cn + C−n et Bn = i(Cn − C−n ), et : ex =



cos(n2πx/L) 2 sinh(L/2) + 4L sinh(L/2) (−1)n 2 L L + 4n2 π 2 n=1

+ 8π sinh(L/2)



(−1)n+1

n=1

n sin(n2πx/L) . L2 + 4n2 π 2

Exercice 6.8. D’après (6.7), en décomposant les intégrations en deux intervalles [−π, 0] et [0, π], on a a0 = π/2, an = 0 pour n pair, an = −2/(πn2 ) pour n impair, bn = −3(−1)n /n, d’où le développement :   2 π cos 3x cos 5x f (x) = − + + . . . cos x + 4 π 32 52   sin 2x sin 3x + − ... . + 3 sin x − 2 3 Notons que pour x = ±π, ce développement conduit à : f (x) =

π f (π) + f (−π) = . 2 2

Exercice 6.9. En utilisant l’équation (6.41), on obtient : 1 sin2 (kL/2) F (k) = √ AL . (kL/2)2 2π Exercice 6.10. En utilisant l’équation (6.28) :

et :

a  ik0 x  1 A(k) = + e−ik0 x e−ikx dx e 4π −a   a sin a(k − k0 ) sin a(k + k0 ) + A(k) = . 2π a(k − k0 ) a(k + k0 )

370

Corrigés des exercices a(k − k0 ) = ak − nπ ; a(k + k0 ) = ak + nπ ;

Mais

et : 1 (−1)n sin ak A(k) = 2π

1 k sin ak

. |A(k)| = π k 2 − k02



sin a(k − k0 ) = (−1)n sin ak, sin a(k + k0 ) = (−1)n sin ak

1 1 + k − k0 k + k0

 =

(−1)n k sin ak, 2 π k − k02

Exercice 6.11. D’après (6.42), on sait que :  T.F.

or, et, d’après (6.33)

a x2 + a2





π exp(−a|k|) 2   1 ∂ a f (x) = − 2a ∂x x2 + a2  ik π exp(−a|k|). F (k) = − 2a 2 =

Du fait que : 

 1 , x2 + a2     1 ∂ 1 π π 1 + a|k| G(k) = − exp(−a|k|) = exp(−a|k|). 2 ∂a a 2 2 2a2

1 ∂ g(x) = − 2 ∂a

Exercice 6.12. La transformée de Laplace de x−α est, d’après l’équation (5.4), T.L. x−α =

(−α)! . p1−α

En utilisant l’équation (6.38) on a : 1 (−α)! , T.F. x−α = √ 2π (ik)1−α ∞ 1 1 √ x−α e−ikx dx = √ [f (k) − ig(k)] ; 2π 2π 0

√ f (k) = 2π Ré (T.F. x−α ) = (−α)!|k|α−1 Ré

!   iπ exp ∓ (1 − α) , 2

f (k) = (−α)!|k|α−1 sin(απ/2) ; √ g(k) = − 2π Im (T.F. x−α ) = ±(−α)!|k|α−1 cos(απ/2), les signes + et − se rapportant aux cas où k > 0 et k < 0 respectivement.

371

Exercices du chapitre 6 Exercice 6.13. C’est une fonction paire. D’après l’équation (5.13), pour x > 0, T.L. f (x) =

A(p + α) . (p + α)2 + a2

Donc, d’après (6.41),     α + ik α(α2 + a2 + k 2 ) 2 2 A Ré A 2 . F (k) = = 2 2 π (α + ik) + a π (α + a2 − k 2 )2 + 4α2 k 2 Exercice 6.14. +∞  Soit I = f ∗ (x)g(x) dx. Posons f1 (x) = f ∗ (−x) ; on a : −∞ +∞  f1 (0 − x)g(x) dx = h(0),

I=

−∞

où h = f1 ∗ g. Mais d’après (6.23) et (6.37) : 1 h(0) = √ 2π Mais

+∞  H(k) dk

avec

H(k) =

√ 2πF1 (k)G(k).

−∞

⎡ +∞ ⎤∗ +∞   1 f ∗ (−x)e−ikx dx = √ ⎣ f (−x)eikx dx⎦ 2π −∞ −∞ ⎤∗ ⎡ +∞   1 =√ ⎣ f (x )e−ikx dx ⎦ = F ∗ (k). 2π

1 F1 (k) = √ 2π

−∞

Donc :

+∞ +∞   ∗ f (x)g(x) dx = F ∗ (k)G(k) dk. −∞

−∞ +∞ 

+∞  |f (x)| dx = |F (k)|2 dk.

En particulier : −∞

2

−∞

C’est le théorème de Parseval. Exercice 6.15. 1. F (k) = T.F.f (x) =

+∞

n=−∞

Cn T.F. exp(inqx).

372

Corrigés des exercices

inqx

Or :

T.F.e

1 = √ 2π

+∞  √ ei(nq−k)x dx = 2πδ(k − nq), −∞

où nous avons utililé (6.48), après permutation des rôles de k et x. Donc : F (k) =





+∞

Cn δ(k − nq).

n=−∞ +∞

2. La fonction

δ(x − nL) a pour période L. D’après (6.18),

n=−∞ +L/2 

1 Cn = L

δ(x)e−inqx dx =

q 1 = . L 2π

−L/2 +∞

q F (k) = √ δ(k − nq). 2π n=−∞

Donc :

3. D’après le résultat de l’exercice 6.14, +∞ +∞ 

−∞

q δ(x − nL)g(x) dx = √ 2π n=−∞

+∞ +∞ 

+∞

+∞

q g(nL) = √ G(nq) 2π n=−∞ n=−∞

soit :

δ(k − nq)G(k) dk,

−∞ n=−∞

(q = 2π/L).

Exercice 6.16. +∞

+∞ +∞



1 1 1 1 + 2 = = f (n) + 2 . 2 + a2 2 + a2 ) n 2(n 2a 2a n=−∞ n=−∞ n=0

Compte tenu de (6.70) et (6.42), avec f (x) = 12 (x2 + a2 )−1 , L = 1, S1 = =

√ 2π



+∞ +∞ 1 π 1 −2π|n|a 1 π −2πna π + e + 2 = e − 2 2a n=−∞ 2a a n=0 2a 2a2

1 1 π π + 2. − −2πa a1−e 2a 2a

Exercice 6.17. D’après (6.63),  T.F.

1 rp



 =

21 πk

∞ 0

sin kr dr rp−1

(1 < p < 3).

373

Exercices du chapitre 6 En utilisant les résultats de l’exercice 6.12, avec α = p − 1, k = |k| > 0,    1 2 p−3 k T.F. p = (1 − p)! sin(pπ/2). r π    1 π1 Pour p = 2, T.F. 2 = . r 2k ∞ En effet, 0

sin kr dr = r

∞ 0

π sin u du = . u 2

(cf. exercice 5.3). Exercice 6.18. D’après (6.64), 

1 2 T.F. [exp(−λr)/r] = ; 2 π λ + k2     ∂ e−λr 2λ 2 T.F. f (r) = −T.F. . = 2 ∂λ r π (λ + k 2 )2 Exercice 6.19. D’après (6.63), 2 F (k) = πk

∞  0

sin k0 r − k0 cos k0 r r



sin kr dr. r

Posons u = k0 r, 2 k0 F (k) = π k

∞  0

 ∞ sin u 2 sin u du − cos u sin(ku/k0 ) = cos(ku/k0 ) du. u u π u 0

En effet, en intégrant par parties la deuxième expression, on retrouve la première. Donc : 1 F (k) = π

∞ 0

1 {sin[u(1 + k/k0 )] + sin[u(1 − k/k0 )] du u

1 = [1 + 1 × signe (k0 − k)] π

∞ 0

sin x dx x

et F (k) = 1 si k < k0 ; F (k) = 0 si k > k0 ; F (k0 ) = 1/2.

374

Corrigés des exercices

Exercices du chapitre 7 Exercice 7.1. On cherche une solution u(x, y) = X(x)Y (y). On a l’équation X  /X + Y  /Y = 0, d’où X  + p2 X = 0, Y  + q 2 Y = 0 avec p2 + q 2 = 0. Les conditions aux limites imposent p = 1, q 2 = −1 et la solution est u(x, y) = e−y sin x. Exercice 7.2. On cherche une solution identique à celle de l’exercice 7.1, avec p2 + q 2 = 0. Les conditions aux limites imposent p = nπ/a (n entier ≥ 1), q 2 = −n2 π 2 /a2 et des solutions du type : Bn sin(nπx/a) exp(−nπy/a). La condition u(x, 0) = (1 − x/a) montre que ∞

Bn sin(nπx/a) = (1 − x/a).

n=1

C’est un développement en série de sinus entre 0 et a de la fonction (1 − x/a). D’après l’équation (6.11) : 2 Bn = a d’où :

a (1 − x/a) sin(nπx/a)dx = 0

2 , πn

∞ 2 1 sin(nπx/a) exp(−nπy/a). u(x, y) = π n=1 n

Exercice 7.3. Vu la symétrie circulaire du problème, on cherche u(ρ) avec u = 0. En coordonnées polaires, on a l’équation (7.55), soit : u = C1 ln ρ + C2 . Avec les conditions aux limites, on obtient : C1 = A, C2 = u2 − A ln R2 ; et finalement : u = u2 + A ln(ρ/R2 ). Exercice 7.4. 1. u est donné, d’après (7.54), par : u =

1 ∂2u ∂ 2 u 1 ∂u + 2 + . 2 ∂ρ ρ ∂ρ ρ ∂ϕ2

En cherchant une solution du type R(ρ)Φ(ϕ), on obtient après substitution dans l’équation de Laplace et multiplication par ρ2 /RΦ : Φ (ϕ) ρ2 R (ρ) + ρR (ρ) =− = −k 2 , Φ(ϕ) R(ρ)

375

Exercices du chapitre 7 d’où : Φ + k 2 Φ = 0 ; ρ2 R + ρR − k 2 R = 0. Si k = 0 :   u(ρ, ϕ) = (Ak cos kϕ + Bk sin kϕ) Ck ρk + Dk ρ−k . Si k = 0 : u(ρ, ϕ) = (A0 + B0 ϕ) (C0 + D0 ln ρ) .

La fonction u(ρ, ϕ) doit être continue et périodique (période 2π), donc Dk = 0, D0 = 0, B0 = 0 et k doit être entier k = n. La solution est ainsi de la forme : ∞

u(ρ, ϕ) =

a0

+ (an cos nϕ + bn sin nϕ)ρn , 2 n=1

où, pour simplifier, nous avons remplacé A0 C0 par a0 /2 et Ak Ck , Bk Ck par an et bn . Pour ρ = R, on a : ∞

f (ϕ) =

a0

+ (an cos nϕ + bn sin nϕ)Rn 2 n=1

et, d’après les équations (6.7) : 1 an = πRn



1 bn = πRn

f (ϕ) cos nϕ dϕ ; −π

π f (ϕ) sin nϕ dϕ. −π

2. En substituant ces coefficients dans la solution, on a : ⎡ π ⎤  ∞ n π

ρ 1 ⎣ f (ϕ ) dϕ + 2 f (ϕ ) cos n(ϕ − ϕ) dϕ ⎦ . u(ρ, ϕ) = 2π R n=1 −π

−π

Or, 1+2

∞ n

ρ n=1

R

cos n(ϕ − ϕ) = 1 +

∞ .

ρ n=1

R



ei(ϕ −ϕ)

n

+

ρ R

Du fait que pour |x| < 1, ∞

n=1

xn =



e−i(ϕ −ϕ)

x , 1−x

on obtient, tous calculs faits, la solution sous la forme cherchée.

n / .

376

Corrigés des exercices

Exercice 7.5. On cherche une solution u(x, t) = X(x)T (t), d’où :

et :

T˙ X  = −k 2 = T a2 X X(x) = A cos kx + B sin kx, T (t) = exp(−a2 k 2 t).

Les deux premières conditions imposent A = 0, k = nπ/L (n entier > 0. Donc : u(x, 0) =



Bn sin(nπx/L) =

n=1

x(L − x) . L2

Le développement en série de sinus de la fonction u(x, 0) est donné par l’équation (6.11). On obtient Bn = 0 pour n pair et Bn = 8/(n3 π 3 ) pour n impair. D’où la solution cherchée :   ∞ π 2 a2 (2p + 1)2 t 1 (2p + 1)πx 8

exp − sin u(x, t) = 3 . π p=0 (2p + 1)3 L L2 Exercice 7.6. On procède comme dans l’exercice précédent, mais ici : ⎡ ⎤ L/2  L 2 ⎢ ⎥ Bn = 2 ⎣ x sin(nπx/L) dx + (L − x) sin(nπx/L) dx⎦ . L 0

On obtient :

L/2

Bn =

4 sin(nπ/2), n2 π 2

soit Bn = 0 pour n pair, et Bn = 4(−1)p /[(2p + 1)2π 2 ], pour n = 2p + 1 impair. D’où :   ∞ π 2 a2 (2p + 1)2 t 4 (−1)p (2p + 1)πx exp − u(x, t) = 2 sin . π p=0 (2p + 1)2 L L2 Exercice 7.7. En régime permanent ∂T /∂t = 0 et l’on a T = −q/κ. Soit en coordonnées sphériques, vu que T ne dépend que de r :   1 d q 2 dT r =− . r2 dr dr κ En posant T = u/r, on obtient d2 u/dr2 = −qr/κ, soit u(r) = −qr3 /6κ + Cr + D. Mais u = T r et u(0) = 0 car T ne peut être infini, d’où D = 0 et : T (r) = − Ainsi T (0) − T (R) = qR2 /6κ.

qr2 + C. 6κ

377

Exercices du chapitre 7

Notons qu’il est possible d’éviter la résolution de l’équation de la chaleur en remarquant que la chaleur totale s’échappant d’une sphère de rayon r doit être égale à la chaleur générée à l’intérieur de cette sphère en régime permanent. Ainsi : −κ4πr2

qr3 dT = 4π dr 3

dT qr =− , dr 3κ

et

qr2 + C. 6κ Remarquons que si l’on considère un corps céceste comme la Terre ou la Lune, la chaleur q provient de la décroissance radioactive de certains éléments à l’état de traces. Ceci explique la température plus élévée à l’intérieur qu’à la surface du corps. soit T (r) = −

Exercice 7.8. En introduisant la transformée de Fourier F (k, t) de n(x, t), on a, pour x = 0 : a 1 √ = n(0, t) = √ t 2π

+∞  F (k, t) dk,

(t > 0)

et

−∞

+∞  kF (k, t) dk = 0. −∞

2

Mais, d’après (7.42), F (k, t) = F (k, 0) exp(−Dk t) et F (k, 0) est une fonction paire de k. Posons Dk 2 = u :  ∞  ∞ 2 2 a 2 √ = F (k, 0) exp(−Dk t) dk = f (u, 0)e−ut du. π π t 0

0

On est ainsi ramené à un problème de transformée de Laplace. On obtient : a f (u, 0) = √ 2u  √ car T.L. 1/ u = π/t. De plus, √ 2Dka du =√ = a 2D, dk 2Dk 2 √ F (k, t) = a 2D exp(−Dk 2 t).

F (k, 0) = f (u, 0) d’où :

On obtient une fonction gaussienne dont la transformée de Fourier inverse (cf. équation (6.44)) donne la solution cherchée en prenant σ 2 = 2Dt : a n(x, t) = √ exp(−x2 /4Dt). t Exercice 7.9. Pour une tranche de la barre comprise entre x et x + Δx, l’équation fondamentale de la dynamique s’écrit : T (x + Δx) − T (x) = ρSΔx soit :

ES

∂2u , ∂t2

∂ ∂2u [u(x + Δx) − u(x)] = ρSΔx 2 ∂x ∂t

378

Corrigés des exercices

et, en se limitant au premier ordre du développement, E

∂2u ∂ 2u = ρ . ∂x2 ∂t2

On obtient une équation de propagation du type :

avec v =

∂2u 1 ∂2u − 2 2 =0 2 ∂x v ∂t

 E/ρ.

Exercice 7.10. Partant de l’équation de propagation (7.12), obtenue ci-dessus, on cherche une solution du type u(x, t) = X(x)T (t). Les conditions initiales u(−x, 0) = −u(x, 0) et ∂u(x, 0)/∂t = 0 imposent des solutions du type : u(x, t) = A sin kx cos kvt. Il faut donc chercher le développement de −λx/L en série de sinus pour −L ≤ x ≤ L. Cependant, pour éviter les problèmes de discontinuité aux points x = ±L de la fonction périodique correspondante, on change de variable en posant x = x + L et on fait un développement en série de cosinus de la fonction −λx /L = u(x, 0) − λ pour 0 ≤ x ≤ 2L. Ainsi, la fonction périodique correspondante de période 4L définie par −λ|x |/L pour −2L ≤ x ≤ 2L, est continue à ses extrémités et : ∞



A0

λx = + An cos(nπx /2L), L 2 n=1

où, d’après l’équation (6.10), An =

2 2L

 2L λx − cos(nπx /2L) dx . L 0

On obtient A0 = −2λ ; An = 0 pour n pair ; An = 8λ/(n2 π 2 ) pour n impair. Ainsi : ∞





1 (2p + 1)πx λx = −λ + 2 . cos 2 L π p=0 (2p + 1) 2L

En repassant à la variable x, (2p + 1)π(x + L) (2p + 1)πx = (−1)p+1 sin , 2L 2L ∞ 8λ (−1)p+1 (2p + 1)πx u(x, 0) = 2 . sin π p=0 (2p + 1)2 2L

cos

et, finalement, la solution cherchée s’écrit : ∞

u(x, t) =

(2p + 1)πvt 8λ (−1)p+1 (2p + 1)πx cos . sin π 2 p=0 (2p + 1)2 2L 2L

379

Exercices du chapitre 7 Exercice 7.11.

D’après la forme générale (7.67), de la solution de l’équation de Poisson, on doit chercher ρ(x) de telle sorte que :  ρ(x  ) e−λr 1 = d3 x  = ρ ∗ . q r |x − x  | r En prenant la transformée de Fourier de l’équation précédente (cf. les équations (6.61), (6.64) et (6.65)), on a :   1 2 2 1 3/2  q = (2π) ρ( k) , π λ2 + k 2 π k2 où ρ(k) est la T.F. de ρ(x). Ainsi : ρ(k) =

  q k2 q λ2 = 1 − . 2 2 2 2 3/2 λ +k λ + k (2π)3/2 (2π)

En repassant à l’original grâce aux expressions (6.64) et (6.68),   λ2 e−λr ρ(x) = q δ(x) − . 4π r Exercice 7.12. Cherchons la solution g(x) de l’équation g + k 2 g = δ(x). Par transformation de Fourier, on a en désignant par G( q ) l’image de g(x) : 1 (q = |q|), (2π)3/2 1 1 G( q) = − . (2π)3/2 q 2 − k 2  1 2 e−λr = T.F. si λ > 0. r π λ2 + q 2

(k 2 − q 2 )G( q) =

Or,

Faisons tendre λ vers ±ik + ε où ε → 0+ . On a : g(x) = −

1 e±ikr . 4π r

Ainsi, la solution de l’équation : g(x, x  ) + k 2 g(x, x  ) = δ(x − x  ) 

s’écrit :

1 e±ik|x−x | . g(x, x ) = − 4π |x − x  | 

D’après (7.71), on a des solutions : ψ1± (x) = −

A 4π



V (r )eikx





e±ik|x−x | 3  d x . |x − x  |

380

Corrigés des exercices

La solution générale s’écrit : ψ(x) = eikx + ψ1± (x). Exercice 7.13. 1. En coordonnées sphériques, on établit facilement que : 

eikr eikr = −k 2 . r r

 le champ de vecteurs : 2. Désignons par A    −−→ eikr 1 eikr −−→  A= grad u − u grad . 4π r r D’après le théorème d’Ostrogradsky : 





 · n dS − A

 dV = div A V

S

Σ

  · R dσ. A R

Mais, d’après l’équation (1.12), et le résultat de la première question :  ikr   e 1 eikr  div A =  u−u  = 0. 4π r r     · n dS =  · R dσ = AR 4πR2 = C, A A Donc : R Σ

S

 sur C étant une constante indépendante de R, de AR la composante radiale de A la surface Σ et du point P. On a :  ikr   e du d eikr 4πAR = −u r dr dr r r=R du 2 + u = C. et si R → 0, 4πAR R → R dr Seule la solution u = C ne diverge pas au point P et vaut u(P). On a ainsi démontré que :   · n dS = u(P). A S

pour tout point à l’intérieur de la surface S.

381

Exercices du chapitre 8 Exercice 7.14.

On sait que la solution est de la forme : s(x, t) = f (x − V t) + g(x + V t). Pour t = 0, on a : df 1 dg − = ψ(x), f (x) + g(x) = ϕ(x) et dx dx V d’où : x x 1 1 1 1 f (x) = ϕ(x) − ψ(u) du et g(x) = ϕ(x) + ψ(u) du. 2 2V 2 2V 0

Finalement : 1 ϕ(x − V t) + ϕ(x + V t) + s(x, t) = 2 2V

0

x+V  t

ψ(u) du. x−V t

Exercices du chapitre 8 Exercice 8.1. 1. L’égalité

    a a (x) = F (x ) =⇒ ax + b = ax + b, b b   a est régulier pour a = 0. ce qui entraîne x = x pour a = 0. Donc F b       a a a 2. F F (x) = F (a x + b ) = a(a x + b ) + b, d’où b b b       aa a a . =F F F b b ab + b F

    a a et F commutent si ab + b = a b + b . b b     y−b a −1 a . Donc 4. Posons y = F (x) = ax + b ; on a x = F (y) = b b a     1/a −1 a F =F . b −b/a 3. F

  2       a a a a2 5. F =F F =F , b b b b(a + 1)     3 a3 a =F et F b(a2 + a + 1) b    n    n a an a n =F =F (n > 0), a = 1. F −1 b(an−1 + an−2 + · · · + a + 1) b aa−1 b

382

Corrigés des exercices

Si n < 0, il suffit de remplacer a par 1/a et b par −b/a, soit   −n  −n  a a −n F =F −1 . b b a a−1 Si a = 1,     2 1 1 (x) = x + 2b, F (x) = x + b, F b b   n     n 1 1 1 (x) = x + nb et F =F . F b nb b Exercice 8.2.

    1 d −b a+d 0 ; E Tr A = 0 a+d ad − bc −c a   d −b et E Tr A − A = , Det A = ad − bc. −c a On a A−1 =

Exercice 8.3. Il s’agit de montrer que Tr A2 =



|Aij |2 . En effet,

ij

 



Tr A2 = Aij Aji = Aij A∗ij = |Aij |2 . A2 ii = i

ij

ij

ij

Exercice 8.4. D’après l’équation (8.17), on a successivement : ⎛ ⎞   23 33 62 1 1 −54 −1287 ⎝ ⎠ Det A = Det 33 45 33 = Det = −815. −1287 −2556 81 81 × 23 62 33 56 Exercice 8.5.

 a X est nécessairement une matrice (2 × 2) que l’on écrit X = c        a b b a a b a + b = λa = λb =⇒ + =λ , d’où −c −d d c c d d − c = λc = −λd =⇒

  a a =λ , c −c    a a 0 ce qui implique soit λ = 2, c = 0, X = , soit λ = −2, a = 0, X = 0 0 c Donc



 b . On a alors : d a=b . c = −d

2a 2a −2c 2c



 0 . −c

383

Exercices du chapitre 8 Exercice 8.6. Dans la base propre de A, en désignant par λi les valeurs propres, on a : ,    , λi Det eA = e , e Tr A = e i λi = eλi . i

i

L’invariance de la trace et du déterminant dans la transformation unitaire qui diagonalise la matrice assure la validité de la relation. Exercice 8.7. Tr A = 1, Tr B = 0 et Tr C = ( Tr A)( √ Tr B) = 0. √ Les valeurs propres λa de A sont 1 et ± 2, celles √ λb de B sont ± 2. Les valeurs propres de C sont les produits λa λb soit λ = ± 2 qui sont simples et λ = ±2 qui sont doubles. Donc √ √

√ Tr etC = etλi = et 2 + e−t 2 + 2e2t + 2e−2t = 2 cosh(t 2) + 4 cosh(2t). i

Exercice 8.8. eAϕ = E + Aϕ + A2

ϕ2 ϕ3 ϕ4 ϕn + A3 + A4 + . . . + An + . . .. 2! 3! 4! n!

Mais A2 = E, donc     ϕ4 ϕ2n ϕ3 ϕ2n+1 ϕ2 + + ...+ + ... + A ϕ + + ...+ + ... eAϕ = E 1 + 2! 4! (2n)! 3! (2n + 1)! soit eAϕ = E cosh ϕ + A sinh ϕ =

  cosh ϕ sinh ϕ . sinh ϕ cosh ϕ

Exercice 8.9. 1. A2 = 3A, A3 = 3A2 = 9A, An = 3n−1 A. 3x ∞ ∞ n n n−1 2. B = exA = n=0 xn! An = E + n=1 x 3n! A = E + e 3−1 A. Les éléments de matrice de B sont Bij =

e3x −1 3

+ δij .

Exercice 8.10. A2 = 2A − E, A3 = 2A2 − A = 3A − 2E, A4 = 4A − 3E, . . ., An = nA − (n − 1)E. Exercice 8.11. 1. En utilisant l’équation (8.128), on a :     [B, An ] = B, An−1 A = B, An−1 A + An−1 [B, A] = =



   B, An−2 A2 + 2An−1 [B, A] = B, An−3 A3 + 3An−1 [B, A] = . . .

[B, A] An−1 + (n − 1)An−1 [B, A] = nAn−1 [B, A]

384

Corrigés des exercices



B, e−Ax



=



(−1)n

n=0

=

−x





xn xn (−1)n nAn−1 [B, A] [B, An ] = n! n! n=0

(−1)n−1

n=1

xn−1 An−1 [B, A] . (n − 1)!

Posons m = n − 1, 

2.



 xm m A [B, A] = −x e−Ax [B, A] . B, e−Ax = −x (−1)m m! m=0

(1)

    df = AeAx eBx + eAx BeBx = A + eAx Be−Ax eAx eBx = A + eAx Be−Ax f (x). dx Mais d’après (1), Be−Ax − e−Ax B = −x e−Ax [B, A] , soit

eAx Be−Ax − B = −x [B, A]

et

df = (A + B + x [A, B]) f (x). dx

(2)

3. f (x) est solution de l’équation différentielle (2) pour laquelle f (0) = 1. Comme A, B et [A, B] commutent, ils peuvent être considérés comme des grandeurs de l’algèbre ordinaire et df f x2 = (A + B + x [A, B]) dx, ln = (A + B) x + [A, B] f C 2 x2

et f (x) = e(A+B)x e 2 [A,B] car f (0) = 1. Il suffit alors de prendre x = 1 pour établir le théorème de Glauber : [A,B] eA eB = eA+B e 2 . Exercice 8.12. La matrice étant hermitique, on peut appliquer la formule (8.99). Les valeurs propres de A sont λ = 1, 0, −1 et les vecteurs propres normés associés sont respectivement ⎞ ⎛ √ ⎞ ⎛ ⎞ ⎛ 1/2 1/2 1/ 2 √ √ ⎝1/ 2⎠ , ⎝ 0 ⎠ , ⎝−1/ 2⎠ . √ 1/2 1/2 −1/ 2 On a :

⎛ ⎞ ⎞ 1/2 1/2     √ √ √ √ n A = ⎝1/ 2⎠ 1/2 1/ 2 1/2 + (−1) ⎝−1/ 2⎠ 1/2 −1/ 2 1/2 , 1/2 1/2 n



385

Exercices du chapitre 8 ⎛ 1 1 An = ⎝0 2 1 ⎛ 0 1 An = √ ⎝1 2 0

d’où

⎞ 1 0⎠ 1 ⎞ 1 0 0 1⎠ 1 0 0 2 0

pour n pair ;

pour n impair.

Exercice 8.13. 1. La transformation de similitude S −1 AS qui diagonalise A en A diagonalise aussi  −1 ˆ Donc Tr Aˆ = Tr A ˆ et Det Aˆ = Det A. ˆ donc Aˆ en A. A−1 en A ˆ est diagonale et a pour éléments La matrice A 1 , 1 1 ˆ A = λj = Det A = Det A, λi j λi λi ii #

$

1 d’où Tr Aˆ = ( Det A) . λi i   dλ   ˆ i ˆ = Tr AdA 2. Tr AdA = Det A i λi = d Det A = d ( Det A). En remplaçant A par λE − A dans la relation précédente et compte tenu des définitions de Q(λ) et P (λ), on a : Tr [ Comp (λE − A) d (λE − A)] = d [ Det (λE − A)] = dP (λ). Pour A fixe et λ variable, cette égalité devient Tr [Q(λ)dλ] = P  (λ)dλ et finalement, Tr Q(λ) = P  (λ).

(1)

3. D’après (8.47) et (8.50) et l’équation (1) ci-dessus, Tr Q (λ) =

n−1

λn−1−i Tr Bi =

i=0

n−1

(n − i)λn−1−i ki

i=0

et par identification des termes de même degré en λi , on obtient : Tr B0 = n Tr B1 = (n − 1)k1 Tr B2 = (n − 2)k2 Tr Bi = (n − i)ki Tr Bn−1 = kn−1 .

(2)

386

Corrigés des exercices

Compte tenu des expressions (8.52) des matrices Bi , on a successivement : Tr B1 = Tr A + nk1 Tr B2 = Tr (B1 A) + nk2 Tr Bi = Tr (Bi−1 A) + nki−1

(3)

Tr Bn−1 = Tr (Bn−2 A) + nkn−1 0 = Tr (Bn−1 A) + nkn . Finalement, d’après (2) et (3), k1 = − Tr A k2 = −

1 Tr (B1 A) 2

ki = −

1 Tr (Bi−1 A) i

kn = − ⎛

⎞ 4 5⎠, k1 9 ⎛ −16 k2 = −3, B2 = ⎝ 11 1

3 1 4. Si A = ⎝1 1 4 5

(4)

1 Tr (Bn−1 A). n



⎛ ⎞ ⎞ −10 1 4 −13 11 1 −12 5 ⎠, B1 A = ⎝ 11 14 −11⎠, = −13, B1 = ⎝ 1 4 5 −4 1 −11 5 ⎛ ⎞ ⎞ 11 1 −33 0 0 11 −11⎠, B2 A = ⎝ 0 −33 0 ⎠, k3 = 33. −11 2 0 0 −33

D’où l’équation caractéristique cherchée : λ3 − 13λ2 − 3λ + 33 = 0. Exercice 8.14. 1. On peut décomposer ce quadripôle en trois quadripôles en série (figure C.10) : On

Ie

Ve

I1 Z1 Q1

V1

Is

I2 Z2

V2

Vs

Z3

Q2

Q3

Figure C.10 – Décomposition d’un quadripôle en

a successivement : Pour Q1 , V1 = Ve , I1 = −Ve /Z1 + Ie , d’où Q1 =



1 −1/Z1

 .

 0 , 1

387

Exercices du chapitre 8 pour Q2 , V2 = V1 − Z2 I1 , I2 = I1 , d’où Q2 =

 1 0

pour Q3 , Vs = V2 , Is = −V2 /Z3 + I2 , d’où Q3 =



 −Z2 , 1

1 −1/Z3

 0 . 1

La matrice caractéristique Q est donnée par le produit Q3 Q2 Q1 soit ⎞ ⎛ Z2 −Z2 1+ ⎟ ⎜ Z1  Q=⎝  1 ⎠. 1 Z2 Z2 − + + 1 + Z3 Z1 Z3 Z1 Z3 2. Les valeurs propres de Q sont données par (8.60), soit : "   2    Z2 1 1 1 1 1 1 δ λ=1+ δ = Z22 + + + 4Z2 + ± . 2 Z1 Z3 2 Z1 Z3 Z1 Z3 On obtient l’impédance itérative à l’aide de (8.61) : 2 Z2 (Z1 − Z3 ) ∓ Z22 (Z1 + Z3 ) + 4Z1 Z2 Z3 (Z1 + Z3 ) . Zi = 2 (Z1 + Z2 + Z3 ) Exercice 8.15. D’après (8.84) et (8.85), en désignant par ex , ey , ez les vecteurs unitaires selon les axes x , y  , z  et par ez , eu les vecteurs unitaires selon les axes z, u, on a : ex · ez = sin θ sin ϕ, ey · ez = sin θ cos ϕ, ez · ez = cos θ, d’où

ex · eu = cos ϕ, ey · eu = − sin ϕ, ez · eu = 0,

ex · ez = 0 ey · ez = 0 ez · ez = 1

ωx = ψ˙ sin θ sin ϕ + θ˙ cos ϕ ωy = ψ˙ sin θ cos ϕ − θ˙ sin ϕ ωz = ψ˙ cos θ + ϕ˙

et T =

1 2 1 ˙2 2 I1 ψ sin θ + θ˙2 + I2 ψ˙ cos θ + ϕ˙ . 2 2

Exercice 8.16. 1. On a : ai+1 = T ai +Rbi+1 = (1−R)ai +Rbi+1 , bi = Rai +T bi+1 = Rai +(1−R)bi+1 , donc R 1 1 − 2R R ai + bi , ai+1 = ai + bi et 1−R 1−R 1−R 1−R        1 1 ai+1 1 − 2R R ai 1 − 2R R = , A= . bi+1 bi −R 1 −R 1 1−R 1−R bi+1 = −

388

Corrigés des exercices 2

2. L’équation caractéristique de A s’écrit (λ − 1) = 0. Ainsi d’après le théorème de 2 Cayley-Hamilton, (A − E) = 0.   R −1 1 3. B = A − E = et B 2 = 0. 1 − R −1 1 n Donc B n = 0 (n ≥ 2) et An = (E + B) = E + nB.     −1 1 1−t t 2p 4. A = E + 2pB = E + t = . −1 1 −t 1 + t     a2p 2p a0 =A Vu que b2p = 0, , d’où a2p = (1−t)a0 +tb0 , 0 = −ta0 +(1 + t) b0 . 0 b0 On trouve finalement : b0 t 1 a2p . = = et a0 1+t a0 1+t Exercice 8.17. 1. L’équation caractéristique de A s’écrit λ2 − 2λ cos x + 1 = 0 ; les valeurs propres sont λ = cos x ± i sin x = e±ix et les vecteurs propres normés associés     1 i 1 1 √ √ , . 2 1 i 2 2. La matrice S qui diagonalise A et son inverse S −1 sont donnés par     1 −i 1 i 1 1 −1 √ S= 2 , S = √ 1 i 2 1 −i et d’après (8.53), Ap = S



eipx 0

0

e−ipx



S −1 =

  cos px − sin px . sin px cos px

Exercice 8.18. L’équation caractéristique de A est λ2 − 25= 0 ; les  valeurs  propres sont λ = ±5 et les 1 1 3 1 vecteurs propres normés associés √ , √ . En appliquant (8.99), on a : 10 1 10 −3 √       √     1 3 √ 1 1 835 635 1 √ 3 3 1/3 √ √ , = 5 3 1 + −5 1 −3 = A 10 1 10 −3 10 6 3 5 −8 3 5 soit A1/3 = 5−2/3 A. Exercice 8.19. 1. Du fait que le centre de gravité reste fixe, m(x1 + x3 ) + M x2 = 0 et l’on en déduit que m(u1 + u3 ) + M u2 = 0, d’où m (1) u2 = − (u1 + u3 ). M

389

Exercices du chapitre 8

  L’énergie cinétique est donnée par T = 12 m u˙1 2 + u˙3 2 + 12 M u˙2 2 . En utilisant (1) on a encore  m  2 m2 2T = m 1 + u˙1 + u˙3 2 + 2 u˙1 u˙3 . (2) M M De même,     m2  2 m m m 2 +2 2 1+ u1 u3 . 2V = k 1 + 2 u1 + u3 + 4 M M M M 2. La forme quadratique (2) est du type (8.105) avec $ #   m m2 m 1+ M  M m . g= m2 m 1+ M M   2m Ses  valeurs propres sont m 1 + et m et les vecteurs propres normés associés M    1 1 1 1 √ et √ respectivement. Donc en posant : 2 1 2 −1 u1 = on obtient :

√1 2

(Q1 + Q2 ) ,

 2T = m 1 + 2V = k

u3 =

2m M

. 1+



√1 2

(Q1 − Q2 ) ,

(3)

2 2 Q˙ 1 + mQ˙ 2 .

 2m 2 M

/ Q21 + Q22 .

La transformation (3) diagonalise simultanément T et V . Les moments conjugués  ˙ ˙ P1 et P2 associés à Q1 et Q2 sont P1 = m 1 + 2m M Q1 , P2 = mQ2 . Les équations du mouvement sont alors :   et mQ¨2 + kQ2 = 0 . mQ¨1 + k 1 + 2m M Q1 = 0 -   k k Les fréquences propres sont ω1 = m 1 + 2m , ω = 2 M m. Q1 √ , 2

3. Si Q1 = 0, Q2 = 0, les déplacements sont u1 = u3 = est antisymétrique (figure C.11).

A

B

A

u1

u2

u3

m u2 = −2 M u1 ; la vibration

Figure C.11 – Vibration antisymétrique.

Si Q1 = 0, Q2 = 0, les déplacements sont u1 = −u3 = symétrique (figure C.12).

A u1

B

Q2 √ , 2

A u3

Figure C.12 – Vibration symétrique.

u2 = 0 ; la vibration est

390

Corrigés des exercices

Exercice 8.20. 1. Les coordonnées cartésiennes des deux masses sont : x1 = l cos θ1 ,

y1 = l sin θ1

. y2 = l sin θ1 + l sin θ2     L’énergie cinétique donnée par T = 12 m x˙1 2 + y˙1 2 + x˙2 2 + y˙2 2 s’écrit après substitution :   1 2 2 T = ml2 θ˙1 + θ˙2 + θ˙1 θ˙2 cos (θ2 − θ1 ) . (1) 2 x2 = l cos θ1 + l cos θ2 ,

2. L’énergie potentielle est donnée par : V = mgl [2 (1 − cos θ1 ) + mgl (1 − cos θ2 )] . 3. pour de petits angles, cos θ ∼ = 1 − θ2 /2 et l’on a en première approximation : 2   2 T = ml2 θ˙1 + 12 θ˙2 + θ˙1 θ˙2 , V = mgl θ12 + 12 θ22 . 4. Posons q1 =

(2)

√ √ 2mglθ1 , q2 = mglθ2 , les expressions (1) et (2) deviennent : 2T =

√ l 2 q˙1 + q˙2 2 + 2q˙1 q˙2 g 2V =

q12

+

q22 .

Pour diagonaliser T il faut diagonaliser la matrice ⎛ √ ⎞ 1/ 2 l ⎝ 1 ⎠ 1 1 g √ 2 dont les valeurs propres sont   1 l 1+ √ , g 2 et les vecteurs propres normés associés   1 1 √ , 2 1

l g

1 √ 2

  1 1− √ 2 

 1 , −1

respectivement. Donc en posant : 1 q1 = √ (Q1 + Q2 ) , 2 1 q2 = √ (Q1 − Q2 ) , 2

(3)

391

Exercices du chapitre 8 on obtient : 2T =

l g

     1 1 2 2 Q˙ 1 + 1 − √ Q˙ 2 . 1+ √ 2 2 2V = Q21 + Q22 .

Les équations du mouvement sont alors :     l l 1 1 Q¨1 + Q1 = 0, Q¨2 + Q2 = 0. 1+ √ 1− √ g g 2 2 Les fréquences propres sont 3 # 4 √ $ 4g 2 √ , ω1 = 5 l 2+1

3 # 4 √ $ 4g 2 √ ω2 = 5 . l 2−1

√ Si Q1 = 0, Q2 = 0, q1 = q2 et θ2 = 2θ√ 1. Si Q1 = 0, Q2 =  0, q1 = −q2 et θ2 = − 2θ1 . Exercice 8.21.

Dans une base orthonormée |i, on a : Tr (|xy|) = i y|ii|x ; en utilisant la rela tion de fermeture i |ii| = 1, on obtient : Tr (|xy|) = y|x. Exercice 8.22. On vérifie aisément que α est hermitique. Posons S = a|b = u + iv, u et v étant les parties réelle et imaginaire de S. Si |x est un vecteur propre de α pour la valeur propre λ, on doit avoir : |x = c1 |a + c2 |b et (|ab| + |ba|) (c1 |a + c2 |b) = λ (c1 |a + c2 |b) . On a donc :

c1 S ∗ + c2 = λc1 c1 + c2 S = λc2 .

Ce système admet des solutions non triviales avec c1 , c2 = 0, si le déterminant



S − λ 1

= 0,

1 S − λ soit λ2 − λ (S + S ∗ ) + SS ∗ − 1 = 0, ou encore λ2 − 2λu + u2 + v 2 − 1 = 0. √ Les valeurs propres sont donc λ± = u ± 1 − v 2 . En prenant c1 = 1, les vecteurs propres sont : √ √     |x1  = |a + iv + 1 − v 2 |b, |x2  = |a + iv − 1 − v 2 |b. Exercice 8.23. Tr En P =

n

j=1

# j|

m

i=1

$ |ii| |j =

ij

j|ii|j =

m

i=1

i|ii|i = m.

392

Corrigés des exercices

Exercice 8.24. 1. Si α|i = ai |i et β|i = bi |i, on a : αβ|i = αbi |i = bi α|i = bi ai |i;

βα|i = ai β|i = ai bi |i, n donc (αβ − βα) |i = 0. Or tout ket de En s’écrit |x = i=1 ci |i et il s’ensuit que (αβ − βα) |x = 0 pour tout |x et que αβ = βα. 2. Réciproquement si l’on a α|i = ai |i et αβ = βα, on a : αβ|i = βα|i = ai β|i. Ainsi β|i est vecteur propre de α pour la valeur propre ai qui est simple par hypothèse. Donc nécessairement β|i est proportionnel à |i, ce qui revient à dire que |i est vecteur propre de β pour une valeur propre bi soit β|i = bi |i. Exercice 8.25. Dans la base propre de α, on a : α|i = λi |i et par hypothèse, si |i et |j sont deux vecteurs propres de α, i|αβ + βα|j = 0, soit encore



i|α|kk|β|j + i|β|kk|α|j = 0, ou k



k

λk i|kk|β|j +

k



λj i|β|kk|j = 0, soit

k

(λi + λj ) i|β|j = 0. Si β = 0, il y a un élément i|β|j = 0 et on doit avoir λi + λj = 0, c’est-à-dire que α doit avoir au moins un couple de valeurs propres opposées. C’est le cas des matrices de Pauli (8.15) qui anti-commutent entre elles. Exercice 8.26. En utilisant la relation de fermeture(8.155), on a : +∞  ∞   ∗ k |k = k |xdxx|k = A A ei(k−k )x dx = δ(k  − k). 

−∞

Mais d’après (6.47),

−∞

+∞   ei(k−k )x dx = 2πδ(k  − k). −∞

2

Donc 2π|A| = 1, et l’on peut choisir A =

√1 , 2π

soit x|k =

√1 eikx . 2π

393

Exercices du chapitre 9

Exercices du chapitre 9 Exercice 9.1. 1. Le produit scalaire des deux vecteurs x et y s’écrit

xi yi , i

alors que les composantes du produit vectoriel de ces deux vecteurs sont, d’après l’équation (9.26) :

εijk xj yk . (x ∧ y )i = j,k

En utilisant la convention d’Einstein, on a : x · y = xi yi Δω =

2.

et

(x ∧ y)i = εijk xj yk .

∂ ∂ ω. ∂xi ∂xi

 ∧A  )i = εijk ∂ Ak . (∇ ∂xj (x ∧ y) · z = εijk zi xj yk = εjki xj yk zi = x · (y ∧ z ). 3. a) On a :  · (A 1 ∧ A 2) = ∇ = soit :

  ∂A1j ∂A2k ∂ (εijk A1j A2k ) = εijk A2k + A1j ∂xi ∂xi ∂xi ∂A1j ∂A2k A2k εkij − A1j εjik , ∂xi ∂xi

 · (A 1 ∧ A  2) = A  2 · (∇  ∧A 1) − A  1 · (∇  ∧A  2 ). ∇

 =∇  ∧ (ω A  ) ; alors, b) Posons X Xi = εijk

∂ ∂ω ∂Ak (ωAk ) = εijk Ak + ωεijk , ∂xj ∂xj ∂xj

ce qui démontre le résultat demandé.

394

Corrigés des exercices

Exercice 9.2. 1. Cherchons l’expression analytique de M en fonction des ui . D’après la figure C.13, si Hα est la projection orthogonale de Aα sur Δ, on a :

OHα = u · rα = xαi ui . x3



i

Δ dα

u

Donc :

x2

M=

et

x1

Vu que

M=



N



α=1 u2i =

N





α=1

Iij =

x2αi



#

$2 xαi ui

i

  δij x2αi − xαi xαj ui uj . i,j

1, on a encore :

i

Figure C.13 – Projection de rα sur Δ.

et

=

i

Aα (mα )

rα

O

d2α

N

# mα

δij

δij



i,j



α=1

#

$ x2αk

− xαi xαj

ui uj ,

k

$ x2αk

− xαi xαj

.

k

D’après le critère de tensorialité, M étant un nombre (invariant), les Iij sont les composantes d’un tenseur de rang 2 qui est visiblement symétrique. On a encore : ⎛ 2 ⎞ N xα2 + x2α3 −xα1 xα2 −xα1 xα3

Iij = mα ⎝ −xα1 xα2 x2α1 + x2α3 −xα2 xα3 ⎠ . α=1 −xα1 xα3 −xα2 xα3 x2α1 + x2α2 La généralisation à une distribution continue de masse ρ(x) n’offre aucune difficulté ; par exemple :  I11 = ρ(x)(x22 + x23 ) d3 x. 2. Le moment cinétique J du système est défini par : J =

N

rα ∧ pα ,

α=1

où  pα est la quantité de mouvement de la masse mα . Vu que pα = mr˙ α et r˙ α =  ω ∧ rα , on obtient :

x˙ αk = εklm ωl xαm , l,m

Ji =

N

α=1



j,k

εijk xαj x˙ αk =

N

α=1



j,k,l,m

εijk εklm xαj xαm ωl .

395

Exercices du chapitre 9 En remarquant que

εijk εklm = δil δjm − δim δjl

k

(car ce produit est non nul si i = j = k et k = l = m, ce qui conduit à seulement deux possibilités l = i, m = j où le produit vaut +1 et l = j, m = i où le produit vaut −1), on obtient : ⎛ ⎞ N



Ji = mα ⎝ ωi x2αj − ωj xαi xαj ⎠ α=1

Ji =

et

N



α=1



j

# δij

j



j

x2αk

$

− xαi xαj

ωj =



Iij ωj .

j

k

3. L’énergie cinétique a pour expression : T =

T =

soit :

N



1

mα εijk ωj xαk εilm ωl xαm . 2 α=1 i



Or

N N

1

1

mα r˙α2 = mα x˙ 2αi , 2 α=1 2 α=1 i

j,k

l,m

εijk εilm = δjl δkm − δjm δkl

i

et

N

1

mα (δjl δkm − δjm δkl ) ωj ωl xαk xαm 2 α=1 j,k,l,m ⎡ # $⎤ N



1 ⎣

= mα x2αk − xαj xαl ⎦ ωj ωl . δjl 2 α=1

T =

j,l

Finalement,

T =

k

1

1

Ijl ωj ωl = Jj ω j . 2 2 j j,l

Exercice 9.3. 1. On a : x1 = x = sin θ cos ϕ, x2 = y = sin θ sin ϕ, x3 = z = cos θ. Donc :    3 x1 + ix2 3 3 x1 − ix2 −1 1 0 √ √ x3 , , Y1 = . Y1 = − Y1 = 4π 4π 4π 2 2 Réciproquement :  4π Y1−1 − Y11 √ x1 = , 3 2

 x2 =

4π iY11 + Y1−1 √ i , 3 2

 x3 =

4π 0 Y . 3 1

396

Corrigés des exercices

2. On a :



15 (x1 + ix2 )2 ; = 32π  15 1 (x1 + ix2 )x3 ; Y2 = − 8π 



Y2−2

Y22

Y20 = d’où : Y2±2

=



Y2−1

15 (x1 − ix2 )2 ; 32π  15 (x1 − ix2 )x3 ; = 8π =

5 3x23 − 1 , 4π 2

15 S S (T S − T22 ± 2iT12 ) ; Y2±1 = ∓ 32π 11



15 S S (T ± iT23 ) ; Y20 = 8π 13



5 3 S T . 4π 2 33

Exercice 9.4. S sont : 1. Les 18 composantes indépendantes de Ti,jk

T111 , T112 = T121 , T113 = T131 , T122 , T123 = T132 , T133 , T211 , T212 = T221 , T213 = T231 , T222 , T223 = T232 , T233 , T311 , T312 = T321 , T313 = T331 , T322 , T323 = T332 , T333 . 2. Les 10 composantes indépendantes de Tijk sont : T111 , T222 , T333 , T123 = T132 = T213 = T231 = T312 = T321 , T112 = T121 = T211 , T113 = T131 = T311 , T221 = T212 = T122 , T223 = T232 = T322 , T331 = T313 = T133 , T332 = T323 = T233 . 3. a) Le produit d’une rotation de π autour d’un axe par une symétrie sur un plan perpendiculaire à cet axe, correspond à une inversion. On a donc : Tijk = −Tijk et toutes les composantes sont nulles. b) En faisant une rotation de π autour d’un axe j = i, on a Tiii = −Tiii = 0, alors qu’une rotation de π autour d’un axe i conduit à : Tiij = −Tiij = 0. Il ne reste donc qu’une composante indépendante non nulle : T123 .

Exercice 9.5. Dans une rotation d’espace la composante x0 = ct reste invariante et l’on a une matrice correspondante avec SI0 = S0I = δI0 . Ainsi les composantes Tij d’un tenseur antisymétrique de rang 2 deviennent :  = TIJ

3

SIi SJj Tij ,

i,j=0

soit :

 = TIJ

avec T00 = 0.

3

i,j=1

SIi SJj Tij +

3

j=1

SI0 SJj T0j +

3

i=1

SIi SJ0 Ti0 + SI0 SJ0 T00

397

Exercices du chapitre 9

 = TIJ

si I, J ≥ 1,

Donc :



SIi SJj Tij ,

i,j  = T0J

si I = 0 et J ≥ 1,

3

SJj T0j .

j=1

En résumé, les composantes Tij (i, j ≥ 1) se transforment comme celle d’un tenseur antisymétrique de rang 2 dans une rotation d’espace ; elles peuvent être considérées comme les composantes d’un vecteur axial dans l’espace à 3 dimensions E3 . Les 3 composantes non nulles T0i (i ≥ 1) se transforment comme les composantes d’un vecteur polaire dans E3 . Le tenseur Fik de l’électromagnétisme jouit de ces propriétés. Exercice 9.6. 1. Vu que : ⎛

⎞ 0 −1 0 0 ⎠, S4 = ⎝ 1 0 0 0 −1



C2x

on a visiblement : ⎛ ⎞ −1 0 0 S42 = ⎝ 0 −1 0 ⎠ = C2 ; 0 0 1

⎞ 1 0 0 = ⎝ 0 −1 0 ⎠ , 0 0 −1 ⎛

S4 C2x

0 1 =⎝ 1 0 0 0

⎞ 0 0 ⎠ = σd . 1

De même C2x C2 = C2y ; S42 C2x = C2y ; S4 C2y = σd . 2. Dans une transformation, représentée par la matrice S, qui laisse le cristal invariant, on doit avoir :

pI = SIi pi = pi . i

En choisissant pour S la matrice S4 , on obtient : p1 = −p2 = p1 ;

p2 = p1 = p2 ;

d’où  p = 0. 3. Pour un tenseur de rang 2, on doit avoir :  TIJ =

3

SIi SJj Tij = Tij ,

i,j=0

soit sous forme matricielle, T  = ST S T = T.

p3 = −p3 = p3 ,

398

Corrigés des exercices

Avec S = S4 , on obtient : ⎛ ⎞ ⎛ T11 T12 T13 T22 ⎝ T21 T22 T23 ⎠ = ⎝ −T12 T31 T32 T33 T32

⎞ T23 −T13 ⎠ , T33

−T21 T11 −T31

d’où : T11 = T22 ;

T12 = −T21 ;

T13 = T23 = T31 = T32 = 0.

Avec S = C2x , on obtient T12 = 0. En résumé, le tenseur Tij n’a que deux composantes indépendantes T11 = T22 et T33 . Il est donc symétrique. Dans ce groupe de symétrie un tenseur de rang 2 antisymétrique a toutes ses composantes nulles. 4. Le tenseur di,jk est symétrique dans l’échange des deux derniers indices. En effet :



di,jk ejk = di,jk ekj = di,kj ejk Pi = j,k

et



j,k

k,j

(di,jk − di,kj )ejk = 0

j,k

quel que soit le tenseur symétrique ejk . D’une manière générale di,jk se transforme comme xi xj xk . Dans la rotation S4 , (x1 , x2 , x3 ) devient (−x2 , x1 , −x3 ) et d1,11 d1,22 d2,11 d2,22 d3,11 d3,22

= −d2,22 , = −d2,11 , = d1,22 , = d1,11 , = −d3,22 , = −d3,11 ,

d1,12 d1,23 d2,12 d2,23 d3,12 d3,23

= d2,21 , = d2,13 , = −d1,21 , = −d1,13 , = d3,21 , = d3,13 ,

d1,13 d1,33 d2,13 d2,33 d3,13 d3,33

= −d2,23 , = −d2,33 , = d1,23 , = d1,33 , = −d3,23 , = −d3,33 ,

où les seuls termes non nuls sont les termes soulignés. Dans la rotation C2x , (x1 , x2 , x3 ) devient (x1 , −x2 , −x3 ) d’où : d1,13 = −d1,13 = 0 ;

d3,11 = −d3,11 = 0.

Il ne subsiste donc que deux coefficients indépendants et six termes non nuls : d1,23 = d1,32 = d2,13 = d2,31 ; Exercice 9.7. 1. Qij est symétrique car δij est symétrique.

d3,12 = d3,21 .

399

Exercices du chapitre 9 Partant de la définition de Oijk   N

1 Oijk = qα xα,i xα,j xα,k − rα2 (xα,i δjk + xα,j δik + xα,k δij − 2xα,i δij δjk ) , 3 α=1 en permutant les indices i et j, on a :   N

1 Ojik = qα xα,j xα,i xα,k − rα2 (xα,j δik + xα,i δjk + xα,k δji − 2xα,j δji δik ) . 3 α=1

Mais xα,i δij δjk = xα,j δji δik et on voit que Ojik = Oijk , ce qui établit la propriété de symétrie. 2. On a successivement :

%# 3 $ & N



1 Qii = qα (x2α,i − rα2 ) = qα x2α,i − rα2 = 0 ; 3 α=1 α=1 i=1 i=1 i=1  3 N 3 



1 Oijj = qα xα,i x2α,j − rα2 (xα,i + 2xα,j δij − 2xα,i δij ) , 3 α=1 j=1 j=1 3

3

j=1

3

N

Oijj =

N

qα (xα,i rα2 − rα2 xα,i ) = 0.

α=1

3. Le vecteur Di a 3 composantes indépendantes. Le tenseur Qij étant symétrique a 6 composantes différentes. La trace étant nulle, il ne reste que 5 composantes indépendantes en général. Le tenseur Oijk étant symétrique a 10 composantes distinctes (voir exercice 9.4). Les traces partielles étant nulles, il ne reste que 7 composantes indépendantes en général. 4. a) En considérant la rotation S4 pour le moment dipolaire, on obtient : D1 = −D2 = D1 ;

D2 = D1 = D2 ;

D3 = −D3 = D3 ,

d’où : D1 = D2 = D3 = 0. Pour le moment quadrupolaire la rotation S4 ⎛ ⎞ ⎛ Q11 Q12 Q13 Q22 ⎝ Q21 Q22 Q23 ⎠ = ⎝ −Q12 Q31 Q32 Q33 Q32

conduit à : −Q21 Q11 −Q31

⎞ Q23 −Q13 ⎠ , Q33

d’où : Qij = 0 si i = j et Q11 = Q22 . La rotation C3 conduit à : ⎛ ⎞ ⎛ 0 0 Q11 Q22 ⎝ 0 Q22 0 ⎠=⎝ 0 0 0 Q33 0

0 Q33 0

⎞ 0 0 ⎠, Q11

d’où : Q11 = Q22 = Q33 et la trace étant nulle on a Qij = 0.

400

Corrigés des exercices

b) Pour toute transformation S, on a :

 O123 = S1i S2j S3k Oijk . i,j,k

Dans tous les cas la sommation se réduit à un seul terme : pour S4 ,

 O123 = O213 = O123 ;

pour C3 , pour σd ,

 O123 = O231 = O123 ;  O123 = O213 = O123 .

O123 n’est donc pas nul par symétrie. On vérifie que c’est le seul élément non nul.

Exercice 9.8. Les composantes Tijk sont nulles si deux indices, au moins, sont égaux. De plus : Tijk = Tjki = Tkij = −Tikj = −Tjik = −Tkji . Il y a donc 4 composantes indépendantes : T123 , T412 , T341 , T234 que l’on note σ4 , σ3 , σ2 , σ1 respectivement. Dans une rotation d’espace, ces composantes se transforment de la manière suivante :

 TIJK = SIi SJj SKk Tijk , i,j,k

soit :  TIJK

=

[SI1 (SJ2 SK3 − SJ3 SK2 ) + SI2 (SJ3 SK1 − SJ1 SK3 )

+

+SI3 (SJ1 SK2 − SJ2 SK1 )] T123 [SI2 (SJ3 SK4 − SJ4 SK3 ) + SI3 (SJ4 SK2 − SJ2 SK4 )

+

+SI4 (SJ2 SK3 − SJ3 SK2 )] T234 [SI3 (SJ4 SK1 − SJ1 SK4 ) + SI4 (SJ1 SK3 − SJ3 SK1 )

+

+SI1 (SJ3 SK4 − SJ4 SK3 )] T341 [SI4 (SJ1 SK2 − SJ2 SK1 ) + SI1 (SJ2 SK4 − SJ4 SK2 ) +SI2 (SJ4 SK1 − SJ1 SK4 )] T412 .

Le premier terme entre crochets est le cofacteur S L4 de SL4 où (IJKL) est une permutation circulaire de (1234) ; les autres termes entre crochets sont les cofacteurs de S L1 , S L2 et S L3 .   = σL et l’on a : Par ailleurs, TIJK  σL =



S Ll σl .

l

Mais (S −1 )lL = SLl =

S Ll avec Δ = Det(S). Δ

401

Exercices du chapitre 9  σL =Δ

Finalement,



SLl σl .

l

Les quatre composantes indépendantes d’un tenseur antisymétrique de rang 3, dans l’espace à 4 dimensions, se transforment donc comme les composantes d’un pseudo vecteur à 4 dimensions. Ce résultat est identique à celui obtenu pour un tenseur antisymétrique de rang 2 dans E3 . Exercice 9.9. 1. Par définition, les composantes covariantes du tenseur métrique gij sont égales à :  1 si i = j gij = ei · ej = , λ si i =  j et ses composantes contravariantes à : ⎧ 1+λ ⎪ ⎪ si i = j ⎨ (1 − λ)(1 + 2λ) g ij = (g −1 )ij = . −λ ⎪ ⎪ ⎩ si i = j (1 − λ)(1 + 2λ) Le déterminant g du tenseur gij est donné par g = (1 − λ)2 (1 + 2λ). 2. On a avec la convention d’Einstein : u = uiei ,

v = v j ej ,

et

u ∧ v = ui v j ei ∧ ej ,

soit : u ∧ v = (u1 v 2 − u2 v 1 )(e1 ∧ e2 ) + (u2 v 3 − u3 v 2 )(e2 ∧ e3 ) + (u3 v 1 − u1 v 3 )(e3 ∧ e1 ). Par définition, les composantes covariantes de u ∧ v sont données par : (u ∧ v )i = ei · (u ∧ v ). Vu que e1 · (e2 ∧ e3 ) = on a :



g (cf. équation (9.54) avec ε = 1 car le trièdre est direct), √ √ (u ∧ v )1 = (u2 v 3 − u3 v 2 ) g = r1 g √ √ (u ∧ v )2 = (u3 v 1 − u1 v 3 ) g = r2 g √ √ (u ∧ v )3 = (u1 v 2 − u2 v 1 ) g = r3 g.

Les composantes covariantes ri sont celles d’un pseudo vecteur de type capacité vectorielle associé au tenseur antisymétrique de rang 2, T jk = uj v k − uk v j avec (i, j, k), permutation circulaire de (1, 2, 3).

402

Corrigés des exercices

3. Dans ce cas particulier, u1 = a, v 2 = b et la seule composante non nulle de u ∧ v est : √ (u ∧ v )3 = g ab. (1) √ (u ∧ v )i = g ij (u ∧ v )j = g i3 g ab.

Donc

4. La surface du triangle ABC est donnée par : 1

−→ −→

1 S = AB ∧ BC = |(v − u) ∧ (w  − v )| , 2 2 1 1 1 soit : S = |u ∧ v + v ∧ w  +w  ∧ u| = |P | = (P · P )1/2 . 2 2 2 Les composantes covariantes de P sont d’après (1) : √ √ √ P1 = g bc ; P2 = g ca ; P3 = g ab. P · P = P i Pi = g ij Pi Pj ,

Donc

P · P = g 11 (P12 + P22 + P32 ) + 2g 12 (P1 P2 + P2 P3 + P3 P1 ), P · P = (1 − λ2 )(a2 b2 + b2 c2 + c2 a2 ) − 2λ(1 − λ)abc(a + b + c).

soit :

Finalement on obtient : S=

1/2 1 (1 − λ2 )(a2 b2 + b2 c2 + c2 a2 ) − 2λ(1 − λ)abc(a + b + c) . 2

Exercices du chapitre 10 Exercice 10.1. On a : I = xPl |Pl−1 . D’après les équations (10.16) et (10.14), I=

2 2l l l Pl−1 |Pl−1  = = 2 . 2l + 1 2l + 1 2l − 1 4l − 1

Exercice 10.2. D’après (10.21), 1 I= 0

1 Pl (x)dx = 2l + 1

1



   Pl+1 (x) − Pl−1 (x) dx.

0

Du fait que Pl+1 (1) = Pl−1 (1) = 1, on a : I=

1 [Pl−1 (0) − Pl+1 (0)] , 2l + 1

403

Exercices du chapitre 10 soit d’après (10.12), I= d’où :

  1 (2m)! (2m + 2)! m+1 − (−1) , (−1)m 2m 4m + 3 2 (m!)2 22m+2 (m + 1)!2 (2m)! . I = (−1)m 2m+1 2 (m + 1)!m!

Exercice 10.3. La fonction f (x) = |x| étant paire, seuls les coefficients cl avec l = 2m (pair) interviennent dans un développement du type f (x) =



cl Pl (x).

l=0

On a d’après l’équation (10.14) :

c2m

4m + 1 = 2

1

1 |x|P2m (x)dx = (4m + 1)

−1

xP2m (x)dx. 0

En tenant compte de l’équation (10.16), 1 c2m = (2m + 1)

1 P2m+1 (x)dx + 2m

0

P2m−1 (x)dx. 0

D’après les résultats de l’exercice précédent, on a encore : (2m)! (2m − 2)! + 2m(−1)m−1 2m−1 + 1)!m! 2 m!(m − 1)!   (2m + 1)2m(2m − 1) (2m − 2)! = (−1)m 2m−1 − 2m 2 m!(m − 1)! 4(m + 1)m (2m − 2)!(4m + 1) c2m = (−1)m+1 2m . 2 (m − 1)!(m + 1)!

c2m = (2m + 1)(−1)m

et

22m+1 (m

Exercice 10.4. 1. Sur le domaine [−1, 1], on peut choisir P0 (x) = A0 , P1 (x) = A1 x. Puisque P1 est impair, P2 lui sera orthogonal s’il est pair : P2 (x) = A2 + B2 x2 . L’orthogonalité de P0 et P2 entraîne que B2 = −3A2 d’où : P2 (x) = A2 (1 − 3x2 ). Les coefficients A0 , A1 , A2 peuvent être déterminés en imposant une condition supplémentaire : polynômes de norme 1, valeur en x = 1 comme pour les polynômes de Legendre etc.

404

Corrigés des exercices

2. Sur le domaine [0, +∞] avec la fonction poids e−x , on peut choisir L0 (x) = A0 , L1 (x) = A1 + B1 x. L’orthogonalité de L0 et L1 s’écrit : ∞ L0 |L1  = 0 = A0

e−x (A1 + B1 x)dx = A0 (A1 + B1 ),

0

L1 (x) = A1 (1 − x).

d’où :

De même l’orthogonalité de L2 avec L0 et L1 conduit à : 1 L2 (x) = A2 (1 − 2x + x2 ). 2 En prenant Am = 1, on retrouve les polynômes de Laguerre. 3. Sur le domaine ] − ∞, +∞[ avec la fonction poids e−x h0 = A0 ,

h1 = A1 x,

2

/2

, on obtient de même :

h2 = A2 (1 − x2 ).

Exercice 10.5. 1. Partant de G(x, r) = (1 − 2xr + r2 )−1/2 , on a : d G(x, r) = (x − r)(1 − 2xr + r2 )−3/2 dr et 1 − r2 (1 − 2xr + r2 )3/2

d G(x, r) dr ∞ ∞ ∞



= Pl (x)rl + 2r Pl (x)lrl−1 = (2l + 1)Pl (x)rl . = G(x, r) + 2r

l=0

l=0

l=0

∞  1

I= (2m + 1)Pm (x)Pl (x)rm dx. 1 − r2 m=0 1

2.

−1

D’après la relation d’orthogonalité (10.14), I = 2rl /(1 − r2 ). Exercice 10.6. A partir de l’équation (10.46b), en posant cos θ = x, on a : " (2l + 1) (l − m)! imφ (1 − x2 )m/2 dl+m 2 Ylm (θ, φ) = (−1)m e (x − 1)l . 4π (l + m)! 2l l! dxl+m

405

Exercices du chapitre 10 Il est clair que si x → 1, seule la valeur m = 0 est = 0. Donc :  

2l + 1 1 dl 2 2l + 1 m l m . Yl (0, φ) = δm0 (x − 1) et Yl (0, φ) = δm0 4π 2l l! dxl 4π x=1 Exercice 10.7.

Les relations énoncées s’obtiennent simplement à partir de l’expression (10.46b) des harmoniques sphériques. Exercice 10.8. On a successivement : d d2 Hn = 2nHn−1 , Hn = 22 n(n − 1)Hn−2 dx dx2 n! dm Hn−m . et par récurrence : Hn = 2 m dxm (n − m)! Exercice 10.9. D’après la relation (10.66), on peut écrire : I = xHn |Hm  =

1 Hn+1 |Hm  + nHn−1 |Hm . 2

En utilisant la relation d’orthogonalité (10.62) des polynômes d’Hermite, on a : I=

√ 1 √ n+1 π2 (n + 1)! δm,n+1 + π2n−1 n! δm,n−1 . 2

Exercice 10.10. n+k

m! dk (n + k)! xm−k , L (x) = (−1)m n+k dxk (m!)2 (n + k − m)! (m − k)! m=k

soit, en posant s = m − k, n

dk (n + k)! k xs , L (x) = (−1) (−1)s n+k k dx (s + k)!(n − s)!s! s=0

et on trouve d’après (10.77) : dk Ln+k (x) = (−1)k Lkn (x). dxk Exercice 10.11. Dans le développement (10.78), seul le terme en x2 contribue à Ln (0). On a donc : Ln (0) =

n(n − 1) n! 2= . 4(n − 2)! 2

406

Corrigés des exercices

Exercice 10.12. D’après l’équation (10.2), on a : Lr |P  . Lr |Lr 

cr =

Mais l’expression (10.79) nous donne pour k = 0 : ∞

e−x Lm (x)Ln (x)dx = Lm |Ln  = δmn .

0

∞ cr = Lr |P  =

Donc :

e−x Lr (x)P (x)dx.

0

D’après ce qui précéde, on a : xk =

k

cr Lr (x)

r=0

∞ avec

cr = Lr |x  = k

e−x xk Lr (x) dx

I=

et

k

cr Lr |Ln .

r=0

0

Donc si k < n, I = 0 ; si k ≥ n, on a d’après l’équation (10.81) : 1 I= n!

∞ xk 0

dn n −x (x e )dx. dxn

Aprés n intégrations par parties successives, on obtient : n k(k

I = (−1)

soit :

− 1)...(k − n + 1) n!

(k!)2 I = (−1)n n!(k − n)!

∞

xk e−x dx,

0

(k ≥ n).

En particulier pour n = k, I = (−1)n n!. Exercice 10.13. On a Lkn (x) = x−λ ex/2 u(x). En substituant dans l’équation (10.88), on obtient aisément l’équation différentielle du second ordre à laquelle satisfait u(x). Notons que cette équation s’identifie à l’équation de Schrödinger permettant de déterminer les parties radiales des fonctions d’onde de l’atome d’hydrogène par un choix convenable des paramètres.

407

Exercices du chapitre 11

Exercices du chapitre 11 Exercice 11.1. Partant de y(x) = xα Zν (z) avec z = Kxβ , on a : y  = αxα−1 Zν + βxα−1 zZν , y  = α(α − 1)xα−2 Zν + βαxα−2 zZν + β(α − 1)xα−2 zZν + β 2 xα−2 zZν + β 2 xα−2 z 2 Zν et en remplaçant dans l’équation   1 − 2α  α2 − ν 2 β 2  β−1 2 y + (Kβx ) + y + y = 0, x x2 on obtient :     2α + β − 1 + 1 − 2α α(α − 1) + (1 − 2α)α α2 − ν 2 β 2 + 1 + = 0, Zν + Zν + Zν βz β2z2 β2z2   1 ν2 soit Zν + Zν + 1 − 2 Zν = 0, z z qui est l’équation de Bessel. Exercice 11.2. 1. J0 (x) obéit à l’équation xJ0 (x) + J0 (x) + xJ0 (x) = 0. La transformée de Laplace de cette équation s’écrit en désigant par F0 (p) l’image de J0 (x) :  d  2 d p F0 (p) − pJ0 (0) − J0 (0) + pF0 (p) − J0 (0) − F0 (p) = 0, − dp dp d soit pF0 (p) + (p2 + 1) F0 (p) = 0 dp 1 d d ln F0 (p) = − ln(p2 + 1), et dp 2 dp A . F0 (p) =  p2 + 1 A Pour déterminer la constante A, on fait tendre p vers +∞ : alors, F0 (p) ∼ = ; p ∞ F0 (p) = e−px J0 (x)dx. 0

Mais dans cette intégrale seules les valeurs de x  1 contribuent de manière significative si p  1 ; dans ces conditions J0 (x) ∼ = 1 et F0 (p) ∼ = 1/p, d’où A = 1 et finalement 1 . F0 (p) =  2 p +1

408

Corrigés des exercices

2. L’intégrale est un produit de convolution ; l’image de J0 ∗ J0 est donnée par la fonction F02 (p) = 1/(1 + p2 ), qui n’est autre que l’image de sin x avec x > 0, ce qui démontre le résultat demandé.

Exercice 11.3. En développant G(t) en puissances de t, on a :  exp



 r+s r+s r−s ∞ ∞ ∞

x 1 1 (xt/2)r (−x/2t)s x t (t − ) = = . (−1)s 2 t r! s! 2 r!s! r=0 s=0 r,s=0

Cherchons le coefficient de tn en supposant d’abord n ≥ 0. Pour une valeur de r fixée, s = r − n et le coefficient de tn est  2r−n 1 x2r−n . (−1)r−n 2 r!(r − n)! Le coefficient total de tn s’obtient en sommant sur toutes les valeurs de r, sachant que s ≥ 0, d’où son expression : ∞

(−1)

r=n

r−n

 2r−n ∞

1 x2r−n (x/2)2p+n = = Jn (x), (−1)p 2 r!(r − n)! p=0 p!(p + n)!

d’après l’équation (11.9). Si n < 0, le coefficient de tn pour une valeur fixée de r est identique au cas précédent mais la condition s = r − n > 0 est satisfaite pour toutes les valeurs de r et le coefficient total de tn devient :  2r−n ∞ ∞



1 x2r−n (x/2)2r−n r−n = (−1)n (−1) (−1)r 2 r!(r − n)! r!(r − n)! r=0 r=0 = (−1)n J−n (x) = Jn (x), d’après l’équation (11.15). La propriété est bien démontrée. Exercice 11.4. 1. En posant t = eiφ , on a : G(t) = exp Ainsi

6x 2

7 (eiφ − e−iφ ) = eix sin φ .

eix sin φ =

+∞

Jn (x)einφ

n=−∞

qui est le développement cherché du type

+∞

n=−∞

cn einφ .

409

Exercices du chapitre 11 2. D’après l’équation (6.16’), Jn (x) =

1 2π



e−inφ eix sin φ dφ.

−π

En égalant les parties réelles de cette équation, on a : 1 Jn (x) = π

π cos(nφ − x sin φ)dφ. 0

Exercice 11.5. L’intégrale est le produit de convolution de J0 par la fonction cosinus ; sa transformée de Laplace est donc (cf. exercice 11.2) : 1 p p  = . 2 (1 + p2 )3/2 1 + p2 1 + p Mais la transformée de Laplace de xJ0 (x) est −

d 1 p  = , dp 1 + p2 (1 + p2 )3/2

ce qui démontre le résultat demandé. Exercice 11.6. Etablissons d’abord le résultat pour n = 0 et n = 1. On sait que ∞ 0

1 e−px J0 (x)dx =  . 1 + p2

(Ré p > 0).

A la limite où p → 0, on obtient : ∞ J0 (x)dx = 1. 0

Nous savons d’après l’équation (11.21) que : d J0 (x) = −J1 (x). dx ∞



J1 (x)dx = − |J0 (x)|0 = 1,

Donc 0

car J0 (0) = 1 et J0 (∞) = 0.

410

Corrigés des exercices

Pour n ≥ 1, on part de l’équation (11.26) : Jn (x) =

1 [Jn−1 (x) − Jn+1 (x)] 2

que l’on intègre entre 0 et ∞. Du fait que Jn (0) = Jn (∞) = 0, on a : 1 0= 2

∞ [Jn−1 (x) − Jn+1 (x)] dx, 0

∞

∞ Jn−1 (x)dx =

soit 0

Jn+1 (x)dx. 0

En remplaçant n − 1 par N , l’égalité précédente s’écrit : ∞

∞ JN +2 (x)dx =

0

JN (x)dx

(N ≥ 0).

0

On établit ainsi que pour tout n entier ≥ 0, ∞ Jn (x)dx = 1. 0

Exercice 11.7. D’après la relation de récurrence (11.21) : ∞ 0

Jν+1 (x) dx = − xν

∞ 0

0

 d  −ν x Jν (x) dx = x−ν Jν (x)

. dx ∞

1 x ν 1 1 Si x → 0, Jν (x) → et x−ν Jν (x) → . ν! 2 ν! 2ν Si x → ∞ d’après le comportement asymptotique de Jν (x),  . / π 2 −ν −ν ∼ x Jν (x) = x cos x − (ν + 1/2) πx 2 qui tend vers 0 si ν > −1/2. Finalement l’intégrale cherchée vaut Exercice 11.8. On sait (cf. exercice 11.2) que ∞ 0

1 e−px J0 (x)dx =  . 1 + p2

1 1 . ν! 2ν

411

Exercices du chapitre 11 Remplaçons p par ik, avec k réel > 0.  √ Si k < 1, 1 + p2 devient 1 − k 2 ;  √ si k > 1, 1 + p2 devient i k 2 − 1. Donc :  (1 − k 2 )−1/2 I − iJ = −i(k 2 − 1)−1/2

(0 < k < 1) (k > 1).

En égalant les parties réelle et imaginaire : I = (1 − k 2 )−1/2 , J = 0 I = 0, J = (k 2 − 1)−1/2

(0 < k < 1) (k > 1).

Exercice 11.9. 1. On a d’après l’équation (11.9)) : ν/2

x



√ Jν (2 x) = (−1)r r=0

xν+r . r!(ν + r)!

Donc si F (p) est la transformée de Laplace de cette fonction, F (p) =



1 1 1 (−1)r = ν+1 e−1/p . ν+r+1 r! p p r=0

√ 1 T.L. J0 (2 x) = e−1/p . p

2.

On sait d’autre part que pour x > 0, 

donc

2 Ré F (p = ik), T.F. f (x) = π      1 i/k 1 2 21 Ré e sin . T.F. J0 (2 |x|) = = π ik πk k

Exercice 11.10. On a :

d Wν = Jν Yν − Yν Jν . dx

Mais Jν et Yν sont deux fonctions qui satisfont à l’équation de Bessel, donc :   1 ν2 Jν Yν + Yν + (1 − 2 )Yν = 0, x x   1 ν2 Yν Jν + Jν + (1 − 2 )Jν = 0, x x

412

Corrigés des exercices

soit par différence : d 1 Wν = − Wν dx x

dWν dx =− , Wν x

ou Wν =

donc :

A . x

Pour déterminer la constante A, on considère la limite où x → 0. D’après (11.13) et (11.51) :  ν 1 x ν (ν − 1)! 2 ∼ ∼ Jν (x) = et Yν (x) = − , ν! 2 π x 1 1 2ν ν! 1 xν−1 et Yν (x) ∼ , Jν (x) ∼ = ν = 2 (ν − 1)! π xν+1 2 2 , ce qui montre que A = . Donc : d’où Wν (x) ∼ = πx π Jν (x)Yν (x) − Jν (x)Yν (x) =

2 . πx

Exercice 11.11. On a par définition : d  l+1  x jl = dx



π d l+1/2 x Jl+1/2 2 dx

et d’après l’équation (11.20),

et

 d  l+1  π l+1/2 x jl = x Jl−1/2 dx 2 d  l+1  x jl = xl+1 jl−1 . dx

De même d’après l’équation (11.21),   d  −l  π d −l−1/2 π −l−1/2 Jl+1/2 = − Jl+3/2 x jl = x x dx 2 dx 2 d  −l  x jl = −x−l jl+1 . et dx

(1)

(2)

De (1) et (2) on déduit que : (l + 1)xl jl + xl+1 jl = xl+1 jl−1 , −lx−l−1 jl + x−l jl = −x−l jl+1 , d’où :

l+1 jl , x l jl = −jl+1 + jl . x

jl = jl−1 −

(3) (4)

413

Exercices du chapitre 11 Finalement en retranchant (4) de (3) on obtient : jl−1 + jl+1 =

2l + 1 jl , x

(5)

puis en multipliant (3) par l et (4) par l + 1 et en additionnant : (2l + 1)jl = ljl−1 − (l + 1)jl+1 .

(6)

Il est clair que les fonctions yl (x) obéissent aux mêmes relations (1) à (6) puisqu’elles sont reliées aux Yl+1/2 de la même manière que les jl aux Jl+1/2 et que les deux espèces de fonctions de Bessel jν et Yν satisfont aux mêmes relations de récurrence. Exercice 11.12. Le résultat est vrai pour l = 0 puisque j0 (x) = sin x/x. Admettons qu’il soit vrai pour une valeur de l = n fixée (n =  0) et montrons que le résultat reste valable pour l = n + 1. On a donc :  n   1 d sin x n n jn (x) = (−1) x . x dx x D’après la relation (2) de l’exercice 11.11, on a : jn+1 (x)

= = = =

d  −n  x jn dx   n   1 d sin x n d −n n n −x x (−1) x dx x dx x  n   sin x 1 d d (−1)n+1 xn dx x dx x  n+1   1 d sin x (−1)n+1 xn+1 , x dx x

−xn

ce qui démontre le résultat cherché qui est donc valable pour tout l entier positif. Exercice 11.13. ∞ Jn (x)dx = 1.

D’après l’exercice 11.6, 0

2n Jn = Jn−1 + Jn+1 , on a : x ∞ ∞ Jn (x) dx = [Jn−1 (x) + Jn+1 (x)]dx = 2, 2n x

En utilisant le relation (11.25),

0

0

∞ d’où : 0

1 Jn (x) dx = . x n

414

Corrigés des exercices

Exercice 11.14. Ecrivons que puisque −1 ≤ cos θ ≤ 1 eikz = eikr cos θ =



cl (kr)Pl (cos θ),

l=0

2l + 1 cl = 2

avec

1 eikru Pl (u)du, −1

où u = cos θ. Remplaçons Pl (u) par sa définition (équation (10.9)) : 2l + 1 cl = l+1 2 l!



1 eikru −1

 dl 2 l (u − 1) du; dul

en intégrant l fois par parties cette expression, nous avons : cl =

2l + 1 (ikr)l 2l+1 l!

1

eikru (1 − u2 )l du.

−1

Mais d’après la forme intégrale des fonctions Jν (équation (11.19)) : 1 1 Jl+1/2 (kr) = √ π l! Donc :



kr 2

l+1/2 1

eikru (1 − u2 )l du.

−1

 π cl = il (2l + 1) Jl+1/2 (kr) = il (2l + 1)jl (kr). 2kr

En définitive,

eikz =



il (2l + 1)jl (kr)Pl (cos θ).

l=0

Exercice 11.15. 1. Compte tenu de la symétrie cylindrique, on a en posant T /ρ = c2 : 1 ∂ ∂ 1 ∂2z r z = 2 2, r ∂r ∂r c ∂t d2 Z 1 dZ + k2 Z = 0 + dr2 r dr

soit : avec k = ω/c. 2. Posons ρ = kr ; nous avons :

d2 Z 1 dZ + Z = 0, + dρ2 ρ dρ dont la solution générale est : Z(ρ) = AJ0 (ρ) + BY0 (ρ).

415

Exercices du chapitre 11

3. Z(ρ) doit être finie en ρ = 0 d’où B = 0. Les bords de la membrane étant fixes, on doit avoir Z(kR) = 0, soit J0 (kR) = 0. Si ζ0,n désigne le n-ième zéro de J0 (x), on a : " T ζ0,n . ω = cζ0,n /R = kn R = ζ0,n ; ρ R Les solutions cherchées sont donc : An J0 (ζ0,n r/R) cos(ωn t − φn ). Le mode fondamental est ω = c ζ0,1 /R = 2, 40c/R.

Exercice 11.16. 1. On cherche des solutions du type Ψ(r, φ, z) cos(ωt − θ) et l’on obtient : ΔΨ + K 2 Ψ = 0

avec ω = cK.

En coordonnées cylindriques, vu l’expression du Laplacien : Δ=

1 ∂2 1 ∂ ∂ ∂2 ∂2 r + 2 2 + 2 = Δr,φ + 2 , r ∂r ∂r r ∂φ ∂z ∂z

où Δr,φ est le Laplacien dans le plan, on cherche Ψ sous la forme du produit Ψ(r, φ, z) = F (r, φ)Z(z), d’où l’on tire :

soit

(Δr,φ F )Z + F Z  + K 2 F Z = 0, Δr,φ F Z  + + K 2 = 0. F Z

Donc on a : Z  + kz2 Z = 0

(1)

Δr,φ F + k 2 F = 0,

(2)

K 2 = kz2 + k 2 .

(3)

et

avec

Compte tenu de la solution (11.69), de l’équation (2) ci dessus, Ψ s’écrit : Ψ(r, φ, z) = e±ikz z Zn (kr)einφ

(n entier).

La solution générale s’obtient en combinant linéairement ces solutions particulières.

416

Corrigés des exercices

2. Avec les conditions aux limites on a : Ψ = sin (kz z)Jn (kr) cos n(φ − φon ) avec kz a = nz π (nz entier > 0), Jn (kR) = 0, soit kR = ζn,q , où ζn,q est le q-ième zéro de Jn (x). Les pulsations propres sont donc : % & n π 2  ζ 2 1/2 z n,q ω=c + . a R Le mode fondamental correspond à n = 0, q = 1, soit ζ0,1 ∼ = 2, 40, et nz = 1, donc à   πz ζ0,1 r s = A sin J0 cos(ωt − θ) a R " 2 ζ0,1 π2 et ω=c + . a2 R2 Exercice 11.17. 1. On sait d’après l’équation (11.71), que la solution générale régulière à l’origine est : Ψ(r, θ, φ) = (kr)−1/2

l ∞



Alm Jl+1/2 (kr)Ylm (θ, φ).

l=0 m=−l

2. On doit avoir Jl+1/2 (ka) = 0. Si ζl+1/2,n désigne la n-ième zéro de Jl+1/2 (x), on a : ka = ζl+1/2,n et En =

2 2 ζ . 2ma2 l+1/2,n



2 sin x. πx Les zéros de J1/2 sont ceux de sin x d’où ζ1/2,1 = π, ζ1/2,2 = 2π, ζ1/2,3 = 3π. Donc en unités de 2 /(2ma2 ) :

3. Si l = 0, J1/2 (x) =

E1s = π 2 ∼ = 9, 87 ;

E2s = 4π 2 ∼ = 39, 48 ; 

Si l = 1,

J3/2 (x) =

2 πx



E3s = 9π 2 ∼ = 88, 82.

 sin x − cos x ; x

les zéros de J3/2 (x) correspondent à tan x = x. On a ζ3/2,1 ∼ = 4, 49 ; ζ3/2,2 ∼ = 7, 725 et E1p ∼ = 20, 16;

E2p ∼ = 59, 67.

417

Exercices du chapitre 12

Exercices du chapitre 12 Exercice 12.1. λ2 1 − cos λx est finie et le symbole P.P. n’est pas nécessaire. → x2 2 J(λ) est dérivable pour tout λ car   ∂ 1 − cos λx sin λx = ∂λ x2 x

Lorsque x → 0,

est une fonction continue par rapport aux variables λ et x. On sait que J  (λ) =

+∞ 

−∞

comme J(0) = 0,

sin λx dx = π signe (λ) ; x

J(λ) = πλ signe (λ) = π|λ|. +∞  1 − cos x dx = π. x2

En particulier

−∞

Exercice 12.2. Posons f (z) = 1/(z + iε) ; intégrons cette fonction sur le contour Γ, comprenant un demi-cercle C de rayon a centré en O et le segment [−a, a] sur l’axe réel, entourant le pôle z = −iε de f (z) (figure C.14).   −a y dz dz dx = + = 2iπR, On a : a −a O z + iε z + iε x + iε 

Γ





dz = z + iε

avec



C





C

C

a et R = 1. Donc −a

Γ

a

0

dz

= ln a + iϕ

= iπ z −π

−iε

C Figure C.14 – Contour d’intégration.

dx = −iπ. x + iε

Si a → 0, ceci montre qu’entre −a et a,

1 → −iπδ(x), donc x + iε

1 1 = P.P. − iπδ(x). x + iε x Exercice 12.3. On sait que Donc : 1 2iπ



1 1 = P.P. ∓ iπδ(x − x0 ). x − x0 ± iε x − x0 1 1 − x − x0 − iε x − x0 + iε

 =

ε 1 = δ(x − x0 ). π (x − x0 )2 + ε2

x

418

Corrigés des exercices

Exercice 12.4. En posant y = f (x), on a avec ε → 0+ , f (x 0 +ε)

+∞  δ[f (x)] dx = −∞

Or pour x = x0 , y = 0,

δ(y)

dy . f  (x)

f (x0 −ε)

1 dx =  . Donc : dy f (x0 ) +∞  δ[f (x)] dx = ± −∞

1 f  (x0 )

selon que f  (x0 ) > 0 ou < 0, ou +∞  δ[f (x)] dx = −∞

1 . |f  (x0 )|

Exercice 12.5. On a : 1 P.P.F (k) = √ P.P. 2π

+∞  e−ikx

−∞

1 dx. x(1 + x2 )

Si k > 0, l’intégration de 1 e−ikz f (z) = √ 2π z(1 + z 2 ) −r

y O

r −i

Figure C.15 – Contour d’intégration.

x

le long du contour indiqué sur la figure C.15, avec r → ∞, nous permet d’écrire : −2iπ 1 iπ = √ e−k , P.P.F (k) + √ (−i)(−2i) 2π 2π   π 1 − e−k . soit P.P.F (k) = −i 2

Si k < 0, l’intégration de f (z) sur le contour symétrique nous conduit à :   π P.P.F (k) = i 1 − ek . 2  π k 1 − e−|k| . Donc : P.P.F (k) = −i 2 |k|

419

Exercices du chapitre 12 Exercice 12.6.

Physiquement la partie imaginaire χ (ω) de la susceptibilité complexe doit tendre vers 0 lorsque ω tend vers l’infini car sinon l’absorption d’énergie par le système serait infinie. On vérifie mathématiquement qu’il en est bien ainsi : ∞ χ(ω) =

k(t)e−iωt dt = χ (ω) − iχ (ω),

0

où k(t) est la réponse à l’excitation δ(t), et 

∞

χ (ω) =

∞ k(t) sin ωt dt =

0

ω k(t) dt

0

t cos ω  t dω  .

0

Donc : 1 lim χ (ω) = ω→∞ 2 

∞

+∞  ∞ iω  t  k(t)t dt e dω = π δ(t)k(t)t dt = 0. −∞

0

0

Exercice 12.7. Si f (t) = δ(t), la réponse k(t) du système est telle que ˙ ak(t) + bk(t) = δ(t). Donc par transformation de Fourier, (a + iωb)Z(ω) = 1 1 Z(0) Z(ω) = = . a + iωb 1 + iωτ

et

D’après l’équation (12.17), on a : x(t) = Z(ω)f eiωt ; Exercice 12.8. On a : et

Z1 (ω) =

Z(0) ; 1 + ω2τ 2

Z2 (ω) =

 1 dI + I dt dt C dQ Q d2 Q + = V eiωt . L 2 +R dt dt C

V eiωt = RI + L

La réponse percussionnelle k(t) est telle que : Lk¨ + Rk˙ +

k = δ(t). C

Z(0)ωτ . 1 + ω2τ 2

420

Corrigés des exercices

L’impédance complexe Z(ω) est donnée par :   1 −ω 2 L + iωR + Z(ω) = 1, C Z(0)ω02 . soit : Z(ω) = 2 ω0 − ω 2 + 2iωΔω La réponse Q(t) à l’excitation V (t) est : Q(t) = Z(ω)V eiωt . On a aussi : Z1 (ω) =

Z(0)ω02 (ω02 − ω 2 ) ; (ω02 − ω 2 )2 + 4ω 2 (Δω)2

et

Z2 (ω) =

2Z(0)ωω02 Δω . (ω02 − ω 2 )2 + 4ω 2 (Δω)2

Annexes I. Unicité des solutions d’une équation différentielle du 1 ordre er

Nous partons de l’équation : y  = f (x, y),

(I.1)

et nous supposons que f (x, y) est développable en série de Taylor au voisinage de (x0 , y0 ) : y  = a00 + a10 (x − x0 ) + a01 (y − y0 ) + a20 (x − x0 )2 + a11 (x − x0 )(y − y0 ) +a02 (y − y0 )2 + . . . + amn (x − x0 )m (y − y0 )n + . . . En changeant de variables, on peut se ramener au cas où x0 = 0, y0 = 0. On a alors : y  = a00 + a10 x + a01 y + a20 x2 + a11 xy + a02 y 2 + . . . + amn xm y n + . . .

(I.2)

Supposons que la solution y = ϕ(x) existe ; sachant que pour x = 0, y = 0, y = C1 x + C2 x2 + . . . + Cn xn + . . .

(I.3)

Montrons que les Ck sont déterminés de manière unique et que la série (I.3) converge. On a : C1 + 2C2 x + . . . + nCn xn−1 + . . . = a00 + a10 x + a01 (C1 x + C2 x2 + . . .) + a20 x2 + a11 x(C1 x + C2 x2 + . . .) + a02 (C1 x + C2 x2 + . . .)2 + . . . En identifiant les termes de même ordre, on obtient : C1

=

2C2 = 3C3 = .. . = nCn

=

a00 a10 + a01 C1 a01 C2 + a20 + a11 C1 + a02 C12 polynôme en aij et Ck , avec i, j, k ≤ n − 1.

(I.4)

422

Annexes

Les relations (I.4) définissent bien C1 , C2 , . . ., Cn , . . . de manière unique. Pour établir la convergence du développement (I.3), dans un certain domaine de valeurs de x, considérons la fonction F (x, y) qui est une fonction majorante de f (x, y), ce qui signifie que pour −a ≤ x ≤ a et −b ≤ y ≤ b, |f (x, y)| ≤ F (x, y). Dans ces conditions, on peut écrire : F (x, y) = A00 + A10 x + A01 y + A20 x2 + A11 xy + A02 y 2 + . . . + Amn xm y n + . . . (I.5) avec Aij > 0 et |aij | < Aij . Soit y˜ la solution de l’équation y  = F (x, y), telle que pour x = 0, y˜ = 0. En développant y˜ en série : y˜ = C˜1 x + C˜2 x2 + . . . + C˜n xn + . . .

(I.6)

On obtient par analogie avec (I.4) : C˜1 = A00 ;

2C˜2 = A10 + A01 C˜1 ;

etc. . . .

avec |Ci | < C˜i . Donc, si y˜ converge, y donnée par (I.3) converge aussi. Prenons : F (x, y) =

M (1 − x/a)(1 − y/b)

avec M aussi grand que l’on veut. Si, dans un premier temps, on se limite à x et y ≥ 0, cette fonction est continue pour 0 ≤ x < a et 0 ≤ y < b. L’équation y  = F (x, y) s’intégre facilement et s’écrit encore : −2M/b 1 − x/a x y 2 2M a 1− ln 1 − + C, = b a & %b  x 2M a ln 1 − +C . y =b 1± b a 2(1 − y/b)(−y  /b) =

soit : d’où :

Pour la solution y˜, on doit avoir y = 0 pour x = 0, d’où C = 1 avec le signe négatif devant le radical : & %  x 2M a ln 1 − +1 . y˜ = b 1 − b a y˜ est continue tant que le terme sous le radical est = 0 ; le domaine de convergence est obtenu en exprimant que (2M a/b) ln(1 − x/a) + 1 = 0, soit ln(1 − x/a) = −(b/2M a), ou :    b x = a 1 − exp − = ρ. (I.7) 2M a On doit donc avoir x < ρ. Le même raisonnement effectué pour x < 0, y < 0, montre que x > (−ρ). En résumé, on a convergence de la série (I.6) pour |x| < ρ.

423

Annexe I

A fortiori, la série (I.3) converge dans ce domaine. Il suffit de prendre pour M le maximum de |f (x, y)| pour −a < x < a et −b < y < b pour obtenir un domaine de convergence et d’unicité donné par (I.7). En fait, le théorème du § 2.2.1 est moins restrictif que dans la démonstration précédente. Soulignons seulement l’importance de la continuité de ∂f /∂y dans le domaine D considéré. Si cette dérivée n’est pas bornée, il peut fort bien exister plusieurs solutions vérifiant (I.1) avec la condition y = y0 pour x = x0 . Prenons l’exemple simple de l’équation : √ y  = 2x y

(I.8)

√ avec la condition y = 0 pour x = 0 ; ∂f /∂y = x/ y → ∞ quand y → 0. Dans ce cas, l’équation (I.8) admet deux solutions vérifiant la condition initiale : y = 0 et y = x4 /4. On démontre en mathématiques que, plus généralement, l’unicité des solutions de l’équation (I.1) est donnée par la condition de Lipschitz. Si (x, y1 ) et (x, y2 ) sont deux points quelconques d’un certain domaine et K la borne supérieure de |∂f /∂y| dans ce domaine, on doit avoir : |f (x, y2 ) − f (x, y1 )| ≤ K|y2 − y1 |.

(I.9)

Par analogie à notre démonstration simplifiée de l’existence et de l’unicité des solutions de l’équation (I.1), si nous considérons un système d’équations diffèrentielles du 1er ordre : y  = f (x, y, z, t) ;

z  = g(x, y, z, t) ;

t = h(x, y, z, t),

(I.10)

en substituant des fonctions majorantes convenables aux seconds membres de ces équations, on peut montrer que, si les fonctions f , g, h sont des fonctions continues ainsi que leurs dérivées de x, y, z et t dans un certain domaine, il existe une solution unique du système (I.10) telle que, pour x = x0 , on ait y = y0 , z = z0 et t = t0 .

424

Annexes

II. Formule de Simpson d’intégration Soit à calculer : x1 f (x) dx.

I=

(II.1)

x0

Posons h = Δx = x1 − x0 , y0 = f (x0 ), y1/2 = f (x0 + h/2), y1 = f (x1 ) = f (x0 + h). Pour tout point x de l’intervalle d’intégration on peut écrire x = x0 + u, 0 ≤ u ≤ h et : h f (x0 + u) du.

I= 0

Développons f (x0 + u) en série de Taylor à partir du point x0 : f (x0 + u) = f (x0 ) + uf  (x0 ) +

u2  f (x0 ) + . . . 2

Nous nous limitons ici au 2e ordre, ce qui est suffisant si h est petit mais rien n’empêche de pousser le développement plus loin. On obtient donc, à cet ordre d’approximation, f (x0 + u) = A + Bu + Cu2 . En particulier : y0 = A ;

y1/2 = A + B

h2 h +C ; 2 4

y1 = A + Bh + Ch2 .

On détermine les constantes A, B et C à partir du système précédent, d’où : A = y0 ;

B=

1 (−3y0 + 4y1/2 − y1 ) ; h

C=

1 (2y0 − 4y1/2 + 2y1 ). h2

La valeur approchée de I est donc : h I=

(A + Bu + Cu2 ) du = Ah + B

0

soit :

I=

h3 h2 +C , 2 3

h (y0 + 4y1/2 + y1 ). 6

(II.2)

425

Annexe III

III. Les déterminants Les déterminants qui jouent un rôle essentiel dans la résolution des systèmes d’équations linéaires algébriques ou, comme nous l’avons vu au chapitre 2, dans la résolution des systèmes d’équations différentielles linéaires à coefficients constants, sont également indispensables dans le calcul matriciel développé au chapitre 8. Nous établissons ici leurs principales propriétés.

III.1. Définition Un déterminant d’ordre n est formé à partir d’un tableau possédant un nombre égal n de lignes et de colonnes et dont chaque élément Aij est une quantité réelle ou complexe apparaissant à la i-ème ligne et à la j-ème colonne. Il y a donc n2 éléments dans ce tableau. On l’écrit sous la forme :

A11 A12 · · · A1n

A21 A22 · · · A2n

(III.1) Det A = . .. .

.. .

An1 An2 · · · Ann Sa valeur s’obtient de la manière suivante. On forme les n! produits obtenus en prenant un élément et un seul dans chaque ligne et dans chaque colonne. On arrange chaque produit de sorte que les premiers indices soient dans leur ordre naturel 1, 2, . . . , n. On peut alors séparer ces produits en deux catégories : les produits pairs ou impairs pour lesquels il faut un nombre pair ou impair de permutations binaires sur les éléments pour amener les deuxièmes indices dans leur ordre naturel. Par exemple le produit A12 A23 A31 est pair car il faut deux permutations binaires pour passer de 231 à 123, alors que le produit A12 A21 A13 est impair car il suffit d’une permutation binaire pour passer de 213 à 123. Notons que chaque catégorie comprend un nombre égal n!/2 de produits. On affecte alors un signe plus aux produits pairs et un signe moins aux produits impairs et l’on effectue la somme algébrique des n! produits ; cette somme est par définition la valeur du déterminant. On a donc :

n Det A = (−1) p A1p1 A2p2 . . . Anpn (III.2) P

où la sommation s’effectue sur les n! permutations P (p1 , p2 , . . . , pn ) et où nP est le nombre de permutations binaires nécessaire pour restaurer l’ordre naturel 1, 2, . . . , n. On voit donc que (−1)np est la parité de la permutation P . Exemples :

A Det A =

11 A21

A12

= A11 A22 − A12 A21 A22

(III.3)

426

Annexes

Det A =

A11

A21

A31

A12 A22 A32

A13

A23

A33 (III.4)

=

A11 A22 A33 − A11 A23 A32 + A12 A23 A31 −A12 A21 A33 + A13 A21 A32 − A13 A22 A31 .

III.2. Propriétés élémentaires La valeur d’un déterminant Det A s’annule lorsque : a) Tous les éléments d’une ligne ou d’une colonne sont nuls (propriété évidente) ; b) Tous les éléments d’une ligne (ou d’une colonne) sont multiples des éléments correspondants d’une autre ligne (ou d’une autre colonne). En effet, supposons que dans (III.1) les éléments des deux premières lignes soient tels que, c étant un nombre, on ait A2pi = cA1pi avec pi = 1, 2, . . . , n. Les différents produits intervenant dans (III.2) peuvent se regrouper deux par deux sous la forme n (−1) P (A1p1 A2p2 A3p3 . . . Anpn − A1p2 A2p1 A3p3 . . . Anpn ) nP

= c (−1)

(A1p1 A1p2 A3p3 . . . Anpn − A1p2 A1p1 A3p3 . . . Anpn ) = 0.

Il en résulte que la valeur d’un déterminant reste inchangée si un nombre arbitraire de lignes ou de colonnes est ajouté à l’une des lignes ou l’une des colonnes respectivement. On peut donc remplacer les éléments Aij de la i-ème ligne par n c A , c étant des nombres fixés avec ci = 1. Cette propriété facilite souk k=1 k kj vent le calcul d’un déterminant dans la mesure où l’on peut faire apparaître un certain nombre de zéros sur une ligne ou une colonne. c) On vérifie facilement que la valeur d’un déterminant reste inchangée si l’on permute les lignes et les colonnes, c’est-à-dire si l’on effectue une symétrie par rapport à la diagonale principale. Donc pour un déterminant B tel que Bij = Aji , on a Det B = Det A. d) La valeur d’un déterminant change de signe si l’on échange deux lignes ou deux colonnes. En effet considérons Det B où B1pi = A2pi , B2pi = A1pi , Bkpi = Akpi (k = 3, . . . , n), ce qui revient à permuter les deux premières lignes de Det A. On a alors :

(−1)nP A2p1 A1p2 A3p3 . . . Anpn Det B = P

n = (−1) P  A1p2 A2p1 A3p3 . . . Anpn P 

n = − (−1) P A1p1 A2p2 A3p3 . . . Anpn =

P

− Det A

car toute permutation P  (p2 , p1 , . . . , pn ) a une parité opposée à celle de P (p1 , p2 , . . . , pn ).

427

Annexe III

e) On vérifie aisément que si chaque élément dans une ligne ou une colonne est une somme (ou une différence) de deux quantités, le déterminant correspondant peut être écrit comme la somme (ou la différence) de deux déterminants du même ordre. Par exemple pour un déterminant d’ordre 2,





A11 ± B11 A12 ± B12 A11 A12 B11 B12

=

±

.

A21 A22 A21 A22 A21 A22 f) Si tous les éléments d’une ligne ou d’une colonne sont multipliés par un facteur constant, la valeur du déterminant est multipliée par ce même facteur.

III.3. Mineurs et cofacteurs Le mineur d’un élément Aij est le déterminant d’ordre n − 1 obtenu en omettant la i-ème ligne et la j-ème colonne dans lesquelles se trouve cet élément. On le désigne par M ij . Le cofacteur Aij de l’élément Aij est par définition (−1)i+j fois son mineur. On a i+j donc : Aij = (−1) M ij . Nous allons établir les relations importantes suivantes : Det A =

n

Aik Aik =

k=1

Det A =

n

k=1

n

Aik (−1)i+k M ik

(III.5)

Aki (−1)i+k M ki .

(III.6)

k=1

Aki Aki =

n

k=1

Les expressions (III.5) et (III.6) représentent les développements de Det A selon la ligne i et la colonne i respectivement. Démonstration : Partons de l’expression (III.2) de Det A et groupons les termes en par P  les permutations des n − 1 indices p2 , p3 . . . , pn , facteur de A11 ; en désignant nP  nous obtenons A11 P  (−1) A2p2 A3p3 . . . Anpn = A11 M 11 = A11 A11 . Groupons ensuite les termes en facteur de Aij ; pour cela on échange successivement la i-ème ligne avec les i − 1 lignes qui la précèdent, ce qui revient à multiplier le déterminant par (−1)i−1 , puis on échange la j-ème colonne avec les j − 1 colonnes qui la précèdent , ce qui revient à multiplier le déterminant par (−1)j−1 . Finalement on obtient un déterminant Det A = (−1)i+j Det A dont le terme A11 A11 n’est autre que (−1)i+j Aij M ij = Aij Aij . En regroupant dans (III.2) tous les termes en facteur des éléments de la i-ème ligne ou de la i-ème colonne, on obtient immédiatement les expressions (III.5) et (III.6). A titre d’exemple le développement (III.5) est utilisé ci-dessous pour calculer un déterminant d’ordre 3 :





A11 A12 A13





A21 A22 A23 = A11 A22 A23 − A12 A21 A23 + A13 A21 A22

A32 A33

A31 A33

A31 A32

A31 A32 A33 et l’on retrouve le résultat donné par (III.4).

428

Annexes

Nous développons dans le chapitre 8 une méthode de calcul des déterminants d’ordre plus élevé qui est beaucoup plus rapide que celle des cofacteurs présentée ici. Notons la propriété suivante des déterminants : n

jk

Aik A

=

k=1

n

Aki Akj = 0 si i = j ;

(III.7)

k=1

en effet, ces sommes représentent respectivement les développements de Det A lorsque les i-ème et j-ème lignes (respectivement i-ème et j-ème colonnes) de A sont identiques, ce qui entraîne la nullité du déterminant.

III.4. Multiplication des déterminants Si Det A et Det B sont deux déterminants de même ordre n, d’éléments Aik et Bkj respectivement, le produit de ces déterminants est un déterminant, Det C, de même ordre dont les éléments sont donnés par (III.8) : Det A Det B = Det C

;

Cij =

n

Aik Bkj .

(III.8)

k=1

Commençons par vérifier cette propriété pour des déterminants d’ordre 2 : D’après (III.8) et la propriété e) de la section III.2, on a :

A11 B11 + A12 B21 A11 B12 + A12 B22

Det C = A21 B11 + A22 B21 A21 B12 + A22 B22

A B =

11 11 A21 B11

A11 B12



A12 B21 + A21 B12 A22 B21

A11 B12



A11 B11 + A21 B12 A21 B11

A12 B22



A12 B21 + A22 B22 A22 B21

A12 B22

A22 B22

= A12 A21 B12 B21 − A11 A22 B12 B21 + A11 A22 B11 B22 − A12 A21 B11 B22 = (A11 A22 − A12 A21 ) (B11 B22 − B12 B21 ) = Det A Det B. Pour les déterminants d’ordre n quelconque, on démontre (III.8) de la manière suivante. Par analogie avec (III.2), on a :

(−1)nP C1p1 C2p2 . . . Cnpn Det C = P

où nP est le nombre de permutations binaires permettant de restaurer l’ordre naturel à partir de la permutation P (p1 , p2 , . . . , pn ). D’après la deuxième expression (III.8) on a : Det C =

(−1)nP P

n

k1 ,k2 ,...,kn =1

A1k1 Bk1 p1 A2k2 Bk2 p2 . . . Ankn Bkn pn .

429

Annexe III

Dans l’expression ci-dessus seuls les termes où les ki sont tous différents contribuent à la somme. En effet, supposons par exemple que k1 = k2 = 1 ; on a des couples de deux termes (−1)nP A11 B1p1 A21 B1p2 A3k3 Bk3 p3 . . . Ankn Bkn pn +(−1)nP  A11 B1p2 A21 B1p1 A3k3 Bk3 p3 . . . Ankn Bkn pn où nP  est le nombre de permutations binaires dans P  (p2 , p1 , . . . , pn ). Mais P  a une parité opposée à P puisque l’on a interverti les indices p1 et p2 ; ainsi chaque couple s’annule. Donc :



Det C = A1k1 A2k2 . . . Ankn (−1)nP Bk1 p1 Bk2 p2 . . . Bkn pn K

P

où K(k1 , k2 , . . . , kn ) est une permutation permettant de passer de l’ordre k1 , k2 , . . . , kn à l’ordre naturel 1, 2, . . . , n avec nK permutations binaires. Mais :



(−1)nP Bk1 p1 Bk2 p2 . . . Bkn pn = (−1)nP B1q1 B2q2 . . . Bnqn P

Q

où Q(q1 , q2 , . . . , qn ) est la permutation en laquelle se transforme P dans la permutation K. Ainsi nQ = nP + nK et en remplaçant nP par nQ − nK dans l’expression ci-dessus, on obtient



Det C = (−1)nK A1k1 A2k2 . . . Ankn (−1)nQ B1q1 B2q2 . . . Bnqn , K

soit Det C = Det A Det B.

Q

430

Annexes

IV. Tableau de transformées de Laplace f (x)

1 (Ré α > −1) x−1/2



eαx xeαx xν eαx

(Ré ν > −1)

sin ax cos ax sinh ax cosh ax eαx sin ax eαx cos ax

1 − cos ax ax − sin ax sin ax − ax cos ax sin ax + ax cos ax x sin ax

F (p)

Domaine d’analycité

1/p α+1 α!/p  π/p

Ré p > 0 Ré p > 0 Ré p > 0

(p − α)−1 (p − α)−2 ν! (p − α)ν+1

Ré p > Ré α Ré p > Ré α

a + a2 p 2 p + a2 a p 2 − a2 p p 2 − a2 a (p − α)2 + a2 p−α (p − α)2 + a2 p2

a2 + a2 ) a3 p2 (p2 + a2 ) 2a3 (p2 + a2 )2 2ap2 2 (p + a2 )2 2ap (p2 + a2 )2 p(p2

Ré p > Ré α

Ré p > |Im a| Ré p > |Im a| Ré p > |Ré a| Ré p > |Ré a| Ré p > Ré α + |Im a| Ré p > Ré α + |Im a|

Ré p > |Im a| Ré p > |Im a| Ré p > |Im a| Ré p > |Im a| Ré p > |Im a|

431

Annexe IV

f (x)

F (p)

(sin ax cosh ax−

Domaine d’analycité

4a3 p4 + 4a4 2a2 p p4 + 4a4 2a3 p 4 − a4 2a2 p 4 p − a4

cos ax sinh ax) sin ax sinh ax sinh ax − sin ax cosh ax − cos ax

Ré p > |Ré a| + |Im a| Ré p > |Ré a| + |Im a| Ré p > Sup [|Ré a|, |Im a|] Ré p > Sup [|Ré a|, |Im a|]

1 −ap e p −ap e

tout p du plan complexe

 1  bx √ e − eax 3 2 πx

√ √ p−a− p−b

Ré p > Sup [Ré a, Ré b]

xν−1 sinh ax

(ν − 1)! × 2

H(x − a)

(a ≥ 0)

δ(x − a)

(a ≥ 0)

%

(Ré ν > −1)

1 1 − ν (p − a) (p + a)ν

xν−1 cosh ax

(ν − 1)! × 2

%

(Ré ν > 0)

1 1 + ν (p − a) (p + a)ν

√ xν/2 Jν (2 ax)

aν/2 −a/p e pν+1

(Ré ν > −1) √ sin(2 ax) √ x−1/2 cos(2 ax) √ sinh(2 ax) √ x−1/2 cosh(2 ax)

√ πa −a/p e 3/2 p√ π −a/p e 1/2 p√ πa a/p e 3/2 p√ π a/p e p1/2

Ré p > 0

& Ré p > |Ré a|

& Ré p > |Ré a|

Ré p > 0

Ré p > 0 Ré p > 0 Ré p > 0 Ré p > 0

432

Annexes

f (x)

F (p)

1/2 −(a/4x)

(Ré a ≥ 0)

x−1/2 e−(a/4x)

(Ré a ≥ 0)

x−3/2 e−(a/4x)

(Ré a ≥ 0)

x

e

√ π  √  √ 1 + ap e− ap 2p3/2 √ π −√ap e 1/2 p π −√ap e 2 a

 1  bx e − eax (a, b réels) x 1 (1 − cos ax) x 1 (1 − cosh ax) x

p−a p−b 1 p 2 + a2 ln 2 p2 2 1 p − a2 ln 2 p2

1 sin ax x x sin u du Si x = u 0 ∞ cos u du Ci x = − u

a p 1 1 arctg p p

ln

arctg



1 ln(1 + p2 ) 2p

Domaine d’analycité

Ré p > 0 Ré p > 0 Ré p ≥ 0

Ré p > Sup [a, b] Ré p > |Im a| Ré p > |Ré a|

Ré p > |Im a| Ré p > 0 Ré p > 0

x

%

Jν (ax)

(Ré ν > −1)

xJν (ax)

(Ré ν > −2)

1 Jν (ax) x xν Jν (ax) xν+1 Jν (ax)

(Ré ν > 0) (Ré ν > −1/2) (Ré ν > −1)

&ν a 1   2 2 2 p+ p +a p + a2 % &ν  p + ν p 2 + a2 a  (p2 + a2 )3/2 p + p%2 + a2 &ν a 1  ν p + p 2 + a2 aν 2ν √ (ν − 1/2)! 2 π (p + a2 )ν+1/2 ν+1 paν 2 √ (ν + 1/2)! 2 π (p + a2 )ν+3/2

Ré p > |Im a| Ré p > |Im a| Ré p > |Im a| Ré p > |Im a| Ré p > |Im a|

433

Annexe IV

f (x)

F (p)

Domaine d’analycité

√ ν/2 (x/a) Jν (2 ax) (Ré ν > −1)

p−ν−1 e−a/p

Ré p > |Im a|

%

Iν (ax)

(Ré ν > −1)

xν Iν (ax)

(Ré ν > −1/2)

Iν (ax) xν+1

(Ré ν > −1)

2

 f (x) =

1 0

Ré p > |Ré a| Ré p > |Im a|

(Ré ν > 0)

(Ré a > 0)

√ √ 2 2a − 2 πa3/2 p ep a erfc(p a)

(|arg a| < π/2)

1 p2 a2 /4 e erfc(pa/2) p

Ré p > 0

si 0 < a < x < b autrement

 1  −ap e − e−bp p

Ré p > 0

1 tanh(ap/2) p

Ré p > 0

1 p(epa − 1)

Ré p > 0

/4a

erf (x/a)

Ré p > |Ré a|

% &ν 1 a  ν p + p 2 − a2

1 Iν (ax) x

xe−x

&ν a 1   2 2 2 p+ p −a p − a2 ν aν 2 √ (ν − 1/2)! 2 π (p − a2 )ν+1/2 paν 2ν+1 √ (ν + 1/2)! 2 π (p − a2 )ν+3/2

Ré p > |Ré a|

tout p du plan complexe



+1 si 0 < x < a −1 si a < x < 2a ∞

f (x) = Φ(x − 2na)

Φ(x) =

n=0

f (x) = n si na ≤ x ≤ (n + 1)a (n = 0, 1, 2, . . .)

| sin(πx/a)|

πa coth(ap/2) + π2

a2 p 2

Ré p > 0

434

Annexes

f (x)

F (p)

Domaine d’analycité



Φ(x) =

sin(πx/a) si 0 ≤ x ≤ a 0 si a ≤ x ≤ 2a ∞

f (x) = Φ(x − 2na) n=0

Φ(x) = x/a si 0 ≤ x < a ∞

f (x) = Φ(x − na) n=0

πa 1 2 + π 1 − e−pa

a2 p 2

Ré p > 0

1 1 − 2 pa ap p(e − 1)

Ré p > 0

1 tanh(ap/2) p2 a

Ré p > 0



x/a si 0 ≤ x ≤ a 2 − x/a si a ≤ x ≤ 2a ∞

f (x) = Φ(x − 2na)

Φ(x) =

n=0

Bibliographie Ouvrages généraux – A. Angot, Compléments de mathématiques (Editions de la Revue d’Optique, Paris, 1965). – N. Piskounov, Calcul différentiel et intégral (Editions Mir, Moscou, 1980). – J. Bass, Cours de mathématiques (Masson, Paris, 1978). – Y. Ayant, M. Borg, Fonctions spéciales (Dunod, Paris, 1971).

Analyse vectorielle – Y. Noirot, J.P. Parisot, N. Brouillet, Mathématiques pour la physique (Dunod, Paris, 1997).

Equations différentielles – J.P. Demailly, Analyse numérique et équations différentielles (Presses universitaires de Grenoble, 1991).

Fonctions d’une variable complexe – M. Lavrentiev, B. Chabat, Méthodes de la théorie des fonctions d’une variable complexe (Editions Mir, Moscou, 1977).

Transformation de Laplace – M.R. Spiegel, Transformées de Laplace (McGraw-Hill, Paris, 1980). – M. Denis-Papin, A. Kaufmann, Cours de calcul opérationnel (Albin Michel, Paris, 1950).

436

Bibliographie

Transformation de Fourier – D.C. Champeney, Fourier Transforms and their Physical Applications (Academic Press, Londres, 1973).

Matrices – A. Angot, Compléments de mathématiques (Editions de la revue d’Optique, Paris, 1965). – J. Bass, Cours de Mathématiques, tome 1 (Masson, Paris, 1977). – H. Margenau, G.M. Murphy, The mathematics of physics and chemistry (Van Nostrand, Londres, 1968). – A. Messiah, Mécanique quantique (Dunod, Paris, 1959). – J.M. Souriau, Calcul linéaire, réédition Jacques Gabay (Presses universitaires de France, Paris, 1992).

Tenseurs – A. Lichnerowicz, Eléments de calcul tensoriel (Armand Colin, Paris, 1946). – L. Brillouin, Les tenseurs en mécanique et en élasticité (Masson, Paris, 1987). – J.F. Nye, Propriétés physiques des cristaux (Dunod, Paris, 1961). – L. Landau, E. Lifchitz, Théorie des champs (Editions Mir, Moscou, 1989). – A. Delachet, Le calcul tensoriel (Collection Que sais-je, PUF, Paris, 1969).

Polynômes orthogonaux et fonctions de Bessel – W.W. Bell, Special Functions for Scientists and Engineers (Van Nostrand, Londres, 1968).

Tables – M. Abramowitz, I.A. Stegun, Handbook of Mathematical Functions (Dover Publications, New York, 1970). – I.S. Gradshteyn, I.M. Ryzhik, Table of Integrals, Series and Products (Academic Press, Londres, 1980).

Index A absorption, 334, 336

B base changement de, 212, 232 de Rn , 209 propre d’une matrice hermitique, 218 propre d’un opérateur hermitique, 230 Bernouilli équation de, 31 Bessel équation de, 297 fonction de, 297 comportement asymptotique, 314 de deuxième espèce, 301 de première espèce, 298 d’indice demi-entier, 306 d’indice entier, 304 fonction génératrice, 323 forme intégrale, 302, 311 modifiée, 307 relations de récurrence, 303 sphérique, 315, 325 bra, 226

C calcul opérationnel, 123 capacité scalaire, 260 vectorielle, 260 Cauchy formule de, 80 théorème de, 76, 77 Cauchy-Riemann relations de, 67 Cayley-Hamilton théorème de, 203

champ, 8 électrostatique, 19 gravitationnel, 18 Laplacien, 9 Newtonien, 8 scalaire, 1 vectoriel, 1 chirale molécule, 254 circulation, 9 coefficient de diffusion, 172 commutateur, 229 de deux opérateurs, 229 conditions de Dirichlet, 141 continuité, 66 équation de, 5 contraction d’un tenseur, 257 contravariance, 255 convention d’Einstein, 256 convergence cercle de, 79 uniforme, 79 coordonnées cylindriques, 20, 177 sphériques, 3, 176 cordes vibrantes, 166 correspondances opératoires, 126, 152 cosinus intégral, 137 coupure, 72, 73 covariance, 255 critère de tensorialité, 246

D d’Alembert théorème de, 83 densité scalaire, 260 vectorielle, 260 déterminant(s), 425 calcul des, 192 cofacteur d’un, 427

438 définition, 425 mineur d’un, 427 multiplication des, 428 développement asymptotique de la fonction d’erreur, 117 diagonalisation d’une forme bilinéaire, 218 d’une forme quadratique, 221 d’une matrice, 201 diffusion à trois dimension, 175 à une dimension, 173 de la chaleur, 172 Dirac algèbre de, 225 fonction de, 132, 156, 328 peigne de, 161 Dirichlet conditions de, 141 dispersion, 335, 336 divergence, 2, 4 double pendule, 241

E échelon unité, 95 Einstein convention d’, 256 équation aux dérivées partielles, 163 aux différentielles totales, 31 caractéristique d’une matrice, 200 de Bernouilli, 31 de Bessel, 297 de continuité, 5 de diffusion, 172 de Laplace, 19, 67, 176, 281 de Legendre, 274 de Maxwell, 263 de Poisson, 19, 178 de propagation, 164, 169 de Schrödinger, 289, 326 des cordes vibrantes, 166 différentielle, 23 à variables séparables, 27 à variables séparées, 26 d’ordre supérieur à 1, 36 du 1er ordre, 24, 26

Index du 2e ordre, 25, 37 homogène, 27, 28 linéaire du 1er ordre, 29 linéaire homogène, 38, 42, 43 linéaire non homogène, 39, 44, 46 unicité des solutions, 24, 421 espace vectoriel, 185, 225 à une infinité de dimensions, 235 complexe, 216 réel, 209 Euler angles d’, 216, 239

F facteur intégrant, 33 fermeture, 231 relation de, 231, 235 Fick loi de, 172 flux, 12 fonction analytique, 66, 68 bêta, 107, 109 de Bessel, 297 comportement asymptotique, 314 de deuxième espèce, 301 de première espèce, 298 d’indice demi-entier, 306 d’indice entier, 304 fonction génératrice, 323 forme intégrale, 302, 311 modifiée, 307 relations de récurrence, 303 sphérique, 315, 325 de Dirac, 132, 156, 159, 328 de Green, 178, 179 de Hankel, 307 de Heaviside, 95, 124 de Legendre associée, 277 orthogonalité, 278 relations de récurrence, 279 de Lorentz, 154 de matrice hermitique, 219 d’erreur, 116, 138 développement asymptotique, 117

439

Index de Weber-Hermite, 288 d’onde, 242 d’opérateur hermitique, 232 d’une matrice diagonalisable, 205 d’une variable complexe, 65 factorielle, 108, 112–114 gamma, 108, 109 gaussienne, 155, 174, 377 génératrice, 271 des fonctions de Bessel, 323 harmonique, 67 holomorphe, 70 Iν , 307 Kν , 307 multiforme, 70, 96 uniformisation, 72 uniforme, 66 forme quadratique, 221 formule de Cauchy, 80 de Green, 16, 21 des compléments, 111, 113 de Simpson, 56, 424 de Stirling, 114, 115 Fourier intégrale de, 149 loi de, 172 série de, 141, 143, 144, 146 transformation de, 154 inverse, 154 transformée de, 150, 153, 156 inverse, 150

G Gauss théorème de, 18, 19 Glauber théorème de, 238 gradient, 1, 2 Green fonction de, 178, 179 formule de, 16, 21 groupes ponctuels, 254

H Hankel fonction de, 307

harmoniques sphériques, 280 théorème d’addition, 285 Heaviside fonction de, 95, 124 Hermite polynôme d’, 286 relations de récurrence, 288

I image de Laplace, 123 de l’exponentielle, 125 des fonctions trigonométriques, 125 d’un monôme, 124 impédance itérative, 208 intégrale curviligne, 9, 74 définie réelle, 91 de Fourier, 149 de Poisson, 180 de surface, 11 de volume, 13 d’une fonction analytique, 74 eulérienne de 1ère espèce, 108 de 2e espèce, 108 générale, 26 particulière, 26 singulière, 34 intégration approchée, 54 inversion, 245, 253

K ket, 225 Kramers–Kronig relations de, 327, 329 Kronecker symbole de, 244 tenseur de, 257

L Laguerre polynôme de, 290 généralisé, 290 orthogonalité des, 291

440 relations de récurrence, 291 lames à faces parallèles, 239 Laplace équation de, 19, 67, 176, 281 image de, 123 de l’exponentielle, 125 des fonctions trigonométriques, 125 original de, 123 transformation de, 123 transformée de, 123, 129, 153, 430 laplacien, 2, 7 Laurent série de, 85 Legendre équation de, 274 fonction de associée, 277 orthogonalité, 278 relations de récurrence, 279 polynôme de, 271 fonction génératrice, 294 orthogonalité, 273 relations de récurrence, 275 ligne de champ, 102, 103 équipotentielle, 102, 103 Liouville théorème de, 83 loi de Fick, 172 de Fourier, 172 Lorentz fonction de, 154 transformation de, 261

M matrice(s) addition de, 187 adjointe, 191, 196 antihermitique, 196 antisymétrique, 191, 196 complémentaire, 194, 196 complexe conjuguée, 191, 196 définition, 186 diagonale, 190 équivalentes, 198

Index hermitique, 192, 196, 217 imaginaire pure, 196 inverse, 194, 196 multiplication des, 188 nulle, 190 orthogonale, 192, 196 réelle, 196 singulière, 187, 194 symétrique, 191, 196 trace d’une, 189 transposée, 191, 196 unitaire, 192, 196, 220 unité, 190 Maxwell équations de, 263 méthode des résidus, 88 métrique, 258 modes normaux de vibration, 224, 240 moment cinétique, 251, 294 d’inertie, 265 dipolaire, 267, 334 octupolaire, 267 quadrupolaire, 267

O onde plane, 169, 242, 325 sphérique, 169, 325 stationnaire dans le plan, 321 en symétrie sphérique, 322 opérateur(s) adjoint, 228 différentiels, 1 hermitique, 228, 230 inverse, 185, 229 linéaire, 185, 228 produit d’, 184 régulier, 184 somme d’, 184 unitaire, 229 unité, 184 original de Laplace, 123 orthogonalisation de Schmidt, 210 orthogonalité des polynômes de Legendre, 273

441

Index oscillateur couplé, 224 harmonique, 134, 289 Ostrogradsky théorème d’, 16

P Parseval théorème de, 371 partie principale d’une fonction, 329 d’une intégrale, 327 peigne de Dirac, 161 petits mouvements, 222 piézoélectrique, 267 point critique algébrique, 71, 85 logarithmique, 71, 85 de branchement, 71, 85 singulier, 70, 85 essentiel, 85 Poisson équation de, 19, 178 intégrale de, 180 pôles, 85 polynôme d’Hermite, 286 relations de récurrence, 288 de Laguerre, 290 généralisé, 290 orthogonalité des, 291 relations de récurrence, 291 de Legendre, 271 fonction génératrice, 294 orthogonalité, 273 relations de récurrence, 275 orthogonaux, 269 relations de récurrence, 270 potentiel de Yukawa, 158 électrostatique, 19 scalaire, 8 vecteur, 9 principe de symétrie, 253 produit de convolution, 128, 152, 157

direct ou tensoriel, 233 de deux bras, 233 de deux kets, 233 de matrice, 190 d’opérateurs, 234 ket bra, 231 mixte, 252 scalaire, 209, 247, 256 hermitique, 216, 226 vectoriel, 251, 252 projecteur, 231 prolongement analytique, 84 pseudo scalaire, 252 vecteur, 251 puissance fractionnaire d’une matrice, 205

Q quadripôles électriques, 206 quadrivecteur, 261 densité de courant, 262 énergie impulsion, 262 potentiel, 262

R rang, 187 relations de Cauchy-Riemann, 67 Kramers–Kronig, 327, 329 récurrence des fonctions de Bessel, 303 de Bessel modifiées, 309 de Legendre, 279 récurrence des polynômes de Laguerre, 291 de Legendre, 275 d’Hermite, 288 orthogonaux, 270 relativité, 261 réponse linéaire, 332 représentation d’un opérateur linéaire, 211 résidus méthode des, 88 relatifs aux pôles, 89

442 théorème des, 88 rotation dans l’espace, 214 plane, 213 rotationnel, 2, 6 Runge et Kutta, 56

S scalaire, 246 Schrödinger équation de, 289, 326 série de Fourier, 141, 143, 144, 146 de Laurent, 85 de Taylor, 55, 81 entière dans le domaine complexe, 78 Simpson formule de, 56, 424 sinus intégral, 137 solution(s) d’équations différentielles générale, 26 linéairement indépendantes, 39 particulière, 26 singulière, 34 sous-matrice(s), 189 Stirling formule de, 114, 115 Stokes théorème de, 13, 14 susceptibilité électrique, 248, 334 magnétique, 248, 334 non linéaire, 266 symbole de Kronecker, 244 systèmes d’équations linéaires, 50, 196 orthogonaux du plan, 101

T Taylor série de, 55, 81 tenseur, 243 antisymétrique, 252, 260 de rang 2, 250, 251 axes principaux d’un, 247

Index contraction d’un, 257 de contraintes, 250 de déformation, 248, 249 définition, 244 de Kronecker, 257 de rang 2, 247 de rang 3, 251 d’inertie, 248, 265 électromagnétique contravariant, 263 covariant, 262 en coordonnées cartésiennes, 244 non cartésiennes, 255 en relativité, 261 Euclidien, 245 métrique, 258 piézoélectrique, 252 règles de sélection des, 253 symétrique, 248 de rang 2, 247 tensorialité critère de, 246 théorème de d’Alembert, 83 de Cauchy, 76, 77 de Cayley-Hamilton, 203 de Gauss, 18, 19 de Glauber, 238 de Liouville, 83 de Parseval, 371 des résidus, 88 de Stokes, 13, 14 d’Ostrogradsky, 16, 17 du déplacement, 126 train d’ondes, 151 transformation canonique, 198 conforme, 98 congruente, 198 conjonctive, 198 de Fourier, 154 inverse, 154 de Laplace, 123 de Lorentz, 261 de similitude, 198 orthogonale, 211

443

Index réelle, 198 unitaire, 198 transformée de Fourier, 150, 153, 156 inverse, 150 de Laplace, 123, 129, 153, 430

droit, 225 gauche, 225, 226 polaire, 247 propre d’un opérateur, 230 d’une matrice, 199, 200

U

W

uniformisation des fonctions multiformes, 72

Weber-Hermite fonction de, 288 Wronskien, 39

V valeur propre d’une matrice, 199, 200 d’un opérateur, 230 variable complexe, 65 variation des constantes, 45 vecteur axial, 251

Y Yukawa potentiel de, 158

Z zéros des fonctions analytiques, 83