Probabilités et statistique pour ingénieurs [3 ed.] 2765051887, 9782765051886

Cet ouvrage prpare le futur ingnieur ou scientifique des situations lies aux phnomnes alatoires qu'il est susceptib

449 59 93MB

French Pages 544 [553] Year 2018

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

Probabilités et statistique pour ingénieurs [3 ed.]
 2765051887, 9782765051886

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

pour ingénieurs 3eédition WILLIAM W. HINES School of Industrial and Systems Engineering Georgia Institute of Technology

DOUGLAS C. MONTGOMERY Department of Industrial Engineering Arizona State University

DAVID M. GOLDSMAN School of Industrial and Systems Engineering Georgia Institute of Technology

CONNIE M. BORROR Department of Industrial Engineering Arizona State University

Adaptation française Emmanuelle Reny-Noiin Département de mathématiques et de statistique Université Laval

Révision scientifique Luc Adjengue Département de mathématiques et de génie industriel École Polytechnique de Montréal

CHENELIÈRE EDUCATION

* » fl

e manuel est une adaptation de Probability and Statistics in Engineering, Fourth Edition de Hines, Montgomery, Goldsman et Borror. Il s’adresse aux étudiants inscrits à un programme de baccalauréat en génie ou en sciences qui doivent suivre un premier cours de probabilités et de statistique. La première partie de cet ouvrage est une solide introduction à l’étude des probabilités, suffisante pour étudier les principales méthodes statistiques qui cons­ tituent la deuxième partie.

C

première partie est composée variables aléatoire, et le chapitre 3 porte sur les distributions conjointes. Les chapitres 4 et 5 traitent respectivement des lois de probabilité discrètes et des lois de probabilité continues, et le cha­ pitre 6 étudie la loi normale. La seconde partie comporte les sept chapitres subséquents. L’étude de la statistique débute au chapitre 7 avec la statistique descriptive. Les distributions échantillonnais sont analysées au chapitre 8, l’estimation de paramètres au chapitre 9, les tests d’hypothèses au chapitre 10, puis l’analyse de la variance et les plans d’expériences au chapitre 11. Enfin, la régression linéaire simple et la régression linéaire multiple sont respectivement les sujets des chapitres 12 et 13. Chaque chapitre se termine par un résumé des formules importantes ainsi qu’une série d’exercices remaniés, dont les réponses se trouvent en fin de volume. Nous tenons à souligner d’une façon toute particulière le travail de Luc Adjengue (École Polytechnique de Montréal), qui a réalisé la révision scientifique de cet ouvrage. Nous sou­ haitons également remercier les consultants Sofiane Ayad (École de technologie supérieure), Mounira Groiez (École de technologie supérieure) et Nadir Hakem (Université du Québec en Abitibi-Témiscamingue) pour leurs remarques avisées. Les auteurs de l’édition originale, William W. Hines, Douglas C. Montgomery, David M. Goldsman et Connie M. Borror, tiennent à remercier les personnes suivantes pour leur aide : Christos Alexopoulos (Georgia Institute of Technology), Michael Caramanis (Université de Boston), David R. Clark (Université de Kettering), J.N. Hool (Université d’Auburn), John S. Ramberg (Université d’Arizona) et Edward J. Williams (Université du Michigan - Dearborn). Leurs commentaires ont été d’une aide précieuse. Bien sûr, les auteurs remercient leurs familles pour la patience et le soutien inconditionnels dont elles ont fait preuve tout au long de ce projet. Un pictogramme renvoie à du matériel en ligne. Rendez-vous au www.cheneliere.ca/hines-montgomery. Vous y trouverez des jeux de données pour résoudre certains exercices, des démonstrations supplémen­ taires ainsi qu’un complément au chapitre 11.

Chapitre 1 Une introduction aux probabilités...................... 1.1

1.2 1.3 1.4 1.5

1.6 1.7

Un retour sur les ensem bles........................................................... 1.1.1 Les sous-ensem bles............................................................. 1.1.2 Les opérations sur les ensem bles........................................ Les expériences aléatoires et les espaces échantillonnaux.......... Les événements............................................................................... Les probabilités et leur déterm ination............................................ 1.4.1 L'estimation d'une probabilité fondéesur la pratique............ Les espaces échantillonnaux finis et leur dénombrement............. 1.5.1 Les diagrammes en arbre...................................................... 1.5.2 Le principe de multiplication.................... 1.5.3 Les permutations................................................................... 1.5.4 Les combinaisons................................................................... 1.5.5 Les permutations d'objets semblables................................. Les probabilités conditionnelles...................................................... Les partitions, les probabilités totales et le théorème de Bayes . . R ésum é........................................................................................... Exercices.........................................................................................

1 2 3 4 6 9 10 11 16 16 17 18 19 23 23 30 33 34

Chapitre 2 Les variables aléatoires à une dimension . . 4-2. 2.1 Les fonctions de répartition............................................................ 44 2.2 Les variables aléatoires discrètes.................................................... 47 2.3 Les variables aléatoires continues.................................................. 50 2.4 Quelques caractéristiques des distributions................................. 53 2 .4.1 L'espérance m athém atique.................................................. 53 2 .4.2 La variance et l'é ca rt-typ e.................................................... 55 2 .4.3 Les moments d'une distribution .......................................... 57 2.5 Les fonctions d'une variable aléatoire............................................ 58 2 .5.1 Les événements équivalents................................................ 58 2 .5.2 Les fonctions discrètes d'une variable aléatoire................... 60 2 .5.3 Les fonctions continues d'une variable aléatoire continue. . 63 2 .5.4 L'espérance mathématique d'une fonction de X ................. 65 R ésum é............................................................ 70 Exercices......................................................................................... 71 Chapitre 3 Les distributions de probabilité conjointes............... 78 3.1 Les vecteurs aléatoires de dimension .......................................... 3.2 La distribution conjointe de deux variables aléatoires................... 3.3 Les distributions marginales............................................................. 3.4 Les distributions conditionnelles.................................................... 3.5 L'indépendance de variables aléatoires..........................................

78 79 84 89 95

TABLE DES MATIÈRES

3.6 3.7

La covariance et la corrélation....................................................... 97 Les combinaisons linéaires............................................................... 100 Résum é...........................................................................................103 Exercices.........................................................................................104

Chapitre 4 Quelques lois de probabilité discrètes.....................

110

4.1 Les épreuves et la loi de Bernoulli................................................. 110 4.2 La loi binomiale............................................................................... 112 4.3 La loi géométrique......................................................................... 115 4.4 La loi de Pascal........................................................................... 119 4.5 La loi hypergéométrique................................................ . 120 4.6 La loi de Poisson............................................................................. 123 4.7 Quelques approximations............................................................... 126 Résum é........................................................................................ 127 Exercices.........................................................................................129

Chapitre 5 Quelques lois de probabilité continues . . . . 134 5.1 5.2 5.3 5.4

La loi uniforme continue................................................................... 134 La loi exponentielle........................................................................... 137 La loi gam m a................................................................................... 142 La loi de Weibull............................................................................... 145 Résum é.......................................................................................... 148 Exercices.........................................................................................149

Chapitre 6 La loi normale.................................................................... 154 6.1 6.2 6.3 6.4 6.5

La loi normale...................................................................................154 6 .1.1 Les propriétés de la loi normale............................................. 155 La propriété d'additivité de la loi normale.........................................163 Le théorème central lim ite...............................................................165 La loi lognormale.............................................................................173 La loi normale à deux variables....................................................... 176 Résum é...........................................................................................181 Exercices.........................................................................................183

Chapitre 7 La statistique en bref et la description des données......................................................................190 7.1 7.2

Les concepts de base en statistique............................................... 190 La présentation graphique des données......................................... 192 7.2.1 Le graphique de points et le nuage de p o in ts .................... 193 7.2.2 Le tableau de fréquences et ('histogramme...........................195 7.2.3 Le diagramme en boîte........................................................... 200 7.2.4 Le diagramme en bâtons........................................................202 7.2.5 Le diagramme quantile-quantile............................................. 203 7.2.6 Le diagramme chronologique..................................................204 /

TABLE DES MATIÈRES

7.3

La description numérique des données............................................ 205 7.3.1 Les mesures de p o s itio n ......................................................... 205 7.3.2 Les mesures de dispersion.......................................................209 7.3.3 Les coefficients d'asymétrie et d'aplatissem ent.................... 213 7.3.4 Une mesure d'association: le coefficient de corrélation . . . 215 7.3.5 Les données groupées............................................................. 216 R ésum é.............................................................................................. 218 Exercices............................................................................................ 220

Chapitre S Les échantillons aléatoires et les distributions échantillonnâtes.............................226 8.1 8.2 8.3 8.4 8.5

Les échantillons aléatoires................................................................. 226 Les statistiques et les distributions échantillonnales....................... 227 La loi du khi-carré............................................................................... 230 La loi f de S tu d e n t............................................................................. 233 La loi F de F ish e r............................................................................... 236 R ésum é............................................................................................. 238 Exercices........................................................................................... 239

Chapitre 9 L'estimation de param ètres..................................242 9.1

L'estimation ponctuelle.......................................................................242 9.1.1 Les propriétés des estim ateurs..............................................243 9.1.2 La méthode du maximum de vraisemblance.....................247 9.1.3 La méthode des mom ents...................................................... 251 9.2 L'estimation par intervalle de confiance à partir d'un seul échantillon...................................................................................252 9.2.1 La moyenne d'une loi normale de variance connue............ 254 9.2.2 La moyenne d'une loi normale de variance in co n n u e........ 257 9.2.3 La variance d'une loi normale.................................................. 259 9.2.4 La proportion dans une population..........................................260 9.3 L'estimation par intervalle de confiance à partir de deux échantillons.......................................................................... 263 9.3.1 La différence entre les moyennes de deux lois normales de variance co n n u e ................................................263 9.3.2 La différence entre les moyennes de deux lois normales de variances inconnues mais é g a le s..................... 265 9.3.3 La différence entre les moyennes de deux lois normales de variances inconnues maisinégales.................... 267 9.3.4 La différence entre les moyennes de deux lois normales dans le cas d'observations appariées.....................267 9.3.5 Le rapport des variances de deux lois norm ales.................269 9.3.6 La différence entre deux proportions......................................271 9.4 Les intervalles de prévision et les intervalles de to lé ra n ce .......... 272 9.4.1 Les intervalles de prévision....................................................272 9.4.2 Les intervalles de tolérance.................................................... 274 Résum é............................................................................................ 275 Exercices.......................................................................................... 276

»

TABLE DES MATIÈRES

V

Chapitre 10 Les tests d'hypothèses...........................................2S2 10.1 10.2

Les concepts de base................................................................. 282 Les tests d'hypothèses à partir d'un seul échantillon................ 288 10.2.1 Les tests sur la moyenne d'une distribution normale de variance connue........................................... 288 10.2.2 Les tests sur la moyenne d'une distribution normale de variance inconnue....................................... 297 10.2.3 Les tests sur la variance d'une distribution normale...........................................................................300 10.2.4 Les tests sur une proportion...........................................304 10.3 Les tests d'hypothèses à partir de deux échantillons................ 307 10.3.1 Les tests sur les moyennes de deux distributions normales de variances connues.....................................307 10.3.2 Les tests sur les moyennes de deux distributions normales de variances inconnues mais égales...............311 10.3.3 Les tests sur les moyennes de deux distributions normales de variances inconnues mais inégales........ 314 10.3.4 Les tests rappariés......................................................... 316 10.3.5 Les tests sur l'égalité de deux variances.......................319 10.3.6 Les tests sur deux proportions.......................................322 10.4 Le test d'ajustement du khi-carré...............................................324 10.5 Les tests de tableaux de contingence.......................................329 10.5.1 Le test d'indépendance de deux variables aléatoires catégoriques...................................................329 10.5.2 Le test d'homogénéité de r populations........................ 332 Résumé...................................................................................... 332 Exercices.................................................................................... 334

Chapitre 11 L'analyse de la variance et les plans d'expériences................................................... 3AA 11.1

11.2 11.3 11.4

Le plan d'expériences à un seul facteur.................................... 344 11.1.1 Le modèle...................................................................... 346 11.1.2 L'estimation des paramètres du modèle........................ 349 11.1.3 La décomposition de la variabilité.................................. 349 11.1.4 La construction de la statistique du test global de comparaison des moyennes.....................................351 11.1.5 Le plan d'expériences déséquilibré................................ 354 11.1.6 L'analyse des résidus et la validation du modèle.......... 355 11.1.7 Les comparaisons de moyennes deux à d e u x .............. 357 Le plan d'expériences en blocs aléatoires co m p le ts................ 361 Les plans factoriels à deux facteurs...........................................368 Le plan factoriel 2k .....................................................................377 11.4.1 Le plan 22 ..................................................................... 377 11.4.2 Le plan 2k avec trois facteurs ou plus.............................383 Résumé.......................................................................................384 Exercices.....................................................................................387

VIII

TABLE DES MATIÈRES

Chapitre 12 La régression linéaire simple et la corrélation................................................................396 12.1 12.2

La régression linéaire simple..........................................................396 Les tests d'hypothèses dans une régression linéaire simple . . 400 12.2.1 Les tests sur la pente de la droite de régression, /?,... 400 12.2.2 Le test sur l'ordonnée à l'origine de la droite de régression, (50 ................................................................ 405 12.3 L'estimation par intervalle pour une régression linéaire simple . . 406 12.3.1 L'intervalle de confiance pour la pente /? ,..................... 406 12.3.2 L'intervalle de confiance pour l'ordonnée à l'origine /30 . . 407 12.3.3 L'intervalle de confiance pour la valeur moyenne au point xQ.......................................................................... 407 12.4 La prévision de nouvelles observations...................................... 409 12.5 La validation et la qualité de l'ajustement du modèle de régression................................................................................. 410 12.5.1 L'analyse des ré s id u s ........................................................ 411 12.5.2 Le coefficient de déterm ination.......................................414 12.6 Les transformations pour une droite............................................. 414 12.7 La corrélation................................................................................. 415 Résumé...........................................................................................420 Exercices......................................................................................... 421

Chapitre 13 La régression multiple...............................................4-28 13.1 13.2

Les modèles de régression multiple.............................................428 L'estimation des paramètres......................................................... 429 13.2.1 Les propriétés statistiques de p ...................................... 435 13.3 Les intervalles de confiance dans une régression linéaire multiple.............................................................................. 437 13.4 La prévision de nouvelles observations......................................439 13.5 Les tests d'hypothèses dans une régressionlinéaire multiple . . 440 13.5.1 Le test de signification de la régression......................... 440 13.5.2 Les tests sur les coefficients de régression...................442 13.6 La qualité de l'ajustement et la validation dum odèle.................. 446 13.6.1 Deux coefficients de déterminationm u ltip le .................. 446 13.6.2 L'analyse des ré s id u s .......................................................449 13.7 La régression polynom iale........................................................... 451 13.8 Les variables indicatrices............................................................. 453 Résumé.......................................................................................... 456 Exercices........................................................................................ 457

Réponses aux exercices......................................................................... 464 Annexe.................................................................................................................... 509 Bibliographie

539

Index......................................................................................................................... 541

'* o génie et eo sciences appliquées, il faut s< P *> des systèmes comportant des mesures qui / r~r divers facteurs d’influence. On dira une a

* 4 ■ î fiï|? &Ct *

-

v

&V

v

*

'* ai «

K

f O

f» * g *

/

simplement de variables dans îe texte, ont un comportement ; \ iti n || î I i £ £ souhaitera modéliser à laide des probabilités. Les exemples de cc probabilistes abondent: la durée de vie d'un système mécanique ou électronique, la répartition des défaillances du matériel, la manifestation de phénomènes natu­ rels comme les taches solaires ou les tornades, Sa quantité de particules qu’émet une source radioactive, la durée des déplacements liés à des activités de livraison, le nombre d’accidents survenus pendant une journée sur le tronçon d’ene auto­ route ou le temps d ’attente aux guichets d'une banque. m f

.

f

v


).

On a ici un ensemble non dénombrable, car les résultats possibles sont des valeurs comprises dans un intervalle de la droite réelle.

Exemple 1.14

%-j : Un gestionnaire compte le nombre d’appels reçus au service à la clientèle en une heure. Sf7:

{0,1,2,...}.

On a ici un ensemble infini dénombrable, car les valeurs possibles sont constituées de l’ensemble des nombres entiers.

CHAPITRE 1

Exemple 1.15

%%’.

On inspecte visuellement deux des principaux joints de brasure d ’un circuit im prim é; on les vérifie à l’aide d’une sonde. Ensuite, chacun des joints est coté A (acceptable) ou D (défectueux, ce qui entraîne une reprise ou une mise au rebut).

%:

{AA, AD, DA, DD}.

Exemple 1.16

%g :

Soit une usine de produits chimiques où l’on fabrique chaque jo u r entre 400 et 600 tonnes métriques d’acide chlorhydrique. On choisit une journée au hasard et on note la quantité produite.

£f9:

(x:

jc e

R, 400 < x < 600}.

On a ici un espace infini et non dénombrable. Exemple 1.17

^ 10:

Sfl0:

Soit une usine d’extrusion où l’on fabrique des pièces métalliques profilées longues de 6 m. Comme on enlève les bavures des barres à chaque extrémité, elles doivent initialement avoir plus de 6 m. Après avoir fabriqué et fini une barre profilée, on mesure la longueur totale des matières de rebut.

{x: ex

R, x > 0 }.

On a ici un espace infini et non dénombrable. Exemple 1.18

:

5fn :

À l’occasion du lancement d’un satellite, on mesure les trois composantes de sa vitesse à par­ tir du sol (c’est-à-dire dans les trois directions de l’espace), en fonction du temps écoulé. Une minute après le lancement, on enregistre ces données pour les transm ettre à un appareil de commande. {(vx, v , v.) : vx, vy, v. sont des nombres réels}.

On a ici un espace à trois dimensions, théoriquement infini dans toutes les directions.

Exemple 1.19

%n :

Reprenons l’exemple précédent, en mesurant cette fois continuellement les trois composantes de la vitesse du satellite pendant cinq minutes. On a ici un espace complexe, car il faut tenir compte de toutes les valeurs possibles des fonctions vx(/), vv(t) et v_(r) lorsque 0 < t< 5.

Tous ces exemples présentent les caractéristiques requises d’une expérience aléatoire. La description de l’espace échantillonnai est relativement simple, sauf pour l’exemple 1.19, et même si on ne l’envisage pas ici, on pourrait idéalement répéter ces expériences. Reprenons l’exemple 1.8 pour mieux voir le phénomène des manifestations aléatoires. Si l’on répète %, à l’infini, on obtiendra de toute évidence une suite de «piles» et de «faces». Une régularité

Une introduction aux probabilités

dans les fréquences finira par apparaître. Comme la pièce utilisée est équilibrée, elle devrait tomber sur le côté pile environ une fois sur deux. En faisant en sorte qu’un modèle soit idéal, on se limite à convenir d’un ensemble théorique possible de résultats. Dans le cas de on a éliminé la possibilité que la pièce tombe autrement qu’à plat.

Envisageons l’espace échantillonnai comme l’ensemble universel 17, c’est-à-dire l’ensemble des résultats possibles d’une expérience aléatoire, ce qui fait de l’événement A, par exemple, un sous-ensemble de Il faut noter que 0 et sont tous deux des sous-ensembles de c/1 É vénem ent Un événement est un sous-ensemble de l’espace échantillonnai d'une experienc désigne par une lettre majuscule.

. On le

Les événements énumérés ci-dessous se rattachent aux expériences ..., ^ 10 décrites à la section 1.2. Ce ne sont que des exemples parmi tous les événements qu’on pourrait définir dans chaque cas. Dans l’expérience %x, soit A : Dans l’expérience

soit B :

Dans l’expérience %3, soit C : Dans l’expérience %A, soit D :

Dans l’expérience %5, soit E : Dans l’expérience %6, soit F : Dans l’expérience

soit G :

Dans l’expérience

soit

:

Dans l’expérience %9, soit J :

Dans l’expérience %lQt soit K :

La pièce tombe sur le côté pile. A = {P}. La pièce tombe chaque fois sur le même côté. B = {PPP, FFF}. La pièce tombe deux fois sur le côté pile. C={2}. La somme des chiffres sur les faces du dessus est sept. D = {(1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1)}. Il n’y a pas plus de cinq soudures défectueuses. £ = { 0 , 1,2, 3, 4,5}. Il s’écoule plus de 1000 heures avant la défaillance. F = { t: t> 1000}. Le nombre d’appels est compris entre 3 et 6 inclusivement. G = { 3, 4, 5, 6}. Aucun des joints n’est défectueux. H = {A A ). La quantité d’acide produite est supérieure à 550 tonnes métriques. J = {x: x g R, 550 < x< 600}. La longueur totale des matières de rebut ne dépasse pas 1 m. K — {x: jce R, 0 < x < 1}.

Comme un événement est un ensemble, les opérations, les lois et les propriétés étudiées à la section 1.1 s’y appliquent.

CHAPITRE 1

Événements mutuellement exclusifs

Deux événements A,et A2 s ont mutuellement exclusifs si O A2 = 0 . Les et «disjoints» sont des synonymes de «mutuellement exclusifs».

Pour que trois événements A v A 2 et A 3 soient mutuellement exclusifs, il faut que A , n A 2 = 0 , Aj n A3 = 0 , A2 n A3 = 0 et que A x n A 2n A 3 = 0 . La figure 1.3 illustre ce cas. De façon générale, lorsque l’intersection de chacune des combinaisons de deux ou plusieurs événe­ ments pris parm i k événements considérés est vide, on qualifie ces k événements de « m utuel­ lement exclusifs ».

1.4 Les probabilités et leur détermination Une approche axiomatique permet de définir toute probabilité comme une fonction dont le domaine est constitué d’ensembles, et l’image, de nombres réels compris entre 0 et 1. Si l’évé­ nement A est un élément du domaine de cette fonction, on peut utiliser la notation fonctionnelle P (A) pour désigner l’élément correspondant de l’image, soit la probabilité que A se réalise. Probabilité

Soit une expérience % et son espace échantillonnai Une probabilité /*(•) définie sur Sf est une fonction qui, à tout événement A dans £f, associe un nombre réel P(A) appelé «probabilité de l’événe­ ment A » (ou probabilité de A), vérifiant les propriétés (axiomes) suivantes :

!

; v

/ ,

1. 2.

0 < P(A) < 1 pour tout événement A de ïf. P(4 ■) + 1< / < y < *

i .-

-> :w

P(Aj O Ay O /4;. ) + ••• 1< / < j < r < k

+ ( - l ) Ar~1P(A I n A , n

oA,)

THEOREME 1.6

Si A

5, alors P(A) < P(B).

Démonstration

Si A

B, alors

B= A U (A n fi) et P(Æ) = P(A) + P(A o

) puisque P (A n f i ) > 0

- ■ « — -•

Exemple 1.24

Soit A et B des événements mutuellement exclusifs (A n B = 0 ) , tels que représentés à la figure 1.5. S ’il est établi que P(A) = 0,20 et que P(B) = 0,30, on peut ici évaluer plusieurs probabilités : 1.

P (À) = 1 - P(A) = 0,80

2.

P (B) = 1 - P(B) = 0,70

3.

P(A

k j B)

P (AnB) = 0

4. 5.

= P(A) + P{B) = 0,20 + 0,30 = 0,50

P(A n

B) = P(A

kj

B), selon la loi de De Morgan, d’où

= 1 - P ( A kj B) = 1 - [P{A) + P(B)\ = 0,5.



Une introduction aux probabilités

/

Exemple 1.25 , (r «

mA ‘•





P(Â) = 1 -

2.

P{B) = 1 - • P(B) = 0,70

3.

P(A u B):= P{A) + P(B) -- P(A C S A,

5.

SA

1.

4.

= 0,20,

73 s II O OO O

Supposons que les événements A et fi ne sont pas mutuellement exclusifs. Si l’on sait que que P (B) = 0,301et que P (A n B ) = 0,10, on obtient ce qui suit:

0,4 = r \ B ) = 0,2 + 0,3 - =0,1

B):= 0,1

P(A n B):= P(A u B) = 1 - [P(A) + P(B) - P(A n fi)] == 0,6

La figure 1.6 illustre les probabilités associées à chacune des régions. N

Les événements A et B associés à l'exemple 1.25

Exemple 1.26

Imaginons une ville où 75 % des gens lisent le journal (J), 20 % aiment l’art impressionniste (/) et 40 % sont mélomanes (A /). Du nombre, 15 % lisent le journal et aiment l’art impressionniste, 30 % lisent le journal et sont mélomanes, 10 % aiment l’art impressionniste et sont mélomanes, et 5 % lisent le journal, aiment l’art impressionniste et sont mélomanes. On peut réunir tous ces renseignements à l’intérieur d’un simple diagramme de Venn (voir la figure 1.7, à la page su)ivante, en y inscrivant d’abord la dernière donnée fournie, soit P(J n n Af) = 0,05, pour ensuite procéder à partir du centre. ^

CHAPITRE 1

/ s/ f

1

/o ,3 5 0 ) V / '\ a o 5 / \ J X A ^ N ^ /o ,0 5 \ y 'f

V

0,05 J i

M

1

j

i i

**

*

/ y

*

'l . 't

* • . » ', *



r**-

- ~ 3 t* •

.

‘1

|

^

% F

F

. . f

I *

! » ,

V .

’T

**

.

I

w

.

F "

. v

a v

i k

1.

• > .

. ' 4


j5*) = P(B}) • P(A\B}) + P{B2) • P(A\B2)+•••+ P(B, ) • P(A\Bk ) k

YPiB,)P(A\B,X

i=1 Le théorème 1.8 s’avère très utile, car il est souvent impossible en pratique de calculer directement la probabilité de A. En pareil cas, cependant, si l’on sait que B{s’est réalisé, on peut évaluer P(A\Bj) et ainsi déterminer P (A) une fois que l’on connaît les valeurs de P(Bt). Le théorème de Bayes est une autre proposition importante résultant du théorème des probabilités totales.

Si B {, B2,..., dans .r/, alors pour /

Bkforment une partition de l’espace échantillonnai Sf et si

12

X

^

X

-

/









5

l

dénote un événem

k \

4

P(B\A)

P(An Br) P(A)

P r

(1.14)

\

1= 1

Il s’agit d’une probabilité conditionnelle dont le numérateur est développé selon la règle de multi­ plication, et le dénominateur, selon le théorème des probabilités totales.

CHAPITRE 1

Exemple 1.43

Un fabricant de matériel de télémétrie achète des microprocesseurs de trois fournisseurs. Ces derniers respectent supposément les mêmes normes de produit. Néanmoins, pendant des années, le fabricant a vérifié chaque lot reçu, ce qui lui a permis de réunir les données ci-dessous. Fournisseur

P art fournie

P art défectueuse

1 2 3

0,15 0,80 0,05

0,02 0,01 0,03

Le fabricant a cessé toute vérification en raison des coûts. Toutefois, on peut raisonnablement supposer que les parts défectueuses et les parts fournies demeurent inchangées. Le directeur de la production choisit un microprocesseur au hasard. 1.

Quelle est la probabilité que le microprocesseur soit défectueux ? Notons cet événement D, et notons B. l’événement « le microprocesseur vient du fournisseur ». On peut utiliser un schéma en arbre pour illustrer la situation (voir la figure 1.16).

La partition des microprocesseurs selon le fournisseur et le taux de défectuosité

Du théorème des probabilités totales, il s’ensuit que : P(D) = P(D n B,) + P(D r» B2) + P(D n B3) = P(BX)P(D\BX) + P{B2)P{D\B2) + P(B3)P(D\B3) = 0,15(0,02) + 0,80(0,01) + 0,05(0,03) = 0,0125. Cette valeur nous donne le taux de microprocesseurs défectueux reçus par ce fabricant, soit 1,25%. 2.

Le directeur envoie le microprocesseur choisi au hasard au laboratoire d’essais, qui révèle que l’unité est effectivement défectueuse. Quelle est la probabilité qu’elle provienne du troisième fournisseur ? ►

Une introduction aux probabilités

On cherche donc à calculer P(B3\D). Le théorème de Bayes nous permet d’écrire : P(B,)P(D\B,) P(D) 0,05(0,03) 0,0125 Ainsi, 12 % des unités défectueuses reçues proviennent du troisième fournisseur. On pourrait schématiser cette mise en situation à l’aide d’un diagramme de Venn où les micro­ processeurs sont partitionnés selon le fournisseur (voir la figure 1.17).

P(BX) = 0,15

P(B2) = 0,80

P(By) = 0,05

La partition des microprocesseurs défectueux selon le fournisseur

Résumé Propriétés d’une probabilité •

• • •

• • •



0 < P(A) < 1 P ( 0 ) = 0 et P(S0 = 1 Si A,, A2, A y ... sont mutuellement exclusifs, alors P(A, u A2 u A u •••) = X ^(A ). P (A) = 1 - >(Â) ' ' Si A œB , alors A (P (

^

-

.

- ■

'

(

a-’

• •

a

^

, '

1

.

y



" \

s

#

j

;.4

,

' ■ * .

. ,

—a

'

.

a

.

y V



a

*

.

a

y

y '

a

■* *

*

' '

f

,

. .



a

,

*

«

Rappelons que pour toute fonction, chaque élément du domaine est associé à une et une seule valeur de l’image. Ainsi, dans le cas d’une variable aléatoire, à chaque résultat e Sf correspond exactement une valeur x=X(e). Soulignons que différentes valeurs de e peuvent se traduire par une même valeur de x, comme dans l’exemple précédent, où = 1, X(JFPF) = 1 et ) = 1. Exemple 2.1

À partir de l’expérience mentionnée précédemment, si X représente le nombre de fois où la pièce tombe sur le côté pile, alors X(PPP) = 3, X(PPF) = 2, X(PFP) = 2, X(PFF) = 1, X(FPP) = 2, X(FPF) = 1, X(FFP) = 1 et X(FFF) = 0. L’image de X est alors Rx = {0, 1, 2, 3} (voir la figure 2.1a). On aurait pu définir une autre variable aléatoire en se basant sur la même expérience. Par exemple, Y

1 0

si la pièce tombe trois fois sur le même côté sinon.



Les variables aléatoires à une dimension

f

L’image de Y est Ry= {0,1} (voir lafigure 2.lb). / • *

Sf

• *-

r *- . « • . *

R

$f

R

_

J

:

a) X = le nombre de résultats «p ile » lors du lancer d'une pièce à trois reprises; b) Y = 1 si la pièce tombe trois fois du même côté, Y = 0 sinon.

L’image de X, Rx, se compose de toutes les valeurs possibles de X, et constit espace échantillonnai au même titre que Sf. On s’intéresse ici aux événements associés à Rx• La variable aléatoire X permet de déterminer leur probabilité à partir de la probabilité définie sur £f, selon le principe des événements équivalents. Comme illustration de ce prin­ cipe, considérons une pièce de monnaie lancée à trois reprises. Si l’on suppose que la pièce est équilibrée, il y a huit résultats possibles (PPP, ’ PFP, PFF, FPP, FFP et FFF), chacun ayant une probabilité de Soit A, l’événement «la pièce tombe exactement deux fois sur le côté pile» et X, le nombre de fois où l’on obtient le côté pile ( la figure 2.là). L’événement [X = 2} se rattache à Rx et non à Sf. Cependant, les événements [X = 2} et A = {PPF, PFP, FPP) sont équivalents et on pose P(X = 2) = P (A) = | . Chaque fois que l’évé­ nement A se réalise, l’événement {X = 2} se produit, et inversement. Il faut noter que ces deux événements sont associés à des espaces différents. Rappelons que tous les éléments de l’image de X sont des nombres réels même si les résultats formant l’espace échantillonnai ne le sont pas nécessairement. Les exemples ci-après montrent la relation entre l’espace échantillonnai et l’image d’une variable aléatoire. Puisqu’on s’intéresse à des résultats numériques, c’est l’image qui retiendra l’attention plutôt que l’espace échantillonnai.

Exemple 2.2

Soit l’expérience consistant à lancer deux dés équilibrés. (L’espace échantillonnai est constitué des 36 couples de résultats possibles). Si la variable aléatoire Y se définit comme la somme des chiffres sur les faces du dessus, alors Ry = {2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12}, et ses éléments ont dans l’ordre une probabilité de Le tableau 2.1 (voir à la page suivante) montre les événements équivalents. Rappelons qu’il y a 36 résultats possibles, tous équiprobables puisque les dés sont équilibrés. ►

44

CHAPITRE 2

Exemple 2.3

Pour vérifier la durée de vie de 100 stimulateurs cardiaques, un technicien les dépose dans une solution saline maintenue à la température du corps. L’ordinateur enregistre la date et l’heure de la défaillance des stimulateurs. On a alors SP = {(d, h) : d = la date, h = l’heure}. Soit X une variable aléatoire représentant la durée de fonctionnement avant une défaillance. La variable aléatoire X correspond au nombre total d ’unités de temps, à compter de la date et de l’heure du début de l'expérience (d0, hQ). On a alors R x — {x : x > 0}. On s’intéresse ici à X et à sa distribution de probabilité, un concept qui sera présenté dans les prochaines sections.

2.1

Les fonctions de répartition

Par convention, la minuscule de la lettre associée à une variable aléatoire sert à in d iq u e r une valeur particulière de cette variable. De ce fait, {X = x }. { x < x} et { X < x} rep résen ten t des événements appartenant à l’image de la variable aléatoire X, où x est un nom bre réel. m

F o n c tio n de ré p a rtitio n

On peut traduire la probabilité de l’événement {X < x} par une fonction de x:

F(x) = P(X < x).

(2.1)

La fonction F porte le nom de « fonction de répartition » ou « fonction cumulative de d istrib u tio n » de la variable aléatoire X.

La définition de F(x) est toujours la même, à savoir P ( X < x), mais sa form e exacte d ép en d de la nature des valeurs possibles de X.

Les variables aléatoires à une dimension

Exemple 2.4

Dans le cas du lancer d’une pièce à trois reprises, la variable aléatoire X = nombre de résultats « pile » 1 3 3 pouvait prendre quatre valeurs, 0, 1, 2 et 3, ayant respectivement une probabilité de | 8 8 et ~ On peut écrire F ainsi : ’

si x < 0 si 0 < x < 1 si 1 < x < 2 si 2 < x < 3 si jc> 3.

0 1/8 4/8 7/8 1

FO l ) = l - P ( X < 0) = 1 - F(0) 1 1 7

8

8

Exemple 2.5

Reprenons l’exemple 1.13 concernant un tube cathodique soumis à un essai de durée. Soit Sf= {r : t > 0}. Si X représente le temps écoulé (en heures) au moment de la défaillance, l’événement {X < x} appar­ tient à l’image de X. Voici un modèle mathématique qui attribue une probabilité à [X < x) : r

F(x)

si x < 0, si x > 0,



46

CHAPITRE 2

où X (lambda) est un nombre positif appelé «taux de défaillance», c’est-à-dire le nombre de défai! lances par heure. Dans la pratique, l’utilisation de ce modèle exponentiel repose sur certaines hypo thèses sur lesquelles nous reviendrons ultérieurement.

La fonction de répartition de la durée de fonctionnement du tube est représentée graphiquement à la figure 2.3, où on suppose un taux de = 0,001.

La fonction de répartition de la durée de fonctionnement avant la défaillance d'un tube cathodique

Quelle est la probabilité que la défaillance survienne en 500 heures ou moins ? P{X < 500) = F(500) - 0 ,001-500

1—e 0,3935

Toute fonction de répartition a les propriétés énumérées ci-dessous, qui découlent directe­ ment de la définition énoncée. Propriétés d'une fonction de répartition

1. 2.

0 < F(x) < 1, lim F(x) =1,

— < x < °°. |

JT—

lim F(x) = 0. . r — > — o o

3. 4.

. . . .

La fonction est non décroissante. Autrement dit, si x, < alors F(x,) < F(x2)■ La fonction est continue à droite. Autrement dit, pour toute valeur de x et S> 0, lim [F(x + 2) = P(X = 3) Pi 3) 1

4

8

Exemple 2.9

Soit une variable aléatoire X dont la distribution de probabilité est définie par la relation

pix)

( n ' n-x Px(1 ~ P) x J 0

si x = 0,1,...,

(2.5)

smon,

où n est un entier positif et p est un paramètre avec 0 < 1. Cette relation porte le nom de « loi binomiale » et fera l’objet d’une étude plus poussée au chapitre 4. On pourrait représenter ce modèle par un tableau ou un diagramme pour des valeurs données de n et de , en évaluant p ( ) lorsque = 0, 1, 2, ..., n. Notons que l’exemple 2.8 représente la fonction de masse binomiale pour des paramètres valant n= 3 et p = 1/2.

Les variables aléatoires à une dimension

49

Exemple 2.10

Soit N objets dont Dsont défectueux. On en prélève au hasard et sans remise un échantillon de t Si X représente le nombre d’objets défectueux dans cet échantillon, alors D x J p(x)

N -D n-x

\

si x € {max (0, n - N + D),..., min (n, D)\

N X n J 0

( 2.6)

smon.

Cette distribution de probabilité porte le nom de «loi hypergéométrique». Prenons un cas particulier oùN = 100 objets, D = 5 objets défectueux et n = 4 objets tirés. On a alors \

5

P (x

)

95 4 x * y / f 100 ^ 4 J 0

six = 0,1,2,3,4

smon.

Quelle est la probabilité de tirer exactement un objet défecteux lors d’un tel échantillonnage ?

La distribution de probabilité d'une loi hypergéométrique pour et n - 4

= 100, £) = 5

CHAPITRE 2

On vient de voir quelques distributions de probabilité discrètes et divers m oyens de pré­ senter les couples [(*„ p(jc,)), i = 1, 2, ...]. Plus loin, on étudiera un certain nom bre de lois de probabilité en partant chaque fois d’un ensemble de postulats fondés sur l’étude de phénom ènes du monde réel.

2.3 Les variables aléatoires c o n tin u e s Lorsqu’une variable aléatoire X est continue, sa fonction de répartition est alors continue et admet une dérivée/(x) = (d/dx)F(x) pour toutes les valeurs de x (à l’exception peut-être d’un certain nombre dénombrable), cette dérivée étant continue par morceaux. D ans ces conditions, l’image Rx de X est formée d’un ou de plusieurs intervalles.
*.

J

JT

»



-

’S »



4 (

V T\

• •

Les distributions marginales associées au vecteur discret [X,, X 2J : a) ces distributions présentées sous la forme d'un tableau; b) la fonction de m asse marginale px (x,); c) la fonction de masse marginale p x (x2)

x?

Les distributions de probabilité conjointes

Distribution marginale continue

Si le vecteur aléatoire [X,, XJ est continu, la distribution marginale de X, se traduit par C O

fx. U. )



f ( x , , x 2)dx2

(3.4)

f ( x . , x 2)dxx.

(3 5)

O O

et celle de X2, par 00

f x , (*2)



O O

La fonction/ est la fonction de densité de la variable X, prise séparément, tandis que la fonction 1 est celle de la variable X? prise séparément.

Exemple 3.7

À l’exemple 3.5, la densité conjointe de [X,, X2] était 1 f{x i,* 2) = < 500 0

si 0 < x, < 0,25; 0 < x2< 2000 smon.

Ainsi, la distribution marginale de X, et celle de X2se traduisent par 2000

fx

1

(

*

1

)

0

1

500 0

dx2 = 4

si 0 *2 ) “ Mi2

»

x2

de même que E ( X 2) =

= X X2 Px2 C*2) = x2

* i

x2

Exemple 3.9

Soit la distribution marginale de Xxet celle de X2selon l’exemple 3.6 et la figure 3.7 sur les défauts mineurs et majeurs de pompes choisies au hasard. Si l’on effectue les calculs à partir de la fonc­ tion de masse marginale de X,, représentée à la figure 3.7b), on obtient E(Xl) = fr

CHAPITRE 3

et 2

V(X,) = C71

n2 7 12 7 o2 8 2 7 2 1 + 3 ----+ 4 • 0 ----+ 1 •— + 2 30 30 30 30 30

"8“ _5_

2

103 75

On pourrait également déterminer la moyenne et la variance de X2 à partir de sa fonction de masse marginale.

Remarque * ,»

1

^

^





»

.



. . .



..

..

Comme le révèlent les équations 3.6 à 3.9, on peut déterminer la moyenne et la variance respectives de X, et de X, à partir soit de leur fonction de masse marginale, soit de leur fonction de m asse conjointe. Dans la pratique, il est en général plus facile de recourir à leur fonction de m asse m arg in ale si on la connaît déjà. Ç .

.

.

-

'



.



.

* •



,

.

s



En présence d’un vecteur continu [Xp X2], on utilise les définitions univariées basées sur les intégrales suivantes :

En examinant les équations 3.10 à 3.13, on remarque ici encore qu’il est possible d ’effectuer les calculs à partir soit de la fonction de densité marginale des variables, soit de leu r fonction de densité conjointe. Exemple 3.10

À l’exemple 3.5, le diamètre des soudures et leur résistance au cisaillement, c’est-à-dire X, et X.2» avaient une densité conjointe de 1 f ( x ltx 2) = < 500 0

si 0 < Xj 0,

(3.14)

et la fonction de masse conditionnelle de X , sachant que X = b, est Pxa,M\)

p(xx,b)

pour tout jc, , où

(b) > 0

(3.15)

Px,

Soulignons qu’il existe autant de distributions conditionnelles de X, que de valeurs a pour lesquelles px (a) > 0, et autant de distributions conditionnelles de X, que de valeurs b pour lesquelles px (b) > 0.

CHAPITRE 3

Exemple 3.11

Revenons au dénombrement des défauts majeurs et mineurs des petites pompes de l’exemple 3.3 et à la figure 3.7. Il existe cinq distributions conditionnelles de X2, une pour chaque valeur de X {. Le tableau 3.1 montre par exemple les calculs pour la fonction de masse conditionnelle de X2, sachant que X = 0. ■

T



H

W

de masse cond §



X

1 > . # lV -' '. v .-^ ....

2

3

4

p (0 ,2)

P(0, 3)

P ( 0 ,4)

p(0, *2)

0 a * 0 X

Px2|o(*2)

V

p (0 ,1)

Px, (°)

Px, (0)

Px, (°)

Px, (°)

Px, (°)

Px, (0)

_ 1/3 0 1 _ 7/30 ” 7

_ 1/30 _ 1 ~~ 7/30 _ 7

_ i/30 _ 1 ~~ 7/30 _ 7

_ 1/30 _ 1 ~ 7 /3 0 ~ 7

_ 3 /3 0 _ 3 _ 7 /3 0 ~~ 7

On pourrait de la même façon établir respectivement une distribution conditionnelle X2 pour X 1, 2, 3 et 4. On pourrait d’une manière analogue déterminer la fonction de masse conditionnelle de X,, sachant que X = 3, par exemple. Le tableau 3.2 détaille les valeurs de probabilités obtenues. Tableau 3.2

La fonction de masse conditionnelle de Xv sachant *

JC1

Px,|3C*i)



«



.

.

.

/

: . l

a

i

0

*

.

. 1

.

^

,

(p0,3) _ 1 Px2(3) 4

P(*i >3) Px, (3)

.

a

P(l, 3) _ 3 PX20 ) 4

Voyons maintenant comment obtenir les distributions conditionnelles dans le cas continu. »

,

.

,

_

*



»

/

.

,

.



.■

-

D e n s ité s co n d itio n n e lle s •,

, ■



• .

•s



1

.

«'



■» .

1.^

* ‘. I

» -

, . ^

/

^

” ••.• » I.

• • .

/



«

1 ’

Lorsqu'un vecteur aléatoire [X,, X,] est continu, la densité conditionnelle de X

/x2| 0, /x, («)

) .

1

■ *

'

^

„■ * ,

que X

a, est (3.16)

«

et la densité conditionnelle de X,, sachant que X2 byest

fx,\b(x \}

fi.x \ >b) , où f x (b) > 0. fx, (*)

(3.17)

Exemple 3.12

Supposons que la densité conjointe de [X,, X2] correspond à la fonction / définie ci-dessous et repré­ sentée à la figure 3.11. /(* i>*2 )

2 . XlX2 x x+ 3 0

si Ocxj < l;0 < x 2 (X2)

f(xl, x2) 1

EiXx| b)

^ p ( x i,x2)

Distribution conditionnelle de X J Px2\a(* 2 ) sachant que X x Espérance conditionnelle de X 2, sachant que X.

x 2)

p(a,x 2)

(jCj ) dx

f ( x x, x 2) d x x f ( a , x 2)

Px, («) H

l L x iPx

x J x 2\a(x i) d x 2

104

CHAPITRE 3

Indépendance de deux variables aléatoires •

Xj et X2 sont indépendantes si et seulement si p (jtp x 2) = p x, (x i )P x2(x 2 ^

pour tout (a:p jc2)

f ( x l, x 2) = f X] •

(cas discret),

( x {) f x (2x2) pour tout , x 2)

(cas continu).

Si X xet X2 sont indépendantes, alors leur covariance et leur corrélation sont nulles.

Covariance et corrélation •

Covariance: C ov(X pX 2) = EIXXj - p , ) (X2 - p 2)] = E(X 1X 2) - E ( X 1)E (X 2)



^ „ . C ov(X pX 2) Corrélation : p = . 1 = V v ( x ,) v ( x 2)



Propriétés : -o o < C 0 V(XpX2) < 0 11/50 1 8/50 2 4/50 3 3/50 4 1/50

5 4 3 2 1 4/50 2/50 1/50 1/50 1/50 3/50 2/50 1/50 1/50 3/50 2/50 1/50 1/50

Les distributions de probabilité conjointes

3.2

105

a) Quelle est la probabilité d'observer un

c) Combien d’unités vend-on, en moyenne,

défaut mécanique et un défaut de finition simultanément sur un réfrigérateur? b) Quelle est la probabilité d’observer au plus un défaut mécanique et au moins trois défauts de finition simultanément sur un réfrigérateur? c) Quel le est la probabilité d’observer plus de 3 défauts sur un réfrigérateur? d) Déterminez la distribution marginale de X et celle de Y. e) Déterminez la fonction de masse du nombre de défauts mécaniques lorsque le fini n’a aucune imperfection, f ) Déterminez la fonction de masse du nombre d’imperfections du fini lorsqu’il n’y a aucune défectuosité mécanique. g ) Le nombre de défauts de finition est-il indépendant du nombre de défauts mécaniques dans cette production ? h) Sachant que E(X) = 0,9, V(X) = l,57, E{Y) = 1,02 et V(Y) = 1,10, calculez le coefficient de corrélation de ces deux variables.

lorsqu’un client passe une commande? d) Quelle est la proportion des commandes qui incluent un plan d’entretien pour chaque unité vendue? e) Vrai ou faux? Une commande choisie au hasard a autant de chances d’inclure un seul plan d'entretien que de n’en inclure aucun. f) Vrai ou faux ? Un client ayant payé pour deux plans d’entretien a plus de chances d’avoir acheté deux unités que trois unités. g) Peut-on dire que le nombre d'unités vendues est une variable indépen­ dante du nombre de plans d’entretien vendus ?

Un gestionnaire de stocks a réuni un grand nombre de commandes de son entreprise, puis a mis en relief la distribution con­ jointe du nombre d’unités vendues par commande et du nombre de plans d’entre­ tien vendus pour ces mêmes unités. Cette distribution est présentée dans le tableau ci-dessous.

3.3

1/8 1/2 Px M ~ ' 1/4 1/8

G a> a) +3 ■o S P u s C S "O o>> Z G JS TEL C/D

O

C/3

2

3

0,20

0,10

0,05

1

0,30

0,05

0

2

0

0.15

0,05

3

0

0

0,10

J .. < 0

a) Déterminez la distribution condition­

nelle du nombre de contrats d’entretien vendus lorsque deux unités figurent sur la commande. b) Déterminez la distribution marginale du nombre d’unités vendues.

si JC == 0 1/4 si v == 0 si JC == î et pY(y) = < 1/2 si y-= 1 si JC == 2 1/4 si y- = 2 . si JC == 3 r



a) Quelle est la distribution conjointe du

nombre d'appels et du nombre de cour­ riels reçus par le gérant en 15 minutes ? b) Vrai ou faux? La probabilité de ne recevoir aucun courriel ni appel en 15 minutes est de 1/8 + 1/4 = 3/8. c) Quelle est la probabilité que le gérant ait reçu 2 courriels en 15 minutes, sachant qu’il a répondu à un appel téléphonique durant cette période ?

Nombre d’unités vendues 1

Dans une petite entreprise, le nombre de courriels (X) et le nombre d'appels télépho­ niques )Y (eçus r en 15 minutes par le gérant sont des variables aléatoires indépendantes dont les distributions marginales sont respectivement

3.4

Une salle d’attente contient 50 patients de groupe sanguin O, 30 patients du groupe A, 10 patients du groupe B et 10 patients du groupe AB. Vous sélec­ tionnez au hasard deux patients dans cette salle. Déterminez la distribution conjointe de X =nombre de patients du groupe A dans votre échantillon et de Y nombre de patients du groupe B.

106

3.5

CHAPITRE 3

Le tableau suivant donne une partie de la fonction de masse p(x> y) d’un vecteur [X, Y].

e) Calculez la probabilité que le joueur gagne (c’est-à-dire que le gain du joueur soit supérieur à sa mise). f ) Calculez la moyenne du gain net de ce joueur. 3.7

Soit le vecteur aléatoire discret [Xp X2], où Xi et X2représentent respectivement le nombre de tubes d’aspirine vendus à la pharmacie du coin en août et en sep­ tembre. Le tableau suivant présente la distribution conjointe de ces deux variables.

On connaît aussi l’information ci-dessous.

51

52

55

53 5

y P(r = y |X = 2)

-1 1/8

0 3/8

1 1/2

0,06

0,05

0,05 1 0,01

0,01

0,07

0,05

0,01

0,01

0,01

1 53

0,05

0,10

0,10

0,05

0,05

l

0,05 1 0,02

l l

5

5

1

2

1

a) Trouvez P(X = 2). b) Remplissez le tableau de la fonction p(x, y) en incluant les distributions marginales. c) Calculez P(X= 0 1T= 0). d) Les deux variables et sont-elles indépendantes ? Justifiez votre réponse. ©) Calculez la covariance entre X et Y, et interprétez le résultat. f) On considère la variable T = 10+X - 2Y. Calculez la variance de T. Notez que V(X) = 11/16 et que = 1/2. 3.6

4

* 1

5

l

4

55

0,01 1 0,01 1 0,03

1 0,05 1 0,06 1 0,05 1 0,01 1 0,03

a) Quelle est la probabilité de vendre 52 tubes d’aspirine en août ? b) Déterminez la fonction de masse du nombre de tubes d’aspirine vendus en août. c) Combien de tubes peut-on s’attendre à vendre en moyenne au mois d’août ? d) Combien de tubes peut-on s’attendre à vendre en moyenne en septembre si on a vendu 52 tubes en août ?

Une boîte contient six jetons ayant des valeurs réparties de la façon suivante : un jeton a la valeur 0, trois jetons ont la valeur 1, et deux jetons ont la valeur 2. 3.8 Soit X une variable aléatoire discrète à trois On extrait au hasard, successivement et modalités (x{, x2, x3), et Y une variable aléa­ sans remise, deux jetons de la boîte. Soit toire discrète à 3 modalités (yt, y2, y3). Les X la valeur du premier jeton et Y, celle du énoncés suivants sont-ils vrais ou faux ? deuxième jeton. a) Si X et Y sont indépendantes, alors la a) Déterminez (sous forme de tableau) la probabilité des neuf combinaisons (x., y ) fonction de masse conjointe p(x, y) du est la même. vecteur [X, Y]. » b) Si les trois modalités de X sont équi­ b) Ajoutez au tableau de p(x, y) les probables et que les trois modalités de distributions marginales de X et de Y. Y sont équiprobables, alors et sont c) Calculez P(X= 11T = 0). indépendantes. d) Les deux variables Xte sont-elles c) Si la loi marginale de X est la même que indépendantes ? Justifiez votre la loi marginale de Y, alors X et Y sont réponse. indépendantes. Supposons qu’un joueur mise 2 $ et d) Si X et Y sont indépendantes, alors la tire au hasard deux jetons de la boîte. loi marginale de X est la même que la loi IJ reçoit alors un montant égal à la somme des valeurs des deux jetons obtenus. marginale de Y

Les distributions de probabilité conjointes

©) Si Xet Ysont indépendantes, alors la loi marginale de X est la même que la loi conditionnelle de | Y. 3.9

Soit 2. 2 ~(xx+x2)

4xxx 2e f ( x x, x 2) = < 0

si x, > 0; x2 > 0 sinon.

a) Déterminez la densité marginale de X,.

b) Déterminez la densité conditionnelle de X, sachant X2. c) X, et X2 sont-elles des variables aléa­ toires indépendantes ?

plaques de métal de 2 dm par 1 dm coupées par une nouvelle machine peut être modé­ lisée par la loi conjointe suivante, où et sont les coordonnées du centre d’une tache à partir du coin inférieur gauche de la plaque :

«

ficielle et l’acidité d’un produit chimique. On chiffre ces deux variables en établissant une échelle de tension superficielle où 0 < Xj < 2 et une échelle d’acidité où 2 < X2< 4. Voici la fonction de densité de [X,, X2] : < 2; 2
x2) = < 0 sinon.

107

s i 0

Quelques lois de probabilité discrètes

«

La probabilité qu’on accepte le lot est manifestement fonction de la qualité de ce lot. Par exemple, si p' = 0,05, alors t

F (accepter un lot)

0,923.

Si p' = 0,03, alors la probabilité d’accepter un lot grimpe à 0,974.

4.3 La loi de Poisson La loi de Poisson est l’une des lois de probabilité discrètes les plus utiles. Cette loi intervient souvent lorsqu’on s’intéresse au nombre de fois qu’un certain type d’événements se réalise dans un intervalle de temps. Il peut s’agir, par exemple, du nombre d’automobiles qui arrivent à un feu de circulation entre 12 h et 13 h, du nombre d’accidents qui surviennent sur une route durant une fin de sem aine ou encore du nombre de particules émises par une substance radioactive durant 10 minutes. La loi de Poisson peut également être utilisée pour modéliser la fréquence d’apparition dans l’espace. Il peut s’agir, par exemple, du cas d’un nombre de défauts qui apparaissent sur le fini d’une pièce ou encore du nombre d’erreurs relevées dans la page d’un livre. Fonction de masse de la loi de Poisson .' * i

i

.

,

On dit qu’une variable aléatoire X est distribuée selon une loi de Poisson de paramètre c > 0 si sa fonction de masse est donnée par * — C c e si x = 0 ,1 ,2 ,.. (4.12) p(x) x\ smon. 0 ^

*

Le param ètre c désigne le nombre moyen de réalisations du type d’événement étudié dans l’intervalle de temps considéré ou dans l’espace considéré. En abrégé, on écrit X ~ Poisson(c).

124

CHAPITRE 4

Sur la figure 4.10, on voit que plus c augmente, plus la distribution se déplace vers la droite, ce qui correspond à l’interprétation de ce paramètre, soit le nombre moyen de réalisation d’un événement dans l’intervalle de temps considéré. Notons également que lorsque est grand, la fonction de masse prend une forme de cloche. Nous reviendrons sur ce phénomène au chapitre 6. /

0,20

p(x) 0, 2 0 -

0,15

0,15

0,10

0,10

0,05

0,05

0,00

0,00

P(.x)

0

15

5 10 a) Poisson(c = 4)

x

5

0

10

15

x

b) Poisson(c = 8)

La fonction de masse de la loi de Poisson avec différentes valeurs du paramètre c

Il existe deux façons d’expliquer dans quelles conditions on peut s’attendre à ce qu’une loi de Poisson s’applique dans les faits. La première repose sur la définition d’un processus de Poisson. Dans la seconde, on considère la loi de Poisson comme un cas lim ite de la loi bino­ miale. Voici un bref aperçu de ces deux approches. Approche 1: Le processus de Poisson Considérons un certain type d’événements qui surviennent dans le temps. On dit que le comp­ tage du nombre de réalisations de ce type d’événements est un «processus de Poisson» si (essentiellement) les deux conditions suivantes sont vérifiées :

1.

Le nombre de réalisations de l’événement à l’intérieur d’intervalles qui ne se che­ vauchent pas se traduit par des variables aléatoires indépendantes. 2. Il existe une grandeur positive X telle que le nombre de réalisations de l’événement dans tout intervalle de temps [t, t + Aî] de longueur At obéit à une loi de Poisson de paramètre c = XAt, peu importe l’origine t de l’intervalle. En d’autres termes, les réali­ sations surviennent à une fréquence moyenne constante dans le temps. La figure 4.11 montre un ensemble d’événements arbitraires et orientés dans le temps. /

E

EE

E

E

T

0

t

t + At

Temps

Des événements surviennent de façon aléatoire à un taux constant

Quelques lois de probabilité discrètes

Le paramètre X est appelé l’« intensité du processus » ; il représente le nombre moyen de réalisations de l’événement par unité de temps. Approche 2: La loi de Poisson comme un cas limite de la loi binomiale

Cette approche consiste à considérer la loi de Poisson comme la limite d’une loi binomiale dans le contexte suivant : les épreuves de Bernoulli sont de très petits intervalles de temps qui contiennent (ou non) une réalisation de l’événement. On a donc n grand et p petit, mais de telle sorte que np reste constant. Il est alors démontré que, dans ces conditions, la fonction de masse de la loi binomiale est proche de celle d’une loi de Poisson de paramètre c = np. La moyenne et la variance de la loi de Poisson

La loi de Poisson possède une propriété particulière : sa moyenne et sa variance sont tou­ jours égales. Soit X une variable aléatoire distribuée selon une loi de Poisson de paramètre c > 0. Alors,

L'additivité de la loi de Poisson

La loi de Poisson possède la propriété d’additivité, qui est précisée dans le théorème 4.1. J T r * < .

4 %

*.

V '

B fl

I

.

f*

v

c

x

i

v

-



f

a

A

.

;

L

*

f

S

*

c

l

y

*

,

^

v



'

-

*

j

e

*

V. y§t 1

. f



t

-

v

-

V

^

. .*



.

v



.

*• *



«



*



_

*

.



l

-

>

v

1

.

/


C

»

- i

A .V

»

• • v

.

»

a



. n

• .

r » * .

»

» v

»

t t

*

* .

.

" j *

,

4

Si X x, X 2, ...>X i sont des variables aléatoires indépendantes distribuées selon une loi de paramètre c,, où i —1 ,2 ,..., k, et si Y - X, + c —c, + c*, +





+ ck.

Cette propriété d’additivité de la loi de Poisson s’avère très utile. En termes simples, il en découle que la somme de variables aléatoires indépendantes distribuées chacune selon une loi de Poisson obéit elle-même à une loi de Poisson.

CHAPITRE 4

L a table I de l’annexe indique quelques valeurs numériques de la fonction de répartition F(x) d’une variable de Poisson. La plupart des logiciels statistiques effectuent automatiquement le calcul des probabilités fondées sur une loi de Poisson. Exemple 4.9

Un détaillant a établi que la demande d’un certain appareil électroménager durant une semaine obéit à une loi de Poisson de paramètre c = 15. Il veut déterminer la quantité qu’il doit avoir en stock en début de semaine pour que la probabilité de remplir toutes les commandes reçues durant la période soit d’au moins 0,95. Le détaillant souhaite éviter toute rupture de stock et tout réapprovisionnement en cours de période. Soit X le nombre de commandes reçues. Le détaillant veut connaître la valeur de k telle que F(k) = P{X 0,95, de sorte que

On peut trouver la solution en consultant une table de la fonction de répartition de la loi de Poisson ou en utilisant un logiciel. Dans le cas présent, k = 22, donc le détaillant doit avoir 22 appareils en stock pour répondre à la demande avec une probabilité de 95 %.

4.7 Quelques approximations Il peut parfois être utile de remplacer une loi par une autre, surtout lorsque cette dernière est plus facile à utiliser. Nous considérons ici deux approximations utiles. L'approximation de la loi hypergéométrique par la loi binomiale

Lorsque le taux de sondage ni N associé à une loi hypergéométrique est petit (inférieur à 10 %, par exemple), une loi binomiale de paramètres n et p - D /N fournit une bonne approximation de cette loi. De fait, plus le rapport n/N est petit, plus cette approximation s’approche de la réalité, car, dans une grande population, la probabilité change peu d’un tirage à l’autre (même sans remise). Exemple 4.10

Soit un lot de production de 200 unités dont 8 sont défectueuses. On prélève un échantillon aléatoire de 10 unités, et on s’intéresse à la probabilité qu’il renferme exactement 1 unité défectueuse. Cette probabilité est de

P(X = 1)

8V 192^ 9 \ (200 10 J

0,288



Quelques lois de probabilité discrètes

127

Toutefois, le taux de sondage étant petit (niN = 10/200 = 0,05), on pourrait recourir à l’approximation fournie par la loi binomiale de paramètre p= 8/200 = 0,04, soit P{X = 1) *

(0,04)1(0,96)9= 0,277.

Cette dernière probabilité aurait été exacte si le tirage des 10 unités avait été fait avec remise.

L'approximation de la loi binomiale par la loi de Poisson

Comme on l’a déjà mentionné, la loi de Poisson offre une approximation satisfaisante de ia loi binomiale lorsque n est grand et que p est petit. On pose alors c = np. En règle générale, p doit avoir une valeur inférieure à 0,1 pour que cette approximation soit valable. Plus p est petit et plus n est grand, plus la loi de Poisson fournit une bonne approximation. Exemple 4.11

Chacun des 4000 rivets de l’aile d’un avion neuf a une probabilité de 0,001 d’être défectueux. Quelle est la probabilité que l’aile ne compte pas plus de 2 rivets défectueux ? 2 4000 \ P(X < 2) (0,001)* (0,999)4000- * = 0,237 96. X x=0 J Si l’on utilise la loi de Poisson comme approximation, c = 4000(0,001) = 4 et

2 P(X < 2)~

«rV /x! = 0,238 10 ;c=0

Somme de variables aléatoires indépendantes

X.~ Bernoulli (p)

Y ~ Binomiale (&, p)

X. ~ Binomiale (n , p)

Y ~ Binomiale(n, p), où n = n,1+ ••• + n k

X ~ Géométrique (p)

Y ~ Pascal(fc, p)

X ~ Pascal (r , p ) X.~ Poisson (c )

Y ~ Pascal(r, p), où -— — --------------------------_— —

—-,

--t

Y ~ Poisson (c), où c = c,1+ ••• + ctk

r=

r

0

»

«

Principales distributions de variables aléatoires discrètes o > 12 H

m 3 3

Quelques lois de probabilité discrètes

/



-

b) Quel est le nombre de succès le plus



Pour tous les exercices qui s’y prêtent :

probable ? c) Quelle est la probabilité que la cin­ quième mission soit la première à échouer ?

1) définissez clairement la variable aléatoire utilisée ; 2) déterminez la loi qui s’applique et la valeur des paramètres de celle-ci ; 3) puis calculez la quantité demandée. _____________ ______ 4.1

4.3

Un producteur de semences a prévu envoyer un vendeur chez une douzaine de clients importants (qui ne se connaissent pas entre eux). a) On estime à 0,5 la probabilité qu’un client rencontré passe une commande. Quelle est la probabilité que le produc­ teur reçoive au moins 4 commandes à la suite de ces visites ? b) Supposons que le vendeur visite des clients jusqu’à ce qu’il obtienne 3 commandes. Combien de clients en moyenne le vendeur devra-t-il rencon­ trer ? Quel est l’écart-type du nombre de clients à rencontrer ?

Pour chacun des contextes suivants, déterminez la loi de la variable aléatoire ainsi que la valeur des paramètres lorsque l’information est suffisante. a) Vous allez travailler en transport en commun. Soit X, le nombre de fois où l’autobus arrive en retard lors de vos 10 passages hebdomadaires. b) Un enfant accepte de jouer au jeu de ser­ pents et échelles avec son ami jusqu’à ce qu’il perde une partie. Soit Y, le nombre de parties jouées (incluant la défaite). 4.4 Supposons qu’une valise a une probabi­ c) Le nouveau gestionnaire d’un centre lité de 0,6 % d’être égarée lors d’un vol d’appels veut mesurer le nombre d’ap­ commercial entre deux aéroports nordpels traités en une heure, et on lui a américains, et que cette probabilité ne dit qu’on y traitait en moyenne un appel change pas d’une valise à l’autre. toutes les trois minutes. a) Les 120 passagers d’un vol reliant d) Un directeur de production laisse Montréal à Chicago ont enregistré fonctionner les machines jusqu’à ce qu’il 90 valises. Quelle est la probabilité que détecte deux produits hors normes. Il toutes les valises arrivent à destination compte le nombre de produits inspectés. sans être égarées ? e) Pierre lance un dé jusqu’à l’obtention b) Lors de votre prochain voyage d’af­ d’un 5 ou d’un 6. Il compte chaque fois faires, vous prendrez l’avion 4 fois. le nombre de lancers nécessaires. Quelle est la probabilité que votre valise f ) Environ 0,5 % des employés sont absents soit égarée exactement une fois ? pour cause de maladie lors d’une jour­ née standard. Un administrateur d’une 4.5 Une chaîne de production de transis­ compagnie de 550 employés s’intéresse tors génère en moyenne 2 % d’unités au nombre d’employés malades en une défectueuses. On y prélève aux 2 heures journée. un échantillon aléatoire de 50 unités. Si g) Un joueur de cartes s’intéresse au nombre cet échantillon renferme plus de 2 unités d’as dans une main de cinq cartes. défectueuses, il faut interrompre la production. On planifie 6 missions spatiales indépen­ a) Déterminez la probabilité que ce plan dantes. Chacune a une probabilité de suc­ d’échantillonnage engendre une inter­ cès estimée à 0,95. ruption de la production. a) Quelle est la probabilité qu’au moins b) Quelle est la probabilité de prélever trois 5 de ces missions soient couronnées échantillons consécutifs sans défauts ? de succès ? %

4.2

129

130

C H A PITR E 4

4.6

On sait que 1 % des voyants de clignotants produits par un procédé donné sont défec­ tueux. Supposez que cette valeur demeure constante et qu’on prélève 100 voyants au hasard. a) Quelle est la probabilité qu’il y ait au plus 2 clignotants défectueux dans l’échantillon ? b) Sachant que les 60 premiers voyants testés renfermaient un seul voyant défectueux, quelle est la probabilité que le lot de 100 contienne deux voyants défectueux au total ?

4.7

On veut transmettre un message électro­ nique composé des chiffres 0 et 1. Les conditions imparfaites de transmission font en sorte qu’il y a une probabilité égale à 0,1 qu’un 0 soit changé en un 1 et qu’un 1 soit changé en un 0 lors de la réception, et ce, de façon indépendante pour chaque chiffre. Afin d’améliorer la qualité de la trans­ mission, on propose de transmettre le bloc 00000 au lieu de 0 et le bloc 11111 au lieu de 1, et de traduire une majorité de 0 dans un bloc lors de la réception par 0 et une majorité de 1 par 1. a) Quelle est la probabilité de recevoir une majorité de 1 si 00000 est transmis ? b) Quelle est la probabilité de recevoir une majorité de 1 si 11111 est transmis? c) Quelle est la probabilité qu’un message de trois bits, comme 101, soit trans­ mis sans erreur avec cette nouvelle technique ?

4.8

Pour chacun des graphiques suivants, déter­ minez la distribution des paramètres la plus plausible en fonction des choix proposés ci-dessous. 1) Poisson (c = 3) 2) Poisson (c = 6) 3) Géométrique (p = 0,4) 4) Géométrique 5) Binomiale(« = 10, 0,4) 6) Binomiale(« = 9, p = 0,5) 7) Pascal(r = 3,p = 0,7) 8) Pascal (r = 2,

(p= 0,3)

p = 0,3)

4.9

V

A un jeu avec un adversaire, on a une probabilité p de gagner, q de perdre et 1— p— qde faire une partie ce dernier cas, on détermine qui sera le gagnant par tirage au sort en lançant une pièce de monnaie. On joue une suite de parties indépendantes dans les mêmes conditions. Déterminez la loi des variables aléatoires suivantes : a) le nombre de parties jusqu’à la première partie nulle ; b) le nombre de parties jusqu’à la première partie qu’on gagne par tirage au sort ; c) le nombre de parties jusqu’à la première partie qu’on gagne.

Quelques lois de probabilité discrètes

d) Supposons maintenant que p = 2/3 et q —1/3. Calculez la probabilité de gagner pour la quatrième fois à la septième partie. 4.10 Vous appelez un service à la clientèle

jusqu’à ce que vous réussissiez à parler à un employé. On sait que la probabilité que vous ayez à appeler deux fois est de 0,16. a) Déterminez la loi du nombre d’appels à effectuer ainsi que son ou ses para­ mètres, si possible. b) On vous informe que la probabilité de devoir appeler trois fois pour parler à quelqu’un est inférieure à 10%. Quelle est la probabilité qu’un employé vous réponde dès votre premier appel ? 4.11 On compte effectuer en laboratoire 5 expé­

riences identiques et indépendantes. Chacune de ces expériences n’a qu’une pro­ babilité de succès p en raison de l’incidence importante des conditions ambiantes. a) Déterminez, en fonction de p, la proba­ bilité que la cinquième expérience soit la première à échouer. b) Déterminez mathématiquement la valeur de p qui maximise la probabilité que la cinquième expérience soit la première à échouer. 4.12 Une entreprise spécialisée en systèmes de

chenilles a décidé de faire une tournée de clients possibles jusqu’à ce qu’elle décroche une commande. Or, la première visite coûte 10 000 $, et il faut débourser 4 000 $ pour chaque visite supplémentaire. On considère que les clients prennent des décisions indé­ pendamment les uns des autres. a) Quel est le coût le plus probable de cette opération ? b) Quel est le coût moyen d’une vente si la probabilité de réaliser une vente à la suite de toute visite est de 0,10? c) Devrait-on effectuer ces visites si le bénéfice prévu de chaque vente est de 25 000 $ ? d) Si l’entreprise ne consacre que 100 000 $ au démarchage, quelle est la probabilité

131

qu’elle épuise cette somme sans obtenir une seule commande ? e) Quel est l’écart-type du coût de cette opération ?

4.13 La probabilité qu’une compagnie d’explora­

tion pétrolière trouve du pétrole en creusant un puits dans une certaine région est de 0.8. Sachant que les forages s’effectuent de façon indépendante, déterminez la probabilité que la compagnie trouve du pétrole en procédant : a) à 2 forages ou moins ; b) à 3 forages ou moins ; c) à 8 forages ou moins, sachant que les 5 premiers forages n’ont pas permis de trouver de pétrole. 4.14 Chaque jour du printemps, la probabilité

qu’un orage survienne à Atlanta est de 0,05. On suppose que les occurrences sont indépendantes et que le printemps débute le 21 mars. a) À quelle date en moyenne se produira le premier orage du printemps à Atlanta ? b) Quelle est la probabilité que le premier orage se produise le 25 avril ? c) Quelle est la probabilité d’un premier orage le 25 avril, sachant que nous sommes le 15 avril et qu’il n’a pas encore plu ? d) Quelle est la probabilité que le 3e orage survienne le 1er mai ? e) Quelle est la probabilité que le 3e orage survienne le 1er mai, sachant que nous sommes le 15 avril et qu’il a plu aujourd’hui pour la première fois du printemps ? 4.15 Chaque heure, un client potentiel se pré­

sente chez un concessionnaire automobile. Chaque fois, la vendeuse a 1 chance sur 5 . de conclure une transaction. Cette employée décide de travailler jusqu’à ce qu’elle ait vendu 2 véhicules. a) Quelle est la probabilité que la vendeuse ait à travailler exactement 8 heures ? b) Si elle utilise la même tactique chaque jour, combien d’heures en moyenne travaillera-t-elle en une journée ?

CHAPITRE 4

4.16 On procède à des entrevues pour combler 2 postes vacants. La probabilité que toute personne rencontrée possède les qualités voulues et accepte un poste est de 0,8. a) Quelle est la probabilité de devoir effectuer exactement 4 entrevues pour combler les 2 postes ? b) Quelle est la probabilité de devoir effec­ tuer moins de 4 entrevues ? 4.17 Soit une expérience dont la probabilité de succès est de 0,80. On compte refaire cette expérience jusqu’à ce qu’on l’ait réussie 5 fois. a ) Combien de fois en moyenne doiton s’attendre à devoir effectuer l’expérience ? b) Quelle est la variance du nombre d’exécutions ? 4.18 Une compagnie minière veut déterminer s’il est pertinent d’exploiter un site en particulier. Il faut 4 forages fructueux pour qu’un site soit choisi. Si la proba­ bilité de découvrir le minerai est de 0,9 dans cette région, et que la compagnie peut se permettre 6 forages d’essais avant d’abandonner l’exploration, quelle est la probabilité que ce site soit sélectionné pour l’exploitation ? 4.19 Un lot de 25 téléviseurs doit subir un essai d’acceptation. On prélève 5 téléviseurs au hasard, sans remise, et on les vérifie. Si 2 téléviseurs ou moins connaissent une défaillance, on accepte le reste du lot. Dans le cas contraire, on refuse le lot. Supposez ici que le lot renferme 4 téléviseurs défectueux. a) Quelle est la probabilité exacte qu’on accepte le lot ? b) Quelle est la probabilité qu’on accepte le lot selon la loi binomiale de paramètre p = ^ ? c) Si l’on avait un lot de 100 téléviseurs au lieu de 25, la loi binomiale donnerait-elle encore une approximation satisfaisante ? 4.20 Une acheteuse reçoit des appareils de haute précision en lots de 25. Elle veut s’assurer de refuser 95 % du temps tout lot renfermant au

moins 7 unités défectueuses. Si elle décide que la présence d’une seule unité défectueuse dans un échantillon est suffisante pour justi­ fier le refus d’un lot, quelle devra être la taille de l’échantillon ? 4.21 On estime qu’en moyenne 25 véhicules tra­

-

versent une intersection donnée en 1 heure. Supposez que le nombre de véhicules obéit à une loi de Poisson. a) Déterminez la probabilité que 8 à 10 véhicules traversent cette intersection durant un intervalle quelconque de 1 heure. b) Déterminez la moyenne et l’écart-type du nombre de véhicules qui traversent cette intersection en 24 heures si on considère que le trafic est constant. c) En raison d’une défectuosité du comp­ teur automatique, chaque véhicule a une probabilité de 10 % de ne pas être détecté. Déterminez alors la probabilité que de 8 à 10 véhicules soient détectés lors d’une heure quelconque.

4.22 Soit un métier où un fil se brise environ

toutes les 10 heures en moyenne. La fabri­ cation d’un certain type de tissu à l’aide de ce métier exige 25 heures. S’il faut 3 bris de fil ou plus pour rendre le produit fini inacceptable, quelle est la probabilité qu’on obtienne un tissu de qualité satisfaisante ? 4.23 Le nombre de globules rouges par cellule de comptage de 4 mm2 sur une lamelle de microscope obéit à une loi de Poisson de moyenne 28. a) Déterminez la probabilité qu’on observe exactement 28 globules rouges dans 1 cellule de comptage. b) Considérons 10 cellules de comptage indépendantes. Quelle est la probabilité qu’au moins 2 d’entre elles contiennent exactement 28 globules rouges ? c) Déterminez la probabilité qu’on observe plus de 4 globules rouges sur une surface de 1 mm2. d) Si une lamelle contient 100 cellules de comptage remplies de sang, déter­ minez la moyenne et la variance du nombre de globules rouges par lamelle.

Quelques lois de probabilité discrètes

4.24 Des équipes d’entretien en quête d’une certaine pièce de rechange se présentent chaque jour à un local à outils selon une loi de Poisson de paramètre = 2. Or, on conserve normalement à cet endroit 3 exemplaires de la pièce en question. Si ce stock est épuisé, les équipes doivent effectuer un long déplacement jusqu’au magasin central. a) Quelle est la probabilité qu’une ou plusieurs équipes aient à se rendre au magasin central au cours d’une journée quelconque ? b) Quelle est la demande quotidienne moyenne de la pièce de rechange ? c) Quel est le nombre moyen d’équipes d’entretien qu’on approvisionne chaque jour au local à outils ? d) Quel est le nombre moyen d’équipes devant se rendre au magasin central ? e) En vous basant sur les valeurs de la table I de l’annexe, combien d’exem­ plaires de la pièce doit-on stocker au local à outils pour pouvoir satisfaire à la demande de toutes les équipes d’entre­ tien 90 % du temps ? m

4.25 Une importante société d’assurance a découvert que 0,2 % de la population subit des blessures causées dans un certain type d’accident. Or, elle assure 15 000 personnes contre un tel accident. On considère que ces personnes sont indépendantes les unes des autres. a) Quelle est la loi de probabilité du nombre de personnes à indemniser en une année ? b) Quelle est la probabilité que la société reçoive 20 demandes d’indemnité l’an­ née prochaine pour ce type d’accident ?

133

c) Quelle loi de probabilité pourrait être

utilisée comme approximation de la loi déterminée en a) ? d) Quelle est la valeur de la probabilité calculée en b) avec cette approximation ? 4.26 Un libraire reçoit chaque semaine 4 exem­ plaires d’un magazine. En moyenne. 3 clients se présentent par semaine à la recherche d’un exemplaire du magazine, et ce, selon un processus de Poisson. On suppose que les exemplaires non vendus au cours d’une semaine ne peuvent être vendus la semaine suivante. a) Quelle est la probabilité que le libraire vende tous les exemplaires reçus du magazine au cours d’une semaine donnée ? b) Quelle est la probabilité qu’au cours d’un mois (4 semaines), il y ait au moins une semaine durant laquelle le libraire ne vend pas tous les exemplaires du magazine ? c) Déterminez la moyenne et la variance du nombre d’exemplaires du magazine vendus en une semaine. d) Déterminez la moyenne du nombre de clients qui n’obtiennent pas un exem­ plaire du magazine en une semaine. 4.27 Tout véhicule a une probabilité de 0,0001 d’être impliqué dans un accident à une intersection donnée. Or, 10 000 véhicules traversent chaque jour cette intersection. a) Quelle est la probabilité qu’aucun accident ne s’y produise ? b) Quelle est la probabilité qu’il y sur­ vienne 2 accidents ou plus ? c) Utilisez l’approximation de Poisson pour recalculer les probabilités demandées en a) et en b).

« 1 < > * HM 1 < + *

'I ~Ÿ“ t* f **► «4

+ >+ * i f

Hh ^ ^

^

r »i < »

*ous allons maintenant examiner quelques lois de probabilité continues: la loi uniforme continue, la loi exponentielle, la loi gamma et la loi de Weibull. Le chapitre 6 portera sur la loi normale et d’autres lois qui lui sont étroitement liées. La loi normale est la plus importante de toutes les lois de probabilité continues, d’où notre décision de lui consacrer tout un chapitre.

Comme nous l’avons mentionné au chapitre 2, l’image d’une variable aléatoire continue X est formée d’un ou de plusieurs intervalles et implique une certaine idéalisation. Par exemple, les instruments de mesure servant à déterminer la durée de fonctionnement avant défaillance d’un composant électronique ou le temps nécessaire au traitement d’une commande ne peuvent générer qu’un nombre fini de résultats possibles. Néanmoins, on suppose une situation idéale où la durée ou le temps recherché peut prendre n’importe quelle valeur à l’intérieur d’un intervalle donné. Ici encore, nous remplacerons f x(x) par f(x) et Fx(x) par F(x) pour simplifier la notation, lorsque cela ne crée aucune ambiguïté.

5.1

La loi uniforme continue

La loi uniforme constitue le modèle le plus simple parmi les lois de probabilité continues. Cette loi est défi nie dans un intervalle, et sa fonction de densité y est constante. Fonction de densité de la loi uniforme continue

Une variable aléatoire continue X est dite «de loi uniforme dans l’intervalle [a, f i ] » si sa fonction de densité est si a < x < fi sinon, où a et fi sont des constantes réelles telles que

En abrégé, on écrit X ~ U(a, fi).

La figure 5.1 montre deux représentations graphiques de la fonction de densité de cette loi. Comme une variable aléatoire uniforme a une fonction de densité constante sur un intervalle de longueur finie, la valeur de cette fonction doit nécessairem ent correspondre à l ’inverse de la longueur de l ’intervalle pour vérifier la condition

Quelques lois de probabilité continues

J r f.

v »

,r A





/

t

~

*

w

* A

La fonction de densité d'une variable de loi uniforme continue seion differentes valeurs de paramètres

Une variable aléatoire uniforme représente l’équivalent continu de résultats équiprobables en ce sens que pour tout sous-intervalle [a,b],oùa 0

(5.11)

si / < 0,

c e qui correspond à la densité d ’une variable exponentielle (

5 .5 ).

Quelques lois de probabilité continues

139

Par conséquent, on peut décrire comme suit la relation entre la loi exponentielle et la loi de Poisson : si le nombre de réalisations d’un événement obéit à une loi de Poisson conformé­ ment à l’équation 5.7, alors le temps d’attente entre deux réalisations successives obéit à une loi exponentielle, conformément à l’équation 5.11. Soit, par exemple, le nombre de commandes qu’une entreprise reçoit chaque semaine. Si ce nombre obéit à une loi de Poisson, le temps d’attente entre la réception de deux commandes obéit à une loi exponentielle. On a ici deux variables, l’une discrète (le nombre de commandes) et l’autre continue (le temps d’attente), dont les distributions reposent sur le même phénomène. La moyenne et la variance de la loi exponentielle

La moyenne de la loi exponentielle est donnée par E(X)

[

x

Jo

-kx

dx

xe'**\ + 0

e

-Xx

dx

MX.

(5.12)

Ainsi, lorsque X = 2 événements se produisent en moyenne par intervalle de temps (disons par heure), il faut en moyenne MX = 1/2 heure pour observer un premier événement. La variance est définie par V(X)

\ x 2Xe- Xxdx-{MX)2 J0 - x 2e~u °°+ 2 0

Jo

xe~Xx dx

(l/A)

2

MX2.

(5.13)

La loi exponentielle a un écart-type de MX, une valeur égale à sa moyenne. Exemple 5.4

A 1 1

Soit un composant électronique dont on peut représenter la durée de vie utile (X) par une fonction de den­ sité exponentielle indiquant un taux de défaillance de 10-5 à l’heure (c’est-à-dire X= 10~5), d’où une durée moyenne de fonctionnement avant défaillance, E(X), de l/X= 105heures. On veut déterminer la proportion des composants de ce type qui feront défaut avant d’avoir atteint leur durée de vie moyenne ou prévue, soit l/A P /A l , ( n -i [ Xe dx 1- e P X deux procédés génèrent des composants dont la durée de fonctionnement avant défaillance obéit à une 101 exponentielle, mais le procédé Aprésente un taux de défaillance de 1/200 à un taux de défaillance de 1/300 à l’heure. Les composants fabriqués selon le procédé A ont ainsi une du­ rée de vie moyenne de 200 heures et ceux qui sont fabriqués selon le procédé B (plus chers), une durée de vie moyenne de 300 heures. Or, une clause de garantie oblige le fabricant à verser une indemnité de 50 dollars pour tout composant qui fonctionne moins de 400 heures avant de connaître une défaillance. Si X représente la durée de fonctionnement avant défaillance de chaque composant, on peut noter les coûts comme suit : siX >400 si X 400 si X < 400.

k* 100 £•100 + 50

CB

Pour quelle valeur du facteur multiplicatif k le procédé B devient-il avantageux à long terme ? Les coûts moyens s’établissent ainsi à c*400 1 - x / 2 0 0 1 - x /2 0 0 dx e e dx + 100 Jf* E(Ca) 150 [ Jo 200 400 200 150

e

-x /2 0 0

400

+ 100

0

e

-x/200

400

100 + 50(l-éT2) et à E(Cb) = (£*100 + 50)

f 400

1

300 £•100 + 50(1 - e-4'3).

e

- jc/300

1 - jc/300 e dx dx + k 100 Jf* 400 300

On peut s’attendre à ce que le fabricant opte pour le procédé B si E(CB) < E(CA). Cela survient lorsque 50 -2 -4/3 £< 1 e ) 1,0641. Il faudrait donc que le coût de revient de B soit inférieur à 106,41 $. (e 100

L'absence de mémoire de la loi exponentielle La loi exponentielle présente une propriété intéressante qui la distingue des autres lois de pro­ babilité continues, son absence de mémoire. En effet, pour tout jc > 0, et 0,

P(X>x +s \X > x )

P( X > x + s) P( X > x) e e

-Â x

e'**,

de sorte que P ( X > T + 5 | X > JC ) = P ( X > 5 ) .

(5.14)

Quelques lois de probabilité continues

141

À titre d’illustration, soit un tube cathodique dont la durée de fonctionnement avant défail­ lance obéit à une loi exponentielle. Si ce tube fonctionne encore après 1000 heures, sa durée de fonctionnement avant défaillance obéira alors à la même loi exponentielle qu’au moment de la mise en marche du tube. Autrement dit, la probabilité qu’il cesse de fonctionner durant la prochaine heure est la même que la probabilité de cesser de fonctionner durant l’heure suivant sa mise en marche. Cette propriété d’absence de mémoire (ou de «non-vieillissement») indique que la loi exponentielle ne tient pas compte de la fatigue ni de l’usure. Par conséquent, cette loi doit être utilisée avec prudence dans la pratique si on veut modéliser la durée de fonctionnem ent (ou de vie) d’un composant. Exemple 5.6

Considérons un détecteur de mouvement activé en moyenne toutes les 6 minutes par un passant. Le temps écoulé entre deux passants suit donc une loi exponentielle de paramètre A= 1/6, dont la densité est illustrée à la figure 5.7. La probabilité que le prochain passant à générer un signal arrive dans plus de 4 minutes correspond à la surface A de la figure 5.7a), et se calcule ainsi : P(X > 4) = 1- F(4) =

—(l/6 )(4 )

0,513.

Supposons que personne n’est passé depuis 6 minutes. Quelle est la probabilité qu’aucun passant n’active le détecteur d’ici les 4 prochaines minutes ? Autrement dit, quelle est la probabilité qu’un intervalle de 10 minutes s’écoule sans passant, sachant que rien n’a été détecté dans les 6 premières minutes ? P(X > 10 |X > 6) correspond au rapport des surfaces C/(B + C) de la figure 5.7b), et se calcule ainsi : -0/6X 10)

P(X>10 X > 6)

P(X > 10) _ g -0/6 X 6 ) P(X > 6) “ e

-0 /6 X 4 )

e

0,513.

Le fait que personne ne soit passé dans les 6 premières minutes ne change donc rien à la probabilité que quelqu’un passe dans les 4 prochaines minutes. Voilà pourquoi on parle d’absence de mémoire pour la loi exponentielle. A m 0, 2 -

a) P(X > 4)

x 4 8 12 16 20 b) P(X> 10 | X> 6) = Cl{B + C)

La densité de la loi exponentielle de paramètre A = 1/6

\ t

142

CHAPITRE 5

5.3 La loi gamma La fonction gamma O n définit la loi de probabilité gam ma à partir de la fonction gam m a (représentée par la lettre grecque T), soit

pour

a0.

L ’intégration par parties de cette fonction met en lumière une im portante relation récursive: T(a) = ( a - 1) T ( a - 1).

(5.16)

Lorsque a est un nombre entier positif n, on a r(n ) = ( n - 1)!,

(5.17)

puisque T (l) = J e~x d x = 1. La fonction gamma constitue donc une géné torielle. Les valeurs de la fonction gamma en certains points particuliers sont connues. Par exemple, il est démontré que

La fonction de densité de la loi gamma Fonction de densité de la loi gamma

Une variable aléatoire continue X est dite «de loi gamma de paramètres densité est de la forme *

.



.

.

i

•• ‘ ® '

— —*



■■

*

«

*

.

'

a.

.

_





.*

*

' «

'

et

si sa fonction de ..

sinon, où

r > 0 et

X>0. En abrégé, on écrit X

Gamma(r, A).

On qualifie généralement le paramètre r de « paramètre de form e » et le param ètre A de «param ètre de dispersion». La figure 5.8 montre la courbe de quelques fonctions de densité gam m a ayant des paramètres différents. La fonction de répartition de la loi gamma Fonction de répartition de la loi gamma

*® ®® . ' •. ** #» ® . Voici la fonction de répartition d’une variable X ~ Gamma(r, A) : . . .

®,

>

.

/



.

.

»

*

.

.

,



*

••

.

.

i

.

»

*

/

s

si

jc

< 0

si x > 0.

Lorsque r est un nombre entier positif, on peut intégrer cette fonction par parties, ce qui donne

Quelques lois de probabilité continues

0 FtX)

/•-1 < 1 e

143

si x < 0 (Ax)k/k\

(5.21)

si x 0>,

Jt=0

V Uli rm Iv une variabl /% f Ax.On peut donc évaluer la fonction de rép répartition

moins la somme des r premiers suit une loi de Poisson de paramètre gamma

«

%

L iL /

9

v

0, 2 -

i

b) r = 5,A= 1

d) r = 5, A= 1/2

Quatre fonctions de densité gamma de paramètres différents

La relation entre la loi gamma et la loi exponentielle

Il existe un lien étroit entre la loi exponentielle et la loi gamma. En effet, lorsque r — 1, la loi gamma se réduit à la loi exponentielle. Toute variable aléatoire X qui représente la somme de r variables aléatoires indépendantes obéissant chacune à une loi exponentielle de paramètre A constitue en fait une variable gamma de paramètres r et A. En d’autres termes, si F = X, + X2H----- 1-X,

(5.22)

où X est une variable de loi exponentielle (A) indépendante des autres, alors Y ~ Gammafr. A).

144

CHAPITRE 5

Im aginons un contexte où des événements surviennent à un taux moyen constant, par exemple, des patients se présentant à l’urgence d’un hôpital au rythm e moyen de 10 patients par heure. On pourrait définir plusieurs variables aléatoires à partir de ce contexte, par exemple les trois suivantes : W= nombre de patients qui arrivent en une heure ~ Poisson(X 10); X temps écoulé entre l’arrivée de deux patients Exp(A 10); Y temps écoulé jusqu’à l’arrivée de cinq patients ~ G am m a(r 5,

10)

On utilise parfois le terme « loi d ’Erlang» pour désigner le cas particulier où r est un nombre entier positif. La moyenne et la variance de la loi gamma

On peut démontrer que la moyenne de la loi gamma se traduit par E{X) =

(5.23)

V(X) =

(5.24)

et sa variance, par

Ces deux équations s’appliquent, que r soit ou non un nombre entier. Si r est un nombre entier, il suffit d’adopter l’interprétation où X est une somme de r variables exponentielles indé­ pendantes pour découvrir que E (X=) E ( X l) + •••+

r • 1/X =

et que V( X) = V ( X l)+ ■■■+ V ( X r) = r • 1/A2 = r / X 2. Exemple 5.7

Soit le système redondant présenté à la figure 5.9. Au début, l’élément 1 est en fonction, tandis que les éléments 2 et 3 sont en attente. Dès que l’élément 1 connaît une défaillance, le commutateur active l’élément 2. Lorsque ce dernier tombe en panne à son tour, le commutateur active l’élément 3. On suppose que le commutateur effectue parfaitement son travail, ce qui permet d’envisager la durée de vie X du système comme la somme de la durée de vie de ses trois éléments, d ’où X = X t + X2 + Xy

j Élément 1 b n Élément 2



Élément 3

Un système à redondance passive

Si la durée de vie de chaque élément (en jours), soit X., pour = 1, 2, 3, est indépendante de celle des autres et présente une densité exponentielle (X = 0,01), alors X est une variable gamma de paramètres ► r = 3 et X = 0,01 et sa fonction de densité est

Quelques lois de probabilité continues

0,01

/(*)

2!

2 _-0,0l*

(0,0lxYe

145

si x > 0

0

sinon.

Puisque chaque élément a une durée de vie exponentielle de paramètre X - 0,01, la durée moyenne est de 100 jours. La durée de vie du système est la somme des durées de vie des éléments individuels, donc il dure en moyenne 300 jours. Son écart-type est égal à V3/0,01 = 173,2 jours. La probabilité que le système fonctionne pendant au moins x jours, notée /?(*), porte le nom de « fonc­ tion de fiabilité ». Dans le présent cas, cette fonction se traduit par R(x)

1-

-0,01J /r\ n i ,.\k

e

F

(0,01x)/&!

4 =0

-0 ,0 1 * e [l + (0,01*) + (0,01*)2/2l. Ainsi, la probabilité que le système fonctionne pendant au moins un an est -0 ,0 1 (3 6 5 )

Æ(365) = e

1+ 0,01(365) +

[0,01(365)]

0,294.

2

La loi de Weihull La loi de Weibull constitue une excellente approximation de la loi de probabilité de nombreuses variables aléatoires. On l’utilise entre autres fréquemment pour modéliser la durée de fonction­ nement avant défaillance d’éléments et de systèmes électriques ou mécaniques. Fonction de densité de la loi de Weibull

Une variable aléatoire continue X est dite «de loi de Weibull de paramètres gamma, bêta et delta minuscules)» si sa fonction de densité est de la forme

(lettres grecques

si * > y sinon. où p > 0, ô > 0 et —oo < y < °o. En abrégé, on écrit X ~ Weibulfi)' (5, ô). Lorsqu’on attribue aux trois paramètres une valeur appropriée, la loi de Weibull fournit une très bonne approximation de la loi de probabilité de nombreux phénomènes expérimentaux. • Le paramètre p est un param ètre de forme. Lorsqu’il est inférieur à 1, il fait réference à un taux de panne décroissant, idéal pour modéliser les défaillances précoces. Lorsqu’il est supérieur à 1, la densité correspond à un taux de panne croissant, comme dans les phé­ nomènes de vieillissement ou d’usure. On modélise alors la fin de vie utile d’un produit • Le paramètre ô est un param ètre de dispersion, ou d’échelle. Plus il est élevé, plus la variance est grande. • Le paramètre /constitue un param ètre de position. Les valeurs possibles de * sont supérieures à /

146

CHAPITRE 5

La figure 5.10 montre la courbe de la fonction de densité d’une variable de Weibull pour différentes valeurs de paramètres.

b) 7 = 0,/?= 1/2, ô = l

d) 7 = 0,/?= 5,

=2

Quatre fonctions de densité de la loi de Weibull avec différentes valeurs de paramètres ■ /

(5.26) ?

—•

>

La relation entre la loi de Weibull et la loi exponentielle Lorsque y - 0 et J3= 1, la loi de Weibull se réduit à une loi exponentielle de paramètre À = VS. On parle alors d’un taux de panne constant. Bien que la loi exponentielle constitue à la fois un cas particulier de la loi gamma et de la loi de Weibull, ces deux dernières lois ne sont généra­ lement pas interchangeables.

Quelques lois de probabilité continues

147

La moyenne et la variance de la loi de Weïbufl On peut démontrer que la moyenne de la loi de Weibull se traduit par

et sa variance, par

Exemple 5.8

Un certain sous-ensemble électronique a une durée de fonctionnement avant défaillance (en heures) qui obéit à une loi de Weibull de paramètres y = 0, 100. Par conséquent, on s’attend à ce que la proportion des sous-ensembles qui fonctionnent encore au bout de 400 heures soit égale à 1 - F(400) = e~'m m = 0,135. La durée moyenne de fonctionnement avant défaillance est ici de E(X) = 0 + 100(2) = 200 heures.

Exemple 5.9

Berrettoni (1964) a énuméré un certain nombre d’applications de la loi de Weibull. Voici quelques exemples de processus naturels obéissant à une loi de probabilité dont la loi de Weibull fournit une très bonne approximation. La variable aléatoire est notée X dans chaque cas. 1. La résistance à la corrosion de tôles en alliage de magnésium. X : la perte de poids (en 10* 21543mg/[cm2][jour]) attribuable à la corrosion lorsqu’on plonge les tôles dans une solution aqueuse à 20 % de MgBr2avec inhibiteur. 2. Les marchandises retournées, classées selon le nombre de semaines qui séparent l’envoi de ces marchandises de leur retour. X: le temps écoulé (en 10-1 semaines) entre le moment où l’on expédie un article et celui où le client le retourne parce qu’il est défectueux. 3. Le nombre de temps d’arrêt par quart de travail. X : le nombre de temps d’arrêt par quart de travail (multiplié par 10-1) dans le cas d’une chaîne de montage continue, complexe et automatisée. 4. L’apparition de fuites dans des piles sèches. X: l’âge des piles (en années) au moment où celles-ci commencent à fuir. 5. La fiabilité de condensateurs. X : la durée de vie utile (en heures) de condensateurs au tantale de 3,3 pF et de 50 V température ambiante C, sachant que la tension nominale est de 33 V.

à

T

' A '



X

v



’r

.

^

'S J r • # ;: . j s s

>

Temps d'attente d'un phénomène régulier

* |

ç # ,v

» /

y

^ rare rares?%»?irâ&r DD m

r

v

v i*

00

Lois de probabilité continues *

« i

£

R ésum é n

»

a-\

-x

e dx, et T(n)

si n est entier.

Somme de variables exponentielles

Si X,,. . X ~ Exp(A) indépendantes, alors X, + X2+ ••• + X ~ Gamma(r, A).

V

ï

.

- I * ____

Quelques lois de probabilité continues

/

---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

Pour tous les exercices qui s’y prêtent :

5.4

Une agente immobilière exige un tarif fixe de 500$ et une commission égale à 4 % du montant de la vente de l’immeuble. En supposant que ce montant est uniformément distribué entre 200 000 $ et 600 000 $, déter­ minez l’espérance et la variance du total des honoraires de l’agente.

5.5

Soit X une variable de loi uniforme symétrique par rapport à 0 et de variance 1. Déterminez la valeur anorooriée de a et AA A de p.

•>

1) définissez clairement la variable aléatoire utilisée ; 2) déterminez la loi qui s’applique et la valeur des paramètres de celle-ci ; 3) puis calculez la quantité demandée. 5.1

On choisit au hasard un point du segment de droite [0,4]. a) Quelle est la probabilité que ce point se situe entre 0,5 et 1,75 ? b) Supposons qu’on réalise cette expé­ rience aléatoire un très grand nombre de fois, en notant le résultat chaque fois. Quelle sera la moyenne approximative de toutes ces valeurs ? Quel en sera l’écart-type approximatif? c) Y a-t-il autant de chances que le nombre choisi soit inférieur à l’espérance que supérieur à l’espérance ? 9

5.2

5.3

-

*

Le cours d’ouverture d’un certain titre boursier est distribué uniformément entre 35 $ et 45 $. a) Déterminez la fonction de répartition du cours d’ouverture. b) Quelle est la probabilité, peu importe le jour, que ce cours soit inférieur à 41 $ ? c) Sans faire le calcul, pouvez-vous dire si l’écart-type du cours d’ouverture de ce titre est supérieur à 10$ ? Déterminez si les énoncés suivants sont vrais ou faux. a) Si X~ 1/(2,10), alors > 4) P(X< 8).

=

b) Si X ~ U{0,4), alors P(X > 4 |X > 1) = P(X > 4). c) Si X ~1/(1, 5), alors > 4 |X > 2) = P(X > 2). d) Deux variables aléatoires suivant des lois uniformes de paramètres différents peuvent avoir la même espérance sans avoir la même variance. e) Deux variables aléatoires suivant des lois uniformes de paramètres différents peuvent avoir la même variance sans avoir la même espérance. %

149

5.6 Une machine sert à la production en série de rondelles dont l’épaisseur (en millimètres) X varie uniformément dans l’intervalle [5,7]. Supposons que pour une application particulière, une rondelle est considérée comme étant conforme si son épaisseur (en millimètres) se situe dans l’intervalle [5,02,6,98]. a) Déterminez la moyenne et l’écart-type de l’épaisseur des rondelles de cette production. b) Quelle est la probabilité qu’une rondelle prise au hasard dans la production soit conforme ? c) Supposons que le contrôle de la qualité consiste à examiner une rondelle de la production chaque demi-heure. Déterminez la moyenne et l’écart-type (en minutes) du temps nécessaire pour observer une première rondelle non conforme. d) Les rondelles de la production sont expédiées aux clients dans des boîtes de 50. On considère une boîte de rondelles prise au hasard. i) Quelle est la probabilité que la boîte contienne moins de 3 rondelles non conformes ? ii) Déterminez la moyenne et l’écarttype du nombre de rondelles non conformes de la boîte. *

§

5.7

Soit la variable aléatoire X uniforme sur l’intervalle [-1,3]. a) Quelle est la probabilité que l’équation y2+ 4y + X= 0 possède des racines réelles ?

150

CH APITRE 5

5.10 On considère que la durée de vie (en jours) b) Quelle est la probabilité que l’équation d’un type de pile est une variable X dont la y2 + 4Xy + 1 = 0 possède des racines fonction de répartition est donnée par réelles ? r c) Quelle est la probabilité que l’équation si x > 0 y2 + 4Xy+ X = 0 possède des racines F(x) = < sinon, réelles ? 5.8

Le groupe motopropulseur d’un véhicule neuf comporte une garantie de 1 an. On estime sa durée de vie moyenne à 3 ans. Sa durée de fonctionnement avant défaillance obéit à une loi exponentielle. a) Quel'pourcentage des véhicules connaî­ tront une défaillance du groupe motopropulseur au cours de leurs 6 premiers mois d’utilisation ? b) Le concessionnaire réalise un bénéfice de 1000 $ à la vente d’un véhicule neuf. Il doit cependant débourser 250 $ pour les pièces et la main-d’œuvre si une défaillance survient durant la période de garantie. Si on suppose que, pour chaque véhicule vendu, le concession­ naire honore sa garantie une seule fois, quel est son bénéfice moyen par véhicule ? & *

5.9

En vous aidant du graphique de la fonc­ tion de densité de la loi exponentielle de paramètre X = 1/5 présenté ci-dessous, et sans faire de calcul, déterminez si les deux probabilités proposées à chaque énoncé sont égales. Sinon, identifiez la plus grande.

où k est une constante positive. On sait de plus que 40 % des piles de ce type fonctionnent pendant au moins 23 jours. a) Déterminez la valeur de la constante k. b) Déterminez la moyenne et la variance de la durée de vie de ce type de pile. c) Dix piles de ce type sont mises en service et fonctionnent indépendamment les unes des autres. Quelle est la probabilité que 20 jours plus tard, au moins 9 piles fonctionnent encore ? 5.11 On estime que la durée de fonctionnement

avant défaillance d’un certain type de tube cathodique obéit à une loi exponentielle et est en moyenne de 3 ans. Une entreprise offre une assurance contre toute défaillance de ces tubes durant leur première année d’utilisation. a) À quel pourcentage de ses assurés l’entreprise devra-t-elle verser une indemnité ? b) Quel est l’écart-type de la durée de fonctionnement avant défaillance ? 5.12 Soit des écrans à usage commercial dont

le fabricant garantit le tube cathodique pour une période de 1 an (8760 heures). Ces écrans servent à afficher l’horaire des vols dans les aérogares, et on ne les éteint jamais. Leurs tubes durent en moyenne 20 000 heures, et leur durée de fonctionne­ ment avant défaillance obéit à une loi expo­ nentielle. Le fabricant débourse 300 $ pour assembler, vendre et livrer un écran vendu 400 $. Il lui en coûte 150 $ pour remplacer tout tube défectueux. Le fabricant n’est cependant pas tenu de remplacer plus d’une fois le tube d’un même écran. a) Comment le bénéfice se définit-il en fonction de la durée de vie d ’un écran? b) Quelle est la fonction de masse du bénéfice ? «

a) P(X > 5) ou P(X < 5) b) P(X> 1/5) ou P(X< 1/5) c) P(X>5)ouP(X>5\X>2) d) P(0 < X < 2) ou P(1 0,r>0 b) Quel est l’écart-type du temps de fonc­ 0 sinon. tionnement du système ? c) Que deviendraient l’espérance et l’écarta) Montrez que la loi bêta se réduit à la loi type du temps de fonctionnement si on uniforme lorsque = 1. utilisait 5 composants au lieu de 4 ? b) Montrez que la loi bêta a une fonction de 5.22 Le délai de réapprovisionnement pour un densité de forme triangulaire lorsque produit donné obéit à une loi gamma dont A = 2 et r = 1, et lorsque A —1 et r = 2. *

'





>

'

-

*

'



.





,

-

.

>

-

Quelques lois de probabilité continues

c) Montrez que la loi bêta se réduit à une

loi parabolique lorsque

= 2.

a) Quelle est la probabilité qu’une telle pile

fonctionne plus de 700 heures ? b) Quelle est la probabilité qu’une pile dure 5.25 Soit des tiges en acier dont le diamètre plus de 700 heures avant que les métaux (en cm) obéit à une loi de Weibull de para­ coulent, sachant qu’elle est en fonction mètres y = l, fi = 2 e t ô = 0,5. Déterminez depuis 600 heures ? la probabilité que le diamètre d’une tige c) Quelle est la probabilité qu’une pile choisie au hasard ne dépasse pas 1,5 cm. fonctionne durant plus de 100 heures 5.26 Soit des transistors dont la durée de avant de commencer à fuir? fonctionnement avant défaillance (en d) Si la distribution du temps avant une heures) obéit à une loi de Weibull de para­ fuite était exponentielle de même mètres y =0, fi= 1/3 et = 400. moyenne que la loi de Weibull spécifiée a) Quelle proportion de ces transistors (environ 625 heures), que deviendraient peut-on s’attendre à voir fonctionner les probabilités calculées en a), b) et c) ? au moins 600 heures ? À la lumière de ces comparaisons, lequel b) L’espérance de vie des transistors seraitdes deux modèles semble le mieux tenir elle supérieure ou inférieure à celle de la compte de l’usure des matériaux ? loi décrite... 5.28 Soit de petits systèmes informatiques i) si /? = 1 au lieu de /? = 1/3 ? dont la durée de fonctionnement avant ii) si ô= 600 au lieu de 400 ? défaillance (en heures) obéit à une loi iii) si y = 100 au lieu de 7 = 0? de Weibull de paramètres = 0, /? = 1/4 et ô = 200. 5.27 On s’attend à ce que le temps écoulé a) Quelle proportion de ces systèmes fonc­ (en heures) avant qu’un certain type de tionnera au moins 1000 heures ? pile sèche se mette à fuir obéisse à une loi b) Quelle est la durée moyenne de fonc­ de Weibull de paramètres = 0, = 3 et tionnement avant défaillance ? p) •

Fonction de densité conjointe :

1

/ ( x , , x 2)

2 k 0 \ 0 2J \ - p

2

1 2 0 - p 2)

exp

x i -P i

y

< jc, , jc2 < 00

pour

L ois m arginales : 1

2

N i / u ^ o f ) et X 2 ~ N ( ju2, o ;)

L ois conditionnelles:

X1 x 2

x 2 x1

N P i+ P ^ i

TV P 2 + P°2

X2

\

\

P 2 0 j2( l cr2 y

X1

Pl G220 -1,96) P(|Z| > 1,5) P(—1,9 < Z< 2) P(Z< 1,37) P(|Z| 12,4). c) Évaluez P(4
10) 0,09 0,31 0,50 0,93

6.15 a) Estimez les paramètres

et