Statystyka dla fizyków 8301137029


113 37 112KB

Polish Pages [657] Year 2002

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Spis przykładów
Tytułem wstępu
Część I. DANE
1. Statystyka w fizyce
Część II. JĘZYK
2. Prawdopodobieństwo i jego rozkład
2.1. Pojęcie rozkładu prawdopodobieństwa
2.2. Układ pewników
2.3. Prawdopodobieństwo warunkowe
2.4. Zdarzenia niezależne
2.5. Dystrybuanta
2.6. Przekształcenia zmiennych losowych
2.7. Rozkłady warunkowe i randomizacja
2.8. Twierdzenie Bayesa
3. Parametry zmiennej losowej
3.1. Wartość oczekiwana
3.2. Momenty
3.3. Kowariancja i współczynnik korelacji
3.4. Momenty funkcji zmiennych losowych
3.5. Krzywe regreSji
3.6. Parametry pozycyjne
4. Momenty i statystyki pozycyjne z próby
4.1. Wartość średnia —— prawo wielkich liczb
4.2. Odchyłenie standardowe i wyższe momenty
4.3. Średnia ważona
4.4. Kowariancja
4.5. Efekty systematyczne i ich błędy
4.6. Statystyki pozycyjne z próby
Część III. MODELE
5. Niektóre rozkłady
5.1. Elementy analizy kombinatorycznej
5.2. Rozkład dwu- i wielomianowy
5.2.1. Rozkład dwumianowy — wyprowadzenie
5.2.2. Momenty rozkładu dwumianowego i ich estymatory
5.2.3. Postacie graniczne rozkładu dwumianowego
5.2.4. Rozkład wielomianowy — wyprowadzenie
5.2.5. Momenty rozkładu wielomianowego i ich estymatory
5.2.6. Postać graniczna rozkładu wielomianowego
5.3. Rozkład wykładniczy
5.3.1. Wyprowadzenie
5.3.2. Momenty i ich estymatory
5.3.3. „Brak pamięci”
5.3.4. Szeregi promieniotwórcze
5.4. Rozkład Poissona
5.4.1. Wyprowadzenie
5.4.2. Momenty
5.4.3. Postać graniczna rozkładu Poissona
5.4.4. Czas martwy
5.5. Rozkład Gaussa
5.5.1. Wyprowadzenie — modele Laplace'a i Herschela
5.5.2. Własności rozkładu Gaussa
5.5.3. Centralne twierdzenie graniczne
5.5.4. Binormalny i wielowymiarowy rozkład Gaussa
5.6. Rozkład chi^2
5.6.1. Wyprowadzenie
5.6.2. Własności rozkładu chi^2
5.6.3. Postać graniczna rozkładu chi^2
5.7. Rozkład Studenta
5.7.1. Wyprowadzenie
5.7.2. Własności rozkładu Studenta
5.7.3. Postać graniczna rozkładu Studenta
5.8. Rozkład F Fishera
5.8.1. Wyprowadzenie
5.8.2. Własności rozkładu F
5.8.3. Postać graniczna rozkładu F
5.9. Rozkład Breita-Wignera
5.10. Rozkład jednostajny
5.11. Podsumowanie. Związki między rozkładami
6. Metoda Monte Carlo
6.1. Idea symulacji komputerowej
6.2. Generatory liczb losowych
6.3. Metody generowania rozkładów prawdopodobieństwa
6.4. Typowe zastosowania technik Monte Carlo
Część IV. WNIOSKI
7. Estymacja parametryczna
7.1. Własności estymatorów
7.2.1. Zasada największej wiarogodności
7.2.2. Własności estymatorów największej wiarogodności
7.3. Metoda najmniejszych kwadratów
7.3.1. Zasada najmniejszych kwadratów
7.3.2. Przypadek liniowy
7.3.3. Przypadek liniowy z liniowymi równaniami więzów
7.3.4. Przypadek nieliniowy
7.3.5. Analiza regresji
7.4. Estymacja z ufnością
7.4.1. Metoda estymacji przedziałowej
7.4.2. Estymacja przedziałowa parametrów rozkładu Gaussa
7.4.3. Estymacja przedziałowa w metodzie największej wiarogodności
7.4.4. Estymacja przedziałowa w metodzie najmniejszych kwadratów
7.4.5. Ufność z ograniczeniami
8. Weryfikacja hipotez
8.1. Test istotności
8.2. Test zgodności
9. Stopień racjonalnego zaufania
9.1. Prawdopodobieństwo i statystyka
9.2. Sposobność i jej miara
9.2.1. Algebra Boole'a
9.2.2. Dezyderaty teorii
9.2.3. Prawa operowania stopniem racjonalnego zaufania
9.2.4. Ku prawdopodobieństwu
9.3. Wnioskowanie probabilistyczne
9.3.1. Twierdzenie Bayesa
9.3.2. Probabilistyczna indukcja
9.3.3. Estymacja parametrów z twierdzenia Bayesa
9.3.4. Weryfikacja hipotez z twierdzenia Bayesa
9.4. Prawdopodobieństwo bezpośrednie
9.4.1. Nieinformatywne zaczątki
9.4.2. Minimalnie informatywny zaczątek parametru skalującego
9.4.3. Minimalnie informatywny zaczątek parametru lokacji
9.4.4, Zasada maksymalnej entropii
9.4.5. Metoda najmniejszych kwadratów
9.5. Prawdopodobieństwo personalne
Część V. DODATKI
Dodatek A. Unormowania terminologiczne
Dodatek B. Uzupełnienie
Dodatek C. Prawo mnożenia sposobności
Dodatek D. Prawo dodawania sposobności
Dodatek E. Twierdzenie Shannona
Dodatek F. Rozkłady — podsumowanie
Podziękowania
Skorowidz
Recommend Papers

Statystyka dla fizyków
 8301137029

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

WYDAWNICTWO NAUKOWE PWN WARSZAWA 2002

a k y t s y | Stat w ó k y z f a l d

1 Roman Nowak

Projekt okładki i stron tytułowych MARYNA WIŚNIEWSKA

Redaktor MAŁGORZATA KOPCZYŃSKA

Tytuł dotowany przez Ministra Edukacji Narodowej i Sportu

Copyright © by Wydawnictwo Naukowe PWN Warszawa 2002

Wydawnictwo Naukowe PWN SA

ul. Miodowa

10, 00-251

Warszawa

tel.: 69 54 321, e-mail: pwn©pwn.com.pl

www.pwn.pl

ISBN 83-01-13702-9

SA

BŁĄD

Człowiek jakoby w stroju podróżnym, z zawiązanymi oczami; kroczy macając przed sobą kijem, szuka bowiem drogi,

tak by była jak najpewniejsza. Ale niemal zawsze podąża on w Niewiedzy.

*Wszystkie alegorie i cytaty pochodzą z Ikonologii sporządzonej przez Cesarego Ripę, a wydanej przez Towarzystwo Autorów i Wydawców Prac Naukowych UNIVERSITAS,

Kraków 1998.

Spis treści

Spis przykładów

.................

Tytułem wstępu ..................

Część I. DANE ............... 1. Statystyka w fizyce

Część II.

............

JĘZYK ...........

m...

o...

3.

|...

o.

zr

e

BR

0

o

2

a...

|...

z...

m...

o...

ne

PE

o...

o...

i

o

2

Be.

R

A

R.

2

A.

2

0

ER

o

R

0

e

0

i.

R.

A

A

R



2

Ra

2

2

0

0

PM

0

0

4

23

3

O

2

A

e

2

21

2

22

23

+

P+

33

>

2

0

0

R

2

A

I

4

RA

A

A

2.

2

2

A

>

A

2

A

A

A

A

o

oe

A

BE

A

8

R.

a

2

13

2

35

aan zaniki 011 -weeae aaa aaa nana 2. Prawdopodobieństwo i jego rozkład ...........-

35

a zana n nana narnii: aaa aa ea aaauaeeaaeen 2.1. Pojęcie rozkładu prawdopodobieństwa.........

2.2. Układ pewników ...........

Że

2.3. Prawdopodobieństwo warunkowe 2.4. Zdarzenia niezależne........ 2.5. Dystrybuanta...............

0

0

e

R

2

A.

0.

0

o

A

20.

2

0

e

ne

3

2

2

3

e

2

52 56

e

>

68 88 104

2

+

11ł

2

111 116 124 128 134 136

na enea nart iii: aaaeaa aaa ana aaa nana .....uuereez dd...

z...

w...

2.

o...

e

o.

e

e

Ro

2...

BR o

A

o

0



R

BV

A

A

A

2

A

0

z

R

A

o

A

A

e

A

Pe: e

2

A Ba

aaa aaa naa i iii: aaa anna nana aaaaaa 2.6. Przekształcenia zmiennych losowych ......uuaeaaaa

ana az nn ia: enea nana za eeaa ..uea aaa 2.7. Rozkłady warunkowe i randomizacja .....

2.8. Twierdzenie Bayesa.........

3. Parametry zmiennej losowej ... 3.1. Wartość oczekiwana ........

3.2. 3.3. 3.4. 3.5. 3.6.

w...

e.

e

|...

2

0

a:

o.

|...

Po

z...

i

o

A

R

A

0

a

R

A

R

2

2.

0

2.

ża

o

2

0

A

M

O HE e

A

R

2

2

2

2

Het

A

o

2

A

i

ROB.

2



2

22:

Momenty ..........-1221--. az iii: aa aaa eee cana c nn .ueaea aaa aaa Kowariancja i współczynnik korełacji ...... nana n aa naaz naniaacia: eaeaaaa eee enea Momenty funkcji zmiennych losowych ......u Krzywe regreSji ............ Parametry pozycyjne........ m...

..

O.

w...

o...

0:

R.

i...

O

ORA

2.

BO

2

O

0

VO

PA

EE

A

M

OVO

2

e

2

8

R

O

0

PW

0

R

M

R

O

R

e

R

A

2

A

A

O

20

2

0.

A

2

OP

un

ŁA

2

2

5

O

>

e

z nania iii: aaa nana aaa eeea . Momenty i statystyki pozycyjne z próby ..........-eem

139

netii: aaa nawa a anawa nna ca aaa aaa ..uaa 4.1. Wartość średnia —— prawo wielkich liczb .....

140 144 153 157 160 167

4.2. 4.3. 4.4. 4.5. 4.6.

nan aaa niania ii: eee aaa na aaa -u.ea Odchyłenie standardowe i wyższe momenty....... Średnia ważona ............ Kowariancja ............... narnii 1: ana nana nanaaaa .ueaaa aa naaaaaaaaan Efekty systematyczne i ich błędy .....u Statystyki pozycyjne z próby o... w...

Że

A

0

B.B.

o

o

R

R

2

a

Ee

R

O

o

0.

2.

A

2

e

A

2

2

e:

2

2

o

0

0

PA

e

A.

A HE R

i

e

A

ee

HA

A

2

i

2

e

2

6

Spis treści

Część III.

MODELE

5. Niektóre rozkłady

5.1. 5.2.

...............................

...........muuuuueumeaaumaaaaa LLL aaiaiiiLL.

175

Elementy analizy kombinatorycznej..............uuuaaaaaaaaaaaaaaa ii LILII Rozkład dwu- i wielomianowy .......uuuuuuuaaauaaaaaaaaaazaaaiaa LL LLL ii

175 191

5.2.1. Rozkład dwumianowy — wyprowadzenie ..........uuuazaaaaai i LLLLLL. i 5.2.2. Momenty rozkładu dwumianowego i ich estymatory...............-...i.1i11.. 5.2.3. Postacie graniczne rozkładu dwumianowego ..........meuaaaaaaai LLL. aa

5.2.4. Rozkład wielomianowy — wyprowadzenie ............uzuaaaaaaaiLLL. L

5.3.

5.4.

5.5.

5.6.

5.2.5. Momenty rozkładu wielomianowego i ich estymatory ..............aaaaaaLL.... 5.2.6. Postać graniczna rozkładu wielomianowego............uuaaaaaaaiaa LLL. Rozkład wykładniczy .........muuaaa aaa aaaaaaanaaza LLLLJL 5.3.1. Wyprowadzenie .......uuuua aaa auaaaaaaaaa LIIL 5.3.2. Momenty i ich estymatory .........uuuaaaaaaaaaaaa LILII aaaii LL. 5.3.3. „Brak pamięci”.........uuu aaa aaauaaa aaa aaaaaaaa 5.3.4. Szeregi promieniotwórcze .......uuuaaaaaaaaa aaa. Rozkład POoiSSOna...... ..... aaa anawauuaaeaaaaaaa LLL 5.4.1. Wyprowadzenie ........zaa .uuu zazn aeaa a aaaaaLIJI 5.4.2. Momenty ........uuua zania aaaa aaa aaaaaza LL. 5.4.3. Postać graniczna rozkładu Poissona ...........umuaaaaaaaaaazaaaiiai LLL] 5.4.4. CZAS Martwy .......uuuuu aa azaaa aaaa aaa aaaaaaaa LLLL Rozkład Gaussa ......... aaa zaa uaa eaaiiiiiL iiaiia aawLLLL. aa 5.5.1. Wyprowadzenie — modele Laplace'a i Herschela .............u.aaazzLLiLL. 5.5.2. Własności rozkładu Gaussa ......uu aaa euaeuaaaa LLLL. 5.5.3. Centralne twierdzenie graniczne .............muuaa aaaaaaLILII] aaa aaa

5.5.4. Binormalny i wielowymiarowy rozkład Gaussa ...........uzuaaaaaaaiii LLL. Rozkład x? ......uuauaa aaa aaaaaaeaaaaa LLILLLLLaz LLL

5.6.1. Wyprowadzenie

.........uuuaaaazaaa zana aaaaaaaaa LLL

5.6.2. Własności rozkładu X*.....uuuuuueuaaaaaaaaaiii aaaaaazaiia LLLL I.

5.7.

173

5.6.3. Postać graniczna rozkładu X?........uu.uuaaaaaaaaaaaaia LLL.

191 199 203

207

208 214 216 216 222 231 235 243 243 261 275 276 295 295 300 309

313 323

323

324

331

Rozkład Studenta............aaa .uaaa aaaaiaizi aaaaa ii LL aaaaa LLLLLLL. a 5.7.1. Wyprowadzenie ........uuuuuueaaaan aaa aaaaaaaaa LLL. 5.7.2. Własności rozkładu Studenta .............muuuaaaaaaaaaaa iii azia LL LIL 5.7.3. Postać graniczna rozkładu Studenta ...........uuuuaaaaaaazaaaii LLL. 5.8. Rozkład F Fishera...........uuuuuuaaaaaaaaaaaaaaaaaanaaaaai LL LLLLLL. a 5.8.1. Wyprowadzenie ..........muuuaaaaaaaaa niania LII 5.8.2. Własności rozkładu F........muuueuuaaaaaaaaaaaaaaaanaa ai LLL iia 5.8.3. Postać graniczna rozkładu F...........muuuuuuaaaaaaaaaaaaiai LLL 5.9. Rozkład Breita-Wignera ........aaa ..uuueaueaaaa LLILL 5.10. Rozkład jednostajny ......muuuuuuauaauaaaaaaaaaa iii aaaaaaa LLL... aaiia 5.11. Podsumowanie. Związki między rozkładami ..........m.auaaaaaaaiiLLLLLLL.

333 333 337 338 341 341 342 343 344 347 352

6. Metoda Monte Carlo ............... aaa ..uuueuuueee LI

355

6.1. 6.2. 6.3. 6.4.

Idea symulacji komputerowej.............meuaaaaaaa ii aaazaai LLLLLLLLL. a Generatory liczb losowych ......uuuaaauaa aaa aaaaaaaaa LILII Metody generowania rozkładów prawdopodobieństwa .........muuaaaaiaaii LLL. Typowe zastosowania technik Monte Caflo ...........uuaaaaaaaaaaaaiia LLL.

Część IV.

355 359 363 365

WNIOSKI .............................. LL

369

7. Estymacja parametryczna............mu.meumeuaa aaaaaaLLLLLLLLL. i aaiai

371

7.1.

Własności estymatorów ........uuuauaaaaa aaaaaaaaaaaaaa LLL

372

Spis treści 7.2.1. Zasada największej wiarogodności ......uauaaaaaa aaa ana aaa nana anni c i 7.2.2. Własności estymatorów największej wiarogodnoŚci ..........-emaaeaaaaraniti0i1 ana aaa nana e nana cieni: 7.3. Metoda najmniejszych kwadratów.......umueaaeaeaneaaaaaena 7.3.1. Zasada najmniejszych kwadratów 7.3.2. Przypadek |MQoWy ...-auaaeaaana aa eaaaawaaaaana nana aaa ania aa cenia ara ea aaa ni cct: 7.3.3. Przypadek liniowy z liniowymi równaniami WIĘZÓW ......uuaaaa wana aaea anna aaa ne ena rena nai ii A 7.3.4. Przypadek nieliniowy .......uauaeaaeaea 7.3.5. Analiza regresji ini i: nan anaaaaaaananizaaa aan 7.4. Estymacja z ufnoŚcią .....aueeaaeaenaaaeaaa 7.4.1. Metoda estymacji przedziałowej 7.4.2. Estymacja przedziałowa parametrów rozkładu Gaussa 7.4.3. Estymacja przedziałowa w metodzie największej wiarogodnoŚci .................. 7.4.4. Estymacja przedziałowa w metodzie najmniejszych kwadratów ............-1..... ener ani ii aaa naa a arena 7.4.5. Ufność z ograniczeniami ........uuaa aaa aaa aaa o...

0

m...

o

o...

R.

a...

o

a...

o

ERA

A.

o.

p...

e

e

o

e

0.

a

e

|...

r

e

BE

O

R

R.

2

b

e

o

0

R

o

o

2

o...

|...

8. Weryfikacja hipotez

0

R.

O

0

Ł

2

a

Ba

O

R

2

oe

r.

e

o

R:

e

O

o

b

e

A

2

e

O

+

0

2

a

BA tt

że

+

7

A

Pet

a...

2

8.

0

R

e

A

e

Po i

ea aa kaza aaa z azaaaaana a nana LLLuuuuuz zazna 8.1. TesbAStobmoŚlł...L

8.2. Test zgodności

o...

9, Stopień racjonalnego zaufania

0

o...

o...

0

R

O

R

a

o.

i: o

Łe



o

0.

20

R

A

ne.

e

a

e

A

e

b

a

BA

0

e

+

+

9.1. Prawdopodobieństwo i statystyka ani ri: na nana znaa a naa aaa a aaneaaaaaaa 9.2. Sposobność i jej miara........eae nii 1: aaa nana aan a aaa aaa n ..uuuua nana aaaa aaa ....... 9.2.1. Algebra Boole'a m...

0

o

e

e...

p.

r

e

Pt

o

R

e

2a

a nana e near i c A nana nana naa nanaaaaaa aaa.-meu 9.2.2. Dezyderaty teorii .....

9.2.3. Prawa operowania stopniem racjonalnego zaufania cana naci: anawa aaa neea cnaaaaaa 9.2.4. Ku prawdopodobieństwu .......uuuueeaaa e nei c i: nna wana wana aaa aan eaza 9.3. Wnioskowanie probabilistyczne .......-m.uuaaaeae ni ii ii aana naa naaaaa aaa aa aaa nawa aaa BayeSa........emeaa 9.3.1. Twierdzenie a...

o

e

0

e

O

>

2

e

»

2

aaa cana nana n nic: nawa aaa a aaaeaaeaaana 9.3.2. Probabilistyczna indukcja........uu

ani 1 1 nana .eeeea aaa aaa 9.3.3. Estymacja parametrów z twierdzenia BayeSa ........ 9.3.4. Weryfikacja hipotez z twierdzenia Bayesa ..........

0...

o

e

e

0

RL

BU

EE

2

O

e

Rae i

a nana anni cia aaa aaa a eee 9.4. Prawdopodobieństwo bezpośrednie .........uuueaaeaaea 9.4.1. 9.4.2. 9.4.3. 9.4.4, 9.4.5.

aaaiii aa narnii aa nawa a nawe wana uuaaea Nieinformatywne zaczątki .....u Minimalnie informatywny zaczątek parametru skalującego .........-222:212-1111. Minimalnie informatywny zaczątek parametru lokacji...........eaasaeet2001. aiii: aaaaaa nana ana naenai aaa nawa .uaeaaa Zasada maksymalnej entropii ....... anni: nana a aan aan auaeaeaa aaa aaa Metoda najmniejszych kwadratów .......u

nania iii: znana nana nanaaaaaa 9.5. Prawdopodobieństwo personalne .........uuuaeaaeaaa

aaa

Część V. DODATKI............aaaae

c era rin iii: aaa nana aaa .eea Dodatek A. Unormowania terminologiczne ...........iii: c nan nnn a ana aaa aaa anna eeeaaaa Dodatek B. Uzupełnienie .............m

anawa nania aaa aaa aaa neeeaa Dodatek C. Prawo mnożenia sposobności ..........-uez za i aana anawa nana narnii uueeeeeza Dodatek D. Prawo dodawania sposobności .........naa anna nana wa aaanararai: aaa....-.eee aaa Dodatek E. Twierdzenie Shannona..........

aan t nii i: aaa ana c eeeea ......uu zana Dodatek F. Rozkłady — podsumowanie....

Podziękowania Skorowidz

o...

i...

e

i...

aoi

e

o

>

.

..

00

r

ne

ra

e.

o...

i

ne

o

a in

a

o

A

e

200

e

oe

no

e

2

e

Pt

e

o

e

e2

631 633 635 637 640 644 647 654 656

Spis przykładów

2.1.1. 2.1.2. 2.1.3. 2.2.1. 2.2.2. 2.2.3. 2.3.1. 2.4.1.

2.4.2. 2.4.3.

2.5.1. 2.5.2.

Normowanie rozkładu dyskretnego ..........uuumuuaaaaaaaaaaaazaziiiaiii LLL. Rozkład Benforda...........uumuuuaeaaaaaaaaaaaaaaaaa aaa LLL Straty energii na jonizację — rozkład Moyala ...........muauaaaaaaaaaai LLL LL. Przestrzeń zdarzeń elementarnych ............muauaaaaaaaaaaaaiaii LL. Prawdopodobieństwo geometryczne — definicja .............uuaaaaaaaaaaaaaii LLL. Paradoks Bertranda............umuueuuaaaaaaaaaaaaaaaaaaaiaa iiiaaiiii LLL I. Układ Kop...........Luuuzania aaaaaa iii aaaanaaaaaa L LL.

37 37 42 45 49 51 55

Żart Pauling. .......uuu aaa aaeaa aaa aa aaaaaa zizi aaaaaaaaa LLL LI

58

Dystrybuanta rozkładu grubości książek ..........mu..aaaaaaaaaaaaaaaiiaa LIIL] Odległość do sąsiada .........uuuaaaaaa aaa aaa aaaaaa iii aaa LILII

65 66

Efektywność detektora.......uuuuuuuuaaaaaaaa iii aaaaaaaaini LLL. Szansa detekcji Cząstki ........uuauaaaaaa aaa aaaaaaaa LLILI

61 63

2.5.3. 2.6.1.

Rozkład Maxwella .........uumuuaaaaaaaaazaaaaaaaaa ciaza L Odwracanie dystrybuanty .....uuuumuaaaaaaaaaaaaa ii aaaaaiaiza LL.

68 70

2.6.3.

Zamiana zmiennych — przypadek niejednoznaczny ............umaa aaaaaaaaa iL LLL.

74

2.6.2. 2.6.4. 2.6.5.

Rozkład energii produktu rozpadu ..........uu.uuuuuaaaaaaaaaaaaaaaiacizi LLL

Rozkład kąta emisji cząstki ......uuuu aa aaaaaaaaaan auaua aaiiiii aaaaa LLL. Rozkład sumy i różnicy zmiennych losowych..........uaaaaaaaaaaaaawaaii iii.

2.6.6. 2.6.7. 2.6.8. 2.7.1. 2.7.2. 2.7.3.

Rozkład iloczynu i ilorazu zmiennych losowych .........uuaaaaaaaaaaaaaiaiiiii LLL. Maksimum Jacobiego .......uuuaaaaaaaa aaa iaazaizii anaaaa iii aaa LLL. Rozkład podstawowych stałych fizycznych............uuaaaaaaazaazaiaii LLL.i Splatanie rozkładu wykładniczego .......muuaaaeauaaaaaaaaaaaaaaaaaiziia LLL I. Masa neutrina ...........uueaaaa aaa aaaia aiz eaaaaawaaza LL I. Profil Volgta.........muunana uaaaaa aaa aaaaaaaaaaaa LLLLLL.

2.8.1. 3.1.1. 3.1.2. 3.1.3.

Twierdzenie Bayesa Wartość oczekiwana Wartość oczekiwana Wartość oczekiwana

2.7.4.

Randomizacja — rozkład ładunku ........uuuuumuuaaaaaaaaaaaaaaazaii LL

71

74 79

79 80 81 92 94 97

102

— licznik Czerenkowa............uuaaaaaaaaaaai LLL. — bankier .............uu.uuuaaaaaaaaaaaaiaiai LLL. ii — rozkład Maxwella .............uuazaaaaaaaaaaaai LiLii LL. zmiennej losowej .............uuamaaaaaaaaaazazaia LLL LIL.

108 lil 112 114

3.2.1. 3.2.2. 3.4.1. 3.4.2. 3.4.3. 3.5.1.

Momenty rozkładu złożonego ........uuuuuaaaaaaaaaaaaaaaaaaanaiaiaii LLL. Momenty losowej sumy zmiennych losowych..........uuaaaaaaaaaaaiiaaizii LL LLLL. Korelacja między oporem i mocą.........uuuuuuuaaaaaaaaaaaaazaa LLiiii LLL. Efektywność detektora..............uaum aaa azaaaa i. aaaaaa nawa aaaaa a ca: Wariancja w ekstremum ......uuuuua a aaaana aaaaaia aizaaaaaa LLL aLL] Linia prosta regresji drugiego typu .......muuau aaa aaaaaaaaaa LIIL.

118 122 130 131 133 135

4.2.2.

Błąd nowicjusza .........uumuaaaaa wana aa ania aaaaaaanana LLL.

3.1.4.

4.2.1.

4.2.3. 5.1.1.

Rozkład pędowy partonów ........uuuuaaaeaz zaa awaaazaaaa iL I.

Zdolność rozdzielcza licznika — źródło ÓFe..........muuaaaaaaaaaaaLLL. aaia

Korełacja wartości średniej i odchylenia standardowego ...............eaaaaaaaiiaL... Wariacje z powtórzeniami — problem de Mórć...........uuauazaaaaaaaiizaiii LLL LL]

114

145

147

151 177

9

Spis przykładów

5.1.2. 5.1.3.

— 5,14.

5.1.5.

5.16. 5.2.1.

5.2.2.

5.2.3.

5.24. 5.3.1. 5.3.2. 5.3.3. 5.3.4. 5.3.5. 5.3.6. 5.3.7. 5.3.8. 54.1. 5.4.2.

5.4.3. 5.4.4. 5.4.5. 5.4.6. 5.4.7. 5.4.8. 5.4.9.

Permutacje — skojarzenia, czyli roztargniona sekretarka

..........

e.

2

o...

o...

.

a

o

pe

st

Wariacje bez powtórzeń — winda .......uuuuaaaaa aaa aaa a aaa n aaa naa znana ana cia: Szansa wygranej w totka

m...



2

0...

.

.

.

r

e

BR

BR

e

e

o.

e

3

R

i

ai

Kombinatoryka w fizyce statystycznej........uuaaaaaeaaa aaa aaa nana a aaaaa ana ai ich

Kombinacje z powtórzeniami...........uuuuaaeaaaaaaananana wana wanna nana nna niani iii

Układ komór wielodrutowych

o...

.

o

A

BO

BO.

2.

a

R:

o

A

e

Be

A

2

0

2

0

2

0

e

4

>

Obszar wykluczania ....-.uueeeaaaana wena naa a nana aaa nana n ana ana nanE Wir wodny Optymalna szerokość przedziału histogramowania Prawo zaniku jąder promieniotwórczych Obszar wykluczania ....-emaeeeaa aaa aa aaa ana w nana nawa ania aria narazie r ar iiaH Częstość przypadkowych koincydencji Oczekiwanie na przejazd samochodu — wykres kwantyli.........uuaeeeaa aa aaa a niic2 Obcięty rozkład wykładniczy w...

w...

e...

.

o

B.A

a.

R

a

o

0

e

0

R

A

R

O

........

w...

o...

|...

w...

.

o...

a...

nn...

o.

Rozkład dróg oddziaływania

o...

a...

m...

r.

r...

2

0

Łe

e

0

2.

2

a

e

a

e

o

e

Be

O

>

02

e

ho

o

a.

u

o

2...

e

o

e



2

a

o

a

e

Ba

8

e

O

>

2.

ret

00

0

e

i

Ba

s

st

toe

o

2

4

e

aaa rei

te 2

e

eo

a aaaaa

R...

o...

8

0...

Czasy przeliczania — rozkład Erlanga ........aea aaa aaa aaa ana Przeżywanie i rozkład Weibulla

2

2

O

02

0

e

ne

RO

nA

ee

iu

e

Liczba par jonów w detektorze gazowym Zagadnienie Erlanga........uueeeeaa aaa ea aaa nana nna aaa zazna na nana a nania c iii Rozkład czasów przeliczania z rozkładu Poissona........uaaaaaaa ea aaanaa nana nania ca Obszar wykluczania ......u.eeemawaaaa aaa aaa aa naa nana aaa a zazna naka a nei rich Odległość do najbliższego sąsiada ........uaaaaaaa aaa aaa aaa aaa n aaa nana aa nana acc h ASyMetnia ....Luaae eee eea aa aaa aaa naneanna naka a rana zina 0 A Błąd liczby przypadków w przedziale histogramowania.......uuuaaaaaa aaa aaa aa c ii: Reguła zatrzymania Optymalny czas pomiaru |...

0

|...

Pa.

e

BA

0...

O...

w...

a.

a...

e

e

BA

R

O

e

e

o

A

Ba

2

A

o.

Pt

9

R

2

e...

0

R.

0

2

BOR

2

a

o.

e

e

e

2

u

e

>.

0

A

+

A

e

a

Pe

naa aaaanaaaa nna aa nana anna nana ciii 5.4.10. Efektywność detektora.........uuuuuaeaa saa nana r aaa a znana naa aa ranach 5.4.11. Efektywność trygera drugiego stopnia..........uemaaa

5.5.1. 5.5.2.

5.5.3.

5.5.4. 5.5.5. 5.5.6. 5.5.7.

5.5.8. 5.5.9. 5.5.10. 5.6.1.

5.6.2. 5.7.1. 5.7.2. 5.7.3. 5.8.1. 5.10.1.

5.10.2. 510.3. 5.10.4. 5.10.5. 6.4.1. 6.4.2. 6.4.3. 6.4.4.

7.1.1. 7.1.2.

Rozkład Gaussa i pomiary ......umaeaaaaeeaa aan ana nazaaaka nana z aaa znana nar ch Błąd błędu Suma gaussowskich zmiennych losowych........uuuaaaaaaaaaaa aaa anaaara nara rcai Grubość książek — wykres kwantyli logarytmiczno-normalnych 2...

0.

e

ER

R

0

EE

o

2...

Be

0

O

A

O

Łe

A

2

0

R

A

ŁR.

2

|...

Rozkład graniczny sumy zmiennych dwumianowych

................

0

o

0

e

2

u

e

e

to

e.

Rae

nei

0

o

e

2

e

Rozkład graniczny sumy zmiennych poissonowskich Rozkład graniczny sumy zmiennych wykładniczych ......uuaaaaaaaaaaaaaanananecanccić Centralne twierdzenie graniczne — rozkład D'Agostiniego Rozkłady brzegowe, warunkowe i krzywe regresji dla rozkładu binormalnego ........... Rozkład współczynnika korelacji Rozkład estymatora wariancji i dyspersji .........umuaa aaa az anna a na naa naa nara ia: Rozkład x? dla różnych zmiennych gaussowskich ..........uueaaaaa aaa aaa wanna nai i1: Średnia arytmetyczna — rzetelność producenta cukru .......-..---.-eeaaa aaa aiai11 Statystyka Studenta dla dwóch Średnich arytmetycznych ......uuaaaaaa aaa aaa nana aaa cić Współczynnik korelacji z próby — profil wiązki..........aaaeaaa aaa aaa aaa aa nana cć Porównanie odchyleń standardowych........uuuauanaeaaaaaaaaananaanana nana nai ch Wykładnicza zmienna losowa Normalna zmienna losowa ........uueeeaaaaaaaawawanawaanawawakakia nana nana ia Skorelowane normalne zmienne losowe |...

e...

......|..|.....

|...

w...

w...

w...

o

o...

r...

.

a.

e

o

Że

z...

a...

e

eu

e.

e



e

A

ŁO

A

sa

b

O

zo.

e

ne

RO

>

2

02



a

8

>

e

2

Bu

2

0

A

ae

9

Łe

a.

A

2

a

Be

0

R

b

o

0

2.

00

>

a

o

i

e

Het

ot

b

tt

o

0

e

A

s

Sprawdzanie poprawności programów analizy danych Poprawki i ocena zanieczyszczeń .......uuuaaa aaa aa aaa aa wanna znana naa ti ani ii: Jaką metodę wybrać?.........uuuaeeaaanawawaanaaaana znana na anna na znani n ania i Stara teoria 1 „NOWA fizyka” L.LLuauaaaaeaa zaa zazna zana naa aan aan ze znika za kaaka aaa aria Odchylenie średnie ..........muuuaaaaa nana aaa anaaa anna nana zazna aaa naci: Minimalna wariancja estymatora wariancji — rozkład Gaussa 0

o

e

R

......d..|.............

o.

0

a.

03

tb

A

2

tO

ae

2

0

2

2

pi

Zmienna losowa x? Zmienna losowa z rozkładu Breita-Wignera........aaaaaaaaaaaaaa zana aaa aa nana ciii: m...

>

>

i

e

2

+

10 7.1.3. 7.1.4. 7.1.5. 7.2.1. 7.2.2. 7.2.3. 1.2.4. 7.2.5. 7.2.6. 7.2.7. 7.2.8. 7.2.9. 7.2.10. 7.2.11. 7.2.12. 7.3.1. 7.3.2. 7.3.3. 7.3.4. 7.3.5. 7.4.1. 7.4.2. 7.4.3. 7.4.4. 7.4.5. 7.4.6. 7.4.7. 7.4.8. 9.1.1. 9.1.2. 9.1.3. 9.1.4. 9.3.1. 9.3.2. 9.3.3. 9.3.4. 9.3.5. 9.3.6. 9.3.7. 9.3.8. 9.4.1. 9.4.2. 9.4.3. 9.4.4. 9.4.5. 9.4.6. 9.4.7. 9.4.8. 9.4.9. 9.4.10. 9.4.11. 9.4.12. 9.4.13. 9.4.14. 9.4.15.

Spis przykładów

Minimalna wariancja estymatora parametru rozkładu Poissona ..................1......

Najefektywniejszy estymator parametru rozkładu dwumianowego ...................... Estymatory dostateczne parametrów rozkładu normalnego ................aaaaaaaiii12 Pomiar sygnału w obecności tła — rozkład Poissona.............u.uaaaaaaaaaazaiii ii. Estymacja parametru rozkładu wykładniczego .........uuuuauuaaaa aaa L ada Estymacja parametrów rozkładu normalnego ........uuuaeaaaa aaa aaa iaiaaii LL Estymacja parametrów rozkładu Breita-Wignera................uaaaaaaaaaaaaa ida LA Wariancja estymatora parametru rozkładu wykładniczego ................a-.aaaa111. Wariancje estymatorów parametrów rozkładu normalnego ...............aaaaaaiiaii1. Ocena czasu życia — symulacja....-uuuauaaaaaaaaaaaaaa aaa aaa iii LI Ocena czasu życia i tła — symulacja ......uuuuuaaaaaaaa aaa aaa LiL Efektywność detektora.........uaeaaaaaaaaaaa aaa aaa ian ziiiii Projektowanie eksperymentu ......uuuaaaaaaaaaaaaaaaaaaa iii iii: Dane zgrupowane .........uuueuuaeaaaaaaaaaaaakaaa aaa naaiiiiaiiziaiiiiZ Poprawka Shepparda ..........uuuaeaaaaaawaaaaaaaakaaaaaa aaa ii LI Dopasowanie liniowe — pełna macierz kowariancji ..........uu.aa aaa aaa aaa LL]

Dopasowanie liniowe — skalowana macierz kowariancji...............-.aaaaaaaa iii 12 Dopasowanie z więzami — geodeta .........uuuaaaaaaaaa aaa nii iii,

382

383 385 388 391 392 394 397 397 401 404 406 409 411 413 424

434 438

Dane zgrupowane .........uuuueuaaaaaaaaaaaaaa kazania iii LL Analiza regresji — profil wiązki ......uuueaaaaa aaa aaa aaa niania ili LI Przedział ufności — wir Wodny ...L.uauaaaaaaazawawaa aaa aaa aaa z ina ia LI Przedział ufności — CZaS ŻYyCHa...-uauuauaaanaaaaa nana aaaaa ana iai iii LI Losowy charakter przedziału ufnoŚci.......uuuuzaaaaaaaaaaaaaaaa aan iaiai ii. Przedział ufności — rozkład PoiSSOnA .....uuuuuamaaaaa aa aaaaa zazna i ILE Przedział ufności dla czasu życia — rozkład Erlanga................-aaaaaaa aaa iii.

440 451 458 458 460 462 462

Przedział ufności — rozkład jednostajny .........u..uamaaaaaaaaaaaaaaaaaaaiaia dil iL] Kalibracja licznika germanowego — porównanie ............u.maaaaaaaa aaa iii LJ Estymator nieobciążony ....uuueaaaaaaaaazaaaaaaa nazi aai iza L LiL Metoda największej wiarogodności — nieefektywny licznik .............eaaaaaaa aaa aL. Estymacja przedziałowa — licznik z czasem martwym............m. aaa aaa iii i. Test istotności — reguła zatrzymania ......uueuuuaaaaaaaaaaaaaaiaaiaiaiaii iii L. Twierdzenie Bayesa — hipoteza zagłady ......uuuuauaa aaa aaa aan nna L Rozkład dwumianowy wg Bayesa .......uuuuaaaaaaaaaazaaaa aaa L LL Reguła następstw Laplace'a.........muuuauaaaaaaaaaanaaaanaa zaa iii LA Rozkład dwumianowy — obszar akceptacji ........muuuuuuaaaaaa aaa i iii LL. Efektywność detektora.........uuuaaeaaaaaaaaaaaazaa nania ii LI Estymacja stałej Natury.......umuuaaaaaaaaaaaazana znani LiL. Odplatanie wg Bayesa .........uueaaaaaaaaaaaaaananaaaaaa nana n aaa LA Prawdopodobieństwo profetyczne — rozkład beta dwumianowy........................ Rozkład wykładniczy wg Bayesa .......uuaaaaaaaaaaaaaaaaaa nana ana iaz ii L. Rozkład Poissona wg BayeSa.........uuueaaaaaaaaaaaaaaa aaa aaa iii L Rozkład Poissona — obszar akceptacji.......muuamuauaaaa aaa aan iaiaz iii Prawdopodobieństwo profetyczne — ujemny rozkład dwumianowy ..................... Najmniej informatywny zaczątek — dyspersja rozkładu Gaussa ............aaaaaaiiai.. Ocena czasu życia z jednego przypadku .....uuuuaauuaaaaaaaa aaa aaaaaaa nazi ai iii. Najmniej informatywny zaczątek — nadzieja rozkładu Gaussa ...............a-.aii22.. Najmniej informatywny zaczątek — estymacja parametrów rozkładu Gaussa ............

464 469 502 503 505 507 529 534 539 544 545 552 553 557 569 572 574 557 584 585 591 592

Przedział ufności — bogata próbka ......uuuuaaazaaaaaaaa aaa zaaa iii iii ii.

Najmniej informatywny zaczątek — rozkład Breita-Wignera .....................-11..

Błędy systematyczne wg Bayesa.......-ueaaauaaaaaaaaaaaaa aaa i.

Entropia informacyjna — rozkład geometryczny .........uuuuaaaaaaaaaaa aaa iii a i.

Entropia informacyjna — rozkład dyskretny z zadaną nadzieją ......................... Przejście od zmiennej dyskretnej do ciągłej ..........auu.m.auaaaaa aaa aaaaana ii iL. Rozkład Gaussa z zasady entropii .........auaaeaaaaaaaaaaa aa naa nana nai i ii ia. Masa antyneutrina — przedział wiarogodnoŚci .........umuuaaaaa aaa aaaaaa ciii

463

595

595

601

604 609 613 617

Dedykuję Rodzinie

STUDIUM

Maluje się go młodym, ponieważ wiek młodzieńczy dobrze znosi trudy studiów. Jest blady, ponieważ studia zwykle wyczerpują i przeszkadzają ciału ... Ubiera się skromnie, bo uczeni zwykli obywać się umiarkowaniem i surowością. ... Zapalona lampa mówi nam, że uczeni więcej konsumują oliwy niż wina.

Tytułem wstępu

... śmiertelnych — stu na stu. Liczba, która jak dotąd nie uległa zmianie. WISŁAWA SZYMBORSKA, PRZYCZYNEK DO STATYSTYKI

Tytuł książki zawiera w sobie pewien skrót myślowy. Zapewne słuszniejszy byłby tytuł

taki jak „Statystyka matematyczna dla fizyków” lub „Analiza statystyczna danych do-

świadczalnych... ”, lub „Metody analizy statystycznej... ”. Może należałoby uzupełnić

każdy z tych tytułów o słowo „wstęp” lub „elementy” albo „podstawy”, jako że w zadnym wypadku materiał tu prezentowany nie ma charakteru całościowego i nie jest to

monografia. Zadaniem tego podręcznika jest przedstawienie w szczegółach pewnych podstawowych pojęć i standardowych metod, jakich każdy fizyk doświadczalnik używa przy opracowywaniu swoich danych eksperymentalnych, jak również zarysowanie ich mozżliwych rozwinięć i uzupełnień, a także zasygnalizowanie (bez dowodów 1 uzasadnień) istnienia specjalnych wyników (pewne z nich to wręcz ciekawostki), które niekiedy są przydatne przy rozwiązywaniu szczególnych zagadnień. Ostatecznym celem tych wszystkich „zabiegów” jest jednak przekazanie Czytelnikowi umiejętności obliczenia czegoś, co powszechnie, choć niepoprawnie (patrz koniecznie dodatek A), nazywamy błędem

pomiaru. Dlaczego fizycy, a już na pewno ci spośród nich, którzy parają się fizyką jądra atomowego i cząstek elementarnych, opanowani są obsesją (bo tak to może wyglądać dla postronnego obserwatora) o nazwie błąd pomiaru? Najprostsza odpowiedź na to pyta-

nie brzmi: A czyż mogłoby być inaczej, jeśli w fizyce spotykamy się, z jednej strony, z przewidywaniem typu: moment magnetyczny elektronu wynosi (1,00115965220 + 0,00000000004) jednostek zwanych magnetonami Bohra (gdzie błąd w wartości to oszacowanie niepewności wynikającej z przybliżeń rachunkowych), a z drugiej — elemen-

tarne doświadczenie początkującego fizyka eksperymentatora podpowiada mu, że „tak naprawdę” nie jesteśmy w stanie „porządnie” mierzyć? Bez większego ryzyka można powiedzieć, że fizyka jest jedyną dziedziną wiedzy przyrodniczej, w której spotykamy absolutnie Ścisłe, a nie tylko modelowe przewidywania. Prognozy te dostarczają wyzwania, a sprostanie im wymaga stosownych narzędzi.

Narzędzia teoretyczne, takie jak pojęcie rozkładu prawdopodobieństwa, prawdopo-

dobieństwo warunkowe, niezależność statystyczna, dystrybuanta, operacje nad rozkładami, randomizacja i twierdzenie Bayesa znajdzie Czytelnik w rozdziale 2, który dostar-

cza reguł „gramatycznych”. Rozdział 3, o momentach zmiennej losowej, to podstawowy

14

Tytułem wstępu

słownik dziedziny. Terminy tam podane zawsze mamy pod ręką, gdy analizujemy dane.

Tłumaczenia słów ze słownika na język codzienny to treść rozdziału 4, czyli pierwszy kontakt ze statystyką, a raczej z tą jej częścią, która określana jest mianem opisowej.

Wyłliczone są tam najbardziej fundamentalne konstrukcje „frazeologiczne”: średnia, odchylenie standardowe, współczynnik korelacji i własności tych wielkości, czyli „chleb

powszedni” analizy danych. Zgodnie z tą lingwistyczną analogią, rozdział 5 to niemalże pełne zdania. Modelowe rozkłady — dwumianowy, Poissona, wykładniczy, Gaussa i jego

pochodne, tj. x*, Studenta i Fishera — są wygodnymi, gotowymi wzorcami, które upar-

cie pojawiają się w wielu problemach

statystycznych. Rozpoznanie któregoś z takich

schematów w zagadnieniu, nad którym pracujemy w danym momencie, pozwala nam na natychmiastowe wykorzystanie całego wachlarza gotowych wyników. Rozdział 6, poświęcony metodom symulacyjnym w elementarnym zakresie, omawia swoisty, meto-

dologiczny „synonim”. Wielokrotnie zdarza się, że choć teoretycznie wiemy, jak należy

rozwiązać napotkany problem, to nie potrafimy tego dokonać analitycznie z powodu piętrzących się trudności matematycznych w postaci sum, które nie mają prostej postaci, lub całek, które nie wyrażają się przez funkcje elementarne. Rozkładamy wtedy

zagadnienie na najprostsze elementy i do pracy, kolejno nad każdym z nich, zaprzęgamy komputer, który „syłabizując”, konstruuje „syntetyczną mowę”. W pełni rozwi-

nięta „mowa” konwencjonalnej metody statystycznej analizy danych to dwa następne rozdziały: rozdział 7 o estymacji parametrycznej, w tym o metodzie największej wia-

rogodności, najmniejszych kwadratów i estymacji przedziałowej, oraz rozdział 8 o weryfikacji hipotez, czyli testy istotności i test x? Pearsona. Stanowią one ukoronowanie

tej części wykładu. W końcu ostatni rozdział 9 to „nowy język”, nowe spojrzenie na

rachunek prawdopodobieństwa. Język ten dostarcza alternatywnej formy wyrażania treści probabilistycznych w stosunku do tej, która stanowi główny trzon wykładu. Dodat-

kowe informacje o tym rozdziale znajdzie Czytelnik poniżej. W

podsumowaniu

tym

został pominięty rozdział 1, który dostarcza widoku z lotu ptaka — ukazuje rozmaite typowe zagadnienia, jakie fizyk doświadczalny zajmujący się fizyką jądra atomowego

i cząstek elementarnych napotyka w codziennym trudzie statystycznym. Rozdział ten spełnia także funkcję specyficznego „elementarza”, jako że Czytelnik znajdzie w nim

wybrane, najbardziej fundamentalne pojęcia dziedziny, wyłożone metodą ilustrowania przykładami. Dostarczył on także autorowi pretekstu do zaprezentowania Czytelnikowi metod wizualizacji danych doświadczalnych. Pracę kończy kilka dodatków: pierwszy, wcześniej wspomniany, o unormowaniach terminologicznych. Drugi ukazuje szczegóły

techniki rachunkowej przydatnej przy określaniu własności pewnej klasy estymatorów.

Do następnych trzech przenieśliśmy niektóre dowody matematyczne,

a ostatni sumuje

najważniejsze wnioski matematyczne w odniesieniu do wszystkich omawianych (oraz

kilku dodatkowych) rozkładów. Jak wspomniano na wstępie, wykład

nie daje pełnego obrazu rachunku prawdo-

podobieństwa i statystyki matematycznej. Czytelnik nie znajdzie tu np. pojęcia funkcji tworzącej prawdopodobieństwa i funkcji charakterystycznej. Są to ważne narzędzia, ale są to narzędzia „tylko” teoretyczne. Funkcja charakterystyczna jest bardzo przydatna

np. w dowodzie centralnego twierdzenia granicznego i przy konstruowaniu momentów

Tytułem wstępu

15

zmiennej losowej, jednak celem wykładu nie jest konsekwentna, matematyczna prezenta-

cja całej dziedziny wiedzy wraz z jej aparatem formalnym. Do formalizmu odwołujemy się sporadycznie i dość liberalnie i raczej po to, by uwiarygodnić prezentowaną tezę, niż jej dowieść (w przeciwieństwie do przykładów, gdzie staramy się być dość szczegółowi). Podobnie, do treści wykładu nie zostały włączone klasyczne tematy, takie jak analiza sekwencyjna i analiza wariancji, procesy stochastyczne, ani też nowsze, jak teoria decyzji, a po macoszemu potraktowane zostało zagadnienie statystyk pozycyjnych. Z całej

gamy testów statystycznych ograniczamy się do jednego, najczęściej stosowanego testu

Pearsona, pomijając milczeniem pozostałe. W przekonaniu autora pojęcia te nie stanowią dla fizyka materiału „pierwszej potrzeby”. Autor ufa, że zrozumienie zagadnień ujętych

w treści wykładu da Czytelnikowi dobre podstawy do samodzielnego uzupełnienia wie-

dzy, gdyby taka potrzeba się pojawiła, jeśli tylko zechce on skorzystać z sugerowanej niżej literatury. Adresatem książki, jeśli chodzi o zakres stosowanych w nim narzędzi matematycz-

nych, jest osoba, która posiadła elementarne umiejętności różniczkowania i całkowania i dysponuje podstawowymi umiejętnościami z zakresu algebry liniowej. Podobnie przedstawia się kwestia niezbędnego poziomu merytorycznego Czytelnika w obszarze

umiejętności opracowywania danych doświadczalnych. Jako test rozważmy następujący przykład. Przypuśćmy, że pewien geodeta, używając teodolitu (lunetki), wymierza w terenie kąty w trójkącie, którego ramiona są rzędu kilometrów. W rezultacie swego pomiaru znalazł on, że kąty te wynoszą: 73”, 63” 1 52, przy czym błąd każdego z pomiarów wy-

nosi 2” (w rzeczywistości pomiary są znacznie bardziej precyzyjne, co nie zmienia istoty zagadnienia). Czytelnik, który analizując ten przykład dojdzie do wniosku, że pomiary

geodety dowodzą kulistości Ziemi, powinien raczej zaprzestać czytania prezentowanego tu materiału i rozpocząć od studiowania poniższej literatury:

e J. R. Taylor, Wstęp do analizy błędu pomiarowego, Wydawnictwo Naukowe PWN, Warszawa 2001.

e L. G. Squires, Praktyczna fizyka, Wydawnictwo Naukowe PWN, Warszawa 1992. e C. M. Grinstead i J. L. Snell, Introduction to Probability, Dartmouth College-AMS, 1997; książka zawiera bogactwo materiału z historii rozwoju rachunku prawdopodobieństwa i jest osiągalna w Internecie pod adresem: http://www.dartmouth.edu/ chance/ teaching_aids/books_articles/ probability _book/book.html. Alternatywnie, stosowny materiał można znaleźć w skrypcie autora: Podstawy rachunku

błędów (http://www.fuw.edu.pl/ rjn/PRB/ptb.zip). Czytelnik, który w konkluzji swego rozumowania

stwierdzi, że wynik uzyskany

przez geodetę jest w doskonałej zgodności z zasadami geometrii Euklidesa, może posiłkować się przy czytaniu niniejszego materiału następującą literaturą uzupełniającą:

e H. Abramowicz, Jak analizować wyniki pomiarów, Warszawa 1992.

Wydawnictwo

e S. Brandt, Analiza danych, Wydawnictwo

Naukowe

e W.

Wydawnictwo

Klonecki,

1999.

Statystyka

dla inżynierów,

PWN,

Naukowe

PWN,

Warszawa 2002.

Naukowe

PWN,

Warszawa

16

Tytułem wstępu

e T. Eadie, D. Drijard, F. E. James, M. Roos i B. Sadoulet, Metody statystyczne w fizyce

doświadczalnej, PWN, Warszawa 1989. e A. Strzałkowski i A. Sliżyński, Matematyczne metody opracowywania wyników pomiarów, PWN, Warszawa 1978. e W. I. Goldanski, A. W. Kucenko i M. I. Podgorecki, Statystyka pomiarów przy rejestracji promieniowania jądrowego, PWN, Warszawa 1963.

Gorąco polecane jest również studiowanie pełnego wydania kompendium Review of Particle Properties, wydawanego w cyklu dwuletnim przez grupę fizyków cząstek elementarnych

z CERN

1 Berkeley.

Są tam opisane podstawowe

i najczęściej spotykane

w codziennej praktyce procedury statystyczne. Kompendium to osiągalne jest również w Internecie pod adresem http://pdg.lbl.gov. Z opracowania tego pochodzą wszystkie cytowane w niniejszym wykładzie dane dotyczące własności cząstek elementarnych, o ile nie jest podane jawnie inne Źródło.

Inna interesująca, choć angielskojęzyczna literatura, to:

e P. R. Bevington i D. K. Robinson, Data Reduction and Error Analysis for Physical Sciences, McGraw-HiH,

New

York

1992.

e A. G. Frodesen, O. Skjeggestad i M. Tofte, Probability and Statistics in Particle

Physics, Universitetsforlaget, Bergen-Oslo-Tromsg 1979. e I. A. Bancroft i C.-P. Han, Szatistical Theory and Inference in Research, M. Dekker,

Inc., New York 1981.

e R. J. Barlow,

Statistics. A Guide

Sciences, Wiley, New

York

to the Use of Statistical Methods

in the Physical

1989.

e L. Lyons, Szafistics for Nuclear and Particle Physicists, Cambridge University Press,

Cambridge 1992.

e B. P. Roe, Probability and Statistics in Experimental Physics, Springer, New 1992. e B. R. Martin, SZzafistics for Physicists, Academic Press, London and New

York

York 1971.

e N. Arley i K. R. Buch, /ntroduction to the Theory of Probability and Statistics, Wiley,

New York 1956.

e D. J. Hudson, Szatistics — Lectures on Elementary Statistics and Probability, Geneva 1964. e W. Hamilton, Szatistics in Physical Science, New York

1964.

Natomiast „„amatorom” poszukującym bardzo ścisłego i szerokiego przedstawienia teorii

prawdopodobieństwa i/łub statystyki matematycznej możemy polecić książki: e W. Feller, Wstęp do rachunku prawdopodobieństwa t. I i II, PWN, Warszawa 1969.

e M. Fisz, Rachunek prawdopodobieństwa i statystyka matematyczna, PWN, Warszawa 1969. e H. Cramer, Metody matematyczne w statystyce, PWN, Warszawa 1958. e Z. Hellwig, Elementy rachunku prawdopodobieństwa i statystyki matematycznej, Wy-

dawnictwo Naukowe PWN, Warszawa 1995.

e L. Gajek i M. Kałuszka, Wnioskowanie statystyczne, WNT, Warszawa 2000. e A. Stuart i J. A. Ord, Kendall's Advanced Theory of Statistics, vol. 1, Distribution Theory, Hodder Headline Plc., London

1994.

Tytułem wstępu

17

e J. A. Ord, Kendall s Advanced Theory of Statistics, vol. ŻA, Classical Inference, Hodder Headline Plc., London 1999.

Niniejszy wykład uzupełnia wydany w odrębnym tomie wybór zadań (po części orygi-

nalnych) o różnym stopniu trudności, do rozwiązywania których autor gorąco Czytelnika zachęca.

e R. Nowak, Statystyka dla fizyków. Ćwiczenia, PWN, Warszawa 2002.

Na rynku wydawniczym można znaleźć również inne zbiory. Interesujący zestaw zadań z rachunku prawdopodobieństwa na poziomie elementarnym prezentowany jest w książce e W. Łeński i A. Patkowski, Rachunek prawdopodobieństwa dla leniwych, Wydawnictwo Naukowe PWN,

Warszawa—Poznań

1996.

Zbiory zadań o poważniejszym stopniu zaawansowania to: e W. Krysicki, J. Bartos, W. Dyczka, K. Królikowska i M. Wasilewski, Rachunek praw-

dopodobieństwa i statystyka matematyczna w zadaniach, część I i II, Wydawnictwo Naukowe PWN, Warszawa 2002. e A. Plucińska i E. Pluciński, Zadania z probabilistyki, PWN, Warszawa 1983. Parę interesujących zadań można także znaleźć w książce: J. Araminowicz, Zbiór zadań z fizyki jądrowej, PWN, Warszawa 1980. Niektóre z probłemów zamieszczonych w tych zbiorach, jak również wcześniej cy-

towanych podręcznikach, trafiły także do niniejszej pracy. Wykład, jaki niemal wszystkie powyższe książki, utrzymuje się w kręgu tradycyjnie rozumianego rachunku prawdopodobieństwai statystyki matematycznej. Wyjątkiem jest

tutaj praca autorstwa T. Eadie' go i innych, w której większość prezentowanego materiału także utrzymana jest w duchu „klasycznym”, jednakże Czytelnikowi dana jest również

możliwość posmakowania podejścia współczesnego, zwanego też bayesowskim. Niestety, jest to praktycznie jedyna taka pozycja na rynku w języku polskim. Dlatego Czytelnik zainteresowany alternatywnym ujęciem tematu skazany jest na literaturę obcojęzyczną, z której najważniejsze pozycje to: e D. S$. Sivia, Data Analysis — A Bayesian Tutorial, Oxford University Press 1997. e C. Howson i P. Urbach, Scientific Reasoning: The Bayesian Approach, Open Court, La Salle 1998.

e J. M. Bernardo i A. F, M. Smith, Bayesian Theory, Wiley, New York 1994.

e G. E. P. Box i G. C. Tiao, Bayesian Inference in Statistical Analysis, Wiley, New York

1992.

e S. J. Press, Bayesian Statistics: Principles, Models and Applications, Wiley 1994. e A. O' Hagan, Kendall's Advanced Theory of Statistics, vol. 2B, Bayesian Inference,

Hodder Headline Plc., London 1994.

e A. Gelman, J. B. Carlin, H. S$. Stern i D. B. Rubin, Bayesian Data Analysis, Chapmann

X Hall/CRC, London 2000. e H. Jefireys, Theory of Probability, Oxford University Press, 1961. e B. de Finetti, Theory of Probability, Wiley, New York 1989.

Należy jednak zaznaczyć, że o ile środowisko klasycznych statystyków jest właściwie bardzo homogenne w swym rozumieniu tematu, o tyle nie istnieje coś takiego jak jed-

18

Tytułem wstępu

nolita szkoła współczesnej teorii prawdopodobieństwa. Występują dość głębokie różnice między prezentacjami różnych autorów, do czego zresztą autorzy ci się przyznają. Jest to

oznaką bujnego rozwoju dziedziny, w której pojawia się wiele nowych pomysłów 1 ścierają się różne idee. Dodatkową trudnością, jaką trzeba niekiedy pokonać, czytając różne, a zwłaszcza mniej ambitne ujęcia, jest nieukrywany, lekceważący stosunek, jaki zwolennicy współczesnego podejścia żywią do „ortodoksów”. Ci, naturalnie, nie pozostają im dłużni. W konsekwencji praktykowanie tych czy innych metod statystycznych staje się bardziej demonstracją i aktem wyznania wiary niż elementem rzetelnego dociekania prawdy naukowej.

Mimo tych psychologicznych komplikacji i uprzedzeń stosowanie bayesowskiej metody analizy danych powoli toruje sobie drogę i zyskuje coraz to szersze grono zwo-

lenników, także wśród fizyków — dlatego też w rozdziale 9 przedstawione są niektóre

fundamentalne fakty z tej dziedziny. Prezentacja ta czerpie intensywnie z pisanej bardzo żywym i barwnym (żeby nie powiedzieć egzaltowanym) językiem wszechstronnej i bogatej publikacji: E. T. Jaynes, Probability Theory: The Logic of Science, która obecnie dostępna jest jedynie w nieco fragmentarycznej

formie na WWW,

pod adre-

sem http://bayes.wustl.edu/etj/prob.html, oraz z paru innych publikacji. Dwie z nich to

T. J. Loredo, The Promise of Bayesian Inference for lenges in Modern Astronomy, red. E. D. Feigelson i 1992 oraz From Laplace to Supernova SN 1987A — sics, w Maximum Entropy and Bayesian Methods, red. Publishers, Dordrecht 1990. Oba artykuły dostępne

Astrophysics, w Statistical ChalG. J. Babu, Springer, New York Bayesian Inference in AstrophyP. F. Fougere, Kluwer Academic są w sieci WWW pod adresem

http://astrosun.tn.cornell.edu/staff/loredo/bayes/tjl.html. Trzecią jest praca P. Sahy: Principles of Data Analysis, a można ją odnaleźć na WWW pod adresem http://www-astro.

physics.ox.ac.uk/ saha/pda.html. Czwarta publikacja to notatki z wykładu: G. D'Agostini, Bayesian Reasoning in HEP — Principles and Applications, CERN Report 99-03, osią-

galne pod adresem http://www.cern.ch/Training/ACAD/reglec_E.html. Teraz słowo o symbolice matematycznej. Chcemy zwrócić uwagę na dwa symbole, które występują w książce. Różnica między nimi jest dość umowna

z akcentu i chęci zwrócenia symbol to = i stosujemy go In(1 + x) = x dla wartości to %, który zastępuje frazę

i wynika raczej

uwagi na różny aspekt tego samego zagadnienia. Pierwszy do zaznaczenia przybliżonej równości, jak np. w wyrażeniu wielkości x bliskiej zera, lub też x = 3,14. Drugi symbol „zachowuje się jak”, jak np. w wyrażeniu: n(n + 1) %n*

dla dużych wartości wielkości n. Sporadycznie wykorzystywany jest też symbol toz-

samości == dla oznaczenia definicyjnej równoważności

występujących po jego lewej

i prawej stronie wielkości oraz symbol x dla określenia prostej proporcjonalności. Po-

nadto czcionką wytłuszczoną, np. x, konsekwentnie oznaczane są zespoły wielkości x;: Xx = (X, X9,..., X„) i tylko wspomnimy, że punktem naszego zainteresowania nie jest tu charakter wektorowy tych wielkości, choć będziemy wykorzystywać do nich aparat alge-

bry liniowej. Symbole opatrzone kreską „nad”, jak x, to wartości średnie, z wyjątkiem sytuacji, w których odwołujemy się do teorii zbiorów lub rachunku zdań, kiedy to kreska

nad symbolem określa zbiór dopełniający lub tezę przeciwną. Gruba czcionka prosta, szeryfowa, np. V, zarezerwowana jest dla macierzy. Symbol „daszka” ” jest używany do

Tytułem wstępu

19

oznaczenia estymatora lub estymaty wielkości, nad którym ten symbol występuje. Na specjalny symbol zasłużyły sobie zmienne losowe w treści niniejszego wykładu. Aby odróżnić je od zmiennych matematycznych przedstawionych wyżej, zmienne te są pi-

sane czcionką bezszeryfową, np. x, jeśli chcemy użyć zmiennej prostej, oraz pogrubioną X = (X,X,...,X„) dla wektora losowego.

Niektóre z rozkładów prawdopodobieństwa pojawiają się na tyle często, że warto

zarezerwować dla nich specjalną symbolikę, ukazaną w tabeli 1. Tabela 1. Oznaczenia rozkładów

B(n, p)

rozkład dwumianowy oraz p

dyskretnej zmiennej

losowej

k z parametrami n

G (p)

rozkład geometryczny dyskretnej zmiennej losowej k z parametrem p

Un, p)

rozkład ujemny dwumianowy dyskretnej zmiennej losowej k, opisującej liczbę prób, z parametrami n oraz p; stosujemy także wariant 24,(n, p), jeśli zmienna k opisuje liczbę porażek

H(N,K,n) Wk,...k; (n, Py,-.., Pj)

rozkład hipergeometryczny dyskretnej zmiennej losowej k z parametrami N, K oraz n

rozkład wiełomianowy j dyskretnych zmiennych losowych k;, ka,...

określony parametrami n, py,...

, k;,

, p;

P.(u)

rozkład Poissona dyskretnej zmiennej losowej k z parametrem

E(t; A)

rozkład wykładniczy ciągłej zmiennej losowej t z parametrem intensywności A; w przypadku gdy zamiast tego parametru używamy jego odwrot-

ności: T = A !, stosujemy oznaczenie €(t; T) N Q; u,o)

rozkład normalny (Gaussa) ciągłej zmiennej losowej x z parametrami u oraz o

XA, (x)

rozkład x? ciągłej zmiennej losowej x o n stopniach swobody

S,()

rozkład Studenta ciągłej zmiennej losowej t o n stopniach swobody

Fnm(2)

rozkład Fishera ciągłej zmiennej losowej x o (n, m) stopniach swobody

W rozdziale 9 indeksy odgrywające rolę zmiennej niezależnej promujemy do pełnoprawnych argumentów rozkładów przez umieszczenie ich w nawiasach, oddzielając je przy okazji pionową kreską | od parametrów. Z uwagi na rozmaitość symboli, jakie występują w literaturze dla określenia niepewności pomiaru, podamy także naszą definicję. Symbołem s, będziemy oznaczali wartość, jaką przyjmuje dla próbki danych pierwiastek kwadratowy z nieobciążonego estymatora

20

Tytułem wstępu

wariancji. W warunkach wielokrotnego pomiaru odpowiada to l n=1

Sx =

— 2

— x),

podczas gdy

= |„20: — 2.

N=

Popularny symbol o, o ile nie oznacza przekroju czynnego, rezerwujemy dla pierwiastka

kwadratowego z wariancji zmiennej losowej lub czynnika skalującego dla tej zmiennej. I jeszcze jedna uwaga. Aby w treści wykładu wyraźnie oddzielić prezentowane przykłady od głównego toku rozumowania,

stosowana jest mniejsza czcionka, a także

symbol II, kończący treść każdego przykładu. Autor dziękuje prof. A. K. Wróblewskiemu za życzłiwość, zachętę i wsparcie, jakie

otrzymywał od niego przez szereg lat, gdy przygotowywane były kolejne wersje tego wy-

kładu w formie skryptu dla studentów. Bez jego pomocy książka ta nigdy by nie powstała.

On także wskazał autorowi źródło wartości liczb x, /3 oraz e z dokładnością do miliona

cyfr. Autor jest wdzięczny prof. A. Majhoferowi oraz prof. J. Crittenedowi za iluminujące dyskusje, a prof. B. Murynowi za wiele cennych wskazówek i krytycznych uwag o manuskrypcie. Podziękowania kieruje także ku prof. Ch. Drostemu za udostępnienie mu danych o kalibracji licznika germanowego i widma, które posłużyło do ilustracji rozważań nad metodą najmniejszych kwadratów w problemie nieliniowym, jak również

dr. J. M. Pawlakowi za dane o czasie oczekiwania na przyjazd metra, prof. M. Kałuszce



za wskazanie źródła do zagadnienia oceny optymalnej szerokości przedziału histo-

gramowania, a dr. hab. A. F. Żarneckiemu — za wskazanie na typ eksperymentu, który

posłużył do uzasadnienia metody największej wiarogodności.

Nie bez znaczenia i wpływu na ostateczny kształt i treść wykładu były uwagi i dyskusje z wieloma studentami, które autor prowadził w trakcie wykładów i po nich. Wiele

z tych rozmów pozwoliło lepiej zrozumieć i docenić trudności, jakich doświadczają Ci,

którzy przystępując do rozwiązania konkretnego problemu, próbują go zidentyfikować jako zagadnienie z zakresu statystyki matematycznej i sformułować w języku tej dziedziny. Dzięki im za to.

Wyrazy wdzięczności należą się także Rodzinie, która zawsze z entuzjazmem śledziła postęp prac, zachęcała, pomagała, a przede wszystkim ze zrozumieniem odnosiła się do męża i ojca, gdy ten, przygotowując manuskrypt, spędzał godziny przed kompu-

terem, co bez wątpienia odbywało się kosztem obowiązków domowych. Na zakończenie autor pragnie zwrócić się z prośbą do Czytelnika i zachęcić go do przekazania mu wszelkich uwag, spostrzeżeń i komentarzy. Może pomogą one ulepszyć jeśli nie następne wydanie tej książki, to wykład dla studentów. Ponieważ w dzisiejszej dobie najsprawniejszą i najwygodniejszą formą komunikacji są media elektroniczne, © fuw.edu.pl. toteż autor pozostawia Czytelnikowi swój adres: Roman.Nowak

Roman J. Nowak

PRAKTYKA

Słowo Praktyka brzmi dla nas tak samo jak dla Greków, u których oznacza ona coś związanego z Teorią i coś przeciwnego.

O ile bowiem Teoria dotyczy racji i poruszeń intelektu, o tyle Praktyka obraca się wokół czynności i poruszeń rozsądku; pierwsza tedy ma związek ze spokojem kontemplacyjnym, będącym głównie dążeniem duszy, druga zaś wiąże się ze spokojem aktywnym, będącym głównie dążeniem rozsądku.

Statystyka w fizyce

Najprostszy przykład pomiaru to pomiar prostej wielkości fizycznej typu długości wybranej fali Światła, współczynnika lepkości, oporu lub przyspieszenia ziemskiego. Tę

ostatnią wielkość możemy znaleźć, np. mierząc czas staczania się walca z równi pochyłej, a rezultat takiego pomiaru (dane własne) zilustrowany jest na rys. 1.1. W odniesieniu do tego histogramu, jak również innych przedstawionych poniżej, często używany jest termin wykres częstości, choć nazwa ta, Ściśle rzecz biorąc, powinna być stosowana do rysunku, na którym prezentowana jest nie liczba pomiarów o określonej własności, lecz ułamek bądź procent takich pomiarów. Jeszcze częściej stosowana jest szersza nazwa:

rozkład (w tym przypadku eksperymentalny, jako że budując modele probabilistyczne różnych pomiarów, będziemy mieli również rozkłady teoretyczne lub modelowe), ściślej — rozkład wyników pomiarów przyspieszenia ziemskiego. W odniesieniu do wielkości mierzonej używamy terminu zmienna losowa i zmienne takie będziemy oznaczali czcionką prostą o kroju bezszeryfowym, np.: k, l, m,... „t,

20

T

15

TI

liczba pomiarów

25

900

940

980 1020 przyspieszenie [cm/s”]

1060

1100

Rys. 1.1. Rozkład rezultatów pomiaru przyspieszenia ziemskiego uzyskanych metodą pomiaru czasu staczania się walca z równi pochyłej

24

1. Statystyka w fizyce

X, y, ... , natomiast do wyników pomiarów oraz zwykłych zmiennych matematycznych

zastosujemy kursywę: k, I, m, ... „t, x, y,... . Niedostatkiem tej konwencji jest brak możliwości rozróżnienia w piśmie między zmienną losową a zmienną matematyczną dla

wielkości oznaczanych symbolami z alfabetu greckiego. Autor ufa jednak, że nim takie symbole się pojawią, Czytelnik na tyle będzie wprowadzony w temat, że będzie potrafił zorientować się z kontekstu, o którą z wielkości chodzi. Zbiór (skończony) wszystkich

wyników pomiarów to próbka. Pojęcie to wiążemy z jeszcze jednym, pochodzącym z nauk socjologicznych, terminem — populacja, czyli zbiorem wszystkich przedstawicieli naznaczonych wybraną cechą. Termin ten, choć używany będzie przez nas przy analizie statystycznej danych doświadczalnych, ma raczej charakter pomocniczy, ponieważ, jako żywo, nikomu jeszcze nie udało się wyczerpać pomiarami wszystkich możliwych wartości np. przyspieszenia ziemskiego.

Wszystkie proste pomiary pouczają nas o pewnej charakterystycznej własności każdego procesu pomiarowego: ze względu na wpływ, jak sądzimy, pewnej liczby różnorodnych i niekontrolowanych czynników zewnętrznych, rezultaty pomiarów dowolnej wielkości makroskopowej mają charakter statystyczny —

powtarzając pomiary, nie

otrzymujemy jednej i tej samej wartości. Rozrzut rezultatów, jak ten na histogramie pomiarów przyspieszenia ziemskiego, czyli coś co zwiemy fłuktuacją, wiążemy z procesem pomiarowym — brakiem absolutnej wierności w każdym akcie pomiarowym. Jakościowo inny problem napotykamy, badając np. izotop bizmutu o liczbie masowej

211, który rozpada się w około 65% na polon drogą przemiany 8: *3Bi > *34Po + e” + 0,, a w pozostałych 35% na tal w wyniku emisji cząstki a: 41Bi > "TI + He. Podobne zachowanie wykazuje wiele jąder wzbudzonych i cząstek elementarnych, przy

czym liczba możliwych sposobów, zwanych także kanałami, ich rozpadów jest niekiedy znaczna — np. dla ciężkich leptonów T dochodzi ona do kilkudziesięciu. Trudność w wyznaczaniu częstości takich rozpadów polega na tym, że biorąc próbki np. po sto jąder bizmutu, w jednym przypadku znajdziemy, że 65 z nich rozpadło się na drodze emisji B, w innym może to być tylko 60, a jeszcze w innym aż 80. Niedoskonałość powtórzeń w kolejnych kopiach pomiaru nie jest w tym przypadku związana z warunkami pomiaru

ani instrumentami (nawet jeśli nie są idealne), których używamy, ani z tym, że jedne sto jąder bizmutu ma inne własności niż jakieś inne sto jąder, lecz z naturą zjawiska, które usiłujemy zbadać — ono samo ma charakter statystyczny. Znaczenie statystycznego po-

dejścia jest tu znacznie głębsze niż w przykładzie z przyspieszeniem ziemskim, stąd też

dobre jego zrozumienie jest warunkiem wstępnym do poprawnej analizy eksperymentalnej i znalezienia błędu pomiarowego częstości rozpadu, w nomenklaturze fizycznej zwanej stosunkiem rozgałęzienia.

Inny przykład realizacji identycznego procesu statystycznego znajdujemy w analizie asymetrii. Ilustrację tego zagadnienia stanowi sytuacja, w której badamy polaryzację wyprodukowanej cząstki przez określenie kierunku lotu produktów jej rozpadu względem tzw. płaszczyzny reakcji, czyli płaszczyzny, w której znajdują się wektory pędu

padającego pocisku i wyprodukowanej

cząstki. Okazuje się, że wybrany produkt roz-

padu „chętniej” wybiega na jedną ze stron takiej płaszczyzny niż na drugą. Liczba cząstek nad płaszczyzną 1 pod płaszczyzną to analogia liczb rozpadów jądra bizmutu

1. Statystyka w fizyce

25

10 r

> PA

>s 78] .©

2 Ń

8

6lL

ł

SI

3 4)

4d

Ś

a

5

3 |-

+ —

ee

2 t

ł

+

LL

TASSO, 34,5 GeV |

0

-0,8

l

J

i

l

-0,6

-0,4

-0,2

0

l

0,2

l

l

|

0,4

0,6

0,8

cosi

Rys. 1.2. Rozkład kątowy leptonów u” emitowanych w reakcji anihilacji efe > UTuUT

na dwu drogach. Bardziej rozbudowana realizacja identycznego modelu statystycznego (rys. 1.2, za M. Althoff i inni, An Improved Measurement of Electroweak Couplings from ete —> ete” andete" > U*u', Z. Phys. C — Particles and Fields 22 (1984), 13), to asymetria w liczbie emitowanych leptonów u" w kierunku zgodnym bądź przeciwnym do kierunku lotu pozytonu w układzie środka masy w reakcji e*e > uu. Asymetria ta była jedną z pierwszych wskazówek bozonu pośredniczącego Z.

sugerujących istnienie neutralnego

Poszerzeniem opisywanych przykładów jest następujący eksperyment. Wyobraźmy sobie licznik, np. Geigera-Miillera, z umieszczoną w nim próbką jąder promieniotwórczych, który uruchamiamy wielokrotnie na pewien stały, zadany przedział czasu. W każdym z okresów pracy licznik zarejestruje różne liczby rozpadów. Możemy oczekiwać, że liczby te będą grupowały się około pewnej wartości określającej typową liczbę zliczeń. Spodziewamy się jednak, że od czasu do- czasu zarejestrujemy zarówno małe, jak i bardzo duże liczby rozpadów. Nic nie stoi na przeszkodzie, aby przyjąć model, w którym możliwa liczba rejestrowanych rozpadów to: 0, 1, 2,3,....

W powyższym przykładzie z rozpadem jądra bizmutu każdy indywidualny akt roz-

padu jądra był losowym wydarzeniem o gamie ściśle określonych wyników. Liczba tych wyników, może niekiedy duża — jak w przykładzie z leptonem T — a nawet przy odrobinie wyobraźni nieskończona, jest jednak przeliczałna. Poszczególne możliwości

możemy ponumerować i ustawić w konwencjonalnej lub naturalnej (z jakiegoś punktu widzenia) kolejności i w dalszym toku odwoływać się do numeru w (skończonym lub nieskończonym) szeregu. Do opisu takiej sytuacji wygodnie jest wprowadzić nowy termin — mówimy o dyskretnym charakterze danego procesu losowego lub zbiorze jego możliwych rezultatów, czyli o dyskretnej zmiennej losowej podlegającej dyskretnemu rozkładowi prawdopodobieństwa. Trochę inaczej wygląda następujący problem. Rozważmy przykład elastycznego rozpraszania np. elektronu o zadanym pędzie p na stacjonarnym protonie (patrz rys. 1.3).

W wyniku rozproszenia otrzymujemy elektron o pędzie k i proton o pędzie q. Czy mo-

26

1. Statystyka w fizyce

Rys. 1.3. Definicja zmiennych kinematycznych w procesie elastycz-

nego rozpraszania ep

żemy znaleźć wartości tych pędów? Wprowadzając oznaczenia jak na rysunku, możemy

wypisać zasady zachowania pędu i energii:

p=kcosog +qcosv, 0 =ksing

+qsin3,

myc” + ;/mżc* + p?c? = „/m2c* + k?c? + ,/mąc* +ą?c*, gdzie przez m, i m, oznaczyliśmy odpowiednio masy elektronu i protonu. Jest to układ

trzech równań na cztery niewiadome:

g, %, k oraz q, co oznacza, że możemy je roz-

wiązać, przyjmując jedną z nich, np. kąt pojedynczym akcie rozproszenia? O tej być ona zawarta w granicach od 0” do w każdym konkretnym przypadku i które

p, za znaną. Ale ile wynosi ten kąt w każdym wielkości wiemy a priori tylko tyle, że może 180? i nic nadto. To, ile ona będzie wynosiła wartości (małe, czy też duże kąty) będą prefe-

rowane, zadecyduje losowy proces uwarunkowany dynamiką rozpraszania. Mówimy, że

mamy tu do czynienia z ciągłą zmienną losową, ponieważ zbiór jej wartości przebiega nieprzeliczalną liczbę możliwości. Interesującym przykładem takiej sytuacji jest rys. 1.4 (S. Herb i inni, Phys. Rev. Let. 39 (1979), 252), gdzie przedstawiono wyniki eksperymentu, w którym badano masę niezmienniczą par

u "u* uzyskanych w procesie nieelastycznego rozpraszania protonów na

jądrach atomowych. Mimo że na osi rzędnych odłożona jest pewna forma różniczkowego przekroju czynnego, o wykresie takim też często mówimy luźno jako o rozkładzie. Wy-

niki takie jak ten dostarczyły swego czasu dowodu na istnienie rodziny cząstek ypsilon, będących stanem związanym kwarka b i jego antykwarka. Analiza statystyczna w całej swej krasie ujawnia się jednak dopiero na następnym wy-

kresie — rys. 1.5 — który uzyskano, usuwając z rys. 1.4 coś, co nazywamy tłem (zwróćmy

uwagę na zastosowanie na pierwotnym rysunku skali logarytmicznej, dzięki czemu nadmiar przypadków w okolicy 9-10 GeV

wybija się ponad „coś”, co wygląda jak linia

prosta) i dopasowano do otrzymanych punktów krzywe Breita-Wignera, które pozwoliły wyznaczyć masy nowych cząstek (G. Fliigge, w Proceedings of the EPS Conference on High Energy Physics, Geneva 1979, Geneva, CERN Scientific Information Service). Następna komplikacja, jaka pojawia się w związku ze zmienną ciągłą, to wielowymiarowość. Jeśli wrócimy do przykładu rozpraszania, tym razem nieelastycznego, w którym

powstaje n cząstek w stanie końcowym, to układ taki charakteryzujemy w pełni, podając 3n składowych pędu cząstek, o ile potrafimy zidentyfikować te cząstki. Równania zacho-

1. Statystyka w fizyce

27

24 ©

|

.

,

w 1035

L

do

»,

dmdy |,-, ., 7

——

, Pa,

6

He

la >

*

+

,



4

vo

9,

+

ł

107 |

O:

+ł | |

10?

|

6

7

8

9

10

11

|

12

13

masa [GeV]

Rys. 1.4. Podwójny różniczkowy przekrój czynny na produkcję par u". w procesie nieelastycznego rozpraszania protonów na jądrach jako funkcja masy niezmienniczej pary mionów

wania energii i pędu wyeliminują nam 4 z tych wielkości, a te, które pozostaną, w liczbie 3n — 4, staną się, w każdym indywidualnym akcie rozpraszania, zmiennymi losowymi.

Prosty, a zarazem bardzo pouczający jest dwuwymiarowy przykład na następnym wykresie — rys. 1.6 (dane własne), który przedstawia tzw. profil wiązki cząstek ele-

mentarnych wybiegających z akceleratora i docierających do pewnego detektora. Jest to rozkład punktów trafień tych cząstek w płaszczyznę prostopadłą do osi wiązki, a każdy z 386 punktów reprezentuje sobą jedną cząstkę. Ten chaotyczny, na pierwszy rzut oka,

układ ma jednak pewną strukturę. Widać, że punkty trafień układają się w obszarze elipsy, której dłuższa oś nachylona jest pod pewnym kątem do poziomej osi współrzędnych. Oznacza to, że jeśli cząstka wychyla się „w prawo”, to jednocześnie ma tendencję do odchylenia „w dół”. Zależność taka, nie mająca charakteru zależności matematycznej,

lecz statystycznej, określana jest mianem korelacji.

1. Statystyka w fizyce

liczba przypadków

28

i

| 8,50

9,00

9,50

10,00

10,50

masa niezmiennicza

Rys. 1.5. Rozkład — po odjęciu tła — masy niezmienniczej par u*u" uzyskanych w procesie nieelastycznego rozpraszania protonów na jądrach 100

r

50

|

,

.

:

2

Ę

0

—50

|

.

«

"

—200

*

WC.

1

**

ze

.

Ba

dą"

s.

,

sze”3

JOCK ,

.

"

.

|

-100

Z

-”

.

Z

.

,

e

l

0

i

,,

.

e

+

.

4.

„.

wo,

*

.-

,

.,

. -

, Ó

..

4

.

RJ

+



*

s"

.

.*., wa

.

|

*

—100

*

.

.

i

.

..

*

*

„..

. .„*.

A

"

,

.

4

,

*

.

".

.*

.

.

..

* .

.

. .

+

.

J

100

mm

Rys. 1.6. Rozkład punktów trafień wiązki w płaszczyznę detektora (dane własne)

Piękny przykład korelacji uwidoczniony jest na rys. 1.7 (S. Kopp, Dalitz Analysis of the Decay D > K'n*n', Eksperyment CLEO, http://arXiv.org/abs/hep-ex/ 0011065), na którym jest przedstawiony rozkład mas niezmienniczych par cząstek Kx" oraz n*n/, powstających w rozpadzie mezonu D” > K"n*n'. Jeśli przejdziemy do układu środka masy tych trzech cząstek, to zasada zachowania pędu ogranicza wszystkie ich możliwe pędy do płaszczyzny, co oznacza, że mamy 6 wielkości (po dwie składowe pędu każdej z cząstek), które charakteryzują taki rozpad. Dodatkowo ta sama zasada wraz z zasadą zachowania energii (razem trzy równania) eliminują 3 z tych wielkości, pozostawiając 3 wolne parametry. Jeśli nadto ustalimy kierunek lotu w tej płaszczyźnie jednej z cząstek (np. kaonu), pozostaną nam dwie wielkości, które w pełni opisują konfigurację przypadku. W omawianej pracy za owe dwie wielkości przyjęto kwadraty mas niezmienniczych kaonu i dodatniego pionu oraz obu pionów. Obrys obszaru wypełnionego punktami zadaje dozwolony zakres zmienności obu mas niezmienniczych.

1. Statystyka w fizyce T

T

T

T

3111100-011

wu

U

=

.

„pe

ł

w

R

SĄ:Se

wyga

z.

swe ",

+

e 41

p

.

7

7

. 4

ZPA

7" «wa +

4

,

.

+

»

>

- as Ta .

;

Ma

4

w

Sapąia 9 a BŚ AGIT

a

-

:

P tn

M(n' n ) (GeVc” )

——

2,0

29

Rys.

1.7.

Rozkład

masy

niezmienniczej

K-n* oraz n*n" z rozpadów mezonu D”

par

3

M(K n ) (GeVc

22

Gdybyśmy mieli do czynienia z absolutnie statystycznym charakterem zjawiska lub, jak to mówią fizycy, rozkład był zdeterminowany przez przestrzeń fazową procesu, punkty na wykresie powinny układać się jednorodnie we wnętrzu tego obszaru. Jak widzimy, para dwóch pionów i para złożona z kaonu i pionu preferuje, w części przypadków, pewne obszary wartości masy niezmienniczej, co uwidacznia się w postaci „wysp” większej gęstości punktów na wykresie. 8 -

]

2

j

Rys. 1.8. Rozkład energii poprzecznej dwóch dżetów

ZEUS

UCAL transverse energy

30

1. Statystyka w fizyce

Wykresy takie jak na rys. 1.7 służą do wizualizacji funkcji zależnej od dwóch zmiennych. Jeśli chcemy pokazać wartości tej funkcji, uciekamy się do tzw. wykresów lego, których przykład widzimy na rys. 1.8 (dane współpracy ZEUS). Oderwijmy się teraz na moment od fizyki i wróćmy do geodety, który wymierza

trzy kąty pewnego trójkąta w terenie. Nikt nie oczekuje, że suma tych kątów, z uwagi na

błędy pomiarowe, wyniesie równo 180”. Jeśli jednak nasz geodeta zamierza wykorzystywać zmierzone przez siebie trójkąty w dalszej pracy i stosować odpowiednie wzory trygonometryczne, to musi zmienić wartości tych kątów tak, aby ich suma wynosiła tyle, ile tego wymaga geometria euklidesowa. Podobny problem występuje przy pomiarach

pędów w rozpraszaniu np. elektronów na protonach. Mierząc pędy cząstek w tej reakcji, nie możemy oczekiwać, z uwagi na błędy pomiarowe, że wyniki naszych pomiarów będą spełniać ściśle zasady zachowania pędu i energii. Ale jednocześnie nie możemy dopuścić do tego, byśmy dałej pracowali z niespójnymi danymi. Musimy, w granicach dopuszczonych przez błędy poszczególnych pomiarów, zmodyfikować wartości mierzone, aby

podstawowe prawa Natury były spełnione. Służy do tego procedura zwana dopasowaniem kinematycznym, oparta na tzw. teście x*, o którym będziemy mówili w dalszej

części tego wykładu. 13 657

5 0

4.2

4.3

$.5

4,

.

TASSO

a RŃ

u

-

|

47

Rys. 1.9. Przykład rejestracji torów cząstek w wielodrutowej komorze dryfowej

Inny, klasyczny przykład dopasowania z zastosowaniem testu x* zaprezentowany

jest na rys. 1.9. Przedstawia on schematyczny, w przekroju poprzecznym, obraz umiesz-

czonej w polu magnetycznym wielodrutowej komory cylindrycznej, otaczającej punkt oddziaływania wiązek przeciwbieżnych (G. Wolf, Deutsches Elektronen Synchrotron Internal Report, DESY 81-086). Naładowane produkty reakcji rozbiegają się wzdłuż linii spiralnych ze środka rysunku i są rejestrowane za pomocą owych drutów. W wyniku

1. Statystyka w fizyce

31

otrzymujemy dyskretną informację o kształcie toru cząstki. Naszym zadaniem jest od-

tworzenie tego toru w przestrzeni i znalezienie jego parametrów, co pozwala określić

pęd cząstki. Na zakończenie przeglądu problemów, jakie typowo spotykamy w trakcie pracy eksperymentalnej, rozwaźmy następujące zagadnienie. Wiemy, że w przyrodzie obowiązuje (jak na razie) eksperymentalne prawo zachowania mionowej liczby leptonowej. Oznacza to, że np. przy obserwacji rozpadu leptonu u", wśród produktów znajdziemy zawsze cząstkę — w tym przypadku tzw. neutrino mionowe v,, — wynoszącą mionowy „ładunek” leptonowy. Wyobraźmy sobie, że wykonujemy doświadczenie, którego celem jest sprawdzenie tego prawa przez poszukiwanie np. rozpadu: u" > ee'e”, który jest z owym prawem sprzeczny (nawiasem mówiąc, jest on również sprzeczny z prawem zachowania elektronowej liczby leptonowej). Załóżmy, że zebraliśmy próbkę jednego

miliona rozpadów i nie znaleźliśmy ani jednego interesującego nas przypadku. W pierwszym momencie moglibyśmy powiedzieć, że prawo jest słuszne, a jeśli nie, to łamane jest co najwyżej raz na milion. Jest to jednak stwierdzenie zbyt kategoryczne. Jeśli

przypomnimy sobie nasze rozważania z początku rozdziału o liczniku Geigera-Miillera zliczającego rozpady jąder promieniotwórczych, zauważymy, że w naszym doświadczeniu mamy identyczny model probabilistyczny —— prawo może być istotnie łamane na

poziomie w okolicy jeden na milion lub nawet nieco silniej, lecz los spłatał nam figla i nie dał nam szansy jego wykrycia!

Dlatego też stwierdzenie, że badany rozpad

zachodzi rzadziej niż raz na milion to zbyt mało. Powinniśmy opatrzyć takie stwierdzenie oceną możliwości wystąpienia takiego zachowania. Tę ocenę nazywamy poziomem ufności. t

BP |

JON

jet aen

|

NS = 130 > 189GeV

m,, = 173,9GeVc

M,., susy = 1TeVc”

PES

10

|



|

||

—— mieszanie maksymalne „.. bez mieszania

|

|

4

|LĄ

*

hoM; - 4

m, < 20GeVc* _ wykluczany „© s

20

30

40

50

60

70

80

90

100

110

120

My, [Gevc ]

Rys. 1.10. Rezultat poszukiwania cząstki Higgsa — obszary wykluczonych wartości mas i parametru 8

32

1. Statystyka w fizyce

Bardziej wyrafinowana forma identycznego zagadnienia prezentowana jest na rys. 1.10 (patrz A. Hocker, http://arXiv.org/abs/hep-ex/9903024). Podsumowuje on pewien etap poszukiwania najbardziej nieuchwytnej cząstki elementarnej, jaką jest tzw. bozon Higgsa. W standardowym modelu oddziaływań cząstek elementarnych istnienie jednego takiego obiektu jest niezbędne. Mimo że do chwili obecnej nie udało się go odkryć, nie przeszkadza to fizykom teoretykom w spekulacjach odnoszących się do jeszcze bardziej finezyjnej teorii tzw. minimalnego supersymetrycznego modelu standardowego,

w którym kwarki i leptony traktowane są równorzędnie. Model ten prowadzi do jeszcze

bardziej skomplikowanego

układu tych bozonów,

gdyż przewiduje istnienie aż pięciu

takich cząstek, z których jedna, oznaczana symbolem h;, powinna być relatywnie lekka, choć model nie specyfikuje, ile jej masa wynosi. Zagadnienie komplikuje trudność, jaką

jest pewien

dodatkowy,

zupełnie nieznany

parametr modelu,

zaznaczony

na rysunku

symbolem 8, który ma wpływ na masę tej najlżejszej cząstki. Dlatego mierzenie masy bozonu Higgsa jest jednocześnie badaniem wartości nieznanego parametru. Ponieważ, jak na razie, w żadnym z eksperymentów bozon ten nie został wykryty, więc wyniki owych doświadczeń prezentowane są w formie „negatywnej” — obszarów wartości masy

i parametru 8 wykluczonych przez eksperyment przy zadanym poziomie ufności.

Na zakończenie tego rozdziału przyjrzyjmy się bliżej słowu statystyka. Używane jest ono w wielu znaczeniach. W języku potocznym, w zdaniu jak Statystyki opubliko-

wane przez GUS wskazują na ... jest ono synonimem słowa dane, rozumianego jako liczby, tabele, wykresy itp. W nazwie Główny Urząd Statystyczny poszerzamy warstwę znaczeniową o proces zbierania i przetwarzania tychże informacji, a także ich przechowywania. My będziemy używać tego słowa w innym znaczeniu, zdefiniowanym w podrozdziale 4.2: statystyka to funkcja zmiennych losowych, i właściwym dziedzinie nauki

zwanej statystyką matematyczną, czyli wiedzy o metodach uzyskiwania informacji z danych. Ta gałąź matematyki stosowanej, mimo że ma swój zestaw twierdzeń, związana

jest ze swej natury z wnioskowaniem indukcyjnym i przechodzeniem od szczegółu do ogółu, czego parę próbek przedstawiliśmy w tym rozdziale. Statystyka matematyczna rozwinęła się z dziedziny czystej matematyki: rachunku (teorii) prawdopodobieństwa, który jest jej podstawowym językiem. Dlatego teraz przejdziemy do przedstawienia paru

najbardziej fundamentalnych faktów tej dziedziny.

PRZYUCZENIE

Przyuczenie jest ćwiczeniem się

w nabywaniu zacnych nawyków i chwalebnych zalet za pośrednictwem głosu lub pisma, przedstawia się je w postaci wspaniałej, bo tylko dusze szlachetne łatwo naginają się do przykrości poprzedzających cnoty.

Prawdopodobieństwo i jego rozkład

—— 21. Pojęcie rozkładu prawdopodobieństwa Przypomnimy teraz przykład z licznikiem Geigera-Miillera z rozdziału 1 oraz zilustrujemy go historycznymi danymi Rutherforda i Geigera (E. Rutherford, H. Geiger i H. Bateman, Phil. Mag. 20 (1910), 698) z 1910 roku, kiedy to obserwowali oni liczbę cząstek

a emitowanych przez substancję promieniotwórczą w n = 2612 przedziałach czasowych po 7,5 s każdy. Rysunek 2.1 przedstawia częstości Nę

F,y=—, n

gdzie n, określa liczbę pomiarów (okresów pomiarowych po 7,5 s każdy), w których

uległo rozpadowi k jąder. Na przykład w około jednej pięćdziesiątej (2%) wszystkich

przedziałów czasowych nie obserwowali oni w ogóle rozpadów promieniotwórczych. Dokonajmy teraz myślowego przejścia do nieskończoności z liczbą n pomiarów wykonanych przez obu uczonych. Oczekujemy, że w granicznym przypadku z obserwowanych często-

0,25 r

0,15

|

0,10

1

częstość

0,20 |

0,05 0,00



A

de)

ŚĆ

SA



Ę

0

1

2

3

4

5

6

7

Łoś

ża

8

9

:

40

liczba k rozpadów Rys. 2.1. Rozkład liczby rozpadów obserwowanych przez Rutherforda i Geigera

11

12

36

2. Prawdopodobieństwo i jego rozkład

ści F, otrzymamy prawdopodobieństwa P,, że wielkość k, określająca liczbę rozpadów w wybranym przedziale czasowym, przyjmie wartości O, 1, 2,...:

F, = ki



Pk=R =P.

(2.1)

Na powyższe przejście graniczne należy patrzeć z dużą dozą ostrożności, gdyż nie ma

ono tego charakteru, do jakiego przywykliśmy w analizie matematycznej. Poza formalnie wypisaną zależnością od liczby pomiarów w mianowniku mamy jeszcze ukrytą, statystyczną zależność w liczniku. Intuicja i praktyka podpowiada nam, że wraz ze wzrostem

liczby pomiarów n wzrastać będzie także liczba n,. Z doświadczenia życiowego także

wynika, że będziemy obserwowali fluktuacje tej wielkości: jeśli np. liczbę n pomiarów zwiększymy dwukrotnie, to także dwukrotnie, ale tylko w przybliżeniu, wzrośnie liczba

nę. Nie spodziewamy się, że zależność ta będzie Ściśle proporcjonalna. Czasami wzrost

ten będzie więcej, a czasami mniej niż dwukrotny. Sądzimy jednak, że im większa będzie liczba n, tym dokładniej n, będzie do niej proporcjonalna. O wielkości k wiemy, że może ona przyjmować każdą dopuszczalną wartość ze

swego zakresu, dlatego określamy ją, jak w matematyce, jako zmienną. Ponieważ nie

my kontrolujemy wartości, jakie ona przyjmuje w każdym indywidualnym przypadku, dlatego uzupełniamy tę nazwę o słowo losowa, a skoro nasza zmienna losowa może

przyjmować tylko pewne wybrane wartości, mówimy o niej, że jest dyskretną zmienną losową.

Uzyskana w ten sposób zależność prawdopodobieństwa P, od zmiennej losowej k

zwana jest w terminologii rachunku prawdopodobieństwa rozkładem prawdopodobień-

stwa. Efektywnie, słowo rozkład zastępuje tu słowo funkcja. Do kompletu informacji powinniśmy dodać wiadomość, iż mamy do czynienia z dyskretnym rozkładem prawdopodobieństwa.

Wielkości P, spełniają, z warunków konstrukcji, tożsamość

3 P,=1,

(2.2)

k=0

zwaną warunkiem unormowania prawdopodobieństwa. Warunek ten odczytujemy jako gwarancję pojawienia się któregokolwiek ze wszystkich możliwych zdarzeń.

Definicja częstości pozwala rozwiązać pewien elementarny problem. Możemy znaleźć eksperymentalne oszacowanie szansy F'(i < k < m) wystąpienia zdarzeń, w których

wartość zmiennej k zawarta jest między wartościami i oraz m:

Fi pl4) (P(A) + P (Z')) + P(Z* + p|Z*)P(2*) =

JA>p(PA

+

Po)

+

fs>pP-:

Koncepcja prawdopodobieństwa warunkowego nie jest jednak w żaden organiczny

sposób związana z chronologią zdarzeń. Ilustruje to następujący, prosty przykład. Wspomniany wcześniej lepton T rozpada się na elektron lub na mion, w każdym z przypadków

z prawdopodobieństwem około 18%, oraz na stany hadronowe, bez udziału naładowanego leptonu, w pozostałych przypadkach. Pytanie o prawdopodobieństwo rozpadu leptonu Tt na elektron, jeśli wiadomo, że wśród cząstek stanu końcowego obserwowano

naładowany lepton, jest dobrym pytaniem o prawdopodobieństwo warunkowe i nie im-

plikuje ono żadnego uporządkowania czasowego zdarzeń. Zwykłe prawdopodobieństwo P(A) zdarzenia A jest także prawdopodobieństwem warunkowym P(A|£2), z tym, że warunkiem jest cała przestrzeń zdarzeń elementar-

nych 42:

P(A|2)

=

P(ANQ) PQ)

P(A) 1

= P(A).

Ten absolutny charakter zdarzenia warunkującego sprawia, że prawdopodobieństwa takie

jak P(A) nazywamy prawdopodobieństwami absolutnymi.

——

24. Zdarzenia niezależne

Wyobraźmy sobie dwa liczniki Geigera—Miillera, nazwijmy je A oraz B, ustawione na poziomej płaszczyźnie, w pewnej odległości od siebie i wystawione na promieniowanie kosmiczne. Przyjmijmy, że każdy z liczników, pracując samodzielnie, notuje typowe

częstości przechodzących promieni jako f4 oraz fg (różnice w wartościach częstości mogą wynikać z różnicy w budowie liczników, np. jeden może mieć większą pojem-

2.4. Zdarzenia niezależne

57

ność czynną niż drugi) i oczekujemy, że przybywanie promieni jest losowo rozrzucone w czasie. Oznacza to, że w pierwszym liczniku typowy odstęp czasu między dwiema

kolejnymi cząstkami promieniowania wynosi Tą = 1/fą4, a w drugim Tp = 1/fg. Przyjmijmy, że impuls wyjściowy każdego z liczników ma standardowy kształt prostokątny

o czasie trwania 74 1 Ig. O czasach tych założymy, że są one wielokrotnie krótsze od CZASÓW TĄ Oraz Tg. W następnym kroku standardowe impulsy wysyłane są na układ elektroniczny, zwany układem koincydencyjnym, który generuje impuls na swoim wyjściu tylko wtedy, gdy dwa standardowe impulsy wejściowe nałożą się na siebie, przy czym

przekrywanie czasowe nie musi być pełne, wystarczy, aby jeden impuls pokrywał się minimalnie z drugim. Przy tak skonstruowanym układzie oczekujemy, że od czasu do czasu zdarzy się przypadkowe nałożenie impulsów z liczników i układ koincydencyjny zarejestruje koincydencję przypadkową — jak to jest zilustrowane rys. 2.19. Jak często

wystąpi taka koincydencja, lub inaczej: jakie jest prawdopodobieństwo

P(A ) B) zda-

rzenia będącego iloczynem zdarzeń, z których jedno oznacza rejestrację promieniowania za pomocą licznika A, a drugie rejestrację innej cząstki za pomocą licznika B?

Licznik A czas czas Licznik B |

Koincydencja

5 8

czas

— ||

> > >

czas czas

>

Rys. 2.19. Orientacja czasowa impulsów, prowadząca do koincydencji przypadkowej i czas jej trwania

Na mocy prawa mnożenia prawdopodobieństw

(2.14), odpowiedź

na to pytanie

sprowadza się do odpowiedzi na następujące pytanie: jakie jest prawdopodobieństwo P(A |B) zarejestrowania cząstki promieniowania kosmicznego za pomocą licznika A, przy warunku, że jednocześnie zadziałał licznik B, lub: jakie jest prawdopodobieństwo

P(B|A) zarejestrowania cząstki promieniowania kosmicznego za pomocą licznika B,

przy warunku, że jednocześnie zadziałał licznik A? Jeśli założymy, że promienie kosmiczne przychodzą z zenitu pojedynczo i bez związku między sobą, to odpowiedź na

takie pytanie jest, z fizycznego punktu widzenia, oczywista: to, że zadziałał licznik A,

nie ma żadnego wpływu na to, czy zadziała, bądź nie zadziała licznik B i odwrotnie: działanie licznika B nie ma wpływu na licznik A. Innymi słowy, P(B | A) = P(B) oraz P(A|B) = P(A) i mówimy, że zdarzenie określone symbolem przed kreską pionową jest statystycznie niezależne (używany też bywa termin stochastycznie niezależne) od

58

2. Prawdopodobieństwo i jego rozkład

zdarzenia określonego symbolem stojącym po kresce pionowej. Zauważmy, że z równo-

ści (2.16) wynika, że jeśli zdarzenie A jest niezależne od zdarzenia B, to zdarzenie B jest niezależne od zdarzenia A. Jeśli wyrazenie P(A | B) = P(A) podstawimy do związku (2.14), to otrzymamy P(A AB) = P(A)P(B).

(2.17)

Słuszne jest także stwierdzenie odwrotne: jeśli zachodzi (2.17), to zdarzenia A oraz B

są statystycznie niezależne, dlatego związek ten możemy

potraktować nie tylko jako

przejaw statystycznej niezależności, ale także jako samodzielną definicję tego pojęcia.

—— Przykład 2.4.1 Żart Paulinga L. ©. Pauling podczas uroczystości wręczenia mu po raz drugi Nagrody Nobla za-

uważył, że niepotrzebnie wokół tej okoliczności czyni się tyle szumu. Przecież ży-

jących laureatów nagrody jest około setki, tak więc prawdopodobieństwo zdobycia tego wyróżnienia po raz wtóry wynosi raptem 1:100, podczas gdy wszystkich kan-

dydatów do pierwszej Nagrody Nobla na całym świecie jest przynajmniej miliard,

tu więc konkurencja jest znacznie większa. Naturalnie, żart badacza polegał na celowej zamianie miejscami dwóch pojęć. Jeśli przez N oznaczymy zdarzenie okre-

ślające zdobycie wyróżnienia, to słynny uczony pomieszał, rozumiane dość pokręt-

nie prawdopodobieństwo warunkowe — P(N | N) i absolutne — P(NNYN), które tylko z pewnym przybliżeniem możemy uznać za zadane iloczynem P(N)P(N) (w przypadku Paulinga można sądzić, że przybliżenie to jest lepiej uzasadnione,

jako że pierwszą nagrodę uzyskał on za osiągnięcia w chemii, podczas gdy druga była nagrodą pokojową, ale nie możemy wykluczyć, że tytuł noblisty z chemii ułatwił mu zdobycie drugiej).

T)

Wróćmy do naszego problemu i rozważmy dowolny, ale długi w porównaniu z czasami TĄ 1 TB przedział czasu r. W tym czasie licznik pierwszy zadziała T/Tą = Tfą razy,

a łączna długość przedziałów czasowych impulsów wytworzonych przez niego wynosić

będzie TfATĄ, co oznacza, że zajmą one ułamek (geometryczna definicja prawdopodobieństwa) Pą = f4TĄ czasu T. Innymi słowy, jeśli popatrzymy na wyjście naszego licznika w dowolnym momencie czasowym, wielkość P4 jest prawdopodobieństwem na-

potkania w tym momencie impulsu wytworzonego przez promień kosmiczny. Podobnie,

prawdopodobieństwo Pg napotkania impulsu promieniowania kosmicznego w drugim liczniku wynosi Pp = fpTp. Ponieważ „odpalenie” jednego licznika nie zależy od tego, co się dzieje w drugim, więc prawdopodobieństwo P przypadkowego nałożenia się przedziałów czasowych jest iloczynem obu prawdopodobieństw: P = PĄPg = fąTą fBTB. Z. prawdopodobieństwa koincydencji znajdziemy teraz jej częstość. Ponownie dokonujemy obserwacji przez długi przedział czasu r. Jeśli pomnożymy ten przedział

czasu przez prawdopodobieństwo koincydencji, to otrzymamy całkowity czas Pz trwa-

2.4. Zdarzenia niezależne

nia wszystkich koincydencji w czasie r. Gdybyśmy

59

znali czas T' trwania pojedynczej

koincydencji, moglibyśmy znaleźć liczbę tych koincydencji w czasie r, a zatem 1 ich częstość. Zauważmy jednak, że czasy trwania koincydencji są różne i zależą od wza-

jemnej konfiguracji impulsów. Jeśli jeden z impulsów jest zawarty we wnętrzu drugiego,

to czas T koincydencji jest równy czasowi trwania impulsu krótszego, natomiast jeśli impulsy pokrywają się tylko w części, to czas ten jest krótszy i równy części wspólnej.

Widzimy, że potrzebujemy pewnego typowego czasu T trwania pojedynczej koincydencji. Czas ten możemy określić z następującego rozumowania, w którym przyjmiemy,

EEE

dla ustalenia uwagi, że sygnały z licznika A są dłuższe niż sygnały z B: 74 > IB. Wyobraźmy sobie, że kręcimy film z ekranu oscyloskopu, na którym rejestrujemy wzajemne orientacje impulsów wyjściowych z obu liczników. Następnie przeglądamy ten film klatka po klatce i wyrzucamy z niego te klatki, na których nie wystąpiła koincydencja. W końcu porządkujemy klatki w taki sposób, abyśmy otrzymali ciągły obraz „przepływania” z lewa na prawo impulsu z licznika B od jednej skrajnej pozycji, w której jego prawa krawędź „właśnie” pokryła się z lewą krawędzią impulsu z licznika A, do pozycji, w której impuls z B „właśnie” opuszcza od prawej strony impuls z A (rys. 2.20).

Rys. 2.20. Ilustracja do wyznaczenia prawdopodobieństwa i częstości koincydencji przypadkowych

Ponieważ impulsy zdarzają się losowo, tak „sfabrykowany” film powinien zacho-

wać proporcje czasowe wszystkich możliwych konfiguracji. Spróbujmy teraz wypisać postać funkcji 7T (t), która będzie podawała nam czas koincydencji w zależności od tych

konfiguracji. Za zmienną niezależną tej funkcji przyjmiemy odstęp czasowy £ między prawą krawędzią impulsu z B a lewą krawędzią impulsu z A. Dla wartości ujemnych

60

2. Prawdopodobieństwo i jego rozkład

T(1) |

| I l

I I | I

T

4

—»

TTG

Rys. 2.21. Zależność czasu 7 trwania koincydencji od wzajem-

t

nej orientacji czasowej impulsów

zmiennej niezależnej oba impulsy się nie przekrywają i czas trwania koincydencji jest

równy zeru. Dla czasów 0 < t < Tg przekrywanie wynosi dokładnie t i tyleż samo

czas koincydencji. Dla czasów

Tp < t < TĄ impuls z B jest w pełni przekryty przez

impuls z A, tym samym czas koincydencji jest stały i równy Tp. Natomiast dla czasów IB k, to liczba kwadratów o powierzchni zawartej między

S„ a S$, jest równa n(F(x,) — F(x,)). Aby

uzyskać rozkład g, liczbę tę odniesiemy do całkowitej liczby n kwadratów i przedziału AS = Sp — Sk n (Fam) — Fx)

n(S„-S)

_ F (Sm)

— FOe(S2)) _ F (als + AS)) — F(x(Sz))

Sm — SŁ

me

AS

|

W wyrażeniu stojącym po ostatnim znaku równości rozpoznajemy iloraz różnicowy dla funkcji złożonej. Jeśli zastosujemy naszą standardową procedurę zwiększania liczby n

kwadratów i zawęzania przedziału

AS, to zauważymy,

że w granicy otrzymamy

po-

70

2. Prawdopodobieństwo i jego rozkład

chodną funkcji złożonej F(x(S$; + AS)) — FQx(Sz))

>

dF(x) z=x(5)

dx

n—>oo, AS-—>0

AS

dx

dx

—c dS =

J al

=g(0). S))— gl ) Wąs

Przeprowadźmy to rozumowanie jeszcze raz, ale tym razem całkiem formalnie. Niech będzie dana zmienna losowa x o gęstości f(x) oraz zmienna losowa y, związana z war-

tościami zmiennej losowej x jednoznacznym przekształceniem y = h(x). Jak mamy

znaleźć gęstość g(y) zmiennej losowej y? Ponieważ założyliśmy, że przekształcenie jest jednoznaczne, więc istnieje funkcja odwrotna x = h"'(y). Niech [x;; x ] będzie dowol-

nym przedziałem należącym do zbioru wartości zmiennej losowej x i niech y; = h(x) oraz yą = h(x2). Prawdopodobieństwo, że zmienna losowa x przyjmuje wartości zawarte między x; a x, jest równe całce z gęstości, przy czym twierdzenie o zamianie zmiennych całkowania mówi nam, że

x2

y2

P(X

)

M

N2TRO

l

1 -

[ exp |( —Af z — ——— ( z) e

0

—(t' —Aa2)

0

J

2o?

y”

exp ( ——z)

dt

|d y

—00

Ostatnią całkę możemy obliczyć jedynie numerycznie, a rezultat widzimy na rys. 2.31, gdzie dla ustalenia uwagi przyjęliśmy, że wartość parametru r jest jednostkowa, a parametrowi o nadano trzy wartości podane na wykresie. Grubsza linia ciągła przedstawia pierwotny rozkład (na osi rzędnych odłożono logarytm funkcji gęstości, dlatego niezdeformowany rozkład ma postać linii prostej), nato-

1,0

Tr=l

CZAS

Rys. 2.31. Przykłady randomizacji rozkładu wykładniczego rozkładem Gaussa; T = I

miast linie cieńsze to rozkłady po „pomiarze”. Widzimy, że jeśli precyzja pomiaru

czasu jest porównywalna z wielkością mierzoną, tj. wtedy, gdy T o, zniekształcenie uzyskiwanego spektrum jest bardzo silne. Zauważmy, że w wyniku splotu uzyskaliśmy również wartości ujemne. Przesłanie, jakie przynosi ten rysunek, polega na tym, że splatanie prowadzi zawsze do „wygładzenia rozkładu — różne

ostre struktury lub maksima zostają spłaszczone, minima przysypane, a wszelkie nachyłenia złagodzone. Stopień nasilenia tych efektów jest tym większy, im mniej precyzyjnie wykonujemy pomiary.

n

94 ——

2. Prawdopodobieństwo i jego rozkład

Przykład 2.7.2 Masa neutrina

Rozważmy następny przykład, w którym randomizacja może, potencjalnie, odgrywać bardzo poważną rolę. Jedną z metod pomiaru masy antyneutrina elektro-

nowego jest badanie rozkładu widma energii kinetycznej padu trytu: 'H >

*He + 8 +v,

w spoczynku.

E elektronów $8 z

roz-

Kształt h(E; Eg, m,) tego widma,

przedstawiony grubszą linią (dła m, = 0) na rys. 2.32 określony jest zależnością

(D. H. Perkins, Wstęp do fizyki wysokich energii, PWN, Warszawa 1989)

h(E; Eo, m,) = NF(v)(E, — E)VE/(E— E)?—m,

0 Po) dwóch zdarzeń, pierwszego, oznaczonego przez Pb i symbolizującego rozpad polonu

2.8. Twierdzenie Bayesa

105

218Po na ołów, a następnie tegoż na bizmut, oraz drugiego (Bi >

Po), opisującego rozpad bizmutu na końcowy izo-

top polonu ?*Po. Gdy w wyniku rozpadu izotopu *'*Po pojawi się astat, co określimy zdarzeniem At, układ zdarzeń, z uwagi na występujące tu rozgałęzienie, jest nieco bardziej skomplikowany. Dlatego najpierw wypiszemy po-

stać zdarzenia prowadzącego do powstania izotopu *'%Po

pod warunkiem, że wyruszamy z izotopu astatu. Uzyska-

nie izotopu ?!*Po jest wtedy określone przez alternatywę (At >

Rn) U(At >

Bi +

Po), gdzie pierwsze zdarzenie

opisuje ciąg rozpadów *$At > **Rn —> **Po, a sekwen-

cję (At > Bi % Po) możemy wyrazić przez koniunkcję (At > Bi) N (Bi + Po). Pełną postać zdarzenia opisują-

Thomas Bayes,

1702-1761

cego łańcuch rozpadów: 29Po — *8At — ?%Po otrzymamy po uzupełnieniu o zdarzenie At: At N [(A£ > Teraz już możemy 214pg:

Rn) U((At >

Bi)

(Bi >

Po))].

podać pełną postać zdarzenia opisującego pojawienie

się izotopu

[Pb N (Bi > Po)]UfAtN[(AŁ > Rn) U((At > Bi) A (Bi > Po))]), gdzie dodaliśmy nawiasy zwykłe, kwadratowe i klamrowe dla przejrzystości i uwypuklenia relacji między różnymi zdarzeniami. Poszukiwanie prawdopodobieństw takich złożonych zdarzeń opiera się na wykorzy-

staniu praw (2.11) rozdzielności względem dodawania i mnożenia oraz wielokrotnym

Rys. 2.38. Fragment szeregu promieniotwórczego ilustrujący rozgałęzienie w rozpadzie izotopów polonu, astatu i bizmutu

106

2. Prawdopodobieństwo i jego rozkład

stosowaniu związku (2.9). Wymaga to jednak pewnej ostrożności, gdyż przy ich lekkomyślnym użyciu możemy popełnić błąd następującej natury. Otóż, dla dwóch zdarzeń

niezależnych A oraz B mamy oczywiście spełniony związek P(A M B) = P(A)P(B), ale jeśli A = B, to P(AN A) = P(A), a nie P(ANA) = P(A)P(A), gdyż zdarze-

nie A nie jest niezależne statystycznie od siebie, co wynika ze związku P(A|A) = 1, a ponadto obowiązuje ANA=A.

Z prawa (2.9) otrzymujemy, że prawdopodobieństwo P(*'%Po) wynosi

PCĆ"Po) = P(Pb N (Bi > Po))+P(At M [(At-> Rn) U ((At > Bi) M (Bi > Po)))) — P(PbN (Bi

Po) N At N[(At> Rn) U ((At > Bi) N (Bi > Po))]).

Prawdopodobieństwo skomplikowanego zdarzenia Pb N (Bi >

Po) N AtN[(At >

Rn) U((At >

Bi) N (Bi +

Po))]

jest, w istocie, równe zeru, gdyż zdarzenie to ma postać PbNAtN(. --) i jego elementem jest koniunkcja PbNAŁ, która jest zdarzeniem niemożliwym: polon nie może się rozpaść

jednocześnie na ołów i na astat. A ponieważ ON(. - -) = ,, więc upraszcza to nieco nasz problem. Z niezależności statystycznej zdarzeń Pb oraz (Bi — Po) otrzymujemy

P(PbN (Bi > W zdarzeniu (At >

Po)) = P(Pb)P(Bi

Rn) U ((At >

Bi) N (Bi >

ności dodawania względem mnożenia: (At >

Rn) U((At >

Bi) N (Bi > = ((Af >

Ponieważ zdarzenie (At >

>

Po) = qyp3.

Po)) wykorzystamy prawo rozdziel-

Po)) Rn) U(At

Rn) U (At +

>

Bi)) N ((At >

Rn) U (Bi +

Po)).

Bi) jest zdarzeniem pewnym — astat może

się rozpaść tylko na radon lub na bizmut — więc (A! > Rn) U((At > Bi)

(Bi + Po)) = (At > Rn) U (Bi + Po),

(2.33)

a to prowadzi do At NO ((At > Rn) U((At + Bi) N (Bi + Po))) = At N((At > Rn) U (Bi + Po)). Tu ponownie zastosujemy prawo rozdzielności: At N((At > Rn) U (Bi + Po)) = (At

(At > Rn)) U(At N (Bi > Po)),

aby w końcu przejść do prawdopodobieństwa P(At NO [(At > Rn) U ((At > Bi) N (Bi > Po)))]) = P((At (At > Rn)) U(At M (Bi > Po))) = P(AtN (At > Rn)) + P(At N (Bi

Po)) — P(At£N (At > Rn) N (Bi + Po))

= P1P2 + P1P3 — P1P2P3 = PipP3 + P1P293.

2.8. Twierdzenie Bayesa Po uzupełnieniu tego rezultatu o prawdopodobieństwo otrzymujemy

zdarzenia

Pb i (Bi

107 +

Po),

P("'Po) = q1P3 + P1P3 + P1P243 = P3 + P1P243-

Słuszność tego wzoru możemy łatwo zweryfikować, jeśli uświadomimy sobie, że do

izotopu polonu *!'*Po dotrze wszystko, co nie „ucieknie” nam do izotopu talu *'*T1. Ten ostatni uzyskamy w ułamku q3 ze wszystkiego, co dotrze do izotopu bizmutu **Bi, a do bizmutu dotrze ułamek q; pierwotnej liczby jąder izotopu polonu *'*Po, które rozpadną

się na ołów *'*Pb oraz ułamek q» tych, które rozpadną się na izotop * "At. Razem daje to nam: P(*Po) = 1 — gz(q, + pig»), Co jest równoważnym rezultatem. Wynik tej wprawki w zakresie elementarnych metod rachunku prawdopodobieństwa

wykorzystamy do rozwiązania problemu, do którego potrzebujemy znajomości prawdo-

podobieństwa uzyskania astatu, które odczytujemy bezpośrednio z rysunku: P(7"At) = p, oraz prawdopodobieństwa P (?Po | SAt) uzyskania *'*Po pod warunkiem, że prze-

chodzimy przez astat. Ta ostatnia wielkość dana jest sumą prawdopodobieństw na nieza-

leżnych drogach przez radon i przez bizmut: P (**Po | "SAt) = p + qap3. Wynik ten łatwo odtwarzamy, obliczając prawdopodobieństwo zdarzenia (2.33). Jakie jest jednak

prawdopodobieństwo P (?8At | 7*Po) przejścia przez izotop **At, jeśli mamy już izotop

214Po? W podrozdziale 2.3 pokazaliśmy, że prawdopodobieństwa warunkowe spełniają

równość (2.16)

P(A|B)P(B) = P(A)P(B|A),

skąd znajdujemy, że P

("At

| *4Po)



P (At) P ("Po | *"At) _ py(pz + qap3)

P (214Po)

ps + PiPaq3

W przykładzie tym mamy elementarne zastosowanie w najprostszej postaci tzw. twier-

dzenia Bayesa, które teraz zaprezentujemy w ogólnej formie. Przepiszmy równanie łączące prawdopodobieństwa warunkowe w postaci

P(A|B)P(B

P(BIA) = PAIB)E (8) P(A)

(2.34)

i przypomnijmy oczywiste wyrażenie na prawdopodobieństwo P (A) z podrozdziału 2.3: P(A) =P(AN

QQ).

Rozłóżmy zbiór 62 na wykluczające się podzbiory B; (zdarzenie B w (2.34) to po prostu

jedno ze zdarzeń B;)

K9,

=

U

B;,

które mogą warunkować zdarzenie A. Daje to, po wykorzystaniu (2.11), wyrażenie na tzw. formułę pełnego prawdopodobieństwa dla P(A):

P(A) =P (. n (U 3)

=P (U AN »

=). P(A 0 B,) = >. P(A|B,)P(B,).

108

2. Prawdopodobieństwo i jego rozkład

Zastosowanie formuły pełnego prawdopodobieństwa widzieliśmy wcześniej, w przy-

kładzie 2.3.1, a cały podrozdział 2.7 jest oparty na wersji ciągłej tego prawidła.

Formuła na pełne prawdopodobieństwo pozwala zapisać związek (2.34) w formie określanej także mianem twierdzenia Bayesa P(B,|A) =

P(A|B,)P(B,) _ _ P(A|B,)P(B,) P(A) XP(AIB,)P(B,)'

(2.35)

J

gdzie w miejsce dowolnego zdarzenia B wstawiliśmy jedno ze zdarzeń B, (oczywiście niektóre ze zdarzeń B, mogą nie mieć wpływu na zdarzenie A lub nawet je wykluczać). Interpretacja tego twierdzenia jest następująca. Przypuśćmy, że zdarzenie A może

wystąpić pod warunkiem pojawienia się pewnej liczby wzajemnie wykluczających się zdarzeń B,. Każde z tych zdarzeń ma określone prawdopodobieństwo a priori P(B;).

Każde z nich może przyczynić się do wystąpienia zdarzenia A z prawdopodobieństwem

P(A|B;). Twierdzenie Bayesa pozwala „odwrócić” prawdopodobieństwa P(A|B;) i daje

nam warunkowe prawdopodobieństwa a posteriori P (B,|A) rozmaitych zdarzeń B;, gdy wiadomo, że zdarzenie A nastąpiło.

-——

Przykład 2.8.1 Twierdzenie Bayesa — licznik Czerenkowa Rozważmy (za G. D'Agostini, Bayesian Reasoning in HEP — Principles and Applications, CERN Report 99-03) detektor cząstek, np. licznik Czerenkowa, ustawiony

na wiązce składającej się z protonów i pionów, używany do wyzwalania (trygero-

wania) eksperymentu, w którym interesujące oddziaływania to te wywołane przez proton. Niech detektor ten ma efektywność detekcji protonu 95%, co oznacza, że prawdopodobieństwo zainicjowania zbierania danych (trygera T) przez proton wynosi P(T|p) = 0,95. Niech prawdopodobieństwo mylnego zidentyfikowania

pionu jako protonu, a tym samym prawdopodobieństwo uzyskania trygera wynosi: P(T|ax) = 0,02. Wiedząc, że wiązka składa się w 90% z pionów i 10% z protonów, obliczyć prawdopodobieństwo, że tryger zostanie faktycznie spowodowany przez proton Jeśli skorzystamy z twierdzenia Bayesa w formie (2.35), to prawdo-

podobieństwo pojawienia się trygera spowodowanego przez proton dane jest przez

P(T|p)P(p) P(p|T) = P(T|p)P(p ) + P(Tln)P(n)

0,95 - 0,1 0,95-0,1 +0,02-0,9 = 0,84.

Podobnie, prawdopodobieństwo uzyskania trygera w wyniku przejścia pionu wynosi

P(x|T) =

P(T|nx)P

U lm)E (r)

P(T|p)P(p) + P(T|x)P(Gr)

= 0,16.

2.8. Twierdzenie Bayesa

109

Znajdziemy także stosunek liczby prawdziwych trygerów do fałszywych, czyli stosunek sygnału do tła:

P(piD) _ PA|p) PD) 2

P(x|T)

P(Tln)P(n)

Wynik ten odzwierciedla znaną regułę pomiarową: w trudnych warunkach eksperyment musi być bardzo sełektywny. Ponieważ zanieczyszczenie wiązki jest duże — tylko co dziesiąta cząstka wiązki nas interesuje — musimy silnie dyskryminować szum, abyśmy w nim nie „utonęli”.

TI

Związek (2.35) powszechnie przypisywany jest anglikańskiemu pastorowi T. Bayesowi i kojarzony jest z jego pracą wydaną (pośmiertnie) w 1763 r., mimo że on nigdy tego twierdzenia nie napisał. Jako wniosek z (2.34) znany on już był wcześniej J. Bernoulliemu i A. de Moivre, ale P. $. de Laplace pierwszy dostrzegł jego ogólny charakter i potencjał możliwych zastosowań. Przypisanie rezultatu Bayesowi wynika z pewnego przyczynku, jaki ma on na swym o czym szerzej traktuje rozdział 9.

koncie w związku

z zastosowaniem

tej równości,

Postać twierdzenia Bayesa dla ciągłych zmiennych losowych x oraz y zapisujemy

jako

fFOlx) =

g(x|y)h(y)

|

J galy)h() dy Granice całkowania są zaznaczone symbolicznie i powinny uwzględniać zakres zmiennej losowej y, a także własności gęstości warunkowej g(x | y).

KONIECZNOŚĆ

Konieczność to taki sposób istnienia rzeczy, że nie mogą one istnieć inaczej.

|

Rozdział3

Parametry zmiennej losowej

Ze zmienną losową związane są pewne wielkości, zwane parametrami opisowymi

tej

zmiennej, odgrywające niezwykle ważną rolę w statystyce matematycznej. Parametrami zmiennej są momenty oraz tzw. parametry pozycyjne. Są to wielkości, które w zwięzły 1 uproszczony sposób opisują charakter zmiennej.

—-

3.1. Wartość oczekiwana

Rozpoczniemy

od definicji pojęcia wartości oczekiwanej. Jeśli h(k) jest losową funk-

cją dyskretnej zmiennej losowej k o rozkładzie prawdopodobieństwa P;, to wartością oczekiwaną funkcji h(k) nazywamy wielkość (patrz także komentarz po wzorze (3.3)):

€ [h(k)] = (h(k)) = ) h(k)PŹ,

(3.1)

k

gdzie sumowanie przebiega po całym zakresie zmiennej losowej.

-—

Przykład 3.1.1 Wartość oczekiwana — bankier Przypuśćmy,

że gramy

z drugą osobą, bankierem,

w następującą grę: rzucamy

rzetelną kostką sześcienną do gier planszowych 1 jeśli wypadnie parzysta liczba oczek, bankier płaci nam sumę złotych, jaką pokazuje liczba oczek na kostce. Jeśli wypadnie liczba nieparzysta, my płacimy bankierowi sumę złotych wskaza-

nych przez kostkę. Lepiej być bankierem, czy rzucającym kostką? Typowo raz na 6 rzutów zapłacimy bankierowi złotówkę lub 3 złote lub 5 złotych. Podobnie, raz na 6 rzutów dostaniemy 2 złote lub 4 złote lub 6 złotych. Typowo, po sześciu rzutach, rezultat netto takiej zabawy wynosi: 2+4+6—1—3—5 = 3 złote.

Tak więc w pojedynczym rzucie oczekujemy typowo wygranej 0,5 zł. Zauważmy, że to, czego tu dokonaliśmy, to znałezienie wartości oczekiwanej

(m) zmiennej

losowej m = (—1)kk, gdzie k jest zmienną losową o rozkładzie P, = 1/6 6

6

1

1

(m) = ) (-1)'kP, = ) —D'kz = ;(-1+2-3+4-5+6=0,5. Wartość oczekiwana odgrywa rolę stawki, jaką powinniśmy zapłacić bankierowi za przyjemność każdego rzutu kostką, jeśli zabawa ma być uczciwa. n

112

3. Parametry zmiennej losowej

Dla losowej funkcji h(X) ciągłej zmiennej losowej x, podlegającej rozkładowi f(x), wartością oczekiwaną funkcji h(x) nazywamy wielkość +00

€ [hQO] = (h(X)) = J h(x) f(x)dx,

(3.2)

gdzie przez nieskończone granice całkowania umownie zaznaczyliśmy cały zakres zmienności zmiennej losowej x. Przy obu definicjach, (3.1) oraz (3.2), powinniśmy dodać zastrzeżenie: o ile odpowiednia suma bądź całka istnieje. Zastrzeżenie to nie jest bez znaczenia, jako że w dalszej części wykładu poznamy rozkład (podrozdział 5.9), dla którego wartość oczekiwana nie istnieje. Jak zaznaczyliśmy, obok symbolu € [. : -] stosowany jest również symbol (: : -).

——

Przykład 3.1.2 Wartość oczekiwana — rozkład Maxwella Jako przykład znajdziemy wartość oczekiwaną energii kinetycznej

l

EA =

7”

(vż +v,

+ v>)

cząsteczki gazu doskonałego, w którym prędkości opisane są rozkładem Maxwella (przykład 2.5.3)

r

Ux,

v,)

z

Vy,

=

(= ki1 my ) a

MonkT/

PA

(-

-

2kT

(U; + v;v; + u:))



00

k+1l

(k) = ) „klogy k=1

ko


n=4, 0

0

a stąd

d(x) =5(1— x)”,

oraz

4

0 SI cov [x x; | s

— i,j=l

0x; I

X;J

(3.20)

Jeśli, dodatkowo, zmienne losowe nie są skorelowane (macierz V [x] jest diagonalna), to

w (3.20) pojawia się dalsze uproszczenie: h

3

WUEDS (37) i=1

0X;

2

vba].

(3.21)

Zauważmy, że dla funkcji f zadanej kombinacją liniową zmiennych x, wyrażenia (3.18) oraz (3.19) sprowadzają się do Ścisłych wyników (3.16) oraz (3.17).

132 -—-

3. Parametry zmiennej losowej

Przykład 3.4.2 Efektywność detektora Właściwym miejscem dla tego przykładu jest podrozdział 5.4, gdyż za chwilę wykorzystamy jedną z własności rozkładu Poissona, jednakże wzgląd dydaktyczny skłania nas do zaprezentowania go w tym miejscu. Otóż, rozważmy wariancję (3.19) szacunkowej liczby N (wzór (2.18))

=

(3.22)

cząstek użytych do wyznaczenia efektywności detektorów. Typowy błąd metodologiczny, jaki popełniany jest w takiej sytuacji, polega na potraktowaniu zmiennych losowych Ny, Ng i Nc jako statystycznie niezależnych i odwołaniu się do związku (3.21). Poprawny wynik uzyskamy, jeśli zauważymy, że do wielkości N, i Ng wnosi

wkład wielkość Ne, co indukuje korelacje nie tylko między N4 oraz Ne i Ng oraz N., ale także między N4 i Ng, a to wymaga zastosowania związku (3.20).

Od komplikacji związanej z istnieniem tych korelacji możemy się uwolnić, jeśli wielkość Na wyrazimy przez zmienną ną, określającą liczbę cząstek zareje-

strowanych tylko przez licznik A i zmienną Nec: NĄ = ną + Ne. Podobnie, dla

zmiennej Ng otrzymujemy Np = ng + Ne, gdzie ng jest zmienną losową, zadającą liczbę cząstek zarejestrowanych tylko przez licznik B. Przy takim wyborze nowych zmiennych losowych szacowana liczba N wynosi _ (na + Nc)(tg + N£) N N = i wyrażona jest przez wielkości statystycznie niezależne. Związek (3.18) prowadzi nas do rezultatu (3.22) na szacowaną liczbę cząstek, natomiast z (3.21) otrzymu-

jemy

NY?

Y[N] = (3) —N

(-

N

Vv [na] + (2) — Pa)

— PB)

YZ

+ )

3N

Y[nzżl + (c)



YT[NCJ

|

PAPB

gdzie za wariancje zmiennych losowych ną, ng i Nc podstawiliśmy wartości ocze-

kiwane ny, ng 1 Ne, O czym poucza nas podrozdział 5.4. Zwróćmy uwagę na to, że

wariancja ) [N] jest proporcjonalna do oczekiwanej liczby N przypadków. Natural-

nie w realnym eksperymencie za wielkości N4, Ng, Nc, N, pa 1 pB podstawiamy

oszacowane wartości.

|

Podobne rozumowanie prowadzi nas do wariancji efektywności p, = Nc/NB: Y [pa] = pa

| —

Pa)

która jest tym mniejsza, im większej liczby przypadków użyjemy w eksperymencie.

Analogiczny związek dla efektywności licznika B znajdziemy zamieniając indeksy. Pełne zrozumienie tych wyników działów 5.2 i 5.4.

Czytelnik uzyska po przeczytaniu podroz7

3.4. Momenty funkcji zmiennych łosowych

133

Istnieje interesujące rozszerzenie procedury wyznaczania przybliżonych momentów funkcji zmiennych losowych. Przy jej prezentacji ograniczymy się do jednej funkcji

f(x) jednej zmiennej x. Polega ona na rozwinięciu tej funkcji w szereg Taylora wokół

wartości oczekiwanej u zmiennej x do wyrazów kwadratowych:

0 = fW+

2

qq s X—

1) F> q3 s (C=

HL).

Jeśli obliczymy wartość oczekiwaną funkcji f(x), to otrzymamy

(00)

£=

FM)+

df



5 (K— 1) —

l df

+5>

5

l



>

u?)

=—

FU)+

l df

———| > 3

YI, Sa

(3.23) a więc dodatkową poprawkę do wartości funkcji w punkcie oczekiwanej wartości zmiennej losowej x. Żeby być konsekwentnym, do obliczenia wariancji wielkości mierzonej pośrednio musimy użyć trzeciego i czwartego momentu centralnego. Jeżeli przez f, f'

oraz f” oznaczymy wartość funkcji, jej pierwszej i drugiej pochodnej w punkcie x = m,

to znajdziemy, że następujące wyrażenie opisuje wariancję zmiennej losowej f:

1

1

Y1=(f- ()) 2 ( (Fo - U) + zf”(x— 1)? — U l = [VB + g67 (6-0) z7l — f7V

l

[x] + gf V

a

+

|

PM FP (= W)

[x] (7 + 2) + ff'D

[x] Y1:

Po ostatnim znaku równości skorzystaliśmy z definicji (3.10) i (3.11) współczynników

asymetrii y, 1 spłaszczenia ». Jeśli rozkład zmiennej losowej x jest symetryczny, to współczynnik asymetrii y; jest równy zeru i wyrażenie to upraszcza się do postaci VI] =/VBI]

1

+ j/7V

[x] (72 + 2),

natomiast gdy mamy do czynienia z rozkładem gaussowskim dla zmiennej x, wtedy, jak to znajdziemy w podrozdziale 5.5.2, związek (5.71), mamy dodatkową relację:

(«= 1)”) =3V*pq, prowadzącą do znikania współczynnika spłaszczenia )», co też ostatecznie daje nam |

VI] = f7VDJ + > FV BA.

(3.24)

Wynik ten może być przydatny wtedy, gdy aproksymacja liniowa dla funkcji f nie jest wystarczająca, a tym samym model małych błędów pomiarowych jest nieadekwatny, na przykład w okolicy ekstremum tej funkcji. W takiej sytuacji wyrażenie (3.21) reprezentowane we wzorze (3.24) przez pierwszy składnik zwraca dla wariancji wielkości złożonej wartość bliską zera (lub dokładnie zero, jeśli pomiar wypadł w punkcie eks-

tremalnym). Stosownej poprawki dostarcza wtedy wyraz zależny od drugiej pochodnej funkcji f.

134

3. Parametry zmiennej losowej

--—- Przykład 3.4.3 Wariancja w ekstremum Chcemy znałeźć dyspersję wartości przekroju czynnego Breita—Wignera pĄŻ o(E)

(3) ryż

= 00

(z) ——

(EK) —

opisanego

wyrażeniem

2

w maksimum, tzn. dla wartości energii równej wartości parametru „w. Obliczamy

pierwszą pochodną, która w punkcie E = „ wynosi zero, oraz drugą pochodną: do dE?

E=u

co pozwala nam, po podstawieniu do (3.24), wyprowadzić wyrażenie na dyspersję

1

[o(E = n)] 2=—— ||f

D[o(E =

44/20,

z

Y[E] =

VIET,

a także, z (3.23), wartość mierzonego przekroju czynnego o(E=n)żo która jest nieco mniejsza Możemy łatwo zrozumieć jest rozmyta, to faktycznie czynnego, lecz przekroju z rozkładem tejże energii.

(! —

7)

,

(3.25)

niż wartość wyrażenia Breita-Wignera w maksimum. ten wynik, jeśli zauważymy, że skoro wartość energii nasz pomiar nie jest pomiarem bezpośrednio przekroju czynnego splecionego, według reguł podrozdziału 2.7, Wskazaliśmy tam, że splatanie to łagodzi zachowanie

randomizowanej wielkości i powoduje obniżenie wartości w maksimum, czego właśnie jesteśmy Świadkami. Jeśli za model funkcji zdolności rozdzielczej eksperymentu przyjmiemy rozkład Gaussa, jak to uczyniliśmy w przykładzie 2.7.3,

to w granicy małych, w porównaniu z parametrem

/', wartości dyspersji tego

rozkładu dokładnie odtworzymy wynik (3.25).

7

—- 3.5. Krzywe regresji Powróćmy do definicji (2.29) rozkładów warunkowych: f,(y|x) oraz f,(x|y), podanych

w podrozdziale 2.7. Obliczymy teraz warunkową wartość oczekiwaną € [y|x] zmiennej

losowej y (patrz przykład 3.2.1):

OO

ebals40= o | yFObody= |o

|

OO

f(x)

Ray

(3.26)

oraz warunkową wartość oczekiwaną € [x|y] zmiennej losowej x Efdy]=m0)=

J xf(x|y)dx= | —00

—00

x

CY

dx,

(3.27)

3.5. Krzywe regresji

135

gdzie obydwie wartości oczekiwane j« oznaczyliśmy jako zależne od drugiej zmiennej,

jako że otrzymujemy pewną funkcję j4, argumentu x oraz „4, argumentu y. Otrzymane

zależności noszą nazwę krzywych regresji pierwszego typu zmiennej losowej x względem y dla u,(y) lub zmiennej y względem x dla uy(x). W ogólności, obie krzywe nie

pokrywają się na płaszczyźnie (x, y). Zauważmy, że nietrywialne wyrażenia uzyskujemy jedynie dla przypadku zależnych statystycznie zmiennych losowych, gdyż w przeciwnym razie, z uwagi na faktoryzację funkcji gęstości, wartości oczekiwane stają się stałymi niezależnymi od wartości drugiej zmiennej. Interesującą cechą krzywych regresji jest to, iż spełniają one następujące równania wariacyjne: 00 00

[eu] -| J G — WÓYYŻfG,y) dxdy= min(u,(7)) —00

—00

na nieznaną funkcję u,(y) oraz analogiczne wyrażenie na nieznaną funkcję Ly(X):

e[0-460)7]= | | 0-4607f0.))dxdy = minu, (w). przy zadanej funkcji rozkładu f(x, y), czego tu nie będziemy dowodzili. Na zakończenie wspomnimy o krzywych regresji drugiego typu. Mamy z nimi do

czynienia, gdy poszukujemy zadanej krzywej y = h(x;a,b,...) zależnej od nieznanych parametrów a, b,..., wymagając spełnienia warunku

J J (y — hlx;a,b,...))* f(x, y) dxdy = min(a,b,.. .)

(3.28)

ze względu na nieznane parametry. Podejście takie zwane jest metodą najmniejszych kwadratów. —-

Przykład 3.5.1

Linia prosta regresji drugiego typu Jako przykład rozważmy krzywą regresji drugiego typu w postaci linii prostej: h(x; a, b) =ax +b.

Po podstawieniu do funkcjonału minimalizującego (3.28) otrzymujemy

£E[v-ax-b)]=E|(Y-1) - au)+ my — au, — b) | 2

— 0y + a*o2 — 2acov [x,y] + (Hy — aux — b)” = oy + a*0j — 2a0x0yp + (Hy — any — b)” = min(a, b).

136

3. Parametry zmiennej losowej

Stosujemy, wykonując różniczkowanie, mum względem a oraz b:

0

zyk 0

35

standardowe metody poszukiwania mini-

[(y — ax — b)” | = 2a0; — 2Gx0yP — ŻLx(Hy — ai, — b) =0,

[vy — ax

b)”] = —2(u, — au, — b) =0.

Rozwiązanie tego układu daje o

a =p—, Ox

b = Hy

o

— a Ax = Hy — p— Hy, Ox

a stąd otrzymujemy poszukiwaną prostą regresji drugiego typu zmiennej y względem zmiennej x: Qy

Y —Hy=p—(x — A). Ox

Podobnie, możemy zmiennej y

znaleźć prostą regresji drugiego typu zmiennej

x względem

h(y; a, b) = ay +b,

która przyjmuje postać dx

X — Ux = P—(Y — Ly) dy

lub też Y) —Hy

=

o

——(

— Ly).

p ox Jak widzimy, obie proste regresji są identyczne tylko wtedy, gdy współczynnik korelacji p jest jednostkowy, czyli wtedy gdy, jak to pokazaliśmy w podrozdziale 3.3

(wyrażenie (3.15)), istnieje funkcyjna, matematyczna zależność o liniowym cha-

rakterze między zmiennymi.

r

-—— 3.6. Parametry pozycyjne Na zakończenie tego rozdziału wspomnimy o parametrach pozycyjnych zmiennej losowej, czyli wartościach szczególnych tej zmiennej. Najprostsza z nich, tzw. moda, zwana

także dominantą, to po prostu wartość najbardziej prawdopodobna, czyli taka wartość zmiennej losowej x, przy której funkcja gęstości bądź rozkład prawdopodobieństwa przyjmuje wartość maksymalną.

Naturalnie nic nie stoi na przeszkodzie, aby rozkład

miał kilka maksimów i w związku z tym kilka wartości lokalnie najbardziej prawdopodobnych.

Oprócz wartości najbardziej prawdopodobnych

zmiennych losowych napotykamy

często wielkości zwane kwantyłami. Kwantylem rzędu p zmiennej losowej x o dystry-

3.6. Parametry pozycyjne

Ff)

A

137

moda |

mediana

I

| | | wartość oczekiwana I

SI

ME tj oo|

Rys. 3.5. Relacja między modą, medianą a wartością ocze-

kiwaną

buancie F (x) nazywamy

|1

OLI

I

1] l

x

>

taką wartość x„, dla której spełniona jest równość

F(xp) = p.

(3.29)

Tym samym poniżej wartości x, zgromadzony jest ułamek p prawdopodobieństwa.

Punkt, który dzieli prawdopodobieństwo na połowę, czyli kwantyl rzędu 0,5, nazywamy medianą. Typową relację między modą, medianą a wartością oczekiwaną, dla

rozkładu asymetrycznego ze współczynnikiem asymetrii większym od zera, prezentuje rys. 3.5. Gdy skośność zmiennej jest przeciwna, relacje między parametrami ulegają odwróceniu. Dla rozkładu symetrycznego moda, mediana i wartość oczekiwana są Sobie równe. Kwantyle odznaczające 25% i 75% prawdopodobieństwa zwane są dolnym i górnym kwartylem. Obok wielkości, określających typową wartość zmiennej losowej, mamy również parametry pozycyjne opisujące rozrzut tej zmiennej. Najczęściej używany jest tzw. odstęp międzykwartylowy, zwany też ćwiartkowym, czyli różnica między górnym i dolnym kwartylem.

NIEZDECYDOWANIE CH SZ Ż ŻA

o ŻA) o c

ECYA

M1

DALA





Jk

A

A A i

LĄ NI

=

Czarna chusta wokó ł głowy oznacza omroczenie

i zamieszanie umysłu od natłoku my. Śli, które wtrącają go w niezdecydowanie.

Rozdział 4.

Momenty i statystyki pozycyjne z próby

W dotychczasowych rozważaniach rozdziału 2 oraz 3 przyjmowaliśmy, że rozkłady roz-

ważanych zmiennych losowych są nam znane. Takie podejście jest właściwe dla teorii prawdopodobieństwa, kiedy to podążamy metodą dedukcyjną od ogółu do szczegółu. Przy wykonywaniu pomiarów natomiast rozkład prawdopodobieństwa leżący u podstaw

badanej cechy nie jest nam z reguły znany, a celem analizy, w krańcowym przypadku, jest właśnie uzyskanie jego postaci. Zadaniem statystyki matematycznej jest wypraco-

wanie metod osiągnięcia tego celu. Najczęściej

zadowalamy

się (bądź musimy

się zadowolić) pewnymi

częściowymi

informacjami o rozkładzie. Informacje te wydobywamy z próbki i aby były one wiarygodne, próbka nasza musi być losowa. Nie będziemy tu ściśle definiować znaczenia tego słowa, gdyż jego definicja w sensie operacyjnym prawdopodobnie nie istnieje, odwołamy się jedynie do często, zwłaszcza w prasie, używanego synonimu, jakim jest próbka

reprezentatywna i do intuicyjnego zrozumienia tego terminu, który podpowiada nam, że próbka taka jest zminiaturyzowaną formą całej populacji, odzwierciedlającą wszelkie

cechy i relacje, jakie w niej występują. Rozważmy taki przykład. Przypuśćmy, że usiłu-

jemy zmierzyć typowy czas życia cząstki bądź jądra, która porusza się, przyjmijmy dla uproszczenia, z zadaną prędkością. Długość odcinka przebywanego przez badany obiekt przed rozpadem możemy przeliczyć na czas życia. Jeśli zbiór naszych przypadków ma

być reprezentatywny, musimy umieć zmierzyć każdą długość, nawet tę bardzo dużą, co

zakłada nieograniczoną objętość detektora. Tak więc w praktyce zawsze nasza próbka będzie miała w sobie niedomiar przypadków o dużych czasach życia. W takich sytuacjach

mówimy, że próbka jest obciążona. Próbki obciążone to raczej „chleb powszedni” fi-

zyki cząstek i jądra atomowego. Detektory, którymi obudowujemy punkt oddziaływania, nie pokrywają pełnego kąta bryłowego, ich wydajność zależy od liczby przechodzących

przez niego cząstek i parametrów geometrycznych torów, zakres dynamiczny układów elektronicznych jest skończony i niekoniecznie liniowy, metody trygerowania ekspery-

mentu mają swoje ograniczenia — wszystko to prowadzi do gubienia pewnych klas przypadków. Straty te musimy później wykryć i uwzględnić, dobierając odpowiednie metody analizy danych. I jeszcze jeden termin. Próbę nazywamy prostą, gdy wszystkie występujące w niej zmienne losowe są niezależne. Można wyobrazić sobie schematy losowania, w któ-

140

4. Momenty i statystyki pozycyjne z próby

rych prawdopodobieństwo wyboru następnego elementu załeży od wyników uzyskanych wcześniej. Przykładem takiego postępowania jest losowanie, ze skończonego zbioru, elementu, który następnie nie jest zwracany do populacji, co powoduje, że jej własności ulegają zmianie w trakcie pobierania próby. O takich metodach uzyskiwania próby mówimy, że są to schematy losowania zależnego, a uzyskana próba nie jest już wtedy

prosta.

Próbki złożone (nie proste) to raczej rzadkość w fizyce. W typowym eksperymencie analizujemy kolejne przypadki, jakich dostarcza nam akcelerator, źródło lub promienio-

wanie kosmiczne i taki bądź inny charakter jednego przypadku nie ma wpływu na to, co zaobserwujemy w następnym. Nie jest to jednak prawda w odniesieniu do różnego

rodzaju procesów kaskadowych, kiedy to specyficzny przebieg takiego procesu w jednej fazie może istotnie zdeterminować jego charakter w następnych etapach. O ile nie powiemy tego wyraźnie, całość naszych rozważań będzie odnosiła się do prób losowych prostych. Najprostszą informacją o badanej zmiennej, jaką możemy uzyskać z próbki, jest informacja o jej momentach.

—- 4.1. Wartość Średnia — prawo wielkich liczb Zarówno dla dyskretnej, jak i dla ciągłej zmiennej losowej x o wartościach x, w próbce losowej o liczebności n, uzyskanej z tego samego rozkładu charakteryzującego Się Wwar-

tością oczekiwaną (x) = pm, definiujemy średnią arytmetyczną x jako

xX



l

R



2,7

(4.1) 4.1

i

I oczekujemy od niej, że jest miarą wielkości, której dotyczy pomiar. Dlaczego? Przyj-

rzyjmy się sytuacji ze zmienną dyskretną. Bez zmniejszenia ogólności możemy przyjąć,

że zmienna ta przyjmuje wartości od jedności do nieskończoności. Wszystkie wartości x, z próby możemy uporządkować w niemalejący ciąg, który może przykładowo wyglądać w sposób następujący: 1, 1, 1, 2, 2, 3, 3, 3, 3, 4, 5, 5,... , a następnie pogrupować,

uzyskując krotności n,: n;, = 3, m = 2, nz =4,ną4 =l,... wystąpienia zmiennej k=1,2,3,4, ... Po takim przekształceniu danych wartość średnią możemy zapisać w innej, równoważnej formie

1 1=-1+1+1+2+2+3+3+3+3+4+:-)) 1

l

n

= — (ny + 2m + 3nz + 4n4 +*--) = — | kny =) k— =) kF, n H tI k=l o kal gdzie wprowadziliśmy eksperymentalne częstości F, występowania zmiennych losowych,

a sumowanie przebiega do maksymalnej wartości w próbce. Teraz już widzimy, że przy

zwiększaniu liczebności próbki częstości doświadczalne dążą, na mocy propozycji (2.1),

4.1. Wartość średnia — prawo wielkich liczb

141

do prawdopodobieństw P,, a ostatnia suma dąży do wartości oczekiwanej (3.3): =)

kF,

noo

) KP

=

u

kal Przypatrzmy się teraz, jak ta konstrukcja działa w odniesieniu do zmiennej losowej ciągłej. W tym przypadku nie mamy z góry narzuconych wartości, których krotność moglibyśmy

zliczać. Możemy jednak pogrupować

nych przedziałach

zmiennej:

[xq); xQ)),

dane x; w N arbitralnych, rozłącz-

[X0:xG)+.-.

» LXW); XN+1v), których długość

przyjmiemy, dla uproszczenia, stałą i równą A, a następnie znaleźć liczby nz określające, ile danych trafiło do k-tego przedziału. Wartość Średnią możenoy wtedy zapisać jako N

Xx = dE

= DELE

i=l

) sj

4 =

Z

k=l

gdzie xy. opisuje wybrany punkt z przedziału, np. jego Środek. Zwróćmy uwagę na wprowadzoną gęstość (2.4) doświadczalną f4. Jeśli będziemy zwiększali liczbę n danych doświadczalnych, to tak jak dyskutowaliśmy to w podrozdziale 2.1 przy wprowadzaniu pojęcia gęstości prawdopodobieństwa, będziemy mogli zawężać szerokość przedziału A,

a nasze przybliżenie będzie będzie dążyła, jak w (2.5), nas, że w takim przypadku, zbiega do definicji wartości l

n

coraz to bardziej dokładne, natomiast gęstość empiryczna do funkcji f(x) rozkładu. Analiza matematyczna poucza w granicznej sytuacji nieskończonej próbki, nasza formuła oczekiwanej (3.3): N

%

X = —n 2 Xx; = > x [k] fk A

— 20

J xf J (x) (x)dx = iL

Mamy także drugą relację, wskazującą na Ścisły związek między wartością średnią a oczekiwaną. Jeśli uświadomimy sobie fakt, że w kolejnych replikach tego samego

eksperymentu będziemy otrzymywali różne wartości średniej, a więc średnia traktowana

jako zależna od zmiennych losowych sama jest zmienną losową albo jeszcze lepiej: statystyką — czyli funkcją zmiennych losowych —

co stanowi definicję tego pojęcia,

to możemy zastanowić się nad wartością oczekiwaną tej statystyki: _

=(,2,%)5,2,%0=,2,00=,2,/=« l

n

i=l

14

l

e€)

0x

n

przy czym równość zachodzi dla o, = O, a więc i ten estymator jest gorszy od estymatora danego średnią.

Teraz wróćmy do wielkości (SX):

(S;) =V[x] — Lytz] = A LY[x]. n n Widać, że wybrana przez nas „próbna” vY[x], a jedynie dąży do niego dla n asymptotycznie nieobciążone.

statystyka (4.5) nie spełnia warunku (S>) = oo. O takich estymatorach mówimy, że są

Jeśli na estymator kwadratu odchylenia standardowego

(błędu pojedynczego po-

miaru) wybierzemy wyrażenie

s; = o 2,6—%), i=|

(4.7)

to jego wartość oczekiwana będzie równa pożądanej wariancji zmiennej losowej x. Poprawka wynikająca z dzielenia przez n — 1 zamiast przez n zwana jest poprawką Bessela.

r-—

Przykład 4.2.2 Błąd nowicjusza Autor był kiedyś świadkiem prezentacji wykresu, którego główne cechy odtwo-

rzone są schematycznie na rys. 4.2. Przedstawia on serię dwudziestu kolejnych

i niezależnych pomiarów tej samej wielkości fizycznej. Numer pomiaru znajduje

się na osi odciętych, a wartości odpowiada rzut punktu na oś rzędnych. Błąd każdego indywidualnego pomiaru reprezentowany jest przez połowę pionowego odcinka. Wykres ten jest wart krótkiego omówienia, gdyż z punktu widzenia staty-

styki matematycznej jest on wewnętrznie sprzeczny. Indywidualne punkty pomiarowe charakteryzują się pewnym rozrzutem wokół wartości średniej. Rozrzut ten, w sensie błędu pojedynczego pomiaru, wynosi około jednej jednostki i jest zdecydowanie mniejszy niż zaznaczone przez wykonawcę ramiona” błędu, które można

ocenić na około cztery jednostki. Druga, ekstremalna ewentualność ukazana jest

" 4. Momenty i statystyki pozycyjne z próby

14

T

12

I

wynik pomiaru

16

T

18

10

0

J

0

2

i

l

l

l

l

l

I

l

J

4

6

8

10

12

14

16

18

20

numer pomiaru Rys. 4.2. Przykład niespójnych wyników pomiarowych: błąd indywidualnego rezultatu jest istotnie większy niż rozrzut miedzy wynikami kolejnych pomiarów

20p

15 |

|

wynik pomiaru

148

l

0

2

4

6

8

l

10

l

12

.

14

l

16

l

18

20

numer pomiaru

Rys. 4.3. Przykład niespójnych wyników pomiarowych: błąd indywidualnego rezultatu jest istotnie mniejszy niż rozrzut między wynikami kolejnych pomiarów

na rys. 4.3, kiedy to rozrzut poszczególnych wyników pomiaru jest istotnie większy niż ukazana wartość błędu dła każde go z nich. Wyniki takie powinny nas zawsze skłonić do ponownego rozważenia metod,

jakie zastosowaliśmy do uzyskania wartości centralnych oraz błędów.

r

4.2. Odchylenie standardowe i wyższe momenty

0,25

149

p

0,20

0,15 1030 0,10

0,05

0,00 średnie

dane

980

Rys. 4.4. Porównanie rozkładu wszystkich wyników pomiarów i dziesięciokrotnie mniejszej próbki wartości średnich, każdej obliczonej z dziesięciu pomiarów

Ze związków (4.6) oraz (4.7) otrzymujemy wyrażenie na błąd Średniej arytme-

tycznej (odchylenie standardowe dla średniej arytmetycznej): Sz

2__542 = na

_ 1) =D

= X

—_

x)

z)2

(4.8)

i mówimy o nim, że jest on statystyczny, mając na myśli fakt, że wynika on z zastosowania metod rachunku prawdopodobieństwa i że maleje ze wzrostem liczebności próbki.

Istotnie, wielkość s;, na mocy prawa wielkich liczb, dąży do wartości stałej: wariancji zmiennej losowej, a dzielnik n wykonuje „mokrą robotę”.

Specyfikę tego faktu demonstruje rys. 4.4. Przedstawia on (na pierwszym planie)

rozkład 1600 wyników pomiarów, w hektopaskałach, ciśnienia atmosferycznego (dane własne). Odchylenie standardowe dła tych danych wynosi 5,9 hPa. Drugi plan prezentuje rozkład 160 średnich arytmetycznych dla 160 podpróbek zbudowanych z kolejnych dzie-

siątek indywidualnych pomiarów. Odchylenie standardowe dla średnich wynosi 1,9 hPa i wyśmienicie zgadza się z prawem odwrotnego pierwiastka z liczby pomiarów — nie-

pewność średniej arytmetycznej istotnie maleje jak Ji

Powyższy wynik jest jednocześnie ilustracją dobrze znanej reguły pomiarowej: jeśli chcesz zmniejszyć błąd dwakroć, próbkę musisz powiększyć czterykroć,

a ci, którzy marzą o zmniejszeniu błędu o rząd wielkości, muszą się liczyć z tym, że

ich eksperyment potrwa sto razy dłużej!

150

4. Momenty i statystyki pozycyjne z próby

Wielkość s;, będąc funkcją zmiennych losowych, jest statystyką, a więc będzie pod-

legała pewnemu rozkładowi. Wartość oczekiwana tej statystyki, jak pokazaliśmy, wynosi

Y [x], a jaka jest jej wariancja? Aby ją znałeźć, musimy obliczyć, z definicji, następujące wyrażenie: > > NE 4 >

v[s] = (8 — (5) ) = (s) - V* bq.

Po odpowiednich obliczeniach, których wykonanie (np. z pomocą dodatku B) zalecamy Czytelnikowi, otrzymujemy związek l

n-3

2n

v[s| [5] ==-(a— > (6— (x))”) 00))- - ——)> > wzypy

wy —— M=„YPl(mt=7

4.9 (4.9)

określony przez współczynnik > spłaszczenia (3.11). Rezultat ten dostarcza nam wyrażenie na wariancję kwadratu błędu Średniej arytmetycznej 2

vy [s|= MOZE

—)

=

l

ba (m+

2

2).

Zauważmy, że obie wielkości maleją ze wzrostem liczebności próbki. Estymatorem wielkości Y |sĘ 4 jest kwadrat błędu kwadratuo 2

3

czyli wielkość sS2:

azaazy(e 2,0-3 l

==———— ' Y

n

3) 5

72 „(% (— x)

2) . sz)

Podobny związek, „wzbogacony” o dodatkowy dzielnik n*, otrzymujemy dla kwadratu błędu S> (autor ma nadzieję, że Czytelnik wybaczy mu to „monstrum notacyjne) kwadratu błędu Średniej arytmetycznej. Wyrażenia te mają swoje znaczenie w praktyce, gdyż

określają precyzję, z jaką powinniśmy zapisywać znalezione błędy, a więc i zmierzone

wartości. Istotnie, wiemy, że jeśli u = v*, to s, 2 (v) s,. Gdy za wielkość v podstawimy s,, to znajdziemy, że s.ż = 2s,5,, skąd otrzymujemy wyrażenie na błąd s., błędu s;:

x S$

X 25 Do tego zagadnienia powrócimy w przykładzie 5.5.2, a tu tylko zwrócimy uwagę Czytelnika na fakt, ze wielkość s. jest błędem statystycznym: ze wzrostem próbki maleje

on jak +/n.

W kontekście powyższych rezultatów dotyczących wartości średniej i odchylenia

standardowego z całą mocą należy podkreślić, że:

Jeśli fizyk widzi rezultat pomiaru w postaci: wynik + błąd, to implicite przyjmuje trzy założenia dotyczące tego wyniku: e wartość zmierzona estymuje wartość oczekiwaną, e błąd jest statystyczny i jego kwadrat estymuje wariancję, e rozkład prawdopodobieństwa wielkości mierzonej jest symetryczny. Gdy którykolwiek z tych warunków nie jest spełniony — wynik musi być opatrzony komentarzem!

4.2. Odchylenie standardowe i wyższe momenty

151

--—- Przykład 4.2.3

Korelacja wartości Średniej i odchylenia standardowego Czy wartość Średnia x jest skorelowana z estymatorem wariancji s;? Rachunki z wykorzystaniem wyników dodatku B przekonują nas, iż

(8-W (£-07)|= >E[G= m0]. Dla rozkładu symetrycznego trzeci moment centralny znika i badane zmienne lo-

sowe nie są skorelowane, co jednak w żaden sposób nie przesądza o ich statystycznej niezależności (patrz podrozdział 3.3).

T)

Na marginesie rozważań nad odchyleniem standardowym warto wspomnieć o zagadkowym dzielniku n — 1, jaki pojawia się w definicji tej wielkości. Pozostawimy Czytelnikowi przeprowadzenie dowodu, że jeśli wartość oczekiwana m rozkładu jest dana, to nieobciążony estymator wariancji ma postać zbliżoną do (4.5):

28 G — 2. n

(4.11)

i=l

Pomniejszanie liczby n punktów danych o jedność przy obliczaniu odchylenia standardowego przy nieznanej wartości oczekiwanej jest ceną, jaką płacimy za zastosowanie średniej arytmetycznej. Często w praktyce doświadczalnej stosujemy jeszcze jedną wielkość statystyczną —

błąd względny, zazwyczaj wyrażany w procentach, w literaturze określany też mianem współczynnika zmienności w próbie: s;/x. Pozwala on, za pomocą jednej liczby, opisać statystyczną jakość naszego wyniku pomiarowego. Pod względem formalnym nie jest to dobrze zdefiniowana wielkość statystyczna, jeśli rozkład, z którego pobierana jest próba, dopuszcza zerową wartość średniej arytmetycznej. Jeśli jednak rozkład ten jest określony jedynie dla dodatnich wartości zmiennej losowej lub wartość błędu względnego jest istotnie mniejsza od jedności, wtedy współczynnik zmienności jest asymptotycznie nieobciążonym estymatorem stosunku dyspersji i wartości oczekiwanej

o wariancji

Sz] _ A (4 — V*[X]) — 4AV [X] pa + 40 [X]

v[z]=

dnżusY [x]

+o(n

_

piw

[io

):

Dla próbki z rozkładu Gaussa N (x; a, o) wyrażenie to upraszcza się do postaci

v[>]- = (1+257) +0(wr

NIA

p

)

152

4. Momenty i statystyki pozycyjne z próby

o ile spełniony jest warunek wymagający, aby błąd standardowy średniej arytmetycznej

był istotnie mniejszy od wartości tej średniej. Wtedy bowiem możemy uważać, iż średnia

jest na tyle oddalona od wartości zero, że możliwość przyjęcia przez Średnią tej wartości jest praktycznie wykluczona. Jest to, oczywiście, przybliżenie. Jaką postać mają estymatory wyższych momentów centralnych? Ponieważ nieobciążony estymator trzeciego momentu centralnego 43 to A

Ham

GZDGZBi

0

-%*

więc wyrażenie na estymator współczynnika asymetrii (3.10) moglibyśmy zaproponować jako A

„_ Ma

=

_

n

2

n

X; —X

>(

s

1

Rdz



3

).

jednakże dość powszechnie przyjmowana jest następująca definicja: A

Yi =

1




(

Xi

— X

5,

)

j

.

gdzie 5, jest estymatorem (4.5) średniego błędu kwadratowego. Estymator j? jest jednak,

w ogólnym przypadku, tylko asymptotycznie nieobciążony:

(|=

+0 (17?)

h

z wyjątkiem próbki wylosowanej z rozkładu Gaussa, kiedy to wartość oczekiwana estymatora jest dokładnie równa współczynnikowi asymetrii y, (a ten współczynnik dla zmiennej z tego rozkładu wynosi zero). Chociaż dla czwartego momentu centralnego j14 także dysponujemy jego nieobcią-

żonym estymatorem

»

n(n> — 2n + 3)

|

8

HAT n=Dn=25n=3)n270%

_

n — 1)(2n — 3)

RE

;

3) ©

to jednak konwencjonalnie dla estymatora spłaszczenia (3.11) wybieramy definicję w postaci

hm

i=l

S

|

wykorzystującej estymator średniego błędu kwadratowego. Okazuje się jednak, że wiel-

kość ta jest tylko asymptotycznie nieobciążona, nawet gdy próbka pochodzi z rozkładu Gaussa:

(72) = Y+OÓ

(r 3).

Wart odnotowania jest fakt, że dla próbki gaussowskiej obciążenie to jest znane: 6

(7) = "nil

4.3. Średnia ważona

153

a powinniśmy pamiętać, że sam współczynnik », dla zmiennej z tego rozkładu jest równy zeru. Jest rzeczą interesującą, że dla obu estymatorów znana jest Ścisła postać ich wariancji, o ile elementy próby pochodzą z rozkładu Gaussa:

Y[Al=Geparh r a

6(n — 2)

6

(n+1)n +3)

n

[5 | _

24nn—2)n—3)

_ 24

2 (n+D?(n+3)m+5)

n

Dla innych rozkładów wiadomo tylko, że wariancje estymatorów obu współczynników,

przy wykorzystaniu dużych liczebnie prób, zgodne są z asymptotycznymi postaciami wariancji tychże współczynników dla próbki wylosowanej z rozkładu Gaussa, z dokład-

nością do wyrazów rzędu O(n'*/*).

W literaturze funkcjonuje wiele definicji obu współczynników, dlatego Czytelnik nie

powinien się dziwić, jeśli napotka np. podany wcześniej estymator j; oraz

e

n*(n + 1)



ks q=Da=Da=312(

sni) -3 s

(n — 1)?

(n — 2)(n — 3)”

gdzie skomplikowana postać współczynników zależnych od liczebności n próbki wynika z wykorzystania nieobciążonego estymatora czwartego momentu

centralnego i wyma-

gania braku obciążenia dla przypadku próbki gaussowskiej. Zwróćmy uwagę na to, że dla dużych prób oba alternatywne estymatory przyjmują asymptotyczną postać

ZE Aj

I

X;



X

hs;

1

(5)

/x-XV



ł

i=l

z) (7 n

n

i=l

Yu

3

i=l

—3Z—

(

-43

Sx

|

|

-3=,2(5) 1

/x=XN* ł

— 3,

w zgodzie z tym, czego byśmy oczekiwali.

——

43. Średnia ważona

W praktyce zdarza się, że musimy wyciągać wniosek co do wartości wielkości zmie-

rzonej w różnych eksperymentach, a więc z różnymi dokładnościami. Jeśli np. plano-

walibyśmy eksperyment, w którym znaczenie miałby rozpad 4X(lp) + yT(1s), to na pewno pomocna byłaby dla nas informacja o stosunku rozgałęzień dla tego rozpadu. Istnieją dwa pomiary tej wielkości, a wynoszą one: 0,32 + 0,06 oraz 0,47 -:0,18. Pierwszy z tych pomiarów jest bardziej precyzyjny, więc i jego wartość centralna jest

zapewne bliższa rzeczywistości. Czy w naszych pracach przygotowawczych do eksperymentu mamy użyć tylko wartości 0,32 i zapomnieć o drugim pomiarze? Czujemy,

154

4. Momenty i statystyki pozycyjne z próby

że nie byłoby to właściwe postępowanie — drugi z cytowanych wyników jest rezulta-

tem dobrego, niezależnego doświadczenia i gdybyśmy go odrzucili, to wyzbylibyśmy się

części informacji, co jest przecież karygodne. Jak możemy „uwspólnić” oba rezultaty? Czy poprawne jest obliczenie dla nich średniej? Średnia taka traktuje oba wyniki jako równocenne 1 dostarczyłaby wyniku „w połowie drogi”, podczas gdy pierwszy pomiar,

jako dokładniejszy, powinien silniej odznaczyć się na końcowym rezultacie. Kluczem do rozstrzygnięcia tych wątpliwości są właśnie niepewności obu pomia-

rów. Widzimy, że niepewność drugiego pomiaru jest 3 razy większa niż pierwszego.

Gdyby drugi eksperyment został powtórzony jeszcze 8 razy, to sądzimy, że w każdej z takich powtórek otrzymywalibyśmy wynik o zbliżonej niepewności, każda około 0, 18,

a wtedy sami moglibyśmy uśrednić te 9 rezultatów i otrzymać jedną liczbę obarczoną błędem porównywalnym z błędem pierwszego eksperymentu. Dopiero w odniesieniu do takich danych moglibyśmy zastosować średnią arytmetyczną. Widzimy, że pomiar pierwszej grupy fizyków jest wart dziewięciu pomiarom drugiej grupy. Wniosek ten pozwala zaproponować następującą metodę obliczania średniej: Stosunek t k rozgalęzień łęzień

=

l

9

149 - ———0,32 140 —— 0,47 +

= 0,335.

W formule tej współczynniki 1/10 oraz 9/10 ważą poszczególne pomiary, przechylając szalę w stronę tego, który jest dokładniejszy. Sformalizujmy to rozważanie. Niech będzie dana seria nieskorelowanych zmiennych losowych x,, każda o identycznej wartości oczekiwanej „ i różnych dyspersjach o;.

Utwórzmy statystykę:

x, = >. W;X;,

(4.12)

i=l

zwaną Średnią ważoną, gdzie wielkości w, to stałe, pozbawione własności statystycz-

nych, współczynniki. Aby średnia ważona x,„ była nieobciążonym estymatorem wielkości

U:

(Xw) = ) w,

i=l

(x) = > wia

i=l

=u) w,

i=l

= HL,

musimy zażądać, by >.

i=l

W;

=

l.

Wariancja o; średniej ważonej x„, na mocy ogólnych reguł — patrz (3.9) — WynoSI:

04 = V[Xw] = ) wło?. i=l

Czytelnik winien zwrócić uwagę na to, że powyższy wzór jest słuszny tylko wtedy, gdy

wielkości w; są pewnymi stałymi, a nie statystykami. W przeciwnym razie we wzorze tym musiałyby się pojawić (przynajmniej) momenty wielkości w,;. Współczynniki w,

4.3. Średnia ważona

155

znajdziemy, domagając się minimalnej wariancji n

)

i=l

przy warunku wiążącym

w?o/EO = min(w

Yu,

ly:::,

)

Wn),

=|l.

i=l

Jest to typowe zagadnienie minimalizacyjne z więzami, które rozwiązujemy metodą współczynników Lagrange'a, tzn. warunek więzów przepisujemy w postaci uj-1=0

i=l

i dodajemy go do minimalizowanej funkcji po pomnożeniu przez dowolną stałą A (współczynnik Lagrange a):

YU użo? +2 (> e ) = min(wi, i=l

i=l

10.)

wymagając minimum ze względu na wielkości w, oraz stałą A. Stosownie różniczkując, otrzymujemy układ równań 2w,0j +A=(0,

i

=1,2,...,A,

uj-1=0 i=l

do rozwiązania względem w; oraz A. Rozwiązując pierwsze z nich względem w; A Wi

=

———

20;

i podstawiając do drugiego, otrzymujemy wyrażenie na współczynnik Lagrange'a A:

l

A=—2

s

„2 i=l Si 1 a stąd na, jak to nazywamy, wagi w; l Ww;

0;

=

n

|

i=l

ł

233 Wariancja uzyskanej średniej ważonej wynosi: OŻ

=

Y [xw]



n

156

4. Momenty i statystyki pozycyjne z próby

Zauważmy,

że oba ostatnie wzory redukują się do wyrażeń

arytmetycznej

identyczne.

właściwych

dla średniej

(4.1) i jej wariancji (4.6), gdy dyspersje o, wszystkich zmiennych są

Ponownie zwróćmy uwagę na to, że powyższe wyprowadzenie jest słuszne, gdy niepewności wielkości mierzonych x; są zadane przez dyspersje, a nie przez ich estymatory.

W konsekwencji kwadrat błędu średniej ważonej jest stały w sensie statystycznym, a nie

statystyką podlegającą fluktuacjom. Jest to, naturalnie, idealna sytuacja, jakiej z reguły

nie spotykamy przy analizie statystycznej danych, dlatego zawsze powinniśmy pamiętać o przybliżonym charakterze naszych wyników, jeśli obliczając błąd średniej ważonej, stosujemy estymaty niepewności wielkości wchodzących do średniej.

Czy dysponując próbką wielkości x; oraz ich dyspersjami o;, możemy zaproponować

statystykę, która byłaby estymatorem wariancji średniej ważonej? Okazuje się, że tak.

Wielkość s, zdefiniowana jako

-

S„

=

M

)

l

(n — 1) ) — i=l i

2

,

=

Oi

ma wymagane własności — jej wartość oczekiwana dana jest wariancją średniej ważonej:

€|s,|=VXl =

l

w

Uzasadnienie tych związków Czytelnik znajdzie w przykładzie 5.6.2. W nomenklaturze statystycznej wielkość s„ nosi nazwę błędu zewnętrznego, w przeciwieństwie do

wielkości o„, o której mówi się, że jest błędem wewnętrznym. Błąd zewnętrzny ma swoje zastosowania przy badaniu zgodności danych. Jeśli oba

błędy różnią się znacznie od siebie, mamy prawo podejrzewać, że dane nie są spójne,

a ilustrację takiego braku spójności widzieliśmy w przykładzie 4.2.2. Sama rozbieżność między wartościami obu błędów nie rozstrzyga między nierzetelnością wartości zmie-

rzonych lub też ich błędów. Jednakże wartość oczekiwana sumy kwadratów w definicji statystyki s„ jest równa liczbie składników tej sumy pomniejszonej o jedność:

> (* 5) co pozwala na wyizolowanie

=n-l,

z całej próbki tych danych,

dla których przyczynki do

sumy są istotnie różne od jedności, a następnie poddanie krytycznej analizie metody pomiarowej, która doprowadziła do problematycznych wyników. Jest to, naturalnie, procedura wysoce arbitralna. Rezultaty w fizyce nie są osiągane metodami demokratycz-

nego majoryzowania mniejszości przez większość i historia fizyki dostarcza nam w tym zakresie wielu pouczających przykładów. Alternatywna procedura, stosowana przy określaniu „najlepszych” danych o własnościach cząstek elementarnych prezentowana we

wspomnianym we wstępie kompendium Review of Particle Properties, zakłada jednolite

4,4, Kowariancja

157

traktowanie wszystkich danych doświadczalnych. Polega ona na takim przeskalowaniu dyspersji o; wszystkich wielkości mierzonych przez wspólny czynnik korekcyjny S$, aby równość )

=p

1.

SO;

i=|

BT da a po a

w

spełniona była Ściśle. Nie zmienia to wartości średniej ważonej, powiększa jednak jej błąd wewnętrzny o, o tenże czynnik $ 1 prowadzi do zastąpienia błędu wewnętrznego

błędem zewnętrznym.

PEPE

TYTUSA JETTA R

AMY



i

—- 44. Kowariancja Niech będzie dana próbka prosta zbudowana z par (x;, y;) wylosowanych z łącznego roz-

kładu f(x, y). Spróbujmy znaleźć wyrażenie na estymator kowariancji. Z definicji (3.12) wiemy, że

cov [xy] =(6— AUY — 4,)) = Gy) — ty.

Rozważmy wielkość

R la = 2,6 _5y © (y; — V)

(4.13)

i obliczmy wartość oczekiwaną tej statystyki:

n(R)= (> b —X)(y; — ») = > % — MW -K- u) (y; - 4 — G — 20) i=l

i=l

=) (6-406; — 49) -n(8— 406 — 1) i=l

l

n

=n(6- LOU — y)) — 7 3 (GG — LOG; — 1%) i,j=l

1

ń

n

= ncov |x, y| — H (le

— LJ; — wy) + ).

iźij=1

=

(6 — ŁOly; — 29)

= nCOV [x. y| — Cov [x y | = (n — l)cov [x y] .

Jeśli definicję (4.13) nieco zmodyfikujemy i wybierzemy statystykę R w postaci R =

l n-l

SCEZYWEZY i=l

(4.14)

to jej wartość oczekiwana będzie równa kowariancji, czyli będzie to jej nieobciążony estymator. Wariancja tak zdefiniowanego estymatora ma postać l y[R] => l (6-176 — 47) + „a—pYBMAYP]-

nan 2 KRE -G=Dp"

158

4. Momenty i statystyki pozycyjne z próby

Z kolei nieobciążony estymator tej wariancji, czyli kwadrat błędu kowariancji z próbki, to

n

2 Sp

R

n* >) (% — X?ly, — 1) + (m — 3)(n — 1)sżs; — (n* — n* — 3)R i=l

=

(n — 2)(n* — 3n2 + 2n — 3)

Analogicznie do estymatora (4.10) wariancji kwadratu podać w przemawiającej do wyobraźni postaci 2 SR

1



IK

—————— G-DGZ3

i=l

dyspersji, wynik ten możemy

-

-09,-Y)-R). (6-36, -5) -R)

2

Powyższe rezultaty wykorzystamy do obliczenia estymaty R kowariancji dla profiłu

wiązki, o którym mówiliśmy w rozdziale 1: R = —(720 + 120) mm”. Jak widzimy, wielkość ta jest różna od zera i potwierdza wskazywany wcześniej statystyczny związek między zmiennymi losowymi. Oczywiście, z uwagi na normalizację, jaką wnoszą szerokości rozkładów zmiennych x oraz y, ciekawsze byłoby znalezienie współczynnika

korelacji r z próby, który możemy zdefiniować, za K. Pearsonem i w analogii do (3.14), w następujący sposób: R Y

=

SxSy

,

(4.15)

(otrzymując, nota bene, wartość r = O, 32) i jego błędu. Jednakże patrząc na tę definicję, uświadamiamy sobie łatwo, że nie mamy szans na wykazanie, że wartość oczekiwana tej wielkości jest w istocie równa współczynnikowi (3.14) korelacji p, nie mówiąc już o wykonaniu naszego programu poszukiwania estymatora błędu tej wielkości, tzn. zna-

lezienia wariancji wielkości

r, odgadnięcia estymatora tej wariancji

i w końcu sprawdzenia jego poprawności. Nasze metody matematyczne

są zbyt skromne i nie dają możliwości realizacji takiego zadania. Moglibyśmy jednak pokusić się o realizację innego zadania. Zakładając,

Karl Pearson,

NE

-

2

.

-.

>

4

4

że istotnie współczynnik (4.15) korelacji r z próby ma coś wspólnego

1857-1936

z parametrem p, możemy obliczyć wielkość 2 r= R SZSY

i znaleźć błąd tej wielkości, stosując przybliżone metody z podrozdziału 3.4 na błąd wielkości złożonej:

>

ar*

2

ar2

ar? ar

+2 (i

ar? 2

5

*

dr> dr?

2

21

dr70r?

0

gsz 0" [R”, s] + GRE Bzz” [R”, s/] + sz ds” [5;. s,] | -

Od razu jednak widać,

że jest to zaiste tytaniczna praca, jako że wymagałaby

znalezienia z próby trzech zaznaczonych

we wzorze

kowariancji, jak również

błędu

4.4. Kowariancja

159

wielkości R”. W tej sytuacji największą szansę praktycznego powodzenia ma program,

w którym współczynnik korelacji r z próby potraktujemy jako funkcję Żn zmiennych x, OrTAZ y;: r=r(Xxj,Xo,...; Xp, VI; Y2; ---, Yn) 1 Zastosujemy przybliżony wzór (3.20):

Sr



2

=

>

dr )

((

ą

S

2

+ |

(3, )

S$;



dy;

2 ”

Or dr

0X;

)

R

2——

+

,

dy;

gdzie oczywiście wszystkie błędy wielkości x; oraz y;, a także kowariancję R między owymi zmiennymi przyjęliśmy za identyczne (niezależne od indeksu i). Przy tym podejściu otrzymujemy: r = —0,32 + 0,05. Winniśmy jednak pamiętać, że tak otrzymane

wyniki mają jedynie przybliżony charakter. Więcej na temat własności i rozkładu współczynnika korelacji będziemy mieli do powiedzenia w podrozdziale 5.5.4 oraz w przykładzie 5.7.3. 34

8r 7 6] 5

|

3] >|

-

Pra

4|-

0

Log

7

am

TT

EPE

.

a

y

.

p

zx

* o

hm

l

/

©

/

.

h

8

/

/

ś

.

lp. 0 -

7

Le”

>

A

a

noz e

mt

2

Z

ET

3

J

4

|

5

l

6

J

x 7

Rys. 4.5. Przykład trzech układów punktów o tej samej wartości współczynnika korelacji

W podrozdziale 3.3, dyskutując własności współczynnika korelacji, wspomnieliśmy o jego słabości w relacji do rozkładów, w których dane nie wydają się układać w miarę regularną, owalną „chmurę”. Rysunek 4.5 podaje przykład trzech układów punktów, dła których współczynnik korelacji r z próby jest dokładnie taki sam i wynosi 0,840.

Tylko dla tych pierwszych gotowi bylibyśmy zaakceptować wartość współczynnika r jako naturalną miarę zależności statystycznej między współrzędnymi (x, y) określającymi

położenie pełnych punktów na płaszczyźnie. W pozostałych dwóch przypadkach miarę tę

uznalibyśmy za sztuczną i absolutnie nieadekwatną do opisu istniejącej współzależności. Istotnie, dodatkowa linia łącząca puste kwadraty i romby interpoluje postać funkcyjną

y x x”, w której potęga a została stosownie (dla każdego ze zbiorów) dobrana, aby uzyskać tę samą wartość współczynnika korelacji.

Skoro poznaliśmy pojęcia estymatora wariancji i kowariancji, wróćmy teraz na chwilę do zagadnienia momentów funkcji losowych, omawianego w podrozdziale 3.4. Pokazaliśmy tam, jak w wyniku linearyzacji badanych zależności funkcyjnych, otrzy-

mujemy macierz kowartancji, zadającą korelacje między zmiennymi losowymi określonymi przez te funkcje. Jeśli do tak uzyskanego wyrażenia na macierz kowariancji

160

4. Momenty i statystyki pozycyjne z próby

podstawimy wartości uzyskane w doświadczeniu, a więc estymaty wariancji poszczególnych pierwotnych zmiennych

losowych i estymaty kowariancji dla indywidualnych

par tych zmiennych, to otrzymujemy macierz V(f) liczb: estymat wariancji 1 kowariancji nowych zmiennych losowych. Macierz tę, jak również macierz V (x) estymatorów wariancji 1 kowariancji pierwotnych wielkości mierzonych, powszechnie określa się dość mylącym terminem macierz błędów, który sugeruje, że wśród jej elementów, np. na jej diagonali, występują błędy. Powinniśmy pamiętać, że w rzeczywistości mamy tam ich kwadraty, a poza przekątną estymaty kowariancji. Niestety, statystyka matematyczna nie wypracowała bardziej precyzyjnego specjalnego terminu dla takiego obiektu.

—— 4.5. Efekty systematyczne i ich błędy Zacznijmy od przykładu, który pozwoli wyjaśnić pewne pojęcia. Wyobraźmy sobie, że strumień © cząstek kierujemy na stacjonarną tarczę o liczbie p centrów rozpraszających na jednostkę objętości, a pod pewnym kątem © umieszczamy detektor pokrywający kąt

bryłowy AŚ2. Jeśli w wyniku eksperymentu zaobserwujemy w detektorze n cząstek, to

różniczkowy przekrój czynny wynosi:

Ao

n

AQ



Wynik ten będzie bez wątpienia poprawny, o ile poprawne będą wszystkie trzy występujące w nim wielkości: n, p oraz ©, ale przy pomiarze każdej z nich czyha na eksperymentatora wiełe zasadzek. Jeśli detektor nie jest w pełni efektywny, liczba n rozproszonych cząstek będzie zaniżona. Jeśli pomiar prowadzimy w Środowisku, w którym występuje dodatkowe tło, np. od promieniowania kosmicznego lub od wiązki, która „Ociera się” o elementy systemu jej transportu i nie zadbamy o eliminację tego tła, liczba zarejestrowanych rozproszeń będzie zawyżona. Gdy wiązka cząstek nie składa się tylko 1 wyłącznie z tych cząstek, które nas interesują, lecz ma domieszkę innych, będziemy mierzyć przekrój czynny uśredniony względem składu wiązki cząstek pocisków.

Jeśli gęstość masową tarczy wzięliśmy z tablic, to nie znajdziemy rzetelnej wartości liczby p centrów rozpraszających, gdyż nasza próbka może być zanieczyszczona innymi substancjami. Prowadzi to również do pewnego średniego, tym razem względem składu chemicznego tarczy, przekroju czynnego. Jeśli tarcza jest zbyt gruba, to ryzykujemy

wielokrotnym rozpraszaniem w jej wnętrzu, a tym samym staje pod znakiem zapytania poprawność wyznaczenia kąta © rozproszenia. Do podobnego efektu doprowadzi także

duży przekrój poprzeczny wiązki — różne elementy tarczy będą wtedy widziane przez licznik pod różnymi kątami bryłowymi. Podobnie zadziała brak precyzyjnej wiedzy na temat całej geometrii układu: pozycji detektora względem tarczy, odległości, rozmiarów 1 orientacji jego części czynnej. Strumień © mierzymy za pomocą specjalnych przyrządów umieszczonych w pewnym punkcie wiązki przed tarczą. Jeśli na ostatnim odcinku, do tarczy tracimy część wiązki, to faktyczny strumień cząstek padających na tarczę jest mniejszy, niż sądzimy.

4.5. Efekty systematyczne i ich błędy

161

Wszystkie wyliczone wyżej efekty, a kompetentny fizyk łatwo uzupełni tę listę wie-

loma innymi, mogą obrócić wniwecz cały nasz pomtar. Cechą tych efektów jest to, że

działają one metodycznie i z zaciętością — globalnie psują nasze zabiegi i trud oraz fałszują wynik. Jeśli nie zwrócimy na nie uwagi, nie sprawdzimy i ewentualnie nie

poprawimy naszego pomiaru, to popełnimy błąd. Nie jest to jednak ten typ błędu, o któ-

rym mówiliśmy do tej pory. Nie jest to także błąd systematyczny, z którym to terminem Czytelnik zapewne się już spotkał. Będzie do błąd sztuki, określany niekiedy mianem grubego, dyskwalifikujący pomiar.

Aby precyzyjniej wyjaśnić, co będziemy rozumieli przez pojęcie błędu systematycznego, rozpatrzmy, jako przykład, niektóre elementy analizy danych doświadczalnych, jaką spotyka się w fizyce wysokich energii. Celem tej analizy (G. Grzelak, Production

of Intermediate W and Z Bosons in ep Interactions at 300 GeV Centre of Mass Energy,

rozprawa doktorska, Instytut Fizyki Doświadczalnej, Uniwersytet Warszawski 1998) jest pomiar całkowitego przekroju czynnego na produkcję bozonów pośredniczących W oraz Z. W pomiarze takim całkowity przekrój czynny o określony jest związkiem O

n

_

Nef

_€L L

gdzie n jest liczbą znalezionych przypadków (bozonu W lub też Z), € jest wydajnoŚcią, z jaką te przypadki znaleziono, natomiast £ jest Świetlnością akceleratora wy-

korzystującego wiązki przeciwbieżne. Zauważmy,

że zarówno wielkość e, jak i £ są

swoistymi czynnikami skalującymi, pozwalającymi przeliczyć jedną wielkość fizyczną na drugą: faktyczną liczbę n przypadków na liczbę neg przypadków, jaka byłaby znaleziona, gdyby metoda poszukiwania tych przypadków była doskonała oraz, w drugim

kroku, tak poprawioną liczbę przypadków na przekrój czynny. Jest to jeden z fundamen-

talnych schematów metodologicznych, analogiczny do kalibracji przyrządu. Przyjrzyjmy się niebezpieczeństwom, jakie on stwarza w odniesieniu do rezultatu pomiaru takim przyrządem.

Surowy odczyt, np. liczba neg przypadków, ale także wskazanie strzałki woltomierza 1 amperomierza przy pomiarze oporu, musimy „poprawić”, dzieląc go (w omawianym przypadku) przez czynnik £, który także otrzymujemy w wyniku pomiaru wzorca tymże samym przyrządem, bądź w innym układzie doświadczalnym,

w sposób nieza-

leżny (w najprostszym przypadku) od pomiaru właściwego. Ponieważ szansa uzyskania dokładnie „prawdziwej” wartości czynnika skalującego jest równa zeru (przynajmniej w przypadku zmiennej ciągłej), musimy liczyć się z tym, że wszystkie następne pomiary

wykorzystujące tenże czynnik będą systematycznie zaniżone bądź zawyżone, w zależności od tego, co podarował nam los w trakcie procedury kalibracyjnej. Właśnie z uwagi na ów ustalony i uporczywy, zawsze działający w jedną stronę (przynajmniej do czasu następnej kalibracji) charakter obciążenia, mówimy o efektach systematycznych i ich wpływie na wynik pomiarowy. Najtrudniejszym aspektem analizy efektów statystycznych jest uświadomienie sobie faktu ich istnienia. Nieomal zawsze działają one w ukryciu i nie objawiają się w żaden spektakularny sposób — wynik końcowy wydaje się rozsądny, choć nie jest wart kartki papieru, na którym go zapisaliśmy. Pomocną w ich wykryciu może być tylko daleko

162

4, Momenty i statystyki pozycyjne z próby

posunięta rezerwa:

nie ufaj niczemu

(nawet liczbie x —

czy na pewno powinna się

ona pojawić w tym miejscu?), podejrzewaj metodę (ktoś kiedyś powiedział Ci, że to

można tak zrobić — zweryfikuj to teraz!) i sprzęt (zapewnij sobie narzędzia do monitorowania na bieżąco), sprawdzaj 1 kontroluj (zadbaj o nadmiar informacji — prowadzi to

w pierwszym momencie do zamieszania, ale pozwała za to na niezałeżne sprawdzenia 1 na kontrolę sprawdzeń), bądź krytyczny (lub tez pozwól się skrytykować kolegom).

Zmierz wszystko co się da i najłepiej jak się da. Jeśli dysponujesz jakąś wielkością:

masą cząstki lub stanu rezonansowego, poziomem energetycznym, czasem Życia, nawet

dystansem geometrycznym, który możesz zlustrować za pomocą swojej aparatury — zrób to! Niektóre z metod analizy statystycznej danych, np. metoda najmniejszych kwadratów, dostarczają narzędzi kontrolnych — skorzystaj z nich! Gdy już błyśnie Ci w głowie myśl, że Twój współczynnik kalibracyjny może być źródłem efektu systematycznego, sprawdź

go, tj. zgadnij, oszacuj, zmierz i znajdź niepewność jego wartości.

Tak długo, jak kwadrat niepewności sę ma charakter estymaty wariancji wielkości L£, możemy mówić o przyczynku s„. do całkowitej niepewności standardowej s, zmierzonego przekroju czynnego od niepewności standardowej sz czynnika kalibrującego.

Jeśli spełnione są założenia modelu małych błędów pomiarowych (podrozdział 3.4),

przyczynek ten możemy znaleźć z zależności

i mieć uzasadnioną nadzieję, że przedstawia on sobą estymator dyspersji przekroju czynnego przy ustalonej wartości liczby neg. Ponieważ błąd s,. szacuje nasze wyobrażenie o wpływie „mglistej” wartości czynnika systematycznego, utarło się określanie tego błędu jako błędu systematycznego, choć lepiej jest mówić o niepewności systematycznej i oba terminy są skrótem myśłowym dla sformułowania: niepewność oceny wpływu efektu systematycznego. W ten sposób dochodzimy do definicji tego, co będziemy okre-

ślali błędem systematycznym: każda wielkość, która ma wpływ na końcowy wynik, a którą znamy ze skończoną dokładnością, jest źródłem niepewności tego wyniku, a nie-

pewność ta to właśnie błąd systematyczny.

Dalsze przyczynki do pełnego błędu przekroju czynnego są oczywiście związane

z niepewnością pomiarową liczby neg. Tu jednakże sytuacja jest z reguły nieporównanie

bardziej skomplikowana. Jej jedyny łatwy fragment, to ten związany z obserwowaną liczbą n przypadków. Ocena s, niepewności tej wielkości nałeży (w najprostszym przypadku)

do klasycznych

zagadnień

statystyki matematycznej

i wyprzedzając

nieco tok

wykładu, odwołamy się do rezultatów punktu 5.4.2, gdzie pokazujemy, że niepewność

ta ma, jak mówimy, charakter poissonowski i zadana jest pierwiastkiem kwadratowym

z obserwowanej liczby przypadków: s, = „/n. Dlatego też Sp Z

l nn Sh 5 z — el ELn

© „4n

= —— Z Sat.

Zwróćmy uwagę na to, że przyczynek ten maleje wraz ze wzrostem liczby przypadków w próbce i dlatego błąd ten, jak wskazywaliśmy na to w podrozdziale 4.2, jest błędem

4.5. Efekty systematyczne i ich błędy

163

statystycznym. Jest to jego kluczowa cecha, odróżniająca go od błędu systematycznego,

dlatego błąd systematyczny niekiedy zdefiniujemy jako ten, którego nie możemy się wyzbyć metodą wzbogacania próbki. Jego pomniejszenie wymaga niezależnych prac,

rozprasza nasz wysiłek i odciąga od zasadniczego kierunku naszego badania. Jeśli inte-

resuje nas przekrój czynny na produkcję bozonu Z, a bozon ten identyfikujemy w naszym eksperymencie przez wykrywanie powstającego z niego elektronu, to liczbę wszystkich bozonów otrzymamy, dzieląc liczbę zidentyfikowanych przez stosowną częstość rozpadu.

Jeśli częstość tę znamy z błędem, to żadna liczba bozonów zidentyfikowanych w kanale elektronowym nie uwolni nas od niepewności co do liczby wszystkich wyprodukowanych (a nie tylko zarejestrowanych) bozonów w eksperymencie. Wyzbyć się jej (pomniejszyć jej udział) możemy tylko na jednej drodze: musimy wymyślić, zbudować i przeprowadzić niezależny eksperyment poświęcony temu zagadnieniu. Zasadnicza część analizy niepewności wartości zmierzonego przekroju czynnego ukryta jest w ocenie niepewności s. wydajności e detekcji. Typowo, ocenę efektywnoŚci detektora uzyskujemy na drodze identycznej analizy dwóch próbek: tej znalezionej

w doświadczeniu oraz sztucznej próbki, nazwijmy ją „teoretyczną”, uzyskanej na drodze

symulacji numerycznej, zwanej metodą Monte Carlo, wykorzystującej całość teoretycz-

nej wiedzy o przebiegu zjawiska fizycznego i o detektorze. Na obie nakładamy identyczne cięcia geometryczne i kinematyczne, których zadaniem jest oczyszczenie próbki z przypadków pochodzących z procesów zanieczyszczających dane doświadczalne, jak np. oddziaływania na resztkowym gazie w rurze akceleracyjnej lub ściankach tejże rury, oddziaływania nie zachodzące w nominalnym obszarze czasowym i przestrzennym przecięcia wiązek, oddziaływania wywołane przez halo wiązki itp. Potem przychodzi kolej na cięcia, zadaniem których jest amplifikacja poszukiwanego

sygnału (autor nie musi

w tym miejscu mówić, że rasowego fizyka, jego kunszt i umiejętności, można poznać właśnie po tym, jak dobiera te cięcia). Cięcia te zawsze pozbawiają nas części inte-

resujących przypadków, a to, co z nich zostaje, odniesione do pierwotnej ich liczby, definiuje wydajność e. Wydajność tę możemy określić niezależnie, badając, jaki ułamek interesujących przypadków pozostał w próbce teoretycznej, o której mamy pełną

wiedzę. Ponieważ omówienie metody Monte Carlo „odroczyliśmy” do jednego z dalszych rozdziałów,

wyjaśnijmy

powyższe

rozważania

przykładem

analitycznym,

czyli

wykonajmy na papierze dokładnie to, co symulacja numeryczna realizuje w pamięci komputera.

Przypuśćmy, że liczbę ney interesujących przypadków próbujemy ocenić, konstruując doświadczalny odpowiednik teoretycznego rozkładu f(E;a), na przykład energii

E mierzonej w kalorymetrze. Postać funkcyjna rozkładu jest nam znana, jak również wiadoma jest nam, z wcześniejszych analiz, wartość występującego w nim parametru a, jednak z dokładnością s,. Nasz kalorymetr, jak każdy, charakteryzuje się pewnym szumem, tzn. w stanie jałowym, bez padających na niego cząstek, mierzy on określoną, różną od zera, energię. Dlatego też musimy wprowadzić cięcie odrzucające przypadki o energii E mniejszej niż pewna wartość E. Potrzeba takiego cięcia może również wynikać z charakteru danych, jakimi dysponujemy, np. układ wyzwalający eksperymentu miał w sobie celowo zakodowany warunek usuwający przypadki o zbyt niskiej energii

164

4. Momenty i statystyki pozycyjne z próby

zdeponowanej w kalorymetrze. W rezultacie do dalszej analizy przechodzi część €

€=P(E>E)= J f(E';a)dE' E wszystkich danych. Skoro parametr a znany jest nam z określoną precyzją, jego niepewność dostarczy przyczynku s„, do całkowitego błędu w przekroju czynnym

"a

n

|0€

2_£

|a|

=

o

— €

0€E

da

Sa.

W realnej sytuacji wskazana całka ma najczęściej charakter wielowymiarowy i uwzględnia zarówno wielkości kinematyczne, jak i geometryczne, a 1 parametrów a jest od kilku do kilkunastu, jeśli nie kilkudziesięciu. Ich typowymi przykładami są wspomniane wcze-

Śniej stosunki rozgałęzień, ale możemy je także znaleźć w modelowych uproszczeniach

występujących w konstrukcji funkcji f. Wtedy wystarczy, że dokonamy podstawienia 0€

[5

>



0€

i j=1

da;

dE

2, 330V [ai a;] z: dj

o ile znana jest nam pełna postać macierzy błędów. Zwróćmy

uwagę, że przyczynek

ten, niezależnie od liczby „występującnych” parametrów, tak jak przyczynek s„., opisuje niepewność efektu systematycznego 1 niepewność ta jest równa pierwiastkowi kwadra-

towemu z estymaty wariancji. Przed chwilą wspomnieliśmy, że błąd systematyczny cechuje się niezależnością od

wielkości zgromadzonej próbki danych. Jest to jego dość niezła charakterystyka, jednak nie do końca prawdziwa. Niekiedy wpływ systematycznych czynników możemy doprecyzować, dysponując bogatszą próbką. Przykładem takiego błędu systematycznego jest właśnie omawiana wyżej efektywność detektora. Przystępując do eksperymentu, znamy ją z różnego rodzaju testów i symulacji, ale jej dokładny charakter poznajemy w trakcie eksperymentu, kiedy to zbieramy coraz to większą liczbę przypadków

w różnych

obszarach detektora i budujemy coraz to bardziej precyzyjną „„mapę” jego własności. W jaki sposób, dysponując trzema przyczynkami: sę,, Sa, OraZ s, do niepewności

przekroju czynnego, mamy wyrazić pełną i ostateczną niepewność zmierzonej wartości? Powszechnie utarła się pewna podstawowa i dobra praktyka. Polega ona na tym, że w żadnym przypadku nie łączymy błędu statystycznego s,, z innymi błędami — ten błąd cytujemy na zasadzie równorzędności z samym wynikiem pomiaru. Jest on miarą jakości statystycznej naszej pracy badawczej, a następcom pozwoli uzyskać wgląd w to, co ich czeka, gdy podejmą ten sam wysiłek w warunkach próbki o zbliżonej liczebności i przy

wykorzystaniu analogicznej metody analizy. A co mamy zrobić z błędami systematycz-

nymi? Przede wszystkim powinniśmy je wszystkie wyliczyć i podać każdy oddzielnie

oraz opisać procedury, które posłużyły do ich otrzymania. W szczególności, z owego

opisu powinno jasno wynikać, jaka jest interpretacja statystyczna kazdego z nich. Wtedy, gdy mają one charakter odchyleń standardowych, możemy złożyć je w kwadratach (o ile są statystycznie niezałeżne, w przeciwnym razie czeka nas jeszcze trud określenia pełnej

4.5. Efekty systematyczne i ich błędy

165

macierzy błędów) do ostatecznej niepewności systematycznej: —

Ssyst =

2

2

V Soc + Sza”

a końcowy wynik pomiaru zapisujemy w formie: o

=

n

EL

-E Sstat E Ssyst*

W ten sposób naszym sukcesorom wskażemy

główny kierunek natarcia: powiększanie

próbki, gdy błąd statystyczny jest większy niż systematyczny, czy też poprawa procedur i ulepszanie detektora, gdy relacja między błędami jest odwrotna.

Problem efektów systematycznych ulega zaostrzeniu, jeśli funkcja f(E; a) ma kon-

kurentów. W opisywanej analizie Grzelaka rolę takiej funkcji odgrywają różne generatory Monte Carlo, a także algorytmy definiujące obiekt zwany dżetem, na który nie ma precyzyjnego przepisu, oraz, w mniejszym stopniu, procedury identyfikacji elektronu. Zastosowanie

różnych podejść

prowadzi

do różnych

ostatecznych

wartości

przekroju

czynnego. Nawet gdybyśmy określili całą tabelkę możliwych wariantów analizy danych

i określili przekrój czynny dla wszystkich możliwych algorytmów i procedur, to takiego

zbioru rezultatów nie moglibyśmy rozpatrywać pod względem własności statystycznych: nie istnieje przecież przestrzeń zdarzeń elementarnych, np. produkcji bozonu W, realizowana przez różne opisy teoretyczne, a co za tym idzie, uzyskana kolekcja liczb

nie stanowiłaby reprezentatywnej próbki wyników pomiaru, której własności możemy

podsumować, obliczając wartość średnią arytmetyczną i jej błąd. Szczególnie jaskrawo problem ten pojawia się w momencie, gdy przechodzimy do bardziej szczegółowych

pytań fizycznych, takich jak np. ekskluzywna produkcja pewnych typów cząstek. Tu, za-

zwyczaj, opisy teoretyczne, poszukując rozmaitych rozwiązań, stają się coraz to bardziej

modelowe, pojawiają się nie wyspecyfikowane parametry, a różnice w przewidywaniach mogą być znaczne. Oznacza to, niestety, że nie mamy żadnego narzędzia, które pozwoliłoby nam na probabilistyczną interpretację takich wyników i inkorporowanie ich rozrzutu w osta-

teczną formę niepewności. Rozwiązanie takiego problemu wykracza poza dziedzinę statystyki matematycznej. Jedynym wyjściem w takiej sytuacji jest polepszenie jakości i ilości danych — zadaniem fizyka doświadczalnika staje się wtedy rozstrzygnięcie między konkurującymi modelami. Do momentu nim to nastąpi, możemy jedynie podać wynik uzyskany w ramach jednego modelu (najbardziej popularnego, konwencjonalnie stosowanego, możliwie najlepiej zdającego sprawę z sytuacji) oraz zapoznać Czytelnika

z alternatywnymi rozwiązaniami. Do podobnej klasy problemów możemy zaliczyć wpływ wspomnianych wyżej cięć. To, że wybraliśmy taką bądź inną ich wartość, ma najczęściej dobre umotywowanie fizyczne. Naszym obowiązkiem jest jednak zbadanie ich wpływu na ostateczny rezultat. Gdy zmiany wartości mierzonej, indukowane przez cięcia nawet radykalnie różne od nominalnych, mają charakter fluktuacji mieszczących się w granicach błędów statystycznych, wtedy zasadniczo nie powinniśmy się martwić. Możemy zastosować procedurę polegającą na przesunięciu cięcia o jedno standardowe odchylenie, a uzyskaną zmianę

166

4, Momenty i statystyki pozycyjne z próby

w wielkości końcowej potraktować jako jej odchylenie standardowe. Jeśli jednak zmiany

w cięciach prowadzą do drastycznych różnic i nadają końcowemu wynikowi ewidentny trend, to wskazują one na głębszą trudność, wymagającą zrozumienia, a do tego po-

trzebujemy niezależnych i szczegółowych badań — wszak rozbieżności te mogą być sygnałem następnych efektów systematycznych. Nie byłoby dorzeczne postępowanie,

w którym ustalilibyśmy „rozsądny” zakres zmian w wyborze cięcia, a przedział sys-

tematycznych zmian wartości końcowej określilibyśmy mianem błędu systematycznego 1 usiłowali dodać go w kwadratach do pozostałych, gdyż sugerowałoby to standardową interpretację statystyczną tego przedziału w terminach estymaty dyspersji. Statystyka matematyczna nie dysponuje aparatem formalnym, pozwalającym przetłumaczyć znaczenie terminu „rozsądny przedział” na prawdopodobieństwo skojarzone z takim przedziałem.

Często, wykorzystując wyniki doświadczalne, dla których podany jest zarówno błąd

statystyczny, jak i systematyczny, stajemy wobec dylematu: jak potraktować błąd syste-

matyczny — czy wolno nam go złożyć, w kwadratach, z błędem statystycznym? W przekonaniu autora procedura taka jest dopuszczalna, ale tylko w jednym przypadku: gdy zarówno niepewność statystyczna, jak i systematyczna mają charakter odchyleń standardowych (gdyby to przekonanie zakwestionować, to autor nie byłby w stanie zrozumieć,

jak dysponując niepewnością pomiaru napięcia i natężenia prądu płynącego przez opornik, można znaleźć błąd oporu). Wynika to wprost i bezpośrednio z samej definicji wariancji. Z reguły, zadając takie pytanie, mamy

również na myśli pewne konkretne

zastosowanie dla tak złożonej w jedną całość niepewności. Chcemy ją wykorzystać w różnego rodzaju procedurach statystycznych omawianych w dalszych rozdziałach, np. wyznaczyć przedział ufności, zastosować w dopasowaniu lub użyć w teście statystycz-

nym. Z każdą z tych operacji wiąże się pewna interpretacja probabilistyczna jej konkluzji.

Musimy pamiętać, że tę interpretację uzyskamy jedynie wtedy, gdy rygorystycznie potraktujemy wymogi tychże procedur, a im skrupulatniej się do nich zastosujemy, tym bardziej wiarygodne będą nasze wnioski.

Rozważymy teraz jedną z konsekwencji efektów systematycznych. W świetle wyników podrozdziału 3.4 jest ona dość oczywista, ale warta jest uświadomienia Czytelnikowi raz jeszcze. Przypuśćmy,

że badamy

np. różniczkowy przekrój czynny lub też

całkowity przekrój czynny przy różnych wartościach energii i surowe liczby x;, znane z dokładnością s;, mnożymy przez wspólny i niezależny statystycznie od wielkości x,

czynnik korekcyjny f, znany z błędem sę. W ten sposób otrzymujemy skorygowane wartości przekroju 6;,. Dla uproszenia przyjmiemy także, że pierwotne zmienne losowe x; nie są skorelowane: ) [x;, xx] = V[x;]6;4. Proste obliczenie, odwołujące się do definicji (3.12) kowariancji, mówi nam, że wszystkie rezultaty ó, będą skorelowane, a ich

macierz kowariancji przyjmie postać

v [6,6] = bbaf) — (x) af) = bog) (F) — 60) ba) (F)? = ba, x] + 66) 60) (FF + 7) — 6a) ba) (F)? = (x) (6) V[f] + V Ba, xx] (7 [F] + (2) = (x) 2%) Vf] £Vba] (PFF] + (07) 8x Z zs? + s; (sę + f7) Bmw.

4.6. Statystyki pozycyjne z próby

167

Powinniśmy o tym wyniku pamiętać, gdy np. do naszych danych doświadczalnych będziemy dopasowywać model teoretyczny.

Fizyka fachowca można poznać po tym, jak wykonuje pomiar, a fizyka artystę —

jak znajduje i eliminuje, a jeśli nie może wyeliminować, to ocenia efekty systematyczne, poprawia je, a swoją resztkową niepewność przemienia na niepewność wartości wyniku pomiaru. Niestety, nie mamy równoległej do statystyki matematycznej dziedziny wiedzy o nazwie: systematyka matematyczna, czyli rachunek błędów systematycznych, która pozwo-

liłaby zautomatyzować procedury poszukiwania efektów systematycznych 1 poskromić ich wpływ. Efekty te są specyficzne dla każdego problemu fizycznego, który chcemy

rozwiązać, dlatego możemy tylko być czujni, podejrzewać i poszukiwać ich oraz uczyć

się na doświadczeniach własnych i innych. Powoduje to, że słuszniejsze byłoby zalicze-

nie umiejętności wykrywania i usuwania takich efektów do sztuki doświadczalnej, a nie

do rzemiosła.

—— 4,6. Statystyki pozycyjne z próby W podrozdziale 3.6 wprowadziliśmy pojęcie parametrów pozycyjnych, w tym mody i kwantyli, opisujących własności zmiennej. Podamy teraz parę uwag dotyczących estymowania tych wielkości, czyli statystyk pozycyjnych. Moda rozkładu znajduje dość powszechne zastosowania w analizie danych z ekspe-

rymentów fizycznych. Bardzo często potrzebujemy znać położenie maksimum rozkładu

takiego jak masa niezmiennicza układu cząstek, co daje nam pozycję rezonansu lub roz-

kład energii kwantów gamma powstałych w wyniku specyficznej reakcji jądrowej, jako że kwanty te niosą wiadomość o poziomach wzbudzonych jądra. Jednak w sytuacjach takich nie próbujemy mody wyznaczyć bezpośrednio z danych. Zazwyczaj dopasowu-

jemy do danych model teoretyczny i z parametrów tego modelu pochodzi znajomość tej wielkości.

Bezpośrednie oceny wartości mody z rozkładu spotykamy najczęściej w badaniach

medycznych,

biologicznych,

socjologicznych

i ekonomicznych,

gdzie

często

trudno

o wiarygodny model badanej cechy. Stosowanie mody ma wtedy pewne ograniczenia: wymaga ona dość bogatych próbek danych, tak aby histogram tych wielkości był stabilny

względem zmian szerokości przedziału i jego lewego skraju. Także dokładność, z jaką

możemy określić modę, jest ograniczona do szerokości przedziału histogramowania, dlatego też większą użyteczność ma to pojęcie w zastosowaniu do rozkładów teoretycznych. Operacyjny sposób określenia pozycji dominanty wynika z rys. 4.6, gdzie schematycznie przedstawiony jest histogram oraz dwie krzyżujące się linie. Odcięta punktu ich przecięcia podaje położenie mody z próby. Wyznaczenie kwantyla (3.29) rzędu p z próby wymaga wprowadzenia pojęcia empirycznej dystrybuanty, na którą to natknęliśmy się już w przykładzie 2.5.1. Niech będzie dana próbka x;, (i = 1,2,...,n) zrozkładu f(x) o dystrybuancie F(x), uporządkowana

niemalejąco: x; < X

£ **: < x,. O tak uporządkowanej

próbce mówimy,

że tworzy

168

4. Momenty i statystyki pozycyjne z próby

moda

Rys. 4.6. Operacyjna definicja mody w danych doświadczalnych

ona szereg pozycyjny. W przypadku próbki bardzo dużej, teoretycznie nieskończonej,

dystrybuanta F(x) określa ułamek danych w próbce, dla których zachodzi x < x. Jeśli wprowadzimy n + 1 przedziałów: (00; x,), [X1; x2), [X2; X3),..., [Xn-q; x„), [X,; 00), to

możemy oczekiwać, że na każdy przedział przypada ułamek 1/(n + 1) całości próby, tzn. 1/(n + 1) jest estymatą F(x,), 2/(n + 1) jest estymatą F (2x2) itd., aż do n/(n + 1), co jest estymatą F(x„). W ten sposób określiliśmy empiryczną dystrybuantę w postaci schodkowej funkcji, wzrastającej o 1/(n + 1) w punkcie, w którym mamy daną doświad-

czalną:

0

X

X > X.

LO r 0,9 | 0,8 0,7 0,6 0,5 F 0,4 | 0,3 | 0,2 | 0,1 F 0,0

0

i

I

0,5

1

x

1,5

Rys. 4.7. Definicja dystrybuanty empirycznej i procedura wyznaczania kwantyla x, rzędu p

2

4.6. Statystyki pozycyjne z próby

169

Kwantyle z próby znajdujemy z wykresu takiej funkcji metodą interpolacji liniowej, tak jak to zademonstrowane jest na rys. 4.7. Kwantyle, które są wielokrotnością 1/10 to tzw. decyle, a wielokrotności 1/100 to centyle, zwane też percentylami. Naturalnie, mamy także kwartyle, czyli kwantyle rzędu 0,25 (dolny) i 0,75 (górny). Przy okazji: co

autorzy artykułu (Rzeczpospolita, 28 listopada 1996), mieli na myśli, używając terminu kwintyl (tak — kwintyl, a nie: kwantyl) w następującym cytacie? We wspomnianych

latach rewolucji Reaganowskiej (...), aż 86% tych, którzy w roku 1979 znajdowali się na dole drabiny dochodów, tj. wśród 20% pracowników o najniższych dochodach, po-

wędrowało w górę tejże drabiny do czterech wyższych kwintyli, z czego 15% dotarło aż do najwyższej grupy, tj. 20% pracowników o najwyższych dochodach. Sposób wprowadzenia empirycznej dystrybuanty skłania nas do wniosku, że kwan-

tyle g, badanego rozkładu, określone równaniem:

F(q,) = i zmierzone wielkości x;, powinny

i

El

łączyć się związkiem liniowym, jeśli poprawnie

odgadniemy postać dystrybuanty F. Własność ta jest wykorzystywana w tzw. wykresach kwantyli, zwanych także wykresami prawdopodobieństwa, które pozwalają dokonać

wstępnego sprawdzenia słuszności założeń o kształcie rozkładu. Przykłady zastosowania tych diagramów przedstawiamy w rozdziale omawiającym rozkład wykładniczy (przykład 5.3.4 oraz 5.3.7) 1 Gaussa (podrozdział 5.5.2), a także w przykładzie 7.3.1. Musimy

pamiętać, że wykresy takie są jednak tylko jakościowym narzędziem, choć nieocenionym w zagadnieniach z małą liczbą danych, gdyż jak wspomnieliśmy, dystrybuanta empiryczna podlega fłuktuacjom i tym lepiej oddaje rzeczywisty kształt rozkładu, im badana próbka jest liczniejsza. Z kolei, dysponując liczną próbą, możemy

uruchomić

regularne narzędzia analizy rozkładu, o których będziemy mówili w rozdziale 8. Wspomnimy także o pewnej interesującej własności, jaką ma kwantyl rzędu 0,5, czyli mediana, a której to własności pozbawiona jest wartość oczekiwana, a tym samym

1 średnia arytmetyczna. Otóż, jeśli interesuje nas pewna funkcja h(x) zmiennej losowej x o rozkładzie f(x), to wartość oczekiwana (h(x)) tej funkcji nie jest, w ogólności —

z wyjątkiem funkcji liniowej — funkcją h((x)) wartości oczekiwanej. Tak więc pierwszy

moment rozkładu charakteryzuje się brakiem zgodności pod względem operacji zamiany zmiennej. Spójrzmy na kwantyl x, dowolnego rzędu p. Określony jest on warunkiem p = F(x,), gdzie F jest dystrybuantą rozkładu f(x). Jeśli dokonamy zamiany zmiennej: x

y=h(x),

przy założeniu, że funkcja h jest ściśle monotoniczna, to Xp

h(xp)

p

p= J fQ)dx = J FaG)zydy = | s) dy, d

a więc kwantyl dowolnego rzędu zadany jest, po zamianie zmiennej, wartością funkcji przekształcającej h(x) do nowej zmiennej y. Dlatego też stosowanie mediany jako miary

centralności rozkładu, zamiast wartości oczekiwanej, jest w pewnym eleganckie pod względem matematycznym.

sensie bardziej

170

4. Momenty i statystyki pozycyjne z próby

Jest jeszcze drugi aspekt czyniący z mediany atrakcyjne narzędzie opisu własności zmiennej losowej. Otóż wartość oczekiwaną możemy zdefiniować jako taką liczbę a, która prowadzi do najmniejszej wartości wariancji obliczanej jako drugi moment rozkładu względem tej liczby:

E|x-a)”]=€[x'] — ać [x] +a*” =mina)

+

a=€fx].

Jeśli rozkład jest wysoce asymetryczny, wtedy jedno ze skrzydeł rozkładu ma istotny wpływ na jego środek ciężkości, który będzie silnie przesunięty w kierunku tego skrzydła. Już Laplace zaproponował, że lepsza w takim przypadku może być wielkość m,

która minimalizuje absolutne odchylenie, a nie jego kwadrat:

(x- mj) = J z-mfajd=| m-»)fodx+ | G-m/fG)dx = mintm) Wykonując różniczkowanie: d

OO

m

zzm K-m=

| rod

|

rodr=o. m

znajdujemy, że poszukiwana wielkość to mediana. Ponieważ mediana mierzy odstępstwa zmiennej losowej na skali liniowej, a nie kwadratowej, jak wartość oczekiwana, tym samym powinna ona być mniej czuła na asymetrię rozkładu. Jeśli wyobrazimy sobie wieś, w której mamy wielu biedaków i jednego bogacza, to mediana rozkładu zasobności mieszkańców wierniej będzie oddawać poziom ubóstwa ludności tej wsi, wskazując na jednego z biedaków, niż średnia arytmetyczna, która przesunięta będzie w stronę dochodów bogacza. Taką cechę estymatora nazywamy solidnością (ang. robustness) względem fluktuacji na krańcach rozkładu. Podobną własnością charakteryzują się także kwantyle rozkładu, w szczególności wspomniany w podrozdziale 3.6 odstęp międzykwartylowy

jako miara rozproszenia zmiennej losowej.

Rozkład g(x1, x, ... ,x„) statystyk pozycyjnych dla próbki prostej łatwo znajdziemy, jeśli tylko uświadomimy sobie, że stanowią one uporządkowany ciąg zmiennych losowych x, £< X £::: < x,, każda o tym samym rozkładzie f(x): 803,

X,

...

X)



n! f(x)

f 02)

.:

J (Xn);

X]




kn;,.

k=l

Pozostaje nam wypisanie wyrażenia na liczbę sposobów, na jaki możemy rozłożyć n, cząstek między g, stanów. Zadanie sprowadza się do określenia liczby sposobów wyboru krotności n,, spośród g, możliwości. Tę wielkość już znamy. Wynosi ona gi! ————-No! R!

.. np!

co daje natychmiast liczbę sposobów rozkładu n = n, +m+-::+n, między m stanów

Zadanie nasze sprowadza względem liczb n,

się do znalezienia maksimum m

In2

=

3 i=l

logarytmu tej wielkości

P

(s:



mn) k=l

=

cząstek

max(n;),

5,1. Elementy analizy kombinatorycznej

przy dodatkowych warunkach wiążących na degenerację, całkowitą liczbę cząstek i całkowitą energię: p

Ś: —

m

)

Nik»

n=

m

>

k=0

n, =

i=l

p

)

)

i=|l

k=l

m

knik,

E =

)

p

m

E,h; =

i=l

>

)

i=l

k=l

kE;nik.

Wyrażenie, które mamy maksymalizować, nie zależy do liczb n, cząstek, lecz od krotności n;;. Nie jest to utrudnienie matematyczne, gdyż prosta suma wielkości

n,. daje nam liczby n,, więc maksimum względem krotności da nam jednocześnie maksimum względem liczb cząstek. Ponieważ wielkości n,, nie są niezależne, zastosujemy metodę współczynników Lagrange'a, dodając do logarytmu prawdopodobieństwa termodynamicznego trzy dodatkowe człony wyrażające równania wię-

zów pomnożone przez nieznane liczby (mnożniki Lagrange a): 3

(

(>

i=l

m

)



Sin

k=l

0)

+

a

(>

k=l

+ B (>

YU ken

— e)

+Y

(>

k=l

i=l

I

i=l

Knyy



)

k=l

Nik — .)

= max(n;4, ©, B, Y).

k=0

Różniczkując powyższe wyrażenie względem n.,,, otrzymujemy, po wykorzystaniu wzoru Stirlinga (5.5), uwzgłędniającego jedynie wyraz wiodący w wykładniku, równania na nieznane krotności:

in Ś +ak+fBke,ty=0, Nik

a stąd ny = giexply + k(a + Be,)] = g,e explk(a + Be;)] = gie” x*, gdzie

x =exp(a + Pe,). Współczynnik y Lagrangea możemy wyeliminować przez powiązanie stopnia de-

generacji z sumą krotności, Pp

p

kz=Q)

k= 0

l

xP!

=) ,nx=ge ) x =gie (l+x+...+ x”) = gie —



>

e

A

co daje nam Nik = Si

lx

,

— qprl zpet

b)

po wykorzystaniu szkolnego wzoru na sumę szeregu geometrycznego ltxtx”

X

+...

+x

naa

_1=x"

=

l-x

1-x

—..l xP

189

190

5. Niektóre rozkłady

Liczbę n, cząstek w i-tym stanie uzyskamy, wykonując sumowanie

ź

nh, = 2*ra

s

(

l-x

= Sisi zp

2

l

p+ 1

"lep(e+fe)-1

expllP+1)(a+8e)]-1)

)

Występującą w tym wyrażeniu sumę znajdujemy następującą metodą: yw

=a)

ji =w)

dt

D_*

—= «z

(7). 1-—x

Nieznane wielkości © oraz 8 wyznaczane są z całkowitej liczby cząstek i cał-

kowitej energii układu. Pozostawimy Czytelnikowi wykazanie, że dla p = 1 odzyskujemy z tego wyrażenia rozkład Fermiego-Diraca, a dla p * 00 rozkład Bosego—Einsteina. Parastatystyki pozostają do chwili obecnej „zabawką” teoretyczną, gdyż nie odkryto w przyrodzie cząstek, które by im podlegały. n

Rys. 5.1. Cztery typy relacji kombinatorycznych

Podsumowanie czterech pojęć: wariacji i kombinacji w wersji z powtórzeniami i bez, podane jest na rys 5.1. Umieszczona jest na nim także, uzupełniająca naszą krzyżową klasyfikację, dotychczas niewyspecyfikowana możliwość określająca liczbę k-wyrazowych kombinacji z powtórzeniami ze zbioru n-elementowego:

(0%

)=(

n

0,

—Kk-1

)=

JJ

Gr

nik-1D!

Spotkaliśmy to pojęcie w przykładzie 5.1.5, gdy rozważaliśmy liczbę rozwiązań równania n; + na +*:: + ny =n dla nieujemnych i całkowitych liczb n;.

5.2, Rozkład dwu- i wiełomianowy —-

191

Przykład 5.1.6

Kombinacje z powtórzeniami Pojęcie kombinacji z powtórzeniami jest bardzo rzadko spotykane w fizyce, dłatego zilustrujemy je klasycznym zagadnieniem z kostkami do gry. Jeśli rzucamy

dwie różne, np. różnych kolorów, kostki, to liczba możliwych konfiguracji wyników określona jest przez iloczyn liczb konfiguracji każdej z kostek i zadaje 36 możliwości, przy czym układ: szóstka na kostce czerwonej i jedynka na kostce zielonej, to różny układ od układu: szóstka na kostce zielonej i jedynka na kostce czerwonej. Jeśli jednak kostki zechcemy potraktować jako identyczne, to oba układy są nierozróżnialne, a to oznacza jedynie

(30,) k-1

L (6, 6—1

_ (2) 5

ZY

różnych możliwości określonych przez następujące pary:

(1,1), 2, 1), G, 1), (4, 1), 6, 1), (6, 1), (2, 2), (3, 2), (4, 2), 6, 2), (6, 2), (3, 3), (4, 3), (5, 3), (6, 3), (4, 4), 5,4), (6, 4), (5, 5), (6, 5), (6, 6). Podobnie, rzucając pięć monet, otrzymamy sześć następujących układów: OOO0OQ, ROOOO, RROOO, RRROO, RRRRO, RRRRR. TI

—— 5.2. Rozkład dwu- i wielomianowy 5.2.1. Rozkład dwumianowy — wyprowadzenie Rozważmy następujący przykład. Stańmy przed lokalnym sklepem i notujmy płeć wchodzącej osoby. Mamy jedynie dwie możliwości: wchodząca osoba może być kobietą bądź mężczyzną. Autor zebrał próbkę 1000 takich przypadków, w której znalazły się 683 kobiety i 317 mężczyzn. Podzielmy teraz tę próbkę chronologicznie na kolejne dziesiątki,

będziemy mieli wtedy n = 100 podpróbek, a w każdej z nich liczba k kobiet może być a priori równa 0, 1,2,...,10. Znajdźmy następnie liczby ny określające liczby podpróbek, w których były właśnie takie liczby kobiet. Możemy teraz określić częstości pojawiania się k kobiet w dziesięcioosobowych grupach wchodzących do sklepu. Wykres tych częstości przedstawiony jest na rys. 5.2 w postaci szarego histogramu. Tak wykonane doświadczenie nie różni się w swej treści formalnej od doświadczalnego badania sposobów rozpadu jądra promieniotwórczego bizmutu, o którym wspomi-

namy w rozdziale 1. W jednym i w drugim przypadku dokonujemy serii niezależnych

192

5. Niektóre rozkłady

częstość

0,35 0,30

-

0,25

|-

0,20

|

0,15

+

0.10 0,05

-

0,00

L

i

0

1

e_1

2

e

3

4 5 6 liczba k kobiet

7

Rys. 5.2. Rozkład liczby kobiet w grupach dziesięcioosobowych w próbce 1000 osób

prób, oczekując w każdej z nich jednej z dwu możliwości: kobiety lub mężczyzny, lub, jak w przypadku rozpadu promieniotwórczego: przemiany a lub 8. Przyjmijmy na potrzeby dałszej dyskusji, że w każdym z takich dychotomicznych doświadczeń pierwsza możliwość reprezentuje sukces, a druga porażkę w danym losowaniu. Sukcesowi możemy przypisać umownie wartość jeden, a porażce wartość zero. W każdej z prób mamy pewne (w naszym przypadku nieznane, co nie zmienia istoty

rzeczy) prawdopodobieństwo p sukcesu i prawdopodobieństwo porażki q = Możemy podać zwarte wyrażenie na tak zadany rozkład prawdopodobieństwa:

PDD=pP'l-p)'*, zwany dwupunktowym

dla

1 — p.

k=Ql,

lub Bernoulliego, o momentach

€[k]l=p

oraz

Y[k] = p(l — p).

Jeśli w kolejnych losowaniach prawdopodobieństwo

p

nie ulega zmianie, to zarysowane postępowanie tak często

trafia się w życiu statystycznym, że zasłużyło sobie na spe-

cjalną nazwę: schemat Bernoulliego. Naszym zadaniem jest

określenie prawdopodobieństwa 5,(n, p) uzyskania k sukcesów w n próbach Bernoulliego, czyli próbach przeprowadzonych według tego schematu. Formalnie moglibyśmy to zrobić, tworząc sumę n zmiennych k,, każda z rozkładu Bernoulliego:

k=l+kh+:''-+kn .

Jacob Bernoulli,

1654-1705

(5.9)

i znaleźć rozkład prawdopodobieństwa zmiennej .

.

=

.

-

k. Postą.

pimy jednak bardziej poglądowo i zaczniemy od pytania o prawdopodobieństwo uzyskania, np. przy obserwacji ko-

5.2. Rozkład dwu- i wielomianowy

193

biet w grupach dziesięcioosobowych, następującej sekwencji osób wchodzących do sklepu: KKMKKMKMMK,czyli sześciu kobiet i czterech mężczyzn. Ponieważ wy-

nik każdej obserwacji osoby wchodzącej jest niezależny od wyniku innej obserwacji,

więc to prawdopodobieństwo musi być iloczynem prawdopodobieństw

sukcesów i po-

rażek w każdej z prób: pp(l — p)ppd — p)pl — pO — p)p = p*(l — p)* lub

ogólnie: p*(1 — p)”*. Jednak to co nas interesuje najczęściej, to nie prawdopodobień-

stwo specyficznej sekwencji rezultatów (czyli uporządkowanie, choć i to bywa czasami przedmiotem badań), lecz prawdopodobieństwo uzyskania po prostu k sukcesów, nie-

zależnie od kolejności, w jakiej się one pojawiają. Z, podrozdziału 5.1 znamy liczbę sposobów ustawienia liter K oraz M w ciągu o długości n tak, aby litera K wystąpiła dokładnie

k razy,

a litera M

dokładnie

n — k razy. Wiemy

również,

że na

mocy niezałeżności każdej z prób, każda sekwencja ma identyczne prawdopodobieństwo, co oznacza, że owe prawdopodobieństwa musimy zsumować, a otrzymamy rozkład

Bl, P) = grą pi U - P"*

(5.10)

zwany dwumianowym, prawdopodobieństwa uzyskania k sukcesów w n próbach przeprowadzonych wg schematu Bernoulliego, czyli wtedy, gdy poszczególne próby są niezależne, a prawdopodobieństwo sukcesu w każdej z prób jest stałe 1 wynosi p. Zauważmy, że parametry n i p są pewnymi zadanymi wielkościami, natomiast zmienną losową jest liczba k sukcesów. Rozkład ten, dla n = 20 i kilku wartości parametru p podany

jest na wykresie 5.3 za pomocą punktów (linia ciągła jest bez znaczenia, ma jedynie „poprowadzić oko” Czytelnika). 0,40

0,30

p=0,05

1

0,35 -

0,25

p=0,25

0,20 -

p=0,75

p=05

0,15 0,10 0,05 0,00

+

0

2

ę

4

©

4

6

©


0,05, zawężamy zakres możliwych wartości parametru p do przedziału od zera do Po = 3,0-107*. Jeśli jesteśmy ostrożni, powinniśmy się raczej zdecydować na u = 0,01, a może nawet na 0,001. Gdy gotowi jesteśmy zaryzykować, możemy zgodzić

197

5.2. Rozkład dwu- i wielomianowy

się naa = 0,10. Zauważmy jednak, że wielkość I —a określa prawdopodobieństwo P(k > l;n, p) znalezienia przynajmniej jednego przypadku:

l-a=P(k>l;n,p)=)

k=|

Bln,p) =1— Boln, p),

(5.11)

co pozwala przeprowadzić następujące rozumowanie: jeśli parametr p spełnia nie-

równość p > py = 3,0 -: 107%, to prawdopodobieństwo zaobserwowania jednego lub więcej przypadków jest wtedy większe od I — a = 0,95. Skoro jednak nie widzimy przypadków w ogóle, więc możemy wykluczyć tę właśnie wartość parametru, a także i większe wartości, czyniąc z liczby po = 3,0 : 107* dolną granicę (kres dolny) przedziału [po; I] wykluczonych przez eksperyment wartości parametru p. Wykluczanie to występuje jednak z pewną wiarygodnością, określoną właśnie liczbą 0,95. Wielkość I — x, mnożona często przez 100 i wyrażana w pro-

centach, zwana jest poziomem ufności.

Ah

t-a

=



3

B(n,p)

| I ! ! | I

|

ł

4

| |

ł

u I

Rys. 5.6. Ilustracja problemu wyklu-

czania na zadanym poziomie ufnoŚCi

-€ +



]

" "e 4

|

k

>

Wyniki naszego eksperymentu możemy podsumować w następujący sposób: brak obserwacji, spośród miliona przypadków, rozpadu leptonu i w kanale e e*e” wyklucza, na poziomie ufności 95%, wartość współczynnika rozgałęzienia większą niż 3,0 : 107”. Wypowiedzmy to zdanie jeszcze raz, wyjaśniając jego sens proba-

bilistyczny. Gdyby współczynnik rozgałęzienia był większy niż 3,0 - 107*, wtedy

w olbrzymiej liczbie eksperymentów — teoretycznie nieskończonej — każdy po

jednym milionie przypadków rozpadów leptonów, przynajmniej w 95% takich eksperymentów zaobserwowalibyśmy co najmniej jeden poszukiwany rozpad, a co

najwyżej 5% spośród nich nie napotkałoby żadnego rozpadu. W języku potocznym bardzo często mówimy w takich sytuacjach o stu eksperymentach, z których przynajmniej 95 zaobserwowałoby co najmniej jeden rozpad, a co najwyżej 5 nie znalazłoby żadnego. Jest to oczywiście skrót myślowy, jako że w stu eksperymentach, z uwagi na statystyczny charakter rozpadu, mogłaby pojawić się sytuacja, w której np. 94 widziałoby przynajmniej jeden rozpad, a 6 żadnego. Tak długo

jednak, jak przez liczbę 100 będziemy rozumieli przejście graniczne z klasycznej definicji prawdopodobieństwa,

taką interpretacyjną parafrazę będziemy

uznawali

za dopuszczalną. Czy wykluczając na poziomie ufności dziewięćdziesięciu pięciu procent wartości parametru p większe od pę = 3,0 -: 107” zaakceptowaliśmy na tym samym

198

5. Niektóre rozkłady

poziomie ufności wartości tego parametru mniejsze niż py? Oczywiście nie. JeŚli parametr p jest równy po, to zerową liczbę przypadków znajdziemy w pięciu procentach doświadczeń. Jeśli wielkość p jest mniejsza niż py, wtedy ułamek eks-

perymentów z zerową liczbą przypadków będzie większy niż 5%. Oznacza to, że

wykluczanie na poziomie 95% oznacza dopuszczanie możliwości, że p < pę na poziomie ufności nie mniejszym niż 5%. Dlatego czasami, w języku potocznym, mówimy o parametrze p, jako o górnej granicy (górnym kresie) dopuszczonych przez eksperyment wartości wielkości p.

r

Schemat Bernoulliego możemy także zastosować do innego zagadnienia. Otóż, wykonując kolejne próby, możemy zapytać o prawdopodobieństwo pierwszego sukcesu w pierwszej, drugiej, trzeciej, ... próbie. Jeśli przez S oznaczymy sukces, a przez P porażkę, to przestrzeń zdarzeń elementarnych dla tego zagadnienia składa się z następujących, rozłącznych zdarzeń: S$, PS, PPS, PPPS itd. Prawdopodobieństwo uzyskania sukcesu w k-tej próbie wynosi

Gl(p)=pd-p)*"!,

k=1,2,3,....

(5.12)

Łatwo sprawdzamy, że rozkład ten jest poprawnie unormowany. Nosi on nazwę rozkładu geometrycznego. Uogólnieniem tego rozkładu jest rozkład sumy zadanej liczby n składników, każdy z rozkładu geometrycznego. Opisuje on prawdopodobieństwo przeprowadzenia k prób, w trakcie których uzyskano zadaną liczbę n < k sukcesów, przy czym ostatnia próba zakończona jest sukcesem. Ponieważ prawdopodobieństwo n sukcesów dane jest przez p”, a prawdopodobieństwo k — n porażek to (1 — p)*"", więc

rozkład ten jest opisany wyrażeniem: ua,

p =(

n-l

jra

pr".

n=1,2,...,

k=nn+l,n+2,...,

(5.13)

gdzie czynnik kombinatoryczny wynika z rozmieszczenia n — 1 sukcesów pośród k — 1

prób (ostatnia próba zakończona jest sukcesem).

Rozkład ten

zwany jest w literaturze rozkładem ujemnym dwumianowym lub też rozkładem Pascala. Poprawność unormowania tego rozkładu wynika z rozwinięcia Taylora: —

(k-1

X (-1)7'

(1



p)

kn _.

—_

/m+n—-1

ry( „n

PD

nh

"d-q"

gdzie podstawiliśmy m = k—n,q

Blaise Pascal, 1623-1662

n-1 Je

m

L,

= l — p. Ujemny rozkład

dwumianowy występuje niekiedy w postaci (4„(n, p), zadającej liczbę m = k — n porażek przed wystąpieniem sukcesu o numerze n:

5.2. Rozkład dwu- i wielomianowy

in, p = (

n+m—l



n=l,2,...,

pra

199

ma p)”,

m=0,1,2,....

(5.14)

5.2.2. Momenty rozkładu dwumianowego i ich estymatory Najpierw znajdziemy wartość oczekiwaną:

a=pi""7 P k) = 2_kq k=0 —

k(1

on

=

n

ki

n!



Dia=pi = 2w= k=l —_

=)

=

__

"77

ga =i" U __

n=k

=P)

(m — 1):

DRIN"

=p

kr

ni



n=k __

k—1/1

07

e

(n

.

__

nk

p)

1)!

R=DIu=BI" „ln-1)-(k—1)

_

k—1g4

0

nk

P)

|

Jeśli w ostatniej sumie dokonamy zamiany zmiennej: m = k — 1, to nl

— |D!



ln—1,p) =np. = n- „i A - p)” »" =np)_B m=0

= "p > czyli ostatecznie

€ [k] = np.

(5.15)

By obliczyć wariancję zmiennej, znajdziemy najpierw (k*

|= > -_

=hn

IG gi?

kn

PH

k

- m$ m _

| —

U-P)

nk

k-1 (1 — p) -D-(k-1 DG D

(a — 1)!

k-DKu-D=k=D)" -|

(n — 1)!

| ma zD=mi

m

7

1



P)

p

(n—1)—m

n—l

= np ) | (m + 1)B„(n — 1. p) = np (m + 1) = np((n — 1)p + I). m=0

gdzie m =k — 1. Odejmując kwadrat wartości oczekiwanej, otrzymujemy

V[k] = npq = npl — p).

(5.16)

200

5. Niektóre rozkłady

Oba wyniki: (5.15) 1 (5.16), są dość oczywiste w świetle związków (3.16) i (3.9) i faktu, że rozkład dwumianowy opisuje rozkład sumy (5.9) n niezależnych statystycznie zmiennych losowych z rozkładu dwupunktowego.

Wynik dla wariancji zmiennej k podpowiada nam, że v B n

= —Y [kl = —npq - A n n n

(5.17)

Zajmiemy się teraz estymatorem p wielkości p, jeśli w wyniku eksperymentu powtórzonego n razy uzyskaliśmy k sukcesów. Spróbujmy: „ k p=— n

(5.18)

1 obliczmy wartość oczekiwaną tej wielkości: » k l l =(7)=;60=7mw=p Tym samym wielkość p jest nieobciążonym estymatorem parametru p. Poszukajmy także estymatora s; wariancji zmiennej losowej k, wyrażając go, na próbę, przez k

k

np(l-p)=n-|l--|=k n n A

A

n=k

n

l,

=k—=k. n

Biorąc wartość oczekiwaną tego wyrażenia, znajdujemy, iż l

l

(k) — — (k*) = np — "pln — 1)p + 1) = (n — 1)pq. Widzimy, że powinniśmy raczej wybrać wielkość 2 _

ko

n-l

np(l — p),

(5.19)

co da nieobciążony estymator. Podobnie dla estymatora s; wariancji wielkości p otrzymujemy

| s;2 = ——-p(l —D). Pn-l

Powróćmy

(5.20)

do naszych obserwacji liczby kobiet czyniących zakupy. Estymata p, dana

wyrażeniem (5.18), wartości prawdopodobieństwa p zaobserwowania kobiety jako osoby wchodzącej do sklepu, a także jej niepewność (5.20), możemy określić z danych doświadczalnych: p = 0,683 + 0,015. Wykorzystując tę wielkość, na wykresie 5.2 dorysowane zostały, w postaci kropek, wartości prawdopodobieństwa B,(10,

0,683). Oczywiście, po-

zostaje otwarty problem zgodności między obserwowanymi częstościami a obliczonymi prawdopodobieństwami, które, nawiasem mówiąc, są obarczone niepewnością, jako że do ich znalezienia wykorzystaliśmy estymatę p.

5.2. Rozkład dwu- i wiełomianowy

"--

Przykład 5.2.3 Wir wodny Dawno temu autor natknął się w jednym z czasopism na rewelacyjną informację. Pewien dziennikarz, relacjonując swój pobyt na półkuli południowej, twierdził, że

kierunek wiru, jaki powstaje w wannie przy spuszczaniu z niej wody po kąpieli

jest po tamtej stronie równika inny niż w naszej części Świata. Dziennikarz ten podawał nawet wytłumaczenie tego zjawiska, czyniąc zań odpowiedzialną siłę Coriolisa. Przygotowanie niniejszego wykładu stało się pretekstem do zweryfikowania

tej hipotezy, a Ściślej, sprawdzenia, czy istotnie spływająca woda preferuje pewien

kierunek obrotu. W wyniku eksperymentu powtórzonego 100 razy o różnych porach dnia i roku autor ustalił, że wytworzony wir w 43 przypadkach powodował obrót masy wody w kierunku zgodnym z kierunkiem ruchu wskazówek zegara,

a w pozostałych 57 przypadkach obrót miał kierunek przeciwny.

Znając wyrażenia (5.18) i (5.20) na estymatory, możemy pokusić się o weryfikację hipotezy o tym, że wir nie wykazuje uprzywilejowanego kierunku. Gdyby tak było, to wartość prawdopodobieństwa p sukcesu (obrót wiru w kierunku ruchu

wskazówek zegara) w pojedynczej próbie powinna wynosić 1/2, podczas gdy my,

podstawiając do wzorów na estymatory, obserwujemy: b = 0,43 + 0,05. natywnie, możemy powiedzieć, że winniśmy oczekiwać 50 wirów w jedną i 50 wirów w drugą, podczas gdy doświadczenie daje w wyniku: 43 + 5. wowane odchylenie liczby wirów od wartości oczekiwanej jest większe niż

Alterstronę Obsertypowa

fluktuacja. Nie oznacza to jeszcze, że mamy do czynienia z sytuacją, która definitywnie wskazuje na preferowany kierunek obrotu wody. Wniosek ten wynika

z następującego rozumowania. Przyjmijmy chwilowo słuszność hipotezy o braku preferencji, wtedy w próbce 100 pomiarów oczekujemy, że fluktuacje liczby wirów wokół wartości 50 będą wynosiły:

VM = ampl

= 10-5-(1-5)=25=5: 2

2

Jak często będą zdarzały się odchylenia o co najwyżej obserwowaną liczbę siedmiu wirów od wartości oczekiwanej? Czyli: jaka jest szansa na to, by liczba wirów była zawarta między 43 a 57? Szansa ta jest dana przez: 57

P(43

sf-zjs-2-I(x) x

1667-1754

otrzymujemy

(k — np)” 2npq

—————

=

Ń

(zachowując

l /2no

eX

?

wyrazy

najniższego

(k— n)” ) , 20?

—_0_|-

(5.26)

gdzie o? = npq oraz u = np. Jest to poszukiwana postać graniczna rozkładu dwumianowego dla dużej wartości liczby n prób, zwana rozkładem Gaussa. Fakt istnienia związku między tymi rozkładami określany jest mianem lokalnego twierdzenia de Moivre—Laplace'a. Porównanie formy granicznej i postaci Ścisłej zamieszczone jest na rys. 5.8, gdzie punkty odpowiadają rozkładowi dwumianowemu, a linia ciągła to rozkład Gaussa, który jak widać jest nieco przesunięty w prawo, przynajmniej dla mniejszych wartości liczby prób. Aby zniwelować ten efekt, stosuje się niekiedy zmodyfikowaną formę związku (5.26):

"DS

I

/Zmpą ? (

(k — (np — 3))

2npq

B,(n, p) £ —p1

—np Pa npa(l — a)

... **:

—NDP;-1P1

—NDpPj;-1P2

..

|

.

|

—np1P;-1 —npaPj-1

sa

np;_1(1

(5.34)

— Pi-1)

Ta ogólna postać

W... M, P1,---, Dj) FE

l

(8) "fa

1 exp (-; (k — (kj) V"' (k — Y

to postać wielowymiarowego rozkładu Gaussa.

—-- 8.3. Rozkład wykładniczy 5.3.1. Wyprowadzenie Autor, przystępując do pisania tego rozdziału, wykonał następujący eksperyment: zmierzył wielokrotnie czas oczekiwania na przejazd koło niego jakiegokolwiek samochodu na jednej z ulic Ursynowa. Rezultat tego pomiaru przedstawia unormowany do jedności histogram 5.10, będący eksperymentalną gęstością prawdopodobieństwa przejazdu samochodu w czasie kolejnych sekund, tzn. wysokość „słupka” umieszczonego na wybranym przedziale czasu, pomnożona przez odpowiadający mu przedział czasowy (w tym przypadku jedną sekundę) daje eksperymentalne prawdopodobieństwo przejazdu samochodu w trakcie tego przedziału czasu. Na przykład prawdopodobieństwo, że w czasie pierwszej sekundy przejedzie koło nas samochód, wynosi około 18%. Znaczenie dodatkowej linii ciągłej oraz formuły matematycznej wyjaśnimy w dalszej części rozważań.

Ze swej konstrukcji suma wysokości „słupków” histogramu pomnożonych przez związany z każdym z nich przedział czasowy daje jedność. Powinniśmy zwrócić uwagę na

to, że czas jest zmienną ciągłą, my — przez grupowanie danych — opisujemy zjawisko w zmiennej o charakterze dyskretnym. Ta „dyskretyzacja” pozwoli nam, wykorzystując dotychczasowe informacje, zbudować model znalezionej zależności. | Z, podrozdziału 5.2 wiemy, że prawdopodobieństwo B;(n, p) zanotowania k sukcesów w n próbach, jeśli prawdopodobieństwo odnotowania sukcesu w pojedynczej próbie

wynosi p, dane jest rozkładem dwumianowym (5.10). Zadajmy teraz pytanie o prawdo-

podobieństwo Q, = Bę(n, p) braku sukcesu we wszystkich kolejnych n próbach (czeka-

nie to właśnie uporczywy brak sukcesu). Warunkiem takiego zdarzenia jest brak sukcesu w każdej z kolejnych prób, a prawdopodobieństwo takiego zdarzenia, na mocy własności rozkładu dwumianowego, to Q, = (1 — p)”. Ponieważ będziemy chcieli przejść do rozkładu ciągłego, pojedynczy czas t oczekiwania na przejazd samochodu, konstytuujący jeden przypadek na naszym histogramie, podzielimy na n równych przedziałów o długości Aż, przy czym liczba n jest bardzo duża, a w ostatecznym wyrażeniu przejdziemy

z jej wartością do nieskończoności. Ważne jest uświadomienie sobie, że przedział At

gęstość [1/s]

5,3. Rozkład wykładniczy

0,20 0,18 ks. 0,16 0,14 0,12 0,10 0,08 0,06 0,04

y= 0,193 exp(-0,1931)

0,02 ż

0,00

0

217

1

e

BE

5

10

15 20 czas oczekiwania [s]

25

30

Rys. 5.10. Rozkład czasu oczekiwania na przejazd samochodu na ulicy

nie ma żadnego związku z przedziałami histogramowania. Powinniśmy raczej sobie wyobrazić, że stajemy przy ulicy, włączamy stoper i czekamy na pierwszy nadjeżdżający

samochód i ten czas oczekiwania — choćby nawet był bardzo krótki — dzielimy w myśli na bardzo dużą liczbę bardzo małych odcinków czasowych Aż, a oczekiwanie w każ-

dym takim odcinku to właśnie jedna próba ze schematu Bernoulliego. W każdej z takich

prób mamy pewne prawdopodobieństwo p przejazdu samochodu. Jeśli przyjmiemy, że wielkość ta jest stała w każdej z prób, to rezultat przejścia granicznego n — oo nie

będzie imponujący — otrzymujemy po prostu zero

Q,=(1-p)'



Nn—>OO

0,

o ile wielkość p nie jest równa zeru, co jawnie stoi w sprzeczności z danymi doświadczalnymi. Dlatego też wielkość p musimy uzależnić od przedziału czasowego, w którym

w danej chwili się znajdujemy, czekając na samochód. Najprostszej możliwości dostarcza model, w którym wielkość p nie zależy od numeru przedziału, choć jest ona proporcjonalna do wielkości tego przedziału: p x At, co też zapisujemy jako At p=AAt=—, (5.35) n gdzie wielkość A, zwana często intensywnością, jest już prawdziwie stałą liczbą o wymiarze odwrotności czasu. Jej interpretację znajdujemy z (5.35) i wartości oczekiwanej

(5.15) rozkładu dwumianowego:

|

WH

niani

n

n

z4= e

(5.36)

Widzimy, że wielkość ta określa typową liczbę zdarzeń na jednostkę czasu. Podstawiając (5.35) do wyrażenia na prawdopodobieństwo braku sukcesu, otrzymujemy Q, = (

— =



Nn—>0O

Q(t; A) =exp(-At).

218

5. Niektóre rozkłady

Teraz możemy już znaleźć dystrybuantę (2.19), czyli prawdopodobieństwo P(0 < t < t; A) = F(t; A) sukcesu w przedziale czasu od zera do t, jako uzupełnienie porażki: Ft;A)=1—

a po

zróżniczkowaniu,

w chwili £:

dF(t:A E(t; A) = a

funkcję

QQG;A) =1 — exp(—At),

gęstości

prawdopodobieństwa

= Aexp(=At)

dla

)00

k )

de". ©

Wyprowadzenie to uzasadnia inną, bardzo udatną, nazwę rozkładu geometrycznego: rozkład dyskretnych czasów oczekiwania. ——

Przykład 5.3.2 Obszar wykluczania

Rozważmy eksperyment poszukujący rozpadu nukłeonu. Wyobraźmy sobie wypełniony wodą pojemnik o rozmiarach 10 m x 10 m x 10 m, a więc zawierający

1000 ton wody, czyli około n = 6 - 10? nukleonów. Ciągła obserwacja tej objętości

wody przez jeden rok jest równoważna (patrz niżej) obserwowaniu pojedynczego

nukleonu przez T = 6 - 10% lat. Podobnie jak w przykładzie 5.2.2, możemy

tutaj zapytać o długość czasu £ obserwacji, aby przy zadanym oczekiwanym czasie życia r nukleonu prawdopodobieństwo P(t < t; T) zaobserwowania rozpadu przynajmniej jednego nukleonu wynosiło przynajmniej B:

P(ft

—zln(l

— 8).

> B,

220

5. Niektóre rozkłady

Przyjmijmy na t>3-107 lat, poradzić, gdyż Przyjmijmy

przykład 8 = 0,95 oraz r = 10? lat, wtedy czas oczekiwania co wydaje się wielkością, z jaką nasz detektor może sobie jeszcze wymaga to tylko pół roku jego ciągłej pracy. teraz, że w wyniku obserwacji przez czas t = lrok nie udało

się nam znaleźć ani jednego przypadku rozpadu nukleonu. Prawdopodobieństwo

p =P(t £t;T) rozpadu pojedynczego nukleonu w czasie jednego roku dane jest

związkiem

£

p=l

-ap(-2).

T

Z. rozkładu dwumianowego wiemy, iż prawdopodobieństwo a, że żaden z n nukleonów nie ulegnie rozpadowi, to a = Bn, p) = (l — p)” = exp (-7)

= exp (-7)

.

Tu widzimy, dłaczego jednoczesna obserwacja n nukleonów przez czas £ jest rów-

noważna obserwacji jednego nukleonu przez czas T = nt — powrócimy jeszcze do tego zagadnienia w podrozdziale 5.3.3. Gdyby parametr t był istotnie mniejszy

od wartości 7, to prawdopodobieństwo a byłoby bardzo małe, np. dla r = 0,017

otrzymujemy a = 4.107* i byłoby zdumiewające, że nie zaobserwowaliśmy żad-

nego rozpadu, skoro jego prawdopodobieństwo wynosiło 1 — 4. 107%. Oznacza to, że tego typu wartości parametru r, jak również mniejsze, możemy odrzucić. Czy

możemy odrzucić np. wartość r = T? Dla niej prawdopodobieństwo a wynosi około 0,37, a więc gdyby wartość parametru z była porównywalna z czasem obserwacji T', to typowo w co trzecim eksperymencie nie obserwowalibyśmy żadnego rozpadu i powinniśmy się liczyć z tym, że nasz eksperyment jest tym „trzecim”. Jaką wartość « powinniśmy w takim razie wybrać? To zależy od tego, jak często gotowi jesteśmy zaakceptować możliwość, że zostaniemy zlekceważeni przez los.

Jeśli za graniczną wartość w przyjmiemy 0,05 (patrz rys. 5.11), to dla para-

metru T otrzymamy wartość ry = 0,3357 = 2. 10? lat. Jednocześnie, ponieważ 1 r

©

Ol

NN

SN 5

0,05

Nu

Ho

RR



Ó

001 p——--——— z 0,001 -----

0,0001

I

010

ł

015

1

0,20

|

i

|

!

i

"

|

||

!

|

|

|

I

I

|

10,145

|

| 0,22 0,25

i

|

| 0,33

! 0,43

ł

I

030

1

0,35

|

1

0,40

0,45

parametr T/7

Rys. 5.11. Prawdopodobieństwo braku rozpadu nukleonu jako funkcja r/T

|

0,50

5.3. Rozkład wykładniczy

221

| — a to prawdopodobieństwo rozpadu nukleonu T

l

l-a=P(O)

42

A

—= dx

n(n + 1)

= ————.,

0» A

n

w zgodzie z momentami dla zmiennej z rozkładu wykładniczego, czyli dla n = 1,

jak również faktem, że wartość oczekiwana sumy (5.41) niezależnych zmiennych losowych jest sumą wartości oczekiwanych, a wariancja — sumą wariancji tych

zmiennych (patrz (3.9)). Wynik ten pokazuje, że im większa jest wartość współ-

czynnika przeliczania n, tym mamy wania na n-te zdarzenie:

DE]

mniejsze fluktuacje względne czasu oczeki-

|na_

Et] Wan

4Jn

Powyższy rezultat stanowi podstawę wykorzystywania tzw. rejestrów przesuwnych (ang. pipe line) do buforowania informacji o nadchodzących zdarzeniach w ją-

drowych i cząstkowych eksperymentach z zastosowaniem technik elektronicznych odczytu i gromadzenia danych. W takich eksperymentach zdarzenia, na których

rejestrację nastawiony jest detektor, pojawiają się (zazwyczaj) zgodnie z rozkła-

dem wykładniczym £(t; r) z pewnym typowym odstępem czasowym T = A”!. Jeśli czas potrzebny na analizę jednego przypadku, w celu podjęcia decyzji o jego zapisie lub odrzuceniu, wynosi T, to faktycznie czas ten jest okresem martwym

w pracy eksperymentu, jako że jeśli nawet detektor przyjmie nowy przypadek,

towarzyszące detektorowi procesory nie są w stanie go przeanalizować. Jeśli czas T jest znacznie krótszy od czasu r, to praktyczne straty przypadków są zaniedbywalne, natomiast jeśli oba czasy są porównywalne, to eksperyment zacznie gubić istotną część interesujących przypadków. I tak, jeśli T = t/2,

wtedy prawdopodobieństwo pojawienia się przynajmniej jednego nowego zdarze-

nia, w czasie kiedy procesory analizują poprzednie, wynosi r/2

l

P (: < >) = - | 2

T

0

t

(-:)

T

df=l-e"'=0,39,

co oznacza stratę ponad 1/3 statystyki (słowo statystyka tu użyte, to klasyczny eksperymentalny żargon; oznacza ono dokładnie tyle co próbka, dane). Wystarczy

jednak, abyśmy wprowadzili dodatkową pamięć (bufor) przechowującą informację o kolejnych n zdarzeniach, z której to pamięci procesory pobierają przypadki na

zasadzie: pierwszy wchodzi, pierwszy wychodzi (FIFO — first in, first out), a wtedy w najgorszym razie stracimy wszystkie, z wyjątkiem pierwszych n, jeśli pojawią się

227

ZŁO

5. Niektóre rozkłady

one w czasie T krótszym niż nr/2. Szansa takiego zdarzenia dana jest następującą

całką (| = x):

nt/2

ne/2

| €,„(t; T) dt = l

TJ

0

GD

n/2

nl

el dź -|

n-N!

0

A

nl

e "dt.

(n — 1)!

0

Jeśli za „głębokość” rejestru FIFO przyjmiemy wartości: n = 2,4, 8 oraz 16, to szansa utraty tych przypadków przyjmie wartości: 0,26, 0,14, 0,05 oraz 0,008.

Rejestr FIFO łagodzi fluktuacje w czasach pojawiania się kolejnych przypadków,

przekazując je do dalszej analizy w bardziej wyrównanym rytmie.

Zwróćmy uwagę na to, że jeśli czas T analizy pojedynczego przypadku jest równy czasowi t lub od niego dłuższy, to rejestr taki, bez względu na swoją głę-

bokość, nie jest w stanie nam pomóc. Musimy poszukiwać szybszych algorytmów

analizy danych lub dane te poddawać równoległemu przetwarzaniu (patrz przy-

kład 5.4.2). Kształt rozkładu czasów oczekiwania na n zdarzeń: ć,

(u)

=

m

(nu)""

— Dio

_

,

d gdzie

i

u

=

t

Ste]

——

Z

At >

—,

podany jest na rys. 5.13 dla wartości parametru n = 1, 2,4, 6,8, 10. 1,4

r

1,2 1,0 0,8 0,6

0,4 0,2 0,0

0,0

0,8

1,0

1,2

1,4

1,6

18

20

znormalizowany czas u

Rys. 5.13. Rozkład Erlanga jako funkcja u = t/€ [t]

Rozkład ten również ma tę własność, że dla dużych wartości współczynnika

przeliczania n przechodzi w rozkład Gaussa. Pokażemy to, wprowadzając zmienną standaryzowaną Ee a £ —

dla której rozkład przyjmuje postać

DŁ]

t—n

yn"

/n(zy/n+n)

6,(X) =

(n — 1)!

exp (-x/n — n).

5.3. Rozkład wykładniczy

229

Wykorzystując wzór Stirlinga (5.5) dla funkcji silnia

E,(x) ©

1

/n(xy/n+ ny

/2n

(n— 1)" żer!

e(—x

n—n),

a następnie wciągając wszystkie czynniki, z wyjątkiem pierwiastka z 2n, do funkcji wykładniczej l

6,(x) £

ezp( — VB +

zlnn + (

(eee)

/2n

Lh

l

— 1)ln(x/n +n)

l

a dalej porządkując i upraszczając, otrzymujemy

E,(x) %

o

2x

ex

(-=

+m-Dmfr+

s - (n-)m(1- 2)

2

n

x —)-1).

Dokonujemy teraz rozwinięcia obu logarytmów

co, po podstawieniu, uporządkowaniu i odrzuceniu wyrazów rzędu n"' i mniejszych, a więc w warunkach asymptotycznych, daje standaryzowany rozkład Gaussa 2

€„(x)

—>

Ntaiu=0,0=D=—=ap(-5).

Wykorzystajmy rozkład Erlanga do znalezienia oceny intensywności A. Konwen-

cjonalnie problem taki rozwiązujemy

w ten sposób, że przez zadany przedział czasu

mierzymy liczbę zdarzeń. Tak znaleziona liczba zdarzeń jest zmienną losową. Nie jesteśmy jeszcze przygotowani teoretycznie do rozpatrzenia tego problemu z punktu widzenia statystyki matematycznej, gdyż wymaga on zrozumienia rozkładu Poissona, który

jest przedmiotem następnego rozdziału. Możemy jednak wyobrazić sobie eksperyment, w pewnym sensie, odwrotny: zadajemy liczbę n zdarzeń i czekamy tak długo, aż ta liczba

zdarzeń się pojawi, a wtedy natychmiast przerywamy pomiar. W tak postawionym problemie zmienną losową jest czas t pomiaru. Na nieobciążony estymator intensywności

230

5. Niektóre rozkłady

możemy zaproponować wielkość

2 nl A= — |

(5.43)

która, jak to łatwo sprawdzić, istotnie spełnia swoją rolę: 00

of]

(2) =A(n

20 — l)! e "dt=A t(n

x

(n — 2)!

0

e*”dx=A

|

gdzie podstawiliśmy x = At. Zajmiemy się teraz wariancją tego estymatora:

,

1

e[-]=2n- 12 | 52 0

Qr1 )

t2 (n — 1)!

eH dr = 22

-1

n-2

skąd

v[s] = a

n=2

Żel

n-2

y2

Proste obliczenia wskazują, że nieobciążonym estymatorem tej wariancji jest wielkość a

Ta

ba ==

l

n-l

_

i.

Zastanówmy się nad kwestią estymacji parametru r rozkładu wykładniczego. Łatwo sprawdzamy, że średnia arytmetyczna t = 7 jest nieobciążonym estymatorem:

B-(,

Ż: -

2,60=„0r=r

Wariancja estymatora parametru r wynosi

-



l





-v|2|-9|2s|-z7ym=



22

!

=-T.

o ile próbka jest prosta i widzimy tu, ponadto, bezpośrednią realizację relacji (4.6). Wynik ten podpowiada nam, że estymatora s; wariancji V [7] powinniśmy szukać w postaci proporcjonalnej do kwadratu Średniej. Aby ułatwić sobie to zadanie, wróćmy do przykładu 5.3.6, w którym pokazaliśmy, że kwadrat sumy (5.41) ma wartość oczekiwaną € [t'| = n(n + DT”, a tym samym

e|e]="—r,

skąd łatwo odgadujemy postać nieobciążonego estymatora wariancji

5.3. Rozkład wykładniczy

Widzimy, że wyrażenia na nieobciążone estymatory parametrów

231

Tt oraz A, a także ich

_wariancje, nie są identyczne (po dokonaniu odpowiednich podstawień), choć występuje między nimi duży stopień „pokrewieństwa. Czytelnik powinien odebrać to jako ostrzeżenie przed przyjmowaniem za oczywisty fakt, że momenty funkcji estymatora są równe

funkcjom momentów: jeśli 8 jest estymatorem parametru 0 rozkładu, a © =h(0) funkcją tego estymatora, to w ogólności: © + h(0) oraz na pewno Só z h(s;). 5.3.3. „Brak pamięci” W podrozdziale 5.3.1 pokazaliśmy, że prawdopodobieństwo przeżycia jądra promieniotwórczego przez czas t* dane jest wyrażeniem

Q() = exp(—At'). Zapytajmy o prawdopodobieństwo obserwacji, w której jądro promieniotwórcze przeżyje dodatkowo czas t, jeśli już „zdołało” przeżyć czas t'. Jest to pytanie o prawdopodobieństwo warunkowe (2.15):

Q(t|t) =

Q(, t)

Qt)

Licznik ułamka to prawdopodobieństwo przeżycia czasu łącznego t' +- t, które w tym przypadku jest równe prawdopodobieństwu

Q(t' + t), co w efekcie daje nam

O(n) = SO = SBexp(—Af') (r)

= exp(-At) =| Q(0).

Wynik jest absolutnie niezależny od czasu £'! Mówimy, że rozkład wykładniczy charak-

teryzuje się niezależnością od obecnego wieku — pozostały czas życia nie zależy od przeszłości i ma ten sam rozkład co całkowita długość życia. Można wykazać, że ten brak starzenia się, dający się faktycznie ująć wzorem

Q(t+t)=Q60)OU), jest cechą tylko i wyłącznie rozkładu wykładniczego i funkcji tożsamościowo równej

zeru lub jedności (faktu tego dowodzi się przez różniczkowanie powyższego związku

względem t', aby następnie położyć w nim tę wielkość równą zeru — w wyniku otrzymujemy proste równanie różniczkowe). Dopiero w świetle powyższej cechy rozkładu wykładniczego można w pełni zrozumieć opinię wyrażoną w przykładzie 5.3.2 o równoważności ciągłej, rocznej obserwacji

liczby 6 - 103? nukleonów i obserwacji pojedynczego nukleonu przez 6 - 10 lat. Istotnie, jeśli wielkość t oznacza okres obserwacji n nukleonów, to prawdopodobieństwo braku rozpadu pojedynczego nukleonu zadane jest wielkością Q(t) = exp(—At). Prawdopodobieństwo przeżycia czasu t przez wszystkie nukleony, na mocy niezależności statystycznej między rozpadami różnych nukleonów, dane jest iloczynem n czynników: O(t)O() ::: O(t). Z kolei to wyrażenie, na mocy własności braku zależności przyszło-

ści od historii, wynosi

Q(nt) = exp(—Ant) i wyraża prawdopodobieństwo przeżycia

jednego nukleonu przez czas nt.

232

5. Niektóre rozkłady

Ta własność „braku pamięci” zawarta w rozkładzie wykładniczym sprawia, że jest,

mimo prostoty matematycznej formy, trudny do intelektualnego przyswojenia, gdyż jest

to obce naszemu doświadczeniu życiowemu: ludzie umierają z reguły, osiągnąwszy pewien wiek, a nie w losowych momentach swojego życia. Podobnie jest z różnego rodzaju urządzeniami, które na co dzień wykorzystujemy, jak np. samochód: nowy raczej jeździ,

a zaczyna się psuć dopiero po paru latach. ——

Przykład 5.3.7 Przeżywanie i rozkład Weibulla W tabeli 5.1 (za: Trwanie życia i umieralność wg przyczyn w 1997 r, GUS, Warszawa 1998) przedstawiona jest przewidywana liczba osób, jaka pozostanie

z początkowej liczby 100000 osób urodzonych w 1997 r., po zadanej liczbie lat. Zbadajmy, czy i jakie odstępstwa od wykładniczego charakteru występują w tych danych. Model rozkładu wykładniczego podpowiada nam, że z początkowej liczby N4 osób liczba N(t) = Nyexp(—At)

osób dożyje wieku £. Nie znamy parametru A w tym wyrażeniu, ale jeśli je zloga-

rytmujemy, to otrzymamy zależność liniową logarytmu liczby osób, które dożyły wieku t, od tego wieku In N(t) = In N, — At. Tabela 5.1. Przewidywana śmiertelność osób urodzonych w 1997 r.

0

100000

100000

55

82377

92878

5

98741

98932

60

75045

89755

10

98624

98835

65

65373

85099

15

98492

98755

70

53498

77808

20

98056

98597

75

40045

66611

25

97391

98435

80

26082

50579

30

96621

98235

85

13558

31092

35

95601

97948

90

5243

13665

40

94012

97432

95

1295

3522

45

91498

96542

100

168

403

50

87731

95078

5.3. Rozkład wykładniczy

Wykres 5.14, na którym oś rzędnych przedstawiona jest w skali logarytmicznej, prezentuje relację, jaka występuje w danych. Wynika z niego absolutnie wyraźnie, że do ludzkiego życia nie stosuje się prawo wykładniczego zaniku. Przez bardzo długi okres czasu — do wieku około pięćdziesięciu lat — zależność wydaje się stała, tak jakby współczynnik A był równy zeru. Zmiany pojawiają się dopiero po tym wieku i są bardzo gwałtowne, zanik jest bez wątpienia silniejszy niż liniowy. 100 000

+

©

o

©

©

0

o

0.0

©

o

©

9

o

o

10000 |

e

1000 | 100

« mężczyźni o kobiety

,

|-

10 r l

0

l

_L

10

20

l

l

l

l

l

l

l

30

40

50

60

70

80

90

100

wiek

Rys. 5.14. Wykres przeżywalności — liczba osób dożywających danego wieku

Czy moglibyśmy wymodelować takie zachowanie wykresu przeżywalności?

Przypomnijmy — rozkład wykładniczy uzyskaliśmy przy założeniu, że prawdopodobieństwo p sukcesu w pojedynczej próbie Bernoulliego przyjęliśmy jako proporcjonalne do czasu Az trwania tej próby 1 niezależne od numeru próby. Złagodzimy

teraz to ostatnie wymaganie i przyjmiemy, że prawdopodobieństwo p, w i-tej próbie wynosi

p; = A,AŁ,

antycypując, że wielkości A, ulegają zwiększeniu

(czas

życia skróceniu) w wyniku wyczerpywania się potencjału życiowego („zużywania się”) organizmu. Prawdopodobieństwo

tym razem przez

Q, braku sukcesu w n próbach zadane jest n

Q,=d-p)A-p)---A-p)=|[Q- 243). i=l

Naszym zadaniem jest znalezienie granicy tego wyrażenia, gdy liczba n prób dąży do nieskończoności, a jednocześnie przedział Aż do zera. Obliczmy w tym celu logarytm obu stron InQ,=

S7in(l — A,At) = — DU AAŁ i=l

i=l t



n—>oo,At>0

Usuwając logarytm

z J X(t)dt =—A(t) = InQ(t). 0

Q(t) = exp(-A(t))

233

234

5. Niektóre rozkłady

i przechodząc do dystrybuanty

FG) = 1 — exp(-A(1)), znajdujemy yP poszukiwaną, modelową funkcję rozkładu d

Jl) = q” © = At) exp(—A(1)), gdzie

d A(t)(6) ==—A(1). 40)

W szczególności, jeśli funkcja A(t) nie zależy od czasu, odzysku-

Wallodi Weibull, 1887-1979

jemy rozkład wykładniczy, natomiast dla zależności A(t)

x t*

otrzymujemy tzw. rozkład Weibulla (W. Weibull, A Statistical Distribution Function of Wide Applicability, Journal of Applied Mechanics, 1951). W następnym kroku powinniśmy poszukać ta-

kiej postaci funkcji A(t) (łub też A(t)), która w miarę wiernie odtwarzałaby dane. Uzyskany analityczny opis ucieszyłby, bez wątpienia, wszystkie firmy ubezpieczeniowe, które zajmują się wystawianiem polis na życie.

Rozkład Weibulla, definiowany dwuparametrycznym wyrażeniem

o dystrybuancie

goia0=$ (2) as(-(2)) FQ2) =l—=exp (- (>))

>

znajduje powszechne zastosowanie w szeroko pojętych zagadnieniach niezawodności. Szansa Q(x), że układ nie zawiedzie, mimo że wartość zmiennej losowej x opisującej pewną własność układu przekroczy wartość x, wynosi

Q(x) = 1— F(x) = exp (- (=) ) x

a

Obliczając podwójny logarytm In (— n(O(x))) =alnx

—alno,

widzimy, że na wykresie zależności In(— In(Q(x))) od Inx powinniśmy otrzymać linię prostą. Sposób ten można wykorzystać, jeśli dysponujemy sporą liczbą danych,

na tyle dużą, abyśmy mogli utworzyć ich histogram. Jeśli danych mamy mniej, możemy posłużyć się wykresem kwantyli. W tym celu wystarczy, że dopełniające

prawdopodobieństwo Q(x;) odpowiadające punktowi pomiarowemu x, zastąpimy przez 1 — i/(n + 1), a otrzymamy In (-1

(-

| )) n+1

=alnx,

—alno,

5.3. Rozkład wykładniczy

235

a tym samym zestaw par punktów (In(— In(1 —1/(n+1))), In x;) powinien układać

się wzdłuż linii prostej. Wykres 5.15 to właśnie wykres kwantyli dla trzydziestu próbek krzemowych

jako

funkcja

tów

(dane

logarytmu

naprężenia

x,

megapaskalach),

(w

przy

którym

nastę-

puje pęknięcie próbki. Widzimy, że układ punktów dość dobrze podąża wzdłuż odręcznie naniesionej linii prostej, być może z wyjątkiem pierwszych paru punkza:

S.

F.

Duffy

i E.

H.

Weibull

Baker,

Estimation,

Parameter

http: //www.crtechnologies.com/EngDiv/mechanics/ weibull/ theory /theory.html).

Możemy nawet z wykresu oszacować wartości nieznanych parametrów a oraz o.

logarytm naprężenia [MPa]

Rys. 5.15. Wykres kwantyli rozkładu Weibulla dla próbek krzemowych poddanych naprę-

żeniom

|

TI

5.3.4. Szeregi promieniotwórcze Rozważmy równoległe rozgałęzienie w szeregu promieniotwórczym: AI

— J >

A2

+, Ak



Ji, >

Ja, Jk

w którym jądro J może się rozpaść, z intensywnością A,;, na jedno z jąder J;. Musimy określić dla takiej sytuacji prawdopodobieństwo sukcesu w pojedynczej próbie schematu Bernoulliego. Ponieważ dla każdego jądra J mamy k + 1 możliwości: może się ono rozpaść na jedno z jąder J,, ale także może pozostać w stanie początkowym, więc naturalnym schematem probabilistycznym będzie rozkład wielomianowy (5.27) określony

236

5. Niektóre rozkłady

przez układ parametrów pg, py, P2,..., py takich, że ,

SLEJ

gdzie

Pi

=

hi

t

I=|1,2,...,k,

a parametr po opisuje prawdopodobieństwo braku rozpadu jądra J w pojedynczym, ele-

mentarnym akcie obserwacji. Z, własności (5.28) rozkładu wielomianowego (jego rozkłady brzegowe określone są rozkładem wielomianowym ze zmniejszoną liczbą zmiennych losowych) wiemy, że prawdopodobieństwo braku rozpadu opisane jest rozkładem dwumianowym z parametrem

k £ P=l-),p=1l--) i=1

k

=

k

£

l

mA,

gdzie

i=l

A= i

=]

Aj.

Wcześniejsze wyniki niniejszego rozdziału natychmiast prowadzą nas do wniosku, że

prawdopodobieństwo braku rozpadu w przedziale czasu [0; £] dane jest wyrażeniem

Q() = exp(—At). Oznacza to, że jeśli za No przyjmiemy liczbę jąder typu J w chwili t = 0, to po czasie

t zostanie ich

N(t) = Noexp(—At). Te, które się rozpadły, a liczba ich wynosi No — Noexp(—At)

= No (1 — exp(—At)),

przeobrażą się w jądra J; z prawdopodobieństwami danymi przez stosunki Pi

Aj

k

A;

——

A

k

2,Pi

Dh:

i=l

i=l

intensywności przejść do danego kanału i całkowitej intensywności, co daje liczby N,

jąder J;

A;

N, (1) = No (l — exp(—A1)). Zauważmy, że liczby N, jąder spełniają następujące równania różniczkowe:

dN;

gp = MN.

dła

i=12....,k,

|

gdzie

N() = No— 2 - NiC).

Należy zwrócić uwagę na jedną zasadzkę, jaka czyha na każdego, kto pierwszy raz spotyka się z tego typu problemem. Otóż w pierwszym odruchu chciałoby się powiedzieć, że prawdopodobieństwo przejścia J — J; określone jest przez intensywność A; I — exp(—A;t).

5.3. Rozkład wykładniczy

237

Gdyby to była prawda, to w żaden sposób nie moglibyśmy odtworzyć liczby jąder J,

które zniknęły, z liczb jąder J;: k

k

i=l

i=l

> Nil) =No)

(l — exp(-A,t)) £ No (1 — exp(—Ar)).

Oznaczałoby to ponadto, że jądro atomowe ma wiele czasów życia i czas ten zależy od

tego, do jakiego kanału się ono rozpadnie. Nie jest to prawda. Czas życia T = A""! jądra atomowego lub cząstki elementarnej możemy wyznaczyć z danych odnoszących się do

dowolnego, wybranego kanału rozpadu i nie potrzebujemy do tego znajomości stosunku rozgałęzień bądź intensywności A,. Wielkość ta będzie decydowała jedynie o tym, jaki ułamek wszystkich rozpadów trafi do naszej analizy. Można, dokonując pewnej personifikacji, powiedzieć, że jądro atomowe najpierw w ogóle decyduje się na rozpad, co mu

zabiera typowo czas T, a dopiero potem, w ostatniej chwili, podejmuje decyzję o tym, na co ma się rozpaść, przy czym każdą z ewentualności waży prawdopodobieństwem

A,/A. Wracając do przykładu z przejeżdżającymi samochodami z początku niniejszego rozdziału, sytuacja wygląda tak, że najpierw rejestrujemy fakt przejazdu koło nas samochodu, a dopiero później klasyfikujemy go jako osobowy, autobus, bądź karawan

pogrzebowy.

——

Przykład 5.3.8 Rozkład dróg oddziaływania Analogiczne rozważania odnoszą się do zjawiska rozproszenia cząstki podróżującej przez ośrodek. Tutaj, zamiast czasu życia Tr, mamy drogę swobodną A

A=—, on

zadaną przez całkowity przekrój czynny o na jakiekolwiek oddziaływanie w ośrodku o liczbie n centrów rozpraszających na jednostkę objętości. W wyniku rozpraszania cząstki ubywają z wiązki i po przebyciu drogi x pozostaje ich typowo

NG) = Noexp(->),

natomiast liczba cząstek rozpraszających się na i-ty sposób określona jest przez x

Ni(a) = No (l- exp(->)).

gdzie o, to cząstkowy przekrój czynny na reakcję przejścia do i-tego kanału.

.

Rozważmy

szeregowy

P

łańcuch

.

>

promieniotwórczy:

M

A2

J;,— Jj——+

T)

Ak—1

::: —

Jk — Ję+1, gdzie ostatni element szeregu jest stabilny. Przyjmijmy, że dysponujemy pojedynczym jądrem izotopu J;. Czas t oczekiwania na rozpad tego jądra dany jest

rozkładem

fl) =€(;A,) =he"".

238

5. Niektóre rozkłady

Czas t oczekiwania na rozpad jądra J» jest sumą czasów: t, oczekiwania na rozpad jądra

J, i czasu tę oczekiwania na rozpad izotopu J>, przy czym ten ostatni czas liczymy od

momentu rozpadu jądra J;. Dlatego rozkład f,(t) dany jest splotem t

t

Pl) = J filt — JE; hy) dt = Mn J e ul-ę-ef dt = 0

0

Aha

(e

A— ha

—e").

Analogiczną sumą trzech czasów ty, tą i tz zadany jest czas t oczekiwania na rozpad jądra Ją, dlatego rozkład fz(t) tego czasu znajdujemy także ze splotu funkcji wykładniczej z funkcją f(t): £

BG)

a

dała a

(1 (m

e

p,

36

__

e

At

(



)

boy

——|—ÓóÓó.(ę

„2%

(

Ast

-

_

©

At

,

)

W sytuacji, w której wszystkie stałe rozpadu są identyczne, z rozkładów tych powinniśmy

otrzymać stosowne rozkłady Erlanga, co istotnie występuje. Podobnym rekurencyjnym związkiem określony jest rozkład f;,,(t) czasu t oczekiwania na rozpad jądra J; 1: ft

t

fa) = J FMJEG —F; ka) dY = kge" J fiGe*" dr. 0

0

Rozkład f(t) czasu oczekiwania na rozpad dowolnego z jąder J, dany jest sumą rozkładów dla wszystkich rozpadów: k

IOEDZEIO i=l

i rozkład ten unormowany jest do liczby k niestabilnych izotopów w szeregu:

| rod=k 0

gdyż jedno jądro izotopu J; prowadzi do obserwacji k rozpadów.

Zajmiemy się teraz aktywnościami poszczególnych izotopów w próbce. Aktywnością

nazywamy aktualną szybkość, z jaką dokonuje się rozpad; opisuje ona liczbę aktów rozpadu jąder wybranego izotopu w jednostce czasu. Liczbę An;(t) rozpadów izotopu J; w przedziale czasu Aż otrzymujemy, mnożąc prawdopodobieństwo /f;(ż)A£ rozpadu

jądra tego izotopu przez liczbę No wszystkich jąder w próbce: An; (t) = Nof; G)AŁ, co wyznacza aktywność A; (£)

A,() = dn, Ę — Nofi(t).

- 5.3. Rozkład wykładniczy

239

Z aktywności możemy uzyskać liczby N;(t) jąder każdego z izotopów w próbce w chwili

t. Zacznijmy od izotopu J;, którego może tylko ubywać z próbki, jako że jest on pierwszy w szeregu. Obserwowana liczba A;(ż)A£ jego rozpadów w czasie Aż powoduje zmianę —AN|(t) liczby jego jąder w próbce, skąd t

|

d

= -A;()=-Mfit)

gw

N(t)=N—-

*%

|

M

dt — Noe *",

AO

0

gdzie na równanie różniczkowe nałożyliśmy warunek początkowy N/;(t — 0) =M. Dla izotopu Ją pełna zmiana ANo(t) liczby jąder składa się z dwóch elementów: w czasie Aż zmniejsza się ich liczba o Aa(ż)At jąder z powodu rozpadu i przybywa ich

liczba A;(ż)At z rozpadów jąder macierzystych: ANa(t) = A;(1)AŁ — Az(t)At

d

©

q 20)

= A,(t) — Ao(t) = Nof)

— Nofalt).

Scałkujemy to równanie z oczywistym warunkiem początkowym N>(t = 0) =0: |

£

N,(t) = No

£

J f() dt — J f(t) dr

|

0

0 t

=

No

r

t

|

(t')

dt

— A» J

0

e łał

Ja

0

(t')e

dt” |

dt

0

Zmienimy kołejność całkowania w całce podwójnej: t

je 0

t'

t

t

| | ear] ||0 moOear|ar=|0 roo" |

ar

t

t

= J fi'yes" (e! — ea") gr” 1



2

H

0 t

l

,

t

l

dt + — J N(G)dr J file" =-—0* Aa | A 0

1 podstawimy N,(t) = Ny

J ft)dr

+e 77 J f(t)e>? dr — | ft) dr

0

0 t

=

Ne *7

Ja 0

0

(t)e*? dr'.

0

240

5. Niektóre rozkłady

Ponieważ jednocześnie zachodzi

Nofi(t) = Nohue *" = AN, (1),

więc

t

N,(t)

=

A1e77

J

dt.

0

Obowiązują także związki: At)

N,(t e"

= NM)

= AN (1),

A>(t) = Nofa(t) = None ** J ft)e* dt = XąNa(t), 0 dlatego równanie rządzące zachowaniem się liczby jąder izotopu Ją ma postać d q, 020)

= ArNy(t) —

2 N(t).

Analogiczne równania otrzymujemy i dla liczb N;(t) jąder następnych, niestabilnych izotopów: d d

iH1(6) =A,N;(t) — Ara Nię1(t),

: i=1,2,...,k—1.

Równanie to będzie słuszne także i dla ostatniego, stabilnego izotopu, jeśli tylko przyj-

miemy, że jego czas życia jest nieskończony, a tym samym intensywność A;,,, dla niego

jest równa zeru. Sposób, w jaki rozwiązaliśmy problem liczby jąder izotopu Ją, podpowiada nam, że ogólne rozwiązanie ma rekurencyjną postać: t

Ni+1(£)

= Aje *+"

J

N;(t e"

dt,

Il=l,2,..

„k — l,

0

z tym, że

Nel) =

ł

J NC) dr,

0 co wynika bezpośrednio z równania określającego liczbę jąder tego izotopu lub podstawienia A,,j =O. Podamy teraz jawne

postaci

wzorów

na liczby jąder dla najprostszego

A —% B —> C, w którym izotop C jest stabilny: N4(t) = Nyexp(—Aą4t),

Ns(t) = NO NCQ)

= Na

A AĄ

(



—— AB (exp(—Agt) — exp(-Aat)), 1 —

—A4t at)

EE A

_ exp( —Apt) z

— aż A

4B

—A_t m).

szeregu

5.3. Rozkład wykładniczy

241

1 odpowiadające im rozkłady dla poszczególnych izotopów:

Ja(t) = Aa exp(-Aat), A AA B

fB(t) = ———

AA — AB

(exp(—Agt) — exp(—Aat)).

Rozważymy teraz otrzymane wyniki w przypadku dwóch skrajnych relacji między stałymi rozpadu. Pierwsza to ta, gdy Aą K Ap, czyli gdy czas życia jądra A jest znacznie dłuższy od czasu życia jądra B. Liczba jąder B po czasie £ to R or AA AĄ Ng(t) = No —— exp(—A4t) = —NA4(t) AB

lub inaczej

AB

Np(t)Ag = Ny(t)AĄ.

Widzimy, że obfitość Npg(t) jąder B jest proporcjonalna do liczby jąder A. O szeregu,

który zachowuje się w ten sposób, mówimy, że znajduje się w równowadze promienio-

twórczej, zwanej też wiekową. Sytuacja taka powstaje np. w przypadku rozpadu uranu o czasie życia 1, 4: 10'” lat, którego jednym z produktów rozpadu jest rad o czasie życia

5.107 lat. Z warunku równowagi wiekowej wynika, że w 1 gramie uranu znajduje się 3,4.1077 gramów radu, co tłumaczy, dlaczego małżeństwo Maria i Piotr Curie musiało

I



©

a

*

szybkość rozpadu

przerobić dobre parę ton rudy uranowej, aby wydobyć z niej jeden gram radu.

0,01

0,001

| czas £

Rys. 5.16. Ilustracja równowagi wiekowej — jądro macierzyste ma znacznie dłuższy czas życia niż jądro potomne

Ilustracja równowagi wiekowej przedstawiona jest na wykresie 5.16, gdzie przyjęto, że Aą = 0,05, natomiast Ag = 1 i wykreślone są Ścisłe postacie zależności aktywności

od czasu. I tak krzywa a przedstawia aktywność substancji A, krzywa b — samoistną aktywność substancji B, krzywa c to aktywność substancji B w próbce, natomiast krzywa

d to łączna aktywność próbki, czyli suma krzywych a oraz c. Widzimy, że dla cza-

242

5. Niektóre rozkłady

sów powyżej dwóch jednostek krzywe a oraz c, a tym samym 1d, stają się do siebie

równoległe. Rozważmy teraz przypadek, gdy A4 >> Ap, czyli gdy czas życia jądra A jest znacz-

nie krótszy od czasu życia jądra B. Oznacza to, że wyjściowy izotop A rozpada się znacznie szybciej niż powstały z niego produkt. Układ taki jest rządzony w przybliżeniu równaniem Ng(t) = N,exp(—ABt), przy czym

NA(t) = Noexp(-A4t) K Npg(t). Popatrzmy na rys 5.17, na którym przyjęto Aąq =

I, natomiast Ag

= 0,05 i gdzie

krzywa a to aktywność substancji A, która bardzo szybko zanika, krzywa b to samoistna

aktywność substancji B, krzywa c to aktywność substancji B w próbce, a krzywa d to pełna aktywność próbki, czyli suma krzywych a oraz c. Widzimy, że po paru jednostkach czasu życia krótkożyciowej substancji mamy praktycznie w próbce jedynie substancję B, która decyduje o aktywności próbki, tak jak dla krótkich czasów obserwacji aktywność

P>

szybkość rozpadu

próbki jest praktycznie określona przez aktywność substancji A.

0,01

0,001 czas £

Rys. 5.17. Ilustracja relacji obfitości jąder izotopów w przypadku, gdy jądro macierzyste ma znacznie

krótszy czas życia niż jądro potomne

Powyższe rozważania, mimo

problemami

że ilustrowane szeregami promieniotwórczymi, czyli

w pełni rozwiązanymi przez A. H. Becquerela, małżonków

Curie i im

współczesnych, wcale nie tracą na aktualności, jako że mają swoje istotne zastosowania

w rozpadach cząstek elementarnych i w wielu reakcjach jądrowych, w których powstają jądra wzbudzone, które następnie kaskadują do stanu podstawowego przez szereg stanów pośrednich. Wyniki zarysowane w tym rozdziałe stanowią częstokroć podstawowe, startowe wzory w dziedzinie spektroskopii jądrowej, przy analizie takich stanów wzbudzonych.

5.4. Rozkład Poissona

——

243

54. Rozkład Poissona

5.4.1. Wyprowadzenie Rozważmy proces probabilistyczny, polegający na pojawianiu się zdarzeń losowych, takich jak wjazd samochodu na rynek miejski lub rozpad wzbudzonego jądra, czyli podlegających rozkładowi wykładniczemu. Jak pokazaliśmy w podrozdziale 5.3.3, rozkład wykładniczy nie ma pamięci, więc po każdym sygnale historia powtarza się od nowa,

dokładnie tak, jakbyśmy zaczynali oczekiwanie na pierwsze zdarzenie, czyli pierwszy

sygnał. Niech £ będzie zadanym, całkowitym czasem obserwacji, w którym może się pojawić k(t) =0, 1,2,... sygnałów. Jakie jest prawdopodobieństwo każdej z tych moż-

liwości? Wprowadźmy oznaczenie: Ty = ty; + b + '*: + tę dla wielkości określającej moment przybycia k-tego sygnału. Zdarzenie k(t) = k wystąpi wtedy i tylko wtedy, gdy T4 < t oraz jednocześnie [,,;, > t, a więc jest określone przez prawdopodobieństwo P(T < t; [hs; > t). Aby to prawdopodobieństwo znaleźć, musimy określić łączną funkcję gęstości prawdopodobieństwa obu zmiennych losowych [4 oraz [;,,. Z przykładu 5.3.6 wiemy, że zmienna losowa T, opisana jest rozkładem Erlanga (5.42) Gx(T%;

,

A)

=

(AT)! tk DIŚ

—AT

Wiemy również, że [,,, = Ty + ty,,. Łatwo możemy wypisać łączną funkcję gęstości dla zmiennych T, oraz ty+;, jako że zmienne te są niezależne. Jest ona iloczynem funkcji

€4(T4; A) oraz rozkładu wykładniczego:

AT)"

—AL exp( —AT)A k)A exP(ZAK1)

k-D!

AT)"

=4A

(k- DI

exp(—AT;1).

Ponieważ jakobian przejścia od zmiennych (T;, t4+1) do zmiennych (T4, 14,4) jest jednostkowy, więc ostateczna postać poszukiwanego rozkładu to (AT,)*"!

fG, Tra; X) = RI

exp(-AT)

dla

0 £):

t

P(k

= k;

At)

=

P(T;

t) =

J

|

ra.

Tę;

A) dThi

d7;

0 ,

=)

(AT,

ye"!

(k z DI d7; 0

00

|DZACA

_

t

Otrzymaliśmy w ten sposób (przy oznaczeniu

COW k!

|

i. = At) rozkład Poissona k

P,(1) = qi” a w podrozdziale 5.2.3 pokazaliśmy, że jest on poprawnie unormowany.

(5.44)

244

5. Niektóre rozkłady

0,35 r 0,30 0,25 | ż 2 N

0,20 |0,15 0,10

0,05 GW

0,00

0.1

2

3

4

5

EN

6

liczba k samochodów

7

8

9 00

Rys. 5.18. Rozkład Poissona (punkty) i częstość występowania liczby k samochodów w dziesięciosekun-

dowych przedziałach czasu

Ilustracji powyższych rozważań dostarczają dane, które posłużyły do wykreślenia rozkładu 5.10 czasów oczekiwania na samochody w podrozdziale 5.3. Jeśli policzymy liczbę mijających nas samochodów w np. dziesięciosekundowych przedziałach czasu 1 wykreślimy krotności zaobserwowania zerowej liczby samochodów, jednego, dwóch itd. w takim obszarze czasowym, to uzyskamy wynik przedstawiony na histogramie 5.18. Punkty na wykresie odpowiadają rozkładowi Poissona z parametrem A = £ ' = 0,193 s”! dla £ = 10 s. Widzimy, że zgodność danych z modelem jest bardzo dobra. ——

Przykład 5.4.1 Liczba par jonów w detektorze gazowym Detekcja cząstki naładowanej w liczniku gazowym odbywa się na zasadzie rejestracji sygnału spowodowanego spływającymi do elektrody elektronami powstałymi

w wyniku jonizacji cząsteczek mieszanki gazowej. Proces tej jonizacji ma charakter statystyczny w tym sensie, że liczba par elektron-jon, wytworzonych przez pierwotną cząstkę, podlega rozkładowi Poissona z pewnym nieznanym parametrem ji, którego wartość, jak to wynika z formy tego rozkładu, określa w przybliżeniu modę tego rozkładu. Oznacza to, że im większa jest jego wartość, tym, typowo,

powstanie więcej par elektron-jon, licznik będzie miał większą wydajność, a my

wydamy mniej pieniędzy na wzmocnienie sygnału. Dlatego też przy jego konstrukcji ważna jest znajomość tego parametru. Przypuśćmy, że dysponujemy układem

doświadczalnym, w którym potrafimy określić liczbę n cząstek przechodzących przez licznik. Liczba k cząstek zarejestrowanych nie musi być jednak równa tej liczbie, gdyż z powodu fluktuacji statystycznej niektóre z cząstek mogą przejść przez licznik bez wytworzenia pary elektron-jon. Przypuśćmy także, że elektro-

nika, którą dysponujemy, jest w stanie dostarczyć nam jedynie informacji o samym fakcie przejścia cząstki przez licznik, bez żadnych bliższych danych, np. o całkowitym zdeponowanym ładunku, który byłby miarą liczby k owych par.

5,4. Rozkład Poissona

Przy zadanej liczbie n wszystkich cząstek przechodzących przez licznik, liczba k zarejestrowanych cząstek określona jest rozkładem dwumianowym (5.10), któ-

rego parametr p podaje nam szansę zarejestrowania cząstki w pojedynczej próbie Bernoulliego. Z drugiej strony, szansa, że cząstka nie zostanie w takiej próbie zarejestrowana przez licznik, określona jest przez pierwszy wyraz rozkładu Poissona: l-p=e". Pozwala to nam określić estymatę parametru u przez estymatę parametru p roz-

kładu dwumianowego: l-p=e*

=>

r

KL=—ln(l — p), A

gdzie

A

p=—.

.

a

k

ńn

Przybliżoną niepewność tak zadanej estymaty znajdujemy ze wzorów (3.19) oraz

(5.20):

>

a

$$

d nA — 5) |

(ab

Si





= |

>

s?

e

Błąd względny tej estymaty to:

=

l

I. 1-5)

a-pbin-1

m_A]A. Bo i Aafn-10-5

,



————---—

7



l

p

n=10-5)

—___—_

,

|explij-1_ |Aen-1l) Jn-l

6 5

=R 41



31

2

+

!

-

o

0

l

0,0

0,5

l

i

l

1,0

1,5

2,0

L

2,5

|

3,0

l

3,5

I

4,0

x

Rys. 5.19. Zależność niepewności względnej estymaty parametru m rozkładu Poissona od wartości tego parametru

Wykres

funkcji

f(x)

podany jest na rys. 5.19. Jej przybliżoną,

minimalną

A

L

[12

wartość 1,24 znajdujemy dla argumentu ji = 1,6, a stąd minimalna niepewność względna A 1,24 n-l

Oczywiście wielkości parametru u jesteśmy w stanie kontrolować tylko w pewnych granicach. Wynik powyższy oznacza, że jeśli zbudujemy detektor, w którym

parametr ten wynosi około 1,6, to nasza metoda pomiaru znajdzie go z najmniej-

szym błędem. Taka specjałna wartość parametru u nie musi być jednak korzystna z punktu widzenia zastosowań detektora. r

245

246

5. Niektóre rozkłady

W podrozdziale 5.3 otrzymaliśmy rozkład wykładniczy z rozkładu dwumianowego, rozważając prawdopodobieństwo braku zdarzenia. Zapytajmy się teraz o prawdopodobieństwo wystąpienia dokładnie k zdarzeń w przedziale czasu [0; t]. Prawdopodobieństwo to zadane jest rozkładem dwumianowym (5.10): 1 BG. P) = grypy U - PT" = gra

Dln 2)--0-k+p'd- py".

!!

Tak jak i przy wyprowadzeniu rozkładu wykładniczego w podrozdziale 5.3, podzielimy

cały przedział czasowy t na bardzo dużą liczbę n bardzo małych odcinków czasu Ać i wybierzemy prawdopodobieństwo sukcesu w pojedynczej próbie w formie (5.35):

At n

p=—,

a uzyskamy

1

B,m, p) =—nln k!

—1):::(n-k+1)|

ArY*

— n

AŁYT*

1-—

n

-r0()(E7)er(-2)(-2)

Dokonując przejścia granicznego z liczbą n prób do nieskończoności, zachowując jed-

nocześnie stałą wartość k, otrzymamy B,(n, p)

2

P,(At) =

Porównanie obu rozkładów prezentuje wykres 5.9.

COREY k!

|

(5.45)

Wyprowadzenie to przedstawił po raz pierwszy francuski naukowiec Simeon De-

nis Poisson w 1837 roku w swym dziele Recherches sur la Probabilitć des Jugements en Matićre Criminelle et en Matiere Civile, Próćcćdóes des Regeles Gćnerales du Calcul des Probabilitćs. Rezultat ten został jednak zapomniany i dopiero w 1898 roku przypomniany pracą Das Gesetz der kleinen Zahlen L. Bortkiewicza, który wykorzystał go do analizy liczby śmiertelnych przypadków spowodo-

wanych kopnięciem przez konie, jakie pojawiły się w ciągu dwudziestu lat w czternastu korpusach kawalerii armii pruskiej.

Jak widzimy, rozkład Poissona jest Ściśle związany z rozkładem wykładniczym — oba powstają z tych samych założeń.

W szczególności, dla specjalnej wartości k = O zmiennej loso-

wej z rozkładu dwumianowego otrzymujemy wyrażenie, z którego wywiedliśmy rozkład wykładniczy.

Obliczenia prowadzące do (5.44) i wyprowadzenie (5.45)

Simeon Denis Poisson,

1781-1840

podpowiadają nam zastosowania uzyskanego rozkładu: wszędzie tam, gdzie zjawiska pojawiają się losowo w czasie, a czas oczekiwania na nie określony jest rozkładem wykładniczym, liczba tych zjawisk w zadanym przedziale czasowym podleA . o. , o gać będzie rozkładowi Poissona. Dodatkowo, ponieważ rozkład Poissona jest rozkładem granicznym dla rozkładu dwumiano-

5,4. Rozkład Poissona

wego, gdy prawdopodobieństwo

247

sukcesu w pojedynczej próbie jest znikome, oczeku-

jemy, że rozkład Poissona znajdzie również zastosowanie do opisu rzadkich zdarzeń. Istotnie, rozkład ten wydaje się dobrze opisywać takie zjawiska, jak liczbę samobójstw, katastrof i burz w ciągu roku,

a także liczbę błędów

drukarskich

na stronie, liczbę

sprzedanych sztuk danego towaru w sklepie w tygodniu (z dokładnością do sezonowych wyprzedaży i okresów Świątecznej gorączki) i liczbę rozpadów jądrowych obserwowanych przez Rutherforda i Geigera w ich doświadczeniu.

Jako ciekawostkę wyprowadzimy rozkład Poissona z rozkładu ujemnego dwumianowego (5.14). W tym celu zapiszemy rozkład ten w postaci n--m—l

U„(n, p) = ( =

n-l

|

0 +1)

(n+m—

1)!

pra — p)" = mazpr? +2):

,

477

—1+ m)p'(l— p)”,

a następnie wprowadzimy parametr j« zdefiniowany wartością oczekiwaną (5.22): A=R

l-p po”

Ze związku tego obliczymy wielkość p i podstawimy ją do rozkładu, a wtedy u" U„(n,

p)

=

n

n+ln+2

min+un+un+

m (1

u

n+pu

LL

)

n+uj)

Jeśli wykonamy przejście graniczne z liczbą n prób do nieskończoności i jednocześnie z parametrem p prawdopodobieństwa sukcesu w pojedynczej próbie do jedności, ale w taki sposób, by wartość parametru w była ustalona, to przy ustalonej wartości zmiennej m znajdziemy

m

U„(n, p)

— n>00

P,(L)

=

Heh, m!

Wyprowadzenie to jest o tyle interesujące, że jest ono komplementarne do przejścia granicznego (5.45) — gdy „zalewają” nas sukcesy, wtedy porażki zaczynają być zdarzeniami

godnymi odnotowania. Relację między rozkładem Poissona a ujemnym dwumianowym przedstawia wykres 5.20, na którym dobrze widać dyskutowaną zbieżność. Pouczające jest wyprowadzenie rozkładu Poissona jeszcze inną techniką. Niech P;(t) oznacza prawdopodobieństwo zarejestrowania k zdarzeń w przedziałe czasu [0; £]. Wydłużmy ten przedział o krótki odstęp czasowy Az i zapytajmy o prawdopodobieństwo P,(t + At). Aby w tym przedziale czasu wystąpiło k zdarzeń, warunkiem koniecznym i dostatecznym jest, aby został spełniony jeden z następujących warunków: w przedziale

[0,żt]

nastąpiło

w przedziale

[0,4]

nastąpiło

w przedziale

[0,£]

w przedziale

[0,t]

k

zdarzeń,

w przedziale Aż

żadne,

k—1 _

zdarzeń,

w przedziale Aż

jedno,

nastąpiło

k—2

zdarzeń,

w przedziale Aż

dwa,

nastąpiło

0

zdarzeń,

w przedziale At

k zdarzeń.

248

5. Niektóre rozkłady

0,14 p 0,12 0,10 0,08 0,06 0,04 0,02 0,00 liczba m porażek Rys. 5.20. Porównanie rozkładu Poissona (słupki) i ujemnego dwumianowego (punkty)

Ponieważ powyższe wydarzenia wykluczają się i są niezależne, poszukiwane prawdopodobieństwo możemy przedstawić jako sumę

F.(t+At) = P,(t) Po(At)+ Pi_; (1) P,(At)+ Pi-2(t) P>(At)+: - + Po(t) P.(At). (5.46) Wzorem naszego pierwotnego rozumowania (5.35) przyjmiemy, że P, (At) =AAt, gdzie A jest pewnym współczynnikiem proporcjonalności, co daje

dla

P,(At) = a, AAt)'

i=2,3,4,...,

(5.47)

gdzie a, to pewne nieznane, czysto liczbowe współczynniki proporcjonalności, nieza-

leżne od przedziału czasu i od intensywności A.

Rozważmy przypadek k = 0. Prawdopodobieństwo

nienie jedności:

Po(At) uzyskamy jako dopeł-

Po(A1) =1-AAt-aQAL) — az(AAt) — :--.

Równość ta wyznacza jednocześnie warunek początkowy Py(0) = 1. Niezależne rozumowanie przekonuje nas, że abyśmy nie mieli zdarzeń w przedziale od zera do t + At,

nie może nastąpić żadne zdarzenie od chwili zero do chwili £, jak i od chwili £ do chwili £t + At:

Py(t + At) = Py(t) Po(At) = Po(t) (1 — AAt — a, AAL)” — ---) lub

Po(t + At) — Py(t) = — Pot) (AAt + (AA) + ---),

a po podzieleniu obu stron równania przez At i przejściu do zera z tą wielkością do-

chodzimy do równania

dPo(t) dt

=

—AFo(t),

5,4. Rozkład Poissona

249

którego rozwiązanie, spełniające zadany warunek początkowy Py(0) = 1, ma postać

Plt)=e"*. Wróćmy teraz do wyższych wartości zmiennej losowej k. Dla wartości początkowej prawdopodobieństw P,(0) dla k > I otrzymujemy P,(0) =0. Jak dla przypadku k =0, odejmiemy od obu stron równania (5.46) prawdopodobieństwo P;(ż):

P,(t + At) — P(t) = Pilne"! + P_4(MAAŁ + :-- + Poltjaz(AAL)* — P;(t)

= -P(t) (1 —e74') + P_(COAAŁ +:*: + PoltrazAAL)*, a następnie podzielimy obie strony równości przez Aż i przejdziemy do granicy, w wyniku czego otrzymamy układ równań różniczkowych, zwanych równaniami kinetycznymi:

dP;(t)

= —AP(t) + AP;

dt

(1).

(5.48)

Jeśli do równania tego podstawimy

P,(©) = fe(tje"*, to otrzymamy

gdzie

i = Afki(0), pO=L

a ponadto wiemy,

f(0=0

(5.49)

da

k=1,2,3,...,

że

fltj=l. Przedstawimy teraz pewną technikę rozwiązywania równania różniczkowo-różnico-

wego (5.49). Technika ta, zwana metodą funkcji tworzącej, polega na pomnożeniu tego

równania obustronnie przez wielkość z*: zł df(t)

= Aż fe—1(1) = Azz*"' fe_1(1)



i zsumowaniu wszystkich tych równań względem indeksu k: 00

d

3 z” ae k=l

0

= Aż 3 zł fk-1(0).

(5.50)

k=l

Wprowadzimy teraz funkcję tworzącą

UDEDZEGSOEDZEŁIO! k=l

k=0

(5.51)

250

5, Niektóre rozkłady

Funkcja ta spełnia warunek początkowy H (z, t =0) =1 i pozwala zapisać lewą stronę równania (5.50) w postaci e

a

Ź

=): a

RE

DYR

k=l

Jx()

k=0

=

25

(z TO)

k=0

Joz FG) = He 1), 0 *

gdyż funkcja fo jest stała, co ostatecznie daje nam nową postać równania (5.50)

|

d —H j (2,Hz: t) 1) ==AzH(Z, AZH

Rozwiązanie tego równania,

jest przez

(2,1) t).

spełniające warunek początkowy

H(z,t

= 0) =

I, dane

H (z, t) = explazt).

Z definicji (5.51) funkcji tworzącej otrzymujemy, że l dź

10 = g zz EEO| =p

(At)*

Składając wszystkie wyniki razem, otrzymujemy ponownie rozkład Poissona. -——

Przykład 5.4.2 Zagadnienie Erlanga Aby przekonać Czytelnika, że równania kinetyczne nie służą wyłącznie kolejnemu wyprowadzeniu rozkładu Poissona, zastosujemy je do praktycznego zagadnienia

równoległego przetwarzania danych w czasie rzeczywistym. W przykładzie 5.3.6 wskazaliśmy, że jeśli czas analizy pojedynczego przypadku stanowi istotny ułamek odstępu czasowego

między

momentami

nadchodzenia tych przypadków, to

nieuchronnie czekają nas duże straty. Wyjściem jest wtedy buforowanie nadcho-

dzących danych, a w skrajnym przypadku równoległe przetwarzanie. Rozważymy teraz szczegółowo tę drugą możliwość. Przyjmiemy następujący model zagadnienia. Sygnały nadchodzą w czasie z rozkładem wykładniczym charakteryzowanym parametrem intensywności A.

Czas analizy każdego sygnału także podlega rozkładowi wykładniczemu z pa-

rametrem intensywności 7 i dysponujemy dwoma identycznymi urządzeniami do analizy sygnałów. Założenie o dwóch urządzeniach jest uproszczeniem, od którego

Czytelnik potrafi odstąpić, jeśli zrozumie detale mniej skomplikowanego układu. Symbolami po(t), p;(t), pa(t) oznaczymy prawdopodobieństwo, że w chwili £ żadne, jedno lub też oba urządzenia są zajęte obsługą sygnałów. Rozważymy moment czasu £ + Aż, przy czym przedział czasu At jest na tyle

krótki, że w jego trakcie może, co najwyżej, nastąpić zakończenie analizy sygnału

lub pojawić się nowy sygnał. W chwili £ + Aż żadne z urządzeń nie będzie zajęte,

jeśli nastąpi jedno z trzech możliwych zdarzeń:

5,4. Rozkład Poissona

Oba urządzenia w chwili ż były wolne i w przedziale czasu Aż nie nadszedł żaden sygnał; prawdopodobieństwo takiego zdarzenia wynosi

«

Poll) Po>o(At) = Po(t)Po(AAŁ) = po(t)e ** £ po(t)(1 — AA). Jedno z urządzeń w chwili t było zajęte, ale w przedziale czasu

e

At zakoń-

czyło pracę, a także nie pojawił się nowy sygnał; prawdopodobieństwo takiego zdarzenia wynosi

POP-o(At) = pit) (1-e”*) PAAŁ) E piKONAŁ(1 — AAL).

Oba urządzenia w chwili £ były zajęte, lecz w przedziale czasu At oba ukoń-

e

czyły pracę i nie pojawił się nowy sygnał; prawdopodobieństwo takiego zda-

rzenia wynosi

POPo(AD) = Pl) (I - 273) PAAN E PONAD — AA).

Prawdopodobieństwo, że w chwili £ + Aż żadne z urządzeń nie będzie zajęte, jest

sumą owych trzech prawdopodobieństw:

Polt + At) = po(t)Po>o(A£) + pi) Pi>o(At) + Pa(£) Pa_>o( At)

2 pO

— AMAN) + prMOMNAŁQ —AAK) + PONAŁA

— AAL).

Odejmując od obu stron równości prawdopodobieństwo py(t), dzieląc przez At i przechodząc z tą wielkością do zera, otrzymujemy równanie różniczkowe

d

ŁA

= —Apo(t) + np. (4).

Zwróćmy uwagę na brak składnika z prawdopodobieństwem p,(t) w otrzymanym równaniu różniczkowym. Szansa wystąpienia dwóch zdarzeń w przedziale czasu

At jest małą wyższego rzędu (tu zadaną kwadratem czasu At) 1 przy przejściu granicznym znika. Dlatego np. w pierwszym punkcie naszego wyliczenia nie mu-

sieliśmy się martwić o zdarzenie następującego typu: oba urządzenia w chwili t były wolne, a w przedziale czasu At pojawiły się dwa sygnały, których analiza została ukończona przed upływem tego czasu. Prawdopodobieństwo takiego

zdarzenia byłoby rzędu (A£)* i nie dostarczyłoby ono w granicy przyczynku do pochodnej prawdopodobieństwa py(t) (zachowanie to zaobserwowaliśmy już przy wyprowadzaniu

równania (5.48)). To tłumaczy nasze zastrzeżenie:

czas At jest

na tyle krótki, że w jego trakcie może, co najwyżej, nastąpić zakończenie analizy

sygnału lub pojawienie się nowego sygnału. Oznacza to także, że przy dalszych rozważaniach możemy liberalnie traktować zdarzenia wielokrotne — nawet jeśli je uwzględnimy, to nie będą one miały wpływu na ostateczny rezultat.

Dokonajmy identycznej analizy prawdopodobieństwa p,(t). W momencie £ +At jedno z urządzeń będzie analizowało sygnał, jeśli wystąpi jedna z następujących możliwości: e

Oba urządzenia w chwili £ były wolne i w przedziale czasu Aż nadszedł jeden

sygnał; prawdopodobieństwo takiego zdarzenia wynosi

Pot) Poi (At) = poltH)P,AAM) = poltjAAte"**" e

po(DAAŁ(1 — AAL).

Jedno z urządzeń w chwili £ było zajęte i w przedziale czasu Af nie zakończyło

swej pracy, a także nie pojawił się nowy sygnał; prawdopodobieństwo takiego

251

252

5. Niektóre rozkłady

zdarzenia wynosi

P+) p-1(AL) = piltje ""P,AAt)

e

p;(K)A — (9 + A)AL),

Oba urządzenia w chwili t były zajęte, lecz w przedziale czasu A jedno z nich

ukończyło pracę i nie pojawił się nowy zdarzenia wynosi

sygnał; prawdopodobieństwo takiego

P20_)P2>1(At) = p(t) (2(1—e7"*) PAN)

£ Zp(HNAŁ(I — AAJ),

a czynnik 2 pojawia się z uwagi na to, że mamy dwa urządzenia.

Prawdopodobieństwo, że w chwili ż + At jedno z urządzeń nie będzie zajęte, jest sumą owych trzech prawdopodobieństw: P:(t + At) = po(t) Po>(At) + piG) PCA) = Po(OAAŁ(1 — AA) + pCO

+ PG) P2_(At)

— (7 + A)JAL) + Zpr(K)NAŁ( — AAt).

Tak jak poprzednio, otrzymujemy równanie różniczkowe dla prawdopodobieństwa P1(t):

d PO

= APo(t) — (n + A) p;(t) + 2np(t).

W końcu przeprowadźmy analizę prawdopodobieństwa p>(t). W momencie t-+ Ar oba urządzenia będą analizowały sygnały, jeśli wystąpi jedna z następujących

możliwości: e Oba urządzenia w chwili t były wolne i w przedziale czasu A: nadeszły dwa sygnały; prawdopodobieństwo takiego zdarzenia wynosi e

e

Po(t) Po-2(At) = po(t)P,AAŁ) =; pot) AAL)?e** 2; py(YAAD?A — AMG).

Jedno z urządzeń w chwili £ było zajęte i było zajęte przez cały przedział czasu At, kiedy to pojawił się nowy sygnał; prawdopodobieństwo takiego zdarzenia wynosi

P()P2(Al) = pilDe"*"P,AAL) £ p, OAAŁ(A — AAND( — nat).

Oba urządzenia były zajęte przez cały przedział czasu At i pojawiła się dowolna

liczba (w tym zero) nowych sygnałów; prawdopodobieństwo takiego zdarzenia wynosi

P(OP>-z(AT) = py(t) (ET) £ p(D)( — ZNAŁ).

Dla prawdopodobieństwa p,(t) w chwili t + At otrzymujemy wyrażenie Pz(t + At) = po(t) Po>a(At) + pr) Pr>2(At) + Pa(t) P>_>(At) 1

= z PoOJAATYI — AAt) + PQAAŁQ

— AAL)(I — NAt) + pa(t)(1 — ZNAŁ)

i równanie różniczkowe d g;P2 (t) =Ap;(t) — Żnpa(t).

5,4. Rozkład Poissona

Doskonałej kontroli naszego rozumowania dostarczają następujące równości:

Po>o(At) + Po>1(At) + Po2(A1) =1+0 ((Ań)”), Pi>o(At) + pi>i(AD) + pr2(At) 1+0

((An)”),

P>o(At) + P>i(At) + Po(At) =1+0((An)7), które zapewniają nas, że bez względu na to, w jakim stanie w danej chwili £ się

znajdujemy, w jakimś stanie w chwili £ + Aż będziemy się musieli znaleźć: szansa przejścia do jakiegokolwiek stanu jest gwarantowana. Jest to oczywisty warunek

normalizacyjny, jaki muszą spełniać prawdopodobieństwa przejścia p,.,;. Warunki

te gwarantują nam, że suma prawdopodobieństw po(t), p;(t) oraz p»(t) jest stała

w czasie, dzięki czemu możemy je unormować do jedności, czego potwierdzenie znajdujemy po dodaniu stronami wszystkich trzech równań różniczkowych: d

d

d

—q, Pol Po(t) ) ++ —j, 7:0) + —q, po(t Pl ) = —Apo(t) + np,(t) + Apo(t) — (7 + A)p1(t) + Znpa(t) + Ap; (t) — 2npa(t) =0O. Stoimy przed problemem rozwiązania układu trzech liniowych jednorodnych równań różniczkowych pierwszego rzędu. Jest to standardowe zadanie, omawiane

w każdym podręczniku analizy matematycznej, więc nie będziemy tutaj demonstrowali techniki postępowania. Zwrócimy jedynie uwagę Czytelnika na fakt, że warunek nietrywialnych rozwiązań tego układu prowadzi do wartości własnych macierzy układu równań, z których jedna jest równa zeru, a tym samym

każde

z prawdopodobieństw py(t), p,(t) oraz p(t), oprócz części zanikającej wykładniczo, będzie miało część niezależną od czasu. Oznacza to, że po początkowym uruchomieniu układu, którego dalsza ewolucja podyktowana jest zestawem warunków

początkowych, układ przejdzie w stan stacjonarny o rozwiązaniach niezależnych od owych warunków początkowych:

1,0 09 0,8 |

PX?

07 -| pó” 0,6 |

0,5 04 0,3 0,2

0,1

0,0

| | | -

2

pó”

PP

o

-

po

nA x=Afq

Rys. 5.21. Asymptotyczny kształt prawdopodobieństw p, (00) lub oba urządzenia będą zajęte, jako funkcja stosunku A/7

(k=0,1,2), że żadne, jedno

253

254

5. Niektóre rozkłady

A

1

(oo) __



(00) __

qq

2

A?

n

(00) __

24?

2n2Ą n

2y

Przedstawione są one (krzywe pociągnięte grubszą linią) na wykresie jako funkcje stosunku x = A/n.

5.21

Ogólna postać prawdopodobieństwa asymptotycznego dla układu n urządzeń

równolegle analizujących nadchodzące sygnały zadana jest przez 1a (00)

*

_

k!

nk

k=0,1,2,...,n.

1a"

To iz=()

l.

n

Przetwarzanie równolegle może być kosztowne z uwagi na budowę dodat-

kowego urządzenia analizującego. Tańsza może się okazać metoda buforowania sygnałów, choć nie musi to być oczywiste — jeśli buforowanie będzie mało efektywne, wtedy wydłuży się czas trwania eksperymentu, a to pociągnie za sobą inne koszta. Rozważmy przypadek jednego procesora i jednego bufora, który przechowuje

sygnał do czasu zakończenia analizy poprzedniego, a gdy procesor jest wolny

w chwili nadejścia sygnału, bufor działa „,przezroczyście, przekazując mu ten sygnał niezwłocznie. Rozumowanie analogiczne do tego, jakie przeprowadziliśmy dla tandemu procesorów, prowadzi do następującego układu równań:

dP

4

= —AP

dP

gp = AP dP,

dr

A+ MPI +1,

= AP, — nP,

o asymptotycznych rozwiązaniach

A n

1 Py”

=

A A2 l+-+= nn

+ nP,,

Pi?

=

A A 2” l+—+= nn

A” n2 P2”

A> A 2” l+-+—= n 4

gdzie P/* opisuje prawdopodobieństwo, że żadne z urządzeń — ani procesor, ani bufor — nie są zajęte, P|*”) oznacza prawdopodobieństwo, że zajęty jest procesor, ale bufor jest wolny, a P;** podaje nam szansę, że zarówno procesor, jak i bufor

nie są dostępne. W ogólnym przypadku, gdy dysponujemy układem n buforów, rozwiązania asymptotyczne są następujące:

"5,4. Rozkład Poissona

PÓ=—L-

255

k=0,1,2,...,n.

Kształt rozwiązań P;* dla układu z jednym buforem przedstawiony jest na wykresie 5.21 (cieńsza krzywa). Widzimy, że choć zachowanie układu z buforem jest gorsze, zysk z zastosowania dodatkowego procesora nie jest dramatyczny. Prawdopodobieństwa P;* i py?” mogą być interesujące z powodów czysto

utylitarnych: jeśli są zbyt duże, to układy są zbyt intensywnie wykorzystywane,

a to będzie rzutowało na ich niezawodność. To, co interesuje fizyka przy rozważaniu obu wariantów analizy, to ich efektywność — jaka jest szansa utraty danych?

Jest to problem dość skomplikowany, nawet wtedy, gdy używamy jednego procesora o ustalonym czasie działania i bez dodatkowych buforów, czego przykład przedstawiamy w podrozdziale 5.4.4. Gdy interesuje nas układ z większą liczbą procesorów lub procesorów i buforów, wzory anałityczne stają się na tyle złożone, że z reguły prościej jest rozwiązać taki problem metodą Monte Carlo.

TT

Metoda równań kinetycznych poddaje się pewnemu uogólnieniu, polegającemu na tym, że wielkość A nie musi być wielkością stałą, lecz może być dowolną funkcją czasu A(t). Równania (5.48) definiujące prawdopodobieństwa P,(t) zachowują swoją moc, gdyż przy ich wprowadzaniu nie dokonywaliśmy ani operacji różniczkowania, ani całkowania, traktując wszędzie wielkość A jako mnożnik. Popatrzmy na równanie dP

a = AO P;(),

dła którego łatwo znajdujemy całkę spełniającą warunek początkowy: £

Pą(t) = exp

- | 0

dt | =exp(-A(t)).

0

Równanie

dP;,(t)

di

= —A(t)P;(t) + A(1) Px_i(£)

rozwiązujemy tą samą techniką jak poprzednio, dokonując podstawienia

P.(t) = fi(tje"*"*, co ostatecznie daje nam ponownie rozkład Poissona, tym razem w formie P,(t) =

(AG)at k!

|

Jest możliwe jeszcze inne uogólnienie rozkładu Poissona.

Przy wyprowadzaniu

rów-

nań kinetycznych założyliśmy, że prawdopodobieństwa pojawienia się wielu impulsów

256

5. Niektóre rozkłady

jednocześnie (w przedziale czasu Aż) są proporcjonalne do stosownych potęg prawdopodobieństwa pojawienia się jednego impulsu w tym przedziale czasu. W granicy A£ > 0 przyczynki od tych prawdopodobieństw znikają, co faktycznie oznacza, że nie dopuszczamy możliwości pojawiania się „wielokrotnych” zdarzeń. Gdybyśmy od tego założenia odstąpili i wprowadzili funkcje A; określające prawdopodobieństwo P;(A£) = A,AŁ, otrzymalibyśmy jeszcze inny rozkład, w którym zdarzenia pojawiają się nie tylko pojedynczo, ale parami, trójkami, .... Nie będziemy jednak prowadzili tu dalszego rozumowania w tym kierunku, a jedynie zachęcamy Czytelnika do samodzielnych obliczeń. Na zakończenie kwestii wyprowadzenia rozkładu Poissona rozważymy jeszcze jedno

zagadnienie. Wypisując wyrażenie (5.47) na P;(At), czyli prawdopodobieństwo wystąpienia liczby i zdarzeń w bardzo krótkim przedziale czasu Aż, powiedzieliśmy, że wielkości a; są pewnymi czysto liczbowymi współczynnikami niezależnymi od intensywności A. Obecnie widzimy, że współczynniki te to odwrotności funkcji silnia liczby zdarzeń. Czy możemy ten wynik zrozumieć? Przecież podstawowe prawa rachunku prawdopodobieństwa mówią, że jeśli prawdopodobieństwo wystąpienia zdarzenia określone

jest przez AAt, to szansa k-krotnego pojawienia się, dla przypadku zdarzeń niezależnych, zadana jest przez (AAt)*. Właśnie kluczem do rozwiązania tego problemu jest

zagadnienie niezależności. Prawdą jest, że kolejne zdarzenia występują niezależnie od siebie, niemniej pojawiają się one w określonej sekwencji czasowej. Jeśli prawdopodo-

bieństwo (5.35) zaistnienia zdarzenia w bardzo krótkim przedziale czasu jest proporcjonalne do tego przedziału czasu, to funkcja gęstości tego prawdopodobieństwa jest stała w czasie i w naszym przypadku zadana przez intensywność A. Zapytajmy wobec tego

o prawdopodobieństwo wystąpienia zdarzeń w zadanej kolejności. Jeśli przez ty, tą, ...,

t, oznaczymy kolejne chwile, w których pojawiły się zdarzenia, to będzie nas interesowało prawdopodobieństwo P,(0 £ WA - (1 + nA) = u(l — (1 +3n)A) + O(A”).

5,4. Rozkład Poissona

289

W warunkach długiego czasu obserwacji £, czyli dużej, w porównaniu z jednością, oczekiwanej liczby 4 padających cząstek, wynik ten możemy uprościć:

V[KI £ u(1 — ZNA) + O(A”) =At(1l — 3AT) +O(A”). Widzimy, że rezultat ten odtwarza liniową część związku (5.64) w wielkości AT. Jeśli przypatrzymy się bliżej formule (5.64), to zauważymy,

że zaniedbując w niej odwrot-

ności wielkości Aż w stosunku do jedności, związek ten przedstawia pierwsze wyrazy

rozwinięcia funkcji

1

(5.68)

v[k] = A+AT)3

względem argumentu A7, w obszarze asymptotycznie dużych wartości argumentu At. Matematyczna

technika rozwinięć

asymptotycznych

pozwala

znaleźć

(J. W.

Mueller,

Nucl. Instr. Methods 117 (1974), 401) przybliżone, ale uwzględniające wyrazy wyższego rzędu, wyrażenia na wartość oczekiwaną i wariancję:

+ AM (AT)? (k) — 1I+AT ( + 2(1 nz)” y[k] =

At a+ar> |

(AT)? (18 + 4AT + (AT)”) * 12At(1 + AT)

|

Przejdziemy teraz do dyskusji wyników dla wartości oczekiwanej i wariancji liczby sygnałów zarejestrowanych z użyciem układu charakteryzującego się czasem martwym. W analizie naszej przyjmiemy, że w eksperymencie mamy do czynienia z małymi obciążeniami i długim czasem pomiaru, a więc do opisu wystarczą uproszczone wyrażenia (5.66), (5.67) oraz (5.68). Przede wszystkim zwróćmy uwagę na fakt, że niepewność względna

Dk]

k

/At

A+ATVI+FAT

1+AT

l

A

> JAJYI+FAT

mniejszej,

w obecności

1

AL

mniejsza jest od tej, jaką otrzymujemy dla rozkładu Poissona. Źródła tego efektu należy upatrywać

w dyskutowanej

wcześniej

czasu martwego,

fluk-

tuacji liczby zarejestrowanych cząstek, niż ta, jaka wynika z rozkładu Poissona. Jeśli wyobrazimy sobie skrajny przypadek dużego strumienia cząstek padających na licznik, to w momencie jego wysycenia, czyłi nieomal regularnej, na podobieństwo zegara, re-

jestracji cząstki po każdym okresie czasu martwego, rozwinięcie fluktuacji.

nie ma już wolnego miejsca na

Czas martwy charakteryzuje się jeszcze jedną ciekawą konsekwencją. Jeśli ustalimy

liczbę n cząstek padających na licznik w zadanym przedziale czasu £ 1 rozważymy relację

między liczbami k;, i ką rejestrowanych cząstek w dwóch rozłącznych, lecz następujących

po sobie przedziałach czasowych £, + ty = t, to znajdziemy, że relacja ta, która w przy-

padku licznika bez czasu martwego ma charakter matematycznej zależności liniowej, ulega istotnej zmianie. Dla rozkładu dwumianowego korelacja taka wynosi ((ki — (k;)) (ką — (ka))) = (n =k, + ka] = ((ki — (kq1))00 — ky — (n — k,))) = — ((ki — (k;)) (ką — (k1))) = —P[kil,

290

5. Niektóre rozkłady

co implikuje ujemny, jednostkowy współczynnik korelacji. Gdy występuje czas martwy, prosty związek n = k, + ką przestaje funkcjonować, gdyż pojawia się pewna losowa liczba m impulsów zgubionych n = k;, + ką + m, a korelacja między liczbami zarejestrowanych sygnałów wynosi

((kr — (kq)) (ka — (ka))) = ((kq — (k1))0m — ki — m — (n — k; — m))) = — ((kq — (k1)) (ki — (ki)+ m — (m))) —Y [k,] — ((ki — (k1))(m — (m))).

Kowariancja wyrażona przez ostatni składnik jest nie tylko różna od zera, ale na pewno

ujemna, gdyż im mniejsza będzie liczba zarejestrowanych sygnałów, tym większa będzie liczba utraconych. W efekcie wariancja sumy zliczeń nie jest sumą wariancji zliczeń w poszczególnych przedziałach czasowych. Wniosek ten ma jednak bardzo lokalny charakter w czasie i jest słuszny jedynie w odniesieniu do bardzo krótkich odstępów czasowych, porównywalnych z długością czasu martwego. W warunkach asymptotycznych, kiedy możemy użyć wyrażenia (5.68) dla wariancji liczby zliczeń, znajdujemy bezpośrednim rachunkiem, iż

Y[k] =

At

n

I+ATŻ

A(t

+ b)

_

(Q+ATŻ

Aly

+

(QG+ATY

Ab

-Yy

[ki] + Y [ke],

G+ATY

co oznacza, że w tym przybliżeniu zmienne losowe k, i ką nie są statystycznie skorelo-

wane, choć nie przesądza to o ich statystycznej niezależności. Zwróciliśmy już uwagę, że im czas martwy jest większy, tym mniejsza jest niepewność zarejestrowanej liczby zliczeń. Nie oznacza to jednak, że powinniśmy w eksperymencie używać układów detekcyjnych z dużym czasem martwym — raczej powinniśmy postępować odwrotnie. Dysponując liczbą k zarejestrowanych przypadków, chcielibyśmy znać rzeczywistą liczbę n przypadków, estymującą wielkość Ar. Estymatę tę możemy znaleźć ze wzoru (5.66)

a jej niepewność wynosi =

sa

(z) l

TĄ”

y[k]

=

(ew) 1

At

TY" G+AT)3

Jeśli w wyrażeniu na wariancję ) [k] wyeliminujemy wielkość 1 + AT za pomocą

wyrażenia na wartość oczekiwaną (5.67), to otrzymamy

v[k] =

At

U+AT)Ż

(k)”

(5.69)

(An

a oczekiwaną liczbę At padających cząstek wyeliminujemy z tego samego związku, zamieniając w nim liczbę k zliczeń na jej wartość oczekiwaną (k), to znajdziemy następujące wyrażenie na wariancję: | 2

Y [k] = (k) (1 — (k) 7) £

= (k)(1- |x

1

i=l

1

m

m

=. 3 k;, i=l

_

s; 2 =—— m1 Yo2! (kk).) 2 Ponieważ wielkość s; jest estymatą wariancji (5.70), więc A s;ZNĄZ Z AK(1-KT)

rpry2

>

o

T

EOl

Sk

RJĄŻ

=

A

ASk



k

Trudniej obliczyć błąd czasu martwego. Aby to zrobić Ściśle, potrzebowalibyśmy do tego wyrażeń na wyższe momenty rozkładu (5.61). Aby tego uniknąć, wykonamy obliczenia przybliżone, stosowne dla przypadku małych obciążeń. Skorzystamy z wyników

podrozdziału 3.4:



(of

af af

sz = (s)

of

,

v [kl + 23% gz" [k, sę| + (33)

v[s].

związku (4.6) miedzy D |k| i D[k] oraz wyniku przykładu 4.2.3: _

l

l

cov[k,k,s| sę] =—€|(k—u)”| - [km] =—D*fk]y. m [kl gdzie y, jest współczynnikiem asymetrii, oraz związku (4.9):

Y[EJ=

2 5) + (m 71a

Po podstawieniu znajdujemy ię

„2 z AVIKI

mk

4(-725)

[W

2Y%8)

+

h

WA

(- za) + (

2900)

AU

+

m)

m-1)]'

294

5. Niektóre rozkłady

W warunkach niewielkiego obciążenia obowiązuje V[k] próbki są liczne, czyli (k) 4 I, to

2

To

A?

l

2m(k)”

2mk>

=

(k), a jeśli m >> 1 oraz

Widzimy, że rezultat zależy od liczby m zgromadzonych próbek, tak więc pomiar czasu martwego możemy przeprowadzić z dowolną, niemalże, precyzją. Naszą dyskusję zjawiska czasu martwego 1 efektów, do jakich on prowadzi, oparliśmy na rozkładzie (5.61), który uzyskaliśmy, zakładając, że zliczenia zaczynamy obserwować

od chwili, w której licznik jest dostępny, czyli jest w stanie zarejestrować cząstkę, a tym samym rozkład czasu oczekiwania na pierwszy sygnał zadany jest zwykłym rozkładem wykładniczym (5.37). Inna typowa sytuacja doświadczalna to taka, w której zaczynamy

pomiar od pewnego losowo wybranego sygnału. Oznacza to, że czas oczekiwania nie tylko na następne, ale i na pierwszy sygnał określony jest rozkładem (5.59). Przy takim wyborze początkowego momentu liczenia czasu otrzymalibyśmy rozkład liczby zarejestrowanych sygnałów różny od zadanego wzorem (5.61), gdyż efektywny czas pomiaru

wynosiłby £ — 7. W końcu istnieje jeszcze trzecia możliwość wyboru chwili startu obserwacji. Jest nią zdanie się na łaskę losu i wybór początku obserwacji na chybił-trafił.

Chwila ta może wypaść w momencie, kiedy licznik jest zablokowany i będzie się znaj-

dował w tym stanie jeszcze przez pewien losowy przedział czasu (nie większy niż 7) albo trafimy na licznik gotowy do zarejestrowania cząstki. Stosowne złożenie rozkładów odpowiadających tym dwóm możliwościom doprowadza do jeszcze innego rozkładu prawdopodobieństwa. Nie będziemy tu prezentowali wyników obrazujących te rozliczne możliwości. Czytelnik zapewne jednak zgodzi się z sugestią, że w warunkach asympto-

tycznych, określonych przez At >> 1 1 przy małym obciążeniu, czyli wtedy gdyAT X 1,

konkluzje wysnute z tych rozkładów, a odnoszące się do wielkości, które potrzebujemy znać w praktyce, czyli oczekiwanej liczby zliczeń i liczby cząstek, jakie padły na licznik oraz ich dyspersji, różnią się marginalnie.

Na zakończenie tego punktu wspomnimy, że świat liczników z czasem martwym zasiedlony jest przez jeszcze jeden specjalny gatunek liczników z tzw. przedłużającym się czasem martwym. Liczniki takie charakteryzują się tym, że jeśli układ jest zabloko-

wany przez jakiś sygnał i w momencie ź£ liczonym od chwili, w której pojawił się ten

sygnał, zaistnieje następny, to czas martwy tego urządzenia zostaje przedłużony 1 trwa do momentu ż + 7. Własność taka jest raczej cechą układów elektronicznych, zwłaszcza dzisiaj, w dobie układów cyfrowych, niż fizycznie samych liczników. Szerszą klasę

takich urządzeń zaprezentowaliśmy w przykładzie 5.4.11, gdzie czas analizy Tp ulegał

fluktuacjom. Nie będziemy tu rozwijali opisu statystycznego takich układów. Zainteresowanego Czytelnika odsyłamy do wspomnianej we wstępie książki W. I. Goldanskiego i innych, która ujmuje te zagadnienia (a także zwyczajny

czas martwy)

w klasyczny

sposób. Współczesny i alternatywny, a przede wszystkim naturalny opis zjawisk związanych z czasem martwym, znajduje swoje ramy w teorii procesów stochastycznych i taki

też opis można znaleźć w drugim tomie monografii W. Fellera, również wymienionej

w spisie literatury we wstępie.

5.5. Rozkład Gaussa



295

5,5, Rozkład Gaussa

Historia rozkładu Gaussa, zwanego też rozkładem normalnym, sięga 1733 roku i wiązana jest z nazwiskiem francuskiego matematyka Abrahama de Moivre'a, który pierw-

szy dostrzegł ten rozkład jako graniczną formę rozkładu dwumianowego, jednakże bez związku z gęstością i ze zmienną ciągłą. Właściwe zrozumienie roli tego rozkładu

przypisuje się Gaussowi i Laplace'owi, przy czym to Laplace, niezależnie odkrywając rozkład, powiązał go z centralnym twierdzeniem granicznym. Właśnie dzięki temu twierdzeniu tak wielkie jest znaczenie tego rozkładu w statystyce matematycznej.

RE

Carl Friedrich Gauss,

Pierre Simon de Laplace,

1777-1855

1749—1827

5.5.1. Wyprowadzenie — modele Laplace'a i Herschela Rozważmy sytuację, w której usiłujemy zmierzyć wielkość, którą oznaczymy symbolem L, jednakże pomiar nasz jest zaburzany przez n losowych efektów o wielkości e każdy, działających z prawdopodobieństwem p = 0,5 zarówno w kierunku zmniejszającym, jak i zwiększającym wartość wielkości mierzonej. Doświadczalną realizację takiego układu zaproponował matematyk angielski F. Galton, budując tzw. quincunx, czyli deskę Gal-

tona, której schemat przedstawia rys. 5.28.

W wyniku pomiaru zamiast wielkości 4 otrzymamy jedną z wielkości x; określonych równaniem k=0,1,2,...,n—2,n—l,n. x =u+ (—n + 2k)e,

Prawdopodobieństwo każdej z tych wartości jest zadane przez rozkład dwumianowy

(5.10)

BPO)

n!

1y”

= jan =hi (3) |

296

5. Niektóre rozkłady

Rys. 5.28. Deska Galtona

Zwróćmy uwagę, że wartość oczekiwana zmiennej losowej x, dana jest przez p, nato-

miast jej wariancja wynosi

v bę] =Y[u + (2k — ne] = 4eV[k| = 4e*np(l — p) =ne". Wiemy z podrozdziału 5.2, że dla dużych wartości liczby n prawdopodobieństwo to

ma zachowanie graniczne

l R —-0©% /żnnpq P (

26 /2n

(

/n€

P

Sz —--—--. | 2npq

=

2

2nn

©

_(k- zn)

p

25n

(X — c) 2ne 2

|

gdzie podstawiliśmy k = **" + 3. Gdybyśmy

chcieli zmniejszyć wartość e do zera, przy zachowaniu pozycji x, to

aby uzyskać sensowną granicę, musielibyśmy zażądać, aby wielkości n oraz k dążyły do nieskończoności oraz aby wariancja ne” dążyła do wartości stałej: ne” > a”. Pozostanie jednakże czynnik Że przed funkcją wykładniczą, który „zepsuje” całe przejście graniczne. Uświadamiamy sobie jednak, że przejście z wartością zaburzenia e do zera oznacza przejście do zmiennej ciągłej, a więc zamiast prawdopodobieństw B;(n, p) powinniśmy używać gęstości prawdopodobieństwa. Zauważmy równocześnie, że poszcze-

gólne wielkości x, oddzielone są od siebie o Że, stąd w naturalny sposób można wprowadzić gęstość, dzieląc prawdopodobieństwo B;(n, p) przez ów przedział 2e, „rozmazując” niejako prawdopodobieństwo skojarzone z punktem k po całym takim przedziale:

Bim D=05) 2E€

|||

n>00, e>0

wa:uoj= z

/2no

xp

P

(GM 20?

|

Jak należało się spodziewać, otrzymaliśmy rozkład Gaussa ciągłej zmiennej losowej x.

5.5, Rozkład Gaussa

Powyższy

sposób

wyprowadzenia

rozkładu

Gaussa

określany jest modelem

297

La-

place'a błędów pomiarowych i jest uwspółcześnioną wersją rozważań tego uczonego z przełomu XVIII i XIX wieku. Inny sposób, bardziej bezpośredni —

bez odwoływania

się do postaci granicznej

rozkładu dwumianowego — polega na zbudowaniu ilorazu różnicowego: B,, — B

p

l

n!

n!

= 2 (EDGE DI 1

1Y”

BGB) (3)

n!(n — k)

n!

Ly”

- 2e (a> Dn=k)! kin 5) _A1(n=k

- 2e

n!

(k+1

kiln=k!(2)

I)

(3)

_ln-k-15

2e

k+l

*

który, po wyeliminowaniu z niego przez podstawienie Xk — JL

k=

n

— ŻE + 2 zależności od wielkości k, doprowadza nas do równania

AH A" Ax

1

De ŻE X. %k — Hal

2€

ko

Oz —_ me + ne* 2 + ŻE 2%

2

Aby pracować z funkcją gęstości, podzielimy obie strony równości przez 2e. Następnie dokonamy przejścia granicznego n — oo z liczbą czynników zaburzających, przy jedno-

czesnym przejściu do zera z wartością e, ale przy warunku stałości wariancji: ne” > o” i utrzymaniu stałej wartości położenia x, = x. Lewa strona dąży do pochodnej funkcji gęstości, a całość przyjmuje postać równania różniczkowego

LN dx

(u, 0) = —

x-u g2

N (x; n,o).

Rozwiązanie tego równania, ze stałą całkowania spełniającą warunek unormowania, daje

rozkład Gaussa. -—

Przykład 5.5.1 Rozkład Gaussa i pomiary Kompendium Review of Particle Properties, wymienione we wstępie, zawiera bogactwo rezultatów pomiarowych. Czy moglibyśmy jakoś sprawdzić, czy przedsta-

wione tam wyniki pomiarów istotnie układają się zgodnie z rozkładem Gaussa?

Byłoby to łatwe, gdybyśmy znali prawdziwe wartości wielkości, które są bohate-

rami tej publikacji. Ponieważ tak nie jest, możemy próbować rozwiązać problem inaczej. Zajrzyjmy do tegoż dzieła, ale sprzed paru laty i wybierzmy z niego te wyniki x, wraz z błędami s,, dla których błędy w najświeższym wydaniu uległy istotnej redukcji. Te najnowsze wyniki możemy potraktować jako „prawdziwe” wartości j4,. Dla tak wyselekcjonowanej próbki zbudujmy wielkości

5. Niektóre rozkłady

—10

—12

Rys. 5.29. Rozkład stałych z kompendium Review of Particle Properties

0,08 r 0,07 0,06 gęstość [hPa *]

298

0,05 0,04 0,03 0,02

0,01 0,00

980 ciśnienie [hPa]

Rys. 5.30. Rozkład wyników pomiarów ciśnienia atmosferycznego

5.5. Rozkład Gaussa

6, =

299

16; — | Si

i z nich utwórzmy histogram. Histogram taki, a Ściślej, logarytm eksperymentalnej funkcji gęstości przedstawiony jest na wykresie 5.29 (za: A. P. Bukhvostov, On the

Probability Distribution of the Experimental Results, http://arXiv.org/abs/hep-ph/

9705387) linią ciągłą, łamaną. Linia przerywana nakreśla krzywą Gaussa, a linia prosta to funkcja gęstości odpowiadająca rozkładowi wykładniczemu z jednostkowym parametrem. Rzeczą najbardziej zdumiewającą, jaką unaocznia ten wykres,

jest zdecydowane odstępstwo wyników doświadczalnych od tego, czego oczeki-

walibyśmy, czyli rozkładu Gaussa. Wynik ten jest chyba najbardziej naocznym dowodem tezy, dobrze znanej praktykom statystycznym, że nie należy zbyt wiele oczekiwać od rozkładu Gaussa. Jest on bardzo dobrym modelem, jeśli chcemy

opisać główny „trzon” danych, w zakresie jednego lub dwóch odchyleń standardowych. Skrzydła rozkładu z reguły już mu nie podlegają i są zazwyczaj bardziej

obsadzone, niż to przepowiada ten uświęcony tradycją rozkład. Jak widzimy z wykresu, prosty model wykładniczy wydaje się o wiele lepiej opisywać rezultaty procedur stosowanych przez fizyków.

Nie zawsze jednak jest tak źle. Na wykresie 5.30 przedstawiona jest empi-

ryczna funkcja gęstości 1600 pomiarów wcześniej,

ciśnienia atmosferycznego,

w podrozdziale 4.2, wraz z rozkładem

jest ewidentna.

Gaussa.

Tym

omawianych

razem

zgodność

T'

Interesujące jest przytoczenie jeszcze jednego, pochodzącego z roku 1850 i wiąza-

nego z nazwiskiem angielskiego astronoma J. Herschela, sposobu wyprowadzenia rozkładu normalnego. Wyprowadzenie to łączy się z pewnym twierdzeniem, które mówi, że jeśli w jakimś układzie współrzędnych para (x, y) przedstawia niezależne zmienne losowe i istnieje choćby jeden inny, obrócony, układ współrzędnych, o tym samym początku i para (X,y') otrzymana z par (x,y) po jej przetransformowaniu przedstawia w tym układzie również niezależne zmienne losowe, to każda ze zmiennych x i y może być tylko zmienną losową podlegającą rozkładowi normalnemu. Naszkicujemy tu dowód

tego twierdzenia, odwołując się do „artyleryjskiego” przykładu strzelania do wybranego punktu, który będzie naszym początkiem układu (x, y) (w rzeczywistości Herschel rozważał zagadnienie pomiaru pozycji kątowej gwiazdy na niebie). Prawdopodobieństwo

trafienia w mały obszar o powierzchni As wokół punktu (x, y) jest proporcjonalne do

tej powierzchni. Jeśli wybierzemy obszar o trochę innym kształcie, ale tej samej powierzchni wokół tego samego punktu, to prawdopodobieństwo trafienia w ten obszar

będzie, z dokładnością do wyrazów kwadratowych względem wielkości As, identyczne

z prawdopodobieństwem trafienia w obszar pierwotny. Wybierzemy obszar As w kształcie prostokąta o środku w punkcie M (x, y) i bokach Ax oraz Ay. Na mocy niezależności statystycznej zmiennych losowych x i y prawdopodobieństwo AP (M) trafienia w obszar As wokół punktu M(x, y) dane jest iloczynem

AP(M) =N

(X)N (7) As + O(As”).

300

5. Niektóre rozkłady

Jeśli jako drugi układ odniesienia przyjmiemy układ (x', y') obrócony względem pierwszego o pewien kąt, to prawdopodobieństwo A P'(M) trafienia w prostokąt As = Ax'Ay' będzie niemalże równe prawdopodobieństwu AP(M):

AP(M) =N (x)N (y) As + O (As*) = N(x'))N (y') As + O' (As?) = AP'((M).

Jeśli podzielimy obie strony środkowej równości przez As oraz przejdziemy z wartością As do zera, to

NON)

=N(x')N(y).

Jeśli dobierzemy układ x', y' tak, że oś x' przechodzi przez punkt M, to:

N(X)N(GY) NGN (0) =kNfr), r=yx+y, k=N(0). Zróżniczkujemy obie strony tej równości względem x oraz względem y:

GA

©) ry)

_3N0

dx

N Gy A

_ NX

0x

dr

r

dy

dr

r

_ ANM _;Wlny

d

Dzieląc równania przez siebie, otrzymujemy l

dN(x)

xN(x)

dx

_

1

yN(y)

dN())

dy

|

Ponieważ lewa strona jest jedynie funkcją argumentu x, a prawa strona jedynie funkcją argumentu

y, więc aby taka równość

każdego y, każda ze stron musi być liczbą:

l

xN (x)

mogła być prawdziwa

dla każdego x oraz

dN(x) dx

2 N (x) = Aexp (>)

lub też

O wielkości c nie potrafimy niczego powiedzieć poza tym, że jeśli chcemy, aby funkcja

była całkowalna, wielkość ta musi być ujemna i możemy ją wybrać w wygodnej postaci

c = —l/o*. Stałą całkowania A otrzymujemy z warunku unormowania, co prowadzi

ponownie do rozkładu normalnego:

N(;u=0,0)= Warto

przypomnieć,

że w

1860 roku fizyk J. C. Maxwell

wyprowadził

rozkład

prędkości cząsteczek gazu doskonałego, zwany dziś rozkładem Maxwella, odwołując się do tego samego założenia o braku zależności dowolnej ze składowych wektora prędkości cząsteczki od wartości innych składowych. 5.5.2. Własności rozkładu Gaussa Krzywa Gaussa ma charakterystyczną postać „dzwonu”, którego maksimum wypada w punkcie x = ju, a dwa punkty przegięcia rozłożone są symetrycznie wokół maksimum

5.5. Rozkład Gaussa

301

0,9 r 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0,0

Rys. 5.31. Rozkład Gaussa dla trzech wartości parametru o

w odległości o od niego (rys. 5.31). Wymiary obu parametrów są takie same jak wymiar

zmiennej losowej x, a wymiar funkcji gęstości rozkładu jest odwrotnością wymiaru tej zmiennej. Wartość oczekiwana zmiennej wynosi OO

1

€ [x] = dz6

| xa»

(x — w)”

(>)

dx=u,

—O0©

a jej wariancja to

1

Yh] = Zza]

f

(x — w)?

(x — 4)” exp (-—-)a

=0o..

Ogólnie, wszystkie nieparzyste momenty centralne znikają z uwagi na symetrię rozkładu, natomiast parzyste przyjmują wartości

2k)!

(6 W) = air 0

(5.71)

co dla k = 2 czyni ((x — )*) = 3o*, skąd, w szczególności, dla współczynników asymetrii 1 spłaszczenia otrzymujemy zerowe wartości. ——

Przykład 5.5.2

Błąd błędu Przypomnijmy wyrażenie (4.90) na wariancję estymatora określającego kwadrat błędu pojedynczego pomiaru: l

v [5] = — (6

9) - — _

—3 zn”

2

[x] .

302

5. Niektóre rozkłady

Gdy rozkład, z którego czerpiemy próbkę, jest rozkładem normalnym, wtedy wy-

korzystując (5.71), otrzymujemy Dis|=

[5x]

3

|-g4—

(że

n-3

——

2

gi! =

nn=Do

n=l

2

Jeśli wielkość s; potraktujemy jako kwadrat błędu, wtedy (przypomnijmy: jeśli u=v?, to s, £ 2(v) sy) D [s; | = 20,D [sx],

lub

pis] 1 |--o? xl = — 241 _= 20;

2o4n-—1

0;

0

=

———=—— Oy,

/2(n—1)

(5.72) .

co daje wyrażenie na błąd błędu i determinuje dokładność, z jaką powinniśmy zapi-

sywać wartość błędu pomiaru, a tym samym i wynik pomiaru. Wynik (5.72) stosuje się także do błędu średniej arytmetycznej, jeśli wielkość oż zastąpimy przez ot.

Rozważmy prosty przykład. Przypuśćmy, że wykonaliśmy serię n pomiarów wielkości x, i obliczona przez nas Średnia arytmetyczna (4.1) wynosi 9.87654321..., natomiast odchylenie standardowe (4.8) tej średniej to

1,23456789.... Jak mamy te wyniki zapisać? Czy wystarczy:

10 + 1, czy też

może 9,9 + 1,2, a może nawet 9,88 + 1,23? Niech liczba pomiarów, z których

obliczyliśmy średnią, wynosi 5. Błąd względny znalezionego odchylenia standardowego na mocy (5.72) wynosi D [sz]

x

u

D [sz]

z

06,

1

/2(n=l1)

co dla pięciu danych pomiarowych daje około 35%. Oznacza to, że wartość odchylenia standardowego 1,23456789... znamy z dokładnością 0,4. Tym samym nie ma sensu zapisywać tej niepewności z uwzględnieniem drugiej cyfry znaczącej

(pierwszej po przecinku), gdyż ta jest po prostu szumem statystycznym. Wystarczy

pierwsza jedynka i ostateczny wynik powinniśmy podać w pierwszej z sugerowa-

nych postaci: 10 + 1. Jeśli jednak liczba pomiarów, z których wydobyliśmy Śred-

nią, wynosi np. 50, wtedy identyczny błąd względny dla odchyłenia standardowego otrzymujemy na poziomie 10%. Oznacza to, że druga cyfra znacząca w zapisie

odchyłenia standardowego jest co prawda dość niepewna: może to być zarówno jedność, jak i trójka, warto jednak w takiej sytuacji podać ostateczny rezultat w postaci: 9,9-+1,2. Przy wzrastającej liczbie pomiarów „odsłaniać” się nam będą kolejne cyfry znaczące. Abyśmy ostateczny rezultat mogli podać z dokładnością

do trzech cyfr znaczących, niepewność względna powinna wynosić przynajmniej 1%. Oznacza to, że próbka naszych pomiarów powinna liczyć przynajmniej kilka tysięcy liczb. Naturalnie, wskazane wyżej relacje będą wygłądały trochę inaczej,

jeśli pierwsza cyfra niepewności standardowej nie będzie jedynką, ale np. ósemką.

Wtedy wynik: 98,87654321...-+8,7654321... dla próbki liczącej 5 pomiarów powinniśmy zapisać jako: 100+ 10, dla pięćdziesięciu pomiarów jako: 99-F9, a dla pięciu tysięcy pomiarów jako 98,9 = 8,8. W przypadku, gdy dane nie pochodzą z rozkładu Gaussa, przydatna może być formuła (4.10), uzupełniona o dodatkowy czynnik n**, wyrażający przejście od odchyłenia standardowego dla zmiennej losowej do odchylenia standardowego średniej arytmetycznej.

n

5.5. Rozkład Gaussa

303

--- Przykład 5.5.3 Suma gaussowskich zmiennych losowych Dane są dwie niezależne zmienne losowe: x oraz y, obie z rozkładu gaussowskiego o tej samej wartości oczekiwanej „4 i dyspersji o. Jaki jest rozkład zmiennej losowej z będącej sumą obu zmiennych? Ponieważ rozkład sumy dany jest splotem (2.27), więc ł

2na?

|

ex

,

-

_Z-u-t)

ex

2o?

b

_(6—

ny”

dt

20?

I

==———-—-—-——--.

w/2n(v/20) P (

z a|

——

2(/20)?

=

A (

:2u,v2

s Y20)

.

Stąd łatwo otrzymujemy, że suma n niezależnych zmiennych losowych gaussowskich ma rozkład Gaussa (mówimy, że rozkład Gaussa jest zamknięty względem operacji dodawania), o wartości oczekiwanej nw i wariancji no”, a Średnia arytmetyczna X —

rozkład Gaussa

o wartości oczekiwanej

j„ i wariancji

n-krotnie mniejszej od wariancji pojedynczej zmiennej losowej.

(4.6)

r

Rozkład Gaussa jest silnie „skoncentrowany” wokół swego maksimum. Możemy to zilustrować, obliczając prawdopodobieństwo P

(ui—no



x


1-9

>

4MK "(M+K)2

Łączny rozkład zmiennych losowych m oraz k dany jest iloczynem rozkładów dwu-

mianowych B„(M, p = 0,5) oraz B,(K, p =0,5), z których każdy, dla dużych wartości parametrów M oraz K, na mocy lokalnego twierdzenia de Moivre—Laplace'a (5.26) przyjmuje postać gaussowską, dlatego też

B„(M, p=0,5)B,(K, p=0,5) = P„.(M,K)

R

2

2nM

exp | —

(m-IM)] 2- 4 M

2

/2nK

exp

(k—;K) |-————2: zK

|.

5.5. Rozkład Gaussa

Jeśli z rozkładu tego wyeliminujemy zmienne m oraz k na korzyść xx m

k

=

=

1

4€óm,k (x „k

1

de

Xm

Hx A ) +

"kad —

X

)



l

na 48 (y Umko„k (Ly)

14

48 mk m



OrAZ y,, i:

1

M, 2

+

+ lk 5017 4

s

to po zastosowaniu wyrażeń na współczynnik p i wariancje zmiennych Xx otrzymamy BE0 P„x(M,

x

exp |

K)



A

2nD EH l

24-05)

D [ymx] yl-

(Xm,k



Vf]

u)”

=

2p

p”

315

OrAZ yk»

X

(Xm.k

U)

mk



D [xe] P lynx]

+

Ly)

(Ym.k

a ay)”

Vlyme| J)

Abyśmy mogli przejść do ciągłych zmiennych x oraz y, musimy zmniejszać wartości

zaburzeń e oraz 6, zwiększając jednocześnie liczby M oraz K, ale w taki sposób, by współczynnik korelacji p, a także dyspersje obu zmiennych losowych były skończone:

D|xm] > 06 Dyk] —> 0y. Tak jak w przypadku jednowymiarowym musimy także m

przejść do gęstości, a więc „rozmazać” uzyskane prawdopodobieństwo zmiennych oraz k po jednostkowym obszarze skojarzonym ze zmiennymi Xx

OTAZ yk:

Rys. 5.39. Elementarna powierzchnia Ax, zAymk Wyznaczona przez zmianę Am =liAk=l

Naszym

X

>

zadaniem teraz będzie wyznaczenie powierzchni tego jednostkowego ob-

szaru. Na płaszczyźnie (m, k) dozwolone wartości tych zmiennych wyznaczają kratow-

nicę punktów zawartych wewnątrz prostokąta o bokach M oraz K. Przekształcenie pro-

wadzące do zmiennych x;„ oraz y;„ to translacja połączona z obrotem 1 skalowaniem, która zamienia elementarny

kwadrat o wierzchołkach

i (m + 1,k + 1) w przestrzeni

(m,k),

(m,k),

w równoległobok

(m + 1,k),

o wierzchołkach

(m,k + 1)

(Xx, Ym.k):

(Xmk + 2E, Ymk + 26), (mk + 2E Ymk — 28) 1 (Xmk + 2€, Ymk) w przestrzeni (x, y).

Z rysunku 5.39 znajdujemy, że powierzchnia tego równoległoboku wynosi 8e6, a więc

316

5. Niektóre rozkłady

dokładnie jest równa współczynnikowi mnożącemu prawdopodobieństwo. Cały ten rachunek moglibyśmy wykonać w znacznie prostszy sposób, odwołując się do własności jakobianu przejścia od jednych zmiennych do drugich. Jakobian taki wyznacza właśnie poszukiwaną elementarną powierzchnię: ó(m,k)

Onkrymk)

1

1

4€

45

4e

48

|1

z

l

1] 8e8'

Dzieląc wyrazenie na prawdopodobieństwo przez połe elementarnej powierzchni (bądź mnożąc przez moduł jakobianu), znajdujemy ostateczne wyrażenie na dwuwymiarowy

rozkład normalny, zwany też rozkładem binormalnym:

N (x, Y; x, ky, 0x,0,, p) = 1

x

Xx — Hy

-so(-zr>5

((

0x

*

)

XA —

-z(

HM

My

dx

(

dy

-

)-(

My

dy

)))

Własności rozkładu binormalnego to € [x] = € [y]

=”

x,

v [x]

=

Ż,

hy,

Ylyl

=oy.

Dodatkowo, ponieważ mamy dwie zmienne losowe, możemy znaleźć ich kowariancję cov [x, y] = gxOyp,

która wyraża się przez parametr p rozkładu, będący jednocześnie współczynnikiem korelacji (3.14). Jeśli współczynnik ten jest równy zeru, rozkład binormalny staje się iloczynem rozkładów obu zmiennych, które tym samym uzyskują statystyczną niezależ-

ność. Jest to specyficzna własność rozkładu Gaussa, jako że w ogólnym przypadku brak korelacji nie implikuje niezależności statystycznej (patrz podrozdział 3.3).



Przykład 5.5.9 Rozkłady brzegowe, warunkowe i krzywe regresji dla rozkładu binormalnego Prostym, choć żmudnym rachunkiem można wykazać, że rozkłady brzegowe (2.24)

dla normalnego rozkładu dwuwymiarowego są rozkładami Gaussa: ICE

Ax; Hy, Gy, Gy, p)

co pozostaje słuszne i dla drugiej zmiennej.

dy

=N

(x; Hx, 0x),

5.5. Rozkład Gaussa

317

Rozkład warunkowy (2.29) zmiennej losowej y przy zadanej wartości zmiennej x dany jest wyrażeniem

N (x, Y; x, My, 0x, Gy, p)

IO) =

N (x; x, 0%)

2

i

(-pża

"V2moxyl=ee

|

- m)

2(awi=p7)

Rozkład ten dostarcza krzywej regresji € [y|x] pierwszego typu zmiennej y wzglę-

dem zmiennej x w postaci

€ [yk = x] = 4y(%) = Hy FP

dy X

(X — Mo).

Podobną krzywą regresji otrzymujemy dla zmiennej. x względem zmiennej y x

€ xly=y| =m0) =m + PO — Ly). y

Są to, jak widzimy, linie proste. Zwróćmy uwagę, że na płaszczyźnie (x, y) proste

te pokrywają się jedynie wtedy, gdy współczynnik korelacji między zmiennymi

jest równy jedności. Dla kompletu informacji o dwuwymiarowym rozkładzie normalnym podamy także postać wariancji warunkowej zmiennej y:

b=

2

= £|((-w-PEG-n0)

| = oy (l- p”).

Aby lepiej sobie wyobrazić kształt rozkładu binormalnego, rozważmy na płaszczyź-

nie (x, y) linie stałych wartości tego rozkładu. Przebiegają one tam, gdzie wykładnik

funkcji wykładniczej przyjmuje stałą wartość C”, a więc wzdłuż krzywej określonej

równaniem

l l-

A — Hy p

2

+

2

Y-My

e

— 20

A — Hx

Y — Hy

|

dy

Dy

lub też, jeśli wprowadzimy zmienne standaryzowane X —

u =

0;

Mx

,

v=

>

Hy

Oy

,

to wzdłuż krzywej l 1l=p*

(u? + v” — Zpuv) =C-.



(2

318

5. Niektóre rozkłady

1,0

0,6

0,4

-2

3 3 Rys. 5.40. Obraz dwuwymiarowego rozkładu Gaussa

Jeśli dokonamy obrotu układu o kąt o w kierunku dodatnim, transformując zmienne wg reguły

U =u' CosQ—v Sing,

v=u' Sing+vV cosy,

to równanie krzywej przejdzie na l

zl

2

(1

,

in

2

— psn

29) +

2

v'(1l

1

in

+ psin29g)

2



2

1

Żpuv

cos

2

z

p) =

C-

.

Wybierając kąt p = 45", otrzymujemy

GG) + (>) $©

Tym samym transformacja postaci

l+p

1-p

l+p U

=

2

l=p 56

+

2

Ć,

przekształca elipsę w zmiennych (u, v), na której gęstość binormalna jest stała, na okrąg o promieniu € w zmiennych ($,£). Postać taka prowadzi do faktoryzacji w nowych

5.5, Rozkład Gaussa

319

Rys. 5.41. Przykłady elips kowariancji dla kilku wartości współczynnika korelacji p

zmiennych, co równocześnie wykazuje ich statystyczną niezależność. W ogólnym przypadku poziomice rozkładu binormalnego to tzw. elipsy kowariancji. Ich wspólny środek

usytuowany jest w punkcie (x, £ty). Półosie i kąty nachylenia tych półosi zadane są

przez dyspersje i współczynnik korelacji.

Przykład takich elips, dla których wartość pełnego wykładnika funkcji wykładni-

czej wynosi

1/2 (czyli wtedy, gdy

€ =

1), wartości o, =

2 oraz o, =

1 oraz dla

wartości centralnych „a, i u, równych zeru, a także różnych wartości współczynnika korelacji p, przedstawione są na wykresie 5.41. Należy zwrócić uwagę na to, że bez względu na wartość współczynnika korelacji, wszystkie elipsy zawarte są w prostokącie

o połówkach boków równych wartościom dyspersji. Gdybyśmy wybrali wartość wykładnika 2 (C€ = 2), otrzymalibyśmy prostokąt o połówkach boków będących podwójnymi

wartościami dyspersji, a dla wykładnika 4,5 (C = 3), byłyby to trzykrotne wartości dyspersji. Ilość prawdopodobieństwa zawarta pod rozkładem Gaussa w obszarze płaszczyzny (x, y) ograniczonej takimi elipsami jest niezależna od wartości współczynnika

korelacji i podana jest w tabeli 5.4.

Jak widzimy, prawdopodobieństwa te są różne od tych, jakie otrzymujemy dla rozkładu jednowymiarowego. W zastosowaniach wykorzystywane są często elipsy kowaTabela 5.4. Własności dwuwymiarowego rozkładu Gaussa

0,5 (C=1)

l

39,3%

2,0 (C=2) 4,5 (C=3)

2 3

86,5% 98,9%

320

5. Niektóre rozkłady

prosta regresji x względem y

prosta regresji y | względem x

x

>

Rys. 5.42. Relacja między półosiami elipsy kowariancji a prostymi regresji pierwszego rodzaju

riancji odpowiadające innym wartościom prawdopodobieństwa, a mianowicie: 90%, 95% lub 99%. Patrząc na elipsy kowariancji, warto uświadomić sobie, że proste regresji (przykład 5.5.9) nie powinny być utożsamiane z żadną z osi elipsy kowariancji. Proste regresji

łączą przeciwległe punkty styczności elipsy z prostokątem, jak ten na rys. 5.42, w który wpisują się wszystkie elipsy kowariancji, podczas gdy kąt a nachylenia dłuższej osi elipsy do osi x jest określony równaniem tg 2a = -—-

200,0

> - =

O£ — Oy

Przykład 5.5.10

Rozkład współczynnika korelacji W rozdziale 4 pokazaliśmy, w jaki sposób dla próby losowej (x,, y;) z rozkładu dwóch zależnych zmiennych losowych x oraz y skonstruować pięć estymatorów:

wartości średnie Xx, y, odchylenia standardowe sx, sy oraz kowariancję R. Zaproponowaliśmy tam również postać współczynnika r korelacji z próby. Okazuje się, że dła próby z rozkładu binormalnego można podać łączny rozkład tych pięciu statystyk. Ma on formę iloczynu dwóch czynników J

(x,

y,

SX»

Sy;

r;

Hx,

Hy,

Ox,

dy,

p)

O. =N

XV;

x,

Hy, y

0.

——, /n

——,9 /n

g(Sx,

Sy, y

TF;

Ox,

Gy, y

P),

gdzie pierwszy czynnik to binormalny rozkład Średnich arytmetycznych, a drugi

g(5x, Sy, T; 0x, Gy, P) = n-l

4

Jy0y

l-p*

o

(5x5,)|

) ee

- ryżem»

nI (n — 2)

_

n-l

2(1-p)

BEZZGI

(la

JxOy

Oy

5,5, Rozkład Gaussa

daje łączny rozkład obu odchyleń standardowych i współczynnika korelacji z próby. Ważną cechą łącznego rozkładu wszystkich pięciu statystyk jest niezależność Średnich od pozostałych wielkości. Niestety, ogólna postać rozkładu brzegowego wielkości r jest dość skomplikowana, z wyjątkiem przypadku p = 0, kiedy to

r (zn — 1)

_

Jar gazo) 7)

fr) =

Lajżłn-4

i nie będziemy jej tu przedstawiać. Ograniczymy się jedynie do prezentacji graficznej na rys. 5.43, gdzie rozkład ten ukazany jest dla dwóch wartości współczynnika

=

KR

©

R

M

O

1

00

O

©



p=0,75

-|

—0,75

—0,5

—0(,25

0

0,25

0,5

0,75

I

Rys. 5.43. Rozkład współczynnika korelacji z próby

p oraz trzech wartości liczebności n próbki. Podamy także, że współczynnik korela-

cji z próby jest asymptotycznie nieobciążonym estymatorem parametru p rozkładu próbkowanego, jako że dla dużych liczebności próbki wartość oczekiwana tego estymatora zachowuje się jak

A

r* (zn)

A

|-p-

0a z LGD l

Y[r]

„ (U — p”)

2

-1

(21009).

,

a rozkład współczynnika r korelacji z próby dąży asymptotycznie do rozkładu normalnego o wartości centralnej i wariancji jak wyżej. Warto także nadmienić,

że znana jest (I. Olkin oraz J. Pratt, Ann. Math. Statist. 29 (1958), 201) taka funkcja u(r) współczynnika korelacji z próby u(r)=rF

l

ln-2

22

-(uez

n —

no

2

2(n—2)

„l=r

+3(

> 1-2)

+00).

8n(n — 2)

321

322

5. Niektóre rozkłady

gdzie F' jest funkcją hipergeometryczną: F(a,b,c;x)

I (c) 3 Ti +a)T(n +b) x" n! I (n +c) I (a)T' b) n=0

=

że jej wartość oczekiwana jest dokładnie równa współczynnikowi korelacji p: (u(r)) = p. A już tylko jako ciekawostkę zacytujemy, że (arcsin r) = arcsin p.

Wyrażenia na wariancje i kowariancję, ujęte we wspólną macierz, pozwalają zapisać postać rozkładu binormalnego w zwartej formie

N (x; a, V) =

1 exp (-ze — AV (x — w)

1 2nx/ det V

gdzie górny indeks T oznacza transpozycję, natomiast o; 2 Ox0yP

V_ oraz

0% 0yD Oy

detV = ogo, (1—p*),

a pozostałe oznaczenia przyjęte zostały w zgodzie z duchem notacji wektorowej podrozdziału 3.4. Uzyskany rozkład dwuwymiarowy uogólnia się na normalny rozkład n-wymiarowy: N (x; u, V) =

I

;

(/2r) „/det V

l 2

exp (-za

— nV "(x — w)

,

(5.74)

gdzie w macierzy V na diagonali mamy wariancje kolejnych zmiennych losowych, a elementy pozadiagonalne dane są kowariancjami poszczególnych par. Algebra liniowa poucza nas, że macierz taka jest dodatnio określona, a więc możemy ją zdiagonalizować, a tym samym wprowadzić taki układ zmiennych, w których wykładnik rozkładu wielonormalnego przyjmuje postać sumy kwadratów (bez wyrazów mieszanych), co prowadzi do niezależności statystycznej nowych zmiennych. Inną ważną cechą rozkładu wielowymiarowego jest fakt normalnych rozkładów brze-

gowych, jakie otrzymujemy z (5.74) po wycałkowaniu względem wszystkich, z wyjąt-

kiem jednej, wybranej zmiennej x;:

f N (x;

u, V) dx; dx

... dx;

dx,

... dx, =

exp

( — w)?

| —————

|.

5.75 gdzie V;, to j-ty diagonalny element macierzy kowariancji V. 073) W dalszych rozważaniach przydatne nam będzie jeszcze jedno spostrzeżenie. Zauważmy, że wielowymiarowy rozkład normalny jest niezmienniczy, co do swej formy,

5.6. Rozkład x?

323

przy liniowych transformacjach zmiennych losowych. Istotnie, wprowadzając układ nowych zmiennych y = Rx, otrzymujemy dla formy kwadratowej w wykładniku rozkładu wielowymiarowego:

x- NTV (x -p=(R"y-u) V"'(R"'y— a)

= (R"'y - RW) V"' (R"'y — Rh) = (y — Aa)” [R"'] V'R"' U — An) = (y — un) [RT] VR"

(5.76)

— An)

= (y — un)! [RVR"] ' 0 — An) = (7 — Un) (VRI' (Y — R):

co powoduje, że nowe zmienne y mają rozkład

N (y; ln, VR) =

;

(s 2n

1

,/det VR

1 exp (-50 — in)" [VR] 0 — u)

,

przy czym HR Oraz



RL,

Va



RVR"

det Vp = det V

dla transformacji ortogonalnych. Wiele lat pracy matematyków nad rozkładem normalnym zaowocowało

bogactwem wyników dotyczących własności tego rozkładu. Obecnie przejdziemy do przedstawienia niektórych, wybierając trzy z nich: rozkład X, Studenta i F Fishera, które mają związek z zagadnieniem testowania hipotez.

—-

56. Rozkład x*

5.6.1. Wyprowadzenie Niech zmienna losowa x ma rozkład Gaussa o znanej wartości oczekiwanej j4 1 znanej dyspersji o. Znajdziemy rozkład zmiennej losowej 2 x — [l u= ,

cz

W pierwszym kroku, standaryzując gaussowską zmienną x X

x—

Z=

o

,

otrzymujemy standaryzowany rozkład normalny (5.73) 1

N (z; 0, 1) = Só



KP (-5)

,

324

5. Niektóre rozkłady

Wykorzystując wyniki przykładu 2.6.3, możemy podać funkcję rozkładu zmiennej u X (u)=

5 7%

(- >):

Weźmy teraz dwie niezależne zmienne gaussowskie x; i x z tego samego rozkładu

1 zbadajmy rozkład zmiennej losowej

=(57) + (757). x1=mV o

x — WYŻ o

Rozkład takiej zmiennej to po prostu rozkład sumy dwu zmiennych u; i u», który otrzymamy, splatając, zgodnie z (2.27), dwa rozkłady A) (u): A> (u)

=



(u — t)

X)

l

(t) dt =

z

p

( ——AJ= czna

1

exp

u

(>).

Zwróćmy uwagę na to, że otrzymaliśmy rozkład wykładniczy. Postępując tak dalej, otrzymujemy rozkład dla sumy n kwadratów standaryzowanych gaussowskich zmiennych

losowych:

X, (u) = (2)

r(7)*

5-1 'exp

(

exp(-*>)

,

n>0,

u>0,

(5.77)

co można wykazać np. indukcyjnie. Rozkład (5.77) opisywany funkcją X, (u), należącą do rodziny rozkładów gamma (5.42), nazywany jest rozkładem x*. Rozkłady te numerowane są indeksem n, który nazywamy liczbą stopni swobody. Przy parzystej liczbie stopni swobody rozkład ten jest rozkładem Erlanga w zmiennej t = u/2.

5.6.2. Własności rozkładu x? Przykłady tego rozkładu dla kilku wartości liczby stopni swobody zilustrowane są na wykresie 5.44. Widzimy, że jeśli zwiększamy liczbę stopni swobody, maksimum tego rozkładu przesuwa się ku większym wartościom zmiennej, jak również rozkład staje się coraz to szerszy i bardziej symetryczny. Podamy teraz jego wartość oczekiwaną:

€[u]=n

(5.78)

V [u] = 2n,

(5.79)

1 wariancję:

bez wdawania się w szczegółowe obliczenia, jako że całki, jakie musimy tu obliczyć, są elementarne i sprowadzają się do funkcji I” Eulera. Fakt, że wartość oczekiwana zmiennej losowej typu x” jest równa liczbie stopni

swobody, wykorzystywana jest często w praktyce statystycznej, przez podawanie wartości

5.6. Rozkład x? 0,5

325

n=l

0,4

|-

0,3

|-

n=2

0,1 0,0

Rys. 5.44. Przykłady rozkładów x? dla kilku wartości liczby n stopni swobody

tej zmiennej podzielonej przez liczbę stopni swobody. Warto wtedy pamiętać, że tak wyrażona wielkość losowa, mając wartość oczekiwaną równą jedności, ma jednocześnie dyspersję

Zauważmy również, że moda rozkładu x? przypada w punkcie u =n —2.

-—-

Przykład 5.6.1 Rozkład estymatora wariancji i dyspersji Dotychczasowe

rozważania

zakładały,

że

wartość

oczekiwana

rozkładu

Gaussa

jest znana. Jak zmieni się nasz rezultat, gdy standaryzując każdą ze zmiennych

gaussowskich, użyjemy średniej arytmetycznej zamiast wartości oczekiwanej? Jest

to pytanie o rozkład zmiennej u postaci =

-12

(*

*)

4

-S

(*

o

-

2

+4...+

o

-4

(*

2

)

,

(5.80)

o

Powyższą sumę możemy zapisać inaczej: l Ę u= Gi 2%

—X)

l = 5ż

— (2%

- 1)

.

_

(5.81)

i=l

Zmienne losowe x; mają łączny rozkład będący iloczynem n rozkładów normal-

nych:

326

5. Niektóre rozkłady

ex (-

N (x; 4,0)= =

a

1

MN

(

2n o)

(Xx; — a)

P

CXp

202

(

pe

A

2

0

2

9)

(5.82) 3

gdzie wykorzystaliśmy notację podrozdziałów 5.2.6 1 5.5.4. Do zmiennych x; w powyższym rozkładzie zastosujemy tzw. przekształcenie Helmerta: yy

I

=

(x

1

2

zzz

a =

Y

l

1.2

l

1



X), 2

1 Fa — 2%),

zę 1 FX Fa — 3%),

1 Z—-—(1+%+%3+4+:'':+X,-1 — (N— 1)X,), (n-1l):n

1 _ y, —0,+%+x3 +x4+''"+X,) =4nX, /n co inaczej zapiszemy jako y=Rx.

Istotną cechą tego przekształcenia jest to, że jest ono ortogonalne, czyli R'R=RR'

=l|L,

co, po wykorzystaniu (5.76), pozwala zapisać rozkład (5.82) w formie

(Y— UR) (Y — p

N (x; HR, 0) =

=

sj" „(s Żpi- bog)

jako że wszystkie zmienne y;,y>,...,y„_, mają wartość oczekiwaną równą zeru, a wartość oczekiwana zmiennej y, jest ,/n razy większa niż wartość oczekiwana pojedynczej zmiennej losowej. Zauważmy, że wprowadzając zmienną X =

Yn R”

5.6. Rozkład x?

rozkład możemy przepisać w postaci N

(i,

222

Yn-1s X;

AL,

o)

l

(X — a)

„Ak n

TE= JE

(Siio)

w której rozkład zmiennej losowej x jest odseparowany od pozostałych zmiennych,

co jednocześnie wykazuje nam, że średnia jest od nich statystycznie niezależna. Zauważmy, że w zgodzie z ogólnymi wynikami podrozdziału 4.2, Średnia arytmetyczna ma wartość oczekiwaną równą wartości oczekiwanej zmiennej losowej,

a wariancja średniej arytmetycznej jest n razy mniejsza od wariancji pojedynczej zmiennej gaussowskiej.

Wróćmy teraz do zmiennej losowej u (5.81). Ponieważ przekształcenie R jest ortogonalne, więc

2 ; =x".x=(R'y) - (R'y) =y'RR'y=y' -y l

— Dy:

n=l

— Sy

i=1

+Y;,

2 J_Y:

i=l

Lnx.

i=l

Podstawiając ten rezultat do wyrażenia (5.81), otrzymujemy 1 u

czyli dokładnie

=

n

wykładnik

>



1

pierwszej

nl

>

DZ

=

-„e

(2:

52

funkcji wykładniczej

w funkcji gęstości

(5.83). Ponieważ jest to suma n — 1 niezależnych zmiennych losowych (rozkład w zmiennych y, faktoryzuje się), więc rozkład wielkości u jest rozkładem x* o n—1

stopniach swobody (porównaj z (5.77))

X-1 (U) n-1

4)

=

-

(2) r(7) 1

n

—|l

1 -1exp(->

U

€Xp

|

(->)

.

Z rozkładu zmiennej losowej u natychmiast otrzymujemy, że wielkość ń

l

v=$=——u=—-

V(x -3*

dostarczająca estymatora wariancji zmiennej rozkładu Gaussa, podlega rozkładowi n-l

f(v;o,n) =

(2)

n—l a”

r (

n-l >

)

(

(n — l)v

o?

"z!

M

(n — 1)v

exp (z) 20?

i, co jest bardzo ważne, jest statystycznie niezależna od zmiennej losowej, jaką jest

średnia arytmetyczna (widzieliśmy to już w przykładzie 5.5.10). Z powyższego A na wartość oczekiwaną estymatora wariancji rozkładu otrzymujemy

eg]=>7

——2 - (a — ) = o?

327

328

5. Niektóre rozkłady

tl (e) () 200

1 wariancję tego estymatora 2

2

2

2

tak jak to już raz znaleźliśmy w przykładzie 5.5.2. Podobna

(sprawdź (4.8))

analiza

prowadzi

nas

również

do

2

wniosku,

że

zmienna

losowa

_ nin NM ——1) 1) 2 o?

x)

jest statystyką Xx” o n — 1 stopniach swobody. Skoro dysponujemy nieobciążonym estymatorem sź wariancji o? zmiennej rozkładu Gaussai znamy rozkład tego estymatora, możemy pokusić się o sprawdzenie własności statystycznych estymatora s„. Zacznijmy od wartości oczekiwanej: 00

o

O

nl (42) n

n

"(2)rG) n—1

-1(V/2)

-1(92)

r

n-l

ja

7471

A

(sx) = ——- (Vu) =

p

u

' exp (->) du

8 ( 2 ) ”

raz

__

n-l

( 2 )

n

r

76)

"

nl]

( 2 )

która ukazuje na jego obciążony, choć nie asymptotycznie, charakter:

(5) =

—__"()

—r(7)

o

"Wn-l

O

— 0.

n>o

2

Zajmijmy się teraz wariancją estymatora s,. Ponieważ wartość oczekiwana jego kwadratu to o”, więc V[sx]=o* — (s) =o*|1—

Lo

2

"re

2

(3)

(2)

50_

"(z)r(7)

Jeśli dokonamy asymptotycznego rozwinięcia, wg wzoru Stirlinga (5.5), wszystkich występujących tu funkcji /' Eulera, to otrzymamy ń

ME) r()r(Z) 2

R eX

Pn)

=|]

m

5,6. Rozkład x?

329

co prowadzi do wyrażenia na wariancję

l

(5.84)

v [sx] Z o”, 2n i jej estymator (kwadrat błędu błędu) A l > V[Ssx] = 2n *

stosowany w przykładzie 5.5.2.

T)

Powyższy przykład nie powinien w Czytelniku wzbudzić mniemania, że dysponując

próbką doświadczalną normalnych danych x;,, możemy dla tej próbki obliczyć wartość zmiennej losowej x*, wykorzystując Średnią arytmetyczną, jako że pozostaje problem mianownika w każdym ze składników sumy

(5.80), czyli problem dyspersji rozkładu

Gaussa. Wielkość ta przy pobieraniu próby z reguły nie jest znana, a pobieranie próby ma właśnie na celu najczęściej określenie zarówno estymaty wielkości oczekiwanej, jak i estymaty dyspersji. Moglibyśmy co prawda użyć tej ostatniej do określenia wartości zmiennej losowej (5.80), która wyglądałaby jak zmienna x*, ale w najlepszym razie mo-

głaby ona ją aproksymować, przy czym aproksymacja ta byłaby tym lepsza, im estymata dyspersji obarczona byłaby mniejszym błędem. O tym zastrzeżeniu należy zawsze pamiętać, ilekroć oglądamy wyniki eksperymentalne interpretowane w terminach rozkładu X”, jako że właśnie regułą jest, iż zamiast Ściśle określonego parametru rozkładu normalnego, jakim jest jego dyspersja, stosowana bywa jej estymata. Tę, zdawałoby się, słabość zmiennej z rozkładu x* często obraca się w jej atut i wykorzystuje w procesie analizy

danych doświadczalnych do określenia nieznanego błędu pomiarowego. Metoda ta jest powszechnie stosowana w procedurach kalibracji detektorów, kiedy to wykorzystujemy pewne znane wielkości np. geometryczne, znajdowane w dokładnych pomiarach geode-

zyjnych przeprowadzanych w momencie budowy detektorów lub też np. masy cząstek elementarnych lub rezonansów jądrowych. -—-

Przykład 5.6.2 Rozkład x* dla różnych zmiennych gaussowskich Rozważmy n gaussowskich zmiennych łosowych x, (i = 1,...,n), każda pochodząca z rozkładu normalnego W (x;; 4,o;) o wspólnej wartości centralnej. Dla

- (2) (2) (2)

próbki tej zdefiniujemy zmienną losową

x-AV 0)

(%-HV 07

x AV O,

Ponieważ każdy ze składników tej sumy podlega rozkładowi x? o jednym stopniu swobody, więc suma jest zmienną losową o rozkładzie x* o n stopniach swobody. Identyczny rezultat otrzymujemy także i dla zmiennych z rozkładów Gaussa zadanych różnymi wartościami oczekiwanymi ,,.

330

5. Niektóre rozkłady

Przykład ten podnosi kwestię wykorzystania średniej ważonej Xx„ zamiast wartości oczekiwanej j4 w konstrukcji zmiennej X*: -

2

Xi — Xy j

01

-(

)



2

X2 — Xw 07

+(

)

-

Xp

2

Kw On

++(

|

|

Rozumowanie przebiega tu tym samym torem co w przykładzie 5.6.1. Musimy jedynie zmodyfikować przekształcenie Helmerta. W tym celu wprowadzimy najpierw

zmienne

a z nich skonstruujemy zmienne l

Zi

l

Ę — 9;

"= 270 (a, 205) Y 2 =

ŁŻ"]) 03 'Q+0:;

1

Yn=1

=

dn

+ 74) — 0

nl

NA ——— Q,-10

(5:



O

O3Z3 27323

)

|,

Z,

— —

GnónZn

)



gdzie

Przekształcenie to jest ortogonalne, dzięki czemu z” :z = y':y, a wszystkie zmienne y, mają jednostkową wariancję i zerową wartość oczekiwaną, z wyjątkiem zmiennej y,, dla której wynosi ona m/ Q,„. Ponieważ

rę0. = Sz 2002 +o. =P(->) 2-2) n

i=l

-

2

i

n

n

i=l

i=|l

n

FE

i=l

n

n

n—

nl

i=1

i=l

i=1

i=l

=),4—QX, =) y; — Q,X, = Sy +y— QŹ =) y; więc

(uj=n—- l

1 to niezależnie od rozkładu, z którego wywodzą się zmienne x,. Wynik ten uzasadnia postać błędu zewnętrznego, jaką wprowadziliśmy w podrozdziale 4.3.

W szczególnym przypadku, gdy zmienne x, pochodzą z rozkładów normalnych, wszystkie o identycznej wartości oczekiwanej m, lecz różnych dyspersjach o;, Wówczas zmienne z, podlegają rozkładowi

5.6. Rozkład x*

n

N

l

331

1

, u) = [l YŻm

exp (-50

— u?

Wykładnik tego rozkładu przekształcimy do postaci zależnej od zmiennych y;

e - u) = z -2Y) pz, + SU

i=l

1

i=l

i=l

= Sy; — 2uQ,x, + Qu i=l

n-l

=) ly; + Q,X, — 2uQ,X + Qu” i=l

nl

= )y; + Q,(% — u)”, i=l

co prowadzi do rozkładu tych zmiennych

N (112 Yn-1 wi IŁ) n-l

=

_

GE

oo

ep (536)

|

z

2

Utwierdza to nas w przekonaniu, że zmienna u ma istotnie rozkład x* o n — 1 7 stopniach swobody.

5.6.3. Postać graniczna rozkładu x* Wykres 5.44 rozkładu x? sugeruje, że dla dużej liczby stopni swobody rozkład ten staje się symetryczny. Nauczeni doświadczeniem z badania postaci granicznych innych rozkładów, wprowadzimy standaryzowaną zmienną z, zdefiniowaną wyrażeniem z

=

u-ć[u]

u=n

Dluj

42n

>

u=v2nz+h,

charakteryzującą się rozkładem postaci

Jn(z)

=

V2n (Wz tn)

ca r) 7

ń

!

"CEC +3)

exp | —z

w/2nz

+n)/.

Rozkład ten przedstawiony jest na rys. 5.45 dla trzech wartości liczby n = 5,101 20 stopni swobody (linie cienkie) wraz ze standaryzowanym rozkładem normalnym. Widać, że rozkład x? upodabnia się do rozkładu Gaussa dla dużych wartości parametru n. Wykażemy to formalnie, wykorzystując przejście graniczne n — oo. Skorzystamy z rozwinięcia Stirlinga (5.5)

332

5. Niektóre rozkłady n=5

0,5

p

rozkład Gaussa

i

—3

-—2

-]

0

l

2

3

zmienna standaryzowana Rys. 5.45. Porównanie rozkładu x* dla trzech wartości liczby n stopni swobody z rozkładem Gaussa

(2) Sz8($-1) ee NI

f(z) *

w/2n („/2nz + n

1] exp (-;

(2nz

+ 9)

,

(Go) -(-086-3-)

a po wprowadzeniu wszystkich elementów wzoru (z wyjątkiem czynnika X 2n) do wy-

kładnika i dokonaniu odpowiednich redukcji, otrzymujemy

J„(z) *

Wykorzystamy teraz rozwinięcia logarytmów:

a otrzymamy Jnl2)(z) R© pol

xp

2> _

J-541 zd — „||

Zachowując dominujący, pierwszy człon w wykładniku, otrzymujemy standaryzowany rozkład Gaussa

2

fnlz)



n> 00

| /27

xp ( 2- )

Z rysunku widzimy, że zbieżność rozkładu x* do rozkładu normalnego jest dość wolna. W praktycznych obliczeniach rozkład graniczny stosuje się dla n > 30.

5.7. Rozkład Studenta

—-

333

5.7. Rozkład Studenta

5.7.1. Wyprowadzenie W podrozdziale 5.6.2 wspomnieliśmy, że użycie estymaty dyspersji rozkładu normalnego przy konstruowaniu zmiennej typu x* może dać nam co najwyżej tę zmienną losową w przybliżeniu. Dlatego właściwsze byłoby rozważenie rozkładu statystyki postaci

x—H b

Sx

zwanej statystyką Studenta. Ponieważ błąd średniej arytmetycznej s; wiąże się ze zmien-

ną typu x” zależnością

g2 Sz = nn=l)

więc statystykę Studenta możemy wyrazić w ogółnej postaci

x— u o

x Sx

X-a -

2

nn=l1'

4n m

u

n—

l

W mianowniku licznika znajduje się dyspersja o/,/n wartości średniej, a w mianowniku pod pierwiastkiem liczba n — 1 stopni swobody zmiennej u typu x”. Oba obiekty pojawiają się tutaj z uwagi na to, że wyszliśmy od pewnej konkretnej zmiennej losowej, tj. Średniej arytmetycznej. Aby nasze rozważania uogólnić, zajmiemy się rozkładem

zmiennej losowej zdefiniowanej wyrażeniem

x— U t=—o—

(5.85)

gdzie wielkość x jest zmienną losową pochodzącą z rozkładu normalnego o parametrach A oraz o , natomiast zmienna u podlega rozkładowi x* z n stopniami swobody, przy czym zmienne x oraz u są statystycznie niezależne (tak jak to jest dla średniej arytmetycznej

i jej niepewności standardowej).

Postać rozkładu zmienną losową

zmiennej

t wyprowadzimy,

standaryzując

najpierw

gaussowską

x— HL t=—

u

n

>

z

t=—,

U

n

a następnie wypisując postać łącznej funkcji rozkładu dla zmiennych z oraz u

334

5, Niektóre rozkłady

2

oraz odwołując się do wyników podrozdziału 2.6. Pokazaliśmy tam, że funkcja gęstości dwóch zmiennych losowych przy ich przekształceniu podlega zamianie wg przepisu (2.26): glłt,v) =h(z(t,v),u(t, v)) |J(t, v)|.

Jeśli dokonamy przekształcenia

|

= v=u

z

———



+=

>

/ujn

0z

y

a |_|; t

J=|s

+

u=v

dz

807]





dt

z7gl-

m

2%

0

dv

1

=|

[e

to łączna funkcja gęstości zmiennych t oraz v przyjmie postać Snlf,

6) V)

1 r Jze »( v 5) = == —— ni V — ©xp|-—5 — 57 V2NT

r (>)R

(42)

1

my Y

= / nn (42)

n

2

nżl_q

v

2n

t>

%P|-z(IF7)|-

r (>)

Ponieważ jesteśmy zainteresowani rozkładem brzegowym zmiennej t, więc wycałkujemy £„(t, v) względem zmiennej v: 00

S,() n

=

J

00

(t,v)d V)dU

gnU,

=

I

PNY

ant

śm(43) r(3)

J

v2

ap6 (

73

»(142))a "

v.

Jeśli w całce dokonamy zamiany zmiennej:

"z n

to sprowadzi się ona do całki normalizacyjnej z rozkładu x? z n+1 stopniami swobody, którą możemy łatwo obliczyć, otrzymując ostatecznie w wyniku 40

T(i(n+1

= TE)

„/nn T' (zn)

n=l,2,...,

2y

(147)

n

736640)

,

(5.86)

—00 < I < ©,

czyli rozkład Studenta o n stopniach swobody, podany przez angielskiego statystyka W. S$. Gosseta (Student, The Probable Error on the Mean, Biometrika 6 (1908),

William S. Gosset,

1876-1937

1), który swoje

prace naukowe publikował pod pseudonimem Student, gdyż . . . jego pracodawca, znana firma browarnicza Guiness, zabronił mu w kontrakcie używania własnego nazwiska.

5.7. Rozkład Studenta

Przykład 5.7.1

Średnia arytmetyczna — rzetelność producenta cukru Przyczynę, dla której interesujemy się rozkładem Studenta, wskazaliśmy we wstępie do tego podrozdziału. Stosując zmienną Studenta:

X-H

t=

o/4/n

(n — 1)sż JE /a-1

_X-u =

ss//no|

=

X-H

(5.87)

sz

o n— 1 stopniach swobody, unikamy trudności, która „gnębi” statystykę y* — nieznana dyspersja rozkładu Gaussa kasuje się i otrzymujemy zmienną zdefiniowaną

w całości przez dane doświadczalne. Umożliwia to testowanie hipotez o wartości oczekiwanej rozkładu Gaussa. Zauważmy także, że zmienna t mierzy odchylenie uzyskanego wyniku od wartości oczekiwanej w jednostkach błędu standardowego. Rozważmy następujący przykład. Przypuśćmy, że chcemy sprawdzić rzetelność, z jaką producent cukru rozsypuje go do toreb, których waga netto powinna wynosić 1 kilogram. Zakupujemy w tym celu 5 toreb i ważymy ich zawartość.

Obliczamy średnią wagę, która wynosi 960 gramów i znajdujemy odchylenie stan-

dardowe tej wielkości jako np. 10 gramów. W świetle reguły trzech odchyleń standardowych (patrz przykład 5.2.3) gotowi jesteśmy posądzić producenta o nieuczci-

wość, jako że w tym przypadku średnia waga odbiega od nominalnej aż o cztery standardowe odchylenia. Czy jednak nasz wniosek nie jest zbyt pochopny? Reguła trzech standardowych odchyleń odniesiona do rozkładu Gaussa implikuje prawdopodobieństwo 99,73% znalezienia zmiennej losowej wokół wartości oczekiwanej. W naszym przypadku wartość statystyki Studenta wynosi £ = —4. Jakie jest prawdopodobieństwo, że średnia waga otrzymana z próbki liczącej 5 pomiarów będzie zawarta między 960 g a 1040 g, czyli jakie jest prawdopodobieństwo, że zmienna

1 l

©



DV

©

RM

nn

O

M

0606

©



losowa Studenta t o czterech stopniach swobody będzie mniejsza, co do wartości bezwzgłędnej, od czterech? Stosowne obliczenia dają P(—4 < t < 4) = 0), 9839. Widzimy, że jest to prawdopodobieństwo mniejsze niż to, jakie znajdujemy dla

liczba odchyleń

r-—

0

„LL.

i

10

20

l

30

l

40

]

S0

stopnie swobody Rys. 5.46. Graniczna wartość statystyki t Studenta,

jako funkcja liczby stopni swobody

dla której

P(—t

< t < t) = 0,9973,

335

336

5. Niektóre rozkłady

rozkładu Gaussa. Gdybyśmy

chcieli wyciągać konkluzje na tym samym pozio-

mie prawdopodobieństwa, na jakim to czynimy w przypadku rozkładu Gaussa i reguły trzech standardowych odchyleń, graniczna średnia waga netto musiałaby

odbiegać od wagi nominalnej o przynajmniej 66 gramów, ponieważ dopiero wtedy P(=6,6 < t < 6,6) = 0,9973.

Jak powinniśmy się zachować, gdy nasza próbka jest bardziej obfita? Na rysunku 5.46 prezentujemy zależność granicznej wartości statystyki Studenta, wy-

czerpującą tę samą ilość prawdopodobieństwa (99,73%) jako funkcję liczby stopni swobody. Jak widzimy, dopiero dla liczby stopni swobody na poziomie kilkudzie-

sięciu uzyskujemy wartość £ zbliżoną do tego, co daje nam rozkład Gaussa, czyli

trzy odchylenia. Wynik ten jest zrozumiały, jeśli przypomnimy sobie rezultat (4.9) podrozdziału 4.2, który pokazuje, że dla próbki o rosnącej liczebności fluktuacje estymatora wariancji z próby maleją, a tym samym estymator ten w coraz to większym stopniu przybliża parametr rozkładu Gaussa. Dla mniejszych liczb stopni

swobody, liczba odchyleń może być bardzo duża; np. dla liczby stopni swobody kolejno: 5, 6 i 7, liczba ta wynosi około: 5, 5 i w końcu 45.

T)

—-

Przykład 5.7.2

Statystyka Studenta dla dwóch średnich arytmetycznych Rozważmy teraz dwa ciągi x; (i = 1,2,...,n)orazy,

(Jj=l, 2,...,'m) gaussow-

skich niezależnych zmiennych losowych pochodzących z rozkładu o tych samych

parametrach /4 oraz o. Skonstruujemy następujące niezależne statystyki: |

L —_ X =



n

2__ Ss, =

Xi,

-_lq

2,

J=QW

l

3-

n-l—=i=l



(G



=;2 X) ,

22

| Y=nT > (y;— 1) .

Wiemy, że obie średnie arytmetyczne podlegają rozkładom Gaussa o wartości ocze-

kiwanej u i dyspersjach o /,/n oraz o/4/m. Różnica obu średnich, a nawet ogólniej, wyrażenie X— 4, — (y — Ly) ma również rozkład normalny z wartością oczekiwaną równą zeru i wariancją

o 2 o 2 m+n o, — + — = o.

n

Statystyki

m

c

u, = (n — 1),

nm

y

uy = (m — 1)—;

mają natomiast rozkłady x? o n — 1 oraz m — 1 stopniach swobody. Z. podrozdziału 5.6.1 wiemy, że suma dwóch zmiennych losowych o rozkładzie x*, jedna on — 1, druga o m — 1 stopniach swobody, jest również zmienną losową o rozkładzie x? o liczbie n + m — 2 stopni swobody. Możemy wobec tego utworzyć zmienną Studenta

5.7. Rozkład Studenta

337

X ay — (Y — my) n +m nm



Ux H Uy

y

NT

n+m— 2

x-T-(u y

n+m

p

n+m-2V

(1x

m



My)

ę+ ż

*

n

5

(5.88)

Cz

o"

o rozkładzie Studenta z liczbą n + m — 2 stopni swobody. Zmienna ta ma zastosowanie przy testowaniu hipotez o równości wartości oczekiwanych dla dwóch

populacji gaussowskich o tej samej wartości dyspersji. Tak jak w przykładzie 5.7.1,

tu zmienna Studenta (5.88) także mierzy różnicę między wartościami średnimi (dla x = Hy) w jednostkach odchylenia standardowego dla tej różnicy, ale dzieje się to jedynie wtedy, gdy liczebności próbek są duże i porównywałne ze sobą:



x-y y

x-y Tę

pę+

n+m

n=m

lsż

+ s;

n+m-2Y m n o " W przeciwnym razie dochodzą, jak to widzimy, czynniki korekcyjne.

n

5.7.2. Własności rozkładu Studenta Dla parametru n = 1 rozkład Studenta przechodzi w tzw. rozkład Cauchy'ego 1 1 SG) =— , —00 () —

—00 < £ < OO,

(5.90)

+ (€ — 4) £



—00 < JL < OO,

T> 0.

Parametr I' zwany jest szerokością linii. Do rozkładu tego po-

wrócimy w podrozdziale 5.9.

Zauważmy, że rozkład Studenta ma tyłko skończoną liczbę momentów. Jeśli liczba stopni swobody jest większa od jedno-

ści, to wartość oczekiwana znika: € [t] =0,

n>l,

natomiast wariancja istnieje dla liczby stopni swobody większej od dwóch:

YKM=——, n-2

n>2

(5.91)

Kształt rozkładu Studenta, dla kilku wartości liczby stopni swo-

body, podany jest na rys. 5.47.

Augustin Louis Cauchy,

1789-1857

e

]

5. Niektóre rozkłady th

338

rozkład Gaussa n=lo

Rys. 5.47. Kształt rozkładu Studenta dla kilku wartości liczby stopni swobody

5.7.3. Postać graniczna rozkładu Studenta Na rysunku 5.47 ilustrującym rozkład Studenta przedstawiony został również, dla porównania, standaryzowany rozkład Gaussa. Widzimy, jak dla dużej liczby stopni swobody

rozkład Studenta zbliża się kształtem do rozkładu normalnego. Tym zagadnieniem zajmiemy się obecnie. Tak jak i w poprzednich przypadkach, rozwiniemy, korzystając ze wzoru Stirlinga (5.5), obie funkcje I' występujące w definicji (5.86) rozkładu:

5,0) z

EGP)

„/nnx/2n (zn — 1)

1,1

NI

—_ayżn

9 CE

3)

2 exp (—>n + 1

24 —Ż

n+|

(+7) H

|

a następnie wciągniemy wszystkie czynniki (z wyjątkiem x 2n) do wykładnika:

302 zęee(50(1-3)7377z7"(71)l

„(t) =

n 1 | —n|l—-—|--—

n-l

n|l—-|

2



1 rozwiniemy logarytmy:

1.

I

2), n

2 n

n|l--|=-—-,

n|l--j=—-, n n

72 "(*7))

n+1

In | 1

t

KAWIE. n n

n(1+—|=—,

otrzymując

SZ „M )

*



w2n

2

( 7 — CXP]z AE

n

z



n



n>oo

I

„/2n

( 3

exp | -—

AE

|,

jak oczekiwaliśmy, rozkład Gaussa. W praktyce rozkład graniczny jest używany zamiast rozkładu Studenta, jeśli liczba stopni swobody przekroczy 30.

5.7. Rozkład Studenta

--

Przykład 5.7.3 Współczynnik korełacji z próby — profil wiązki Powróćmy do przykładu 5.5.10 i łącznej postaci funkcji rozkładu błędów standar-

dowych i współczynnika korelacji z próby: g(Sx,

Sy;

r)



nl

(osy) UP)" nT'(n — 2)

n- | sz EN] X w( no 2(1—5p>) ĄD (>) Najczęściej

zdarza się, że potrzebujemy

9

-

p”

prszS sy ZY A , Ox0y " (2) ))

sprawdzić zgodność uzyskanego współ-

czynnika korelacji z próby z wartością zero, czyli z założeniem p = 0, niezależnie

od rozkładu wartości błędów standardowych sy, oraz sy. W takim przypadku funkcja

rozkładu brzegowego dla współczynnika korelacji z próby przyjmuje postać

Jr)

_

p (zm = 1))

VAT 10 -2))

(1 s OW

.

Jeśli w tym rozkładzie dokonamy zamiany zmiennej pna

r/n —2

to otrzymamy

Ś„-2(t)=

o

r Gw

D)

/nln-2T (3(n — 2))

(>)

n=2

|

—00 < £< ©.

Widzimy, że rozkład zmiennej t jest rozkładem Studenta o n —2 stopniach swobody. Wartość tej zmiennej dla przykładu z profilem wiązki z rozdziału 1 wynosi 0,324/ 386 — 2 f=——————)

"

1

" (S2) r(3)

który w następnym kroku zamienimy na rozkład zmiennej Jeśli dokonamy przekształcenia

DU n w,

F =

=>

v=u



UL

U =v

n

JU

yy

=>

J

=

to łączna funkcja gęstości przyjmie postać $nm(F,v)

=

(42)

|

wim

I

a (—F)

TGnT(im)" "

dv su

OF

dv

M2

U)?) 2-1

e

xp (>)U2

i

,

F, stosując metodę (2.26).

Jur

3F a

zh 1

(

oM2

1

yż m1

n

—v |M

=

0

exp (->

—F| Mm l

(—F

m

=

n

—y,

m

+ 1)) ,

Eliminując zmienną v przez scałkowanie (całka jest z klasy całek rozkładu x”), otrzymujemy rozkład Fnm(F)

=

r (;(0+m))

ni"m?" Fa"!

n,m> O,

'A (żn) A (żm) (m + nF)żttm

F>0Q,

zwany rozkładem F Fishera z (n, m) stopniami swobody. Należy wspomnieć o pewnym

zamieszaniu, jakie panuje w literaturze w kwestii nazwy tego rozkładu. Jeśli zajrzymy do

książek ze statystyki adresowanych do fizyków, spotkamy nazwy: F Snedecora—Fishera lub po prostu F Fishera. Klasyczne podręczniki statystyki matematycznej dość jedno-

myślnie określają go jednak mianem rozkładu F Snedecora lub po prostu rozkładem F.

W dziełach tych termin rozkład Fishera, zarezerwowany jest dla rozkładu zmiennej, konwencjonalnie oznaczanej literą z, zdefiniowanej wyrażeniem z = > lnF,

—00

< Z < W,

1 określany jest precyzującą nazwą rozkład z Fishera z (n, m) stopniami swobody. Zaletą rozkładu wielkości z jest to, że jest on bardziej zbliżony do rozkładu normalnego.

W tej książce będziemy stosowali terminologię, jaka utarła się wśród fizyków, a więc

używali nazwy rozkład F Fishera dla rozkładu zmiennej losowej (5.92) proporcjonalnej

do stosunku dwóch zmiennych, każda o rozkładzie x*.

342

5. Niektóre rozkłady

George W. Snedecor,

Sir Ronald A. Fisher,

1882-1974

1890-1962

r—

Przykład 5.8.1 Porównanie odchyleń standardowych Wiemy,

że każda ze statystyk u, oraz uy, wykorzystująca estymatory sz oraz Sy

wariancji o? dła dwóch prostych próbek, statystycznie niezależnych od siebie i wylosowanych z popa U, =

nl

=

normalnej o tej samej dyspersji o:

>

(w - X),

ml

uy =

55

lIĘ

sy = 2

)

_

(y—Y);

i=l

ma rozkład x? oodpowiednio n — I oraz m — 1 stopniach swobody. Z wielkości tych możemy zbudować zmienną F Fishera: Ux

nl,



Sx

g2

Sy

_ nl n=l _S% == mol, $ m— l

(5.93)

m—l

która będzie podlegała rozkładowi F o (n — 1, m — 1) stopniach swobody. Przykład ten jest ważny, ponieważ dostarcza on narzędzia do testowania hipotezy o równości wariancji w dwu próbach prostych wylosowanych z rozkładu normalnego.

n"

5.8.2. Własności rozkładu F

Przykłady rozkładu F dla niektórych wartości par stopni swobody zilustrowane są na

rys. 5.49. Rozkład F jest monotonicznie malejący dla n < 2 oraz ma modę dla n > 2 w punkcie

Kaz MA—2 n(m +2)

1.

5.8. Rozkład F Fishera 1,0

r

(n,m) = (1,1)

08 | 0,6

343

(n,m) = (5,1)

|

0,4 |

3

02 L

(n,m) = (10,5) (m, m) = (5,10)

0,0

l

0,0

0,5

l

L

J

1.0

1,5

2,0

Rys. 5.49. Przykłady rozkładu F

Wartość oczekiwana dana jest wyrażeniem €[F]=-—,

m >2

m —2

1 jest zawsze większa od jedności, natomiast wariancja określona jest przez 2m*(n + m — 2

Y[F] =

r ) n(m — 2)2(m — 4)

m > 4.

Dla jednostkowej wartości pierwszego ze stopni swobody otrzymujemy rozkład F w po-

staci:

_ Tlm+D)

która po podstawieniu zamienia się na

TOGM+D)

1"

p

PY O

1,

t=F, Ir

(i(m +1

1 Gm+D)

,/ nm I (>m)

1

(1 +

m

0)

zD

t>0,

czyli rozkład Studenta o liczbie m stopni swobody, określony na dodatniej półosi.

5.8.3. Postać graniczna rozkładu F Interesujące zachowanie objawia rozkład F przy przejściach granicznych dla liczby stopni

swobody. Przy ustalonej wartości parametru n, przy przejściu granicznym m

otrzymujemy

F„(F) Kok

— mM—>0o

n 22"

(>n.)

(nF)r" exp (-znF) 2





00

344

5, Niektóre rozkłady

czyli rozkład x* w zmiennej nF, o n stopniach swobody. Dowód przebiega analogicznie

do dowodów postaci granicznej dla innych rozkładów. Dokonujemy przybliżenia funkcji I' w części, w której występuje stopień swobody m, za pomocą wzoru Stirlinga (5.5) (o

ile dotychczas utrzymywaliśmy bardzo uważnie wszystkie stałe składniki typu jedności lub połowy, to tym razem zaniedbamy je w stosunku do wielkości m; ufamy, że Czytelnik po tylu przykładach powtórzy nasz rachunek bez przybliżeń): niż” E2n-1

Fnm(F) 3

(ż(n

D(zn) |

+ m))*"""

(2)

- zer 9)

=——--—---gyp

+ m))

mie(tm)*" exp(—1m)

_n (nF)2""!

_ n(nF)ż"!

exp(—1(n

n

n y ż(r+m)

2

m

=—— 0% | 23" T' (żn)

n

—— + 2

m

(22) n

n(14 2) n — | —

n+mn 2

n pp"

y-zbtm)

m

+ | ——

_ n(nF)z"!

(

— — m

n+mn 2

=

In (14 --P) n -

—F m

n(nF):""! n MAD (I In? 1 (14 ©)np). 22" T' (zn)

2m

2

m

Znak przybliżonej równości wprowadziliśmy z uwagi na rozwinięcie funkcji logarytm. Dła m — oo ostateczne wyrażenie zbiega do rozkładu x? w zmiennej nF, jak to podaliśmy wyżej. Ponieważ rozkład x” przy liczbie jego stopni swobody dążącej do nieskończoności dąży do rozkładu normalnego, więc jednoczesne przejście w rozkładzie F z parametrami n oraz m do nieskończoności prowadzi nas również do rozkładu Gaussa. Dowód przebiega analogicznie, należy jedynie wprowadzić zmienną standaryzowaną. W przeciwieństwie do przejścia m — oo przy ustalonym indeksie n, przejście n — oo przy ustalonym indeksie m nie doprowadza do żadnego nowego rezultatu, co

więcej, nie doprowadza do żadnego rozkładu.

—-

5.9. Rozkład Breita-Wignera

Rozkład (5.90) Breita—Wignera (zwany też rozkładem Cauchy ego) S(x

4

1

T)=——



DT

"(ZT) +G-n)

7”

—00

< X < ©,

—00

< JL < OO,

T>0,

spotkaliśmy w podrozdziale 5.7.2 jako szczególny przypadek rozkładu Studenta, gdy

ten ma tylko jeden stopień swobody. Znaczenie tego rozkładu w

fizyce jądra atomowego

1 cząstek elementarnych wynika z faktu, że opisuje on kształt jądrowych poziomów wzbudzonych i rezonansów cząstkowych. Jest on również nie bez znaczenia z punktu widzenia statystyki matematycznej z uwagi na swoje specyficzne własności. Polegają

5.9. Rozkład Breita-Wignera

345

one na tym, że rozkład ten nie ma określonej wartości oczekiwanej, a wyższe momenty zwykle są bądź nieskończone (parzyste), bądź nie istnieją (nieparzyste). Spowodowane jest to tym, że rozkład Cauchy'ego zbyt wolno zbiega do zera dla dużych wartości argumentu.

Gaussa.

Ilustracją tego faktu jest rys. 5.50, porównujący ten rozkład z rozkładem

0,5 p 0,4 0,3

rozkład Gaussa

0,2 F rozkład

0,1

Cauchy'ego

-4

-3

-2

-|

0

l

2

3

4

Rys. 5.50. Porównanie rozkładu Cauchy'ego i Gaussa

W konsekwencji dla rozkładu Breita-Wignera nie są spełnione założenia centralnego

twierdzenia granicznego i wartość Średnia z prostej próbki zmiennych tego rozkładu nie podlega, w granicy, rozkładowi normalnemu. Pokażemy to, wyprowadzając rozkład sumy

X = x; + x» dwóch zmiennych losowych x; oraz x, każda o rozkładzie Cauchy'ego. Jak to wynika z podrozdziału 2.6, rozkład sumy jest zadany splotem (2.27):

fa => on

|

NI

00

du

(1+2:-0v)7)(1+v0)

13

mwq+(lx)

—00

gdzie całkę obliczamy, rozkładając funkcję podcałkową na ułamki proste. Jeśli zamiast sumy zmiennych losowych weźmiemy Średnią arytmetyczną, to otrzymamy

1

fG) = —1

1



ponownie rozkład Cauchy'ego. Składając podobnie dowolną liczbę zmiennych, otrzymamy zawsze dla średniej arytmetycznej rozkład Cauchy ego.

Własność ta uniemożliwia zastosowanie standardowych metod oceny parametrów rozkładu Breita-Wignera. Jeśli próbka jest liczna, wtedy zazwyczaj uciekamy się do metody najmniejszych kwadratów. Jeśli danych jest niewiele, a próbka nie jest zanieczyszczona, wtedy możemy

przywołać na pomoc modę i zastosować metody podroz-

działu 4.6 lub jeszcze lepiej wykorzystać metodę wykresu kwantyli. Sposobem na „uleczenie” tego rozkładu jest obcięcie go do pewnego zakresu zmiennej wokół wartości modalnej:

346

5, Niektóre rozkłady

J 06; M, La, Ly, T')

l

Lip

(GT) +e-w>

(GT) +2- u)?

2

Ib

( Ha

2

a

dx



arctg | 2 b)

r

TY + 6 — w)?

—_

j

arctg | 2 bah

a

dla 1, < x < jm, co dla wartości oczekiwanej daje

l

T

Ep]l=u+—

„AG

a

M" +T"

_„2+ŁT2

BE) +

4 arctg (287 *)

— arctg (275 »

Wielkość ta jest równa wartości ji tylko wtedy, gdy obcięcie jest symetryczne wokół mody rozkładu.

Specyficzny charakter rozkładu Breita-Wignera objawia się również w niezmiernie

często spotykanym w praktyce laboratoryjnej przypadku obliczania wartości błędu ilorazu z = x/y dwóch niezależnych zmiennych losowych rozłożonych wg rozkładu normal-

nego z parametrami p, i o, Oraz ay i oy. Stosujemy tu zazwyczaj metodę przedstawioną w podrozdziale 3.4 i przedstawiamy błąd wielkości z jako s2

s2

|

s;=z (5 + 3

(5.94)

gdzie wielkości sy i sy to estymaty wariancji obu rozkładów. Przyjrzyjmy się bliżej

temu zagadnieniu. Jak to wynika z przykładu 2.6.6, zmienna losowa z określona jest

rozkładem

fGQ) =

1



210 xy

|

f

(-=

bie

—n)Ż 1x)

20?

(W=

8 (V — ))

u)? ja:

2o;

który, po rozbiciu zakresu całkowania na dwa: od minus nieskończoności do zera i od zera do plus nieskończoności (w celu usunięcia modułu pod znakiem całki), rozwinięciu

kwadratów w wykładnikach, wydobyciu przed znak całki części niezależnych od zmien-

nej całkowania, dokonaniu zamiany zmiennej i uporządkowaniu, można przedstawić jako

J (z)



1

noo,

1

1 R z? w( o; 2

o; 2

1/fuż

M

——> (>|5xę©)J| + aż

1

+ g(z) exp

8” (2)

>

g(z)

jes 0

——t2 | dr|,

5.410. Rozkład jednostajny

347

gdzie

g(z) = ————. o

x

l

z”

2 Oy | g2 0;

Zauważmy, że jeśli zmienne x oraz y pochodzą ze standaryzowanego rozkładu normalnego, natychmiast otrzymujemy, że rozkład f(z) redukuje się do rozkładu Cauchy'ego. Jak widzimy,

pełny rozkład dła dużych

wartości zmiennej

z zachowuje

się

identycznie z rozkładem Breita-Wignera (funkcja g(z) dąży do stałej dla z + oo), tak więc wariancja zmiennej z tego rozkładu jest również nieokreślona. Wynik ten stawia pod

znakiem zapytania sensowność, w odniesieniu do zmiennych gaussowskich, obliczania błędu stosunku dwu takich zmiennych, jako że błąd takiej wielkości jest nieokreślony, a tym samym wielkość ta pozostaje dowolna między plus a minus nieskończonością. Wielkości losowe określone takimi stosunkami są, z punktu widzenia statystyki matematycznej, źle zdefiniowanymi obiektami. Powinniśmy po prostu unikać formułowania za-

gadnień w ten sposób. Na przykład nigdy nie formułujemy zagadnienia polegającego na

obliczeniu stosunku dwu zmiennych, każda o rozkładzie dwumianowym, poniewaz w takim przypadku mielibyśmy niezerowe prawdopodobieństwo pojawienia się wyrażenia, w którym mianownik znika, co daje nam nieokreśloną operację matematyczną. Zamiast tego stosunku obliczamy wielkości typu stosunku rozgałęzień, w których w mianowniku

występuje zawsze dobrze określona wielkość. Mimo tych zastrzeżeń postępowanie wykorzystujące wzór (5.94) ma wielokrotnie sens, choć nie zawsze zdajemy sobie z tego sprawę. Jeśli wielkości x oraz y są np. dodatnie z mocy operacyjnej procedury pomiaru, co dzieje się np. przy wykorzystaniu twierdzenia Pitagorasa do pomiaru odległości między punktem produkcji a punktem rozpadu niestabilnej cząstki elementarnej, to nie mają

one znaczenia wielkości losowych o charakterze gaussowskim. Modelowych przykładów takich wielkości dostarczają nam rozkłady x*, Studenta lub Fishera, dla których wartość i błąd stosunku są dobrze określone, przynajmniej dla pewnych zakresów parametrów

tych rozkładów. Wtedy nasze rozważania powyżej nie mają zastosowania i możemy mieć

dobrze uzasadnioną nadzieję na słuszność prostego, laboratoryjnego wzoru.

—— 510. Rozkład jednostajny Z rozkładem tym spotkaliśmy się już w przykładzie 2.6.1. Ogólnie, rozkład jednostajny, zwany też jednorodnym, równomiernym lub płaskim, zadany jest wyrażeniem J(x;a,b)

=

——,

ba

—00

—...—2lnx,

=—2lnQqx>...X,).

Dla rozkładu x* o nieparzystej liczbie 2n + 1 stopni swobody wystarczy, jeśli utworzymy zmienną u

u=

—2InOqX>...X,„) + z”,

gdzie wielkości x; mają rozkład jednostajny z przedziału [0; 1], a zmienna z pochodzi ze standaryzowanego rozkładu Gaussa.

T)

5.10. Rozkład jednostajny r —

351

Przykład 5.10.5 Zmienna losowa z rozkładu Breita-Wignera Ponieważ dla rozkładu Cauchy'ego (5.89) dystrybuanta określona jest związkiem — T

|

dt

-( , = —(arc I + t* T 2

+5) —|, 2

—00

więc zmienna losowa

ma rozkład Breita-Wignera o parametrach j4 oraz I”, jeśli zmienna x ma rozkład jednostajny z przedziału [0; 1]. r

Dyskretny wariant rozkładu jednostajnego to P.(n) = L. k=1,2,...,n. n Wartość oczekiwana i wariancja dla tego rozkładu wynoszą n+1

ć [k] =

n —1

*

VIkl=—7—:

0,1010 r 0,1005

|-

0,1000

|-

0,0995 |0,0990 | 0,0985 0,0980

|

0

1

2

3

4

5

6

7

8

9

Rys. 5.51. Rozkład cyfr w liczbie r

Jako ciekawostkę można podać, że matematycy

w swych zmaganiach

z liczbą n

obliczyli wiele milionów cyfr znaczących po przecinku i badania statystyczne nie doprowadziły do zdyskwalifikowania tego ciągu jako ciągu liczb losowych o rozkładzie płaskim. Histogram 5.51 przedstawia częstości, wraz z błędami, występowania cyfr 0,1,...,9

dla pierwszych

I 254539

cyfr ludolfiny. Dane

(za: H. Scott, Project Gu-

tenberg, http://promo.net/pg/index.html) pochodzą z tabeli 5.5 zadającej krotność każ-

352

5. Niektóre rozkłady Tabela 5.5. Krotność cyfr w rozwinięciu liczby n

dej z cyfr. Zauważmy,

górne 2%. Rozważmy

0

125 505

5

125 880

1

125 083

6

124 796

2

125 594

7

125452

3

125 792

8

125 376

4

125372

9

125 689

że histogram przedstawia jedynie „wierzchołek” rozkładu, czyli

dwie najprostsze wielkości statystyczne, jakie możemy

tabeli. Dla jednostajnej dyskretnej zmiennej losowej o rozkładzie P,=-—,



wydobyć z tej

k=0,1,2,...,n—l,

wartość oczekiwana wynosi

1 w naszym przypadku jest to 4,5. Z, danych znajdujemy, że średnia arytmetyczna dla

wszystkich cyfr wynosi 4,5002, a jej niepewność to 0,0026. Dla wariancji otrzymujemy Yy[k] =

nż — |]

12

1 oczekujemy, że będzie ona wynosiła 8,25. Estymata tej wielkości to 8,2504.

—- 5.11. Podsumowanie. Związki między rozkładami Wzajemne relacje między poszczególnymi rozkładami przedstawionymi w tym rozdziale

możemy podsumować na rys. 5.52 (idea za: T. Eadie i inni, Metody statystyczne w fizyce

doświadczalnej, PWN, Warszawa 1989; symbole n, m, k oraz p, A i i mają znaczenie, w jakim są one używane w odpowiednich podrozdziałach). Wskazuje on na centralną rolę,

jaką odgrywa rozkład normalny, będąc granicznym rozkładem dla wszystkich dyskutowanych przez nas rozkładów, przy spełnieniu zaznaczonych na rysunku warunków. Na schemacie zaznaczony również został schemat Bernoulliego, z którego niejako wywodzą się pozostałe rozkłady. Obok relacji ukazanych na rysunku, istnieje także związek między rozkładem Erlanga a rozkładem Poissona. Związek ten jest treścią podrozdziału 5.4.1, gdzie rozkład Poissona wyprowadzony był z rozkładu Erlanga, i treścią przykładu 5.4.3,

gdzie przeprowadzona jest operacja odwrotna — rozkład Erlanga uzyskany jest z roz-

5.11. Podsumowanie. Związki między rozkładami

kładu Poissona. Sam rozkład wykładniczy wywiedliśmy

353

także z rozkładu dwumiano-

wego w podrozdziale 5.3.1, jednak wyprowadzenie to nie jest takie bezpośrednie (tak samo jak i wyprowadzenie rozkładu Poissona z rozkładu Erlanga i odwrotnie), jako że

prowadzi od zmiennej dyskretnej do zmiennej ciągłej.

Powinniśmy także pamiętać, że oprócz zależności granicznych między rozkładami normalnym, Studenta, x? oraz Fishera F zaznaczonymi na rysunku, istnieje między nimi Ścisły związek, wynikający ze stosownej zamiany zmiennych.

schemat

Bernoulliego

dwumianowy (wielomianowy)

geometryczny (Pascala)

> 0 p—>0

np > At

L) m(l

p) >At

m— w

wykładniczy

p>l

n — 00 k>©o

|

n(l -p) >u p—>l

nw

p-—>0 np-—>u fp-ż%

M —> 00

n> ©

Poissona

(Erlanga)

A> © (wielo)normalny

1h ©

Breita-Wignera M —

©

n =const

Rys. 5.52. Związki między rozkładami i ich formy graniczne

TEORIA

Niewiasta odziana w szaty o kolorach pomieszanych, w prawej dłoni trzymająca złotą koronę i pełny mieszek, w lewej sznur.

Złota korona i stryczek to znaki mówiące, że zrządzeniem losu jednemu pisane jest szczęście, drugiemu — nieszczęście.

— Rozdział 6

Metoda Monte Carlo

—- 6.1. Idea symulacji komputerowej Metodę Monte Carlo wytłumaczymy na następującym przykładzie. Przypuśćmy, że interesuje nas kwestia równowagi gatunkowej między królikami i wilkami na pewnym obszarze. Zbudujmy następujący model. Wyobraźmy sobie wyspę, na której panuje

wieczne, łagodne lato ze stosowną ilością opadów, które zapewniają niewyczerpane zasoby trawy, stanowiącej podstawę pożywienia królików. Króliki żyją w parach. Samice co trzy miesiące (12 tygodni) rodzą młode, których liczba waha się między pięcioma a czternastoma, przy czym kazda z tych możliwości występuje z identycznym prawdo-

podobieństwem wynoszącym 0,1. Każde młode z równym prawdopodobieństwem może być zarówno samczykiem, jak i samiczką. Młode dorastają bardzo szybko, a po trzech

miesiącach dojrzewają, łączą się w pary i kontynuują samodzielny żywot na innej łące.

Założymy także, że króliki nie są wybredne i łączą się w parę z pierwszym napotka-

nym przedstawicielem płci przeciwnej. Rasa królików, która zadomowiła się na naszej

wyspie, różni się od dobrze znanych nam królików tym, że nie są one zbyt towarzyskie 1 rozmieszczają się dość losowo po terytorium wyspy. Normalna długość życia królika

wynosi 5 lat (60 miesięcy) i osobnik, który dożył do tego wieku, znika z łąk naszej

wyspy. W tak sprzyjających warunkach naturalnych liczba królików rozrosła się do tego

stopnia, że na całej powierzchni wyspy liczącej 100 kiców kwadratowych (kic jest jednostką długości, jaką będziemy stosowali w naszych rozważaniach) można było znaleźć ich aż 9600 sztuk (4800 par). Ta obfita populacja królików zaczęła zagrażać uprawom i dlatego ludzie zdecydowali

się wprowadzić do środowiska naturalnego wroga królików, który utrzymałby ich liczbę

pod kontrolą. Wybór padł na wilka. Te jednak są bardzo drogie na rynkach okolicznych wysp, toteż lokalny samorząd zdołał, po długotrwałej kampanii zbiórek publicznych,

zgromadzić fundusze i zakupił tylko jedną wilczą parę. Każdy wilk, aby utrzymać się

przy życiu, musi przynajmniej raz na tydzień upolować królika. Przyjmiemy,

że wilk

w poszukiwaniu swojej ofiary może w ciągu jednego dnia przebiec dystans jednego kica, a w trakcie łowów jest on w stanie wyczuć królika w promieniu 0,005 kiców. Jeśli

wilk trafi na królika, ten ma szansę 0,2, aby mu się wymknąć, o ile wilk w poprzednim

356

6. Metoda Monte Carlo

tygodniu najadł się do syta. Jeśli tak nie było, to z każdym tygodniem szansa królika

wzrasta o kolejne 20%, co sprawia, że po czterech tygodniach postu wilk odchodzi do

innej, wiecznej, krainy łowów. Jeśli polowanie zakończy się sukcesem, to wilk wraca do sił i do końca bieżącego tygodnia leni się, o ile nie ma obowiązków rodzinnych, o których

za chwilę opowiemy. Wilki żyją w parach i wilczyca co 6 miesięcy w miocie wydaje na świat od czterech do ośmiu młodych, z prawdopodobieństwem 0,2 dla kazdej możliwości. I tu, jak dla królików, szansa każdej z płci jest równa. W czasie ciąży, która trwa dwa miesiące (8 tygodni), jak również przez następny miesiąc, kiedy to wilczyca opiekuje się małymi, tata-wilk musi łowić przynajmniej dwa króliki na tydzień. Jeśli mu się połów uda, to, z racji swego wilczego apetytu, pierwszy królik jest dla niego, a dopiero drugi dla wiłczycy i potomstwa. Po tym czasie wilczyca również może ruszyć na polowanie, ale przez kolejne dwa miesiące dorastające wilczki wymagają zwiększonej ilości jadła i wilcza para musi w tym czasie łowić przynajmniej 3 króliki tygodniowo. Zarówno wilk, jak i wilczyca są egoistyczni. Pierwsza upolowana sztuka przypada myśliwemu, druga

jest dla dzieci, a dopiero trzecia dła współmałżonka. Przez te trzy miesiące, kiedy młode

są pod opieką i nie potrafią samodzielnie polować, każde 3 tygodnie bez pożywienia

eliminują je z dalszych rozważań. Także jeśli któryś z wilków z pary nie przeżyje tego okresu, drugi działa od tego momentu do końca życia jako samotny wdowiec (lub wdowa). Młode, po trzech miesiącach od urodzenia, stają się samodzielne i ruszają na

polowanie. W sześć miesięcy po urodzeniu dojrzewają, łączą się w pary i odchodzą do własnych rejonów łowieckich. Wilki nie mają wrogów, chyba że ich liczba przekroczy 10 sztuk na kic kwadratowy. Wtedy wkracza do akcji człowiek, co czyni, że szansa przeżycia przez wilka pojedynczego tygodnia spada do 99%. W normalnych warunkach wilk dożywa wieku dziesięciu lat (stu dwudziestu miesięcy).

Jak będzie się kształtowała populacja wilków i królików na wyspie? Jaka ustali się

równowaga i jaką liczbę wilków i królików ona wyznacza? Pomysł uzyskania analitycz-

nej odpowiedzi na pytanie dotyczące populacji królików i wilków jest absurdalny. Przy takiej liczbie precyzujących warunków jest to niemożliwe. Możliwe jest jednak prześledzenie rozwoju sytuacji na wyspie, jeśli skorzystamy z komputera, który dostarczać nam będzie liczb losowych z rozkładu jednostajnego na przedziale [0; 1], za pomocą których

rozstrzygniemy o każdej probabilistycznej sekwencji wydarzeń. Musimy najpierw dopre-

cyzować warunki początkowe naszego problemu. Wiemy, że na wyspie znajduje się 4800 króliczych par. Utwórzmy listę wszystkich królików. Przyjmiemy, że są to wszystko doro-

słe pary, dlatego musimy określić, w jakim wieku się one znajdują. Ponieważ króliki żyją

5 lat, tzn. 240 tygodni, przyporządkujmy wszystkim kolejnym czterdziestkom królików ten sam wiek — pierwsza czterdziestka ma 1 tydzień, druga 2 tygodnie itd. W ten sposób

utworzymy trochę par królików, które formalnie nie będą jeszcze dostatecznie dojrzałe, aby mieć potomstwo, ałe będzie to niewielki ułamek całej populacji, który nie powinien istotnie zafałszować ogólnego obrazu sytuacji. Podobnie, każdej kolejnej parze króliczej

przypiszmy kolejny tydzień, w jakim znajduje się samiczka w ciąży. Oba zabiegi pozwa-

lają na równomierne rozrzucenie w czasie przyszłych momentów narodzin i naturalnej śmierci w całej populacji. Nasz algorytm mógłby wyglądać w następujący sposób. Zacznijmy, a będziemy to robić po upływie każdego tygodnia, od bilansu. Przegłądamy

6.1. Idea symulacji komputerowej

357

listę wszystkich królików. Jeśli natkniemy się w niej na królika, który osiągnął wiek pię-

ciu lat, skreślamy go z listy. Natomiast gdy natrafimy na parę, dla której przyszła pora mieć potomstwo, losujemy liczbę z przedziału [0; 1]. Jeśli liczba ta należy do przedziału

[0; 0,1), to królicza para ma piątkę potomstwa, jeśli liczba ta znajduje się w przedziale

[0, 1; 0,2), to mamy szóstkę itd., aż do liczby zawartej między 0,9 a 1,0, która oznacza 14

małych puszystych króliczków. Dla każdego nowego królika tworzymy miejsce na naszej

liście, notujemy numer tygodnia, w którym się urodził, oraz wybieramy losowo dla niego płeć. Jeśli na naszej liście znajdziemy parę króliczą zdolną do podjęcia samodzielnego

życia, to łączymy ją w parę. Obliczamy łączną liczbę wszystkich królików i znajdujemy

ich gęstość n na jednostkę powierzchni. Liczba ta przyda się nam za moment. Teraz pora zająć się wilkami. Najpierw tworzymy listę wszystkich wilków i stadeł,

jakie one stanowią. W liście tej zapisujemy wiek każdego z nich, tydzień, w którym

on jadł ostatnio, jak również odnotowujemy, kiedy ostatni raz wilcza rodzina uległa powiększeniu. Jak mamy rozwiązać problem polowania? Jeśli wilk może wyczuć królika w promieniu 0,005 kiców, to oznacza to, że biegnąc, wilk penetruje węchem pas o szerokości 0,01 kica. Liczba ta określa „przekrój czynny” o na natrafienie na królika. Znając gęstość n królików na jednostkę powierzchni, możemy obliczyć „typową drogę swobodną” A = (no)”', jaką wilk musi pokonać, aby napotkać królika. Ponieważ zarówno siedziby wilków, jak i same króliki są rozrzucone losowo po terytorium wyspy, więc gęstość prawdopodobieństwa napotkania królika przez wilka po przebyciu drogi s

zadana jest rozkładem wykładniczym € (s; A) = A”' exp(—s/A). Przykład 5.10.1 podpowiada nam, jak dysponując liczbą losową x z przedziału [0; 1], znaleźć liczbę losową s podlegającą rozkładowi wykładniczemu z parametrem A: s = —Alnx. Gdy znaleziona

przez nas liczba s jest większa niż dystans jednego kica, jaki wilk może przebiec w ciągu jednego dnia, to wilk tego dnia będzie musiał zacisnąć pasa i głodować. W przeciwnym razie wilkowi udało się znaleźć królika. Teraz go jeszcze musi upolować. Pobieramy w tym celu ponownie liczbę losową. Jeśli jest ona mniejsza niż 0,8, to polowanie kończy się sukcesem i z listy królików skreślamy np. pierwszego. Jeśli w poprzednim tygodniu wilk głodował, to liczba ta może wynosić co najwyżej 0,6, przy dwutygodniowej gło-

dówce —

0,4, a przy trzytygodniowej —

0,2. Jeśli polowanie się nie powiedzie lub

wilk ma obowiązki rodzinne, to wyrusza na polowanie także każdego następnego dnia

tygodnia, dopóki nie zaspokoi swego głodu i nie wywiąże się ze swych obowiązków.

Po tygodniu dokonujemy bilansu królików i wilków. Sprawdzamy, czy wilki przeżyły i czy nie nadeszła już pora na powiększenie wilczej rodziny. Problem ten rozwiązujemy

tak samo jak dla królików. Łączymy również dojrzałych osobników w pary. Jeśli liczba

polujących wilków przekroczy krytyczną wartość dziesięciu na jeden kic kwadratowy, dla każdego z nich dokonujemy jeszcze jednego losowania, które zdecyduje o tym, czy nie stanie się on w nadchodzącym tygodniu myśliwskim trofeum. Wystarczy, że otrzy-

mamy liczbę większą od 0,99, a skończy on jako skóra przed kominkiem w salonie myśliwego.

Algorytm ten powinniśmy powtarzać tydzień po tygodniu. W ten sposób możemy prześledzić rozwój króliczej i wilczej populacji na wyspie. Jeśli nabierzemy przekonania, że osiągnęliśmy stan ustalony, możemy zakończyć procedurę. Przeprowadzona przez nas

358

6. Metoda Monte Carlo

analiza nie będzie jednak ostatecznym rozwiązaniem problemu, gdyż otrzymany wynik będzie pewną losową realizacją założonego modelu. Dlatego całą symulację musimy

powtórzyć wielokrotnie, np. kilkaset razy, a uzyskane rezultaty uśrednić. Dopiero wtedy

otrzymamy typowy obraz rozwoju sytuacji. Inne zagadnienie, już z zakresu fizyki, to problem rozwoju kaskady elektronów, pozytonów i kwantów gamma zainicjowanej np. pojedynczym elektronem przelatującym przez detektor zbudowany np. z naprzemiennie ułożonych warstw ołowiu i scyntylatora,

czyli tzw. kalorymetr. Ołów w takim detektorze służy do budowania lawiny, natomiast

scyntylator do jej mierzenia. Całkowity sygnał odczytany ze scyntylatorów jest miarą energii zdeponowanej w kalorymetrze i jeśli tenże jest na tyle długi, że pomieści w sobie

całą lawinę i nic nie „wycieknie” na zewnątrz, sygnał ten również stanowi miarę ener-

gii pierwotnego elektronu. Typowym problemem przy projektowaniu takiego detektora jest dobranie geometrii poszczególnych warstw, głównie ich grubości. Gdy ołów jest zbyt gruby, nie mamy dobrego pomiaru energii pierwotnego elektronu, gdyż większość

energii umyka nam, pozostając w ołowiu. Gdy natomiast mamy zbyt wiele scyntylatora,

słabo postępuje rozwój lawiny i „rozdrobnienie” energii, gdyż główne procesy odpo-

wiedzialne za mnożenie cząstek w lawinie, tj. kreacja par i promieniowanie hamowania

(Bremsstrahlung), zależą od liczby atomowej ośrodka. W rezultacie kalorymetr taki byłby nietolerowalnie długi. Możemy próbować zoptymalizować rozmiary kalorymetru przez

odpowiedni dobór grubości warstw, zapewniając sobie jednocześnie dostateczną jakość pomiaru energii pierwotnej cząstki. Operację taką najłatwiej jest przeprowadzić właśnie

drogą symulowania rozwoju kaskad w kalorymetrach o różnych parametrach geometrycznych. Oczywiście procedura taka wymaga dobrej znajomości składu chemicznego

ośrodków, przez które wędrują elektrony, pozytony i fotony, oraz przekrojów czynnych

na wspomniane wyżej procesy, jak również procesy rozpraszania Comptona, efektu fotoelektrycznego, nieelastycznego rozpraszania na elektronach powłok atomowych z wybiciem szybkich elektronów, wielokrotnego rozpraszania, rozpraszania na jądrach ato-

mowych oraz anihilacji i to jako funkcji zarówno kąta, jak i energii, dla całego zakresu

energii od zera do wartości energii padającego elektronu. Naturalnie, niezbędny jest również do tego celu potężny komputer, abyśmy nie strawili wieczności na symulowanie pojedynczej kaskady. W wielkim uproszczeniu symulacja taka przebiega w następujący sposób. Znając energię padającego elektronu i całkowity przekrój czynny na jego oddzia-

ływanie, a także gęstość ośrodka, w którym się on porusza, możemy znaleźć (patrz przy-

kład 5.3.8) typową drogę swobodną na oddziaływanie. Rzeczywista droga, jaką elektron przebiega, podlega rozkładowi wykładniczemu, a więc możemy ją wylosować metodą opisaną w przykładzie 5.10.1. Gdy elektron dotrze do miejsca swego przeznaczenia,

losujemy charakter jego oddziaływania, znając proporcje różnych przekrojów czynnych. Jeśli jest to np. proces typu Bremsstrahlung, losujemy zgodnie z przekrojem czynnym

parametry kinematyczne emitowanego kwantu gamma i wyłaniającego się z reakcji elek-

tronu. Od tego momentu mamy już dwie cząstki, których los musimy dałej śledzić. Na-

turalnie, występują pewne komplikacje: pierwotny elektron podróżując przez ośrodek, traci energię na wzbudzenia otaczających go atomów, a więc zmienia się jego przekrój czynny, a tym samym zmienia się szansa na oddziaływanie. Elektron w swej wędrówce

6.2. Generatory liczb losowych

359

podlega nieustannym, tzw. wielokrotnym rozproszeniom, które

również zmieniają jego aktualny kierunek ruchu. W końcu, gdy energia elektronu spadnie poniżej pewnej wartości, zaczyna on faktycznie błądzić przypadkowo — powinniśmy zaprzestać

jego śledzenia. Wszystkie takie efekty musimy uwzględnić, jeŚli chcemy, by nasze wyniki miały jakieś odniesienie do rzeczywistości. Gdy śledzone przez nas cząstki znajdą się we wnętrzu scyntylatora, pojawiają się nowe efekty: wzbudzenia i deekscy-

tacje atomów wraz z emisją fotonów. Musimy określić ich drogę

w ośrodku scyntylacyjnym oraz ich pochłanianie i ucieczkę. Ostatecznie, gdy fotony dotrą do fotopowielacza, musimy wysymulować jego odpowiedź. Stąd też powstały wszechstronnie doGeorge pracowane, za cenę szybkości i wielkości, specjalne programy komputerowe, uwzględniające cały stan wiedzy o procesach elektromagnetycznych. Jeden z nich, najczęściej spotykany i stosowany, czyli Electron-Gamma Shower. Metoda Monte Carlo nie została bynajmniej odkryta przez fizyków się w momencie, kiedy komputer stał się nieodzownym narzędziem w ich duchowego tej metody powszechnie uznawany jest francuski przyrodnik,

L. Bufton, 1707-1788

to tzw. EGS, i nie pojawiła pracy. Za ojca G. L. Buffon.

W 1777 roku zastanawiał się on nad uczciwą stawką, jaką powinien zapłacić przystę-

pujący do popularnej wśród paryskich robotników gry, w której rzucano bagietkę na podłogę z desek. Grający obstawiali zdarzenie polegające na przecięciu się bagietki ze szparą między dwiema sąsiednimi, równolegle ułożonymi deskami. Buffon podał poprawne wyrażenie na prawdopodobieństwo takiego zdarzenia. W rozwiązaniu tym występuje liczba w, co zrodziło popularny problem „igły Buffona”, a w późniejszych wiekach zainspirowało wielu amatorów do rzucania tej igły tysiące razy na liniowany papier, w celu eksperymentalnego wyznaczenia ważnej stałej matematycznej. William Gosset badał swój rozkład (Studenta), używając trzech tysięcy liczb losowych właśnie opubli-

kowanych w najbardziej prestiżowym czasopiśmie statystycznym Biometrika. Pierwsze znaczniejsze wykorzystanie metody symułacyjnej w fizyce zainicjowane zostało przez

Stanisława Ulama i rozwijane dalej wspólnie z Johnem von Neumannem, a związane było z budową broni atomowej i dotyczyło spowalniania neutronów. Zadanie to, jak zresztą

cały projekt Manhattan, było tajne, więc musiało zostać ukryte pod kryptonimem. Ulam zaproponował nazwę Monte Carlo, która przetrwała po dzień dzisiejszy.

—- 6.2. Generatory liczb losowych Jak widać z powyższych przykładów, kluczowy dła powodzenia każdej symulacji jest dostęp do dużej liczby liczb losowych, przy czym wystarczą do tego celu liczby z rozkładu jednostajnego z przedziału [0; 1], jako że materiał podrozdziału 5.10 pokazuje nam, jak uzyskać liczby losowe podlegające innym, przynajmniej tym najprostszym rozkładom. Metody symulacji nabrały skrzydeł w momencie upowszechnienia się komputerów

i opracowania algorytmów generowania liczb losowych. Wcześniej wykorzystywano do

360

6. Metoda Monte Carlo

ich otrzymywania naturalne zjawiska. W jednym z takich przypadków liczby losowe uzyskiwano, wprawiając w -ruch obrotowy cylinder zaopatrzony w strzałkę wirującą

nad skalą z kolejnymi liczbami naturalnymi. Cylinder ten zatrzymywany był przez licz-

nik typu Geigera-Miillera odnotowujący przejście cząstki promieniowania kosmicznego. Inny

sposób

to obserwowanie

preparatu

promieniotwórczego

przez zadany

przedział

czasu i zliczanie rozpadów. Przy nieparzystej ich liczbie zapisujemy jedynkę, przy pa-

rzystej — zero. Powtórzenie m-krotne takiej procedury daje w wyniku m bitową liczbę

losową w układzie dwójkowym. Obecnie liczby losowe, a ściślej pseudolosowe, generowane są w komputerach za pomocą liniowych rekurencyjnych algorytmów postaci Xn+l © AQXp F GyXp1 +'** rayX„x tb

(mod M),

gdzie startowe wartości (,ziarno”) pierwszych k + 1 liczb całkowitych x, pobierane są

np. z daty i czasu systemowego. Parametry a, ...,a4, b oraz M dobierane są w zależ-

ności od architektury komputera (długości jego słowa). Operacja „„mod” oznacza branie

reszty z dzielenia przez liczbę M. Liczbę pseudolosową z przedziału [0; 1) otrzymujemy,

dzieląc x„+,, przez M. I tak, dla przykładu, program STATISTICA* firmy STATSOFT*,

przeznaczony dla komputerów osobistych, używa następującej procedury:

Xan = 742938285x,

(mod(2?*! — 1)).

Wspólną cechą takich algorytmów rekurencyjnych jest okresowość uzyskanego szeregu liczb, tzn. po obliczeniu pewnej liczby x i podstawieniu jej do wzoru w celu wykonania następnej iteracji otrzymujemy ponownie pierwszą liczbę z szeregu. Dla przykładu

rozważmy prosty wzór

Xp

= llx,

(mod 32).

Dla xp = 1 otrzymujemy następujący ciąg liczb: 1, 11, 25, 19, 17, 27, 9,3, 1,... o okresie 8. Dlatego ważny jest odpowiedni dobór parametrów ag, ..., ax, b oraz M, aby ten ciąg był jak najdłuższy. Ich pochopny dobór może doprowadzić do tego, że pewne liczby

w ciągu będą występowały częściej niż inne, a więc faktycznie nie będziemy generowali rozkładu jednostajnego. Łatwo jest również uzyskać sytuację, w której dwie kolejne liczby będą ze sobą skorelowane. Znane są w historii fizyki cząstek elementarnych

fakty zdyskredytowania „markowych” generatorów liczb losowych dostarczanych przez szacowne firmy komputerowe. Właśnie z uwagi na te pułapki, przed wykorzystaniem

„firmowego” generatora warto poświęcić mu trochę uwagi i: e

Sprawdzić, czy liczby, które nam są oferowane, pochodzą z rozkładu z przedziału [0; 1], czy też może z przedziału [0; 65 535] albo np. [—1; 1]. Jeśli nie jest to prze-

dział [0; 1], to przez odpowiednią transformację liniową możemy je przekształcić do e

wymaganego zakresu.

Sprawdzić, czy liczby te istotnie mają charakter losowy, a więc przynajmniej powinny być jednorodnie rozłożone w swoim przedziale, a pary nie powinny wykazywać korelacji.

6.2. Generatory liczb losowych e

361

Rozważyć, jak długiego ciągu liczb będziemy potrzebowali i sprawdzić, czy w tym

zakresie nasz generator nie powtarza swojego cyklu. Gdy jakiś szczegółny problem wymaga tak dużej liczby liczb losowych, że przebiegniemy pełny zakres generatora,

wtedy cała podstawa metody Monte Carlo staje pod znakiem zapytania i pojawia się

wyraźna groźba, że nasze wyniki będą pozbawione wartości. Zazwyczaj generatory, których używamy, umożliwiają kontrolowanie wartości star-

towej. Warto z tej opcji skorzystać w sytuacji, gdy pracujemy nad programem, 1 rozpoczynać generację od tego samego „ziarna”, ponieważ może to ułatwić śledzenie błędów

w kodzie programu. Jeśli natomiast zbieramy próbkę przypadków z Monte Carlo, wtedy należy rozpoczynać program od następnej liczby losowej po tej, która kończyła poprzednie uruchomienie programu, a uzyskane próbki połączyć w jedną, przez co uzyskamy

lepszą statystyczną dokładność w naszym symulacyjnym opisie. 0,052

0,051

0,050

0,049

ia

0,048

0,0

0,1

0,2

0,3

Rys. 6.1. Rozkład 200000 pięciocyfrowych miliona cyfr, pierwiastka z trzech

0,4

0,5

liczb z przedziału

0,6

0,7

0,8

[0; 1], utworzonych

0,9 z rozwinięcia,

do

Spójrzmy na przykład wykorzystania cyfr, jakich dostarcza rozwinięcie 4/3 i zbudujmy z nich liczby losowe. Milion cyfr rozwinięcia tej stałej matematycznej (za: Nemi-

roff, R., Project Gutenberg, http://promo.net/pg/index.html) zostało pogrupowane w ko-

lejne piątki i metodą dzielenia przez 100000 znormalizowane do przedziału [0; 1) co dało 200000 kandydatów na liczby losowe. Histogram częstości, wraz z błędami, tak uzyskanych liczb przedstawiony jest na rys. 6.1 (zwracamy uwagę na tzw. odcięcie zera na osi rzędnych — gdybyśmy tego nie zrobili, nie moglibyśmy ukazać rozmiaru nie-

pewności częstości występowania liczb w każdej z klas). Rozkład wydaje się dobrze zgodny z rozkładem jednostajnym — fluktuacje są ograniczone i wartości częstości nie oddalają się o więcej niż dwa odchylenia standardowe od wartości 0,05, jaka wynika z wybranej liczby przedziałów histogramu. Oczekujemy, że wartość Średnia naszych

362

6. Metoda Monte Carlo

kandydatów na liczby łosowe powinna być bliska wartości oczekiwanej dla zmiennej

z rozkładu jednostajnego, która, jak wiemy, wynosi 0,5. Dla naszej próbki 200 000 liczb

znajdujemy x = 0,4991 + 0,0007. Możemy także obliczyć wariancję z próbki, która wynosi 0,083 31, podczas gdy oczekujemy wartości 1/12 = 0,083 33. 1,0

| 006

0,9

|

0,7

3

.

.

Pa

a e,

«e

.

p

0,5

0,4 le

.

0,3

|.

*

.

,

%

*

0,1

|

0,0

0,0

.

-

.

. .*

a.

0,1

*

a

*

.

.*

1,2

0,2

Ę

*

.

..e

,

„ „*

.

*

RE

+

.

"

.,

e

k

.

."

*

2

.

+

ad

0,3

0,4

"

*,

.

.

_*

.

*

*

".

e

0,5

*.

.

*

.

+

.

+

,

.



s

.

.

0,6

.

+

-

L"a

0,7

:

.

.

* 20

. RA

.

.

,

.

.» .

. .

Ak .

.

. .

..

.*

| 2

:

.

+

. .

..

*,

+



3%

.

*

„. e?

.

. e

. *

..

.

.

*

.

.

+

.

«a

*

e

. .

.

*.

,

e

*

*

*

. ,

*

..

,

.

,

©

.

*«»

*

.,

.

.

z

8

© ..

h

.

...

..



.

.

.

*.

*

B

0,2

.

.

.

tg

.

.

» 0,6

e

.. .

Pe

0,8

*.*

1

.

.

*

:

e

„.*

*

|

0,9

©

e.

.

J

1,0

Rys. 6.2. Rozkład pięciuset pięciocyfrowych par liczb utworzonych z rozwinięcia, do miliona cyfr, pierwiastka z trzech

Zastanówmy się teraz na kolejnymi parami. Wykres punktowy na rys. 6.2 przedstawia pierwsze 500 ze stu tysięcy par. Widzimy, że rozkład punktów jest dość równomierny.

Możemy obliczyć współczynnik korelacji dla pełnego układu par. Znajdujemy, że wynosi

on —0,003 i powinniśmy wynik ten porównać z wartością zero, jakiej spodziewamy się dla zmiennych nieskorelowanych. Mimo że rezultaty te napawają optymizmem, nie oznacza to jeszcze, że uzyskaliśmy

dobry zestaw liczb losowych. Testowanie generatora liczb losowych to właściwie zada-

nie, które nie ma nigdy końca i zależy od pomysłowości sprawdzającego. Stosowane bywają rozmaite testy statystyczne, głównie polegające na konstruowaniu z tych liczb

wielkości, których rozkłady są znane, i sprawdzaniu zgodności tak uzyskanej próbki

z tymi rozkładami. Interesującym testem jest wykorzystanie liczb losowych do rozwiązania problemów, dla których znamy odpowiedź. Jednym z takich zagadnień jest obliczanie objętości V,,

kuli o jednostkowym promieniu w m-wymiarowej przestrzeni. Objętość ta, jak wiemy, wynosi p zy "m

(zm)

Metoda polega na sprawdzeniu związku x + dla układów

+''+x,

D[k] = >nz (1-2) z =. [A] n [k| nV4 4 /n

Jeśli zastosujemy te związki do liczb uzyskanych z rozwinięcia +/3, to znajdujemy N = 3,152 + (0, 005, co wskazuje na dobrą zgodność. Podobnie, dla przypadku trójwy-

miarowego uzyskana estymata liczby n wynosi 3,16-0,01. Zwróćmy uwagę na skromną

efektywność takiej metody szacowania liczby rr — mimo ogromu danych, w przypadku trójwymiarowym uzyskaliśmy precyzję na poziomie 0,3%.

——- 6.3. Metody generowania rozkładów prawdopodobieństwa Metoda

odwracania

dystrybuanty

przedstawiona

w

przykładzie

2.6.1

i zastosowana

w podrozdziale 5.10 jest najprostsza i najbardziej przemawia do wyobraźni, lecz daje

się wykorzystać jedynie w sytuacjach, gdy odwrócenie zależności matematycznej można przeprowadzić metodami analitycznymi. W bardziej skomplikowanych przypadkach mu-

simy się uciekać do innych sposobów.

/(2x)

A

c

Rys. 6.3. Ilustracja metody eliminacji przy generowaniu liczb losowych z ograniczonego rozkładu

J (x)

Jednym z nich jest tzw. metoda eliminacji. Jej algorytm dla funkcji gęstości praw-

dopodobieństwa f(x) ograniczonej od góry przez pewną wartość c < oo oraz jej dziedziny (zbiór argumentów x) zawartej między dwiema

liczbami

oo

CYTOWIACZACO sr) ar(7) ń

Elul=€|/5|=

ee

fs"

dS=———_—

(5)

)

O.

Jak widzimy, wielkość u jest obciążonym estymatorem dyspersji rozkładu, jeśli jednak wprowadzimy zmienną S



n

n

1

S$,

25

to usuniemy to obciążenie. Obliczymy teraz wariancję zmiennej s:

nr” (>)

£”[s] = NL

v[s] =

za)

= zzć

Xx

+

—0”

3

=

ze |

c | m |-

o”

NE

iźk,k=l]

= zi: (eta +) Stetin) i=l

iźk,k=l

n

2

= z, m (no? + zna

— Do?) - a

>,

=

01-22 7

Znaleźliśmy w ten sposób dwie statystyki: s oraz d, przy czym obie są zgodne i nieobciążone, toteż obie mogą posłużyć do oceny dyspersji w rozkładzie z wartością oczekiwaną równą zeru. Którą mamy wybrać? Zbadajmy stosunek f ich wariancji: n 2

= VBI _

nr (3)

vy [d]

|

are (>)

2n

nr-2

2 Zilustrowany jest on na wykresie 7.2 jako funkcja liczebności użytej próby.

Można pokazać, wykorzystując rozwinięcie Stirlinga (5.5), że stosunek ten dąży, dla wzrastającej

liczebności próby,

do około

0,876.

Widzimy,

że dla dowolnej

liczebności próby estymator s charakteryzuje się mniejszą wariancją, a tym samym dostarcza ocen dyspersji o mniej rozproszonych wokół wartości prawdziwej estymator d.

niż

10 r L 0,876 0,8 |-

0,6 |-

0,4

i

376

0,2 | 0,0

0

l

l

l

l

]

10

20

30

40

S0

liczebność n próby Rys. 7.2. Zależność stosunku wariancji błędu i wariancji odchylenia średniego jako funkcja liczebności użytej próby n

7.1. Własności estymatorów Cechę

estymatora

opisującą jego koncentrowanie

się na poszukiwanym

377 parame-

trze nazywamy efektywnością estymatora. Jest to niewątpliwie bardzo ważna i nie do pogardzenia cecha, jako że estymator wyposażony we własność małych fluktuacji dostarcza potężnego 1 kosztów.

narzędzia oceny „poszukiwanego

parametru,

ujmując

nam

pracy

Czy możemy skonstruować, przy skończonej liczebności próby, estymator o dowolnie

dużej efektywności? Niestety, nie. Okazuje się, że istnieje pewna minimalna graniczna wariancja Vin dla wszystkich możliwych estymatorów, jakie moglibyśmy wymyślić do

oceny poszukiwanego parametru. Aby sformułować postać tej granicznej wartości, wprowadzimy najpierw tzw. funkcję wiarogodności. Niech będzie dana próba losowa prosta x; o liczebności n z rozkładu f(x;0), gdzie x jest zmienną losową, a © parametrem określającym rozkład. Funkcją wiarogodności £ (x;0) dla próby x; nazywamy wielkość

£(x;6) =| | /0x:0).

(7.3)

i=l

Należy zwrócić uwagę na to, że formalnie funkcja wiarogodności wygląda jak łączna funkcja gęstości rozkładu. I taką łączną funkcją gęstości jest ona tak długo, jak

długo wielkości x; w wyrażeniu (7.3) są zmiennymi losowymi. Wielokrotnie w dalszej części wykładu spotkamy się z sytuacjami, gdy wielkości x, to faktycznie wyniki pomiaru, a więc Ściśle określone liczby, a nie zmienne. Wtedy wielkość £ nie jest funkcją gęstości zmiennych losowych — jest to zwykła, matematyczna funkcja zależna tylko i wyłącznie od parametru 8. W literaturze statystycznej utarła się i bardzo głęboko zakorzeniła się tradycja wymiennego stosowania terminu funkcja wiarogodności dla obu tych sytuacji. Dlatego, abyśmy mieli jasność, o której z tych dwóch

funkcji mówimy w danym momencie, będziemy stosowali oznaczenie L dla łącznej funkcji gęstości zmiennych losowych oraz £ dla funkcji parametru 6 (lub parametrów).

Wyprowadzimy

teraz wyrażenie

na postać wspomnianego

ograniczenia Vin.

ZA-

czniemy od formalnej definicji pojęcia obciążenia estymatora. Jeśli dysponujemy statystyką © (x) estymującą funkcję (6) parametru 0 rozkładu, to obciążeniem b estymatora

funkcji $ nazwiemy wielkość b(8) zadaną związkiem OO

J O©(x)L (x;0)dx = 3(0) + b(0). —00

W całości naszych dalszych rozważań przyjmiemy, że funkcja rozkładu f(x; 6) spełnia

wymagania niezbędne do tego, abyśmy parametru, obie pochodne — pierwsza wane, a zakres zmienności argumentu x spełniony np. dla rozkładu jednostajnego własność umożliwia przechodzenie, bez

mogli ją różniczkować dwukrotnie względem i druga — mają skończone wartości oczekinie zależy od parametru (warunek ten nie jest określonego na przedziale [0; 6]). Ta ostatnia komplikacji, ze znakiem różniczkowania pod

znak całki. Najpierw zróżniczkujemy powyższy związek względem parametru:

378

7. Estymacja parametryczna 00

38

O(x)L (x;8)dx

= Jewto

m

-

5

8) dx

lnL(x;8),

= | ow

"7

|

_ d8(6)

L(x;0)dx

=

19

„|-

db(6)

(7.4)

je

Następnie skorzystamy z faktu, że skoro funkcja Ł jest gęstością 1 jest unormowana, 00

| L(x;8)dx=l, to przy założeniu, że granice całkowania nie zależą od parametru, zachodzi 0 =

8 [ L(x;8)dx= |f —— In L ————L(x;8)dx=€|———|. (1:0) 9 In Ł (x;6) 06 (e:5)dx = | 30 3 0)dr = £ | 30 |

7.5

2)

Jeśli ten ostatni związek pomnożymy przez funkcję % (6), a wynik odejmiemy od (7.4), to znajdziemy, że

[00-00

(x; 0)

dó(8) , db(8)

8GĘE2

(x; 6) dx = ——— +9:

a podnosząc obustronnie do kwadratui stosując nierówność Schwarza do lewej strony,

otrzymujemy nierówność OO

[e ©)

jcew

— 8(8))ŻL (x; 0)dx

J(3

2

In L (x; o

L (x; 8)dx

00 2 (7 "da

+ 0) do

2

(7.6) |

która przepisana w postaci

v[0()] = J (O(x) — 8.(0))2L (x; 0) dx > Vy, [56 | (w do —

DO

J

A)

OD

+

2) dO 2

( do =

L (x;8)dx

+ mo) do

3

2

| (pnrao)

prowadzi nas do tzw. twierdzenia Cramera-Rao, czyli nierówności określającej minimalną wariancję V/min [5% | dla dowolnego estymatora funkcji v (6) parametru.

7.1. Własności estymatorów

379

Niekiedy bardziej przydatna jest alternatywna postać wyrażenia stojącego w mia-

nowniku. Otóż, różniczkując powtórnie związek (7.5) względem parametru 0, otrzymu-

jemy

f

9ln L(x;8)N”

(757)

|

Ló)dx

=

|

—00

f 9?1n L(x;6)

|

og

L:0)dz.

—00

co możemy także zapisać jako

€ |(5

9

* WACE o) | -—€

|

92

nL (x; o |

(7.7)

Twierdzenie Cramera-Rao ma szczególnie prostą postać, jeśli za funkcję » (0) przyj-

miemy sam parametr 6, a estymator 6(x) jest nieobciążony, ponieważ wtedy A

A

v|ó|>Vx|ó|=

= —T—

l

€ (5

ln Z (c; o) |

E |

(7.8)

|

l

L (x; o)

W dalszych naszych rozważaniach będziemy rozpatrywali, dla uproszczenia, tylko

estymatory nieobciążone. Zwarte i dość złożone formuły na minimalną wariancję Vmin

uprościmy teraz do postaci przydatniejszych w praktyce. Podstawimy, przede wszystkim, jawną postać logarytmu funkcji wiarogodności: Vmin

A

[6|



-

l

on

J L (x; 0) (ws)

2

=

dx

l

s

J

fi

(f12) (7)

gdzie, dla uproszczenia, wprowadziliśmy notację f; = f(x,;0)

2

,

dx

oraz f, = 36 J 0; 0).

Rozwijając kwadrat sumy pod całką, otrzymujemy dwa typy wyrażeń. Pierwszy z nich, dostarczający n składników, to kwadraty pochodnych logarytmu

C E J C O L S 8 7) ( I(s) —00

a drugi typ to wyrazy mieszane

nn) dz,

—%0

J(M)że- | saas=|([ ras) (| an)

które znikają, gdyż z warunku normalizacji | = J f(x;8)dx

380

7. Estymacja parametryczna

po zróżniczkowaniu go względem parametru O wynika, iż

_= „| | £ | 9ln f6G8) [636)dx 0 0=_[05/0:0dx _= | [ 8ln f(x:6) —00

J

(7.9)

—00

przy założeniu wspomnianej wyżej regularności funkcji gęstości. Przy spełnieniu tego warunku nierówność Cramera-Rao dla ciągłej zmiennej losowej przyjmuje postać

A

A

v|0] > min a

o

0

l

o

n | f(x;0) (51a J (x; o)

l

a

dx

n€ IG

J 0% s)

|| (7.10)

Ponowne wykorzystanie regularności funkcji gęstości pozwala przedstawić mianownik

w powyższym związku w innej postaci. Po zróżniczkowaniu (7.9) względem parametru 8

ZIIOESIOZSIOZ --[(7)]--[6)]

otrzymujemy twierdzenie Cramera—Rao w równoważnej związkowi (7.10) formie

v [ó] > Vo [5] =— nJ

|

0 f(x; 0)55z I f(x;0)dx



- —!

d n€ FL

(7.11) f OG Ą

wyrażonej przez formalne oznaczenia i bez skrótów. Dla rozkładu dyskretnego P,(0) i zbioru k; zmierzonych wartości: k = (k;,...,k,), funkcję wiarogodności definiujemy analogicznie

£ (k; 8) = | | P,(6),

(7.12)

i=l

a nierówność

Cramera—Ra0

to

6] >v.f]-

55

ky ,ką,...,kę

Ł(k;6) (zy ntt o)

>.

gdzie zaznaczone sumy w mianownikach przebiegają pełne zakresy zmienności. Rozumowanie podobne do tego, jakie przeprowadziliśmy dla zmiennej ciągłej, pozwala tę nierówność wyrazić przez

v[6| > %|6|=

n€

a

(35 In Pio)

*



0

ne |

—!

In P;(6)

|

(7.13)

7.1. Własności estymatorów Estymator,

dla którego

wariancja

osiąga ową minimalną

wartość,

381

nazywany jest

estymatorem najefektywniejszym. Dostarcza on wygodnej „miarki” do oceny jakości estymatorów.

-——

Przykład 7.1.2 Minimalna wariancja estymatora wariancji — rozkład Gaussa Znajdziemy minimalną wariancję estymatora parametru o” (wariancji) rozkładu Gaussa. Logarytm tego rozkładu wynosi | nA

(x;

,

4,0)

=

—>

l

In2n



l

2

z Ino

(x wa n)

202

7

Jego pierwsza i druga pochodna to (o?)

| ( x ; 4 , 0 ) = —>— (3 4,0) 20?

N NN

a? ——— InN (ao?)

n

(x

(2; u,0) H

o)

+

ł

=

x-Hu) +=, 2(o0*)?

-

2(07)?

(x — p) (a*)3

Podstawiając do twierdzenia Cramera-Rao (7.11), otrzymujemy Vin

[6]

l

=

—n [NG

u,o)

z

=

5 MN

2

—o*.

65 u.0) dx

Natomiast najefektywniejszy estymator dyspersji o (a nie wariancji o*) rozkładu Gaussa W (x; 4, o) powinien się charakteryzować wariancją

Va [6] =

308 o?

ok z (2-

/2RO

ex

p

_G-m 20?

dx

=

2

2a

1 jak widzimy, nie zależy ona od wartości oczekiwanej „w. Wyznacza to efektywność odchylenia średniego d z przykładu 7.1.1: o

—L-

on-2 n

n-2

= (0,876,

2

a dla estymatora s z tego przykładu znajdujemy, że jego efektywność dąży do

jedności wraz ze wzrostem liczebności próby. Stwierdzamy również, odwołując się

do przykładu 5.6.1, że błąd s, należy do klasy asymptotycznie najefektywniejszych.

TI

382 ——

7. Estymacja parametryczna

Przykład 7.1.3

Minimalna wariancja estymatora parametru rozkładu Poissona Rozważmy próbę złożoną z n elementów z rozkładu Poissona o wartości oczekiwa-

nej 4. Z podrozdziału 5.4.2 wiemy, że zarówno wartość oczekiwana, jak i wariancja

rozkładu Poissona są równe parametrowi ji. Dlatego też możemy rozważyć, który z estymatorów: wartości Średniej czy też kwadratu błędu jest bardziej efektywny.

Zacznijmy od minimalnej wariancji (7.13). Logarytmujemy rozkład Poissona

n — exp(- 1) =ilnp — p — Ini! i obliczamy jego pochodną

i!

0 i i — —(inu-u-hnih=—-1=—

0,

SEE i=l1

17 )n-2 ( — > ) i=]

nie zależy od parametrów ju oraz o, a jedynie od wielkości t. Zwróćmy uwagę, że jeśli znana jest nam wartość parametru ja, to statystyka t wyrażona przez para-

metr « zamiast średniej arytmetycznej x, jest dostateczna dla parametru o, a jeśli znany jest parametr o, to statystyka x jest dostateczna dla parametru „w. Gdy oba parametry rozkładu nie są znane, wówczas obie statystyki są łącznie dostatecznie

dla obu parametrów.

7

Inne rozkłady dopuszczające estymatory dostateczne dla swych parametrów to: dwu-

mianowy, ujemny dwumianowy, wykładniczy, Erlanga 1 Poissona.

Liczba statystyk dostatecznych nie musi oczywiście zgadzać się z liczbą nieznanych

parametrów. Jeśli badany rozkład ma postać fQ; 1,0) =

>

l

24/2r(1+1)o

ex

?

(-—-)

o

J'

7.2. Metoda największej wiarogodności

387

to funkcję wiarogodności możemy zapisać w formie

Lana)

1

I

ag

4 =w0)

ZG

wyznaczającej cztery łącznie dostateczne statystyki n

y=) x,

k=1,2,3,4

i=l

dla parametrów ja oraz o. Gdy parametr j4 jest znany, wtedy jedyną dostateczną staty-

styką dla parametru o jest wielkość

n

t=)6— M)", i=l

natomiast przy znanym parametrze o do oceny parametru j4 potrzebujemy aż trzech statystyk: t;, tę Oraz tz. Podobna sytuacja występuje dla rozkładu binormalnego, określonego przez 5 parametrów, dla których mamy 5 łącznie dostatecznych statystyk. Jeśli znane są wszystkie

parametry tego rozkładu, z wyjątkiem np. jednej z wartości centralnych, wtedy do oceny

tej wielkości dostateczną statystyką jest wartość Średnia. Jeśli jednak nie znamy tylko

współczynnika korelacji, to do jego oceny potrzebujemy dwóch łącznie dostatecznych statystyk

1

|

Uu=—7 3 (% — 1)” + — ) (yi — Hy)”, 0x i=l Oy i=l 1

b=

OxQy

n

36% — Moly; — My). i=-]

—- 7.2. Metoda największej wiarogodności 7.2.1. Zasada największej wiarogodności W podrozdziale 7.1 wprowadziliśmy funkcję wiarogodności (7.3) i (7.12):

L(x;6)=[ [ /(%;;0),

(7.18)

i=l jako funkcję gęstości, w której w miejsce zmiennych losowych x; podstawiamy wartości x, uzyskane w wyniku pobierania próby prostej z rozkładu f(x;8). Zakładamy, że postać matematyczna funkcji gęstości f jest znana, nie znamy jednak wartości parametru 0. W takiej sytuacji funkcja wiarogodności staje się funkcją tego parametru. Zgodnie z zasadą największej wiarogodności za estymatę nieznanego parametru © powinniśmy wybrać taką liczbę 0, dla której funkcja wiarogodności osiąga maksimum: AR

L (z; 6)

= max.

388

7. Estymacja parametryczna

Jedynym uzasadnieniem takiego postępowania jest jego racjonalność: tak dobieramy wartość parametru, żeby wyniki pomiarów były najbardziej prawdopodobne, ufając, ze Natura nie znosi ekscesów i obdarza nas danymi, o których można powiedzieć, że są typowe. Jeśli strumień promieniowania kosmicznego docierający do nas z góry przynosi nam w ciągu każdej sekundy około 180 cząstek na metr kwadratowy, to jesteśmy przekonani, że z dokładnością do efektywności licznika, dokonując wielokrotnie pomiaru takiego strumienia przez jedną sekundę, będziemy otrzymywali liczby zliczeń rozłożone w zgodzie z rozkładem Poissona i ulokowane właśnie w okolicy tej wartości, a nie systematycznie niższe bądź też systematycznie wyższe.

(——

Przykład 7.2.1 Pomiar sygnału w obecności tła — rozkład Poissona Rozważmy

sytuację, w której dokonujemy pomiaru intensywności źródła promie-

niotwórczego o bardzo długim czasie życia w warunkach, w których występuje

tło, np. kosmiczne, zakłócające ów pomiar. Zarówno liczba s przypadków sygnału,

jak i liczba b przypadków tła są rozłożone zgodnie z rozkładem Poissona, przy czym nieznany parametr „4; definiuje ten rozkład dla sygnału, a nieznany parametr Lg dla tła. Wiemy, że łączna liczba m przypadków sygnału i tła jest określona rozkładem Poissona P„(u) z parametrem 4 zadanym sumą „45 +

p. Przypuśćmy,

że w eksperymencie zaobserwowaliśmy łącznie m = 8 przypadków sygnału i tła, a wykonany niezależnie, przez taki sam przedział czasu, pomiar tła dostarczył b =3 przypadki. Jakie są najlepsze oceny wartości obu nieznanych parametrów?

Wypiszmy łączny rozkład P„ „(i Ls) zmiennych m oraz b, który z uwagi na nie-

zależność metod zastosowanych do ich uzyskania będzie zadany iloczynem obu rozkładów Poissona:

P,„ (U, Lp) = P„(U)P,(LB)

A” Up p

= —r ky Ś

m! b!

Skonstruujmy funkcję wiarogodności

,3

8

a

L(m=8,b=3; s, Hg) =

EE,

Jęz,

Kontury tej funkcji przedstawia wykres na rys. 7.3. Widzimy, że maksimum funk-

cji wiarogodności występuje w punkcie (jis, ts) = (5,3), co dobrze zgadza się z naszą wiedzą o estymatorach parametru rozkładu Poissona.

Posiadłszy tę wiedzę, chcielibyśmy poznać rozkład nieznanej liczby s = m—b przypadków sygnału w eksperymentalnej próbce. Rozkład P,(4, j45) liczby s sy-

gnałów znajdziemy, sumując łączny rozkład względem wszystkich wartości zmiennych b oraz m, żądając jednak, by ich różnica miała zadaną wartość s = m —b, co sprowadza się do podstawienia wyrażenia s + b w miejsce argumentu m: P.(i,

W, ka?

wu — "HB

ROM

Hp LB

> G+bIbi

uu _ | "HB

*

NO

(Ukta) A

> s + b)!b!

Jeśli skorzystamy z definicji zmodyfikowanej funkcji Bessela 7,(x) rzędu s

(3)

(x) = ŚDEZZ 2) —(i+s)li!

s=0.1,2,...,

7.2. Metoda największej wiarogodności

=

10 Rys. 7.3. Kontury funkcji wiarogodności dla pomiaru intensywności sygnału w obecności tła

o własności /_,(x) = /,(x) 1 dokonamy wyboru x

q

HK

%

x= Ż/ ILILB,

to poszukiwane prawdopodobieństwo P,(it, LB) zapiszemy w postaci P;(iL,

Poprawność Bessela:

LL)

=

(

2) B

unormowania

e"

"EJ,

rozkładu :

(24

Aus)

wynika |

,

S

= 0,

l,

+2,

....

z postaci funkcji tworzącej do

exp (5 ( + ;)) =)

funkcji

eI,(x).

S=—00

Charakter rozkładu P,(ii = 8, Lp = 3) ukazuje rys 7.4. Widzimy, że rozkład

ten przybiera maksymalną wartość w punkcie s = 5. Wybór estymat jż; i fig jako tych wartości parametrów, które maksymalizują funkcję wiarogodności, jest sposobem na uczynienie danych najbardziej prawdopodobnymi, czyniąc, tym samym,

parametry najbardziej wiarogodnymi.

Zwróćmy uwagę, że zmienna losowa s, będąc różnicą zmiennych losowych przebiegających wartości dodatnie lub zero, przyjmuje wartości określone wszyst-

kimi liczbami całkowitymi z zakresu od minus do plus nieskończoności. Jest to rezultat pozbawiony wszelkiej treści fizycznej, gdyż nie jesteśmy w stanie wyobrazić sobie np. —3 przypadków sygnału w próbce, choć statystyka matematyczna skazuje nas na takie horrendum. Nie byłoby poprawne obcięcie rozkładu P,(u, Lg)

do wartości s > 0 i stosowne jego unormowanie,

gdyż oznaczałoby to, że np.

389

0,14

1

7. Estymacja parametryczna

0,12

|

0,10 |

P,(u5=5,4p=3)

3%0

0,08 | 0,06 | 0,04 |0,02 |

0,00 ez liczba s sygnałów Rys. 7.4. Kształt rozkładu liczby s sygnałów w obecności tła, dla parametrów sygnału i tła określonych metodą największej wiarogodności

w eksperymencie mierzącym tło w zadanym przedziale czasu potrafimy kontrolować liczbę b sygnałów tak, aby nie była ona większa niż liczba m przypadków

sygnału i tła. Próba ustanowienia takiej kontroli byłaby sprzeczna z warunkiem poissonowskiego charakteru takiego pomiaru, a w dodatku musiałaby pogwałcić

niezależny charakter obu eksperymentów, czyniąc wyrażenie na prawdopodobieństwo P,„(/L, Lg), zadane iloczynem dwóch rozkładów Poissona, nieadekwatnym

wobec ustanowionego przez nas modelu obu pomiarów. Jeśli kiedykolwiek przytrafi się nam eksperyment, w którym liczba sygnałów będzie ujemna, staniemy się, ni mniej, ni więcej, tylko bezradną ofiarą pecha zesłanego na naszą głowę

przez statystykę matematyczną, a rozwiązania tej trudności będziemy musieli po-

szukać w zmianie podejścia do zagadnienia i odwołaniu się do metody estymacji przedziałowej, czym zajmiemy się w podrozdziale 7.4.

T)

Estymatory, jakie uzyskujemy z funkcji wiarogodności, nazywamy estymatorami metody największej wiarogodności. Wymaganie maksymalnej wartości funkcji wiarogodności sprowadza się do żądania znalezienia pierwiastka 6 równania 0

35 7 (x;,0) =0,

przy warunku

L (x;0) |_g

i =



natomiast jego pochodna, a stąd estymata parametru A mi

—-

392

7. Estymacja parametryczna

Tym samym widzimy, że

+=5(6).

1=$()=

czyli dla tego specyficznego rozkładu estymator jest niezmienniczy względem transformacji »(x)

=

1/x parametru.

O ile estymator parametru Tr uzyskaliśmy

w formie nieobciążonej, o tyle wynik dla parametru A, w świetle (5.43), jest obażONY. ciążony. r

r——

Przykład 7.2.3 Estymacja parametrów rozkładu normalnego Znajdziemy estymatę wartości oczekiwanej „ i wariancji o” metodą największej wiarogodności z próbki x, o liczebności n wylosowanej z rozkładu Gaussa

N (x; a, o). Funkcja wiarogodności (7.18) tej próbki to

l

L (x; 4,0) = ————€Xxp (CZ

o)

l

2a? 2

(x; — w

natomiast jej logarytm wynosi In £ = -z n2n Biorąc

e

jA L= 0

352 ML=

— > Ina” —

względem wartości pa

06-60 >

2.

= — 1)

0

— u).2

5

i wariancji, otrzymujemy

>

fi=- 2]

— z: = 0

>

A2__

o

«2

l



AS2

= S;=,2,0- 60

Widzimy, że estymata wartości oczekiwanej to wartość Średnia, jednak estymata wariancji, będąc tożsama z (4.5), różni się współczynnikiem przed znakiem sumy od uzyskanego w podrozdziale 4.2 i konsekwentnie stosowanego w niniejszym wykładzie estymatora sź (4.7). Tym samym estymator wariancji rozkładu normalnego

z metody największej wiarogodności jest obciążony, a obciążenie to wynosi S2) Xx

_ g2 —

n= l n

_52_7—1 X

i znika dopiero dla n —

n

2

gto x

12

2

n

_12 n

oo. Ten asymptotyczny brak obciążenia to dość po-

wszechna cecha estymatorów największej wiarogodności. Jaką wariancją charakteryzuje się uzyskany estymator S; ? Z przykładu 5.5.2 wiemy, że

1 „|= 1o| 1 _(h=-1l y[5:]=v| - s|-( (n-l- )>el-( - |2

4

ot

_„h-L1,

7.2. Metoda największej wiarogodności

co oznacza, że usunięcie obciążenia, czyli przejście od estymatora S$, do estymatora s>, zwiększa wariancję nieobciążonego estymatora s; w stosunku do obciążonego

S; o wartość

PIS] - PIS] =P| s: |- PIS] = (> -1) PIS] n

=

l n-l

p[S;] =

l

2

n-l

nl

o

n*



o”

=—

2

nyNn=l

.

Czynnik o*/n stojący przed pierwiastkiem po ostatnim znaku równości to wartość

obciążenia. Widzimy, że im liczba n jest większa od trzech, tym w mniej szym stopniu zwiększona jest dyspersja D [s; | estymatora nieobciążonego s; i jednocześnie jest ona mniejsza od samego obciążenia. Istnieje interesujące odwrócenie rezultatu tego przykładu. Otóż jeśli średnia arytmetyczna X, z liczbą składników większą niż 2, jest estymatorem największej wiarogodności parametru ji funkcji gęstości postaci f(x — u), określonej na całej osi rzeczywistej, to jedyną funkcją spełniającą takie warunki jest rozkład Gaussa.

Istotnie, niech estymator parametru u będzie zadany przez Średnią arytmetyczną i spełniony niech będzie wymóg metody największej wiarogodności, tzn. 7-5 J 06—x x)

fQG-3) Wprowadźmy,

dla uproszczenia notacji, oznaczenia J =2X,—X,

g(%)=

J 0) JO.)

|

wtedy

a także

Rozważmy przypadek n = 2, kiedy to

0) + 802) =0 a ponieważ y, = —y,, więc

s)

= —801);

co mówi nam tylko, że funkcja g musi być antysymetryczna. Więcej informacji uzyskamy, rozważając n = 3. Eliminując wielkość y;, otrzymujemy 20) + 802) +g(-Vi

—))=0

Zróżniczkujmy ten rezultat względem y»:

g 02) — g Z) — a) 50,

393

7. Estymacja parametryczna

a poniewaz jest to wielkość dowolna, połóżmy ją równą zeru

g 0) =g(-y). Oznacza to, że pochodna funkcji g jest stałą, co prowadzi nas do stwierdzenia, że

sama funkcja g jest liniowa w swym argumencie, a w konsekwencji funkcja f ma postać rozkładu Gaussa. Identyczne wnioski wynikają z rozważenia przypadków,

kiedy liczba składników w średniej arytmetycznej jest większa od trzech.

r

Przykład 7.2.4 Estymacja parametrów rozkładu Breita-Wignera Uzyskanie analitycznej postaci estymatorów udaje się, niestety, tylko w klasycznych

1 najprostszych przypadkach. Zazwyczaj zasada największej wiarogodności doprowadza do równań, które nie dają się tak łatwo rozwiązać. Mamy często dodatkowe komplikacje. Przykład takiej sytuacji znajdujemy przy określaniu parametrów rozkładu Breita-Wignera (5.90). Logarytm funkcji wiarogodności (7.18) dla próbki o liczebności n ma postać

In £

=

—h

nn + nn ——

2



97in

I

2

2



+(

X;



H )”

co daje nam równanie np. na parametr 4

jj m

"

=2)

(7

_E

+ (6 — p)?

0.

Przy znanej wartości parametru 7” jest to wielomian stopnia 2n — 1, a więc

musimy wybrać jeden z jego pierwiastków, czyli w takiej sytuacji dysponować

dodatkowymi kryteriami. Przykład tego, co się może zdarzyć, przedstawiony jest

na dwóch wykresach: na rys. 7.5, ukazującym rozkład 1000 liczb wylosowanych

70

i

80 r

60 |50 | 40 r 30

I

20 "©



394

Rys. 7.5. Symulacja rozkładu Breita-Wignera

7.2. Metoda największej wiarogodności

395

-18 Rys. 7.6. Kształt funkcji wiarogodności dla rozkładu z rys. 7.5

metodą Monte Carlo z rozkładu Cauchy ego (5.89) (patrz też przykład 5.10.5) oraz

na rys. 7.6, pokazującym

logarytm funkcji wiarogodności

dla rozkładu Breita—

Wignera jako funkcji parametru a, przy ustalonym parametrze I' = 2.

r

7.2.2. Własności estymatorów największej wiarogodności Metoda największej wiarogodności cieszy się uznaniem z uwagi na własności estymatorów, jakich dostarcza.

Wskazówki

dotyczącej jednej

z tych własności,

a mianowi-

cie niezmienniczości względem transformacji estymowanego parametru, dostarczył nam przykład 7.2.2. Jest to bardzo pożądana cecha estymatorów, ponieważ w praktyce jest niekiedy rzeczą arbitralną, jaką funkcję poszukiwanego parametru wybierzemy. Możemy łatwo pokazać, że postać tej funkcji jest bez znaczenia. Istotnie, jeśli 6 jest estymatorem największej wiarogodności parametru 6, a nas interesuje pewna funkcja tego parametru, powiedzmy: © = 9 (0), to z równania

_0L

08

_ 0L060

86 80"

przy założeniu, że pochodna funkcji © względem parametru © nie znika, wynika, że

nowy parametr © również spełnia równanie będące warunkiem koniecznym istnienia estymaty tego parametru

AL

30

0.

Stąd mamy ową niezmienniczość względem transformacji parametru:

0 -5(0) =2(). Wynik ten rzuca światło na kwestię obciążenia estymatorów największej wiarogodności. Musimy się spodziewać, że są one, ogólnie rzecz biorąc, obciążone, jako że nie

39%6

7. Estymacja parametryczna

ma oczywistej recepty na wybór funkcji parametru rozkładu, którą mamy estymować. I nawet jeśli estymator parametru 6 nie jest obciążony, to ponieważ

e|o6)| ź o (€ [5 |) z wyjątkiem przekształcenia liniowego, estymator O funkcji » tego parametru z reguły będzie obciążony. Estymatory największej wiarogodności charakteryzują się jeszcze innymi, bardzo ważnymi własnościami, które wyliczymy tu w formie twierdzeń, niekoniecznie podając szczegółowe

dowody.

Przy zachowaniu pewnych

warunków

regularności funkcji roz-

kładu (niezależność zakresu zmiennej losowej od parametrów rozkładu, dwukrotna różniczkowałność względem parametru i istnienie wartości oczekiwanej pierwszej i drugiej pochodnej względem parametru), jedno z tych twierdzeń to: Twierdzenie 1. Estymatory największej wiarogodności są zgodne.

Zastanówmy się nad wariancją estymatora. Jeśli funkcję wiarogodności (7.18)

L (x;6) =| [ /(%:0) i=l

potraktujemy jako funkcję łącznego rozkładu prawdopodobieństwa zmiennych x; i dokonamy zamiany zmiennych

|

0 Y;

=

a;(X1,X2,

...,

Xn),

i

=|1,2,...,.n-l,

to funkcję L możemy zawsze przepisać w postaci

L(x;6) =L(x6,y):6)1J| = L(6,y:0), zależnej

od estymatora i zmiennych

losowych

znajdujemy rozkład brzegowy dla wielkości 6

y,. Całkując

względem

zmiennych

y;,

2:0) = J L (6. y:0) dy. z którego możemy określić wariancję estymatora 6

v [6] z | (6 — (8))?g(6; 6) dó. Wynik ten ma raczej teoretyczne znaczenie, ponieważ niezmiernie rzadko udaje się przeprowadzić taki program z sukcesem do końca. Oczywiste jest jednak to, że wynik ten jest równoważny następującemu rezultatowi:

v [6 | — | (6 (x) — (6))?L (x; 6)dx,

(7.19)

7.2. Metoda największej wiarogodności

397

który uzyskujemy, „cofając” przekształcenie x — (6,y). Wariancja (7.19) przyjmuje postać funkcji ocenianego parametru 8 — jeśli chcemy znaleźć jej wartość liczbową,

zmuszeni jesteśmy do podstawienia za ów parametr wartości estymaty, co naturalnie jest

tylko przybliżeniem. -——

Przykład 7.2.5 Wariancja estymatora parametru rozkładu wykładniczego Wykorzystajmy rezultat (7.19) do obliczenia wariancji estymatora czasu życia T, zadanego średnią (patrz podrozdział 5.3.2), dla rozkładu wykładniczego: a>

1

00

vE]-

0

= —

0) ot,

G=I

[lzeo(-*)dt...

i=l

T"

N

2

| (72:-7)

l

=-

n

00

i=l

2

1
[l

t,

exp | —— »(

)

T*

|dt,...dt,—T* =—. "

n

Nie podajemy szczegółowych obliczeń, gdyż przebiegają one standardowo, jeśli przypomnimy sobie elementarne całki dla rozkładu wykładniczego (wartość oczekiwana, wariancja) i technikę rozkładania jednomianów na wyrażenia z nie powtarzającymi się indeksami (patrz dodatek B). h

Rozważmy teraz przypadek wielu, np. k parametrów opisujących badany rozkład. Proste rozumowanie, będące rozszerzeniem przypadku jednowymiarowego, prowadzi nas do rezultatu

r——

v (6,6, |= J (6x) — (876,02) — (6;))L (x; 6)dx.

Przykład 7.2.6

Wariancje estymatorów parametrów rozkładu normalnego Rozważmy jednoczesną estymację dwóch parametrów:

w i o rozkładu Gaussa.

W przykładzie 7.2.3 pokazaliśmy, że ich estymatory największej wiarogodności to k=

2x

=

06-607

(7.20)

398

7. Estymacja parametryczna

Zgodnie ze wzorem (7.20) wariancja estymatora wartości oczekiwanej „w dana jest przez

y[a] =

1

zz);

00



(2-2)

2

CJE

GM] 92

)

_o?

= —.

Szczegółowych obliczeń nie przytaczamy z uwagi na ich prostotę. Rachunki dla wariancji estymatora o* są bardziej skomplikowane, choć można je wykonać, korzystając z uwag z dodatku B:

BT

I (r 20; --10-0) [ [eo(--5 z a dx

_ 201 n-

Zwróćmy uwagę na to, że wynik ten różni się od otrzymanego w przykładzie 5.5.2 oraz przykładzie 5.6.1, a to z powodu obciążonego charakteru estymatora największej wiarogodności wariancji rozkładu normalnego. Łatwo zauważyć, że dokonując zamiany

usuwającej obciążenie, odzyskujemy nasze wcześniejsze rezultaty.

Obliczenie, z wykorzystaniem (7.20), kowariancji między obydwoma estymatorami również nie jest skomplikowane i dlatego pozwalamy sobie zostawić je Czytelnikowi, a tu podamy jedynie ostateczny rezultat

cov [1, 6?]

1czy! 5)

(G$--)(720-P'-0 o|fleo(- SB)

= (), w zgodzie z wynikami przykładu 4.2.3 oraz przykładu 5.6.1.

Podany wyżej ogólny wynik (7.19) lub też (7.20) na postać wariancji daje się wykorzystać jedynie w najprostszych przypadkach. W sytuacjach bardziej skomplikowanych zmuszeni jesteśmy uciekać się do metod numerycznych albo przybliżonych. Pewne ułatwienie przynosi sytuacja, w której badana próbka jest duża, ponieważ wtedy zachodzi:

7.2. Metoda największej wiarogodności

399

Twierdzenie 2.

Gęstość rozkładu prawdopodobieństwa estymatorów największej wiarogodności dąży, przy liczebności próby dążącej do nieskończoności, do rozkładu normalnego, a estymatory największej wiarogodności są asymptotycznie nieobciążone i dążą do klasy najefektywniejszych. Dowód tego twierdzenia opiera się na rozwinięciu pierwszej pochodnej logarytmu funkcji największej

wiarogodności

względem

parametru,

obliczonej

przez estymator, wokół prawdziwej wartości 6 tego parametru 0 —

0 ln L (x; 0) 30

_3mL(G:6) — 9-5 30

w punkcie

zadanym

| 9? ln Z (x; 0) 6 —0), 302 „og, )

(0.21)

7.21

o której to wielkości wiemy, że jest ona równa zeru, co zaznaczyliśmy po lewej stronie

równości. Wielkość 6* jest wartością parametru 6 zapewniającą poprawność rozwinięcia

(drugi wyraz jest po prostu jedną z wielu postaci reszt, jakie wykorzystywane są w roz-

winięciu Taylora). Wartość oczekiwana pierwszego składnika sumy, na mocy (7.5), jest równa zeru, co oznacza, że wariancja pochodnej logarytmu funkcji wiarogodności wynosi

0lnLGG6)]|

„|(0lnLGG6)N" | „[

8mLQGG8)]

1

|Pege -]-e|(e©) |= =(=] = zz] gdzie wykorzystaliśmy (7.7). Ponieważ pierwsza pochodna logarytmu funkcji wiarogodności jest zadana sumą niezależnych składników:

Hm L(x:0)6) dlatego też, w warunkach

4h

asymptotycznych,

centralnego twierdzenia granicznego wielkość O ln ZŁ (x; 0)

-

06

z p nz



przy dużej

p, [5] 072056)

> = Din 10]

30

liczebności próby,

36

na mocy

0.22)

zachowuje się jak standaryzowana zmienna losowa o rozkładzie normalnym.

Spójrzmy teraz na drugą pochodną względem parametru w związku (7.21). Wielkość

ta również dana jest sumą niezależnych statystycznie składników, którą w asymptotycznym reżimie możemy także wyrazić przez minimalną wariancję:

82 In L (x;6) 392

0=0*

o—

no 321n f(x,,6)

3

i=1

00

2

, [ 821n f(x,6) 362

8=8*

2%

f (x,0)dx

(7.23)

400

7, Estymacja parametryczna

gdyż na mocy twierdzenia 1 o zgodności estymatorów największej wiarogodności wielkość 8* musi zbiegać do prawdziwej wartości © parametru. Podstawiając uzyskane wyniki (7.22) oraz (7.23) do wyjściowego wyrażenia (7.21), otrzymujemy

u Din

—_] [5 |

Vmi

(6—0)

=

U=_|_

[6]

Din

6-0)

(7.24)

[6 |

co dowodzi asymptotycznie normalnego charakteru estymatora największej wiarogodności i jego minimalnej wariancji. Zacytujmy jeszcze jedno twierdzenie odnoszące się do estymatorów największej wiarogodności: Twierdzenie 3.

Jeśli istnieje dostateczny estymator parametru, to jest on funkcją estymatora naj-

większej wiarogodności.

Nim przejdziemy do przykładów ilustrujących zastosowanie powyższych twierdzeń, rozważymy także postać asymptotyczną funkcji £ największej wiarogodności jako funkcji parametru 6 (ograniczymy się do przypadku jednego parametru) w okolicy wartości tego parametru określonej jego estymatą. Rozwiniemy w tym celu logarytm funkcji wiarogodności w szereg Taylora do wyrazów drugiego rzędu włącznie: A A 1 0 InL(6) 2 0 ln £ (6) ———— 0—8)+> ———— 8—8)* o (6-67). in £ (6) = In £ (6)+ 39 4 )+z 92 „4 J+o(( ) Pierwszy wyraz tego rozwinięcia to wartość maksymalna Lgax funkcji wiarogodności,

a drugi wyraz jest dokładnie równy zeru na mocy definicji estymaty największej wiarogodności. Jeśli wykorzystamy wynik (7.23), to w warunkach asymptotycznych całość możemy przepisać jako

InL (6) £ In Lyyx — (8 — 6)? +0 (te — 6”) | 2 [6

Usuwając funkcję logarytm i zaniedbując wyrazy wyższego rzędu, znajdujemy gaussowski kształt

L (0) © Lax xP

(6 — 6)

2V min

(7.25)

[6 |

funkcji wiarogodności w okolicy maksimum. Musimy tu z całą siłą zaznaczyć, że otrzymana zależność nie reprezentuje sobą ani funkcji gęstości rozkładu estymatora parametru

0, ani tym bardziej rozkładu samego parametru (to ostatnie byłoby, co najmniej, absurdalną propozycją), mimo formalnej zbieżności tego wyniku z wnioskami wynikającymi ze związku (7.24). Powyższy wynik opisuje asymptotyczny kształt funkcji wiarogodności jako funkcji parametru 0, w okolicy wartości zadanej estymatą tego parametru, a więc przy ustalonych wartościach punktów pomiarowych x,. W ramach klasycznej statystyki matematycznej, którą się tutaj paramy, parametr 8 jest pewną ściśle określoną, choć nieznaną, liczbą, a nie jest zmienną losową. Funkcja (7.25) jest zwykłą matema-

7.2. Metoda największej wiarogodności

401

tyczną funkcją argumentu 0, która ma tylko kształt krzywej Gaussa, wyzutej ze wszelkiej

probabilistycznej interpretacji. Studenci przedmiotu często o tym zapominają. Rezultat (7.25) jest bardzo ważny w praktyce. Kreśląc kształt funkcji wiarogodności jako funkcji parametru, bezpośrednio z rysunku możemy odczytać nie tylko wartość estymaty, ale także wartość błędu poszukiwanego parametru, gdyż na mocy twierdzenia 2, kwadrat tego błędu jest zadany minimalną wariancją, a ta jednocześnie definiuje

asymptotyczną postać funkcji wiarogodności. Jednakże w praktyce nie dysponujemy nieskończoną liczbą przypadków, więc dla wariancji estymatora parametru 6 otrzymujemy,

co najwyżej, pewne przybliżenie

A

[a

p|ó|=-

,

9% In £

) , 6=6 Dla przypadku wielu parametrów mamy natychmiastowe uogólnienie: A

[A

(

08?

a

|

9?In £

Y(6,6,) = |

(7.26)

——

00,00,

8—6

|

,

(7.27)

gdzie przez nawias kwadratowy zaznaczyliśmy macierz drugich pochodnych, którą mu-

simy odwrócić, aby uzyskać macierz kowariancji, a raczej jej estymatę, czyli macierz błędów, gdyż zamiast parametrów używamy ich estymat.

—-

Przykład 7.2.7 Ocena czasu życia — symulacja Opiszemy teraz przykładową próbę określenia parametru, jakim jest oczekiwany

czas życia r cząstki elementarnej lub wzbudzonego jądra atomowego w sytuacji pomiaru indywidualnych czasów życia przy użyciu detektora o skończonych roz-

miarach (porównaj przykład 5.3.5). Zazwyczaj sytuacja wygląda tak, że czas życia (pamiętajmy o dylatacji!) cząstki określamy z odcinka wyznaczonego przez punkt produkcji oraz punkt rozpadu, a więc o znanej długości i ze znanej prędkości cząstki, którą to prędkość znajdujemy z pędów produktów rozpadu. Dla cząstki poruszającej się w zadanym kierunku w detektorze istnieje pewien maksymalny

odcinek, na którym może dojść do obserwacji rozpadu. Odcinek ten wyznacza dla tej cząstki pewien maksymalny czas życia t/*%*. Gdyby cząstka żyła dłużej, jej rozpad nastąpiłby poza obszarem detektora i takich rozpadów nigdy nie rejestrujemy

w próbce. Dodatkowo, gdy odległość między punktem produkcji i rozpadu jest zbyt mała, nasze metody identyfikacji takich cząstek często są nieefektywne, co

prowadzi do strat w próbce, w związku z czym wprowadzamy dodatkowe obcięcie na mierzone czasy Życia od dołu, definiując pewien minimalny czas ż””, powyżej

którego, w naszym mniemaniu, efektywność detekcji rozpadów jest satysfakcjo-

nująca. Przy tak postawionym

problemie

rozkład czasów

życia obserwowanych

cząstek jest różny od zera jedynie dla przedziału wartości czasów od tj" do tP*. Oznacza to, że funkcja gęstości dla pojedynczej cząstki przyjmuje postać T

Jlt;T)=

gin

exp (-

7

(>) T

) — exp (-

gnax

-

*

402

7. Estymacja parametryczna

Funkcję wiarogodności (7.18) możemy zapisać w postaci InlL

=—nl







£;

*



l



jp





gprax

,

skąd otrzymujemy równanie na estymatę parametru T

nC£ OT

=

1.

T?

Mi

no T

Tt

Llqa*

min

i=1

ap (

_

fp

ex

z

i

L_ g Max

>)



i ap (

in

z

fi

jmax

z

e),

i

T

T

Jak widzimy, równanie to nie daje się rozwiązać przez funkcje elementarne i mu-

simy się uciec do metod numerycznych. Możemy jednak przekształcić je do postaci t

Z

T=fl—n

2

ty” exp(-

i=l

C€xp

(

min

— ) —t

tpm —— T

)



cXp

exp((

——

max —

-

a

) |

T

gdzie pierwszy wyraz po prawej stronie równości to średnia arytmetyczna obserwowanych czasów życia, a suma to poprawka. Wyrażenie to nadaje się wyśmienicie do obliczeń iteracyjnych. 120

100 g0 | 60

40 | 20 | 00

05

10

15

20

25 T

30

35

40

45

50

Rys. 7.7. Kształt wygenerowanego rozkładu wykładniczego z jednostkowym parametrem

Dla ilustracji wykorzystaliśmy metodę Monte Carlo 1 wygenerowaliśmy 500 przypadków z czasem życia Tr = 1. Rozkład ten przedstawiony jest na rys. 7.7. Dla celów dalszej demonstracji, a także dla uproszczenia przyjęliśmy, że wszystkie czasy £;/”” są identyczne i wynoszą 0,25, natomiast czasy t/*%* także dane są tą

samą wielkością 2,0. Odrzucenie danych, które nie spełniają warunków nałożonych

przez obcięcia t”" oraz ty*%, pozostawia w próbce 335 przypadków. lteracyjne wyrażenie na estymator parametru T już po paru „obrotach” dostarcza rezultatu T = 0,889 = 0,89. Przyjmując, że liczba 335 przypadków jest „duża”, skorzystamy

z wyrażenia (7.26) na estymatę wariancji, uzyskując D [£ | = (0,038 = 0,04.

7.2. Metoda największej wiarogodności

parametr T 0,95

1,00

1,05

log funkcji wiarogodności —— 335 liczb

0,90

Rys. 7.8. Kształt logarytmu funkcji wiarogodności £ dla przypadków z rys. 7.7 jako funkcja oczekiwanego czasu życia T

Powyższe

rozważania możemy

zilustrować

wykresem

z rys. 7.8 logarytmu

funkcji wiarogodności zależnej od argumentu r. Widzimy, że wartość maksymalną funkcja ta uzyskuje przy wartości parametru około 0,89, co dobrze zgadza się z ob-

liczeniami numerycznymi (na wykresie unormowaliśmy krzywą przez odejmowanie tak, aby jej wartość w maksimum była równa zeru). Kształt tej funkcji jest istotnie bardzo zbliżony do kształtu paraboli, jak tego powinniśmy się spodziewać dla kształtu Gaussa (7.25), ponieważ In£ =

Ż

CG

ŻVmin

2

+- const.

[7]

Z tego samego związku (7.25) wynika, że jeśli zmienimy parametr r o jedno odchylenie standardowe, to logarytm funkcji wiarogodności ulegnie zmianie o 1/2. Poziom —1/2 oznaczyliśmy za pomocą linii, która po przecięciu z ramionami

paraboli wyznacza dwie wartości parametru r, jedną w okolicy 0,852, a drugą około 0,925. Różnica między tymi liczbami to dwukrotne odchylenie standardowe,

które szacowane tą drogą daje nam wynik 0,036, co jest w wyśmienitej zgodności z obliczeniami numerycznymi. Podobne oszacowania możemy

przeprowadzić dla

dwóch lub trzech standardowych odchyleń, przesuwając tak wartość parametru T, aby logarytm funkcji wiarogodności uległ zmianie odpowiednio o dwie lub o cztery

i pół jednostki. Zaznaczyliśmy je na wykresie stosownymi liniami. Odczytując liczby z wykresu, otrzymujemy dwa dalsze oszacowania odchylenia standardowego o zbliżonych wartościach. Jest jednak interesujące, że o ile odległość od maksimum na lewo do punktu przecięcia naszej funkcji z prostą na poziomie 4,5 wynosi trochę więcej niż 0,1, to ta sama odległość na prawo jest równa 0,12. Świadczy to o odstępstwach od para-

bolicznego charakteru logarytmu funkcji wiarogodności. Te odstępstwa nasilają się przy zmniejszonej liczebności próbki. Dla ilustracji przedstawiamy na rys. 7.9 wy-

kres tej samej funkcji logarytmu wiarogodności, ale dla pierwszych pięćdziesięciu

wygenerowanych liczb. Nasze kryteria wyboru usunęły z niej 5 przypadków, zostawiając 45, a więc próbkę około 8 razy mniejszą niż pierwotna. Przez statystyczny

403

7. Estymacja parametryczna

parametr T

0,9

0, log funkcji wiarogodności — 45 liczb

404

—(,5

—1,0

—1,5

-20

Rys. 7.9. Kształt logarytmu funkcji £ wiarogodności dła ubogiej próbki przypadków jako funkcja oczekiwanego czasu życia T

kaprys, owe 45 przypadków daje bardzo zbliżoną wartość czasu życia £ = 0,875.

Tu już wyraźnie daje się zauważyć odstępstwo od parabolicznego charakteru krzywej. Potwierdzamy to, odczytując z wykresu wartości odchyleń standardowych: na

lewo około 0,095, natomiast na prawo około 0,105. Rachunek błędu wykorzystujący

formułę z drugą pochodną logarytmu funkcji wiarogodności daje wartość 0,102,

który to błąd jest oczywiście symetryczny (nota bene, zauważmy ładną zgodność odchyleń standardowych dla obu próbek: zmiana liczebności o czynnik 8 powo-

dująca zwiększenie błędu o czynnik V8 — 2,8, daje błąd 0,036 - 2,8 = 0,102 w zgodności z naszymi rezultatami „graficznymi).

r

Przykład 7.2.8 Ocena czasu życia i tła — symulacja Rozpatrzymy teraz przypadek, gdy występują w rozkładzie dwa nieznane parame-

try. Jako przykład rozważymy obserwację czasów rozpadu izotopu o intensywności

A w warunkach stałego w czasie tła, przez ustalony w czasie okres T. Przykład ten jest równoważny sytuacji, w której dokonujemy obserwacji zaniku izotopu, powstającego w szeregu z innego źródła promieniotwórczego o znacznie dłuższym czasie

życia. Gęstość prawdopodobieństwa dla takiej sytuacji określona jest wyrażeniem

fGA,T,p) = p

A exp(—At)

l

expCAT) * U-P7:

gdzie wielkość 1 — p określa domieszkę tła w znalezionej próbce. Dla ilustracji,

ponownie skorzystaliśmy z metody Monte Carlo i wylosowaliśmy 5000 przypadków z powyższego rozkładu z parametrem A = 1 i p = 0,5 dla czasu obserwacji

T = 5. Otrzymany rozkład przedstawiony jest na wykresie 7.10. Następnie zmaksymalizowaliśmy logarytm funkcji największej wiarogodności. Ponieważ tym razem mamy dwa parametry, więc konwencjonalnie rezultat takiej operacji przedstawiamy

7.2, Metoda największej wiarogodności

350 300 | 250 | 200 150 100 50

CczaS

parametr tła p

Rys. 7.10. Wygenerowany rozkład czasów życia w obecności tła

0,55 0,54 0,53 0,52 0,51 0,50 0,49 0,48 0,47 0,46 0,45 0,44 0,43 0,42 |0,41 | 0,40 0,80

! 0,85

090

i

l

I.

i

i

0,95

100

105

110

115

120

intensywność A Rys. 7.11. Kontur funkcji wiarogodności parametrów p oraz A dła rozkładu prezentowanego na rys. 7.10

w postaci konturów badanej funkcji (samą funkcję zazwyczaj normalizujemy, przez odjęcie od niej jej wartości w maksimum). Otrzymany wynik prezentowany jest na wykresie 7.11, gdzie kontury są po-

prowadzone co 0,5 jednostki od wartości —0,5 do wartości —4,5. Warto, aby Czytelnik zwrócił uwagę na odbiegające od eliptycznego kształtu krzywe poziomic, co wskazuje na niegaussowską postać funkcji wiarogodności, a tym samym

405

406

7. Estymacja parametryczna

przybliżony charakter wariancji obliczanej ze związku (7.27). Wartość maksymalną znajdujemy w punkcie A = 0,99 + 0,07 oraz p = 0,48 + 0,05, a więc wiernie

odtworzyliśmy wartości pierwotne, niestety, nie bez skorelowania parametrów między sobą. Ich współczynnik korelacji otrzymaliśmy jako r = —0,32. Odczytanie

tych samych błędów pomiaru z wykresu, jak to czyniliśmy w podrozdziale 5.5.4, jest nieco bardziej skomplikowane od tego, jakie wykonywaliśmy w przypadku jednowymiarowym. Teraz już nie wystarczy wybrać jednowymiarowy „przekrój ” funkcji wiarogodności w maksimum i odliczyć pół jednostki wartości tejże funkcji, aby otrzymać wartość błędu parametru. Musimy wyrysować pełny, dwuwymiarowy kontur funkcji wiarogodności, odpowiadający zmianie jej wartości o 1/2 1 z punk-

tów przecięcia z osiami parametrów prostych stycznych do konturu i równoległych do obu osi odczytać błędy. Wartość współczynnika korelacji możemy odzyskać, mierząc kąt © nachylenia większej półosi elipsy do osi x (intensywności A) i zastosować elementarny wzór

2poyO a . o£ — Gy

tg 2a =

Przykład 7.2.9

Efektywność detektora W przykładzie 5.4.10 zaproponowaliśmy modelowy opis doświadczenia Poissona,

którego celem jest pomiar wydajności dwóch liczników. Model ten określony jest przez trzy definiujące go parametry: dwie efektywności pą oraz pg i liczbę jt cząstek i zadany jest iloczynem czterech rozkładów Poissona Pza.np.Ncn (PA:

dla czterech zmiennych

PB:

u)

=

losowych

Pr

(LPA) Ps

na, ne, Nc

(LPB)Pu

(upc)Plup)

oraz n. Ponieważ

ostatnia z tych

zmiennych nie jest dostępna eksperymentalnie, więc usuniemy ją metodą przejścia do rozkładu brzegowego P, np.NC (Pas PB. M) = P., (UPA) P,, (UPB)PN. (Hpc).

Prawdopodobieństwo P,, ».v- (PA» PB. 4), przy znalezionych z eksperymentu liczbach ną, ng oraz N,, staje się funkcją wiarogodności L (pa, PB, ii), która posłuży do oceny nieznanych parametrów. Stosujemy standardową procedurę: ob-

liczamy logarytm £ i różniczkujemy względem poszukiwanych parametrów, uzyskując następujący układ równań: 0

N,

0 nl= AE OpA

00 nl ODB 0

PA

N ETC

PB

na+nz.+N

OB

(l — pp) =0,

MA

A - pa) =0.

lI-PM-A

| — DB

—n£L=-——”.

Nieznane parametry znajdujemy, minimalizując względem parametrów 8: In £ (68) = >. n, ln P,(6) + const, k=l|

gdzie const ukrywa w sobie wielkości niezależne od poszukiwanych parametrów. Gdy źródłem histogramu jest eksperyment Poissona o oczekiwanej liczbie

przypadków, wtedy liczby n, przypadków w każdym przedziale podlegają rozkładowi Poissona

Pn

(Ux)

Hk



m,

ny.

ę "*k

t

1

Ly = UP,(0),

a w konsekwencji, temu samemu rozkładowi podlega także całkowita liczba N przypadków w histogramie. Funkcja wiarogodności wynosi n

L (68) = [ [7 k=]

(Uk) = [I ti k=l

''k*

e,

i wiemy z przykładu 5.4.6, że jest to równoważne L (6)

=

=

u

N

NIŻ

_

e *

N!

P'"'... Pp",

min,

H

=

n

Żla

,

Przy poszukiwaniu maksimum tej funkcji istotna jest tylko część określona rozkładem wielomianowym, a więc estymatory metody największej wiarogodności nie zależą od decyzji odnoszącej się do sposobu zakończenia eksperymentu. Jeśli liczby n, przypadków w każdym z przedziałów histogramu są duże, to wiemy, że rozkład Poissona dąży do rozkładu normalnego, a wielomianowy — do normalnego wielowymiarowego (patrz podrozdział 8.2). Jeśli, dodatkowo, liczba n

przedziałów histogramowania jest również duża, co pozwala zastosować znane nam z przykładu 5.4.7 przybliżenie V[n.] =aP(1

— P,) Z nP, =n,

to efektywnie, zarówno w przypadku eksperymentu Bernoulliego, jak i Poissona, maksymalizujemy następujące wyrażenie: 1L/n=mV 1 £(0)x-5)( * e)

=

——

1

2

>

i=]

———n

(

+ const

may >

4/Nę

4-

const.

Do własności statystycznych tej wielkości wrócimy w przykładzie 7.3.4.

7.2. Metoda największej wiarogodności

-—-

413

Przykład 7.2.12 Poprawka Shepparda Niech przedziały grupowania, w liczbie n, będą identycznej długości A, ich Środek niech leży w punkcie x, = xy+kA,k=|1,2,...,n,

natomiast liczba danych okre-

ślająca liczby zmierzonych wartości, które należą do przedziału [x, — A/2; x + A/2], wynosi n,. Niech także liczebność próbki, czyli suma wszystkich krotności

n, wynosi N, a cecha, którą badamy, podlega rozkładowi Gaussa N (x; u, o). Obliczmy prawdopodobieństwo P, znalezienia zmiennej losowej wewnątrz przedziału o środku x, (y = x — x): |

P,b= =

xx +A/2

Bao

J

|

ap (

———(x-—u) >: W w)

x >A/2

=

NN

AZANY

A/2 exp P |

/2no

— 202 (x,k —

-A/2

__|1

A/2

| se(W2RTO

y

y

dy

20? AJ2

_m—m)

/2RO

L

72)

—Aj2

Eo

|d Xx

P



20?

_%%m-W0 PY); P

—Aj/2

20*

>.

Ponieważ zakładamy, że przedziały są istotnie mniejsze od dyspersji o rozkładu, więc funkcję wykładniczą pod całką rozwiniemy, wyrazów kwadratowych włącznie: C€Xp

2y(% — M) ŁY?

= |] —

Ży(x% — u) + y 20?

X — g2

—1 + 2

—A/2

2y(%

> MW+ŁY?

ee(-"F—

dy

/2yQ% — m) + y”

l (3 — 1) —— g2 — | -| +z(

Pozwoli to nam obliczyć, w przybliżeniu, całkę

|

całkowania y, do

777020200

= |-

A/2

w zmiennej

* +

207

2 >+

O

O (7)3 .

3 U

)

414

7. Estymacja parametryczna

Wynik ten, z dokładnością do wyrazów rzędu A*, możemy zamienić ponownie na funkcję wykładniczą:

4 (

l

l

(X

w

+ 240? (

u)

2

l

—1/|4A|]=A

o?

2P

(Xk

(240?

o

u)

2

—1)A|,

o?

a w konsekwencji, z tą samą dokładnością, otrzymujemy wyrażenie na prawdopodobieństwo P,

A

P, Z

/ 21 o

A

=

/2Ra

0w-u)

exp | — ex

202

A.

+

4

(oG— Nu)

2402

o?

1N

—— | 240% 2a?

P

(% — kk

„-

—|

4

,

2402

a stąd pełną postać funkcji wiarogodności n

=[|P* =

c=||7

A

(

N

5)

—_—

UE

za:

w

Rozważymy teraz sumę występującą w wykładniku:

2 mala — u? =D) mog —2u) nx +Nu =NS+ NG — u), k=l

k=l

gdzie wprowadziliśmy definicje Średniej arytmetycznej x oraz średniego odchylenia kwadratowego $ dla danych zgrupowanych, zadanego związkiem (4.5) (zauważmy, że w definicji tej ostatniej wielkości dzielimy przez całkowitą liczebność próbki)

W następnym kroku podstawiamy obie wielkości do funkcji wiarogodności

e

z

(

A

W

3

xp (

N

A?

1

——__|(8+G-

E-

53)

+G-u))

NA?

m?) -

Sa

,

obliczamy jej logarytm nCZ-Nmo+N(

A”

l

240%

2) 20

2

(S* + ( —

ny) sa 240? -- const,

i pochodne względem nieznanych parametrów: 0 —a n£=

a — do

nl=0

3% >

1 NZZACK) — A (6:A -—|=0 53) N AŻ ——+N(7" ( 665

| $* + (% — WZĘ -0. )( +6-60)+ 4:

7.2. Metoda największej wiarogodności

415

Z, pierwszego równania otrzymujemy estymatę wartości oczekiwanej, jako zdefiniowaną wyżej Średnią arytmetyczną zgrupowanych danych

Wynik ten upraszcza nieco drugie równanie, które po przekształceniach przyjmuje postać

A?

AS

4 — 62 | 574 — - o( +1)"

6

= 0.

Rozwiązania tego równania dwukwadratowego to A2

—_

1272|7 Właściwe

rozwiązanie

l

S2

A?

ua

71

+

j(

S2

A

uk

* 5)

to rozwiązanie ze znakiem

2

=



3

„+,

4252

gdyż dla szerokości

A

przedziału grupowania dążącej do zera powinniśmy odzyskać estymatę S*, tożsamą z estymatą 6? z przykładu 7.2.3. Ponieważ wszystkie obliczenia prowadzimy

z dokładnością do wyrazów

O(4A*), więc i tym razem rozwiniemy pierwiastek,

zachowując tę samą dokładność

|(>+5) -żes- (845) |1- 6SAŃŻ

2

2)

A?

(fa,

A?

24282

1

AS

2

(5+)

|,

4

4

Podstawiając do rozwiązania, otrzymujemy ostateczną postać estymaty wariancji

rozkładu Gaussa

Uzyskana poprawka do wyrażenia na kwadrat odchylenia standardowego S* obli-

czanego ze zgrupowanych danych nosi w literaturze nazwę poprawki Shepparda.

Zasada największej wiarogodności jest jedną z najpotężniejszych i najbardziej owoc-

nych metod statystyki matematycznej. Jest rzeczą zdumiewającą, że nie ma ona żadnego uzasadnienia na gruncie teorii prawdopodobieństwa, ani nie wynika z głębszych przesłanek. Jest ona „włożona” do statystyki z zewnątrz i jej jedyne uzasadnienie ma charakter a posteriori: będąc niezwykle

wszechstronną,

dostarcza (zazwyczaj;

zaintrygowanego

Czytelnika odsyłamy do przykładu 9.1.2) rozsądnych rezultatów o pożądanych właściwościach.

416

7. Estymacja parametryczna

—- 7.3. Metoda najmniejszych kwadratów 7.3.1. Zasada najmniejszych kwadratów W podrozdziale 3.5 rozważaliśmy krzywe regresji drugiego typu, zdefiniowane związ-

kiem (3.28), dla znanej postaci łącznej funkcji rozkładu. Sytuacja taka jest raczej wyjąt-

kiem w praktyce statystycznej — krzywe regresji musimy zazwyczaj określać z próbki

dyskretnych danych. Dlatego przyjmijmy, że mamy wyrażenie zależne od pewnej wiel-

kości x, którą będziemy nazywali wielkością kontrolowaną lub objaśniającą, a także od pewnej wielkości y, zwanej wielkością objaśnianą, 1 zbioru m parametrów 6, (i = 1,2,...,m), co możemy

zapisać jako R(x,

y:04,...,6m)

=

(0,

gdzie R jest pewną zadaną co do kształtu funkcją z nieznanymi parametrami 6;. Gdy mamy n wartości par (x;, y;), których jest więcej niż nieznanych parametrów 6;,, wtedy

układ równań na te parametry

R(x;,y;;0,,...,8,)

=0,

J=l1,2,...,n,

NR>M

jest co najmniej zależny, a w ogólnym przypadku sprzeczny. Zasada najmniejszych kwadratów (3.28) w wersji dla dyskretnego zbioru punktów danych orzeka, że wielkości 0, mamy tak dobrać, by spełniały one warunek NR

=

j=l

R*Q;,

y;; By, ...,

8m)

=

min(6,,...,6,),

co jest równoważne układowi m równań na m nieznanych wielkości 6; OR

3

i

=1,2,...,m.

Parametry, które minimalizują wielkość ŚR, oznaczać będziemy przez 0, i zwać estymatorami metody najmniejszych kwadratów. Należy zwrócić uwagę na to, że o ile w metodzie największej wiarogodności rozpatrywaliśmy funkcję gęstości rozkładu o nie-

znanych parametrach, o tyle tutaj wielkość R nie określa rozkładu, a jest dowolną funkcją podyktowaną przez np. teoretyczny model opisujący relację między wielkościami x oraz

y lub też może być wybrana arbitralnie jako wygodna, aproksymująca formuła do użytku

w innych obliczeniach. W wielu zastosowaniach praktycznych powyższą zasadę formułujemy w następujący

sposób: dany jest zestaw n punktów kontrolowanych x,, a dla każdego z nich dana jest wielkość objaśniana, czyli wartość mierzona y;, której prawdziwa wartość 7;

nm= NR =

(a) = meta e

Yk

H

=

.

,

k=l

Rozwiązaniem tego problemu jest średnia ważona (4.12). Gdy wielkości y, są skorelowane macierzą kowariancji V (y), wtedy problem określenia średniej ważonej poddaje się naturalnemu uogólnieniu

R=)>

k,j=l

O+-W[V" W], O; — M) = min(u).

Sformułowanie to sugeruje, abyśmy macierz Q w resztkowej sumie kwadratów (7.30) zdefiniowali jako odwrotność macierzy kowariancji: Q = V"' (y). Taki wybór ma ładną interpretację geometryczną, którą łatwo zauważymy, jeśli macierz błędów jest diagonalna i określona przez błędy s; poszczególnych wielkości y;, ponieważ wtedy minimalizujemy wyrażenie

R= 2

(|

PeE0),

(7.31)

określające odstępstwa, w jednostkach błędu s;, wielkości mierzonej od domniemanej (patrz rys. 7.13).

Istotnym elementem zasady najmniejszych kwadratów jest brak jakichkolwiek za-

łożeń co do charakteru rozkładu, z którego pomiary y, się wywodzą — można powiedzieć, że zasada najmniejszych kwadratów jest niezależna od postaci rozkładu. Jeśli jednak chcemy dokonać probabilistycznej interpretacji uzyskanych wyników, musimy wiedzieć, z jakiego rozkładu pochodzą wielkości mierzone. To jednak nie wystarcza. Równanie (7.31), a przez domniemanie również (7.30), sformułowaliśmy, wykorzystu-

jąc macierz błędów. Istotnie, zazwyczaj w praktyce dysponujemy jedynie statystykami określającymi wariancje i kowariancje. Taka sytuacja czyni problem na tyle skomplikowanym matematycznie, że jego aspekt probabilistyczny staje się praktycznie nierozwiązywalny na drodze analitycznej. Głębszy wgląd w naturę statystyczną uzyskanych

418

7. Estymacja parametryczna

1

F(x:0)

Rys. 7.13. Odstępstwa e, wielkości mierzonej od domniemanej

wyników można otrzymać dopiero wtedy, gdy przez macierz V (y) będziemy rozumieli

macierz kowariancji, a więc wielkości zbudowanej z elementów, które są stałe pod wzglę-

dem statystycznym. Takie też ograniczenie przyjmiemy we wszystkich naszych dalszych

rozważaniach metody najmniejszych kwadratów, a niniejszy akapit niechaj będzie dla Czytelnika ostrzeżeniem, że to, co tu robimy, to są faktycznie pewne rozważania modelowe, które nie zawsze muszą przystawać do rzeczywistości i stanowią najwyżej przy-

bliżenie realnej sytuacji. Przybliżenie to oczywiście będzie tym lepsze, im dysponujemy precyzyjniejszymi wartościami błędów i estymat kowariancji.

Należy podkreślić, że w całym sformułowaniu zasady najmniejszych kwadratów, jak

to jest przedstawione wyżej, nigdzie nie występuje pojęcie dokładności, z jaką znamy wielkości kontrolowane x,. Założeniem jest, że są one nam znane absolutnie dokład-

nie. Oczywiście, tak wyidealizowana sytuacja nigdy nie pojawia się w praktyce, dlatego też najczęściej zastosowania tej metody ograniczają się do przypadków, gdy dyspersje punktów x, są na tyle małe, że praktycznie nie modyfikują one wielkości dyspersji

o;. Istnieje możliwość rozszerzenia zasady najmniejszych kwadratów tak, by dyspersje wielkości x, były jawnie uwzględnione w formalizmie. Nie będziemy jednak tego robili, ufając, że Czytelnik będzie potrafił sam tego dokonać po opanowaniu całości materiału przedstawionego niżej. Autor jest również przekonany, że zrozumienie metody

najmniejszych kwadratów w wersji, w której występuje jedna tylko wielkość kontrolowana x, pozwoli Czytelnikowi łatwo dokonać uogólnienia na zagadnienie wielu takich zmiennych.

Na zakończenie tego punktu rozważmy przypadek specjalny, a mianowicie niech

wielkości mierzone

y;, pochodzą z rozkładu normalnego.

Wtedy

wielkość (7.30) jest

(z dokładnością do czynnika 1/2 i znaku „„—*) wykładnikiem, jaki pojawia się w łącz-

nej funkcji gęstości (5.74) rozkładu tych zmiennych. Tym samym minimalizacja wielko-

ści St jest równoważna poszukiwaniu maksimum funkcji wiarogodności, a więc metoda

najmniejszych kwadratów jest tożsama z metodą największej wiarogodności.

7.3. Metoda najmniejszych kwadratów

419

7.3.2. Przypadek liniowy Pod względem matematycznym najprostszą sytuację mamy wtedy, gdy związek (7.29) między parametrami 6; a wielkością mierzoną 7 przyjmuje postać liniową

1(x) = f2,9) = 1(1)9; + 2(1)6> + *** + Pm(X)0m, gdzie wielkości g;(x)

są zadanymi,

liniowo niezależnymi

funkcjami

kolejne potęgi wielkości kontrolowanej x, ale tez np. wielomiany

(7.32) —

są to często

Legendre'a, które

występują w wyrażeniu na różniczkowy przekrój czynny lub specjalne wielomiany or-

togonalne, do których jeszcze powrócimy w dalszej części wykładu. Poniżej podane są najprostsze przykłady zależności funkcyjnych, które przez odpowiednią zamianę zmien-

nych można sprowadzić do wymaganej zależności liniowej: x

7

|

a+bx

l

z

z =ab” z =ae”

n=lnz n=lnz

z=ax?

q = Inz

>

n=aL

= =>

n=lna+xlnb=a +bx, qn=lna+bx =a +bx,

>

tb,

qn=lna+blnx=a +blnx,

niestety, najczęściej kosztem przekształcenia poszukiwanych parametrów do pewnej po-

staci funkcyjnej. Dla n wartości wielkości x, otrzymujemy n związków dla n wartości wielkości 7; odpowiadających wielkościom mierzonym y;: M = 91(21)6, + PO)

+ **: + Pm (X1)0m,

M = 91(%2)6, + P2(02)0 + *** + Pm (X2)8m,

Mn

=

(I (Xn)01

+

92(X,)0

+

:::

+

Pm (Xn)Om -

Powyższe równania możemy zapisać zwarcie w formie macierzowej q =dQ0,

(7.33)

gdzie 91 Ą

=

9a .

Nn

P(X) s

©



P1(%) .

Pln)

(01)

PO)

PaXln)

*::

*:: ,

***

Pm()

Pm(X2) .

01 ,

0

=

Pm(Xn)

6,

,

Om

a samą zasadę najmniejszych kwadratów (7.30) jako

R = (y — 96) Q(y — %6) =(y' —8'%')Q(y — %0) = min(6). Zdefiniowaną przez nas macierz © określa się mianem macierzy konstrukcyjnej.

(7.34)

420

7. Estymacja parametryczna

Aby znaleźć minimum wielkości Ot, wypiszemy jawną postać związku (7.34), bez

wykorzystania notacji macierzowej: n

R =

3

ij=1

= >,

i,j=l

(» —

wwa)

Q;; (» — Żaaya)

k=1

[=]

Qi);— 3 2 p) Qyy; — PY yi Qyoilt)6, i,j=l

k=

Lj=l

l=l

+) ). ge(x;)8k Qijo1(2;)6,. i, j=l k.I=1

Jeśli w trzecim składniku dokonamy zamiany indeksu I na k oraz wymienimy między

sobą nazwy indeksów i oraz j, a następnie wykorzystamy fakt, że macierz Q jest symetryczna — jako odwrotność symetrycznej macierzy kowariancji V — to całość możemy zapisać jako

R= > y Qyy; — 2 3 ) 040300404; + 3 2 0x()8; Q;;pi(t;)8. ij=lkl=

i,j=l k=

ij=

Różniczkujemy teraz względem parametru 6, 3% 39.

— 2

n

m

3

M.

i,j=l k=l

Pp

Pe(Xi)Bkp QijY

n

m

+ ),

3

i, j=1 k,I=1

Pi; )Ókp QijP1(2;)0)

3 0x(%)86 Qi (08, 3 k,l=1 + i,j=t =—2

>

OACDIUTRZ

+

3

i,j=l

) 06000068)

i=

+

y

)

i,j=l

k=

0404064010)

gdzie wykorzystaliśmy fakt, iż

08

8,

©

_]bo

]0

"=J

iźj.

Dokonując identycznej z poprzednią manipulacji indeksami, otrzymujemy układ m równań

03R

an

06,

=

2)

976600,

+2) i,j=l

)0000,m(0)0 k=l

= (,

p

=

1,2,...,m.

(7.35)

Przypatrzmy się teraz pierwszemu wyrazowi, zadanemu przez podwójną sumę. Mamy w nim macierz Q mnożoną od prawej przez wektor y, a od lewej przez kolumnę o indeksie p macierzy konstrukcyjnej %. Jeśli wprowadzimy macierz %', transponowaną

7.3. Metoda najmniejszych kwadratów

421

w stosunku do macierzy konstrukcyjnej, to podwójna suma jest p-tym elementem wek-

tora $'Qy

2 66) Qyy; =).i,j=l (BI) Qyy; = (W'Qy),.

i j=l

Podobnie dla sumy potrójnej

2900004)

i,j=l k=

=

_(60),0, 0,6,= (6TQG8) .

ij=lk=

p

Pozwala to zapisać uzyskane równania na parametry 6; w postaci macierzowego układu równań liniowych, zwanych normalnymi

P'Qd08 = $'Qy

(7.36)

o rozwiązaniach 6 liniowo zależnych od mierzonych wielkości y;

6=(87Q6) GTQy=(4'V'9) GTV'y=W$'V'y=Wy,

(7.37)

gdzie zdefiniowaliśmy dodatkowe dwie macierze

W=(4e'V"'6)| oraz W=Wg'Vv"..

Zabawne jest, że całej tej skomplikowanej algebry można było uniknąć, dokonując formalnego różniczkowania względem parametru 6': OR

0

391 = zgr | —68)V' 0 - 60) =-G'V"' (y - 06) =0, co jest inną formą równania (7.36).

Zauważmy, że aby uzyskać rozwiązania (7.37), nie musimy znać absolutnej postaci macierzy wag Q, a tym samym pełnej postaci macierzy kowariancji V: wystarczy, jeśli określimy ją z dokładnością do pewnego współczynnika. Jest to często wykorzystywana w praktyce własność, kiedy to dla nieskorelowanych pomiarów, czego przykła-

dem jest (7.31) (przypadek najczęściej pojawiający się w praktyce), wybieramy macierz wag jako jednostkową. Jednakże, ponieważ wielkości mierzone wchodzą do wyrażeń na estymatory, niepewności w wielkościach mierzonych znajdą swoje odbicie w nie-

pewnościach parametrów. Istotnie, jeśli pomiary nie są obciążone, wartość oczekiwana

rozwiązania (7.37) dana jest przez

e|6|=ENvy]=VElyl =Wy, co pozwala nam znaleźć macierz kowariancji estymatorów, wykorzystując (3.19), bądź

422

7. Estymacja parametryczna

wychodząc wprost z definicji takiej macierzy

v(6) = los

-

|

Vv"(6)| =>" ij

2 00,00;

(

7.39

)

Przy jego wyprowadzeniu należy wykorzystać związek między macierzą kowariancji V

a macierzą wag Q oraz fakt, że obie macierze są symetryczne. Jak widzimy, znajdując rozwiązania układu (7.36) równań normalnych, znajdujemy jednocześnie macierz

ich kowariancji, jeśli macierz wag, a co za tym idzie i macierz kowariancji wielkości mierzonych znamy absolutnie.

Przydatnego narzędzia do oceny jakości wysiłku eksperymentalnego dostarcza reszt-

kowa różnica Ep =Y—4

W minimum. Zbadajmy jej wartość oczekiwaną. Przyjmijmy,

za (7.28), że wielkości mierzone są nieobciążone, a wtedy

€ [5 = WóTV-'E [yj= W4TV'y=Wó4"V"'96 =6, czyli estymatory parametrów są także nieobciążone. Pozwala to stwierdzić, iż

E lemnl = € [y- 4] =€vy]-€[5]=1-€|v0|=n-V0=qn-1=0. Rozważmy także wariancję wektora reszt

Y Em) =

(68-—y)'V'$=0.

7.3. Metoda najmniejszych kwadratów

433

Pozostałą część resztkowej sumy (7.43) zapiszemy jako

a = (” z 667) —

y' Vy

V-ly=yTV-ly — ÓTgTV-!y

z

Ww

'We'V

'y



yV'y

=

w”"'6,

(7.44)

gdzie w drugim wyrazie wyeliminowaliśmy, wykorzystując rozwiązanie (7.37) równań normalnych, jawną zależność od wielkości pomiarowych. Jeśli skorzystamy z równa-

nia (7.33), to wyrażenie (7.44) możemy zapisać jako

Rain = 7'V7y -87W”'6 = (7 — g)'V"'(y — 1) — (6 —6)'W”'(6—6).

(7.45)

Znajdziemy teraz wartość oczekiwaną tej resztkowej sumy kwadratów:

E Bial =mp]| =Tr(V"'V) =TrO) =n. Podobne rozumowanie odniesione do drugiego wyrazu w wyrażeniu (7.46) na war-

tość oczekiwaną daje nam w ostatecznym wyniku

a



|

ZTaTG-1A

E [Rmin] =€[87'V"'8|= —ć Baa

=n=m

o niezależnie od charakteru rozkładu wielkości mierzonych y,. Obserwacja ta pozwala wyznaczyć nieobciążony i niezależny od rozkładu wielkości mierzonych estymator pa-

rametru skalującego o?

2,

O

=

8TWTIB n-m

.

(7.47)

W konsekwencji otrzymujemy pełną postać zarówno estymatorów macierzy kowariancji mierzonych wielkości, jak i estymowanych parametrów

=, A

W=Q? GÓR

=6W.

-—-

7. Estymacja parametryczna

Przykład 7.3.2

Dopasowanie liniowe — skałowana macierz kowariancji Przypatrzmy się zastosowaniu powyższych wyników do analizy danych (własnych), uzyskanych z kalibracji przepływomierza, czyli urządzenia służącego do pomiaru szybkości, np. liczby litrów na godzinę, przepływającego gazu. Obecnie niemal we wszystkich eksperymentach fizyki jądra atomowego i cząstek elementarnych stosowane są detektory drutowe, które wymagają płukania gazem. Za pomocą prze-

pływomierza możemy mierzyć ilość gazu, która wpływa do detektora, jak również ilość gazu, która wypływa. Dzięki takim pomiarom możemy łatwo kontrolować szczelność. Aby jednak taki przyrząd używać, musimy go najpierw wykalibro-

wać, czyli przepuszczać przez niego gaz ze znaną szybkościąi odczytywać jego wskazania.

przepływ [1/h]

434

napięcie [V]

Rys. 7.17. Wynik kalibracji przepływomierza wraz z prostą najlepszego dopasowania i „korytarzem błędów”

Na rysunku 7.17 przedstawione są rezultaty takiej kalibracji. Nie jest ona, jak widać, zbyt precyzyjnie wykonana, gdyż rozrzut punktów pomiarowych — czarne

kółka (o dodatkowych liniach na wykresie mówimy niżej) — jest duży, choć wyraź-

nie układają się one wzdłuż pewnej linii, o której z dużą dozą prawdopodobieństwa możemy powiedzieć, że jest linią prostą. Istotną cechą danych przedstawionych na tym rysunku jest to, że nie znamy błędów na wartości przepływów dla żadnego punktu pomiarowego. Dla celów dalszej dyskusji przyjmiemy, że zależność między szybkością przepływu 7 a napięciem Y jest liniowa: h = a, + a,V oraz że kolejne pomiary nie są ze sobą skore-

lowane (każdy pomiar był wykonany niezależnie od innego), a także, że błędy wartości szybkości przepływu w każdym pomiarze są identyczne. Innymi słowy, założymy, że macierz błędów pomiarowych jest proporcjonalna do macierzy jednostkowej: V = o'"I, gdzie wielkość o? nie jest znana. Możemy teraz uruchomić

wyżej przedstawiony formalizm statystyczny, a otrzymamy © = —0,7 1/h oraz d, = 4,7 l/(h:V). Takie są właśnie parametry wykreślonej na rysunku prostej, pogrubionej linii.

7.3. Metoda najmniejszych kwadratów

Resztkowa suma kwadratów Ńtyi dla naszego dopasowania wynosi 6,61/07. Ponieważ mamy 10 punktów pomiarowych, więc oczekujemy, że suma ta w typowym pomiarze kalibracyjnym powinna wynosić 8, co daje nam nieobciążoną estymatę błędu pojedynczego pomiaru szybkości przepływu 6 = 0,9 l/h. Dys-

ponując wielkością 6, znajdujemy błędy na parametry: 4, = (—0,7 + 0,6) 1/h, a, = (4,7 £ 0,2) l/(h:V), a także współczynnik korelacji między parametrami p = —0,98 (który, jak wiemy, jest niezależny od parametru o). Musimy jednak z całą mocą podkreślić, że chociaż znamy estymator pełnej macierzy kowarian-

cji dopasowanych parametrów, nie potrafimy podać interpretacji probabilistycznej

estymatorów samych parametrów. Nie znamy rozkładu, z jakiego pochodzą pomiary, więc nie znamy rozkładu, jakiemu podlegają znalezione współczynniki — określenie go jako dwuwymiarowego gaussowskiego wyrazi jedynie nasze nadzieje 1 pozostanie tylko przybliżeniem realnej sytuacji. Jednakże niezależnie od charakteru tego rozkładu możemy uprościć postać domniemanej krzywej kalibracji. Widzimy, że wartość wyrazu wolnego jest zgodna z zerem, dlatego moglibyśmy zaproponować prostszą formułę: n = a,V, przeprowadzić nowe dopasowanie współczynnika a, i znaleźć jego błąd. Zachęcamy Czytelnika do takiego postępowania z własnymi danymi, ilekroć nadarzy się ku temu okazja. Uzasadnienie leży tu nie tylko w zgodności procedury z zasadami statystyki matematycznej. Jest i wzgląd praktyczny. W przypadku naszych danych

unikniemy dzięki temu kłopotliwej sytuacji, w której ze wzoru liniowego z wyrazem wolnym mniejszym od zera otrzymamy ujemną wartość szybkości przepływu, gdy zmierzone napięcie będzie dostatecznie niskie. Jak dokładnie możemy wyznaczać wartość szybkości przepływu z naszej krzy-

wej kalibracji, w sytuacji gdy stosujemy ją do interpolacji lub ekstrapolacji? Oceny takiej dokładności dostarczają dwie dodatkowe krzywe na rysunku: nad i pod krzywą kalibracji. Dają one zależność wielkości jednego odchylenia standardowego (w górę lub w dół) od wartości centralnej (w żargonie mówimy, że wyznaczają one „korytarz błędów ). Zauważmy, że obszar wyznaczony przez jedno standar-

dowe odchylenie jest najwęższy w środkowej części wykresu, natomiast ulega poszerzeniu, gdy zbliżamy się ku obu końcom danych. Oznacza to, że najbardziej bezpieczna jest interpolacja w środku obszaru danych, a ekstrapolacja może być

zdradliwa.

Jako podsumowanie przykładu podamy pełną postać wzorów na współczyn-

niki linii prostej: Ą = ay +a,x

i postać ich macierzy błędu w przypadku, gdy

poszczególne pomiary y, nie są ze sobą skorelowane, natomiast błędy wielkości mierzonych znane są z dokładnością do wspólnego czynnika proporcjonalności: S$; = ou,. Jeśli zdefiniujemy wielkości:

I

e

v[a,] = U6*8,

Dodatkowo, gdy pomiary określone są przez rozkład normalny, wtedy dla każdego

z parametrów możemy zbudować statystyki =

0%

|

t=

Id

G+/U,,0

64/U6

,

się jak zmienna (5.85) z rozkładu Studenta

a każda z nich będzie zachowywać o n — 2 stopniach swobody.

Gdy zależność jest proporcjonalna: 7 = a,x, wtedy »

ad, =

U,, Ux

6

+ w

22

,

0

=

87V'8 n

U



1

,

Dla pomiarów gaussowskich wielkość adi

t=— v

a

Ux

podlega rozkładowi Studenta z n — 1 stopniami swobody.

Zbadamy

teraz własności

statystyczne niektórych wielkości występujących w po-

wyższych rozważaniach, przy założeniu, że każda z wielkości pomiarowych pochodzi z rozkładu normalnego. Wspomnieliśmy, że w takiej sytuacji, o ile znana jest pełna macierz kowariancji wielkości mierzonych, a nie macierz ich estymat, ważona minimalna suma kwadratów reszt (7.45) ma rozkład wielkości x* o n — m stopniach swobody. Ponieważ

wielkość

podlega rozkładowi wielkość

(CEDRACET) x?

o n stopniach

swobody,

to na mocy

x2 = (6 — 6)7W”'(6 — 6)

będzie podlegała rozkładowi x* o m stopniach swobody.

własności rozkładu

X,

(7.49)

7.3. Metoda najmniejszych kwadratów

437

Przyjrzyjmy się teraz estymatorowi (7.47) parametru o”

2 6” =

8/V!8 CZA SA = 8—8= nm n=m o

0” nm

„q

a zauważymy, że jego rozkład zadany jest rozkładem zmiennej 2

o

2

Kn=m

a —M

*

Rozważmy także rozkład statystyczny formy kwadratowej

(6 — 077W”'6 — 6), zbudowanej z estymatora macierzy kowariancji znalezionych parametrów, gdy nie jest nam znany: współczynnik skalujący o”. Statystykę tę przekształcimy do postaci

2 róą 6-07W'6-0 =—6—-6) W (6 — 0) = 2:6 —07W-!6 — 0): 2

—|

2

g2

o

widzimy, że w rozkładzie wielkości 2

l

nm

Paz — M

— M

Kn=m

n-—m

a

A

_6-0'Ww'6-60)

;.

A

= — (6 — 0)0W”'(6 — 0)

Ty!

m

(7.50)

n=-m

kasuje się parametr o”, a całość to zmienna F rozkładu Fishera o (m, n — m) stopniach swobody.

7.3.3. Przypadek liniowy z liniowymi równaniami więzów Niekiedy

zdarza się, że o dopasowywanych

parametrach

6,, i =

1,2,...,m,

mamy

pewne dodatkowe informacje w postaci k liniowych równań (k < m) wiążących parametry między sobą:

),Cyój=Z,

1=1,2,...,k,

j=l

co zapiszemy w postaci macierzowej

C6 =Z. Formalnie rzecz biorąc, moglibyśmy rozwiązać te równania, to jest wyznaczyć k parametrów jako funkcje pozostałych i podstawić je do równań (7.32), co zostawiłoby m — k parametrów swobodnych. Wadą tego podejścia jest to, że wyeliminowane parametry

nie pojawią się nam w macierzy błędów, a niekiedy chcielibyśmy mieć właśnie pełną informację o wszystkich poszukiwanych parametrach. Dlatego do rozwiązania tak po-

stawionego problemu lepiej jest wykorzystać metodę współczynników Lagrange'a, czyli

minimalizować następującą wielkość:

R =(y” — 6767) V"'(y — *0) + (67'C' —Z')A,

(7.51)

438

7. Estymacja parametryczna

gdzie wprowadziliśmy dodatkowy człon, który formalnie jest równy zeru, a wielkość A = (Ay, Aa, ..., A)

to właśnie układ współczynników

Lagrange'a, które powinniśmy

również otrzymać z procedury minimalizacyjnej. Warunek minimalizacji daje nam tym

razem następujące równania: OR

397

=

OR

_g'V"





a

zą = ŚĆ -Z7=0 gdzie przez 0.

oznaczyliśmy

2

oó,

+

CA



0,

ą

(68.-Z=0,

>

rozwiązania tych równań.

Jeśli przypomnimy

sobie, że

wielkość 6 jest rozwiązaniem zagadnienia (7.36) bez więzów, to pierwsze równanie możemy przepisać w postaci

w” (6-6) =C'A.

W następnym kroku pomnóżmy to równanie od lewej przez CW

Có — C6. = CWC'A. Jeśli skorzystamy teraz z drugiego równania na minimum i wyeliminujemy wielkości 6,, to znajdziemy wyrażenie na nieznane współczynniki Lagrange'a

A =(cwc')”"' (c — z). a stąd znajdujemy bez trudności, że

6, =6-wc'(cwc')"' (có- z).

(7.52)

Dalej, już standardowymi metodami, możemy znaleźć macierz kowariancji W, parametrów 6.

W =W-wWC'

1

(CWC')

2

CW.

(7.53)

Gdy wartości mierzone podlegają rozkładowi Gaussa, a macierz ich kowariancji jest znana, wtedy estymatory parametrów (7.52) także podlegają temu rozkładowi, z macierzą kowariancji (7.53). Dodatkowo, minimalna, ważona resztkowa suma kwadratów (7.51)

zachowuje się jak zmienna z rozkładu x* o liczbie n — m +-k stopni swobody (zauważmy, że równania więzów zwiększają liczbę stopni swobody, ponieważ za ich pomocą możemy

faktycznie wyeliminować k spośród m nieznanych parametrów), więc możemy dokonać oceny jakości naszego dopasowania, tak jak to dyskutowaliśmy w przykładzie 7.3.1. -—-

Przykład 7.3.3

Dopasowanie z więzami — geodeta Rozważmy przykład z pomiarem kątów trójkąta w terenie, który podaliśmy we wstępie do książki. Mieliśmy tam dane trzy kąty: u = 73, B =63iy =52,

każdy z błędem o = 2”, które sumują się do 1889. Jeśli chcielibyśmy wykorzystać

te pomiary do dalszej pracy, np. znając jeden z boków trójkąta, chcielibyśmy obliczyć pozostałe, to fakt, że suma kątów nie przyjmuje wartości, jakiej wymaga geo-

439

7.3. Metoda najmniejszych kwadratów

metria euklidesowa, niewątpliwie wprowadza nas w pewien dyskomfort psychiczny. Jak poprawić nasze wyniki, aby suma tych kątów była właściwa? Otóż powinniśmy wprowadzić trzy nieznane nowe kąty: t, B oraz y, od których będziemy wymagali, aby » _ a



a,

B



B,

Y

=

Y;

przy warunku wiążącym

G+B+y

= 180.

Macierz konstrukcyjna ©, wektor parametrów 6., wektor pomiarów 0 (będący jednocześnie rozwiązaniem zagadnienia bez więzów), macierz błędów V dla punktów pomiarowych, macierz więzów C i macierz Z (która jest liczbą) przyjmują postaci:

100 10], 00 1

C=[1,1,1],

Tó 6=|8|, $ R

6=-|0

Z=

Ta 6=|g|, y

V=o'|0

100 1 0|, 0.0 1

180,

gdzie o = 2. Z uwagi na prostotę powyższych poszukiwane parametry to

związków,

w tym

V

=

NOENOOACZEJEFZAH Ta

l

IN"

1[

ly

I

1

3 |—a — 8 + 2y + 1805

703 = | 603 [494 Jak widzimy,

nadmiar

8” został równo

rozdzielony

oTl,

20-8-y+180

i odjęty od wszystkich po-

miarów. Gdyby macierz błędów wielkości pomiarowych nie była proporcjonalna do macierzy jednostkowej, wtedy mniej odejmowalibyśmy od wartości obarczonej mniejszym błędem.

Przejdźmy teraz do macierzy błędów

W. = o*l— o'IC' (Co*IC')' Col =o*(1-C' (CC') 'C) 2 | 2 =——|-1 3|-21

-1 21

2

zr 1] 2

Błędy dopasowanych kątów są mniejsze (o czynnik /2/3

= 0,8) niż kątów zmie-

rzonych, ale za cenę korelacji między nimi. Wartość wielkości Ń w minimum wynosi, w przybliżeniu, 2,3 i jeśli przyjmiemy, że wielkości pomiarowe pochodzą

z rozkładu normalnego, to wielkość ta ma charakter liczby wylosowanej z rozkładu

X o liczbie stopni swobody równej I (trzy pomiary, trzy niewiadome i jedno równanie więzów), a prawdopodobieństwo uzyskania wartości x* większej niż ta, którą otrzymaliśmy, wynosi 0,13, co niewątpliwie jest sensownym rezultatem.

O dopasowaniu, w którym liczba pomiarów jest równa liczbie dopasowywa-

nych parametrów, na które nałożonych jest k równań więzów, mówi się w żargonie

fizyków, że jest ono typu k C (z angielskiego: constraint). Tak więc nasze dopasowanie kątów jest typu 1 C.

n

440

7. Estymacja parametryczna

Rozważmy teraz resztkową sumę (7.51), jaka powstaje po rozwiązaniu problemu z liniowymi więzami. Możemy ją, podobnie jak w wyrażeniu (7.45), rozłożyć do postaci A

Ay T

A

A

nn = £PV2, = (7-4) V"' (4) +(6.-6) w"'(6.-6), | (1.54) gdzie

_

h

n

Eci ZY — Mei

A

—J/(0,0),

n

1 = 90.

Pierwszy wyraz to resztkowa suma kwadratów (7.45) dla problemu bez więzów, drugi to przyczynek wynikający z uwzględnienia zmian w poszukiwanych parametrach z powodu więzów. Rozumując analogicznie do tego, jak to robiliśmy dla zagadnienia bez więzów, możemy pokazać, że wartość oczekiwana tej sumy to E [ihnlzsz—m+k.

Dla macierzy kowariancji wielkości pomiarowych znanej z dokładnością do współ-

czynnika o”,

s

V=oV,

współczynnik ten, w sposób nieobciążony i niezależnie od rozkładu, z którego pochodzą punkty pomiarowe, możemy określić z danych:

2

Oj

8VTI8,

= ————,, n=>m+k

a przy założeniu słuszności formy dopasowywanej zależności, także pozwala dokończyć

dzieła oceny macierzy kowariancji pomiarów i poszukiwanych parametrów: m

(.=6%, A

m

m

m

W.=ć? (w — WC" (cwc') A

-|

m

cw) |

7.3.4. Przypadek nieliniowy Z sytuacją taką stykamy

się wtedy,

gdy funkcja

f(x,6;,...,8„)

wiążąca wielkości

pomiarowe i nieznane parametry nie zależy liniowo od tych parametrów. Klasyczny przykład to zagadnienie określenia parametrów linii spiralnej, po której porusza się naładowana cząstka w polu magnetycznym, co pozwala znaleźć jej pęd, jeśli dysponujemy współrzędnymi x;,y; oraz z, Serii punktów na jej torze. r-—

Przykład 7.3.4

Dane zgrupowane Wykres na rys. 7.18 (Ch. Droste, informacja prywatna) to doświadczalne widmo kwantów gamma zmierzonych za pomocą omawianego wcześniej detektora germanowego wraz z dopasowanym do tego widma układem czterech linii widmowych, każda o profilu gaussowskim, oraz liniowego tła. Dopasowana krzywa ma w tym przypadku postać

7.3. Metoda najmniejszych kwadratów

JG, „hu

10)

=

0x

+)

z

(x — 1)”

exp

202

s

i opisana jest czternastoma nieznanymi parametrami, gdzie wielkość x to zmienna

opisana na wykresie jako numer kanału, wielkości ji, podają pozycje czterech linii, o, ich szerokości, natomiast parametry a, to intensywności tych linii, czyli liczby

przypadków każdego ze stanów wzbudzonych. Rozważmy, w jaki sposób moglibyśmy taką krzywą dopasować do danych. Oznaczmy, zbiorczo i dla uproszczenia,

symbolem 6 wszystkie nieznane parametry w liczbie m. Przypuśćmy, że całkowita

10000

|

liczba zliczeń

1000

100

10

0

.

l

2140

i

2180

i

numer kanału

i

2220

l

>

2260

Rys. 7.18. Widmo kwantów gamma

liczba przypadków w histogramie wynosi N, liczba przedziałów histogramu to n, liczba przypadków w każdym z nich wynosi n,, Środki tych przedziałów wypadają w punktach x,, a wielkości A, zadają szerokości przedziałów. Jeśli szerokości

te są na tyle małe, że dopasowywana funkcja f(x, 6) może być uznana za stałą wewnątrz

każdego

z nich, wtedy

zapewne

nieznane parametry wyznaczymy z warunku =

2

nę NA —— JG, 0)Ax 8)4; V

Gdy

nie popełnimy

J (Xk,

istotnego błędu, jeśli

.

= min(6).

8)4,

stałość funkcji może nie być dobrym przybliżeniem, wówczas

powinniśmy

postępować ostrożniej. Właściwsze jest wtedy wprowadzenie teoretycznej krotności

442

7. Estymacja parametryczna

N, przypadków w k-tym przedziale histogramu az ŁAŁ/2

N,(6) =

J

f(x;8)dx,

k=12,...,n.

xx -Ax/2

Dla danych n, oraz krotności N, możemy

skonstruować, aby następnie zminima-

lizować względem nieznanych parametrów, taką oto miarę odchylenia krzywej od danych:

n, — N,(6)

"= > (ar VN,(0)

)

jeśli nasz eksperyment modełowany jest na wzór doświadczenia Poissona, gdyż

w takim podejściu brak jest korelacji między zawartościami przedziałów histogramu, a wariancja | [n,] liczby przypadków w każdym przedziale wynosi N;(6). Żargonowo mówimy wówczas o dopasowaniu bez normalizacji, gdyż znaleziona

zależność f(x; 0) nie musi całkować się do pełnej liczby N przypadków w hi-

stogramie. Jeśli parametry 6 są z góry znane, wtedy resztkowa suma kwadratów R zachowuje się asymptotycznie, ze wzrostem liczb ną przypadków w przedziałach histogramu, jak zmienna z rozkładu x? o n stopniach swobody. Wynika to

z gaussowskiego przybliżenia dla rozkładu Poissona i statystycznej niezależności zmiennych losowych n;,. Gdy doświadczenie prowadzimy na wzór eksperymentu Bernoulliego, a więc liczba N jest ustalona, wtedy korzystamy z procedury dopasowania z normalizacją, wprowadzającej prawdopodobieństwa P,(6) xx tAk/2

N P,(0) =

|

f(x;68)dx,

k=1,2,...,A,

x4—A4/2

unormowane do jedności, co redukuje o jeden liczbę m niezależnych parametrów w wyrażeniu na funkcję f(x; 6) i wymaga minimalizowania następującej wielkoŚci: n, — NP,(6)

wą > (WEG /NP,(6)

) |

Gdy wszystkie parametry 6 znane są nam skądinąd, wielkość ta, asymptotycznie, ze wzrostem liczby N, nabiera kształtu zmiennej losowej x* o n — I stopniach swobody. Pomniejszenie liczby stopni swobody wynika z faktu, iż zmienne losowe n, podlegają „n-mianowemu” rozkładowi, który w granicy przechodzi w n — 1 wielowymiarowy

dziale 8.2.

Zarówno

rozkład normalny, czego dowód Czytelnik znajdzie w podroz-

dla eksperymentu

Bernoulliego, jak i Poissona,

własności

staty-

styczne wielkości R, którą otrzymujemy w wyniku estymacji parametrów 6 metodą najmniejszych kwadratów, nie są już tak proste, gdy liczby n, są niewiel-

kie. Statystyka R,

nie podlega rozkładowi x”, gdyż estymowana funkcja f(x; 6)

7.3. Metoda najmniejszych kwadratów

nie spełnia warunku

( f(x; 6) = f(x;6), a to prowadzi do niezerowej

wartości

oczekiwanej reszt. Okazuje się jednak, że estymatory 0 mają wiele pożądanych własności: są zgodne i są asymptotycznie zarówno normalne, jak i najefektywniej-

sze.

| Znalezienie parametrów 6 nawet w najprostszych sytuacjach nie jest zadaniem

łatwym, gdyż, w przypadku eksperymentu Bernoulliego, musimy rozwiązać układ m — 1 nieliniowych równań a=

2

2 06,

k=1

R

ZN)

0P,

2NPĘ

06,

PR

=0.

Cramer (H. Cramer, Metody matematyczne w statystyce, PWN, Warszawa 1958) twierdzi, że wpływ drugiego składnika pod znakiem sumy jest w reżimie asympto-

tycznym zaniedbywalny, a wtedy rozwiązywany układ równań można przekształcić (wykorzystując unormowanie prawdopodobieństw P,) do postaci ——

1 0R

2 36,

A

k k=l

(

n,

NP,

P,

$G,__m.

OP,

) 08, ———

=

ś

n,

OP,

2—P,00, —

m

Z

0

>

26 2_mulnP. m

l

!

P

= (0,

k=l

która, w istocie, jest warunkiem na ekstremum funkcji największej wiarogodno-

ści dla zgrupowanych danych, co omawialiśmy

w przykładzie 7.2.11. Okazuje

się (patrz podrozdział 8.2), że przy tym uproszczeniu statystyka R,,, odzyskuje

charakter zmiennej losowej z rozkładu x”, a jej liczba stopni swobody wynosi n — 1 — (m — 1) =n—m.

Odejmowanie pierwszej jedynki w tym związku przy-

pomina nam o tym, że nasz eksperyment jest typu Bernoulliego, a druga jedynka wynika z ogólnej postaci funkcji f(x; 6), na jaką zdecydowaliśmy się na początku

tego przykładu i na którą nie nałożyliśmy warunku unormowania do pełnej liczby przypadków w histogramie (m = 14 dła funkcji, jaka pojawia się na wstępie naszego przykładu, a warunek unormowania redukuje tę liczbę do trzynastu). Dokładnie tę samą liczbę n — m stopni swobody ma statystyka 9t,;, w przypadku eksperymentu Poissona. Z, powodów praktycznych często stosowana jest uproszczona wersja

R

CZEARAA, >( NR m

m0)

wyrażenia na resztkową sumę kwadratów. Jednakże niezależnie od przyjętej postaci minimalizowanego wyrażenia, estymatory parametrów są zgodne, asymptotycznie normalne i asymptotycznie najefektywniejsze. Różnice występują jedynie

w szybkości, ze wzrostem liczb n;, dochodzenia do tych własności: uproszczona forma osiąga je wolniej, a najbardziej ekonomiczna jest metoda największej wia-

rogodności dla danych zgrupowanych, dyskutowana w przykładzie 7.2.11 i zadana warunkiem In £ (6) =

BL k=1

ln P, (6) = max(0).

443

444

7. Estymacja parametryczna

Niekiedy równania więzów również mogą mieć nieliniowy charakter. Przykład takiej

sytuacji odnajdujemy w zagadnieniu, w którym dysponujemy już uzyskanymi z pomiaru

pędami cząstek biorących udział w reakcji, ale chcemy nałożyć na nie zasady zachowania pędu i energii.

Do rozwiązywania takich problemów istnieją specjalne programy komputerowe, wykorzystujące rozmaite strategie poszukiwania minimum. Jest to wiedza z dziedziny tech-

nik numerycznych sama w sobie i nie będziemy jej tutaj prezentowali. Aby jednak przybliżyć to zagadnienie, przedstawimy, pokrótce, najprostszą z metod, dającą się zastosować jedynie w niektórych uproszczonych sytuacjach (działa ona skutecznie wtedy, gdy już jesteśmy blisko minimum). Idea tej metody polega na tym, że znane jest pewne,

poszukiwanego rozwiązania i chcemy znaleźć jego

lepsze lub gorsze, przybliżenie 00

ulepszoną postać 60*) ze zlinearyzowanych równań dla wielkości mierzonych

|

= ;=f(lx,0

uj (

> ()

)

+)

— —— 0f (0;,0)

m

06,



0—60

Jeśli wprowadzimy wielkości oraz

>

() (+1) 807—80)=f

(6

|)=v

(1)

0f (x;,0) + ———

80

jo

> (+1) A80.

An =m= fi PY() _=

of (X; , 8)

06;

8=60

,

to układ n takich równań możemy zapisać jako Aq

= BOAT,

a więc jak w problemie liniowym, z jedyną różnicą, że zamiast minimalizowanej sumy resztkowej kwadratów w postaci (7.34), tym razem będziemy minimalizowali wielkość

RO = (Ay — 60 A6+0) Q (Ay) — GOAG0), gdzie

Ay =y= l

Jeśli w zagadnieniu są więzy w liczbie k, określone równaniami to te także możemy przybliżyć:

Z, zg, (60) + 3 980) 86; j=l

8=60

(369 —0P)I = g, (60) + 780) 00

AGD. 0=60

a w konsekwencji przepisać je w postaci takiej, jaka występuje w problemie liniowym COA0WD

gdzie wprowadziliśmy

= AZO,

AZ? = Z, — g; (60)

7.3. Metoda najmniejszych kwadratów

445

Oraz

* 06; |ęóv | Tak sformułowany problem możemy rozwiązać poznanymi metodami, tzn. znaleźć po-

prawkę A6T+D, a stąd nową wartość 6"*V. Postępowanie to możemy iterować, aż zostaną spełnione zadane kryteria zbieżności, dotyczące zmiany wielkości R i zmiany

wartości parametrów w kolejnych krokach. Gdy uznamy, że uzyskaliśmy satysfakcjonujące wyniki, niepewności parametrów znajdujemy tak jak dla zagadnienia liniowego,

wykorzystując np. rezultat (7.39). W zagadnieniach nieliniowych musimy pamiętać, że statystyczna interpretacja otrzymanych rezultatów wymaga ostrożności, nawet w przypadku, gdy wielkości pomiarowe mają rozkład normalny. Nie mamy tu żadnych twierdzeń, z wyjątkiem sytuacji asymptotycznej omówionej w przykładzie 7.3.4, które orzekałyby o charakterze rozkładu dla znalezionej np. resztkowej sumy kwadratów, ani dla uzyskanych estymatorów parametrów. Wszelkie stwierdzenia w tym względzie mają zawsze jedynie przybliżony charakter.

7.3.5. Analiza regresji W podrozdziale 3.5 zdefiniowaliśmy pojęcie krzywej regresji pierwszego typu jako warunkową wartość oczekiwaną (3.26) i (3.27). Wprowadziliśmy tam również pojęcie krzywej regresji drugiego typu, jako swoistą, w zadanej klasie, krzywą najlepszego dopasowania, minimalizującą funkcjonał (3.28). Tamże, w przykładzie 3.5.1, pokazaliśmy, że dla układu dwóch zmiennych taka krzywa regresji, z klasy funkcji liniowych, zadana przez Efylx=x|=n(x)

=

+aqx

(7.55)

minimalizuje ten funkcjonał, jeśli nieznane współczynniki ag oraz a, wybierzemy w poStaci

O.

O.

q=P—,O

M9EHy— PHR E Hy — Aly. o,

W szczególnym przypadku, jeśli zmienne losowe określone są przez dwuwymiarowy

rozkład Gaussa, to, jak to wynika z przykładu 5.5.9, krzywe regresji drugiego typu są

jednocześnie krzywymi regresji pierwszego typu.

Najprostsze zagadnienie regresji, zwane liniową jednokrotną

lub też jednoraką,

a także jednowymiarową, polega na znalezieniu estymatorów współczynników ay oraz a,, a także rozkładów tych estymatorów, z próby prostej n par zmiennych (4q,y,), i = 1,2,...,n. Jeśli zmiennych mamy więcej niż dwie, np. m + 1 i określone są przez losowy wektor (x, x2, ..., Xm, y), mówimy

też wielowymiarowej regresji liniowej:

wtedy o wielokrotnej bądź wielorakiej, lub m

€ [ylx

=

Xi,X

=

M2,

..., X

=

Xp]

=

n(x)

=

9

+

) | aiti. i=l

Współczynniki a, (z wyjątkiem ag) zwane są cząstkowymi współczynnikami regresji.

Jeśli któryś z nich jest statystycznie istotnie różny od zera, określa on znaczenie wpływu

446

7. Estymacja parametryczna

skojarzonej z nim zmiennej x; na zmienną y. Należy pamiętać, że to co w matematycz-

nym wyrażeniu na krzywą regresji nazywamy zmienną zależną i niezależną, w analizie statystycznej danych jest wysoce umowne. Wybór zmiennej zależnej, zwanej też zmienną objaśnianą i zmiennej niezależnej, czyli zmiennej objaśniającej, jest podyktowany intencją badacza. Jeśli badamy korelację między temperaturą na Śnieżce i na Kasprowym,

jest rzeczą absolutnie arbitralną, którą z temperatur przyjmiemy za zmienną objaśnia-

jącą. Sytuacja jest zapewne bardziej klarowna, jeśli poszukujemy relacji między liczbą

ubytków w zębach a zawartością fluoru w wodzie pitnej, ale jak mamy dokonać wyboru między zmiennymi, gdy interesuje nas relacja między wzrostem a wagą ludzi? Formalna

analiza danych z wykorzystaniem metod statystyki matematycznej nigdy nie jest w stanie określić związku przyczynowego, co uzasadniałoby — w sposób nie budzący wątpliwości — użycie pojęć zmiennej zależnej i niezależnej, a może jedynie określić powiązania

między badanymi cechami. Niech ostrzeżeniem przed próbą przyczynowej interpretacji wyników analizy regresji będzie następujący przykład. Przypuśćmy, że zebraliśmy dane

na temat pożarów: jedna dana to liczba jednostek straży pożarnej biorących udział w akcji gaszenia, a druga dana to strata materialna, w złotych, odniesiona z powodu pożaru.

Bez wątpienia znajdziemy w danych tendencję wskazującą na to, że im więcej strażaków

brało udział w gaszeniu pożaru, tym większą stratę odnotowano w jego wyniku. Przyczynowa interpretacja takiego związku zakazałaby nam w ogóle wysyłania strażaków do

następnego pożaru, w nadziei, że strat również nie będzie. Analiza regresji jest metodą ilościowej oceny, za pomocą współczynników regresji,

domniemanej relacji między własnościami elementów danej populacji. Metoda ta została wprowadzona do statystyki matematycznej pod koniec XIX w. przez angielskiego matematyka F. Galtona. Zajmował się on badaniem korelacji między wzrostem rodziców i ich dzieci. Zauważył on tendencję, że synowie wyższych ojców mają większy wzrost niż synowie niższych ojców. W wyniku ewolucji powinno to prowadzić do rozbicia populacji ludzkiej na dwie grupy: karłów i wielkoludów, a przecież rozkład wysokości wszystkich dorosłych osób płci męskiej jest bardzo dobrze opisany przez rozkład normalny (o czym dobrze wiedzą wszystkie komisje poborowe). Galton zauważył, że choć synowie wyższych ojców są raczej wyżsi,

to nie tak wysocy, średnio rzecz biorąc, jak ojcowie. Wzrost

synów, jak to ujął Galton, uległ regresji. Termin ten się przyjął i używany jest do dziś. Odwrotnie rzecz się ma ze wzrostem

synów niskich ojców: ci z kolei nie są tak niscy jak ich ojcowie.

Poniżej ograniczymy się, dla uproszczenia, do prezentacji jednorakiej regresji liniowej (7.55), zakładając, że dana jest nam normalna próba prosta w postaci serii n par zmierzo-

nych wielkości (x,, y;). Aby znaleźć regresję cechy y wzglę-

dem cechy x, powinniśmy, w zasadzie, przy ustalonej wartości

zmiennej x określić wartość Średnią y, zmiennej y, a następ-

Sir Francis Galton,

1822-1911

nie dla owych par wartości (x, y,) znaleźć wspólne równanie yy = do + a,x. Ponieważ w danych doświadczalnych nie dysponujemy możliwością płynnego regulowania” wartości

7.3. Metoda najmniejszych kwadratów

447

zmiennej objaśniającej, dlatego też możemy jedynie pogrupować wielkości x, w klasy xpp] o zbliżonych wartościach i dla nich określić średnie wartości yy.) zmiennej objaśnianej,

a następnie wyprowadzić dla tych wielkości wspólny liniowy związek. Ponieważ wszelkie

grupowanie danych oznacza stratę informacji, dlatego naturalne jest zastosowanie metody

najmniejszych kwadratów do wszystkich par (x;, y;) i taki dobór parametrów ag oraz ay, by resztkowa suma kwadratów

R=)M

i=l

(yi - m — ayx,)? = min(a, a,)

(7.56)

była minimalna. Należy podkreślić, że o ile w metodzie najmniejszych kwadratów, tak jak była ona

przedstawiona w poprzednich punktach tego rozdziału, wielkość x była zmienną niezależną w wyrażeniu funkcyjnym i mogliśmy ją dowolnie kontrolować, o tyle teraz wielkość ta jest w istocie statystyczną zmienną losową, a jej wartości wykorzystujemy jako zadane i ustalone, tak jak tego wymaga interpretacja pojęcia oczekiwanej wartości warunkowej (3.26). Poprzednio poszukiwaliśmy, podyktowanej np. modelem teoretycznym, zależności funkcyjnej między zmienną x a wielkością 7 (którą mierzyliśmy jako y), teraz poszukujemy krzywej regresji wyrażającej oczekiwaną wartość warunkową zmien-

nej losowej y względem zmiennej losowej x. W celu bliższego uświadomienia sobie tej różnicy, przypomnijmy przykład z rozdziału 1 dotyczący profilu wiązki. W przykładzie tym mamy układ par współrzędnych punktów trafień cząstek wiązki z akceleratora na

płaszczyźnie detektora usytuowanego prostopadle do osi wiązki. Punkty trafień obejmują tutaj cały obszar powierzchni detektora i wskazują one na przestrzenny rozrzut torów

poszczególnych cząstek. Tym, co nas interesuje w zagadnieniu regresji dla tego przypadku, jest informacja o tym, jaka jest typowa wartość współrzędnej y, jeśli ustalimy

wartość współrzędnej x. Niedorzeczne byłoby przypuszczenie, że w płaszczyźnie detektora cząstki układają się wzdłuż pewnej prostej, nachylonej np. pod katem 45? do osi x, a dokładnie tak właśnie postępowalibyśmy, gdybyśmy wyrażenie (7.56) na wielkość $t

oraz związek (7.55) interpretowali za pomocą metody najmniejszych kwadratów, tak jak ją dotychczas poznaliśmy i stosowaliśmy. Adeptom zastosowań metod statystyki matematycznej do analizy danych zdarza się często takie właśnie mieszanie sensu metody

najmmiejszych kwadratów zastosowanej do wyznaczania nieznanych parametrów funkcji i wyznaczania krzywej regresji. Wyrażenia na estymatory współczynników ag oraz a, prostej regresji minimalizujące

wielkość Yt już znamy, wskazaliśmy je w przykładach 7.3.1 oraz 7.3.2, toteż nie będziemy powtarzali tu obliczeń, a jedynie zacytujemy, w trochę innej notacji, ostateczne wyniki: h Spo a | -a> aj

—T—,

Sx

a0 ZY—ajiX,

gdzie wykorzystaliśmy definicję (4.7) odchyleń standardowych s, i s, i definicję (4.15)

współczynnika korelacji r z próby. Widzimy także, że prosta operacja translacji początku układu (x, y) do punktu zadanego środkiem ciężkości (x, y) prowadzi do eliminacji estymatora współczynnika ag, co wyjaśnia jego „kinematyczną” naturę i powoduje, że

nie zaliczamy go do grona współczynników regresji.

448

7. Estymacja parametryczna

Spójrzmy na resztkową sumę kwadratów (7.56) w minimum, która, jak wiemy, służy do oceny wariancji tych estymatorów: Mimin = 3

(y; —Y

— a; (Xx; — x))

i=l

= ))0s-5)7 -24) 6-303 -9D+4))w-2) i=l

i=l

(7.37)

i=l

= (n — 1) (s; — 26,R + aysz) = (n — sy(1 — r"), gdzie wykorzystaliśmy definicję (4.14) kowariancji R z próby. Jeśli uświadomimy sobie, że wariancja warunkowa V [y|x = x] dla rozkładu binormalnego wynosi oy (1—p”) (patrz przykład 5.5.9), to widzimy, że (nieomalże) każdy z wyrazów sumy resztkowej (7.57) w minimum dostarcza oszacowania tej wielkości. Stąd nieobciążony estymator wariancji warunkowej, zwany wariancją resztkową, wynosi AJ

O

M min

7

=

n-l

„zl

2 l=r), 2 r)

7.58 (7.58)

gdzie dzielnik n — 2 wynika z faktu szacowania dwóch parametrów prostej regresji z danych lub też z faktu, że resztkowa suma kwadratów (7.56) wyraża się jedynie przez n — 2 niezależne składniki, gdyż obowiązują dwa równania więzów zadane równaniami normalnymi. Potwierdzenie tego faktu znajdujemy w związku

Bqin) = (r — Jo2(d — p”), który możemy otrzymać niezależnie z rozkładu g(Sx, Sy, f; 0x, gy, p) zademonstrowanego

w przykładzie 5.5.10. Za pomocą wariancji resztkowej oraz związków (7.48) możemy skonstruować nieobciążone estymaty wariancji estymatorów parametrów prostej regresji nl,

(l —r")sy

Ta

Ar

(l —r")s;

(m 5+7) PEl= Gone

*B]- Gz A,

>

KOWECEZYH A

A

A

(1



r

JS

(7.59)

_

Zwróćmy uwagę na to, że estymatory parametrów prostej regresji nie będą skorelowane, jeśli wszystkie współrzędne x; przesuniemy do ich środka ciężkości. Powróćmy

jeszcze

do wyrażenia

(7.58) na wariancję resztkową i występującego

tam interesującego związku między jakością dopasowania, wyrażoną przez tę wariancję, a stopniem skorelowania danych, określonym przez współczynnik korelacji Pearsona r. Rozważmy kwadrat odchylenia standardowego sy zmiennej losowej y, który przedstawimy w postaci:

7.3. Metoda najmniejszych kwadratów

I

+

_

449

» = zo12%-9=„— 2(06-06-60)a l

n

i=l

=>

m i (> (V: — 01)” + 0 i=1 i=1

— v*)

jako że suma wyrazów mieszanych znika tożsamościowo: n

3

(Vi —MO

— fi) =4

>.

i=|

(y: —y — d(x; — x)) (Xi — X)

i=l

= 4, ) x;(y; — ) — ly(4; — 3) — 4, ) (y —5 — 4,4, —2))=0 i=]

i=l

na mocy równań normalnych (7.36) (każda z sum to jedno z tych równań). Pierwsza

suma w ostatecznym wyrażeniu na kwadrat odchylenia standardowego sy to resztkowa suma kwadratów Śimin. Mówimy, że w analizie regresji całkowita wariancja zmiennej losowej y rozkłada się na dwie części: część określoną przez wariancję resztkową, czyli odchylenia od linii regresji

i=l

i=l

Stosunek tej pierwszej do kwadratu odchylenia standardowego s, określa kwadrat współczynnika zgodności o (zbieżności)

natomiast

stosunek drugiej

części do kwadratu

odchylenia

standardowego

kwadrat współczynnika korelacji jednorakiej (wskaźnika korelacyjnego) o

sy określa

Obie wielkości: go oraz g, zwane w literaturze także stosunkami korelacyjnymi, są mia-

rami jakości, jakie typowo stosuje się do globalnego opisu rezultatów analizy regresji. Przypatrzmy się teraz estymowanej warunkowej wartości oczekiwanej w ustalonym punkcie x (X) = 89 + 41x = 41(X —X) +y 1 znajdźmy wariancję tej wielkości: y [0) |

=

(Go

+

ajX

— dy —

a,x)')

=) [30]

+ 2xV

[30,

a]

+ xV

[31]

.

450

7. Estymacja parametryczna

Jeśli za elementy macierzy kowariancji podstawimy ich estymaty (7.59), to otrzymamy

to] U (0-09) h

1



ŻY

c2

—1

Dwie krzywe określone wyrażeniem

4x — 2) +) £D[4()] dostarczają jednego standardowego odchylenia od warunkowej wartości oczekiwanej. Zajmiemy

parametrów

estymatorów

się teraz rozkładem

a; i ag prostej regresji.

Znany jest (przykłady 5.5.10 oraz 5.7.3) pełen rozkład trzech statystyk: odchyleń standardowych s, i sy obu zmiennych losowych x oraz y, a także współczynnika korelacji r Pearsona z próby. Jeśli z rozkładu tego wyeliminujemy współczynnik korelacji za pomocą wyrażenia na współczynnik regresji a,, a następnie scałkujemy względem zmien-

nych s, i sy, to otrzymamy rozkład brzegowy dla estymatora współczynnika regresji. Jest rzeczą interesującą, że program ten można wykonać do końca 1 znaleźć poszukiwany rozkład w formie zamkniętej:

A.

J (a;:

Oxy,

gdzie —00

dy,

m

r (zn)

p) = /xT(

!(n—1))

(

/

dy

Max

Gy

m

-7)

s2U-8

2

) +

A

dy

(4-07)

AE

,

< dy < oo. Jeśli zamiast zmiennej losowej, jaką jest estymator a, współ-

czynnika regresji, wprowadzimy zmienną

oA/N — I (

t=———=——yy

1— p*

3)

|(|a-p_

0x

|;

to znajdziemy, że wielkość ta podlega rozkładowi Studenta (5.86) z liczbą n — 1 stopni

swobody, dlatego z łatwością otrzymujemy

e[5] = =p. , o v[E]= >>l 20 -/). Statystyka t byłaby bardzo wygodnym narzędziem do sprawdzania hipotezy o wartości

współczynnika regresji, gdyby parametry ją definiujące były znane. W normalnych warunkach znamy tylko estymaty tych wielkości. Ponieważ jednak znamy estymator (7.59) błędu współczynnika regresji, więc możemy utworzyć statystykę

= ZE a

-

m ŻA 5 (3 — ay), x



2

A

(7.60)

wyrażoną przez znane wielkości i mającą, jak się okazuje, rozkład Studenta o n — 2

7.3. Metoda najmniejszych kwadratów

451

stopniach swobody. Podobnym rozkładem opisana jest statystyka A

ag — 40

to=————M..

[0,41] = —

= 3)oz"

Przykład 7.3.5

Analiza regresji — profil wiązki Zalustrujemy powyższe rozważania przykładem o profilu wiązki z rozdziału Prosta regresji dla tych danych ma postać n(x) = (—0,15 = 0,02)x + (—0,001 + 1,835),

|.

PlAo, 41) = —0,01,

1 zilustrowana jest na rys. 7.19 za pomocą grubszej linii, otoczonej dwiema cieńszymi, określającymi obszar jednego standardowego odchylenia. Z wykresu tego

widzimy wyraźnie, że prosta regresji nie powinna być, w żadnym przypadku, utożsamiana z którąś z osi elipsy kowariancji — dłuższa oś elipsy przebiega bardziej diagonalnie niż prosta warunkowej wartości oczekiwanej. Gdybyśmy chcieli uzyskać równania na oś elipsy, powinniśmy wykonać analizę regresji, w której mini-

malizowalibyśmy odległości punktów od prostej. Regresję taką nazywa się ortogonalną i określona jest ona równaniem

452

7. Estymacja parametryczna

l

n

N =14

a? 2 (a, + a1x — y;)” = min(ag, a),

do wyprowadzenia i rozwiązania którego zachęcamy Czytelnika.

Tak jak w przykładzie 5.7.3, gdzie pokazaliśmy, że współczynnik Pearsona korelacji między obiema zmiennymi jest istotnie różny od zera, tak i tym razem widzimy, że współczynnik regresji jest także definitywnie różny od zera. Spójrzmy jeszcze raz na ten rezultat, tym razem obliczając wartość statystyki Studenta (7.60): £1

(A, — a) = —6,62, Syyl=—r x

=

— 2

A

gdzie za domniemaną wartość współczynnika regresji a, podstawiliśmy wartość zero. Ponieważ

dysponujemy

olbrzymią liczbą stopni swobody:

384, więc uza-

sadnione będzie zastosowanie rozkładu granicznego dla rozkładu Studenta, czyli rozkładu Gaussa, który w tym przypadku określony jest zerową wartością oczekiwaną i (praktycznie) jednostkową wariancją. Jeszcze raz widzimy, że otrzymany współczynnik regresji jest różny od zera na poziomie więcej niż sześciu dyspersji. Zwróćmy jednak uwagę na fakt, że powyższa analiza nie wnosi nic nowego .

100 y

.

.

.

.

, .

e

e

,

.

..

..,

.,

ć

.

|

+

.

. *

..

=

e Po

.,*

e

*

*



|

*

h

.”

"

*

.*

a

.-

H

%

..

..*

* te .

«e

.

4%

«

...

e

.

...

+

x *

0100 „** "e.

.

*

.



©

.

.

.

.

ÓM

2* 200 ©

..„*.%.22 ,

*

. *

.

.

o

|e

.

.

.

"e.

*

.

*

4

th. m

0%,GE=

e

..

.

.,” .*

| %

e

*

„*

24 + eje ,

„4%

©

.

9%

0

.

20

e

.

Ez.

*

*

.

.. „ * „.” 4

-100 43%, .

.

„3 |

*

nJ

*

A

.,

...

d.

3

.

. .

.

*

.

—200

e

e

*

. LJ

.

*

—100 -

Rys. 7.19. Profil wiązki — rozkład punktów trafień cząstek w detektor i prosta regresji

w stosunku do tej, jaką przeprowadziliśmy w przykładzie 5.7.3. W przypadku gdy sprawdzana wartość a, = 0, wtedy i

=—-——0

=———

>> >2oL-



Z

co tłumaczy identyczność wartości statystyki Studenta w obu sytuacjach, jako że otrzymujemy dokładnie to samo wyrażenie, które w przykładzie 5.7.3 zastosowaliśmy do oceny istotności współczynnika korelacji Pearsona. r

7.4. Estymacja z ufnością

453

—— 74. Estymacja z ufnością Nasze dotychczasowe metody oceny wartości parametrów koncentrowały się na znalezieniu estymatora poszukiwanego parametru, a wszelką niepewność co do jego wartości

przedstawialiśmy za pomocą odchylenia standardowego. Taka procedura nosi w statystyce matematycznej nazwę estymacji punktowej. Dotychczas nie zastanawialiśmy się,

z wyjątkiem niektórych przykładów,

nad treścią probabilistyczną, jaką niosą ze sobą

znalezione estymatory. Ba, ambicją naszą, np. w rozdziale 4, było zbudowanie takich procedur, które w odniesieniu do momentów zmiennej losowej wręcz nie wymagałyby znajomości postaci rozkładu. Ten niedostatek zamierzamy teraz nadrobić. Jeśli znany

jest rozkład, z którego losujemy próbę, postępowanie estymacyjne można przeprowa-

dzić alternatywną metodą, która jest innym, bogatszym, językiem do wyrażenia tych

samych treści.

7.4.1. Metoda estymacji przedziałowej Niech będzie dany eksperyment, w którym znana liczba N cząstek padła na tarczę o zna-

nej grubości x i znanej liczbie n centrów rozpraszających na jednostkę objętości, dając w rezultacie k interesujących nas oddziaływań. Z przykładu 5.3.8 wiemy, że przekrój

czynny o na taki proces możemy wyrazić wzorem o

l - Nxn

k,

(wynik ten uzyskujemy, rozwijając funkcję wykładniczą do wyrazów liniowych w gru-

bości tarczy, co zazwyczaj jest wręcz doskonałą aproksymacją). Załóżmy także, że pozostałe wielkości występujące w wyrażeniu na przekrój czynny są znane absolutnie dokładnie, tym samym błąd na przekrój czynny będzie zdeterminowany przez niepewność obserwowanej liczby k oddziaływań, a ta podlega rozkładowi Poissona P,(u) z pewnym parametrem u. W celu wyostrzenia problemu przyjmijmy, że znaleziona liczba zdarzeń wynosi 3. Tak mała liczba przypadków prowadzi do dużej niepewności dla zmierzonego przekroju czynnego, który w tym przypadku będziemy znali z precyzją około 60%, jeśli utożsamimy obserwowaną liczbę k zdarzeń z parametrem ji rozkładu Poissona. Świadomi

jesteśmy faktu niedoskonałości takiej operacji, jako że łatwo sobie wyobrażamy, iż przy

tak małej liczbie obserwowanych przypadków fluktuacje tej liczby są istotne. Innymi słowy, jeśli przeprowadzimy następny eksperyment, zachowując warunki pierwszego, możemy łatwo zaobserwować np. jedno lub pięć interesujących nas oddziaływań. Wydaje się nam, że jeśli nawet obserwacja sześciu bądź nawet ośmiu zdarzeń jest możliwa, to już trudniej nam uwierzyć, że znajdziemy np. dziesięć, a tym bardziej piętnaście takich zdarzeń. Naszym zadaniem jest określenie praktycznego zakresu wartości rezultatów, a stąd wiarygodnego zakresu wartości parametru „e rozkładu. Minimalna i maksymalna

wartość skojarzona z przedziałem, który pomieści oceniany z próby parametr, zwane są granicami ufności, a sam przedział zwiemy przedziałem ufności, natomiast procedura

454

7. Estymacja parametryczna

dochodzenia do tych wartości określana jest mianem estymacji przedziałowej. Ilustracje takiego postępowania podane były w przykładach 5.2.2, 5.3.2 oraz 5.4.4 dla szczególnej sytuacji, kiedy wynik przeprowadzanego przez nas doświadczenia był negatywny. Dotknęliśmy również tego zagadnienia w przykładzie 5.2.3, gdzie eksperyment „coŚ”

dostarczył. Skoncentrujmy się na przykładzie z rozkładem Poissona 1 zastanówmy się nad zna-

czeniem frazy o „wiarogodnym” zasięgu wartości parametru /4. Jeśli wartość tego parametru wynosi „4 = 5, to na ile wielkość k = 3 lub mniejsza jest możliwa? Prawdopodobieństwo

P(k < 3; i = 5) takiego zdarzenia to

l

0

P(k 43 >pP-,N= 100) p

=

3 (+) Zk

p — (l

"

p P- )"9* ==V,0,025

,

znajdujemy, że p_ = 0,332 oraz p, — 0, 533. Przedział ten, jak należało oczeki-

wać, zawiera w sobie wartość p = 0, 5, a więc nie preferującą żadnego z kierunków obrotu wiru. n

(—

Przykład 7.4.2 Przedział ufności — czas życia

Popatrzmy również na przykład 5.3.2, przyjmując, że nasz eksperyment poszukujący rozpadu protonu znalazł jeden przypadek o czasie życia t. Nasze równania (7.61) do rozwiązania tym razem to P(ft £t;T,)=—

1

T+

t J exp (->)

T4

dt = 0,025,

459

7.4. Estymacja z ufnością

skąd

£

=——-_———-

Te

oraz

7 1n(d — 0,025) !

00

2 39 St, „

P(t>t;T_)=— J exp (--) T. T_

dt = 0,025,

T=—————0,2ft. In 0,025

Ponownie zauważmy gigantyczną szerokość znalezionego przedziału. Wspomnieliśmy już o tym w podrozdziale 5.3.2, mówiąc, że rozkład wykładniczy charak-

teryzuje się dużymi fluktuacjami. Ponieważ dla tego przykładu mamy analityczną postać rozwiązań na granice przedziału ufności, możemy pokusić się o znalezienie

minimalnego przedziału ufności (7.62). W tym celu musimy znaleźć taką wartość f, aby różnica

+=! była minimalna lub stosunek

(wa

1

— fa)

1

ln(l — 5)

T_

in(l — fa)

zr,

ln((l — f)a) | 0,010

1200 p

1000 p

| 0,009

|

| 0,008

|

-

l

5R

"O

-

_

|

stosunek

ł

gg

| I

6007,

400

!

— 0

00

01

0,2

m naa--____

L

l

03

04

05

06

=

| 0,005

5O

| 0,004

|

|

0,002

|

-| 0,001

| 0,003

|

200 |

2

| I

_

| 0006



a=

07

08

09

Z

7

0,000

1,0

parametr f

Rys. 7.23. Zależność stosunku i różnicy krańców przedziału ufności od parametru f

był najbliższy jedności. Na rysunku 7.23 przedstawione są obie te wielkości dla przypadku, gdy « = 0,05. Stosunek zbliża się najbardziej do jedności dla f = 0,84, przy której to wartości granice przedziału ufności znajdujemy jako T_ =

0,2: oraz tr, = 23,3r. Różnica osiąga minimalną wartość dła f = 1 i dostarcza rozwiązań T. = 0 oraz r, = 19,5t, co jest niewątpliwym ulepszeniem, choć niezwykle problematycznym: dolna wartość granicy ufności dopuszcza zerowy r czas życia, co nie ma fizycznego sensu.

460

7. Estymacja parametryczna

Wyniki ostatniego przykładu łatwo poddają się pewnemu przekształceniu, którego wynik, będąc wygodnym skrótem myślowym, kolosalnie gmatwa zrozumienie sensu przedziałów ufności. Równania na dolną i górną granicę przedziału ufności, w wersji centralnej (7.61), są w istocie równaniami na kwantyle rzędu 0,025 oraz 0,975 dla rozkładu wykładniczego:

to,025 = —T ln 0,975 = 0,0253T,

to.915 = —T ln 0,025 = 3,6897,

co wyrażamy jako stwierdzenie o prawdopodobieństwie rejestracji zmiennej losowej t: P(0,0253T < t < 3,6891) = 0,95. Możemy, rozwiązując podwójną nierówność nik przepisać w postaci P(0,0253T

1

2

0,001

0,001

2,6

Suma

2612

1,000

1,000

2612,0

zmiennej losowej k, obejmującej wartości od zera do jedenastu, wynoszą k

P = P,(1) = pie"

k=0,1,2,...,11,

natomiast dla ostatniej klasy, trzynastej, prawdopodobieństwo to przyjmuje postać 00

— 12;n)=e u 2

—_

.

Ph = P(k>

n—

A

k

ki

11



7 l-=e

_

_ HL 2

k —

ki

Wyrażenia te budują logarytm funkcji wiarogodności 11 In £ (u)

=

)

k=0

u m

In (e”)

+ nią ln (

—e*

11

u*

3

3

k=0

,

który maksymalizujemy numerycznie, otrzymując ji = 3,88, w wyśmienitej zgodności

z rezułtatem uzyskanym w podrozdziale 5.4.2, gdzie obliczyliśmy po prostu Średnią arytmetyczną. Dysponując estymatą parametru rozkładu, możemy obliczyć estymaty ph

prawdopodobieństw P, przedstawione właśnie w czwartej kolumnie tabeli 8.1, a w piątej

mamy estymaty Np, spodziewanych krotności NP,. Do testu hipotezy potrzebujemy jeszcze statystyki testowej.

Ponieważ mamy do czynienia z rozkładem eksperymentalnym, a więc nie mamy przewidywania na liczbową wartość N sumy wielkości n,, dlatego musimy narzucić na

8.2. Test zgodności

489

model normalizację zadaną doświadczeniem. Rozkład zmiennych losowych ną między

poszczególne klasy, przy zadanych prawdopodobieństwach P; trafienia do danej klasy, określony jest rozkładem wielomianowym (5.27) W,

==

Wynn.

n„

Py,

(N,

Pi,

N!

=

P

Pą,...,

"TI

r

ś

SLEŁE

LET

[[7.

ny! k=0

k=0

k=0

(8.1)

Do wszystkich funkcji silnia zastosujemy przybliżenie Stirlinga (5.5) I

N!'=xy2nN" "ze", oraz m

L

k=0

k=0

[ [re! *

nit

KZT

e" = (J2n)

n+l

-

e" | [m

ny+2

k=0

2,

skąd

W, =

1

(

/

2x)

[I

p

Pi: nat;



k=0

R

*

U

DT

(42 n) | [I Nh

Ji (w

N P,

)

z

(8.2)

Wartość oczekiwana każdej ze zmiennych losowych ną wynosi NP%, a wariancja określona jest przez NP,(1 — P,) = NP, toteż, dla dalszej wygody, wprowadzimy związek łączący obserwowane wartości n, z wartościami oczekiwanymi ny

=

N P,

+

Bk,

(8.3)

gdzie wielkości 8,, z warunku ustalonej sumy ny, spełniają związek

3,8 =0.

(8.4)

k=0

Podstawiając (8.3) do (8.2), otrzymujemy W,

/N

1

We) LR ho

(1 BO)

h

NPi+Br+Z

k

Zajmiemy się teraz wyrażeniem

[(+yz) Ł-0 N PX n

NP,+Bk+"3

(8.5)

w którym oczekujemy, że

| w stosunku do NP; w pierwszym czynniku. Podstawiając, znajdujemy

l

n

Br

l

Npę+Bk+3

=

(F(+;% k=0

n

1



B;

(TZN) k=0

—_

1

n



224NB

|

k=0

ponieważ suma wielkości 8; znika na mocy (8.4). W następnym kroku, po wyeliminowaniu wielkości B; za pomocą związku (8.3), otrzymujemy

n [(+) Ł=0 NP

NPx+Br+3 2

l n Są). — NP 2 tap(Z 2% NP,

Tym samym asymptotyczna postać rozkładu wielomianowego przedstawia się jako n

YNN

PR

(w 2n)

[l

exp (-3 1IĘ< 3 4 NP,

2 —

U

— NP)? k) ) . NP;

k=0

Jak widzimy, przybliżenie to ma postać zbliżoną do (n + 1)-wymiarowego rozkładu Gaussa, a wielkość R =

—_

(nę — NP)”

> ————+,,, NE,

(8.7) 8.7

wprowadzona przez K. Pearsona jeszcze w 1900 roku, odgrywa rolę statystyki x*: jest to suma kwadratów standaryzowanych zmiennych, każda określająca odchylenie wielkości losowej ną od wartości oczekiwanej NP, i podzielona przez wielkość +/N P, o charak-

terze dyspersji wielkości losowej.

Wielkość Ńt określona związkiem (8.7) ma istotnie własność zmiennej x? z dokładnością do dokonanych przez nas przybliżeń, tzn. liczby ną przypadków muszą być

na tyle duże, aby sprawiedliwe było przybliżenie Stirlinga dla ich funkcji silnia i dla całkowitej liczby N przypadków oraz by słuszna była relacja (8.6). Jak wiemy z pod-

rozdziału 5.1, dwa pierwsze warunki

są łatwe do spełnienia, gdyż przybliżenie Stir-

linga pracuje wyśmienicie nawet dla małych wartości argumentu funkcji silnia. Trudniej przedstawia się kwestia związku (8.6), warunkującego poprawność rozwinięcia funkcji logarytm. Sytuację komplikuje fakt zastosowania metody największej wiarogodności do estymacji nieznanych parametrów rozkładu i wykorzystania tych estymat do obliczenia

8.2. Test zgodności

491

wielkości py, których w praktyce używamy zamiast wielkości P, w związku (8.7). Jak wiemy, metoda ta dostarcza estymatorów, które są tylko asymptotycznie nieobciążone

i dlatego nie możemy oczekiwać, że związek (nę) = NP, będzie spełniony ściśle, a jedynie asymptotycznie. Statystycy poświęcili wiele wysiłku badaniom szybkości, z jaką

wielkość R nabiera cech zmiennej losowej rozkładu granicznego, czyli rozkładu 4”. Zwyczajowo przyjmuje się propozycję samego K. Pearsona, aby wielkości ną wynosiły

przynajmniej 5, a jeśli liczba składników w (8.7) nie jest mała (większa niż kilka) to może się pojawić pojedyncza wielkość nę nawet mniejsza od tej wartości. Dodatkowo,

zaleca się taki sposób grupowania danych, aby ich liczba w każdej z klas była zbliżona. Musimy jeszcze określić liczbę stopni swobody uzyskanej statystyki. Jeśli wielkości prawdopodobieństw

P, są znane, czyli wtedy, gdy hipoteza jest w pełni określona

przez podanie postaci rozkładu i nie musimy wydobywać estymat parametrów rozkładu z próbki, to natychmiast zauważamy, że statystyka JR asymptotycznie charakteryzuje się liczbą stopni swobody o jeden mniejszą od liczby składników w sumie (8.7). Wynika to z faktu, że na wielkości n, narzucony jest warunek więzów, wymagający, aby suma tych wielkości była równa N, co czyni je matematycznie zależnymi. Istotnie, rozkład wielomianowy zapisany w symetrycznej formie (8.1) charakteryzuje się macierzą kowariancji

N Pę(1 — Po) —N P,Po V

(n)



—N PoP) NP,L—P,)

.

... :::

.

—N P,„ Po

—N PoP, —NP,P,

.

—NP,„P,

.

-:

,

(8.8)

NP,(l— P,)

która jest osobliwa, o czym łatwo się przekonujemy, dodając wszystkie kolumny do ostatniej. Dlatego odchodząc od symetrycznej postaci, odrzucimy ostatnią zmienną n,, czyniąc pozostałe matematycznie niezależnymi, co jednocześnie oznacza wyrugowanie ostatniej kolumny i ostatniego wiersza z macierzy kowariancji i prowadzi do macierzy V (patrz (5.34)). Bezpośrednim rachunkiem sprawdzamy, że macierz

1 4 Po

,

1

P,

V-! (n) = —

N

LL

1

1

P,

l

P,

1 P,

1

]

.

.

i

i

P,

P,

=

P,

P,

P,

-

.

.

1

I N

Ts

|omo P

P,

1

Pn_i

P,

jest odwrotna do macierzy V (8.8) „odartej” z ostatniej kolumny 1 ostatniego wiersza. Wykładnik wyrażenia aproksymującego gaussowsko rozkład wielomianowy ma tym samym postać

8

(n-NP)'V'!(n-NP)=

1

5-1

M

3

Śóm

(n, — NP) (5

k,m=0



m

(nę —

NP)” P

k=0

1

+ 5) (n, — NP)

NP

,

492

8. Weryfikacja hipotez

w zgodzie z (8.7). Tę własność dotyczącą liczby stopni swobody łatwo możemy sprawdzić, obliczając wartość oczekiwaną wielkości R:

E[R]I=> [R]

nh

l

nh

—€E|n-NP)/|=> NB [m — NP,)?]

l

——NPAU-P)=)> NB | - P,) = >

(1—P,)=n.

Wynik uzyskaliśmy, wykorzystując wyrażenie (5.29) na wariancje zmiennych z rozkładu wielomianowego. Zauważmy, że liczba składników w sumie wynosi n + 1, a wartość oczekiwana jest o jeden mniejsza od tej liczby. W podobny, choć nieco bardziej skomplikowany, sposób można obliczyć wariancję wielkości ŚR: YB

=204

która asymptotycznie, dla N > stopniach swobody.

1

(Z

[+1

-l0+07

2).

oo, zbiega do wariancji zmiennej z rozkładu xX* on

Rozważmy teraz modyfikacje, jakie musimy wprowadzić, jeśli hipotetyczny rozkład jest wyrażony przez m parametrów 6,, których nie znamy. Jeśli do ich oceny wykorzystamy funkcję największej wiarogodności w postaci (patrz przykład 7.2.11) In £ (6) = 3

n, ln P, (6) + const,

k=l

to warunek na estymatory Pa

z M £(6) =

om

rozkładu P G

_P. (6) =0.

06,

i=1L2,...,m,

jest w istocie dodatkowym układem m liniowych równań więzów łączących liczby n, przypadków w przedziałach histogramu. Oznacza to, że w macierzy (8.8) już nie wystarcza odrzucenie jednej kolumny i jednego wiersza, ale musimy odrzucić dodatkowo m takich wierszy i kolumn, aby przestała ona być osobliwa. Prowadzi to do dalszego zmniejszenia liczby stopni swobody o liczbę m nieznanych parametrów.

Oznacza to, że w naszym przypadku, dysponując liczbą trzynastu klas i wyznaczając jeden parametr rozkładu, otrzymamy 11 stopni swobody. Dla wielkości R znajdujemy:

Ńmin = 10,8. Jeśli przyjmiemy, że poziom zgodności testu wynosi 0,05, to wartość krytyczną dla rozkładu x* o jedenastu stopniach swobody znajdziemy jako 19,7, a więc

większą niż uzyskana przez nas wartość Mty;„. Zmusza nas to do stwierdzenia, że nie

mamy

statystycznych podstaw do odrzucenia hipotezy o poissonowskim rozkładzie ob-

serwowanych przez Rutherforda i Geigera liczb rozpadów. Opisaną tu procedurę nazywamy testem x* zgodności Pearsona. Określony jest on następującą, roboczą receptą: e zgrupuj dane doświadczalne o liczebności N w n rozłącznych klasach, tak aby w każdej klasie liczba ny, k=1,2,3,...,n przypadków była nie mniejsza niż 5, a liczby przypadków w klasach były zrównoważone, e zdefiniuj hipotezę, podając domniemaną postać rozkładu,

8.2. Test zgodności

493

e określ poziom zgodności testu,

e jeśli zdecydujesz się na ocenę parametrów rozkładu z próbki, zrób to metodą funkcji wiarogodności dla danych zgrupowanych, maksymalizując wyrażenie: n

nl

=

ny ln P, (0,,6,...,

6),

M

+bx+c (© — 30.9) , Dane doświadczalne przedstawione na histogramie z rys. 8.3 to właśnie unormowana do jedności gęstość rozkładu, gdzie w każdym przedziale naniesiony jest stosunek liczby

przypadków w tej klasie do całkowitej liczby przypadków, podzielony przez szerokość

przedziału histogramowania. Dane te pochodzą z tabeli 8.2, gdzie pierwsza kolumna to klasa, czyli przedział histogramu, druga — to liczba przypadków w danej klasie, trzecia — doświadczalna częstość, a czwarta — to doświadczalna gęstość, czyli szary histogram na wykresie. W piątej kolumnie umieszczona została ocena p, teoretycznego prawdopodobieństwa P, — czyli częstość rejestrowania przypadku w danej klasie — obliczona przy wartościach parametrów b oraz c określonych metodą największej wiarogodności

494

8. Weryfikacja hipotez

1,2 1,0 0,8 0,6 0,4 0,2

—0,9

—0,6

—0,3

0

0,3

0,6

0,9

cos U

Rys. 8.3. Rozkład kątowy leptonów w rozpadzie bozonu Z

Tabela 8.2. Rozkład kątowy w rozpadzie bozonu Z

(—0,9)-(—0,6)

7

0,2121

0,7071

0,2131

7,0

(—0,6)-(—0,3)

4

0,1212

0,4040

0,1416

4,7

(—0,3)-0

5

0,1515

0,5051

0,1098

3,6

0-0,3

3

0,0909

0,3030

0,1177

3,9

0,3-0,6

5

0,1515

0,5051

0,1652

5,5

0,6-0,9

9

0,2728

0,9091

0,2526

8,3

Suma

33

1,0000

3,3334

1,0000

33,0

dla zgrupowanych danych, czego zaraz dokonamy, i w końcu szósta kolumna — to ocena oczekiwanej liczby przypadków w danej klasie.

Musimy teraz określić dwa nieznane parametry rozkładu. Potrzebne będą nam do tego prawdopodobieństwa P,: x +A

p, = J f(x; b,c)dx, gdzie k = 0,1,2,...,5,

jak poprzednio:

xg = —0,9 oraz A = 0,3. Funkcję wiarogodności zbudujemy 5

5

k=0

=(0

nC=ln|[P"*=)_ nlnP,,

8.2. Test zgodności

495

a maksymalizując ją znajdujemy, że b £ 0,087, natomiast ć Z 0,734. Mając te wyniki,

możemy wykreślić rozkład teoretyczny (linia paraboliczna na wykresie), a także obliczyć wartość statystyki testowej Atys, == 0,91. Wartość krytyczna zmiennej x? dla poziomu

zgodności 0,05 przy trzech stopniach swobody (sześć klas danych doświadczalnych minus dwa oceniane parametry minus jedność) wynosi 7,81, co oznacza, że nie mamy podstaw statystycznych do odrzucenia hipotezy o jednostkowym spinie bozonu Z.

Sytuacja nie jest jednak tak prosta. Można postawić przecież „szaloną”, bo nie popartą żadnym modelem, hipotezę o zerowym spinie tego nośnika sił. Obliczenia są

bardzo proste, bo rozkład wtedy powinien być jednostajny na poziomie 5/9 (daje to normalizacja do jedności na przedziale od —0,9 do 0,9) co w pełni określa hipotezę. Jako wartość statystyki Pearsona otrzymujemy ) = 4,27 przy wartości krytycznej 11,07 dla pięciu stopni swobody. Tak więc i tej hipotezy nie możemy odrzucić na podstawie posiadanych danych doświadczalnych. W kwestii ostatniego przykładu autor jest winien Czytelnikowi wyjaśnienie. Przedstawione dane doświadczalne pochodzą z bardzo wczesnego etapu badań własności bozonu Z, kiedy to ilość danych doświadczalnych zebranych na temat tej cząstki była bardzo skromna. Obecnie dane te są na tyle bogate, że nie pozostawiają najmniejszej wątpliwości co do wektorowego charakteru bozonu Z. Intencją autora było nie tyle wzbudzenie w Czytelniku niepewności co do własności tej cząstki, ile uświadomienie mu, że jakość danych jest zawsze kluczem do rozstrzygnięcia hipotezy. Jest jeszcze i drugi aspekt zagadnienia. O ile w 1987 roku istotą analizy było pytanie o spin cząstki, o tyle dziś możemy rozważyć inny problem. Jeśli nie dysponujemy silnym argumentem teoretycznym, przemawiającym

za jedną z hipotez, to którą z nich mamy

wybrać?

Czy

możemy do procesu podejmowania decyzji wprząc kryterium estetyczne, np. prostoty hipotezy? W odniesieniu do testu x* dla zmiennej ciągłej, naturalne jest postawienie pytania o celowość wywodu estymat parametrów rozkładu z „wielomianowej” postaci funkcji wiarogodności dla danych zgrupowanych w n klas, skoro często dysponujemy indywidualnymi pomiarami. Grupowanie danych prowadzi niechybnie do utraty informacji

1 zapewne otrzymalibyśmy efektywniejszą i precyzyjniejszą ocenę parametrów, stosując pełną funkcję wiarogodności. Okazuje się, że takie podejście prowadzi do częściowego odzyskania stopni swobody, a rozkład resztkowej sumy kwadratów opisany jest przez rozkład x? o pośredniej liczbie Oszacowanie efektywnej liczby problemu, jaki rozwiązujemy. rogodności „w pełnej krasie”,

stopni swobody, zawartej między n — m — 1 oraz n — 1. stopni swobody nie jest zadaniem trywialnym i zależy od Dlatego, jeśli wykorzystujemy metodę największej wiawartość statystyki testowej powinniśmy skonfrontować

z wartościami krytycznymi wynikającymi z obu rozkładów X*.

Zza

ZEK)

Ó

7

O

R

ŻA

ZO?ZZ © ZŁ

GG AKRANY,

Obliczenia arytmetyczne widnieją tam dlatego, że za pomocą tej sztuki, dowodzącej prawdziwości rzeczy, kalkuluje się racje rozumowe.

Stopień racjonalnego zaufania

—— 9.1. Prawdopodobieństwo i statystyka W podrozdziale 2.2 podaliśmy, sformułowaną przez A. N. Kołmogorowa, aksjomatykę teorii prawdopodobieństwa. Wskazaliśmy tam również, że sformalizowana teoria nie odpowiada na pytanie, jak określać prawdopodobieństwo — ten aspekt wychodzi poza jej ramy — a przecież jest on kluczowy w każdym praktycznym przypadku. Podobnie, teoria prawdopodobieństwa nie zajmuje się określaniem zbioru zdarzeń elementarnych. Po to, by stosować reguły rachunku prawdopodobieństwa, musimy najpierw zbiór ten, w kazdym konkretnym zagadnieniu, zadać, a także znaleźć pierwotne, „wejściowe” wartości prawdopodobieństw jego elementów. To, jak tego dokonać, jest kwestią określonego przepisu operacyjnego, czyli definicji. W podrozdziale 2.1 podaliśmy definicję częstoŚciową zdarzenia A, zadaną wyrażeniem P(A) = lm

gdzie wielkość m(n)

P,(A) = lim

n>o.

m(n) , /h

(9.1)

to liczba zdarzeń obdarzonych badaną cechą A, jaka pojawiła

się wśród wszystkich zdarzeń n. Ponadto, w podrozdziale 2.2, określiliśmy prawdopo-

dobieństwo geometryczne jako stosunek miar zbiorów, natomiast prawdopodobieństwo kombinatoryczne, właściwe dla sytuacji, w której występuje skończona liczba możliwych

rezultatów eksperymentu, dyskutowaliśmy w podrozdziale 5.1. Wszystkie te definicje do-

czekały się w dziejach rozwoju rachunku prawdopodobieństwa bardzo poważnej krytyki, którą teraz postaramy się pokrótce zrelacjonować. Zaczniemy od definicji kombinatorycznej, związanej z nazwiskami J. Bernoulliego

(Ars Conjectandi, 1713), A. de Moivre'a (Doctrine of Chances, 1738) i P. S. Laplace a

(Thćorie Analytique des Probabilitćs, 1812). W klasycznym sformułowaniu Laplace'a brzmi ona (w wolnym tłumaczeniu) następująco: prawdopodobieństwo zdarzenia jest

zadane stosunkiem liczby m zdarzeń sprzyjających temu zdarzeniu do liczby n wszystkich możliwych zdarzeń, w sytuacji gdy nie mamy podstaw do podejrzeń, że niektóre z tych zdarzeń powinny pojawiać się częściej niż inne, co czyni je równie możliwymi. Okre-

498

9, Stopień racjonalnego zaufania

ślenie odnosi się implicite do sytuacji, w której całkowita liczba zdarzeń jest skończona, a definicja (9.1) jest dość oczywistym

uogólnieniem. Problem z definicją Laplace'a polega na tym, że ona niczego nie definiuje, gdyż jest tautologią: w jej treści występuje pojęcie równych możliwości, które jest synonimem frazy równe prawdopodobieństwa. Abyśmy mogli tej definicji użyć,

ktoś musi nam zdefiniować to ostatnie pojęcie, czego, jak na ra-

zie, nikomu się nie udało (przynajmniej w ramach klasycznego podejścia), gdyż nie jest oczywiste, jak tego dokonać. Niech jako ostrzeżenie posłużą historyczne przykłady. Włoski matematyk G. Cardano, żyjący w XVI w., był pierwszym, który Geronimo Cardano,

w swej książce Liber de Ludo Aleae, dyskutując matematyczne

1501-1576

kwestie hazardu, uważał, że przy jednoczesnym rzucie dwóch

kostek do gry mamy 36 elementarnych możliwych par, a nie 21 (patrz przykład 5.1.6). Jeśli rzucimy jedną monetą dwa razy, to łączna liczba orłów

w tych rzutach może wynosić 0, 1 lub 2. Jeszcze w XVIII wieku francuski matematyk J. dAlembert utrzymywał, że te trzy możliwości stanowią zbiór zdarzeń elementarnych, a każda z tych możliwości powinna być traktowana równoprawnie, a więc prawdopodobieństwo każdej z nich wynosi 1/3.

Określenie kombinatoryczne prawdopodobieństwa ma jeszcze jeden ciekawy aspekt. Niech będą dane dwie urny: w jednej umieszczono jedną kułę czarną i jedną kulę białą, natomiast w drugiej trzy kule czarne i jedną białą. Jakie jest prawdopodobieństwo, że wybierając z dowolnej urny dowolną kulę, wylosujemy kulę białą? Niech U, zdarzeniem polegającym na wyborze urny pierwszej, z dwiema kulami, P(U,) prawdopodobieństwem wyboru tej urny, natomiast U> to zdarzenie polegające na rze urny drugiej, a P(U>) to prawdopodobieństwo wyboru tej urny. Przyjmiemy,

będzie będzie wyboże oba

prawdopodobieństwa są sobie równe i wynoszą 1/2 każde. Niech P(B) będzie prawdopodobieństwem pojawienia się zdarzenia B, czyli wylosowania białej kuli. Z, faktu, że zdarzenia U, i U; są rozłączne i wyczerpują wszystkie możliwości, otrzymujemy P(B) = P(BN(U,

UU;)) = P((BNU,)U(BNU)

=P(BNU,)

+ PBNU;),

a z definicji (2.14) prawdopodobieństwa warunkowego znajdujemy

P(B) = PBUWYPU) + POBIUJPW) = 3-z+5-3=. Jest interesujące, że wyniku

tego, w żadnym

wypadku,

nie da się wytłumaczyć,

odwołując się do stosunku liczby zdarzeń sprzyjających do wszystkich zdarzeń (stosunku liczby wszystkich białych kul do liczby wszystkich kul w urnach). Tego typu spostrzeżenia doprowadziły jednego

z twórców

współczesnej

teorii prawdopodobień-

stwa do stwierdzenia, że Ci, którzy nauczają tej definicji, nigdy jej sami nie praktykują

(H. Jeffreys, Theory of Probability, Oxford University Press 1961). Podobne, fundamentalne trudności, związane z jej tautologicznym charakterem przypadły w udziale także definicji geometrycznej, która a priori przypisuje równe prawdo-

9.1. Prawdopodobieństwo i statystyka

499

podobieństwa wszystkim punktom leżącym wewnątrz odcinka pro-

stej, figury na płaszczyźnie czy też objętości bryły w przestrzeni. Ponieważ liczba punktów nawet w najmniejszym takim obiekcie geometrycznym jest nieskończona,

więc

aby uniknąć

trudności

związanych z obliczaniem stosunku dwóch nieskończonych liczb, zamiast tego stosunku brany jest stosunek miar obiektów geometrycznych. Zarzut, jaki niekiedy jest podnoszony w tym kontek-

ście, to arbitralny wybór tej miary. Jeśli ograniczymy się do osi

rzeczywistej, to miarą dowolnego zbioru zadanego przez odcinek na tej osi jest dowolna, dodatnia i monotoniczna funkcja np. różnicy krańców

tego zbioru. Klasyczna definicja wybiera spośród

nieskończonej liczby możliwych miar jedną i czyni to bez uzasadnienia, z wyjątkiem być może tego, że ta specyficzna miara

Sir Harald Jeffreys, 1891-1989

nie stoi w sprzeczności z postulatami teorii prawdopodobieństwa. Ale nawet i ta jedyna miara przestaje odgrywać jakąkolwiek rolę w sytuacji, gdy przyj-

muje ona wartości nieskończone, tzn. wtedy, gdy mamy do czynienia z np. całą osią rzeczywistą. Nieco inaczej przedstawia się kwestia określenia prawdopodobieństwa za pomocą

wyrażenia (9.1). Nie mamy tu już trudności z tautologią, ale w zamian za to pojawia się granica nieskończonego ciągu. Powoduje to, że nawet jeśli definicja ma jakiś sens, do dyskusji czego przejdziemy za chwilę, to jej znaczenie operacyjne jest żadne. Nikt nigdy

nie znalazł prawdopodobieństwa za pomocą tej definicji, ani nikt nigdy w przyszłości

go nie określi, ponieważ nie możemy wykonać nieskończonej liczby doświadczeń, aby wymaganą granicę obliczyć. Definicja ta może co najwyżej posłużyć do oceny poszu-

kiwanego prawdopodobieństwa, ale tylko z pewną precyzją. Przypomnijmy nierówność Czebyszewa (3.7)

P (x

wl

PZ

2 6) £ G. €

W skończonej liczbie n prób i przy liczbie m sukcesów estymator parametru p prawdopodobieństwa sukcesu w pojedynczej próbie zadany jest wyrażeniem (5.18) „ m P=—, n a jego wariancja wynosi (patrz (5.17))

|_PAd—p)

[5]=——

Y|pl=>——. Jeśli podstawimy ten wynik do nierówności Czebyszewa, to otrzymamy m n

) < Ipd-p) €

n

Prawdopodobieństwo, że estymata będzie różniła się od wartości parametru p o wartość większą niż dowolnie mała liczba e, dąży do zera dla wzrastającej liczby prób:

P(=-»p n

> e) < „PP n



n—>0o

0

(9.2)

9. Stopień racjonałnego zaufania

parametr p

500

100 p 0,90 | 0,80 | 0,70 | 0,60 0,50 0,40 0,30 | 0,20 0,10 0,00

O

i

0

100

EO

l

200

l

300

k

400

l

i

500 600 numer próby

l

l

700

i

800

J

900

1000

Rys. 9.1. Symulacja tysiąca rzutów monetą i prawdopodobieństwo uzyskania reszki

Związek

ten zilustrowany jest na rys. 9.1, gdzie przedstawiony jest badany

stosunek

m/n, znaleziony w tysiącu prób Bernoulliego, każda z prawdopodobieństwem sukcesu p = 0,5, uzyskanych metodą symulacji Monte Carlo.

Wynik (9.2), na mocy lokalnego twierdzenia de Moivre—Laplace'a (5.26) z podroz-

działu 5.2.3, możemy zapisać w bardzo konkretnej postaci, jako

5 (0-7 f

np+en

m=np—en

m

|

yz;

[PA

=

_Ż „P

2

dz



h>>00

1 (9.3)

gdzie z = m/n. Uzyskany rezultat nazywa się całkowym twierdzeniem de Moivre— Laplace'a i należy do grupy twierdzeń określanych mianem praw wielkich liczb —

w tym przypadku jest to tzw. Bernoulliego prawo wielkich liczb. Prawo to daje nam 100% gwarancji, że estymata będzie równa parametrowi p, ale dopiero przy nieskończonej liczbie prób. Jeśli liczba ta jest skończona, mamy niezerową szansę na to, że

estymata będzie jednak różna. Mówimy, że wielkość m/n zbiega do parametru p, ale w sensie prawdopodobieństwa, a nie w sensie Cauchy ego, jaki jest wymagany w analizie matematycznej, abyśmy mogli mówić w sensowny sposób o granicy ciągu. Można

nawet pokazać (H. Jeffreys, ibid.), że granica taka nie istnieje, jeśli chcemy zachować losowość i niezależność w kolejnych próbach, których celem jest określenie prawdopo-

dobieństwa na mocy definicji (9.1). Rozważmy w tym celu pięć nieskończonych ciągów

obrazujących rzuty monetą, w których uzyskanie orła zaznaczyliśmy jedynką, a reszki zerem: a) 100110010100100111010.. b) 100100100100100100100... , c) O000000000000000000000... , d) 1111111111111111I1II1... , e) 10110000111111110000000000... .

9.1. Prawdopodobieństwo i statystyka

501

Pierwszy z tych ciągów otrzymano, wykonując rzeczywisty eksperyment z rzucaniem

monetą. Wartość stosunku m/n wydaje się w nim rzeczywiście fluktuować wokół liczby 0,5. Pozostałe cztery ciągi są sfabrykowane. Granica drugiego wynosi 1/3, trzeciego 0,

czwartego

I, a piątego oscyluje w nieskończoność między

1/3 a 2/3 (ciąg ten został

zbudowany tak, że bloki zer i jedynek następują po sobie na przemian i liczba każdej z cyfr w bloku jest zadana liczbą wszystkich cyfr występujących wcześniej), czyli nie istnieje. Problem z przykładami (b)-(e) polega na tym, że są one absolutnie legalnymi przykładami losowych ciągów, jakkolwiek niewiarogodnie mogą one wyglądać, które poten-

cjalnie możemy otrzymać, rzucając monetą (a Czytelnik na pewno sam będzie potrafił „wyprodukować” wiele innych przykładów). Na mocy niezależności każdej z prób Ber-

noulliego oraz ich losowego wyniku nie istnieje funkcyjny związek między wyrazem

F, a wyrazem P,+, nieskończonego ciągu w definicji (9.1). Oznacza to, że nie jesteśmy w stanie podać dowolnej liczby e i takiego indeksu N, że dla wszystkich indeksów n

większych od wartości N kolejne wyrazy ciągu P„ będą się różniły od hipotetycznej granicy P o mniej niż owa wartość e. Tym samym granica ciągu P, nie istnieje. Wynik

ten stawia nas w bardzo delikatnej sytuacji: granica ciągu P, nie istnieje, a prawdopodobieństwo takiego zdarzenia, na mocy Bernoulliego prawa wielkich liczb (9.3), jest

równe zeru. Wyjaśnienie tego paradoksu leży w zacytowanych przez nas przykładach

ciągów (b)-(e), których pośród wszystkich nieskończonych ciągów jest nieskończenie razy mniej niż ciągów reprezentowanych przez ciąg (a).

Wszystkie trzy „definicje”: kombinatoryczna, geometryczna i przez granicę ciągu są bezużyteczne — one niczego nie definiują. Dwie pierwsze są w najlepszym przypadku

tautologią, a o tej trzeciej można powiedzieć (H. Cramer, Metody matematyczne w sta-

tystyce, PWN, Warszawa 1958), że jest tak samo przydatna jak matematyczna definicja

punktu geometrycznego, który uzyskamy wtedy, gdy będziemy go rysować na tablicy kredą o grubości dążącej do zera. Jakie w takim razie są podstawy całej wiedzy prezentowanej we wszystkich wcześniejszych rozdziałach tej książki? Czy mamy do czynienia z kolosalną, intelektualną mistyfikacją? Rozwiązanie trudności leży, w pewnym sensie, w odwróceniu zagadnienia: nie definiujmy prawdopodobieństwa przez częstości, ale je interpretujmy jako częstości. Potraktujmy „definicje” jako pewne hipotezy orzekające

o własnościach opisywanego zjawiska i zamiast je stosować, poddajmy je raczej weryfikacji przez eksperymentalne badanie. I tak się rzeczywiście dzieje. Przez prawie 100

lat historii rachunku prawdopodobieństwa wypracowane zostały, głównie przez K. Pearsona, E. Pearsona, J. Neymana i R. A. Fishera, a także wielu, wielu innych, w miarę standardowe narzędzia do realizacji takiego programu. Narzędzia te są wyodrębnione

w oddzielną dziedzinę wiedzy — statystykę matematyczną.

Ścisły związek między prawdopodobieństwem a częstością wycisnął głębokie piętno

na procedurach i narzędziach tej dziedziny wiedzy. Gdy przystępujemy do badania jakiegoś zjawiska i mamy określoną hipotezę co do jego natury, wówczas na mocy logiki arystotelesowskiej nasza hipoteza może być tylko prawdziwa bądź tylko fałszywa. Po-

miar dostarczy nam pewnych informacji, które nie przesądzą definitywnie o słuszności

hipotezy, gdyż zawsze, w ramach częstościowej interpretacji prawdopodobieństwa, będą

502

9. Stopień racjonalnego zaufania

skażone przez proces losowego ich wyboru. Rozstrzygnięcie takie mogłoby nastąpić jedynie w skrajnym przypadku nieskończonej liczby pomiarów. Ponieważ sytuacja taka jednak nigdy się nie zdarza, pytanie, jakie zadaje badacz, występujący w roli statystyka, brzmi: zakładając słuszność postulowanej hipotezy, jaka jest szansa, że dane, jakie uzyskamy w wyniku pomiaru, wskażą na jej słuszność? Odpowiedź na to pytanie wymaga

konstrukcji rozmaitych narzędzi, wśród których poczesne miejsce zajmują estymatory i statystyki testowe.

Chociaż niniejszy podręcznik pełen jest przykładów wykorzystania takich narzędzi,

rozważmy jeszcze parę uzupełniających przykładów. Zaczniemy od pojęcia estymatora

nieobciążonego. r——

Przykład 9.1.1

Estymator nieobciążony Załóżmy, że mierzymy liczbę cząstek promieniowania kosmicznego przechodzącego przez nasz detektor. Wiemy,

że łiczba ta opisana jest rozkładem Poissona

zadanym przez nieznany parametr j4, który chcemy ocenić z danych. Jeśli w zadanym przedziale czasu znajdziemy, że nasza aparatura zarejestrowała k takich zdarzeń, to wiemy, że najlepsza wartość estymaty parametru /4 zadana jest przez k: (i =k. Przypuśćmy, że zamiast estymatora parametru ji jesteśmy raczej zainte-

resowani estymatorem pewnej funkcji f (4) parametru. Jak znaleźć jej estymator? Jeśli zażyczymy sobie, aby nie był on obciążony, to powinien on spełniać następujące równanie (patrz definicja (3.1) wartości oczekiwanej) 0O

k

gk)=e")ReKW=fW k=0

>

PFW=D

00

k=0

k

st)

Rozwijając iloczyn e* f (u) w szereg Taylora, znajdujemy k

g(k) = 2A (e* f(1))

u=0

Z konstrukcji wynika także, że jest to jednoznaczny wybór. Znajdźmy wobec tego estymator kwadratu parametru rozkładu: f(u) = „e. Dokonując odpowiednich obliczeń, otrzymujemy _

f(4) = k(k — 1),

(wynik ten możemy łatwo otrzymać, jeśli przypomnimy sobie wyrażenia na wartość oczekiwaną (5.53) i wariancję (5.54) rozkładu Poissona). Podobnie, jedyny nieobciążony estymator dla trzeciej potęgi parametru: f (u) = pi, jest równy

f(v) = k(k — 1)(k — 2). W ogólności, dla f(4) = u”

k! f(u) = k(k— 1)(k — 2) ---(k—m+ 1) = ——.. (km)!

Jeśli interesuje nas trzecia potęga estymatora, a doświadczenie dostarczy nam jedną lub dwie cząstki, to estymator sugeruje nam, byśmy jako najlepszą ocenę

9.1. Prawdopodobieństwo i statystyka

503

parametru rozkładu przyjęli wartość zerową. A przecież, przy u = 0, prawdopo-

dobieństwo, że otrzymamy jakąkolwiek liczbę cząstek, wynosi dokładnie zero!

Do podobnej trudności i niekonsekwencji prowadzi nieobciążony estymator

(5.43) parametru intensywności A rozkładu wykładniczego.

Przy obserwacji po-

jedynczego przypadku rozpadu jądra lub cząstki elementarnej estymator ten podpowiada, że dla parametru A powinniśmy wybrać wartość zero, choć estymator parametru r mamy wybrać różny od zera! Innego rodzaju trudność napotykamy przy ocenie wartości oczekiwanej

kwadratu ciągłej zmiennej losowej. Łatwo sprawdzamy, że wielkość

(x)”

X — s2 jest poszukiwanym, niezależnym od rozkładu, nieobciążonym estymatorem

(© — sz) =() — ($) =VER]+ (R

- VP] = (X).

Estymator ten jest jednak ułomny. Może się zdarzyć, np. dla rozkładu Gaussa, że przyjmie on wartość ujemną — jeśli średnia jest bliska zeru, a sam pomiar jest

mierny i rozrzut między indywidualnymi wynikami pomiarów duży — mimo że

wielkość (x)”, którą ocenia, musi być dodatnia.

m

Spójrzmy teraz na jedną z najważniejszych metod uzyskiwania estymatorów, jaką jest metoda największej wiarogodności. r——

Przykład 9.1.2

Metoda największej wiarogodności — nieefektywny licznik Zastanówmy się, w jaki sposób moglibyśmy ocenić faktyczną liczbę cząstek wiązki

z akceleratora, ale także cząstek promieniowania kosmicznego lub też cząstek ze

źródła promieniotwórczego, w sytuacji, gdy dysponujemy nieefektywnym liczni-

kiem tego promieniowania. Załóżmy, że efektywność licznika, tzn. prawdopodo-

bieństwo p zarejestrowania przez niego cząstki, jest nam doskonale (bezbłędnie)

znane z wcześniejszych badań i dla wyostrzenia problemu przyjmijmy, że p = 0,1.

Z rozkładu dwumianowego wiemy, że jeśli na licznik skierujemy n cząstek, to licznik ten zarejestruje k = O, 1, 2,...,n cząstek, przy czym każda z możliwości wystąpi z prawdopodobieństwem B(n, p) = (;)p'a

—p)"*,

k=0,1,2,...,n.

Załóżmy także, że znana jest nam oczekiwana liczba u = 100, będąca parametrem rozkładu Poissona n

P,(u)

=

e”*,

n=0,1,2,...,

określającego rozkład liczby n cząstek, jakie faktycznie docierają do nas z ak-

celeratora w zadanym przedziale czasu. Jakie jest prawdopodobieństwo P,(p, m)

504

9, Stopień racjonalnego zaufania

zarejestrowania liczby k cząstek, niezależnie od tego, ile cząstek padło na licznik? Aby odpowiedzieć na to pytanie, musimy skonstruować łączny rozkład prawdopodobieństwa P, „(p, ji) zdarzenia polegającego na dotarciu do licznika dokładnie n cząstek, z których k zostanie zarejestrowanych. Rozkład ten zadany jest, z definicji

prawdopodobieństwa warunkowego (2.14), iloczynem Px„(P;

L)



B.(n,

p)

P, (4)

n=0,1,...,

=

n

(;)p'a



p)"

M

n!

ęu

(9.4)

k=0,1,...,n.

Aby uzyskać poszukiwaną odpowiedź, tj. obliczyć brzegowy rozkład P,(p, 4) —

patrz (2.24) — musimy wykonać sumowanie względem zmiennej losowej n:

- Pe"

DO

P(P,W) = ) ,P(P,M) =), BA n=k

.

n=k

_ (pw

_„SZlUd=p)"*

_ (PL) k!

udp) _ (pu) k!

w miP2

nk)!

(pw

="a

_„q>

"2

(ll — p))”

m!

"=P(PL).

Otrzymaliśmy ponownie rozkład Poissona, ale z parametrem określonym przez iloczyn pji, co oznacza, że typowo nasz licznik będzie rejestrował 10 cząstek. Wykonajmy teraz jeden pomiar i niech liczba k zarejestrowanych przez licznik cząstek wynosi 15. Jaka liczba cząstek faktycznie przeszła przez licznik? Mimo że znamy globalną charakterystykę j« pierwotnego strumienia cząstek, faktyczna

liczba cząstek może być dla nas ważna, gdyż zajmujemy się np. wyznaczaniem

przekroju czynnego. Jeśli zechcemy do tego zagadnienia zastosować metodę największej wiarogod-

ności, to funkcja wiarogodności dla takiego problemu zadana jest przez rozkład dwumianowy

L(k=15;n)

= B_s(n, p=0,1)

= max(n).

Stosowne obliczenia doprowadzają nas do wniosku, że

h = k = 150. p

(9.5)

Wynik ten, bez wątpienia, jest bez sensu. Jeśli oczekiwana liczba j4 cząstek przechodzących przez licznik wynosi 100, a dyspersja tej liczby wynosi 10, to jeste-

śmy świadkami niewiarogodnej fluktuacji statystycznej, która po prostu niemalże

nie ma prawa się zdarzyć. Możemy to wyrazić jeszcze inaczej. Fluktuacje liczby zarejestrowanych przez licznik cząstek wynoszą:

D[k] = /pu = 3,2 i przenoszą się, z niezwykłym wzmocnieniem, na fluktuacje pierwotnego strumienia » l 3,2

pi] = -D[k]z= p

0,1

= 32,

podczas gdy my wiemy, że w istocie wynoszą one 10.

(9.6)

9.1. Prawdopodobieństwo i statystyka

Jest rzeczą niezwykle niepokojącą, że dla tego zagadnienia możemy

505

podać

alternatywne rozwiązanie, wywodzące się bezpośrednio z rachunku prawdopodo-

bieństwa. Możemy po prostu napisać twierdzenie Bayesa (2.34) w formie (2.16) dla zdarzeń losowych n oraz k

P.„(p, u) = Brln, p)P„(u) = P,(k, p, u) P(P. 1),

skąd

_

B,(n,

p)P„(u)

LEPR="RPu

jest poszukiwanym zmiennej wynosi:

rozkładem

00

zmiennej

m

0-5

losowej

(u(t — p)" "e *"P n. Wartość

oczekiwana dla tej

je

n n=ka-A(l-p ) = 2 nP,k,p0=2)_ _gikU-P)"'e"» 00

m

=

+

— (m=n—kh)

k

2,77 KU - p)"e""P =k+u(l — p)

1 jest to najlepsza ocena poszukiwanej liczby cząstek, które przeszły przez detektor. Jeśli podstawimy poprzednio podane liczby, znajdziemy, że (n) = 105, co jest

istotnie niezgodne z wynikiem (9.5) metody największej wiarogodności. Wariancja zmiennej losowej n wynosi

vin =) m=k- ud n=k

p))?P,(k, p, u) = ul — p).

Podstawiając wartości liczbowe, znajdujemy D [n] = V90 = 9,5, ponownie wynik

bardzo różny od (9.6), jaki podpowiada zasada największej wiarogodności.

T)

Rozważmy także metodę estymacji przedziałowej. ——

Przykład 9.1.3 Estymacja przedziałowa — licznik z czasem martwym Przypuśćmy, że dysponujemy licznikiem, który charakteryzuje się czasem martwym, tzn. po zarejestrowaniu pewnej cząstki musi on „odpocząć” przez pewien czas T, nim będzie mógł dokonać rejestracji następnej cząstki. Rozkład czasu t

oczekiwania na cząstkę promieniowania kosmicznego, w przybliżeniu niezależnych cząstek, zadany jest rozkładem wykładniczym z parametrem A, o którym założymy, że jest znany bezbłędnie i wynosi

1s”'. Rozkład

f(t; A, T) czasów oczekiwania,

jaki znajdziemy, stosując nasz licznik, będzie rozkładem wykładniczym, ale obciętym do czasów t większych niż wartość parametru 7:

flt;A,T) =Aexp(—A(t—T)),

T służących do oceny słuszności stwierdzenia A. Nie będziemy się jednak dręczyć badaniem sposobno-

Ści A| W; A W, jeśli przesłanki W, i W, są sprzeczne, gdyż z fałszywej tezy możemy wydedukować każdą konkluzję, o czym orzeka prawo Dunsa Szkota, a potwierdzenie

tego znajdujemy w wartości logicznej prawda zarówno dla zdania: (A A A) > A, jak i dla zdania: (A A A) > A.

Relacja sposobności nie musi istnieć między wszystkimi tezami. Jeśli naszą prze-

słanką W jest zdanie: światło z Księżyca biegnie do Ziemi przez jedną sekundę, a teza A to: Całkowita energia mechaniczna w polu siły zachowawczej jest stała, to nie mamy możliwości wypowiedzenia się co do sposobności A| W, gdyż nie ma najmniejszego logicznego związku między tymi dwoma stwierdzeniami. Stosując omówioną symbolikę, wprowadzimy drugi dezyderat teorii: Dezyderat 2: Jakościowa zgodność ze zdrowym rozsądkiem.

Przez ten postulat będziemy

na przykładzie. Przypuśćmy,

rozumieli

że usłyszeliśmy

następujące przesłanie, które wyjaśnimy

strzał i nieomal natychmiast potem wi-

dzimy następującą scenę: dwóch panów, X oraz Y, każdy z nich trzyma pistolet, a na ziemi

leży pan

Z.

Nasza

wiedza

W

to: pan

Z nie żyje,

a teza

A

brzmi:

strzelał

pan X. Oceniamy, że sposobność A|W jest taka sama jak sposobność tezy przeciw-

nej: A|W = strzelał pan Y |pan Z nie żyje. Jeśli jednak dostrzeżemy następujący fakt: W' = pistolet w ręku pana X dymi, to natychmiast stwierdzamy, że: A|W'AW

natomiast sposobność tezy przeciwnej do A maleje: A |W'AW

AJW,

Rozpatrzmy dodatkową tezę B: pan X miał porachunki z panem Z lub pan Y chciał zastrzelić pana X, a nawet panowie X, Y oraz Z spotkali się, aby pograć w brydza

z „dziadkiem”. Sposobność B|A A W tej tezy, zarówno w warunkach wiedzy W wraz

z informacją: strzelał pan X, jak również z dodatkową wiadomością o dymiącym pi-

516

9, Stopień racjonalnego zaufania

stolecie, czyli BIA A W' AW, są identyczne. Zdrowy rozsądek wymaga od nas byśmy uznali AABIWAW >AABIW.

W końcu trzeci i ostatni dezyderat, to dezyderat konsekwentnych, uczciwych i rzetelnych studiów zagadnienia: Dezyderat 3a: Jeśli konkluzję można wydedukować więcej niż jedną drogą, wszystkie metody muszą doprowadzić do tej samej wartości sposobności. Dezyderat 3b: Przy zgłębianiu problemu muszą być wzięte pod uwagę wszystkie istotne dla zagadnienia informacje, bez ich cenzurowania. Dezyderat 3c: Jeśli w dwóch lub więcej problemach stan wiedzy jest ten sam,

wszystkim tym problemom musi być przypisany ten sam poziom sposobności.

Te trzy dezyderaty będziemy określali łącznie mianem spójnego wnioskowania. Uzbrojeni w te przesłanki, przystąpimy do wyprowadzenia ilościowych praw rządzących rachunkiem stopnia racjonalnego zaufania.

9.2.3. Prawa operowania stopniem racjonalnego zaufania Na pierwszy ogień weźmiemy zagadnienie warunkowej sposobności A A B|W iloczynu tez A i B, w kontekście wiedzy W i związku tej sposobności ze sposobnościami każdej z tez oddzielnie. Proces decydowania o słuszności hipotezy A A B możemy wykonać w dwóch krokach: e decydujemy o słuszności tezy A, czemu odpowiada sposobność A|W,

e zaakceptowawszy ją, rozstrzygamy o słuszności tezy B i otrzymujemy sposobność BIAAW. Krok drugi wymaga komentarza z powodu przerzucenia tezy A do warunku. Moglibyśmy sądzić, że wystarczy sposobność uzyskaną w tym kroku zapisać w postaci B|W. Nie byłoby to słuszne, gdyż na to, by teza A A B była prawdziwa, oprócz tezy B musi być prawdziwa również teza A, co właśnie wyraża BIJA A W.

Rezultatem

tego rozumowania jest wniosek o tym, że sposobność

funkcją sposobności A|W oraz BIAAW: AAB|W=/f(AIW,BIAAW)=

f(x,y),

x=A|W,

A A B|W jest

y=B|AAW.

(9.9)

Gdybyśmy zamiast powyższej relacji zaproponowali

A ABIW = f(A|W, B|W),

nie byłoby to zgodne z dezyderatem jakościowej zgodności ze zdrowym rozsądkiem. Sposobność A|W może być istotna, jak i też sposobność B|W. Natomiast B|A A W

może być zarówno mała, jak i duża. Możemy się o tym przekonać, rozważając następu-

jący przykład. Możliwość, że następna spotkana osoba będzie miała błękitne oczy, na pewno nie jest mała. Podobnie, możliwość, że następna spotkana osoba będzie miała ciemne włosy, także nie jest znikoma. Również możliwość, że taka osoba będzie miała

i błękitne oczy, i ciemne włosy jest całkiem rozsądna. Natomiast z faktu dość istotnych

9.2. Sposobność i jej miara

517

sposobności, że następna spotkana osoba będzie miała prawe oko błękitne oraz następna

spotkana osoba będzie miała lewe oko kasztanowe nie wynika, że sposobność napotkania następnej osoby z prawym okiem błękitnym a lewym kasztanowym będzie również znacząca.

Badanie słuszności tezy A A B możemy przeprowadzić także w inny sposób: e decydujemy o słuszności tezy B, czemu odpowiada sposobność B|W,

e zaakceptowawszy ją, rozstrzygamy o słuszności tezy A i otrzymujemy sposobność A|BAW. Prowadzi nas to do wniosku, że zamiast (9.9) równie dobrze możemy napisać

A A B|W — f(BIW, A|B AW). Widzimy, że do określenia sposobności A A B|W

B|A NW, B|W oraz A|B A cjalnych funkcji. Okazuje się Pergamon Press, New York typu A=B A=W lub A

(9.10)

mamy

cztery wielkości: A|W,

W, z których możemy utworzyć łącznie jedenaście poten(M. Tribus, Rational Description, Decisions and Designs, 1969), że poddanie tych funkcji różnym skrajnym testom = B pozostawia tylko dwie z nich, właśnie (9.9) i (9.10)

jako rozsądnych kandydatów na sposobność A A B|W.

Co możemy powiedzieć o funkcji f(x, y)? Z dyskusji drugiego dezyderatu, a także

z propozycji ciągłości sposobności wynika, że funkcja ta musi być ciągłą, monotonicznie niemalejącą funkcją obu swych argumentów.

Włączymy teraz do naszych rozważań dezyderat 3a konsekwentnej spójności rozu-

mowania i zastosujemy go do sposobności A A BAC|W.

iloczyn trzech tez A A B AC

Na mocy prawa łączności,

rozważymy jako A A (BAC) 1

zastosujemy do niego

dwukrotnie prawo (9.9)

AAN(BAO)|W = f(BACIW,AJBACAW)

= J(f(CIW, BICAW),AJBACAW)= gdzie wprowadziliśmy oznaczenia: x =C|W,y=B|CAW

Jednakże iloczyn A A B AC

(f(x, 7), z),

orazz=A|BACAW.

możemy zapisać także jako (A A B) AC, co implikuje

związek (AAB)JAC|W=Jf(CIW,

AABICAW)

= f(C|W, f(BICAD,A|BACAW)

= f(x, f(y,2)).

Łącząc te dwa wyrażenia, otrzymujemy równanie funkcyjne, wyrażające prawo łączności w najbardziej ogólnej formie

IFG,y),2)

Fx, FV, 2)).

(9.11)

W dodatku C pokazujemy, że rozważenie tej równości funkcyjnej prowadzi do następującego związku między sposobnością A A B|W i sposobnościami A|W oraz BJAAW:

g(A A BIW) = g(A|W)g(B|A AW),

(9.12)

gdzie funkcja g jest dodatnia i może albo monotonicznie rosnąć, albo monotonicznie maleć.

Wymaganie jakościowej zgodności ze zdrowym rozsądkiem nakłada na funkcję g

pewne dodatkowe ograniczenia. Przypuśćmy, że w świetle wiedzy W propozycja B jest

518

9, Stopień racjonalnego zaufania

absolutnie pewna. Wtedy sposobność A A B|W musi być tożsama ze sposobnością A|W. Również wiedza AA W nie wnosi nic nowego w stosunku do wiedzy W przy roztrząsaniu

tezy B: B|LA AW

= B|W. Podstawiając do prawa (9.12)

g(AIW) = g(AIW)g(B|W), stwierdzamy, że jeśli tylko g(A|W) jest różne od zera, to dla tezy B gwarantowanej w warunkach W:

g(B|W)=l.

(9.13)

Przypuśćmy teraz, że opinia B pod warunkiem W jest absolutnym fałszem. Wtedy nie tylko A A B = B, ale również B|A AW = BJW, gdyż wszelka uzupełniająca wiedza A, o ile nie jest sprzeczna z W, nie może zmienić naszych konkluzji w stosunku do B. Sięgając ponownie do prawidła (9.12), znajdujemy warunek, który musi zawsze

obowiązywać, bez względu na wielkość g(A|W), o ile jest ona różna od jedności:

g(B|W) = g(A|W)g(B|W). Równość tę możemy

spełnić jedynie w dwóch przypadkach:

albo wielkość g(B|W)

jest równa zeru, albo jest ona równa nieskończoności. Jeśli przyjmiemy, że wynosi ona

zero, wtedy funkcja g rośnie monotonicznie od zera dla tezy absolutnie wykluczonej do

jedności dla tezy absolutnie pewnej. Jeśli przyjmiemy konwencję, że tezie nieprawdziwej

odpowiada nieskończona wartość g, to funkcja ta monotonicznie maleje do jedności dla tezy prawdziwej. Jest rzeczą konwencji, które z tych dwóch zachowań przyjmiemy. Umówimy się, że będziemy stosować pierwszą z tych możliwości, tzn. dla tezy B fałszywej w warunkach W:

g(B|W) =0,

(9.14)

ponieważ przy wyborze drugiej treść teorii pozostaje taka sama — wystarczy, że zamiast funkcji g przyjmiemy funkcję g, = 1/g, aby powrócić do pierwotnego wyboru.

Zajmiemy się teraz drugim prawem, rządzącym związkiem między sposobnością A|W a sposobnością tezy przeciwnej do A. Związek taki powinien istnieć, bo jeśli mało możliwa jest pewna sugestia, to sugestia do niej odwrotna powinna mieć duże szanse, że będzie prawdziwa. Zaproponujemy ten związek w formie

g(AIW) = F (g(A |W)).

(9.15)

Konwencje (9.13) i (9.14) wymuszają dość oczywiste ekstremalne wartości dla funkcji

F: F(0) = 1 oraz F(1) =0. Inną jej własność uzyskamy, stosując tę funkcję do obu

stron równania (9.15):

_

F (g(AIW)) = F(F (g(AIW))).

Na mocy wymagań stawianych funkcji F' prawa strona tego wyrażenia powinna zwrócić nam wewnętrzny argument g(A siebie samej

|W), co oznacza, że funkcja ta musi być odwrotna do

F (FQ2))=x.

(9.16)

Nie są to jednak wystarczające własności do określenia najbardziej ogólnej formy

funkcji F. Musi być ona także zgodna z prawem (9.12), które implikuje bardziej skomplikowaną postać równania funkcyjnego.

9.2. Sposobność i jej miara

519

Rozważmy prawo mnożenia sposobności (9.12) w odniesieniu do dwóch tez: A A B oraz A A B. Wykorzystując je, znajdujemy

g(AABIW) =g(A|W)g(B|A AW), g(A A B|W) = g(A|W)g(BJA AW).

(9.17) (9.18)

Stosując (9.15) do równania (9.17), możemy je zapisać w równoważnej

postaci

g(A A B|W) = g(A|W)F (g(BIA AW)), a wykorzystując (9.18), otrzymamy

g(A A BIW) g(A A BIW) = g(A|W)F (i g(AIW)

|

Ponieważ tezy A oraz B w (9.17) komutują, więc związek ten możemy równie dobrze

zapisać jako

g(A A BIW) = g(B|W)g(A|B AW),

a stąd

g(A A BIW) = g(B|W)F ( lub też

a)

AIW)F | ————

S(AW)

( g(AIW)

g(A A

2)

g(B|W)

(o)

1 =o(BIW)F | ——

SZT |

2(BIW)

1.

Ta równość musi być słuszna dla wszystkich A oraz B, w szczególności także dla B = AND, gdzie D jest dowolną nową sugestią. Jednakże, przy takim doborze tezy B, otrzymujemy A A B = B oraz, na mocy (9.8): BA A=A,

skąd

AWF (EG) g(AIW) = sewF (EG) g(BIW) >.

F (g(B|W)) I — ( g(AIW) )

AIW)E | ———

84AD

CLJ IW) ( g(BIW)

o(BIW)F | —————

lub wprowadzając oznaczenia x = g(A|W), y = g(B|W):

„F(-2) =>F(22). x y

(9.19)

Otrzymaliśmy równanie funkcyjne na nieznany związek F łączący sposobności prze-

ciwnych tez. W dodatku D pokazujemy, że rozwiązaniem tego równania jest funkcja F spełniająca związek F"(u)+tu"=l,

implikujący następującą zależność między sposobnościami A|W i A|W:

s" (AIW) + g"(AIW) =.

(9.20)

Sporządźmy bilans tego, co dotychczas udało się nam osiągnąć. Łączność iloczynu logicznego wymaga, aby pewna funkcja g(x) sposobności x = A|W spełniała równa-

520

9. Stopień racjonalnego zaufania

nie (9.12). Ta sama funkcja musi także spełniać prawo (9.20) dodawania sposobności. Jednakże prawo mnożenia, po podniesieniu stronami do m-tej potęgi, możemy zapisać w formie

g'(AAB|W)

=g"(A|W)g"(BIA AW)

1 widzimy, ze wartość wielkości m jest faktycznie nieistotna. Jakąkolwiek wartość byśmy wzięli, zawsze możemy wprowadzić funkcję

P(x) = g" (x), w terminach której nasze prawa przyjmą postać reguły mnożenia

P(AAB|W) oraz reguły dodawania

==P(A|W)P(BIAAW)

=P (B|W)P(A|BAW) _

P(A|W) + P(AI|W)=1.

(9.21)

(9.22)

Nie zmniejsza to ogólności rozważań, gdyż jedyny warunek, jaki nałożyliśmy na funk-

cję g(x), był warunkiem monotonicznego narastania od zera dla tezy niemożliwej do

jedności dla tezy pewnej. Własność ta zachowuje się dla funkcji P(x) przy dowolnej

wartości parametru m, o ile jest on większy od zera, co także jest spełnione. Czy te dwie reguły wystarczą do znalezienia sposobności dowolnego zdania? Znaj-

dziemy, jako przykład, sposobność tezy danej sumą logiczną tez A oraz B:

P(AVB|W) =P (A A B|w) =|—P(AAB|W)=l1

— P(AIW)P(BIA AW)

= | — P(AJW) (1 — P(BJA AW))

= |] — P(A|W) + P(A|W)P(B|IA A W) = P(AIW) + P(A ABIW) = P(A|W) + P(BIW)P(A|B AW)

= P(A|W) + P(B|W) (1 — P(A|B AW)) = P(A|W) + P(B|W) — P(B|W)P(A|B AW) = P(A|W) + P(B|W) — P(A A BIW) czyli ostatecznie

P(A v B|W) = P(AJW) + P(B|W) — P(A A B|W).

(9.23)

Jeśli badane tezy A oraz B są wzajemnie sprzeczne w świetle posiadanej wiedzy W, tzn. A A B

d

-

jest tezą fałszywą, wtedy na mocy konwencji (9.14) wynik ten upraszcza się

P(Av B|W) =P(A|W) + P(BIW).

(9.24)

W podrozdziale 9.2.1 powiedzieliśmy, że działania logiczne iloczynu i negacji wy-

starczają do skonstruowania wszelkich innych operacji logicznych. Tym samym dwa nasze prawa: mnożenia (9.21) i dodawania (9.22), wystarczają do określenia sposob-

ności dowolnej innej tezy, bez względu na stopień jej komplikacji. Wystarczy, że tezę złożoną z n zdań rozłożymy na 2” fundamentalnych tez, a stosując łańcuchowo regułę

9.2. Sposobność i jej miara

521

mnożenia, określimy sposobność każdej z nich. Ponieważ tezy fundamentalne są logicz-

nie rozłączne, więc po zbudowaniu badanego zdania z tych tez, znajdziemy sposobność tego zdania, stosując prawo dodawania. I tak, dla n = 5, mamy 2” = 32 elementarnych tez, których sposobność musimy

określić z przesłanki

W, a to pozwoli nam, metodą

prostej algebry, przypisać sposobność każdemu z 2** = 4294967 296 możliwych zdań,

jakie możemy skonstruować.

9.2.4. Ku prawdopodobieństwu Jakkolwiek postać uzyskanych przez nas praw (9.21) i (9.22) rządzących sposobnościami

może wydawać się znajoma, dwie okoliczności wskazują na to, że zadanie nasze nie jest jeszcze zakończone. Po pierwsze, chociaż nasze reguły ustalają ograniczenia na to, jakie relacje między funkcjami P sposobności tez są dopuszczalne, dostarczają one jednocześnie olbrzymiej swobody w wyborze funkcji g, a co za tym idzie, także funkcji P. Po drugie, nie możemy naszych reguł zastosować do żadnego praktycznego przypadku, gdyż reguły te nie mówią nic o tym, jak przetworzyć informacje zawarte w przesłance W na konkretne wartości wielkości P najprostszych tez, jakie pojawiają się na wstępie

każdego zagadnienia. Dopiero gdy takie liczby będziemy mieli, możemy odpowiadać na następne, bardziej skomplikowane pytania. Rozwiązanie tej trudności polega na odwołaniu się do dotychczas nie wykorzystanego przez nas dezyderatu 3c.

Rozważmy zagadnienie określenia sposobności A; V A> V Aa|W, że przynajmniej jedna z trzech tez jest słuszna. Możemy to wykonać, stosując prawo dodawania (9.23) dla tezy (A; V Aa) V A3

P(A, Y A> V A3| W) = P(A; V A>[ W) + P(A3| W) — P((A: V A>) A A3IW)

= P (Ay V Az] W) + P(A3| W) — P((A; A 43) V (Az A A3)| W) 1 ponownie to samo prawo dla tezy A; V A> oraz (A; A A3) V (A> A 43)

P(A, V AV Az| W) = P(A,|W) + P(Az| W) + P(Az|W) — P(A: A A>| W) — P(ArA Az| W) — P(Aa A A3l W) + P(A1 A A> A A3| W). Przypuśćmy, że informacje zawarte w W implikują, że tezy A; wzajemnie się wykluczają,

co oznacza, że każda teza postaci A; A A; jest fałszywa, jeśli tylko i £ j. Takie założenie powoduje, że cztery ostatnie wyrazy w powyższej sumie znikają, a wtedy

P(A: V A> V A3|W) = P(A;|W) + P(A»|W) + P(A3IW). Czytelnik łatwo się przekona, stosując metodę indukcji matematycznej, że dodając następne tezy A4, As,..., Ay, spełniające warunek wzajemnego wykluczania, powyższe wyrażenie uogólnia się do:

P(A,VA„V'--VA„|W)=) P(AGIW), k=|

1, A3,..., Ay różniący się od pierwszego jedynie tym, że dwie

pierwsze tezy są zamienione miejscami. Sposób przypisywania indeksów tezom jest oczywiście arbitralny, więc nie ma znaczenia, czy indeks l przypiszemy tezie pierwszej,

czy też drugiej. Jasne jest, że jakąkolwiek wiedzę posiadamy w odniesieniu do tezy A; w pierwszym problemie, co wyznacza dla niej wartość

P(A;|W),

to tę samą wiedzę

posiadamy w odniesieniu do tezy A>, co wyznacza dla niej wartość P' (A,|W), która musi być identyczna z wartością P(A,;|W). Podobnie musi obowiązywać

P(A>|W)

=

samym

w problemie

P'(A1|W), bez względu na to, jak realne bądź nierealne mogę być obie rozważane tezy. Załóżmy teraz, że wiedza W nie wprowadza rozróżnienia między obiema tezami A; 1 A>: jeśli mówi coś na temat jednej z nich, to mówi dokładnie to samo na temat drugiej, a tym stan naszej wiedzy o każdej z tez w zestawie A;, A>, A3,..., Ay

pierwszym jest dokładnie taki sam jak stan naszej wiedzy o każdej z tez w zestawie

Ai, A>, A3,..., Ay w problemie drugim. Przywołajmy dezyderat 3c rzetelnych studiów, który mówi, że jeśli w dwóch problemach stan naszej wiedzy jest taki sam, to obu problemom musi być przypisany ten sam poziom sposobności. Oznacza to, i tylko to, że musi obowiązywać P(A,|W) = P'(A,|W) dla wszystkich wartości indeksu i. Podstawiając ten wynik do równania P(Az|W) = P'(A,|W), znajdujemy, że wartości funkcji P dla tezy A;

oraz

A; muszą być identyczne:

P(A>|W)

=

P(A,|W).

Stąd już tylko

krok dzieli nas od stwierdzenia, że jeśli wprowadzimy trzeci problem, z tym samym

zestawem tez, ale ustawionych w dowolnej kolejności 1 wiedzą W, która nie wyróżnia

ani nie dyskryminuje żadnej z nich, to wartości funkcji P sposobności wszystkich tez

muszą być identyczne. Ponieważ tezy te jednocześnie wyczerpują wszystkie możliwości, więc z (9.26) mamy natychmiast P(A:IW) = Za Keynesem

l ,

i=1,2,...,N.

(9.27)

wynik ten zwany jest w literaturze zasadą nieistotności (Principle of

Indiffjerence), oczywiście ze wskazaniem na przesłankę W. Rozważymy

teraz jej konsekwencje.

Niech będzie dana urna, której zawartość to

N identycznych co do wielkości, koloru, wagi, temperatury, gładkości powierzchni, ...

ponumerowanych kul, z których K, o indeksach i, ip, ...,ik to kule białe, a reszta M =

N — K kul to czarne. Nie mamy również żadnej wiedzy co do tego kiedy, kto, w jakiej kolejności i w jaki sposób umieścił kule w urnie. Przywołujemy na pomoc sierotkę, która

9.2. Sposobność i jej miara

523

z zawiązanymi oczami wydobywa z urny jedną kulę. Zdefiniujmy tezę A„: wyciągnięto kulę o numerze m, gdzie m = 1,2,..., N. Nasza wiedza W, zawarta w drugim, trzecim

1 czwartym zdaniu akapitu, nie pozwala nam na preferencyjne traktowanie którejkolwiek

z owych N tez. Dlatego też wyrażenie (9.27) określa wartości funkcji P(A,|W) dla wszystkich tez. Zdefiniujmy teraz następną tezę B: z urny wydobyto kulę białą. Teza ta

jest logiczną sumą rozłącznych tez A„: B=A,VAĄ,V::: funkcji P(B|W)

znajdujemy z dodawania (9.25):

VA;,, ik» dlatego też wartość

K P(B|W) = P(A; V Az V-*-VAGIW) = ) , P(A,„[W) = y: K

(9.28)

m=l

Przykład ten rozwiązuje jednocześnie dwa postawione przez nas na wstępie pro-

blemy. Pokazuje, jak w jednym szczególnym przypadku, który możemy teraz uogólnić, informacja zawarta w przesłance W prowadzi nas do konkretnych wartości numerycz-

nych dla funkcji P, dzięki czemu możemy rozpatrywać praktyczne zagadnienia. Drugi wniosek jest dość oczywisty: wiedza i prawa dodawania i mnożenia, które zastosowaliśmy, doprowadziły nas do wartości dla ostatecznych funkcji P(A,|W), a nawet bardziej

skomplikowanej funkcji P(B|W), a nie pierwotnych sposobności A,|W czy też B|W. Oznacza to, że słuszniejsze będzie odwrócenie zagadnienia i powiedzenie, że to sposobności są dowolnymi, monotonicznymi funkcjami jednoznacznie wyznaczalnych wielkości P, a nie odwrotnie.

Widząc, że teoria stopnia racjonalnego zaufania może być całkowicie wyrażona za

pomocą wielkości P, możemy wprowadzić dla nich specjalny termin: od tego momentu wielkości te będziemy

nazywali prawdopodobieństwami,

a termin sposobność, jako

pomocniczy, usuniemy w niebyt i nie będziemy do niego więcej wracali. Zrekapitulujmy uzyskane rezultaty. Prawo (9.22) oraz (9.24) wraz z konwencjami

(9.13) i (9.14) to zestaw aksjomatów podrozdziału 2.2, które konstytuują teorię klasycznego rachunku prawdopodobieństwa. Tym samym nasza nowa teoria „dziedziczy” cały formalny dorobek teorii Kołmogorowa, przedstawiony w poprzednich rozdziałach.

Jednakże, w zagadnieniach praktycznych, nowa teoria nie odwołuje się w żaden sposób do częstoŚciowej interpretacji, a opiera się na logicznym wnioskowaniu z posiadanych

przesłanek. Gdy przesłanki te są dostatecznie bogate w informacje, może się zdarzyć, że będziemy mogli przesądzić o słuszności bądź fałszu badanej tezy. Gdy wiedza nasza nie

jest wystarczająca do definitywnego rozstrzygnięcia, o słuszności tezy możemy jedynie

wypowiedzieć się, określając jej poziom prawdziwości, czyli stopień racjonalnego zaufania. Prawdopodobieństwo, którym wtedy operujemy, nie ma żadnego związku z naturą badanego zjawiska, a przedstawia przetłumaczone na liczby nasze wewnętrzne przekonanie o stopniu słuszności każdej głoszonej tezy, do której zechcemy nową metodę

zastosować.

Zauważmy także, że wynik (9.28) to wspomniana w podrozdziale 9.1 klasyczna definicja prawdopodobieństwa, interpretowana przez późniejszych badaczy w duchu często-

Ściowym. Rezultat ten jest także zapowiedzią, że całą konwencjonalną teorię powinniśmy odnaleźć we współczesnej.

524

9. Stopień racjonalnego zaufania

—— 9.3. Wnioskowanie probabilistyczne Na silny logiczny związek między prawdopodobieństwem P(A|W)

tezy A a wiedzą W

wskazuje przykład podany przez wspomnianego wcześniej Jaynesa (E. T. Jaynes, Cle-

aring up Mysteries — The Original Goal, w Maximum-Entropy and Bayesian Methods, J. Skilling (red.), Kluwer, Dordrecht 1989). Rozważymy ponownie urnę wypełnioną identycznymi kulami w liczbie N, wśród których mamy K kul białych, a reszta to kule czarne. Wiedzę tę oznaczymy symbolem W. Szansa P(B;|W) wydobycia białej kuli w

pierwszym losowaniu określona jest związkiem (9.28). Jeśli losowanie prowadzimy bez zwracania, wylosowanie takiej lub innej kuli w pierwszy kroku ma, niewątpliwie, wpływ na szansę wylosowania białej kuli w powtórnym losowaniu. Analizując ten wpływ, nie

jest nam jednak łatwo oderwać się od sprawczego charakteru faktu fizycznego usunięcia

jednej kuli z urny. Aby uzyskać jaśniejszy wgląd w problem i wyzbyć się fałszywych tropów, odwróćmy zagadnienie. Wylosujmy pierwszą kulę i bez sprawdzania koloru odłó-

żymy ją do kieszeni. Sięgnijmy ponownie do urny i wydobądźmy z niej następną kulę. Przypuśćmy, że jest to kula biała. Ile wynosi prawdopodobieństwo P(B,|B A W), że w

naszej kieszeni schowaliśmy białą kulę? Tym razem, przy próbie sformułowania odpowiedzi, duszy naszej nie targają komplikacje związane z przyczynową relacją — wszak

wynik drugiego losowania nie może mieć fizycznego wpływu

na losowanie w pierw-

szym kroku! Brak relacji fizycznej nie uniemożliwia nam jednak uzyskania precyzyjnej odpowiedzi na postawione pytanie. Nie będziemy jej tu podawać w nadziei, że Czytelnik spróbuje ją uzyskać sam, a gdyby miał trudności, powinien powrócić tu po przeczytaniu podrozdziału 9.3.1. My rozpatrzymy jedynie szczegółny przypadek omawianej sytuacji. Jeśli wśród wszystkich kul w urnie tylko jedna jest biała, to z pełną odpowiedzialnością możemy

twierdzić, że kula spoczywająca w naszej kieszeni jest czarna! Przykład ten

z całą mocą ukazuje na dedukcyjny, a nie fizyczny (np. częstościowy) charakter pojęcia

prawdopodobieństwa. Nowa interpretacja pojęcia prawdopodobieństwa ma niezmiernie głębokie konsekwencje. Przede wszystkim, nie ma w nim miejsca na pojęcie „losowości”. Pod tym po-

jęciem, w mniemaniu nowej teorii, ukrywana jest, łagodnie mówiąc, zadufana ignorancja badacza. Zdanie: Nawet gdybyśmy próbowali zbudować maszynę, rzucającą monetą z do-

skonałą prawidłowością, nie moglibyśmy przewidzieć wyników indywidualnych rzutów (H. Cramer, ibid.) w nowej teorii jest przykładem tupetu i braku pokory — jeśli nie

potrafimy czegoś zrozumieć lub przewidzieć, to na Naturę zrzucamy odpowiedzialność

za naszą intelektualną ułomność, twierdząc, że taka jest właśnie natura zjawiska. Wraz z pojęciem „losowej natury zjawiska” znika „zmienna losowa” i cały statystyczny ansambl, z którego owa zmienna jest wybierana aktem eksperymentalnym. Stąd też przed

teorią odkrywają się nowe pola zastosowań. Uzasadnione staje się zadawanie pytań w rodzaju: jakie jest prawdopodobieństwo,

że gdzieś we Wszechświecie istnieje inny układ

planetarny? Rozważenie takiej kwestii w ramach konwencjonalnej teorii zawsze będzie

wysoce spekulatywne z formalnego punktu widzenia, gdyż musi myślowo dopuszczać istnienie nieskończonej liczby wszechświatów takich jak nasz, który z definicji obejmuje cały świat. Rezultatem zanegowania populacji” jest utrata racji bytu wielkości

9.3. Wnioskowanie probabilistyczne

525

statystycznej, jaką jest estymator z całą menażerią jego własności 1 statystyki testowe, co czyni bezprzedmiotowymi różne metody statystycznej oceny parametrów rozkładów,

czyli metody momentów, największej wiarogodności, w końcu metody testów i weryfikacji hipotez. Niewinna, z pozoru, zmiana koncepcji prawdopodobieństwa prowadzi

faktycznie do wielkiej rewolucji w dziedzinie zastosowań, a jednym z jej owoców jest anihilacja całej statystyki matematycznej. To narzędzie w ramach nowej teorii staje się

zbędne, przy zachowaniu, naturalnie, bogactwa wyników matematycznych, jakie w ramach tej dziedziny uzyskano w czasie stuletniego jej rozwoju. Nie oznacza to jednak,

że stajemy bezradni wobec kolosalnej liczby problemów, które dotychczas umieliśmy rozwiązać. Nowa teoria dostarcza nam nowych narzędzi do osiągnięcia tego celu.

9.3.1. Twierdzenie Bayesa Przystępując do oceny stopnia racjonalnego zaufania wobec tezy H, nigdy nie działamy w próżni. W praktyce naukowej mamy zazwyczaj jeszcze dwie dodatkowe informacje.

Są to: dane D uzyskane w wyniku eksperymentu oraz pewna nagromadzona wiedza

W o zagadnieniu, którego hipoteza H dotyczy (przez hipotezę H będziemy rozumieli zdanie stwierdzające słuszność tej hipotezy). Rozdział między danymi a wiedzą jest często podyktowany wygodą: wyniki z wcześniejszego eksperymentu możemy uznać

za element nagromadzonej wiedzy lub też połączyć z zestawem naszych danych. Samo sformułowanie osądu P(H|D A W) nie może jednak wybiórczo traktować żadnego

z warunków D lub W, gdyż byłoby to w sprzeczności z dezyderatem 3b spójnego wnioskowania. Głównym narzędziem takiego wnioskowania w ramach nowej teorii jest prawo (9.21)

mnożenia prawdopodobieństw

P(H A D|W) = P(H|W)P(DIH AW) = P(D|W)P(H|DAW), z którego wynika

P(H|DAW) = P(DIH AW)

P(H|W)

P(DIW)

(9.29)

Jeśli mamy więcej niż jedną hipotezę, a wszystkie one, w Świetle wiedzy W, wykluczają się wzajemnie, tzn. P(H, AH,|W)

=0,

i £J,

oraz wyczerpują wszystkie możliwości, czyli zdanie: H, V H;V...V H, ma wartość logiczną prawda, wtedy na mocy praw algebry Boole'a i prawa dodawania (9.22) możemy

rozwinąć mianownik wyrażenia (9.29):

P(DIW) = P(DA(H,VH>...H,)|W) = P((DAH)vV(DAH)V...(DAH>)|W)

= > P(DAH,|W) = | P(D|H; A W)P(H,|W), i=l

i=l

(9.30)

526

9, Stopień racjonalnego zaufania

co prezentuje Czytelnikowi zapowiadany wcześniej mechanizm równoważny z rozkładem na zdarzenia elementarne w teorii Kołmogorowa. W związku tym rozpoznajemy generalizację (wolną od ograniczenia wielkości H, do zdarzeń losowych) znanej nam formuły pełnego prawdopodobieństwa z podrozdziału 2.8. Rozumowanie prowadzone w przeciwną stronę, wiodące do usunięcia zależności od H,; i pozostawienia jedynie zależności od D, zwane jest, w języku nowej teorii, procedurą marginalizacji względem D. Wykorzystując ten wynik, otrzymujemy twierdzenia Bayesa

P(H,|DAW)

= P(D|H, AW)—

P(H,|W)

5, P(DIH, AW)P(H,|W) i=1

(9.31)

Rezultat ten jest dobrze znany konwencjonalnej teorii prawdopodobieństwa (patrz (2.35)), gdzie także występuje pod tym mianem. Jego znaczenie jest tam jednak marginalne, gdyż jego zastosowania są ograniczone do sytuacji, w której wielkości D oraz H są zdarzeniami losowymi. Nowa interpretacja prawdopodobieństwa poszerza wielce zakres zastosowań, gdyż

wielkość H może być np. zdaniem: we Wszechświecie są trzy rodziny neutrin. W klasycz-

nej teorii taka hipoteza nie jest dopuszczalna, z uwagi na to, że nie możemy prowadzić procesu losowania z populacji, w której byłyby różne liczby rodzin neutrin, aby następnie zbudować estymator tej wielkości i zastanawiać się nad np. jego wartością oczekiwaną. Wszechświat jest tylko jeden i jakakolwiek liczba rodzin neutrin by w nim była, liczba ta

jest raz na zawsze ustalona i nie podlega rozkładowi. Mówiąc swobodniejszym językiem, wielkości takie jak P(H|...)

opisują w klasycznym podejściu fluktuacje wielkości H,

a przy częstoŚciowej interpretacji prawdopodobieństwa istnieje pewna klasa wielkości,

które nie podlegają fluktuacjom. Do nich należy liczba rodzin neutrin we Wszechświe-

cie, czas życia r izotopu uranu **U, masa antyneutrina elektronowego i wiele, wiele innych, w tym długość strony pomiarowa, która zależy od wzdłuż następującej drogi. Z struowana jest wielkość s(D)

zawierającej niniejsze zdanie. Fluktuuje jednak wielkość liczby rodzin, dlatego konwencjonalna analiza postępuje danych D, traktowanych jako wielkość losowa D, konzwana statystyką. Następnie, przy założeniu słuszności

hipotezy H, ze znanego rozkładu f(D|H)

znajdowany jest rozkład g(s|H) tej staty-

styki. Ostatecznie obliczana jest wielkość s(D), jaką statystyka przybiera na uzyskanej próbce i ta liczba rozważana jest w kontekście wszystkich możliwych wartości, jakie

statystyka s może przybrać na wszystkich możliwych danych D przy założeniu słusz-

ności hipotezy H. W wyniku tej konfrontacji podejmowana jest decyzja o możliwości odrzucenia hipotezy. Rezultatem takiego postępowania są zdania takie jak: w świetle uzyskanych danych

nie ma podstaw do odrzucenia hipotezy H na takim to a takim poziomie zgodności lub istotności (w zależności od sytuacji), lub też: dla parametru teorii określiliśmy przedział

ufności na pewnym poziomie ufności, mając na myśli stwierdzenie, że przedział ten za-

wiera z zadanym prawdopodobieństwem poszukiwany parametr, co wcale nie oznacza, że określiliśmy prawdopodobieństwo znalezienia tego parametru w tym przedziale! Różnica między dwoma ostatnimi stwierdzeniami jest dla przeciętnego użytkownika staty-

9.3. Wnioskowanie probabilistyczne

527

styki matematycznej scholastyczna i dopiero dła głęboko szkolonych — fundamentalna.

Rasowy

fizyk, wyrwany

ze snu, oceni prawdopodobieństwo,

że masa bozonu Higgsa

jest większa niż 1 TeV, jako bardzo małe (zakładając, że w ogóle taki obiekt jak bozon

Higgsa istnieje), co w jego ustach będzie herezją, jeśli jest on ortodoksyjnym, praktykującym statystykiem. Procedury i język statystyki matematycznej są w głębokiej nie-

zgodzie z naszym prostym zdroworozsądkowym zrozumieniem zagadnienia, co dobrze

widać u każdego początkującego amatora tej dziedziny, któremu trudno jest przyjąć taką gimnastykę umysłową za swoją. Twierdzenie Bayesa (9.31) w nowym środowisku interpretacyjnym czyni, że nie tylko na stare, dobrze znane problemy możemy spojrzeć nowym okiem, ale także możemy rozpatrywać nowe. Twierdzenie to pozwala rozważać prawdopodobieństwo różnych liczb

rodzin neutrin we Wszechświecie, pozwala zadać pytanie o szansę, że masa bozonu Higgsa jest większa niż 1 TeV, a także wiele, wiele innych pytań, włącznie z tymi

najprostszymi, odnoszących się do rzutów monetą i wydobywania kul z urny. Abyśmy mogli obliczyć prawdopodobieństwo hipotezy występujące po lewej stronie twierdzenia (9.29) lub (9.31), musimy znać trzy wielkości występujące po prawej stronie równości. Najprostsza z nich to P(D|H AW), którą uzyskujemy, podstawiając dane D do rozkładu znalezionego przy założeniu słuszności hipotezy H, co daje nam dobrze znaną funkcję wiarogodności £ z podrozdziału 7.1. Następny czynnik to

P(H|W). Określa on prawdopodobieństwo hipotezy H w śŚwietle dotychczasowej wie-

dzy, a więc niezależnie od danych D. Zwolennicy klasycznej teorii określają go mianem prawdopodobieństwa a priori. W nowej teorii odchodzi się od tego nazewnictwa i w li-

teraturze angielskojęzycznej używany jest powszechnie termin prior probability lub po

prostu prior. W mniemaniu autora, udatnie sens tego terminu w kontekście twierdze-

nia Bayesa można oddać, mówiąc o prawdopodobieństwie zaczątkowym, zalążkowym, zawiązkowym bądź w końcu zarodkowym, przy czym pierwsze z tych określeń jest za-

pewne najzgrabniejsze. Jeśli będziemy chcieli użyć rzeczownika, powiemy po prostu o zaczątku P(H|W). Wielkość P(D|W) to, technicznie rzecz biorąc, zaczątkowe praw-

dopodobieństwo danych D, jakie znajdziemy w eksperymencie i prawdopodobieństwo to moglibyśmy określić na mocy wiedzy W, ale bez odwoływania się do hipotezy H.

Wielkość ta jednak nie jest istotna dla dalszych rozważań, jako że nie zależy ona od

H, 1 jest zwykłym czynnikiem normalizacyjnym, gwarantującym sumowanie się praw-

dopodobieństw P(H;|D A W) wszystkich hipotez do jedności. Wielkość P(H|D AW) także ma swoje własne imię. Klasycy mówią o nim jako o prawdopodobieństwie a posteriori, a dla zwolenników współczesnej teorii, aby uciec od skojarzeń, jest to, oczywiście

w języku angielskim, posterior probability lub też krótko i rzeczownikowo: posterior.

Autor chciałby tu zaoferować Czytelnikowi terminologię: prawdopodobieństwo wynikowe.

Wszystkie te terminy charakteryzuje pewna słabość, wynikająca z nieodłącznego poczucia sekwencji czasowej, jaką one implikują. Jeśli pozostajemy w kręgu zastosowań

do fizyki, odczucie to jest pogłębiane przez nieuniknioną dla naszych schematów myślowych potrzebę poszukiwania przyczynowości. Te koncepcje nie mają żadnego związku

z równością Bayesa. Skojarzenia czasowe oznaczają jedynie to, że pewne elementy wy-

528

9, Stopień racjonałnego zaufania

stępują wcześniej, a inne później w toku naszego rozumowania. Na twierdzenie to należy

patrzeć tylko i wyłącznie jak na związek logiczny między prawdopodobieństwem za-

czątkowym i wynikowym, czyli taki związek, jaki widzimy w dowolnym twierdzeniu matematycznym. Jeśli dowodzimy, że z podzielności liczby przez cztery wynika jej podzielność przez dwa, to nie wyczuwamy tu żadnej korelacji czasowej ani nie poszukujemy związku przyczynowego między tezą a założeniem. We wstępie do niniejszego podrozdziału wspomnieliśmy,

że podział między dane

i wiedzę jest arbitralny i pozostawiony do uznania badaczowi. Czy nie prowadzi to do różnych wniosków, w zależności od tego, jak ten podział przeprowadzimy? Aby sprawdzić, czy taka groźba może się pojawić, przypuśćmy, że dysponujemy danymi

D, które posłużyły nam do wysnucia konkluzji P(H|D A W), wynikającej z twierdzenia Bayesa i przyjętego zaczątku P(H|W). Ponieważ naszą ambicją jest ulepszenie tego rezultatu, wykonaliśmy

własny

eksperyment,

który dostarczył danych

D'. Aby-

śmy byli konsekwentni w naszej analizie nowych danych, musimy przyjąć, że wiedza W” tuż przed wykonywaniem eksperymentu składa się z oryginalnej wiedzy W 1 „starych” danych D: W ' = DAW,a zaczątek P(H|W') to prawdopodobieństwo wynikowe P(H|D wynik

AW).

Po zakończeniu eksperymentu

„ PH|W')

,

w!

A AW)=P(D|HANW)—————— P(H|ID P(D'|W')

zabieramy się do pracy 1 otrzymujemy

,

=P(D|H

W następnym kroku, w miejsce zaczątku P(H|DAW) dzenia Bayesa (9.29) P(D|HADAW)

POD AW)="PODIDAW)

P(H|DAW)

ADAW)——---—.

P(D'|DAW)

podstawiamy prawą stronę twier-

0?

P(H|W)

P(DIW)

a wykorzystując prawo (9.21) mnożenia prawdopodobieństw

P(D|H ADAW)P(DIH AW) = P(D' ADIJH AW) oraz

P(D'|DAW)P(DIW)

otrzymujemy

,

P(H|IDADAW)=P(D Widzimy,

że niezależnie

=P(D Aa DIW),

, AD|HAW)——————-.. P(H|W)

od tego, czy stare dane

czy też połączymy je z nowymi

P(D'A DIW)

D

włączymy

do zasobów

2”, wniosek będzie taki sam. Wynik

wiedzy,

ten ukazuje

twierdzenie Bayesa jako pozbawiony sprzeczności wewnętrznych schemat postępowania, będący jednocześnie solidnym narzędziem do konsolidowania danych i integrowania

wiedzy.

9,3, Wnioskowanie probabilistyczne

-—-

529

Przykład 9.3.1 Twierdzenie Bayesa — hipoteza zagłady Nim przejdziemy do szerszej dyskusji twierdzenia Bayesa, jego własności i wnio-

sków, do których ono prowadzi, a zwłaszcza zastosowań w fizyce, rozważymy przykład „lżejszego kalibru” (K. D. Olum, http://arXiv.org/abs/gr-qc/0009081). Istnieje pewna szansa P(K|W), ze ludzka rasa będzie trwała na Ziemi krótko (teza K), gdyż ulegnie unicestwieniu z powodu np. katastrofy nuklearnej, upadku planetoidy, wyczerpania zasobów naturalnych lub też skażenia środowiska. Naturalnie, jest do pomyślenia, że żadne z tych zdarzeń nie nastąpi, co zapewni, z prawdopodobieństwem P(K|W) = I — P(KIW), pomyślne trwanie ludzi na naszej planecie jeszcze przez wiele, wiele lat. Zastanówmy się nad prawdopodobieństwem P(K |n, W) naszego nagłego końca, świadomi faktu, ze zajmujemy n-tą pozycję w szeregu wszystkich ludzi urodzonych na przestrzeni ostatnich, po-

wiedzmy, 200 000 lat. Z twierdzenia Bayesa otrzymujemy P(K|n, W) =

P(n|K, W)P(KIW)

= = . P(n|K, W)P(K|W) + P(n|K, W)P(K|W)

Wielkości P(n|K, W) i P(n|K, W) określają prawdopodobieństwa urodzenia się jako n-ta osoba w obu scenariuszach. Ponieważ możemy urodzić się, równie dobrze, na początku, w środku, jak i na końcu ery człowieka na Ziemi, więc naturalne będzie przyjęcie, że prawdopodobieństwa te są zadane odwrotnością całkowitych liczb Ny lub Ng ludzi, którym dane jest żyć w obu przypadkach. Podstawiając do twierdzenia Bayesa, znajdujemy, że

P(Kin.W)= |

1 — P(K|W Nę (KIW) 1 l z gy, PKW) + „-P(KIW) K

K

_

Nk (-)

K

P(K|W) P(KIW) +

Nk K

Jeśli nie chcemy, by wkrótce po nas ludzkość dokończyła swego żywota, to ułamek Nx/Nę powinien być mały. Wtedy prawdopodobieństwo P(K |n, W) jest bardzo bliskie jedności, chyba że zaczątek P(K|W) jest zdumiewająco mały: znacząco

mniejszy niż stosunek Ny/N;ę. Pchnęło

to niektórych

(B. Carter, Philosophical

Transactions

of the Royal

Society of London A310 (1983), 347; J. Leslie, Bulletin of the Canadian Nuclear

Society, May 1985, 10; J. R. Gott, Nature 363 (1993), 315; H. B. Nielsen, Acta Physica Polonica B 20 (1989), 427) do wysunięcia hipotezy zagłady (doomsday argument): nasze rokowania są mizerne — koniec.

ludzkość skazana jest na swój rychły n

9.3.2. Probabilistyczna indukcja Podstawowa zasada logiki stwierdza, że zaprzeczenie dowolnej, prawdziwej tezy A daje

tezę A, która jest fałszywa. Dokładnie taki sam schemat rozumowania odnajdujemy

w naszym prawie dodawania prawdopodobieństw: P(A|W) + P(A|W) = 1. Jeśli teza A jest prawdziwa, to P(A|W) = I, a stąd P(A|W) = 0. Gdy nie mamy do czynienia z tak

530

9. Stopień racjonalnego zaufania

klarowną sytuacją, reguła dodawania prawdopodobieństw wydaje się dość naturalnym rozszerzeniem dla logiki arystotelesowskiej.

Metoda rozumowania polegająca na wyciąganiu wniosków z przesłanek to dedukcja. Opiera się ona na fundamentalnym sylogizmie: ((A > B) AA) = B, który mówi: wiadomo, iż A implikuje B oraz stwierdzamy fakt A, więc wnioskujemy, że obowią-

zuje B. Istnieje także reguła przeciwna: ((B => A) A B) = A. Przypatrzmy się, jak twierdzenie Bayesa plasuje się w tym schemacie. Niech nasza wiedza W oznacza zasadniczą przesłankę rozumowania dedukcyjnego, tzn. W jest identyczne ze stwierdzeniem, że implikacja A => B ma logiczną wartość prawda. Niechaj nasze dane D to prawdziwa teza A, natomiast hipoteza H to teza B. Przepisujemy twierdzenia Bayesa

P(BIAA(A + B)) =

P(A|B A (A > B))P(BIA > B) _ P(AAB|A > B) PQAJA 5 B)

-.

PAJA=B)

Jeśli prawdziwa jest implikacja A = B, to teza A A B ma tę samą wartość logiczną co teza A (demonstruje to tabela 9.3), a tym samym co daje nam

P(B|A Aa (A >

P(A a B|A >

B) = P(AJA > B),

B)) = |, czyli prawdziwość tezy B.

FAP=F

FNF=F

vy

PNF=F

PNP=P

NY

PAP=P

PNF=F

U

m

FANP=F

v "v

FNF=F

uv

(4 U M U

yu

U

9 "N

Tabela 9.3. Własności operacji implikacji i koniunkcji

Przyjmijmy teraz, że nasze dane to teza B, przez co chcemy powiedzieć, że prawdą jest, że teza B nie zachodzi, a wtedy twierdzenie Bayesa ma postać

P(A|B A(A 2 B)) =

P(B|AA (A > B))P(A|A > B) _ P(BAAJA > B) P (B|A + B) | P(BIA>B)

Ponownie, zakładając prawdziwość implikacji A > B, znajdujemy z tabeli 9.3, że war-

tość logiczna tezy A A B jest zawsze fałszywa (z definicji implikacji, jako równoważnej wartości logicznej zdania A v B wynika, że teza A A B jest prawdziwa tylko wtedy,

gdy implikacja jest fałszywa). Oznacza to, że P(A A BIJA => B)= 0, a tym samym teza A jest fałszywa: P(A|B A (A = B)) =0. Widzimy, jak reguła mnożenia odtwarza, w skrajnym przypadku, zasady dedukcji logicznej.

_ _ Pamiętając, że nie obowiązują reguły ((A > B) AB) => A oraz ((A > B)A A) >

B, ani też reguły do nich odwrotne ((B > A)AA) > B, ((B > A)AB) > A, rozważmy mniej klarowną sytuację. Niech dalej obowiązuje wiedza W zadana wartością

9,3. Wnioskowanie probabilistyczne

S31

logiczną prawda dla implikacji A = B i niechaj będzie prawdziwa teza B. Co możemy powiedzieć na temat tezy A? Zapiszmy twierdzenie Bayesa

AE AA

207

P(B|A A(A > B))P(A|A=> B) _ P(AJA > B)

P(BIA > B)

* P(BIA > B)

gdyż z naszej tabeli 9.3 wynika, że jeśli wartością logiczną tezy A A (A > B) jest prawda, to teza B też jest prawdziwa. Jednakże założenie prawdziwości samej implikacji A

=

B nie pociąga za sobą bezwzględnej

prawdziwości

tezy

B. Oznacza

to, że

P(B|A = B) jest mniejsze, a co najwyżej równe jedności, a tym samym mamy związek

P(A|B A (A > B)) > P(A|A = B), czyli stwierdziwszy prawdziwość tezy B, teza A staje się bardziej prawdopodobna, choć niekoniecznie pewna. Obserwujemy tutaj, jak fałszywa reguła wnioskowania ((A > B)AB) + A nabiera probabilistycznych rumieńców. Przyznajmy — akceptacja dowolnej teorii fizycznej A następuje w wyniku zgromadzenia faktów eksperymentalnych B, choć

te mogą wynikać z wielu innych teorii. A)

Bardzo podobny proces zachodzi dla fałszywego schematu logicznego ((A > B)A

=

B. Przyjmijmy, że słuszna jest implikacja A >

B i przyjmijmy, że prawdą jest

A. Co możemy powiedzieć na temat tezy B? Stosowny układ twierdzenia Bayesa dla

tej sytuacji, to

B))P(B|A > B) PBIAA(A > B)) = P(A|B A (A +

P (A|A > B)

Jednakże przed chwilą pokazaliśmy, że P(A|B a (A => B)) wynika P(A|B A (A + B)) < P(AJA = B), toteż

>

P(A|A

>

B), skąd

P(B|A A (A > B)) < P(B|A > B). Widzimy, że jeśli utrącimy założenia, przestajemy wierzyć w tezę, choć wcale nie mamy takiego obowiązku.

Twierdzenie Bayesa, opisując proces zdobywania wiedzy, odzwierciedla nasze Intu-

icyjne zasady indukcyjnego rozumowania.

Nie chodzi nam tutaj o pewien szczególny

rodzaj indukcji, jaki występuje w matematyce 1 zwany indukcją matematyczną, jako że ta, mimo swej nazwy, jest par excellence schematem dedukcyjnym. Chodzi nam o codzienne metody wnioskowania, kiedy to próbujemy uogólniać pewne fakty. Na przykład, obserwując przez całe życie różne gatunki ptaków, dochodzimy do wniosku, na

drodze nieznanego nam bliżej procesu fizjologicznego w mózgu, zwanego indukcją, że upierzony stwór ze skrzydłami i czterema nogami nie istnieje w przyrodzie. Twierdzenie Bayesa usiłuje te schematy myśłowe porządkować i formalizować, nadając im matematyczną formę. Przedstawia sobą narzędzie poszerzające zasady klasycznej logiki o elementy, które moglibyśmy nazwać probabilistyczną indukcją. Nie jest to oczywiŚcie metoda niezawodna. Kant zawsze utrzymywał, że łabędzie są tylko białe. Istotnie, w całej Europie łabędzie są białe. Zoolodzy potrzebowali aż podróży do Australii, aby stwierdzić, że bywają też czarne.

532

9. Stopień racjonalnego zaufania

9.3.3. Estymacja parametrów z twierdzenia Bayesa Rozważmy zastosowanie twierdzenia Bayesa do klasycznego przykładu. Rozszerzymy omawiane w podrozdziale 9.2.4 zagadnienie dotyczące losowania kuli z urny, zakładając, że wiedza W dostarcza następujących informacji:

urna zawiera znaną liczbę N absolutnie identycznych kul, z jedyną różnicą,

= N — K jest

PEER

że znana liczba K pośród nich jest białych, a reszta M

z

czarnych. Nie wiemy kto, kiedy i jak umieścił kule w urnie. Losowanie to odbywa się z zawiązanymi oczami i jest bez zwracania. Niech tezy B, oraz C, oznaczają: e B,: w i-tym losowaniu wydobyto z urny kulę białą,

e C,: w j-tym losowaniu wydobyto z urny kulę czarną. Rozważmy prawdopodobieństwo P(B; A B,|W), które na mocy prawa mnożenia

(9.21) znajdujemy jako

P(B, A B,|W) = P(B,|W)P(B>|B, AW). Pierwszy czynnik w tym wyrażeniu już znamy — dany jest on związkiem (9.28). Drugi wyprowadzamy w sposób analogiczny, gdyż dodatkowa przesłanka B, w warunku mówi

nam, że po wylosowaniu kuli białej w pierwszej turze, w urnie pozostaje już tylko N— 1 kul, z czego K — I to kule białe. Łącznie daje nam to

P(B; A B|W)= KK

37

NN-1

Kontynuując, znajdujemy, że prawdopodobieństwo P (B; ABzA: : -:ABz,|W) wylosowania k białych kul w pierwszych k ciągnieniach, wynosi

KK-1 K-k+1l KKUN...r,

byłby zapisem wyniku n-krotnego losowania za pomocą liczby w systemie, którego

podstawą jest liczba m (jeśli rzucamy sześcienną kostką do gry, to liczba 3405 oznaczałaby, w systemie szóstkowym, że wykonaliśmy cztery losowania, wynikiem pierwszego była „czwórka”, drugiego „piątka”, trzeciego „jedynka”, a czwar-

tego „szóstka). Takie sformułowanie problemu ma tę własność, że uciekamy na-

wet od pojęcia losowania i jego repetycji. Jedyne, czym dysponujemy, to układ

535

536

9. Stopień racjonalnego zaufania

n-cyfrowych liczb, których pełny nabór wynosi m”. W warunkach zasady nieistotności każda z tych możliwości ma jednakowe prawdopodobieństwo, zadane przez

m". Niechaj przedmiotem naszego zainteresowania będzie podzbiór $ owych m” wyników, złożony z s elementów. Jakie jest prawdopodobieństwo, że k spośród n znaków ryr...r„ trafi do podzbioru S? Łatwiej będzie odpowiedzieć na to py-

tanie, jeśli zaproponujemy pewien model. Niech m oznacza liczbę komórek, do których może trafić kulka w pojedynczym losowaniu. Wykonujemy n losowań,

czyli umieszczamy n kulek w m komórkach. Jakie jest prawdopodobieństwo, że k kulek trafi do grupy $ komórek? Musimy obliczyć liczbę sposobów, na które taką

sytuację możemy zrealizować. Liczbę k kulek spośród n możemy wybrać na (>) sposobów. Owe k kulek w wybranych s komórkach możemy ułożyć na s* sposo-

bów, a pozostałe n — k kulek możemy rozłożyć wśród pozostałych m — s komórek na (m — s)""* sposobów. Daje nam to poszukiwane prawdopodobieństwo:

1

/ny,

B(kls, m,n, W) W) =— - (4):

(m ——5)" s)

2

(nys* (m=s)"*

= (Z) — - ——|-—

ny,

m

= (Z) 8'(1—09)” (1—09)”-,

gdzie 0 = s/m.

Widzimy, że u podstaw rozkładu dwumianowego nie leży wcale fizyczna niezależność poszczególnych aktów losowania. Jest to rezultat czysto kombinatoryczny,

wynikający z symetrii problemu wyrażonej brakiem preferencji dla któregokolwiek z m” możliwych rezultatów. Wynik ten musi mieć głębokie konsekwencje dla interpretacji pozostałych, szeroko stosowanych rozkładów prawdopodobieństwa, takich

jak Poissona, wykładniczego, gaussowskiego 1 ich pochodnych, które, jak to pokazaliśmy w rozdziale 5, wywodzą się ze schematu Bernoulliego.

n

Rozkład (9.34) posłuży nam za pierwszy przykład wnioskowania probabilistycznego.

Przypuśćmy, że dokonaliśmy, wg opisanego modelu, n losowań, w wyniku których uzy-

skaliśmy k białych kul. Niechaj liczba K białych kul w urnie nie jest nam znana. Oznacza

to, że nasza obecna wiedza W jest uboższa od wiedzy przedstawionej na początku niniej-

szego podrozdziału właśnie o tę informację, ale jednocześnie bogatsza jest o informację o liczbie k wylosowanych białych kul i liczbie n losowań. Chcemy ocenić liczbę K.

Wykorzystamy do tego prawo mnożenia (9.21), które zapiszemy w postaci P(k, K|n, N, W) = P(kln, N, W)P(K|n, N,k, W) = P(K|n, N, W)H(k|N,K,n,

W)

i rozwiążemy je względem poszukiwanego prawdopodobieństwa P(K|n, N,k, W)

P(K|n,N,k, W) =H(KIN,K,n, W)

P(K|n,N, W) P(kln, N, W):

(9.35)

uzyskując twierdzenia Bayesa (9.29) „skrojone” do naszego problemu. W związku tym

wielkość H(k|N, K,n, W) to funkcja wiarogodności P(D|H A W) przy zadanej liczbie K, czyli rozkład hipergeometryczny, do którego podstawiamy uzyskaną daną eksperymentalną k. Czynnik normalizacyjny P(k|n, N, W), czyli P(D|W), określimy za

9,3. Wnioskowanie probabilistyczne

537

moment, gdyż najpierw musimy podjąć decyzję co do zaczątku P(K|n, N, W), oznaczo-

nego we wzorze (9.29) symbolem P(H|W). Przypomnijmy, wielkość ta określa prawdopodobieństwa różnych liczb K białych kul w urnie, w warunkach naszej wiedzy

o urnie. Ponieważ wiedza ta jest niedostateczna w treści, które pozwoliłyby rozstrzy-

gnąć o uprzywilejowaniu jakiejkolwiek z dopuszczalnej wartości K = 0,1,2,...,N, więc przyjmiemy, w zgodzie z zasadą nieistotności (9.27), następującą postać zaczątku:

1 P(K|n,N,W)=——, (K|n "NZ

K=0,1,2,...,N.

9.36 (9.36)

Takie równoprawne potraktowanie wszystkich możliwości pierwszy zaproponował

Bayes, a Laplace podniósł je do fundamentalnej zasady niedostateczności (Principle of

Insufficient Reason), zwanej dziś także postulatem Bayesa

jeśli nic nie jest nam wiadome a priori o poszczególnych możliwych hipote-

zach, prawdopodobieństwa tych hipotez powinniśmy przyjąć równe.

Za pomocą

(9.35)

związku

(5.3) znajdujemy

SE

czynnik

normujący

4)=(„21)



(wś

m

n+ 1

prawdopodobieństwo

,

a stąd pełną postać rozkładu liczby K białych kul w urnie

PiknNkW= (7)

-|

(90,3).

k

K=k

N+ŁN

KN/N-K

K+1-0(7)(-:)

"LP

(21)

2

/K+ŁIN/N-K (200,3)

k+1 —1=(N+2)—— — 1, (A+

nF2

gdzie ponownie wykorzystaliśmy związek (5.3). W sytuacji, gdy liczby N, n oraz k są duże, wynik ten różni się marginalnie od mody (9.38), co wskazuje na narastającą

symetrię prawdopodobieństwa wynikowego jako funkcji K. Jak możemy określić margines niepewności dla naszego oszacowania 6 ułamka bia-

łych kul w urnie? Jako stosowne narzędzie wybierzemy wariancję rozkładu wynikowego. Nie będziemy podawać szczegółowych obliczeń, odwołamy się jedynie do następującej

własności współczynników Newtona:

(K +2)(K + v(3) = (k+2D(k + v(; k+22).

która istotnie łagodzi trud obliczeń:

| k+1 k+1 Y[K]= ——— | 1 — |N+20(N —n). —riaęz( 3)! 2X ) Tak oto rozwiązaliśmy prosty problem probabilistyczny (w konwencjonalnej teorii określilibyśmy go mianem: statystyczny) znalezienia estymatora punktowego i przedzia-

łowego (używając języka statystyki matematycznej), wychodząc z jednego narzędzia —

twierdzenia Bayesa — i wykorzystując standardowe metody teorii prawdopodobieństwa. Na miejscu będzie tutaj jedna uwaga dotycząca wykorzystanych pojęć wartości oczekiwanej i wariancji, wywodzących się ze „starej” teorii. Zgodnie z tym, co powiedzieliśmy na temat różnic między konwencjonalną i nową, współczesną teorią prawdopodobieństwa, wielkości te nie opisują wielkości K jako zmiennej losowej, gdyż takie pojęcie w nowej teorii nie istnieje. To, co te wielkości opisują, odnosi się nie do ocenianej wielkości K, lecz do rozkładu prawdopodobieństwa tej wielkości. Dłatego (K) to nie wartość oczekiwana wielkości K, która miałaby się jakoby zmieniać w niekontrolowany sposób, a wartość oczekiwana prezentowałaby typową wartość tej wielkości, lecz jest to wartość oczekiwana rozkładu wynikowego P(K |n, N,k, W). Wielkość ta opisuje cechę

rozkładu,

a nie własność

K. Podobnie

ma się rzecz i z wariancją V[K|]. Wielkość

ta

nie podaje nam rozmiarów fluktuacji wielkości K, lecz szerokość rozkładu wynikowego.

Za pomocą dyspersji D[K]

oceniamy rozsądny obszar rozkładu, mierzony jego argu-

mentem, w którym jest on istotnie różny od zera, a przez to zakres możliwych wartości liczby białych kul, jakie mogą się znajdować w urnie. Interpretacja ta, wraz z odrzuceniem pojęcia zmiennej losowej tłumaczy, dlaczego odstąpiliśmy od specjalnej notacji (czcionka bezszeryfowa) dla argumentów w wielkościach oczekiwanych i wariancjach, jakie pojawiły się powyżej. Nowe zastosowanie starych wielkości jest przyczyną ucieczki od terminologii jednoznacznie kojarzonej z konwencjonalną teorią. W szczególności, dla wartości oczekiwanej

9.3. Wnioskowanie probabilistyczne

539

stosowany jest w literaturze angielskojęzycznej termin przewidywanie (prevision), który

autor chciałby zastąpić słowem nadzieja rozkładu lub po prostu nadzieja, przywracając teorii prawdopodobieństwa, jej stary, dawno zapomniany termin, dobrze oddający

sens dyskutowanej wielkości. Termin wariancja (a tym bardziej dyspersja) nie znalazł

jeszcze swego „współczesnego” zamiennika. -——

Przykład 9.3.3

Reguła następstw Laplace'a Z. uwagi na znaczenie historyczne, znajdziemy prawdopodobieństwo tezy B,.,, że po wyciągnięciu n kul z urny, wśród których było k kul koloru białego, następną

kulą, jaką wyciągniemy, będzie kula biała. Jeśli zdefiniujemy tezę Dz: w urnie znajduje się K białych kul, to teza Dy v D, v D, V::: v Dy jest bez wątpienia słuszna, dlatego też

N

P(B,„|W) = P(B,, A (DOY Di V...V Dy) |W) = | ,P(B,. A DklW) K=0

N

= > P(B,,.|Dx A W)P(Dk|W). K=0

Pierwszy czynnik pod znakiem sumy to prawdopodobieństwo wydobycia białej kuli przy następnym po n-tym losowaniu, przy założeniu, że w urnie pierwotnie znajdowało się K kul białych, dlatego też dane jest ono wyrażeniem typu (9.28)

K-k

P(B,„„|DkAW)=——,

N—n

natomiast drugi czynnik to rozkład wynikowy razem, otrzymujemy

(9.37). Składając obie informacje

raw) ERZE(O(Z5) K=

Posiłkując się wynikiem dla nadziei (K), znajdujemy

P(B,„|W)

k+l1

+2

(9.39)

Uzyskany rezultat zwany jest regułą następstw Laplace'a. Odegrała ona, bę-

dąc źródłem wielu kontrowersji, ważną rolę w historii rachunku prawdopodobień-

stwa. Za liczne nieporozumienia odpowiedzialny jest sam Laplace, który reklamował swą regułę, jak współczesny szef działu sprzedaży, twierdząc, że skoro Świat powstał 5000 lat temu (25 lutego w roku 3123 przed naszą erą), to gotów był on

dać 1826213 (5000.365, 2426 = 1826213) franków do jednego, że jutro wstanie

Słońce. Gdyby wziąć to rozumowanie za dobrą monetę, musielibyśmy uznać, że

szansa zachowania przez Słońce takich obyczajów przez następne 5000 lat wynosi niewiele więcej niż 1/3: 1 226

213

EL (; 826213 + )

1826213

= 0,368.

540

9. Stopień racjonalnego zaufania

Oczywiście, nie powinniśmy podejrzewać Laplace'a o taką naiwność. Uczony ten miał na swym koncie wiele istotnych osiągnięć z zakresu astronomii i dobrze

wiedział, że za wschody i zachody Słońca odpowiedzialne są znane i sprawdzone prawa fizyki Newtona, a nasza wiedza o zjawiskach astronomicznych nie sprowadza

się do prymitywnej alternatywy. Zapominało o tym jednak wielu jego następców, którzy z całą powagą, a przeciw posiadanej wiedzy, atakowali regułę następstw np. w następujący sposób: roczne dziecko ma szansę tylko 2/3 dotrwania do końca

drugiego roku swego życia, podczas gdy jego prapradziadek w wieku 98 lat ma szansę przeżycia następnego roku znacznie większą i bardzo bliską jedności, bo

równą 99/100.

TI

Rozważmy, jakiej zmianie będzie ulegał problem estymacji dyskretnego parametru K, jaki omówiliśmy wyżej, jeśli zarówno liczba K białych kul, jak i liczba N

wszystkich kul będzie bardzo duża. Gdybyśmy, zamiast hipotez o liczbie K rozważali

hipotezy dotyczące stosunku 6 = K/N, wtedy liczba możliwych hipotez na odcinku [0; 1] będzie bardzo „gęsta”, przy czym oczekujemy, że prawdopodobieństwa wynikowe dla hipotez, dla których wartości 6 będą zbliżone, będą niewiele różniły się od siebie. Naturalne stanie się wtedy pytanie nie o prawdopodobieństwo wynikowe konkretnej wartości 6, lecz o prawdopodobieństwo wynikowe, że wartość ta znajdzie się w pewnym przedziale A6 wokół wartości 6. W ten sposób problem przekształci się w zagadnienie oceny ciągłego parametru 0, zadanego przez granicę stosunku K/N, gdy zarówno

liczba K, jak i liczba N dążą do nieskończoności. Spójrzmy na twierdzenie Bayesa (9.31) P(H,|DAW)

=P(DIH,

AW)

P(H,|W)



>” P(D|H, A W)P(K,|W) i=|

1 zastanówmy się, jakiej ono ulega zmianie, jeśli liczba hipotez wzrasta do nieskończo-

ności, wypełniając „szczelnie” odcinek [0; 1]. Wielkość P(D|H;, A W), czyli funkcja wiarogodności nie stwarza specjalnych problemów, gdyż jest to granica wyrażenia na

prawdopodobieństwo tezy, nazwijmy ją BęyC„-k, określającej kolejność pojawiania się kul różnych kolorów, przy czym kul białych znaleziono łącznie k, a czarnych n — k, co

opisane jest wzorem (9.32). Jak to wynika z dyskusji wzoru (9.33), prawdopodobieństwo

wylosowania kuli białej w ciągnieniu o numerze i +- 1, jeśli wcześniej wylosowaliśmy już k takich kul oraz i — k kul czarnych, dane jest przez K-0o,K/N->8

N —i

natomiast prawdopodobieństwo wylosowania kuli czarnej N-K-(i-k) N —i

=

N N —i

_—

K+i—k N —i

— N>0%,K-—>00,K/N—>8

1-9.

9,3. Wnioskowanie probabilistyczne

541

Widzimy, że pierwsze losowanie daje nam funkcję wiarogodności jako 0 bądź

1 —9,

a kazde następne powoduje uzupełnienie jej o kolejne takie czynniki, prowadząc w rezultacie do ostatecznej postaci

P(DIH, AW) = P(BpC,-vlW)

NoE

EIN

L (k, nio, W) =0'(1—0)7"*.

Zauważmy, że taka analiza wyklucza trudności związane z decyzją o zakończenia eks-

perymentu, które były źródłem kłopotów w przykładzie 9.1.4. W konwencjonalnej teorii

liczba n losowań może być, decyzją eksperymentatora, umieszczona w warunku, podczas

gdy obecnie zalicza się ona do danych D, gdyż to dane właśnie określają tę wielkość, a nie przyjęta z góry reguła zatrzymania.

Oczywiście, możemy założyć, że dane będziemy zbierać tak długo, aż nazbieramy n przypadków. Wtedy funkcją wiarogodności jest P(D|n, H; AW). Jednakże, skoro w danych D mamy informację zarówno o liczbie n, jak i k przypadków, zatem P(D|n, H, AW)

= P(k,nlin, H;, AW)

= P(kin, H; AW)P(nln, H; AW)

= P(kln, H;, NW),

gdyz P(nln, H; AW) = 1. Oznacza to, że powtarzanie się jest bez znaczenia. Bez względu na to, czy w danych zawarta jest informacja, którą znamy z wiedzy wstępnej, czy też nie — funkcja wiarogodności pozostaje bez zmiany. Własność ta powoduje, że reguła zatrzymania w teorii bayesowskiej przestaje odgrywać jakąkolwiek rolę. Otóż z prawa mnożenia prawdopodobieństw otrzymujemy P(H,,n|DAW)

= P(H,;|n, DAW)P(n|DAW)=P(nlH;

a ponieważ P(n|D AW)

= 1, a także P(n|H; ADAW)=|1, P(H;|n, DAW)

Tym

samym

dowolne

kryterium

ADAW)P(H;|DAW), więc

= P(H,|IDAW).

określające

koniec

(9.40)

eksperymentu jest równie

i każde z nich doprowadzi nas do tej samej postaci rozkładu wynikowego. Zajmijmy

się teraz prawdopodobieństwem

wynikowym.

Wielkość

dobre

ta ma określać

prawdopodobieństwo, że ułamek 6 znajdzie się w przedziale d9 wokół wartości 6. Określa nam to P(H;|D AW) jako wielkość infinitezymalnie małą, proporcjonalną do prze-

działu dó. Współczynnik proporcjonalności to funkcja w(6|k, n, W) gęstości rozkładu wynikowego dla poszukiwanego parametru 6. Konsystencja matematyczna wymaga, by prawdopodobieństwo zaczątkowe także było dane wyrażeniem z(6|W) do, gdzie z(6|W) jest gęstością dla tego parametru. W konsekwencji suma w mianowniku po wszystkich hipotezach przeobraża się w całkę względem wartości tego parametru, dając ostatecznie

ciągłą wersję twierdzenia Bayesa

w(ólk, n, W) = - £(k, nić, W)z(61W)

J £(k,n|0, W)z(8|W) do 0

(9.41)

542

9. Stopień racjonalnego zaufania

Twierdzenie to łatwo możemy uogólnić dla przypadku, gdy zarówno poszukiwany

parametr O, jak i wielkości mierzone x przybierają wartości ciągłe z dowolnego obszaru:

w(6|x, W) =

CH DZEW)

f LQ, W)z(6|W)do

(9.42)

—00

Zastanówmy się teraz, jak zasadę nieistotności, wyrażoną przez (9.36) dla przypadku

dyskretnego, możemy zaadaptować do nowej sytuacji. Wiedza W podpowiada nam, że skoro każda z hipotez o wartości K jest równie prawdopodobna, więc liczba hipotez w przedziale AK wokół K jest taka sama dla każdej z wartości K i zależy jedynie od

szerokości przedziału AK. Stąd też liczba hipotez o wartości stosunku 8 w przedziale

A8 także będzie określona jedynie szerokością tego przedziału i nie będzie zależała od

samej wartości parametru 6. Wnioskujemy stąd, że w granicznym przypadku prawdopodobieństwo zaczątkowe z(6|W) parametru 6 powinno być zadane rozkładem jednostajnym w przedziale określonym przez zakres zmienności parametru, czyli na odcinku [0; 1]:

z(8|W)=l, Prawdopodobieństwo

zaczątkowe,

0.a _|_H(N (N + 1)2

_ 1

NĄ!

Cc

|N, , Ną, A: Ng, B; W)

Ng!

x

- No Nc!(NA — NC)! (Nz — NC)! y N=Nmin

1 N=NIN — NZ)! l N+1(N-N,—Nz+NQ)! (N+1)!

547

548

9. Stopień racjonalnego zaufania

gdzie jeden z czynników N +-1 włączyliśmy do funkcji N!, natomiast N,, = N, +

Ng — Nc, co wynika z faktu, że niewątpliwie liczba N wszystkich cząstek nie może być mniejsza od tej, jaką zarejestrowały nasze detektory. Asymptotycznie wyrazy

sumowanego szeregu zachowują się jak N""c"*, a ponieważ zazwyczaj liczba Ne

jest duża, więc są one bardzo szybko zbieżne do zera, dlatego też górną granicę sumy możemy bezpiecznie przesunąć do nieskończoności. Jeśli takie przybliżenie

będziemy także stosować we wszelkich obliczeniach, w których wystąpi sumowanie po N, to czynnik normujący możemy zapisać w uproszczonej postaci Ż =

NĄ! NZ! NC!(NA — NO)! (NB — NO)!

3 N=Npin

I (N-N!(NNZ)! l — N+1(N-N,=—Ns+N(N+ 1)! O)!

a o zaczątku P(N|W) zapomnieć, gdyż czynnik ł/N» uprości się za każdym razem 1 zniknie z dalszych wyrażeń. Dokonamy teraz paru podstawień: N="N—N"Ng+NO

ZN

—nyp,

NN=n+Ng—No=zn+ng,

N=—Ng=n+N,—Ncz=n-+ny,

NąB = Ną

hp + Nę = Nin;

które pozwolą zapisać wyrażenie na Z w nieco innej formie

- Ne!((Na — NO)! (Ns— NO)! żn+nys+tl I (N, + 137 (NZ + 1) FN + X

c —

(n+tnąp +1)!

ni

>

1)F'(n4 + 1)T' (ng + 1)

l Tn+n4 +1)T(n+n.+1) 1 n + nąp +1 T' (n + nyg +2) nt

Sumy tu podanej nie można obliczyć w sposób analityczny, jeśli nie dokonamy pewnego przybliżenia. Otóż, w warunkach każdego eksperymentu zajmującego się badaniem efektywności detektora, liczba n 45, przedstawiająca łączną liczbę cząstek widzianych przez oba liczniki, jest duża, dlatego też z wyśmienitym przybliżeniem ułamek (n + n4g + 1)! możemy zastąpić przez (n + nąp +2)" Z

2

F(N,

- PN

+

1)F' (NB

+ 1)

PF

(ną4B

+ 3)

X

+ DT mas +3) D' (na + 1) (ng +1)

x 2,—

in!

F(n + nap + 3)

1 wykorzystać definicję funkcji hipergeometrycznej F (a, b, c; x) F(a,b,c;x)

=

I (c)

3 Ir (n +a)T'(n +b) x"

rf0rtb 4

Tn+o)

nn

która ma tę szczęśliwą własność, że znamy jej zamkniętą postać dla jednostkowej wartości argumentu x

_ FP(o)F'(c —a —b)

F(a,b,cGl)=TCZArc=b)

549

9,3. Wnioskowanie probabilistyczne

Po podstawieniu 1 uproszczeniu otrzymujemy ostateczną postać czynnika normu-

jącego Z

„ TN, + DT (NZ + 1) =

TNOEDT(st3)

F(n,

74

+ l,ngp

+1, Nąp + 3, 1)

*

m

)

=

l

(NA + 1)(N5 + 1)

Dla kompletności zapiszmy jeszcze raz rozkład wynikowy, wyrażając go przez N, Ną, Ng OTAZ Nąp, Zachowując także tu i ówdzie, dla wygody, symbol No: w(n, Pą, Pelna, NB, Nap, W)

l

F'(n+nąg + 1)

"ZTN+ŁDTn,

bo

a+Nc

+DT(nz +1) n!?*

(= pa)

rea p "e(1— pzy"

Pozostawimy Czytelnikowi wykazanie, że wartości parametrów py, pp Oraz N, które maksymalizują ten rozkład, to znane nam oceny znalezione w przykładach

2.4.2, 5.4.10 oraz 7.2.9. Zajmiemy się obliczeniem innych ocen, zadanych nadziejami. Zaczniemy od

nadziei efektywności pą. Marginalizując względem p,, usuniemy najpierw zależność od efektywności pp: w(n,

ALTELTE

l

HAB;

w)

5 (n +nyąg

+

1)

"ZTN+DTn,+DT(n

—l

py: *"C(l



PA)”

X

+1) ni

l - |

BAC

(|



ps)" "A

dpp

0

1 T(N; +1) Ta+n,+D1 pa — p) "ZTN+DTn,+DTnz+D) ntnyatl ni” PA

n+ng

1 obliczymy nadzieję l

F(NZ + 1)

(pa) = 7 TNc+DTr+DTO+ D —

X >

[(n+n,y + 1) 1 |

0 ntnatl

nl

1

PA7

A+NC+1

( I — PA) =+eB d PA

0

_1

F(N, + 2)T (Nz + 1)

o

x

a )

Fn+n.a WE

I'(n

+)Fn+nzs+1) +

Nnąp

+ 3)

1 nt

Ponownie, sumy tej nie potrafimy obliczyć analitycznie, jeśli nie zastosujemy przy-

bliżenia analogicznego do tego, jakiego użyliśmy przy obliczaniu czynnika Z. Tym razem musimy w wyrażeniu n + n4g + 1 zastąpić jedynkę trójką

.

9. Stopień racjonalnego zaufania

(Pa)

[le

550

1 TNA +2)T(Nz + 1) Z

T(NC

y_

1)7' (nąB

+

+ 4)

FI (n,

+

1)7' (ng

F(n+n, + DFn+ng+1)



_

T (nas + 4)

-ZT(NC+DT(nas +4) _ (N4+ D(Nc +1) „Ne (Na +20(Ns +2)

F(n,

+

1)

L

I (n + nąp +4)

I PF(NA + 2)F (NZ + 1)

x

n! +

1, ng

+ 1,

Nąp

+4;

1)

Naj

Wynik ten jest w znakomitej zgodności z rezultatem konwencjonalnym. Opanowawszy technikę funkcji hipergeometrycznej, łatwo znajdziemy wyraże-

nie na wariancję efektywności detektora A. Nadzieja kwadratu efektywności tego

detektora wynosi 2

PA

„_ TNA +3)T (mas + 3)F(na + 1, ng + 1, nas F3; 1)

TOY DTGwE5FGat nat ln t3D

_ (Na + 1)(NC + 1)(Nc + 2)

— (Na Ł3)(N3 + 2)(N5 +3)

skąd otrzymujemy wariancję y [Pa]

s (NA + 1)(Nc + 1)(NC + 2) s (N + D(NC + 1)? x (pa) U — (PA) (NĄ + 3)(Np +2)(N5 +3) (N4 + 2)7(NB + 2)? Ng

Podobne rezultaty otrzymujemy dla efektywności detektora B, wystarczy jedynie indeks A zastąpić indeksem B (pz)

[>]

"8

Z

(NZ + 1)(NC + 1)

(N3+D(N1+2)

„Ne

Na

Z (Nz + 1)(VCc + 1)(NCc + 2) a (Nz + 1)Ż(NC + 1)? m (Ps) (l — (Pz))

(Nz + 3)(NA + 2)(N4, +3)

(Ns+27(N, + 2)?



Przejdziemy teraz do oceny całkowitej liczby N przypadków. Obliczamy

(N+ 1) = (n+ nag + 1)

_1 DI(N, + 1)T (NZ + 1) > Z T(Nc+1)F' (ny + 1)T' (ng + 1) z yo —

tras t 1Fn+ną N +n,B + 1

+I)Tn+ng.+1) 1

I' (n + nąp + 2)

n!

i widzimy, że nie musimy dokonywać żadnych przybliżeń:

(N+1)=

l T(N, + DT (NB + 1) x Z T(N,+1)T' (n4 + 1)T' (ng + 1)



rTn+tn,+UT(n+ng+1)

e

F' (n + nąp + 2)

93 _

| F(N4 + 1)F(NZ + 1)

"ZT(NC+ DT (nas +2)

I



n!

F (ną+ l, l,ng+ 1, 1, nąp + 2;1)= )

ZN. .

9.3. Wnioskowanie probabilistyczne

Po podstawieniu, otrzymujemy (N, + 1)(N3 + 1) _12

(N) 2

NANe

Nc



Zajmiemy się także wariancją. Obliczymy nadzieję kwadratu wielkości N + 1:

(N+ 1)

I'(N, + DT (Np + 1)

=—-

ZT(N

x

+ 1)T'(n, + 1)7 (ng + 1)

m T(n+n, (n +nąg + 1) > 48

_1

x

+DT(n +np+1) 1 — FT (n + nąpg + 2) n!

T(N, + DU(NZ + 1)

"ZT(N.+1)T (ną + 1)T' (ng +1)

>

y rn+n, +]Tn+n.+1) 1 0

I'(n + nąg + 1)

_1ITWA+DT(Nz+1) Z TN + DT (naz + 1) _d1 NaNB " Z(N—

n!

F(n, + 1,ng+ 1,nąp + 1; 1)

DNC

a w rezultacie

(N+1)7)2

N4(NA + 1)Np(NZ + 1)

(Nc — 1)Nc

|

Ponieważ dla wariancji obowiązuje załeżność Y [x + a] = Y[x], gdzie a jest dowolną stałą, toteż YTN]=

NANA + DNS(Ns +1)

(Na +1) (Nz + 1)” = (N) 1 — (pa) — (PB)

(Nc — 1)Nę

NC

(Pa) (PB)

Wynik ten jest jednak ułomny, gdyż dopuszcza ujemne wartości wariancji. Jest to artefakt przybliżenia zastosowanego przy obliczaniu czynnika normującego Z. Przybliżenie l 1 n+nągp+1

- n+Nąp +2

jest zbyt grube. Subtelniejsze będzie:

l

5

n+nąs+tl

l

l

n+nąs +2 * (n + nas +2)(n + nas +3).

W konsekwencji otrzymujemy nowy czynnik normujący

-

- (Na +1)(Nz + 1)

(+

75675)

(NA + 2)(N3 +2)/'

który asymptotycznie nie różni się od pierwotnego. Dostarcza on nowego wyrażenia dla nadziei liczby cząstek

551

552

9. Stopień racjonałnego zaufania

(N+ 1) = (N, + D(Ns +1)

MAJ

Ne

1 +



t

l



(NĄ + 2)(N5 + 2) 1 „zdrowego” matematycznie dla wariancji

(I = (PA) — (PB))

VIN]I=(N)

|

Przykład 9.3.6 Estymacja stałej Natury Wróćmy do przykładu 2.6.8 i rozważmy wpływ, jaki hipotetyczny rozkład (2.28) stałych Natury wywiera na wyniki uzyskiwane przez eksperymentatorów. ważmy pomiar x;, jeden spośród n, opisany modelem rozkładu Gaussa N

(x,10,

Oi,

Ww)

l

= 4)

gdzie

© jest poszukiwaną

wartością

wszystkich takich pomiarów wynosi L (x|8,0, W

x

21

0;

(

(x; —

P

i=1

Roz-

|

207

stałej Natury.

-mp|-57

Funkcja

|

wiarogodności

dla

57 — 6) )Fzszz 0;

Ponieważ znamy postać (2.28) prawdopodobieństwa zaczątkowego

z(8|W) x 4

(9.47)

możemy obliczyć prawdopodobieństwo wynikowe

vółe.0.W) a gap (-z7 0). —_PpYŻ

i==]

i

Wartość modalną możemy łatwo znałeźć, jeśli z prawdopodobieństwa wynikowego wyciągniemy logarytm, który różniczkowany względem parametru 6 dostarcza równania

a tł 41 — Inw(ó|x,o, W) = -5 +27 00

Po przekształceniu, uzyskujemy równanie kwadratowe

BY

pO

t1=0.

zz] 0;



o rozwiązaniu Omoda

=

NI

-——

(Pa) (PB)

(X +

/37 407),

9.3. Wnioskowanie probabilistyczne

gdzie

,

Xw

25m2 i=1

=

Oi

5

oraz

ń

i=1 0;

2

I

m

w

zi

—= 2

|

—. o?

Gi

Z dwóch dopuszczalnych rozwiązań wybieramy to ze znakiem „+, ponieważ drugie rozwiązanie opisuje minimum rozkładu wynikowego. W wielkości x, odnajdujemy średnią ważoną pomiarów, a o„ to jej wariancja (podrozdział 4.3). Jak to widzieliśmy już wcześniej, także i w tym przypadku duża liczba pomiarów prowadzi do konwencjonalnego

wyniku

Onoda £ xw. Jednakże

dla kazdej

skończonej

liczby

danych nasz wynik jest, co do wartości, mniejszy niż standardowa Średnia ważona.

Poprawka, jaką ustanawia nasz nowy wynik, wynika z monotonicznie malejącego przebiegu zaczątku, wskazującego na preferencję dla małych wartości stałej. Spójrzmy, jakiej zmiany w ocenianej wartości możemy się spodziewać, je-

Śli zastosujemy nową formułę. Kompendium Review of Particle Properties podaje dla czasów życia mezonu r” następujące cztery wartości (w jednostkach 1077 s): 8,97 + 0,28, 8,2 + 0,4, 5,6 + 0,6 oraz 9,0 + 0,68 i znajduje ich średnią ważoną: 8,4 + 0,6. Jeśli powtórzymy obliczenia wykonane przez autorów kompendium i zachowamy większą liczbę cyfr znaczących, wtedy dla Średniej otrzymamy

następujący wynik: (8,385 + 0,611) : 107''s. Zastosowanie nowej formuły prowa-

dzi do wartości 8,371 - 107''s. Widzimy, że różnica między dwoma podejściami

stanowi znikomy ułamek niepewności wartości mierzonej, nawet w sytuacji, gdy

dysponujemy jedynie czterema pomiarami. Istotniejszej poprawki moglibyśmy oczekiwać jedynie wtedy, gdy pomiarów jest bardzo mało — jeden lub dwa, a błędy indywidualnych pomiarów stanowią

istotny ułamek wartości mierzonej. Wtedy też powinniśmy być bardziej ostrożni w cytowaniu wartości tej stałej, o ile jesteśmy przekonani o słuszności tezy głoszącej istnienie uniwersalnego prawa określającego rozkład stałych Natury. Gdyby odkrywcy (J. K. Christenson, W. J. Cronin, V. L. Fitch i F. Turlay, Phys. Rev. Letters 13 (1964), 138), łamania symetrii parzystości kombinowanej CP ulegli ta-

kiemu poglądowi, wtedy zamiast wartości (2,0-E0,4) : 107” dla stosunku rozpadów mezonu K; na dwa piony do wszystkich kanałów rozpadu podaliby raczej wartość (1,9 + 0,4) : 107. Zauważmy jednak, że wynikowy rozkład w(60|x, o, W), z uwagi na osobliwość

w zerze, nie jest normowalny, tym samym nie możemy określić wariancji i nadziei

parametru 0, jeśli arbitralnie nie ograniczymy jego zakresu zmienności.

7

Przykład 9.3.7 Odplatanie wg Bayesa Dotychczas zajmowaliśmy się odzyskiwaniem parametrów rozkładu. Teraz wykorzystamy twierdzenie Bayesa do odzyskania całego rozkładu z danych doświad-

czalnych. Abyśmy byli bardziej konkretni w naszych rozważaniach, rozpatrzymy jednowymiarowy, teoretyczny rozkład z,(x|W) argumentu x. Może to być np. rozkład kątowy w reakcji nukleonów. niskiej energii z jądrem. Dobrego opisu takiej

554

9, Stopień racjonalnego zaufania

reakcji, przy energiach do kilkunastu MeV, dostarcza tzw. model optyczny. Z mo-

delu tego można wyprowadzić wyrażenie na różniczkowy przekrój czynny, czyli właśnie rozkład kątowy. Rozkład z,(x|W)

(indeks t ma właśnie oznaczać „teore-

tyczny”) jest przykładem zaczątku wyprowadzonego z posiadanej wiedzy. Podob-

nie, dysponując dodatkową wiedzą o detektorach użytych w eksperymencie, ich własnościach i zastosowanych procedurach, możemy pokusić się o ustanowienie zaczątkowego rozkładu zą4(y|W) danych, jakie uzyskamy w tymże eksperymencie.

Z formuły (9.30) pełnego prawdopodobieństwa wynika, że obie wielkości po-

łączone są ze sobą równaniem Fredholma (gdy znany jest zaczątek za stojący po lewej stronie równości, a poszukiwany jest zaczątek z,): 00

OW) = | role WzlslW)dz. gdzie funkcja r(y|x, W) zdolności rozdzielczej eksperymentu, odpowiedzialna za wędrówkę przypadków z przedziału Ax do przedziału Ay, odgrywa rolę funkcji wiarogodności i spełnia warunek unormowania je

| rot Wydy=l1 dla każdej

wartości parametru x. Warunek te wyraża zasadę zachowania liczby

przypadków: wszystkie, które znajdują się w obszarze Ax wokół punktu x, musimy odnaleźć w pełnym spektrum wartości y. Najprostszy sposób rozwiązania równania Fredholma polega na przekształcenia go do wersji dyskretnej i przekształcenia go w układ n równań na n niewiadomych gdzie:

P, = RP, P; = (P;(Q7),..., Pa(yn)) to zestaw oczekiwanych doświadczalnych czę-

stości rejestracji przypadków w przedziałach histogramu zmiennej doświadczalnej y, P, =

(P,(x,),..., P,(x,)) to zestaw poszukiwanych częstości w przedziałach

zmiennej x, natomiast macierz R to kwadratowa macierz wymiaru n x n elemen-

tów R(y,|x;) opisujących migrację przypadków. Rozwiązanie otrzymuje się metodą

algebraiczną, odwracając macierz R (patrz podrozdział 2.7). W podejściu bayesowskim (Ali Mohamad-Djafari, Bayesian Inference for Inverse Problems, http://arXiv.org/abs/physics/01 10093) wysiłek związany z rozwiązaniem równania Fredholma skierowany jest na wyprowadzenie rozkładu wynikowego w(x|y, W), warunkowanego wynikami eksperymentu:

w(x|y, W) a r(y|x, W)z,(x|W). Zobaczmy, jak to podejście funkcjonuje w prostej sytuacji, gdy mamy dwie, mieszające się między

sobą klasy przypadków.

Niech jako model posłuży problem

odzyskania ułamka p przypadków sygnału w warunkach pomiaru z zaburzającym tłem. Przyjmijmy, że w eksperymencie wyprodukowana została ogólna liczba n wszystkich przypadków, z których k to przypadki sygnału, a pozostałe są zanie-

czyszczeniem. Wiemy, że modelem dobrze oddającym takie zachowanie jest model rozkładu dwumianowego B(k|n, p, W), przy czym parametr p jest wielkością poszukiwaną. W procesie rejestracji, liczby k oraz n—k przypadków mieszają się mię-

dzy sobą, w wyniku czego znajdujemy pewną liczbę m przypadków sygnału oraz

9,3, Wnioskowanie probabilistyczne

n — m przypadków tła (przyjmiemy, że nasz eksperyment nie gubi przypadków). Zastanówmy się teraz nad modelem, który opisałby owo mieszanie. Przyjmijmy, że każdy z przypadków sygnału może być z pewnym prawdopodobieństwem © zarejestrowany poprawnie jako sygnał oraz z prawdopodobieństwem 1 — a jako tło, podczas gdy każdy z przypadków tła może zostać z prawdopodobieństwem 1 — 8 mylnie zaklasyfikowany jako sygnał oraz poprawnie jako tło z prawdopodobień-

stwem 8. Model ten determinuje związek między nadziejami (m) oraz (n — m) a liczbami wyprodukowanych przypadków sygnału i tła w formie liniowej relacji:

(wm)=hta

51)

=R(,-.).

którą, z uwagi na założenie o braku strat, możemy zastąpić jednym związkiem:

(m) = (a + B — 1)k + (1 — B)n. Tym samym funkcję zdolności rozdzielczej eksperymentu możemy opisać modelem dwumianowym r(m|n, k, W) = B(mln, n(k, a, B), W), gdzie

k

u(k, a, B) = (a + B — DFA

— B).

co prowadzi do rozkładu wynikowego

w(k|m, p, a, B, W) x B(mln, z (k, «, 8), W)B(kln, p, W). W

relacji tej parametr

p pozostaje nieznany,

z(p|W):

dlatego

opiszemy

go zaczątkiem

w(k, p|m, a, B, W) a B(mln, z (k, a, B), W)B(kln, p, W)z)p|W),

skąd już tylko krok do ostatecznego rozkładu: w(k|m, p,a, B, W) 1



Z,

m,a

n

8).

W)

2

Bnin.

(k,

a, B),

W)Btkln,

PD,

W)z(plW),

gdyż wielkość k, niedostępną eksperymentalnie, usuwamy procedurą marginalizacji. Współczynnik normujący wynosi:

1

Z(n, m, a, B), W) = 5, B(mln, r(k, a, B), W) J B(k|n, p, W)z(p|W)dp k=0

_

0

l

"n+1)),.,B(mlin, a(k,a,B), W)

Poziomice rozkładu ukazane są na rysunku 9.3 wraz z krzywą (pogrubioną) nadziei

(p), jako funkcji ułamka y = m/n opisującego obserwowaną frakcję przypadków sygnału oraz linią prostą kropkowaną: p

ko y n a«a+8-1

1-8 a«a+B8-1

555

556

9, Stopień racjonalnego zaufania

1,0 0,9

|

0,8

|

0,7 0,6 a

05 0,4 0,3 0,2 0,1 0,0

j

0,0

I

01

|

0,2

p

0,3

1

I

0,4

i

l

05

,

I

06

.

1

07

1

|

08

1

l

0,9

1

1,0

y=m/n Rys. 9.3. Poziomice rozkładu wynikowego w(p|m,ax, 8, W) na płaszczyźnie (y, p) dla przykładowych wartości n = 100, a = 0,8 oraz 8 = 0,7. Krzywa pogrubiona przedstawia zależność nadziei (p) od obserwowanego ułamka y przypadków sygnału, natomiast prosta kropkowana to rozwiązanie uzyskane z równania Py = RP,

reprezentującą rozwiązanie równania P, = RP,. Główną zaletą podejścia bayesowskiego jest uzyskanie oceny parametru p w sytuacji, w której konwencjonalne podejście doprowadza do niefizycznych rezultatów. Zauważmy, że dla osobliwej

macierzy R, tj. wtedy gdy a = 1 — 8, rozkład wynikowy w(p|m, «, B, W) sprowadza się do zaczątku z(p|W).

T)

Reguła następstw Laplace'a to narzędzie umożliwiające przewidywanie — jego war-

tości potrafimy obliczyć dopiero po wykonaniu eksperymentu, który dostarczył pary liczb n oraz k. Prawdopodobieństwo to należy do szerszej rodziny prawdopodobieństw, które moglibyśmy nazwać profetycznymi (predictive), a które konstruujemy w następujący sposób. Niech modeł zjawiska opisany będzie gęstością f (x|0, W) z nieznanym parametrem 6. Z danych doświadczalnych x, konstruujemy funkcję wiarogodności £ (x|6, W), a z twierdzenia Bayesa 1 z pomocą zaczątku z(8|W) otrzymujemy prawdopodobieństwo wynikowe w(6|x, W). Jeśli wykorzystamy prawo mnożenia prawdopodobieństw (9.21),

9.3. Wnioskowanie probabilistyczne

557

możemy usunąć zależność od parametru 8 OO

sGlx.W)= | fGo, Wywolx, W)do,

(9.48)

a otrzymamy rozkład w pełni określony przez znane wielkości. -—-

Przykład 9.3.8

Prawdopodobieństwo profetyczne — rozkład beta dwumianowy Niech model

zjawiska opisany będzie rozkładem dwumianowym

B(m|n, 6, W),

a zaczątek rozkładem beta (9.44). Zaczątek w takiej formie jest atrakcyjny, gdyż w jakimś sensie podsumowuje naszą dotychczasową wiedzę, prezentując ją w formie jednego, wielkiego eksperymentu, w którym znaleziono a + b — 2 przypadki, z których a — I okazały się sprzyjające. Tak sformułowany problem dostarcza prawdopodobieństwa wynikowego (9.45) także w postaci rozkładu beta, natomiast prawdopodobieństwo profetyczne (9.48) przyjmuje postać P(m|n,k,a,b, W) 1

=

ECO

W)w(6|n, k,a,b, W)do

0 —

1 n!

r(n

+

a

t b)

m!(n — m)! I (k +a)T'(n — k ++b)

F'(n + 1)

gmtera—l

(1

—_

0)

m+b-1

do

0

T'(n + a +b)

"Tm+DTu-=m+DTk+talrn=k+b) >

(2n —k—m I' (m +k+a )l+b)

Ten+a+b)

Jeśli wprowadzimy oznaczenia

a=a+k,

B=n+b—k,

to rozkład ten zapiszemy w konwencjonalnej formie P(m|n, a, B, W) =

'(n+1)T(a+8) T(m+a)T(n +8 —m) F'(n + a + B)T (a)T (8) T' (m + 1)T' (n—m +1)

przy czym m = 0, 1,2,...,n,

i określamy go mianem rozkładu beta dwumia-

nowego. Dla kompletu podajmy jego własności: € [m]

a =n=—5

Pim]= „Pn ta +8)

(a + B)”(a + 8+1)

W szczególności, jeśli zaczątek wybierzemy jednostajny, czyli dla a = b = 1, skąd « =k+1l, B=n—k+-1, to rozkład profetyczny będzie miał kształt

558

9. Stopień racjonalnego zaufania

P

(m|n

T'(n + 1)T'(n + 2)

)

Tk+DTm-k+DTQOn+2)

,k,W)=

r(m+k+1)T(2n-k-m+1) T(m +1)T'(n— m + 1)

o nadziei

,

m=0,1,2,...,n

kLl n

i wariancji

k+1

Y [m] lm] = 2

20

1-

k+lyn+l1

ró)nta

m

m

=2ne[]ln (1( -£|7])z):

Widzimy, że rozkład ten jest szerszy niż odpowiadający mu rozkład dwumianowy.

Przedstawia to rys. 9.4, porównujący kształt rozkładu beta dwumianowego (punkty)

określonego przez parametry n = 100 oraz k = 25, k = 50 i k =90 z kształtem rozkładu dwumianowego (słupki histogramu), określonego przez odpowiadające

parametrom k wartości parametru 6 równe 0,25, 0,5 oraz 0,9. rozkład dwumianowy (słupki) i beta dwumianowy (punkty), n = 100 0,14 r 012

|-

0,10 |

m=100 k=25 9=025

n=100 k=50 8=0,5

n=100 k=90 8=0,9

0,08 | 0,06 t 0,04 |0,02 |

0,00

0

ookżeoo 10

20

30

40

50

60

70

80

90

Rys. 9.4. Porównanie rozkładu dwumianowego (słupki) i beta dwumianowego n = 100

100

(punkty);

Rozkład beta dwumianowy stanowi interesującą alternatywę dla zwykłego roz-

kładu dwumianowego. Wyposażony jest w więcej parametrów, a więc zapewnia większą elastyczność przy dopasowywaniu do danych doświadczalnych.

Na zakończenie dyskusji elementarnych metod oceny wej teorii zwróćmy przede wszystkim uwagę na to, że taki sam, jaki otrzymalibyśmy, stosując konwencjonalne szej wiarogodności. Maksymalizując prawdopodobieństwo

T)

parametrów rozkładu w nowynik (9.38) jest dokładnie metody, tzn. zasadę najwiękwynikowe P(K|n, N,k, W),

9.3. Wnioskowanie probabilistyczne

559

maksymalizowaliśmy faktycznie wiarogodność H(k|N, K,n, W) pomnożoną przez zaczątek P(K|n, N, W), który przyjęliśmy w postaci (9.36), a więc bez jawnej załeżności od K. Gdyby nasza pierwotna wiedza W dyskryminowała pewne wartości K, a inne

faworyzowała, wynik naszego rozważania byłby różny od wyniku metody największej

wiarogodności. To zachowanie stwierdziliśmy także w wyniku (9.46), uzyskanym z maksymalizacji prawdopodobieństwa wynikowego (9.45) z zastosowaniem nieinformatywnego prawdopodobieństwa zaczątkowego (9.43). Jest to generalna cecha wnioskowania z użyciem twierdzenia Bayesa. Metody konwencjonalne to szczególny przypadek metody bayesowskiej stosowanej w sytuacji, gdy jesteśmy kompletnymi ignorantami. Wszelka dodatkowa informacja, np. z poprzedniego eksperymentu, pozwala nam uściślić wiedzę o przedmiocie, a twierdzenie Bayesa dostarcza naturalnego narzędzia do integrowania

tej wiedzy i wysnuwania ostatecznych wniosków.

I jeszcze słowo na temat własności ocen parametrów uzyskanych z zastosowaniem twierdzenia Bayesa z punktu widzenia klasycznej teorii. Przede wszystkim, estymatory bayesowskie są zgodne i asymptotycznie spełniają te same warunki co estymatory naj-

większej wiarogodności, a więc są: najefektywniejsze, mają rozkład normalny, a także są

funkcjami dostatecznych estymatorów i to niezależnie od wybranego prawdopodobień-

stwa zaczątkowego. Wynika to z faktu, że w wyrażeniu na logarytm prawdopodobieństwa wynikowego In w(0|D, W) = InL (Do, W) + Inz(0|W) + const,

pierwszy wyraz jest efektywnie n-krotnie większy niż drugi, który tym samym staje się asymptotycznie nieistotny dla dużej próby.

9.3.4. Weryfikacja hipotez z twierdzenia Bayesa Problem oceny parametrów dyskutowany w poprzednim podrozdziale prowadzony był

przy założeniu słuszności danego rozkładu. Często spotykamy znacznie poważniejsze za-

gadnienie, dotyczące oceny trafności analizowanego modelu. Jeśli model jest kwestionowany, to musi on być ulepszony bądź zastąpiony zupełnie nowym i musimy być w stanie dokonać ilościowej oceny funkcjonowania każdego z nich. Niekiedy dysponujemy kilkoma konkurującymi modelami i wskazane byłoby posiadanie narzędzia pozwalającego dokonać sądu i doprowadzić do rozstrzygnięcia. Przyjmijmy wobec tego, że do wyjaśnienia pewnego zjawiska opisywanego przez

informację D uzyskaną na drodze doświadczalnej pretenduje n różnych modeli, o których

założymy, że wykluczają się wzajemnie i wyczerpują wszystkie możliwości. To ostatnie założenie, o wyczerpywaniu, może wydawać się dość silnym ograniczeniem, jako że nigdy nie możemy przewidzieć, co geniusz jutrzejszego badacza chowa nam w zanadrzu.

Dobrym

przykładem mogą tu być wszystkie dziewiętnastowieczne próby wyjaśnienia

precesji Merkurego, które obracały się w kręgu teorii grawitacji Newtona. Jeśli jednak nie dysponujemy superteorią, to przyjmijmy postawę pozytywną i dokonajmy wyboru tego schematu, który na dzień dzisiejszy najlepiej zdaje sprawę ze stanu rzeczy. Jeśli 1 ten najlepszy model będzie miernie odtwarzał rezultaty eksperymentów, to przynajmniej będziemy mieli wskazówkę, sugerującą potrzebę dalszego wysiłku intelektualnego.

560

9, Stopień racjonalnego zaufania

Niechaj teza M; stanowi: model i jest słuszny. Rozumowanie, odniesione do układu tez M;, identyczne z tym, jakie doprowadziło nas do twierdzenia Bayesa (9.31), prowadzi do następującego, analogicznego rezultatu:

P(M,|W)

P(M,|D A W) = P(D|M,; AW)—

2, P(D|M, AW)P(M,|W)

|

(9.49)

i=l

W wyrażeniu tym, tak jak i w (9.31), mianownik to oczywisty czynnik normalizacyjny.

W

P(M;|W)

wielkości

rozpoznajemy prawdopodobieństwo zaczątkowe dla słuszności

modelu o numerze i, natomiast wielkość P(D|M; AW) zbliżona jest swym sensem do standardowej funkcji wiarogodności, jednakże z pewną różnicą. Otóż w części określa-

jącej warunki tej wielkości występuje założenie o słuszności danego modelu. Z reguły

modele zawierają w swoim sformułowaniu pewne dodatkowe wielkości, a mianowicie rozmaite parametry, których wartości mogą, lecz nie muszą być wyspecyfikowane. Wielkość P(D|M; AW) określa wiarogodność, zbiorczo, dla całego modelu, bez wdawania się w takie szczegóły techniczne i dlatego nazywana jest ona globalną wiarogodnością. Jak mamy postępować w sytuacji, gdy model nie jest do końca Ściśle określony? Przywołajmy na pomoc przykład. Niech będą nam dane wyniki doświadczenia,

w którym mierzono rozkład kątowy cząstek emitowanych z rozpadu A > a+-b. Przypu-

śćmy, że dysponujemy dwoma modelami opisującymi ten rozkład. Pierwszy z nich twierdzi, że rozkład ten powinien być izotropowy, a więc jednostajny w wielkości x = cos%: HOIW)

l = 7.

—l, (x

— u).

i=]

Wykorzystujemy zaczątek Jeffreysa i znajdujemy rozkład wynikowy dla parametru o

nSż

l

w(o|5,,n, W) =

Ż„(S.4/n)o"+! ©P (- 202

):

0)):

(9.76)

0

co też daje nam ostateczną postać rozkładu dla parametru a u(eiś.,n.W) 277

1

(

OWZAWE 3

)

zai

p

nS?

(55: )

0)=>u 20?

— x)52 ) ,

gdzie czynnik normujący wynika z przejścia granicznego

jesz) z. RE 2

_ ) n —— (UL —

o 20 —.

d

U]

Z. rozkładu tego znajdujemy, że najlepsza ocena parametru lokacji dana jest nadzieją (i jednocześnie modą)

u=(u)ED[u]=x+ Ai Wynik ten jest dokładnie taki sam, jak w konwencjonalnej teorii, jednak jakże

różna jest jego interpretacja. W tradycyjnej statystyce matematycznej powiedzielibyśmy, że statystyka ji = X podlega rozkładowi Gaussa -

O |

N (ża 5) =

/n

ąz 0 (

TE

2:

zĄ2

zy).

Wynik ten tłumaczymy na stwierdzenie, że najlepszą oceną parametru ju jest staty-

styka X, a niepewność tej statystyki wynosi o/4/n, co określamy prawdopodobień-

stwem P(u=o//n

z(u|W).

w formie minimalnie informatyw-

nej, a powtarzając rozumowanie, które doprowadziło nas do rozkładu wynikowego w(a|a, o,, W), docieramy do celu naszych rozważań

w(uly,o, W) =

|

/2n

exp (- (U — —)

o

20 2

|

Widzimy, że najlepszą oceną ji poszukiwanej wielkości „ jest poprawiony, o wynik

a kalibracji, pierwotny pomiar x: i = y = x+a, a ocena niepewności tego wyniku

to niepewność o, uzyskana przez dodanie, w kwadratach, niepewności pomiaru o, (błąd statystyczny) i kalibracji o, (błąd systematyczny). Procedurę oceny wpływu czynników systematycznych na poszukiwaną wiel-

kość ji metodą pomiaru x, o nadziei j4,, który następnie korygowany jest do wartości y o nadziei u, możemy

łatwo formalnie uogólnić na przypadek, gdy takich

czynników mamy n, a każdy z nich jest opisany wielkością a,. Chwilowo przyjmiemy ograniczające założenie, że oceny tych wielkości mają charakter czysto do-

świadczalny — są wynikiem specjałnego pomiaru, np. efektywności detektora lub parametru skali w kalibracji kalorymetru. Założenie to oznacza, że dysponujemy,

9.4. Prawdopodobieństwo bezpośrednie

wywiedzionym z wcześniejszego pomiaru a = (a;,...,a,), łącznym zaczątkiem z(a|a, W) wszystkich parametrów « = (a,,...,,). O wielkości a przyjmiemy,

że stanowi ona nadzieję (a) = a rozkładu z(a|a, W), a komplet znanych wielko-

Ści V [%,, x,] dostarcza macierzy kowariancji tego rozkładu. Rozporządzamy także

funkcją wiarogodności £ (x|u,, W) „surowego” pomiaru x, o którym założymy, że

jest równy nadziei: (j4,) = x, a niepewność o, zadaje dyspersję rozkładu wielkości ii,. Jeśli wyliczenie to uzupełnimy o zaczątek z(j4,|W), to wszystkie jego elementy możemy złożyć w całość i uzyskujemyć łączny rozkład wynikowy poszukiwanego

parametru j4, oraz układu wszystkich nieznanych czynników a, opisujących wpływ efektów systematycznych

l

w(u,,a|x,a, W) = zł (x|u,, W)z(ala, W)z(u.|W),

(9.84)

gdzie czynnik 1/Z dostarcza unormowania. Zauważmy, że rozkład ten ulega fak-

toryzacji na część zależną od j4, oraz część zależną od czynników «, wpływu. Jest to efekt naszego założenia, ukrytego w postaci zaczątku z(u,|W), o niezależności pomiaru zasadniczego, tj. wielkości „,, od pomiaru efektów systematycznych.

Gdy obiektem naszego zainteresowania jest poprawiona wielkość ju, znajdo-

wana wg recepty u = f(u,,a), wtedy w funkcji wiarogodności £ (x|ju,, W) dokonujemy zamiany parametru j4, na je, co też i prowadzi do nowej funkcji

wiarogodności £ (x|u, a, W) = £(x|f"'(u, a), W), a to, z kolei, umożliwia znalezienie łącznego rozkładu wynikowego l

w(u, x|x, a, W) = 77 (alk, w, W)z(a|a, W)z(ula, W), gdzie z(u|a, W) to zaczątek indukowany Rozkład ten, po marginalizacji:

1 w(u|x,a, W) = z | Solna

przez przekształcenie

u

=

f(u,,a).

W)z(a|a, W)z(uja, W)da,...da,,

(9.85)

jest źródłem wszelkiej informacji o wartości wielkości „e 1 jej niepewności.

Wynik analityczny, jak ten dotyczący przesunięcia skali, możemy uzyskać jedynie w najbardziej elementarnych sytuacjach — już nawet przekształcenie skalowania postaci a. = wi, nie poddaje się takiej analizie (o ile nie dobierzemy specjalnych rozkładów). Gdybyśmy potrafili wykonać wszystkie obliczenia do końca, z rozkładu (9.85) znaleźlibyśmy, niechybnie, najlepszą ocenę /4i poszukiwanej wielkości u jako pewną funkcję g(x, a) zmierzonych wartości x oraz a, czego przykład widzieliśmy powyżej, w zagadnieniu pomiaru przy użyciu przyrządu z przesunię-

tym zerem skali. Ponieważ funkcja ta nie jest nam znana, musimy zadowolić się

przybliżeniem 1 = f(x, a), wykorzystującym tę samą funkcję f, jaka łączy wartość „prawdziwą” w z wartościami „prawdziwymi” j4, oraz m. Aby ukazać Czytelnikowi, że postępowanie takie ma swoje uzasadnienie, rozważmy przez moment

przypadek, w którym zaczątek z(j4|W) wybieramy nieinformatywny, a zaczątek

z(a|a, W) nie zależy, jak to jawnie zapisaliśmy, od wielkości a, co w ogólności nie musi być prawdą (choć trudno byłoby sobie wyobrazić sytuację, w której taka

zależność by występowała). Przyjmijmy także, że nasze najlepsze oceny niezna-

nych wielkości to mody rozkładów wynikowych. Jeśli oceną parametru j4, jest moda x, to także najlepszą oceną parametru u = f(u,,a«) jest moda rozkładu w(u,a|x,a, W), a ta wynosi f(x, «), co wynika wprost z własności funkcji wiarogodności £ (x|;4,, W).

597

598

9, Stopień racjonalnego zaufania

Przyjmując przybliżenie £ = f(x,a), znajdziemy przybliżone wyrażenie na

dyspersję wielkości „w. Dokonamy tego, rozwijając w szereg, do wyrazów liniowych włącznie, zależność u = f(u,, x) względem m, oraz a, wokół punktu (x, a):

u= f(u,, a) = f(x,a) + f,(L. — x) + 3 fi (0; — a;), i=l

gdzie przez f, oraz f; oznaczyliśmy pochodne cząstkowe względem m, oraz «;, obliczone w punkcie (x, a). W przybliżeniu tym odzyskujemy naszą pierwotną propozycję: i = (u) = f(x,a). Dalej procedura przebiega jak w klasycznej statystyce matematycznej — konstruujemy różnicę u — (u) Z u — i, podnosimy

do kwadratu i obliczamy nadzieję rozkładu (9.84). W rezultacie otrzymujemy

Y[u] = (f,a0,) + Ż, fi Vla, ax] J;. i,k=l

Relacja ta, zastosowana np. do przekształcenia skalowania u = aji,, prowadzi do rezultatu

V [u] Z a”o) + x*o;,

co jest dość zabawne, gdyż wynik ten nie jest zgodny ze ścisłym obliczeniem

(at, — (a) (1,))?) = (a?) (uż) — (a)? (u)? = ozoż +ożx" +a'o?, które potrafimy wykonać, mimo że nie znamy funkcji g(x, x). Różnica spowodo-

wana jest składnikiem ożjo;, który, w warunkach uzasadniających liniową aprok-

symację związku u = aj,, jest po prostu małą mniejszego rzędu niż wielkość

ox” lub też a*”o*.

Droga, jaką dotarliśmy do wyniku (9.85), pozwala oderwać się od uprasz-

czającego założenia o doświadczalnym charakterze wartości a, wpływu

efektów

systematycznych. Często wielkości te nie pochodzą z bezpośredniego pomiaru,

lecz prezentują sobą założony w obliczeniach model opisu fizycznego zjawiska.

Dodatkowo sytuację może komplikować fakt, że w grę wchodzi parę konkurują-

cych modeli, a każdy z nich zawiera w sobie jeden lub więcej parametrów, przy czym nie wszystkie muszą być jednoznacznie określone. Niektóre z nich mogą

być rezultatem wcześniejszych dopasowań, a inne pozostawać nawet niezdefiniowane. Przypomnijmy, że problem oceny błędów systematycznych w takiej sytuacji

jest zadaniem, którego nie można rozwiązać w ramach klasycznej statystyki matematycznej. Ta nie może nam służyć pomocą dopóty, dopóki nie przeprowadzimy experimentum crucis i dokonamy wyboru poprawnego modelu. Zobaczmy, jak

„Sprawuje się” w takich warunkach teoria Bayesa.

Przyjmijmy, że dysponujemy liczbą m modeli M, (k = 1,2,...,m), przy czym z każdym z nich skojarzony jest zestaw parametrów a,, (i = 1,2,...,n,). Prowadzi to do układu m konkurencyjnych funkcji wiarogodności £ (x|j4,, My, a,, W)

rezultatu pomiarowego x, uzyskanego przy założeniu słuszności modelu M; wraz

z zestawem jego parametrów e,. Niech każdy z tych modeli realizuje się na poziomie P(M,|W) racjonalnego przekonania, a naszą ufność w słuszność specyficznych wartości właściwych mu parametrów opisuje zaczątek z(a,|M;, a,, W), gdzie wiel-

kości a, zadają najlepsze oceny parametrów a,. Wtedy każdy model przyczynia się w wymiarze

9.4. Prawdopodobieństwo bezpośrednie

w(x,

My,

a;|X,

a,

599

W) A

L

(x |£Lx,

M, OŁ,

W )z(a,|M;,

dz,

W)P(M,IW)z(iu,

|0t%,

Ww)

do rozkładu wynikowego w(u,|Xx,a;,...,a„, W) |

4"

=Z

3

je

(x|/Lx,

My,

Oy,

W )z(a,|M;,

a,

W)P(M,IW)z(u,

|ot,,

W)

da; |

Ż.. da; n,.

k=l

W ramach kazdego modelu znajdujemy wielkość u = f(i,, 4), reprezentującą poszukiwaną wielkość „w właściwą dla tegoż modelu. Rozwiązując tę równość

względem m, i podstawiając do funkcji wiarogodności, a także modyfikując sto-

sownie pierwotny zaczątek z(u,|a4, W), znajdujemy rozkład w(u|x, I

=

A;,...,

dm,

W)

m

>.

fetlu.

My,

Ok,

W )z(a,|M;,

dz,

W)P(M,|W)z(ula,

W)

da

1

...

dO

n,»

k=l

stanowiący fundamentalne narzędzie oceny wartości i niepewności wielkości ut.

Tr)

9.4.4. Zasada maksymalnej entropii Jak wspomnieliśmy wcześniej, reguły mnożenia i dodawania prawdopodobieństw to jedynie część teorii. Jej praktyczny rozwój wymaga dodatkowego, równie ważnego elementu składowego, jakim jest narzędzie przetwarzające naszą werbalną wiedzę na postać

rozkładu prawdopodobieństwa. Mamy tu na myśli nie tylko kwestię prawdopodobieństw zaczątkowych, ale także tę część twierdzenia Bayesa, w której występuje funkcja wiarogodności. Wielkość ta, w niektórych wyżej przedstawionych przykładach i rozważaniach

pojawiała się nieomalże na zasadzie królików wydobywanych przez iluzjonistę z kapelusza, a przecież pojęciowo nie ma różnicy między nieinformatywnym zaczątkiem z(6|W) dla parametru 6 a modelem Gaussa N (x|t, o, W) dla wyniku pomiaru x, wykorzysty-

wanym w funkcji wiarogodności. W tym drugim mamy tylko więcej informacji wydo-

bytych na zewnątrz z „czeluści” W. W jaki sposób konkretna wiedza o wielkościach

oraz o pozwala nam dojść do takiej a nie innej postaci tego rozkładu? Czy z wielkości

W nie powinniśmy wyłuskać jeszcze innych wskazówek i umieścić je po pionowej kre-

sce w symbolicznym zapisie rozkładu? Do tej pory „transmutację” wiedzy na rozkład potrafiliśmy wykonać w pewnych dość uproszczonych warunkach: wszystkie możliwe sytuacje wydawały się nam na tyle symetryczne, że nie odczuwaliśmy potrzeby wyróż-

niania żadnej z możliwych konfiguracji. Taką metodę postępowania uznaliśmy nawet za godną podniesienia do rangi pryncypialnej i stworzyliśmy dla niej zasadę nieistotności (podrozdział 9.2.4). Wariantem tego postępowania są rozważania podrozdziałów 9.4.2 1 9.4.3, gdzie warunki symetrii skłoniły nas do ustanowienia pewnych równań na funkcje zaczątków. Taki system dochodzenia do rozkładów moglibyśmy nazwać metodą grupy symetrii niezmienniczych transformacji.

600

9. Stopień racjonalnego zaufania

Jak jednak z informacji: typowa wartość wielkości x, która może przyjmować zarówno dodatnie, jak i ujemne wartości, wynosi u, a jej typowy rozrzut wynosi o, mamy utworzyć

rozkład tej wielkości? To, czym tu dysponujemy, to konkretne wartości liczbowe i możemy sobie wyobrazić bardzo wiele różnych rozkładów, które odtworzą zadane wartości, np. rozkład Gaussa, Studenta lub też logistyczny. Rozkłady te narzucają jednak dodatkowe warunki: wszystkie są symetryczne, a to pojęcie nie występuje w sformułowaniu

zagadnienia. Wykorzystując którykolwiek z nich, czynilibyśmy dodatkowe założenie, nie mając do tego stosownej legitymacji. Rozkład, którego poszukujemy, to rozkład, który

spełniałby warunki problemu, a jednocześnie pozostawiał nam maksymalną swobodę, czyli możliwie maksymalną niepewność w odniesieniu do innych elementów, jakie mogą

wchodzić w grę, a których nie wyspecyfikowaliśmy explicite. Rozwiązanie tak postawionego zagadnienia wymaga od nas zbudowania wielkości, która byłaby miarą niepewności, jaką reprezentuje sobą każdy rozkład prawdopodobieństwa. Okazuje się, że taką wielkość można jednoznacznie określić, nakładając na nią kilka (w miarę) prostych, warunków.

Przyjmiemy, że mamy

do czynienia z dyskretnym i skończonym układem praw-

dopodobieństw P;, gdzie indeks i przyjmuje wartości 1, 2,...,n. Miarę niepewności rozkładu P; oznaczymy przez $„(P+, P,..., P„). Opiszemy kilka własności, jakich od

tej wielkości będziemy wymagać. Założymy przede wszystkim, że jest ciągłą funkcją

swych argumentów. Jeśli wszystkie wielkości P;, z wyjątkiem jednej, są równe zeru, wtedy nie mamy żadnej niepewności i przyjmiemy, że

$,(1,0,...,0)=S„(0,1,...,0)=::-=S,(0,0,...,1)=0 W szczególności, jeśli mamy tylko jedną możliwość, to na pewno nie mamy najmniejszej

niepewności 1 dlatego $,(1) = 0. Jeśli mamy układ n Pa Op P, oraz n + 1 prawdopodobieństw P,; takich, że P;, = P; dlai = 1,2,...,n, natomiast P,,, = 0, to

S„(Py, ,..., P,) = S„u(Pi, P.,..., P/,0). Przyjmiemy także, że w warunkach najmniej określonych przez rozkład, tzn. wtedy,

gdy wszystkie prawdopodobieństwa są identyczne, niepewność jest maksymalna:

S(Py, P,...,P)

nn

1 l —..., n

S„(1/n,1/n,...,1/n)

= s(n).

Przypatrzmy się teraz sytuacji, w której mamy dwie tezy określone przez prawdopodobieństwa P;, oraz P> o jednostkowej sumie, lecz tezę drugą możemy rozłożyć na trzy

prostsze, rozłączne tezy o prawdopodobieństwach P>, P>» 1 P>z spełniających warunek P = Pą, + Py + Pa. Od wielkości S$ będziemy wtedy wymagali, aby



S4(Pi, Pą, Pa, Pa3)= $>(Py, P>) + PaS3 (7

Pra Paz

P,' P' P>

Prawdopodobieństwa

P>;/P>,

Pą/P>

1 Py3/ P, to znane nam prawdopodobieństwa

wa-

runkowe, określające szanse każdej z trzech dodatkowych subtez, przy założeniu, że teza druga jest słuszna. Całość możemy odczytać jako niepewność czterech możliwości, która dana jest niepewnością dwóch pierwotnych i trzech dodatkowych, ale te trzy dodatkowe,

9,4. Prawdopodobieństwo bezpośrednie

601

wywodząc się z rozbicia tezy drugiej, przyczyniają się do pełnej niepewności z łącznym

prawdopodobieństwem P>. Ostatni warunek możemy uogólnić w następujący sposób. Niech prawdopodobieństwa

P, odpowiadają pełnemu układowi n wzajemnie wykluczających się tez A;. Niepewność rozkładu P, określona jest przez S„(P,, P;,..., P„). Zamiast jednak podawać prawdo-

podobieństwa P; dla każdej tezy bezpośrednio, możemy zgrupować pierwsze k z nich i podać prawdopodobieństwo nm; = P, + P» + ::: + P, tezy Bi. =A,VAzV:::V 4%, następne m tez zgrupować w tezę B, = Az V Ap V*** V Az 1 Określić dla niej

prawdopodobieństwo r = Pi; + Pra +** * + Pkqm itd., aż dojdziemy do tezy B, okre-

ślającej sumę pewnej liczby pozostałych tez A;, której prawdopodobieństwo wynosi 7T,

i zadane jest sumą prawdopodobieństw tych tez. Dla takiego układu prawdopodobieństw

x; otrzymujemy niepewność S,(7y, Ta, ...,7r,). Następnie określamy prawdopodobień-

stwa warunkowe P,/my, P»/7,..., P,/rr, każdej ztez A;, A>,... „Az, co daje niepewność S+(P+/ru, Pe/ry,..., Pz/q1) z prawdopodobieństwem n;,. Podobny

zbiór prawdopodo-

bieństw warunkowych P,; /712, Pką2/702,. . . , Pkąm/7t2 Uzupełnia wyznaczenie łącznej niepewności S$, o składnik m+S,„(Pkx:/12, Pk+2/T02, .-., Pk+m/7T2) itd. Ostatecznie, niepew-

ność $„(P;, P;,..., P,) możemy wyrazić alternatywnie pod postacią skończonej sumy S„(P4,

Pa, ...,

P,)

=

Ś,(Ty,

02,

21, TTy)

LMS, (>= TT2

+

TY SK

Pa

P,

P

(>:



KIWA z

TT

day



>)

(9.86)

p.

TT

co stanowi ogólne równanie funkcyjne, jakie niepewność $ musi spełniać. Wyliczone powyżej własności i warunki pozwalają jednoznacznie określić postać funkcji niepewności rozkładu:

S„(P,, P,,..., P,) =— )(Pi InP,,

(9.87)

i=l

z dokładnością do ogólnej multiplikatywnej stałej, którą możemy ukryć pod postacią podstawy logarytmu. Wynik (9.87) znany jest pod nazwą twierdzenia Shannona

(C. E Shannon,

A Mathematical Theory

of Communication,

Bell System

Technical

Journal 27 (1948), 379). Dowód tego twierdzenia podajemy w dodatku E.

Wielkość S określona wzorem (9.87), kojarząc się z dobrze znaną z fizyki statystycznej wielkością (5.6), nosi nazwę entropii informacyjnej. Mierzy ona ilość niepewności,

jaka zawarta jest w rozkładzie prawdopodobieństwa P,. ———

|

Przykład 9.4.11 Entropia informacyjna — rozkład geometryczny Znajdziemy entropię rozkładu geometrycznego (5.12)

G (kip, W) = pą*,

q=l-p,

k=0,1,2,....

(9.88)

Jesteśmy tutaj w dość trudnej sytuacji, ponieważ nasza definicja entropii dotyczyła

rozkładów o skończonej liczbie prawdopodobieństw, podczas gdy rozkład geome-

9. Stopień racjonalnego zaufania

tryczny ma nieskończoną liczbę wyrazów.

Dlatego ograniczymy

liczby n + 1 pierwszych członów:

K=0l-n

=qogpmd> —_q*

P(k|p,n, W) = —ga

ten rozkład do

a po wykonaniu wszystkich obliczeń dokonamy przejścia granicznego z liczbą n

do nieskończoności. Dla takiego obciętego rozkładu entropia wynosi n

S(Po, ..., PJ)

l

n

l

=) PnP, = -7 ) q' ln (ze) k=0

k==( 1

n

(9.89)

n

-7 (-u Z) 3 ą' + (Inq) s k=0 k=0

,

Pierwsza suma w tym wyrażeniu sprowadza się do czynnika normującego Z, natomiast drugą sumę znajdujemy po odwołaniu się do zależności

SU ką? = k=0

kę = ązię (20) -« z (7) l-q

l —

(n

+

1)q”

+

nq”*!

(1—g)7

|

co dostarcza nam następującego rezultatu:

Dq" + ną +nq"*! na Sma(Bo.., ) = 3I (-ZmZ +ą 1- (n++ Da" (l-q)

=-h(

p

)-

1 — (m + l)q" + nq”*

04

05

06

l-q'*!

(l-qg)(1 —q7*')

entropia rozkładu geometrycznego

602

000

01

02

03

07

08

09

10

Rys. 9.13. Zależność entropii informacyjnej dla rozkładu geometrycznego w zależności od

wartości parametru p

9.4. Prawdopodobieństwo bezpośrednie

Dokonujemy przejścia granicznego n —

603

oo, uwzględniając fakt, że wyrazy typu

q” jak również nq” w takim przejściu znikają, i otrzymujemy Sn

(Po,

-..,

P„)



S$(p)

n—>00

=

—lnp



l-p In(1 — p).

(9.90)

Rezultat ten przedstawiony jest na rys. 9.13 jako funkcja parametru p roz-

kładu. Widzimy, że entropia jest tym większa (dąży do nieskończoności), im wartość parametru p jest bliższa zera. Przypomnijmy: jeśli parametr ten jest bardzo

mały, rozkład geometryczny charakteryzuje się bardzo wolnym zanikiem, co do pewnego stopnia symułuje sytuację, w której wszystkie prawdopodobieństwa są

sobie równe. Natomiast dla wartości parametru p bliskiej jedności, całe prawdopodobieństwo rozkładu jest praktycznie skupione na pierwszym wyrazie i dlatego entropia, zgodnie z postulowanymi własnościami, dąży do zera. Zauważmy, że wynik (9.90) jest dokładnie taki sam, jaki otrzymalibyśmy, gdybyśmy podstawili postać (9.88) rozkładu do wzoru (9.89) i od razu rozciągnęli

sumowanie do nieskończoności.

7

Zachęceni wynikiem powyższego przykładu, rozszerzymy definicję entropii na nieskończony układ prawdopodobieństw

P;, i = 1,2,...,

S(P,, P»,...) = -)P, In P..

(9.91)

i=l

Twierdzenie Shannona pozwała rozwiązać problem postawiony na wstępie niniejszego podrozdziału: jak określić rozkład prawdopodobieństwa P;, jeśli dysponujemy pewną liczbą informacji o jego specyficznych własnościach. Przyjmijmy, że te specyficzne własności to liczba m znanych nam nadziei j4, zadanych funkcji f4(i)

L=) _MGP,

k=1,2,...,m.

i=l

(9.92)

Optymalny rozkład prawdopodobieństw uzyskamy, jeśli zmaksymalizujemy

entro-

pię (9.91) wzgłędem prawdopodobieństw P;, uwzględniając więzy (9.92). Wymusimy w ten sposób spełnienie warunków określonych przez nadzieje, pozostawiając maksymalną, dopuszczalną swobodę — niepewność rozkładu pozostanie możliwie największa

— względem wszelkich innych możliwych jego elementów. Tak sformułowana procedura

postępowania zwana jest zasadą maksymalnej entropii. W praktyce zasadę wariacyjną maksymalnej entropii rozwiązujemy metodą mnożników Lagrange'a A = (Ay, A»,..., A„), tzn. maksymalizujemy następujące wyrażenie: —

3 i=l

P, In P; —Ag

(> i=l

P,



)-

Ak k=l

(>

Jx(i) P;



w)

=

max(P;,

P>,

Ż..% A0; A),

= i =]

gdzie uwzględniliśmy, za pomocą mnożnika Ag, także warunek unormowania rozkładu P,. Maksymalizowaną wielkość, dła dalszej wygody w obliczeniach, a bez straty ogól-

604

9, Stopień racjonalnego zaufania

ności, możemy także zapisać jako

-—),PilnP, — (49—1)) Pi) Ax) i=l

i=l1

k=l

fi(i)P; = max(P,, Pa,..., Ao, A),

i=l

gdyż dodawanie lub odejmowanie stałych wartości nie zmienia rozwiązania wariacyjnego. Wykonując różniczkowanie względem prawdopodobieństw P;, otrzymujemy

- mP —20-) 4f()=0 k=l

=>

Pi=exp (> - aso) k=l

Mnożnik Ag możemy wyeliminować z warunku unormowania 3

P, = ) exp

(>>

— Zano) k=1

= exp (—Avg) ) exp (i=]

Hana) k=1

= |.

Jeśli wprowadzimy funkcję rozdziału, zwaną w fizyce statystycznej sumą statystyczną

ZA) = ) exp (- >. i=l

k=l

0.

(9.93)

to poszukiwany rozkład otrzymamy jako

P = P(iA, W)= 20)eo(Korzystając z równań więzów (9.92), NS

lk = 2 J()P, = z 2>

ana).

(9.94)

wyeliminować mnożniki Lagrangea A;

Jx(i) exp (-

Haańoj.

co także możemy zapisać jako pochodną logarytmu funkcji rozdziału wzgłędem mnożników 3 Hk =——l|nZzQa 34, nZ(A),

k=1,2,...,m.m

Relacja ta jest dobrze znana w fizyce statystycznej, gdzie występuje pod nazwą przekształcenia Legendre'a. -——

Przykład 9.4.12 Entropia informacyjna — rozkład dyskretny z zadaną nadzieją Przyjmijmy, że wielkość i charakteryzuje się zadaną nadzieją u oraz podlega dyskretnemu rozkładowi prawdopodobieństwa określonemu na zbiorze liczb naturalnych. Jaki jest rozkład wielkości i? Obliczamy najpierw funkcję rozdziału Z (9.93)

Zł) = )expt- Ai) =) esp(-24) -

l

_1-

exp(—A)

| = Tzapc3) 7! 7 T=exp(-3)

9.4. Prawdopodobieństwo bezpośrednie

a z pochodnej jej logarytmu otrzymujemy związek między nadzieją /4 a mnożnikiem Lagrange'a A

—_4 —_4y( PO) _|_, ©xP—Ń)| = maa 70)7 r u (Eo |= 1+ TECH 5 skąd

- 1=exp(-X)

,

exp(—A) = 1 — —. LL Podstawiając do funkcji rozdziału, otrzymujemy Ż=u-—-l,

co daje nam rozkład (9.94) w postaci

|

exp(-Ai) =

Gu, W) ="

TEG

|

l

Ly

ul (! - z) (exp(-X))) = —

-( | =-|1--) u u Uzyskaliśmy dobrze nam znany rozkład geometryczny (5.12). Przypomnijmy, że w podrozdziale 5.2.1 otrzymaliśmy ten rozkład, rozważając prawdopodobieństwo pierwszego sukcesu w kolejnych losowaniach prowadzonych wg schematu

Bernoulliego, wymagającego absolutnej powtarzalności warunków każdego z losowań i ich niezależności. Tym razem żadne z takich obostrzeń nie występuje. Wystarcza jedyna informacja: nadzieja rozkładu dyskretnego, a wtedy najbardziej

ogólnym rozkładem prawdopodobieństwa, jaki spełnia to wymaganie, jest właśnie rozkład geometryczny. Możemy wyprowadzić także inny rozkład wielkości dyskretnej, przebiegającej nieskończony przedział i spełniający warunek zadanej nadziei. Rozważmy

model

czasu zmieniającego się dyskretnie. W każdym z przedziałów czasu może pojawić się pewne zjawisko. Jednostkę czasu wybierzmy na tyle małą, aby w każdym

z odcinków czasowych mogło nastąpić co najwyżej jedno zdarzenie. Niech łączna liczba takich przedziałów będzie n. Jeśli np. n = 3, to możliwe są następujące konfiguracje: 000, 00X, OXO, XOO, OXX, XOX, XXO, XXX, gdzie symbol „o” obrazuje

brak zdarzenia, a symbol „x” jego wystąpienie. Każdą z takich sekwencji nazy-

wać będziemy historią (fizyk zamiast słowa historia użyłby terminu mikrostan). W przypadku przedziału czasowego trwającego n jednostek liczba możliwych historii wynosi N = 2”. Niech każda z możliwych historii ma swoje prawdopodo-

bieństwo p,. Będziemy poszukiwali maksimum entropii informacyjnej dla prawdopodobieństw p;,: N

S(Pr

Das

-::;

PN)

5



p,

ln p,

=

max(p;,

Pa, ...,

DN):

i=l

z dodatkowymi warunkami, które za chwilę sprecyzujemy. Rozłóżmy najpierw wszystkie historie na klasy, w których liczba j zdarzeń jest taka sama. Takich

klas będziemy mieli n + 1. Do pierwszej z nich zaliczymy wszystkie historie,

605

606

9, Stopień racjonalnego zaufania

w których nie było w ogóle zdarzeń (jest tylko jedna taka historia: o0o...o), do

drugiej włączymy wszystkie historie, w których nastąpiło jedno zdarzenie (takich

historii mamy

n: X00...O, OXO...O, OOX...O,

..., 000...x) itd., w końcu ostatnia

klasa będzie się składała także z jednego elementu określonego historią xxx... x. Łatwo

się upewniamy,

że klasa historii z liczbą j zdarzeń występuje tyle razy,

ile wynosi wartość współczynnika Newtona (7). Przyjmijmy również, że wszystkie prawdopodobieństwa p, w klasie o numerze j są identyczne i wynoszą q,, wtedy N

n

WANE:

3 j=0

=>

Gy? GZ

Zdefiniujmy prawdopodobieństwo

p, ln p,

iefklasa j)

Inq;.

P, natrafienia, w dowolnie wybranej sek-

wencji czasowej, historii z liczbą zdarzeń równą j, czyli klasy o numerze j P

n!

|

= ——1,4

jiłm=l"

Definicja taka oznacza, że nie tylko utożsamiamy wszystkie historie z klasy j, ale

także określamy to prawdopodobieństwo jako proporcjonalne do liczby historii,

które wnoszą wkład do danej klasy (w fizyce statystycznej mówimy,

że prawdo-

podobieństwo stanu jest proporcjonalne do liczby mikrostanów realizujących ten stan). Po tych zmianach entropia przyjmuje

S(P,, P,,...,P) = —

postać

Pin ( i: —

Nim zaczniemy poszukiwać rozkładu

p 3)

(9.95)

P,, który maksymalizuje tę entropię,

rozważmy sytuację, w której dyskretny czas jest duży, czyli wtedy gdy n + oo. Do części współczynnika Newtona zależnej od liczby n klas i występującego jako argument funkcji logarytm wykorzystamy rozwinięcie Stirlinga (5.5):

(n-j! n!

|

(n=jmie"i n'e”m

|

|

(n=jrei Mon).

OCENE

co, po podstawieniu do (9.95) daje

pla n (= j'n BD

OPZC

| e”

"(-;)

JY

1

m

)

= -S0Piln(;!P) + nn) YO jP. Ostatni wyraz przedstawia sobą wielkość proporcjonalną do nadziei ju

k= DJP, j=0

rozkładu prawdopodobieństw P, określonego na klasach, a będąc wartością stałą, nie odgrywa żadnej roli w procesie poszukiwania ekstremum i możemy go odrzu-

9,4. Prawdopodobieństwo bezpośrednie

607

cić. Narzucimy teraz na entropię warunek unormowania rozkładu oraz warunek na

nadzieję, co prowadzi do zasady maksymalnej entropii w postaci

S(P, P,,...) =— $. P,ln(j!P,) — (44 —1)) ,P,—A) JP, j=0

j=0

j=0

= max(7Póy, P;,..., Ag, A), gdzie dodatkowo wykonaliśmy

przejście graniczne z liczbą klas do nieskończo-

ności. Po zróżniczkowaniu względem wybranego prawdopodobieństwa P, uzyskujemy równanie: d 3p, Po P,,...) = — In(fi!P,) — Ay — AI =0, i=0,1,2,..., którego rozwiązanie ma postać

P, = | hę

1! | Po narzuceniu warunku unormowania i warunku na nadzieję otrzymujemy rozkład Poissona

P(i|u, W) =

u

|

re. i! Zauważmy, że gdybyśmy w związku (9.95) nie dokonali przybliżeń wynikających z dużej liczby klas, to maksymalizowalibyśmy następujące wyrażenie:

S(P,, P,,..., P

=-X 7h (z ju I p, -08-D))P ADP j=0

j=l

które po zróżniczkowaniu, prowadzi natychmiast do równania

d -_S(P, P,,..., P)=-mP-ln( OP,

!(n — i)! FO n!

)-a-ai=0, i=0,1,...,n,

o rozwiązaniu zadanym przez rozkład dwumianowy n!

B(i|n,p, W) =———--p'd — p) ,

ICEDI

n-i

p=—-. A

n

Aby przybliżyć zasadę maksymalnej entropii, zilustrujmy jej sens następującym rozważaniem. Przypuśćmy, że przeprowadzamy pewien eksperyment, w wyniku którego możemy otrzymać n różnych wielkości x,, gdzie i = 1,2,3,...,n. Jeśli eksperyment

ten powtórzymy N razy, to każda z wartości x, pojawi się m; razy, natomiast liczba możliwych rezultatów (historii, mikrostanów) wyrażonych ciągiem wyników x; będzie wynosiła n*. W zadanym ciągu wyników układ krotności mi, ma, ... , m, możemy otrzymać na tyle sposobów, na ile sposobów możemy uporządkować m; elementów Xx1, mą elementów x» itd. Łączną liczbę 42 sposobów (prawdopodobieństwo termodyna-

608

9. Stopień racjonalnego zaufania

miczne) dla takiego zagadnienia znaleźliśmy już w przykładzie 5.1.5 1 wynosi ona £2 =

N! m;!m!...m,!

Tamże pokazaliśmy, wzór (5.6), że



M;

m,

In2QZ-NYy n 2. —]l1 yn (7). (gy Widzimy teraz, że poszukując maksymalnej wartości entropii, poszukujemy takiego układu rezultatów x;, aby liczba 62 była maksymalna, a tym samym układ ten pojawił się na największą liczbę sposobów. Ekstremum (które w istocie okazuje się wartością maksymalną, czego nie będziemy tu dowodzili) prawdopodobieństwa termodynamicznego, uwzględniające jednocześnie warunek normalizacji i więzów (9.92), dostarcza

wartości częstości P; = m;/N. Nie oznacza to, że rozwiązaliśmy problem i znaleźliśmy

prawdziwe wartości częstości P; — do tego potrzebowalibyśmy więcej informacji, np. liczba m równań więzów musiałaby być o jeden mniejsza od liczby n możliwych wyników pojedynczego eksperymentu. Pustkę spowodowaną brakiem n — m — 1 równań

staramy się jedynie uzupełnić racjonalną zasadą, która podpowiada nam, że powinniśmy

wybrać taki układ krotności m,, który występuje najczęściej.

Można by sądzić, że twierdzenie Shannona (9.91) możemy uogólnić na wielkość x przyjmującą wartości ciągłe -

ste) = — | sGIW)insoiw)dz. gdzie g(x|W) jest poszukiwaną funkcją rozkładu. Niestety, wyrażenie to nie jest niezmiennicze względem zamiany zmiennej x na dowolną inną, związaną z nią funkcyjnie operacją y = f(x). Niedostatek ten oznacza, że entropia informacyjna zależy od wyboru

zmiennej, a to prowadzi, w prostej linii, do niespójnej teorii. Aby nadrobić ten brak, musimy powrócić do dyskretnych prawdopodobieństw i rozważyć operację graniczną, w wyniku której z dyskretnej wielkości i otrzymujemy wielkość ciągłą x. Przykłady takiego postępowania widzieliśmy w punktach 5.5.1 oraz 5.5.4, gdzie poszukiwaliśmy

ciągłej wersji rozkładu dwumianowego,

a także w przykładzie 5.3.6, w którym uzy-

skaliśmy rozkład Erlanga jako ciągłą wersję ujemnego rozkładu dwumianowego. Dla uproszczenia przyjmijmy, że wielkość i przebiega skończony zakres wartości, np. od zera do n. Rozważmy receptę i=h(x,n),

za pomocą której zwiążemy wielkość dyskretną i z wielkością dyskretną x;, która w wyniku przejścia granicznego stanie się wielkością ciągłą x. Prawdopodobieństwo P, przy

takiej zamianie ulega przekształceniu na P,

=

P, Ai

gdzie Ai = 1 oraz Ax

która w granicy n —

=

P(i(x;)|n,

W)

Ah Ax;

AX;

=

g(x;|n,

W)Ax;,

(9.06)

= Xx, — X;, a Wielkość g(x;|n, W) jest poszukiwaną funkcją,

00, i >

oo stanie się funkcją gęstości g(x|W) ciągłej zmiennej x.

9,4. Prawdopodobieństwo bezpośrednie

Gdy wykonujemy

przejście graniczne n —

oo, we wnętrzu dowolnego,

609

skończonego

przedziału Ax pojawia się wzrastająca liczba punktów x,. Jeśli wybierzemy dwie dowolne wartości x oraz x + Ax, to w przedziale tym będziemy mieli liczbę dh Ai =h(x,n) —h(x + Ax,n) = q, A% x

takich punktów. Ich gęstość w(x|W)

możemy

sposób:

w(x|W)=

Ai =)

lim

00

zdefiniować w następujący, naturalny

d /h(x, — lim ( Ś m.

NA Ax

n>o dx

n

(9.97)

Jeśli za przedział Ax wybierzemy Ax; = x;4; — x;, przyjmując tym samym Ai = I, to otrzymujemy asymptotycznie poprawną (dla dużych wartości n) relację l

(9.98)

Ax, * ——--..

nw (x;|W)

Przykład 9.4.13

Przejście od zmiennej dyskretnej do ciągłej Rozważmy prosty przykład. Wybierzmy obcięty rozkład geometryczny

l -

P =

—q"

54, |

I=012...n

i przekształcenie

x i=n—,

T gdzie wielkość T jest ustalona i definiuje wymiar wielkości x,. Nie jesteśmy zobligowani do takiego traktowania parametru 7 i w dalszej części naszych rozważań uwolnimy się od tego ograniczenia, zezwalając na jego zmienność. Zamiana wiel-

kości i na x; prowadzi do rozkładu

P,



= =

l



l-q

q

[zgi

q

i__

l

——

p

(

4

nx,lng| T

e

ilnq

n

) q Ak

z

= g(x;|lq,n, T, WJAx;.

Wykonajmy teraz przejście graniczne, w którym liczby i oraz n są proporcjonalne i dążą jednocześnie do nieskończoności, dzięki czemu x, dąży do ustalonej

wartości x, a maksymalna wartość x, dąży do wielkości 7. Niech jednocześnie

parametr q dąży do jedności, ale w następujący, specjalny sposób:

n Inq



noo,

q>l1

—AT

=>

AT qf%exp (-7): Nn

gdzie wielkość A jest ustałona i ma wymiar dany odwrotnością wymiaru wielkości 7.

610

9, Stopień racjonalnego zaufania

Po podstawieniu do wyrażenia na funkcję g znajdujemy, że

Cz)

l —exp| CZECH

n, T,

w)

=

(

| —exp|

Wykonując przejścia graniczne n wykładniczy AT | exp —) n | —exp|

(



AT(n

)

T

exp(—Ax;).

n

©, i

,

otrzymujemy obcięty rozkład ,



xph)

-—————

n

L

-—————

— exp(-Ax;)

AT (n + -) T

n

————

nio

exp(—AX).

| —exp(-AT) exp(—22)

n

Łatwo znajdujemy postać funkcji w (x|W) dla tego przykładu:

5(x|W) = no lim

(7) n

dx

— n>odx lim (rż) - >: Mn T

która jest po prostu funkcją stałą.

Uwolnijmy się teraz od ograniczenia dla parametru 7 i pozwólmy mu się zmieniać. Uzyskana powyżej graniczna forma ciągłego rozkładu podpowiada nam, że parametr ten powinniśmy odsunąć do nieskończoności. Jak 1 poprzednio założymy,

m

nlnq



T

n,T>oo,

—A

q—1

©»

(

qX00

Konsekwencją tej własności jest

(

AT(n + -) n

Oraz Ah

=

a tym samym

T

Fm

OO,

AT l — exp (-7) n

i A,

Ww

, T,

—A





i

l=exp|-——— n



E(x|A, W) = Aexp(—Ax),

N,F,i>00

dochodzimy

do

rozkładu

wykładniczego

w (x|W) w tym przypadku znika

w(x|W) = lim T—oo

(7) n

=

na pełnej

półosi.

lim A (rż) T->00

dx

Gęstość

= lim (7) T—00

T

punktów =0.

9,4. Prawdopodobieństwo bezpośrednie

611

Rozkład wykładniczy otrzymaliśmy, definiując liniową zależność między in-

deksem i oraz wielkością x;. Gdybyśmy przyjęli zależność np. kwadratową ł =

X?

"T2

wtedy rezultatem przejść granicznych byłby rozkład, zwany rozkładem Rayleigha, określony na dodatniej półosi, o kształcie funkcji Gaussa (o wartości centralnej równej zeru) pomnożonym przez zmienną niezależną (rozkład ten opisuje rozkład

długości wektora prędkości w dwuwymiarowym rozkładzie Maxwella). Dobierając bardziej skomplikowane prototypy wiełkości ciągłej x, uzyskiwalibyśmy inne, bardziej złożone typy rozkładów.

T)

Podstawiając wyniki (9.96) oraz (9.98) do wyrazenia (9.87) na entropię dyskretnego rozkładu, znajdujemy

SB) = - | PnP 2-3 glin. W) ( i=l

i=l

Sn A |

seiWh

(Zaw)

g(x|W)

Sm = |

sein

(ŻE)

—_T = |

sewn(=C)

8 (Xi |n, m)

Ax,

nw (x,|W)

dx

s(x|W)

* +

s(xlW)

dx + Inn.

am

f

| seiwWa

—00

Jak widzimy, w wyniku przejścia granicznego entropia uzupełniona jest formalnie nieskończoną stałą. Jeśli tę stałą opuścimy, możemy zaproponować następującą postać en-

tropii informacyjnej dla rozkładu ciągłego:

wi) d sg =- | saiWn( —--. | dx. w (x|W)

—00

Granice całkowania zaznaczyliśmy symbolicznie. Wynikają one jednoznacznie z proce-

dury przejścia granicznego. Fundamentalną własnością tej postaci jest jej niezmienniczy charakter przy przekształceniu wielkości x, a to z uwagi na występowanie w niej funkcji gęstości punktów o(x|W), która przy takiej zamianie przekształca się, na mocy

konstrukcji (9.97), dokładnie według tego samego prawa, które obowiązuje dla funkcji rozkładu g(x|W).

612

9, Stopień racjonalnego zaufania

Możemy teraz dokonać stosownych uogólnień w (9.93) oraz (9.94). Jeśli wprowa-

dzimy nadzieje Hy, k =1,2,...,m, funkcji f,(x) rozkładu g(x|W) u =

|

fodgW)dx,

k=1,2,...,m,

to dla funkcji rozdziału Z (9.93) otrzymamy

ZQ) = J w (x|W) exp (- ao) oo

dx

k=|

a poszukiwaną funkcją rozkładu g będzie

sA, W) = ww) 20) o(-Żaia). Prawa strona powyższego związku wyrażona jest przez mnożniki Lagrange'a, ałe możemy je wyeliminować, rozwiązując układ równań lh =

0

TWA

k=1,2,...,m.

W przykładzie 9.4.13 widzieliśmy, że gęstość w (x|W), będąc wielkością dość intucyjną, jeśli otrzymujemy ją w procesie przejścia granicznego, jest w istocie obiektem nie tak prostym. W szczególności, dla rozkładu określonego na nieskończonym przedziale, przyjęła ona wartość równą zeru, co stawia pod znakiem zapytania znaczenie wyrażenia na entropię informacyjną. By bliżej zrozumieć tę trudność, rozważmy rozkład g(x|W) wielkości x, o której nie mamy

żadnych wstępnych informacji, nawet w postaci dys-

kretnego modelu, nad którym moglibyśmy wykonać przejście graniczne. Wiemy jedynie to, że jest ona zawarta między dwiema zadanymi wielkościami a oraz b. Otrzymujemy wtedy natychmiast, że

gtdlW) = PE J w(x|W)dx

Tak więc gęstość w(x|W), z dokładnością do stałego współczynnika, jest zacząt-

kiem opisującym naszą wstępną niewiedzę. Tym samym wróciliśmy, niczym bumerang,

do punktu wyjścia. Wyruszyliśmy na poszukiwanie prostej i zwięzłej zasady, która dostarczyłaby nam, także w odniesieniu do wielkości ciągłej, recepty na konstrukcję stopnia racjonalnego zaufania, a znaleźliśmy dość specyficzny obiekt — tzw. lewą miarę Haara w(x|W) — o którym niewiele, z wyjątkiem szczególnych sytuacji, potrafimy powiedzieć. Dopóki trudność ta nie zostanie rozwiązana, dopóty metoda maksymalnej entropii w odniesieniu do zmiennej ciągłej pozostanie jedynie generalną wskazówką przy poszukiwaniu prawdopodobieństwa bezpośredniego.

9.4, Prawdopodobieństwo bezpośrednie

——

Przykład 9.4.14

Rozkład Gaussa z zasady entropii Niech wielkości j4, zadają pierwszy i drugi moment rozkładu g(x|W) określonego na nieskończonym przedziale —00 < x < 0

u= | xsGlwyaz.

us = | 2gGW)az.

to znaczy funkcje f,(x) definiujemy przez f,(x) = x*. W naszych rozważaniach przyjmiemy, arbitralnie, że miara w (x|W) jest wielkością stałą i od razu położymy ją równą jedności. Funkcja rozdziału Z(A;, A) zadana jest przez 00

fm

Z(Ay, A>) = | exp(—A;x — Aax”) dx =

A

R exp (zz).

—00

Znajdziemy związek między nadziejami a mnożnikami Lagrange'a:

Inn Z(A,, , 22A2)

in (zWAX

7) CTH

= In

o u=-—

(2

2

lnu

(2

p—

lina, + 21—, 2007 4Ą;

zINn

/1 l A A |-nn-->lnly+—- | =——

3a,

29%,o

2l mx

=—IMNT—

4A,

Li A 207





+

n

ZA,

M 440) 2h —n—

|

ma

+

42M

—.

Ze związków tych otrzymujemy wyrażenia na mnożniki: Ay

|

=



L M — U?

=

iL o?

— —

A+

,

l 2(4—Hu)

=

=

l 20?

O

,

ZIĄ—W,

a w konsekwencji również funkcję gęstości AT

N

(xl, O,

W)

=

=

=

zw(-

„/2r0o 2

1

V2RG

Zano)

ex CX

u

———

P

b

20*

(

(x —

————

2o?

|; Y"—

Zz

—A



2”

)

na

©Xp

Ę

— A1X

— AX )

|?

—— AK

Żo?

.

Otrzymaliśmy rozkład normalny. To, co najbardziej zaskakuje w tym wyniku, to sformułowanie warunków niezbędnych do uzyskania tego rozkładu. W tradycyjnej teorii rozkład ten wiązany jest zawsze, w mniejszym lub większym stopniu, z centralnym twierdzeniem granicznym. Po to, byśmy mogli odwołać się do rozkładu normalnego, musimy, za każdym razem, szukać uzasadnienia w postaci dużej liczby losowych efektów zaburzających rezultat pomiaru. W praktyce oznacza to

613

614

9, Stopień racjonalnego zaufania

z reguły konstruowanie fizycznego modelu pomiaru i odwoływanie się do mechanizmów wprowadzających niekontrolowane fluktuacje, jak to uczyniliśmy w pod-

rozdziale 5.5.1, budując model Laplace'a małych błędów. Jeśli takiego obrazu pomiaru nie udaje się nam stworzyć, odczuwamy głęboki niepokój, że popełniamy

poważny błąd, który usuwa nam grunt spod nóg i stawia pod znakiem zapytania

całokształt naszych rozważań. W nowej teorii rozkład ten możemy zawsze zastosować w sytuacji, gdy dana jest nam wiedza o typowej wartości wielkości x i jej dyspersji. To wystarczy.

r

9.4.5. Metoda najmniejszych kwadratów Zajmiemy się teraz zastosowaniem dotychczas uzyskanych rezultatów do jednego z najbardziej typowych zagadnień, jakie spotykamy w praktyce: do zagadnienia dopasowania funkcji do danych doświadczalnych. Problem ten jest na tyle obszerny, że zapewne zasługiwałby na wyodrębnienie w oddzielnym rozdziale. Z, drugiej strony, stanowi ilustrację metod współczesnej teorii prawdopodobieństwa, dlatego rozpatrzymy go w tym miejscu, na zakończenie tej części naszych rozważań nad metodą bayesowską, traktując go jako

jeden wielki przykład.

W naszej analizie ograniczymy się do zagadnienia liniowego w nieznanych parametrach 6;, i = 1,2,...,m, tzn. przyjmiemy, że mierzymy n wielkości y;, określonych za

pomocą związku

6,91(X) + 629200) + *** + OnQPm(X),

(9.99)

przy n wartościach wielkości x;, gdzie Q;(x) są zadanymi, liniowo niezależnymi funk-

cjami. Dane y; są zakłócone przez zmienny komponent, „nieregularność, którą określimy symbolem e;,, a której nie potrafimy kontrolować. Przyczyna zaburzenia może nie być nam znana, a jeśli jest znana, to nie dysponujemy żadnymi danymi, które pozwoliłyby nam przewidzieć jego efekt. Zaburzenia tego nie powinniśmy mylić z kwestią losowego charakteru pomiaru. Szum, jaki zniekształca wynik pomiaru, ma dobrze okreŚloną, fizyczną przyczynę. Gdybyśmy tę przyczynę znali i potrafili ją ująć w równania, posiedlibyśmy pewną dodatkową wiedzę o badanym zjawisku, a to pomogłoby nam uściślić nasze wnioskowanie i zawęzić charakter końcowej niepewności. Przyjmiemy

też, że znane są nam

wielkości, które w konwencjonalnej

teorii na-

zywamy błędami wielkości y,. W podejściu bayesowskim wielkości te odnoszą się do zaburzeń i podają dyspersję. Ponieważ określona jest także wartość pomiaru, więc to wystarcza, na mocy przykładu 9.4.14, do stwierdzenia, że wielkości e; ej = y; — 6191(%;) — hP-2(Xx;) — :*: —

OnQn(ti),

podlegają rozkładowi Gaussa. Jeśli uogólnimy problem, wprowadzając korelacje między

zakłóceniami poszczególnych pomiarów, określone przez macierz V, to funkcja wiarogodności naszego problemu będzie zadana przez

LGl6,x,V, W) =

1 (/2n)"x/det V

PB (

-5 0 — 807V- ty — 00) )

(9.100)

9,4, Prawdopodobieństwo bezpośrednie

615

gdzie pozostałe oznaczenia zachowaliśmy z podrozdziału 7.3. Aby „przetworzyć” funkcję wiarogodności na prawdopodobieństwa wynikowe parametrów 6;, zastosujemy twierdzenie Bayesa, do którego potrzebujemy zaczątków parametrów. Te przyjmiemy jako

wzajemnie niezależne i nadamy im postać minimalnie informatywną, właściwą dla pa-

rametrów lokacji, czego uzasadnienie znajdzie Czytelnik parę linijek niżej: z(8,| W) = const,

i = ],2,...,m.

(9.101)

Otrzymujemy w ten sposób funkcję rozkładu wynikowego

l

w(6|y, x, V, W) x exp (-; (y — 66) V"! (y — 00)

(9.102)

Funkcja ta, jak należało oczekiwać, zadana jest rozkładem Gaussa. Zobaczymy to wyNajpierw wykładnik (bez współczynnika 5 i znaku „—”) rozwiniemy

R=(y-©96)'V'y-$0)=y'V'y-y'V'96-09'V'y+0'6'V '$6, a następnie wprowadzimy kwadratową, symetryczną macierz wymiaru m X m:

W'=$'V'$,

(9.103)

co pozwala zapisać wyrażenie na i

R=y'V'y—y'VIpWW"'8 -86W'WE'V

'y+6'W'6

=ylVviy—ylwrw”'9 —6W'Wwy+60W"!6, które jednocześnie wprowadza macierz

v=weg'v-.. Obie macierze W oraz W są tak samo zdefiniowane jak w podrozdziale 7.3. Zwiniemy następnie formę kwadratową R

R =(6 — Wy)” W” (6 — Wy) + y'V"'y — y”WoW”"Wy,

a po podstawieniu definicji macierzy W do ostatniego wyrazu, znajdujemy

R =(6-Wwy)' W” (6 — Wy) +y' Ry,

(9.104) |

gdzie wprowadziliśmy jeszcze jedną macierz:

A=V"'(V-ów$"')Vv"'. Konsekwencją tych manipulacji jest przekształcenie gęstości wynikowej (9.102) do

postaci (składnik z macierzą SŁ upraszcza się z powodu unormowania):

w(óly,x,V,W) =

1 exp (-; (6 — Wy) W"! (6 — vy) . (/2n)"A/det W

(9.105)

Widzimy, że najlepszej oceny poszukiwanych parametrów dostarcza nam nadzieja

(i jednocześnie wielowymiarowa moda) tego rozkładu dmoda =

(6)

=

Wy,

|

(9.106)

Ak

jedynych, które mogliśmy ustanowić, gdyż rozważamy bardzo ogólny model. W konkretnych przypadkach możemy dysponować pewną dodatkową wiedzą, która może zawęzić

klasę gęstości zaczątkowych. Jeśli np. zajmujemy się pomiarem przekroju czynnego o

na oddziaływanie neutrin niskich energii E (nie więcej niż kilka gigaelektronowoltów w układzie laboratoryjnym) z nukleonami, to przekrój ten możemy określić związkiem o =0E, a o parametrze O wiemy, że jest on dodatni. Ogranicza to jego gęstość zaczątkową do wartości większych od zera, co prowadzi do modyfikacji gęstości wynikowej (9.105) i pociąga za sobą uściślenie jego najlepszej wartości i zawężenie obszaru wiarogodności. Istotnie, rozważmy przykład zależności y = 6x, który dla zaczątku (9.101)

prowadzi do funkcji rozkładu wynikowego (9.105)

1 (8 — 065)? ao exp (-—-)

w(6|6g, o, W) = gdzie

natomiast wielkości o, określają dyspersje czynnika zaburzającego dla każdego z n pomiarów. Przypuśćmy, że w wyniku dopasowania otrzymaliśmy 6, = 1,0 oraz o = 0,7. Przedział wiarogodności odpowiadający 95% prawdopodobieństwa określony jest przez krańcowe wartości —0,372 oraz 2,372, a więc o całkowitej szerokości 2,744. Zwróćmy uwagę, że rozciąga się on na wartości ujemne. Narzucimy teraz warunek na parametr 0, wymagając, aby był dodatni. W ten sposób nasz mały przykład staje się jednocześnie ilustracją ogólnych metod bayesowskich stosowanych w przypadkach, gdy parametr, będący przedmiotem zainteresowania, podlega fizycznym ograniczeniom. Wynikowa funkcja gęstości przyjmie wtedy postać

w(0|0%, o, W) 0

„O,

z

ZĄ/2nO

a LĘ

P

(

6 —

——-——.

20?

)

6>0

|)

ZU,

(9.107) .

gdzie czynnik normujący Z wynosi Z =

1

f

—0)?

|ee(-—2210 20?

do.

0 Tym razem przedział wiarogodności odpowiadający 95% prawdopodobieństwa rozciąga

się od zera do wartości około 2,2, a więc jest krótszy. Oczywiście, wpływ obcięcia staje tym mniej istotny, im wielkość o jest mniejsza w stosunku do wartości centralnej 05.

A 21 ENNY EDP

Wyniki tu otrzymane są dokładnie takie same jak w podrozdziale 7.3, co nie powinno nas dziwić, gdyż są konsekwencją przyjętych przez nas gęstości zaczątkowych (9.101),

PNW

a łączny obszar wiarogodnych wartości tych parametrów określony jest macierzą W (9.103). Rozkład prawdopodobieństwa dla dowolnego z parametrów otrzymamy metodą marginalizacji, co także prowadzi do rozkładu Gaussa z wariancją określoną przez odpowiadający temu parametrowi wyraz stojący na diagonali macierzy W (patrz (5.75)).

so wia meentnaii mh mame Am Nm

aaa m m admi

maa

9. Stopień racjonalnego zaufania

EZEOE O Z PRZE NNOZER EE

616

9.4. Prawdopodobieństwo bezpośrednie

I tak, dla o = 0,3 czynnik normujący Podobny efekt dyspozycji bardziej

617

obcięcie przestaje już mieć nieomal jakiekolwiek znaczenie, gdyż Z jest wtedy praktycznie równy jedności. poprawy precyzji wnioskowania uzyskalibyśmy, gdybyśmy mieli do konkretną wiedzę na temat nieregularnych czynników e;.

r-—— Przykład 9.4.15 Masa antyneutrina — przedział wiarogodności Zastosujmy powyższy mechanizm ograniczania prawdopodobieństwem

zaczątko-

wym rozkładu poszukiwanego parametru do fizycznego obszaru w ocenie masy antyneutrina elektronowego, który to problem dyskutowaliśmy wcześniej w przykła-

dzie 2.7.2 oraz podrozdziale 7.4.5. Zakładając model rozkładu Gaussa dła pomiaru

nieznanej wielkości = m;, jej wynikowa funkcja gęstości prawdopodobieństwa jest dokładnie taka sama jak ta we wzorze (9.107): l w(m;|6,,0, W) =-———ex

j

gdzie 6, = —54 eV”,

Zy/2no

h

(m) — 85)” (-F-

,

żo?

> m,>0,

o = 30 eV”. Pełny rozkład oraz jego część ograniczona do

dodatnich wartości kwadratu masy antyneutrina, unormowany do jedności w tym obszarze, przedstawione są na wykresie 9.14. Z rozkładu tego znajdujemy dziewięćdziesięcioprocentowy przedział wiarogodności 0 < m; < 26,6 eV” dla kwadratu masy antyneutrina (przypomnijmy rezultat konwencjonalnej statystyki z podrozdziału 7.4.5: 0 < m? < 13,5 eV”). Jeśli przejdziemy od kwadratu masy do samej masy, przedział wiarogodności na tym samym poziomie zawiera się między

zerem a 5,2 eV.

Powyższe

obliczenia oparliśmy na zaczątku, który traktowany jako funkcja

kwadratowa masy jest stały. Postępowanie to nie ma uzasadnienia w żadnej z dotychczas przedstawionych zasad. Wynika ono tylko i wyłącznie z tradycji, wymu-

szonej, nota bene, prostotą matematyczną, jaka się utarła w odniesieniu do analizy

tego zagadnienia.

0,08 0,06

|

—150

MO

—100

NJ

-50

0

50

Rys. 9.14. Pełny rozkład Gaussa i jego część zawężona do dodatnich wartości ocenianego

parametru

r”

618

9. Stopień racjonalnego zaufania

Rozważmy teraz inną typową sytuację, kiedy macierz kowariancji V określona jest z dokładnością do czynnika skalującego o*

V=OoV,

(9.108)

gdzie macierz V jest znana. Postać (9.100) funkcji wiarogodności dla tego zagadnienia nie ulega zmianie, przekształcimy jedynie jej wykładnik (9.104) do postaci jawnie uwzględniającej czynnik skalujący:

R=

|

m

l

--

1 -

3 (6 — Wy)” V-"' (6 — Wy) + cz) NY = zd.

Macierz W pozostaje bez zmiany, ponieważ w jej definicji nieznany czynnik o ulega uproszczeniu

Wy= (97007!)

Bra ZY-ly = (87610)

GTV-!y,

pozostaje on jednak w macierzy kowariancji W

w= (870-010)

=? GÓR

= ow,

(9.109)

jak również w definicji macierzy Sł

Q=V'(V-6W$')V"'=

W” (Y — owa”) V' = Ś

Poniewaz jednocześnie mamy związek

detV = o”" detV, to dla funkcji wiarogodności otrzymujemy L(yl8,x,V, W) =

(

exp (- (6 — Wy)” W” (6 — Wy) ydy |

2Zn)rorv det V

202

Prowadzi to do gęstości wynikowej, warunkowanej także parametrem o, m l w(ó|o, y,x, V, W) x —exp| o"



(9.110)

(6 — Wy) W”! (6 — Wy) + m 202

Gdyby interesowała nas tylko ocena parametrów 6,, to parametr o w tej gęstości

byłby parametrem naprzykrzającym i moglibyśmy go usunąć procedurą marginalizacji. W niektórych zastosowaniach możemy być jednak zainteresowani jego wartością, dlatego postąpimy w bardziej ogólny sposób i zbudujemy łączną gęstość wynikową zarówno dla 0;, jak i o. Dla gęstości zaczątkowej parametrów 60; zachowamy postać (9.101), natomiast dla wielkości o wybierzemy postać Jeflreysa (9.74): 1

z(o|W)=—,

O

o>0,

9.4. Prawdopodobieństwo bezpośrednie

619

a otrzymamy łączną gęstość wynikową dla wszystkich poszukiwanych wielkości w(

6,

o|y

x

hyV,

4

)

s(-

l



Zg”"+1

8—WyTW-!(0—W p)” W-! (6 — Wy) 202

+y

TQ

)

(9.111)

gdzie Z jest czynnikiem normującym

1

z= |

l

ep

-

Ndo

——y! dy

o"

f

„|ee

20?

_(

o

6 — WyTW-! (6 — W )

202

y)

do.

—00 0 Całkowanie względem parametrów 6, dostarcza czynnika proporcjonalnego do o”

| ox (5 00



Wy)” Tęqyp-1 W-! (6

w



20?

19 — (Zn) m o" kier,z

—00

co prowadzi do całki normującej w postaci (patrz (9.76))

Z = (zz)

Yderw | 0

— (2x)

exp (-z577% 20?

o” m

) do o

Zaw ( yrŚy v/detW.

W związku tym może nas zaniepokoić fakt pierwiastka z wielkości yTRy,o której nie wiemy, czy jest dodatnia. Rozważmy wykładnik funkcji wiarogodności (9.110)

R=(06—Wwy)"W"'(6-Wwy) Hy $y. Jeśli podstawimy do niego rozwiązanie (9.106) konwencjonalnej metody najmniejszych kwadratów, wielkość ta przyjmie najmniejszą możliwą wartość, jaką ta metoda może wymusić na wielkości Ń:

R

h

—.

dihn=y Sy.

(9.112)

Stąd też wnioskujemy, że musi być ona dodatnia. Wyrażenie (9.111) dostarcza jednoczesnej oceny najlepszych (najbardziej prawdopodobnych) wartości parametrów 6; zgodnych z (9.106) oraz wartości wielkości o: ad

g

moda

YTY

+1

_

Śmin

n+1

Jeśli nie interesują nas parametry 6,, możemy je z łącznej funkcji rozkładu (9.111) usunąć, wykonując całkowanie: 00

w(oly,x,V, W) = J w(8,o|y,x, V, W)dó 7%

=



I

Zam (Yin) 07m!

exp

( >) |-——

2a

(9.113)

| -

620

9. Stopień racjonalnego zaufania

NAZWCZTAE

Rozkład ten charakteryzuje się nadzieją

_

=

Zm

(

n-m—l

Śnin

o

'a

(—>7)

2

nm

którą warto porównać z tradycyjnym wynikiem (7.47), jak również z

(o) =

l Znm

(y

— Śnin

J

f

o”

uar

Ńmin

SXP | 755

20?

0

0

do =

Znm+2 Zn_m

( (v



Śri

=

Sin

Mtmin

,

nm

(9.114)

Z. gęstości (9.113) wynika także inna, bo niezależna od parametrów 6;, ocena najbardziej prawdopodobnej wartości czynnika skalującego o Omoda

z



Śtmin

n=m+

1 .

Obu tych wielkości możemy użyć do oceny pełnej macierzy kowariancji (9.108) 1 (9.109).

W filozofii podejścia bayesowskiego zapewne lepsza z nich jest ta zadana przez modę

rozkładu, choć bardziej konwencjonalne rezultaty, jak się przekonamy o tym za chwilę, otrzymamy, stosując asymptotyczne przybliżenie w wyrażeniu na nadzieję (o) lub Ścisły

wynik (9.114) na (o”).

Spójrzmy teraz na postać rozkładu parametrów 0,, który uzyskamy z (9.111), cał-

kując względem czynnika skalującego o 00

w(óly,x,V, W) = | w(e.oly,x.%. W) do

ZMOWA 0

(6 — Wy) W-" (6 — „|

Rozkład ten jest rodzajem rozszerzenia rozkładu Studenta dla przypadku m zmien-

nych. Nadzieja, jak również wielowymiarowa moda tego rozkładu zadana jest tradycyjnym wyrażeniem (9.106), a obszary wiarogodności o zadanym prawdopodobieństwie

określone są hiperelipsoidami w m-wymiarowej przestrzeni. Z rozkładu tego mogą nas interesować dwie wielkości: rozkład pojedynczego, wybranego parametru 0, lub też

rozkład pełnej formy kwadratowej występującej w nawiasie kwadratowym.

Zacznijmy od rozkładu wybranego parametru. Rozkład ten będzie nam łatwiej określić, jeśli powrócimy do wyjściowej postaci (9.111), w której usuniemy, przez całko-

wanie, wszystkie parametry 6; z wyjątkiem wybranego parametru 6;. Wykorzystamy do tego znaną własność (5.75) wielowymiarowego rozkładu normalnego. Własność ta,

9.4. Prawdopodobieństwo bezpośrednie

621

odniesiona do rozkładu (9.111), dostarcza nam rozkładu wybranego parametru

w(6;,o|y,x, V, W)

ŚĘ.. U) —gaa2

p

| »(-

T qy-1

6—w

6-—w

DW

> dó, ... d6;_;d6;,,... dO,

—00

l

=

=

l

exp | -752

1

dj,

— (65)

2



+ Rmin |



gdzie, dla uproszczenia notacji, „wprowadziliśmy nadzieję (9; | z równania (9.106) oraz diagonalny element macierzy W oznaczyliśmy przez w,,. Ten związek, scałkowany

względem o:

OO

w(8;|y, x, V, W) = J w(6;,o|y, x, Vv, W) do

-0) +3 nin

r(ęni)

_—

2



|

— 3 (m—m-+1)

( +

_G- (6, TZ ) |

(n — m)tb,; (0?)

m)

NEC — m)tb,; (02) (

(po ostatnim znaku równości wykorzystaliśmy wyrażenie (9.114) dla nadziei (a*)), po podstawieniu 0, — (9.

= =) W; (0?)(02

—00 < tj < ©,

przechodzi w rozkład Studenta (5.86) o n—m stopniach swobody, jednakowy dla każdego

z parametrów 6,

r (——-) w(t,|n, m, W) =

xG=m)r

(=

p (

+

n-m

—1(n—m+1) )

.

622

9. Stopień racjonalnego zaufania

Zarysujemy teraz sposób na określenie rozkładu formy kwadratowej parametrów 0, z łącznej funkcji rozkładu (9.111), którą przepiszemy tutaj, rozbijając ją na iloczyn dwóch czynników: %

w(8,oly,x, V, W) =

— Źn=m

l

Śnin

exp (-=)

( So)

gnm+l

(V2x)

0

l

l

x

any/det Wą

x

exp (5:

20?



6 —wWwy'w" 0 - wy).

Drugi czynnik w tym wyrażeniu to m-wymiarowy rozkład normalny parametrów 65, o ile byłaby znana nam wielkość o. Oznacza to, że wielkość l



u = —o (6 — Wy) W” (6 — Wy) opisana jest rozkładem (5.77) x* o m stopniach swobody, dlatego łączny rozkład (9.111) możemy zastąpić rozkładem

w(u,oly,x, V, W) —

za (finjooa l 22) rgm

"03

exp (- >)

uż"! exp (->)

„Wyłuskamy” teraz z wielkości u zależność od o, definiując nową, większą od zera zmienną t£: U

=

t”



>

o

du

21

=

—3

o

dt ,

co pozwala zapisać funkcję rozkładu przez w(t,oly,x,V,

W) =

2

Zy_m (VS) (2)

r (im)o"* p exp (-

=

202

Teraz możemy wycałkować względem parametru o: m

w(ily,x,V,W)=2

m (y £2 + Si) (42)

Zn=m (VS)

gm!

5 (żm)

1

=2



I (zn)



r (>m) 2 jA (zn — m)) Y Hmin

(1 + —) min

m—l

(

-

min

)

Dokonamy w końcu podstawienia

2.

= |

ro (02)

(o?)

-

6 — Wy) W-! (6 — Wy).

.

9,4. Prawdopodobieństwo bezpośrednie

623

gdzie W

= (07)W,

jest naszą najlepszą macierzą kowariancji rozkładu parametrów 6,. Podstawienie to doprowadza nas do ostatecznej postaci rozkładu w(T|n,m,W)=2

m

A)

r(z)



(oe)

2

4773

R—M

rea

będącego wariantem rozkładu zwanego rozkładem Hotellinga. Gdy m = 1, otrzymujemy rozkład Studenta o n — 1 stopniach swobody. Właściwy rozkład Hotellinga w klasycznej statystyce występuje pod postacią

w(T;n,m) =2

czy r(g)e(e) (3)

2

1 określony jest dla statystyki

2

(0

T"'(1+

r

-

T>0,

T=(1-1)6-p)"V"'(x- p), gdzie macierz V to macierz estymatorów wariancji (4.5) i kowariancji (4.13). Służy on

do testu istotności łącznego odchylenia średnich x,, Xą,...,X„ hipotetycznego układu wartości oczekiwanych ui, Ma, ..., Lm.

z próbki od pewnego

Jeśli umiemy dopasować zależność teoretyczną do danych doświadczalnych, to na-

stępnym krokiem jest ustalenie, która z konkurujących zależności lepiej opisuje te dane. Dlatego rozważymy teraz problem weryfikacji modeli określonych różnymi zależno-

ściami. Najbardziej elementarny przykład potrzeby takiego rozstrzygnięcia pojawia się przy dopasowaniu wielomianu, kiedy to musimy podjąć decyzję co do jego stopnia. Za-

sadniczo procedura weryfikacji wygląda tu bardzo podobnie do tej, jaką rozpatrywaliśmy w podrozdziale 9.3.4. Z uwagi na techniczne komplikacje, spowodowane nieskończonym

zasięgiem dopuszczalnych, a priori, wartości zarówno parametrów 6;, jak i parametru o,

przeprowadzimy tu powtórnie stosowne obliczenia. Rozważymy przypadek pełnej znajomości macierzy kowariancji V. Funkcja wiarogodności modelu określonego przez m parametrów zadana jest wyrażeniem (9.100), do którego podstawimy przekształcenia (9.104) oraz (9.106):

C(6,x,V,W) =

(vzr)

Gp —— esp (-> (6 — (6) W, (6 — (8) + i) w det V 2 (9.115)

Do wielkości min oraz W dodaliśmy dodatkowy indeks (m), aby zaznaczyć, że pochodzi

ona z modelu zadanego wyrażeniem typu (9.99) i określonego przez m parametrów 6,. Abyśmy mogli znaleźć globalną wiarogodność P(D|M,„ A W) dla tego modelu — teza M(„, głosi: model z liczbą m parametrów jest słuszny — musimy wprowadzić

624

9, Stopień racjonalnego zaufania

gęstości zaczątkowe parametrów i scałkować względem nich. Przyjmiemy, że wszystkie zaczątki są jednorodne zł

6;16;,87, W |

ł

ł

)=

0;



—,

0;

0,

) x

(8 — (8)) W”! (6 — (0) + zw

|) do.

W następnym kroku przekształcimy wykładnik:

—o (6 — (6) W" (6 — (6)) + —07W-'9 5? —

02 +- 52



52

06 )

1

W"l0—-

52

0

g2

W”!

(0

(w ostatnim składniku włączyliśmy czynnik o* do macierzy W, dzięki czemu mogliśmy uniknąć nad jej symbolem znaku tyldy). Całkując względem uprzykrzających parame-

2

9. Stopień racjonalnego zaufania

a7

626

ii

ibn

trów 6;, znajdujemy

dat malima koala ae ke bee

P(DIó, Mm AW) m

(/2r)

7I

o o? + 63

/det V

e xp | ( —z (m o" | Vlmn +F 5 2 o” +6

(6) W"!

o ))

Nh

=

Ponieważ wielkość 6 jest z założenia znacznie większa od czynnika o , dlatego dokonamy

przybliżenia, zaniedbując o* w stosunku do 6”:

PN 5m/det V mp(-1(ar507W 0). 2

g”

P(DIó,

Mn)

A W)

=

(2x)

Musimy teraz zmarginalizować wprowadzony parametr 6. Dokonamy tego za pomocą właściwego zaczątku Jeffreysa (9.75): l

m

P(D,

Ó| Mm)

A

=

W)

n

A (/2r) 5m+1/det V

cXp

(-;

2

2

(Sta

+



6

o

(6)' w”

))

,

gdzie

aby następnie scałkować względem niego

P(D|Mqm, W)

k

=

gm

>

a(/2n) vdetV

exp | —

Ńmin | f 1

|

2

02

— exp | >=

ó”!

26?

(98)

mai „N dó W”

(6) | —.

0

min

Ufając, że nie popełniamy istotnego błędu, przesuniemy granice całkowania do zera oraz nieskończoności:

P(D|M,„, W)

3

m

A (42) /det V o" a(42a

-

:

ap (- min |) J(1— exp (-5 0 w” toy) —d 2

(

+/det V

exp | —

8

26

6

: 2

(42) „r ()ep (- az 2a (/2x) vdetV(418) W-' (6))

|

|

9,4. Prawdopodobieństwo bezpośrednie

627

Teraz już możemy utworzyć stawkę, w której upraszcza się czynnik normalizacyjny A

zaczątku Jefireysa, o ile każdy z modeli ma przynajmniej jeden parametr:

P(D|Mm AW) P(M„IW)

Qm)/tk) F

P(D|M%

A

W)

P(M%|W)

m

_1

2 min) P(MlW)

N—

= (42) GAMOWAE, »p( W ((8)

z

(6)) r () exp (-z%m. 2

2

min

PMW)

gdzie przy macierzach W oraz wielkościach Ytm;, umieściliśmy dodatkowy indeks, wskazujący na związek tych obiektów z określonym modelem. Pierwsze trzy czynniki to współczynnik Ockhama, natomiast stosunek funkcji wykładniczych to stosunek maksymalnych wartości funkcji wiarogodności, czyli poznany przez nas wcześniej w związku (9.59) czynnik Bayesa.

Podobnie obliczenia możemy wykonać również w przypadku, gdy pierwotna macierz

V znana jest z dokładnością do czynnika skalującego. Szczegółowe rachunki pozostawimy jednak do wykonania Czytelnikowi, jak również pozostawimy mu ocenę „ekwilibrystyki umysłowej”, jakiej tu dokonaliśmy.

Wyrażenie na stawkę przyjmuje prostszą postać, jeśli zdecydujemy się na zastosowanie wielomianów ortogonalnych, gdyż, jak wiemy z podrozdziału 7.3.2, macierz W jest wtedy jednostkowa. Jeśli, dodatkowo, pierwotna macierz V jest diagonalna, wtedy także wyrażenie na St; redukuje się do (patrz np. (9.112)) _

_

s

n

_

2

m

Nnin =) Ly =yVy-yV'G6'V'y=y'V"'y-(6) (6) =) 3-2 ,08)”. i=l

Ji

i

i=1

gdzie o; to i-ty element na diagonali macierzy V. Podstawiając te rezultaty do stawki Qimytk, otrzymujemy

k

(CZ

F

e

Q mh)

(8;) (aż) i m (Ż 0?) 2]

>

7

r(7

_ ( z)



k

(3)

Przyjmijmy, że m = k + 1, czyli rozważamy lomianu o jedność, wtedy

WA

Qt+1)/(h) = = k

ł

=|

(6,)”

exp (

F Zaj

3

2 i=k+1

w)

PM

|W)

P(M5|W)

słuszność podwyższenia stopnia wie-

(6.2 | TGE+D) "Tt kl

.

(1

N PMaqylW)

exp ( (8441) ) "PMolW)

*

i=l

W sytuacji, gdy nie mamy preferencji dla żadnego z rozważanych wielomianów, ostatni czynnik (stosunek prawdopodobieństw zaczątkowych modeli) możemy przyjąć jednost-

628

9, Stopień racjonalnego zaufania

kowy. Jeśli dodatkowy parametr (6,4) nie jest istotnie duży, wtedy dwa pierwsze czynniki mogą zadziałać jak brzytwa Ockhama i zaważyć na wartości stawki, gdyż stosunek funkcji gamma Eulera z dobrym przybliżeniem wynosi ,/k/2, a więc w wielu zastoso-

waniach jest niewiele większy od jedności.

—- 9.5. Prawdopodobieństwo personalne Zasadniczym jądrem przedstawionej dotychczas teorii prawdopodobieństwa jest kwestia uzasadnienia postaci rozkładu prawdopodobieństwa. Staraliśmy się pokazać, jakie prze-

słanki są niezbędne do odtworzenia wszystkich ważniejszych rozkładów, które pojawiają

się w klasycznej teorii. Wskazaliśmy także na dwa fundamentalne narzędzia: metodę

grupy transformacji i metodę maksymalnej entropii, za pomocą których przekształcamy posiadaną informację (bądź jej brak) na matematyczną formułę rozkładu. Nacisk na logiczny i dedukcyjny charakter związku między werbalną wiedzą a analityczną formułą

sprawia, że prawdopodobieństwo uzyskiwane na tej drodze zwane jest obiektywnym. Stosowany bywa także bardziej precyzyjny termin prawdopodobieństwo logiczne. Właśnie ten logiczny aspekt teorii chyba najbardziej przemawia do fizyka, gdyż zgodny jest z jego postrzeganiem procesu poznania naukowego. Dlatego też zapewne nie jest dziełem przy-

padku, że jego twórca — H. Jeffreys i najgorętszy orędownik — E. T. Jaynes, byli fizykami. Nie jest to jedyny sposób podejścia do kwestii prawdopodobieństwa. Czyż nie zdarzyło się Ci, Czytelniku, wygłosić albo usłyszeć zdanie, które miałoby sens: daję dwa

przeciwko jednemu, że następne wybory wygra X lub: moja drużyna wygra mecz z dru-

żyną Y. Takim stwierdzeniem dajesz nam do zrozumienia, że jesteś, Czytelniku, gotów

zaryzykować 2 zł, aby wygrać 1 zł. Jest to Twoja osobista miara oceny szansy, że obstawiane zdarzenie nastąpi z prawdopodobieństwem 2/3. Naprzeciw tak rozumianemu prawdopodobieństwu wychodzą instytucje totalizatora, a bookmacherzy żyją z niego, co

ukazuje na jego operacyjny, a więc praktyczny, charakter. Ponieważ taka definicja praw-

dopodobieństwa łączy się nierozerwalnie z Twoją wiedzą, prze-

konaniami, a może nawet uprzedzeniami (każdy kibic sportowy jest niepoprawnym optymistą w kwestii szans zwycięstwa jego

drużyny), prawdopodobieństwo to zwane jest subiektywnym lub jeszcze lepiej personalnym. Jeśli definicję tę uzupełnimy paroma postulatami, to otrzymamy ten sam zbiór reguł, jaki obowiązuje dla teorii Kołmogorowa i prawdopodobieństwa logicznego. Ojcem takiego podejścia był włoski matematyk B. de Fi-

netti, który swym artykułem „Le Prćvision: ses lois logiques,

ses sources subjectives”, opublikowanym w Ann. Inst. Poincarć 7, 1 (1937), dał początek całej serii prac i to tak skuteczny, że

B. de Finetti,

1906-1985

znakomita większość literatury dotyczącej współczesnej teorii prawdopodobieństwa odnosi się do tego . nurtu. o. o, Z nurtu tego wyrastają inne operacyjne definicje prawdopodobieństwa personalnego. Przypuśćmy, że chcemy uzyskać opi-

9.5, Prawdopodobieństwo personalne

nię eksperta w kwestii pewnej

decyzji, którą musimy

629

podjąć, a decyzja ta może być

trafna lub błędna, w zależności od dalszego biegu wypadków, którego nie umiemy przewidzieć. Umawiamy się ze specjalistą co do jego wynagrodzenia, a suma którą ustalamy,

będzie jednostką w dalszych rozważaniach. Domagamy się jednocześnie od eksperta, aby

wraz ze swoją opinią przekazał nam pewną liczbę x, zawartą między zerem a jednością, a następnie potrącamy mu z honorarium sumę (1 — x)? jednostek, jeśli jego sugestia

będzie trafna, lub x*, gdy nam doradzi źle. Zmusi to eksperta do rzetelnego rozważe-

nia możliwych wariantów dalszego rozwoju sytuacji. Jeśli ekspert chce zminimalizować stratę swojego zarobku, będzie musiał wybrać wielkość x jako równą prawdopodobieństwu p przebiegu zdarzeń prowadzących do trafnej decyzji. Istotnie, oczekiwana strata

eksperta wynosi

pl —x) + (4 — px” 1 przyjmuje wartość minimalną dla x = p. Trzecia, także operacyjna definicja prawdopodobieństwa odwołuje

się do loterii.

Przypuśćmy, że zainteresowany jesteś Czytelniku pewnym wydarzeniem A. Oznaczmy przez p Twój poziom przekonania o możliwości zajścia tego zdarzenia. Ocenę wielkości

p możemy uzyskać, stawiając Cię przed następującym wyborem: e Uzyskasz nagrodę w wysokości 10 zł, jeśli zdarzenie A nastąpi, lub też zostaniesz

pozbawiony tej nagrody (nie dostaniesz nic), gdy zdarzenie to nie nastąpi. e Weźmiesz udział w darmowej loterii, w której możesz wygrać 10 zł z prawdopodobieństwem p lub nie wygrać nic z prawdopodobieństwem 1 — p.

Jeśli dana jest Ci, Czytelniku, taka alternatywa i nie widzisz preferencji między opcjami,

to wielkość p mierzy Twój poziom wewnętrznego przekonania co do szansy wystąpienia zdarzenia A.

Od strony formalnej teorie prawdopodobieństwa logicznego i personalnego nie róż-

nią się. Obie stosują ten sam aparat, a jako narzędzie wnioskowania wykorzystują twierdzenie Bayesa wraz z jego całym arsenałem pojęć. Jednakże obok różnic interpretacyjnych, jakie znajdujemy w obu podejściach, występują różnice praktyczne. Zwolennik

podejścia logicznego ma spętane ręce: najpierw musi postawić się w roli kompletnego ignoranta, aby z symetrii problemu wydobyć nieinformatywny zaczątek lub też z wiedzy, jaką posiada, minimalnie informatywny zaczątek i dopiero na tym fundamencie budować gmach wiedzy z danych doświadczalnych. Nie jest to zadanie, które zostało do końca rozwiązane — wspomnieliśmy o zasadniczych trudnościach, jakie „gnębią” zasadę maksymalnej entropii w odniesieniu do zmiennej ciągłej. Także w odniesieniu do narzędzi, które już znamy i rozumiemy, jak np. grupa transformacji symetrii, nie zawsze i do końca potrafimy rozpoznać trafnie problem. Praktyk podejścia personalnego znajduje się w znacznie bardziej komfortowej sytu-

acji. Nie musi dbać o żelazną logikę i konsekwencję — stać go na wybór bardziej liberalnej postaci zaczątku, do konstrukcji którego może wprząc swoją wiedzę i doświadczenie zawodowe. Wystarczy, że jego zaczątek będzie „„wrozsądny”, a dane doświadczalne, dostatecznie

obfite, dokończą dzieła, redukując i wygładzając wszelkie niedokładności. Przykładem takich rozważań jest cały podrozdział 9.4.5 poświęcony metodzie najmniejszych kwadratów.

630

9, Stopień racjonalnego zaufania

Nie oznacza to, że zwolennik podejścia personalnego wolny jest od wewnętrznych

rozterek. W duszy jego ciągle Ścierają się dwa aspekty analizy danych: zależność uzyskanych wyników od zastosowanego zaczątku i łatwości interpretacji rezultatów. Ten

pierwszy każe mu problem komplikować i badać istotność zmian w wyniku końco-

wym, co nieuchronnie prowadzi go do praktycznych trudności z wykonaniem samych obliczeń, a ten drugi każe mu wykorzystywane narzędzia upraszczać. Zważywszy, że

typowe obliczenia we współczesnej teorii są bardziej skomplikowane niż ich odpowiedniki w klasycznym podejściu, zagadnienie wytworzenia w miarę elastycznych, a jedno-

cześnie praktycznie użytecznych modeli i prawdopodobieństw zaczątkowych ma swoje znaczenie. Widzieliśmy dwa przykłady takiego praktycznego podejścia. W podrozdziale 9.3.3,

gdy rozważaliśmy funkcję wiarogodności w postaci rozkładu dwumianowego, zaczątek zaproponowaliśmy w formie rozkładu beta (9.44), co doprowadziło nas do prawdopodo-

bieństwa wynikowego (9.45), także w postaci rozkładu beta. Podobny wynik otrzymamy także i dla funkcji wiarogodności zadanej modelem ujemnego rozkładu dwumianowego.

Atutem takiego sformułowania problemu jest podsumowanie wszystkich wcześniejszych

eksperymentów

za pomocą równoważnej

liczby przypadków, wyrażonej parametrami

tego rozkładu. Identyczna prostota i łatwość interpretacji występuje dla funkcji wiarogodności zadanej rozkładem Poissona i zaczątku w formie rozkładu gamma, na co

zwróciliśmy uwagę w przykładzie 9.4.4. Takie specjalne zaczątki, dobrane do postaci funkcji wiarogodności i dostarczające rozkładu wynikowego w postaci funkcyjnej identycznej z zaczątkiem, określane są mianem sprzężonych. Zaczątki sprzężone można podać i dla innych modeli pomiaru. Na przykład dla parametru 4 wartości centralnej

rozkładu Gaussa takim zaczątkiem jest również rozkład Gaussa, a dla parametru o” tego rozkładu rozkład gamma w zmiennej zadanej odwrotnością argumentu o”.

Gdy zaczątek i model zostaną wybrane, pozostaje przeprowadzenie analizy i wy-

ciągnięcie wniosków.

Wnioski te jednak będą właściwe Tobie, jeśli Ty zdecydowałeś

(zdecydowałaś) o założeniach. Jeśli Ty także ponosisz konsekwencje tej decyzji, to zapewne taka sytuacja jest akceptowalna. Trudniej jednak wygląda kwestia prezentacji wyników naukowego eksperymentu, gdyż łatwo można się narazić na zarzut subiekty-

wizmu. Wydaje się, że jedynym wyjściem z tego ambarasu jest dyskusja i „ucieranie” poglądów. Unikniemy w ten sposób, co prawda, krytyki, a rezultaty nabiorą intersubiek-

tywnego charakteru, usankcjonowanego w nauce powszechną praktyką, nie oznacza to jednak, że będą sobą reprezentowały prawdę obiektywną.

NAGRODA

Dwa są główne elementy nagrody: zaszczyt i użyteczność.

Unormowania terminologiczne

W 1993 roku, w wyniku współpracy szeregu instytucji międzynarodowych, w tym Mię-

dzynarodowej Unii Fizyki Teoretycznej i Stosowanej (International Union of Pure and Applied Physics — IUPAP), Międzynarodowa Organizacja Normalizacyjna (International Organization for Standardization — ISO) wydała zalecenia: Guide to the Expression of Uncertainty in Measurement dotyczące wyrażania niepewności w pomiarach. Wersja amerykańska publikacji ISO przyjęta w Stanach Zjednoczonych przez National Institute

of Standards and Technology (NIST) ma tę zaletę, że osiągalna jest w Internecie pod adresem: http://physics.nist.gov/Pubs/guidelines/outline.html. Istnieje polski odpowied-

nik tej publikacji, wydany w 1995 r przez Główny Urząd Miar (GUM), a zatytułowany

Wyrażanie niepewności pomiaru. Przewodnik. Informacje przedstawione niżej pochodzą

właśnie z tego wydawnictwa. Celem Przewodnika jest przede wszystkim uporządkowanie terminologii, jaka panuje w dziedzinie zastosowań statystyki matematycznej w nauce i technice. Służy temu wprowadzenie fundamentalnego i ogólnego terminu, jakim jest niepewność pomiaru, która ma wyrażać rozrzut wartości, jaki możemy przypisać wielkości zmierzonej, przy czym nie precyzuje się bliżej operacyjnej metody określania tej wielkości. Niniejszy wykład zasadniczo zgadza się z proponowaną nomenklaturą w zakresie bardziej precyzyjnych terminów: wariancja i kowariancja, korelacja i współczynnik korelacji, a także odchyle-

nie standardowe

eksperymentalne, zwane również niepewnością standardową. Drobna

różnica występuje w znaczeniu terminu odchylenie standardowe zmiennej losowej, które

my, z uwagi na wygodę, nazywamy dyspersją (patrz podrozdział 3.2), rezerwując frazę odchylenie standardowe dla estymatora tejże dyspersji. Jednakże niebagatelnie różni się niniejszy wykład od Przewodnika w kwestii zastosowania słowa błąd, które dla społeczności fizyków jest synonimem odchylenia standardowego. Słowo to w zamyśle autorów dokumentu ISO oznacza wielkość abstrakcyjną z punktu widzenia analizy danych, ponieważ e błąd pomiaru to różnica między wynikiem pomiaru a wartością rzeczywistą wielkości

mierzonej.

Podobnie jest z pochodnymi:

e błąd przypadkowy to różnica między wynikiem pomiaru a średnią z nieskończonej

634

Dodatek A. Unormowania terminologiczne

liczby pomiarów tej samej wielkości mierzonej, wykonanej w warunkach powtarzalności;

e błąd systematyczny to różnica między Średnią z nieskończonej liczby pomiarów wykonanych z zachowaniem powtarzalności a wartością rzeczywistą wielkości mierzonej. Powyższe definicje praktycznie eliminują ten tak popularny termin z praktyki fizyka doświadczalnika. W konsekwencji odchodzą w niebyt takie wyrażenia, jak błąd Średniej, który zastępowany jest niepewnością standardową Średniej; błąd względny, czyli

względna niepewność standardowa, a także błąd wielkości mierzonej pośrednio, czyli

złożona niepewność standardowa. Warto jeszcze wspomnieć o klasyfikacji niepewności, jaką wprowadza Przewodnik. Otóż rozróżniane są dwa jej typy:

e niepewność typu A — czyli taka, którą możemy poszukiwać metodami statystyki matematycznej, a więc stosując aparat przedstawiony w rozdziałach 1—8 niniejszego wykładu;

e niepewność typu B — czyli taka, którą szacujemy innymi sposobami niż statystyki matematycznej. Istotne tu mogę być informacje pochodzące od producenta np. w me-

tryczce urządzenia pomiarowego, różne certyfikaty i świadectwa materiałowe, dane literaturowe, a także własne doświadczenie

i wiedza użytkownika

oraz szczegółowa

znajomość zjawisk składających się na całość procesu pomiarowego. Warto zwrócić uwagę na to, że definicja tej niepewności to wyraźny ukłon w stronę bayesowskiego

podejścia do zagadnienia estymacji. Mamy wykorzystać wszelką dostępną wiedzę, aby z niej wydobyć rozkład prawdopodobieństwa, a z niego poszukiwaną niepewność. Innymi słowy, szacowanie niepewności typu B to bardziej sztuka doświadczalna niż rzemiosło. Na zakończenie warto przypomnieć dwie pomocnicze publikacje regulujące terminologię języka polskiego w dziedzinie statystyki matematycznej, teorii prawdopodobieństwa i metrologii. Są to: e Rachunek prawdopodobieństwa i statystyka matematyczna. Terminologia, Polska Nor-

ma PN—90/N—01051.

e Międzynarodowy słownik podstawowych i ogólnych terminów metrologii, Główny Urząd Miar, Warszawa 1996 (tłumaczenie International Vocabulary of Basic and General Terms in Metrology, ISO, 1993).

Uzupełnienie

W tej książce, a zwłaszcza w rozdziale 4, wielokrotnie pojawiała się konieczność znajdowania sum wartości oczekiwanych jednomianów o postaci 3

(GY;Z% . .),

i,j,k...

gdzie sumowanie rozciąga się na wszystkie elementy próbki, a sama próbka jest prosta. Wartość oczekiwana pojedynczego wyrazu sumy zależy od tego, czy indeksy występu-

jące w tym wyrazie są identyczne, czy też różne. Przykładem postępowania w takim

przypadku było obliczanie wariancji wartości średniej (podobna sytuacja wystąpiła przy obliczaniu wartości oczekiwanej kowariancji z próby), gdzie sumę iloczynów x;,x; rozbilliśmy na dwie: w jednej z nich wystąpiły kwadraty wielkości x,, które dają przyczynek do wariancji zmiennej losowej x, a w drugiej iloczyny mieszane o różnych wartościach

indeksów, co dało iloczyny wartości oczekiwanych. Podobne wyodrębnienie powtarzających się indeksów można przeprowadzić 1 dla bardziej skomplikowanych sum. Podamy tu wyniki dla jednomianów

złożonych z trzech i czterech czynników,

ponieważ takie

wzory wystarczają do rozwiązania przedstawionych w tym rozdziale przykładów. Powtórzymy, dla kompletu, wynik dla sumy jednomianów złożonych z dwóch czynników:

n

3

i=1 j=1

Ż ,%Yjzk = 2% i,j,k

).

XiYjZkim = )

i,j,k,m

+ 3 ij

XYJ

=

Z

>.

i=l, ji

RJE

+) GYszj + Myjzi + XYZ) + |Xi);Zk. ij

i,j,k

xYszik i

(Gyszit, + Xryszzt; + X YsZyt + XrYzzzt, + X Yzzyt, + X;Y;Zit, + X; Yjzytj)

+ >, (X YsZkEj + XyjZiłk H XrYjZkli + XiYjZyty PF XYGZKtk + XY;ZKtj) + 3 i.j.k

i,j,k,m

Xi YjZkim»

636

Dodatek B. Uzupełnienie

gdzie w sumach zaznaczonych po prawej stronie znaku wszystkich równości indeksy i, j,... przebiegają różne wartości, jak to jawnie zaznaczone zostało w pierwszym

wyrażeniu.

Powyższe wyniki pozwalają łatwo znaleźć wartość oczekiwaną np. następującego wyrażenia (dla próby prostej): (7

1)

= >

2000)

+

>

i,j,k

(GX;X; + X;X;X; + 199)

+

ij

>

1)

i,j,k

— (Z z + ię Pó) + > w =

b! +32

Gx) +), ogra) i,j,k

=

b! |+32_bi ) b) + >, 66) i,j,k

=n(x | + 3nn — 1) b gdzie w drugiej i trzeciej

| 09) + nn — 1)(m — 2) (x)”,

sumie przed ostatnią równością występujące

tam czynniki

mogliśmy rozdzielić wartością oczekiwaną, właśnie z uwagi na rozłączne wartości indeksów.

Po nieco bardziej skomplikowanych obliczeniach uzyskujemy także następujące re-

zultaty (również słuszne dla próby prostej)

l

E[8- 1] = zE[6- w]. 1

E|[E- nu] = zE[6-—w']+

wi

2 x ].

Prawo mnożenia sposobności

W tym dodatku zajmiemy się rozwiązaniem równania funkcyjnego, wyrażającego prawo łączności

JU, y),2) = f0, JQ,2)).

(C.1)

Bez wątpienia, najprostsza funkcja spełniająca to równanie to funkcja stała. Ponieważ mało ciekawa jest teoria, w której wszystko jest stałe (a teoria taka, w dodatku, pogwał-

ciłaby nasze wymaganie monotoniczności i zgodności ze zdrowym rozsądkiem), dlatego potrzebujemy nietrywialnego rozwiązania równania (C.1). Wprowadzimy, dla uproszcze-

nia, dwa oznaczenia: u = f(x,y) oraz v = f(y,z), w której to notacji (zmienne x, y

oraz z utrzymujemy jednak jako niezależne) związek (C.1) możemy przepisać w postaci f (x,v) = f(u,z). Zróżniczkujmy tę równość względem x oraz względem y:

9

9

x

0x

3,3 © V) = ZF U, 2) O

3,J

y

0 V) =

O



dy

f (u, z)

> >

hnlx,v) = filu,z)fi(x, y), px,v)fiOG.

z) = Ji lu, z) f(x,

Y);

gdzie indeksy określają numer pozycji argumentu funkcji f, względem którego ją różniczkujemy. Dzielenie stronami drugiego równania przez pierwsze daje

G(x, v) 17,2) = G(x,y),

gdzie

G(x, y) =

hl(x,y) J 1 (x

(C.2)

Y )

Ponieważ prawa strona zależy jedynie od x oraz y, lewa strona, mimo występującego jawnie oraz implicite argumentu z, nie może od tej wielkości zależeć. Mnożąc równość (C.2) przez G(y, z), otrzymujemy

G(x, v) fa(y, Z) = G(x, y)G(y, z).

(C.3)

Obliczymy teraz pochodną lewej strony (C.2), o której wiemy, że nie zależy od zmiennej z, względem tej zmiennej:

0 zz Św v) A0,2) = G>(x,v) A0,2)0,2) + GGQ,0) 207,2)

=0,

638

Dodatek C. Prawo mnożenia sposobności

a także pochodną lewej strony (C.3) względem y 0

3,

v)

ly, z)

=

G(x,

v) 107.

z) fl. z)

+ G(x,

v) fa1(Y; z).

Widzimy, że obie pochodne są sobie równe, a ponieważ pierwsza jest równa zeru, tak więc i druga musi być też równa zeru, co oznacza, że prawa strona (C.3) nie zależy od zmiennej y. Otrzymujemy w ten sposób fundamentalną własność funkcji G: pomnożona przez drugą taką samą funkcję, w której pierwszy argument jest identyczny z argumentem stojącym na drugiej pozycji w pierwszej funkcji, musi prowadzić do uproszczenia tego

argumentu. Najbardziej ogólna postać takiej funkcji zadana jest przez

G(x,y)=r

H(x)

HY)

gdzie wielkość r jest dowolną stałą. Ponieważ domagamy się monotoniczności funkcji f(x, y), co implikuje, że pochodne f, oraz f, są większe od zera, tym samym stała r musi być dodatnia, natomiast funkcja H nie może zmieniać znaku w zakresie zmienności swego argumentu. Skorzystamy teraz z tej postaci funkcji G i ze związków (C.2) oraz (C.3), które pozwalają znaleźć wyrażenia na pochodne cząstkowe funkcji f hO,z)

KY,2)

ZY,Z)

a z relacji

s

H (v)

=

HQ)

=r —

HC)”

dv = df(y, z) = (7,2) dy + fa(y, z) dz

otrzymujemy następującą formę różniczkową: dv

H(v)

=

dy



H(y)

|

dz

r—-—..

HQ)

Jeśli wprowadzimy funkcję g(x) związaną z funkcją H(x) związkiem dx

g(x) = exp ([ c) gdzie przez brak granic całkowania zaznaczyliśmy fakt, że w wykładniku znajduje się funkcja pierwotna wraz z dowolną stałą całkowania, naszą formę różniczkową możemy scałkować

sv) =g(/0,2)) =80)8 (2).

Biorąc funkcję g równości f(x, v) = f(u,z) i stosując prawo (C.4), otrzymujemy

g(f%,0)) =g(flu,2))

>

g(x%)g' W) = glu)g (2),

a wykorzystując ponownie (C.4) w stosunku do g(v), a także do g(u), znajdujemy

SWW

O)

WIO)

>

220808 0) =sg20)8' (08 0).

Jak stąd wynika, jedyna niesprzeczna i nietrywialna wartość stałej r to jedność.

(C.4)

Dodatek C. Prawo mnożenia sposobności

639

Powyższe wyprowadzenie ogólnej postaci prawa łączności działań zawdzięczamy R. T. Coxowi (Probability, Frequency and Reasonable Expectation, American Journal of Physics 14 (1946), 1). Opiera się ono na założeniu dwukrotnej różniczkowalności funkcji f. Istnieje (J. Aczel, Lectures on Functional Equations and their Applications,

Academic Press, New York 1966) rozwiązanie tego problemu bez wykorzystania faktu różniczkowalności. Funkcja g, zastosowana do relacji AAB|IW

= f(AIW,BIAAW)

dostarcza związku między sposobnościami A A B|W oraz A|IW iBJAAW: g(A AB|W)

= g(A|W)g(B|A AW).

PAM „A wie Ad” 2 Zk Aa a ARA

Prawo dodawania sposobności

W tym dodatku rozwiążemy równanie funkcyjne

„r(-9) x

=yF(->). y

(D.1)

dla funkcji F łączącej sposobności przeciwstawnych tez. Tożsamość

(D.1l) jest określona na kwadracie jednostkowym

0 < x,y


. =

I, znajdujemy poszukiwaną funkcję |

Fx)=(l-x")".

s

(D.6)

Widzimy, że warunek F(1) = O jest także spełniony, jak również prostym rachunkiem sprawdzamy, że funkcja ta jest odwrotna do siebie samej, a także spełnia (D.1).

Przedstawione wyżej wyprowadzenie pochodzi ze wspomnianej we wstępie publikacji E. T. Jaynesa i wykorzystuje fakt, że funkcja F' jest jednokrotnie różniczkowalna. Wzmiankowany w dodatku C artykuł R. T. Coxa zawiera alternatywne wyprowadzenie, zakładające dwukrotną różniczkowalność. Powtórzymy to wyprowadzenie teraz, ponie-

waż jest ono znacznie prostsze, a także „smakowite” matematycznie.

Dla uproszczenia notacji wprowadzimy oznaczenia u = F(y) /x oraz v = F(x)/y, otrzymując z (D.l) (D.7) x F(u) = yF(v).

Po zróżniczkowaniu tego związku względem x, względem y oraz względem obu zmiennych otrzymujemy następujące równości:

uF' (u) — F(u) = —F' (v)F' (x),

(D.8)

F'(u)F'Q) = —vF (v) + F(v),

(D.9)

-F'(u)F') = ;F"OF'a).

(D.10)

Mnożąc równanie (D.7) przez (D.10), usuwamy jednocześnie x oraz y, uzyskując uF'(u)Fl(u)F'y) =vF'(v)F(v)F (x). Z równania tego możemy wyeliminować F'(x) oraz F'(y), jeśli wykorzystamy równanie (D.8) oraz (D.9), co prowadzi nas do uF”(u)F (u)

(uF'(u) — F(u)) F'(u)

s

vF"(v)F(v)

(0F'(v) — F(v)) F'(v)

Dodatek D. Prawo dodawania sposobności

643

Ponieważ każda ze stron tego równania zależy od innej zmiennej, więc aby możliwe było, że obie strony są sobie równe, każda z tych stron może być tylko stałą. Oznaczając tę stałą przez k, otrzymujemy równanie różniczkowe na nieznaną funkcję F (u) uF' (u)F(u) =k (uF'(u) — F(u)) F' (u), które możemy przepisać w postaci dF _|

dF

du

F

uj)

F' co, po scałkowaniu, daje nam

F F' (u)

=A

(7)

u

k ,

gdzie A jest stałą całkowania. Ponieważ forma ta dopuszcza rozdzielenie zmiennych, więc możemy łatwo wykonać także i drugie całkowanie, z rezultatem F" (u) = Au” + B,

gdzie m = 1 —k. Podstawiając warunki brzegowe F(0) = 1 oraz F(1) = 0, otrzymujemy ponownie (D.6)

F"(u)+u"=L.

Jeśli do związku tego podstawimy sposobności g(A|W) oraz g(A|W), to otrzymamy

ostateczną postać zależności łączącej sposobności przeciwstawnych tez

g"(AIW) + g”(AIW)=1.

Twierdzenie Shannona

Przeprowadzimy dowód twierdzenia Shannona

S„(Pi, P,,..., P,) =) Zauważmy najpierw, że

1 1 50) = S, (gaz) n

1, ) =

—00 < I < ©,

,

n=l,2,...,

v[t] = —— dla n > 2. p =

y =0 dla n > 3

6

n > 4. dla

n-4

Gdy parametr n ma jednostkową wartość, rozkład ten nosi nazwę rozkładu Cauchy ego. Rozkład Breita-Wignera

JaQ;u T)=

r 2

a (5)+ 6 — 02)

—00

< X < W,

0),

o

—00 < X < O,

(X) =m, Rozkład Pareto

Xx

(x)

=

ab

1

, dl

aa >

3

0

dl

2.

Rozkład Weibulla f(x;a,a) =

(-) o No

a—l

a

xp (- (>) ). a

0)