JIHOČESKÁ UNIVERZITA, EKONOMICKÁ FAKULTA
ZÁKLADY TEORIE PRAVDĚPODOBNOSTI A MATEMATICKÉ STATISTIKY
Tomáš MRKVIČKA, Michael ROST
ČESKÉ BUDĚJOVICE 2016
Recenzenti: prof. RNDr. Pavel Tlustý, Ph.D., RNDr. Jana Klicnarová, Ph.D. c Tomáš Mrkvička, Michael Rost, 2016
ISBN ???????????
Contents 1 Úvod
I
8
Teorie pravděpodobnosti
2 Náhodný jev
10 11
2.1
Axiomatická definice pravděpodobnosti . . . . . . . . . . . . . 11
2.2
Klasický pravděpodobnostní prostor . . . . . . . . . . . . . . . 16
2.3
Geometrická pravděpodobnost . . . . . . . . . . . . . . . . . . 23
2.4
Další příklady pravděpodobnostních prostorů . . . . . . . . . . 25
2.5
Úlohy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3 Podmíněná pravděpodobnost
30
3.1
Podmíněná pravděpodobnost . . . . . . . . . . . . . . . . . . . 30
3.2
Nezávislost . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.3
Bernoulliho schéma . . . . . . . . . . . . . . . . . . . . . . . . 38
3.4
Úlohy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4 Celková pravděpodobnost
46 2
CONTENTS 4.1
3
Úlohy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5 Fyzikální statistiky
54
5.1
Maxwell-Boltzmannova statistika . . . . . . . . . . . . . . . . 54
5.2
Bose-Einsteinova statistika . . . . . . . . . . . . . . . . . . . . 58
6 Náhodná veličina
62
6.1
Definice náhodné veličiny . . . . . . . . . . . . . . . . . . . . . 62
6.2
Distribuční funkce . . . . . . . . . . . . . . . . . . . . . . . . . 64
6.3
Diskrétní náhodné veličiny . . . . . . . . . . . . . . . . . . . . 68
6.4
Absolutně spojité náhodné veličiny . . . . . . . . . . . . . . . 71
6.5
Zobecnění . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
6.6
Úlohy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
7 Charakteristiky náhodných veličin 7.1
Úlohy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
8 Diskrétní náhodné veličiny 8.1
92
Úlohy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
9 Spojité náhodné veličiny 9.1
80
106
Úlohy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
10 Náhodný vektor
119
10.1 Distribuční funkce . . . . . . . . . . . . . . . . . . . . . . . . . 119 10.2 Charakteristiky náhodného vektoru . . . . . . . . . . . . . . . 123 10.3 Některá mnohorozměrná rozdělení . . . . . . . . . . . . . . . . 125
4
CONTENTS 10.4 Nezávislé náhodné veličiny . . . . . . . . . . . . . . . . . . . . 127 10.5 Úlohy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
11 Funkce náhodných veličin
140
11.1 Konvoluce . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 11.2 Úlohy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150 12 Zákon velkých čísel, CLV
153
12.1 Zákon velkých čísel . . . . . . . . . . . . . . . . . . . . . . . . 155 12.2 Centrální limitní věta . . . . . . . . . . . . . . . . . . . . . . . 157 12.3 Úlohy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
II
Matematická statistika
167
13 Zpracování statistického materiálu
168
13.1 Rozložení četností a jejich znázornění . . . . . . . . . . . . . . 170 13.2 Charakteristiky polohy . . . . . . . . . . . . . . . . . . . . . . 174 13.3 Charakteristiky variability . . . . . . . . . . . . . . . . . . . . 177 14 Náhodný výběr
179
14.1 Kritické hodnoty . . . . . . . . . . . . . . . . . . . . . . . . . 183 15 Odhady parametrů
185
15.1 Intervalové odhady pro parametry normálního rozdělení . . . . 186 15.2 Intervalový odhad střední hodnoty pomocí CLV . . . . . . . . 189
CONTENTS 16 Parametrické testy
5 191
16.1 Jednovýběrový t test . . . . . . . . . . . . . . . . . . . . . . . 192 16.2 Test o rozptylu normálního rozdělení . . . . . . . . . . . . . . 194 16.3 Párový t test . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 16.4 Dvouvýběrový t test . . . . . . . . . . . . . . . . . . . . . . . 196 16.5 Test shodnosti dvou rozptylů . . . . . . . . . . . . . . . . . . . 197 16.6 Porovnávání středních hodnot při nestejných rozptylech . . . . 199 16.7 Test o střední hodnotě pomocí CLV . . . . . . . . . . . . . . . 200 17 Neparametrické testy
202
17.1 Znaménkový test . . . . . . . . . . . . . . . . . . . . . . . . . 203 17.2 Jednovýběrový Wilcoxonův test . . . . . . . . . . . . . . . . . 204 17.3 Dvouvýběrový Wilcoxonův test . . . . . . . . . . . . . . . . . 206 18 Porovnání více výběrů
208
18.1 Analýza rozptylu jednoduchého třídění . . . . . . . . . . . . . 208 18.2 Kruskalův-Wallisův test . . . . . . . . . . . . . . . . . . . . . 213 18.3 Analýza rozptylu dvojného třídění . . . . . . . . . . . . . . . . 215 18.4 Friedmanův test . . . . . . . . . . . . . . . . . . . . . . . . . . 219 19 Lineární regrese
223
19.1 Lineární regrese s jednou vysvětlující proměnnou . . . . . . . . 223 19.2 Lineární regrese s více vysvětlujícími proměnnými . . . . . . . 228 19.3 Polynomiální regrese . . . . . . . . . . . . . . . . . . . . . . . 234 19.4 Nelineární regrese . . . . . . . . . . . . . . . . . . . . . . . . . 236
6
CONTENTS
20 Korelační analýza
238
20.1 Výběrový korelační koeficient . . . . . . . . . . . . . . . . . . 238 20.2 Spearmanův korelační koeficient . . . . . . . . . . . . . . . . . 240 21 Testy dobré shody
242
21.1 Pearsonův χ2 test . . . . . . . . . . . . . . . . . . . . . . . . . 242 21.2 Test normality
. . . . . . . . . . . . . . . . . . . . . . . . . . 243
21.3 Test Poissonova rozdělení . . . . . . . . . . . . . . . . . . . . . 245 21.4 Kolmogorovův-Smirnovův jednovýběrový test . . . . . . . . . 246 22 Kontingenční tabulky
249
22.1 Test nezávislosti . . . . . . . . . . . . . . . . . . . . . . . . . . 251 22.2 Test homogenity multinomických rozdělení . . . . . . . . . . . 253 22.3 Test χ2 ve čtyřpolních tabulkách . . . . . . . . . . . . . . . . . 255 22.4 Fisherův faktoriálový test . . . . . . . . . . . . . . . . . . . . 256 22.5 McNemarův test . . . . . . . . . . . . . . . . . . . . . . . . . 258 22.6 Test symetrie . . . . . . . . . . . . . . . . . . . . . . . . . . . 260 23 Statistické tabulky
263
Předmluva Pravděpodobnostní úsudky, modely a předpovědi jsou dnes již běžnou součástí výzkumné práce, v řadě vědních oblastí nalézají i široké uplatnění v praxi. Pravděpodobnostní metody se používají při zkoumání procesů ovlivněných náhodou. V situacích, kdy umíme s vlivem náhody počítat, je často možné pomocí těchto metod dojít k optimálním řešením, k racionálnímu rozhodování apod. S počtem pravděpodobnosti je velice úzce spojena matematická statistika, které se užívá při vyhodnocování různých testů a experimentů. Učebnice je psána pokud možno tak, aby byla přístupná širšímu okruhu zájemců, což někdy vede k menší matematické obecnosti. Hlubší poučení lze nalézt v učebnicích a monografiích uvedených v seznamu literatury. Jednotlivé kapitoly obsahují vždy definice pojmů, výklad příslušné problematiky a důkazy některých tvrzení. Na konci každé kapitoly následují řešené úlohy a příklady. Některé kapitoli navíc obsahují postupy zpracování metod v programu Statistika. Domníváme se, že tato forma dovoluje seznámit se s možnostmi použití počtu pravděpodobnosti a usnadní pochopení teorie.
Autoři
7
Chapter 1 Úvod Teorie pravděpodobnosti a matematická statistika jsou matematické disciplíny spadající do vědního oboru, který se nazývá stochastika. První zmínku o stochastice nacházíme již v díle Platona ”Philebos”. Obě uvedené disciplíny však dosáhly obrovského rozmachu až ve 20. století. Základy teorie pravděpodobnosti byly položeny Pascalem a Fermatem v 17. století. V této době byla velmi rozšířena hra v kostky. Při ní jistý hráč vypozoroval, že hází-li jednou kostkou alespoň 4-krát, je pro něj výhodné sázet na to, že číslo šest padne alespoň jednou. Podobně při hodu dvěma kostkami bylo pro něj výhodné, házel-li alespoň 25-krát, sázet na to, že padne alespoň jednou součet 12. Domníval se, že poměr počtu všech možných případů u hodů jednou kostkou a u hodu dvěma kostkami je 4:25, což není. Požádal tedy Pascala o vysvětlení. Tím byla na světě první úloha pravděpodobnosti, která byla řešena. Čtenáři je snad již zřejmé, že předmětem zkoumání teorie pravděpodobnosti a matematické statistiky jsou náhodné pokusy. Náhodný pokus lze definovat jako pokus, kdy při zachování stejných experimentálních podmínek nedosáhneme stejných výsledků. Typickým příkladem těchto pokusů je již 8
9 výše zmíněný hod kostkou (hod mincí, míchání karet, tah sportky, apod., tzv. ”hazardní hry”). Teorie pravděpodobnosti se však nezaměřuje pouze na náhodné pokusy typu hazardních her, neboť jejich význam není příliš velký. Vedle nich jsou důležitější pokusy, např. podání léku pacientovi, pěstování zemědělských rostlin, výroba určité součástky,. . . Kromě náhodných pokusů máme ještě pokusy, kdy při zachování stejných experimentálních podmínek dosáhneme vždy jednoho a téhož výsledku. Tyto pokusy nazýváme deterministické. Typickými deterministickými pokusy jsou pokusy, které se konají při hodinách fyziky, nebo chemie. Učitel demonstruje několikrát určitý pokus, který vždy směřuje ke stejnému výsledku (tření ebonitové tyče). Jimi se v tomto textu nebudeme zabývat.
Part I Teorie pravděpodobnosti
10
Chapter 2 Jev, náhodný jev, pravděpodobnosti náhodného jevu 2.1
Axiomatická definice pravděpodobnosti
V úvodní části jsme si definovali náhodný pokus. Každému náhodnému pokusu můžeme přiřadit množinu Ω, tj. množinu všech možných výsledků pokusu. Při hodu kostkou je Ω ={1,2,3,4,5,6}, při hodu mincí je Ω={rub,líc}, při hodu dvěma mincemi je Ω={{rub,rub},{líc,líc},{líc,rub},{rub,líc}}. Množina Ω může být konečná nebo nekonečná. Má však smysl uvažovat pouze neprázdné množiny. Náhodný pokus má být množinou Ω jednoznačně popsán, tzn. že množina Ω musí být vyčerpávající (musí nastat vždy právě jeden z výsledků) a výsledky se musí navzájem vylučovat (nemůže se stát, aby dva výsledky nastaly současně). Prvky ω ∈ Ω nazýváme elementárními jevy a podmnožiny množiny Ω jevy.
Jelikož se jedná o množinové pojmy, platí zde množinové relace a operace, 11
12
CHAPTER 2. NÁHODNÝ JEV
ale interpretace je odlišná. Uveďme si ji v následujícím přehledu. zápis ω∈A A⊂B B−A A¯ = Ω − A A∪B A∩B
pravděpodobnostní interpretace jev A nastal, výsledek ω náhodného pokusu je příznivý jevu A A je podjev jevu B (jev A nastane, kdykoliv nastane jev B) rozdíl jevu B a A (jev, který nastane právě tehdy, když nastane jev B a zároveň nenastane jev A) doplněk jevu A (jev, který nastane právě tehdy, když nenastane jev A) sjednocení jevů A, B (jev, který nastane právě tehdy, nastane-li aspoň jeden z jevů A, B) průnik jevů A, B (jev, který nastane právě tehdy, nastanou-li oba dva jevy současně) jevy A, B nazveme disjunktní (nemohou nastat současně)
A∩B =∅ Ai ∩ Aj = ∅ ∀i 6= j jevy A1 . . . An tvoří rozklad jevu C ∪ni=1 Ai = C
Table 2.1: Zápis základních pravděpodobnostních relací a operací.
Průnik a sjednocení se dá rozšířit i na víc jevů (na konečnou i nekonečnou posloupnost). Zvláštní místo v pravděpodobnosti a matematické statistice zaujímá jev jistý a jev nemožný. Jev jistý je takový jev, který nastane při každé realizaci pokusu. Značíme ho Ω, neboť je ekvivalentní množině všech možných výsledků. Jev nemožný je takový jev, který nenastane při žádné realizaci pokusu. Značíme ho ∅, protože je ekvivalentní prázdné množině. Podmnožiny množiny Ω jsme nazvali jevy. Nás však nebudou zajímat všechny
2.1. AXIOMATICKÁ DEFINICE PRAVDĚPODOBNOSTI
13
podmnožiny Ω, ale pouze skupina jevů, která má určité vlastnosti. Definujme si nejdříve σ-algebru A. Definice 2.1 Nechť A je neprázdný systém podmnožin množiny Ω 6= ∅ takový, že
a) ∅ ∈ A b) je-li A ∈ A, pak A¯ ∈ A c) jsou-li Ai ∈ A, i = 1,2,. . ., pak ∪∞ i=1 Ai ∈ A. Pak A nazýváme σ-algebrou.
σ-algebra A je tedy množinový systém uzavřený vzhledem k doplňku a spočetnému sjednocení. Prvky σ-algebry nazýváme náhodné jevy. Uveďme si nyní některé další vlastnosti náhodných jevů: 1) Jev jistý je náhodný jev Ω ∈ A. 2) Rozdíl dvou náhodných jevů je náhodný jev A, B ∈ A ⇒ B − A ∈ A. 3) Průnik spočetně mnoha náhodných jevů je náhodný jev A1 , A2 , ... ∈ A ⇒ ∩∞ i=1 Ai ∈ A. Dvojici (Ω, A) nazýváme jevové pole.
14
CHAPTER 2. NÁHODNÝ JEV
Příklad 2.1 Nechť Ω = {1, . . . , n }. Pak potenční množina P(Ω) (tj. množina všech podmnožin Ω) je σ-algebra a neexistuje menší σ-algebra obsahující všechny elementární jevy {ω}, ω ∈ Ω.
Příklad 2.2 Nechť Ω = R. Pak potenční množina je také σ-algebra, ale existuje i menší σ-algebra, které dáváme přednost. Např. Borelovská σalgebra (tj. nejmenší σ-algebra obsahující všechny otevřené podmnožiny R). Borelovská σ-algebra obsahuje všechna spočetná sjednocení otevřených množin, ale také i všechny uzavřené podmnožiny R.
Každému náhodnému jevu můžeme přiřadit číslo, které nazýváme pravděpodobností. S tímto pojmem se jistě každý v běžném životě setkal. Vezměme si například za náhodný pokus hod kostkou. Při něm je pro každé z čísel 1,2,. . .,6 pravděpodobnost padnutí rovna 16 . Při hodu mincí je pravděpodobnost padnutí rubu stejná jako pravděpodobnost padnutí líce, tj. 21 . Činíme tato prohlášení, aniž bychom znali, co vlastně pravděpodobnost je. Tato tvrzení plynou ze zkušeností. Házíme-li kostkou a vyšetřujeme-li relativní (n je počet hodů, m je počet hodů, ve kterých padla 1, četnosti fn = m n popř. 2 atd.), zjistíme při větším počtu hodů, že relativní četnosti budou kolísat kolem 16 (u hodů mincí kolem 12 ). Relativní četnosti mají následující vlastnosti: a) fn (∅) = 0, fn (Ω) = 1, b) ∀A ∈ A : 0 ≤ fn (A) ≤ 1, c) A1 , A2 , . . . je posloupnost náhodných jevů taková, že Ai ∩ Aj = ∅ ∀i 6= j, i, j = 1, 2, . . . ⇒
fn (∪∞ i=1 Ai )
=
∞ X i=1
fn (Ai ).
2.1. AXIOMATICKÁ DEFINICE PRAVDĚPODOBNOSTI
15
Z těchto vlastností vychází i následující axiomatické definice pravděpodobnosti. Definice 2.2 Nechť Ω 6= ∅, A je σ-algebra definovaná na Ω. Pak pravděpodobností libovolného náhodného jevu A nazveme libovolnou reálnou funkci P definovanou na A, která splňuje a) P (Ω) = 1, P (∅) = 0, b) P (A) ≥ 0 ∀A ∈ A, c) pro každou posloupnost disjunktních jevů {An }∞ n=1 platí P (∪∞ i=1 Ai ) =
∞ X
P (Ai ).
i=1
Trojice (Ω, A, P ) se nazývá pravděpodobnostní prostor. Poznámka 2.1 Čtenář obeznámený s teorií míry vidí, že pravděpodobnost je konečná míra. Nyní budou následovat některé vlastnosti pravděpodobnosti. Důkaz necháme čtenáři jako cvičení. 1) P (∅) = 0, 2) P je konečně aditivní, tzn., jestliže A1 , . . . , An ∈ A, Ai ∩Aj = ∅ ∀i6=j, i,j= P 1, . . . ,n⇒ P (∪ni=1 Ai ) = ni=1 (Ai ),
3) P je monotónní: A, B ∈ A, A ⊂ B ⇒ P (A) ≤ P (B), 4) A, B ∈ A, A ⊂ B ⇒ P (B − A) = P (B) − P (A),
16
CHAPTER 2. NÁHODNÝ JEV ¯ = 1 − P (A), ∀A ∈ A, 5) P (A) 6) P (A ∪ B) = P (A) + P (B) − P (A ∩ B) pro libovolné A, B ∈ A, P
7) P (∪∞ i=1 Ai ) ≤
P (Ai ), pro libovolnou posloupnost {Ai } v A,
8) An ∈ A, A1 ⊂ A2 ⊂ A3 . . . , A = ∪∞ n=1 An ⇒ P (A) = limn→∞ P (An ), 9) An ∈ A, A1 ⊃ A2 ⊃ A3 . . . , A = ∩∞ n=1 An ⇒ P (A) = limn→∞ P (An ), Vlastnost 6) lze indukcí rozšířit na libovolný konečný počet jevů, a to následovně:
P (∪ni=1 Ai )
=
n X i=1
+
P (Ai ) −
n−1 X n X
i=1 j=i+1
n−2 X n−1 X n X
i=1 j=i+1 k=j+1
2.2
P (Ai ∩ Aj ) +
(2.1)
P (Ai ∩ Aj ∩ Ak ) + . . . + (−1)n−1 P (∩ni=1 Ai ).
Klasický pravděpodobnostní prostor
Definice 2.3 Pravděpodobnostní prostor (Ω, A, P ) nazveme klasickým pravděpodobnostním prostorem, jestliže
a) množina Ω je konečná o m prvcích a všechny možné výsledky jsou stejně pravděpodobné, tzn. označíme-li postupně p1 , . . . ,pm pravděpodobobnosti jednotlivých výsledků elementárních jevů, pak p1 = p2 = . . . = pm = m1 (je-li možných výsledků m), b) za σ-algebru A vezmeme systém všech podmnožin množiny Ω,
2.2. KLASICKÝ PRAVDĚPODOBNOSTNÍ PROSTOR
17
c) pravděpodobnost P náhodného jevu A je rovna mA P (A) = , m kde mA je počet výsledků příznivých jevů A a m je počet všech možných výsledků náhodného pokusu. Pravděpodobnost takto definovaná se nazývá klasická pravděpodobnost. Čtenář si sám ověří, že klasická pravděpodobnost je pravděpodobností ve smyslu definice 2.2, tzn. ověří všechny tři axiomy. V úlohách, které se počítají pomocí klasické pravděpodobnosti, jde o to najít množinu možných výsledků tak, aby výsledky byly stejně pravděpodobné. Jakmile tak učiníme, pak výpočet je pouhou kombinatorickou záležitostí. Nyní si uvedeme několik příkladů na výpočet klasické pravděpodobnosti. Příklad 2.3 Házíme dvěma kostkami. Stanovte pravděpodobnost jevu A ”na kostkách padne součet menší než 5”. Řešení: Výsledky pokusu jsou uspořádáné dvojice. První člen dvojice odpovídá hodu 1. kostkou a druhý člen odpovídá hodu 2. kostkou. Všechny možné výsledky jsou:
(1,1) (1,2) (1,3) (1,4) (1,5) (1,6), (2,1) (2,2) (2,3) (2,4) (2,5) (2,6), (3,1) . . . . . . . . . . . . . . . . . . . . . . . . (3,6), (4,1) . . . . . . . . . . . . . . . . . . . . . . . . (4,6), (5,1) . . . . . . . . . . . . . . . . . . . . . . . . (5,6), (6,1) (6,2) (6,3) (6,4) (6,5) (6,6),
18
CHAPTER 2. NÁHODNÝ JEV
tzn. počet všech možných výsledků je 36. Počet výsledků příznivých jevů A je 6 [(1,1),(1,2),(1,3),(2,1),(2,2),(3,1)]. Hledaná pravděpodobnost je tedy rovna
6 36
= 61 .
Příklad 2.4 V urně máme 32 karet, z toho 4 esa. Dvakrát za sebou vytáhneme náhodně jednu kartu s tím, že po prvním tahu ji a) vrátíme zpět do urny, b) nevrátíme. Stanovte pravděpodobnost jevu A ”alespoň jedna z vytažených karet je eso”. Řešení: a) Výsledky pokusu jsou opět uspořádané dvojice. První člen dvojice odpovídá kartě vytažené v 1.tahu a druhý člen kartě vytažené v druhém tahu. V prvním tahu můžeme kartu vytáhnout 32 způsoby. Protože vytaženou kartu vracíme zpět do urny, i v druhém tahu máme 32 možností. Počet všech možných případů je tedy 322 . Příznivým případům odpovídají tahy (libovolná karta - eso), (eso - libovolná karta), (eso - eso). Počet příznivých případů je 28 · 4 + 4 · 28 + 4 · 4. Hledaná pravděpodobnost je rovna P (A) =
8 · 28 + 4 · 4 16 + 224 240 15 = = = . 2 32 1024 1024 64
b) Počet možných případů je vzhledem k tomu, že po prvním tahu kartu nevrátíme, 32 · 31. Příznivým případům odpovídají opět tahy (libovolná karta - eso), (eso - libovolná karta), (eso - eso). Počet příznivých případů je nyní 28 · 4 + 4 · 28 + 4 · 3. Hledaná pravděpodobnost je rovna P (A) =
2 · 4 · 28 + 4 · 3 224 + 12 59 = = . 32 · 31 992 248
V tomto případě můžeme zvolit jinou reprezentaci. Výsledky pokusu jsou všechny neuspořádané dvojice možných tahů, kterých je 32 . Počet případů, 2
kdy vytáhneme alespoň jedno eso, můžeme vypočítat použitím doplňkového
2.2. KLASICKÝ PRAVDĚPODOBNOSTNÍ PROSTOR
19
jevu, tj. pomocí počtu případů, kdy nevytáhneme ani jedno eso. Těchto . Celkem tedy případů je 28 2 32 28·27 − 28 59 2 2 2 P (A) = = 1 − . 32 32·31 = 248 2 2
Příklad 2.5 Házíme jednou šesti kostkami, přičemž každou kostku si očíslujeme jedním z čísel 1, . . . , 6 (každá kostka bude očíslovaná jiným číslem). Jaká je pravděpodobnost, že alespoň na jedné kostce bude počet ok souhlasit s číslem, jímž jsme kostku označili?
Řešení: Nechť Ai je takový jev, že na i-té kostce souhlasí počet ok s číslem, jímž je kostka označena, a nechť jev A je jev ”alespoň na jedné kostce počet ok souhlasí s číslem, jímž je kostka označena”. Potom A = ∪6i=1 Ai . Protože jevy A1 , . . . , A6 nejsou disjunktní, je podle rovnice 2.1 P (∪6i=1 Ai ) =
6 X i=1
+
P (Ai ) −
4 X
5 X
5 6 X X
i=1 j=i+1
6 X
i=1 j=i+1 k=j+1
P (Ai ∩ Aj ) +
(2.2)
P (Ai ∩ Aj ∩ Ak ) + . . . + (−1)5 P (∩6i=1 Ai ).
Hledejme pravděpodobnosti vyskytující se v 2.2. Hodu šesti kostkami odpovídá uspořádaná šestice, jejíž prvky se mohou opakovat. Počet možných výsledků je tedy 66 . Jevu Ai , i = 1, 2, . . . , 6 jsou příznivé ty výsledky, u kterých souhlasí u i-té kostky počet ok s jejím číslem, na ostatních kostkách může padnout cokoliv. Takových výsledků je 65 . Z toho plyne, že P (Ai ) =
1 65 = , i = 1, 2, . . . , 6. 6 6 6
Nyní budeme počítat pravděpodobnosti P (Ai ∩Aj ), kde i 6= j, i, j = 1, 2, . . . , 6. Počet možných výsledků je opět 66 . Příznivé výsledky jsou ty, u kterých na ité a j-té kostce souhlasí počet ok s jejich číslem, na ostatních kostkách může
20
CHAPTER 2. NÁHODNÝ JEV
padnout cokoliv. Počet příznivých výsledků je tedy 64 a P (Ai ∩ Aj ) =
64 1 = 2 , i 6= j, i, j = 1, 2, . . . , 6. 6 6 6
Analogicky P (Ai ∩ Aj ∩ Ak ) =
.. .
63 1 = 3, i < j < k 6 6 6
P (∩6i=1 Ai ) =
1 . 66
Hledaná pravděpodobnost jevu A je 1 1 6 1 · 2 + . . . + (−1)5 · 6 = 0, 66. P (A) = 6 · − 6 6 6 2 Zde je ovšem možné také využít doplňkového jevu A¯ (na žádné kostce nebude souhlasit počet ok s číslem). Počet příznivých jevů A¯ je 56 , tedy ¯ =1− P (A) = 1 − P (A)
56 = 0, 66. 66
Příklad 2.6 V osudí je n lístků očíslovaných čísly 1 až n; r-krát po sobě vytáhneme po jednom lístku, přičemž každý lístek po tahu vracíme zpět. Jaká je pravděpodobnost, že v r tazích vyjde každé z n čísel aspoň jednou? (Předpokládejme, že n < r). Řešení: Označíme si Ai jev ”v r tazích nevytáhneme lístek označený číslem i”. Potom jev A = ∪ni=1 Ai znamená ”v r tazích alespoň jedno číslo nevytáhneme”. ¯ = 1 − P (A). Hledáme pravděpodobnost jevu opačného k jevu A, tj. P (A) Protože jevy A1 , . . . , An nejsou disjunktní, pravděpodobnost jevu A budeme řešit podle 2.1: P (∪ni=1 Ai )
=
n X i=1
+
P (Ai ) −
n−1 X n X
i=1 j=i+1
n−2 X n−1 X n X
i=1 j=i+1 k=j+1
P (Ai ∩ Aj ) +
P (Ai ∩ Aj ∩ Ak ) + . . . + (−1)n−1 · P (∩ni=1 Ai ).
21
2.2. KLASICKÝ PRAVDĚPODOBNOSTNÍ PROSTOR
Počítejme P (Ai ). Jelikož číslo i nikdy nevytáhneme, taháme pouze z (n − 1) čísel. Vytváříme uspořádané r-tice z (n − 1) prvků. Protože lístky po tahu
vracíme zpět do urny, mohou se prvky v r-tici opakovat. Těchto r-tic je (n − 1)r . Počet výsledků příznivých jevů Ai je tedy (n − 1)r a počet možných výsledků je nr . Z toho plyne, že
P (Ai ) =
n−1 n
r
.
Nyní určíme P (Ai ∩ Aj ), ∀i 6= j, i, j = 1, 2, . . . , n. Jev Ai ∩ Aj znamená, že v r tazích nebudou tažena čísla i a j, tzn., že taháme z (n − 2) čísel, přičemž čísla se mohou opakovat. Vytváříme r-tice z (n − 2) prvků. Počet výsledků příznivých jevů Ai ∩ Aj je (n − 2)r a r n−2 P (Ai ∩ Aj ) = ∀i 6= j, i, j = 1, 2, . . . , n. n
Analogicky P (Ai ∩ Aj ∩ Ak ) = ( n−3 )r ∀i < j < k, i, j, k = 1, 2, . . . , n. n .. . P (∩ni=1 Ai ) = 0 Pravděpodobnost jevu A¯ je rovna r n−2 r n n−1 ¯ + 2 − P (A) = 1 − n n n r 1 n +(−1)n−1 n−1 n
n 3
n−3 r n
+ ...+ .
Poznámka 2.2 Situace popsaná v předchozím příkladu se řídí podle MaxwellBoltzmannovy fyzikální statistiky, kterou si uvedeme v kapitole 5. Příklad 2.7 Student si při zkoušce z matematiky tahá jednu otázku z celkového množství (a + b) otázek (a otázek je z matematické analýzy, b otázek je
22
CHAPTER 2. NÁHODNÝ JEV
z lineární algebry). Nedopatřením vytáhne místo jedné otázky r otázek. Pan profesor je vezme a rozloží na stole. Student si z nich má vybrat jednu. Jaká je pravděpodobnost, že otázka bude z matematické analýzy?
Řešení: Nejdříve vypočteme počet všech možných výsledků. Student si r otázek způsoby. Při druhém tahu si vybírá z r z (a + b) může vytáhnout a+b r otázek jednu, a tu si může vybrat r způsoby, takže počet všech možných · r. výsledků je a+b r
Označíme-li si jev Ai ”student si v prvním tahu vytáhl i otázek z matematické analýzy a (r − i) otázek z lineární algebry”, i = 0, . . . , r, jev A ”student si ve druhém tahu vytáhl otázku z matematické analýzy”, pak A=
r [
(Ai ∩ A).
i=1
Protože jevy A1 , A2 , . . . , Ar jsou disjunktní, jevy Ai ∩ A jsou též disjunktní, i = 1, . . . , r. Podle axiomatické definice pravděpodobnosti platí P (A) =
r X i=1
P (Ai ∩ A).
Nyní stačí vypočítat P (Ai ∩ A). Jev (Ai ∩ A) znamená, že v prvním tahu si student vybral i otázek z matematické analýzy a (r − i) otázek z lineární algebry a ve druhém tahu si vybral otázku z matematické analýzy. V prvním
tahu i otázek z matematické analýzy a (r − i) otázek z lineární algebry si b způsoby. Ve druhém tahu si může vytáhnout otázku může vytáhnout ai r−i
z matematické analýzy i způsoby. Z toho plyne, že počet všech příznivých b · i, a tedy případů jevu (Ai ∩ A) je ai r−i P (Ai ∩ A) =
a i
b r−i a+b · r
·i
r
,
i = 1, 2, . . . , r.
23
2.3. GEOMETRICKÁ PRAVDĚPODOBNOST Hledaná pravděpodobnost je rovna b r a X ·i i r−i P (A) = = a+b ·r r i=1 Součet
a a+b r
r X b a−1 . · r−i · r i=1 i − 1
r X a−1 b a+b−1 = . i−1 r−i r−1 i=1
Z toho plyne, že
a+b−1 P (A) = a+b · r−1 r r a
=
a . a+b
(2.3)
Z rovnice 2.3 je vidět, že je jedno, zda student nejdříve vytáhne r otázek a z nich pak jednu, nebo si rovnou vytáhne jednu otázku, protože pravděpodobnost vytažení otázky z matematické analýzy je u obou případů stejná.
2.3
Geometrická pravděpodobnost
O geometrické pravděpodobnosti mluvíme v případě, že a) Ω ⊂ Rd . b) A = B(Ω) je Borelovská σ-algebra na Ω (tj. nejmenší σ-algebra obsahující všechny otevřené podmnožiny Ω). c) P (A) =
µd (A) , µd (Ω)
kde µd je d-rozměrná Lebesqueova míra. Pro naše účely
postačí, pokud si pod µ1 (A) představíme délku množiny A, pod µ2 (A) obsah A a pod µ3 (A) objem A. Geometrická pravděpodobnost je vhodným modelem tam, kde výsledkům pokusu lze jednoznačně přiřadit body ω ∈ Ω ⊂ Rd a kde žádným výsledkům
nelze dát přednost před ostatními.
24
CHAPTER 2. NÁHODNÝ JEV
Příklad 2.8 Autobusy přijíždějí na zastávku pravidelně v 10 minutových intervalech. Student přijde na zastávku v náhodném čase. Jaká je pravděpodobnost, že bude čekat déle než 5 minut?
Řešení: Výsledkem pokusu je doba čekání studenta na autobus. Student může čekat 0 až 10 minut, stavový prostor je tedy Ω = [0, 10]. Jev A (doba čekání delší než 5 minut) je polouzavřený interval (5, 10]. Hledaná pravděpodobnost je tedy: P (A) =
5 1 µ1 ((5, 10]) = = . µ1 ([0, 10]) 10 2
Příklad 2.9 Dvě osoby (I, II) přijdou na místo schůzky mezi 12. a 13. hodinou. Doby příchodu osob jsou náhodné a nezávislé. Ten, kdo přijde na místo schůzky, čeká 20 minut a nedočká-li se druhého, odchází. Jaká je pravděpodobnost, že se osoby setkají?
Řešení: Elementární jev je zde ω = (x, y), kde x značí dobu příchodu osoby I a y dobu příchodu osoby II. Stavový prostor je tedy Ω = [0, 60] × [0, 60]. Označme A jev, že se osoby setkají, pak máme A = {(x, y) ∈ Ω; |x − y| ≤ 20} (viz obrázek 2.1).
Jev doplňkový AC = {(x, y) ∈ Ω; y ≤ x − 20 nebo y ≥ x + 20}. Obsah množiny AC skládající se ze dvou trojúhelníků je µ2 (AC ) = 40 × 40 = 1600. Obsah Ω je µ2 (Ω) = 3600, což dohromady dává: P (A) = 1 − P (AC ) = 1 −
4 5 µ2 (AC ) =1− = . 2 µ (Ω) 9 9
2.4. DALŠÍ PŘÍKLADY PRAVDĚPODOBNOSTNÍCH PROSTORŮ
25
60
50
40
A
30
20
10
10
20
30
40
50
60
Figure 2.1: Množina A.
2.4
Další příklady pravděpodobnostních prostorů
Následující pravděpodobnostní prostory budeme podrobněji studovat v kapitole o náhodných veličinách, zde si je uvedeme pro srovnání s klasickým pravděpodobnostním prostorem a geometrickou pravděpodobností. Diskrétní pravděpodobnostní prostor je zobecněním klasické pravděpodobnosti, kde se pravděpodobnosti jednotlivých elementárních jevů mohou lišit. Podobně spojitý případ je zobecněním jednorozměrné geometrické pravděpodobnosti. V kapitole o náhodných vektorech zobecníme vícerozměrnou geometrickou pravděpodobnost.
Diskrétní a) Ω = {ω1 , ω2 , . . .}. b) A je množina všech podmnožin Ω. c) Jsou dány pravděpodobnosti elementárních jevů P (ωi ), které splňují: P∞ i=1 P (ωi ) = 1. Pak pravděpodobnost libovolného jevu je dána P jednoznačně vztahem P (A) = ωi ∈A P (ωi ).
26
CHAPTER 2. NÁHODNÝ JEV Spojitý a) Ω = R. b) A = B(R) je Borelovská σ-algebra nad R.
R c) Je dána funkce f: R → [0, ∞] taková, že R f (x)dx = 1. Pak pravděpodobnost libovolného jevu A ∈ A je dána jednoznačně vztahem
P (A) =
2.5
Z
f (x)dx. A
Úlohy
1. Dokažte vlastnosti pravděpodobnosti. 2. V urně jsou kuličky tří barev. Nechť jevy A, B, C postupně znamenají, že náhodně vybraná kulička je černá, červená, bílá. Určete význam následujících jevů: ¯ ∩ B, ¯ (a) A (b) (A ∪ C) ∩ B, (c) (A ∩ C) ∪ B, (d) A ∪ B ∪ C 3. Házíme jednou kostkou. Jev A znamená, že při hodu padne číslo menší než 4 a jev B, že při hodu kostkou padne číslo menší než 5. Pomocí ¯ B ¯ vyjádřete následující jevy: jevů A, B, A, (a) při hodu kostkou padne číslo 4, (b) při hodu kostkou padne číslo větší než 3, (c) při hodu kostkou padne číslo menší nebo rovno 6.
2.5. ÚLOHY
27
4. Při zkoušce z biologie dostane student tři otázky. Nechť jev A znamená, že náhodně vybraný student zodpoví správně první otázku, jev B, že zodpoví správně druhou otázku a jev C, že zodpoví správně třetí otázku. ¯ B, ¯ C, ¯ že náhodně vybraný student: Vyjádřete pomocí jevů A, B, C, A, (a) zodpoví správně jen první otázku, (b) zodpoví správně alespoň dvě otázky, (c) zodpoví správně právě jednu otázku, (d) zodpoví správně maximálně dvě otázky. 5. Házíme třemi kostkami. Jaká je pravděpodobnost, že součet bodů, které padnou na těchto třech kostkách, je roven 5? (0,0277) 6. V urně je 10 lístků. Na šesti lístcích jsou dvojciferná čísla a na čtyřech jednociferná čísla. Vytáhneme 2-krát po jednom lístku a lístky už nevracíme zpět do urny. Vytažené lístky uložíme vedle sebe v pořadí, v jakém jsme je vytáhli. Jaká je pravděpodobnost, že takto vzniklé číslo je čtyřciferné? (0,333) 7. Mezi čtrnácti lidmi je osm s vysokoškolským vzděláním a šest se středoškolským. Náhodně vybereme čtyři lidi. Jaká je pravděpodobnost, že (a) všichni čtyři mají středoškolské vzdělání, (b) právě jeden má vysokoškolské vzdělání, (c) aspoň jeden má vysokoškolské vzdělání. ( a) 0,01498, b) 0,1598, c) 0,98502) 8. Manželé Novákovi chtějí mít čtyři děti. Tchýně pana Nováka tvrdí, že s největší pravděpodobností budou mít Novákovi stejně synů a dcer. Tvrdí, že důvodem je stejná pravděpodobnost narození syna nebo dcery. Rozhodněte, zda-li má tchýně pravdu, zdůvodněte.
28
CHAPTER 2. NÁHODNÝ JEV 9. Hráč 1 vyhraje, jestliže hodí alespoň jednu šestku ze šesti hodů kostkou. Hráč 2 vyhraje, jestliže hodí alespoň dvě šestky z dvanácti hodů kostkou. Který hráč má větší pravděpodobnost výhry? Tento problém formuloval jako první Samuel Pepys a byl vyřešen Sirem Isaacem Newtonem v roce 1693.
10. Čtyři jeleni byli chyceni z populace N jelenů, byli označeni a vypuštěni zpět. Abychom ověřili, že označení jeleni jsou náhodně rozmístěni v populaci, odchytili jsme pět jelenů po dostatečně dlouhé době ze stejné populace. Jaká je pravděpodobnost, že právě jeden označený jelen bude znovu odchycen, jestliže N =8 N = 10 N = 15 N = 20 N = 25 N = 30 Výsledky zakreslete do grafu vzhledem k velikosti populace. Odhadněte, jaký tvar má asi vykreslená křivka. 11. Házíme n-krát po sobě dvěma kostkami. Jaká je pravděpodobnost, že 35 n alespoň při jednom hodu padne součet 12? (1 − ( 36 ) )
12. Student si při zkoušce z matematiky tahá 3 otázky ze 30. Ve 30 otázkách je 10 otázek z algebry, 15 z matematické analýzy a 5 z geometrie. Jaká je pravděpodobnost, že si vytáhne alespoň dvě otázky ze stejné disciplíny? (0,815) 13. Z urny, která obsahuje n kuliček, vytáhneme najednou několik kuliček. n−1 −1 Určete, jaká je pravděpodobnost, že jsme vytáhli sudý počet. ( 2 2n −1 ) 14. V osudí je a lístků se sudými čísly a b lístků s lichými čísly. Jedním tahem vytáhneme k lístků. Vytažené lístky vložíme do druhého prázdného osudí a z něho pak vytáhneme jeden lístek. Jaká je pravděpodoba ) nost, že tento lístek je se sudým číslem? ( a+b 15. Jaká je pravděpodobnost, že se ve třídě, kde je n žáků, najde dvojice, která má narozeniny stejný den v roce? Jaká je pravděpodobnost, že
2.5. ÚLOHY
29
ve třídě, kde je n žáků, existuje spolužák, který má narozeniny stejný den jako třídní profesor? Jaké je nejmenší n takové, aby pravděpodobnost, že dva žáci mají narozeniny ve stejný den, byla větší než 1/2? (Neuvažujte přestupné roky; předpokládejte, že se během celého roku děti rodí rovnoměrně.) 16. Dva parníky, které používají jediné stejné přístaviště, mohou připlout kdykoliv během 24 hodin. Jejich příjezdy jsou nezávislé. První parník obsadí přístaviště na jednu hodinu, druhý na dvě hodiny. Jaká je pravděpodobnost, že ani jeden parník nebude muset čekat na uvolnění přístaviště? 17. Nechť x, y ∈ (0, 1) jsou náhodně zvolená čísla. Jaká je pravděpodobnost, že jejich součet je menší než 1 a součin menší než 0,09? 18. Na úsečce délky l jsou náhodně umístěny dva body, kterými je náhodně rozdělena na tři části. S jakou pravděpodobností lze z takto vzniklých tří úseček sestrojit trojúhelník?
Chapter 3 Podmíněná pravděpodobnost, nezávislost 3.1
Podmíněná pravděpodobnost
Nechť je dán pravděpodobnostní prostor (Ω, A, P ) a na něm náhodný jev
A. V předešlé kapitole jsme se zabývali pravděpodobností náhodného jevu,
který nastal za určitých podmínek. Nyní k těmto podmínkám přistupuje další podmínka v podobě jevu B, přičemž P (B) > 0 a jevy A a B nejsou disjunktní. V tomto případě nemluvíme již o pravděpodobnosti jevu A, nýbrž o pravděpodobnosti jevu A podmíněné jevem B nebo též o podmíněné pravděpodobnosti. Definice 3.1 Nechť je dán pravděpodobnostní prostor (Ω, A, P ) a náhodné jevy A, B, kde P (B) > 0. Podmíněnou pravděpodobnost jevu A za podmínky, že nastal jev B, definujeme vztahem P (A|B) =
P (A ∩ B) . P (B)
30
(3.1)
31
3.1. PODMÍNĚNÁ PRAVDĚPODOBNOST
Věta 3.1 Nechť je dán pravděpododnostní prostor (Ω, A, P ) a náhodný jev B, kde P (B) > 0. Potom pro libovolný jev A ∈ A platí: a) P (A|B) ≥ 0, b) P (Ω|B) = 1, c) P (∪∞ n=1 An |B) = tních jevů.
P∞
n=1
P (An |B) pro každou posloupnost {An } disjunk-
Důkaz. a) zřejmé, b) z definice 3.1 plyne, že P (Ω|B) =
P (Ω ∩ B) P (B) = = 1, P (B) P (B)
c) protože A1 , A2 , . . . jsou disjunktní, tak i A1 ∩ B, A2 ∩ B, . . . jsou disjunktní. Z axiomu c) definice 2.2 a z definice 3.1 plyne P (∪∞ n=1 An |B)
P (∪∞ n=1 An ∩ B) = = P (B) =
P∞
n=1
P∞
n=1
P (An ∩ B) = P (B)
P (An |B).
Poznámka 3.1 Věta 3.1 říká, že podmíněná pravděpodobnost má všechny základní vlastnosti pravděpodobnosti nepodmíněné (definice 2.2), a tudíž je to také pravděpodobnost.
32
CHAPTER 3. PODMÍNĚNÁ PRAVDĚPODOBNOST
Věta 3.2 (o násobení pravděpodobnosti): Pro libovolnou posloupnost náhodných jevů A1 , A2 , . . . , An , takových, že P (A1 ∩
A2 ∩ . . . ∩ An−1 ) > 0, platí
P (∩ni=1 Ai ) = P (A1 )P (A2 |A1 )P (A3 |A1 ∩ A2 ) . . .
(3.2)
. . . P (An |A1 ∩ A2 ∩ . . . ∩ An−1 ). Důkaz. Vzhledem k monotonii pravděpodobnosti a předpokladu věty máme P (A1 ) ≥ P (A1 ∩ A2 ) ≥ . . . ≥ P (A1 ∩ . . . ∩ An−1 ) > 0, a tedy všechny podmíněné pravděpodobnosti v tvrzení věty jsou dobře definovány. Opakovaným použitím definice 3.1 podmíněné pravděpodobnosti dostáváme:
n−1 n−1 n−1 P (∩i=1 Ai ∩ An ) = P (∩i=1 Ai )P (An | ∩i=1 Ai ) = n−2 n−2 n−1 = P (∩i=1 Ai )P (An−1 | ∩i=1 Ai )P (An | ∩i=1 Ai ) . . . n−1 = P (A1 )P (A2 |A1 )P (A3 |A1 ∩ A2 ) . . . P (An | ∩i=1 Ai ).
Příklad 3.1 Z urny, ve které je n bílých a n černých kuliček, náhodně vybereme n-krát po dvou kuličkách bez vrácení vytažených kuliček. Určete, jaká je pravděpodobnost, že vždy vytáhneme jednu bílou a jednu černou kuličku.
Řešení: Označme Ai jev ”v i-tém tahu vytáhneme jednu kuličku bílou a jednu kuličku černou”, i = 1, . . . , n. Hledáme pravděpodobnost náhodného jevu (A1 ∩ A2 ∩
33
3.2. NEZÁVISLOST A3 ∩ . . . ∩ An ). Podle věty 3.1 je P (∩ni=1 Ai ) = P (A1 )P (A2 |A1 )P (A3 |A1 ∩ A2 ) . . .
(3.3)
. . . P (An |A1 ∩ A2 ∩ . . . ∩ An−1 ). Hledejme pravděpodobnosti vyskytující se v rovnici 3.3. Hledáme P (A1 ). a počet příznivých případů jevu A1 je n · n. Počet možných případů je 2n 2
Z toho plyne, že
P (A1 ) =
n·n 2n . 2
Při hledání pravděpodobnosti P (A2 |A1 ) vycházíme z toho, že v urně je již
pouze n − 1 bílých a n − 1 černých kuliček, takže P (A2 |A1 ) = Analogicky
(n − 1)(n − 1) . 2n−2 2
P (A3 |A1 ∩ A2 ) = .. .
(n − 2)(n − 2) 2n−4 2
n−1 P (An | ∩i=1 Ai ) = 1.
Hledaná pravděpodobnost je tedy rovna P (∩ni=1 Ai ) =
n · n (n − 1)(n − 1) (n − 2)(n − 2) · · ... · 1 = 2n · 2n−2 2n−4 2
=
3.2
2
2
n!n!2n . (2n)!
Nezávislost
Uvažujme nyní dva náhodné jevy A a B. Jestliže pro ně platí P (A|B) = P (A) a P (B|A) = P (B),
(3.4)
34
CHAPTER 3. PODMÍNĚNÁ PRAVDĚPODOBNOST
pak mluvíme o jejich vzájemné nezávislosti. Z (3.4) vidíme, že pravděpodobnost jevu A podmíněná jevem B nezávisí na jevu B a naopak. Z (3.4) a z definice podmíněné pravděpodobnosti pak dostáváme následující definici nezávislosti dvou náhodných jevů. Definice 3.2 Náhodné jevy A a B jsou nezávislé, jestliže platí P (A ∩ B) = P (A) · P (B).
(3.5)
Pojem nazávislosti můžeme rozšířit i na skupinu náhodných jevů. Definice 3.3 Nechť A1 , A2 , . . . , An jsou náhodné jevy. Řekneme, že jsou skupinově (totálně) nezávislé, jestliže pro libovolnou posloupnost indexů {k1 , k2 , . . . , kr } ⊂ {1, . . . , n}, r = 2, . . . , n platí (Ak1 ∩ Ak2 ∩ . . . ∩ Akr ) = P (Ak1 ) · P (Ak2 ) · . . . · P (Akn ).
(3.6)
Definice 3.4 Nechť A1 , . . . , An jsou náhodné jevy. Řekneme, že jsou po dvou nezávislé, jestliže jevy Ai , Aj jsou nezávislé pro všechna i, j = 1, . . . , n, i 6=
j.
Příklad 3.2 Při hodu dvěma mincemi uvažujeme tyto náhodné jevy: A1 . . . jev spočívající v tom, že na 1. minci padne rub, A2 . . . jev spočívající v tom, že na 2. minci padne líc, A3 . . . jev spočívající v tom, že na obou mincích padne rub, nebo líc. Zjistěte, zda dané jevy jsou skupinově nezávislé.
3.2. NEZÁVISLOST
35
Řešení:
1 1 1 P (A1 ) = , P (A2 ) = , P (A3 ) = , 2 2 2 1 1 1 P (A1 ∩ A2 ) = , P (A1 ∩ A3 ) = , P (A2 ∩ A3 ) = , 4 4 4 1 1 1 P (A1 ) · P (A2 ) = , P (A1 ) · P (A3 ) = , P (A2 ) · P (A3 ) = , 4 4 4 P (A1 ∩ A2 ∩ A3 ) = 0, neboť A1 ∩ A2 ∩ A3 je jev nemožný. Protože P (A1 ) · P (A2 ) · P (A3 ) 6= 0, nejsou jevy A1 , A2 , A3 skupinově nezávislé. O jevech
A1 , A2 , A3 v souvislosti s nezávislostí můžeme říci jen to, že jsou nezávislé po dvou. Nyní budou následovat některá tvrzení zabývající se nezávislostí náhodných jevů. Věta 3.3
a) Jev nemožný a libovolný náhodný jev A jsou nezávislé.
b) Jev jistý a libovolný náhodný jev A jsou nezávislé. c) Nechť jevy A, B jsou disjunktní. Pak jsou nezávislé ⇔ P (A)·P (B) = 0. Důkaz. a)
o P (∅ ∩ A) = P (∅) = 0 ⇒ P (∅ ∩ A) = P (∅) · P (A) P (∅) · P (A) = 0 · P (A) = 0
b) P (Ω ∩ A) = P (A) = P (A) · 1 = P (A) · P (Ω) c) ”⇒” Pro disjunktní jevy platí A ∩ B = ∅. Jelikož předpokládáme, že jsou
36
CHAPTER 3. PODMÍNĚNÁ PRAVDĚPODOBNOST nezávislé, P (A) · P (B) = P (A ∩ B) = P (∅) = 0. ”⇐” Nechť platí P (A)·P (B) = 0, pak A = ∅ nebo B = ∅ a tedy P (A∩B) = P (∅) = 0 = P (A) · P (B).
¯ Věta 3.4 Nechť A, B jsou nezávislé náhodné jevy. Pak dvojice jevů (A, B), ¯ B), (A, ¯ B) ¯ jsou nezávislé. (A, Důkaz. P (A¯ ∩ B) = P (B − A) = P (B − [A ∩ B]) = P (B) − P (A ∩ B) = ¯ = P (B) − P (B) · P (A) = P (B) · (1 − P (A)) = P (B) · P (A). ¯ se dokáže analogicky. Nezávislost jevů A, B ¯ Jsou-li nezávislé jevy A, B, pak podle předchozího jsou nezávislé jevy A, B, ¯ B. ¯ ale odtud opět podle předchozího jsou nezávislé i jevy A,
Věta 3.5 Nechť A1 , . . . , An jsou skupinově (totálně) nezávislé jevy. Potom platí následující n Y n P (∪i=1 Ai ) = 1 − [1 − P (Ai )]. (3.7) i=1
Důkaz. Z de Morganových vzorců plyne ∪ni=1 Ai = Ω − ∩ni=1 A¯i , tedy P (∪ni=1 Ai ) = P (Ω) − P (∩ni=1 A¯i ) = 1 − P (∩ni=1 A¯i ).
37
3.2. NEZÁVISLOST Protože A1 , . . . , An jsou nezávislé, jsou i A¯1 , . . . , A¯n nezávislé, takže P (∩ni=1 A¯i ) =
n Y
P (A¯i ) =
i=1
n Y i=1
(1 − P (Ai )).
Příklad 3.3 Během dne se v porodnici narodilo 10 dětí. Pravděpodobnost narození chlapce je p = 0, 514. Jaká je pravděpodobnost, že během tohoto dne se narodil v porodnici alespoň jeden chlapec?
Řešení: Nechť Ai , i = 1, . . . , 10, značí jev ”i-té narozené dítě je chlapec”. Jev ∪10 i=1 Ai znamená ”alespoň jedno narozené dítě je chlapec”. Jelikož A1 , . . . , A10 jsou skupinově nezávislé, je podle věty 3.5 P (∪10 i=1 Ai ) = 1 −
Q10
i=1 (1
− P (Ai )) =
= 1 − (0, 486)10 = 1 − 0, 000735 = 0, 9993. Pravděpodobnost, že se během dne narodí v porodnici alespoň jeden chlapec, je 0,9993.
Věta 3.6 Náhodné jevy A, B, kde 0 < P (B) < 1, jsou nezávislé právě tehdy, když ¯ P (A|B) = P (A|B). Důkaz. Rovnost
¯ P (A ∩ B) P (A ∩ B) = ¯ P (B) P (B)
(3.8)
38
CHAPTER 3. PODMÍNĚNÁ PRAVDĚPODOBNOST
platí právě tehdy, když ¯ · P (A ∩ B) = P (A¯ ∩ B) · P (B). P (B) ¯ = 1 − P (B) dostáváme Po dosazení za P (B) ¯ P (A ∩ B) − P (B) · P (A ∩ B) = P (B) · P (A ∩ B). Po úpravě máme ¯ = P (B) · P (A). P (A ∩ B) = P (B) · (P (A ∩ B) + P (A ∩ B))
3.3
Bernoulliho schéma
Na závěr kapitoly se budeme zabývat opakovanými pokusy. To jsou takové pokusy, kdy jeden pokus opakujeme vícekrát za sebou. O jejich nezávislosti mluvíme tehdy, jestliže pravděpodobnost zkoumaného jevu v každém pokusu nezávisí na výsledku předchozího pokusu. Speciálním typem těchto opakovaných pokusů jsou tzv. pokusy alternativní, jejichž základní rys je ten, že výsledky pokusu jsou charakterizovány pouze dvěma navzájem se vylučujícími znaky. Opakované alternativní pokusy se dají znázornit např. Bernoulliho schématem, které si nyní uvedeme:
Příklad 3.4 V osudí je a koulí bílých a b koulí černých. n-krát po sobě vytáhneme vždy po jedné kouli, přičemž tuto kouli vrátíme po tahu vždy zpět. Jaká je pravděpodobnost, že mezi vytaženými koulemi je právě m koulí bílých a (n − m) koulí černých?
3.3. BERNOULLIHO SCHÉMA
39
Řešení: V osudí máme při každém opakovaném tahu neustále a koulí bílých a b koulí černých. V každém z n tahů máme tedy (a + b) možností, jak vytáhnout jednu kouli. Protože každá možnost prvního tahu může být zkombinována s každou možností druhého tahu a tyto možnosti se dají zkombinovat s každou možností tahu třetího, . . . , je počet možných případů konaného pokusu (a + b)n . Nyní budeme řešit počet příznivých případů. V n tazích máme vytáhnout m koulí bílých, tzn. rozmisťujeme m koulí na n míst. Takovýchto rozmístění n . Budeme-li uvažovat jedno pevné rozmístění, např. nejprve vytaženo je m m bílých koulí a pak (n − m) černých, vidíme, že takové rozmístění můžeme m n−m n a b . vytáhnout am · bn−m způsoby. Tedy počet příznivých případů je m Hledaná pravděpodobnost Pm,n je tedy rovna m n−m n a ·b Pm,n = , m (a + b)n což není nic jiného než Pm,n
m n−m a n b = . m a+b a+b
(3.9)
a b Označme si p = a+b , q = a+b ; p značí pravděpodobnost toho, že v každém tahu vytáhneme bílou kouli, q značí pravděpodobnost toho, že v každém tahu
vytáhneme černou kouli. Pak (3.9) můžeme psát ve tvaru n pm q n−m , kde q = 1 − p, p ∈ (0, 1). Pm,n = m
(3.10)
U mnohonásobného nezávisle opakovaného alternativního pokusu pravděpodobnost toho, že v n nezávislých pokusech náhodný jev A nastane m-krát, počítáme podle (3.10), přičemž v každém pokusu náhodný jev A nastane s pravděpodobností p. Pravděpodobnost, že v n nezávislých pokusech náhodný
40
CHAPTER 3. PODMÍNĚNÁ PRAVDĚPODOBNOST
jev A nastane alespoň m-krát, počítáme podle vzorce n X
Pi,n .
(3.11)
Pi,n = 1 − P0,n = 1 − q n ,
(3.12)
Sm,n =
i=m
Z (3.11) pro m = 1 dostáváme S1,n =
n X i=1
což je pravděpodobnost, že v n nezávislých pokusech náhodný jev A nastane alespoň jednou. Vraťme se nyní k příkladu 3.3, který jsme řešili pomocí věty 3.5. Tento příklad můžeme vyřešit i pomocí výše uvedeného Bernouliho schématu, a to následovně: Považujme porod za náhodný pokus. Máme tedy 10 nezávislých pokusů. Výsledek každého takového pokusu je buď narození chlapce nebo děvčete. Pravděpodobnost narození chlapce při každém porodu je 0,514. Podle (3.12) tedy dostáváme S1,n = 1 − (0, 486)10 = 0, 9993. Vidíme, že použitím Bernouliho schématu docházíme rychleji k témuž výsledku. Příklad 3.5 Házíme n-krát po sobě jednou kostkou. Vypočtěte pravděpodobnost toho, že v těchto n hodech padne alespoň jednou šestka. Řešení: Mámě opět n nezávislých pokusů. Výsledek každého pokusu je buď šestka nebo jednička, dvojka, . . . , pětka. Pravděpodobnost padnutí šestky v každém hodu je 16 . Podle (3.12) dostáváme 5 S1,n = 1 − ( )n . 6
41
3.4. ÚLOHY
Pravděpodobnost toho, že v n hodech hrací kostkou padne alespoň jednou šestka, je 1 - ( 56 )n . Často nás spíše než pravděpodobnost zajímá počet pokusů n, které musíme vykonat, abychom s pravděpodobností rovnou nejméně P mohli tvrdit, že náhodný jev A nastal alespoň jednou, přičemž pravděpodobnost, že náhodný jev A nastane v každém jednotlivém pokusu, je rovna p. Neboli požadujme, aby P ≥ S1,n P ≥ 1 − (1 − p)n ln(1 − P ) ≤ n ln(1 − p) ln(1−P ) ln(1−p)
≤ n.
(3.13)
Příklad 3.6 Hráč podává v sázkové kanceláři 30 tiketů sportky. Pravděpodobnost, že vyhraje 5. cenu (uhodne 3 čísla ze 49, vyplňuje pouze jeden sloupec), je p = 0, 01765. Určete počet tiketů, které musí podat, aby mezi nimi byl alespoň jeden vyhrávající 5. cenu s pravděpodobností rovnající se alespoň 0,75. Řešení: Výpočet provedeme podle (3.13), kde p = 0, 01765, P = 0, 75 : n≥
ln 0, 25 ln(1 − 0, 75) = = 77, 8 ln(1 − 0, 01765) ln 0, 98235
Hráč musí podat 78 tiketů sportky, aby s pravděpodobností alespoň 0,75 vyhrál alespoň jednu 5. cenu.
3.4
Úlohy
1. V urně je 6 kuliček. Každá kulička má jinou barvu (červená, bílá, černá, žlutá, modrá, zelená). Budeme nezávisle 5-krát po sobě tahat po jedné
42
CHAPTER 3. PODMÍNĚNÁ PRAVDĚPODOBNOST kuličce, přičemž po každém tahu kuličku vracíme zpět do urny. Jaká je pravděpodobnost, že (a) při 1. a 5. tahu vytáhneme kuličku žluté barvy, (b) kuličku žluté barvy vytáhneme právě 2x. (a) 0,016, b) 0,160) 2. Dva sportovci hází oštěpem nezávisle jeden na druhém. Každý má pouze jeden pokus. Pravděpodobnost, že první hodí 80 metrů, je 0,8; pravděpodobnost, že druhý hodí 80 metrů, je 0,75. Jaká je pravděpodobnost, že 80 metrů nehodí ani jeden z nich? (0,05) 3. Uvažujeme dvě osudí. V každém jsou obsaženy 4 lístky. Na dvou lístcích jsou čísla dělitelná dvěma a na druhých dvou jsou čísla dělitelná třemi. Nechť A je takový jev, že z prvního osudí vytáhneme lístek, na němž je číslo dělitelné dvěma; nechť B je takový jev, že z druhého osudí vytáhneme lístek s číslem dělitelným třemi a C je takový jev, že v obou dvou tazích vytáhneme lístky s čísly dělitelnými týmž číslem. Zjistěte, zda jevy A, B, C jsou nezávislé po dvou a po třech. (Jevy A, B, C jsou nezávislé po dvou, nejsou nezávislé po třech.) 4. Dětská obrázková skládačka obsahuje 12 kostek, které mají na každé stěně část jednoho ze 6 obrázků. Nechť jev A znamená, že každou kostku uložíme do krabičky na její místo, jev B, že bude správnou stranou vzhůru a jev C, že správnou stranu otočíme do správné polohy. Vypočítejte P(A ∩ B ∩ C), tj. že složíme správně jeden z obrázků. 1 ( 12! · 6612 · 4112 ) 5. Zahradnictví dodává obchodu s květinami zásilku 100 květin v květináčích. Prodavačka při přejímání zásilky dělá namátkovou kontrolu. Vybere náhodně 5 květin. Jestliže aspoň jedna je napadená škůdcem, zásilku nepřijme. Určete pravděpodobnost zamítnutí zásilky, jestliže
3.4. ÚLOHY
43
v celkovém dodaném množství květin jsou 2% květin napadených škůdcem. (0,0979) 6. Bydlíte ve městě, ve kterém žije n+1 lidí, a zajímá vás dynamika šíření pomluvy. Začnete tím, že sdělíte pomluvu jedné osobě a ta náhodně vybere další osobu a pošle pomluvu dál. A tak to pokračuje dále. Jaká je pravděpodobnost, že pomluva je sdělena k-krát, než se zacyklí a je opět sdělena vám? Jaká je pravděpodobnost, že pomluva je sdělena k-krát, než ji všichni znají. Jak se problém změní, jestliže je v každém kroku pomluva zopakována N náhodně vybraným lidem? 7. Z 32 karet (4 esa) taháme jednu kartu po druhé, přičemž vytažené karty zpět nevracíme. Vypočtěte pravděpodobnost, že se eso vyskytne jako 2. a 7. karta. (0,00834) 8. V maturitních otázkách z chemie je z 60 otázek 30% otázek z anorganické chemie. Doposud bylo z chemie zkoušeno 10 studentů. Určete pravděpodobnost toho, že (a) právě 4 z vytažených otázek byly z anorganické chemie, (b) nejvýše 3 byly z anorganické chemie, (c) aspoň 2 otázky byly z anorganické chemie, jestliže vytáhnuté otázky se už zpět nevrací. ( a) 0,213, b) 0,6575, c) 0,874) 9. Na hřišti se sešly dvě skupinky hochů. V první skupince bylo 12 hochů a ve druhé 10. Hoši si chtějí zahrát fotbal. Jelikož na každé straně by mělo být 11 hráčů, je z první skupiny náhodně vybrán jeden a je převeden do druhé. Jaká je pravděpodobnost, že náhodně vybraný hoch z doplněné druhé skupinky je dobrým fotbalistou, jestliže první
44
CHAPTER 3. PODMÍNĚNÁ PRAVDĚPODOBNOST skupinka před odchodem jednoho z hochů měla 8 dobrých a 4 podprůměrné fotbalisty a druhá 6 dobrých a 4 podprůměrné fotbalisty? (0,606)
10. Banachova úloha: Prodavačka má na pultě rozdělené pulovry na dvě stejně početné hromádky. V každé hromádce je jich n. Při jejich prodeji vybírá náhodně pulovry z jedné hromádky. Časem dojde k tomu, že pulovry z jedné hromádky jsou vyprodané. Vypočítejte pravděpodobnost, že v druhé hromádce jich zůstane k. ((2n−k ) · ( 12 )n · ( 12 )n−k ) n 11. Jsou dána 4 osudí. Nechť pravděpodobnost volby kteréhokoliv z nich je stejná, tj. 14 . V každém z prvních tří osudí jsou obsaženy 3 lístky se sudými čísly a 2 lístky s lichými čísly. Ve čtvrtém osudí jsou 4 lístky se sudými čísly a 1 lístek s lichým číslem. Náhodně zvolíme osudí, vytáhneme z něj jeden lístek a vložíme ho do jiného osudí (opět náhodně zvoleného). Z tohoto osudí pak vytáhneme 1 lístek. Jaká je pravděpodobnost, že poslední vytažený lístek je se sudým číslem? (0,6496) 12. Máme n různých dopisů a n různých obálek. Dopisy byly do obálek umístěny náhodně. Jaká je pravděpodobnost, že se alespoň jeden dopis dostane do správné obálky? 13. Profesor zapomene deštník při každé návštěvě obchodu s pravděpodobností 41 . Jestliže navštívil čtyři obchody a přišel domů bez deštníku, jaká je pravděpodobnost, že jej zapomněl v posledním obchodě? 14. Hráči A, B, C střídavě házejí mincí; A hází první, B hází druhý, C hází třetí. Hra končí, jakmile jednomu hráči padne líc a ten se stává výhercem. Spočtěte pravděpodobnosti: (a) výhry hráče A,
3.4. ÚLOHY
45
(b) výhry hráče B. 15. Urna obsahuje 6 koulí, z nichž 4 jsou bílé. Náhodným způsobem vybereme bez vracení 4 koule. Označme jevy: A = {právě jedna z prvních dvou tažených koulí je bílá}, B = {čtvrtá tažená koule je bílá}, C = {ve výběru jsou právě dvě koule bílé}. Určete pravděpodobnost P (A), P (B), P (C). Jsou jevy A, B, C nezávislé? 16. Házíme dvěma hracími kostkami. Jev A znamená, že na modré kostce padlo liché číslo, jev B znamená, že na zelené kostce padlo sudé číslo, jev C znamená, že součet obou čísel je lichý. Jsou náhodné jevy A, B, C nezávislé? Jsou náhodné jevy A, B, C po dvou nezávislé? 17. Ve vězení jsou tři lotři, Alcapone, Babinský a Cimrman. Losem jsou určeni dva z nich, kteří budou popraveni. Alcapone se chce dovědět, zda je mezi vylosovanými. Ví, že dozorce by mu na přímou otázku neodpověděl, proto ho žádá, aby mu jmenoval jednoho z jeho spoluvězňů, který bude popraven. Dozorce je pravdomluvný, a má-li dvě možnosti, volí mezi nimi náhodně. Jmenuje Babinského. Představuje tato odpověď pro Alcapona nějakou informaci o jeho osudu? (Před rozhovorem s dozorcem byla Alcaponova pravděpodobnost, že bude popraven, rovna 23 ; je podmíněná pravděpodobnost po dozorcově odpovědi jiná?)
Chapter 4 Celková pravděpodobnost, Bayesův vzorec V této kapitole se zaměříme na odvození vzorce k výpočtu celkové pravděpodobnosti a na odvození 1. a 2. Bayesova vzorce. Doposud jsme se zabývali pouze přímým výpočtem pravděpodobnosti a podmíněnou pravděpodobností. Obojí je nutné ke zvládnutí látky v této kapitole. Uveďme si nejdříve příklad, v němž bude popsána situace příznačná pro celkovou pravděpodobnost. Příklad 4.1 Ve skupině sportovců je 20 lyžařů, 6 cyklistů a 4 běžci. Pravděpodobnost splnění normy pro lyžaře je 0,9, pro cyklistu 0,8 a pro běžce 0,75. Určete pravděpodobnost toho, že náhodně vybraný sportovec splní normu. Řešení: Označme si A1 A2
náhodně vybraný sportovec je lyžař, náhodně vybraný sportovec je cyklista,
A3
náhodně vybraný sportovec je běžec, 46
47
B
náhodně vybraný sportovec, který splnil normu.
Potom
P (A1 ) =
20 30
=
2 , 3
P (A2 ) =
6 30
=
1 , 5
P (A3 ) =
4 30
=
2 . 15
Dále platí, že P (B|A1 ) = 0, 9, P (B|A2 ) = 0, 8,
(4.1)
P (B|A3 ) = 0, 75. Máme určit pravděpodobnost jevu B: P (B) = P (A1 ∩ B) + P (A2 ∩ B) + P (A3 ∩ B) = P (B|A1 ) · P (A1 ) + P (B|A2 ) · P (A2 ) + P (B|A3 ) · P (A3 ). (4.2) V poslední rovnosti jsme užili vzorec pro podmíněnou pravděpodobnost. Po dosazení (4.1) do (4.2) dostáváme P (B) = 0, 9 ·
1 2 2 + 0, 8 · + 0, 75 · = 0, 86. 3 5 15
Náhodně vybraný sportovec tedy splní normu s pravděpodobností 0,86. Zformulujeme poznatky z příkladu 4.1 do věty:
Věta 4.1 (O celkové pravděpodobnosti) Nechť A1 , A2 , . . . jsou náhodné jevy tvořící rozklad jevu jistého, tzn. Ai ∩ Aj = ∅, ∀i 6= j a ∪∞ i=1 Ai = Ω.
48
CHAPTER 4. CELKOVÁ PRAVDĚPODOBNOST
Nechť tyto náhodné jevy mají postupně pravděpodobnosti P (A1 ), P (A2 ), . . ., přičemž P (Ai ) > 0, ∀i = 1, 2, . . . Uvažujme libovolný náhodný jev B, u něhož známe podmíněné pravděpodobnosti
P (B|Ai ), ∀i = 1, 2, . . . Potom P (B) =
∞ X i=1
(4.3)
P (Ai ) · P (B|Ai ).
Důkaz. Jevy A1 , . . . , An tvoří disjunktní rozklad ⇒ (Ai ∩ B) ∩ (Aj ∩ B) = ∅ ∀i 6= j, ∪∞ i=1 (Ai ∩ B) = B. Potom P (B) =
P (∪∞ i=1 (Ai
∩ B)) =
∞ X i=1
P (Ai ∩ B) =
∞ X i=1
P (Ai ) · P (B|Ai ).
V důkazu jsme využili vlastnosti 2 pravděpodobnosti a definice 3.1 podmíněné pravděpodobnosti.
Příklad 4.2 Nyní obměníme zadání příkladu 1, a to následovně: Ve skupině sportovců je 20 lyžařů, 6 cyklistů a 4 běžci. Pravděpodobnost splnění normy pro lyžaře je 0,9, pro cyklistu 0,8 a pro běžce 0,75. Náhodně vybraný sportovec splnil normu. Jaká je pravděpodobnost, že je to cyklista? Řešení: Nechť jevy A1 , A2 , A3 , B znamenají totéž, co v řešení původní verze příkladu. Pak je naším úkolem najít P (A2 |B). Tuto pravděpodobnost najdeme podle
Bayesova vzorce, který uvedeme v následující větě.
Věta 4.2 (Bayesova věta) Nechť jsou splněny předpoklady věty 4.1. Pak P (B|Ai ) · P (Ai ) , P (Ai |B) = P∞ j=1 P (Aj ) · P (B|Aj )
i = 1, 2, . . .
(4.4)
49 Důkaz. Podle vzorce pro podmíněnou pravděpodobnost je P (Ai |B) =
P (Ai ∩ B) . P (B)
(4.5)
Po dosazení (4.3) do (4.5) dostáváme P (Ai ∩ B) . j=1 P (Aj ) · P (B|Aj )
P (Ai |B) = P∞
(4.6)
Opět použijeme definici 3.1 a dostáváme (4.4), což jsme měli dokázat.
Podle Bayesova vzorce nyní zjistíme pravděpodobnost, na kterou jsme se ptali v nové verzi příkladu 4.2. S využitím již známých pravděpodobností (4.1) vypočteme P (A2 |B). Po dosazení (4.1) do (4.4) obdržíme 0, 8 · 51 P (B|A2 ) · P (A2 ) = 0, 1376. P (A2 |B) = P3 = 0, 86 j=1 P (Aj ) · P (B|Aj )
Pravděpodobnost, že náhodně vybraný sportovec splňující normu je cyklista, je rovna 0,1376. Příklad 4.3 Při vyšetřování pacienta je podezření na 3 navzájem se vylučující nemoci. Pravděpodobnost výskytu první nemoci je 0,3, druhé 0,5 a třetí nemoci 0,2. Laboratorní zkouška dává pozitivní výsledek u 15% nemocných na první nemoc, u 30% nemocných na druhou nemoc a u 30% na třetí nemoc. Jaká je pravděpodobnost výskytu druhé nemoci, jestliže po vykonání laboratorní zkoušky je výsledek pozitivní? Řešení: Označme si A1 . . . pacient má 1. nemoc, A2 . . . pacient má 2. nemoc,
50
CHAPTER 4. CELKOVÁ PRAVDĚPODOBNOST
A3 . . . pacient má 3. nemoc, B . . . laboratorní zkouška dává pozitivní výsledek. Jevy A1 , A2 , A3 tvoří rozklad jevu jistého, neboť Ai ∩ Aj = ∅, ∀i 6= j, i, j = 1, 2, 3 a ∪3i=1 Ai = Ω.
Víme, že
P (A1 ) = 0, 3, P (A2 ) = 0, 5, P (A3 ) = 0, 2. Známe i podmíněné pravděpodobnosti: P (B|A1 ) = 0, 15, P (B|A2 ) = 0, 30, P (B|A3 ) = 0, 30. Chceme zjistit P (A2 |B). Opět použijeme Bayesův vzorec. Po dosazení známých pravděpodobností do (4.4) dostáváme P (B|A2 ) · P (A2 ) P (A2 |B) = P3 = j=1 P (Aj ) · P (B|Aj ) =
0, 5 · 0, 3 = 0, 588. 0, 3 · 0, 15 + 0, 5 · 0, 3 + 0, 2 · 0, 3
Jestliže po vykonání laboratorní zkoušky je výsledek pozitivní, pravděpodobnost výskytu druhé nemoci je 0,588.
Poznámka 4.1 Pravděpodobnosti P (A1 ), P (A2 ), . . . v (4.4) se nazývají apriorní a jevy A1 , A2 , . . . se nazývají hypotézami. Pravděpodobnosti P (Ai |B)
nazýváme aposteriorní.
51 Z uvedených příkladů je vidět, že v úlohách řešitelných podle Bayesova vzorce postupujeme následovně: a) stanovíme náhodné jevy A1 , . . . , An , které tvoří rozklad jevu jistého, tzn., že jsou disjunktní a vyčerpávají všechny možnosti, b) stanovíme jev B, c) vypočítáme P (A1 ), . . . , P (An ), P (B|A1 ), . . . , P (B|An ), d) dosadíme do vzorce (4.4). Příklad 4.4 (AIDS). Krevní test na pozitivní virus HIV nemusí vždy správně identifikovat chorobu. Mohou nastat dva druhy chyb. 1. Test špatně indikuje pozitivitu, 2. test špatně indikuje negativitu. Statistickým pozorováním bylo zjištěno, že tento test je velmi spolehlivý, přesněji, je-li objekt infikován, bude test pozitivní s pravděpodobností 0,995. Neboli P (P oz|Inf ) = 0, 995, odtud dostáváme, že pravděpodobnost chyby 1. druhu je P (N eg|Inf ) = 0, 005. Podobně P (N eg|N eInf ) = 0, 995 a pravděpodobnost 2. chyby je P (P oz|N eInf ) = 0, 005. Předpokládejme, že bude vydán zákon, který nařídí všem lidem provést tento ”přesný” test, aby mohli být identifikováni všichni infikovaní lidé. Jestliže pak náhodně vybereme jednoho člověka s pozitivním výsledkem testu, ptáme se, jaká je pravděpodobnost, že skutečně má HIV. Neboli zajímá nás pravděpodobnost P (Inf |P oz), kterou určíme podle Bayesova vzorce: P (Inf |P oz) =
P (P oz|Inf ) · P (Inf ) . P (P oz|Inf ) · P (Inf ) + P (P oz|N eInf ) · P (N eInf )
52
CHAPTER 4. CELKOVÁ PRAVDĚPODOBNOST
Zbývá nám určit apriorní pravděpodobnosti P (Inf ), P (N eInf ). Např. v USA v roce 1996 bylo 293.433 infikovaných lidí, což vede k odhadům P (Inf ) = 0, 001 a P (N eInf ) = 0, 999. Po dosazení dostáváme P (Inf |P oz) =
0, 995 · 0, 001 = 0, 16. 0, 995 · 0, 001 + 0, 005 · 0, 999
Můžeme tedy mluvit o štěstí, že takový zákon nebyl nikdy vytvořen, protože pouze 16% pozitivních lidí by bylo skutečně infikovaných HIV.
4.1
Úlohy
1. Ve městě jsou tři obchodní společnosti. Pod první obchodní společnost spadá 20 obchodů, pod druhou 15 obchodů a pod třetí 10 obchodů. Při návštěvě obchodu první společnosti budete ošizen s pravděpodobností 0,15, v obchodě druhé společnosti 0,08 a u třetí společností s pravděpodobností 0,05. Jaká je pravděpodobnost, že při nákupu v tomto městě budete ošizen? (0,1044) 2. Přijímací zkoušky na určitou školu se konají ve čtyřech třídách. V první třídě (50 studentů) zkoušky udělalo 75%, ve druhé třídě (35 studentů) prospělo 50%, ve třetí třídě (40 studentů) je udělalo 65% a ve čtvrté (30 studentů) 60%. Ze všech studentů, kteří absolvovali přijímací zkoušky, vybereme náhodně jednoho. Jaká je pravděpodobnost, že zkoušky udělal? (0,6387) 3. V autobusu je n cestujících. Na následující zastávce každý z nich vystupuje s pravděpodobností p. Kromě toho do autobusu nenastoupí ani jeden cestující s pravděpodobností p0 a s pravděpodobností 1 − p0
53
4.1. ÚLOHY
nastoupí jeden nový cestující. Jaká je pravděpodobnost toho, že když se autobus znovu rozjede, bude v něm po následující zastávce n cestujících jako na začátku?
p0 · (1 − p)n + (1 − p0 ) · n · p · (1 − p)n−1
4. Ve třídě je 36 žáků, z toho je 15 chlapců a 21 děvčat. Z chlapců je 5 obézních a z dívek je obézních 7. Jaká je pravděpodobnost, že vybrané obézní dítě bude chlapec? (0,416) 5. Studenti oboru M-F, M-Bi, M-VT umí řešit příklad na Bayesovy vzorce s pravděpodobností 0,80, 0,65 a 0,95. S jakou pravděpodobností je Pavel posluchač oboru (a) M-F (12 studentů) nebo (b) M-Bi (14 studentů) nebo (c) oboru M-VT (12 studentů), jestliže neumí řešit příklady na Bayesovy vzorce? (0,3, 0,6125, 0,0875) 6. Zprávy vysílané Morseovou abecedou mají tyto statistické údaje: z vyslaných signálů ”tečka” přijde ve 52 případů jako ”čárka” a z vyslaných signálů ”čárka” přijde v 13 případů jako ”tečka”. Signály tečka a čárka jsou v poměru 5:3. Zjistěte, jaká je pravděpodobnost toho, že byl vyslaný signál: (a) tečka za podmínky, že jsme přijali signál čárka, (b) tečka za podmínky, že jsme přijali signál tečka. (0,5, 0,75) 7. Máme tři skupiny běžců na 100 m. První skupina (10 běžců) uběhne trasu v limitu s pravděpodobností 0,90, druhá skupina (6 běžců) s pravděpodobností 0,85 a třetí skupina (6 běžců)s pravděpodobností 0,75. Náhodně jsme vybrali ze všech běžců jednoho, o kterém jsme zjistili, že uběhne 100 m v limitu. Jaká je pravděpodobnost, že pochází z druhé skupiny? (0,268)
Chapter 5 Fyzikální statistiky 5.1
Maxwell-Boltzmannova statistika
Uvažujme r rozlišitelných předmětů a n rozlišitelných přihrádek. Rozdělujme předměty do přihrádek, přičemž dvě rozdělení budeme považovat za různá, jestliže alespoň jeden předmět nebude umístěn u obou dvou rozdělení ve stejné přihrádce. Předpokládejme, že všechna rozmístění jsou stejně pravděpodobná. Takto popsaný model tzv. Maxwell-Boltzmannovy statistiky pochází z klasické mechaniky. V rámci tohoto pokusu budeme řešit následující úlohy: a) Jaká je pravděpodobnost, že daná přihrádka bude prázdná? b) Jaká je pravděpodobnost, že daná přihrádka bude obsahovat k předmětů? (0 ≤ k ≤ r) c) Jaká je pravděpodobnost, že žádná přihrádka nebude prázdná? d) Předpokládáme, že počet předmětů r závisí na počtu přihrádek (tzn. 54
5.1. MAXWELL-BOLTZMANNOVA STATISTIKA
55
r = rn ) a nechť
rn = λ > 0. n→∞ n Za těchto předpokladů budeme hledat limitu pravděpodobnosti z b). lim
Řešení: a) Jelikož předpokládáme, že všechna rozmístění jsou stejně pravděpodobná, jedná se o klasickou pravděpodobnost. Označme si A jev, že daná přihrádka je prázdná. Pak podle definice klasické pravděpodobnosti P (A) =
mA , nA
kde nA je počet všech možných rozmístění v rámci M.-B. statistiky a mA je počet příznivých možností. Každé rozmístění r předmětů do n přihrádek charakterizuje r-členný vektor, jehož každý člen je číslo od 1 do n. Počet všech možných r-členných vektorů, jehož členy vybíráme z n-prvkové množiny, je nr (což jsou variace s opakováním r-té třídy z n prvků). Protože počet všech r-členných vektorů, jehož členy vybíráme z n-prvkové množiny, odpovídá počtu všech rozmístění v rámci M.-B. statistiky, je nA = nr . Počet příznivých možností, tzn. počet všech rozmístění, v nichž daná přihrádka je prázdná, je roven počtu všech r-členných vektorů, jehož členy vybíráme z (n − 1)-prvkové množiny, tzn. mA = (n − 1)r . Opět se jedná o variace s opakováním r-té třídy, ale nyní pouze z (n − 1) prvků. Hledaná pravděpodobnost je rovna n − 1 r P (A) = . n
b) Označme si A jev, že daná přihrádka obsahuje k předmětů, kde 0 ≤ k ≤ r. Z a) víme, že počet všech možných rozmístění je nr , takže nám zbývá určit počet všech rozmístění příznivých jevu A. Ten určíme následovně.
56
CHAPTER 5. FYZIKÁLNÍ STATISTIKY Víme, že k předmětů je fixováno v jedné přihrádce. V této přihrádce může být jakákoliv kombinace k předmětů z r předmětů, tj. kr . Zbývá
nám (r − k) předmětů, které máme nyní rozmístit do (n − 1) přihrádek. Počet rozmístění (r − k) předmětů do (n − 1) přihrádek odpovídá nyní počtu (r−k)-členných vektorů, jejichž členy vybíráme z (n−1)-prvkové množiny. Počet všech takovýchto vektorů je (n − 1)r−k . Počet všech příznivých rozmístění je tedy kr · (n − 1)r−k . Z toho plyne, že P (A) =
r k
· (n − 1)r−k , k = 0, . . . , r. nr
Pro k = 0 dostáváme a). c) Označme jev A ”alespoň jedna přihrádka je prázdná”. Potom A = ∪ni=1 Ai , kde Ai je jev ”i-tá přihrádka je prázdná”. Hledáme pravděpodobnost ¯ tzn. pravděpodobnost jevu ”žádná přihrádka není prázdná”. jevu A, Tuto pravděpodobnost vypočteme podle vlastnosti 7 pravděpodobnosti, tj. ¯ = 1 − P (A). P (A) Protože jevy A1 , . . . , An nejsou disjunktní, platí podle (2.1) P (A) = P (∪ni=1 Ai ) = +
Pn
i=1
P (Ai ) −
Pn−2 Pn−1 Pn i=1
k=j+1
j=i+1
Pn−1 Pn i=1
j=i+1
P (Ai ∩ Aj ∩ Ak ) + . . .
. . . + (−1)n−1 · P (∩ni=1 Ai ). Z a) víme, že P (Ai ) =
n−1 n
P (Ai ∩ Aj )+
(5.1) r
, i = 1, . . . , n.
57
5.1. MAXWELL-BOLTZMANNOVA STATISTIKA Podobným způsobem jako v a) zjistíme, že P (Ai ∩ Aj ) =
(n−2)r , nr
P (Ai ∩ Aj ∩ Ak ) =
i, j = 1, . . . , n, i < j,
(n−3)r , nr
i, j, k = 1, . . . , n, i < j < k,
.. . P (A1 ∩ A2 ∩ . . . ∩ An ) = 0. Po dosazení do (5.1) dostáváme )r + 1 − P (A) = 1 − n1 · ( n−1 n −
n 3
· ( n−2 )r − n
· ( n−3 )r + . . . + (−1)n−1 n
d) Za předpokladu r = rn a limn→∞ rn lim
n 2
k
n→∞
rn n
n n−1
· ( n1 )r .
= λ > 0 budeme počítat
· (n − 1)rn −k . nr n
Po rozpisu kombinačního čísla dostáváme limn→∞
· (1 − n1 )rn −k n1k =
rn ! k!(rn −k)!
=
1 k!
limn→∞
rn (rn −1)(rn −2)...(rn −k+1) nk
=
1 k!
limn→∞
rn n
· (1 − n1 )rn · (1 − n1 )−k =
· ( rnn − n1 ) · ( rnn − n2 ) . . . ( rnn −
k−1 )· n
·(1 − n1 )rn · (1 − n1 )−k = =
λk k!
limn→∞ (1 − n1 )rn =
=
λk k!
· e−λ = pk ,
λk k!
limn→∞ (1 −
rn n rn
) rn =
k = 0, . . . , r.
Pravděpodobnost, že v dané přihrádce je k předmětů, se při vzrůstajícím n blíží λk −λ pk = ·e . k!
58
CHAPTER 5. FYZIKÁLNÍ STATISTIKY Snadno zjistíme, že ∞ X λk k=0
k!
·e
−λ
=e
−λ
·
∞ X λk k=0
k!
= e−λ · eλ = 1.
Posloupnost pk představuje Poissonovo pravděpodobnostní rozdělení s parametrem λ, se kterým se setkáme v kapitole 8.
5.2
Bose-Einsteinova statistika
Uvažujme r nerozlišitelných předmětů a n rozlišitelných přihrádek. Rozdělujme opět předměty do přihrádek, přičemž dvě rozdělení budeme považovat za různá, jestliže počet předmětů alespoň v jedné přihrádce se bude u obou rozdělení lišit. Předpokládejme, že všechna rozdělení jsou stejně možná. Takto popsaný model se chová podle Bose-Einsteinovy statistiky. Podobně jako u Maxwell-Boltzmannovy statistiky řešíme i tady úlohy a), b), c), d). Řešení: a) Protože všechna rozmístění jsou stejně možná, jedná se opět o klasickou pravděpodobnost. Musíme tedy zjistit počet všech možných rozmístění a počet příznivých jevu A, kde A je jev ”daná přihrádka je prázdná”. Počet všech rozmístění odpovídá počtu všech r-tic, které vytváříme z n-prvkové množiny. U r-tic nezáleží na počtu členů, neboť rozdělení jsou charakterizována počtem předmětů v přihrádce. Počet takovýchto , což jsou kombinace s opakováním r-té třídy z n prvků. r-tic je n+r−1 r Nyní přejdeme na výpočet příznivých rozmístění. Jelikož víme, že daná
přihrádka je prázdná, rozmisťujeme r předmětů do (n − 1) přihrádek. Vytváříme tedy neuspořádané r-tice z (n − 1) prvků. Takovýchto r (kombinace s opakováním tic (tudíž i příznivých rozmístění) je n+r−2 r
59
5.2. BOSE-EINSTEINOVA STATISTIKA r-té třídy z (n − 1) prvků. Hledaná pravděpodobnost je rovna n+r−2 (n − 1) r P (A) = n+r−1 = . (n + r − 1) r
b) Z a) víme, že počet všech možných rozmístění je
, takže nyní
n+r−1 r
určíme počet všech příznivých rozmístění jevu Bk , kde Bk je jev ”daná přihrádka obsahuje k předmětů”. U Bose-Einsteinovy statistiky jsou předměty nerozlišitelné, tudíž k předmětů do dané přihrádky lze rozmístit pouze jedním způsobem. Zbývajících (r − k) předmětů rozdělíme do zbývajících (n − 1) přihrádek. Počet všech příznivých rozmístění je tedy tolik, kolik je neuspořádaných (r − k)-tic, jejichž členy pochází (kombinace z (n − 1)-prvkové množiny. Těchto (r − l)-tic je n+r−k−2 r−k s opakováním (r − k)-té třídy z (n − 1) prvků). Pravděpodobnost jevu
Bk je rovna
P (Bk ) =
n+r−k−2 r−k n+r−1 r
,
k = 0, . . . , r.
Pro k = 0 dostáváme výsledek a).
c) Označme B jev ”žádná přihrádka není prázdná”. Jestliže r < n, pak P (B) = 0. Jestliže r ≥ n = 1, pak P (B) = 1. Uvažujme případ r ≥ n, kde n = 2, 3, . . .. Uveďme si nejdříve na přík-
ladu grafické znázornění rozdělení předmětů do přihrádek v rámci BoseEinsteinovy statistiky. Zvolme r = 5 a n = 3. Jestliže bude značit předmět a | přepážku v přihrádce, pak jedno možné rozdělení předmětů je následující: | | . Z grafického znázornění je vidět, že žádná přihrádka není prázdná právě tehdy, jestliže mezi dvěma předměty je nejvýše jedna přepážka. Budeme tudíž rozdělovat přepážky do mezer
mezi předměty. Jelikož u n přihrádek máme (n−1) přepážek a u r předmětů máme (r −1) mezer, budeme vytvářet (n−1)-tice z (r −1) prvků. r−1 . Hledaná pravděpodobnost Počet všech n-tic z (r − 1) prvků je n−1
60
CHAPTER 5. FYZIKÁLNÍ STATISTIKY je potom rovna P (B) =
r−1 n−1 r+n−1 r
d) Za předpokladu r = rn a limn→∞ lim
n→∞
rn n
r−1 n−1 r+n−1 . n−1
=
= λ > 0 hledáme
rn +n−k−2 rn −k rn +n−1 rn
.
Po rozepsání kombinačních čísel dostáváme limn→∞
(rn +n−k−2)! (n−2)!(rn −k)!
= limn→∞ = Protože
rn !(n−1)! (rn +n−1)!
=
(n−1)rn (rn −1)(rn −2)...(rn −k+1) (rn +n−1)(rn +n−2)...(rn +n−k−1)
·
nk nk
=
λk . (λ+1)k+1
∞ X k=0
a řada
·
1 X λ k λk = (λ + 1)k+1 λ + 1 k=0 λ + 1 ∞
∞ X λ k λ+1 k=0
je řada geometrická s kvocientem ∞ X k=0
λ λ+1
∈ (0;1), je tedy
1 λk 1 = 1. · = λ k+1 (λ + 1) λ + 1 1 − λ+1
Posloupnost {pk } představuje tzv. geometrické pravděpodobnostní rozdělení.
Uvažujme stejnou modelovou situaci jako u Bose-Einsteinovy statistiky. Předpoklad, že v dané přihrádce může být jakýkoliv počet předmětů, nahraďme
5.2. BOSE-EINSTEINOVA STATISTIKA
61
následujícím: v dané přihrádce může být umístěn nejvýše jeden předmět. V tomto případě říkáme, že systém se chová podle Fermi-Diracovy statistiky. Vzhledem k omezení počtu předmětů v přihrádce musí být u Fermi-Diracovy statistiky n ≤ r. Počet všech možných rozmístění je zde roven nr . V a) a b) počet příznivých možností budeme počítat pomocí kombinací bez opakování, v b) bude k = {0; 1}.
Chapter 6 Náhodná veličina 6.1
Definice náhodné veličiny
Uvažujme pravděpodobnostní prostor (Ω, A, P ); Ω je neprázdná množina
všech možných výsledků náhodného pokusu, A je σ-algebra sestrojená na množině Ω a P : A → [0, 1] je pravděpodobnost. Na tomto pravděpodobnostním
prostoru budeme nyní definovat náhodnou veličinu, což je důležitý pojem teorie pravděpodobnosti.
Často se stává, že nám nejde přímo o výsledek náhodného pokusu, ale zajímá nás reálná funkce X, která přiřazuje výsledku pokusu ω hodnotu X(ω). Tuto funkci, která je definovaná na Ω, nazýváme náhodnou veličinou. Např. u narození dítěte máme dva možné výsledky, a to chlapec a děvče (tzn. Ω = {ω1 = chlapec, ω2 = děvče}). Náhodnou veličinu X můžeme definovat
takto: X(ω1 ) = 1, X(ω2 ) = 0. V tomto případě výsledky náhodného pokusu mají kvalitativní charakter (chlapec, děvče) a my jsme je ohodnotili určitým reálným číslem. V jiném případě může být výsledkem náhodného pokusu reálné číslo (výsledky mají kvantitativní charakter), to znamená přímo hodnoty náhodné veličiny (např. měření tělesné výšky u žáků). 62
6.1. DEFINICE NÁHODNÉ VELIČINY
63
Definujme si nyní přesně pojem náhodná veličina.
Definice 6.1 Nechť (Ω, A, P ) je pravděpodobnostní prostor. Reálnou funkci X definovanou na Ω nazýváme náhodnou veličinou, jestliže X je měřitelné zobrazení X : (Ω, A) → (R, B), tj. {ω ∈ Ω : X(ω) ∈ B} ∈ A
(6.1)
pro libovolnou borelovskou množinu B ∈ B (B je σ-algebra borelovských
podmnožin, tj. nejmenší σ-algebra obsahující systém všech otevřených podmnožin R).
Poznámka 6.1 Náhodné veličiny budeme značit velkými písmeny: X, Y, Z . . . Hodnoty, kterých mohou náhodné veličiny nabývat, budeme značit malými písmeny x, y, z. Místo {ω ∈ Ω : X(ω) ∈ B} budeme zjednodušeně psát {X ∈ B} a místo {ω ∈ Ω : X(ω) < x} budeme zjednodušeně psát {X < x}.
Poznámka 6.2 Součty, součiny a podíly náhodných veličin jsou náhodné veličiny; umocnění náhodné veličiny přirozeným číslem, násobení náhodné veličiny skalárem jsou opět náhodné veličiny. Důkaz [3].
Definice 6.2 σ-algebra indukovaná náhodnou veličinou X je definovaná jako σ{X} = σ{{X ≤ x}, −∞ < x < ∞}, tj. σ{X} je σ-algebra generovaná množinami {ω ∈ Ω; X(ω) ≤ x}, −∞ < x < ∞.
64
CHAPTER 6. NÁHODNÁ VELIČINA
Platí σ{X} = {{X ∈ B}; B ∈ B}.
(6.2)
Z předchozí formule plyne, že nemusíme ověřovat měřitelnost zobrazení X pro všechna B ∈ B, ale že stačí ověřit měřitelnost pro množiny (−∞, x] (tj. stačí ověřit {ω ∈ Ω : X(ω) ≤ x} = {X ≤ x} ∈ A ∀x ∈ R). Příklad 6.1 Hodíme jednou kostkou. Množina elementárních jevů je Ω = {ω1 , ω2 , ω3 , ω4 , ω5 , ω6 }; σ-algebru definujeme následovně: A = {∅, (ω1 , ω2 ), (ω3 , ω4 , ω5 , ω6 ), Ω}. Pak funkce X daná předpisem a) X(ω1 ) = 1, X(ω2 ) = 2, X(ω3 ) = 3, X(ω4 ) = 4, X(ω5 ) = 5, X(ω6 ) = 6 není náhodná veličina vzhledem k σ-algebře A, b) X(ω1 ) = X(ω2 ) = -2;
X(ω3 ) = X(ω4 ) = X(ω5 ) = X(ω6 ) = 3
je náhodná veličina vzhledem k σ-algebře A.
6.2
Distribuční funkce
Pravděpodobnostní chování náhodné veličiny plně charakterizuje její distribuční funkce, jejíž definici si nyní uvedeme.
Definice 6.3 Nechť X je náhodná veličina. Její distribuční funkcí nazýváme reálnou funkci FX reálné proměnné x definovanou FX (x) = P (X ≤ x) = P ({ω : X(ω) ≤ x}).
(6.3)
6.2. DISTRIBUČNÍ FUNKCE
65
Definice distribuční funkce má smysl, neboť z definice náhodné veličiny X víme, že {ω : X(ω) ≤ x} ∈ A, tzn. {ω : X(ω) ≤ x} je náhodný jev a
každému náhodnému jevu můžeme přiřadit pravděpodobnost. Distribuční funkce je definovaná pro všechna x ∈ R. Příklad 6.2 Nechť Ω = {1, 2, 3, 4, 5, 6} představuje prostor všech výsledků
náhodného hodu kostkou. Za σ-algebru A vezmeme systém všech podmnožin Ω. Pravděpodobnost P (A) náhodného jevu A ∈ A je rovna poměru příznivých jevů ke všem jevům. Toto odpovídá klasickému pravděpodobnostnímu prostoru. Nyní na tomto prostoru (Ω, A, P ) zkonstruujeme náhodnou
veličinu X, která má hodnotu 1, padne-li 6, a hodnotu 0, padne-li něco jiného. Neboli X(6) = 1 a X(i) = 0; i = 1, . . . , 5. Distribuční funkce F je pak definována takto: F (x) = 0, pokud x < 0, F (x) = 5/6, pokud 0 ≤ x < 1 a F (x) = 1, pokud x ≥ 1.
Distribuční funkce mají určité společné vlastnosti. Věta 6.1 (vlastnosti distribuční funkce) Distribuční funkce FX (x) náhodné veličiny X je a) neklesající, tj. pro libovolné a, b ∈ R, a ≤ b, platí FX (a) ≤ FX (b), b) zprava spojitá v libovolném bodě x ∈ R, c) limx→−∞ FX (x) = 0, limx→∞ FX (x) = 1, d) má nejvýše spočetně bodů nespojitosti; tyto body nespojistosti jsou 1. druhu (tj. skoky) a velikost skoku v bodě x0 je FX (x0 ) − FX (x− 0 ) = P ({ω ∈ Ω : X(ω) = x0 }),
66
CHAPTER 6. NÁHODNÁ VELIČINA kde FX (x− FX (x). 0 ) = limx→x− 0
Důkaz. a) Podle definice 6.3 je FX (a) = P ({ω : X(ω) ≤ a}) FX (b) = P ({ω : X(ω) <≤}). Jelikož {ω : X(ω) ≤ a} ⊂ {ω : X(ω) ≤ b}, je podle vlastnosti 3 pravděpodobnosti P ({ω : X(ω) ≤ a}) ≤ P ({ω : X(ω) ≤ b}), tj. FX (a) ≤ FX (b). b) Zvolme si libovolný bod x0 ∈ R. Máme dokázat, že funkce FX je v bodě x0 zprava spojitá. Uvažujme libovolnou posloupnost {xn } reálných čísel takovou, že xnց x0 . Jestliže si označíme An = {ω ∈ Ω : X(ω) ≤ xn },
n = 0, 1, 2, . . . ,
pak FX (xn ) = P (An ), An ⊂ An+1 ,
n = 0, 1, 2, . . . , n = 1, 2, . . .
a A0 = ∪∞ n=1 An . Chceme dokázat, že limn→∞ FX (xn ) = FX (x0 ). To dokážeme s využitím vlastnosti 8) pravděpodobnosti: limn→∞ FX (xn ) = limn→∞ P ({ω : X(ω) ≤ xn }) = P (∪∞ n=1 An ) = = P (A0 ) = FX (x0 ).
67
6.2. DISTRIBUČNÍ FUNKCE c) lim FX (x) = lim FX (−n) = lim P ({ω ∈ Ω : X(ω) ≤ −n}).
x→−∞
n→∞
n→∞
Podle vlastnosti 9) pravděpodobnosti platí lim P ({ω ∈ Ω : X(ω) ≤ −n}) = P (∩∞ n=1 {ω ∈ Ω : X(ω) ≤ −n}) =
n→∞
= P (∅) = 0.
lim FX (x) = lim FX (n) = lim P ({ω ∈ Ω : X(ω) ≤ n}).
x→∞
n→∞
n→∞
Z vlastnosti 8) pravděpodobnosti plyne limn→∞ P ({ω ∈ Ω : X(ω) ≤ n}) = P (∪∞ n=1 {ω ∈ Ω : X(ω) ≤ n}) = = P (Ω) = 1. d) Označme si: C . . . množina bodů nespojitosti dané distribuční funkce, Cn . . . množina bodů nespojitosti se skokem větším než n1 , n = 2, 3, . . . Potom C = ∪∞ n=2 Cn . Protože distribuční funkce FX (x) je pro libovolné x ∈ R mezi nulou a jedničkou a je to funkce neklesající, obsahuje
Cn nejvýše (n − 1) bodů nespojitosti. Množina C je tedy sjednocením spočetně mnoha konečných množin, přičemž takovéto sjednocení je nejvýše spočetná množina. Nyní si ukážeme, že velikost skoku v bodě x0 je FX (x0 ) − FX (x− 0 ) = P ({ω ∈ Ω : X(ω) = x0 }). P ({ω ∈ Ω : X(ω) = x0 }) = = P ({ω ∈ Ω : X(ω) ≤ x0 }) − P ({ω ∈ Ω : X(ω) < x0 }) = = FX (x0 ) − P ({ω ∈ Ω : X(ω) < x0 }) = 1 = FX (x0 ) − P (∪∞ n=1 {ω ∈ Ω : X(ω) ≤ x0 − n }).
68
CHAPTER 6. NÁHODNÁ VELIČINA Z vlastnosti 9) pravděpodobnosti plyne 1 P (∪∞ n=1 {ω ∈ Ω : X(ω) ≤ x0 − n }) =
= limn→∞ P ({ω ∈ Ω : X(ω) ≤ x0 − n1 }) = FX (x− 0 ).
Poznámka 6.3 Je-li distribuční funkce FX (x) spojitá v bodě x0 , pak velikost skoku v bodě x0 je rovna nule tzn. P ({ω : X(ω) = x} = 0.
Tyto úvahy nás vedou k rozdělení náhodných veličin na dva základní typy, na diskrétní a absolutně spojité náhodné veličiny. Distribuční funkce diskrétní náhodné veličiny je konstantní až na spočetně mnoho bodů, ve kterých má skok. Distribuční funkce absolutně spojité náhodné veličiny je spojitá, a tudíž neobsahuje žádné skoky. Mohou se vyskytovat i jejich kombinace, kterými se budeme zabývat na závěr této kapitoly.
6.3
Diskrétní náhodné veličiny
Definice 6.4 Náhodná veličina X se nazývá diskrétní, jestliže existuje posloupnost reálných čísel {xn } a odpovídající posloupnost nezáporných čísel {pn } taková, že ∞ X pn = 1, kde pn = P (X = xn ). (6.4) n=1
Distribuční funkce diskrétní náhodné veličiny X má tvar FX (x) = P (X ≤ x) =
X
{n:xn ≤x}
P (X = xn ) =
X
{n:xn ≤x}
pn
(6.5)
69
6.3. DISKRÉTNÍ NÁHODNÉ VELIČINY a P (a < X ≤ b) = FX (b) − FX (a) =
X
P (X = xn ) =
{n:a<xn ≤b}
X
pn
{n:a<xn ≤b}
pro libovolná reálná čísla a, b, kde a ≤ b. Poznámka 6.4 Distribuční funkce je schodovitá funkce se skoky v bodech x1 , x2 , . . . a je konstantní na intervalech (xn , xn+1 ]. Velikost skoku v bodě xn je pn = P (X = xn ). Příklad 6.3 Uvažujme náhodnou veličinu X, jejíž hodnota udává počet telefonních výzev za 1 minutu. Distribuční funkce F ani pravděpodobnosti {pn } nejsou známy. Sledovali jsme 60 realizací této náhodné 3, 2, 2, 3, 1, 1, 1, 4, 0, 1, 2, 3, 3, 0, 2, 4, 1, 2, nali výsledky. 1, 3, 1, 2, 0, 7, 4, 0, 0, 1, 4, 2, 2, 2, 3, 1, 4, 0,
veličiny 0, 4, 1, 2, 3, 0, 3, 2, 3, 2, 2, 1,
a zazname2, 1 5, 2 1, 2 1, 1 1, 3 1, 5.
Jednotlivé realizace náhodné veličiny X jsou nezávislé, máme tedy k dispozici náhodný výběr (tj. X1 , . . . , X60 jsou nezávislé stejně rozdělené náhodné veličiny s distribuční funkcí F ). Vytvořme si tabulku absolutních a relativních četností výskytů jednotlivých Počet telefonních výzev za 1 min Absolutní četnost Relativní četnost 0 8 0,133 1 17 0,283 2 16 0,266 výsledků. 3 10 0,166 4 6 0,1 5 2 0,033 7 1 0,016 Celkem 60 1
70
CHAPTER 6. NÁHODNÁ VELIČINA
Relativní četnosti nám odhadují pravděpodobnosti pn . Vzhledem k zákonu velkých čísel (viz věta 12.4) je tento odhad vhodný. Vezměme tedy tyto pn jako skutečné pravděpodobnosti pn = P (X = n). Můžeme pak zakreslit distribuční funkci F .
1.0
0.8
0.6
0.4
0.2
2
4
6
8
Figure 6.1: Distribuční funkce FX (x).
Někdy se místo zobrazení distribuční funkce používá zobrazení relativních četností neboli histogram.
0.25 0.2 0.15 0.1 0.05
2
4
6
Figure 6.2: Histogram X.
8
6.4. ABSOLUTNĚ SPOJITÉ NÁHODNÉ VELIČINY
6.4
71
Absolutně spojité náhodné veličiny
Definice 6.5 Náhodná veličina X se nazývá absolutně spojitá, jestliže existuje nezáporná integrovatelná funkce fX taková, že platí Z x fX (t)dt, x ∈ (−∞, ∞). FX (x) = P (X ≤ x) =
(6.6)
−∞
Funkce fX se nazývá hustotou rozdělení pravděpodobnosti.
Poznámka 6.5 Místo ”P [X má vlastnost V ] = 1” budeme říkat ”X má vlastnost V skoro jistě.” Často budeme užívat zkratku s.j.
Věta 6.2 (Vlastnosti hustoty) Nechť fX (x) je hustota rozdělení pravděpodobnosti náhodné veličiny X. Pak platí: a) fX (x) = b)
R∞
−∞
d F (x) dx X
s. j.
fX (x)dx = 1
c) P (a < X ≤ b) = FX (b) − FX (a) = čísla a, b, kde a ≤ b.
Rb a
fX (x)dx pro libovolná reálná
Důkaz. Všechny uvedené vlastnosti plynou z definice 6.5 a z vlastností distribuční funkce.
Příklad 6.4 Uvažujeme hypotetickou populaci ryb. Je známo, že funkce umírání ryb závisí na kvadrátu délky života a že žádná ryba se nedožije více
72
CHAPTER 6. NÁHODNÁ VELIČINA
než 10 let. Neboli F (x) je dána vztahem (
F (x) =
0
x≤0
(c · x)2
0 < x ≤ 10
1
x > 10
a) určeme konstantu c tak, aby F (x) byla distribuční funkce, b) spočtěme hustotu umírání v rybí populaci, c) spočtěme pravděpodobnost, že ryba zemře mezi 3. a 4. rokem života. Řešení:
a) F (10) = 1 (c · 10)2 = 1 c=
1 . 10
b) f (x) =
1 x)2 d( 10 2 = x. dx 100
c) Pravděpodobnost můžeme spočítat buď z hustoty P =
Z
4
f (x)dx = 3
Z
4 3
4 1 2 x2 7 2 = xdx = [16 − 9] = 100 100 2 3 100 100
nebo přímo z distribuční funkce P = F [4] − F [3] = (
1 1 7 1 2 4) − ( 3)2 = [16 − 9] = . 10 10 100 100
73
6.5. ZOBECNĚNÍ Příklad 6.5 Určete koeficient c tak, aby funkce n c · x2 · e x f (x) = 0
0≤x≤1 jinde
byla hustotou nějaké náhodné veličiny. Řešení: Musíme najít c tak, aby
Z
∞
f (x)dx = 1.
−∞
Ze zadání funkce f (x) dostáváme, že Z Z ∞ f (x)dx = −∞
1 0
c · x2 · ex dx.
Opakovaným užitím metody per partes dostaneme Z 1 c · x2 · ex dx = c · (e − 2). 0
Aby daná funkce f (x) byla hustotou, musí platit c(e − 2) = 1. Z toho plyne c=
6.5
1 . e−2
Zobecnění
Připomeňme nejprve, že míra je nějaká σ-aditivní množinová fce na (Ω, A),
tj.
(i) µ : A → [0, ∞]
74
CHAPTER 6. NÁHODNÁ VELIČINA
(ii) µ(∅) = 0 (iii) jsou-li An ∈ A, n ≥ 1, po dvou disjunktní, pak µ(∪∞ n=1 An ) = Je-li µ(Ω) = 1, říkáme, že µ je pravděpodobnostní míra.
P∞
n=1
µ(An ).
Každé borelovské množině B ∈ B lze připsat pravděpodobnostní míru na (R, B) µX (B) = P (X −1 (B)) = P ({ω ∈ Ω : X(ω) ∈ B}), kterou nazýváme rozdělení pravděpodobnosti náhodné veličiny X. Položímeli speciálně B = (−∞, x], dostáváme distribuční funkci P ({ω ∈ Ω : X(ω) ≤ x}) = FX (x). Vidíme, že mezi distribuční funkcí a rozdělením pravděpodobností existuje vzájemně jednoznačný vztah. Položíme-li B = (a, b]; −∞ < a ≤ b < ∞, dostáváme P (X ∈ (a, b]) = FX (b) − FX (a) = µF ([a, b)). Tímto vztahem je jednoznačně definována Lebesquova-Stieltjesova míra indukovaná distribuční funkcí F (resp. náhodnou veličinou X). Výše uvedený vztah je definován pouze pro intervaly, ovšem to nám stačí pro jednoznačné definování míry pro všechny Borelovské množiny. Neboli platí Z P (X ∈ B) = µFX (B) = dµFX , ∀B ∈ B B
a
Z
φ(X(ω))dP (ω) = Ω
Z
φ(x)dµFX (x) R
pro libovolnou měřitelnou fci φ, pro kterou existuje alespoň jeden z integrálů. Poznámka 6.6 Integrál podle Lebesquovy-Stieltjesovy míry se někdy zkráceně zapisuje
Z
φ(x)dFX (x). R
75
6.5. ZOBECNĚNÍ
Poznámka 6.7 Jelikož není naším záměrem vykládat teorii míry v tomto textu, spokojíme se s intuitivním objasněním výše uvedených definic. Je-li míra λ definována vztahem λ([a, b]) = b − a, −∞ < a ≤ b < ∞, pak se míře λ říká Lebesquova míra. Tato míra není konečná, a tudíž není R pravděpodobnostní. Integrál podle Lebesquovy míry φ(x)dλ(x) je zobecR něním Riemanova integrálu φ(x)dx. Můžeme tedy s ním i tak pracovat. Definujeme-li míru µ na omezeném intervalu [A, B] vztahem b−a , A ≤ a ≤ b ≤ B, B−A pak µ je již pravděpodobnostní míra. µ([a, b]) =
Integrál podle míry µ pak vypočteme jako Z Z 1 φ(x)dµ(x) = φ(x) I[A,B] xdx. B−A V obou těchto případech mají všechna x stejnou váhu. Lebesque - Stieltjesův integrál nám navíc umožňuje dát různým x různou váhu, která je určena přírůstkem distribuční funkce FX . Je-li například X náhodná veličina definována v příkladě 6.3, pak distribuční funkce FX má pouze dva skoky a žádné jiné přírůstky. Integrál podle µFX je vlastně
Z
5 1 φ(x)µFX (x) = φ(0) + φ(1). 6 6
Nemá-li naopak FX žádné skoky a je spojitá v každém bodě, má pak FX derivaci f v každém bodě, a ta ukazuje přírůstek FX . Integrál podle µFX je pak pouze Z Z φ(x)µFX (x) = φ(x)f (x)dx.
76
CHAPTER 6. NÁHODNÁ VELIČINA
Lebesque-Stieltjesův integrál je tedy zobecněním integrálu, kde x mají různou váhu, a sumy, kde jednotlivé sčítance mají také různou váhu. Tyto úvahy nás vedou k rozdělení náhodných veličin na dva základní typy, na diskrétní a absolutně spojité náhodné veličiny. Mohou se však vyskytovat i jejich kombinace. Příklad 6.6 Raketa se zaměřovacím systémem mine přesně určený cíl o Y metrů, kde Y je náhodná vzdálenost od cíle mezi 0 a 30 metry. Zaměřujeme střed budovy o průměru 10 metrů. Raketa způsobí poškození 1, pokud zasáhne budovu, poškození se kontinuálně sníží o 10% za každý metr od budovy. Jaká je pravděpodobnost, že budova dostane poškození alespoň 1/2. Řešení: Náhodná veličina X bude způsobené poškození. Distribuční funkce X má dva skoky p1 = P (X = 1) = 5/30 = 1/6, p0 = P (X = 0) = 15/30 = 1/2, v ostatních bodech je distribuční funkce spojitá, a tudíž:
F (x) =
(
P (X ≥ 1/2) = µF ([1/2, 1]) =
Z
0
x<0
1/2 + x/3
0≤x<1
1
x≥1
1+
dµF = 1/2−
Z
1
1/3dx+1/6 = 1/6+1/6 = 1/3. 1/2
Nyní si ještě uveďme existenční větu pro distribuční funkci, tj. větu, která nám bude říkat, pro jakou funkci reálné proměnné existuje pravděpodobnostní prostor a na něm náhodná veličina tak, aby daná funkce byla její distribuční funkcí.
77
6.6. ÚLOHY
Věta 6.3 Nechť funkce F : R → R má vlastnosti a), b), c) z věty 6.1. Pak existuje pravděpodobnostní prostor (Ω, A, P ) a na něm definovaná náhodná
veličina X taková, že
FX (x) = F (x). Důkaz. Položme
Ω = R, A = B, P = µF ,
kde µF je Lebesque-Stieltjesova míra indukovaná funkcí F . Ještě položme X(ω) = ω. Nyní máme FX (x) = P (X ≤ x) = µF ((−∞, x]) = lima→−∞ µF ((a, x]) = lima→−∞ (F (x) − F (a)) = F (x), x ∈ R, kde jsme použili spojitost konečné míry µF a vlastnost (b) distribuční funkce.
6.6
Úlohy
1. Nechť množina elementárních jevů je Ω = {ω1 , ω2 }, σ-algebru A definujeme na množině Ω takto:
A = {∅, ω1 , ω2 , Ω}. Zjistěte, zda funkce X daná předpisem X(ω1 ) = 1, X(ω2 ) = 0 je náhodná veličina. (Ano) 2. Hoďme jedenkrát kostkou. Množina elementárních jevů je Ω = {ω1 , ω2 , . . . , ω6 }, σ-algebru podmnožin množiny Ω definujeme takto: A = {∅, {ω2 }, {ω1 , ω3 , ω4 , ω5 , ω6 }, Ω}.
78
CHAPTER 6. NÁHODNÁ VELIČINA Najděte funkci, která bude náhodnou veličinou vzhledem k A. (Např. X(ω2 ) = b, X(ω1 ) = X(ω3 ) = X(ω4 ) = X(ω5 ) = X(ω6 ) = c, kde b, c jsou libovolné reálné konstanty takové, že b < c) 3. Někdy je distribuční funkce G náhodné veličiny X definovaná následovně: G(x) = P {ω ∈ Ω : X(ω) ≤ x}. Dokažte, že funkce G(x) je zprava spojitá. 4. Házíme pěti mincemi. Nechť náhodná veličina X znamená počet padlých rubů. (a) Najděte rozdělení pravděpodobnosti náhodné veličiny. (b) Sestrojte graf distribuční funkce. 5 P (X = x) = x ·
1 x 2
·
1 5−x ,x 2
= 0, 1, . . . , 5
5. Náhodná veličina X má distribuční funkci ( 0 x≤1 2 (x − 1) 1<x≤2 FX (x) = 1 x > 2. (a) Určete hustotu náhodné veličiny. (b) Znázorněte graficky distribuční funkci. (c) Určete P (1, 5 < X < 1, 75).
(0,5)
6. Je dána funkce F : F (x) = a + b · arctan
x 2
pro − ∞ < x < ∞.
Určete: (a) pro jaké hodnoty a, b je F distribuční funkce, (b) hustotu pravděpodobnosti f ,
79
6.6. ÚLOHY (c) P (α < X < β). a = 12 , b = π1 , fX (x) = π2 · α arctan 2
1 4+x2
, P (α < X < β) = π1 · arctan β2 −
7. Náhodná veličina X má hustotu f (x) =
(
x ≤ −4 −4 < x < 4 x ≥ 4.
0 1 π
·
√ 1 42 −x2
0
Určete distribuční funkci FX . 8. Hustota pravděpodobnosti náhodné veličiny X má tvar f (x) =
(
0 √ a 1−x2
0
x ≤ −1 −1 < x < 1 x ≥ 1.
Určete: (a) koeficient a, (b) P (− 21 < X < 21 ). ( a) a = π1 , b) 31 ) 9. Zjistěte, pro jaká a, b je funkce F (x) =
1 1+
e−(a+bx)
distribuční funkcí. (a ∈ R, b > 0)
,
x∈R
Chapter 7 Charakteristiky náhodných veličin Z předešlé kapitoly víme, že pravděpodobnostní chování náhodné veličiny je charakterizováno distribuční funkcí. Tato informace o náhodné veličině je sice úplná, ale často značně nepřehledná. Pro řešení pravděpodobnostních úloh je proto výhodné shrnout informaci o rozdělení náhodné veličiny do několika vhodných číselných charakteristik, které dostatečně výstižně popisují základní vlastnosti tohoto rozdělení. V této kapitole se budeme zabývat pouze nejběžněji používanými druhy charakteristik a způsoby jejich výpočtu. Definice 7.1 Nechť X je náhodná veličina definovaná na pravděpodobnostním prostoru (Ω, A, P ). Střední hodnotou EX náhodné veličiny X nazveme integrál Z ∞ xdFX (x), (7.1) EX = pokud tento integrál existuje.
−∞
Poznámka 7.1 Uvedeme speciální tvar definice 7.1 v případě, že náhodná veličina je diskrétního, resp. absolutně spojitého typu. 80
81 a) Nechť X je diskrétní náhodná veličina nabývající reálných hodnot x1 , x2 , x3 , . . . , tzn. taková, že P (X = xi ) = pi . Pak střední hodnota EX náhodné veličiny X je tvaru EX =
∞ X i=1
xi · p i ,
(7.2)
pokud řada v (7.2) konverguje. b) Nechť X je absolutně spojitá náhodná veličina s hustotou fX . Pak střední hodnota náhodné veličiny X je Z ∞ xfX (x)dx, EX =
(7.3)
−∞
pokud integrál existuje. Nyní ukážeme některé vlastnosti střední hodnoty. Nechť X, Y, Xn , n = 1, 2, . . . jsou náhodné veličiny na pravděpodobnostním prostoru (Ω, A, P ),
a, b jsou reálné konstanty. Z definice 7.1 je patrné, že střední hodnota má všechny vlastnosti (Lebesqueova-Stieltjesova) integrálu, proto platí: 1) střední hodnota konstanty je konstanta Ea = a 2) absolutní integrovatelnost EX < ∞ ⇔ E|X| < ∞ 3) linearita E(aX + bY ) = aEX + bEY 4) X ≥ 0 s.j. ⇒ EX ≥ 0
82
CHAPTER 7. CHARAKTERISTIKY NÁHODNÝCH VELIČIN 5) monotonie X1 ≤ X ≤ X2 s.j. ⇒ EX 1 ≤ EX ≤ EX 2 6) |EX| ≤ E|X| 7) |X| ≤ Y s.j., EY < ∞ ⇒ EX < ∞ 8) integrace člen po členu ∞ X n=1
E|Xn | < ∞ ⇒ E(
∞ X
Xn ) =
n=1
∞ X
EXn
n=1
9) Fatouovo lemma Xn ≥ 0 s.j. ⇒ E(lim inf X) ≤ lim inf EX n→∞
n→∞
I když vlastnosti 1) - 9) vyplývají z obecných vlastností (L-S) integrálu, lze je dokázat i přímo. V případě, že X je diskrétní náhodná veličina, využijeme vlastností sumy. V případě, že X je absolutně spojitá náhodná veličina, využijeme vlastností Riemanova či Lebesqueova integrálu. Věta 7.1 Nechť X je náhodná veličina a nechť φ : R → R. Pak platí Z ∞ φ(x)dFX (x), (7.4) Eφ(X) = −∞
pokud jeden z integrálů existuje. Má-li náhodná veličina X diskrétní rozdělení {xn , pn }n∈N0 , pak Eφ(X) =
X
n∈N0
φ(xn )pn ,
(7.5)
83 pokud jedna ze stran rovnosti existuje. Má-li náhodná veličina X absolutně spojité rozdělení s hustotou f , potom Z ∞ Eφ(X) = φ(x)f (x)dx, (7.6) −∞
pokud jeden z integrálů existuje. Definice 7.2 Nechť n je přirozené číslo, n-tý moment náhodné veličiny X je definován jako E(X n ); n-tý absolutní moment jako E(|X|n ); n-tý centrální moment jako E[(X − EX)n ]. Právě definované momenty můžeme vyjádřit pomocí Lebesque-Stieltjesových integrálů: n
E(X ) =
Z
∞
n
n
x dFX (x),
−∞
E[(X − EX)n ] =
E(|X| ) = Z
∞ −∞
Z
∞ −∞
|x|n dFX (x),
(x − EX)n dFX (x)
Vzorce pro speciální případy opět získáme nahrazením dFX (x) pomocí f (x)dx v absolutně spojitém případě a nahrazením integrálu pomocí vážené sumy s váhami pn v diskrétním případě. Poznámka 7.2
a) Z předešlé definice vidíme, že střední hodnota je první moment. b) První centrální moment je vždy roven nule, neboť E(X − EX) = EX − E(EX) = EX − EX = 0.
84
CHAPTER 7. CHARAKTERISTIKY NÁHODNÝCH VELIČIN
Definice 7.3 Druhý centrální moment náhodné veličiny X se nazývá rozptyl, označuje se obvykle var X (z anglického ”variance”) var X = E(X − EX)2 . Rozptyl je druhou nejdůležitější charakteristikou náhodné veličiny. Z jeho definice vidíme, že existence střední hodnoty je nutnou podmínkou k existenci rozptylu. Číslo var X je vždy nezáporné a rovná se nule právě tehdy, když P (X = c) = 1, c je konstanta. Vzhledem k tomu, že rozptyl udává variabilitu náhodné veličiny ve čtvercích jejích jednotek, používá se také často druhé odmocniny z rozptylu, tzv. směrodatné odchylky s=
√
var X,
která měří variabilitu v původních jednotkách náhodné veličiny. Nyní si odvodíme nejdůležitější vlastnosti rozptylu náhodné veličiny X. 1) Nechť X je náhodná veličina, pak var X počítáme nejčastěji pomocí vzorce: var X = E(X 2 ) − (EX)2 . Důkaz: var X = E(X − EX)2 = E[X 2 − 2XEX + (EX)2 ] = = EX 2 − 2(EX)2 + (EX)2 = EX 2 − (EX)2 . 2) Nechť c je konstanta. Pak var c = 0. Důkaz: Ec = c, var (c − Ec)2 = var (c − c)2 = 0.
85 3) Nechť X je náhodná veličina, a a je reálné číslo. Pak var (aX) = a2 var X. Důkaz: var (aX) = E(aX − EaX)2 = E[a(X − EX)]2 = = a2 E(X − EX)2 = a2 var X. 4) Nechť X je náhodná veličina a c je konstanta. Pak var (X + c) = var X. 5) Nechť X je náhodná veličina, která má konečnou střední hodnotu a konečný nenulový rozptyl. Nechť X − EX Y = √ . var X Pak EY = 0 a var Y = 1. Lemma 7.2 Nechť existuje n-tý moment náhodné veličiny X, n > 0. Pak pro libovolné ε > 0 platí: P [|X| ≥ ε] ≤ Důkaz.
E|X|n =
R∞
−∞
≥ εn
R
E|X|n . εn
|x|n dFX (x) ≥
|x|≥ε
R
|x|≥ε
|x|n dFX (x) ≥
dFX (x) = εn P [|X| ≥ ε].
Věta 7.3 (Čebyševova nerovnost) Nechť X je náhodná veličina s konečným rozptylem. Pak pro libovolné ε > 0 platí P [|X − EX| ≥ ε] ≤
var X . ε2
86
CHAPTER 7. CHARAKTERISTIKY NÁHODNÝCH VELIČIN
Důkaz. V předchozím lemmatu položíme n = 2 a uvažujeme místo náhodné veličiny X náhodnou veličinu X − EX.
Příklad 7.1 Uvažujeme absolutně spojitou náhodnou veličinu X, která má 1 hustotu f (x) = (Cauchyho rozdělení). Vypočtěte EX. π(1 + x2 ) Řešení: Nejprve je nutné ověřit, zda funkce f je hustota, tj. zda platí Z ∞ f (x)dx = 1. Z
−∞
∞
1 1 1 dx = [arctan x]∞ −∞ = 1. 2 π −∞ π 1 + x Vidíme tedy, že f je hustota. Spočteme EX. Z ∞ 1 x EX = dx. 2 −∞ π 1 + x
Z předchozího vztahu je zřejmé, že střední hodnota neexistuje. Odtud plyne, že neexistuje ani rozptyl var X. V některých situacích, jako například v předchozím příkladu je vhodné používat k popisu rozdělení další charakteristiky, kterých je celá řada. Jednou z nich je tzv. medián x e. Je to číslo, pro které platí P (X ≤ x e) ≥
1 1 a P (X ≥ x e) ≥ . 2 2
Je nutné poznamenat, že medián není těmito podmínkami určen jednoznačně. Pro již zmíněné Cauchyho rozdělení má medián hodnotu x e = 0. Další charak-
teristikou rozdělení může být modus, který se obvykle značí x b. Je-li diskrétní rozdělení soustředěno v bodech x1 , x2 , . . . , je x b ta hodnota, pro kterou platí P (X = x b) ≥ P (X = xi ), ∀i = 1, 2, . . .
87 Je-li rozdělení absolutně spojité, za modus bereme takovou hodnotu x b, pro kterou platí f (b x) ≥ f (x), ∀x ∈ (−∞, ∞).
Také modus nemusí být určen jednoznačně (najděte příklad). Je-li F distribuční funkce, zaveďme funkci F −1 předpisem F −1 (u) = inf{x : F (x) ≥ u}, 0 < u < 1. Pak se F −1 nazývá kvantilová funkce odpovídající distribuční funkci F . Hodnotám funkce F −1 (u) se říká kvantily. Tedy α-kvantilem budeme nazývat hodnotu F −1 (α). Pokud F je rostoucí a spojitá, pak kvantilová funkce je inverzní funkcí k F . Odtud pochází i označení F −1 . Kvantil F −1 (0, 25), resp. F −1 (0, 75) bývá zvykem nazývat dolním, resp. horním kvartilem. Kvantilové charakteristiky se používají zřídka a jsou užitečné zejména tehdy, kdy nelze užít momentů. Příklad 7.2 Podle úmrtnostních tabulek USA (1978 až 1979) je pravděpodobnost úmrtí 32 leté ženy během jednoho roku rovna 0,001819. Pojišťovna nabízí ženám tohoto věku, že při ročním pojistném 100 USD vyplatí pozůstalým v případě úmrtí pojištěnce 25 000 USD. Jaký zisk může pojišťovna očekávat, jestliže takovou pojistku uzavře 5 000 žen uvedeného věku? Řešení: Zisk (či ztrátu) pojišťovny v případě uzavření jedné pojistky označíme jako náhodnou veličinu Xi , i = 1, . . . , 5000. Její střední hodnota je EXi = 100 · 0, 998181 − 24900 · 0, 001819 = 99, 8181 − 45, 2931 = 54, 525. Uzavře-li pojišťovna 5 000 takových pojistek, je její očekávaný zisk roven střední hodnotě náhodné veličiny Y =
5000 X i=1
Xi ,
88
CHAPTER 7. CHARAKTERISTIKY NÁHODNÝCH VELIČIN
a tedy vzhledem k nezávislosti Xi 5000 X
EY = E
n=1
Xi = 5000 EX i = 272625.
Očekávaný zisk pojišťovny je pak 272625 USD.
Příklad 7.3 Označme dobu čekání rybáře na úlovek (v minutách) jako náhodnou veličinu X. Předpokládejme, že tato náhodná veličina má hustotu pravděpodobnosti n e−x pro 0 < x < ∞ f (x) = 0 jinak.
Určete střední hodnotu a rozptyl doby čekání rybáře na úlovek.
Řešení: Nejdříve určíme střední hodnotu X. Z Z ∞ −x −x ∞ x · e dx = [x · (−e )]0 − EX = 0
∞ 0
−e−x dx = 0 + [−e−x ]∞ 0 = 1.
Rozptyl vypočítáme podle vzorce var X = EX 2 − (EX)2 . Nejdříve určíme EX 2 . R∞ R∞ −x EX 2 = 0 x2 · e−x dx = [x2 · (−e−x )]∞ 0 − 0 −2xe dx = = 0+2·
Odtud
R∞ 0
xe−x dx = 2 · EX = 2.
var X = 2 − 12 = 1. Příklad 7.4 Určete modus x b následujících náhodných veličin:
89
7.1. ÚLOHY 1. diskrétní veličiny X s rozložením pravděpodobnosti n ( 1 )n pro n = 1, 2, . . . 2 pn = 0 jinak 2. spojité náhodné veličiny s hustotou f (x) =
x2 e−x , x ∈ (0, ∞), f (x) = 0 jinde. 2
Řešení: 1. Je zřejmé, že
∞ X
∞ X 1 pn = ( )n = 1, 2 n=1 n=1
a proto pn je rozdělení pravděpodobnosti. Dále vidíme, že 1 1 pn = , p2 = , . . . 2 4 Jelikož pro rostoucí n pravděpodobnost pn geometricky klesá, je modus x b = 1.
2. Ke stanovení x b v případě spojitého rozdělení je nutné najít maximum hustoty. Vyřešíme tedy průběh funkce hustoty f (x). Jelikož v krajních bodech intervalu (0,∞) je limita f (x) rovna nule, vyšetříme body, kde f ′ (x) = 0. f ′ (x) = xe
−x
Odtud x = 2. Jelikož f ′′ (2) = −e−2
7.1
x2 e−x = 0. 2 < 0, dostáváme, že modus x b = 2.
−
Úlohy
1. Nechť t > 0. Dokažte, že z podmínky E|X|t < ∞ plyne E|X|s < ∞ pro 0 ≤ s ≤ t.
90
CHAPTER 7. CHARAKTERISTIKY NÁHODNÝCH VELIČIN 2. Najděte takové diskrétní a spojité rozdělení, kde není medián určen jednoznačně. 3. Vyšetřete, pro které hodnoty µ má hustota (x−µ)2 (x+µ)2 1 − 2 − 2 f (x) = √ e e 2 2π dvě maxima. 4. Zkoušený přístroj je složen z pěti prvků. s pravděpodobností
n-tý prvek se porouchá
pn = 0, 2 + 0, 1(n − 1). Poruchy jednotlivých prvků jsou nezávislé. Určete střední hodnotu a rozptyl počtu porouchaných prvků. 5. Zkouší se n přístrojů. Pravděpodobnost poruchy je u všech přístrojů stejná a rovná se p. Určete střední hodnotu počtu přístrojů, které se během zkoušky porouchají. 6. V loterii je m1 výher o hodnotě k1 , m2 výher o hodnotě k2 , . . . , mn výher o hodnotě kn . Celkem je N losů. Určete cenu losu tak, aby střední hodnota výhry na jeden los byla rovna polovině jeho ceny. 7. V urně je m bílých a n černých koulí. Koule se vytahují tak dlouho, dokud se neobjeví bílá koule. Koule se po vytažení vrací zpět. Určete střední hodnotu a rozptyl počtu vytažených koulí. 8. Mějme náhodnou veličinu X s hustotou f (x) =
x −x22 e 2a a2
(x ≥ 0)
(Rayleighovo rozdělení). Určete střední hodnotu, rozptyl, centrální momenty třetího a čtvrtého řádu.
91
7.1. ÚLOHY 9. Určete střední hodnotu a rozptyl náhodné veličiny X s hustotou 1 f (x) = √ π a2 − x 2
(−a ≤ x ≤ a).
10. Ukradený automobil se za dobu t najde s pravděpodobností p(t) = 1 − e−γt
(γ > 0).
Určete střední hodnotu doby hledání, potřebné k nalezení automobilu. 11. Dokažte, že za předpokladu lim
x→−∞
xF (x) = 0 a lim x 1 − F (x) = 0 x→∞
platí pro střední hodnotu náhodné veličiny rovnost Z ∞ Z ∞ 1 − F (x) dx − F (x)dx. EX = 0
0
*13. Pokud EX 2 = 1 a E|X| ≥ a > 0, pak P (|X| ≥ λa) ≥ (1 − λ)2 a2 pro všechna 0 ≤ λ ≤ 1. Dokažte. *14. Nechť c je konstanta, c > 0. Pak E|X| < ∞ právě tehdy, když ∞ X n=1
P (|X| ≥ cn ) < ∞.
Navíc, pokud řada konverguje pro nějakou hodnotu c, konverguje pro všechny hodnoty c. *15. Najděte náhodné veličiny Xn , pro které je ve Fatouově lemmatu ostrá nerovnost.
Chapter 8 Příklady diskrétních náhodných veličin 1. Nula - jedničkové (alternativní) rozdělení. Tak budeme nazývat rozdělení náhodné veličiny X, která nabývá jen hodnot 0 a 1 s pravděpodobnostmi 1−p a p. Číslo p se nazývá parametr alternativního rozdělení, 0 < p < 1. Příkladem alternativně rozdělené náhodné veličiny je např. počet jedniček, které padnou při jednom hodu kostkou, počet vadných kusů při náhodném výběru jednoho výrobku, vybavení či nevybavení náhodně vybrané domácnosti internetem atd. Distribuční funkce alternativního rozdělení je dána výrazem F (x) =
(
0 pro x < 0 1 − p pro 0 ≤ x < 1 1 pro x ≥ 1.
Střední hodnota EX = p. Rozptyl var X = p(1 − p) (dokažte). Alternativní rozdělení s parametrem p budeme zkráceně označovat A(p). 2. Binomické rozdělení. Je to rozdělení náhodné veličiny X, která nabývá hodnot k = 0, 1, 2, . . . , n. Binomické rozdělení je jednoznačně určeno dvěma parametry: přiro92
93 zeným číslem n a číslem p ∈ (0, 1). Pro binomické rozdělení s parametry n, p budeme užívat zkráceného značení Bi(n; p). Binomickým rozdělením se řídí např. náhodná veličina X, která je rovna počtu úspěchů v posloupnosti n nezávislých alternativních pokusů, kde pravděpodobnost úspěchu v každém pokusu je p, 0 < p < 1. Tedy X=
n X
Xi ,
i=1
kde
n 1 0
Xi =
pokud v i-tém pokuse nastal úspěch, pokud úspěch nenastal.
X je součtem n alternativních náhodných veličin. Vzhledem k nezávislosti Xi je hledaná pravděpodobnost pk tvaru pk =
n k p (1 k
− p)n−k pro k = 0, 1, . . . , n.
0.25
à à
0.20
à
æ æ
æ
0.15 æ
æ
à
à
0.10 æ
æ à
0.05 æ æ à
æ à
æ à
æ à
à
à
à
à
æ
à à 5
æ
à
10
æ
æ 15
æ
Figure 8.1: Pravděpodobnosti pk binomického rozdělení. Bi(16; 0, 5) - kruhy, Bi(16; 0, 8) - čtverce. Pravděpodobnosti pk splňují podmínky pro pravděpodobnostní rozdělení, neboť platí: a) pk ≥ 0, ∀k, Pn Pn n k n−k b) = [(1 − p) + p]n = 1. k=0 pk = k=0 (k )p (1 − p)
94
CHAPTER 8. DISKRÉTNÍ NÁHODNÉ VELIČINY Název binomické rozdělení vyplývá ze skutečnosti, že pravděpodobnost pk je členem binomického rozvoje. Distribuční funkce F (x) je tvaru F (x) =
( 0 P 1
n k 0≤k≤x k p (1
− p)
n−k
x<0 0≤x≤n x > n.
Rozdělení Bi(n; p) má střední hodnotu np a rozptyl np(1 − p). n X n k EX = k p (1 − p)n−k = k k=0 = np
n X k=1
(n − 1)! pk−1 (1 − p)n−k = (k − 1)!(n − k)!
n−1 X n−1 j = np p (1 − p)n−1−j = np(p + (1 − p)n−1 j j=0 = np. Pro výpočet rozptylu užijeme vztahu var X = EX(X − 1) + EX − (EX)2 ,
n k p (1 − p)n−k = EX(X − 1) = k(k − 1) k k=0 n X
= n(n − 1)p
2
= n(n − 1)p
2
n X k=2
(n − 2)! pk−2 (1 − p)n−k = (k − 2)!(n − k)!
n−2 X n−2
= n(n − 1)p2 .
j=0
j
pj (1 − p)n−2−j
var X = n(n − 1)p2 + np − n2 p2 = np(1 − p).
95 3. Hypergeometrické rozdělení HGeom(n, M, N ) se používá místo binomického rozdělení v experimentech, ve kterých n představuje počet tahů bez vracení (u binomického je n počet tahů s vracením) z osudí majícího N prvků, z nichž M prvků představuje při vytažení úspěch (u binomického by M/N = p) Hypergeometrické rozdělení pak představuje počet úspěchů v tomto experimentu. M N −M P (X = k) =
M EX = n , N
k
n−k N n
,
k = 0, 1, . . . , n.
M Var(X) = n N
M 1− N
4. Poissonovo rozdělení
N −n . N −1
je rozdělení náhodné veličiny X, která nabývá hodnot k = 0, 1, 2, . . . s pravděpodobnostmi λk pk = e−λ . k! Číslo λ > 0 je parametr Poissonova rozdělení. Vidíme, že pro takto definované pravděpodobnosti pk jsou splněny podmínky a) pk ≥ 0, ∀k = 0, 1, 2, . . . , P∞ P∞ λk e−λ P∞ −λ b) = e k=0 pk = k=0 k=0 k!
λk k!
= 1,
a tedy pk je rozdělení pravděpodobnosti. Distribuční funkce je tvaru 0 F (x) = P
−λ λj 0≤j≤x e j!
pro x < 0 pro 0 ≤ x < ∞.
Střední hodnota Poissonova rozdělení je rovna parametru λ, tj. EX = λ, neboť EX =
P∞
k
−λ λ =λ k=1 ke k!
= λe−λ
∞ X λj j=0
j!
= λ.
P∞
k=1
k−1
e−λ λk−1! =
96
CHAPTER 8. DISKRÉTNÍ NÁHODNÉ VELIČINY æ
æ
0.15
æ æ à
à à
à æ
0.10
à
à æ
à à
æ à
0.05 à
æ
æ
à æ à
à
à
à à
æ æ
à
5
æ
æ
æ
10
æ 15
æ
Figure 8.2: Pravděpodobnosti pk Poissonova rozdělení. P o(5) - kruhy, P o(10) - čtverce. Pro výpočet rozptylu užijeme vztahu var X = EX(X − 1) + EX − (EX)2 , EX(X − 1) =
∞ X k=0
= e
k · (k − 1)
−λ 2
λ
∞ X λj j=0
j!
∞ X λk−2 λk −λ e = e−λ · λ2 · = k! k − 2! k=2
= λ2 ,
var X = λ2 + λ − λ2 = λ. Vidíme tedy, že u Poissonova rozdělení je také rozptyl roven λ. Poissonovo rozdělení je limitním případem binomického rozdělení pro n → ∞, p → 0, np → λ (=konstanta). Vyšetřeme k-tý člen binomického rozdělení pro speciální případ n → ∞, a p → 0 tak, že np = λ: n λ k λ ( ) (1 − )n−k = lim n→∞ k n n =
λ λ n(n − 1) . . . (n − k + 1) λ k ( ) (1 − )n (1 − )−k n→∞ k! n n n
=
λk 1 2 k−1 λ λ lim (1 − )(1 − ) . . . (1 − )(1 − )−k lim (1 − )n , n→∞ k! n→∞ n n n n n
lim
97 první limita je rovna 1, druhá limita je e−λ , čímž dostáváme přímo tvar pk Poissonova rozdělení. Jelikož je Poissonovo rozdělení jednoznačně určeno parametrem λ > 0, budeme pro něj užívat zkráceného značení P o(λ). Tímto rozdělením se řídí náhodná veličina, kterou je počet výskytů sledovaného jevu v určitém časovém intervalu délky t (předpokládejme, že jev může nastat v kterémkoliv okamžiku a počet výskytů během časového intervalu závisí jen na jeho délce a ne na jeho počátku ani na tom, kolikrát jev nastoupil před jeho počátkem). Náhodnou veličinou, která má Poissonovo rozdělení, je tedy např. počet vadných výrobků ve velké sérii, je-li pravděpodobnost vadného výrobku velmi malá, počet zákazníků, kteří přišli do prodejny v časovém intervalu t, počet telefonních zavolání během nějakého časového intervalu atd. 4. Geometrické rozdělení je rozdělení náhodné veličiny X, která nabývá hodnot k = 0, 1, 2, . . . s pravděpodobnostmi pk = p(1 − p)k . Parametr p je z intervalu (0,1). P Je zřejmé, že všechna pk ≥ 0 a ∞ k=0 pk = 1, neboť ∞ X k=0
pk =
∞ X k=0
k
p(1 − p) = p
∞ X k=0
(1 − p)k = p
1 = 1. 1 − (1 − p)
Distribuční funkce geometrického rozdělení je tvaru n 0 pro x < 0 F (x) = P k pro x ≥ 0. 0≤k≤x p(1 − p)
Vypočítáme střední hodnotu a rozptyl. Nejprve si však připomeneme vzorce pro součet řad ∞ X 1 kq k−1 = (1 − q)2 k=1
a
∞ X k=2
k(k − 1)q k−2 =
2 , (1 − q)3
které se odvodí derivováním podle q vzorce pro součet geometrické řady ∞ X 1 . qk = 1−q k=0
98
CHAPTER 8. DISKRÉTNÍ NÁHODNÉ VELIČINY 0.8à
0.6 æ
0.4
æ
0.2 à æ æ à
à
2
æ à 4
æ à
æ à 6
æ à
æ à 8
Figure 8.3: Pravděpodobnosti pk geometrického rozdělení. Geom(0, 5) kruhy, Geom(0, 8) - čtverce.
EX =
∞ X k=0
k
kp(1 − p) = p(1 − p)
= p(1 − p) EX(X − 1) =
∞ X k=0
k(1 − p)k−1 =
1 1−p = . 2 (1 − (1 − p)) p
∞ X k=2
k(k − 1)p(1 − p)k =
= p(1 − p)2
∞ X k=2
= p(1 − p)2 · Odtud plyne, že var X = EX(X−1)+EX−(EX)2 =
k(k − 1)(1 − p)k−2 =
2(1 − p)2 2 = . (1 − (1 − p))3 p2 2(1 − p)2 1 − p (1 − p)2 1−p + − = . 2 2 p p p p2
Předpokládejme, že provádíme nezávislé pokusy a že pravděpodobnost úspěchu v jednom pokuse je pro všechny pokusy stejná a je rovna p. Pak vidíme, že náhodná veličina (počet pokusů do prvního úspěchu) se řídí geometrickým rozdělením. Název tohoto rozdělení vyplývá ze skutečnosti, že s rostoucími hodnotami k pravděpodobnosti pk geometricky klesají.
99 Příklad 8.1 Jaká je pravděpodobnost, že mezi čtyřmi po sobě narozenými dětmi budou a) první dva chlapci, další dvě dívky b) právě dva chlapci, víme-li, že pravděpodobnost narození chlapce je 0,515? c) Zjistěte, kolik se musí narodit dětí, aby pravděpodobnost, že mezi nimi bude alespoň jeden chlapec, byla větší nebo rovna 0,99. Řešení:
a) Náhodná veličina X, tj. počet narozených chlapců, má Bi(4; 0, 515). Jelikož je pořadí narození chlapců a dívek určeno pevně, je hledaná pravděpodobnost (0, 515)2 · (0, 485)2 = 0, 062388. b) V této situaci na pořadí narození nezáleží, musíme uvažovat všechny možnosti, kterých je 42 . Výsledná pravděpodobnost je 4 (0, 515)2 (0, 485)2 = 0, 37425. p2 = 2 c) Počet dětí, mezi kterými bude s pravděpodobností větší nebo rovnou 0,99 alespoň jeden chlapec, určíme následovně: 1 − P (narození n dívek) ≥ 0, 99 p(0) = P (narození n dívek) = (0, 485)n 1 − (0, 485)n ≥ 0, 99 n ≥
log 0,01 log 0,485
n ≥ 7.
100
CHAPTER 8. DISKRÉTNÍ NÁHODNÉ VELIČINY
Příklad 8.2 Víme, že pravděpodobnost vypěstování zdravé sazenice ze semena je 0,62. Za náhodnou veličinu X budeme považovat počet zdravých sazenic vypěstovaných z 27 semen. Určete a) jaký je nejpravděpodobnější počet zdravých rostlin a jaká je jeho pravděpodobnost, b) střední hodnotu a rozptyl náhodné veličiny X.
Řešení: Předpokládejme, že semena klíčí a rostliny rostou nezávisle na sobě. Potom je ze zadání příkladu zřejmé, že náhodná veličina X má Bi(27; 0, 62). a) Máme nalézt nejpravděpodobnější hodnotu náhodné veličiny X, tzn. modus x b. Z definice x b plyne, že P (ˆ x − 1) ≤ 1, P (ˆ x) P (ˆ x + 1) ≤ 1. P (ˆ x) Protože X má Bi(27; 0, 62), dostáváme odtud, že x b−1 (27 (1 − 0, 62)27−bx+1 x b−1 )(0, 62) ≤ 1, x b 27−b x (27 x b )(0, 62) (1 − 0, 62)
neboli
x b+1 (27 (1 − 0, 62)27−bx−1 x b+1 )(0, 62) ≤ 1, x b 27−b x (27 x b )(0, 62) (1 − 0, 62)
1 − 0, 62 x b ≤ 1, 27 − x b + 1 0, 62 27 − x b 0, 62 ≤ 1. x b + 1 1 − 0, 62
101 Z obou rovnic vyjádříme x b a dostáváme
x b ≤ 17, 36,
x b ≥ 16, 36.
Nejpravděpodobnější počet sazenic, které vypěstujeme z 27 semen, je 17. Pravděpodobnost, že vypěstujeme právě 17 sazenic, je 17 10 p17 = (27 = 0, 1566. 17 )(0, 62) (0, 38)
b) Dle vzorců pro výpočet střední hodnoty a rozptylu binomického rozdělení dostáváme
EX = 27 · 0, 62 = 16, 74, var X = 27 · 0, 62 · 0, 38 = 6, 3612.
Příklad 8.3 Předpokládejme, že mladá dravá ryba přežije, pokud uloví rybu alespoň jednou za dva dny. Během dvou dnů podnikne 8 zápasů s pravděpodobností ulovení p = 0, 25. Jaká je pravděpodobnost, že dravá ryba nezemře? Řešení: Naše dravá ryba přežije, jestliže poprvé zvítězí během 8 zápasů. Neboli hledaná pravděpodobnost je součet 8 X
P
(poprvé zvítězí v k-tém zápase).
k=1
Tyto pravděpodobnosti se řídí geometrickým rozdělením s parametrem p, dostáváme tedy P7 P7 P7 k k . k=0 pk = k=0 p(1 − p) = k=0 0, 25 · 0, 75 = =
1 4
+
3 16
+
9 64
+
27 256
+
81 1024
+
243 4096
+
729 16384
+
2187 65536
. = 0, 90.
102
CHAPTER 8. DISKRÉTNÍ NÁHODNÉ VELIČINY
To znamená, že naše ryba má 10% šanci, že zemře, než se jí podaří se znovu najíst. Porovnejme nyní střední počet neúspěšných soubojů, neboli EX, kde X ∼
Geom(0, 25) s nejpravděpodobnějším počtem neúspěšných soubojů, neboli modusem x b. 1−p 0, 75 EX = = = 3. p 0, 25 x b = 0, protože p0 =
1 4
> pk =
1 4
· ( 34 )k ,
k = 1, 2, . . .
Příklad 8.4 Na nádraží mají být instalovány automaty na prodej jízdenek, které po vhození příslušné mince vydají během 10 sekund žádanou jízdenku. Předpokládejme, že v době největší frekvence bude chtít použít automat v průměru 6 osob za minutu. Kolik automatů je nutné instalovat, aby s pravděpodobností větší než 0,95 byl v době největší frekvence obsloužen každý zájemce okamžitě?
Řešení: Náhodnou veličinou X bude počet zákazníků během 10 sekund v době největší frekvence. Jestliže střední počet zájemců během minuty je λ = 6, má veličina X zřejmě Poissonovo rozdělení s parametrem tλ = 16 · 6 = 1. Hledáme nyní nejmenší hodnotu x, pro kterou platí, že ji náhodná veličina X nepřekročí s pravděpodobností větší než 0,95, tzn. nejmenší hodnotu, pro kterou platí P (X ≤ x) > 0, 95. Protože P (X ≤ 0) = e−1 = 0, 367879 P (X ≤ 1) = e−1 + e−1 = 0,735759
103
8.1. ÚLOHY P (X ≤ 2) = e−1 + e−1 +
e−1 2
= 0,919698
P (X ≤ 3) = e−1 + e−1 +
e−1 2
+
e−1 6
= 0,981011,
musíme tedy instalovat nejméně 3 automaty, aby s pravděpodobností větší než 0,95 byl každý zájemce obsloužen okamžitě.
8.1
Úlohy
1. Výrobce dodává výrobky balené po 15 kusech. Předpokládá, že každý balíček, v němž je alespoň jeden výrobek vadný, bude reklamován, a zaručil se, že při reklamaci vrátí peníze. Je známo, že pravděpodobnost vyrobení kvalitního výrobku je 0,95 a že náklady na 1 balíček jsou 2 dolary. Jakou cenu musí výrobce stanovit, aby mohl očekávat zisk 23%? (5.31 dolaru) 2. Telefonní ústředna zapojí během hodiny průměrně 15 hovorů. Jaká je pravděpodobnost, že během 4 minut zapojí ústředna (a) právě jeden hovor, (b) alespoň dva hovory, (c) alespoň dva hovory a nejvýše pět hovorů? (a) 0,3678, b) 0,2642, c) 0,2636) 3. Účastník volá telefonní ústřednu v době největšího zatížení linky, kdy pravděpodobnost, že linka nebude obsazena, je 0,25. Jednotlivé pokusy o spojení opakuje po několika minutách tak dlouho, dokud není spojen. Určete (a) pravděpodobnost toho, že dosáhne spojení až při pátém pokusu,
104
CHAPTER 8. DISKRÉTNÍ NÁHODNÉ VELIČINY (b) střední hodnotu a rozptyl počtu neúspěšných pokusů do okamžiku, kdy je navázáno spojení. (a) 0,0791, b) 3, 12)
4. Hráč hází hrací kostkou tak dlouho, dokud nepadnou tři šestky. Jaká je pravděpodobnost, že hráč bude muset hodit kostkou desetkrát? (0,0465) 5. Střední hodnota počtu poruch vysílače za 10 000 hodin jeho činnosti je rovna 10. Určete pravděpodobnost poruchy zařízení za 100 hodin činnosti. (0,095) 6. Na telefonní ústřednu je napojeno 326 účastníků. Každý z nich bude ústřednu volat během hodiny s pravděpodobností 0,01. Jaká je pravděpodobnost, že během hodiny zavolají (a) 4 účastníci, (b) alespoň 6 účastníků, (c) nejvýše 2 účastníci? 7. Korektura 500 stránek knihy obsahuje 500 tiskových chyb. Určete pravděpodobnost toho, že na namátkou vybrané stránce jsou (a) alespoň 3 chyby, (b) právě 1 chyba, (c) nejvýše 2 chyby. 8. Během hodiny přijde do výčepu průměrně 60 hostů. Jaká je pravděpodobnost toho, že během půl minuty, ve které nikdo neobsluhuje, nepřijde žádný zákazník? (0,61) 9. Určete pravděpodobnost toho, že mezi 136 výrobky jsou (a) alespoň 3 vadné výrobky,
8.1. ÚLOHY
105
(b) nejvýše 10 vadných výrobků, jestliže víme, že vadné výrobky tvoří průměrně 2,6% produkce. 10. Z důvodu ušetření peněz na drahých krevních testech během druhé světové války přišla armáda s následujícím plánem. Místo testování krve každého vojáka smíchali krev skupiny vojáků a otestovali směs. Jestliže byl test negativní, věděli, že všichni vojáci ve skupině jsou negativní. Jestliže byl test pozitivní, museli otestovat každého vojáka samostatně. Za jakých podmínek ušetří tento test peníze oproti testování každého vojáka samostatně? 11. Restaurace dává ke každému jídlu kartičku s obrázkem jednoho hráče místního týmu. Pokaždé, když jdete do restaurace, obdržíte náhodně jednu kartičku. (a) Jestliže karty zobrazují basketbalisty (5 hráčů základní sestavy), kolikrát musíte jít v průměru do restaurace, abyste získali od všech hráčů alespoň jednu kartičku? (b) Jestliže karty zobrazují baseballisty (9 hráčů základní sestavy), kolikrát musíte jít v průměru do restaurace, abyste získali od všech hráčů alespoň jednu kartičku?
Chapter 9 Příklady spojitých náhodných veličin 1. Rovnoměrné rozdělení na intervalu [a, b] je dáno hustotou f (x) = Distribuční funkce je
n
F (x) =
1 b−a
a ≤ x ≤ b, x < a, x > b.
0
0
x−a b−a
1
Střední hodnota a rozptyl jsou:
x < a, a≤x≤b x ≥ b.
a+b 1 , var X = (b − a)2 , 2 12 dokažte. Toto rozdělení budeme označovat U (a, b) (z angl. ”uniform”). EX =
S rovnoměrným rozdělením se setkáváme např. při vyšetřování chyb ze zaokrouhlování v numerických výpočtech. Jsou-li čísla vstupující do výpočtů nekonečné desetinné zlomky, jež se zaokrouhlují na k desetinných míst, pak lze chybu ze zaokrouhlení považovat za náhodnou veličinu s rovnoměrným rozdělením na intervalu [−5·10−k−1 , 5·10−k−1 ]. 106
107 2. Exponenciální rozdělení. Hustota pravděpodobnosti exponenciálního rozdělení je f (x) =
n
x 1 −λ e λ
x>0
0
jinak.
2.0
1.5
1.0
0.5
0.5
1.0
1.5
2.0
2.5
3.0
Figure 9.1: Graf hustoty exponenciálního rozdělení - plná čára Exp(1), čárkovaná Exp(1/2), čerchovaná Exp(2). Distribuční funkce je F (x) =
n 0
pro x ≤ 0 x
1 − e− λ
x > 0,
kde λ je parametrem rozdělení. Ověřme nejprve, zda f (x) je hustota. Vidíme, že f (x) ≥ 0, ∀x ∈ R. Z ∞ Z ∞ 1 −x f (x)dx = e λ dx = 1. λ −∞ 0 Střední hodnota EX = λ a rozptyl var X = λ2 . Exponenciální rozdělení Exp(λ) je vhodným modelem ”doby čekání” do nastoupení určitého jevu, např. doby životnosti určitého zařízení, a to tehdy, jestliže rozdělení zbývající doby čekání nezávisí na tom, jak dlouho již čekáme. Říká se tomu, že exponenciální rozdělení nemá paměť. Přesně je tato vlastnost popsána tvrzením:
108
CHAPTER 9. SPOJITÉ NÁHODNÉ VELIČINY Věta 9.1 Má-li náhodná veličina X exponenciální rozdělení, pak ∀x > 0, y > 0.
P (X > x + y|X > y) = P (X > x),
x
Důkaz. Nechť X ∼ Exp(λ), pak P (X > x) = e− λ a P (X > x + y|X > y) můžeme podle definice podmíněné pravděpodobnosti přepsat na (x+y)
P (X > x + y) e− λ = −y P (X > y) e λ
x
= e− λ .
2. Normované normální rozdělení je definováno hustotou 1 2 f (x) = √ e−x , −∞ < x < ∞. 2π Jeho distribuční funkce se tradičně značí písmenem Φ. Z x t2 1 Φ(x) = √ e− 2 dt, −∞ < x < ∞. 2π −∞ Na obrázku 9.2 je znázorněn graf hustoty pravděpodobnosti f (x) (plná čára), tzv. Gaussova křivka, která je symetrická kolem nuly a v nule také dosahuje svého maxima √12π . Střední hodnota EX = 0 je zároveň mediánem i modusem tohoto rozdělení. Při výpočtech budeme užívat vzorce Z ∞ √ 2 e−y dy = π.
(9.1)
−∞
Ověřme nejprve, že f (x) je hustota. Vidíme, že f (x) ≥ 0, ∀x ∈ R. R∞
f (x) = −∞
a tedy f (x) je hustota.
=
R∞
2
x √1 e− 2 −∞ 2π
√1 2π
R∞ √ −∞
dx = 2
2 e−y dy = 1,
109 Střední hodnota a všechny liché momenty jsou rovny nule, tj. EX = EX 2k−1 = 0, k = 1, 2, 3, . . . , neboť funkce
x2 1 √ x2k−1 e− 2 2π
je lichá a integrovatelná v R. Jelikož EX = 0, je var X = EX 2 . Ukažme, že var X = 1 a že obecně sudé momenty jsou rovny (2k)! , k = 1, 2, 3, . . . 2k k!
EX 2k = 1 · 3 · 5 · . . . · (2k − 1) = Proveďme v (9.1) substituci y = x Z
∞
e
2 − tx2
q
t 2
(9.2)
a dostáváme
dx =
−∞
r
2π . t
(9.3)
Pro vztah (9.3) lze užít větu o derivaci podle parametru. Postupným derivováním (9.3) podle t dostáváme 1 √ 2π
Z
∞
x2 e −
tx2 2
3
dx = t− 2 ,
−∞
obecně po k derivacích dostáváme 1 √ 2π
Z
∞
x2k e−
tx2 2
−∞
dx = 1 · 3 · . . . · (2k − 1) · t−
výsledek (9.2) pak plyne z (9.4) položením t = 1. 3. (Obecné) normální rozdělení. Toto rozdělení je definováno hustotou f (x) = √
1 2π σ 2
e−
(x−µ)2 2σ 2
, −∞ < x < ∞,
kde µ reálné a σ 2 kladné jsou parametry.
2k+1 2
,
(9.4)
110
CHAPTER 9. SPOJITÉ NÁHODNÉ VELIČINY 0.8
0.6
0.4
0.2
-3
-2
-1
1
2
3
Figure 9.2: Graf hustoty normálního rozdělení - plná čára N (0, 1), čárkovaná N (0, 2), tečkovaná N (0, 1/2). Distribuční funkci 1 F (x) = √ 2π σ
Z
x −∞
e−
(t−µ)2 2σ 2
dt, −∞ < x < ∞
(9.5)
lze vyjádřit pomocí funkce Φ jako Φ( x−µ ), provedeme-li v integrálu σ = v. Dokažte, že střední hodnota EX = µ a rozptyl (9.5) substituci t−µ σ var X = σ 2 a že všechny liché centrální momenty (kromě prvního) jsou nulové, tj. E(X − EX)2k−1 = 0, k = 2, 3, . . . , a sudé centrální momenty jsou E(X − EX)2k = 1 · 3 · 5 · . . . · (2k − 1)σ 2k , k = 1, 2, . . . Normální rozdělení je jednoznačně určeno střední hodnotou µ a rozptylem σ 2 , je zvykem ho označovat jako N (µ, σ 2 ) (dle této úmluvy pak normované normální rozdělení označíme N (0, 1)). Normální rozdělení má mimořádný význam v teorii pravděpodobnosti a matematické statistice, přestože se tímto rozdělením řídí přesně jen málo náhodných veličin. V následujících paragrafech bude dokázáno, že součet velkého počtu nezávislých náhodných veličin (o jejichž rozdělení se činí jen velmi obecné předpoklady) má přibližně normální rozdělení, tím lze vysvětlit
111 klíčovou roli tohoto rozdělení v teorii pravděpodobnosti a matematické statistice. Náhodné veličiny, s nimiž se v reálném světě setkáváme, lze velmi často považovat za výslednice působení velkého počtu drobných náhodných vlivů. Pak lze očekávat, že normální rozdělení bude vhodným modelem pro takové náhodné veličiny. Nejběžnějším typem takových veličin jsou náhodné chyby (chyby měření, způsobené velkým počtem neznámých a vzájemně nezávislých příčin). Normální rozdělení je vhodným modelem pro řadu fyzikálních, technických a biologických veličin jako například tělesná výška jedinců homogenní populace, roční částka, kterou pojišťovna vyplatí za pojistné příhody atd. Jelikož se s normálním rozdělením velmi často pracuje a výpočet distribuční funkce je zdlouhavý, jsou hodnoty distribuční funkce N (0, 1) tabelovány (viz Kapitola 13). Vzhledem k symetrii funkce Φ (Φ(x) = 1 − Φ(−x)) se tabelují hodnoty Φ pouze pro nezáporné x. Pro vyjádření dalších rozdělení si zopakujme definice Gama a Beta funkce. Z ∞ Γ(a) = xa−1 · e−x dx, a > 0 0 √ Vlastnosti: Γ(a + 1) = a · Γ(a), Γ( 12 ) = π B(a, b) =
Γ(a) · Γ(b) Γ(a + b)
4. Pearsonovo rozdělení Nechť náhodné veličiny U1 , U2 ,. . ., Uk jsou nezávislé a mají normované normální rozdělením N(0,1). Pak χ2k
=
k X
Ui2
i=1
má tzv. rozdělení χ2 (čtěte chi kvadrát) s k stupni volnosti a s hustotou (pro u > 0) tvaru fk (u) =
1 · u(k/2)−1 · e−u/2 , k/2 Γ(k/2) · 2
u > 0.
112
CHAPTER 9. SPOJITÉ NÁHODNÉ VELIČINY Eχ2k = k,
Var χ2k = 2k.
0.15 0.125 0.1 0.075 0.05 0.025 10
20
30
40
Figure 9.3: Graf hustoty Pearsonova rozdělení - plná čára χ210 , čárkovaná χ220 , tečkovaná χ25 . 5. Studentovo rozdělení Mějme dvě nezávislé náhodné veličiny, a to náhodnou veličinu U s normovaným normálním rozdělením N(0,1) a náhodnou veličinu V s rozdělením χ2 s k stupni volnosti. Pak veličina U √ Tk = √ · k V má Studentovo rozdělení t s hustotou tvaru fk (t) =
1 t2 −(k+1)/2 √ ) , · (1 + k B( 21 , k2 ) · k
t∈R
s k stupni volnosti. ETk = 0,
Var Tk =
k , k−2
tk →k→∞ Φ.
6. Fisherovo-Snedecorovo rozdělení Nechť dvě nezávislé náhodné veličiny mají rozdělení χ2 , a to U s k
113 0.4
0.3
0.2
0.1
-3
-2
-1
1
2
3
Figure 9.4: Graf hustoty Studentova rozdělení - plná čára N(0,1), čárkovaná t10 , tečkovaná t5 . stupni volnosti, kdežto náhodná veličina V s n stupni volnosti. Pak náhodná veličina U/k Fk,n = V /n má Fisherovo-Snedecorovo rozdělení s k a n stupni volnosti a hustotou k/2 1 z (k−2)/2 k fk,n (z) = · , z > 0. · n B( k2 , n2 ) (1 + z · nk )(k+n)/2 EFk,n =
n , n−2
Var Fk,n =
2n2 (n + k − 2) . (n − 2)2 (n − 4)k
Příklad 9.1 Prodejna očekává dodávku zboží v určitý den v době od 12 do 16 hodin. Podle sdělení dodavatele je uskutečnění dodávky stejně možné kdykoliv během tohoto časového intervalu. Jaká je pravděpodobnost, že zboží bude dodáno v době od jedné hodiny do půl druhé? Řešení: Náhodná veličina - doba dodání zboží - X ∼ U (12, 16). Odtud Z 13,5 1 13, 5 − 13 P (13 ≤ X ≤ 13, 5) = dx = = 0, 125. 4 4 13
114
CHAPTER 9. SPOJITÉ NÁHODNÉ VELIČINY 0.8
0.6
0.4
0.2
0.5
1
1.5
2
2.5
3
Figure 9.5: Graf hustoty Fisherova-Snedecorova rozdělení - plná čára F10,10 , čárkovaná F20,10 , tečkovaná F5,10 . Příklad 9.2 Autobusy městské dopravy odjíždějí ze stanice v sedmiminutových intervalech. Cestující může přijít na stanici v libovolném okamžiku. Jaká je střední hodnota a rozptyl doby jeho čekání na odjezd autobusu ze stanice? Řešení: Doba čekání na odjezd autobusu je náhodná veličina s rovnoměrným rozdělením v intervalu (0,7). Z vlastností rovnoměrného rozdělení plyne, že EX = var X =
0+7 = 3, 5, 2 (7−0)2 49 = 12 12
= 4, 08.
Příklad 9.3 Z dlouhodobých měření je známo, že radiomagnetofon Sony má poruchu v průměru jednou za 10 000 hodin. Předpokládejme, že ”doba čekání na poruchu” je náhodná veličina X s exponenciálním rozdělením. Stanovme hodnotu t tak, aby pravděpodobnost, že radiomagnetofon bude pracovat delší dobu než t, byla 0,99. Řešení: P (X > t) = 1 − P (X ≤ t) = 1 − F (t) = 0, 99,
115 neboli F (t) = 0, 01. Z definice distribuční funkce exponenciálního rozdělení je patrné, že X ∼ Exp(10000), a tedy
t
0, 01 = 1 − e− 10000 . Odtud po úpravě t = −10000 · ln 0, 99 t = 100, 5. Příklad 9.4 Do obchodu přijde průměrně 60 zákazníků za 1 hodinu. Jaká je pravděpodobnost, že do obchodu nepřijde žádný zákazník během ve které je prodavač nepřítomen.
1 2
min.,
Řešení: Tuto úlohu můžeme řešit s využitím jak Poissonova rozdělení, tak exponenciálního rozdělení. a) Náhodná veličina X čekání na příchod dalšího zákazníka má exponenciální rozdělení. Parametr λ = 1, protože EX = λ a ze zadání víme, že v průměru přijde 60 zákazníků za 1 hodinu. Hledaná pravděpodobnost je pak 1 1 1 1 − 21 P (X > ) = 1 − P (X ≤ ) = 1 − (1 − e ) = e− 2 . 2 2
b) Náhodná veličina Y počet zákazníků, kteří přijdou do obchodu během 1 2
min., má Poissonovo rozdělení. Parametr λ = 12 , protože EY = λ a ze zadání víme, že během 12 min. přijde v průměru 12 zákazníka. Hledaná pravděpodobnost je pak 1
P (Y = 0) = e− 2 ·
( 12 )0 1 = e− 2 . 0!
116
CHAPTER 9. SPOJITÉ NÁHODNÉ VELIČINY
Příklad 9.5 Víme, že populace určitého druhu květin dorůstá výšky X s normálním rozdělením N (20, 16). Spočtěte pravděpodobnost, že náhodně vybraná květina má výšku a) menší než 16, b) větší než 20, c) v mezích od 12 do 28, d) menší než 12 nebo větší než 28, e) rovnu 22. Řešení: Provedeme transformaci veličiny X na normovanou veličinu U stejně upravíme i druhou stranu nerovnosti.
=
a) P (X < 16) = P (U <
16−20 ) 4
= P (U < −1) = Φ(−1) =
= 1 − Φ(1) = 1 − 0, 84134 = 0, 15866 b) P (X > 20) = P (U >
20−20 ) 4
= P (U > 0) =
= 1 − Φ(0) = 0, 5 c) ≤U ≤ P (12 ≤ X ≤ 28) = P ( 12−20 4
28−20 ) 4
=
= P (−2 ≤ U ≤ 2) = Φ(2) − Φ(−2) = = Φ(2) − [1 − Φ(2)] = 2Φ(2) − 1 = = 2 · 0, 97725 − 1 = 0, 95450
x−20 4
a
117
9.1. ÚLOHY d) P (X < 12) + P (X > 28) = 1 − P (12 ≤ X ≤ 28) = = 1 − 0, 95450 = 0, 04550 e) P (X = 22) = 0.
9.1
Úlohy
1. Náhodná veličina X představující chybu měření má rozdělení N (0, 2; 0, 64). Určete (a) pravděpodobnost, že absolutní hodnota veličiny X bude menší než 1, (b) horní hranici chyby měření, které se můžeme dopustit s pravděpodobností 0,95. ( a) 0,77453; b) 1,516) 2. Dokažte, že pro každé reálné x platí Φ(x) =
x2 1 1 x3 x5 x e− 2 ( + +√ + + . . .). 2 1 1·3 1·3·5 2π
3. Náhodná veličina X s normálním rozdělením má nulovou střední hodnotu. Určete rozptyl X tak, aby P (a < X < b) byla maximální (0 < a < b). 4. Životnost určitého výrobku se řídí exponenciálním rozdělením se střední hodnotou 3 roky. Jak dlouhou záruční dobu poskytne výrobce zákazníkům, jestliže žádá, aby relativní četnost výrobků, které během záruční doby přestanou plnit svou funkci, byla v průměru 0,1? (0,32 roku)
118
CHAPTER 9. SPOJITÉ NÁHODNÉ VELIČINY
5. Stanovte střední dobu obsluhy v prodejně, víte-li, že pravděpodobnost obsloužení v době kratší než 4 minuty je 0,2592. Předpokládejte, že doba obsluhy má exponenciální rozdělení. (10 minut) 6. Při kontrole se přijímají všechny výrobky, jejichž délka přesahuje 77 cm. Bylo zjištěno, že střední hodnota délky výrobku (náhodné veličiny X) µ je 75 cm a směrodatná odchylka (odmocnina z rozptylu) σ je 5 cm. Za předpokladu, že sledovaná náhodná veličina má přibližně normální rozdělení, určete (a) pravděpodobnost, že výrobek, který prošel kontrolou, je delší než 80 cm, (b) kolik výrobků delších než 80 cm můžeme očekávat, jestliže kontrolou je přijato 2 261 kusů. 7. Jaká je pravděpodobnost, že náhodná veličina U s rozdělením N (0, 1) nabude hodnoty (a) menší než 1,64, (b) větší než -1,64, (c) v mezích od -1,96 do 1,96, (d) větší než 2,33, (e) menší než -2,33? ( a) 0,9495; b) 0,9495; c) 0,9500; d) 0,0099; e) 0,0099) 8. Jestliže náhodná veličina X má rozdělení N (µ, σ 2 ) takové, že P (X < 85) = 0, 9 a P (X < 95) = 0, 95, jaké jsou hodnoty µ a σ 2 ? (49.7, 758.9)
Chapter 10 Náhodný vektor, nezávislost náhodných veličin 10.1
Distribuční funkce
Definice 10.1 Nechť (Ω, A, P ) je pravděpodobnostní prostor a nechť na tomto
prostoru jsou definovány náhodné veličiny X1 , X2 , . . . , Xn . Pak vektor X = (X1 , . . . , Xn ) nazýváme náhodný vektor.
Poznámka 10.1 Náhodný vektor je tedy zobrazení z Ω do Rn . Hodnoty náhodného vektoru je možno geometricky interpretovat jako bod v n-rozměrném prostoru. Podobně jako u náhodné veličiny je chování náhodného vektoru X = (X1 , . . . , Xn )T popsáno distribuční funkcí, kterou též nazýváme sdruženou distribuční funkcí náhodných veličin X1 , . . . , Xn . Definice 10.2 Nechť X = (X1 , . . . , Xn )T je náhodný vektor definovaný na pravděpodobnostním prostoru (Ω, A, P ). Distribuční funkcí FX náhodného vek119
120
CHAPTER 10. NÁHODNÝ VEKTOR
toru X nazveme reálnou funkci n proměnných definovanou na Rn vztahem FX (x1 , . . . , xn ) = P (X1 ≤ x1 , X2 ≤ x2 , . . . , Xn ≤ xn ) = = P (∩ni=1 {ω : Xi (ω) ≤ xi }), −∞ < xi < ∞, i = 1, . . . , n. (10.1)
Definujme n-rozměrný interval (a, b],
a = (a1 , . . . , an ),
b = (b1 , . . . , bn ).
jako (a, b] = ×ni=1 (ai , bi ]. Dále ∆k,n bude značit množinu nk n-tic (z1 , . . . , zn ) takových, že každé zi je rovno ai nebo bi , přičemž první možnost nastává právě k-krát (a druhá
n tedy (n − k)-krát), ∆ = Uk=0 ∆k,n značí množinu všech 2n vrcholů intervalu (a, b], δ značí libovolný z těchto vrcholů.
Věta 10.1 (Vlastnosti distribuční funkce) Nechť FX je distribuční funkce náhodného vektoru X = (X1 , . . . , Xn )T . Potom FX má tyto vlastnosti: a) FX (x1 , . . . , xn ) je neklesající funkce v každé ze svých proměnných při pevných hodnotách ostatních proměnných. b) FX (x1 , . . . , xn ) je zprava spojitá v každé proměnné. c) limxi →−∞ FX (x1 , . . . , xn ) = 0, i = 1, . . . , n, hodnoty xj jsou pevné ∀j 6= i, j = 1, . . . , n.
d) limx1 →∞ FX (x1 , . . . , xn ) = 1. x2 →∞
.. .
xn →∞
121
10.1. DISTRIBUČNÍ FUNKCE e) pro (a, b] je
n X
(−1)k
X
δ∈∆n,k
k=0
FX (δ) ≥ 0.
Vlastnosti a), b), c), d) se dokazují stejně jako ve větě 6.1, vlastnost e) je dokázána např. v [4]. Každá reálná funkce n proměnných definovaná na Rn s vlastnostmi a) - e) je distribuční funkcí nějakého náhodného vektoru. Nyní se budeme zabývat náhodnými vektory diskrétního a spojitého typu. Definice 10.3 Náhodný vektor X má diskrétní rozdělení, jestliže existuje n posloupnost {xk }∞ a odpovídající posloupnost kladných čísel k=1 , xk ∈ R {pk }∞ k=1 taková, že
∞ X
pk = 1,
(10.2)
k=1
kde
pk = P [X = xk ] = P ({ω ∈ Ω : X(ω) = xk }). Distribuční funkce náhodného vektoru X diskrétního typu má následující tvar: X FX (x) = pk , ∀x ∈ Rn , (10.3) {k:xk ≤x}
kde xk ≤ x znamená xk ∈ (−∞, x].
Definice 10.4 Náhodný vektor X = (X1 , . . . , Xn )T má absolutně spojité rozdělení, jestliže existuje nezáporná funkce fX n reálných proměnných taková, že Z xn Z x1 ...
FX (x1 , . . . , xn ) =
−∞
fX (t1 , . . . , tn )dt1 , . . . , dtn ,
−∞
(10.4)
kde funkci fX nazýváme hustotou rozdělení pravděpodobnosti náhodného vektoru X, nebo též sdruženou hustotou náhodných veličin X1 , . . . , Xn .
122
CHAPTER 10. NÁHODNÝ VEKTOR
Pro hustotu f (x) platí, že fX (x1 , . . . , xn ) =
∂ n FX (X1 , . . . , Xn ) ∂ x1 ∂ x2 . . . ∂ xn
ve všech bodech (x1 , . . . , xn ), ve kterých derivace existuje a Z ∞ Z ∞ Z ∞ Z fX (x1 , . . . , xn )dx1 , . . . , dxn = 1. ... fX (x)dx = Rn
−∞
(10.5)
(10.6)
−∞
−∞
Distribuční funkci (resp. hustotu) části náhodného vektoru X nazveme marginální distribuční funkcí (resp. hustotou). Uveďme si marginální distribuční funkci vektoru (x1 , . . . , xk ), k = 1, . . . , n − 1. F(X1 ,...,Xk ) (x1 , . . . , xk ) = limxk+1 →∞ FX (x1 , . . . , xk , xk+1 , . . . , xn ) xk+2 →∞
.. . n→∞
Marginální distribuční funkce vektoru (X1 , . . . , Xk ), který je částí náhodného vektoru X = (X1 , . . . , Xn )T s absolutně spojitým rozdělením, je definována F(X1 ,X2 ,...,Xk ) (x1 , x2 . . . , xk ) = R x1 R x2 −∞
kde
−∞
...
R xk R ∞ −∞
fX (x1 , . . . , xk ) =
−∞
R∞
−∞
...
...
R∞ R∞ −∞
R∞
−∞
−∞
fX (t1 , . . . , tn )dtn dtn−1 . . . dt1 ,
fX (x1 , . . . , xn )dxk+1 dxk+2 . . . dxn
je marginální hustota vektoru (X1 , . . . , Xk ). Existuje-li sdružená distribuční funkce (resp. sdružená hustota), existují všechny marginální distribuční funkce (resp. marginální hustoty). Obrácené
10.2. CHARAKTERISTIKY NÁHODNÉHO VEKTORU
123
tvrzení obecně neplatí. Podobně jako v jednorozměrném případě definujeme Lebesqueovu-Stieltjesovu míru µF indukovanou distribuční funkcí F předpisem n X
µF ((a, b]) =
(−1)k
X
F (δ)
δ∈∆n,k
k=0
na polouzavřených intervalech (a, b] = Xni=1 (ai , bi ]; definici lze snadno jednoznačně rozšířit na všechny borelovské množiny B n . Integrál podle LebesquovyStieltjesovy míry z funkce φ(x) budeme stejně jako v jednorozměrném případě zapisovat
10.2
Z
φ(x)dFX (x). Rn
Charakteristiky náhodného vektoru
Věta 10.2 Nechť X je náhodný vektor a nechť φ : Rn → R je reálná funkce. Pak platí
Eφ(X) =
Z
φ(x)dFX (x), Rn
pokud jeden z integrálů existuje. Speciálně Eφ(X) =
∞ X
φ(ωm )pm
m=1
pro diskrétní rozdělení a Eφ(X) =
Z
pro absolutně spojité rozdělení. Důkaz. Plyne z předchozích definic.
φ(ω)f (ω)dx R
124
CHAPTER 10. NÁHODNÝ VEKTOR
Předchozí věta nám umožňuje definovat kovarianci a korelaci náhodných veličin. Definice 10.5 Nechť X a Y jsou náhodné veličiny a EX 2 < ∞, EY 2 < ∞. Kovariance cov(X, Y ) náhodných veličin X a Y je definována vztahem cov(X, Y ) = E(X − EX)(Y − EY ). Koeficient korelace corr(X, Y ) je definován vztahem corr(X, Y ) = √
cov(X, Y ) √ var X var Y
pro (var Xvar Y ) > 0. Definice 10.6 Nechť X = (X1 , . . . , Xn )T je náhodný vektor, jehož složky mají konečný druhý moment. Varianční matice var X tohoto náhodného vektoru je definována jako matice typu n × n s prvky cov(Xi , Xj ) = E(Xi − EXi )(Xj − EXj ),
1 ≤ i, j ≤ n,
Korelační matice corrX je matice s prvky corr(Xi , Xj ) = √ Je zřejmé, že
cov(Xi , Xj ) p , varXi varXj
cov(Xi , Xi ) = var Xi ,
1 ≤ i, j ≤ n.
1≤i≤n
a corr(Xi , Xi ) = 1,
1 ≤ i ≤ n.
Nejčastěji používané číselné charakteristiky náhodného vektoru jsou střední hodnota EX = (EX1 , . . . , EXn )T a varianční matice var X.
10.3. NĚKTERÁ MNOHOROZMĚRNÁ ROZDĚLENÍ
10.3
125
Některá mnohorozměrná rozdělení
1. Multinomické rozdělení Multinomické rozdělení je zobecněním binomického rozdělení a je patrně nejdůležitějším diskrétním mnohorozměrným rozdělením. Mějme urnu a v ní kuličky k různých barev. Nechť pravděpodobnost vytažení kuličky i-té barvy je rovna pi , i = 1, 2, . . . , k, přičemž 0 < pi < 1, p1 + p2 + . . . + pk = 1. Z této urny vybereme n-krát nezávisle po jedné kuličce (kuličky vracíme). Označme Xi počet kuliček i-té barvy, které byly vybrány. Je zřejmé, že náhodný vektor X = (X1 , X2 , . . . , Xk )T má sdruženou pravděpodobnostní funkci P (X 1 = x1 , X2 = x2 , . . . , Xk = xk ) =
n! px1 1 px2 2 . . . pxk k x1 !x2 ! . . . xk !
pro xi = 0, 1, . . . , n; i = 1, 2, . . . , k a x1 + x2 + . . . + xk = n. Parametry multinomického rozdělení jsou (n, p1 , p2 , . . . , pk ). Multinomické rozdělení hraje významnou roli v matematické statistice. Marginální rozdělení Xi je binomické rozdělení s parametry n, pi , i = 1, 2, . . . , k. Střední hodnota je EXi = npi ,
i = 1, 2, . . . , k.
Prvky varianční matice jsou var Xi = npi (1 − pi ),
i = 1, 2, . . . , k,
cov(Xi , Xj ) = −npi pj , i 6= j.
2. Obecné dvourozměrné normální rozdělení Normální rozdělení může být i vícerozměrné, pro jednoduchost uvedeme pouze dvourozměrný případ.
126
CHAPTER 10. NÁHODNÝ VEKTOR 2 σ1 ρσ1 σ2 T N2 (µ1 , µ2 ) , je rozdělení náhodného vektoru (X, Y )T ρσ1 σ2 σ22 s hustotou f (x, y) =
2π
p
1 σ12 σ22 (1
× exp{− +
− ρ2 )
×
1 (x − µ1 )2 x − µ1 y − µ2 { + − 2ρ 2 2 2(1 − ρ ) σ1 ρ1 σ2
(y − µ2 )2 }}, σ22
(x, y) ∈ R2 ,
kde µi ∈ R, σi2 > 0, i = 1, 2, ρ ∈ (−1, 1) jsou parametry. Výraz v exponentu lze také psát jako
T 2 −1 1 x − µ1 x − µ1 σ1 ρσ1 σ2 . − ρσ1 σ2 σ22 y − µ2 2 y − µ2
0.15 2
0.10 0.05
1
0.00 -4
0 -2 0
-1 2 4
Figure 10.1: Graf N ((0, 0)T , 21 11 ).
hustoty
-2
dvourozměrného
normálního
rozdělení
10.4. NEZÁVISLÉ NÁHODNÉ VELIČINY
127
Marginální rozdělení X a Y jsou N (µ1 , σ12 ) a N (µ2 , σ22 ) a 2 σ1 ρσ1 σ2 ρσ1 σ2 σ22 je varianční matice vektoru (X, Y )T ; ρ je koeficient korelace corr(X, Y ). 1) 2) Normujeme-li X a Y , pak dvojice veličin W = (X−µ a Z = (Y −µ σ1 σ 2 1 ρ ). má normované dvourozměrné normální rozdělení N2 ((0, 0)T , ρ 1
10.4
Nezávislé náhodné veličiny
Závěr kapitoly věnujeme nezávislosti náhodných veličin X1 , . . . , Xn .
Definice 10.7 Náhodné veličiny X1 , X2 . . . , Xn jsou vzájemně nezávislé, jestliže P (∩rj=1 {ω : Xij < xij }) = Πrj=1 P ({ω : Xij < xij })
(10.7)
∀{i1 , i2 , . . . , ir } ⊂ {1, 2, . . . , n}, 1 ≤ r ≤ n, ∀x ∈ Rn . Poznámka 10.2 Podobně jako u náhodných jevů můžeme zde definovat nezávislost náhodných veličin X1 , X2 . . . , Xn po dvou. Definici nezávislosti po dvou bychom dostali z definice 10.7 pro r = 2.
Ověřovat nezávislost náhodných veličin podle výše uvedené definice by bylo dosti náročné, proto si uvedeme kritéria, podle nichž se ověřuje nezávislost náhodných veličin v praxi. Věta 10.3 Nechť náhodný vektor X = (X1 , X2 . . . , Xn )T má sdruženou distribuční funkci FX (x1 , x2 . . . , xn ). Nechť FXi (xi ) je marginální distribuční
128
CHAPTER 10. NÁHODNÝ VEKTOR
funkce náhodné veličiny Xi , i = 1, 2, . . . , n. Pak náhodné veličiny X1 , X2 . . . , Xn jsou nezávislé právě tehdy, když platí FX (x1 , x2 . . . , xn ) = FX1 (x1 ) · FX2 (x2 ) . . . FXn (xn )
(10.8)
∀(x1 , x2 . . . , xn ) ∈ Rn . Důkaz. Jsou-li X1 , X2 . . . , Xn nezávislé, pak podle definice 10.7 platí (10.7) pro všechny podmnožiny {i1 , i2 , . . . , ir } ⊂ {1, 2, . . . , n}, 1 ≤ r ≤ n, Rn , tudíž podle definice distribuční funkce platí i (10.8).
∀x ∈
Předpokládejme nyní, že platí (10.8). Vezměme si libovolnou podmnožinu {i1 , i2 , . . . , ir } množiny {1, 2, . . . , n}. Pak tvrzení věty plyne z definice marginální distribuční funkce.
Budeme-li uvažovat náhodný vektor X = (X1 , X2 . . . , Xn )T absolutně spojitého typu, pak nezávislost jeho složek budeme ověřovat podle následujícího kritéria. Věta 10.4 Nechť X = (X1 , X2 . . . , Xn )T je náhodný vektor absolutně spojitého typu. Náhodné veličiny X1 , X2 . . . , Xn jsou vzájemně nezávislé právě tehdy, platí-li
fX (x1 , x2 . . . , xn ) = fX1 (x1 ) · fX2 (x2 ) . . . fXn (xn )
(10.9)
∀(x1 , x2 . . . , xn ) ∈ Rn . Důkaz. Plyne z předchozí věty.
Pro ověření nezávislosti složek náhodného vektoru X diskrétního typu platí toto kritérium:
129
10.4. NEZÁVISLÉ NÁHODNÉ VELIČINY
Věta 10.5 Nechť X = (X1 , X2 . . . , Xn )T je náhodný vektor diskrétního typu. Náhodné veličiny X1 , X2 . . . , Xn jsou vzájemně nezávislé právě tehdy, když platí (i)
(i)
n P (X1 = x1 , . . . , Xn = x(i) n ) = Πj=1 P (Xj = xj ), (i)
(i)
(10.10)
(i)
kde x(i) = (x1 , x2 , . . . , xn ), i = 1, 2, . . . jsou všechny výsledky náhodného vektoru X = (X1 , X2 . . . , Xn )T . Důkaz. Plyne z věty 10.3.
Věta 10.6 Nechť X, Y jsou nezávislé náhodné veličiny s distribučními funkcemi FX , FY a Lebesque-Stieltjesovými měrami µFX , µFY . Nechť φ : R2 → R je reálná funkce, pak pro náhodnou veličinu Z = φ(X, Y ) platí Z Z Z Z EZ = ( φ(x, y)dµFY (y))dµFX (x) = ( φ(x, y)dFY (y))dFX (x), R
R
R
R
je-li E|Z| < ∞.
Důkaz. Z věty 10.3 plyne, že pro Lebesque-Stieltjesovy míry nezávislých náhodných veličin platí: µFX,Y = µFX · µFY . Odtud dostáváme EZ = =
R
R
R2
φ(x, y)dµFX,Y (x, y) =
R2
φ(x, y)dµFY (y)dµFX (x)
a podle Fubiniovy věty dostaneme tvrzení věty.
Důsledek 10.7 Distribuční funkce náhodné veličiny Z je Z ∞ Z ( dµFY (y))dµFX (x). G(z) = −∞
{y:φ(x,y)≤z}
130
CHAPTER 10. NÁHODNÝ VEKTOR
Důkaz. Nahradíme-li ve větě funkci φ(x, y) indikátorem I{(x, y) ∈ R2 ; φ(x, y) ≤ z), plyne tvrzení ihned.
Důsledek 10.8 Jsou-li X, Y nezávislé náhodné veličiny s konečnými středními hodnotami, pak a) EXY = (EX)(EY ). Jsou-li navíc EX 2 < ∞ a EY 2 < ∞, pak b) cov(X, Y ) = 0 c) var (aX + bY ) = a2 var X + b2 var Y pro libovolná a, b ∈ R. Důkaz. a) Uvažujeme-li |x|I[|x|≤n] |y|I[|y|≤n] , dostaneme pomocí Lévyho věty E|XY | = E|X|E|Y | < ∞. Můžeme tedy použít větu 10.3, ve které dosadíme za φ(x, y) = x · y. b) (X − EX), (Y − EY ) jsou také nezávislé náhodné veličiny. Tudíž podle a) dostáváme cov(X, Y ) = E(X − EX)(Y − EY ) = E(X − EX)E(Y − EY ) = 0.
10.4. NEZÁVISLÉ NÁHODNÉ VELIČINY
131
c) Podle b) dostáváme var (aX + bY ) = E(a(X − EX) + b(Y − EY ))2 = = a2 E(X − EX)2 + b2 E(Y − EY )+ +2abE(X − EX)(Y − EY ) = = a2 var X + b2 var Y + 0.
Platí-li cov(X, Y ) = 0, pak říkáme, že náhodné veličiny jsou nekorelované. Z nekorelovanosti ještě neplyne nezávislost! Výjimku tvoří normální rozdělení, pro nějž platí ekvivalence mezi nekorelovaností a nezávislostí. Příklad 10.1 Dvojice součástek má dobu života popsánu hustotou fX,Y (x, y) =
1 e−x− y2 2 0
pro x > 0, y > 0, jinak.
(i) Jaká je pravděpodobnost toho, že druhá součástka přežije první? (ii) Jaká je pravděpodobnost toho, že druhá součástka bude žít alespoň dvakrát déle, než první? (iii) Spočtěte marginální hustoty. (iv) Určete, zda jsou složky X a Y nezávislé. (v) Určete E(X, Y ) a variační matici
132
CHAPTER 10. NÁHODNÝ VEKTOR
Řešení: (i) Pravděpodobnost je dána integrálem R ∞ R ∞ 1 −x− y 2 dy dx = e x 2 0 =
R∞ 0
R∞ y 1 −x e ( x e− 2 dy)dx 2
=
R∞ 0
1 −x e 2
R∞
=
0
R∞
x
· 2e− 2 dx =
0
3
1 −x e [−2 2
y
· e− 2 ]∞ x dx =
3
e− 2 x dx =
2 . 3
= = [− 23 e− 2 x ]∞ 0
(ii) Pravděpodobnost je dána integrálem Z ∞Z ∞ 1 −x− y 1 2 dy dx = e , 2 2x 2 0 který vypočteme stejně jako v předchozím případě. (iii)
R∞
fX =
0
R∞
=
0
fX,Y (x, y)dy = 1 −x− y2 dy e 2
y
= 12 e−x · [−2e− 2 ]∞ 0 =
= e−x . R∞
fY (y) =
0
R∞
=
0
fX,Y (x, y)dx = 1 −x− y2 dx e 2
y
= 12 e− 2 · [−e−x ]∞ 0 =
1 − y2 e . 2
=
(iv) Složky jsou nezávislé právě tehdy, když fX,Y (x, y) = fX (x)·fY (y), ∀x, y, což podle (iii) platí. (v) EX =
Z
∞ 0
xfX (x)dx =
Z
∞ 0
x · e−x dx = 1
133
10.4. NEZÁVISLÉ NÁHODNÉ VELIČINY EY =
Z
∞
yfY (y)dy =
0 2
2
Z
∞ 0
1 y y · e− 2 dy = 2 2
var X = EX − (EX) , var Y = EY 2 − (EY )2 Z ∞ 2 x2 · e−x dx = 2 EX = EY 2 =
Z
0 ∞
0
1 y y 2 · e− 2 dy = 8 2
var X = 2 − 12 = 1 var Y = 8 − 22 = 4 EXY
cov(X, Y ) = EXY − (EX) · (EY ) R∞R∞ y = 0 0 x · y 12 e−x− 2 dx dy = =
=
Jinak:
R∞ 0
R∞ 0
y
y 12 e− 2 · 1 − y2 e dy 2
R∞ 0
·
x 21 e−x dx dy =
R∞ 0
x 12 e−x dx = (EY ) · (EX) ⇒
⇒ cov(X, Y ) = 0.
Z nezávislosti X, Y plyne okamžitě cov(X, Y ) = 0. Variační matice je tedy rovna 1 0 . var (X, Y ) = 0 4 Příklad 10.2 Určete kovarianci složek náhodného vektoru (X, Y )T , který má rovnoměrné rozdělení v trojúhelníku ohraničeném přímkami x = 0, y = 0, x + y = c, kde c > 0 je dána konstanta (uvnitř tohoto trojúhelníku je hustota rovna vhodné konstantě, jinak je hustota nulová). Řešení: Daný trojúhelník je pravoúhlý, rovnoramenný, jehož odvěsny mají délku c.
134
CHAPTER 10. NÁHODNÝ VEKTOR
Obsah trojúhelníka S = 21 c2 . fX,Y = c22 na daném trojúhelníku. Spočtěme nejprve marginální hustoty: Z c−x 2(c − x) 2 dy = , fX (x) = 2 c c2 0 Z c−y 2(c − y) 2 dx = , fY (y) = c2 c2 0 Vidíme, že X a Y nejsou nezávislé, protože
x ∈ (0, c) y ∈ (0, c)
2(c − x) 2(c − y) 2 · 6= 2 . 2 2 c c c Spočtěme tedy EX, EY a EXY . Rc dx = EX = 0 x · 2(c−x) c2 2 c3 [ c2 2
=
−
c3 ] 3
=
2 c2
· [ cx − 2
x3 c ] 3 0
=
c 3
c 3 R c R c−x 2 = 0 0 x · y c2 dy dx = EY = EX =
EXY
Rc
=
2 c2
=
1 c 2 x2 [ 2 c2
=
1 2 c. 12
·
0
2
x · [ y2 ]0c−x dx = −
2cx3 3
+
x4 c ] 4 0
1 c2
=
cov(X, Y ) = −
Rc 0
x(c − x)2 dx =
1 c4 [ c2 2
− 32 c4 +
c2 . 36
Spočtěme ještě korelační koeficient X, Y .
EX 2
cov(X, Y ) corr(X, Y ) = √ var X · var Y R c 2 2(c−x) 3 = 0 x · c2 dx = c22 [ cx3 − =
2 c4 [ c2 3
−
c4 ] 4
= 61 c2
x4 c ] 4 0
=
c4 ] 4
=
135
10.5. ÚLOHY 1 1 1 var X = EX 2 − (EX)2 = c2 · ( − ) = c2 = var Y. 6 9 18 1 2 c 1 =− corr(X, Y ) = − q 36 2 1 2 2 c) ( 18 Příklad 10.3 Rozdělení minima a maxima
Nechť Xi , 1 ≤ i ≤ n jsou nezávislé stejně rozdělené náhodné veličiny se spojitou distribuční funkcí F . Nalezněte distribuční funkci náhodné veličiny U = max1≤i≤n Xi a náhodné veličiny V = min1≤i≤n Xi . Řešení: Z nezávislosti X1 , . . . , Xn dostaneme FU (u) = P (U < u) = P (X1 < u, X2 < u, . . . , Xn < u) = = Πni=1 P (Xi < u) = (P (X1 < u))n = (F (u))n . FV (v) = P (V < v) = 1 − P (V ≥ v) = = 1 − P (X1 ≥ v, X2 ≥ v, . . . , Xn ≥ v) = 1 − Πni=1 P (Xi ≥ v) = = 1 − (P (X1 ≥ v))n = 1 − (1 − F (v))n .
10.5
Úlohy
1. Nechť je dána funkce p(x, y) =
1 (y 11
0
− x)
x = 1, 2, 3, y = x2 + 1 jinde
Dokažte, že daná funkce p(x, y) je rozdělení nějakého náhodného vektoru. Spočtěte střední hodnotu a varianční matici. 2. Určete konstantu c tak, aby funkce 2 2 c · x · y · e−x −y f (x, y) = 0
(0, ∞) × (0, ∞) jinde
136
CHAPTER 10. NÁHODNÝ VEKTOR byla hustotou nějakého náhodného vektoru (X, Y )T . (c = 4)
3. Nechť sdružená hustota náhodného vektoru (R, Φ)T je
g(r,ϕ) =
1 2πσ 2
r2
· e− 2σ2 · r · ϕ
0
r ∈ (0, ∞) ϕ ∈ (0, 2π) jinde
(a) Najděte marginální hustoty náhodných veličin R, Φ. (b) Zjistěte, zda náhodné veličiny R, Φ jsou nezávislé. 4. Je dána funkce f (x, y) =
c · (x2 + y) · ex 0
< 0, 1 > × < 0, 1 > jinde
(a) Najděte konstantu c tak, aby f (x, y) byla hustota nějakého náhod2 ) ného vektoru (X, Y )T . (c= (3e−5) (b) Vypočítejte distribuční funkci náhodného vektoru (X, Y )T . (c) Spočtěte střední hodnotu a varianční matici. 5. Házíme 10 krát po sobě hrací kostkou. Nechť náhodná veličina X znamená počet šestek, které padnou při 10 hodech a náhodná veličina Y znamená počet jedniček. Najděte rozdělení pravděpodobnosti náhodného vektoru (X, Y )T . Spočtěte střední hodnotu a varianční matici. 6. Nechť náhodný vektor (X, Y )T má hustotu
f (x, y) =
1 (b1 −a1 )(b2 −a2 )
0
a1 ≤ x ≤ b 1 a2 ≤ y ≤ b 2 jinde
(Náhodný vektor (X, Y )T má dvourozměrné rovnoměrné rozdělení.) Najděte distribuční funkci náhodného vektoru (X, Y )T . Spočtěte střední hodnotu a varianční matici.
137
10.5. ÚLOHY 7. Najděte konstantu c tak, aby funkce
f (x, y, z) =
( c·z 0
0≤x≤√ 2 0 ≤ y ≤ p4 − x2 0 ≤ z ≤ 4 − x2 − y 2 jinde
byla hustotou náhodného vektoru (X, Y, Z)T . (c= π4 ) 8. Náhodný vektor (X, Y, Z)T má sdruženou hustotu f (x, y, z) =
1 ( 8 (1 + x · y · z)
0
−1 ≤ x ≤ 1 −1 ≤ y ≤ 1 −1 ≤ z ≤ 1 jinde.
(a) Najděte marginální hustoty náhodných veličin X, Y, Z. (b) Najděte marginální hustoty náhodných vektorů (X, Y )T , (X, Z)T , (Y, Z)T . (c) Zjistěte, zda náhodné veličiny X, Y, Z jsou nezávislé po dvou a zda jsou vzájemně nezávislé. ( a) f1 (x) = f2 (y) = f3 (z) = 12 , b) f12 (x,y) = f13 (x,z) = f23 (y,z) = 41 , c) jsou nezávislé po dvou a nejsou vzájemně nezávislé) 9. n zaměstnanců jistého podniku obědvá v jedné ze tří restaurací, každý zaměstnanec volí restauraci náhodně, kapacity restaurací jsou n1 , n2 , a n3 , kde ni ≥ n, i = 1, 2, 3. Odvoďte rozdělení (X1 , X2 , X3 )T , kde Xi je počet zaměstnancům kteří obědvají v i-té restauraci. Odvoďte očekávaný počet neobsazených míst v jednotlivých restauracích. 10. Z urny obsahující 2 bílé koule a 2 černé koule vybíráme za sebou s vracením 2 koule. Definujeme náhodné veličiny X1 , X2 následovně:
X1 =
1 0
jestliže 1. tažená koule je bílá, jinak;
138
CHAPTER 10. NÁHODNÝ VEKTOR
X2 =
1
jestliže 2. tažená koule je bílá, jinak;
0
Určete distribuční funkci vektoru (X1 , X2 )T a zjistěte, zda jsou náhodné veličiny X1 a X2 nezávislé. 11. Nechť Xi , 1 ≤ i ≤ n jsou nezávislé náhodné veličiny, nabývající hodnot ±1, P (Xi = 1) = p, P (Xi = −1) = 1 − p. Najděte rozdělení náhodné P veličiny Sn = ni=1 Xi .
12. Nechť náhodné veličiny U, V mají diskrétní rozdělení určené následující tabulkou U
\V 1 2
1 2 0,1 0,2 0,2 0,1
3 0,3 0,1
Najděte marginální rozdělení každé z obou náhodných veličin, jejich střední hodnoty, rozptyly a kovarianci. 13. Nechť (X1 , . . . , Xn )T je náhodný výběr z rovnoměrného rozdělení na (0,1). Označme U = max Xi , 1≤i≤n
V = min Xi . 1≤i≤n
Stanovte distribuční funkce a hustoty náhodných veličin U a V . Určete EU, var U, EV, var V. 14. Náhodné veličiny X, Y jsou nezávislé a mají obě stejné exponenciální rozdělení f (x) =
λ exp{−λx} 0
x ≥ 0, x < 0.
10.5. ÚLOHY
139
Najděte distribuční funkci náhodné veličiny Z = max(X, Y ) a její střední hodnotu. Jsou náhodné veličiny max(X, Y ) a min(X, Y ) nezávislé?
Chapter 11 Funkce náhodných veličin Při řešení některých pravděpodobnostních úloh se setkáváme se situací, kdy známe rozdělení náhodné veličiny X a hledáme rozdělení náhodné veličiny Y , která je funkcí veličiny X, tj. Y = φ(X).
Věta 11.1 Nechť X je náhodná veličina s distribuční funkcí F a nechť φ : R → R. Označme Y = φ(X) a G její distribuční funkci. Potom Z G(y) = dF (x), ∀y ∈ R.
(11.1)
{x;φ(x)≤y}
Speciálně, je-li F diskrétní {xn , pn }, je G(y) =
X
pn ,
{xn ;φ(xn )≤y}
a je-li absolutně spojitá s hustotou f , je Z G(y) = f (x) dx, {x;φ(x)≤y}
140
∀y ∈ R,
∀y ∈ R.
(11.2)
(11.3)
141 Důkaz. Označme By = {ω; X(ω) ≤ y}; máme tyto rovnosti: G(y) = P (Y ≤ y) = P (φ(X) ≤ y) = P (X ∈ By ) = =
R
By
d µF =
R
{x;φ(x)≤y}
dF (x).
Lemma 11.2 Nechť X je absolutně spojitá náhodná veličina s distribuční funkcí F (x) a hustotou f (x). Nechť t je ryze monotónní funkce, která má derivaci všude. Položme Y = t(X). Označme t−1 inverzní funkci k t. Pak Y má hustotu g(y) = f (t−1 (y)) | t−1 (y)′ | . Důkaz. Označme G(y) distribuční funkci Y . Předpokládejme, že t je rostoucí. Pak platí G(y) = P (Y ≤ y) = P (t(X) ≤ y)) = P (X ≤ t−1 (y)) = F (t−1 (y)). Vidíme, že G je spojitá a má derivaci všude, až nanejvýš s výjimkou konečně mnoha bodů. Platí tedy −1
G′ (y) = f (t (y))(t−1 (y))′ = g(y), kde g je hustota veličiny Y . V případě, že t je klesající, je důkaz analogický.
Příklad 11.1 a) X je náhodná veličina s distribuční funkcí F , Y = a + bX, b 6= 0, G je distribuční funkce Y . Je-li b > 0, pak a + bX < Y je Y −a b
a z (11.1) plyne, že Z y−a dF (x) = F ( G(y) = ). b } {x:x< y−a b
ekvivalentní s X <
142
CHAPTER 11. FUNKCE NÁHODNÝCH VELIČIN Naopak je-li b < 0, pak a + bX < Y je ekvivalentní s X > dostáváme, že Z y−a − 0). G(y) = dF (x) = 1 − F ( b {x:x> y−a } b
Y −a b
a
Má-li F hustotu f, potom G má hustotu g, kterou najdeme derivováním předchozích rovnic. Dostaneme (pro b > 0 i b < 0) vztah g(y) =
1 y−a f( ). |b| b
b) Má-li X normované normální rozdělení a Y = µ + σX, pak z a) plyne, že Y má normální rozdělení s parametry µ a σ 2 . c) Má-li X normální rozdělení s parametry µ, σ 2 a je-li Y = a + bX, pak z a) plyne, že Y má opět normální rozdělení s parametry a + bµ a b2 σ 2 , neboť g(y) =
√ 1 2π|b|σ
=
√ 1 2π|b|σ
exp
exp
− −
y−a −µ b 2σ 2
2
(y−(a+bµ))2 2σ 2 b2
=
.
d) Je-li hustota f náhodné veličiny X sudá funkce, tj. je-li f(x) = f(-x) pro každé x, potom náhodné veličiny X a -X mají totéž rozdělení. Položme Y = -X, tj. a = 0 a b = -1, z (11.1) plyne, že g(y) = f (−y), tj. g(y) = f (y), jelikož je f sudá funkce. e) Je-li f hustota náhodné veličiny X sudá funkce, potom pro distribuční funkci F platí F (x) = 1 − F (−x) neboť F (−x) =
Z
−x −∞
f (t)dt =
Z
∞ x
∀x ∈ R, f (t)dt = 1 − F (x).
143
11.1. KONVOLUCE
f ) Nechť X má normované normální rozdělení. Nechť Y = X2 , potom Y má hustotu 0 pro y < 0 y g(y) = √ 1 e− 2 pro y ≥ 0. 2πy Jelikož dle (11.1) platí G(y) =
R
f (x)dx = {x:φ(x)
√1 2π
=
√2 2π
R
x2
{x:x2
R √y 0
e− 2 dx =
x2
e− 2 dx,
položme substituci x2 = t a dostáváme Z y t 1 1 G(y) = √ t− 2 e− 2 dt. 2π 0
Odtud je zřejmé, že hustota g(y) má výše uvedený tvar.
11.1
Konvoluce
Mějme dvě nezávislé náhodné veličiny X a Y s distribučními funkcemi F (x) a G(y). Zajímá nás rozdělení součtu Z = X +Y . Distribuční funkci náhodné veličiny Z označme H(z). Pak platí R∞ RR dF (x)dG(y) = −∞ F (z − y)dG(y) = H(z) = x+y≤z (11.4) R∞ = −∞ G(z − x)dF (x).
Rozdělení s distribuční funkcí H(z) se nazývá konvoluce rozdělení s distribučními funkcemi F (x) a G(y). H se nazývá konvoluce distribučních funkcí F a G. Operaci konvoluce budeme značit H = F ∗ G. Operace konvoluce je zjevně komutativní a asociativní, neboť pro nezávislé náhodné veličiny X1 , X2 , X3 platí X1 + X2 = X2 + X1
144
CHAPTER 11. FUNKCE NÁHODNÝCH VELIČIN
a X1 + (X2 + X3 ) = (X1 + X2 ) + X3 . Z toho plyne pro distribuční funkce F1 ∗ F2 = F2 ∗ F1 a F1 ∗ (F2 ∗ F3 ) = (F1 ∗ F2 ) ∗ F3 . Věta 11.3 Nechť náhodné veličiny X a Y jsou nezávislé a mají absolutně spojité distribuční funkce F(x) a G(y) s hustotami f(x) a g(y). Potom také H = F ∗G je absolutně spojitá a pro její hustotu h(z) (tj. pro hustotu náhodné veličiny Z = X + Y) platí h(z) =
Z
∞ −∞
f (x)g(z − x)dx =
Z
∞ −∞
f (z − x)g(y)dy.
(11.5)
Důkaz. Formule (11.4) je za našich předpokladů totožná s R∞ Rz H(z) = −∞ −∞ f (x − y)dx dG(y) = =
f (x − y)dG(y) dx. −∞
R∞
Rz
−∞
Odtud derivováním dostaneme h(z) =
Z
∞ −∞
f (z − y)dG(y)
a z toho plyne (11.5).
Navíc je vidět, že k absolutní spojitosti rozdělení náhodné veličiny Z = X+Y stačí, aby bylo absolutně spojité rozdělení jedné z náhodných veličin X a Y bez jakýchkoliv předpokladů o rozdělení druhé náhodné veličiny. Funkce h(z) definovaná vztahem (11.5) se nazývá konvoluce hustot f (x) a g(y) a budeme
145
11.1. KONVOLUCE
ji značit h = f ∗ g. Je to skutečně hustota, neboť z (11.5) plyne, že h(z) ≥ 0 a R∞ R∞ R∞ f (x − y)g(y)dydx = h(z)dz = −∞ −∞ −∞ =
=
R∞
−∞
R∞
−∞
R∞
−∞
f (x − y)dx g(y)dy =
1 · g(y)dy = 1.
Diskrétní analogií vztahu (11.5) je následující věta. Věta 11.4 Nechť F, G jsou diskrétní distribuční funkce se skoky v přirozených číslech o velikosti {pn }, {qn }, tj. X F (x) = pn ,
G(y) =
0≤n<x
X
qn .
0≤n
Nechť H = F ∗G. Potom H je diskrétní distribuční funkce se skoky v přirozených číslech a platí
H(z) =
X
hn , kde hn =
0≤n
X
pk qn−k .
k=0
Důkaz. Věta plyne přímo po aplikaci věty o úplné pravděpodobnosti.
Nyní si uveďme některé příklady konvoluce rozdělení. 1. Konvoluce rovnoměrných rozdělení Nechť f (x) = a g(y) =
1 b−a
1 d−c
0
0
pro a ≤ x ≤ b jinak pro c ≤ y ≤ d jinak.
146
CHAPTER 11. FUNKCE NÁHODNÝCH VELIČIN Předpokládejme, že d − c ≥ b − a. Pak pro konvoluci h(z) hustot náhodných veličin s hustotami f (x) a g(y) platí 0
h(z) =
(
pro z ≤ a + c nebo b + d ≤ z
z−(a+c) (b−a)(d−c)
pro a + c ≤ z ≤ b + c
1 d−c
pro b + c ≤ z ≤ a + d
(b+d)−z (b−a)(d−c)
pro a + d ≤ z ≤ b + d
Grafem je lichoběžník se základnou v ose x. Vidíme, že hustota h(z) je všude spojitá, ačkoliv f (x) a g(y) mají body nespojitosti (konvoluce ”vyhlazuje” nespojitosti). Ve speciálním případě, kdy obě náhodné veličiny X a Y mají stejné rozdělení (tj. a = c, b = d), má hustota h(x) tvar trojúhelníku; toto rozdělení se nazývá Simpsonovo rozdělení. 2. Konvoluce binomických rozdělení Nechť X1 , X2 jsou nezávislé náhodné veličiny. X1 má rozdělení Bi(n1 , p) a X2 má rozdělení Bi(n2 , p). Potom náhodná veličina Y = X1 + X2 má binomické rozdělení s parametry (n1 + n2 , p). 3. Konvoluce Poissonových rozdělení Nechť X1 má P o(λ1 ) a X2 má P o(λ2 ). Předpokládejme navíc, že X1 a X2 jsou nezávislé. Potom náhodná veličina Y = X1 +X2 má Poissonovo rozdělení s parametrem λ1 + λ2 . 4. Konvoluce normálních rozdělení Nechť X1 , X2 jsou nezávislé náhodné veličiny, X1 má N (µ1 , σ12 ) a X2 má N (µ2 , σ22 ). Potom Y = X1 + X2 má rozdělení N (µ1 + µ2 , σ12 + σ22 ). 5. Konvoluce exponencionálních rozdělení Jsou-li X1 , X2 nezávislé náhodné veličiny s týmž exponencionálním rozdělením s parametrem λ > 0, pak náhodná veličina Y = X1 + X2
147
11.1. KONVOLUCE má rozdělení s hustotou f (y; λ) =
n λ2 y exp{−yλ} y > 0,
0 y ≤ 0.
¯ Příklad 11.2 Rozdělení průměru X Uvažujme hypotetickou populaci lučních květin, o nichž víme, že výška květin se řídí normálním rozdělením N(20,25). Spočtěte pravděpodobnost, že průměrná výška spočtená z 20 náhodně vybraných květin se bude od 20 lišit o více než 3 cm.
Řešení: Máme X1 , . . . , X20 nezávislých stejně rozdělených náhodných veličin s rozdělením Xi ∼ N (20, 25). Konvoluce normálních rozdělení nám dá 20 X i=1
Xi ∼ N (20 · 20, 20 · 25).
¯= a po jednoduché lineární transformaci X
1 20
¯ ∼ N (20, 25 ). X 20
·
P20
i=1
Xi dostáváme, že
¯ < 17)+P (X ¯ > 23). StandardizujemeHledaná pravděpodobnost je tedy P (X ¯ na Y = N (0, 1) rozdělení, dostaneme li X ¯ ¯ X−20 X−20 17−20 23−20 P √5 < √5 + P √5 > √5 = 4
=P Y <
4
−3 √
5 4
4
+P Y >
√3
4
5 4
−3 3 = Φ √5 + 1 − Φ √5 4
= 0, 008. = 2 · 1 − 0, 996 = 2 · 1 − Φ √3 5 4
4
148
CHAPTER 11. FUNKCE NÁHODNÝCH VELIČIN
Příklad 11.3 Samička určitého hmyzu naklade r vajíček s pravděpodobností −λ r pr = e r!λ . Z každého vajíčka se vylíhne živý jedinec s pravděpodobností p, která je stejná pro všechna vajíčka. Osudy jednotlivých vajíček jsou nezávislé. Zajímá nás pravděpodobnost, s níž dá samička život právě k novým jedincům. Řešení: Nechť N ∼ P o(λ) je náhodná veličina udávající počet vajíček a X je náhodná
veličina udávající počet vylíhnutých vajíček. Víme, že za podmínky, že známe N , má X ∼ Bi(N, p). Tedy P (X = k) spočteme podle věty o úplné
pravděpodobnosti
P (X = k) =
∞ X
P (X = k|N = n)P (N = n) =
n=k
=
∞ X n
k
n=k
= e
−λ k
p ·
k
p (1 − p)
∞ X n=k
n−k
·e
−λ λ
n
n!
=
n! λn · (1 − p)n−k = k!(n − k)! n!
∞ e−λ pk · λk X (1 − p)n−k λn−k = · = k! (n − k)! n=k ∞ e−λ pk · λk X ((1 − p) · λ)n = · = k! n! n=0
=
(λp)k e−λ pk · λk (1−p)·λ ·e = e−λp · . k! k!
Neboli X ∼ P o(λp). Příklad 11.4 Spočítejte kovarianci náhodných veličin X a Y = X 2 , kde X má rovnoměrné rozdělení na intervalu [−1, 1]. Jsou tyto náhodné veličiny nezávislé?
149
11.1. KONVOLUCE Řešení: cov(X, Y ) = EXY − EX · EY = EX 3 − EX · EX 2 X ∼ U [−1, 1] ⇒ EX = 0 Z 1 1 3 x3 · dx = 0, EX = 2 −1
odtud dostáváme, že cov(X, Y ) = 0, ale náhodné veličiny X a Y = X 2 zjevně nejsou nezávislé. Příklad 11.5 Náhodná veličina Y je funkcí absolutně spojité náhodné veličiny X. Čemu se rovná hustota g(y), jestliže x2 1 f (x) = √ e− 2 2π
−∞<x<∞
a Y = X2 ? Řešení: t(x) = x2
pro − ∞ < x < ∞.
V tomto intervalu není t(x) monotónní. Distribuční funkce náhodné veličiny Y je obecně tvaru G(y) = P (Y ≤ y) = P (X 2 ≤ y) = P ( − = P (X ≤
√
√
y≤X≤
y) =
√ √ √ y) − P (X ≤ − y) = F ( y) − F (− y).
Odtud pro hustotu g(y) dostáváme g(y) = f ( =
√
√
1 √ 2 y
y) 2√1 y
√ − f (− y) −
h √ √ i f ( y) + f (− y) .
1 √ 2 y
=
150
CHAPTER 11. FUNKCE NÁHODNÝCH VELIČIN
Speciálně pro f (x) =
√1 2π
x2
e− 2 platí, že
g(y) =
=
√1 2π
·
1 √ 2 y
y
y
e− 2 + e− 2
y
√ 1 e− 2 2πy
=
pro y > 0 jinak.
0
Dostali jsme hustotu rozdělení χ2 o jednom stupni volnosti, která se používá v matematické statistice [5].
11.2
Úlohy
1. Náhodná veličina Y je funkcí absolutně spojité náhodné veličiny X. Čemu se rovná hustota pravděpodobnosti g(y), jestliže (a) Y = 8X 3 a f (x) =
n 2x 0
pro 0 < x < 1 jinak
f (x) =
n 1 0
pro 0 < x < 1 jinak
f (x) =
n
pro 0 < x < 3 jinak
f (x) =
n
(b) Y = −2 ln X a
(c) Y = X 3 a
(d) Y = X 2 a
(e) Y = eX a
x2 9
0
2xe−x 0
n 1 f (x) = 0
2
pro x > 0 jinak
pro 0 < x < 1 jinak
151
11.2. ÚLOHY (f) Y = |X| a f(x) je libovolné, −∞ < x < ∞ (g) Y = sin X a f (x) =
n
1 2π
pro − π < x < π jinak
0
(h) Y = |1 − X| a
n
f (x) =
1 2
0
pro 0 < x < 2 jinak
2. Najděte rozdělení náhodné veličiny Y , jestliže (a) Y = 2X + 1 a pn = (b) Y = X 3 pn =
n
n
1 3
0
n 1 2
0
pro n = 1, 2, 3 jinak pro n = 1, 2, 3 . . . jinak
(c) Náhodné veličiny X, Y jsou nezávislé a obě mají Poissonovo rozdělení, X s parametrem λ1 , Y s parametrem λ2 . Určete rozdělení Z1 = X + Y a Z2 = max(X, Y ). (d) X, Y jsou nezávislé náhodné veličiny, X má exponencionální rozdělení s parametrem λ > 0, Y má rovnoměrné rozdělení na (0, Θ), Θ > 0. i. Určete rozdělení X + Y . ii. Určete E(X + Y ). iii. Určete var (X + Y ). (e) Házíme třemi korunovými mincemi a čtyřmi pětikorunovými mincemi. Nechť X je celková hodnota těch korunových mincí, na nichž padl líc. Podobně nechť Y je celková hodnota těch pětikorunových mincí, na nichž padl líc. Zaveďme W = X + Y . Spočítejte kovarianci náhodných veličin X, W .
152
CHAPTER 11. FUNKCE NÁHODNÝCH VELIČIN (f) Nechť X má rovnoměrné rozdělení na intervalu (1, 2). Určete kovariaci náhodných veličin X, X1 . n X |X| ≤ A (g) Nechť X má rozdělení N (0, 1). Definujme Y = −X |X| ≥ A, kde A > 0. Odvoďte rozdělení náhodné veličiny Y a náhodného vektoru (X, Y )T .
3. Nechť náhodný vektor Y = (X1 , X2 )T má sdruženou hustotu (x2 +x2 ) 1 − 1 22 fY (x1 , x2 ) = · e 2σ . 2πσ 2
Stanovte hustotu náhodné veličiny Y = X1 + X2 .
Chapter 12 Zákon velkých čísel, centrální limitní věta Až dosud jsme se zabývali náhodnou veličinou s teoretickým rozdělením, které jsme popisovali teoretickými charakteristikami. Jestliže však opakujeme nezávisle nějaký pokus, můžeme z pozorovaných hodnot sestavit rozdělení relativních četností a informace o tomto rozdělení shrnout opět do charakteristik. Toto rozdělení, popř. jeho charakteristiky, nazveme - na rozdíl od předchozích - empirickým rozdělením, popř. empirickými charakteristikami. Např. střední hodnotu rozdělení často odhadujeme tak, že uskutečníme náhodný výběr a vypočteme z něj aritmetický průměr. Při dodržování jistých podmínek můžeme očekávat, že empirické rozdělení (popř. jeho charakteristiky) se bude blížit k teoretickému rozdělení (popř. teoretickým charakteristikám), a to tím více, čím větší bude rozsah realizovaných pokusů. Tak lze obecně vyjádřit tzv. zákon velkých čísel. Zde je však na místě poznamenat, že přibližování empirických hodnot k teoretickým hodnotám nemá charakter matematické konvergence, ale konvergence pravděpodobnostní. Pravděpodobnostní konvergencí rozumíme skutečnost, že při vzrůstajícím počtu pokusů se pravděpodobnost velkých odchylek em153
154
CHAPTER 12. ZÁKON VELKÝCH ČÍSEL, CLV
pirických hodnot od teoretických stále zmenšuje. Zavedeme pojem pravděpodobnostní konvergence obecně. Definice 12.1 Mějme posloupnost náhodných veličin X1 , X2 , X3 , . . . a náhodnou veličinu X. Nechť jsou všechny tyto veličiny definovány na témže pravděpodobnostním prostoru (Ω, A, P ).
Říkáme, že Xn konverguje k X skoro jistě, jestliže
P {ω : Xn (ω) →n→∞ X(ω)} = 1. Jestliže pro každé ε > 0 platí P {ω : |Xn (ω) − X(ω)| > ε} →n→∞ 0, pak říkáme, že Xn konverguje k X podle pravděpodobnosti. Pokud EX 2n < ∞ pro n = 1, 2, 3, . . . a jestliže E(X n − X)2 →n→∞ 0, pak říkáme, že Xn konverguje k X podle středu stupně 2. Následující věta ukazuje vztah mezi jednotlivými konvergencemi. Věta 12.1
i) Z konvergence skoro jistě plyne konvergence podle pravdě-
podobnosti. ii) Z konvergence podle středu stupně 2 plyne konvergence podle pravděpodobnosti. Tvrzení věty 12.1 nelze bez dodatečných předpokladů zesílit. Žádnou implikaci nelze obrátit.
155
12.1. ZÁKON VELKÝCH ČÍSEL
Některá tvrzení v této kapitole uvedeme bez důkazu. Důkazy lze nalézt například v [4]. Lemma 12.2 Pro libovolnou nezápornou veličinu X, která má střední hodnotu EX, platí: P (X ≥ ε) ≤ Důkaz.
R
P (X ≥ ε) =
1 ε
≤
x≥ε
R
E(X) . ε
dF X (x) ≤
R
x dF X (x) x≥ε ε
≤
xdF X (x) = 1ε EX.
Tato věta má význam i pro větší ε, nikoli jen pro velmi malé ε, jak jsme zvyklí z matematické analýzy.
12.1
Zákon velkých čísel
Věta 12.3 (slabý zákon velkých čísel) Nechť X1 , X2 , X3 , . . . jsou nezávislé náhodné veličiny se stejnými středními hodnotami µ a stejnými rozptyly σ 2 < ∞. Pak pro n→ ∞ platí 1 (X1 + X2 + . . . + Xn ) → µ n podle pravděpodobnosti. Důkaz. Označme Xn =
1 (X1 + X2 + . . . + Xn ). n
156
CHAPTER 12. ZÁKON VELKÝCH ČÍSEL, CLV
Vypočteme střední hodnotu a rozptyl veličiny X n . h i EX n = E n1 (X1 + X2 + . . . + Xn ) = 1 n
=
1 n
i EX 1 + EX 2 + . . . + EX n =
nµ=µ h i = var n1 (X1 + X2 + . . . + Xn ) = =
var X n
h
=
1 n2
=
1 n2
h
i var X 1 + var X 2 + . . . + var X n =
n σ2 =
σ2 . n
Nyní využijeme Čebyševovy nerovnosti pro veličinu X n a dostáváme, že pro každé ε > 0 platí P (|X n − µ| ≥ ε) ≤ Odtud pro n → ∞ máme
σ2 . n ε2
σ2 → 0, takže také n ε2 P (|X n − µ| ≥ ε) → 0.
Tato verze zákona velkých čísel patří mezi historicky nejstarší. Tvrzení věty 12.3 se dá dále zesílit. Jeden z výsledků je uveden v následující větě. Další zobecnění například pro náhodné vektory s různými středními hodnostami můžeme nalézt v [4]. Věta 12.4 (silný zákon velkých čísel) Nechť {Xn }∞ n=1 je posloupnost nezávislých stejně rozdělených náhodných veličin
se střední hodnotou EX1 = µ, a E|X1 | < ∞. Pak ¯n = µ lim X
n→∞
v pravděpodobnosti a skoro jistě.
12.2. CENTRÁLNÍ LIMITNÍ VĚTA
12.2
157
Centrální limitní věta
Podstatou centrální limitní věty (CLV) je tvrzení, že náhodná veličina X, která vznikla jako součet velkého počtu vzájemně nezávislých náhodných veličin X1 , X2 , . . . Xn , má za velmi obecných podmínek přibližně normální rozdělení. Budeme říkat, že náhodná veličina X, jejímž limitním zákonem je rozdělení normální, má tzv. asymptoticky normální rozdělení. Nejjednodušší případ centrální limitní věty je věta Moivreova-Laplaceova. Náhodnou veličinou X je součet n vzájemně nezávislých náhodných veličin, z nichž každá má alternativní rozdělení s parametrem p. Pak víme, že veličina X má rozdělení Bi(n, p) se střední hodnotou EX = np a rozptylem var X = np(1 − p). Moivreova-Laplaceova věta tvrdí, že pro normovanou náhodnou veličinu
platí limitní vztah
X − np U=p np(1 − p)
lim P (U ≤ u) = Φ(u) pro − ∞ < u < ∞,
n→∞
kde Φ(u) je distribuční funkce rozdělení N (0, 1). Tedy věta MoivreovaLaplaceova říká, že při dostatečně velkém počtu nezávislých pokusů konverguje binomické rozdělení k normálnímu. Zesílením této věty je věta LévyLindebergova, která vyjadřuje konvergenci rozdělení sledované náhodné veličiny k normálnímu rozdělení za obecnějších podmínek. Náhodnou veličinou X je v tomto případě součet n nezávislých náhodných veličin X1 , X2 , . . . Xn , které jsou stejně rozdělené s konečnou střední hodnotou EXi = µ a konečným rozptylem var Xi = σ 2 pro i = 1, 2, . . . , n. Pak dle Lévy-Lindebergovy věty platí pro normovanou náhodnou veličinu U X − nµ U= √ n σ2
158
CHAPTER 12. ZÁKON VELKÝCH ČÍSEL, CLV
limitní vztah lim P (U ≤ u) = Φ(u) pro − ∞ < u < ∞.
n→∞
Velmi obecně vyjádřil centrální limitní větu A. M. Ljapunov. Dokázal, že rozdělení součtu nezávislých náhodných veličin Xi , i = 1, 2, . . . , n konverguje k normálnímu rozdělení i tehdy, nejsou-li veličiny Xi stejně rozdělené. Tato věta se nazývá Ljapunovova. Důkazy centrálních limitních vět jsou poměrně obtížné, a proto je nebudeme uvádět. Čtenář je nalezne např. v [4]. Zformujeme nyní výše diskutované věty do exaktních matematických tvrzení. Věta 12.5 (Lévy-Lindebergova) Nechť X1 , X2 , . . . jsou nezávislé stejně rozdělené náhodné veličiny se střední hodnotou µ a konečným rozptylem σ 2 . Označme Pn Xk − nµ Zn = k=1√ n = 1, 2, . . . nσ 2 a označme Fn (x) distribuční funkci Zn . Potom limn→∞ Fn (x) = Φ(x), −∞ <
x < ∞, kde Φ(x) je distribuční funkce N (0, 1).
Věta 12.6 (Moivreova-Laplaceova) Nechť pro každé n ≥ 1 je Yn náhodná veličina s rozdělením Bi(n, p) (0 < p < 1). Položme
Yn − np Zn = p np(1 − p)
a označme Fn (x) distribuční funkci náhodné veličiny Zn . Potom lim Fn (x) = Φ(x),
n→∞
−∞ < x < ∞.
Důkaz. Vyjdeme z věty 12.5. Za Xn položíme veličiny s alternativním rozdělením s parametrem p. Pak Yn má binomické rozdělení s parametry
159
12.2. CENTRÁLNÍ LIMITNÍ VĚTA (n, p) a dle věty 12.5 tvrzení platí.
Tvrzení limitních vět lze ještě zesílit. Analogická tvrzení platí i pro vícerozměrný případ nebo v obecnějších, než je n-rozměrný Eukleidův prostor. Také podmínku nezávislosti veličin X1 , X2 , . . . lze oslabit. Příklad 12.1 Mějme náhodnou veličinu X, pro kterou platí EX = 3, EX 2 = 13. Odhadněte pravděpodobnost, že veličina X nabude hodnoty z intervalu (-2,8). Řešení: Střední hodnota EX = 3. Určíme rozptyl veličiny X. var X = EX 2 − (EX)2 = 13 − 32 = 4. Hledanou pravděpodobnost odhadneme pomocí Čebyševovy nerovnosti: P (−2 < X < 8) = P (|X − EX| < 5) ≥ 1 −
4 . = 0, 84. 25
Příklad 12.2 Jaká je pravděpodobnost, že ze 120 hodů kostkou padne alespoň 14 šestek? Řešení: Označme Xi ∼ A( 61 ) náhodnou veličinu, která představuje to, zda nám padne 6 či nikoli v i-tém hodu kostkou. Pro Xi platí, že EXi = 16 , σ 2 = je třeba vypočíst 120 X P( Xi ≥ 14). i=1
Spočtěme tento příklad nejprve přímo. Náhodná veličina X = má binomické rozdělení Bi(120,
1 ). 6
5 . 36
Tudíž
P120
i=1
Xi
Pomocí definice binomického rozdělení
160
CHAPTER 12. ZÁKON VELKÝCH ČÍSEL, CLV
spočteme, že 13 X 120 1 k 5 ( ) ( )(120 − k) = 0, 95. P (X ≥ 14) = 1 − pk = 1 − k 6 6 k=0 k=0 13 X
Nyní spočtěme tento příklad pomocí aproximace CLV. Použití CLV spočívá v úpravě výrazu do podoby, ve které se nachází normované normální rozdělení. Můžeme tedy psát, že X P120 120 14 − np i=1 Xi − np √ P Xi ≥ 14 = P ≥ √ . 2 2 nσ nσ i=1 P120
X −np
√ i Výraz U = i=1 má podle CLV asymptoticky normované normální nσ 2 rozdělení, můžeme tedy psát, že X 120 14 − 120 6 P Xi ≥ 14 = P U ≥ q . 5 120 · i=1 36
Podle definice distribuční funkce normovaného normálního rozdělení máme X 120 P Xi ≥ 14 = 1 − P (U < −1, 47) = 1 − Φ(−1, 47). i=1
V tabulkách nebo ve statistickém softwaru najdeme hodnotu distribuční
funkce Φ(−1, 47) = 0, 07. Hledaná pravděpodobnost je podle aproximace CLV rovna 0,93. Příklad 12.3 Kolikrát musíme hodit kostkou, aby pravděpodobnost, že padne alespoň 10 šestek, byla větší nebo rovna 0,95. Řešení: Obdobně jako v minulém příkladě označme Xi ∼ A(1/6) náhodnou veličinu,
která představuje to, zda nám padne 6 či nikoli v i-tém hodu kostkou. Pro Xi platí, že EXi = 1/6, σ 2 = 5/36. Problém můžeme přepsat na nerovnici ! n X P Xi ≥ 10 ≥ 0, 95, i=1
161
12.2. CENTRÁLNÍ LIMITNÍ VĚTA
kde neznámá je n - počet hodů kostkou. Použití CLV spočívá v úpravě nerovnice do podoby, ve které se nachází výraz asymptoticky se blížící normálnímu rozdělení. P Výraz U =
Pn
! Pn X − n/6 10 − n/6 i i=1 p ≥ 0, 95. ≥ p 5n/36 5n/36
√ Xi −n/6 má podle CLV asymptoticky normální rozdělení.
i=1
5n/36
P
10 − n/6 U≥ p 5n/36
!
= 0, 95
Tímto předpisem je ovšem definována kritická hodnota normálního rozdělení u(0, 05) = −1, 64 (viz odstavec 2.5). Tedy 10 − n/6 p = −1, 64 5n/36
Tuto kvadratickou rovnici snadno vyřešíme a vyjde nám n = 96. Neboli musíme hodit nejméně 96-krát kostkou, abychom měli 95% pravděpodobnost, že padne alespoň deset šestek. Příklad 12.4 Pan prezident pravidelně jezdí do zaměstnání i zpět tramvají. Je známo, že doba čekání na příjezd tramvaje se pohybuje v mezích 0 až 3 minuty. Jaká je pravděpodobnost, že celková doba čekání pana prezidenta během 23 pracovních dnů bude kratší než 80 minut? Řešení: Doba čekání na příjezd tramvaje, tj. náhodná veličina Xi , má rovnoměrné rozdělení s hustotou pravděpodobnosti f (xi ) =
1 3
pro 0 < xi < 3,
0
jinak.
162
CHAPTER 12. ZÁKON VELKÝCH ČÍSEL, CLV
Celková doba čekání na cestu do zaměstnání a zpět během 23 dnů je náhodná veličina 46 X X= Xi . i=1
Střední hodnota a rozptyl veličiny Xi pro i = 1, 2, . . . , 46 jsou 3−0 2
EX i =
=
3 2
3 . 4
var X i =
Jelikož jsou splněny podmínky Lévy-Lindebergovy věty, můžeme hledanou pravděpodobnost určit jako P (X < 80) = P
P
46 i=1 √
Xi −46·EXi 46·var Xi
= P (U <
80−69 √ ) 34,5
<
80−46·EXi √ 46·var Xi
=
= P (U < 1, 87) =
= Φ(1, 87) = 0, 96926. Příklad 12.5 Podle úmrtnostních tabulek je pravděpodobnost úmrtí 32-leté ženy rovna 0,001819. V případě úmrtí vyplatí pojišťovna rodině 1 milión korun. Pojišťovna pojišťuje 5000 32-letých žen. Jakou sazbu za pojištění má pojišťovna nastavit, aby pravděpodobnost, že pojišťovna vydělá alespoň 2 milióny korun, byla rovna 0,95. Řešení: Označme x sazbu za pojištění. Počet žen, které zemřou, se řídí binomickým rozdělením, tedy Y ∼ Bi(n, p), kde n = 5000 a p = 0, 001819. Ze zadání
příkladu můžeme stanovit rovnici
P (x · 5000 − 1000000 · Y > 2000000) = 0, 95 P (Y <
5000x − 2000000 ) = 0, 95. 1000000
12.2. CENTRÁLNÍ LIMITNÍ VĚTA
163
Nyní nerovnost upravíme tak, abychom mohli použít Moivrovu-Laplacovu CLV. ! 1 x − 2 − 5000p Y − 5000p p P p < 200 = 0, 95 5000p(1 − p) 5000p(1 − p) P (U <
1 x 200
− 11, 095 ) = 0, 95 3, 013
1
x − 11, 095 ) = 0, 95 3, 013 Z tabulek pro hodnoty distribuční funkce N (0, 1) zjistíme, že Φ(1, 64) = 0, 95, a tedy 1 x − 11, 095 200 = 1, 64 3, 013 x = 3207, 28. Φ( 200
Poznámka 12.1 Jak rychle se blíží rozdělení součtů nezávislých náhodných veličin k normálnímu rozdělení? Touto otázkou se nebudeme teoreticky zabývat, uvedeme jen numerické srovnání pro jeden speciální případ: Nechť Xk , 1 ≤ k ≤ 12, jsou ”náhodná čísla”, tedy nezávislé náhodné veličiny P12 s rovnoměrným rozdělením na [0, 1]. Označme Y12 = k=1 Xk − 6 (Y12 má nulovou střední hodnotu a jednotkový rozptyl). V tabulce 12.1 značí F12
distribuční funkci Y12 a Φ distribuční funkci N (0, 1); vzhledem k symetrii rozdělení stačí omezit se na nezáporné hodnoty argumetnu. x Φ(x) F12 (x)
0 0,5 0,5
0,5 1,00 1,5 2,00 2,5 3,00 0,6915 0,8413 0,9331 0,9772 0,9937 0,9986 0,6894 0,8393 0,9326 0,9777 0,9944 0,9990
Table 12.1: Aproximace distribuční funkce Y12 distribuční funkcí N (0, 1). Shoda je překvapivě dobrá, uvážíme-li malý počet sčítanců a značně odlišný tvar rovnoměrného a normálního rozdělení. Tak dobrou aproximaci však nelze vždy očekávat. Zhruba platí, že konvergence je rychlejší pro symetrická (kolem střední hodnoty) rozdělení, pomalejší pro asymetrická. Zmiňme
164
CHAPTER 12. ZÁKON VELKÝCH ČÍSEL, CLV
se ještě o pravidlu užívaném v praxi, že totiž binomické rozdělení lze aproximovat normálním, je-li np(1 − p) ≥ 9.
12.3
Úlohy
* 1. Nechť posloupnost X1 , X2 , . . . konverguje podle pravděpodobnosti. Dokažte, že pak existuje taková vybraná podposloupnost, která konverguje skoro jistě. * 2. Najděte posloupnost {Xn } náhodných veličin, která konverguje skoro jistě a nekonverguje podle středu stupně 2 a naopak. * 3. Ukažte na příkladě, že z konvergence podle pravděpodobnosti neplyne konvergence podle středu stupně 2, ani konvergence skoro jistě. 4. Zásilka obsahuje 3000 výrobků určitého typu. Je známo, že pravděpodobnost zhotovení vadného výrobku tohoto typu je 0,04. (a) Odhadněte pravděpodobnost, že absolutní odchylka podílu vadných výrobků v zásilce a pravděpodobnost vyrobení vadného výrobku bude menší než 0,01. (b) Jak se změní výsledek, jestliže pravděpodobnost vyrobení vadného výrobku bude 0,004 a jestliže zásilka bude obsahovat 30000 výrobků? ( a) 0,872, b) 0,9986) 5. Během zkoušky spolehlivosti se výrobek porouchá s pravděpodobností p = 0, 05. Jaká je pravděpodobnost toho, že při zkoušení 100 výrobků se porouchá (a) alespoň 7 výrobků,
165
12.3. ÚLOHY (b) méně než 5 výrobků.
6. Pravděpodobnost výskytu jevu při jednom pokusu je 0,3. S jakou pravděpodobností lze tvrdit, že relativní četnost výskytu tohoto jevu ve 100 pokusech bude v mezích od 0,2 do 0,4? (0,97) 7. Dlouhodobým pozorováním bylo zjištěno, že doba potřebná k objevení a odstranění poruchy stroje - náhodná veličina X - má střední hod√ notu EX = 40 minut a směrodatnou odchylku var X = σ = 30 minut. Jakou dobu si vyžádá objevení a odstranění 100 poruch, jestliže žádáme, aby tato hodnota nebyla s pravděpodobností 0,95 překročena? (4493.5 minut) 8. Nechť {Xk }∞ k=1 jsou nezávislé náhodné veličiny a nechť Xk má hustotu 1 1 fk (x) = k −λ exp{−k −λ |x|} x ∈ R, k = 1, 2, . . . , λ < . 2 2 P Dokažte, že n1 ni=1 Xi konverguje k nule skoro jistě.
9. Hodíme 100 krát hrací kostkou; označme S100 součet dosažených ok. Určete přibližnou hodnotu pravděpodobnosti P (320 ≤ S100 ≤ 380). Použijte CLV. 10. Nechť vn značí poměrnou četnost líců v n hodech mincí. Kolik musíme provést hodů, aby pravděpodobnost jevu [vn − 12 ] ≤ 0, 05 byla nejméně 0,95?
(a) řešte pomocí Čebyševovy nerovnosti; (b) řešte pomocí centrální limitní věty. 11. Pojišťovna pojišťuje 1000 lidí stejného věku. Pravděpodobnost úmrtí během roku je pro každého z nich 0,01. Každý pojištěnec zaplatí 1200
166
CHAPTER 12. ZÁKON VELKÝCH ČÍSEL, CLV Kč. V případě úmrtí vyplatí rodině 80000 Kč. Jaká je pravděpodobnost p, že pojišťovna utrpí ztrátu? (Použijte CLV)
Part II Matematická statistika
167
Chapter 13 Zpracování statistického materiálu Dříve než se začneme zaobírat základními statistickými metodami, definujeme základní pojmy z oblasti zpracování statistického materiálu.
Definice 13.1 Definujme následující pojmy: 1. Statistickým souborem nazýváme množinu předmětů roztříděných z hlediska jejich určité společné vlastnosti zvané znak. 2. Předměty patřící do statistického souboru (tzv. statistické jednotky) nazýváme prvky souboru. 3. Znak, jehož různé hodnoty, popř. obměny nacházíme u všech prvků daného souboru a jenž je zvolen za podklad pro třídění těchto prvků, budeme nazývat argumentem souboru. 4. Celkový počet všech prvků uvažovaného souboru nazýváme rozsahem souboru. 168
169 5. Součet všech hodnot argumentu (znaku) statistického souboru nazýváme úhrnem argumentu (úhrnem znaku).
Příklad 13.1 Skupina n osob roztříděna z hlediska jejich věku tvoří statistický soubor rozsahu n. Jeho argument je věk osob. Táž skupina n osob tvoří jiný statistický soubor, zvolíme-li za argument výšku osoby (měřena např. v cm).
Definice 13.2 Nechť a je minimální hodnota argumentu S, b je maximální hodnota argumentu X daného statistického souboru, tj. xmin = a, xmax = b. 1. Interval < a, b > nazýváme variačním oborem (nebo též oborem variability, intervalem variability) argumentu X daného statistického souboru. 2. Rozdíl x = b − a nazýváme variačním rozpětím argumentu X daného statistického souboru. 3. Variační obor < a, b > rozkládáme na menší části nazývané třídy (popř. třídní intervaly) argumentu X. 4. Šířkou (délkou) h třídy příslušného třídního intervalu ha, bi nazýváme číslo h = bk − ak . Číslo 21 (ak + bk ) nazýváme středem třídy, číslo ak dolní hranicí uvažované třídy, číslo bk horní hranicí uvažované třídy.
5. Hodnotu xk argumentu X, která je zpravidla dána středem k-té třídy a zastupuje všechny hodnoty patřící do této třídy, nazýváme třídním znakem k-té třídy.
Při rozkladu variačního oboru ha, bi na třídy budeme dbát zpravidla těchto zásad:
170
CHAPTER 13. ZPRACOVÁNÍ STATISTICKÉHO MATERIÁLU
1. Obsahuje-li soubor jen malý počet hodnot argumentu X, volíme každou hodnotu xk tohoto argumentu za samostatnou třídu. Pokud statistický soubor má značně velký počet různých hodnot xk argumentu X (popř. je jich nekonečně mnoho), sdružujeme hodnoty argumentu v třídy. Přitom šířky tříd volíme obvykle stejně velké. Pro výpočet 8 šířky h lze použít přibližného vzorce h ≈ 100 (b − a).
Při volbě počtu třídních intervalů se doporučuje, aby jich bylo 8 až 20. Záleží na rozsahu souboru a účelu statistické tabulky. Počet k třídních √ intervalů volíme např. k ≈ 3, 3 log(n) nebo k ≈ n, kde n je rozsah souboru. Dvě pozorování považujeme za ekvivalentní, jakmile padnou do téhož třídního intervalu.
2. Jestliže na hranici dvou sousedních tříd padne více hodnot argumentu, zařazujeme polovinu z nich do nižší třídy a druhou polovinu do třídy vyšší. Zbyla-li ještě jedna hodnota (toto odpovídá lichému počtu hodnot ležících na hranic), rozhodneme o její příslušnosti k dané třídě losem. Není vhodné zařazovat stereotypně takové hraniční hodnoty vždy do vyšší, popř. nižší třídy, neboť by se tím mohl zkreslit celkový obraz rozložení uvažovaného souboru ve prospěch vyšších, popř. nižších tříd. 3. Vyskytuje-li se v hraničních třídách velmi málo hodnot argumentu X, je vhodné tyto třídy spojit se sousední třídou v třídu jedinou.
13.1
Rozložení četností a jejich znázornění
U větších statistických souborů je zřejmé, že bude docházet k opakovanému výskytu stejných hodnot statistického znaku. Z tohoto důvodu definujeme pojem četnost.
13.1. ROZLOŽENÍ ČETNOSTÍ A JEJICH ZNÁZORNĚNÍ
171
Definice 13.3 Druhy četností: 1. Počet prvků souboru patřících do k-té třídy nazýváme absolutní četností argumentu v k-té třídě nebo absolutní třídní četností (stručně četností) k-té třídy a značíme jej fk . 2. Je-li fk absolutní třídní četnost k-té třídy a n rozsah uvažovaného souboru, potom a)
fk n
nazýváme relativní četností k-té třídy,
b) 100 fnk nazýváme procentní relativní četností k-té třídy. 3. Kumulativní (součtovou) absolutní četností Fk k-té třídy nazýváme součet všech četností fj až do k-té třídy včetně, tj. Fk =
k X
fj .
j=1
4. Kumulativní relativní četností Rk k-té třídy nazýváme součet Rk =
k X fj j=1
n
=
Fk . n
Poznámka 13.1 Pro četnosti platí některé vlastnosti (uvažujeme statistický soubor rozsahu n, který je rozdělen do r tříd ) 1.
r X
fk = n
k=1
2. Fr = n
172
CHAPTER 13. ZPRACOVÁNÍ STATISTICKÉHO MATERIÁLU
3.
r X fk k=1
n
=1
Definice 13.4 Tabulkou rozložení četností daného statistického souboru nazýváme tabulku, v níž jsou uvedeny hodnoty argumentu (popř. třídní znaky) s příslušnými absolutními, popř. relativními četnostmi. Příklad 13.2 Na telefonní stanici zaznamenávali počet telefonních výzev za dobu 1 min. Během jedné hodiny bylo v určité denní době dosaženo těchto výsledků (v každém řádku jsou hodnoty získané během 10 minut): 3,2,2,3,1,1,0,4,2,1 1,4,0,1,2,3,1,2,5,2 3,0,2,4,1,2,3,0,1,2 1,3,1,2,0,7,3,2,1,1 4,0,0,1,4,2,3,2,1,3 2,2,3,1,4,0,2,1,1,5. Sestavte tabulku rozložení daného statistického souboru.
Argument statistického souboru představuje náhodnou veličinu X. Ze zákona velkých čísel (podrobněji viz Věta 14.2) plyne, že relativní četnost fnk udává (přibližně) pravděpodobnost, že X padne do k-té třídy, takže platí pk = P (ak ≤ X ≤ bk ) ≈ fnk , přičemž interval hak , bk i je k-tou třídou. Definice 13.5 Typy znázornění absolutních či relativních četností: 1. Histogram rozložení absolutních (relativních) četností sestavíme tak, že na osu x vyneseme středy jednotlivých tříd a nad každou úsečkou zobrazující určitou třídu (šířky h) sestrojíme obdélník s výškou rovnou
13.1. ROZLOŽENÍ ČETNOSTÍ A JEJICH ZNÁZORNĚNÍ
173
Počet telefonních výzev za 1 min Absolutní četnost Relativní četnost 0 8 0.133 1 17 0.283 2 16 0.266 3 10 0.166 4 6 0,1 5 2 0,033 7 1 0,016 Celkem 60 1 Table 13.1: Tabulka rozložení četností příslušné absolutní četnosti fk , popř. relativní četnosti fnk . Horní obraz pravoúhelníka představuje histogram rozložení četností. Histogram relativních četností aproximuje hustotu rozdělení spojité náhodné veličiny X. 2. Úsečkový diagram(nebo graf ) rozložení absolutních (relativních) četností dostaneme, jestliže na ose x zobrazíme středy jednotlivých tříd a v každém z nich sestrojíme ve směru osy y úsečku o délce rovné příslušné absolutní četnosti fk , popř. relativní četnosti
fk . n
3. Polygon rozložení četností (spojnicový diagram) dostaneme, jestliže koncové body úsečkového diagramu rozložení četnosti spojíme úsečkami a vytvoříme tak lomenou čáru, která pak představuje hledaný polygon neboli spojnicový diagram. 4. Graf, polygon nebo histogram kumulativních četností dostaneme analogicky jako v bodech 1,2 a 3. 5. Ogivní křivku (stručně ogivu) dostaneme, sestrojíme-li polygon kumulativních relativních četností. Ogiva aproximuje graf distribuční funkce uvažované náhodné veličiny X.
174
CHAPTER 13. ZPRACOVÁNÍ STATISTICKÉHO MATERIÁLU 1
0.25 0.8 0.2 0.6 0.15 0.4
0.1
0.2
0.05
4
2
6
8
1
2
3
4
5
6
7
Figure 13.1: Histogram a ogiva dat z příkladu 13.2
13.2
Charakteristiky polohy
Pravděpodobnostní chování náhodné veličiny je jednoznačně určeno distribuční funkcí. Při řešení pravděpodobnostních úloh je mnohdy výhodné shrnout informace o rozdělení náhodné veličiny do několika číselných charakteristik, které popisují základní vlastnosti tohoto rozdělení. Mezi základní charakteristiky patří charakteristika polohy (střední hodnota) a charakteristika variability (rozptyl). Charakteristiky polohy neboli střední hodnoty počítáme nejčastěji pomocí aritmetického, popř. harmonického, popř. geometrického průměru nebo mediánu a modusu. Definice 13.6 Nechť je dán statistický soubor, jehož argument X nabývá hodnot x1 , x2 , ..., xn , které jsou popř. roztříděny do r tříd, přičemž fk značí absolutní četnost k-té třídy. ¯ je definován vztahy 1. Aritmetický průměr X n
r
X 1X ¯ = 1 X xk = f i xi . n k=1 n i=1
(13.1)
175
13.2. CHARAKTERISTIKY POLOHY ¯ g je definován vztahem 2. Geometrický průměr X n ¯g = √ X x1 · x2 · ... · xn
(13.2)
¯ h je definován vztahy 3. Harmonický průměr X n
r
X 1 1 X fi ¯ h = 1 , kde A = 1 = . X A n k=1 xk n i=1 xi
(13.3)
Ve vztazích 13.1, 13.3 jsou uvedeny dva tvary. První tvar odpovídá souboru neroztříděnému a druhý tvar roztříděnému. Geometrický průměr nelze použít, pokud argument X nabývá nulové hodnoty, popř. hodnoty záporné. Harmonický průměr lze použít tehdy, má-li smysl součet reciprokých hodnot.
Věta 13.1 Pro libovolný statistický soubor X platí: ¯h ≤ X ¯ g ≤ X. ¯ X Nechť je dán statistický soubor, jehož argument X nabývá hodnot x1 , x2 , ..., xn . Setřídíme-li hodnoty podle velikosti, dostaneme tzv. setříděný statistický soubor X(1) , X(2) , . . . , X(n) , kde X(1) označuje nejmenší hodnotu, X(2) označuje druhou nejmenší hodnotu, . . .. Obecně X(i) označuje i-tou pořadovou hodnotu. Definice 13.7 Medián je určen dvěma způsoby, v závislosti na počtu prvků statistického souboru. V případě lichého počtu hodnot vezmeme za medián x˜ prostřední hodnotu x˜ = X([ n ]+1) . 2
176
CHAPTER 13. ZPRACOVÁNÍ STATISTICKÉHO MATERIÁLU
Pokud X má sudý počet hodnot, vezmeme za medián x˜ aritmetický průměr prostředních dvou hodnot x˜ =
X([ n ]) + X([ n ]+1) 2
2
2
.
Medián je speciálním případem výběrového kvantilu. Výběrovým kvantilem nazýváme hodnotu zvolenou tak, že pozorování, která jsou menší než tato hodnota, tvoří předepsaný díl výběru (např. 10% výběrový kvantil označuje hodnotu, která je větší než 10% hodnot statistického souboru a menší než 90% hodnot statistického souboru). Rozeznáváme tři speciální případy výběrového kvantilu: 25% výběrový kvantil se nazývá dolní výběrový kvartil, 50% výběrový kvantil je medián a 75% výběrový kvantil se nazývá horní výběrový kvartil. Definice 13.8 Nechť argument statistického souboru může nabývat pouze konečně mnoha hodnot. Pak modus je hodnota argumentu s největší absolutní četností. Modus nemusí být určen jednoznačně. Příklad 13.3 Uvažujme následující hypotetický příklad. Ve firmě F existují 4 platové třídy s platy uvedenými v následující tabulce. Počet zaměstnanců udává, kolik zaměstnanců je v dané platové třídě. třída zařazení plat v Kč počet zaměstnanců 1. výkonná síla 10.000 30 2. mistr 16.000 10 3. náměstek 28.000 3 4. ředitel 50.000 1 Table 13.2: Tabulka četností příjmu zaměstnanců ve firmě F. Spočtěme některé charakteristiky polohy. Aritmetický průměr X = 13.500, geometrický průměr X g = 12.381.3, harmonický průměr X h = 11.726.6.
177
13.3. CHARAKTERISTIKY VARIABILITY
Jelikož máme 44 hodnot, bude medián průměr 22. a 23. pořadové hodnoty, tedy x e = 10.000. Dolní výběrový kvartil bude průměr 11. a 12. pořadové hodnoty, tj. 10.000 a horní výběrový kvartil je 16.000.
Každá charakteristika polohy nám dává jen parciální informaci o statistickém souboru, zatímco grafy rozložení četností nám dávají úplnou informaci o statistickém souboru.
13.3
Charakteristiky variability
Definice 13.9 Charakteristiky variability: 1. Rozptylem (disperzí) s2 statického souboru s rozsahem n nazýváme ¯ 2 hodnot argumentu aritmetický průměr kvadratických odchylek (xk − X) ¯ X od aritmetického průměru X n
r
X 1X ¯ 2= 1 ¯ 2. s = (xk − X) fi (xi − X) n k=1 n i=1 2
(13.4)
2. Směrodatnou odchylkou s nazýváme √
s2 = s ≥ 0.
(13.5)
3. Průměrnou odchylkou d¯ nazýváme aritmetický průměr absolutních hod¯ tj. not odchylek od aritmetického průměru X, n
r
X 1X ¯ = 1 ¯ d¯ = |xk − X| fi |xi − X|. n k=1 n i=1
(13.6)
4. Variační koeficient v statistického souboru je definován jako s v = ¯. X
(13.7)
178
CHAPTER 13. ZPRACOVÁNÍ STATISTICKÉHO MATERIÁLU
Poznámka 13.2 Rozptyl je definován vzorcem (13.4), pro jeho výpočet se však častěji používá vzorce n
r
X 1X 2 ¯2 = 1 ¯ 2. s = (xk ) − X fi x2i − X n k=1 n i=1 2
(13.8)
Poznámka 13.3 Hodnoty argumentu statistického souboru jsou realizace nějaké náhodné veličiny. Např. počet telefonních hovorů na ústředně za 1 minutu (viz příklad 13.2) je náhodná veličina, která má Poissonovo rozdělení X ∼ Po(λ). Všechny charakteristiky polohy aproximují střední hodnotu náhodné veličiny EX = λ. Podobně rozptyl statistického souboru aproximuje rozptyl náhodné veličiny VarX = λ. Rozptyl uvedený ve vzorcích (13.4) a (13.8) rozptyl náhodné veličiny podhodnocuje, proto se k výpočtu rozptylu častěji používá vzorců: n
r
X 1 X ¯ 2= 1 ¯ 2, S = xk − X f i xi − X n − 1 k=1 n − 1 i=1 2
n
r
1 X 2 n ¯2 1 X 2 n ¯2 S = (xk ) − X = f i xi − X . n − 1 k=1 n−1 n − 1 i=1 n−1 2
(13.9)
(13.10)
Tyto vzorce již teoretickou hodnotu nepodhodnocují (podrobněji viz věta 14.1).
Chapter 14 Náhodný výběr V mnoha případech nemůžeme při statistickém zpracování dat vycházet ze základního souboru Z (např. má-li soubor nekonečný nebo značně velký rozsah) a musíme se omezit na nějaký podsoubor souboru Z. Statistické výsledky, získané zpracováním statistického podsouboru, pak zobecníme na základní statistický soubor Z (toto nazýváme statistickou indukcí). Znamená to tedy, že vyšetřujeme jen určitou část prvků zkoumaného souboru, kterou nazýváme výběrovýn souborem. Statistická indukce nám nedává zobecněné závěry s naprostou jistotou, ale jen s předem danou pravděpodobností. Základem je teorie náhodných výběrů, které se nyní věnujeme. Náhodné výběry můžeme dělit podle způsobu provedení nebo podle rozsahu. Rozdělení náhodných výběrů podle způsobu provedení a) Prostý náhodný výběr s vrácením je takový výběr, při němž se každý prvek základního souboru vrátí po vybrání zpět do souboru a další prvek se vybírá opět z celého základního souboru. b) Prostý náhodný výběr bez vrácení je takový výběr, při němž se vybraný 179
180
CHAPTER 14. NÁHODNÝ VÝBĚR prvek nevrací zpět do základního souboru.
c) Oblastní (stratifikovaný) výběr spočívá v tom, že základní výběr rozdělíme na stejnorodé disjunktní části a v každé z nich pak provedeme náhodný výběr. O základním souboru ovšem musíme mít dostatečné informace umožňující správnou volbu jednotlivých oblastí. d) Systematický (mechanický) náhodný výběr spočívá v tom, že prvky základního statistického souboru seřadíme do určitého pořadí, z prvních k prvků souboru (N ≥ kn, kde N je rozsah základního, n je rozsah
výběru) vybereme náhodně jeden prvek a od něho počínaje vybereme každý k-tý, 2k-tý. . .prvek. Rozdělení náhodných výběrů podle rozsahu
a) Malý náhodný výběr - rozsah výběru n < 30. b) Velký náhodný výběr - rozsah výběru n ≥ 30. Budeme uvažovat pouze prostý náhodný výběr s vrácením. Ve spojitosti s teorií pravděpodobnosti budeme o prostém náhodném výběru uvažovat následovně.
Definice 14.1 Nechť Z je statistický soubor, jehož argument představuje náhodnou veličinu X. Náhodným výběrem z rozdělení náhodné veličiny X budeme nazývat posloupnost n nezávislých realizací pokusu, danou náhodnými veličinami X1 , X2 , . . . , Xn , které mají totéž rozdělení jako náhodná veličina X a jsou sdruženě nezávislé. (Neboli náhodným výběrem nazýváme takový výběr, který poskytuje každému prvku základního statistického souboru stejnou a nezávislou pravděpodobnost, že bude zahrnut do výběru.)
181 Definice 14.2 Charakteristiky základního souboru Z (náhodné veličiny X) budeme nazývat teoretickými. Charakteristicky získané z empirického výběru budeme nazývat empirickými (výběrovými). Teoretické charakteristiky základního souboru představují vždy určité číslo, zatím co empirické charakteristiky představují náhodné veličiny, neboť se mění od jednoho náhodného výběru k druhému. Nazýváme je statistikami. Jestliže známe typ rozdělení náhodné veličiny X (představuje argument základního statistického souboru Z), můžeme za určitých předpokladů použít empirických charakteristik k určení odpovídajících teoretických charakteristik. Příklad 14.1 Statistický soubor představují všichni muži České republiky. Argumentem je jejich věk. Náhodná veličina X určuje věk náhodného muže z České republiky. Pro určení charakteristik náhodné veličiny X provedeme náhodný výběr o rozsahu n. Věk každého vybraného muže je jednou realizací náhodné veličiny X. Výsledné empirické charakteristiky pak odhadují teoretické charakteristiky. Příklad 14.2 (viz příklad 13.2) X je náhodná veličina udávající počet telefonních výzev za dobu 1 minuty. Byl proveden náhodný výběr z rozdělení X, jehož výsledky jsou zaznamenány v příkladu 13.2. Předpokládejme, že X ∼ Po(λ). Určíme empirickou střední hodnotu např. aritmetickým průměrem ¯ = 2. Určíme empirický rozptyl např. podle vzorce 13.9, S 2 = 2, 1356. Z X teorie pravděpodobnosti víme, že EX = λ = VarX pro Poissonova rozdělení. Položme si otázku, zda empirická data prokazují úvodní hypotézu (X ∼ Po(λ)). Tyto otázky a mnohé další řeší matematická statistika, kterou se budeme zabývat v následujících kapitolách. Zatím pouze položme teoretickou střední hodnotu EX = 2, neboli λ = 2, a napišme si příslušné pravděpodobnosti P (X = k) pro k = 0, 1, 2, ......7 a porovnejme je s příslušnými rel-
182
CHAPTER 14. NÁHODNÝ VÝBĚR
ativními četnostmi. Z tabulky je vidět, že teoretické pravděpodobnosti se k 0 1 2 3 4 5 6 7
P (X = k) 0,135 0,271 0,271 0,180 0,090 0,360 0,012 0,003
Relativní četnost pro k výzev za jednu minutu 0,133 0,283 0,266 0,166 0,100 0,033 0 0,016
Table 14.1: Porovnání teoretických pravděpodobností s relativními četnostmi. chovají podobně jako relativní četnosti, ale jestli stačí tato podobnost na prohlášení, že X ∼ Po(2), zatím říct nemůžeme. Definice 14.3 Nechť X1 , . . . , Xn je náhodný výběr z rozdělení, které má střední hodnotu µ a konečný rozptyl σ 2 . Zaveďme veličiny n
n
X ¯= 1 X Xi , n i=1
1 X ¯ 2, S = (Xi − X) n − 1 i=1 2
¯ nazýváme výběrový průměr a S 2 nazýváme výběrový rozptyl. kde X Věta 14.1 Nechť X1 , . . . , Xn je náhodný výběr z rozdělení, které má střední hodnotu µ a konečný rozptyl σ 2 , pak ¯ = µ, EX
¯= VarX
σ2 , n
ES 2 = σ 2 .
Věta 14.2 Silný zákon velkých čísel Nechť X1 , . . . , Xn je náhodný výběr z rozdělení, které má střední hodnotu µ a konečný rozptyl σ 2 , pak ¯ →µ X
skoro jist.
183
14.1. KRITICKÉ HODNOTY
Konvergence skoro jistě znamená, že existuje pouze množina (A ⊂ Ω) pravděpodobnosti 0 (P(A)=0), pro kterou výraz nekonverguje.
Věta 14.3 Náhodný výběr z normálního rozdělení Nechť X1 , . . . , Xn je náhodný výběr z N(µ, σ 2 ), kde σ 2 > 0. Pak platí následující tvrzení: ¯ ∼ N(µ, σ2 ). • X n • Je-li n ≥ 2, pak (n − 1)S 2 /σ 2 ∼ χ2n−1 . ¯ a S 2 jsou nezávislé. • Je-li n ≥ 2, pak X • Je-li n ≥ 2, pak
√ ¯ X−µ n S
∼ tn−1 .
Důkazy výše uvedených vět může čtenář nalézt např v [2].
14.1
Kritické hodnoty
Kritické hodnoty obvykle vyjadřují hranici, kterou náhodná veličina překročí se zadanou pravděpodobností α. Kritickým hodnotám se někdy také říká kvantily. Kritické hodnoty se dají nalézt v tabulkách či ve specializovaných programech. V programu Excel jsou to funkce NOR.MINV, CHISQ.INV, T.INV, F.INV. Kritické hodnoty normálního rozdělení u(α) X ∼ N(0, 1),
P (X ≥ u(α)) = 1 − α.
Kritické hodnoty Pearsonova rozdělení χ2k (α) X ∼ χ2k ,
P (X ≥ χ2k (α)) = 1 − α.
184
CHAPTER 14. NÁHODNÝ VÝBĚR
Kritické hodnoty Studentova rozdělení tk (α) X ∼ tk ,
P (X ≥ tk (α)) = 1 − α.
Kritické hodnoty Fisherova-Snedecorova rozdělení Fk,n (α) X ∼ Fk,n ,
P (X ≥ Fk,n (α)) = 1 − α.
Kritické hodnoty Fisherova-Snedecorova rozdělení Fk,n (α) jsou tabelovány pro 0 < α ≤ 0, 5. Pro 0, 5 < α ≤ 1 počítáme kritické hodnoty dle vztahu Fk,n (α) =
1 . Fn,k (1 − α)
Chapter 15 Odhady parametrů Jedním z cílů statistické indukce je odhad charakteristik (neboli parametrů) základního statistického souboru. Rozlišujeme dva druhy odhadů • Bodové odhady • Intervalové odhady neboli intervaly spolehlivosti Bodové odhady střední hodnoty a rozptylu: Věta 14.1 nám říká, že ¯ je nestranný odhad střední hodnoty µ, jelikož EX ¯ = µ, X S2 je nestranný odhad σ 2 , jelikož ES 2 = σ 2 . Výše uvedené bodové odhady vyjadřují nejpravděpodobnější místo výskytu teoretické hodnoty µ či σ 2 . Bodové odhady se liší výběr od výběru. Často je nutné určit nepřesnost bodového odhadu. K tomu slouží odhad intervalový, který nám určuje interval kolem bodového odhadu, který nám zaručuje, že teoretická hodnota µ či σ 2 leží v tomto intervalu s velkou pravděpodobností. Tato pravděpodobnost se nazývá koeficient spolehlivosti q = 1 − α. α se 185
186
CHAPTER 15. ODHADY PARAMETRŮ
nejčastěji volí 0,05, 0,01 nebo ve výjimečných případech, kdy potřebujeme mít zaručenou velkou jistotu, 0.001. Definice 15.1 Jsou-li B1 , B2 takové statistiky příslušné parametru β základního souboru, že pro číslo α ∈ (0, 1) platí P (B1 ≤ β ≤ B2 ) = 1 − α, pak interval hB1 , B2 i nazýváme konfidenčním intervalem pro parametr β
o spolehlivosti 1 − α. Používá se také názvu interval 100(1 − α) - procentní spolehlivosti pro parametr β nebo názvu konfidenční interval pro parametr β se 100(1 − α) - procentní spolehlivostí.
15.1
Intervalové odhady pro parametry normálního rozdělení
Mějme X1 , . . . , Xn náhodný výběr z N(µ, σ 2 ), parametr σ 2 > 0 není znám. Potom podle věty 14.3 platí ¯ − µ√ X n ∼ tn−1 , S tudíž podle definice kritické hodnoty Studentova rozdělení je ¯ − µ√ α X α P −tn−1 1 − n ≤ tn−1 1 − = 1 − α, ≤ 2 S 2
přeuspořádáním dostaneme oboustranný intervalový odhad pro střední hodnotu µ normálního rozdělení o spolehlivosti 1 − α S S α α ¯ + tn−1 1 − ¯ − tn−1 1 − √ ,X √ . (15.1) X 2 2 n n Připomeňme zde, že tn−1 1 − α2 je jedna kritická hodnota definovaná v před-
chozí kapitole.
15.1. INTERVALOVÉ ODHADY PRO PARAMETRY NORMÁLNÍHO ROZDĚLENÍ187 Intervalový odhad pro rozptyl σ 2 dostaneme obdobně. (n − 1)S 2 /σ 2 ∼ χ2n−1 .
α α ≤ (n − 1)S 2 /σ 2 ≤ χ2n−1 1 − = 1 − α, P χ2n−1 2 2 přeuspořádáním dostaneme oboustranný intervalový odhad pro rozptyl σ 2 normálního rozdělení o spolehlivosti 1 − α * + S 2 (n − 1) S 2 (n − 1) , . (15.2) χ2n−1 1 − α2 χ2n−1 α2 Příklad 15.1 Při kontrole balicího automatu, který má plnit cukrem balíčky o váze 1 kg, byly při přesném převážení 5 balíčků zjištěny tyto odchylky (v gramech) od požadované hodnoty (viz [1]): −3, 2, −2, 0, −1. Bodový odhad systematické odchylky je n
X 1 ¯= 1 Xi = (−3 + 2 − 2 + 0 − 1) = −0, 8. X n i=1 5 Pro výpočet intervalového odhadu pro systematickou odchylku musíme předpokládat, že jednotlivé odchylky jsou realizace nezávislých náhodných veličin s rozdělením N (µ, σ 2 ), kde σ 2 je neznámý parametr. Spočteme ! n X 1 ¯2 S2 = X 2 − nX n − 1 i=1 i 1 S 2 = {[(−3)2 + 22 + (−2)2 + 02 + (−1)2 ] − 5(−0, 8)2 } = 3.7. 4 Směrodatná odchylka S = 1, 9235. Kritickou hodnotu nalezneme ve statistických tabulkách, eventuálně ve statistickém softwaru t4 (0, 975) = 2, 776.
188
CHAPTER 15. ODHADY PARAMETRŮ
Intervalový odhad o spolehlivosti 0,95 pro systematickou odchylku je tedy roven S ¯ S ¯ X − t4 (0, 975) √ , X + t4 (0, 975) √ = h−3, 18; 1, 58i. 5 5 Někdy je třeba odhadnout rozsah výběru n, abychom dostali požadovanou šířku intervalového odhadu. Nechť požadovaná šířka intervalu o spolehlivosti 0,95 je 1. Výše jsme provedli 5 měření, z nichž jsme odhadli směrodatnou odchylku S. Ptáme se, kolik ještě máme udělat měření (za předpokladu, že směrodatná odchylka je S), aby šířka výsledného intervalového odhadu byla 1. Podle vzorce 15.1 dostaneme, že šířka intervalového odhadu o spolehlivosti 0,95 je S d = 2tn−1 (0, 975) √ . n V odstavci 9 jsme uvedli, že Studentovo rozdělení se zvětšujícím se stupněm volnosti n konverguje k normálnímu rozdělení, nahradíme tedy kvantil tn−1 (0, 975) kvantilem normálního rozdělení u(0, 975) = 1, 96. Hladiny u Studentova a normálního rozdělení se neshodují, protože kvantily jsou u těchto rozdělení zavedeny rozdílně. Odtud dostáváme, že S2 3, 7 . n = 4u(0, 975)2 2 = 4 · 1, 962 = 56, 85. d 1 Je tudíž nutné provést nejméně 57 měření, aby šířka výsledného intervalového odhadu byla přibližně 1. Intervalový odhad o spolehlivosti 0,95 pro rozptyl spočteme podle vzorce 15.2, přičemž kvantily rozdělení χ2 nalezneme v tabulkách.
S 2 (n − 1) S 2 (n − 1) , χ2n−1 (0.975) χ2n−1 (0, 025)
=
3, 7 · 4 3, 7 · 4 , 11, 14 0, 48
= h1, 33, 30, 83i .
15.2. INTERVALOVÝ ODHAD STŘEDNÍ HODNOTY POMOCÍ CLV189
15.2
Intervalový odhad střední hodnoty pomocí CLV
V případě, že náhodné veličiny nemají normální rozdělení, nemůžeme použít předchozí odhady. Je-li však náhodných veličin větší počet, můžeme pak využít centrální limitní věty, která jednoduše řečeno říká, že součet většího počtu náhodných veličin se chová jako normální rozdělení. Pro použití aproximace pomocí CLV se obvykle doporučuje rozsah náhodného výběru n ≥ 20. Mějme X1 , . . . , Xn náhodný výběr z rozdělení s konečnou střední hodnotou µ a konečným rozptylem σ 2 . Potom podle centrální limitní věty má ¯ − µ√ X n →n→∞ Φ ∼ N (0, 1) S asymptoticky normované normální rozdělení. Podle definice kritické hodnoty normovaného normálního rozdělení je ¯ − µ√ X α α P −u(1 − ) ≤ n ≤ u(1 − ) = 1 − α, 2 S 2 přeuspořádáním dostaneme oboustranný intervalový odhad pro střední hodnotu µ o spolehlivosti 1 − α α S ¯ α S ¯ X − u(1 − ) √ , X + u(1 − ) √ . 2 n 2 n
(15.3)
Příklad 15.2 Byl proveden pokus, při němž jsme 600 krát hodili kostkou a z toho 75 krát padla šestka. Zajímá nás odhad pravděpodobnosti padnutí šestky na této kostce. Zaveďme si náhodné veličiny X1 , . . . , X600 s alternativním rozdělením A(p), kde úspěch (X = 1) nastane, když padne 6, a neúspěch (X = 0) nastane při výsledcích hodu 1-5. Zajímá nás p = P [X = ¯ = 75/600 = 0.125. Výběrový rozptyl 1]. Bodový odhad p je X n
1 X ¯ 2 = 1 75(1 − 0, 125)2 + 525(0 − 0, 125)2 = 0, 109. S = Xi − X n − 1 i=1 599 2
190
CHAPTER 15. ODHADY PARAMETRŮ
Pro vˇypočet intervalového odhadu o spolehlivosti 95% potřebujeme znát ještě hodnotu u(0, 975) = 1.96. S ¯ S ¯ X − u(0, 975) √ , X + u(0, 975) √ = h0, 098; 0, 151i. n n Tudíž skutečná pravděpodobnost padnutí šestky na této kostce leží s pravděpodobností 0,95 v intervalu h0, 098; 0, 151i. Pokud by kostka byla symetrická, pak
tato pravděpodobnost by byla 1/6 = 0, 166. Tato pravděpodobnost neleží v intervalovém odhadu o spolehlivosti 95%, tedy tato kostka není spravedlivá s pravděpodobností 0,95. Porovnejte s příkladem 16.5.
Chapter 16 Parametrické testy Ve vědeckém výzkumu i v aplikacích se problémy často formulují ve tvaru hypotéz. Statistická hypotéza je tvrzení, které se týká pravděpodobnostního rozdělení, případně parametrů náhodné veličiny. Každá úloha testování hypotéz je formulována tak, že proti sobě stojí dvě hypotézy, a to hypotéza H0 (nulová) proti alternativní H1 . V této kapitole se budeme zaobírat pouze parametickými testy, tzn. budeme předpokládat znalost pravděpodobnostního rozdělení příslušné náhodné veličiny, testovat budeme parametr daného rozdělení. Předpokládejme, že rozdělení náhodné veličiny závisí na parametru θ. O parametru θ se domníváme, že by mohl být roven danému číslu θ0 . V tomto případě nulovou hypotézu zapisujeme ve tvaru H0 : θ = θ0 . Alternativní hypotéza H1 může být buď ve tvaru H1 : θ 6= θ0 nebo H1 : θ > θ0 , popř. H1 : θ 6= θ0 . V prvním případě se jedná o oboustrannou hypotézu, ve druhém o jednostrannou (přesněji pravostrannou, popř. levostrannou).
Při svém rozhodnutí o platnosti H1 či H0 se můžeme dopustit jedné ze dvou chyb. Stane-li se, že zamítneme H0 , ačkoli je správná, uděláme tzv. chybu prvního druhu. Stane-li se, že nezamítneme H0 , ačkoli správná není, uděláme tzv. chybu druhého druhu. Při testování samozřejmě požadujeme, 191
192
CHAPTER 16. PARAMETRICKÉ TESTY
aby pravděpodobnosti obou chyb byly co možná nejmenší. Při rozhodování o správnosti té či oné hypotézy se opíráme o tak zvanou testovací statistiku T . Testovací statistika je předem daný funkční předpis závisející na nějakém náhodném výběru X1 , X2 , ...., Xn z určitého rozdělení. Hodnoty statistiky T mohou ležet v jedné ze dvou disjunktních množin, a to buď v kritickém oboru W (obor zamítnutí hypotézy H0 ) nebo v oboru přijetí V (obor nezamítnutí hypotézy H0 ). Jak už bylo řečeno, můžeme se při testování dopustit jedné ze dvou chyb, přičemž se obvykle trvá jen na požadavku, aby pravděpodobnost chyby prvního druhu byla rovna nebo menší než α, kde α je nějaké dané číslo z intervalu (0,1). V praxi se nejčastěji volí α = 0, 05 nebo α = 0, 01 a číslu α se říká hladina testu.
Poznámka 16.1 v současné době udává běžný statistický software (Statistica, R, S+, SAS, ale i Excel) tzv. dosaženou hladinu (v anglicky psané literatuře udávané pod názvem P-value, significance value). Je to nejmenší hladina testu, při které bychom ještě hypotézu H0 zamítli. Tudíž zvolíme-li α = 0, 05, a P-value vyjde menší než 0,05 (nebo rovna), pak zamítáme hypotézu H0 na hladině α = 0, 05. Pokud P-value vyjde větší než 0,05, pak nezamítáme hypotézu H0 na hladině α = 0, 05.
16.1
Jednovýběrový t test
Nechť X1 , . . . , Xn , je náhodný výběr z N(µ, σ 2 ), kde n > 1. Parametr σ 2 > 0 není znám. Je třeba testovat hypotézu H0 : µ = µ0 , kde µ0 je dané číslo, ¯ hodně proti alternativě H1 : µ 6= µ0 . Hypotézu H0 zamítneme, bude-li X
vzdáleno od čísla µ0 . Z věty 14.3 víme, že za platnosti hypotézy H0 má statistika
¯ − µ0 )√n (X T = ∼ tn−1 S
193
16.1. JEDNOVÝBĚROVÝ T TEST
Studentovo rozdělení o n − 1 stupních volnosti. Podle definice kritické hodnoty Studentova rozdělení dostaneme, že
P |T | ≥ tn−1
α 1− = α. 2
Tedy hypotézu H0 zamítneme na hladině α, jestliže platí α . |T | ≥ tn−1 1 − 2 v případě jednostranné alternativy H1 : µ > µ0 , resp. H1 : µ < µ0 hypotézu H0 zamítneme, jestliže T ≥ tn−1 (1 − α),
resp. T ≤ −tn−1 (1 − α).
Příklad 16.1 Vraťme se k příkladu 15.1. Má se rozhodnout o tom, zda automat má systematickou výchylku. Tudíž je třeba testovat hypotézu H0 : µ = 0 proti alternativě H1 : µ 6= 0 na hladině α = 0, 05 (tj. že odchylky
kolísají kolem nuly a nejsou systematicky posunuty ani do kladných ani do ¯ = −0, 8, S = 1, 9235, záporných hodnot). Máme n = 5, µ0 = 0, X T =
¯ − µ0 √ X n = −0, 93. S
Protože | − 0, 93| < t4 (0, 975) = 2, 776, nezamítáme H0 . Tudíž zjištěná data neodporují předpokladu, že automat nemá systematickou odchylku. Všimněte si, že µ0 = 0 (střední hodnota za platnosti hypotézy H0 ) leží uvnitř intervalového odhadu o spolehlivosti 0,95. Neboli 0 je pravděpodobná hodnota skutečné střední hodnoty a tudíž nemůžeme zamítnout H0 . Oba přístupy k testování hypotéz, jak klasický přístup, tak přes intervalový odhad, jsou ekvivalentní.
194
16.2
CHAPTER 16. PARAMETRICKÉ TESTY
Test o rozptylu normálního rozdělení
Nechť X1 , . . . , Xn je náhodný výběr z N(µ, σ 2 ), kde n > 1. Je třeba testovat hypotézu H0 : σ 2 = σ02 , kde σ02 je dané číslo, proti alternativě H1 : σ 2 6= σ02 .
Hypotézu H0 zamítneme, bude-li S 2 hodně vzdáleno od čísla σ02 . Z věty 14.3 víme, že za platnosti hypotézy H0 má statistika T =
(n − 1)S 2 ∼ χ2n−1 σ02
χ2 rozdělení o n − 1 stupních volnosti.
Podle definice kritické hodnoty
rozdělení χ2 dostaneme, že α α P χ2n−1 ≤ (n − 1)S 2 /σ02 ≤ χ2n−1 1 − = 1 − α, 2 2
Tedy hypotézu H0 zamítneme na hladině α, jestliže platí α α nebo T ≥ χ2n−1 1 − . T ≤ χ2n−1 2 2
V případě jednostranné alternativy H1 : σ 2 > σ02 , resp. H1 : σ 2 < σ02 hypotézu H0 zamítneme, jestliže T ≥ χ2n−1 (1 − α),
resp. T ≤ χ2n−1 (α).
Příklad 16.2 Zácvik laboranta na určitém optickém přístroji považujeme za ukončený, jestliže při měření určitého objektu dosahuje rozptylu nejvýše 0,0196. Byly naměřeny hodnoty: 6, 82; 6, 44; 6, 38;
6, 21;
6, 38;
6, 60;
6, 32.
v tomto případě je třeba provést test s jednostrannou alternativou. Zajímá nás, zda σ 2 ≤ 0, 0196 nebo σ 2 > 0, 0196. Za hypotézu H0 musíme vždy
zvolit, tu do které patří rovnost. Tudíž testujeme H0 : σ 2 ≤ 0, 0196 proti alternativě H1 : σ 2 > 0, 0196. Spočteme výběrový rozptyl S 2 = 0, 0406 a statistiku T =
6S 2 0,0196
= 12, 44. Kritická hodnota χ26 (0, 95) = 12, 59, tudíž
16.3. PÁROVÝ T TEST
195
T < χ26 (0, 95) a tedy nemůžeme zamítnout hypotézu H0 . Všimněte si, že odhad rozptylu je výrazně větší než požadovaný rozptyl, ale naměřená data nám neumožňují zamítnout hypotézu, že rozptyl je roven požadované hodnotě na hladině α = 0, 05. Neboli, je více než 5% pravděpodobnost, že naměřená data by mohla vzniknout z normálního rozdělení s rozptylem 0,0196.
16.3
Párový t test
Mějme náhodný výběr (Y1 , Z1 ), (Y2 , Z2 ), . . . , (Yn , Zn ) z nějakého dvourozměrného rozdělení, jehož vektor středních hodnot je (µ1 , µ2 ). Chceme testovat hypotézu H0 : µ1 − µ2 = ∆ proti alternativě H1 : µ1 − µ2 6= ∆, kde ∆ je nějaké dané číslo (nejčastěji ∆ = 0). Položíme X1 = Y1 − Z1 , X2 = Y2 − Z2 , . . . , Xn = Yn − Zn . Veličiny X1 , X2 , ..., Xn jsou nezávislé. Předpokládejme, že Xi ∼ N (µ, σ 2 ), i = 1, 2, . . . , n. Zřejmě µ = µ1 − µ2 . Jsou-li tyto předpoklady splněny, pak je úloha převedena na jednovýběrový t test. Z veličin X1 , X2 , ..., Xn vypočteme ¯ a S 2 . Hypotézu H0 zamítneme na hladině α, platí-li X ¯ − ∆)√n (X ≥ tn−1 1 − α . |T | = S 2
Párový t test se používá v situacích, kdy na každém z n objektů máme naměřeny dvě veličiny. Jednotlivé objekty lze zpravidla pokládat za nezávislé, ale měření na témž objektu nikoli. Párový t test použijeme, když např. testujeme účinnost nějakého léku na n pacientech, přičemž Yi jsou hodnoty naměřené před podáním léku a Zi jsou hodnoty naměřené po podání léku. Příklad 16.3 Má se rozhodnout na hladině α = 0, 05, zda lék na snížení krevního tlaku je účinný či nikoli. Bylo proto vybráno 6 pacientů jimž byl
196
CHAPTER 16. PARAMETRICKÉ TESTY
změřen tlak před aplikací léku a hodinu po aplikaci léku. Vyšší z obou hodnot měření tlaku každého pacienta je zaznamenána v tabulce. Pacient 1 2 3 4 5 6 Před podáním léku: 180 160 150 165 170 175 Po podání léku: 150 155 155 150 155 170 Rozdíl 30 5 -5 15 15 5 Rozdíly měření budeme považovat za realizace nezávislých náhodných veličin s rozdělením N (µ, σ 2 ), kde σ 2 není známo. Pokud lék nemá vliv na tlak krve, platí hypotéza H0 : µ = 0. Máme tedy n = 6, ∆ = 0, ¯ = 1 Pn Xi = 1 (30 + 5 − 5 + 15 + 15 + 5) = 10, 833, X i=1 n 6 ! n X 1 1 Xi2 − nX 2 = (302 +52 +52 +152 +152 +52 −6·10, 8332 ) = S2 = n − 1 i=1 5 ¯ − ∆√ X 144, 167, S = 12, 007, T = n = 2, 21, T < t5 (0, 975) = 2, 57, tudíž S na základě uvedených měření hypotézu H0 nezamítáme.
16.4
Dvouvýběrový t test
Nechť X1 , X2 , . . . , Xn je výběr z N (µ1 , σ 2 ) a Y1 , Y2 , . . . , Ym výběr z N (µ2 , σ 2 ). Nechť tyto dva výběry jsou na sobě nezávislé. Předpokládejme, že n ≥
2, m ≥ 2, σ 2 > 0 a σ 2 neznáme. Chceme testovat hypotézu H0 : µ1 − µ2 = ∆ proti H1 : µ1 − µ2 6= ∆, kde ∆ je nějaké dané číslo (nejčastěji ¯ S 2 a Y¯ , S 2 charakteristiky těchto výběrů. Hypotézu ∆ = 0). Označme X, X
Y
H0 zamítneme na hladině α, platí-li r ¯ ¯ nm(n + m − 2) X − Y − ∆ α · | T |= p . ≥ t 1 − n+m−2 2 (n − 1)SX n+m 2 + (m − 1)SY2
Dvouvýběrový t test používáme v případech, kdy se např. na n pacientech zkouší působení léku A a na jiných m pacientech působení léku B. Účelem
pokusu je zjistit, zda je působení obou léků stejné.
197
16.5. TEST SHODNOSTI DVOU ROZPTYLŮ
Často dochází k záměně párového a dvouvýběrového t testu, což je hrubá chyba. Dvouvýběrový t test můžeme použít pouze v případě, když máme zajištěnu nezávislost všech veličin X1 , X2 , . . . , Xn , Y1 , Y2 , . . . , Ym . V případě záměny těchto testů dojdeme zpravidla k nesmyslným výsledkům. Předpoklady:
Pro výše uvedené testy platí určité předpoklady. Jedním
z nich je nezávislost jednotlivých veličin. Tento předpoklad je nejdůležitější, neboť jeho porušení má závažné důsledky a činí závěry založené na předchozích testech chybnými. Dalším předpokladem je normalita rozdělení. Vzhledem k centrální limitní větě a zákonu velkých čísel její porušení při větším rozsahu náhodného výběru není závažné. Navíc v odstavci 16.7 je uveden test za pomoci CLV, který normalitu nepředpokládá. Při závažném porušení normality a malém rozsahu náhodného výběru dáváme přednost použití některého neparametrického testu. Testy na normalitu náhodného výběru jsou uvedeny v odstavcích 21.2 a 21.4. U dvouvýběrového t testu je další požadavek, a to shodnost rozptylů obou rozdělení. V případě, že rozdíl ve velikosti rozptylů není příliš veliký, porušení tohoto požadavku neovlivní podstatným způsobem celkový výsledek. O shodnosti rozptylů rozhodneme na základě následujícího testu.
16.5
Test shodnosti dvou rozptylů
Nechť X1 , X2 , . . . , Xn je výběr z N (µ1 , σ12 ) a Y1 , Y2 , . . . , Ym výběr z N (µ2 , σ22 ). Nechť tyto dva výběry jsou na sobě nezávislé. Předpokládejme, že n ≥ 6 2, m ≥ 2, σ12 > 0, σ22 > 0. Testujeme hypotézu H0 : σ12 = σ22 proti H1 : σ12 = 2 σ22 . Protože SX je nestranný odhad parametru σ12 a SY2 parametru σ22 , lze S2 očekávat, že za platnosti hypotézy H0 bude podíl SX2 blízký jedné. Proti H0 Y
budou tedy svědčit buď hodnoty blízké nule nebo hodnoty velké. Hypotézu
198
CHAPTER 16. PARAMETRICKÉ TESTY
H0 zamítneme, jestliže 2 SX ≤ k1 SY2
nebo
2 SX ≥ k2 , SY2
přičemž 1 α , k1 = Fn−1,m−1 ( ) = 2 Fm−1,n−1 (1 − α/2)
k2 = Fn−1,m−1 (1 −
α ), 2
kde Fn−1,m−1 (1 − α/2) je kritická hodnota Fisherova-Snedecorova rozdělení
o n − 1 a m − 1 stupních volnosti.
Příklad 16.4 Zemědělci oseli 11 polí, z toho u 6 polí použili hnojivo A a u zbylých 5 polí použili hnojivo B. Po sklizni byli u každého pole stanoveny průměrné výnosy (v tunách na hektar). Hnojivo A 62 54 55 Hnojivo B 52 56 49
60 50
53 51
58
Je třeba zjistit, zda jsou obě hnojiva stejně efektivní. Průměrné výnosy v první skupině budeme pokládat za výběr z N (µ1 , σ 2 ), průměrné výnosy ve druhé za výběr z N (µ2 , σ 2 ). Parametr σ 2 není znám. Hypotéza, že obě hnojiva jsou stejně efektivní, se dá vyjádřit jako H0 : µ1 = µ2 . 2 2 Máme n=6, m=5, ∆ = 0, odtud vypočteme SX = 12, 8, SY2 = 7, 3 a SX /SY2 = 12, 8/7, 3 = 1, 753. Hypotézu o shodnosti rozptylů bychom zamítli, kdyby
platilo buď 2 SX /SY2 ≦ 1/F4,5 (0, 975) = 1/7, 388 = 0, 135,
nebo Sx2 /Sy2 ≧ F5,4 (0, 975) = 9, 3654. Poněvadž žádný z těchto případů nanastal, hypotézu o shodnosti rozptylů nezamítneme, a tudíž můžeme použít dvouvýběrový t test. 2 Je vidět, že je výhodné zavést takové označení, aby platilo SX ≧ SY2 . Pak 2 totiž při oboustranném testu stačí zjistit, zda SX /SY2 ≧ Fn−1,m−1 (1 − α/2), a
není třeba počítat převrácené hodnoty kritických hodnot.
16.6. POROVNÁVÁNÍ STŘEDNÍCH HODNOT PŘI NESTEJNÝCH ROZPTYLECH199 ¯ = 57, Y¯ = 51, 6, X ¯ − Y¯ − ∆ X
T =p · 2 (n − 1)SX + (m − 1)SY2
r
nm(n + m − 2) = 2, 7712. n+m
T > t9 (0, 975) = 2, 26, tedy zamítáme hypotézu H0 o shodnosti efektivity hnojiva A a B.
16.6
Porovnávání středních hodnot při nestejných rozptylech
Nechť X1 , X2 , ..., Xn je výběr z N(µ1 , σ12 ) a Y1 , Y2 , ..., Yn je výběr z N(µ2 , σ22 ) nezávislý na prvním výběru. Víme-li, že σ12 6= σ22 , můžeme střední hodnoty porovnat následovně. Je-li m ≥ n, utvoříme rozdíly X1 −Y1 , X2 −Y2 , ..., Xn − Yn . Na ně lze aplikovat jednovýběrový t test, neboť jednotlivé rozdíly jsou na sobě nezávislé a každý z nich má rozdělení N(µ1 − µ2 , σ12 + σ22 ). Nevýhodou tohoto postupu je nejen ztráta m−n veličin Y -ových, ale i neefektivní využití zbývajících veličin.
Místo předcházející metody se v praxi dává přednost tomuto přibližnému testu: Nejprve se vypočte 1 2 SX = n−1
n X i=1
S=
¯2 Xi2 − nX
r
!
2 SX S2 + Y, n m
,
1 SY2 = m−1 vx =
2 SX , n
vy =
m X j=1
Yj2 − mY¯ 2
!
SY2 . m
Testujeme-li H0 : µ1 − µ2 = 0 proti H1 : µ1 − µ2 6= 0, pak H0 zamítneme v případě, že platí nerovnost ¯ − Y¯ | vx tn−1 1 − α2 + vy tm−1 1 − α2 |X ≥ . S vx + vy Tento test má přibližně hodnotu α.
200
16.7
CHAPTER 16. PARAMETRICKÉ TESTY
Test o střední hodnotě pomocí CLV
v případě, že náhodné veličiny výrazně nesplňují normalitu, nemůžeme použít předchozí testy. Je-li však náhodných veličin větší počet, můžeme pak využít centrální limitní věty, která říká, že součet většího počtu náhodných veličin se chová jako normální rozdělení. Pro použití aproximace pomocí CLV se obvykle doporučuje rozsah náhodného výběru n ≥ 20. Mějme X1 , . . . , Xn náhodný výběr z rozdělení s konečnou střední hodnotou µ a konečným rozptylem σ 2 . Je třeba testovat hypotézu H0 : µ = µ0 , kde µ0 je dané číslo, proti alternativě H1 : µ 6= µ0 . Hypotézu H0 zamítneme, bude-li ¯ hodně vzdáleno od čísla µ0 . Podle centrální limitní věty má statistika X T =
¯ − µ0 √ X n →n→∞ Φ ∼ N (0, 1) σ0
za platnosti H0 asymptoticky normované normální rozdělení. Podle definice kritické hodnoty normovaného normálního rozdělení je asymptoticky
α P |T | ≤ u(1 − ) = 1 − α. 2 Tedy hypotézu H0 zamítneme na hladině α, jestliže platí |T | ≥ u(1 −
α ). 2
v případě jednostranné alternativy H1 : µ > µ0 , resp. H1 : µ < µ0 hypotézu H0 zamítneme, jestliže T ≥ u(1 − α),
resp. T ≤ −u(1 − α).
v případě, že σ02 není známo, použijeme místo něj ve výpočtu statistiky T jeho nestranný odhad S 2 .
16.7. TEST O STŘEDNÍ HODNOTĚ POMOCÍ CLV
201
Příklad 16.5 Vraťme se k příkladu 15.2. Má se rozhodnout o tom, zda kostka je symetrická. Tudíž je třeba testovat hypotézu H0 : µ = 1/6 proti alternativě H1 : µ 6= 1/6 na hladině α = 0, 05 (tj. že pravděpodobnost padnutí ¯ = 0, 125, S 2 = kostky na této kostce je 1/6). Máme n = 600, µ0 = 1/6, X 0, 109. Rozptyl náhodné veličiny Xi ∼ A(µ0 ) za platnosti hypotézy H0 je σ02 = µ0 (1 − µ0 ). ¯ − µ0 √ X T = n = −2, 74. σ0 Protože | − 2, 74| > u(0, 975) = 1, 96, zamítáme H0 . Tudíž zjištěná data odporují předpokladu, že kostka je symetrická. Všimněte si, že u tohoto testu jsme použili σ02 , zatímco v příkladu 15.2 jsme použili S 2 . Oba přístupy k testování hypotéz, jak klasický, tak přes intervalový odhad, jsou ekvivalentní.
Chapter 17 Neparametrické testy Parametrické testy jsou založeny na několika předpokladech. Jedním z nich je předpoklad, že výběr pochází z daného rozdělení. Toto rozdělení je známo, až na některé parametry. Často je dané rozdělení normální (viz Studentovy t testy), přičemž porušení normality při dostatečně velkém výběru nemění závěry testů. V tomto případě se totiž můžeme opřít o centrální limitní větu a zákony velkých čísel. Často se však setkáváme s výběry malých rozsahů, které pocházejí z výrazně ”nenormálních” základních souborů. Při práci s nimi potom využíváme tzv. neparametrické testy. Tyto testy mají velmi obecné předpoklady a jsou matematicky nenáročné. Před uvedením některých neparametrických testů zavedeme pojem pořadí. Mějme daná různá reálná čísla x1 , x2 , . . . , xn . Pořadím Ri čísla xi nazýváme počet těch čísel x1 , x2 , . . . , xn , která jsou menší nebo rovna číslu xi . Mějme např. čísla 5,8,9,3,2,1. Číslo 5 má pořadí 4, protože čísla (5,3,2,1) jsou menší nebo rovna pěti. Shrnutím do tabulky dostaneme Čísla xi Pořadí Ri
5 4
8 5
9 3 6 3
2 2
1 1
Může se stát, že čísla x1 , x2 , . . . , xn nejsou různá, tzn. některá z nich jsou 202
203
17.1. ZNAMÉNKOVÝ TEST
si rovna a vytvářejí tzv. shody. V tomto případě se pak číslům, které tvoří shodu, přiřazuje průměrné pořadí odpovídající takové skupince. Např. číslům 5,5,5,9,9,2,1 se přiřadí pořadí R1 , R2 , . . . , R7 , uvedené v tabulce: Očíslování hodnot xi Vzestupně uspořádané hodnoty xi Pořadí Ri
17.1
1 1 1
2 3 2 5 2 4
4 5 4
5 6 5 9 4 6,5
7 9 6,5
Znaménkový test
Nechť x1 , x2 , . . . , xn je náhodný výběr z rozdělení se spojitou distribuční funkcí, x˜ je medián tohoto rozdělení, potom platí: 1 P (X < x˜) = P (X > x˜) = . 2 Chceme testovat hypotézu H0 : x˜ = x0
proti alternativě H1 : x˜ 6= x0 ,
kde x0 je dané číslo (nejčastěji rovno nule). Utvoříme nejprve rozdíly X1 − x0 , X2 − x0 , . . . , Xn − x0 . Náhodná veličina Y pak bude označovat počet těch rozdílů, které mají kladné znaménko. Za předpokladu platnosti hypotézy H0 má náhodná veličina Y binomické rozdělení s parametry n a 21 . Při oboustranném testu tvoří kritický obor jednak příliš malé hodnoty Y (tj. hodnoty ležící blízko nule), jednak příliš velké hodnoty Y (tj. hodnoty blízké n ). V případě malého rozsahu výběru (tj. pro malá n ) jsou tabelována čísla k1 , k2 tak, že α α P (Y ≤ k1 ) ≤ , P (Y ≥ k2 ) ≤ 2 2 pro α = 0, 05 a pro α = 0, 01. Kritické hodnoty k1 , k2 je možné nalézt v tabulkách. Hypotézu H0 tedy zamítáme, jestliže zjistíme, že Y ≤ k1 nebo Y ≥ k2 .
204
CHAPTER 17. NEPARAMETRICKÉ TESTY
Při velkém rozsahu náhodného výběru (stačí n ≥ 20) vypočteme U=
2Y − n √ . n
Veličina U má za platnosti H0 podle CLV asymtoticky rozdělení N(0,1), tudíž hypotézu H0 zamítneme, jestliže
α . |U | ≥ u 1 − 2
Znaménkový test je možné provést též jako párový test. Na rozdíl od párového t testu nemusíme k provedení znaménkového testu znát přesné hodnoty Xi , Yi , i = 1, 2, ..., n, ale stačí vědět, zdali je rozdíl Xi − Yi kladný nebo záporný. Z tohoto důvodu je znaménkový test použitelný i v případě, kdy jsou k dispozici pouze kvalitativní srovnání, např. lék A působí lépe než lék B. U znaménkového testu můžeme dojít k tomu, že některé rozdíly budou rovny nule. Např. u kvalitativního srovnání není subjekt schopen rozhodnout o vlivu tím či oním směrem. V tomto případě se doporučuje nulové hodnoty vynechat a za n vzít jen počet nenulových hodnot.
17.2
Jednovýběrový Wilcoxonův test
Tento test se rovněž nejčastěji používá jako test párový. Jeho provedení je o něco náročnější než provedení znaménkového testu, zato je však citlivější. Předpokládejme, že X1 , X2 , . . . , Xn je náhodný výběr ze spojitého rozdělení s distribuční funkcí F (x). Chceme testovat hypotézu, že F je symetrická kolem nuly v tom smyslu, že F (x) = 1 − F (−x),
−∞ < x < ∞.
v tomto případě je nula mediánem daného rozdělení. Seřaďme X1 ,X2 ,. . .,Xn do rostoucí posloupnosti podle velikosti jejich absolutní hodnoty, tj. |X|(1) < |X|(2) < ... < |X|(n) .
17.2. JEDNOVÝBĚROVÝ WILCOXONŮV TEST
205
Při tomto uspořádání označíme Ri+ pořadí Xi a zavedeme veličiny S+ =
X
Ri+ ,
S− =
Xi ≥0
X
Ri+
Xi <0
vyjadřující součet pořadí nezáporných hodnot Xi , resp. záporných hodnot. Pokud jsme určili veličiny S + a S − správně, musí platit S + + S − = n(n+1) , 2 neboť sčítáme čísla od 1 do n. Pro testování symetričnosti distribuční funkce kolem nuly použijeme statistiku min(S + , S − ). Pokud je tato statistika menší nebo rovna tabelované kritické hodnotě, hypotézu zamítneme. Kritické hodnoty jsou uvedeny v tabulkách. Pro větší hodnoty n opět použijeme testovou statistiku, která bude mít asymptoticky rozdělení N (0,1) a tvar
V případě
S + − 41 n(n + 1) U=p . 24n(n + 1)(2n + 1)
α ) 2 zamítneme hypotézu na hladině, která je asymptoticky rovna α. |U | ≥ u(1 −
Příklad 17.1 Speciální cvičení na paměťové počítání bylo testováno na 11 žácích. V následující tabulce jsou uvedeny časy v sekundách, za které vyřešili kontrolní úlohy před cvičením a po cvičení. Můžeme tvrdit, že tato cvičení zlepšují schopnost žáků při řešení úloh na hladině α = 0, 05? Před cvičením Po cvičení Rozdíly Pořadí absolutních hodnot
87 61 98 90 93 74 83 72 81 75 83 50 45 79 90 88 65 52 79 84 61 52 37 16 19 0 5 9 29 -7 -3 14 31 11 7 8 1 3 5 9 4 2 6 10
Testujeme hypotézu H0 : F (x) = 1 − F (−x), neboli hypotézu, že cvičení
nemá vliv na schopnost řešení úloh.
206
CHAPTER 17. NEPARAMETRICKÉ TESTY
S + = 1 + 3 + 5 + 6 + 7 + 8 + 9 + 10 + 11 = 60 S− = 2 + 4 = 6 Kritická hodnota jednovýběrového Wilcoxonova testu je w11 (0, 05) = 10 min(S + , S − ) < w11 (0, 05), z toho plyne, že zamítáme hypotézu H0 na hladině 5%. Tato úloha se dá řešit i znaménkovým testem, avšak při něm nevyužijeme všech informací, které známe, a to může vést k mylným závěrům. Počet kladných hodnot je Y = 9. Kritické hodnoty znaménkového testu jsou k1 = 1, k2 = 10. k1 < Y < k2 , z toho plyne, že nezamítáme hypotézu. V tomto případě dostaneme rozdílné výsledky obou testů. Znaménkový test nemá dostatek informací pro zamítnutí hypotézy H0 , protože využívá pouze počtu záporných hodnot, zatímco u Wilcoxonova testu využijeme navíc znalosti toho, že záporné hodnoty jsou poměrně malé. Řekneme, že Wilcoxonův test je silnější než znaménkový test.
17.3
Dvouvýběrový Wilcoxonův test
Tento test se používá nejčastěji místo dvouvýběrového t testu. Opět dochází k zobecnění předpokladu, který je kladen na distribuční funkce daných náhodných výběrů. Nechť X1 , X2 , . . . , Xn1 a Y1 , Y2 , . . . , Yn2 jsou dva nezávislé výběry ze dvou spojitých rozdělení. Chceme testovat hypotézu, že distribuční funkce obou rozdělení jsou totožné. Oba výběry X1 , X2 , . . . , Xn1 , Y1 , Y2 , . . . , Yn2 uspořádáme společně, jako jeden výběr, vzestupně podle velikosti. Zjistíme součet pořadí hodnot X1 , X2 , ..., Xn1 ve spojených výběrech. Součet označíme T1 . Dále zjistíme součet pořadí hodnot Y1 , Y2 , ..., Yn2 a označíme ho T2 . Vypočteme U1 = n1 n2 +
n1 (n1 + 1) − T1 , 2
U2 = n1 n2 +
n2 (n2 + 1) − T2 . 2
17.3. DVOUVÝBĚROVÝ WILCOXONŮV TEST
207
1 +n2 ) Vzhledem k tomu, že T1 + T2 = (n1 +n2 +1)(n , platí U1 + U2 = n1 n2 . Pokud 2 min(U1 , U2 ) je menší nebo rovno kritické hodnotě uvedené v tabulce, zamít-
neme hypotézu, že distribuční funkce obou rozdělení jsou stejné. Při velkém rozsahu obou výběrů opět přejdeme ke statistice, která má za platnosti hypotézy asymptoticky rozdělení N(0,1) a tvar U1 − n12n2 p . U0 = n1 n2 (n1 + n2 + 1) 12
Pokud |U0 | ≥ u(1 − α2 ), zamítneme hypotézu na hladině asymptoticky rovné
α.
Příklad 17.2 V následující tabulce je uvedena délka těla larev chrobáků žijících v osevech zimní rýže a prosa. Délka v rýži 7 10 14 15 12 16 12 Délka v prosu 11 12 16 13 18 15 Pořadí délek v rýži 1 2 8 9.5 5 11.5 5 Pořadí délek v prosu 3 5 11.5 7 13 9.5 Naším úkolem je porovnat rozdělení těchto délek na hladině α = 0, 05. Součet pořadí v rýži je roven T1 = 42 a v prosu je roven T2 = 49. n1 = 7 a n2 = 6. Spočteme U1 = 42 + 56/2 − 42 = 28, U2 = 42 + 42/2 − 49 = 14. Kritická hodnota dvouvýběrového Wilcoxonova testu na hladině α = 0, 05 pro rozsahy výběrů 7,6 je rovna W7,6 (0, 05) = 6. Protože min(U1 , U2 )> W7,6 (0, 05), nezamítáme hypotézy o shodnosti rozdělení obou výběrů.
Chapter 18 Porovnání více výběrů V praktických situacích dochází často k situacím, kdy máme jednu skupinu kontrolní a několik skupin pokusných. Úkolem je ověřit, zda rozdíly mezi všemi těmito skupinami jsou nahodilé nebo zda se mezi nimi projevují nějaké systematické odchylky. K tomuto účelu slouží níže uvedené testy.
18.1
Analýza rozptylu jednoduchého třídění
Tento test je zobecněním dvouvýběrového t testu, který rozšíříme na případ (I ≥ 3) výběru. Uvažujme tedy I nezávislých výběrů, Y11 , ..., Y1n1 je výběr z N (µ1 , σ 2 ) atd. až YI1 , ..., YInI je výběr z N (µI , σ 2 ). Chceme testovat hypotézu H0 : µ1 = . . . = µI proti alternativě, že existují alespoň dvě střední hodnoty, které si rovny nejsou. Někdy se uvedená situace zapisuje modelem: Yij = µ + αi + eij , 208
18.1. ANALÝZA ROZPTYLU JEDNODUCHÉHO TŘÍDĚNÍ
209
kde µ+αi = µi a eij ∼N(0, σ 2 ) je chyba vyplývající z nepřesnosti měření nebo ze systematické odchylky od průměru. Hypotézu H0 přepíšeme na jednodušší model, který je splněn, pokud platí hypotéza H0 : Yij = µ + eij . Test provedeme následovně. Nejprve si označme průměry jednotlivých výběrů Yi1 + ... + Yini ni
Yi = a průměr všech hodnot
Y =
pro i = 1, ..., I
P P i
j
Yij
n
,
kde n = n1 + . . . + nI . Nyní spočtěme celkový součet čtverců ST (tj. celková kvadratická chyba modelu za platnosti H0 , tedy v případě že µ1 = . . . = µI = µ). Za odhad µ se bere Y . ST =
XX XX 2 (Yij − Y )2 = Yij2 − nY . i
j
i
j
Reziduální součet čtverců Se je celková kvadratická chyba modelu za předpokladu, že hypotéza H0 neplatí, tedy v případě že µ1 6= . . . 6= µI . Za odhad µi se bere Y i . Se =
XX i
j
(Yij − Y i )2 =
XX i
j
Yij2 −
X
2
ni Y i .
i
Veličina SA = ST − Se se interpretuje jako součet čtverců připadající na rozdíly v ošetřeních. Tato veličina je vždy kladná, protože chyba obecnějšího modelu Se je vždy menší než chyba jednoduššího modelu ST . Je-li SA malé,
pak jsou si oba modely podobné, a tudíž nebudeme zamítat hypotézu H0 . Je-li SA velké, pak obecnější model vysvětluje velkou část celkové chyby ST a tudíž zamítneme H0 .
210
CHAPTER 18. POROVNÁNÍ VÍCE VÝBĚRŮ
Za platnosti hypotézy H0 má statistika FA =
(n − I)SA ∼ FI−1,n−I (I − 1)Se
F rozdělení o I − 1 a n − I stupních volnosti. Tedy hypotézu H0 zamítneme
na hladině α v případě, že
FA ≥ FI−1,n−I (1 − α). Výsledky celého testu se stručně zapisují do tabulky (viz tabulka 18.1). Variabilita ošetření reziduální celková
součet čtverců S SA Se ST
počet stupňů podíl volnosti f S/f fA = I − 1 SA /fA fe = n − I Se /fe ft = n − 1 -
F FA -
Table 18.1: Tabulka analýzy rozptylu
Přepoklady tohoto testu jsou obdobné předpokladům dvouvýběrového t testu (viz strana 197). Nejdůležitější je opět nezávislost jednotlivých výběrů, normalita může být porušena, pokud rozsahy výběrů umožňují použití CLV. Není-li tomu tak, je vhodnější provést neparametrickou obdobu tohoto testu, která se nazývá Kruskalův-Wallisův test. Posledním předpokladem je shodnost rozptylů všech výběrů. Pokud by odhad některého rozptylu vycházel velmi odlišně od ostatních, měli bychom provést test shody rozptylů (viz např. [2]). Veličina s2 = Se /(n − I) se nazývá reziduální rozptyl a je nestranným odhadem rozptylu σ 2 . Poznámka 18.1 Mohlo by se zdát, že výše uvedený test by se dal provádět sadou dvouvýběrových t testů, provedených na každou dvojici výběrů. Ovšem
18.1. ANALÝZA ROZPTYLU JEDNODUCHÉHO TŘÍDĚNÍ
211
takových testů bychom museli udělat I(I − 1)/2. Kdyby každý z nich byl proveden na hladině α, byla by výsledná hladina výrazně větší než α. Pokud bychom hladinu každého testu snížili na 2α/I(I − 1), byla by celková hladina naopak podstatně menší než α. Ukazuje se, že tento postup nevede k dobrým výsledkům.
V případě, že hypotézu H0 zamítneme, je často třeba rozhodnout, pro které dvojice indexů platí µi 6= µj . Tento problém řeší Tukeyova metoda mnohonásobného porovnání. Protože Y i je odhadem pro µi , vytvoří se nejprve tabulka rozdílů Y i − Y j
(viz tabulka 18.2).
i
2
1 2 .. .
Y1−Y2 .. .
j 3
...
I
Y1−Y3 Y2−Y3 .. .
... ... ...
Y1−YI Y2−YI .. .
I −1
Y I−1 − Y I Table 18.2: Rozdíly průměrů
Statistika |Y − Y j | q i ∼ qI,n−I s 12 ( n1i + n1j )
má rozdělení nazývající se studentizované rozpětí. Kritická hodnota qI,f (α) studentizovaného rozpětí je takové číslo, pro něž platí P [Q ≥ qI,f (α)] = α. Tyto kritické hodnoty jsou tabelovány. Tudíž platí-li
s 1 1 1 , |Y i − Y j | ≥ sqI,n−I (α) + 2 ni nj
212
CHAPTER 18. POROVNÁNÍ VÍCE VÝBĚRŮ
zamítáme hypotézu o rovnosti µi = µj . Provedeme-li tento postup pro všechny dvojice, pak hladina testu je menší nebo rovna α. Rovnost nastává v případě, že všechny výběry mají stejný rozsah. Abychom se lépe orientovali ve výsledcích Tukeyovy metody, připisuje se do tabulky 18.2 ke každému rozdílu hvězdička, pokud je rozdíl významný (signifikantní) na hladině 0,05. Dvě hvězdičky pro významnost na hladině 0,01 a tři pro 0.001. Příklad 18.1 Sleduje se účinek tří protikorozních látek. První byla použita ve 20 případech, druhá ve 25 případech a třetí ve 22 případech. Po stanovené době byl zjištěn stupeň poškození s těmito výsledky Y 1 = 82, 4;
S12 = 12;
Y 2 = 80;
S22 = 10;
Y 3 = 85, 8;
S32 = 12.
Bohužel konkrétní měření se nedochovala. Postupně vypočteme: n = 67,
Y =
(n1 Y 1 + n2 Y 2 + n3 Y 3 )/n = 82.64. P 2 n 2 P 2 1 Podle definice výběrového rozptylu Si2 = n−1 j Yij − n−1 Y i vypočteme j Y1j = P 2 P 2 136023, j Y2j = 160240, j Y3j = 162208. Odtud již můžeme vyjádřit tabulku analýzy rozptylu: variabilita mezi látkami reziduální celková
S f S/f F 183,5 2 91,75 8,15** 720 64 11,25 903,5 66 -
. Kritická hodnota F2,64 (0, 99) = 4.98, tudíž zamítáme hypotézu o shodnosti všech protikorozních látek. Nyní je třeba odhalit, které rovnosti jsou porušeny. Vytvořme tabulku rozdílů průměrů: rozdíly 1. látka 2. látka
2. látka 3. látka 2,4 -3,4** -5,8**
18.2. KRUSKALŮV-WALLISŮV TEST
213
. v tabulkách nalezneme kritickou hodnotu studentizovaného rozpětí q3,64 (0, 01) = 4, 28 a vypočteme hodnoty zamítnutí pro každou dvojici zvlášť: hodnoty zamítnutí 2. látka 3. látka 1. látka 2,93 3,01 2. látka 2,85 Vidíme, že byla prokázána rozdílnost třetí protikorozní látky s ostatními na hladině 0, 01, naproti tomu nebyla prokázána rozdílnost první a druhé látky na hladině 0, 01.
18.2
Kruskalův-Wallisův test
Tento test je neparametrickou obdobou analýzy rozptylu jednoduchého třídění a je zobecněním Wilcoxonova dvouvýběrového testu, který rozšíříme na případ I výběru (I ≥ 3). Uvažujme k nezávislých výběrů, které jsou postupně o rozsahu n1 , n2 , ..., nI . Označme n = n1 + n2 + ... + nI . Předpokládejme, že každý tento výběr pochází z nějakého rozdělení se spojitou distribuční funkcí.
Chceme testovat hypotézu, že všechny výběry pocházejí z téhož rozdělení. Tento test je citlivý zejména na vzájemné posunutí jednotlivých rozdělení. Podobně jako u Wilcoxonova dvouvýběrového testu seřadíme všech n prvků z I výběru do rostoucí posloupnosti a určíme pořadí každého prvku. Označme Ti součet pořadí těch prvků, které patří do i-tého výběru (i = 1, 2, ..., I). Vzhledem k tomu, že celkový počet prvků ze všech výběrů je n, musí platit T1 + T2 + ... + TI = n(n+1) . Tohoto vztahu můžeme využít ke kontrole 2 správnosti výpočtu Ti . V případě platnosti hypotézy má pak statistika I
Q=
X T2 12 i − 3(n + 1) ∼ χ2I−1 n(n + 1) i=1 ni
při n −→ ∞ asymptoticky χ2 rozdělení o I −1 stupních volnosti. Jestliže Q ≥ χ2I−1 (1 − α), zamítneme hypotézu na hladině, která je asymptoticky rovna α.
Pokud hypotézu zamítneme, tvrdíme, že všechny výběry nepocházejí z téhož
214
CHAPTER 18. POROVNÁNÍ VÍCE VÝBĚRŮ
rozdělení. V tomto případě nás pak zajímá, které výběry se od sebe vzájemně liší. v případě, že rozsahy všech výběrů jsou stejné, použijeme za tímto účelem Neményho metodu mnohonásobného srovnávání. Je-li číslo |Ti − Tj | větší nebo rovno kritické hodnotě (kritické hodnoty, s nimiž tato metoda pracuje, jsou tabelovány), zamítá se hypotéza, že i-tý a j-tý výběr pocházejí z téhož rozdělení. Tento postup se aplikuje na všech I(I−1) čísel |Ti − Tj |. 2 V případě, že rozsahy všech výběrů nejsou stejné, označíme ti = Ti /ni , i = 1, . . . , I a prohlásíme, že se distribuční funkce i-tého a j-tého výběru od sebe významně liší, pokud
|ti − tj | >
s
1 12
1 1 + ni nj
n(n + 1)χ2I−1 (1 − α).
Příklad 18.2 Byla sledována doba bezporuchového chodu 8 přístrojů tří různých značek A, B a C. Výsledky jsou shrnuty v následující tabulce: A 48 16 75 29 96 67 89 22 B 46 94 20 87 66 25 14 75 C 58 17 65 34 26 63 74 106 Lze předpokládat, že jednotlivé výběry jsou z exponenciálního rozdělení, tudíž pro porovnání kvality provedení přístrojů u jednotlivých značek nemůžeme použít analýzu rozptylu. Proto použijeme Kruskalův-Wallisův test. Data uspořádáme v jednom společném výběru, výsledky jsou znázorněny v následující tabulce:
A 11 2 18,5 8 23 16 21 5 celkem 104,5 B 10 22 4 20 15 6 1 18.5 celkem 96,5 C 12 3 14 9 7 13 17 24 celkem 99 Vypočteme Q = 0, 08375. Kritická hodnota χ22 (0, 95) = 5, 99, tudíž nezamítáme hypotézu H0 . Data neprokázala významný rozdíl mezi kvalitami provedení všech značek.
18.3. ANALÝZA ROZPTYLU DVOJNÉHO TŘÍDĚNÍ
18.3
215
Analýza rozptylu dvojného třídění
Uvažujme model: kde i = 1, . . . , I,
Yij = µ + αi + βj + eij ,
j = 1, . . . , J,
(18.1)
kde µ, αi pro i = 1, . . . , I a βj pro j = 1, . . . , J jsou neznámé parametry a eij ∼N(0, σ 2 ) je chyba vyplývající z nepřesnosti měření nebo ze systematické odchylky od průměru. To znamená, že naměřené veličiny Yij závisí jak na sloupci, tak na řádku, ve kterém se vyskytují. Navíc v každém řádku máme stejný počet prvků. Představme si např. situaci, kdy měříme na J pacientech tlak v I okamžicích (např. ráno, v poledne a večer). Každý pacient má jinou průměrnou hodnotu tlaku µ+βj . Výchylky během dne jsou určeny parametry αi . Je vidět, že ve výše uvedeném modelu jsou dva parametry nadbytečné. Abychom tomuto předešli, klademe na parametry dvě dodatečné podmínky: X
X
αi = 0,
i
βj = 0.
j
Nyní chceme testovat hypotézu H0 : α1 = . . . = αI = 0 (tj. že nezáleží na řádkovém třídění), kterou přepíšeme na jednodušší model odpovídající jednoduchému třídění: Yij = µ + βj + eij . Test provedeme následovně. Nejprve si označme průměry jednotlivých výběrů Y i. =
Yi1 + ... + YiJ J
pro i = 1, ..., I,
Y .j =
Y1j + ... + YIj I
pro j = 1, ..., J
a průměr všech hodnot Y =
P P i
n
j
Yij
,
216
CHAPTER 18. POROVNÁNÍ VÍCE VÝBĚRŮ
kde n = IJ. Nyní spočtěme celkový součet čtverců ST (tj. celková kvadratická chyba, v případě že α1 = . . . = αI = β1 = . . . = βJ = 0.) Za odhad µ se bere Y . ST =
XX i
j
(Yij − Y )2 =
XX i
j
2
Yij2 − nY .
Součet čtverců chyb v řádcích označíme X 2 2 SA = J Y i. − nY . i
Součet čtverců chyb ve sloupcích označíme X 2 2 SB = I Y .j − nY . j
Reziduální součet čtverců Se = ST − SA − SB je celková kvadratická chyba modelu 18.1. Stupně volnosti jednotlivých součtů čtverců jsou: fT = n − 1,
fA = I − 1,
fB = J − 1,
fe = n − I − J + 1.
Hypotézu H0 zamítneme na hladině α v případě, že FA =
SA /fA ≥ FfA ,fe (1 − α). Se /fe
Podobně budeme postupovat v případě testování hypotézy H0′ : β1 = . . . = βJ = 0 (tj. že nezáleží na sloupcovém třídění), kterou přepíšeme na jednodušší model odpovídající jednoduchému třídění: Yij = µ + αi + eij . Hypotézu H0′ zamítneme na hladině α v případě, že FB =
SB /fB ≥ FfB ,fe (1 − α). Se /fe
217
18.3. ANALÝZA ROZPTYLU DVOJNÉHO TŘÍDĚNÍ Variabilita řádková sloupcová reziduální celková
součet čtverců S SA SB Se fe ST
počet stupňů volnosti f fA = I − 1 fB = J − 1 =n−I −J +1 ft = n − 1
podíl S/f SA /fA SB /fB Se /fe -
F FA FB -
Table 18.3: Tabulka analýzy rozptylu dvojného třídění
Výsledky celého testu se stručně zapisují do tabulky (viz tabulka 18.3). Reziduální rozptyl s2 = Se /fe je nestranným odhadem rozptylu σ 2 . v případě, že hypotézu H0 zamítneme, je často třeba rozhodnout, pro které dvojice indexů neplatí rovnost. Tento problém řeší, stejně jako u jednoduchého třídění, Tukeyova metoda mnohonásobného porovnání. Rovnost αi = αl zamítneme, platí-li |Y i. − Y l. | ≥ sqI,n−I−J+1 (α)
r
1 . J
Rovnost βj = βl zamítneme, platí-li |Y .j − Y .l | ≥ sqJ,n−I−J+1 (α)
r
1 . I
Poznámka 18.2 Model 18.1 se dá dále zobecňovat. Např. pro každé i, j můžeme mít P dat. Yijp = µ + αi + βj + eijp ,
kde
i = 1, . . . , I,
j = 1, . . . , J,
Je možné sledovat interakce v modelu mezi řádky a sloupci Yijp = µ + αi + βj + λij + eijp .
p = 1, . . . , P.
218
CHAPTER 18. POROVNÁNÍ VÍCE VÝBĚRŮ
Dále je také možné sledovat závislost veličin na třech typech parametrů - tzv. trojné třídění. Tyto modely jsou řešeny např. v [1], [2]. Neparametrickou obdobou výše popsaného dvojného třídění je Friedmanův test.
Příklad 18.3 Byl sledován vliv tří preparátů na srážlivost krve. Kromě jiných ukazatelů byl zjišťován tzv. trombinovaný čas. U každé osoby byl stanoven nejprve kontrolní údaj (K), který udává trombinovaný čas před zahájením pokusu. Pak byly aplikovány preparáty A,B,C, a to každý dostatečně dlouho po odeznění účinku těch předchozích. Údaje o 10 sledovaných osobách jsou uvedeny v následující tabulce (viz [1]).
Osoba Preparát K A 11,3 B 11,9 C 11,8 D 12,1 E 11,2 F 11,3 G 10,8 H 12,0 I 11,5 J 11,7 Y .j 11,56
A 11,2 12,1 13,2 12,8 13,5 12,5 10,7 13,8 12,9 11,9 12,46
B 11,4 11,8 12,0 12,0 11,5 11,5 10,9 11,6 11,3 11,3 11,53
C 11,0 9,5 11,1 12,5 8,4 9,0 9,7 12,2 10,3 8,2 10,19
Y i. 11,225 11,325 12,025 12,35 11,15 11,075 10,525 12,4 11,5 10,775 11,435
Odtud již můžeme vyjádřit tabulku analýzy rozptylu: variabilita řádková (osoby) sloupcová (preparáty) reziduální celková
S f S/f 14,606 9 1,62 26,253 3 8,75 16,992 27 0,63 57,851 39 -
F 2,58* 13,9** -
219
18.4. FRIEDMANŮV TEST
. Kritická hodnota F9,27 (0, 95) = 2, 25, tudíž zamítáme hypotézu, že všechny osoby mají stejný trombinový čas na hladině 0, 05. . Kritická hodnota F3,27 (0, 99) = 4, 6, tudíž zamítáme hypotézu, že preparáty nemají vliv na trombinový čas na hladině 0, 01. Hypotéza o shodnosti trombinového času v závislosti na osobách nás zajímat nebude. Její neplatnost jsme předpokládali již na začátku, proto jsme také zvolili dvouvýběrové třídění. Nyní je třeba odhalit, které rovnosti mezi preparáty jsou porušeny. Vytvořme tabulku rozdílů průměrů: rozdíly A B C K -0,9 0,03 1,37** A 0,93 2,27** B 1,34** . v tabulkách nalezneme kritickou hodnotu studentizovaného rozpětí q4,27 (0, 01) = p . 4, 85, q4,27 (0, 05) = 3, 875 a vypočteme hodnoty zamítnutí sq4,27 (0, 01) 1/10 = p p 0, 79q4,27 (0, 01) 1/10 = 1, 22, sq4,27 (0, 05) 1/10 = 0, 97.
Vidíme, že preparát C významně snižuje trombinový čas jak ve vztahu k počátečnímu stavu, tak k preparátům A a B.
18.4
Friedmanův test
Tento test je neparametrickou obdobou analýzy rozptylu dvojného třídění. Máme I · J nezávislých pozorování, které uspořádáme do tabulky Náhodné veličiny Yij mají spojitou distribuční funkci Fij , 1, 2, ..., J a jsou vzájemně nezávislé. Budeme testovat hypotézu H0 : Fi1 = Fi2 = ... = FiJ .
i = 1, 2, .., I
j=
220
CHAPTER 18. POROVNÁNÍ VÍCE VÝBĚRŮ Sloupce 1 Řádky 1 Y11 2 Y21 . ... . ... . ... I YI1
2
3
Y12 Y22 ... ... ... YI2
Y13 Y23 ... ... ... YI3
...
J
. . . Y1J . . . Y2J ... ... ... . . . YIJ
Table 18.4: Pozorované veličiny Neboli testujeme hypotézu, zda Fij závisí na sloupcovém indexu j, přičemž předpokládáme, že mohou záviset na řádkovém indexu i. Uspořádáme pozorování v každém řádku podle velikosti a označíme příslušná pořadí Ri1 ,Ri2 ,. . .,RiJ , i = 1, 2, ..., I. Sloupce 1 Řádky 1 R11 2 R21 . ... . ... . ... I RI 1 Sloupcové součty R.1
2
3
...
J Řádkové součty
R12 R22 ... ... ... RI 2 R.2
R13 R23 ... ... ... ... ...
... ... ... ... ...
R1J R2J
J(J+1) 2 J(J+1) 2
RI J R.J
J(J+1) 2 R.. = IJ(J+1) 2
Table 18.5: Pořadí a součty pozorovaných veličin Zde R.j =
P
i
Rij , R.. =
P P i
j
Rij .
Statistika Friedmanova testu je dána vzorcem J
Q=
X 12 R2 − 3I(J + 1). IJ(J + 1) j=1 .j
(18.2)
Hypotézu H0 zamítneme, jestliže Q překročí kritickou hodnotu uvedenou
221
18.4. FRIEDMANŮV TEST
v tabulkách. Při větších hodnotách I se za kritickou hodnotu bere χ2J−1 (1 − α). Zamítneme-li hypotézu, zajímá nás, které sloupce se od sebe liší. Za tímto účelem vytvoříme tabulku hodnot |R.j − R.m | pro všechna j < m. Je-li některá z hodnot |R.j − R.m | větší nebo rovna kritické hodnotě, která je
tabelovaná, zamítne se na odpovídající hladině významnosti hypotéza, že Fij = Fim .
Příklad 18.4 Vraťme se k příkladu 18.3 a řešme jej nyní Friedmanovým testem. Vytvoříme pořadí Rij : Osoba Preparát K A A 3 2 B 3 4 C 2 4 D 2 4 E 2 4 F 2 4 G 3 2 H 2 4 I 3 4 J 3 4 P 25 36
B 4 2 3 1 3 3 4 1 2 2 25
C 1 1 1 3 1 1 1 3 1 1 14
Podle vzorce 18.2 vypočteme Q=
12 (252 + 362 + 252 + 142 ) − 3 · 10 · 5 = 14, 52∗∗ . 10 · 4 · 5
v tabulkách nalezneme, že kritická hodnota na hladině 0,01 pro Friedmanův test je rovna 10,53. Tudíž zamítáme hypotézu, že trombinový čas nezávisí na preparátech K,A,B,C na hladině 0,01.
222
CHAPTER 18. POROVNÁNÍ VÍCE VÝBĚRŮ
Abychom zjistili, který z preparátů K,A,B,C se od sebe liší, vypočteme hodnoty |R.j - R.m |: K A B
A 11
B 0 11
C 11 22** 11
Kritická hodnota pro mnohonásobné porovnávání u Friedmanova testu na hladině 0,01 je 18,0, tudíž významný se ukazuje pouze rozdíl mezi preparáty A a C. Porovnáme-li výsledky s příkladem 18.3, vidíme, že Friedmanův test je slabší než analýza rozptylu dvojného třídění. Na druhou stranu Friedmanův test můžeme použít i v případě nenormálních rozdělení nebo v případě, kdy známe pouze pořadí výsledků.
Chapter 19 Lineární regrese V praxi se můžeme často setkat ze situací, že některé náhodné veličiny jsou snadno dostupné a dají se jednoduše změřit nebo jinak zjistit, zatímco jiné veličiny se určují obtížně nebo se o nich dozvíme až s velkým časovým odstupem. Pokud mezi těmito dvěma druhy veličin existuje nějaký vztah, lze z jedněch odhadnout druhé, resp. předpovědět. Pro tento účel slouží metody lineární regrese, jejichž základy jsou v této kapitole popsány.
19.1
Lineární regrese s jednou vysvětlující proměnnou
Regresní model Y = f (x) vysvětluje závislost veličiny Y na hodnotách x prostřednictvím regresní funkci f . Cílem regrese je najít regresní funkci f , známe-li n pozorovaných dvojic (x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ), 223
224
CHAPTER 19. LINEÁRNÍ REGRESE
kde xi jsou hodnoty nezávislé (hodnoty vysvětlující proměnné x) a yi jsou hodnoty závislé (hodnoty vysvětlované veličiny Y ). Předpokládejme, že hodnoty yi jsou naměřeny s určitou chybou ei . Pro odvození všech testů a intervalových odhadů v průběhu celé této kapitoly klademe na chyby ei předpoklad, že mají normální rozdělení N(0, σ 2 ). Pro odvození bodových odhadů tento předpoklad není nutný. Jinak řečeno, máme n pozorování vysvětlované veličiny Y v n známých hodnotách vysvětlující proměnné x, tudíž máme n rovnic:
Yi = f (xi ) + ei ,
i = 1, 2, . . . , n.
Za lineární regresi považujeme regresi, jejíž regresní funkce je lineární f (x) = β0 + β1 x. Cílem lineární regrese je nalezení parametrů β0 a β1 . Tento úkol provedeme metodou nejmenších čtverců. Tato metoda spočívá v tom, že hledáme parametry β0 a β1 , pro něž je součet čtverců chyb modelu minimální. Tedy hledáme minimum funkce g(β0 , β1 ) =
n X i=1
(Yi − (β0 + β1 xi ))2 .
Tudíž řešíme soustavu rovnic δg(β0 , β1 ) = 0, δβ0
δg(β0 , β1 ) = 0. δβ1
Po úpravách obdržíme tyto odhady: P P xi Yi − nxY (xi − x)Yi P = , b0 = Y − b1 x, (19.1) b1 = (xi − x)2 x2i − nx2 P P kde x = n1 xi a Y = n1 Yi . Odhady b0 , b1 jsou nejlepší nestranné odhady, tzn. že odhady b0 , b1 jsou nestranné (Eb0 = β0 , Eb1 = β1 ) a mají nejmenší
rozptyl ze všech nestranných odhadů.
19.1. LINEÁRNÍ REGRESE S JEDNOU VYSVĚTLUJÍCÍ PROMĚNNOU225 Minimum funkce g Se = g(b0 , b1 ) =
X
(Yi − (b0 + b1 xi ))2 =
X
Yi2 − b0
X
Yi − b1
X
xi Yi
se nazývá reziduální součet čtverců. Odhad rozptylu chyb σ 2 je s2 = Celkový součet čtverců ST =
Se . n−2
X
(Yi − Y )2
vyjadřuje celkovou kvadratickou chybu regresního modelu. Vhodnost modelu posuzujeme koeficientem determinace R2 = 1 −
Se ST − Se = , ST ST
který vyjadřuje, jaká část celkové chyby ST je vysvětlena regresním modelem. (Chyba Se obsahuje to, co regresní model nedokázal vysvětlit). Koeficient determinace můžeme také počítat podle vzorce P b ( Yi − Y ) 2 2 , R =P (Yi − Y )2
kde Ybi = fb(xi ) = b0 + b1 xi je regresní odhad hodnoty regresní funkce v bodě
xi . Je zřejmé, že čím blíže je R2 jedné, tím lépe regresní model vystihuje naměřená data. Někdy se uvádí: je-li koeficient determinace větší než 0,85, můžeme říci, že model je vhodně zvolen. Nejčastěji se zabýváme otázkou, zda je možné model zjednodušit tak, že hodnoty Yi vůbec nezávisí na xi . Tudíž testujeme hypotézu H0 : β1 = 0 proti H1 : β1 6= 0 Za platnosti H0 má testová statistika q b1 X 2 T = xi − nx2 ∼ tn−2 s
226
CHAPTER 19. LINEÁRNÍ REGRESE
Studentovo rozdělení o n − 2 stupních volnosti. Tudíž pokud |T | ≥ tn−2 (α), zamítneme hypotézu H0 na hladině spolehlivosti α. Zamítneme-li hypotézu H0 tohoto testu, pak jsme vlastně potvrdili lineární závislost Yi na xi , zastřenou náhodnými chybami ei . Intervaly spolehlivosti: Standartním způsobem můžeme vytvořit intervalový odhad pro parametr β1 o spolehlivosti 1 − α: * + tn−2 1 − α2 s tn−2 1 − α2 s b1 − p P . , b1 + p P x2i − nx2 x2i − nx2 Častěji ovšem hledáme intervalový odhad pro β0 + β1 x: s D α 1 (x − x)2 b0 + b1 x − tn−2 1 − +P 2 , s 2 n xi − nx2 α b0 + b1 x + tn−2 1 − s 2
s
1 (x − x)2 E +P 2 . n xi − nx2
Tento interval překrývá hodnotu β0 +β1 x s pravděpodobností 1−α. Sestrojímeli takovéto intervaly pro všechna x ∈ [min xi , max xi ], vytvoříme tzv. pás spolehlivosti kolem regresní přímky. Hranice pásu jsou tvořeny dvěma větvemi hyperboly.
Příklad 19.1 Za prvních sedm měsíců roku má firma záznamy o počtu hodin provozu výrobní linky (xi ) a o nákladech na její údržbu (Yi ) v tisících Kč. xi 275 350 250 325 375 400 300 Yi 149 170 140 164 192 200 165 Najděme nejprve regresní přímku Y = b0 + b1 x. Dosadíme-li do vzorců 19.1, dostaneme: b0 = 42, 75 a b1 = 0, 387. Nyní spočtěme reziduální součet čtverců Se = 148, 821, tudíž odhad rozptylu chyb ei je s2 = 29, 76. Celkový součet čtverců můžeme snadno spočítat jako ST = (n − 1)SY2 , kde SY2 je
19.1. LINEÁRNÍ REGRESE S JEDNOU VYSVĚTLUJÍCÍ PROMĚNNOU227 výběrový rozptyl Y . ST = 2771, 71. Tudíž koeficient determinace R2 = 0, 9463. Nyní se zabývejme hypotézou H0 : β1 = 0. Spočteme statistiku T = 9, 38 a porovnáme ji s hodnotou kvantilu t5 (0, 975) = 2, 57. Tudíž zamítáme hypotézu H0 na 5% hladině. Jak koeficient determinace, tak tento test nám potvrdil vhodnost tohoto lineární modelu. Podívejme se ještě na intervalové odhady. Intervalový odhad o spolehlivosti 95% pro parametr β1 je h0, 2811; 0, 4931i. Odtud je také vidět, že zamítáme
hypotézu H0 . Pás spolehlivosti kolem regresní přímky je ukázán na obrázku 19.1.
200
180
160
140
280
300
320
340
360
380
400
Figure 19.1: Závislost provozních nákladů na době provozu. Body zobrazují naměřené hodnoty, plná čára představuje odhadnutou regresní přímku Y = b0 +b1 x a čárkovaně jsou vyznačeny hranice pásu spolehlivosti kolem regresní přímky.
Interpretace modelu: Absolutní člen b0 odhaduje fixní měsíční náklady, nezávislé na délce provozu linky. Lineární člen b1 x odhaduje variabilní náklady přímo úměrné délce provozu.
228
CHAPTER 19. LINEÁRNÍ REGRESE
19.2
Lineární regrese s více vysvětlujícími proměnnými
Regrese patří k základním statickým metodám. Jejím cílem je najít regresní funkci, která se snaží vysvětlit vznik většího počtu pozorovaných náhodných veličin Y1 , Y2 , ..., Yn pomocí známých vlivů Xij a pomocí poměrně malého počtu parametrů β0 , β1 , β2 , ..., βk . Za lineární regresi budeme považovat regresi, ve které je závislost na parametrech β0 , β1 , β2 , ..., βk lineární. K dispozici máme na jednu vysvětlovanou proměnnou k vysvětlujících proměnných. Tedy v tomto odstavci budeme pracovat s modelem: Y = β0 + β1 X1 + ... + βk Xk .
(19.2)
Pokud máme n pozorování, dostaneme pak n rovnic o k + 1 neznámých ve tvaru Yi = β0 + β1 Xi1 + β2 Xi2 + ... + βk Xik + ei ,
kde i = 1, 2, ..., n.
(19.3)
Zde ei jsou náhodné chyby. Pro odvození všech testů a intervalových odhadů v průběhu celé této kapitoly klademe na chyby ei předpoklad, že mají normální rozdělení N(0, σ 2 ). Pro odvození bodových odhadů tento předpoklad není nutný. Maticový zápis tohoto modelu má tvar Y = Xβ + e, kde 1 X11 . . . X1k Y1 e1 β0 1 X21 . . . X2k Y2 e2 β1 Y = .. , X = .. .. .. .. , β = .. , e = .. . . . . . . . . Yn en βk 1 Xn1 . . . Xnk
(19.4)
19.2. LINEÁRNÍ REGRESE S VÍCE VYSVĚTLUJÍCÍMI PROMĚNNÝMI 229 Cílem lineární regrese je odhadnout parametry modelu β0 , β1 , β2 , ..., βk . Pro odhad těchto parametrů se nejčastěji používá metoda nejmenších čtverců. Tato metoda spočívá v minimalizaci funkce n X
g(β0 , β1 , ..., βk ) =
i=1
(Yi − (β0 + β1 Xi1 + β2 Xi2 + ... + βk Xik ))2 .
(19.5)
Nutnou podmínkou pro existenci extrému je nulovost parciálních derivací. Vzhledem k tomu, že daná funkce je ve svém definičním oboru konvexní, je to i postačující podmínka. Zderivujeme-li danou funkci podle všech proměnných a položíme-li parciální derivace rovné nule, dostaneme soustavu následujících rovnic n
X ∂g(β0 , β1 , ..., βk ) =2 (Yi − (β0 + β1 Xi1 + β2 Xi2 + ... + βk Xik ))(−1) = 0 ∂β0 i=1
a
n
X ∂g(β0 , β1 , ..., βk ) =2 (Yi − (β0 + β1 Xi1 + β2 Xi2 + ... + βk Xik ))(−Xij ) = 0, ∂βj i=1
kde j = 1, 2, ..., k.
Po menších úpravách obdržíme
nβ0 + β1
n X
Xi1 + β2
i=1
β0
n X
Xi1 + β1
i=1
β0
n X i=1
Xik + β1
n X i=1
n X i=1
2 Xi1 + β2
n X
Xi2 + ... + βk
Xi2 Xi1 + ... + βk
n X
Yi
i=1
n X
Xik Xi1 =
i=1
i=1
Xik Xi1 + β2
Xik =
i=1
i=1
n X
n X
.. .
n X i=1
Xik Xi2 + ... + βk
n X
Yi Xi1
i=1
n X i=1
2 Xik
=
n X i=1
Yi Xik . (19.6)
230
CHAPTER 19. LINEÁRNÍ REGRESE
Vyřešením této soustavy získáme odhady b0 , b1 , ..., bk parametrů β0 , β1 , β2 , ..., βk . Výše uvedená soustava se nazývá soustava normálních rovnic. Maticový zápis soustavy normálních rovnic je
(XT X) · β = XT Y.
(19.7)
Je-li matice (XT X) regulární (tzn. existuje k ní matice inverzní, označme ji (XT X)−1 ), potom odhad parametrů β = β0 , β1 , β2 , ..., βk je b = (XT X)−1 XT Y.
(19.8)
Minimum funkce g nazýváme reziduální součet čtverců a vypočteme jej X X Se = g(b) = (Yi − (b0 + b1 xi1 + b2 xi2 + . . . + +bk xik ))2 = (Yi − Ybi )2 ,
kde Ybi = b0 + b1 xi1 + b2 xi2 + . . . + bk xik je regresní odhad hodnoty Yi . Odhad Se rozptylu chyb σ 2 je s2 = n−k−1 . s2 nazýváme reziduální rozptyl. Celkový součet čtverců ST = chybu regresního modelu.
P
(Yi −Y )2 vyjadřuje celkovou kvadratickou
Vhodnost modelu posuzujeme koeficientem determinace R2 = 1 −
Se ST − Se = , ST ST
který vyjadřuje, jaká část celkové chyby ST je vysvětlena regresním modelem. (Chyba Se obsahuje to, co regresní model nedokázal vysvětlit). Koeficient determinace můžeme také počítat podle vzorce P b ( Yi − Y ) 2 2 , R =P (Yi − Y )2
kde Ybi = fb(xi ) = b0 + b1 xi1 + . . . + bk xik je regresní odhad Yi . Je zřejmé,
že čím blíže je R2 jedné, tím lépe regresní model vystihuje naměřená data.
19.2. LINEÁRNÍ REGRESE S VÍCE VYSVĚTLUJÍCÍMI PROMĚNNÝMI 231 Někdy se uvádí: je-li koeficient determinace větší než 0,85, můžeme říci, že model je vhodně zvolen. Metodou nejmenších čtverců získáme bodové odhady parametrů β0 , β1 , β2 , ..., βk . Někdy nás však zajímají i intervalové odhady o spolehlivosti 1 − α konstruované pro parametry β0 , β1 , β2 , ..., βk . Intervalový odhad o spolehlivosti 1 − α
pro parametr βi je interval q q −1 −1 bi − tn−k−1 (α) · s (XT X)ii , bi + tn−k−1 (α) · s (XT X)ii ,
(19.9)
T −1 kde (XT X)−1 ii je prvek matice (X X) , nacházející se na i-tém řádku a i-tém sloupci.
Je zřejmé, že čím méně budeme mít vysvětlujících proměnných, tím bude model jednodušší. Proto se nejčastěji zabýváme otázkou, zda je možné model zjednodušit tak, aby hodnoty Yi vůbec nezávisely na xij . Tudíž testujeme hypotézu H0 : βj = 0 proti H1 : βj 6= 0.
Za platnosti H0 má testová statistika b q j T = ∼ tn−k−1 −1 T s · (X X)jj
(19.10)
Studentovo rozdělení o n − k − 1 stupních volnosti. Tudíž pokud |T | ≥ tn−k−1 1 − α2 , zamítneme hypotézu H0 na hladině spolehlivosti α. Zamítnemeli hypotézu H0 tohoto testu, pak jsme vlastně potvrdili lineární závislost Yi na i-té vysvětlující proměnné, zastřenou náhodnými chybami ei .
Někdy se ptáme, zda je možné model zjednodušit o více než jeden parametr, v takovém případě nepoužijeme dva předchozí testy, protože jejich společná hladina by nebyla α, ale použijeme následující test. Testujeme hypotézu H0 : βj1 = βj2 = . . . = βjl = 0,
1 ≤ j1 , . . . , j l ≤ k
232
CHAPTER 19. LINEÁRNÍ REGRESE
proti alternativě, že zjednodušený model neplatí (tj. že alespoň jedno βji 6= 0). Číslo l zde označuje počet parametrů, které se pokoušíme z modelu vypustit. Maticový zápis zjednodušeného modelu má tvar e βe + e Y=X e,
e vznikne z matice X vynecháním sloupců příslušejícím parametrům kde matice X βj1 , βj2 , . . . , βjl . Vektor βe vznikne z vektoru β vynecháním parametrů βj1 , βj2 , . . . , βjl .
Podobně vznikne i ee.
Parametry zjednodušeného modelu βe odhadneme pomocí e = (X e T X) e −1 X e T Y. b
(19.11)
Poté spočteme reziduální součet čtverců pro zjednodušený model X e See = (Yi − Ybi )2 ,
e kde Ybi je regresní odhad Yi ve zjednodušeném modelu. Je zřejmé, že See ≥
Se , neboť Se je minimum funkce g(β) bez jakýchkoli omezení na vektor β, zatímco See je minimum funkce g(β) za podmínky βj1 = βj2 = . . . = βjl = 0.
Za platnosti H0 má pak testová statistika F =
(n − k − 1)(See − Se ) ∼ Fl,n−k−1 lSe
rozdělení Fl,n−k−1 . Tudíž pokud F ≥ Fl,n−k−1 (1 − α), zamítneme hypotézu
H0 na hladině spolehlivosti α, a tudíž model nemůžeme zjednodušit.
Příklad 19.2 V 60-tých letech proběhla ve Velké Británii následující studie. Ve 30 hrabstvích byly naměřeny veličiny: A = změna populace za posledních 10 let, B = počet zaměstnanců v zemědělství, C = velikost daní z nemovitostí, D = procento obyvatel majících telefon, E = procento obyvatel žijících na
19.2. LINEÁRNÍ REGRESE S VÍCE VYSVĚTLUJÍCÍMI PROMĚNNÝMI 233 vesnici, F = průměrný věk. Těmito veličinami měla být vysvětlena veličina Y = procento obyvatel žijících pod hranicí bídy. Tudíž dostáváme lineární regresní model Yi = β0 + βA Ai + βB Bi + βC Ci + βD Di + βE Ei + βF Fi + ei . Matice X bude obsahovat 7 sloupců, kde v prvním budou samé jedničky, ve druhém budou hodnoty veličiny A, ve třetím B, atd. Nyní podle vzorce 19.8 spočteme odhad jednotlivých parametrů b = (b0 ; bA ; bB ; bC ; bD ; bE ; bF )T = (31, 26; −0, 39; 0, 0007; 1, 23; −0, 083; 0, 16; −0; 42)T . Dále spočteme reziduální součet čtverců Se = 265, 66 a celkový součet čtverců ST = 1197, 72. Odtud dostáváme, že R2 = 0, 78. Nyní nás zajímá, jestli některé proměnné můžeme z modelu vypustit (H0 : βj = 0). Za tímto účelem spočteme pro každou proměnnou hodnotu statistiky T a to podle vzorce 19.10. T = (T0 ; TA ; TB ; TC ; TD ; TE ; TF )T = (2, 35; −4, 87; 1, 69; 0, 38; −0, 63; 2, 67; −1, 64)T . Tyto hodnoty porovnáme s kvantilem t23 (0, 975) = 2, 068 a vidíme, že hypotézu nulovosti parametrů zamítáme u β0 , βA , βE . Tyto testy nám říkají, že můžeme z modelu vypustit proměnnou B, nebo C, nebo D, nebo F. Ovšem nevíme, zda můžeme vypustit všechny proměnné najednou. Na tuto otázku nám odpoví následující F-test. Uvažujme tedy zjednodušený model (podmodel) Yi = β0 + βA Ai + βE Ei + ei . Pro podmodel spočteme odhad jednotlivých parametrů e = (eb0 , ebA , ebE )T = (16, 67; −0, 40; 0, 13)T . b
234
CHAPTER 19. LINEÁRNÍ REGRESE
Dále spočteme reziduální součet čtverců podmodelu See = 393, 03. Odtud dostáváme, že R2 = 0, 67. Nyní sestrojíme statistiku F =
(30 − 6 − 1)(See − Se ) = 3, 67 > 3.03 = F3,23 (0, 95). 3Se
Z toho plyne, že H0 zamítáme, neboli nemůžeme vypustit všechny čtyři proměnné zároveň. Musíme tedy některou proměnnou do podmodelu přidat. Přidejme proměnnou B, protože TB > TC , TD , TF (tj. proměnná B je v modelu významnější než C, D a F). Uvažujme tedy podmodel Yi = β0 + βA Ai + βB Bi + βE Ei + ei . Pro podmodel spočteme odhad jednotlivých parametrů e = (eb0 , ebA , ebB , ebE )T = (10, 99; −0, 40; 0, 001; 0.19)T . b
Dále spočteme reziduální součet čtverců podmodelu See = 318, 83. Odtud dostáváme, že R2 = 0, 73. Nyní sestrojíme statistiku F =
(30 − 6 − 1)(See − Se ) = 1, 15 < 2, 80 = F4,23 (0, 95). 4Se
Z toho plyne, že H0 nezamítáme, neboli z původního modelu můžeme vypustit proměnné C, D a F. Popíšeme tedy veličinu Y proměnnými A, B a E.
19.3
Polynomiální regrese
Kvadratická regrese: Pod pojmem kvadratická regrese míníme model Yi = β0 + β1 Xi + β2 Xi2 + ei ,
i = 1, 2, ..., n,
kde ei ∼ N (0, σ 2 ), n ≥ 4. Zde veličiny Yi závisí kvadraticky na veličinách Xi .
235
19.3. POLYNOMIÁLNÍ REGRESE Položíme-li Zi = Xi2 ,
i = 1, 2, ....., n, dostáváme model
Yi = β0 + β1 Xi + β2 Zi + ei ,
i = 1, 2, ....., n.
v tomto modelu závisí náhodná veličina Yi lineárně na veličinách Xi a Zi . Neboli úloha kvadratické regrese byla převedena na úlohu lineární regrese se dvěma vysvětlujícími proměnnými. Podobně budeme postupovat i pro regrese vyšších stupňů. Odhad stupně regresního polynomu: Uvažujme nyní model Yi = β0 + β1 Xi + . . . + βp Xip + ei ,
i = 1, 2, ....., n,
kde stupeň p regresního polynomu není znám. Počet parametrů tohoto modelu označme k = p + 1. Uvažujme, že skutečný stupeň polynomu je p0 a tedy skutečný počet parametrů modelu je k0 = p0 + 1. Označme s2k reziduální rozptyl modelu s k parametry (reziduální rozptyl je definován na str. 230). Dá se ukázat, že Es2k > σ 2
pro k < k0 ,
Es2k = σ 2
pro k ≥ k0 .
Je tudíž třeba najít bod, kde se posloupnost s2k mění z klesající posloupnosti na oscilující. Toto je obtížná úloha, proto ji převedeme na úlohu hledání minima posloupnosti. Vytvoříme posloupnost Ak =
s2k
k 1+ √ 4 n
,
která větším k přidává větší váhu. Hodnotu k, pro kterou je Ak minimální, pak vezmeme jako odhad skutečného počtu parametrů k0 .
236
19.4
CHAPTER 19. LINEÁRNÍ REGRESE
Nelineární regrese
Uvažujme nelineární regresní model Yi = f (Xi , β) + ei ,
i = 1, 2, ..., n,
kde f je regresní funkce a β je vektor neznámých parametrů. Odhad parametrů β metodou nejmenších čtverců dostaneme minimalizací výrazu S(β) =
n X i=1
(Yi − f (Xi , β))2 .
Tuto úlohu iteračně řeší různé statistické a matematické programy. Tyto programy ovšem vyžadují počáteční aproximaci vektoru b (odhad parametru β). Počáteční aproximaci můžeme snadno získat u tzv. linearizovatelných modelů, tj. modelů, které se dají převést na lineární model. Jako příklad uveďme model, jehož regresní funkce je exponenciální: Yi = β0 eβ1 Xi + ei ,
i = 1, 2, ..., n.
Při počáteční aproximaci si můžeme dovolit zapomenout na chyby ei a model zlogaritmovat ln Yi = ln β0 + β1 Xi ,
i = 1, 2, ..., n.
Zavedeme-li nové parametry α0 = ln β0 a α1 = β1 , dostaneme lineární regresní model ln Yi = α0 + α1 Xi ,
i = 1, 2, ..., n,
který vyřešíme podle kapitoly 19.2 a dostaneme odhady a0 , a1 . Za počáteční aproximaci odhadu parametrů původního modelu pak vezmeme odhady b0 = e a 0 ,
b 1 = a1 .
Na závěr uveďme příklady některých linearizovatelných modelů.
19.4. NELINEÁRNÍ REGRESE 1. Y = eβ0 +β1 X 2. Y = β0 X β1 3. Y = ln(β0 + β1 X) 4. Y =
1 β0 +β1 X
237
Chapter 20 Korelační analýza V odstavci 10.4 jsme uvedli, že z nezávislosti náhodných veličin plyne nekorelovanost, neboli že korelační koeficient ρ = 0. Tudíž zamítneme-li hypotézu H0 : ρ = 0, pak můžeme i zamítnout hypotézu nezávislosti. Zabývejme se tedy nyní hypotézou H0 : ρ = 0.
20.1
Výběrový korelační koeficient
Mějme náhodný výběr (X1 , Y1 ), (X2 , Y2 ), . . . , (Xn , Yn ) z nějakého dvourozměrného rozdělení. Korelační koeficient je definován jako Cov(X, Y ) ρ= √ . VarX VarY Pro odhad Var X a Var Y použijeme výběrový rozptyl n
2 SX
1 X ¯ 2, = (Xi − X) n − 1 i=1 238
n
SY2
1 X = (Yi − Y¯ )2 . n − 1 i=1
239
20.1. VÝBĚROVÝ KORELAČNÍ KOEFICIENT
2 Z věty 14.1 víme, že ESX = VarX a ESY2 = VarY . Podobně definujme výběrovou kovarianci vztahem n
SXY
1 X ¯ i − Y¯ ), (Xi − X)(Y = n − 1 i=1
2 pro kterou platí ESXY = Cov(X, Y ). Tudíž pokud SX > 0 a SY2 > 0,
definujeme výběrový korelační koeficient r jako SXY r=p 2 2. SX SY
Po drobné úpravě dostaneme vzorec vhodný pro výpočet: P ¯ Y¯ Xi Y i − nX r=pP . P ¯ 2 )( Y 2 − nY¯ 2 ) ( Xi2 − nX i
Ze Schwarzovy nerovnosti dostaneme, že −1 ≤ r ≤ 1.
Výběrový korelační koeficient není nestranný odhad ρ, jako tomu je u výběrového rozptylu a kovariance. Předpokládejme nyní, že (X1 , Y1 ), (X2 , Y2 ), . . . , (Xn , Yn ) je náhodný výběr z nějakého dvourozměrného normálního rozdělení a Var X > 0, Var Y > 0, |ρ| < 1. Za těchto předpokladů je Er = ρ −
1 − ρ2 + o(n−1 ), n
kde o(n−1 ) značíme funkci f (n), pro kterou platí limn→∞
f (n) n
= 0.
Testujme nyní hypotézu H0 : ρ = 0 proti alternativě H1 : ρ 6= 0. Za platnosti hypotézy H0 a za výše uvedených předpokladů má statistika √ r n − 2 ∼ tn−2 T =√ 1 − r2
Studentovo rozdělení o n−2 stupních volnosti. Tudíž hypotézu H0 zamítneme na hladině α, v případě, že α . |T | ≥ tn−2 1 − 2
240
CHAPTER 20. KORELAČNÍ ANALÝZA
U tohoto testu je normalita náhodného výběru podstatný předpoklad. Nejsmeli si jisti tímto předpokladem, použijeme pro test nezávislosti raději Spearmanův korelační koeficient. Příklad 20.1 U 10 dvojčat byla zjištěna následující váha (v gramech) starší 2440 3500 2820 2540 2650 2690 2750 2750 2650 mladší 2700 3080 2200 2700 2550 2350 3500 2500 2420 Ověřte, zda jsou váhy dvojčat korelované.
2200 2520
2 Postupně vypočteme SX = 111965, 6, SY2 = 145240, SXY = 35320, r =
0, 2769, T = 0, 8152. Kritická hodnota t8 (0, 975) = 2, 306, z toho plyne, že nezamítáme hypotézu o nekorelovanosti vah dvojčat na hladině α = 0, 05.
20.2
Spearmanův korelační koeficient
Spearmanův korelační koeficient je neparametrický odhad korelačního koeficientu. Mějme náhodný výběr (X1 , Y1 ), (X2 , Y2 ), . . . , (Xn , Yn ) z nějakého dvourozměrného rozdělení. K sestrojení Spearmanova korelačního koeficientu nám postačí pouze znalost pořadí X1 ,X2 ,. . .,Xn a pořadí Y1 ,Y2 ,. . .,Yn . Jsou-li pořadí hodně podobná, svědčí to o závislosti mezi Xi a Yi . Nechť R1 ,R2 ,. . .,Rn označují pořadí X1 ,X2 ,. . .,Xn a nechť Q1 ,Q2 ,. . .,Qn označují pořadí Y1 ,Y2 ,. . .,Yn . Spearmanův korelační koeficient se pak vypočte: n
X 6 rs = 1 − (Ri − Qi )2 . n(n2 − 1) i=1 Testujeme-li hypotézu H0 : ρ = 0 proti alternativě H1 : ρ = 6 0, pak jsou kritické hodnoty pro rs tabelovány pro n ≤ 30. Při n > 30 zamítneme
hypotézu H0 v případě, že
|rs | ≥
u(1 − α/2) √ , n−1
20.2. SPEARMANŮV KORELAČNÍ KOEFICIENT
241
kde u(1 − α/2) je kritická hodnota rozdělení N (0, 1). Příklad 20.2 Bylo sledováno 10 žáků. Na základě psychologického vyšetřování byli tito žáci seřazeni podle nervové lability (čím byl žák labilnější, tím dostal vyšší pořadí Ri ). Kromě toho sledovaní žáci dostali pořadí Qi na základě svých výsledků v matematice (nejlepší žák v matematice dostal 1). Výsledky jsou uvedeny v tabulce 20.1 (viz [1]). Rt Qt Rt − Q t
1 2 3 9 3 8 -8 -1 -5
4 5 6 7 8 9 10 5 4 2 10 1 7 6 -1 1 4 -3 7 2 4
Table 20.1: Pořadí žáků podle nervové lability a podle matematiky Ověřte závislost mezi nervovou labilitou a výsledky v matematice. Dostáváme rs = 1 −
6 (82 + 12 + 52 + 12 + 12 + 42 + 32 + 72 + 22 + 42 ) = −0, 127. 10 · 99
Kritická hodnota odpovídající hladině α=0,05 činí 0,6364. Poněvadž ji |rs | nepřekračuje, nemůžeme zamítnout hypotézu, že nervová labilita a výsledky v matematice jsou nezávislé.
Chapter 21 Testy dobré shody V předchozích kapitolách jsme se seznámili s některými testy, přičemž jsme mohli pozorovat, že tyto testy jsou vázány na předpoklad, že rozdělení základního souboru, z něhož byl výběrový soubor pořízen, je určitého typu. V této kapitole se tudíž budeme zabývat testy, které nám odhalí, zda náhodný výběr má konkrétní rozdělení nebo nikoli.
21.1
Pearsonův χ2 test
Mějme náhodný výběr Z1 , . . . , Zn , kde veličiny Zj , j = 1, . . . n mohou nabývat hodnot 1, . . . , k. Veličinám Xi označujícím počet výskytů výsledku i se říká empirické četnosti. Náhodný vektor X1 , . . . , Xk má multinomické rozdělení. Budeme testovat hypotézu H0 , že skutečné hodnoty pravděpodobností multinomického rozdělení jsou právě rovny číslům p1 , ..., pk . Veličinám npi budeme říkat teoretické četnosti. Za platnosti hypotézy H0 má statistika 2
χ =
k X (Xi − npi )2 i=1
npi
242
∼ χ2k−1
243
21.2. TEST NORMALITY
asymptoticky rozdělení χ2 o k − 1 stupních volnosti. Jakmile dostaneme χ2 ≥ χ2k−1 (1 − α), zamítneme hypotézu H0 na hladině α. Je třeba mít na zřeteli, že test χ2 je asymptotický, a proto ho lze doporučit jen při dostatečně velkém rozsahu výběru n. V literatuře se obvykle uvádí, že musí platit npi ≥ 5q pro všechna i = 1, ..., k při k ≥ 3,
kde q je podíl tříd, pro něž platí npi < 5.
Tento test se může používat např. při ověřování spravedlivosti hrací kostky, při kontrole generátorů náhodných čísel (každá cifra 0,1,. . .,9 by se měla objevovat s pravděpodobností 1/10 - viz následující příklad) a v řadě dalších případů. Příklad 21.1 Při testování generátoru náhodných čísel byla zkoumána řada šesticiferných náhodných čísel o délce 100.000. Tudíž počet všech cifer je n = 600.000. Byly zjištěny následující počty výskytů cifer náhodných čísel (viz [1]): Z tabulky vyplývá, že χ2 = 6, 53233. Jelikož kritická hodnota činí χ29 (0,95) = 16,92, nelze na základě zjištěných dat zamítnout hypotézu, že generátor je skutečně náhodný.
21.2
Test normality
Nechť Z1 , ..., Zn je náhodný výběr. Chceme testovat hypotézu H0 , že jde o výběr z N (µ, σ 2 ), kde parametry µ a σ 2 nejsou známy. Nejprve vytvoříme třídy (−∞, b1 ), hb1 , b2 ), hb2 , b3 ), ..., hbk − 2, bk − 1), hbk − 1, ∞),
kde k ≥ 4. Pro stručnost označme i-tou třídu symbolem Ji . Empirické
244
CHAPTER 21. TESTY DOBRÉ SHODY Cifra Xi pi npi (Xi − npi )2 npi Cifra Xi pi npi (Xi − npi )2 npi
0 59.889 0,1 60.000
1 59.796 0,1 60.000
2 59.969 0,1 60.000
3 60.056 0,1 60.000
4 60.303 0,1 60.000
0,20535 0,6936
0,0160
0,0523 1,53015
5 60.048 0,1 60.000
6 60.234 0,1 60.000
7 59.750 0,1 60.000
8 60.224 0,1 60.000
9 59.731 0,1 60.000
Celkem 600.000 1 600.000
0,0384
0,9126 1,04167 0,8363
1,2061
6,53233
Table 21.1: Výsledky testování generátoru náhodných čísel četnosti jednotlivých tříd opět označíme Xi . Pravděpodobnost pi , že daná veličina Zj , j = 1, ..., n padne do Ji , je rovna Z Z 1 (x − µ)2 √ f (x)dx = pi = pi (µ, σ) = exp − dx. 2σ 2 2πσ Ji Ji Kdybychom znali parametryµ a σ 2 , pak by úloha byla převedena na případ multinomického rozdělení se známými parametry p1 , . . . , pk . Toho by se dalo využít např. při testu, zda náhodný výběr má rozdělení N(0, 1). V obecném případě ovšem parametry neznáme, tudíž tento postup není vhodný. V tomto případě je tedy nutné najít vhodné odhady µ a σ 2 . Není vhodné zvolit za µ a σ 2 klasické odhady, tedy průměr a výběrový rozptyl, protože by se tím podstatně změnilo rozdělení statistiky χ2 . Musíme tedy nalézt odhady µ a σ 2 iteračně, tak aby odhady splňovaly soustavu rovnic k
1 X Xi µ= n i=1 pi
Z
k
xf (x)dx, Ji
1 X Xi σ = n i=1 pi 2
Z
Ji
(x − µ)2 f (x)dx,
kde jako počáteční aproximaci pro µ a σ 2 zvolíme průměr a výběrový rozptyl. Nezapomeňme, že na µ i σ závisejí pi i f (x), které jsou na pravých stranách
245
21.3. TEST POISSONOVA ROZDĚLENÍ
těchto rovnic. Řešení soustavy označme µ ˆaσ ˆ . Tyto odhady použijeme pro výpočet pravděpodobností pi . Statistika 2
χ =
k X [Xi − npi (ˆ µ, σ ˆ )]2 i=1
npi (ˆ µ, σ ˆ)
∼ χ2k−3
má pak rozdělení χ2 o k −3 stupních volnosti. Pokud vyjde χ2 > χ2k−3 (1−α), zamítáme hypotézu H0 na hladině α.
21.3
Test Poissonova rozdělení
Nechť Z1 , . . . , Zn je náhodný výběr z nějakého rozdělení na množině nezáporných celých čísel. Budeme testovat hypotézu H0 , že jde o výběr z Poissonova rozdělení Po (λ), kde parametr λ není znám. Test provedeme obdobně jako u testu normality. Nejprve vytvoříme třídy, jedna z možností je: Do první třídy se zařadí ty veličiny, které jsou menší nebo rovny nějakému číslu r . Další třídy jsou postupně tvořeny samostatnými hodnotami r +1, r +2, . . . , r + k − 2 . Poslední třída obsahuje hodnoty větší nebo rovné číslu r +k -1. Tím je vytvořeno k tříd, kde k ≥ 3 a jejichž četnosti označíme Xr , Xr +1 , . . . , Xr +k −1 . Označme qi = P [Zj = i] =
λi e−λ , i!
i = 0, 1, 2, . . . .
Pak pravděpodobnosti jednotlivých tříd jsou P P pr = ri=0 qi , pi = qi pro i = r + 1, . . . , r + k - 2, pr+k−1 = ∞ i=r+k−1 qi . Pravděpodobnosti pi opět závisí na parametru λ, který neznáme a který
musíme odhadnout. Podobně jako u testu normality vyřešíme iteračně rovnici "
# P∞ Pr r+k−2 X iq iqi 1 i Xr Pi=0 λ= , + iXi + Xr+k−1 Pi=r+k−1 r ∞ n i=0 qi i=r+k−1 qi i=r+1
246
CHAPTER 21. TESTY DOBRÉ SHODY
kdy za počáteční aproximaci λ zvolíme průměr hodnot Zj , j = 1, . . . , n. ˆ Statistika Řešení rovnice označíme λ. χ2 =
r+k−1 X i=r
ˆ 2 [Xi − npi (λ)] ∼ χ2k−2 ˆ npi (λ)
má pak rozdělení χ2 o k −2 stupních volnosti. Pokud vyjde χ2 > χ2k−2 (1−α), zamítáme hypotézu H0 na hladině α.
21.4
Kolmogorovův-Smirnovův jednovýběrový test
Nejprve zaveďme pojem empirická distribuční funkce. Nechť X1 , ..., Xm je náhodný výběr z rozdělení, které má distribuční funkci F . Pro i = 1, ..., m zaveďme náhodné veličiny ξi (x) = 1, je-li Xi < x, ξi (x) = 0, Pak empirická distribuční funkce je
je-li
Xi ≥ x.
m
1 X Fm (x) = ξi (x). m i=1 Příklad 21.2 Generátor náhodných čísel normovaného normálního rozdělení N(0,1) nám dal následujících 20 hodnot. (Hodnoty jsou vzestupně seřazeny.) -2,63; -1,28; -1,23; -0,92; -0,91; -0,78; -0,77; -0,50; -0,41; -0,35; -0,11; 0;01; 0,02; 0,23; 0,56; 0,75; 0,84; 0,87; 1,46; 1,62 Obrázek 21.1 ukazuje distribuční funkci normálního rozdělení N(0,1) a empirickou distribuční funkci vytvořenou z výše uvedených hodnot. Následující věta nám říká, že empirická distribuční funkce je dobrou aproximací distribuční funkce.
21.4. KOLMOGOROVŮV-SMIRNOVŮV JEDNOVÝBĚROVÝ TEST 247 1 0.8 0.6 0.4 0.2
-3
-2
-1
1
2
3
Figure 21.1: Distribuční funkce a empirická distribuční funkce normovaného normálního rozdělení. Věta 21.1 Pro každé x platí Fm (x) → F (x)
skoro jistě pro
navíc, označíme-li
m → ∞,
Dm = sup |Fm (x) − F (x)|, x
pak platí P ( lim Dm = 0) = 1. m→∞
Nechť nyní X1 , ..., Xn je náhodný výběr z nějakého rozdělení se spojitou distribuční funkcí. Chceme testovat hypotézu H0 , že tato distribuční funkce je F . Nechť Fm je empirická distribuční funkce odpovídající výběru X1 , ..., Xm . Věta 21.1 nám říká, že velké hodnoty veličiny Dm budou svědčit proti hypotéze H0 . Je-li m malé, najdeme kritické hodnoty Dm (α) v tabulkách. Při větších hodnotách m se kritické hodnoty aproximují výrazem r 1 2 . Dm (α) = ln . (21.1) 2m α Tedy H0 zamítáme, v případě že Dm ≥ Dm (α).
248
CHAPTER 21. TESTY DOBRÉ SHODY
Vzhledem k monotónii F (x) nám při výpočtu veličiny Dm stačí se omezit pouze na krajní body intervalů konstantnosti empirické distribuční funkce Fm . Je-li tudíž x skok Fm , pak vyšetříme hodnotu rozdílu zleva Fm (x)−F (x) a zprava limy→x+ Fm (y) − F (y). Podobně jako u χ2 testu musíme znát přesně distribuční funkci F (x). Tudíž tento test můžeme bez modifikace použít pro testování, zda náhodný výběr je z rozdělení N(0,1), R(0,1) a pod. Testujeme-li ovšem např. normalitu náhodného výběru, nemůžeme odhadnout parametry a ty dosadit do distribuční funkce F (x). Pokud bychom to tak udělali, změnilo by se rozdělení testové statistiky Dm , a tedy i kritické hodnoty, při nichž zamítáme hypotézu. Ovšem tyto změněné kritické hodnoty byly určeny pomocí simulačních studií a jsou tabelovány ve speciálních tabulkách. Testy normality pomocí KolmogorovaSmirnova testu jsou také implementovány ve statistických softwarech. Příklad 21.3 Budeme pokračovat v příkladu 21.1. Nyní je třeba zjistit hodnotu statistiky Dm . Jak již bylo řečeno, vyšetříme všechny body, ve kterých má empirická distribuční funkce skok, a to jak limity zleva, tak zprava. Maximální hodnota vyjde u třináctého skoku při limitě zprava |F20 (0, 02) − F (0, 02)| = |0, 65 − 0, 50866| = 0, 1413. Kritická hodnota D20 (0, 05) = 0, 294, tedy nezamítáme hypotézu, že výběr je z normovaného normálního rozdělení. Aproximace kritické hodnoty vypočtena podle vzorce 21.1 je D20 (0, 05) = 0, 304.
Chapter 22 Kontingenční tabulky Tato kapitola bude věnovaná základním testům v kontingenčních tabulkách, kterých je celá řada. Dříve, než tyto testy uvedeme, definujeme pojem kontingenční tabulka. Uvažujme náhodný vektor Z = (X, Y ), který má diskrétní rozdělení. Náhodná veličina X nabývá hodnot 1, ..., r a náhodná veličina Y nabývá hodnot 1, ..., c. Náhodná veličina X a Y představuje znak nějakého statistického souboru (např. pohlaví, dosažené vzdělání. . .). Hodnotu znaku sice uvažujeme kladnou celočíselnou, ale ve skutečnosti hodnoty znaku nemusí být číselné, jak je zřejmé z příkladů uvedených v závorce. V mnohých případech přiřazujeme čísla 1, 2, ... jen jako označení. Např. dosažené vzdělání: 1 - základní, 2 střední, 3 - vysokoškolské. Znaky mohou být tudíž • kvalitativní • diskrétní kvantitativní • spojité kvantitativní s hodnotami sloučenými do skupin Pro náhodný vektor Z = (X, Y ) označme 249
250
CHAPTER 22. KONTINGENČNÍ TABULKY
pij = P (X = i, Y = j), pi. = P (Y = i) =
c X
pij ,
p.j = P (Z = j) =
j=1
r X
pij .
i=1
Předpokládejme, že se uskutečnil výběr o rozsahu n z tohoto rozdělení. Počet případů, kdy se ve výběru vyskytla dvojice (i, j), označme nij (jde o absolutní četnost). Náhodné veličiny nij mají sdružené multinomické rozdělení s parametrem n a pravděpodobnostmi pij . Kontingenční tabulku potom definujeme jako matici (nij ). Kontingenční tabulka je uvedena v tabulce 22.1 společně s maticí pravděpodobností (pij ), přičemž
ni. =
c X
nij ,
n.j =
j=1
a platí
n=
nij ,
n=
i=1
c X
n.j =
j=1
Y 1 ... r P
r X
Z P 1...c p11 . . .p1c p1. ............ ... pr1 . . . prc pr. p.1 . . . p.c 1
r X i=1
ni. =
r X c X
nij
i=1 j=1
r X c X
nij .
i=1 j=1
Y 1 ... 1 P
Z P 1...c n11 . . .n1c n1. ............ ... nr1 . . . nrc nr. n.1 . . . n.c n
Table 22.1: Vlevo: matice pravděpodobností, vpravo: kontingenční tabulka Máme-li data uspořádaná do kontingenční tabulky, kdy kategorie jednoho znaku určují řádky a kategorie druhého znaku sloupce, jak je vidět z tabulky 22.1, můžeme testovat následující hypotézy. • hypotéza nezávislosti dvou náhodných veličin X a Y
251
22.1. TEST NEZÁVISLOSTI • hypotéza homogenity multinomických rozdělení • hypotéza symetrie
22.1
Test nezávislosti
Na prvcích jediného souboru sledujeme dva znaky. Naším cílem je testovat nulovou hypotézu o nezávislosti sledovaných znaků, tj. H0 : náhodné veličiny X (1. znak) a Y (2. znak) jsou nezávislé H1 : náhodné veličiny X a Y nejsou nezávislé. Vzhledem k tomu, že platí následující věta Věta 22.1 Veličiny X a Y jsou nezávislé tehdy a jen tehdy, platí-li pij = pi. p.j , i = 1, ..., r; j = 1, ..., c. Hypotézu nezávislosti můžeme přepsat do tvaru H0 : pij = pi. p.j ,
i = 1, ..., r; j = 1, ..., c.
Za platnosti hypotézy H0 má statistika ni. n.j 2 r X c (nij − ) X n χ2 = ni. n.j i=1 j=1
(22.1)
n
asymptoticky rozdělení χ2 s počtem stupňů volnosti (r − 1)(c − 1). Vzorec lze přepsat do následujícího tvaru χ2 = n
r X c X n2ij − n. n n i. .j i=1 j=1
(22.2)
252
CHAPTER 22. KONTINGENČNÍ TABULKY
Hypotézu H0 o nezávislosti veličin X a Y zamítneme v případě, že χ2 ≥ χ2(r−1)(c−1) (1 − α). Ke shodě s limitním rozdělením se vyžaduje, aby všechny teoretické četnosti ni. n.j byly větší než 5. Obvykle se požaduje, aby nejméně 80 procent teon retických četností bylo větších než 5 a všechny teoretické četnosti výskytu byly větší než 1. Pokud tato podmínka není splněna, spojují se obvykle některé řádky nebo sloupce. Toto ovšem nejde u tzv. čtyřpolních tabulek, což jsou kontingenční tabulky 2 × 2. V takovém případě se používá Fisherův
faktoriálový test.
Příklad 22.1 Testování nezávislosti mezi výsledky testů z matematiky a oborem, na který se uchazeč hlásí. Studenti se mohou hlásit na bakalářský obor Finanční matematika, na pětileté magisterské studium učitelství matematiky pro základní školy a na pětileté magisterské studium učitelství matematiky pro střední školy. Obory jsou seřazeny z hlediska obtížnosti studia od nejlehčího (bakalářský obor FM) k nejtěžšímu (pětileté magisterské studium učitelství pro SŠ). Vyvstává otázka, zda při výběru studia tuto skutečnost uchazeči zohledňují vzhledem ke svým dosavadním studijním výsledkům. Jednoduše řečeno, zda ”lepší” studenti se hlásí na těžší obor a ”horší” studenti na lehčí. Otestujme, zda existuje závislost mezi výsledky testů z matematiky a oborem, na který se uchazeč hlásí. Uchazeč může získat z testu maximálně 80 bodů. Veličina X (výsledek testu) nabývá čtyř hodnot, a to 1 - počet získaných bodů 60-80, 2-počet získaných bodů 40-59, 3-počet získaných bodů 20-39, 4-počet získaných bodů 0-19. Veličina Y (studijní obor) nabývá tří hodnot: 1-finanční matematika, 2učitelství pro ZŠ, 3-učitelství pro SŠ. Veškeré údaje jsou v tabulce 22.2. Řešení: v tabulce 22.3 jsou uvedeny empirické i teoretické četnosti (čísla
22.2. TEST HOMOGENITY MULTINOMICKÝCH ROZDĚLENÍ HODNOCENÍ 1 2 3 4 Celkem
Fin. mat. 9 10 17 14 50
APROBACE Učitel. ZŠ Učitel. SŠ 7 40 31 58 29 29 25 19 92 146
253
Celkem 56 99 75 58 288
Table 22.2: Kontingenční tabulka výběru oboru a výsledků v testu. v závorkách).
HODNOCENÍ 1 2 3 4 Celkem
Fin. mat. 9 (9,7) 10 (17,2) 17 (13) 14 (10) 50
APROBACE Učitel. ZŠ Učitel. SŠ 7 (17,9) 40 (28,4) 31 (31,6) 58 (50,2) 29 (24) 29 (38) 25 (18,5) 19 (29,4) 92 146
Celkem 56 99 75 58 288
Table 22.3: Empirické četnosti, teoretické četnosti (čísla v závorkách). Hodnota testovací statistiky χ2 = 27, 56. Toto číslo překračuje kritickou hodnotu χ26 (0, 95) = 12, 59. Tím je statisticky prokázána závislost mezi výsledkem testu z matematiky a oborem, na který se student hlásí.
22.2
Test homogenity multinomických rozdělení
Tento test je někdy uváděn jako test o shodnosti struktury. Testujeme shodnost jednoho ze sledovaných znaků za různých podmínek, které vyjadřují kategorie druhého znaku. Například nás může zajímat, zda věková struktura hospitalizovaných pacientů je ve dvou nemocnicích stejná. Obecně tato
254
CHAPTER 22. KONTINGENČNÍ TABULKY
nulová hypotéza zní: H0 : pravděpodobnosti qi1 , ..., qic nezávisí na řádkovém indexu i (tzn. že všechny řádky matice qij jsou stejné) Pravděpodobnosti qi1 , ..., qic přísluší relativním marginálním četnostem v ini1 nic tém řádku kontingenční tabulky , ..., , přičemž platí qi1 + ... + qic = ni. ni. 1 a dále předpokládáme, že marginální řádkové četnosti ni jsou předem stanoveny. Při testování homogenity budeme opět vycházet ze statistiky χ2 počítané podle vzorce 22.1 nebo 22.2. Za platnosti hypotézy H0 má statistika χ2 asymptoticky rozdělení χ2 s počtem stupňů volnosti (r − 1)(c − 1). Hypotézu H0 o homogenitě multinomických rozdělení zamítneme v případě, že χ2 ≥ χ2(r−1)(c−1) (1 − α).
Příklad 22.2 Kontingenční tabulka 22.4 ukazuje výsledky lékařského experimentu ze čtyřicátých let minulého století, který se zabýval účinkem streptomycinu při léčbě plicní tuberkulózy. Údaje z radiologického hodnocení po 6 měsících byly porovnány s tím, zda pacient patřil do léčebné, nebo kontrolní skupiny. Existuje vztah mezi léčbou a výsledkem? Léčba Radiologické hodnocení Významné zlepšení Střední/malé zlepšení Beze změn Střední/malé zhoršení Významné zhoršení Smrt Celkem
Streptomycin Kontrolní Celkem 28 4 32 10 13 23 2 3 5 5 12 17 6 6 12 4 14 18 55 52 107
Table 22.4: Vztah mezi léčbou a výsledkem Řešení: Vzhledem k tomu, že testová statistika se opírá o teoretické četnosti
ni. nj , n
musíme tyto četnosti vypočítat. Jsou uvedeny v závorkách vedle
22.3. TEST χ2 VE ČTYŘPOLNÍCH TABULKÁCH
255
skutečných četností v tabulce 22.5. Léčba Radiologické hodnocení Významné zlepšení Střední/malé zlepšení Beze změn Střední/malé zhoršení Významné zhoršení Smrt celkem
Streptomycin Kontrolní Celkem 28(16,45) 4(15,55) 32 10(11,82) 13(11,18) 23 2(2,57) 3(2,43) 5 5(8,74) 12(8,26) 17 6(6,17) 6(5,83) 12 4(9,25) 14(8,75) 18 55 52 107
Table 22.5: Empirické četnosti, teoretické četnosti (čísla v závorkách). Testová statistika má hodnotu χ2 = 26, 96. Protože χ25 (0, 95) = 11, 07, platí χ2 ≥ χ21 (1 − α), tudíž hypotézu homogenity zamítáme, tzn. na hladině významnosti asymptoticky rovné 0,05 jsme prokázali, že existuje vztah mezi léčbou a výsledkem.
22.3
Test χ2 ve čtyřpolních tabulkách
Jak již bylo poznamenáno výše, v případě r × c = 2 × 2 mluvíme o tzv. čtyřpolní tabulce. Tato tabulka má tvar n11 n21 n.1
n12 n22 n.2
n1. n2. n
Table 22.6: Čtyřpolní tabulka Ve čtyřpolní tabulce můžeme opět testovat nezávislost a homogenitu. Testová statistika zůstává stejná jako v případě kontingenční tabulky r×c. Vzhledem k tomu, že sčítací indexy nabývají pouze dvou hodnot, lze testovou statistiku χ2 zjednodušit do následujícího tvaru:
256
CHAPTER 22. KONTINGENČNÍ TABULKY
χ2 = n
(n11 n22 − n12 n21 )2 . n1. n2. n.1 n.2
Pokud χ2 ≥ χ21 (1 − α), zamítáme hypotézu nezávislosti. Stejným způsobem testujeme i homogenitu dvou binomických rozdělení (zobecněním binomického rozdělení je multinomické), jestliže řádkové (nebo sloupcové) marginální četnosti jsou pevné.
Příklad 22.3 v náhodném výběru padesáti obézních dětí ve věku 6 - 14 let byla u každého dítěte zjištěna obezita u matky a obezita u otce. Údaje jsou zaznamenány v tabulce 22.7. Zajímá nás, zda obezita rodičů spolu souvisí. Matka Otec obézní Otec neobézní Celkem obézní 15 9 24 neobézní 7 19 26 celkem 22 28 50 Table 22.7: Čtyřpolní tabulka obezity rodičů obézních dětí Řešení Po dosazení do testové statistiky dostaneme χ2 = 50
(15 · 9 − 9 · 7)2 = 6, 41. 24 · 22 · 26 · 28
Kritická hodnota χ21 (0, 95) = 3, 84. Protože χ2 ≥ χ21 (1 − α), zamítneme hypotézu nezávislosti, tzn. obezita rodičů spolu významně souvisí.
22.4
Fisherův faktoriálový test
Jak již bylo poznamenáno výše, ke shodě s limitním rozdělením χ21 se vyžaduje, ni. n.j aby všechny teoretické četnosti byly větší než 5. Pokud tato podmínka n není splněna, dochází ke spojování řádků, popř. sloupců. Toto ovšem nelze u
22.4. FISHERŮV FAKTORIÁLOVÝ TEST
257
čtyřpolní tabulky, a proto se používá Fisherův faktoriálový test. Tento test umožňuje ověřit hypotézu nezávislosti i při malých četnostech. Provedení testu probíhá v následujících krocích. 1. Vytvoříme soubor všech kontingenčních tabulek se stejnými marginálními četnostmi jako má původní kontingenční tabulka. n1. !n2. !n.1 !n.2 ! 2. U každé tabulky souboru vypočteme pravděpodobnosti P = n!n11 !n12 !n21 !n22 ! n11 n22 . Číslo d se nazývá logaritmická intera číslo d = ln b, kde b = n12 n21 akce dané tabulky. 3. Sečteme pravděpodobnosti P tabulek se stejnými marginálními četnostmi, jako má výchozí tabulka, jejichž logaritmické interakce jsou v absolutní hodnotě větší nebo rovny číslu |d| ( = logaritmická interakce dané tabulky). 4. Je-li součet těchto pravděpodobností menší nebo roven číslu α (hladina testu), hypotézu nezávislosti zamítneme. Celou proceduru ukážeme na následujícím příkladě.
Příklad 22.4 U 24 náhodně vybraných žáků se zjišťovalo, zda mají dobrý či špatný prospěch v matematice a zda se učí nebo neučí hrát na nějaký hudební nástroj. Zjištěné výsledky jsou uvedeny v Tabulce 22.8. Má se ověřit hypotéza, že prospěch v matematice a okolnost, že se dítě učí hrát na nějaký hudební nástroj, na sobě nezávisí. Řešení: Vytvoříme všechny tabulky se stejnými marginálními četnostmi, jako má výchozí tabulka. U každé tabulky vypočteme logaritmickou interakci d a pravděpodobnost P :
258
CHAPTER 22. KONTINGENČNÍ TABULKY matematika dobrý špatný celkem
hudba
učí 6 1 7
neučí celkem 4 10 13 14 17 24
Table 22.8: Výsledky studentů v matematice v porovnání se skutečností, zda se učí hrát na hudební nástroj 0 10 7 7 d = −∞ P=0,009916
1 9 6 8 d = −1, 91 P=0,086766
2 8 5 9 d = −0, 80 P=0,260297
3 7 4 10 d=0,07 P=0,347063
4 6 3 11 d=0,89 P=0,220858
5 5 2 12 d=1,79 P=0,066258
6 4 1 13 d=2,97 P=0,008495
7 3 0 14 d=∞ P=0,000347
Výchozí kontingenční tabulka má absolutní hodnotu logaritnické interakce rovnu 2,97, tudíž sčítáme pravděpodobnosti těch tabulek, které mají d v absolutní hodnotě větší nebo rovnu hodnotě 2,97. Součet těchto pravděpodobností je 0,018758. Vzhledem k tomu, že tento součet není větší než α = 0,05, zamítneme hypotézu o nezávislosti.
22.5
McNemarův test
Při statistické analýze kontingenčních tabulek nemusí být vždy cílem provést klasický test nezávislosti nebo homogenity. Další test, který může být proveden v rámci čtyřpolní kontingenční tabulky, je McNemarův test. Tento test se provádí v případě, kdy na souboru n náhodně vybraných objektů se sleduje přítomnost nebo nepřítomnost výskytu nějakého znaku. Posléze se udělá na témže souboru nějaký zákrok a opět se zjistí přítomnost či nepřítomnost
259
22.5. MCNEMARŮV TEST
sledovaného znaku u jednotlivých objektů souboru. Cílem bude zjistit, zda zákrok změnil pravděpodobnost výskytu znaku. Označme symbolem + výskyt sledovaného znaku a symbolem - případy, kdy se znak nevyskytl. Obdržíme tabulky 22.9 a 22.10 následujících tvarů, přičemž (X=před zásahem, Y =po zásahu), X=+,- a Y =+,-. Dále např. p11 = P (X = +, Y = +). Před Po zásahu Po zásahu Celkem zásahem + + n11 n12 n1. n21 n22 n2. Celkem n.1 n.2 n Table 22.9: Tabulka absolutních četností Před Po zásahu Po zásahu Celkem zásahem + + p11 p12 p1. p21 p22 p2. Celkem p.1 p.2 1 Table 22.10: Tabulka pravděpodobností Testujeme hypotézu H0 : p1. = p.1 . Tato hypotéza je ekvivalentní s hypotézou H0 : p12 = p12 . (procento pozitivního výsledku před zásahem je stejné jako po zásahu) Testovací statistika má tvar χ2 =
n12 − n21 2 n12 + n21
260
CHAPTER 22. KONTINGENČNÍ TABULKY Lék B
Lék A Lék A Celkem úspěch neúspěch úspěch 1 3 4 neúspěch 9 5 14 Celkem 10 8 18 Table 22.11: Porovnání léku A a B a má asymptoticky χ21 rozdělení. Hypotézu H0 zamítáme v případě, že χ2 ≥
χ21 (1 − α). Aproximaci pomocí asymptotického rozdělení chí-kvadrát o 1 stupni volnosti můžeme použít, pokud (n12 + n21 ) ≥ 8. Jestliže není splněna podmínka, nemůže se použít výše zmíněná statistika. Test, který se používá při malých hodnotách (n12 + n21 ), můžeme najít např. v [1]
Příklad 22.5 Pozorujeme náhodný výběr 18 pacientů, kteří byli léčeni dvěma různými antihypertenzívy A a B. Každý pacient dostával po dobu jednoho měsíce lék A a po odeznění jeho případných účinků dostával po dobu jednoho měsíce lék B. Výsledek byl klasifikován jako úspěch nebo neúspěch. Máme otestovat, zda procenta úspěšnosti jsou u obou léků shodná. Výsledky pozorování jsou uvedeny v Tabulce 22.11. Řešení: Po dosazení do příslušné testové statistiky obdržíme χ2 =
3 − 92 = 3. 3+9
Protože příslušná kritická hodnota je χ21 (0, 95) = 3, 84 a χ2 < χ21 (0, 95), hypotézu H0 nezamítneme, tzn. že na základě zkoumaných dat nelze prokázat rozdíl v působení obou léků.
22.6
Test symetrie
Uvažujme nyní čtvercovou kontingenční tabulku typu c × c.
261
22.6. TEST SYMETRIE n11 . . . n1c n21 . . . n2c ... nc1 . . . ncc n.1 . . . n.c
n1. n2. ... nc. n
Příslušná tabulka pravděpodobností má tvar p11 . . . p1c p21 . . . p2c ... pc1 . . . pcc p.1 . . . p.c
p1. p2. ... pc. p
Budeme testovat hypotézu H0 : pij = pji
pro všechny dvojice(i, j), i, j = 1, 2, ..., c.
Jde o zobecnění případu 2 × 2. McNemarův test je tedy speciálním případem tohoto testu symetrie. Testová statistika má v tomto případě tvar X (nij − nji )2 χ2 = . nij + nji i<j
Za platnosti nulové hypotézy H0 (hypotéza symetrie) má statistika χ2 asymptoticky χ2 rozdělení o c(c − 1)/2 stupních volnosti. Hypotézu symetrie za-
mítneme, jestliže χ2 ≥ χ21 (1 − α).
Příklad 22.6 v tabulce 22.12 jsou údaje o rodinném stavu snoubenců. Je třeba rozhodnout, zda pravděpodobnost uzavření sňatku mezi svobodným ženichem a ovdovělou nevěstou je stejná jako pravděpodobnost uzavření sňatku mezi svobodnou nevěstou a ovdovělým ženichem a že analogická rovnost platí i pro pravděpodobnost ostatních kombinací původních rodinných stavů partnerů (viz [1]). Řešení: Dosazením do testové statistiky pro test symetrie obdržíme χ2 =
(824 − 1370)2 (3463 − 4603)2 (798 − 590)2 + + = 328, 17. 824 + 1370 3463 + 4603 798 + 590
262
CHAPTER 22. KONTINGENČNÍ TABULKY nevěsta ženich svobodný ovdovělý rozvedený celkem
svobodná ovdovělá 75564 824 1370 904 4603 590 81537 2318
rozvedená celkem 3463 79851 798 3072 2943 8136 7204 91059
Table 22.12: Četnosti manželství při různých původních rodinných stavech partnerů. Vzhledem k tomu, že χ23 (0, 95) = 7, 81, platí χ2 ≥ χ21 (1 − α), tudíž hypotézu symetrie zamítáme.
Chapter 23 Statistické tabulky Tabulka 23.1: Kritické hodnoty normovaného normálního rozdělení U ∼ N (0, 1), P (U ≥ u(α)) = 1 − α u(α) = −u(1 − α). α 0,9 0,95 0,975 0,99 u(α) 1,281552 1,644859 1,959964 2,326348 α 0,995 0,999 0,9995 0,9999 u(α) 2,575829 3,090232 3,290527 3,719016
263
264
CHAPTER 23. STATISTICKÉ TABULKY Table 23.2: Distribuční funkce normovaného normálního rozdělení X ∼ N (0, 1), Φ(x) = P (X ≤ x), Φ(x) = 1 − Φ(−x). x Φ(x) x Φ(x) x Φ(x) x Φ(x) 0,00 0,5000 0,01 0,5040 0,31 0,6217 0,61 0,7291 0,91 0,8186 0,02 0,5080 0,32 0,6255 0,62 0,7324 0,92 0,8212 0,03 0,5120 0,33 0,6292 0,63 0,7357 0,93 0,8238 0,04 0,5160 0,34 0,6331 0,64 0,7389 0,94 0,8264 0,05 0,5199 0,35 0,6368 0,65 0,7422 0,95 0,8289 0,06 0,5239 0,36 0,6406 0,66 0,7454 0,96 0,8315 0,07 0,5279 0,37 0,6443 0,67 0,7486 0,97 0,8340 0,08 0,5319 0,38 0,6480 0,68 0,7517 0,98 0,8365 0,09 0,5359 0,39 0,6517 0,69 0,7549 0,99 0,8389 0,10 0,5398 0,40 0,6554 0,70 0,7580 1,00 0,8413 0,11 0,5438 0,41 0,6591 0,71 0,7611 1,01 0,8438 0,12 0,5478 0,42 0,6628 0,72 0,7642 1,02 0,8461 0,13 0,5517 0,43 0,6664 0,73 0,7673 1,03 0,8485 0,14 0,5557 0,44 0,6700 0,74 0,7703 1,04 0,8508 0,15 0,5596 0,45 0,6736 0,75 0,7734 1,05 0,8531 0,16 0,5636 0,46 0,6772 0,76 0,7764 1,06 0,8554 0,17 0,5675 0,47 0,6808 0,77 0,7794 1,07 0,8577 0,018 0,5714 0,48 0,6844 0,78 0,7823 1,08 0,8599 0,019 0,5753 0,49 0,6879 0,79 0,7852 1,09 0,8621 0,20 0,5793 0,50 0,6915 0,80 0,7881 1,10 0,8643 0,21 0,5832 0,51 0,6950 0,81 0,7910 1,11 0,8665 0,22 0,5871 0,52 0,6985 0,82 0,7939 1,12 0,8686 0,23 0,5910 0,53 0,7019 0,83 0,7967 1,13 0,8708 0,24 0,5948 0,54 0,7054 0,84 0,7995 1,14 0,8729 0,25 0,5987 0,55 0,7088 0,85 0,8023 1,15 0,8749 0,26 0,6026 0,56 0,7123 0,86 0,8051 1,16 0,8770 0,27 0,6064 0,57 0,7157 0,87 0,8078 1,17 0,8790 0,28 0,6103 0,58 0,7190 0,88 0,8106 1,18 0,8810 0,29 0,6141 0,59 0,7224 0,89 0,8133 1,19 0,8830 0,30 0,6179 0,60 0,7257 0,90 0,8159 1,20 0,8849
265 Table 23.2: Distribuční funkce normovaného normálního rozdělení X ∼ N (0, 1), Φ(x) = P (X ≤ x), Φ(x) = 1 − Φ(−x). x Φ(x) x Φ(x) x Φ(x) x Φ(x) 1,21 0,8869 1,56 0,9406 1,91 0,9719 2,52 0,9941 1,22 0,8888 1,57 0,9418 1,92 0,9726 2,54 0,9945 1,23 0,8907 1,58 0,9429 1,93 0,9732 2,56 0,9948 1,24 0,8925 1,59 0,9441 1,94 0,9738 2,58 0,9951 1,25 0,8944 1,60 0,9452 1,95 0,9744 2,60 0,9953 1,26 0,8962 1,61 0,9463 1,96 0,9750 2,62 0,9955 1,27 0,8980 1,62 0,9474 1,97 0,9756 2,64 0,9959 1,28 0,8997 1,63 0,9484 1,98 0,9761 2,66 0,9961 1,29 0,9015 1,64 0,9495 1,99 0,9767 2,68 0,9963 1,30 0,9032 1,65 0,9505 2,00 0,9772 2,70 0,9965 1,31 0,9049 1,66 0,9515 2,02 0,9783 2,72 0,9967 1,32 0,9066 1,67 0,9525 2,04 0,9793 2,74 0,9969 1,33 0,9082 1,68 0,9535 2,06 0,9803 2,76 0,9971 1,34 0,9099 1,69 0,9545 2,08 0,9812 2,78 0,9973 1,35 0,9115 1,70 0,9554 2,10 0,9821 2,80 0,9974 1,36 0,9131 1,71 0,9564 2,12 0,9830 2,82 0,9976 1,37 0,9137 1,72 0,9573 2,14 0,9838 2,84 0,9977 1,38 0,9162 1,73 0,9582 2,16 0,9846 2,86 0,9979 1,39 0,9177 1,74 0,9591 2,18 0,9854 2,88 0,9980 1,40 0,9192 1,75 0,9599 2,20 0,9861 2,90 0,9981 1,41 0,9207 1,76 0,9608 2,22 0,9868 2,92 0,9982 1,42 0,9222 1,77 0,9616 2,24 0,9875 2,94 0,9984 1,43 0,9236 1,78 0,9625 2,26 0,9881 2,96 0,9985 1,44 0,9251 1,79 0,9633 2,28 0,9887 2,98 0,9986 1,45 0,9265 1,80 0,9641 2,30 0,9893 3,00 0,99865 1,46 0,9279 1,81 0,9649 2,32 0,9898 3,20 0,99931 1,47 0,9292 1,82 0,9656 2,34 0,9904 3,40 0,99966 1,48 0,9306 1,83 0,9664 2,36 0,9909 3,60 0,999841 1,49 0,9319 1,84 0,9671 2,38 0,9913 3,80 0,999928 1,50 0,9332 1,85 0,9678 2,40 0,9918 4,00 0,999968 1,51 0,9345 1,86 0,9686 2,42 0,9922 4,50 0,999997 1,52 0,9357 1,87 0,9693 2,44 0,9927 5,00 0,999999 1,53 0,9370 1,88 0,9699 2,46 0,9931 1,54 0,9382 1,89 0,9706 2,48 0,9934 1,55 0,9394 1,90 0,9713 2,50 0,9938
266
CHAPTER 23. STATISTICKÉ TABULKY
Table 23.3: Kritické hodnoty k1 a k2 pro znaménkový test P (Y ≤ k1 ) ≤ α/2 P (Y ≥ k2 ) ≤ α/2. α = 0, 05 α = 0, 01 N k1 k2 k1 k2 6 0 6 7 0 7 8 0 8 0 8 9 1 8 0 9 10 1 9 0 10 11 1 9 0 11 12 2 10 1 11 13 2 11 1 12 14 2 12 1 13 15 3 12 2 13 16 3 13 2 14 17 4 13 2 15 18 4 14 3 15 19 4 15 3 16 20 5 15 3 17
N 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35
α = 0, 05 α = 0, 01 k1 k2 k1 k2 5 16 4 17 5 17 4 18 6 17 4 19 6 18 5 19 7 18 5 20 7 19 6 20 7 20 6 21 8 20 6 22 8 21 7 22 9 21 7 23 9 22 7 24 9 23 8 24 10 23 8 25 10 24 9 25 11 24 9 26
N 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50
α = 0, 05 k1 k2 11 25 12 25 12 26 12 27 13 27 13 28 14 28 14 29 15 29 15 30 15 31 16 31 16 32 17 32 17 33
α = 0, 01 k1 k2 9 27 10 27 10 28 11 28 11 29 11 30 12 30 12 31 13 31 13 32 13 33 14 33 14 34 15 34 15 35
267
Table 23.4: Kritické hodnoty wn jednovýběrového Wilcoxonova testu P (min(S + , S − ) ≤ Wn (α)) ≤ α n wn (0, 05) 6 0 7 2 8 3 9 5 10 8 11 10 12 13 13 17 14 21 15 25 16 29 17 34 18 40 19 46 20 52 21 58 22 65 23 73 24 81 25 89
wn (0, 01) 0 1 3 5 7 9 12 15 19 23 27 32 37 42 48 54 61 68
n wn (0, 05) 26 98 27 107 28 116 29 126 30 137 31 147 32 159 33 170 34 182 35 195 36 208 37 221 38 235 39 249 40 264 41 279 42 294 43 310 44 327 45 343
wn (0, 01) 75 83 91 100 109 118 128 138 148 159 171 182 194 207 220 233 247 261 276 291
n wn (0, 05) 46 361 47 378 48 396 49 415 50 434 51 453 52 473 53 494 54 514 55 536 56 557 57 579 58 602 59 625 60 648 61 672 62 697 63 721 64 749 65 772
268
CHAPTER 23. STATISTICKÉ TABULKY
Table 23.5: Kritické hodnoty W(0,05) pro dvouvýběrový Wilcoxonův test P (min(U1 , U2 ) ≤ W (0, 05)) ≤ 0, 05. n 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 m 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30
0 0 0 0 1 1 1 1 1 2 2 2 2 3 3 3 3 3 4 4 4 4 5
0 1 1 2 2 3 3 4 4 5 5 6 6 7 7 8 8 9 9 10 10 11 11 12 13 13
0 1 2 3 4 4 5 6 7 8 9 10 11 11 12 13 14 15 16 17 17 18 19 20 21 22 23
2 3 5 6 7 8 9 11 12 13 14 15 17 18 19 20 22 23 24 25 27 28 29 30 32 33
5 6 8 10 11 13 14 16 17 19 21 22 24 25 27 29 30 32 33 35 37 38 40 42 43
8 10 12 14 16 18 20 22 24 26 28 30 32 34 36 38 40 42 44 44 48 50 52 54
13 15 17 19 22 24 26 29 31 34 36 38 41 43 45 48 50 53 53 57 60 62 65
17 20 23 26 28 31 34 37 39 42 45 48 50 53 56 59 62 62 67 70 73 76
23 26 29 33 36 39 42 45 48 52 55 58 61 64 67 71 71 77 80 83 87
30 33 37 40 44 47 51 55 58 62 65 69 73 76 80 80 87 90 94 98
37 41 45 49 53 57 61 65 69 73 77 81 85 89 89 97 101 105 109
45 50 54 59 63 67 72 76 80 85 89 94 98 98 107 111 116 120
55 59 64 69 74 78 83 88 93 98 102 107 107 117 122 127 131
64 70 75 80 85 90 96 101 106 111 117 117 127 132 138 143
75 81 86 92 98 103 109 115 120 126 126 137 143 149 154
87 93 99 105 111 117 123 129 135 135 147 154 160 166
Table 23.6: Kritické hodnoty W(0,01) pro dvouvýběrový Wilcoxonův test P (min(U1 , U2 ) ≤ W (0, 05)) ≤ 0, 05. n 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 m 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30
0 0 0 0 0 0 0 0 1 1 1 1
0 0 0 1 1 1 2 2 2 2 3 3 3 4 4 4 5 5 5 5 6 6
0 0 1 1 2 2 3 3 4 5 5 6 6 7 8 8 9 9 10 10 11 12 12 13 13
0 1 1 2 3 4 5 6 7 7 8 9 10 11 12 13 14 14 15 16 17 18 19 20 21 22
2 3 4 5 6 7 9 10 11 12 13 15 16 17 18 19 21 22 23 24 25 27 28 29 30
4 6 7 9 10 12 13 15 16 18 19 21 22 24 25 27 29 30 32 33 35 36 38 40
7 9 11 13 15 17 18 20 22 24 26 28 30 32 34 35 37 39 41 43 45 47 49
11 13 16 18 20 22 24 27 29 31 33 36 38 40 43 45 47 49 52 54 56 58
16 18 21 24 26 29 31 34 37 39 42 44 47 50 52 55 58 60 63 66 68
21 24 27 30 33 36 39 42 45 48 51 54 57 60 63 66 69 72 75 78
27 31 34 37 41 44 47 51 54 58 61 64 68 71 74 78 81 85 88
34 38 42 45 49 53 57 60 64 68 72 75 79 83 87 91 94 98
42 46 50 54 58 63 67 71 75 79 83 87 92 96 100 104 108
60 64 69 73 78 82 87 91 96 100 105 109 114 119
70 74 79 84 89 94 99 104 109 114 119 124 129
81 86 91 96 102 107 112 118 123 128 134 139
18
99 106 112 119 125 132 138 145 145 158 164 171 177
18
92 98 104 109 115 121 127 132 138 144 150
269
Table 23.7: Kritické hodnoty qm,ν (0, 05) pro Tukeyovu metodu mnohonásobného porovnání X ∼ qm,ν , P (X ≥ qm,ν (0, 05)) = 0, 05. m 2 3 4 5 6 7 8 9 10 11 12 13 ν 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 24 30 40 60 120 ∞
18,0 6,08 4,50 3,93 3,64 3,46 3,34 3,26 3,20 3,15 3,11 3,08 3,06 3,03 3,01 3,00 2,98 2,97 2,96 2,95 2,92 2,89 2,86 2,83 2,80 2,77
27,0 8,33 5,91 5,04 4,60 4,34 4,16 4,04 3,95 3,88 3,82 3,77 3,73 3,70 3,67 3,65 3,63 3,61 3,59 3,58 3,53 3,49 3,44 3,40 3,36 3,31
32,8 9,80 6,82 5,76 5,22 4,90 4,68 4,53 4,41 4,33 4,26 4,20 4,15 4,11 4,08 4,05 4,02 4,00 3,98 3,96 3,90 3,85 3,79 3,74 3,68 3,63
37,1 10,9 7,50 6,29 5,67 5,30 5,06 4,89 4,76 4,65 4,57 4,51 4,45 4,41 4,37 4,33 4,30 4,28 4,25 4,23 4,17 4,10 4,04 3,98 3,92 3,86
40,4 11,7 8,04 6,71 6,03 5,63 5,36 5,17 5,02 4,91 4,82 4,75 4,69 4,64 4,59 4,56 4,52 4,49 4,47 4,45 4,37 4,30 4,23 4,16 4,10 4,03
43,1 12,4 8,48 7,05 6,33 5,90 5,61 5,40 5,24 5,12 5,03 4,95 4,88 4,83 4,78 4,74 4,70 4,67 4,65 4,62 4,54 4,46 4,39 4,31 4,24 4,17
45,4 13,0 8,85 7,35 6,58 6,12 5,82 5,60 5,43 5,30 5,20 5,12 5,05 4,99 4,94 4,90 4,86 4,82 4,79 4,77 4,68 4,60 4,52 4,44 4,36 4,29
47,4 13,5 9,18 7,60 6,80 6,32 6,00 5,77 5,59 5,46 5,35 5,27 5,19 5,13 5,08 5,03 4,99 4,96 4,92 4,90 4,81 4,72 4,63 4,55 4,47 4,39
49,1 14,0 9,46 7,83 6,99 6,49 6,16 5,92 5,74 5,60 5,49 5,39 5,32 5,25 5,20 5,15 5,11 5,07 5,04 5,01 4,92 4,82 4,73 4,65 4,56 4,47
50,6 14,4 9,72 8,03 7,17 6,65 6,30 6,05 5,87 5,72 5,61 5,51 5,43 5,36 5,31 5,26 5,21 5,17 5,14 5,11 5,01 4,92 4,82 4,73 4,64 4,55
52,0 14,7 9,95 8,21 7,32 6,79 6,43 6,18 5,98 5,83 5,71 5,61 5,53 5,46 5,40 5,35 5,31 5,27 5,23 5,20 5,10 5,00 4,90 4,81 4,71 4,62
53,2 15,1 10,2 8,37 7,47 6,92 6,55 6,29 6,09 5,93 5,81 5,71 5,63 5,55 5,49 5,44 5,39 5,35 5,31 5,28 5,18 5,08 4,98 4,88 4,78 4,68
14 54 15 10 8,5 7,6 7,0 6,6 6,3 6,1 6,0 5,9 5,8 5,7 5,6 5,5 5,5 5,4 5,4 5,3 5,3 5,2 5,1 5,0 4,9 4,8 4,7
270
CHAPTER 23. STATISTICKÉ TABULKY
Table 23.8: Kritické hodnoty qm,ν (0, 01) pro Tukeyovu metodu mnohonásobného porovnání X ∼ qm,ν , P (X ≥ qm,ν (0, 01)) = 0, 01. m 2 3 4 5 6 7 8 9 10 11 12 13 ν 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 25 30 40 60 120 ∞
90,0 14,0 8,26 6,51 5,70 5,24 4,95 4,74 4,60 4,48 4,39 4,32 4,26 4,21 4,17 4,13 4,10 4,07 4,05 4,02 3,96 3,89 3,82 3,76 3,70 3,64
135 19,0 10,6 8,12 6,97 6,33 5,92 5,63 5,43 5,27 5,14 5,04 4,96 4,89 4,83 4,78 4,74 4,70 4,67 4,64 4,54 4,45 4,37 4,28 4,20 4,12
164 22,3 12,2 9,17 7,80 7,03 6,54 6,20 5,96 5,77 5,62 5,50 5,40 5,32 5,25 5,19 5,14 5,09 5,05 5,02 4,91 4,80 4,70 4,60 4,50 4,40
186 24,7 13,3 9,96 8,42 7,56 7,01 6,63 6,35 6,14 5,97 5,84 5,73 5,63 5,56 5,49 5,43 5,38 5,33 5,29 5,17 5,05 4,93 4,82 4,71 4,60
202 26,6 14,2 10,6 8,91 7,97 7,37 6,96 6,66 6,43 6,25 6,10 5,98 5,88 5,80 5,72 5,66 5,60 5,55 5,51 5,37 5,24 5,11 4,99 4,87 4,76
216 28,2 15,0 11,1 9,32 8,32 7,68 7,24 6,91 6,67 6,48 6,32 6,19 6,08 5,99 5,92 5,85 5,79 5,73 5,69 5,54 5,40 5,27 5,13 5,01 4,88
227 29,5 15,6 11,5 9,67 8,61 7,94 7,47 7,13 6,87 6,67 6,51 6,37 6,26 6,16 6,08 6,01 5,94 5,89 5,84 5,69 5,54 5,39 5,25 5,12 4,99
237 30,7 16,2 11,9 9,97 8,87 8,17 7,68 7,32 7,05 6,84 6,67 6,53 6,41 6,31 6,22 6,15 6,08 6,02 5,97 5,81 5,65 5,50 5,36 5,21 5,08
246 31,7 16,7 12,3 10,2 9,10 8,37 7,87 7,49 7,21 6,99 6,81 6,67 6,54 6,44 6,35 6,27 6,20 6,14 6,09 5,92 5,76 5,60 5,45 5,30 5,16
253 32,6 17,1 12,6 10,5 9,30 8,55 8,03 7,65 7,36 7,13 6,94 6,79 6,66 6,55 6,46 6,38 6,31 6,25 6,19 6,02 5,85 5,69 5,53 5,38 5,23
260 33,4 17,5 12,8 10,7 9,49 8,71 8,18 7,78 7,48 7,25 7,06 6,90 6,77 6,66 6,56 6,48 6,41 6,34 6,29 6,11 5,93 5,77 5,60 5,44 5,29
266 34,1 17,9 13,1 10,9 9,65 8,86 8,31 7,91 7,60 7,36 7,17 7,01 6,87 6,76 6,66 6,57 6,50 6,43 6,37 6,19 6,01 5,84 5,67 5,51 5,35
14 272 34,8 18,2 13,3 11,1 9,81 9,00 8,44 8,03 7,71 7,46 7,26 7,10 6,96 6,84 6,74 6,66 6,58 6,51 6,45 6,26 6,08 5,90 5,73 5,56 5,40
271 Table 23.9: Kritické hodnoty pro Neményho porovnávání pořadí α = 0, 05 I 3 4 5 6 7 m 1 3,3 4,7 6,1 7,5 9,0 2 8,8 12,6 16,5 20,5 24,7 3 15,7 22,7 29,9 37,3 44,8 4 23,9 34,6 45,6 57,0 68,6 5 33,1 48,1 63,5 79,3 95,5 6 43,3 62,9 83,2 104,0 125,3 7 54,4 79,1 104,6 130,8 157,6 8 66,3 96,4 127,6 159,6 192,4 9 78,9 114,8 152,0 190,2 229,3 10 92,3 134,3 177,8 222,6 268,4 11 106,3 154,8 205,0 256,6 309,4 12 120,9 176,2 233,4 292,2 352,4 13 136,2 198,5 263,0 329,3 397,1 14 152,1 221,7 293,8 367,8 443,6 15 168,6 245,7 325,7 407,8 491,9 16 185,6 270,6 358,6 449,1 541,7
m 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
I
metodu mnohonásobnáho
8 10,5 28,9 52,5 80,4 112,0 147,0 184,9 225,7 269,1 315,0 363,2 413,6 466,2 520,8 577,4 635,9
9 12,0 33,1 60,3 92,4 128,8 169,1 212,8 259,7 309,6 362,4 417,9 476,0 536,5 599,4 664,6 732,0
10 13,5 37,4 68,2 104,6 145,8 191,4 240,9 294,1 350,6 410,5 473,3 539,1 607,7 679,0 752,8 829,2
8 12,2 33,6 61,1 93,6 130,4 171,0 215,2 262,6 313,1 366,5 422,6 481,2 542,4 606,0 671,9 740,0
9 13,9 38,3 69,8 107,0 149,1 195,7 246,3 300,6 358,4 419,5 483,7 551,0 621,0 693,8 769,3 847,3
10 15,6 43,1 78,6 120,6 168,1 220,6 277,7 339,0 404,2 473,1 545,6 621,4 700,5 782,6 867,7 955,7
α = 0, 01 3 4,1 10,9 19,5 29,7 41,2 53,9 67,6 82,4 98,1 114,7 132,1 150,4 169,4 189,1 209,6 230,7
4 5,7 15,3 27,5 41,9 58,2 76,3 95,8 116,8 139,2 162,8 187,6 213,5 240,6 268,7 297,8 327,9
5 7,3 19,7 35,7 54,5 75,8 99,3 124,8 152,2 181,4 212,2 244,6 278,5 313,8 350,5 388,5 427,9
6 8,9 24,3 44,0 67,3 93,6 122,8 154,4 188,4 224,5 262,7 302,9 344,9 388,7 434,2 481,3 530,1
7 10,5 28,9 52,5 80,3 111,9 146,7 184,6 225,2 268,5 314,2 362,2 412,5 464,9 519,4 575,8 634,2
272
CHAPTER 23. STATISTICKÉ TABULKY Table 23.10: Kritické hodnoty Friedmanova testu. α = 0,05.
I 3 4 5 6 7 8 9 10 11 12 13 14 15 16 20 ∞
J
3 6,000 6,500 6,400 7,000 7,143 6,250 6,222 6,200 6,545 6,167 6,000 6,143 6,400 5,99 5,99 5,99
4 7,4 7,8 7,8 7,6 7,8 7,65 7,66 7,67 7,68 7,70 7,70 7,71 7,72 7,73 7,74 7,82
5 8,53 8,8 8,99 9,08 9,11 9,19 9,22 9,25 9,27 9,29 9,30 9,32 9,33 9,34 9,37 9,49
6 9,86 10,24 10,43 10,54 10,62 10,68 10,73 10,76 10,79 10,81 10,83 10,85 10,87 10,88 10,92 11,07
7 11,24 11,63 11,84 11,97 12,07 12,14 12,19 12,23 12,27 12,29 12,32 12,34 12,35 12,37 12,41 12,59
8 12,57 12,99 13,23 13,38 13,48 13,56 13,61 13,66 13,70 13,73 13,76 13,78 13,80 13,81 13,8 14,07
9 13,88 14,34 14,59 14,76 14,87 14,95 15,02 15,07 15,11 15,15 15,17 15,19 15,20 15,23 15,3 15,51
10 15,19 15,67 15,93 16,12 16,23 16,32 16,40 16,44 16,48 16,53 16,56 16,58 16,6 16,6 16,7 16,92
11 12 16,48 17,76 16,98 18,3 17,27 18,6 17,4 18,8 17,6 18,9 17,7 19,0 17,7 19,1 17,8 19,2 17,9 19,2 17,9 19,3 17,9 19,3 17,9 19,3 18,0 19,3 18,0 19,3 18,0 19,4 18,31 19,68
α = 0,01 I 3 4 5 6 7 8 9 10 11 12 13 14 15 16 20 ∞
J
3 4 5 6 7 8 9 10 11 12 9,000 10,13 11,76 13,26 14,78 16,28 17,74 19,19 20,61 8,000 9,600 11,20 12,59 14,19 15,75 17,28 18,77 20,24 21,7 8,400 9,96 11,43 13,11 14,74 16,32 17,86 19,37 20,86 22,3 9,000 10,200 11,75 13,45 15,10 16,69 18,25 19,77 21,3 22,7 8,857 10,371 11,97 13,69 15,35 16,95 18,51 20,04 21,5 23,0 9,000 10,35 12,14 13,87 15,53 17,15 18,71 20,24 21,8 23,2 8,667 10,44 12,27 14,01 15,68 17,29 18,87 20,42 21,9 23,4 9,600 10,53 12,38 14,12 15,79 17,41 19,00 20,53 22,0 23,5 9,455 10,60 12,46 14,21 15,89 17,52 19,10 20,64 22,1 23,6 9,500 10,68 12,53 14,28 15,96 17,59 19,19 20,73 22,2 23,7 9,385 10,72 12,58 14,34 16,03 17,67 19,25 20,80 22,3 23,8 9,000 10,76 12,64 14,40 16,09 17,72 19,31 20,86 22,4 23,9 8,933 10,80 12,68 14,44 16,14 17,78 19,35 20,9 22,4 23,9 8,79 10,84 12,72 14,48 16,18 17,81 19,40 20,9 22,5 24,0 8,87 10,94 12,83 14,60 16,30 18,00 19,5 21,1 22,6 24,1 9,21 11,35 13,28 15,09 16,81 18,48 20,09 21,67 23,21 24,73
273 Table 23.11: Kritické hodnoty pro mnohonásobná porovnání u Friedmanova testu α = 0,05 J 3 4 5 6 7 8 9 10 I 1 3,3 4,7 6,1 7,5 9,0 10,5 12,0 13,5 2 4,7 6,6 8,6 10,7 12,7 14,8 17,0 19,2 3 5,7 8,1 10,6 13,1 15,6 18,2 20,8 23,5 4 6,6 9,4 12,2 15,1 18,0 21,0 24,0 27,1 5 7,4 10,5 13,6 16,9 20,1 23,5 26,9 30,3 6 8,1 11,5 14,9 18,5 22,1 25,7 29,4 33,2 7 8,8 12,4 16,1 19,9 23,9 27,8 31,8 35,8 8 9,4 13,3 17,3 21,3 25,5 29,7 34,0 38,3 9 9,9 14,1 18,3 22,6 27,0 31,5 36,0 40,6 10 10,5 14,8 19,3 23,8 28,5 33,2 38,0 42,8 11 11,0 15,6 20,2 25,0 29,9 34,8 39,8 44,9 12 11,5 16,2 21,1 26,1 31,2 36,4 41,6 46,9 13 11,9 16,9 22,0 27,2 32,5 37,9 43,3 48,8 14 12,4 17,5 22,8 28,2 33,7 39,3 45,0 50,7 15 12,8 18,2 23,6 29,2 34,9 40,7 46,5 52,5 16 13,3 18,8 24,4 30,2 36,0 42,0 48,1 54,2
I 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
J
α = 0,01 3 4,1 5,8 7,1 8,2 9,2 10,1 10,9 11,7 12,4 13,0 13,7 14,3 14,9 15,4 16,0 16,5
4 5,7 8,0 9,8 11,4 12,7 13,9 15,0 16,1 17,1 18,0 18,9 19,7 20,5 21,3 22,0 22,7
5 7,3 10,3 12,6 14,6 16,3 17,8 19,3 20,6 21,8 23,0 24,1 25,2 26,2 27,2 28,2 29,1
6 8,9 12,6 15,4 17,8 19,9 21,8 23,5 25,2 26,7 28,1 29,5 30,8 32,1 33,3 34,5 35,6
7 10,5 14,9 18,3 21,1 23,6 25,8 27,9 29,8 31,6 33,4 35,0 36,5 38,0 39,5 40,8 42,2
8 12,2 17,3 21,2 24,4 27,3 29,9 32,3 34,6 36,6 38,6 40,5 42,3 44,0 45,7 47,3 48,9
9 13,9 19,7 24,1 27,8 31,1 34,1 36,8 39,3 41,7 44,0 46,1 48,2 50,1 52,0 53,9 55,6
10 15,6 22,1 27,0 31,2 34,9 38,2 41,3 44,2 46,8 49,4 51,8 54,1 56,3 58,4 60,5 62,5
274
CHAPTER 23. STATISTICKÉ TABULKY
Table 23.12: Kritické hodnoty Dn (α) pro jednovýběrový Kolmogorův Smirnovův test n α = 0, 05 1 ,97500 2 ,84189 3 ,70760 4 ,62394 5 ,56328 6 ,51926 7 ,48342 8 ,45427 9 ,43001 10 ,40925 11 ,39122 12 ,37543 13 ,36143 14 ,34890 15 ,33760 16 ,32733 17 ,31796 18 ,30936 19 ,30143 20 ,29408 21 ,28724 22 ,28087 23 ,27490 24 ,26931 25 ,26404 26 ,25907 27 ,25438 28 ,24993 29 ,24571 30 ,24170
α = 0, 01 0,99500 ,92929 ,82900 ,73424 ,66853 ,61661 ,57581 ,54179 ,51332 ,48893 ,46770 ,44905 ,43247 ,41762 ,40420 ,39201 ,38086 ,37062 ,36117 ,35241 ,34427 ,33666 ,32954 ,32286 ,31657 ,31064 ,30502 ,29971 ,29466 ,28987
n α = 0, 05 31 ,23788 32 ,23424 33 ,23076 34 ,22743 35 ,22425 36 ,22119 37 ,21826 38 ,21544 39 ,21273 40 ,21012 41 ,20760 42 ,20517 43 ,20283 44 ,20056 45 ,19837 46 ,19625 47 ,19420 48 ,19221 49 ,19028 50 ,18841 51 ,18659 52 ,18482 53 ,18311 54 ,18144 55 ,17981 56 ,17823 57 ,17669 58 ,17519 59 ,17373 60 ,17231
α = 0, 01 ,28530 ,28094 ,27677 ,27279 ,26897 ,26532 ,26180 ,25843 ,25205 ,25205 ,24904 ,24613 ,24332 ,24060 ,23798 ,23544 ,23298 ,23059 ,22828 ,22604 ,22386 ,22174 ,21968 ,21768 ,21574 ,21384 ,21199 ,21019 ,20844 ,20673
n α = 0, 05 61 ,17091 62 ,16956 63 ,16823 64 ,16693 65 ,16567 66 ,16443 67 ,16322 68 ,16204 69 ,16088 70 ,15975 71 ,15864 72 ,15755 73 ,15649 74 ,15544 75 ,15442 76 ,15342 77 ,15244 78 ,15147 79 ,15052 80 ,14960 81 ,14868 82 ,14779 83 ,14691 84 ,14605 85 ,14520 86 ,14437 87 ,14355 90 ,14117 95 ,13746 100 ,13403
α = 0, 01 ,20506 ,20343 ,20184 ,20029 ,19877 ,19729 ,19584 ,19442 ,19303 ,19167 ,19034 ,18903 ,18776 ,18650 ,18528 ,18408 ,18290 ,18174 ,18060 ,17949 ,17840 ,17732 ,17627 ,17523 ,17421 ,17321 ,17223 ,16938 ,16493 ,16081
275
Table 23.13: Kritické hodnoty pro korelační koeficient r n α = 0, 05 3 0,9969 4 0,9500 5 0,8783 6 0,8114 7 0,7545 8 0,7067 9 0,6664 10 0,6319 11 0,6021 12 0,5760 13 0,5529
α = 0, 01 0,9999 0,9900 0,9587 0,9172 0,8745 0,8343 0,7977 0,7646 0,7348 0,7079 0,6835
n α = 0, 05 14 0,5324 15 0,5140 16 0,4973 17 0,4822 18 0,4683 19 0,4555 20 0,4438 21 0,4329 22 0,4227 23 0,4123 24 0,4044
α = 0, 01 0,6614 0,6411 0,6226 0,6055 0,5897 0,5751 0,5614 0,5487 0,5368 0,5256 0,5151
n α = 0, 05 25 0,3961 30 0,3610 35 0,3338 40 0,3120 45 0,2940 50 0,2787 60 0,2542 70 0,2352 80 0,2352 90 0,2072 100 0,1966
α = 0, 01 0,5052 0,4629 0,4296 0,4026 0,3801 0,3610 0,3301 0,3060 0,2864 0,2702 0,2565
Table 23.14: Kritické hodnoty pro Spearmanův korelační koeficient n
α = 0, 05
α = 0, 01
5 6 7 8 9 10
0,9000 0,8286 0,7450 0,6905 0,6833 0,6364
0,9429 0,8929 0,7571 0,8167 0,7818
n α = 0, 05 11 0,6091 12 0,5804 13 0,5549 14 0,5341 15 0,5179 16 0,5000 17 0,4853 18 0,4716 19 0,4579 20 0,4451
α = 0, 01 0,7545 0,7273 0,6978 0,6747 0,6536 0,6324 0,6152 0,5975 0,5825 0,5684
n α = 0, 05 21 0,4351 22 0,4241 23 0,4150 24 0,4061 25 0,3977 26 0,3894 27 0,3822 28 0,3749 29 0,3685 30 0,3620
α = 0, 01 0,5545 0,5426 0,5306 0,5200 0,5100 0,5002 0,4915 0,4828 0,4744 0,4665
Bibliography [1] J. Anděl: Matematická statistika, SNTL/ALFA, Praha 1978 [2] J. Anděl: Statistické metody, Matfyzpress, Praha 1998 [3] M. Denny, S. Gaines: Chance in Biology, Using probability to Explore Nature, Princeton University Press, Princeton, 2000. [4] V. Dupač, M. Hušková: Pravděpodobnost a matematická statistika, Karolinum, Praha 1999. [5] T. Mrkvička, V. Petrášková: Úvod do statistiky, Jihočeská univerzita, České Budějovice, 2006.
276
Index absolutně spojité rozdělení
68 kovariance
absolutní moment
80 Lebesqueova míra
alternativní rozdělení
89 Lebesqueova-Stjieltjesova míra
71
Bayesova věta
45 Lebesqueův integrál
72
binomické rozdělení
89 Ljapunovova věta
153
borelovské množiny
11 marginální distribuční funkce
117
centrální limitní věta
152 medián
119 20, 72
83
centrální moment
80 měřitelná funkce
60
Čebyševova nerovnost
82 míra
70
disjunktní jevy
9 modus
83
diskrétní rozdělení
65 multinomické rozdělení
distribuční funkce
61 náhodná veličina
59
9 náhodný vektor
114
doplňkový jev
dvourozměrné normální rozdělení 120 nemožný jev elementární jev exponenciální rozdělení
7 nezávislé jevy 104 nezávislé náhodné veličiny
120
9 30 122
geometrické rozdělení
94 normální rozdělení
105
hustota
68 normované normální rozdělení
105
jev
8 nula-jedničkové rozdělení
89
jistý jev
9 obecné normální rozdělení
106
koeficient korelační
119 podjev
konvergence skoro jistě
149 podmíněná pravděpodobnost
konvergence v pravděpodobnosti 149 Poissonovo rozdělení konvoluce
138 pravděpodobnost 277
9 27 92 8
278 pravděpodobnostní prostor
INDEX 12 hustota sdružená
23
8 hypotéza alternativní
47
103 hypotéza homogenity
111
rozdělení
71 hypotéza jednoduchá
47
rozptyl
81 hypotéza nezávislosti
97
σ-algebra
10 hypotéza nulová
47
sdružená distribuční funkce
114 hypotéza symetrie
111
silný zákon velkých čísel
151 chyba 1. druhu
47
směrodatná odchylka
81 chyba 2. druhu
47
střední hodnota
77 interakce
74
prostor elementárních jevů rovnoměrné rozdělení
varianční matice
119 interval spolehlivosi
41
věta o celkové pravděpodobnosti 44 koeficient determinace věta o násobení pravděpodobností 29 koeficient korelační
83 25, 97
závislé jevy
31 koeficient korelační Spearmanův
99
analýza korelační
97 koeficient korelační výběrový
97
analýza regresní
81 kovariance
24
analýza rozptylu
65 kvantil
34
četnost absolutní
10 medián
13, 22
četnost relativní
10 metoda linearizace
94
četnost třídní
10 metoda nejmenších čtverců
82
četnosti empirické
101 metoda Neményova
71
četnosti teoretické
101 metoda Tukeyova
68
diagram úsečkový
12 model lineární
81
funkce distribuční
19 model nelineární
94
histogram
11 model regresní
81
hladina testu
47 modus
hodnota kritická
34 metoda Neményova
hodnota střední
21,22 nezávislost
13, 22 71 24
hustota
21 obor kritický
47
hustota marginální
24 odhad nestranný
41
279
INDEX odhad průměru
41 rozdělení spojité
21
odhad regresní
82 rozdělení Studentovo t
32, 34
odhad rozptylu
41 rozdělení χ2
31, 34
16, 22 rozpětí
8
odchylka průměrná
16 rozptyl
16
pás spolehlivosti
84 rozptyl reziduální
67
podmodel
91 rozptyl výběrový
38
polygon četností
12 soubor statistický
7
pořadí
59 součet čtverců celkový
66
pravděpodobnost
19 součet čtverců reziduální
66
prostor elementárních jevů
19 součet čtverců řádkový
73
průměr
13 tabulka kontingenční
průměr aritmetický
13 test Friedmanův
76
průměr geometrický
14 test homogenity
113
průměr harmonický
14 test hypotézy
47
průměr výběrový
38 test jednostranný
48
regrese exponenciální
94 test Kolmogorovův-Smirnovův
regrese kvadratická
92 test Kruskalův-Wallisův
regrese linearizovatelná
94 test McNemarův
regrese s více proměnnými
86 test neparametrický
regresní polynom
92 test nezávislosti
111
rozdělení alternativní
25 test normality
102
rozdělení diskrétní
21 test oboustranný
48
rozdělení exponenciální
27 test párový
51
odchylka směrodatná
rozdělení Fisherovo-Snedecorovo 33, test Pearsonův χ2 34 rozdělení multinomické rozdělení normální
test shodnosti rozptylů 26 test symetrie
109
105 70 118 59
101 53 120
28, 34 test t dvouvýběrový
52
rozdělení Poissonovo
26 test t jednovýběrový
48
rozdělení rovnoměrné
27 test t párový
51
280 test Wilcoxonův test znaménkový test χ2 testování hypotéz
INDEX 61, 63 60 101, 115 47
třídění dvojné třídění jednoduché
72 65
třídy vektor náhodný
8 23
veličina náhodná veličiny nekorelované
19 25
veličiny nezávislé věta centrální limitní
24 29
výběr náhodný výběr stratifikovaný
36 36
zákon velkých čísel
38
doc. RNDr. Tomáš Mrkvička, Ph.D., Ing. Michael Rost, Ph.D. ZÁKLADY TEORIE PRAVDĚPODOBNOSTI A MATEMATICKÉ STATISTIKY Roku 2016 vydala Jihočeská univerzita Vlastimil Johanus TISKÁRNA 1. vydání
ISBN ????????