JIHOČESKÁ UNIVERZITA, PEDAGOGICKÁ FAKULTA
ÚVOD DO STATISTIKY
Tomáš MRKVIČKA, Vladimíra PETRÁŠKOVÁ
ČESKÉ BUDĚJOVICE 2006
Recenzenti: prof. RNDr. Jindřich Klůfa, CSc., doc. RNDr. Pavel Tlustý, CSc. c Tomáš Mrkvička, Vladimíra Petrášková, 2006
ISBN 80-7040-894-4
Obsah
1 Zpracování statistického materiálu
7
1.1
Rozložení četností a jejich znázornění . . . . . . . . . . . . . .
1.2
Charakteristiky polohy . . . . . . . . . . . . . . . . . . . . . . 12
1.3
Charakteristiky variability . . . . . . . . . . . . . . . . . . . . 15
2 Teorie pravděpodobnosti
8
19
2.1
Náhodné veličiny . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2
Náhodné vektory . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3
Základní rozdělení náhodných veličin . . . . . . . . . . . . . . 25
2.4
Normální rozdělení a rozdělení z něj odvozená . . . . . . . . . 28 2.4.1
Pearsonovo rozdělení . . . . . . . . . . . . . . . . . . . 31
2.4.2
Studentovo rozdělení . . . . . . . . . . . . . . . . . . . 32
2.4.3
Fisherovo-Snedecorovo rozdělení . . . . . . . . . . . . . 33 1
2
OBSAH 2.5
Kritické hodnoty . . . . . . . . . . . . . . . . . . . . . . . . . 33
3 Náhodný výběr
35
4 Odhady parametrů
41
4.1
Intervalové odhady pro parametry normálního rozdělení . . . . 42
4.2
Intervalový odhad střední hodnoty pomocí CLV . . . . . . . . 44
5 Parametrické testy
47
5.1
Jednovýběrový t test . . . . . . . . . . . . . . . . . . . . . . . 48
5.2
Test o rozptylu normálního rozdělení . . . . . . . . . . . . . . 49
5.3
Párový t test . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.4
Dvouvýběrový t test . . . . . . . . . . . . . . . . . . . . . . . 52
5.5
Test shodnosti dvou rozptylů . . . . . . . . . . . . . . . . . . . 53
5.6
Porovnávání středních hodnot při nestejných rozptylech . . . . 55
5.7
Test o střední hodnotě pomocí CLV . . . . . . . . . . . . . . . 55
6 Neparametrické testy
59
6.1
Znaménkový test . . . . . . . . . . . . . . . . . . . . . . . . . 60
6.2
Jednovýběrový Wilcoxonův test . . . . . . . . . . . . . . . . . 61
6.3
Dvouvýběrový Wilcoxonův test . . . . . . . . . . . . . . . . . 63
3
OBSAH 7 Porovnání více výběrů
65
7.1
Analýza rozptylu jednoduchého třídění . . . . . . . . . . . . . 65
7.2
Kruskalův-Wallisův test . . . . . . . . . . . . . . . . . . . . . 70
7.3
Analýza rozptylu dvojného třídění . . . . . . . . . . . . . . . . 72
7.4
Friedmanův test . . . . . . . . . . . . . . . . . . . . . . . . . . 76
8 Lineární regrese
81
8.1
Lineární regrese s jednou vysvětlující proměnnou . . . . . . . . 81
8.2
Lineární regrese s více vysvětlujícími proměnnými . . . . . . . 86
8.3
Polynomiální regrese . . . . . . . . . . . . . . . . . . . . . . . 92
8.4
Nelineární regrese . . . . . . . . . . . . . . . . . . . . . . . . . 94
9 Korelační analýza
97
9.1
Výběrový korelační koeficient . . . . . . . . . . . . . . . . . . 97
9.2
Spearmanův korelační koeficient . . . . . . . . . . . . . . . . . 99
10 Testy dobré shody
101
10.1 Pearsonův χ2 test . . . . . . . . . . . . . . . . . . . . . . . . . 101 10.2 Test normality
. . . . . . . . . . . . . . . . . . . . . . . . . . 102
10.3 Test Poissonova rozdělení . . . . . . . . . . . . . . . . . . . . . 104
4
OBSAH 10.4 Kolmogorovův-Smirnovův jednovýběrový test . . . . . . . . . 105
11 Kontingenční tabulky
109
11.1 Test nezávislosti . . . . . . . . . . . . . . . . . . . . . . . . . . 111 11.2 Test homogenity multinomických rozdělení . . . . . . . . . . . 113 11.3 Test χ2 ve čtyřpolních tabulkách . . . . . . . . . . . . . . . . . 115 11.4 Fisherův faktoriálový test . . . . . . . . . . . . . . . . . . . . 116 11.5 McNemarův test . . . . . . . . . . . . . . . . . . . . . . . . . 118 11.6 Test symetrie . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 12 Statistické tabulky
123
Předmluva Statistika je v dnešní době nedílnou součástí každodenního života. Setkáváme se s ní na každém kroku (např. při zpracování výsledků sčítání lidu, voleb, při zpracování výsledků získaných laboratorní cestou atd.). Díky množství zpracovávaných dat se dnes do popředí zájmu dostává statistický software, bez kterého bychom se neobešli. Užití statistického softwaru má však svá úskalí. Člověk, který neovládá základy teorie z oblasti statistky a který se zaměří pouze na počítačové zpracování dat (včetně jejich interpretace), může dojít k chybným závěrům. I statistické testy mají totiž své předpoklady, bez jejichž ověření užití testu nemusí vést ke správnému výsledku. Cílem této knihy je podat ucelený přehled o základních statistických testech, které jsou nedílnou součástí každého statistického software. Kniha je určena pro všechny, kteří se chtějí seznámit se základy statistiky. V úvodních částech knihy jsou stručně shrnuty základy teorie pravděpodobnosti. Poté následují parametrické testy a neparametrické testy, základy analýzy rozptylu, korelační analýza, testy dobré shody a základní testy v kontingenčních tabulkách. Jednotlivé kapitoly jsou doprovázeny řešenými příklady, které čtenáři napomohou k lepšímu pochopení dané problematiky. V závěru knihy jsou uvedeny statistické tabulky, které napomáhají tomu, že kniha je relativně samostatná. Autoři chtějí také touto cestou poděkovat recenzentům prof. RNDr. Jindřichu Klůfovi, CSc. a doc. RNDr. Pavlu Tlustému, CSc. za přečtení textu a cenné připomínky.
V Českých Budějovicích v listopadu 2006 Tomáš Mrkvička a Vladimíra Petrášková 5
6
OBSAH
Kapitola 1 Zpracování statistického materiálu Dříve než se začneme zaobírat základními statistickými metodami, definujeme základní pojmy z oblasti zpracování statistického materiálu. Definice 1.1 Definujme následující pojmy: 1. Statistickým souborem nazýváme soubor reálných čísel x1 , . . . , xn . Kterými mohou být například výsledky nějakých měření nebo pokusů. 2. Argumentem statistického souboru budeme nazývat znak příslušející jednotlivým reálným číslům. Například výšku, váhu, IQ . . . 3. Celkový počet (n) všech prvků uvažovaného souboru nazýváme rozsahem souboru.
Prostý výpis hodnot statistického souboru x1 , . . . , xn je pro větší n zcela nepřehledný, je proto třeba informaci o tomto souboru zkoncentrovat do 7
8
KAPITOLA 1. ZPRACOVÁNÍ STATISTICKÉHO MATERIÁLU
menšího počtu ukazatelů. K tomuto účelu můžeme využít četnosti a jejich znázornění. Nebo různé popisné charakteristiky, které shrnují vlastnosti statistického souboru do jednoho čísla. Nejdůležitějšími charakteristikami jsou charakteristiky popisující polohu a rozptýlení souboru.
1.1
Rozložení četností a jejich znázornění
Definice 1.2 Nechť a je minimální hodnota argumentu X, b je maximální hodnota argumentu X daného statistického souboru, tj. xmin = a, xmax = b. 1. Interval < a, b > nazýváme variačním oborem (nebo též oborem variability, intervalem variability) argumentu X daného statistického souboru. 2. Rozdíl x = b − a nazýváme variačním rozpětím argumentu X daného statistického souboru. 3. Variační obor < a, b > rozkládáme na menší části nazývané třídy (popř. třídní intervaly) argumentu X. 4. Šířkou (délkou) h třídy příslušného třídního intervalu ha, bi nazýváme číslo h = bk − ak . Číslo 12 (ak + bk ) nazýváme středem třídy, číslo ak dolní hranicí uvažované třídy, číslo bk horní hranicí uvažované třídy.
5. Hodnotu xk argumentu X, která je zpravidla dána středem k-té třídy a zastupuje všechny hodnoty patřící do této třídy, nazýváme třídním znakem k-té třídy.
Při rozkladu variačního oboru ha, bi na třídy budeme dbát zpravidla těchto
zásad:
1.1. ROZLOŽENÍ ČETNOSTÍ A JEJICH ZNÁZORNĚNÍ
9
1. Obsahuje-li soubor jen malý počet hodnot argumentu X, volíme každou hodnotu xk tohoto argumentu za samostatnou třídu. Pokud statistický soubor má značně velký počet různých hodnot xk argumentu X (popř. je jich nekonečně mnoho), sdružujeme hodnoty argumentu v třídy. Přitom šířky tříd volíme obvykle stejně velké. Pro výpočet šířky h lze 8 použít přibližného vzorce h ≈ 100 (b − a).
Při volbě počtu třídních intervalů se doporučuje, aby jich bylo 8 až 20. Záleží na rozsahu souboru a účelu statistické tabulky. Počet k třídních √ intervalů volíme např. k ≈ 3, 3 log(n) nebo k ≈ n, kde n je rozsah souboru. Dvě pozorování považujeme za ekvivalentní, jakmile padnou do téhož třídního intervalu. 2. Jestliže na hranici dvou sousedních tříd padne více hodnot argumentu, zařazujeme polovinu z nich do nižší třídy a druhou polovinu do třídy vyšší. Zbyla-li ještě jedna hodnota (toto odpovídá lichému počtu hodnot ležících na hranic), rozhodneme o její příslušnosti k dané třídě losem. Není vhodné zařazovat stereotypně takové hraniční hodnoty vždy do vyšší, popř. nižší třídy, neboť by se tím mohl zkreslit celkový obraz rozložení uvažovaného souboru ve prospěch vyšších, popř. nižších tříd. 3. Vyskytuje-li se v hraničních třídách velmi málo hodnot argumentu X, je vhodné tyto třídy spojit se sousední třídou v třídu jedinou.
Definice 1.3 Druhy četností: 1. Počet prvků souboru patřících do k-té třídy nazýváme absolutní četností argumentu v k-té třídě nebo absolutní třídní četností (stručně četností) k-té třídy a značíme jej fk . 2. Je-li fk absolutní třídní četnost k-té třídy a n rozsah uvažovaného souboru, potom
10
KAPITOLA 1. ZPRACOVÁNÍ STATISTICKÉHO MATERIÁLU a)
fk n
nazýváme relativní četností k-té třídy,
b) 100 fnk nazýváme procentní relativní četností k-té třídy. 3. Kumulativní (součtovou) absolutní četností Fk k-té třídy nazýváme součet všech četností fj až do k-té třídy včetně, tj. Fk =
k X
fj .
j=1
4. Kumulativní relativní četností Rk k-té třídy nazýváme součet Rk =
k X fj j=1
n
=
Fk . n
Poznámka 1.1 Pro četnosti platí některé vlastnosti (uvažujeme statistický soubor rozsahu n, který je rozdělen do r tříd ) 1.
r X
fk = n
k=1
2. Fr = n 3.
r X fk k=1
n
=1
Definice 1.4 Tabulkou rozložení četností daného statistického souboru nazýváme tabulku, v níž jsou uvedeny hodnoty argumentu (popř. třídní znaky) s příslušnými absolutními, popř. relativními četnostmi.
1.1. ROZLOŽENÍ ČETNOSTÍ A JEJICH ZNÁZORNĚNÍ
11
Příklad 1.1 Na telefonní stanici zaznamenávali počet telefonních výzev za dobu 1 min. Během jedné hodiny bylo v určité denní době dosaženo těchto výsledků (v každém řádku jsou hodnoty získané během 10 minut): 3,2,2,3,1,1,0,4,2,1 1,4,0,1,2,3,1,2,5,2 3,0,2,4,1,2,3,0,1,2 1,3,1,2,0,7,3,2,1,1 4,0,0,1,4,2,3,2,1,3 2,2,3,1,4,0,2,1,1,5. Sestavte tabulku rozložení daného statistického souboru. Počet telefonních výzev za 1 min 0 1 2 3 4 5 7 Celkem
Absolutní četnost Relativní četnost 8 0.133 17 0.283 16 0.266 10 0.166 6 0,1 2 0,033 1 0,016 60 1
Tabulka 1.1: Tabulka rozložení četností Argument statistického souboru představuje náhodnou veličinu X. Ze zákona velkých čísel (podrobněji viz Věta 3.2) plyne, že relativní četnost fnk udává (přibližně) pravděpodobnost, že X padne do k-té třídy, takže platí pk = P (ak ≤ X ≤ bk ) ≈
fk , n
přičemž interval hak , bk i je k-tou třídou.
Definice 1.5 Typy znázornění absolutních či relativních četností:
12
KAPITOLA 1. ZPRACOVÁNÍ STATISTICKÉHO MATERIÁLU
1. Histogram rozložení absolutních (relativních) četností sestavíme tak, že na osu x vyneseme středy jednotlivých tříd a nad každou úsečkou zobrazující určitou třídu (šířky h) sestrojíme obdélník s výškou rovnou příslušné absolutní četnosti fk , popř. relativní četnosti fnk . Horní obraz pravoúhelníka představuje histogram rozložení četností. Histogram relativních četností aproximuje hustotu rozdělení spojité náhodné veličiny X. 2. Úsečkový diagram(nebo graf ) rozložení absolutních (relativních) četností dostaneme, jestliže na ose x zobrazíme středy jednotlivých tříd a v každém z nich sestrojíme ve směru osy y úsečku o délce rovné příslušné absolutní četnosti fk , popř. relativní četnosti
fk . n
3. Polygon rozložení četností (spojnicový diagram) dostaneme, jestliže koncové body úsečkového diagramu rozložení četnosti spojíme úsečkami a vytvoříme tak lomenou čáru, která pak představuje hledaný polygon neboli spojnicový diagram. 4. Graf, polygon nebo histogram kumulativních četností dostaneme analogicky jako v bodech 1,2 a 3. 5. Ogivní křivku (stručně ogivu) dostaneme, sestrojíme-li polygon kumulativních relativních četností. Ogiva aproximuje graf distribuční funkce uvažované náhodné veličiny X.
1.2
Charakteristiky polohy
Charakteristiky polohy neboli střední hodnoty počítáme nejčastěji pomocí aritmetického, popř. harmonického, popř. geometrického průměru nebo mediánu a modusu.
13
1.2. CHARAKTERISTIKY POLOHY 1 0.25 0.8 0.2 0.6 0.15 0.4
0.1
0.2
0.05
2
4
6
8
1
2
3
4
5
6
Obrázek 1.1: Histogram a ogiva dat z příkladu 1.1 Definice 1.6 Nechť je dán statistický soubor, jehož argument X nabývá hodnot x1 , x2 , ..., xn , které jsou popř. roztříděny do r tříd, přičemž fk značí absolutní četnost k-té třídy. ¯ je definován vztahy 1. Aritmetický průměr X n
r
X 1X ¯ = 1 xk = f i xi . X n k=1 n i=1
(1.1)
¯ g je definován vztahem 2. Geometrický průměr X n ¯g = √ x1 · x2 · ... · xn X
(1.2)
¯ h je definován vztahy 3. Harmonický průměr X n
r
X 1 1 X fi ¯ h = 1 , kde A = 1 = . X A n k=1 xk n i=1 xi
(1.3)
Ve vztazích 1.1, 1.3 jsou uvedeny dva tvary. První tvar odpovídá souboru neroztříděnému a druhý tvar roztříděnému. Geometrický průměr nelze použít, pokud argument X nabývá nulové hodnoty, popř. hodnoty záporné. Harmonický průměr lze použít tehdy, má-li smysl součet reciprokých hodnot.
7
14
KAPITOLA 1. ZPRACOVÁNÍ STATISTICKÉHO MATERIÁLU
Věta 1.1 Pro libovolný statistický soubor X platí: ¯h ≤ X ¯ g ≤ X. ¯ X Nechť je dán statistický soubor, jehož argument X nabývá hodnot x1 , x2 , ..., xn . Setřídíme-li hodnoty podle velikosti, dostaneme tzv. setříděný statistický soubor X(1) , X(2) , . . . , X(n) , kde X(1) označuje nejmenší hodnotu, X(2) označuje druhou nejmenší hodnotu, . . .. Obecně X(i) označuje i-tou pořadovou hodnotu. Definice 1.7 Medián netříděného souboru je určen dvěma způsoby, v závislosti na počtu prvků statistického souboru. V případě lichého počtu hodnot vezmeme za medián x˜ prostřední hodnotu setříděného souboru x˜ = X([ n ]+1) . 2
Pokud X má sudý počet hodnot, vezmeme za medián x˜ aritmetický průměr prostředních dvou hodnot setříděného souboru x˜ =
X([ n ]) + X([ n ]+1) 2
2
2
.
Medián je speciálním případem výběrového kvantilu. Výběrovým kvantilem nazýváme hodnotu zvolenou tak, že pozorování, která jsou menší než tato hodnota, tvoří předepsaný díl výběru (např. 10% výběrový kvantil označuje hodnotu, která je větší než 10% hodnot statistického souboru a menší než 90% hodnot statistického souboru). Rozeznáváme tři speciální případy výběrového kvantilu: 25% výběrový kvantil se nazývá dolní výběrový kvartil, 50% výběrový kvantil je medián a 75% výběrový kvantil se nazývá horní výběrový kvartil.
1.3. CHARAKTERISTIKY VARIABILITY
15
Definice 1.8 Nechť argument statistického souboru může nabývat pouze konečně mnoha hodnot. Pak modus je hodnota argumentu s největší absolutní četností. Modus nemusí být určen jednoznačně. Příklad 1.2 Uvažujme následující hypotetický příklad. Ve firmě F existují 4 platové třídy s platy uvedenými v následující tabulce. Počet zaměstnanců udává, kolik zaměstnanců je v dané platové třídě. třída zařazení plat v Kč počet zaměstnanců 1. výkonná síla 10.000 30 2. mistr 16.000 10 3. náměstek 28.000 3 4. ředitel 50.000 1 Tabulka 1.2: Tabulka četností příjmu zaměstnanců ve firmě F. Spočtěme některé charakteristiky polohy. Aritmetický průměr X = 13.500, geometrický průměr X g = 12.381.3, harmonický průměr X h = 11.726.6. Jelikož máme 44 hodnot, bude medián průměr 22. a 23. pořadové hodnoty, tedy x e = 10.000. Dolní výběrový kvartil bude průměr 11. a 12. pořadové hodnoty, tj. 10.000 a horní výběrový kvartil je 16.000.
Každá charakteristika polohy nám dává jen parciální informaci o statistickém souboru, zatímco grafy rozložení četností nám dávají úplnou informaci o statistickém souboru.
1.3
Charakteristiky variability
Definice 1.9 Charakteristiky variability: 1. Rozptylem (disperzí) s2 statického souboru s rozsahem n nazýváme ¯ 2 hodnot argumentu aritmetický průměr kvadratických odchylek (xk − X)
16
KAPITOLA 1. ZPRACOVÁNÍ STATISTICKÉHO MATERIÁLU ¯ X od aritmetického průměru X n
r
X 1X ¯ 2= 1 ¯ 2. (xk − X) fi (xi − X) s = n k=1 n i=1 2
(1.4)
2. Směrodatnou odchylkou s nazýváme √
s2 = s ≥ 0.
(1.5)
3. Průměrnou odchylkou d¯ nazýváme aritmetický průměr absolutních hod¯ tj. not odchylek od aritmetického průměru X, n
r
X 1X ¯ = 1 ¯ |xk − X| fi |xi − X|. d¯ = n k=1 n i=1
(1.6)
4. Variační koeficient v statistického souboru je definován jako s v = ¯. X
(1.7)
Poznámka 1.2 Rozptyl je definován vzorcem (1.4), pro jeho výpočet se však častěji používá vzorce n
r
X 1X 2 ¯2 = 1 ¯ 2. s = (xk ) − X fi x2i − X n k=1 n i=1 2
(1.8)
Poznámka 1.3 Hodnoty argumentu statistického souboru jsou realizace nějaké náhodné veličiny. Např. počet telefonních hovorů na ústředně za 1 minutu (viz příklad 1.1) je náhodná veličina, která má Poissonovo rozdělení X ∼
Po(λ). Všechny charakteristiky polohy aproximují střední hodnotu náhodné veličiny EX = λ. Podobně rozptyl statistického souboru aproximuje rozptyl náhodné veličiny VarX = λ.
17
1.3. CHARAKTERISTIKY VARIABILITY
Poznámka 1.4 Rozptyl uvedený ve vzorcích (1.4) a (1.8) rozptyl náhodné veličiny podhodnocuje, proto se k výpočtu rozptylu častěji používá vzorců: n
r
X 1 X ¯ 2, ¯ 2= 1 f i xi − X S = xk − X n − 1 k=1 n − 1 i=1 2
n
(1.9)
r
n ¯2 n ¯2 1 X 2 1 X 2 (xk ) − f i xi − S = X = X . n − 1 k=1 n−1 n − 1 i=1 n−1 2
(1.10)
Tyto vzorce již teoretickou hodnotu nepodhodnocují (podrobněji viz věta 3.1). Poznámka 1.5 Variační koeficient slouží k srovnání variability dvou a více statistických souborů, které mají výrazně odlišnou polohu znaku nebo jsou vyjádřeny v různých měrových jednotkách. Příklad 1.3 Uvažujme produkci ve dvou firmách. Produkce firmy A se vykazuje v kusech a firmy B v tunách. Posuďte, ve které z firem byla během sledovaného období 10 dnů výroba rovnoměrnější ([4]). Den Firma A (1000 ks) xi Firma B (tuny) yi
1 2 3 4 5 6 7 8 9 10 Celkem 1 2 2 3 2 4 2 1 2 4 23 6 6 5 8 9 4 4 6 5 7 60
Tabulka 1.3: Tabulka produkce firem A a B. ¯ = Nejdříve vypočteme variační koeficient pro produkci firmy A: Průměr X ¯ = 2, 3, směrodatná odchylka sX = 1 a tudíž variační koeficient vX = sX /X 0, 4. Analogicky vypočteme variační koeficient pro firmu B: Průměr Y¯ = 6, směrodatná odchylka sY = 1, 55 a tudíž variační koeficient vY = sY /Y¯ = 0, 25. Tedy rovnoměrnější je v dané dekádě výroba ve firmě B.
18
KAPITOLA 1. ZPRACOVÁNÍ STATISTICKÉHO MATERIÁLU
Kapitola 2 Teorie pravděpodobnosti V této kapitole shrneme základní pojmy a tvrzení z teorie pravděpodobnosti, které budeme potřebovat pro další studium matematické statistiky. Pro hlubší studium teorie pravděpodobnosti doporučujeme čtenáři knihy [3] a [5].
2.1
Náhodné veličiny
Uvažujme pravděpodobnostní prostor (Ω, A, P ). Ω je neprázdná množina všech výsledků náhodného pokusu, výsledky označujeme ω. A je σ-algebra
sestrojená na Ω. P : A → h0, 1i ⊂ R je funkce přiřazující každé množině A ∈ A její pravděpodobnost. Této funkci se říká pravděpodobnostní míra. Pro podrobnější zavedení těchto pojmů je možno nahlédnout např. do [3].
Definice 2.1 Náhodnou veličinou rozumíme každé měřitelné zobrazení X z (Ω, A, P ) do R. 19
20
KAPITOLA 2. TEORIE PRAVDĚPODOBNOSTI
Jinak řečeno, měřitelné zobrazení je takové zobrazení, které zobrazuje měřitelné množiny (tj. ty co leží v σ-algebře A) na měřitelné množiny v R. Toto
zavedení nám pomůže eliminovat problémy s neměřitelnými množinami.
Definice 2.2 Distribuční funkce F náhodné veličiny X je dána vzorcem F (x) = P (ω : X(ω) < x). Zkráceně píšeme F (x) = P (X < x).
Příklad 2.1 Uvažujme náhodný pokus - hod kostkou Ω = {1, 2, 3, 4, 5, 6}, P (ω) = 1/6. Sestrojme náhodnou veličinu, která ukazuje, zda padlo 6 či něco jiného. X(6) = 1, jinak X(ω) = 0. Distribuční funkce F je pak definována takto: F (x) = 0, pokud x ≤ 0, F (x) = 5/6, pokud 0 < x ≤ 1 a F (x) = 1,
pokud x > 1. Uvažujme jiný náhodný pokus - náhodně vybereme studenta. Ω je tudíž množina všech studentů. Nechť náhodná veličina X ukazuje výšku studenta ω v metrech, tudíž X(ω) ∈ (0, 3).
V předchozím příkladě si můžeme povšimnout, že existují dva typy náhodných veličin. Pokud množina možných výsledků náhodné veličiny je diskrétní (množina obsahuje konečně mnoho hodnot nebo spočetně), pak hovoříme o diskrétní náhodné veličině nebo o diskrétním rozdělení náhodné veličiny. Pokud množina možných výsledků náhodné veličiny je interval (množina obsahuje nespočetně mnoho hodnot), pak hovoříme o spojité náhodné veličině nebo o spojitém rozdělení náhodné veličiny. Náhodné veličiny mohou být i kombinací těchto dvou typů, ovšem takové veličiny se v praxi vyskytují velmi zřídka a proto se jimy zabývat nebudeme.
21
2.1. NÁHODNÉ VELIČINY Diskrétní náhodné veličiny
Nechť náhodná veličina X může nabývat nejvýše spočetně mnoha hodnot P x1 , x2 , . . .. Označme P (X = xi ) = pi ≥ 0, i = 1, 2, . . .. Zřejmě platí pi = 1.
Distribuční funkce F má v hodnotách xi skoky pi , i = 1, 2, . . .. V ostatních bodech je F konstantní. Pravděpodobnost, že X padne do množiny B ⊆ R,
udává vzorec
P (X ∈ B) =
X
pi .
i:xi ∈B
Střední hodnota X neboli též očekávaná hodnota náhodné veličiny je dána vzorcem EX =
X
xi p i .
(2.1)
i
Někdy je nezbytné počítat střední hodnotu z nějaké funkce náhodné veličiny X. Např. nechť náhodná veličina X udává výsledné číslo v ruletě a sázky je možné uzavírat jen na jedno číslo. Nás bude zajímat střední hodnota naší výhry, kde výhra představuje funkci g aplikovanou na výsledek náhodné veličiny X. Eg(X) =
X
g(xi )pi .
(2.2)
i
Spojité náhodné veličiny Nechť náhodná veličina X nabývá nespočetně mnoha hodnot. Potom nemůžeme každé hodnotě přiřadit její pravděpodobnost výskytu, ale přiřadíme jí funkční hodnotu f (x), která udává relativní pravděpodobnost výskytu x jako výsledku náhodné veličiny. Tato funkce se nazývá hustota náhodné veličiny. Distribuční funkce Z x f (t)dt. F (x) = −∞
22
KAPITOLA 2. TEORIE PRAVDĚPODOBNOSTI
R∞ Zřejmě platí −∞ f (x)dx = 1. Pravděpodobnost, že X padne do množiny B ⊆ R, udává vzorec Z P (X ∈ B) = f (x)dx. B
Střední hodnota X je dána vzorcem Z EX =
∞
xf (x)dx.
(2.3)
−∞
Střední hodnota funkce náhodné veličiny X Z ∞ Eg(X) = g(x)f (x)dx.
(2.4)
−∞
Nejpoužívanější charakteristika polohy náhodné veličiny je střední hodnota, existují ovšem i další charakteristiky polohy. Medián µ e náhodné veličiny X je definován vztahy: 1 P (X ≤ µ e) ≥ , 2
1 P (X ≥ µ e) ≥ . 2
Modus µ b náhodné veličiny X je nejpravděpodobnější hodnota výsledku náhodné veličiny X. Pro spojité náhodné veličiny je modus definován vztahem µ b = argmaxx (f (x)). Pro diskrétní náhodné veličiny je modus definován vztahem µ b = argmaxi (pi ).
Rozptyl X (základní charakteristika rozptýlení náhodné veličiny) se vypočte jako VarX = E(X − EX)2 = EX 2 − (EX)2 . √ Rozptyl se někdy označuje symbolem σ 2 , veličině σ = VarX pak říkáme směrodatná odchylka. Věta 2.1 Nechť Y = a+bX. Existuje-li EX, pak EY = a+bEX. Je-li navíc EX 2 < ∞, pak VarY = b2 VarX.
23
2.2. NÁHODNÉ VEKTORY
2.2
Náhodné vektory
Mějme náhodné veličiny X1 , . . . , Xn , které jsou definované na stejném pravděpodobnostním prostoru (Ω, A, P ). Pak X = (X1 , . . . , Xn )T se nazývá náhodný vektor. Distribuční funkcí náhodného vektoru rozumíme funkci F (x1 , . . . , xn ) = P (X1 < x1 , . . . , Xn < xn ). Střední hodnota náhodného vektoru je EX = (EX1 , . . . , EXn )T . Pro jednoduchost se nyní zabývejme pouze dvěma náhodnými veličinami X, Y . Pro libovolný, konečný počet náhodných veličin se všechny vztahy v tomto odstavci odvodí analogicky. Diskrétní případ: Sdružené rozdělení náhodného vektoru je dáno pravděpodobnostmi P (X = (xi , yj )) = pij ,
i = 1, 2, . . . , j = 1, 2, . . . .
Marginální rozdělení je rozdělení pouze části vektoru. V případě dvou náhodných veličin existují pouze marginální rozdělení náhodných veličin X, Y . Zaveďme pi =
X
pij ,
pj =
j
X
pij .
i
Tudíž marginální rozdělení jsou dána vztahy: P (X = xi ) = pi ,
P (Y = yj ) = pj ,
i = 1, 2, . . . , j = 1, 2, . . . .
Střední hodnota funkce náhodného vektoru je dána vzorcem X g(xi , yj )pij . Eg(X) = i,j
Spojitý případ: Sdružené rozdělení náhodného vektoru je dáno hustotou fX (x, y),
x, y ∈ R.
24
KAPITOLA 2. TEORIE PRAVDĚPODOBNOSTI
Distribuční funkce F (x, y) =
Z
x −∞
Z
y
f (u, v)dudv. −∞
Hustoty marginálních rozdělení jsou dány vztahy Z Z fX (x) = f (x, y)dy, x ∈ R, fY (y) = f (x, y)dx, R
R
y ∈ R.
Střední hodnota funkce náhodného vektoru je dána vzorcem Z Z Eg(X) = g(x, y)f (x, y)dxdy. R
R
Kovariancí náhodných veličin X a Y rozumíme výraz Cov(X, Y ) = E(X − EX)(Y − EY ) = EXY − EXEY. Je zřejmé, že VarX = Cov(X, X). Kovariance náhodných veličin X a Y se často označuje σXY . Věta 2.2 Nechť X a Y jsou náhodné veličiny, potom Var(X + Y ) = VarX + 2Cov(X, Y ) + VarY, pokud všechny výrazy na pravé straně existují. Řekneme, že dvě náhodné veličiny X a Y jsou nezávislé, jestliže jejich sdružená distribuční funkce je rovna součinu marginálních distribučních funkcí FX,Y (x, y) = FX (x)FY (y). Jsou-li náhodné veličiny X a Y diskrétní, pak jsou nezávislé, jestliže pro jejich sdružené a marginální rozdělení platí vztah pij = pi pj
∀i, j.
2.3. ZÁKLADNÍ ROZDĚLENÍ NÁHODNÝCH VELIČIN
25
Jsou-li náhodné veličiny X a Y spojité, pak jsou nezávislé, jestliže jejich sdružená hustota je rovna součinu marginálních hustot fX,Y (x, y) = fX (x)fY (y). Toto je matematická definice termínu nezávislosti, který se užívá i v běžné řeči. Věta 2.3 Nechť X a Y jsou nezávislé náhodné veličiny s konečnými středními hodnotami. Pak platí E(XY ) = (EX)(EY ). Věta 2.4 Nechť X a Y jsou nezávislé náhodné veličiny s konečnými rozptyly. Pak platí Cov(X, Y ) = 0. Platí-li Cov(X, Y ) = 0, pak říkáme, že náhodné veličiny jsou nekorelované. Z nekorelovanosti ještě neplyne nezávislost! Ovšem předchozího tvrzení se často využívá při testech nezávislosti dvou náhodných veličin. Místo kovariance se v nich využívá její normovaný tvar, kterému říkáme korelační koeficient: Cov(X, Y ) ρ= √ . VarX · VarY Věta 2.5 Platí −1 ≤ ρ ≤ 1. Navíc ρ = 1, právě tehdy, když Y = a + bX, b > 0, ρ = −1, právě tehdy, když Y = a + bX, b < 0.
2.3
Základní rozdělení náhodných veličin
Alternativní rozdělení A(p) představuje úspěch/neúspěch pokusu s pravděpodobností 0 < p < 1. To znamená, že alternativní rozdělení nabývá pouze
26
KAPITOLA 2. TEORIE PRAVDĚPODOBNOSTI
dvou hodnot: úspěch - 1, neúspěch - 0. P (X = 1) = p, EX = p,
P (X = 0) = 1 − p.
Var(X) = p(1 − p).
Binomické rozdělení Bi(n, p) představuje počet úspěchů v n nezávislých pokusech, přičemž pravděpodobnost úspěchu je 0 < p < 1. Jinak řečeno, binomické rozdělení je součet n nezávislých alternativních rozdělení. n k p (1 − p)n−k , k = 0, 1, . . . , n. P (X = k) = k EX = np,
Var(X) = np(1 − p).
Hypergeometrické rozdělení HGeom(n, M, N ) se používá místo binomického rozdělení v experimentech, ve kterých n představuje počet tahů bez vracení (u binomického je n počet tahů s vracením) z osudí majícího N prvků, z nichž M prvků představuje při vytažení úspěch (u binomického by M/N = p) Hypergeometrické rozdělení pak představuje počet úspěchů v tomto experimentu. P (X = k) = M EX = n , N
M k
N −M n−k N n
,
M Var(X) = n N
k = 0, 1, . . . , n.
M 1− N
N −n . N −1
Poissonovo rozdělení Po(λ) λ > 0 představuje počet událostí, které nastanou za určitý čas. P (X = k) = e−λ EX = λ,
λk . k!
Var(X) = λ.
27
2.3. ZÁKLADNÍ ROZDĚLENÍ NÁHODNÝCH VELIČIN
Geometrické rozdělení Geom(p) představuje počet neúspěšných nezávislých pokusů, které nastanou před prvním úspěchem, přičemž pravděpodobnost úspěchu je 0 < p < 1. P (X = k) = p(1 − p)k . EX =
1−p , p
Var(X) =
1−p . p2
Multinomické rozdělení M(n, p1 , . . . , pk ) je patrně nejdůležitějším diskrétním mnohorozměrným rozdělením. Mějme urnu a v ní kuličky k různých barev. Nechť pravděpodobnost vytažení kuličky i-té barvy je rovna pi , i = 1,2,. . .,k, přičemž 0 < pi < 1, p1 + ... + pk = 1. Z této urny n-krát nezávisle na sobě vytáhneme po jedné kuličce. Kuličku po vytažení vždy vracíme zpět do urny. Počty kuliček i-té barvy, které takto byly vybrány po n tazích označme Xi . Pak sdružené rozdělení náhodných veličin X1 ,. . .,Xk je dáno vzorcem P (X1 = x1 , ..., Xk = xk ) = kde xi ∈ {0, 1, ..., n} i = 1, 2, ..., k, EXi = npi ,
n! px1 1 ...pxk k , x1 !...xk !
x1 + ... + xk = n.
Var(Xi ) = npi (1 − pi ) i = 1, . . . k,
Cov(Xi , Xj ) = −npi pj ,
i 6= j.
Marginální rozdělení Xi je binomické rozdělení Bi(n, pi ). Rovnoměrné rozdělení na intervalu hA, Bi, U[A, B]. Všechny body intervalu hA, Bi mají stejnou pravděpodobnost výskytu. f (x) =
1 , B−A
EX =
pro x ∈ [A, B],
A+B , 2
Var(X) =
f (x) = 0, 1 (B − A)2 . 12
jinak.
28
KAPITOLA 2. TEORIE PRAVDĚPODOBNOSTI
Exponenciální rozdělení Exp(λ) představuje dobu čekání do určité události, např. dobu do poruchy určitého zařízení. f (x) =
1 −x/λ e , λ
pro x > 0,
jinak.
Var(X) = λ2 .
EX = λ,
2.4
f (x) = 0,
Normální rozdělení a rozdělení z něj odvozená
Normální rozdělení se střední hodnotou µ a rozptylem σ 2 značíme N(µ, σ 2 ) a toto rozdělení má hustotu
(x − µ)2 f (x) = √ , exp − 2σ 2 2πσ 2
1
x ∈ R.
0.8
0.6
0.4
0.2
-3
-2
-1
1
2
3
Obrázek 2.1: Graf hustoty normálního rozdělení - plná čára N(0,1), čárkovaná N(0,2), tečkovaná N(0,1/2).
Nejčastěji budeme pracovat s normovaným normálním rozdělením N(0,1). Jeho hustotu budeme označovat 1 2 φ(x) = √ e−x /2 , 2π
x∈R
2.4. NORMÁLNÍ ROZDĚLENÍ A ROZDĚLENÍ Z NĚJ ODVOZENÁ
29
a distribuční funkci budeme označovat Z x φ(u)du. Φ(x) = −∞
Funkce φ je sudá, z toho plyne Φ(−x) = 1 − Φ(x). Normované normální rozdělení je významné především následujícím tvrzením: součet nezávislých náhodných veličin, jehož střední hodnotu posuneme do 0 a rozptyl upravíme na 1, se blíží pro zvětšující se počet náhodných veličin k normovanému normálnímu rozdělení. Věta 2.6 Centrální limitní věta Nechť X1 , . . . , Xn je posloupnost nezávislých, stejně rozdělených náhodných veličin se střední hodnotu µ a konečným rozptylem σ 2 . Pak Pn i=1 Xi − nµ √ nσ 2 má při n → ∞ asymptoticky rozdělení N(0,1). Příklad 2.2 Jaká je pravděpodobnost, že ze 120 hodů kostkou, padne alespoň 14 šestek? Označme Xi ∼ A(1/6) náhodnou veličinu, která představuje to, zda nám padne 6 či nikoli v i-tém hodu kostkou. Pro Xi platí, že EXi = 1/6, σ 2 = 5/36. Tudíž je třeba vypočíst: ! 120 X Xi ≥ 14 . P i=1
Spočtěme tento příklad nejprve přímo. Náhodná veličina X =
P120
i=1
Xi má
binomické rozdělení Bi(120, 1/6). Pomocí počítače a definice binomického rozdělení spočteme, že 13 13 X X 120 P (X ≥ 14) = 1 − pk = 1 − (1/6)k (5/6)(120−k) = 0, 95. k k=0 k=0
30
KAPITOLA 2. TEORIE PRAVDĚPODOBNOSTI
Nyní spočtěme tento příklad pomocí aproximace CLV. Použití CLV spočívá v úpravě výrazu do podoby, ve které se nachází výraz asymptoticky se blížící normálnímu rozdělení. 120 X
P
i=1
P120 i=1 −np √ nσ 2
Výraz U = tedy psát, že
P
Xi ≥ 14
!
=P
! P120 −np 14 − np i=1 √ ≥ √ . nσ 2 nσ 2
má podle CLV asymptoticky normální rozdělení můžeme 120 X i=1
Xi ≥ 14
!
=P
14 − 120/6 U≥p 120 · 5/36
!
.
Podle definice distribuční funkce normálního rozdělení máme ! 120 X P Xi ≥ 14 = 1 − P (U < −1, 47) = 1 − Φ(−1, 47). i=1
V tabulkách nebo ve statistickém softwaru najdeme hodnotu distribuční funkce Φ(−1, 47) = 0, 07. Hledaná pravděpodobnost je podle aproximace CLV rovna 0, 93. Příklad 2.3 Kolikrát musíme hodit kostkou, aby pravděpodobnost, že padne alespoň 10 šestek, byla větší nebo rovna 0,95. Obdobně jako v minulém příkladě označme Xi ∼ A(1/6) náhodnou veličinu, která představuje to, zda nám padne 6 či nikoli v i-tém hodu kostkou. Pro Xi platí, že EXi = 1/6, σ 2 = 5/36. Problém můžeme přepsat na nerovnici ! n X Xi ≥ 10 ≥ 0, 95, P i=1
kde neznámá je n - počet hodů kostkou. Použití CLV spočívá v úpravě nerovnice do podoby, ve které se nachází výraz asymptoticky se blížící normálnímu rozdělení. ! Pn X − n/6 10 − n/6 i i=1 p ≥ 0, 95. P ≥ p 5n/36 5n/36
2.4. NORMÁLNÍ ROZDĚLENÍ A ROZDĚLENÍ Z NĚJ ODVOZENÁ Výraz U =
31
Pn
√ Xi −n/6 má podle CLV asymptoticky normální rozdělení.
i=1
5n/36
P
10 − n/6 U≥ p 5n/36
!
= 0, 95
Tímto předpisem je ovšem definována kritická hodnota normálního rozdělení u(0, 05) = −1, 64 (viz odstavec 2.5). Tedy 10 − n/6 p = −1, 64 5n/36
Tuto kvadratickou rovnici snadno vyřešíme a vyjde nám n = 96. Neboli musíme hodit nejméně 96-krát kostkou, abychom měli 95% pravděpodobnost, že padne alespoň deset šestek. Pro vyjádření dalších rozdělení si zopakujme definice Gama a Beta funkce. Z ∞ Γ(a) = xa−1 · e−x dx, a > 0 0
Vlastnosti: Γ(a + 1) = a · Γ(a), Γ( 21 ) = B(a, b) =
2.4.1
√
π
Γ(a) · Γ(b) Γ(a + b)
Pearsonovo rozdělení
Nechť náhodné veličiny U1 , U2 ,. . ., Uk jsou nezávislé a mají normované normální rozdělením N(0,1). Pak χ2k
=
k X
Ui2
i=1
má tzv. rozdělení χ2 (čtěte chi kvadrát) s k stupni volnosti a s hustotou (pro u > 0) tvaru fk (u) =
1 · u(k/2)−1 · e−u/2 , k/2 Γ(k/2) · 2
u > 0.
32
KAPITOLA 2. TEORIE PRAVDĚPODOBNOSTI Eχ2k = k,
Var χ2k = 2k.
0.15 0.125 0.1 0.075 0.05 0.025 10
20
30
40
Obrázek 2.2: Graf hustoty Pearsonova rozdělení - plná čára χ210 , čárkovaná χ220 , tečkovaná χ25 .
2.4.2
Studentovo rozdělení
Mějme dvě nezávislé náhodné veličiny, a to náhodnou veličinu U s normovaným normálním rozdělením N(0,1) a náhodnou veličinu V s rozdělením χ2 s k stupni volnosti. Pak veličina U √ Tk = √ · k V má Studentovo rozdělení t s hustotou tvaru fk (t) =
1 t2 −(k+1)/2 √ ) , · (1 + k B( 21 , k2 ) · k
t∈R
s k stupni volnosti. ETk = 0,
Var Tk =
k , k−2
tk →k→∞ Φ.
33
2.5. KRITICKÉ HODNOTY 0.4
0.3
0.2
0.1
-3
-2
-1
1
2
3
Obrázek 2.3: Graf hustoty Studentova rozdělení - plná čára N(0,1), čárkovaná t10 , tečkovaná t5 .
2.4.3
Fisherovo-Snedecorovo rozdělení
Nechť dvě nezávislé náhodné veličiny mají rozdělení χ2 , a to U s k stupni volnosti, kdežto náhodná veličina V s n stupni volnosti. Pak náhodná veličina Fk,n =
U/k V /n
má Fisherovo-Snedecorovo rozdělení s k a n stupni volnosti a hustotou k/2 z (k−2)/2 k 1 · , z > 0. fk,n (z) = · n B( k2 , n2 ) (1 + z · nk )(k+n)/2 EFk,n =
2.5
n , n−2
Var Fk,n =
2n2 (n + k − 2) . (n − 2)2 (n − 4)k
Kritické hodnoty
Kritické hodnoty obvykle vyjadřují hranici, kterou náhodná veličina překročí se zadanou pravděpodobností α. Kritickým hodnotám se někdy také říká kvantily. Kritické hodnoty jsou definovány pro každé rozdělení jiným
34
KAPITOLA 2. TEORIE PRAVDĚPODOBNOSTI 0.8
0.6
0.4
0.2
1
0.5
1.5
2
2.5
3
Obrázek 2.4: Graf hustoty Fisherova-Snedecorova rozdělení - plná čára F10,10 , čárkovaná F20,10 , tečkovaná F5,10 . způsobem, proto uvádíme jejich definice pro každé rozdělení zvlášť. Kritické hodnoty se dají nalézt v tabulkách či ve specializovaných programech. V programu Excel jsou to funkce NORMINV, CHIINV, TINV, FINV. Kritické hodnoty normálního rozdělení u(α) X ∼ N(0, 1),
P (X ≥ u(α)) = 1 − α.
Kritické hodnoty Pearsonova rozdělení χ2k (α) X ∼ χ2k ,
P (X ≥ χ2k (α)) = α.
Kritické hodnoty Studentova rozdělení tk (α) X ∼ tk ,
P (−tk (α) ≤ X ≤ tk (α)) = 1 − α.
Kritické hodnoty Fisherova-Snedecorova rozdělení Fk,n (α) X ∼ Fk,n ,
P (X ≥ Fk,n (α)) = α.
Kritické hodnoty Fisherova-Snedecorova rozdělení Fk,n (α) jsou tabelovány pro 0 < α ≤ 0, 5. Pro 0, 5 < α ≤ 1 počítáme kritické hodnoty dle vztahu Fk,n (α) =
1 . Fn,k (1 − α)
Kapitola 3 Náhodný výběr V mnoha případech nemůžeme při statistickém zpracování dat vycházet ze základního souboru Z (např. má-li soubor nekonečný nebo značně velký rozsah) a musíme se omezit na nějaký podsoubor souboru Z. Statistické výsledky, získané zpracováním statistického podsouboru, pak zobecníme na základní statistický soubor Z (toto nazýváme statistickou indukcí). Znamená to tedy, že vyšetřujeme jen určitou část prvků zkoumaného souboru, kterou nazýváme výběrovýn souborem. Statistická indukce nám nedává zobecněné závěry s naprostou jistotou, ale jen s předem danou pravděpodobností. Základem je teorie náhodných výběrů, které se nyní věnujeme. Náhodné výběry můžeme dělit podle způsobu provedení nebo podle rozsahu. Rozdělení náhodných výběrů podle způsobu provedení a) Prostý náhodný výběr s vrácením je takový výběr, při němž se každý prvek základního souboru vrátí po vybrání zpět do souboru a další prvek se vybírá opět z celého základního souboru. b) Prostý náhodný výběr bez vrácení je takový výběr, při němž se 35
36
KAPITOLA 3. NÁHODNÝ VÝBĚR vybraný prvek nevrací zpět do základního souboru.
c) Oblastní (stratifikovaný) výběr spočívá v tom, že základní výběr rozdělíme na stejnorodé disjunktní části a v každé z nich pak provedeme náhodný výběr. O základním souboru ovšem musíme mít dostatečné informace umožňující správnou volbu jednotlivých oblastí. d) Systematický (mechanický) náhodný výběr spočívá v tom, že prvky základního statistického souboru seřadíme do určitého pořadí, z prvních k prvků souboru (N ≥ kn, kde N je rozsah základního, n je rozsah
výběru) vybereme náhodně jeden prvek a od něho počínaje vybereme každý k-tý, 2k-tý. . .prvek. Rozdělení náhodných výběrů podle rozsahu
a) Malý náhodný výběr - rozsah výběru n < 30. b) Velký náhodný výběr - rozsah výběru n ≥ 30. Budeme uvažovat pouze prostý náhodný výběr s vrácením. Ve spojitosti s teorií pravděpodobnosti budeme o prostém náhodném výběru uvažovat následovně.
Definice 3.1 Nechť Z je statistický soubor, jehož argument představuje náhodnou veličinu X. Náhodným výběrem z rozdělení náhodné veličiny X budeme nazývat posloupnost n nezávislých realizací pokusu, danou náhodnými veličinami X1 , X2 , . . . , Xn , které mají totéž rozdělení jako náhodná veličina X a jsou sdruženě nezávislé. (Neboli náhodným výběrem nazýváme takový výběr, který poskytuje každému prvku základního statistického souboru stejnou a nezávislou pravděpodobnost, že bude zahrnut do výběru.)
37 Definice 3.2 Charakteristiky základního souboru Z (náhodné veličiny X) budeme nazývat teoretickými. Charakteristicky získané z empirického výběru budeme nazývat empirickými (výběrovými). Teoretické charakteristiky základního souboru představují vždy určité číslo, zatím co empirické charakteristiky představují náhodné veličiny, neboť se mění od jednoho náhodného výběru k druhému. Nazýváme je statistikami. Jestliže známe typ rozdělení náhodné veličiny X (představuje argument základního statistického souboru Z), můžeme za určitých předpokladů použít empirických charakteristik k určení odpovídajících teoretických charakteristik. Příklad 3.1 Statistický soubor představují všichni muži České republiky. Argumentem je jejich věk. Náhodná veličina X určuje věk náhodného muže z České republiky. Pro určení charakteristik náhodné veličiny X provedeme náhodný výběr o rozsahu n. Věk každého vybraného muže je jednou realizací náhodné veličiny X. Výsledné empirické charakteristiky pak odhadují teoretické charakteristiky. Příklad 3.2 (viz příklad 1.1) X je náhodná veličina udávající počet telefonních výzev za dobu 1 minuty. Byl proveden náhodný výběr z rozdělení X, jehož výsledky jsou zaznamenány v příkladu 1.1. Předpokládejme, že X ∼ Po(λ). ¯ = 2. Určíme empirickou střední hodnotu např. aritmetickým průměrem X Určíme empirický rozptyl např. podle vzorce 1.9, S 2 = 2, 1356. Z teorie pravděpodobnosti víme, že EX = λ = VarX pro Poissonova rozdělení. Položme si otázku, zda empirická data prokazují úvodní hypotézu (X ∼ Po(λ)). Tyto otázky a mnohé další řeší matematická statistika, kterou se budeme zabývat v následujících kapitolách. Zatím pouze položme teoretickou střední hodnotu EX = 2, neboli λ = 2, a napišme si příslušné pravděpodobnosti P (X = k) pro k = 0, 1, 2, ......7 a porovnejme je s příslušnými relativními četnostmi. Z
38
KAPITOLA 3. NÁHODNÝ VÝBĚR k 0 1 2 3 4 5 6 7
P (X = k) 0,135 0,271 0,271 0,180 0,090 0,360 0,012 0,003
Relativní četnost pro k výzev za jednu minutu 0,133 0,283 0,266 0,166 0,100 0,033 0 0,016
Tabulka 3.1: Porovnání teoretických pravděpodobností s relativními četnostmi. tabulky je vidět, že teoretické pravděpodobnosti se chovají podobně jako relativní četnosti, ale jestli stačí tato podobnost na prohlášení, že X ∼ Po(2), zatím říct nemůžeme.
Definice 3.3 Nechť X1 , . . . , Xn je náhodný výběr z rozdělení, které má střední hodnotu µ a konečný rozptyl σ 2 . Zaveďme veličiny n
n
X ¯= 1 X Xi , n i=1
1 X ¯ 2, S = (Xi − X) n − 1 i=1 2
¯ nazýváme výběrový průměr a S 2 nazýváme výběrový rozptyl. kde X Věta 3.1 Nechť X1 , . . . , Xn je náhodný výběr z rozdělení, které má střední hodnotu µ a konečný rozptyl σ 2 , pak ¯ = µ, EX
¯= VarX
σ2 , n
ES 2 = σ 2 .
Věta 3.2 Silný zákon velkých čísel Nechť X1 , . . . , Xn je náhodný výběr z rozdělení, které má střední hodnotu µ a konečný rozptyl σ 2 , pak ¯ →µ X
skoro jist.
39 Konvergence skoro jistě znamená, že existuje pouze množina (A ⊂ Ω) pravděpodobnosti 0 (P(A)=0), pro kterou výraz nekonverguje. Věta 3.3 Náhodný výběr z normálního rozdělení Nechť X1 , . . . , Xn je náhodný výběr z N(µ, σ 2 ), kde σ 2 > 0. Pak platí následující tvrzení: ¯ ∼ N(µ, σ2 ). • X n • Je-li n ≥ 2, pak (n − 1)S 2 /σ 2 ∼ χ2n−1 . ¯ a S 2 jsou nezávislé. • Je-li n ≥ 2, pak X • Je-li n ≥ 2, pak
√ ¯ X−µ n S
∼ tn−1 .
Důkazy výše uvedených vět může čtenář nalézt např v [2].
40
KAPITOLA 3. NÁHODNÝ VÝBĚR
Kapitola 4 Odhady parametrů Jedním z cílů statistické indukce je odhad charakteristik (neboli parametrů) základního statistického souboru. Rozlišujeme dva druhy odhadů • Bodové odhady • Intervalové odhady neboli intervaly spolehlivosti Bodové odhady střední hodnoty a rozptylu: Věta 3.1 nám říká, že ¯ je nestranný odhad střední hodnoty µ (EX ¯ = µ), X S2 je nestranný odhad σ 2 . Výše uvedené bodové odhady vyjadřují nejpravděpodobnější místo výskytu teoretické hodnoty µ či σ 2 . Bodové odhady se liší výběr od výběru. Často je nutné určit nepřesnost bodového odhadu. K tomu slouží odhad intervalový, který nám určuje interval kolem bodového odhadu, který nám zaručuje, že teoretická hodnota µ či σ 2 leží v tomto intervalu s velkou pravděpodobností. Tato pravděpodobnost se nazývá koeficient spolehlivosti q = 1 − α. α se 41
42
KAPITOLA 4. ODHADY PARAMETRŮ
nejčastěji volí 0,05, 0,01 nebo ve výjimečných případech, kdy potřebujeme mít zaručenou velkou jistotu, 0.001. Definice 4.1 Jsou-li B1 , B2 takové statistiky příslušné parametru β základního souboru, že pro číslo α ∈ (0, 1) platí P (B1 ≤ β ≤ B2 ) = 1 − α, pak interval hB1 , B2 i nazýváme konfidenčním intervalem pro parametr β o spolehlivosti 1 − α. Používá se také názvu interval 100(1 − α) - procentní
spolehlivosti pro parametr β nebo názvu konfidenční interval pro parametr β se 100(1 − α) - procentní spolehlivostí.
4.1
Intervalové odhady pro parametry normálního rozdělení
Mějme X1 , . . . , Xn náhodný výběr z N(µ, σ 2 ), parametr σ 2 > 0 není znám. Potom podle věty 3.3 platí ¯ − µ√ X n ∼ tn−1 , S tudíž podle definice kritické hodnoty Studentova rozdělení je ¯ − µ√ X P −tn−1 (α) ≤ n ≤ tn−1 (α) = 1 − α, S
přeuspořádáním dostaneme oboustranný intervalový odhad pro střední hodnotu µ normálního rozdělení o spolehlivosti 1 − α S S ¯ − tn−1 (α) √ , X ¯ + tn−1 (α) √ X . n n Intervalový odhad pro rozptyl σ 2 dostaneme obdobně. (n − 1)S 2 /σ 2 ∼ χ2n−1 .
(4.1)
4.1. INTERVALOVÉ ODHADY PRO PARAMETRY NORMÁLNÍHO ROZDĚLENÍ43 α α P χ2n−1 1 − ≤ (n − 1)S 2 /σ 2 ≤ χ2n−1 = 1 − α, 2 2 přeuspořádáním dostaneme oboustranný intervalový odhad pro rozptyl σ 2 normálního rozdělení o spolehlivosti 1 − α + * S 2 (n − 1) S 2 (n − 1) , . (4.2) χ2n−1 α2 χ2n−1 1 − α2 Příklad 4.1 Při kontrole balicího automatu, který má plnit cukrem balíčky o váze 1 kg, byly při přesném převážení 5 balíčků zjištěny tyto odchylky (v gramech) od požadované hodnoty (viz [1]): −3, 2, −2, 0, −1. Bodový odhad systematické odchylky je n
X 1 ¯= 1 X Xi = (−3 + 2 − 2 + 0 − 1) = −0, 8. n i=1 5
Pro výpočet intervalového odhadu pro systematickou odchylku musíme předpokládat, že jednotlivé odchylky jsou realizace nezávislých náhodných veličin s rozdělením N (µ, σ 2 ), kde σ 2 je neznámý parametr. Spočteme ! n X 1 ¯2 S2 = X 2 − nX n − 1 i=1 i
1 S 2 = {[(−3)2 + 22 + (−2)2 + 02 + (−1)2 ] − 5(−0, 8)2 } = 3.7. 4 Směrodatná odchylka S = 1, 9235. Kritickou hodnotu nalezneme ve statistických tabulkách, eventuálně ve statistickém softwaru t4 (0, 05) = 2, 776. Inter-
valový odhad o spolehlivosti 0,95 pro systematickou odchylku je tedy roven S ¯ S ¯ X − t4 (0, 05) √ , X + t4 (0, 05) √ = h−3, 18; 1, 58i. 5 5 Někdy je třeba odhadnout rozsah výběru n, abychom dostali požadovanou šířku intervalového odhadu. Nechť požadovaná šířka intervalu o spolehlivosti
44
KAPITOLA 4. ODHADY PARAMETRŮ
0,95 je 1. Výše jsme provedli 5 měření, z nichž jsme odhadli směrodatnou odchylku S. Ptáme se, kolik ještě máme udělat měření (za předpokladu, že směrodatná odchylka je S), aby šířka výsledného intervalového odhadu byla 1. Podle vzorce 4.1 dostaneme, že šířka intervalového odhadu o spolehlivosti 0,95 je
S d = 2tn−1 (0, 05) √ . n V odstavci 2.4.2 jsme uvedli, že Studentovo rozdělení se zvětšujícím se stupněm volnosti n konverguje k normálnímu rozdělení, nahradíme tedy kvantil tn−1 (0, 05) kvantilem normálního rozdělení u(0, 975) = 1, 96. Hladiny u Stu-
dentova a normálního rozdělení se neshodují, protože kvantily jsou u těchto rozdělení zavedeny rozdílně. Odtud dostáváme, že S2 3, 7 . n = 4u(0, 975)2 2 = 4 · 1, 962 = 56, 85. d 1 Je tudíž nutné provést nejméně 57 měření, aby šířka výsledného intervalového odhadu byla přibližně 1. Intervalový odhad o spolehlivosti 0,95 pro rozptyl spočteme podle vzorce 4.2, přičemž kvantily rozdělení χ2 nalezneme v tabulkách. 2 S (n − 1) 3, 7 · 4 3, 7 · 4 S 2 (n − 1) , = , = h1, 33, 30, 83i . χ2n−1 (0.025) χ2n−1 (0, 975) 11, 14 0, 48
4.2
Intervalový odhad střední hodnoty pomocí CLV
V případě, že náhodné veličiny nemají normální rozdělení, nemůžeme použít předchozí odhady. Je-li však náhodných veličin větší počet, můžeme pak využít centrální limitní věty, která jednoduše řečeno říká, že součet většího počtu náhodných veličin se chová jako normální rozdělení. Pro použití aproximace pomocí CLV se obvykle doporučuje rozsah náhodného výběru n ≥ 20.
4.2. INTERVALOVÝ ODHAD STŘEDNÍ HODNOTY POMOCÍ CLV 45 Mějme X1 , . . . , Xn náhodný výběr z rozdělení s konečnou střední hodnotou µ a konečným rozptylem σ 2 . Potom podle centrální limitní věty má ¯ − µ√ X n →n→∞ Φ ∼ N (0, 1) S asymptoticky normované normální rozdělení. Podle definice kritické hodnoty normovaného normálního rozdělení je ¯ − µ√ X α α P −u(1 − ) ≤ n ≤ u(1 − ) = 1 − α, 2 S 2
přeuspořádáním dostaneme oboustranný intervalový odhad pro střední hodnotu µ o spolehlivosti 1 − α α α S S ¯ − u(1 − ) √ , X ¯ + u(1 − ) √ X . 2 n 2 n
(4.3)
Příklad 4.2 Byl proveden pokus, při němž jsme 600 krát hodili kostkou a z toho 75 krát padla šestka. Zajímá nás odhad pravděpodobnosti padnutí šestky na této kostce. Zaveďme si náhodné veličiny X1 , . . . , X600 s alternativním rozdělením A(p), kde úspěch (X = 1) nastane, když padne 6, a neúspěch (X = 0) nastane při výsledcích hodu 1-5. Zajímá nás p = P [X = 1]. Bodový ¯ = 75/600 = 0.125. Výběrový rozptyl odhad p je X n
1 X ¯ 2 = 1 75(1 − 0, 125)2 + 525(0 − 0, 125)2 = 0, 109. S = Xi − X n − 1 i=1 599 2
Pro vˇypočet intervalového odhadu o spolehlivosti 95% potřebujeme znát ještě hodnotu u(0, 975) = 1.96. S S ¯ ¯ = h0, 098; 0, 151i. X − u(0, 975) √ , X + u(0, 975) √ n n
Tudíž skutečná pravděpodobnost padnutí šestky na této kostce leží s pravděpodobností 0,95 v intervalu h0, 098; 0, 151i. Pokud by kostka byla symetrická, pak tato pravděpodobnost by byla 1/6 = 0, 166. Tato pravděpodobnost neleží v intervalovém odhadu o spolehlivosti 95%, tedy tato kostka není spravedlivá s pravděpodobností 0,95. Porovnejte s příkladem 5.5.
46
KAPITOLA 4. ODHADY PARAMETRŮ
Kapitola 5 Parametrické testy Ve vědeckém výzkumu i v aplikacích se problémy často formulují ve tvaru hypotéz. Statistická hypotéza je tvrzení, které se týká pravděpodobnostního rozdělení, případně parametrů náhodné veličiny. Každá úloha testování hypotéz je formulována tak, že proti sobě stojí dvě hypotézy, a to hypotéza H0 (nulová) proti alternativní H1 . V této kapitole se budeme zaobírat pouze parametickými testy, tzn. budeme předpokládat znalost pravděpodobnostního rozdělení příslušné náhodné veličiny, testovat budeme parametr daného rozdělení. Předpokládejme, že rozdělení náhodné veličiny závisí na parametru θ. O parametru θ se domníváme, že by mohl být roven danému číslu θ0 . V tomto případě nulovou hypotézu zapisujeme ve tvaru H0 : θ = θ0 . Alternativní hypotéza H1 může být buď ve tvaru H1 : θ 6= θ0 nebo H1 : θ > θ0 , popř. H1 : θ < θ0 . V prvním případě se jedná o oboustrannou hypotézu, ve druhém o jednostrannou (přesněji pravostrannou, popř. levostrannou). Při svém rozhodnutí o platnosti H1 či H0 se můžeme dopustit jedné ze dvou chyb. Stane-li se, že zamítneme H0 , ačkoli je správná, uděláme tzv. chybu prvního druhu. Stane-li se, že nezamítneme H0 , ačkoli správná není, uděláme tzv. chybu druhého druhu. Při testování samozřejmě poža47
48
KAPITOLA 5. PARAMETRICKÉ TESTY
dujeme, aby pravděpodobnosti obou chyb byly co možná nejmenší. Při rozhodování o správnosti té či oné hypotézy se opíráme o tak zvanou testovací statistiku T . Testovací statistika je předem daný funkční předpis závisející na nějakém náhodném výběru X1 , X2 , ...., Xn z určitého rozdělení. Hodnoty statistiky T mohou ležet v jedné ze dvou disjunktních množin, a to buď v kritickém oboru W (obor zamítnutí hypotézy H0 ) nebo v oboru přijetí V (obor nezamítnutí hypotézy H0 ). Jak už bylo řečeno, můžeme se při testování dopustit jedné ze dvou chyb, přičemž se obvykle trvá jen na požadavku, aby pravděpodobnost chyby prvního druhu byla rovna nebo menší než α, kde α je nějaké dané číslo z intervalu (0,1). V praxi se nejčastěji volí α = 0, 05 nebo α = 0, 01 a číslu α se říká hladina testu.
Poznámka 5.1 v současné době udává běžný statistický software (Statistica, S+, R, SAS, ale i Excel) tzv. dosaženou hladinu (v anglicky psané literatuře udávané pod názvem P-value, significance value). Je to nejmenší hladina testu, při které bychom ještě hypotézu H0 zamítli. Tudíž zvolíme-li α = 0, 05, a P-value vyjde menší než 0,05 (nebo rovna), pak zamítáme hypotézu H0 na hladině α = 0, 05. Pokud P-value vyjde větší než 0,05, pak nezamítáme hypotézu H0 na hladině α = 0, 05.
5.1
Jednovýběrový t test
Nechť X1 , . . . , Xn , je náhodný výběr z N(µ, σ 2 ), kde n > 1. Parametr σ 2 > 0 není znám. Je třeba testovat hypotézu H0 : µ = µ0 , kde µ0 je dané číslo, proti ¯ hodně vzdáleno alternativě H1 : µ 6= µ0 . Hypotézu H0 zamítneme, bude-li X od čísla µ0 . Z věty 3.3 víme, že za platnosti hypotézy H0 má statistika ¯ − µ 0 ) √n (X T = ∼ tn−1 S
5.2. TEST O ROZPTYLU NORMÁLNÍHO ROZDĚLENÍ
49
Studentovo rozdělení o n−1 stupních volnosti. Podle definice kritické hodnoty Studentova rozdělení dostaneme, že P (|T | ≥ tn−1 (α)) = α. Tedy hypotézu H0 zamítneme na hladině α, jestliže platí |T | ≥ tn−1 (α). v případě jednostranné alternativy H1 : µ > µ0 , resp. H1 : µ < µ0 hypotézu H0 zamítneme, jestliže T ≥ tn−1 (2α),
resp. T ≤ −tn−1 (2α).
Příklad 5.1 Vraťme se k příkladu 4.1. Má se rozhodnout o tom, zda automat má systematickou výchylku. Tudíž je třeba testovat hypotézu H0 : µ = 0 proti alternativě H1 : µ 6= 0 na hladině α = 0, 05 (tj. že odchylky kolísají kolem nuly a nejsou systematicky posunuty ani do kladných ani do záporných hodnot). ¯ = −0, 8, S = 1, 9235, Máme n = 5, µ0 = 0, X
¯ − µ0 √ X n = −0, 93. S Protože | − 0, 93| < t4 (0, 05) = 2, 776, nezamítáme H0 . Tudíž zjištěná data T =
neodporují předpokladu, že automat nemá systematickou odchylku. Všimněte si, že µ0 = 0 (střední hodnota za platnosti hypotézy H0 ) leží uvnitř intervalového odhadu o spolehlivosti 0,95. Neboli 0 je pravděpodobná hodnota skutečné střední hodnoty a tudíž nemůžeme zamítnout H0 . Oba přístupy k testování hypotéz, jak klasický přístup, tak přes intervalový odhad, jsou ekvivalentní.
5.2
Test o rozptylu normálního rozdělení
Nechť X1 , . . . , Xn je náhodný výběr z N(µ, σ 2 ), kde n > 1. Je třeba testovat hypotézu H0 : σ 2 = σ02 , kde σ02 je dané číslo, proti alternativě H1 : σ 2 6= σ02 .
50
KAPITOLA 5. PARAMETRICKÉ TESTY
Hypotézu H0 zamítneme, bude-li S 2 hodně vzdáleno od čísla σ02 . Z věty 3.3 víme, že za platnosti hypotézy H0 má statistika T =
(n − 1)S 2 ∼ χ2n−1 σ02
χ2 rozdělení o n − 1 stupních volnosti. Podle definice kritické hodnoty rozdělení χ2 dostaneme, že α α ≤ (n − 1)S 2 /σ02 ≤ χ2n−1 = 1 − α, P χ2n−1 1 − 2 2 Tedy hypotézu H0 zamítneme na hladině α, jestliže platí α α T ≤ χ2n−1 1 − nebo T ≥ χ2n−1 . 2 2
V případě jednostranné alternativy H1 : σ 2 > σ02 , resp. H1 : σ 2 < σ02 hypotézu H0 zamítneme, jestliže T ≥ χ2n−1 (α),
resp. T ≤ χ2n−1 (1 − α).
Příklad 5.2 Zácvik laboranta na určitém optickém přístroji považujeme za ukončený, jestliže při měření určitého objektu dosahuje rozptylu nejvýše 0,0196. Byly naměřeny hodnoty: 6, 82; 6, 44;
6, 38;
6, 21;
6, 38;
6, 60;
6, 32.
v tomto případě je třeba provést test s jednostrannou alternativou. Zajímá nás, zda σ 2 ≤ 0, 0196 nebo σ 2 > 0, 0196. Za hypotézu H0 musíme vždy
zvolit, tu do které patří rovnost. Tudíž testujeme H0 : σ 2 ≤ 0, 0196 proti alternativě H1 : σ 2 > 0, 0196. Spočteme výběrový rozptyl S 2 = 0, 0406 a 6S 2 statistiku T = 0,0196 = 12, 44. Kritická hodnota χ26 (0, 05) = 12, 59, tudíž
T < χ26 (0, 05) a tedy nemůžeme zamítnout hypotézu H0 . Všimněte si, že odhad rozptylu je výrazně větší než požadovaný rozptyl, ale naměřená data nám neumožňují zamítnout hypotézu, že rozptyl je roven požadované hodnotě na hladině α = 0, 05. Neboli, je více než 5% pravděpodobnost, že naměřená data by mohla vzniknout z normálního rozdělení s rozptylem 0,0196.
5.3. PÁROVÝ T TEST
5.3
51
Párový t test
Mějme náhodný výběr (Y1 , Z1 ), (Y2 , Z2 ), . . . , (Yn , Zn ) z nějakého dvourozměrného rozdělení, jehož vektor středních hodnot je (µ1 , µ2 ). Chceme testovat hypotézu H0 : µ1 − µ2 = ∆ proti alternativě H1 : µ1 − µ2 6= ∆, kde ∆ je nějaké dané číslo (nejčastěji ∆ = 0). Položíme X 1 = Y 1 − Z1 , X 2 = Y 2 − Z2 , . . . , X n = Y n − Z n . Veličiny X1 , X2 , ..., Xn jsou nezávislé. Předpokládejme, že Xi ∼ N (µ, σ 2 ), i =
1, 2, . . . , n. Zřejmě µ = µ1 −µ2 . Jsou-li tyto předpoklady splněny, pak je úloha ¯ a převedena na jednovýběrový t test. Z veličin X1 , X2 , ..., Xn vypočteme X S 2 . Hypotézu H0 zamítneme na hladině α, platí-li ¯ − ∆)√n (X ≥ tn−1 (α). |T | = S
Párový t test se používá v situacích, kdy na každém z n objektů máme naměřeny dvě veličiny. Jednotlivé objekty lze zpravidla pokládat za nezávislé, ale měření na témž objektu nikoli. Párový t test použijeme, když např. testujeme účinnost nějakého léku na n pacientech, přičemž Yi jsou hodnoty naměřené před podáním léku a Zi jsou hodnoty naměřené po podání léku. Příklad 5.3 Má se rozhodnout na hladině α = 0, 05, zda lék na snížení krevního tlaku je účinný či nikoli. Bylo proto vybráno 6 pacientů jimž byl změřen tlak před aplikací léku a hodinu po aplikaci léku. Vyšší z obou hodnot měření tlaku každého pacienta je zaznamenána v tabulce. Pacient 1 2 3 4 5 6 Před podáním léku: 180 160 150 165 170 175 Po podání léku: 150 155 155 150 155 170 Rozdíl 30 5 -5 15 15 5 Rozdíly měření budeme považovat za realizace nezávislých náhodných veličin s rozdělením N (µ, σ 2 ), kde σ 2 není známo. Pokud lék nemá vliv na tlak krve,
52
KAPITOLA 5. PARAMETRICKÉ TESTY
platí hypotéza H0 : µ = 0. Máme tedy n = 6, ∆ = 0, ¯ = 1 Pn Xi = 1 (30 + 5 − 5 + 15 + 15 + 5) = 10, 833, X i=1 n 6 ! n X 1 1 Xi2 − nX 2 = (302 +52 +52 +152 +152 +52 −6·10, 8332 ) = S2 = n − 1 i=1 5 ¯ − ∆√ X 144, 167, S = 12, 007, T = n = 2, 21, T < t5 (0, 05) = 2, 57, tudíž S na základě uvedených měření hypotézu H0 nezamítáme.
5.4
Dvouvýběrový t test
Nechť X1 , X2 , . . . , Xn je výběr z N (µ1 , σ 2 ) a Y1 , Y2 , . . . , Ym výběr z N (µ2 , σ 2 ). Nechť tyto dva výběry jsou na sobě nezávislé. Předpokládejme, že n ≥ 2, m ≥
2, σ 2 > 0 a σ 2 neznáme. Chceme testovat hypotézu H0 : µ1 − µ2 = ∆ proti H1 : µ1 − µ2 6= ∆, kde ∆ je nějaké dané číslo (nejčastěji ∆ = 0). Označme ¯ S 2 a Y¯ , S 2 charakteristiky těchto výběrů. Hypotézu H0 zamítneme na X, X
Y
hladině α, platí-li r ¯ − Y¯ − ∆ nm(n + m − 2) X · | T |= p ≥ tn+m−2 (α). 2 (n − 1)SX n+m + (m − 1)SY2
Dvouvýběrový t test používáme v případech, kdy se např. na n pacientech zkouší působení léku A a na jiných m pacientech působení léku B. Účelem pokusu je zjistit, zda je působení obou léků stejné. Často dochází k záměně párového a dvouvýběrového t testu, což je hrubá chyba. Dvouvýběrový t test můžeme použít pouze v případě, když máme zajištěnu nezávislost všech veličin X1 , X2 , . . . , Xn , Y1 , Y2 , . . . , Ym . V případě záměny těchto testů dojdeme zpravidla k nesmyslným výsledkům. Předpoklady: Pro výše uvedené testy platí určité předpoklady. Jedním z nich je nezávislost jednotlivých veličin. Tento předpoklad je nejdůležitější, neboť jeho porušení má závažné důsledky a činí závěry založené na předcho-
53
5.5. TEST SHODNOSTI DVOU ROZPTYLŮ
zích testech chybnými. Dalším předpokladem je normalita rozdělení. Vzhledem k centrální limitní větě a zákonu velkých čísel její porušení při větším rozsahu náhodného výběru není závažné. Navíc v odstavci 5.7 je uveden test za pomoci CLV, který normalitu nepředpokládá. Při závažném porušení normality a malém rozsahu náhodného výběru dáváme přednost použití některého neparametrického testu. Testy na normalitu náhodného výběru jsou uvedeny v odstavcích 10.2 a 10.4. U dvouvýběrového t testu je další požadavek, a to shodnost rozptylů obou rozdělení. V případě, že rozdíl ve velikosti rozptylů není příliš veliký, porušení tohoto požadavku neovlivní podstatným způsobem celkový výsledek. O shodnosti rozptylů rozhodneme na základě následujícího testu.
5.5
Test shodnosti dvou rozptylů
Nechť X1 , X2 , . . . , Xn je výběr z N (µ1 , σ12 ) a Y1 , Y2 , . . . , Ym výběr z N (µ2 , σ22 ). Nechť tyto dva výběry jsou na sobě nezávislé. Předpokládejme, že n ≥ 2, m ≥
2, σ12 > 0, σ22 > 0. Testujeme hypotézu H0 : σ12 = σ22 proti H1 : σ12 6= σ22 . Pro2 tože SX je nestranný odhad parametru σ12 a SY2 parametru σ22 , lze očekávat, S2
že za platnosti hypotézy H0 bude podíl SX2 blízký jedné. Proti H0 budou Y tedy svědčit buď hodnoty blízké nule nebo hodnoty velké. Hypotézu H0 zamítneme, jestliže 2 SX ≤ k1 SY2
nebo
2 SX ≥ k2 , SY2
přičemž k1 = Fn−1,m−1 (1 −
α 1 )= , 2 Fm−1,n−1 (α/2)
α k2 = Fn−1,m−1 ( ), 2
kde Fn−1,m−1 (α/2) je kritická hodnota Fisherova-Snedecorova rozdělení o n− 1 a m − 1 stupních volnosti.
54
KAPITOLA 5. PARAMETRICKÉ TESTY
Příklad 5.4 Zemědělci oseli 11 polí, z toho u 6 polí použili hnojivo A a u zbylých 5 polí použili hnojivo B. Po sklizni byli u každého pole stanoveny průměrné výnosy (v tunách na hektar). Hnojivo A 62 54 55 Hnojivo B 52 56 49
60 53 50 51
58
Je třeba zjistit, zda jsou obě hnojiva stejně efektivní. Průměrné výnosy v první skupině budeme pokládat za výběr z N (µ1 , σ 2 ), průměrné výnosy ve druhé za výběr z N (µ2 , σ 2 ). Parametr σ 2 není znám. Hypotéza, že obě hnojiva jsou stejně efektivní, se dá vyjádřit jako H0 : µ1 = µ2 . 2 2 /SY2 = Máme n=6, m=5, ∆ = 0, odtud vypočteme SX = 12, 8, SY2 = 7, 3 a SX
12, 8/7, 3 = 1, 753. Hypotézu o shodnosti rozptylů bychom zamítli, kdyby platilo buď 2 SX /SY2 5 1/F4,5 (0, 025) = 1/7, 388 = 0, 135,
nebo Sx2 /Sy2 = F5,4 (0, 025) = 9, 3654. Poněvadž žádný z těchto případů nanastal, hypotézu o shodnosti rozptylů nezamítneme, a tudíž můžeme použít dvouvýběrový t test. ¯ = 57, Y¯ = 51, 6, X ¯ − Y¯ − ∆ X
T =p · 2 (n − 1)SX + (m − 1)SY2
r
nm(n + m − 2) = 2, 7712. n+m
T > t9 (0, 05) = 2, 26, tedy zamítáme hypotézu H0 o shodnosti efektivity hnojiva A a B.
Poznámka 5.2 Je vidět, že je výhodné zavést takové označení, aby platilo 2 SX = SY2 . Pak totiž při oboustranném testu na shodu rozptylů stačí zjistit, zda 2 SX /SY2 = Fn−1,m−1 (α/2), a není třeba počítat převrácené hodnoty kritických
hodnot.
5.6. POROVNÁVÁNÍ STŘEDNÍCH HODNOT PŘI NESTEJNÝCH ROZPTYLECH55
5.6
Porovnávání středních hodnot při nestejných rozptylech
Nechť X1 , X2 , ..., Xn je výběr z N(µ1 , σ12 ) a Y1 , Y2 , ..., Ym je výběr z N(µ2 , σ22 ) nezávislý na prvním výběru. Víme-li, že σ12 6= σ22 , můžeme střední hodnoty porovnat následovně. Je-li m ≥ n, utvoříme rozdíly X1 − Y1 , X2 − Y2 , ..., Xn − Yn . Na ně lze aplikovat jednovýběrový t test, neboť jednotlivé rozdíly jsou na sobě nezávislé a každý z nich má rozdělení N(µ1 − µ2 , σ12 + σ22 ). Nevýhodou
tohoto postupu je nejen ztráta m−n veličin Y -ových, ale i neefektivní využití zbývajících veličin. Místo předcházející metody se v praxi dává přednost tomuto přibližnému
testu: Nejprve se vypočte 1 2 = SX n−1
n X i=1
S=
¯2 Xi2 − nX
r
!
2 S2 SX + Y, n m
,
1 SY2 = m−1 vx =
2 SX , n
vy =
m X j=1
Yj2 − mY¯ 2
!
SY2 . m
Testujeme-li H0 : µ1 − µ2 = 0 proti H1 : µ1 − µ2 6= 0, pak H0 zamítneme
v případě, že platí nerovnost
¯ − Y¯ | |X vx tn−1 (α) + vy tm−1 (α) ≥ . S vx + vy Tento test má přibližně hodnotu α.
5.7
Test o střední hodnotě pomocí CLV
v případě, že náhodné veličiny výrazně nesplňují normalitu, nemůžeme použít předchozí testy. Je-li však náhodných veličin větší počet, můžeme pak využít
56
KAPITOLA 5. PARAMETRICKÉ TESTY
centrální limitní věty, která říká, že součet většího počtu náhodných veličin se chová jako normální rozdělení. Pro použití aproximace pomocí CLV se obvykle doporučuje rozsah náhodného výběru n ≥ 20. Mějme X1 , . . . , Xn náhodný výběr z rozdělení s konečnou střední hodnotou µ a konečným rozptylem σ 2 . Je třeba testovat hypotézu H0 : µ = µ0 , kde µ0 je dané číslo, proti alternativě H1 : µ 6= µ0 . Hypotézu H0 zamítneme, bude-li ¯ hodně vzdáleno od čísla µ0 . Podle centrální limitní věty má statistika X T =
¯ − µ0 √ X n →n→∞ Φ ∼ N (0, 1) σ0
za platnosti H0 asymptoticky normované normální rozdělení. Podle definice kritické hodnoty normovaného normálního rozdělení je asymptoticky α P |T | ≤ u(1 − ) = 1 − α. 2 Tedy hypotézu H0 zamítneme na hladině α, jestliže platí |T | ≥ u(1 −
α ). 2
v případě jednostranné alternativy H1 : µ > µ0 , resp. H1 : µ < µ0 hypotézu H0 zamítneme, jestliže T ≥ u(1 − α),
resp. T ≤ −u(1 − α).
v případě, že σ02 není známo, použijeme místo něj ve výpočtu statistiky T jeho nestranný odhad S 2 .
Příklad 5.5 Vraťme se k příkladu 4.2. Má se rozhodnout o tom, zda kostka je symetrická. Tudíž je třeba testovat hypotézu H0 : µ = 1/6 proti alternativě H1 : µ 6= 1/6 na hladině α = 0, 05 (tj. že pravděpodobnost padnutí kostky na
5.7. TEST O STŘEDNÍ HODNOTĚ POMOCÍ CLV
57
¯ = 0, 125, S 2 = 0, 109. Rozptyl této kostce je 1/6). Máme n = 600, µ0 = 1/6, X náhodné veličiny Xi ∼ A(µ0 ) za platnosti hypotézy H0 je σ02 = µ0 (1 − µ0 ). T =
¯ − µ0 √ X n = −2, 74. σ0
Protože |−2, 74| > u(0, 975) = 1, 96, zamítáme H0 . Tudíž zjištěná data odporují předpokladu, že kostka je symetrická. Všimněte si, že u tohoto testu jsme použili σ02 , zatímco v příkladu 4.2 jsme použili S 2 . Oba přístupy k testování hypotéz, jak klasický, tak přes intervalový odhad, jsou ekvivalentní.
58
KAPITOLA 5. PARAMETRICKÉ TESTY
Kapitola 6 Neparametrické testy Parametrické testy jsou založeny na několika předpokladech. Jedním z nich je předpoklad, že výběr pochází z daného rozdělení. Toto rozdělení je známo, až na některé parametry. Často je dané rozdělení normální (viz Studentovy t testy), přičemž porušení normality při dostatečně velkém výběru nemění závěry testů. V tomto případě se totiž můžeme opřít o centrální limitní větu a zákony velkých čísel. Často se však setkáváme s výběry malých rozsahů, které pocházejí z výrazně ”nenormálních” základních souborů. Při práci s nimi potom využíváme tzv. neparametrické testy. Tyto testy mají velmi obecné předpoklady a jsou matematicky nenáročné. Před uvedením některých neparametrických testů zavedeme pojem pořadí. Mějme daná různá reálná čísla x1 , x2 , . . . , xn . Pořadím Ri čísla xi nazýváme počet těch čísel x1 , x2 , . . . , xn , která jsou menší nebo rovna číslu xi . Mějme např. čísla 5,8,9,3,2,1. Číslo 5 má pořadí 4, protože čísla (5,3,2,1) jsou menší nebo rovna pěti. Shrnutím do tabulky dostaneme Čísla xi Pořadí Ri
5 4
8 5
9 3 6 3
2 2
1 1
Může se stát, že čísla x1 , x2 , . . . , xn nejsou různá, tzn. některá z nich jsou 59
60
KAPITOLA 6. NEPARAMETRICKÉ TESTY
si rovna a vytvářejí tzv. shody. V tomto případě se pak číslům, které tvoří shodu, přiřazuje průměrné pořadí odpovídající takové skupince. Např. číslům 5,5,5,9,9,2,1 se přiřadí pořadí R1 , R2 , . . . , R7 , uvedené v tabulce: Očíslování hodnot xi Vzestupně uspořádané hodnoty xi Pořadí Ri
6.1
1 1 1
2 3 2 5 2 4
4 5 4
5 6 5 9 4 6,5
7 9 6,5
Znaménkový test
Nechť X1 , X2 , . . . , Xn je náhodný výběr z rozdělení se spojitou distribuční funkcí, x˜ je medián tohoto rozdělení, potom platí: 1 P (X < x˜) = P (X > x˜) = . 2 Chceme testovat hypotézu H0 : x˜ = x0
proti alternativě H1 : x˜ 6= x0 ,
kde x0 je dané číslo (nejčastěji rovno nule). Utvoříme nejprve rozdíly X1 − x0 , X2 − x0 , . . . , Xn − x0 . Náhodná veličina Y pak bude označovat počet těch rozdílů, které mají kladné znaménko. Za předpokladu platnosti hypotézy H0 má náhodná veličina Y binomické rozdělení s parametry n a 21 . Při oboustranném testu tvoří kritický obor jednak příliš malé hodnoty Y (tj. hodnoty ležící blízko nule), jednak příliš velké hodnoty Y (tj. hodnoty blízké n ). V případě malého rozsahu výběru (tj. pro malá n ) jsou tabelována čísla k1 , k2 tak, že P (Y ≤ k1 ) ≤
α , 2
P (Y ≥ k2 ) ≤
α 2
pro α = 0, 05 a pro α = 0, 01. Kritické hodnoty k1 , k2 je možné nalézt v tabulkách. Hypotézu H0 tedy zamítáme, jestliže zjistíme, že Y ≤ k1 nebo Y ≥ k2 .
6.2. JEDNOVÝBĚROVÝ WILCOXONŮV TEST
61
Při velkém rozsahu náhodného výběru (stačí n ≥ 20) vypočteme U=
2Y − n √ . n
Veličina U má za platnosti H0 podle CLV asymtoticky rozdělení N(0,1), tudíž hypotézu H0 zamítneme, jestliže
α . |U | ≥ u 1 − 2
Znaménkový test je možné provést též jako párový test. Na rozdíl od párového t testu nemusíme k provedení znaménkového testu znát přesné hodnoty Xi , Yi , i = 1, 2, ..., n, ale stačí vědět, zdali je rozdíl Xi − Yi kladný nebo záporný. Z tohoto důvodu je znaménkový test použitelný i v případě, kdy jsou k dispozici pouze kvalitativní srovnání, např. lék A působí lépe než lék B. U znaménkového testu můžeme dojít k tomu, že některé rozdíly budou rovny nule. Např. u kvalitativního srovnání není subjekt schopen rozhodnout o vlivu tím či oním směrem. V tomto případě se doporučuje nulové hodnoty vynechat a za n vzít jen počet nenulových hodnot.
6.2
Jednovýběrový Wilcoxonův test
Tento test se rovněž nejčastěji používá jako test párový. Jeho provedení je o něco náročnější než provedení znaménkového testu, zato je však citlivější. Předpokládejme, že X1 , X2 , . . . , Xn je náhodný výběr ze spojitého rozdělení s distribuční funkcí F (x). Chceme testovat hypotézu, že F je symetrická kolem nuly v tom smyslu, že F (x) = 1 − F (−x),
−∞ < x < ∞.
v tomto případě je nula mediánem daného rozdělení. Seřaďme X1 ,X2 ,. . .,Xn do rostoucí posloupnosti podle velikosti jejich absolutní hodnoty, tj. |X|(1) < |X|(2) < ... < |X|(n) .
62
KAPITOLA 6. NEPARAMETRICKÉ TESTY
Při tomto uspořádání označíme Ri+ pořadí Xi a zavedeme veličiny S+ =
X
Ri+ ,
S− =
Xi ≥0
X
Ri+
Xi <0
vyjadřující součet pořadí nezáporných hodnot Xi , resp. záporných hodnot. Pokud jsme určili veličiny S + a S − správně, musí platit S + + S − =
n(n+1) , 2
neboť sčítáme čísla od 1 do n. Pro testování symetričnosti distribuční funkce kolem nuly použijeme statistiku min(S + , S − ). Pokud je tato statistika menší nebo rovna tabelované kritické hodnotě, hypotézu zamítneme. Kritické hodnoty jsou uvedeny v tabulkách. Pro větší hodnoty n opět použijeme testovou statistiku, která bude mít asymptoticky rozdělení N (0,1) a tvar
V případě
U=p
S + − 41 n(n + 1)
n(n + 1)(2n + 1)/24
.
α ) 2 zamítneme hypotézu na hladině, která je asymptoticky rovna α. |U | ≥ u(1 −
Příklad 6.1 Speciální cvičení na paměťové počítání bylo testováno na 11 žácích. V následující tabulce jsou uvedeny časy v sekundách, za které vyřešili kontrolní úlohy před cvičením a po cvičení. Můžeme tvrdit, že tato cvičení zlepšují schopnost žáků při řešení úloh na hladině α = 0, 05? Před cvičením Po cvičení Rozdíly Pořadí absolutních hodnot
87 61 98 90 93 74 83 72 81 75 83 50 45 79 90 88 65 52 79 84 61 52 37 16 19 0 5 9 29 -7 -3 14 31 11 7 8 1 3 5 9 4 2 6 10
Testujeme hypotézu H0 : F (x) = 1−F (−x), neboli hypotézu, že cvičení nemá vliv na schopnost řešení úloh. S + = 1 + 3 + 5 + 6 + 7 + 8 + 9 + 10 + 11 = 60
63
6.3. DVOUVÝBĚROVÝ WILCOXONŮV TEST S− = 2 + 4 = 6 Kritická hodnota jednovýběrového Wilcoxonova testu je w11 (0, 05) = 10
min(S + , S − ) < w11 (0, 05), z toho plyne, že zamítáme hypotézu H0 na hladině 5%. Tato úloha se dá řešit i znaménkovým testem, avšak při něm nevyužijeme všech informací, které známe, a to může vést k mylným závěrům. Počet kladných hodnot je Y = 9. Kritické hodnoty znaménkového testu jsou k1 = 1, k2 = 10. k1 < Y < k2 , z toho plyne, že nezamítáme hypotézu. V tomto případě dostaneme rozdílné výsledky obou testů. Znaménkový test nemá dostatek informací pro zamítnutí hypotézy H0 , protože využívá pouze počtu záporných hodnot, zatímco u Wilcoxonova testu využijeme navíc znalosti toho, že záporné hodnoty jsou poměrně malé. Řekneme, že Wilcoxonův test je silnější než znaménkový test.
6.3
Dvouvýběrový Wilcoxonův test
Tento test se používá nejčastěji místo dvouvýběrového t testu. Opět dochází k zobecnění předpokladu, který je kladen na distribuční funkce daných náhodných výběrů. Nechť X1 , X2 , . . . , Xn1 a Y1 , Y2 , . . . , Yn2 jsou dva nezávislé výběry ze dvou spojitých rozdělení. Chceme testovat hypotézu, že distribuční funkce obou rozdělení jsou totožné. Oba výběry X1 , X2 , . . . , Xn1 , Y1 , Y2 , . . . , Yn2 uspořádáme společně, jako jeden výběr, vzestupně podle velikosti. Zjistíme součet pořadí hodnot X1 , X2 , ..., Xn1 ve spojených výběrech. Součet označíme T1 . Dále zjistíme součet pořadí hodnot Y1 , Y2 , ..., Yn2 a označíme ho T2 . Vypočteme U1 = n1 n2 +
n1 (n1 + 1) − T1 , 2
U2 = n1 n2 +
n2 (n2 + 1) − T2 . 2
64
KAPITOLA 6. NEPARAMETRICKÉ TESTY
1 +n2 ) , platí U1 + U2 = n1 n2 . Pokud Vzhledem k tomu, že T1 + T2 = (n1 +n2 +1)(n 2 min(U1 , U2 ) je menší nebo rovno kritické hodnotě uvedené v tabulce, zamít-
neme hypotézu, že distribuční funkce obou rozdělení jsou stejné. Při velkém rozsahu obou výběrů opět přejdeme ke statistice, která má za platnosti hypotézy asymptoticky rozdělení N(0,1) a tvar U1 − n12n2 p U0 = n1 n2 . (n1 + n2 + 1) 12
Pokud |U0 | ≥ u(1 − α2 ), zamítneme hypotézu na hladině asymptoticky rovné
α.
Příklad 6.2 V následující tabulce je uvedena délka těla larev chrobáků žijících v osevech zimní rýže a prosa. Délka v rýži 7 10 14 15 12 16 12 Délka v prosu 11 12 16 13 18 15 Pořadí délek v rýži 1 2 8 9.5 5 11.5 5 Pořadí délek v prosu 3 5 11.5 7 13 9.5 Naším úkolem je porovnat rozdělení těchto délek na hladině α = 0, 05. Součet pořadí v rýži je roven T1 = 42 a v prosu je roven T2 = 49. n1 = 7 a n2 = 6. Spočteme U1 = 42 + 56/2 − 42 = 28, U2 = 42 + 42/2 − 49 = 14. Kritická hodnota dvouvýběrového Wilcoxonova testu na hladině α = 0, 05 pro rozsahy výběrů 7,6 je rovna W7,6 (0, 05) = 6. Protože min(U1 , U2 )> W7,6 (0, 05), nezamítáme hypotézy o shodnosti rozdělení obou výběrů.
Kapitola 7 Porovnání více výběrů V praktických situacích dochází často k situacím, kdy máme jednu skupinu kontrolní a několik skupin pokusných. Úkolem je ověřit, zda rozdíly mezi všemi těmito skupinami jsou nahodilé nebo zda se mezi nimi projevují nějaké systematické odchylky. K tomuto účelu slouží níže uvedené testy.
7.1
Analýza rozptylu jednoduchého třídění
Tento test je zobecněním dvouvýběrového t testu, který rozšíříme na případ (I ≥ 3) výběru. Uvažujme tedy I nezávislých výběrů, Y11 , ..., Y1n1 je výběr z N (µ1 , σ 2 ) atd. až YI1 , ..., YInI je výběr z N (µI , σ 2 ). Chceme testovat hypotézu H0 : µ1 = . . . = µI proti alternativě, že existují alespoň dvě střední hodnoty, které si rovny nejsou. Někdy se uvedená situace zapisuje modelem: Yij = µ + αi + eij , 65
66
KAPITOLA 7. POROVNÁNÍ VÍCE VÝBĚRŮ
kde µ+αi = µi a eij ∼N(0, σ 2 ) je chyba vyplývající z nepřesnosti měření nebo ze systematické odchylky od průměru. Hypotézu H0 přepíšeme na jednodušší model, který je splněn, pokud platí hypotéza H0 : Yij = µ + eij . Test provedeme následovně. Nejprve si označme průměry jednotlivých výběrů Yi1 + ... + Yini ni
Yi = a průměr všech hodnot
Y =
pro i = 1, ..., I
P P i
j
Yij
n
,
kde n = n1 + . . . + nI . Nyní spočtěme celkový součet čtverců ST (tj. celková kvadratická chyba modelu za platnosti H0 , tedy v případě že µ1 = . . . = µI = µ). Za odhad µ se bere Y . ST =
XX XX 2 (Yij − Y )2 = Yij2 − nY . i
j
i
j
Reziduální součet čtverců Se je celková kvadratická chyba modelu za předpokladu, že hypotéza H0 neplatí, tedy v případě že µ1 6= . . . 6= µI . Za odhad µi se bere Y i . Se =
XX i
j
(Yij − Y i )2 =
XX i
j
Yij2 −
X
2
ni Y i .
i
Veličina SA = ST − Se se interpretuje jako součet čtverců připadající na rozdíly v ošetřeních. Tato veličina je vždy kladná, protože chyba obecnějšího modelu Se je vždy menší než chyba jednoduššího modelu ST . Je-li SA malé,
pak jsou si oba modely podobné, a tudíž nebudeme zamítat hypotézu H0 . Je-li SA velké, pak obecnější model vysvětluje velkou část celkové chyby ST a tudíž zamítneme H0 .
67
7.1. ANALÝZA ROZPTYLU JEDNODUCHÉHO TŘÍDĚNÍ Za platnosti hypotézy H0 má statistika FA =
(n − I)SA ∼ FI−1,n−I (I − 1)Se
F rozdělení o I − 1 a n − I stupních volnosti. Tedy hypotézu H0 zamítneme na hladině α v případě, že
FA ≥ FI−1,n−I (α). Výsledky celého testu se stručně zapisují do tabulky (viz tabulka 7.1). Variabilita ošetření reziduální celková
součet čtverců S SA Se ST
počet stupňů podíl volnosti f S/f fA = I − 1 SA /fA fe = n − I Se /fe ft = n − 1 -
F FA -
Tabulka 7.1: Tabulka analýzy rozptylu
Přepoklady tohoto testu jsou obdobné předpokladům dvouvýběrového t testu (viz strana 52). Nejdůležitější je opět nezávislost jednotlivých výběrů, normalita může být porušena, pokud rozsahy výběrů umožňují použití CLV. Není-li tomu tak, je vhodnější provést neparametrickou obdobu tohoto testu, která se nazývá Kruskalův-Wallisův test. Posledním předpokladem je shodnost rozptylů všech výběrů. Pokud by odhad některého rozptylu vycházel velmi odlišně od ostatních, měli bychom provést test shody rozptylů (viz např. [2]). Veličina s2 = Se /(n − I) se nazývá reziduální rozptyl a je nestranným odhadem rozptylu σ 2 . Poznámka 7.1 Mohlo by se zdát, že výše uvedený test by se dal provádět sadou dvouvýběrových t testů, provedených na každou dvojici výběrů. Ovšem
68
KAPITOLA 7. POROVNÁNÍ VÍCE VÝBĚRŮ
takových testů bychom museli udělat I(I − 1)/2. Kdyby každý z nich byl proveden na hladině α, byla by výsledná hladina výrazně větší než α. Pokud bychom hladinu každého testu snížili na 2α/I(I − 1), byla by celková hladina naopak podstatně menší než α. Ukazuje se, že tento postup nevede k dobrým výsledkům.
V případě, že hypotézu H0 zamítneme, je často třeba rozhodnout, pro které dvojice indexů platí µi 6= µj . Tento problém řeší Tukeyova metoda mnohonásobného porovnání. Protože Y i je odhadem pro µi , vytvoří se nejprve tabulka rozdílů Y i − Y j
(viz tabulka 7.2).
i
2
1 2 .. .
Y1−Y2 .. .
j 3
...
I
Y1−Y3 Y2−Y3 .. .
... ... ...
Y1−YI Y2−YI .. .
I −1
Y I−1 − Y I Tabulka 7.2: Rozdíly průměrů
Statistika |Y − Y j | q i ∼ qI,n−I s 12 ( n1i + n1j )
má rozdělení nazývající se studentizované rozpětí. Kritická hodnota qI,f (α) studentizovaného rozpětí je takové číslo, pro něž platí P [Q ≥ qI,f (α)] = α. Tyto kritické hodnoty jsou tabelovány. Tudíž platí-li
s 1 1 1 , + |Y i − Y j | ≥ sqI,n−I (α) 2 ni nj
69
7.1. ANALÝZA ROZPTYLU JEDNODUCHÉHO TŘÍDĚNÍ
zamítáme hypotézu o rovnosti µi = µj . Provedeme-li tento postup pro všechny dvojice, pak hladina testu je menší nebo rovna α. Rovnost nastává v případě, že všechny výběry mají stejný rozsah. Abychom se lépe orientovali ve výsledcích Tukeyovy metody, připisuje se do tabulky 7.2 ke každému rozdílu hvězdička, pokud je rozdíl významný (signifikantní) na hladině 0,05. Dvě hvězdičky pro významnost na hladině 0,01 a tři pro 0.001. Příklad 7.1 Sleduje se účinek tří protikorozních látek. První byla použita ve 20 případech, druhá ve 25 případech a třetí ve 22 případech. Po stanovené době byl zjištěn stupeň poškození s těmito výsledky Y 1 = 82, 4;
S12 = 12;
Y 2 = 80;
S22 = 10;
Y 3 = 85, 8;
S32 = 12.
Bohužel konkrétní měření se nedochovala. Postupně vypočteme: n = 67,
Y =
(n1 Y 1 + n2 Y 2 + n3 Y 3 )/n = 82.64. P 2 P 2 n 2 1 Podle definice výběrového rozptylu Si2 = n−1 j Y1j = j Yij − n−1 Y i vypočteme P 2 P 2 136023, j Y3j = 162208. Odtud již můžeme vyjádřit j Y2j = 160240, tabulku analýzy rozptylu: variabilita mezi látkami reziduální celková
S f S/f F 183,5 2 91,75 8,15** 720 64 11,25 903,5 66 -
. Kritická hodnota F2,64 (0, 01) = 4.98, tudíž zamítáme hypotézu o shodnosti všech protikorozních látek. Nyní je třeba odhalit, které rovnosti jsou porušeny. Vytvořme tabulku rozdílů průměrů: rozdíly 2. látka 3. látka 1. látka 2,4 -3,4** 2. látka -5,8**
70
KAPITOLA 7. POROVNÁNÍ VÍCE VÝBĚRŮ
. v tabulkách nalezneme kritickou hodnotu studentizovaného rozpětí q3,64 (0, 01) = 4, 28 a vypočteme hodnoty zamítnutí pro každou dvojici zvlášť: hodnoty zamítnutí 2. látka 3. látka 1. látka 2,93 3,01 2,85 2. látka Vidíme, že byla prokázána rozdílnost třetí protikorozní látky s ostatními na hladině 0, 01, naproti tomu nebyla prokázána rozdílnost první a druhé látky na hladině 0, 01.
7.2
Kruskalův-Wallisův test
Tento test je neparametrickou obdobou analýzy rozptylu jednoduchého třídění a je zobecněním Wilcoxonova dvouvýběrového testu, který rozšíříme na případ I výběru (I ≥ 3). Uvažujme k nezávislých výběrů, které jsou postupně
o rozsahu n1 , n2 , ..., nI . Označme n = n1 + n2 + ... + nI . Předpokládejme, že každý tento výběr pochází z nějakého rozdělení se spojitou distribuční funkcí.
Chceme testovat hypotézu, že všechny výběry pocházejí z téhož rozdělení. Tento test je citlivý zejména na vzájemné posunutí jednotlivých rozdělení. Podobně jako u Wilcoxonova dvouvýběrového testu seřadíme všech n prvků z I výběru do rostoucí posloupnosti a určíme pořadí každého prvku. Označme Ti součet pořadí těch prvků, které patří do i-tého výběru (i = 1, 2, ..., I). Vzhledem k tomu, že celkový počet prvků ze všech výběrů je n, musí platit T1 +T2 +...+TI = n(n+1) . Tohoto vztahu můžeme využít ke kontrole správnosti 2 výpočtu Ti . V případě platnosti hypotézy má pak statistika I
Q=
X T2 12 i − 3(n + 1) ∼ χ2I−1 n(n + 1) i=1 ni
při n −→ ∞ asymptoticky χ2 rozdělení o I −1 stupních volnosti. Jestliže Q ≥ χ2I−1 (α), zamítneme hypotézu na hladině, která je asymptoticky rovna α. Pokud hypotézu zamítneme, tvrdíme, že všechny výběry nepocházejí z téhož
71
7.2. KRUSKALŮV-WALLISŮV TEST
rozdělení. V tomto případě nás pak zajímá, které výběry se od sebe vzájemně liší. v případě, že rozsahy všech výběrů jsou stejné, použijeme za tímto účelem Neményho metodu mnohonásobného srovnávání. Je-li číslo |Ti − Tj | větší nebo rovno kritické hodnotě (kritické hodnoty, s nimiž tato metoda pracuje, jsou tabelovány), zamítá se hypotéza, že i-tý a j-tý výběr pocházejí z téhož čísel |Ti − Tj |. rozdělení. Tento postup se aplikuje na všech I(I−1) 2 V případě, že rozsahy všech výběrů nejsou stejné, označíme ti = Ti /ni , i = 1, . . . , I a prohlásíme, že se distribuční funkce i-tého a j-tého výběru od sebe významně liší, pokud
|ti − tj | >
s
1 12
1 1 + ni nj
n(n + 1)χ2I−1 (α).
Příklad 7.2 Byla sledována doba bezporuchového chodu 8 přístrojů tří různých značek A, B a C. Výsledky jsou shrnuty v následující tabulce: A 48 16 75 29 96 67 89 22 B 46 94 20 87 66 25 14 75 C 58 17 65 34 26 63 74 106 Lze předpokládat, že jednotlivé výběry jsou z exponenciálního rozdělení, tudíž pro porovnání kvality provedení přístrojů u jednotlivých značek nemůžeme použít analýzu rozptylu. Proto použijeme Kruskalův-Wallisův test. Data uspořádáme v jednom společném výběru, výsledky jsou znázorněny v následující tabulce:
A 11 2 18,5 8 23 16 21 5 celkem 104,5 B 10 22 4 20 15 6 1 18.5 celkem 96,5 C 12 3 14 9 7 13 17 24 celkem 99 Vypočteme Q = 0, 08375. Kritická hodnota χ22 (0, 05) = 5, 99, tudíž nezamítáme hypotézu H0 . Data neprokázala významný rozdíl mezi kvalitami provedení všech značek.
72
7.3
KAPITOLA 7. POROVNÁNÍ VÍCE VÝBĚRŮ
Analýza rozptylu dvojného třídění
Uvažujme model: Yij = µ + αi + βj + eij ,
kde i = 1, . . . , I,
j = 1, . . . , J,
(7.1)
kde µ, αi pro i = 1, . . . , I a βj pro j = 1, . . . , J jsou neznámé parametry a eij ∼N(0, σ 2 ) je chyba vyplývající z nepřesnosti měření nebo ze systematické odchylky od průměru. To znamená, že naměřené veličiny Yij závisí jak na sloupci, tak na řádku, ve kterém se vyskytují. Navíc v každém řádku máme stejný počet prvků. Představme si např. situaci, kdy měříme na J pacientech tlak v I okamžicích (např. ráno, v poledne a večer). Každý pacient má jinou průměrnou hodnotu tlaku µ+βj . Výchylky během dne jsou určeny parametry αi . Je vidět, že ve výše uvedeném modelu jsou dva parametry nadbytečné. Abychom tomuto předešli, klademe na parametry dvě dodatečné podmínky: X
X
αi = 0,
i
βj = 0.
j
Nyní chceme testovat hypotézu H0 : α1 = . . . = αI = 0 (tj. že nezáleží na řádkovém třídění), kterou přepíšeme na jednodušší model odpovídající jednoduchému třídění: Yij = µ + βj + eij . Test provedeme následovně. Nejprve si označme průměry jednotlivých výběrů Y i. =
Yi1 + ... + YiJ J
pro i = 1, ..., I,
Y .j =
Y1j + ... + YIj I
pro j = 1, ..., J
a průměr všech hodnot Y =
P P i
n
j
Yij
,
73
7.3. ANALÝZA ROZPTYLU DVOJNÉHO TŘÍDĚNÍ
kde n = IJ. Nyní spočtěme celkový součet čtverců ST (tj. celková kvadratická chyba, v případě že α1 = . . . = αI = β1 = . . . = βJ = 0.) Za odhad µ se bere Y. ST =
XX i
j
(Yij − Y )2 =
XX i
j
2
Yij2 − nY .
Součet čtverců chyb v řádcích označíme X 2 2 SA = J Y i. − nY . i
Součet čtverců chyb ve sloupcích označíme X 2 2 SB = I Y .j − nY . j
Reziduální součet čtverců Se = ST − SA − SB je celková kvadratická chyba modelu 7.1. Stupně volnosti jednotlivých součtů čtverců jsou: fT = n − 1,
fA = I − 1,
fB = J − 1,
fe = n − I − J + 1.
Hypotézu H0 zamítneme na hladině α v případě, že FA =
SA /fA ≥ FfA ,fe (α). Se /fe
Podobně budeme postupovat v případě testování hypotézy H00 : β1 = . . . = βJ = 0 (tj. že nezáleží na sloupcovém třídění), kterou přepíšeme na jednodušší model odpovídající jednoduchému třídění: Yij = µ + αi + eij . Hypotézu H00 zamítneme na hladině α v případě, že FB =
SB /fB ≥ FfB ,fe (α). Se /fe
74
KAPITOLA 7. POROVNÁNÍ VÍCE VÝBĚRŮ Variabilita řádková sloupcová reziduální celková
součet čtverců S SA SB Se fe ST
počet stupňů volnosti f fA = I − 1 fB = J − 1 =n−I −J +1 ft = n − 1
podíl S/f SA /fA SB /fB Se /fe -
F FA FB -
Tabulka 7.3: Tabulka analýzy rozptylu dvojného třídění
Výsledky celého testu se stručně zapisují do tabulky (viz tabulka 7.3). Reziduální rozptyl s2 = Se /fe je nestranným odhadem rozptylu σ 2 . v případě, že hypotézu H0 zamítneme, je často třeba rozhodnout, pro které dvojice indexů neplatí rovnost. Tento problém řeší, stejně jako u jednoduchého třídění, Tukeyova metoda mnohonásobného porovnání. Rovnost αi = αl zamítneme, platí-li |Y i. − Y l. | ≥ sqI,n−I−J+1 (α)
r
1 . J
Rovnost βj = βl zamítneme, platí-li |Y .j − Y .l | ≥ sqJ,n−I−J+1 (α)
r
1 . I
Poznámka 7.2 Model 7.1 se dá dále zobecňovat. Např. pro každé i, j můžeme mít P dat. Yijp = µ + αi + βj + eijp ,
kde
i = 1, . . . , I,
j = 1, . . . , J,
Je možné sledovat interakce v modelu mezi řádky a sloupci Yijp = µ + αi + βj + λij + eijp .
p = 1, . . . , P.
75
7.3. ANALÝZA ROZPTYLU DVOJNÉHO TŘÍDĚNÍ
Dále je také možné sledovat závislost veličin na třech typech parametrů - tzv. trojné třídění. Tyto modely jsou řešeny např. v [1], [2]. Neparametrickou obdobou výše popsaného dvojného třídění je Friedmanův test.
Příklad 7.3 Byl sledován vliv tří preparátů na srážlivost krve. Kromě jiných ukazatelů byl zjišťován tzv. trombinovaný čas. U každé osoby byl stanoven nejprve kontrolní údaj (K), který udává trombinovaný čas před zahájením pokusu. Pak byly aplikovány preparáty A,B,C, a to každý dostatečně dlouho po odeznění účinku těch předchozích. Údaje o 10 sledovaných osobách jsou uvedeny v následující tabulce (viz [1]). Otestujte, zda všechny osoby mají stejný trombinový čas a otestujte zda preparáty mají vliv na trombinový čas. Osoba Preparát K A 11,3 B 11,9 C 11,8 D 12,1 E 11,2 F 11,3 G 10,8 H 12,0 I 11,5 J 11,7 Y .j 11,56
A 11,2 12,1 13,2 12,8 13,5 12,5 10,7 13,8 12,9 11,9 12,46
B 11,4 11,8 12,0 12,0 11,5 11,5 10,9 11,6 11,3 11,3 11,53
C 11,0 9,5 11,1 12,5 8,4 9,0 9,7 12,2 10,3 8,2 10,19
Y i. 11,225 11,325 12,025 12,35 11,15 11,075 10,525 12,4 11,5 10,775 11,435
Z údajů v tabulce můžeme vyjádřit tabulku analýzy rozptylu: variabilita řádková (osoby) sloupcová (preparáty) reziduální celková
S f S/f F 14,606 9 1,62 2,58* 26,253 3 8,75 13,9** 16,992 27 0,63 57,851 39 -
76
KAPITOLA 7. POROVNÁNÍ VÍCE VÝBĚRŮ
. Kritická hodnota F9,27 (0, 05) = 2, 25, tudíž zamítáme hypotézu, že všechny osoby mají stejný trombinový čas na hladině 0, 05. . Kritická hodnota F3,27 (0, 01) = 4, 6, tudíž zamítáme hypotézu, že preparáty nemají vliv na trombinový čas na hladině 0, 01. Hypotéza o shodnosti trombinového času v závislosti na osobách nás zajímat nebude. Její neplatnost jsme předpokládali již na začátku, proto jsme také zvolili dvouvýběrové třídění. Nyní je třeba odhalit, které rovnosti mezi preparáty jsou porušeny. Vytvořme tabulku rozdílů průměrů: B C rozdíly A K -0,9 0,03 1,37** 0,93 2,27** A B 1,34** . v tabulkách nalezneme kritickou hodnotu studentizovaného rozpětí q4,27 (0, 01) = p . 4, 85, q4,27 (0, 05) = 3, 875 a vypočteme hodnoty zamítnutí sq4,27 (0, 01) 1/10 = p p 0, 79q4,27 (0, 01) 1/10 = 1, 22, sq4,27 (0, 05) 1/10 = 0, 97. Vidíme, že preparát C významně snižuje trombinový čas jak ve vztahu k počátečnímu stavu, tak k preparátům A a B.
7.4
Friedmanův test
Tento test je neparametrickou obdobou analýzy rozptylu dvojného třídění. Máme I · J nezávislých pozorování, které uspořádáme do tabulky Náhodné veličiny Yij mají spojitou distribuční funkci Fij , 1, 2, ..., J a jsou vzájemně nezávislé. Budeme testovat hypotézu H0 : Fi1 = Fi2 = ... = FiJ .
i = 1, 2, .., I
j=
77
7.4. FRIEDMANŮV TEST Sloupce 1 Řádky 1 Y11 2 Y21 . ... . ... . ... I YI1
2
3
...
J
Y12 Y22 ... ... ... YI2
Y13 Y23 ... ... ... YI3
... ... ... ... ... ...
Y1J Y2J
YIJ
Tabulka 7.4: Pozorované veličiny Neboli testujeme hypotézu, zda Fij závisí na sloupcovém indexu j, přičemž předpokládáme, že mohou záviset na řádkovém indexu i. Uspořádáme pozorování v každém řádku podle velikosti a označíme příslušná pořadí Ri1 ,Ri2 ,. . .,RiJ , i = 1, 2, ..., I. Sloupce 1 Řádky 1 R11 2 R21 . ... . ... . ... I RI 1 Sloupcové součty R.1
2
3
...
J Řádkové součty
R12 R22 ... ... ... RI 2 R.2
R13 R23 ... ... ... ... ...
... ... ... ... ...
R1J R2J
J(J+1) 2 J(J+1) 2
RI J R.J
J(J+1) 2 R.. = IJ(J+1) 2
Tabulka 7.5: Pořadí a součty pozorovaných veličin Zde R.j =
P
i
Rij , R.. =
P P i
j
Rij .
Statistika Friedmanova testu je dána vzorcem J
Q=
X 12 R2 − 3I(J + 1). IJ(J + 1) j=1 .j
(7.2)
Hypotézu H0 zamítneme, jestliže Q překročí kritickou hodnotu uvedenou
78
KAPITOLA 7. POROVNÁNÍ VÍCE VÝBĚRŮ
v tabulkách. Při větších hodnotách I se za kritickou hodnotu bere χ2J−1 (α). Zamítneme-li hypotézu, zajímá nás, které sloupce se od sebe liší. Za tímto účelem vytvoříme tabulku hodnot |R.j −R.m | pro všechna j < m. Je-li některá
z hodnot |R.j − R.m | větší nebo rovna kritické hodnotě, která je tabelovaná, zamítne se na odpovídající hladině významnosti hypotéza, že Fij = Fim . Příklad 7.4 Vraťme se k příkladu 7.3 a řešme jej nyní Friedmanovým testem. Vytvoříme pořadí Rij : Osoba Preparát K A A 3 2 B 3 4 C 2 4 D 2 4 E 2 4 F 2 4 G 3 2 H 2 4 I 3 4 J 3 4 P 25 36
B 4 2 3 1 3 3 4 1 2 2 25
C 1 1 1 3 1 1 1 3 1 1 14
Podle vzorce 7.2 vypočteme Q=
12 (252 + 362 + 252 + 142 ) − 3 · 10 · 5 = 14, 52∗∗ . 10 · 4 · 5
v tabulkách nalezneme, že kritická hodnota na hladině 0,01 pro Friedmanův test je rovna 10,53. Tudíž zamítáme hypotézu, že trombinový čas nezávisí na preparátech K,A,B,C na hladině 0,01. Abychom zjistili, který z preparátů K,A,B,C se od sebe liší, vypočteme hodnoty |R.j - R.m |:
79
7.4. FRIEDMANŮV TEST A B K 11 0 A 11 B
C 11 22** 11
Kritická hodnota pro mnohonásobné porovnávání u Friedmanova testu na hladině 0,01 je 18,0, tudíž významný se ukazuje pouze rozdíl mezi preparáty A a C. Porovnáme-li výsledky s příkladem 7.3, vidíme, že Friedmanův test je slabší než analýza rozptylu dvojného třídění. Na druhou stranu Friedmanův test můžeme použít i v případě nenormálních rozdělení nebo v případě, kdy známe pouze pořadí výsledků.
80
KAPITOLA 7. POROVNÁNÍ VÍCE VÝBĚRŮ
Kapitola 8 Lineární regrese V praxi se můžeme často setkat ze situací, že některé náhodné veličiny jsou snadno dostupné a dají se jednoduše změřit nebo jinak zjistit, zatímco jiné veličiny se určují obtížně nebo se o nich dozvíme až s velkým časovým odstupem. Pokud mezi těmito dvěma druhy veličin existuje nějaký vztah, lze z jedněch odhadnout druhé, resp. předpovědět. Pro tento účel slouží metody lineární regrese, jejichž základy jsou v této kapitole popsány.
8.1
Lineární regrese s jednou vysvětlující proměnnou
Regresní model Y = f (x) vysvětluje závislost veličiny Y na hodnotách x prostřednictvím regresní funkci f . Cílem regrese je najít regresní funkci f , známe-li n pozorovaných dvojic (x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ), 81
82
KAPITOLA 8. LINEÁRNÍ REGRESE
kde xi jsou hodnoty nezávislé (hodnoty vysvětlující proměnné x) a yi jsou hodnoty závislé (hodnoty vysvětlované veličiny Y ). Předpokládejme, že hodnoty yi jsou naměřeny s určitou chybou ei . Pro odvození všech testů a intervalových odhadů v průběhu celé této kapitoly klademe na chyby ei předpoklad, že mají normální rozdělení N(0, σ 2 ). Pro odvození bodových odhadů tento předpoklad není nutný. Jinak řečeno, máme n pozorování vysvětlované veličiny Y v n známých hodnotách vysvětlující proměnné x, tudíž máme n rovnic:
Yi = f (xi ) + ei ,
i = 1, 2, . . . , n.
Za lineární regresi považujeme regresi, jejíž regresní funkce je lineární f (x) = β0 + β1 x. Cílem lineární regrese je nalezení parametrů β0 a β1 . Tento úkol provedeme metodou nejmenších čtverců. Tato metoda spočívá v tom, že hledáme parametry β0 a β1 , pro něž je součet čtverců chyb modelu minimální. Tedy hledáme minimum funkce g(β0 , β1 ) =
n X i=1
(Yi − (β0 + β1 xi ))2 .
Tudíž řešíme soustavu rovnic δg(β0 , β1 ) = 0, δβ0
δg(β0 , β1 ) = 0. δβ1
Po úpravách obdržíme tyto odhady: P P (xi − x)Yi xi Yi − nxY P b1 = = , b0 = Y − b1 x, (8.1) (xi − x)2 x2i − nx2 P P kde x = n1 xi a Y = n1 Yi . Odhady b0 , b1 jsou nejlepší nestranné odhady, tzn. že odhady b0 , b1 jsou nestranné (Eb0 = β0 , Eb1 = β1 ) a mají nejmenší rozptyl ze všech nestranných odhadů.
8.1. LINEÁRNÍ REGRESE S JEDNOU VYSVĚTLUJÍCÍ PROMĚNNOU83 Minimum funkce g Se = g(b0 , b1 ) =
X X X X (Yi − (b0 + b1 xi ))2 = Yi2 − b0 Yi − b1 xi Yi
se nazývá reziduální součet čtverců. Odhad rozptylu chyb σ 2 je s2 = Celkový součet čtverců ST =
Se . n−2
X
(Yi − Y )2
vyjadřuje celkovou kvadratickou chybu regresního modelu. Vhodnost modelu posuzujeme koeficientem determinace R2 = 1 −
Se ST − Se = , ST ST
který vyjadřuje, jaká část celkové chyby ST je vysvětlena regresním modelem. (Chyba Se obsahuje to, co regresní model nedokázal vysvětlit). Koeficient determinace můžeme také počítat podle vzorce P b ( Yi − Y ) 2 2 , R =P (Yi − Y )2
kde Ybi = fb(xi ) = b0 + b1 xi je regresní odhad hodnoty regresní funkce v bodě xi . Je zřejmé, že čím blíže je R2 jedné, tím lépe regresní model vystihuje naměřená data.
Nejčastěji se zabýváme otázkou, zda je možné model zjednodušit tak, že hodnoty Yi vůbec nezávisí na xi . Tudíž testujeme hypotézu H0 : β1 = 0 proti H1 : β1 6= 0 Za platnosti H0 má testová statistika q b1 X 2 T = xi − nx2 ∼ tn−2 s
84
KAPITOLA 8. LINEÁRNÍ REGRESE
Studentovo rozdělení o n − 2 stupních volnosti. Tudíž pokud |T | ≥ tn−2 (α), zamítneme hypotézu H0 na hladině spolehlivosti α. Zamítneme-li hypotézu H0 tohoto testu, pak jsme vlastně potvrdili lineární závislost Yi na xi , zastřenou náhodnými chybami ei . Intervaly spolehlivosti: Standartním způsobem můžeme vytvořit intervalový odhad pro parametr β1 o spolehlivosti 1 − α: + * tn−2 (α)s tn−2 (α)s , b1 + pP . b1 − pP x2i − nx2 x2i − nx2
Častěji ovšem hledáme intervalový odhad pro β0 + β1 x: s s * + (x − x)2 (x − x)2 1 1 b0 + b1 x − tn−2 (α)s . , b0 + b1 x + tn−2 (α)s +P 2 +P 2 n n xi − nx2 xi − nx2
Tento interval překrývá hodnotu β0 +β1 x s pravděpodobností 1−α. Sestrojímeli takovéto intervaly pro všechna x ∈ [min xi , max xi ], vytvoříme tzv. pás spolehlivosti kolem regresní přímky. Hranice pásu jsou tvořeny dvěma větvemi hyperboly. Příklad 8.1 Za prvních sedm měsíců roku má firma záznamy o počtu hodin provozu výrobní linky (xi ) a o nákladech na její údržbu (Yi ) v tisících Kč. xi 275 350 250 325 375 400 300 Yi 149 170 140 164 192 200 165 Najděme nejprve regresní přímku Y = b0 + b1 x. Dosadíme-li do vzorců 8.1, dostaneme: b0 = 42, 75 a b1 = 0, 387. Nyní spočtěme reziduální součet čtverců Se = 148, 821, tudíž odhad rozptylu chyb ei je s2 = 29, 76. Celkový součet čtverců můžeme snadno spočítat jako ST = (n − 1)SY2 , kde SY2 je výběrový rozptyl Y . ST = 2771, 71. Tudíž koeficient determinace R2 = 0, 9463.
Nyní se zabývejme hypotézou H0 : β1 = 0. Spočteme statistiku T = 9, 38 a porovnáme ji s hodnotou kvantilu t5 (0, 05) = 2, 57. Tudíž zamítáme hypotézu
8.1. LINEÁRNÍ REGRESE S JEDNOU VYSVĚTLUJÍCÍ PROMĚNNOU85 H0 na 5% hladině. Jak koeficient determinace, tak tento test nám potvrdil vhodnost tohoto lineární modelu. Podívejme se ještě na intervalové odhady. Intervalový odhad o spolehlivosti 95% pro parametr β1 je h0, 2811; 0, 4931i. Odtud je také vidět, že zamítáme hypotézu H0 . Pás spolehlivosti kolem regresní přímky je ukázán na obrázku 8.1.
200
180
160
140
280
300
320
340
360
380
400
Obrázek 8.1: Závislost provozních nákladů na době provozu. Body zobrazují naměřené hodnoty, plná čára představuje odhadnutou regresní přímku Y = b0 +b1 x a čárkovaně jsou vyznačeny hranice pásu spolehlivosti kolem regresní přímky.
Interpretace modelu: Absolutní člen b0 odhaduje fixní měsíční náklady, nezávislé na délce provozu linky. Lineární člen b1 x odhaduje variabilní náklady přímo úměrné délce provozu.
86
KAPITOLA 8. LINEÁRNÍ REGRESE
8.2
Lineární regrese s více vysvětlujícími proměnnými
Regrese patří k základním statickým metodám. Jejím cílem je najít regresní funkci, která se snaží vysvětlit vznik většího počtu pozorovaných náhodných veličin Y1 , Y2 , ..., Yn pomocí známých vlivů Xij a pomocí poměrně malého počtu parametrů β0 , β1 , β2 , ..., βk . Za lineární regresi budeme považovat regresi, ve které je závislost na parametrech β0 , β1 , β2 , ..., βk lineární. K dispozici máme na jednu vysvětlovanou proměnnou k vysvětlujících proměnných. Tedy v tomto odstavci budeme pracovat s modelem: Y = β0 + β1 X1 + ... + βk Xk .
(8.2)
Pokud máme n pozorování, dostaneme pak n rovnic o k + 1 neznámých ve tvaru Yi = β0 + β1 Xi1 + β2 Xi2 + ... + βk Xik + ei ,
kde i = 1, 2, ..., n.
(8.3)
Zde ei jsou náhodné chyby. Pro odvození všech testů a intervalových odhadů v průběhu celé této kapitoly klademe na chyby ei předpoklad, že mají normální rozdělení N(0, σ 2 ). Pro odvození bodových odhadů tento předpoklad není nutný. Maticový zápis tohoto modelu má tvar Y = Xβ + e, kde e1 β0 1 X11 . . . X1k Y1 e2 β1 1 X21 . . . X2k Y2 Y = .. , X = .. .. , β = .. , e = .. . .. .. . . . . . . . en βk 1 Xn1 . . . Xnk Yn
(8.4)
8.2. LINEÁRNÍ REGRESE S VÍCE VYSVĚTLUJÍCÍMI PROMĚNNÝMI 87 Cílem lineární regrese je odhadnout parametry modelu β0 , β1 , β2 , ..., βk . Pro odhad těchto parametrů se nejčastěji používá metoda nejmenších čtverců. Tato metoda spočívá v minimalizaci funkce n X g(β0 , β1 , ..., βk ) = (Yi − (β0 + β1 Xi1 + β2 Xi2 + ... + βk Xik ))2 .
(8.5)
i=1
Nutnou podmínkou pro existenci extrému je nulovost parciálních derivací. Vzhledem k tomu, že daná funkce je ve svém definičním oboru konvexní, je to i postačující podmínka. Zderivujeme-li danou funkci podle všech proměnných a položíme-li parciální derivace rovné nule, dostaneme soustavu následujících rovnic n
X ∂g(β0 , β1 , ..., βk ) =2 (Yi − (β0 + β1 Xi1 + β2 Xi2 + ... + βk Xik ))(−1) = 0 ∂β0 i=1
a
n
X ∂g(β0 , β1 , ..., βk ) (Yi − (β0 + β1 Xi1 + β2 Xi2 + ... + βk Xik ))(−Xij ) = 0, =2 ∂βj i=1 kde j = 1, 2, ..., k. Po menších úpravách obdržíme
nβ0 + β1
n X
Xi1 + β2
i=1
β0
n X
Xi1 + β1
i=1
β0
n X i=1
Xik +β1
n X i=1
n X i=1
2 Xi1
n X
Xi2 + ... + βk
i=1
+ β2
n X
Xik Xi1 +β2
Xi2 Xi1 + ... + βk
n X
Xik =
i=1
n X
Yi
i=1
n X
Xik Xi1 =
.. . Xik Xi2 +...+βk
n X i=1
2 Xik
n X
Yi Xi1
i=1
i=1
i=1
i=1
n X
=
n X i=1
Yi Xik . (8.6)
88
KAPITOLA 8. LINEÁRNÍ REGRESE
Vyřešením této soustavy získáme odhady b0 , b1 , ..., bk parametrů β0 , β1 , β2 , ..., βk . Výše uvedená soustava se nazývá soustava normálních rovnic. Maticový zápis soustavy normálních rovnic je
(XT X) · β = XT Y.
(8.7)
Je-li matice (XT X) regulární (tzn. existuje k ní matice inverzní, označme ji (XT X)−1 ), potom odhad parametrů β = β0 , β1 , β2 , ..., βk je b = (XT X)−1 XT Y.
(8.8)
Minimum funkce g nazýváme reziduální součet čtverců a vypočteme jej X X Se = g(b) = (Yi − (b0 + b1 xi1 + b2 xi2 + . . . + +bk xik ))2 = (Yi − Ybi )2 ,
kde Ybi = b0 + b1 xi1 + b2 xi2 + . . . + bk xik je regresní odhad hodnoty Yi . Odhad Se rozptylu chyb σ 2 je s2 = n−k−1 . s2 nazýváme reziduální rozptyl. Celkový součet čtverců ST = chybu regresního modelu.
P
(Yi −Y )2 vyjadřuje celkovou kvadratickou
Vhodnost modelu posuzujeme koeficientem determinace R2 = 1 −
Se ST − Se = , ST ST
který vyjadřuje, jaká část celkové chyby ST je vysvětlena regresním modelem. (Chyba Se obsahuje to, co regresní model nedokázal vysvětlit). Koeficient determinace můžeme také počítat podle vzorce P b ( Yi − Y ) 2 2 , R =P (Yi − Y )2
kde Ybi = fb(xi ) = b0 + b1 xi1 + . . . + bk xik je regresní odhad Yi . Je zřejmé, že čím blíže je R2 jedné, tím lépe regresní model vystihuje naměřená data.
8.2. LINEÁRNÍ REGRESE S VÍCE VYSVĚTLUJÍCÍMI PROMĚNNÝMI 89 Metodou nejmenších čtverců získáme bodové odhady parametrů β0 , β1 , β2 , ..., βk . Někdy nás však zajímají i intervalové odhady o spolehlivosti 1 − α konstruované pro parametry β0 , β1 , β2 , ..., βk . Intervalový odhad o spolehlivosti 1 − α pro parametr βi je interval
q q −1 −1 bi − tn−k−1 (α) · s (XT X)ii , bi + tn−k−1 (α) · s (XT X)ii ,
(8.9)
T −1 kde (XT X)−1 ii je prvek matice (X X) , nacházející se na i-tém řádku a i-tém sloupci.
Je zřejmé, že čím méně budeme mít vysvětlujících proměnných, tím bude model jednodušší. Proto se nejčastěji zabýváme otázkou, zda je možné model zjednodušit tak, aby hodnoty Yi vůbec nezávisely na xij . Tudíž testujeme hypotézu H0 : βj = 0 proti H1 : βj 6= 0. Za platnosti H0 má testová statistika T =
b q j ∼ tn−k−1 −1 T s · (X X)jj
(8.10)
Studentovo rozdělení o n − k − 1 stupních volnosti. Tudíž pokud |T | ≥
tn−k−1 (α), zamítneme hypotézu H0 na hladině spolehlivosti α. Zamítneme-li hypotézu H0 tohoto testu, pak jsme vlastně potvrdili lineární závislost Yi na i-té vysvětlující proměnné, zastřenou náhodnými chybami ei . Někdy se ptáme, zda je možné model zjednodušit o více než jeden parametr, v takovém případě nepoužijeme dva předchozí testy, protože jejich společná hladina by nebyla α, ale použijeme následující test. Testujeme hypotézu H0 : βj1 = βj2 = . . . = βjl = 0,
1 ≤ j1 , . . . , jl ≤ k
90
KAPITOLA 8. LINEÁRNÍ REGRESE
proti alternativě, že zjednodušený model neplatí (tj. že alespoň jedno βji 6= 0). Číslo l zde označuje počet parametrů, které se pokoušíme z modelu vypustit. Maticový zápis zjednodušeného modelu má tvar e βe + e Y=X e,
e vznikne z matice X vynecháním sloupců příslušejícím paramekde matice X trům βj1 , βj2 , . . . , βjl . Vektor βe vznikne z vektoru β vynecháním parametrů
βj1 , βj2 , . . . , βjl . Podobně vznikne i ee.
Parametry zjednodušeného modelu βe odhadneme pomocí e = (X e T X) e −1 X e T Y. b
(8.11)
Poté spočteme reziduální součet čtverců pro zjednodušený model X e See = (Yi − Ybi )2 ,
e kde Ybi je regresní odhad Yi ve zjednodušeném modelu. Je zřejmé, že See ≥
Se , neboť Se je minimum funkce g(β) bez jakýchkoli omezení na vektor β, zatímco See je minimum funkce g(β) za podmínky βj1 = βj2 = . . . = βjl = 0. Za platnosti H0 má pak testová statistika F =
(n − k − 1)(See − Se ) ∼ Fl,n−k−1 lSe
rozdělení Fl,n−k−1 . Tudíž pokud F ≥ Fl,n−k−1 (α), zamítneme hypotézu H0 na hladině spolehlivosti α, a tudíž model nemůžeme zjednodušit.
Příklad 8.2 V 60-tých letech proběhla ve Velké Británii následující studie. Ve 30 hrabstvích byly naměřeny veličiny: A = změna populace za posledních 10 let, B = počet zaměstnanců v zemědělství, C = velikost daní z nemovitostí, D = procento obyvatel majících telefon, E = procento obyvatel žijících na
8.2. LINEÁRNÍ REGRESE S VÍCE VYSVĚTLUJÍCÍMI PROMĚNNÝMI 91 vesnici, F = průměrný věk. Těmito veličinami měla být vysvětlena veličina Y = procento obyvatel žijících pod hranicí bídy. Tudíž dostáváme lineární regresní model Yi = β0 + βA Ai + βB Bi + βC Ci + βD Di + βE Ei + βF Fi + ei . Matice X bude obsahovat 7 sloupců, kde v prvním budou samé jedničky, ve druhém budou hodnoty veličiny A, ve třetím B, atd. Nyní podle vzorce 8.8 spočteme odhad jednotlivých parametrů b = (b0 ; bA ; bB ; bC ; bD ; bE ; bF )T = (31, 26; −0, 39; 0, 0007; 1, 23; −0, 083; 0, 16; −0; 42)T . Dále spočteme reziduální součet čtverců Se = 265, 66 a celkový součet čtverců ST = 1197, 72. Odtud dostáváme, že R2 = 0, 78. Nyní nás zajímá, jestli některé proměnné můžeme z modelu vypustit (H0 : βj = 0). Za tímto účelem spočteme pro každou proměnnou hodnotu statistiky T a to podle vzorce 8.10. T = (T0 ; TA ; TB ; TC ; TD ; TE ; TF )T = (2, 35; −4, 87; 1, 69; 0, 38; −0, 63; 2, 67; −1, 64)T . Tyto hodnoty porovnáme s kvantilem t23 (0, 05) = 2, 068 a vidíme, že hypotézu nulovosti parametrů zamítáme u β0 , βA , βE . Tyto testy nám říkají, že můžeme z modelu vypustit proměnnou B, nebo C, nebo D, nebo F. Ovšem nevíme, zda můžeme vypustit všechny proměnné najednou. Na tuto otázku nám odpoví následující F-test. Uvažujme tedy zjednodušený model (podmodel) Yi = β0 + βA Ai + βE Ei + ei . Pro podmodel spočteme odhad jednotlivých parametrů e = (eb0 , ebA , ebE )T = (16, 67; −0, 40; 0, 13)T . b
92
KAPITOLA 8. LINEÁRNÍ REGRESE
Dále spočteme reziduální součet čtverců podmodelu See = 393, 03. Odtud dostáváme, že R2 = 0, 67. Nyní sestrojíme statistiku F =
(30 − 6 − 1)(See − Se ) = 3, 67 > 3.03 = F3,23 (0, 05). 3Se
Z toho plyne, že H0 zamítáme, neboli nemůžeme vypustit všechny čtyři proměnné zároveň. Musíme tedy některou proměnnou do podmodelu přidat. Přidejme proměnnou B, protože TB > TC , TD , TF (tj. proměnná B je v modelu významnější než C, D a F). Uvažujme tedy podmodel Yi = β0 + βA Ai + βB Bi + βE Ei + ei . Pro podmodel spočteme odhad jednotlivých parametrů e = (eb0 , ebA , ebB , ebE )T = (10, 99; −0, 40; 0, 001; 0.19)T . b
Dále spočteme reziduální součet čtverců podmodelu See = 318, 83. Odtud do-
stáváme, že R2 = 0, 73. Nyní sestrojíme statistiku F =
(30 − 6 − 1)(See − Se ) = 1, 15 < 2, 80 = F4,23 (0, 05). 4Se
Z toho plyne, že H0 nezamítáme, neboli z původního modelu můžeme vypustit proměnné C, D a F. Popíšeme tedy veličinu Y proměnnými A, B a E.
8.3
Polynomiální regrese
Kvadratická regrese: Pod pojmem kvadratická regrese míníme model Yi = β0 + β1 Xi + β2 Xi2 + ei ,
i = 1, 2, ..., n,
kde ei ∼ N (0, σ 2 ), n ≥ 4. Zde veličiny Yi závisí kvadraticky na veličinách Xi .
93
8.3. POLYNOMIÁLNÍ REGRESE Položíme-li Zi = Xi2 ,
i = 1, 2, ....., n, dostáváme model
Yi = β0 + β1 Xi + β2 Zi + ei ,
i = 1, 2, ....., n.
v tomto modelu závisí náhodná veličina Yi lineárně na veličinách Xi a Zi . Neboli úloha kvadratické regrese byla převedena na úlohu lineární regrese se dvěma vysvětlujícími proměnnými. Podobně budeme postupovat i pro regrese vyšších stupňů. Odhad stupně regresního polynomu: Uvažujme nyní model Yi = β0 + β1 Xi + . . . + βp Xip + ei ,
i = 1, 2, ....., n,
kde stupeň p regresního polynomu není znám. Počet parametrů tohoto modelu označme k = p + 1. Uvažujme, že skutečný stupeň polynomu je p0 a tedy skutečný počet parametrů modelu je k0 = p0 + 1. Označme s2k reziduální rozptyl modelu s k parametry (reziduální rozptyl je definován na str. 88). Dá se ukázat, že Es2k > σ 2
pro k < k0 ,
Es2k = σ 2
pro k ≥ k0 .
Je tudíž třeba najít bod, kde se posloupnost s2k mění z klesající posloupnosti na oscilující. Toto je obtížná úloha, proto ji převedeme na úlohu hledání minima posloupnosti. Vytvoříme posloupnost Ak =
s2k
k 1+ √ 4 n
,
která větším k přidává větší váhu. Hodnotu k, pro kterou je Ak minimální, pak vezmeme jako odhad skutečného počtu parametrů k0 .
94
8.4
KAPITOLA 8. LINEÁRNÍ REGRESE
Nelineární regrese
Uvažujme nelineární regresní model Yi = f (Xi , β) + ei ,
i = 1, 2, ..., n,
kde f je regresní funkce a β je vektor neznámých parametrů. Odhad parametrů β metodou nejmenších čtverců dostaneme minimalizací výrazu S(β) =
n X i=1
(Yi − f (Xi , β))2 .
Tuto úlohu iteračně řeší různé statistické a matematické programy. Tyto programy ovšem vyžadují počáteční aproximaci vektoru b (odhad parametru β). Počáteční aproximaci můžeme snadno získat u tzv. linearizovatelných modelů, tj. modelů, které se dají převést na lineární model. Jako příklad uveďme model, jehož regresní funkce je exponenciální: Yi = β0 eβ1 Xi + ei ,
i = 1, 2, ..., n.
Při počáteční aproximaci si můžeme dovolit zapomenout na chyby ei a model zlogaritmovat ln Yi = ln β0 + β1 Xi ,
i = 1, 2, ..., n.
Zavedeme-li nové parametry α0 = ln β0 a α1 = β1 , dostaneme lineární regresní model ln Yi = α0 + α1 Xi ,
i = 1, 2, ..., n,
který vyřešíme podle kapitoly 8.2 a dostaneme odhady a0 , a1 . Za počáteční aproximaci odhadu parametrů původního modelu pak vezmeme odhady b0 = e a 0 ,
b 1 = a1 .
Na závěr uveďme příklady některých linearizovatelných modelů.
8.4. NELINEÁRNÍ REGRESE 1. Y = eβ0 +β1 X 2. Y = β0 X β1 3. Y = ln(β0 + β1 X) 4. Y =
1 β0 +β1 X
95
96
KAPITOLA 8. LINEÁRNÍ REGRESE
Kapitola 9 Korelační analýza V odstavci 2.2 jsme uvedli, že z nezávislosti náhodných veličin plyne nekorelovanost, neboli že korelační koeficient ρ = 0. Tudíž zamítneme-li hypotézu H0 : ρ = 0, pak můžeme i zamítnout hypotézu nezávislosti. Zabývejme se tedy nyní hypotézou H0 : ρ = 0.
9.1
Výběrový korelační koeficient
Mějme náhodný výběr (X1 , Y1 ), (X2 , Y2 ), . . . , (Xn , Yn ) z nějakého dvourozměrného rozdělení. Korelační koeficient je definován jako Cov(X, Y ) ρ= √ . VarX VarY Pro odhad Var X a Var Y použijeme výběrový rozptyl n
2 SX
1 X ¯ 2, (Xi − X) = n − 1 i=1 97
n
SY2
1 X = (Yi − Y¯ )2 . n − 1 i=1
98
KAPITOLA 9. KORELAČNÍ ANALÝZA
2 Z věty 3.1 víme, že ESX = VarX a ESY2 = VarY . Podobně definujme výběrovou kovarianci vztahem n 1 X ¯ i − Y¯ ), SXY = (Xi − X)(Y n − 1 i=1
2 pro kterou platí ESXY = Cov(X, Y ). Tudíž pokud SX > 0 a SY2 > 0, definujeme výběrový korelační koeficient r jako
SXY r=p 2 2. SX SY
Po drobné úpravě dostaneme vzorec vhodný pro výpočet: P ¯ Y¯ X i Y i − nX . r=pP P ¯ 2 )( Y 2 − nY¯ 2 ) ( Xi2 − nX i Ze Schwarzovy nerovnosti dostaneme, že −1 ≤ r ≤ 1.
Výběrový korelační koeficient není nestranný odhad ρ, jako tomu je u výběrového rozptylu a kovariance. Předpokládejme nyní, že (X1 , Y1 ), (X2 , Y2 ), . . . , (Xn , Yn ) je náhodný výběr z nějakého dvourozměrného normálního rozdělení a Var X > 0, Var Y > 0, |ρ| < 1. Za těchto předpokladů je Er = ρ −
1 − ρ2 + o(n−1 ), n
kde o(n−1 ) značíme funkci f (n), pro kterou platí limn→∞
f (n) n
= 0.
Testujme nyní hypotézu H0 : ρ = 0 proti alternativě H1 : ρ 6= 0. Za platnosti
hypotézy H0 a za výše uvedených předpokladů má statistika √ r T =√ n − 2 ∼ tn−2 1 − r2
Studentovo rozdělení o n−2 stupních volnosti. Tudíž hypotézu H0 zamítneme na hladině α, v případě, že |T | ≥ tn−2 (α).
9.2. SPEARMANŮV KORELAČNÍ KOEFICIENT
99
U tohoto testu je normalita náhodného výběru podstatný předpoklad. Nejsmeli si jisti tímto předpokladem, použijeme pro test nezávislosti raději Spearmanův korelační koeficient. Příklad 9.1 U 10 dvojčat byla zjištěna následující váha (v gramech) starší 2440 3500 2820 2540 2650 2690 2750 2750 2650 mladší 2700 3080 2200 2700 2550 2350 3500 2500 2420 Ověřte, zda jsou váhy dvojčat korelované.
2200 2520
2 Postupně vypočteme SX = 111965, 6, SY2 = 145240, SXY = 35320, r =
0, 2769, T = 0, 8152. Kritická hodnota t8 (0, 05) = 2, 306, z toho plyne, že nezamítáme hypotézu o nekorelovanosti vah dvojčat na hladině α = 0, 05.
9.2
Spearmanův korelační koeficient
Spearmanův korelační koeficient je neparametrický odhad korelačního koeficientu. Mějme náhodný výběr (X1 , Y1 ), (X2 , Y2 ), . . . , (Xn , Yn ) z nějakého dvourozměrného rozdělení. K sestrojení Spearmanova korelačního koeficientu nám postačí pouze znalost pořadí X1 ,X2 ,. . .,Xn a pořadí Y1 ,Y2 ,. . .,Yn . Jsou-li pořadí hodně podobná, svědčí to o závislosti mezi Xi a Yi . Nechť R1 ,R2 ,. . .,Rn označují pořadí X1 ,X2 ,. . .,Xn a nechť Q1 ,Q2 ,. . .,Qn označují pořadí Y1 ,Y2 ,. . .,Yn . Spearmanův korelační koeficient se pak vypočte: n
X 6 (Ri − Qi )2 . rs = 1 − 2 n(n − 1) i=1 Testujeme-li hypotézu H0 : ρ = 0 proti alternativě H1 : ρ 6= 0, pak jsou kri-
tické hodnoty pro rs tabelovány pro n ≤ 30. Při n > 30 zamítneme hypotézu H0 v případě, že u(α/2) |rs | ≥ √ , n−1
100
KAPITOLA 9. KORELAČNÍ ANALÝZA
kde u(α/2) je kritická hodnota rozdělení N (0, 1). Příklad 9.2 Bylo sledováno 10 žáků. Na základě psychologického vyšetřování byli tito žáci seřazeni podle nervové lability (čím byl žák labilnější, tím dostal vyšší pořadí Ri ). Kromě toho sledovaní žáci dostali pořadí Qi na základě svých výsledků v matematice (nejlepší žák v matematice dostal 1). Výsledky jsou uvedeny v tabulce 9.1 (viz [1]). Rt Qt Rt − Q t
1 2 3 9 3 8 -8 -1 -5
4 5 6 7 8 9 10 5 4 2 10 1 7 6 -1 1 4 -3 7 2 4
Tabulka 9.1: Pořadí žáků podle nervové lability a podle matematiky Ověřte závislost mezi nervovou labilitou a výsledky v matematice. Dostáváme rs = 1 −
6 (82 + 12 + 52 + 12 + 12 + 42 + 32 + 72 + 22 + 42 ) = −0, 127. 10 · 99
Kritická hodnota odpovídající hladině α=0,05 činí 0,6364. Poněvadž ji |rs | nepřekračuje, nemůžeme zamítnout hypotézu, že nervová labilita a výsledky v matematice jsou nezávislé.
Kapitola 10 Testy dobré shody V předchozích kapitolách jsme se seznámili s některými testy, přičemž jsme mohli pozorovat, že tyto testy jsou vázány na předpoklad, že rozdělení základního souboru, z něhož byl výběrový soubor pořízen, je určitého typu. V této kapitole se tudíž budeme zabývat testy, které nám odhalí, zda náhodný výběr má konkrétní rozdělení nebo nikoli.
10.1
Pearsonův χ2 test
Mějme náhodný výběr Z1 , . . . , Zn , kde veličiny Zj ,
j = 1, . . . n mohou na-
bývat hodnot 1, . . . , k. Veličinám Xi označujícím počet výskytů výsledku i se říká empirické četnosti. Náhodný vektor X1 , . . . , Xk má multinomické rozdělení (viz strana 27). Budeme testovat hypotézu H0 , že skutečné hodnoty pravděpodobností multinomického rozdělení jsou právě rovny číslům p1 , ..., pk . Veličinám npi budeme říkat teoretické četnosti. Za platnosti hypotézy H0 má statistika 2
χ =
k X (Xi − npi )2 i=1
npi
101
∼ χ2k−1
102
KAPITOLA 10. TESTY DOBRÉ SHODY
asymptoticky rozdělení χ2 o k − 1 stupních volnosti. Jakmile dostaneme χ2 ≥ χ2k−1 (α), zamítneme hypotézu H0 na hladině α. Je třeba mít na zřeteli, že test χ2 je asymptotický, a proto ho lze doporučit jen při dostatečně velkém rozsahu výběru n. V literatuře se obvykle uvádí, že musí platit npi ≥ 5q pro všechna i = 1, ..., k při k ≥ 3, kde q je podíl tříd, pro něž platí npi < 5. Tento test se může používat např. při ověřování spravedlivosti hrací kostky, při kontrole generátorů náhodných čísel (každá cifra 0,1,. . .,9 by se měla objevovat s pravděpodobností 1/10 - viz následující příklad) a v řadě dalších případů.
Příklad 10.1 Při testování generátoru náhodných čísel byla zkoumána řada šesticiferných náhodných čísel o délce 100.000. Tudíž počet všech cifer je n = 600.000. V tabulce 10.1 jsou uvedeny zjištěné počty výskytů cifer náhodných čísel (viz [1]): Z tabulky 10.1, vyplývá, že χ2 = 6, 53233. Jelikož kritická hodnota činí χ29 (0,05) = 16,92, nelze na základě zjištěných dat zamítnout hypotézu, že generátor je skutečně náhodný.
10.2
Test normality
Nechť Z1 , ..., Zn je náhodný výběr. Chceme testovat hypotézu H0 , že jde o výběr z N (µ, σ 2 ), kde parametry µ a σ 2 nejsou známy. Nejprve vytvoříme třídy (−∞, b1 ), hb1 , b2 ), hb2 , b3 ), ..., hbk − 2, bk − 1), hbk − 1, ∞),
103
10.2. TEST NORMALITY Cifra Xi pi npi (Xi − npi )2 npi Cifra Xi pi npi (Xi − npi )2 npi
0 59.889 0,1 60.000
1 59.796 0,1 60.000
2 59.969 0,1 60.000
3 60.056 0,1 60.000
4 60.303 0,1 60.000
0,20535 0,6936
0,0160
0,0523 1,53015
5 60.048 0,1 60.000
6 60.234 0,1 60.000
7 59.750 0,1 60.000
8 60.224 0,1 60.000
9 59.731 0,1 60.000
Celkem 600.000 1 600.000
0,0384
0,9126 1,04167 0,8363
1,2061
6,53233
Tabulka 10.1: Výsledky testování generátoru náhodných čísel kde k ≥ 4. Pro stručnost označme i-tou třídu symbolem Ji . Empirické četnosti jednotlivých tříd opět označíme Xi . Pravděpodobnost pi , že daná veličina Zj ,
j = 1, ..., n padne do Ji , je rovna Z Z 1 (x − µ)2 √ f (x)dx = dx. exp − pi = pi (µ, σ) = 2σ 2 2πσ Ji Ji
Kdybychom znali parametryµ a σ 2 , pak by úloha byla převedena na případ multinomického rozdělení se známými parametry p1 , . . . , pk . Toho by se dalo využít např. při testu, zda náhodný výběr má rozdělení N(0, 1). V obecném případě ovšem parametry neznáme, tudíž tento postup není vhodný. V tomto případě je tedy nutné najít vhodné odhady µ a σ 2 . Není vhodné zvolit za µ a σ 2 klasické odhady, tedy průměr a výběrový rozptyl, protože by se tím podstatně změnilo rozdělení statistiky χ2 . Musíme tedy nalézt odhady µ a σ 2 iteračně, tak aby odhady splňovaly soustavu rovnic Z Z k k 1 X Xi 1 X Xi 2 µ= xf (x)dx, σ = (x − µ)2 f (x)dx, n i=1 pi Ji n i=1 pi Ji
kde jako počáteční aproximaci pro µ a σ 2 zvolíme průměr a výběrový rozptyl. Nezapomeňme, že na µ i σ závisejí pi i f (x), které jsou na pravých stranách
104
KAPITOLA 10. TESTY DOBRÉ SHODY
těchto rovnic. Řešení soustavy označme µ ˆaσ ˆ . Tyto odhady použijeme pro výpočet pravděpodobností pi . Statistika 2
χ =
k X [Xi − npi (ˆ µ, σ ˆ )]2 i=1
npi (ˆ µ, σ ˆ)
∼ χ2k−3
má pak rozdělení χ2 o k − 3 stupních volnosti. Pokud vyjde χ2 > χ2k−3 (α), zamítáme hypotézu H0 na hladině α.
10.3
Test Poissonova rozdělení
Nechť Z1 , . . . , Zn je náhodný výběr z nějakého rozdělení na množině nezáporných celých čísel. Budeme testovat hypotézu H0 , že jde o výběr z Poissonova rozdělení Po (λ), kde parametr λ není znám. Test provedeme obdobně jako u testu normality. Nejprve vytvoříme třídy, jedna z možností je: Do první třídy se zařadí ty veličiny, které jsou menší nebo rovny nějakému číslu r . Další třídy jsou postupně tvořeny samostatnými hodnotami r +1, r +2, . . . , r + k − 2 . Poslední třída obsahuje hodnoty větší
nebo rovné číslu r + k -1. Tím je vytvořeno k tříd, kde k ≥ 3 a jejichž četnosti označíme Xr , Xr +1 , . . . , Xr +k −1 . Označme qi = P [Zj = i] =
λi e−λ , i!
i = 0, 1, 2, . . . .
Pak pravděpodobnosti jednotlivých tříd jsou P P pr = ri=0 qi , pi = qi pro i = r + 1, . . . , r + k - 2, pr+k−1 = ∞ i=r+k−1 qi . Pravděpodobnosti pi opět závisí na parametru λ, který neznáme a který musíme odhadnout. Podobně jako u testu normality vyřešíme iteračně rovnici "
# P∞ Pr r+k−2 X iq iqi 1 i λ= Xr Pi=0 , + iXi + Xr+k−1 Pi=r+k−1 r ∞ n i=0 qi i=r+k−1 qi i=r+1
10.4. KOLMOGOROVŮV-SMIRNOVŮV JEDNOVÝBĚROVÝ TEST 105 kdy za počáteční aproximaci λ zvolíme průměr hodnot Zj , j = 1, . . . , n. ˆ Statistika Řešení rovnice označíme λ. χ2 =
r+k−1 X i=r
ˆ 2 [Xi − npi (λ)] ∼ χ2k−2 ˆ npi (λ)
má pak rozdělení χ2 o k − 2 stupních volnosti. Pokud vyjde χ2 > χ2k−2 (α), zamítáme hypotézu H0 na hladině α.
10.4
Kolmogorovův-Smirnovův jednovýběrový test
Nejprve zaveďme pojem empirická distribuční funkce. Nechť X1 , ..., Xm je náhodný výběr z rozdělení, které má distribuční funkci F . Pro i = 1, ..., m zaveďme náhodné veličiny ξi (x) = 1, je-li Xi < x, ξi (x) = 0, Pak empirická distribuční funkce je
je-li
Xi ≥ x.
m
1 X Fm (x) = ξi (x). m i=1 Příklad 10.2 Generátor náhodných čísel normovaného normálního rozdělení N(0,1) nám dal následujících 20 hodnot. (Hodnoty jsou vzestupně seřazeny.) -2,63; -1,28; -1,23; -0,92; -0,91; -0,78; -0,77; -0,50; -0,41; -0,35; -0,11; -0;01; 0,02; 0,23; 0,56; 0,75; 0,84; 0,87; 1,46; 1,62 Obrázek 10.1 ukazuje distribuční funkci normálního rozdělení N(0,1) a empirickou distribuční funkci vytvořenou z výše uvedených hodnot. Následující věta nám říká, že empirická distribuční funkce je dobrou aproximací distribuční funkce.
106
KAPITOLA 10. TESTY DOBRÉ SHODY 1 0.8 0.6 0.4 0.2
-3
-2
-1
1
2
3
Obrázek 10.1: Distribuční funkce a empirická distribuční funkce normovaného normálního rozdělení. Věta 10.1 Pro každé x platí Fm (x) → F (x)
skoro jistě pro
navíc, označíme-li
m → ∞,
Dm = sup |Fm (x) − F (x)|, x
pak platí P ( lim Dm = 0) = 1. m→∞
Nechť nyní X1 , ..., Xn je náhodný výběr z nějakého rozdělení se spojitou distribuční funkcí. Chceme testovat hypotézu H0 , že tato distribuční funkce je F . Nechť Fm je empirická distribuční funkce odpovídající výběru X1 , ..., Xm . Věta 10.1 nám říká, že velké hodnoty veličiny Dm budou svědčit proti hypotéze H0 . Je-li m malé, najdeme kritické hodnoty Dm (α) v tabulkách. Při větších hodnotách m se kritické hodnoty aproximují výrazem r 1 2 . ln . (10.1) Dm (α) = 2m α Tedy H0 zamítáme, v případě že Dm ≥ Dm (α).
10.4. KOLMOGOROVŮV-SMIRNOVŮV JEDNOVÝBĚROVÝ TEST 107 Vzhledem k monotónii F (x) nám při výpočtu veličiny Dm stačí se omezit pouze na krajní body intervalů konstantnosti empirické distribuční funkce Fm . Je-li tudíž x skok Fm , pak vyšetříme hodnotu rozdílu zleva Fm (x) − F (x) a zprava limy→x+ Fm (y) − F (y). Podobně jako u χ2 testu musíme znát přesně distribuční funkci F (x). Tudíž tento test můžeme bez modifikace použít pro testování, zda náhodný výběr je z rozdělení N(0,1), R(0,1) a pod. Testujeme-li ovšem např. normalitu náhodného výběru, nemůžeme odhadnout parametry a ty dosadit do distribuční funkce F (x). Pokud bychom to tak udělali, změnilo by se rozdělení testové statistiky Dm , a tedy i kritické hodnoty, při nichž zamítáme hypotézu. Ovšem tyto změněné kritické hodnoty byly určeny pomocí simulačních studií a jsou tabelovány ve speciálních tabulkách. Testy normality pomocí KolmogorovaSmirnova testu jsou také implementovány ve statistických softwarech. Příklad 10.3 Budeme pokračovat v příkladu 10.1. Nyní je třeba zjistit hodnotu statistiky Dm . Jak již bylo řečeno, vyšetříme všechny body, ve kterých má empirická distribuční funkce skok, a to jak limity zleva, tak zprava. Maximální hodnota vyjde u třináctého skoku při limitě zprava |F20 (0, 02) − F (0, 02)| = |0, 65 − 0, 50866| = 0, 1413. Kritická hodnota D20 (0, 05) = 0, 294, tedy nezamítáme hypotézu, že výběr je z normovaného normálního rozdělení. Aproximace kritické hodnoty vypočtena podle vzorce 10.1 je D20 (0, 05) = 0, 304.
108
KAPITOLA 10. TESTY DOBRÉ SHODY
Kapitola 11 Kontingenční tabulky Tato kapitola bude věnovaná základním testům v kontingenčních tabulkách, kterých je celá řada. Dříve, než tyto testy uvedeme, definujeme pojem kontingenční tabulka. Uvažujme náhodný vektor Z = (X, Y ), který má diskrétní rozdělení. Náhodná veličina X nabývá hodnot 1, ..., r a náhodná veličina Y nabývá hodnot 1, ..., c. Náhodná veličina X a Y představuje znak nějakého statistického souboru (např. pohlaví, dosažené vzdělání. . .). Hodnotu znaku sice uvažujeme kladnou celočíselnou, ale ve skutečnosti hodnoty znaku nemusí být číselné, jak je zřejmé z příkladů uvedených v závorce. V mnohých případech přiřazujeme čísla 1, 2, ... jen jako označení. Např. dosažené vzdělání: 1 - základní, 2 - střední, 3 - vysokoškolské. Znaky mohou být tudíž • kvalitativní • diskrétní kvantitativní • spojité kvantitativní s hodnotami sloučenými do skupin Pro náhodný vektor Z = (X, Y ) označme 109
110
KAPITOLA 11. KONTINGENČNÍ TABULKY
pij = P (X = i, Y = j), pi. = P (X = i) =
c X
pij ,
p.j = P (Y = j) =
j=1
r X
pij .
i=1
Předpokládejme, že se uskutečnil výběr o rozsahu n z tohoto rozdělení. Počet případů, kdy se ve výběru vyskytla dvojice (i, j), označme nij (jde o absolutní četnost). Náhodné veličiny nij mají sdružené multinomické rozdělení s parametrem n a pravděpodobnostmi pij . Kontingenční tabulku potom definujeme jako matici (nij ). Kontingenční tabulka je uvedena v tabulce 11.1 společně s maticí pravděpodobností (pij ), přičemž
ni. =
c X
nij ,
n.j =
j=1
a platí
n=
nij ,
n=
i=1
c X
n.j =
j=1
X 1 ... r P
r X
Y P 1...c p11 . . .p1c p1. ............ ... pr1 . . . prc pr. p.1 . . . p.c 1
r X i=1
ni. =
r X c X
nij
i=1 j=1
r X c X
nij .
i=1 j=1
X 1 ... 1 P
Y P 1...c n11 . . .n1c n1. ............ ... nr1 . . . nrc nr. n.1 . . . n.c n
Tabulka 11.1: Vlevo: matice pravděpodobností, vpravo: kontingenční tabulka Máme-li data uspořádaná do kontingenční tabulky, kdy kategorie jednoho znaku určují řádky a kategorie druhého znaku sloupce, jak je vidět z tabulky 11.1, můžeme testovat následující hypotézy. • hypotéza nezávislosti dvou náhodných veličin X a Y
111
11.1. TEST NEZÁVISLOSTI • hypotéza homogenity multinomických rozdělení • hypotéza symetrie
11.1
Test nezávislosti
Na prvcích jediného souboru sledujeme dva znaky. Naším cílem je testovat nulovou hypotézu o nezávislosti sledovaných znaků, tj. H0 : náhodné veličiny X (1. znak) a Y (2. znak) jsou nezávislé H1 : náhodné veličiny X a Y nejsou nezávislé. Vzhledem k tomu, že platí následující věta Věta 11.1 Veličiny X a Y jsou nezávislé tehdy a jen tehdy, platí-li pij = pi. p.j , i = 1, ..., r; j = 1, ..., c. Hypotézu nezávislosti můžeme přepsat do tvaru H0 : pij = pi. p.j ,
i = 1, ..., r; j = 1, ..., c.
Za platnosti hypotézy H0 má statistika ni. n.j 2 c (nij − r X ) X n χ2 = ni. n.j i=1 j=1
(11.1)
n
asymptoticky rozdělení χ2 s počtem stupňů volnosti (r − 1)(c − 1). Vzorec lze přepsat do následujícího tvaru χ2 = n
r X c X n2ij − n. n n i. .j i=1 j=1
(11.2)
112
KAPITOLA 11. KONTINGENČNÍ TABULKY
Hypotézu H0 o nezávislosti veličin X a Y zamítneme v případě, že χ2 ≥ χ2(r−1)(c−1) (α).
Ke shodě s limitním rozdělením se vyžaduje, aby všechny teoretické četnosti ni. n.j byly větší než 5. Obvykle se požaduje, aby nejméně 80 procent teoren tických četností bylo větších než 5 a všechny teoretické četnosti výskytu byly větší než 1. Pokud tato podmínka není splněna, spojují se obvykle některé řádky nebo sloupce. Toto ovšem nejde u tzv. čtyřpolních tabulek, což jsou kontingenční tabulky 2 × 2. V takovém případě se používá Fisherův faktori-
álový test.
Příklad 11.1 Testování nezávislosti mezi výsledky testů z matematiky a oborem, na který se uchazeč hlásí. Studenti se mohou hlásit na bakalářský obor Finanční matematika, na pětileté magisterské studium učitelství matematiky pro základní školy a na pětileté magisterské studium učitelství matematiky pro střední školy. Obory jsou seřazeny z hlediska obtížnosti studia od nejlehčího (bakalářský obor FM) k nejtěžšímu (pětileté magisterské studium učitelství pro SŠ). Vyvstává otázka, zda při výběru studia tuto skutečnost uchazeči zohledňují vzhledem ke svým dosavadním studijním výsledkům. Jednoduše řečeno, zda ”lepší” studenti se hlásí na těžší obor a ”horší” studenti na lehčí. Otestujme, zda existuje závislost mezi výsledky testů z matematiky a oborem, na který se uchazeč hlásí. Uchazeč může získat z testu maximálně 80 bodů. Veličina X (výsledek testu) nabývá čtyř hodnot, a to 1 - počet získaných bodů 60-80, 2-počet získaných bodů 40-59, 3-počet získaných bodů 20-39, 4-počet získaných bodů 019. Veličina Y (studijní obor) nabývá tří hodnot: 1-finanční matematika, 2-učitelství pro ZŠ, 3-učitelství pro SŠ. Veškeré údaje jsou v tabulce 11.2. Řešení: v tabulce 11.3 jsou uvedeny empirické i teoretické četnosti (čísla
11.2. TEST HOMOGENITY MULTINOMICKÝCH ROZDĚLENÍ HODNOCENÍ 1 2 3 4 Celkem
Fin. mat. 9 10 17 14 50
APROBACE Učitel. ZŠ 7 31 29 25 92
Učitel. SŠ 40 58 29 19 146
113
Celkem 56 99 75 58 288
Tabulka 11.2: Kontingenční tabulka výběru oboru a výsledků v testu. v závorkách).
HODNOCENÍ 1 2 3 4 Celkem
Fin. mat. 9 (9,7) 10 (17,2) 17 (13) 14 (10) 50
APROBACE Učitel. ZŠ 7 (17,9) 31 (31,6) 29 (24) 25 (18,5) 92
Učitel. SŠ 40 (28,4) 58 (50,2) 29 (38) 19 (29,4) 146
Celkem 56 99 75 58 288
Tabulka 11.3: Empirické četnosti, teoretické četnosti (čísla v závorkách). Hodnota testovací statistiky χ2 = 27, 56. Toto číslo překračuje kritickou hodnotu χ26 (0, 05) = 12, 59. Tím je statisticky prokázána závislost mezi výsledkem testu z matematiky a oborem, na který se student hlásí.
11.2
Test homogenity multinomických rozdělení
Tento test je někdy uváděn jako test o shodnosti struktury. Testujeme shodnost jednoho ze sledovaných znaků za různých podmínek, které vyjadřují kategorie druhého znaku. Například nás může zajímat, zda věková struktura hospitalizovaných pacientů je ve dvou nemocnicích stejná. Obecně tato
114
KAPITOLA 11. KONTINGENČNÍ TABULKY
nulová hypotéza zní: H0 : pravděpodobnosti qi1 , ..., qic nezávisí na řádkovém indexu i (tzn. že všechny řádky matice qij jsou stejné) Pravděpodobnosti qi1 , ..., qic přísluší relativním marginálním četnostem v ini1 nic tém řádku kontingenční tabulky , ..., , přičemž platí qi1 + ... + qic = 1 ni. ni. a dále předpokládáme, že marginální řádkové četnosti ni jsou předem stanoveny. Při testování homogenity budeme opět vycházet ze statistiky χ2 počítané podle vzorce 11.1 nebo 11.2. Za platnosti hypotézy H0 má statistika χ2 asymptoticky rozdělení χ2 s počtem stupňů volnosti (r − 1)(c − 1). Hypotézu H0 o homogenitě multinomických rozdělení zamítneme v případě, že χ2 ≥ χ2(r−1)(c−1) (α). Příklad 11.2 Kontingenční tabulka 11.4 ukazuje výsledky lékařského experimentu ze čtyřicátých let minulého století, který se zabýval účinkem streptomycinu při léčbě plicní tuberkulózy. Údaje z radiologického hodnocení po 6 měsících byly porovnány s tím, zda pacient patřil do léčebné, nebo kontrolní skupiny. Existuje vztah mezi léčbou a výsledkem? Léčba Radiologické hodnocení Významné zlepšení Střední/malé zlepšení Beze změn Střední/malé zhoršení Významné zhoršení Smrt Celkem
Streptomycin Kontrolní Celkem 28 4 32 10 13 23 2 3 5 5 12 17 6 6 12 4 14 18 55 52 107
Tabulka 11.4: Vztah mezi léčbou a výsledkem Řešení: Vzhledem k tomu, že testová statistika se opírá o teoretické četnosti
11.3. TEST χ2 VE ČTYŘPOLNÍCH TABULKÁCH
115
ni. nj , n
musíme tyto četnosti vypočítat. Jsou uvedeny v závorkách vedle skutečných četností v tabulce 11.5. Léčba Radiologické hodnocení Významné zlepšení Střední/malé zlepšení Beze změn Střední/malé zhoršení Významné zhoršení Smrt celkem
Streptomycin Kontrolní Celkem 28(16,45) 4(15,55) 32 10(11,82) 13(11,18) 23 2(2,57) 3(2,43) 5 5(8,74) 12(8,26) 17 6(6,17) 6(5,83) 12 4(9,25) 14(8,75) 18 55 52 107
Tabulka 11.5: Empirické četnosti, teoretické četnosti (čísla v závorkách). Testová statistika má hodnotu χ2 = 26, 96. Protože χ25 (0, 05) = 11, 07, platí χ2 ≥ χ21 (α), tudíž hypotézu homogenity zamítáme, tzn. na hladině význam-
nosti asymptoticky rovné 0,05 jsme prokázali, že existuje vztah mezi léčbou a výsledkem.
11.3
Test χ2 ve čtyřpolních tabulkách
Jak již bylo poznamenáno výše, v případě r × c = 2 × 2 mluvíme o tzv.
čtyřpolní tabulce. Tato tabulka má tvar n11 n21 n.1
n12 n22 n.2
n1. n2. n
Tabulka 11.6: Čtyřpolní tabulka Ve čtyřpolní tabulce můžeme opět testovat nezávislost a homogenitu. Testová statistika zůstává stejná jako v případě kontingenční tabulky r ×c. Vzhledem k tomu, že sčítací indexy nabývají pouze dvou hodnot, lze testovou statistiku χ2 zjednodušit do následujícího tvaru:
116
KAPITOLA 11. KONTINGENČNÍ TABULKY
χ2 = n
(n11 n22 − n12 n21 )2 . n1. n2. n.1 n.2
Pokud χ2 ≥ χ21 (α), zamítáme hypotézu nezávislosti. Stejným způsobem testujeme i homogenitu dvou binomických rozdělení (zobecněním binomického rozdělení je multinomické), jestliže řádkové (nebo sloupcové) marginální četnosti jsou pevné.
Příklad 11.3 v náhodném výběru padesáti obézních dětí ve věku 6 - 14 let byla u každého dítěte zjištěna obezita u matky a obezita u otce. Údaje jsou zaznamenány v tabulce 11.7. Zajímá nás, zda obezita rodičů spolu souvisí. Matka Otec obézní Otec neobézní Celkem obézní 15 9 24 neobézní 7 19 26 celkem 22 28 50 Tabulka 11.7: Čtyřpolní tabulka obezity rodičů obézních dětí Řešení Po dosazení do testové statistiky dostaneme χ2 = 50
(15 · 9 − 9 · 7)2 = 6, 41. 24 · 22 · 26 · 28
Kritická hodnota χ21 (0, 05) = 3, 84. Protože χ2 ≥ χ21 (α), zamítneme hypotézu nezávislosti, tzn. obezita rodičů spolu významně souvisí.
11.4
Fisherův faktoriálový test
Jak již bylo poznamenáno výše, ke shodě s limitním rozdělením χ21 se vyni. n.j žaduje, aby všechny teoretické četnosti byly větší než 5. Pokud tato n podmínka není splněna, dochází ke spojování řádků, popř. sloupců. Toto
11.4. FISHERŮV FAKTORIÁLOVÝ TEST
117
ovšem nelze u čtyřpolní tabulky, a proto se používá Fisherův faktoriálový test. Tento test umožňuje ověřit hypotézu nezávislosti i při malých četnostech. Provedení testu probíhá v následujících krocích. 1. Vytvoříme soubor všech kontingenčních tabulek se stejnými marginálními četnostmi jako má původní kontingenční tabulka. n1. !n2. !n.1 !n.2 ! 2. U každé tabulky souboru vypočteme pravděpodobnosti P = n!n11 !n12 !n21 !n22 ! n11 n22 a číslo d = ln b, kde b = . Číslo d se nazývá logaritmická interakce n12 n21 dané tabulky. 3. Sečteme pravděpodobnosti P tabulek se stejnými marginálními četnostmi, jako má výchozí tabulka, jejichž logaritmické interakce jsou v absolutní hodnotě větší nebo rovny číslu |d| ( = logaritmická interakce dané tabulky). 4. Je-li součet těchto pravděpodobností menší nebo roven číslu α (hladina testu), hypotézu nezávislosti zamítneme. Celou proceduru ukážeme na následujícím příkladě.
Příklad 11.4 U 24 náhodně vybraných žáků se zjišťovalo, zda mají dobrý či špatný prospěch v matematice a zda se učí nebo neučí hrát na nějaký hudební nástroj. Zjištěné výsledky jsou uvedeny v Tabulce 11.8. Má se ověřit hypotéza, že prospěch v matematice a okolnost, že se dítě učí hrát na nějaký hudební nástroj, na sobě nezávisí. Řešení: Vytvoříme všechny tabulky se stejnými marginálními četnostmi, jako má výchozí tabulka. U každé tabulky vypočteme logaritmickou interakci d a pravděpodobnost P :
118
KAPITOLA 11. KONTINGENČNÍ TABULKY matematika dobrý špatný celkem
hudba
učí neučí celkem 6 4 10 1 13 14 7 17 24
Tabulka 11.8: Výsledky studentů v matematice v porovnání se skutečností, zda se učí hrát na hudební nástroj 0 10 7 7 d = −∞ P=0,009916
1 9 6 8 d = −1, 91 P=0,086766
2 8 5 9 d = −0, 80 P=0,260297
3 7 4 10 d=0,07 P=0,347063
4 6 3 11 d=0,89 P=0,220858
5 5 2 12 d=1,79 P=0,066258
6 4 1 13 d=2,97 P=0,008495
7 3 0 14 d=∞ P=0,000347
Výchozí kontingenční tabulka má absolutní hodnotu logaritnické interakce rovnu 2,97, tudíž sčítáme pravděpodobnosti těch tabulek, které mají d v absolutní hodnotě větší nebo rovnu hodnotě 2,97. Součet těchto pravděpodobností je 0,018758. Vzhledem k tomu, že tento součet není větší než α = 0,05, zamítneme hypotézu o nezávislosti.
11.5
McNemarův test
Při statistické analýze kontingenčních tabulek nemusí být vždy cílem provést klasický test nezávislosti nebo homogenity. Další test, který může být proveden v rámci čtyřpolní kontingenční tabulky, je McNemarův test. Tento test se provádí v případě, kdy na souboru n náhodně vybraných objektů se sleduje přítomnost nebo nepřítomnost výskytu nějakého znaku. Posléze se udělá na témže souboru nějaký zákrok a opět se zjistí přítomnost či nepřítomnost
119
11.5. MCNEMARŮV TEST
sledovaného znaku u jednotlivých objektů souboru. Cílem bude zjistit, zda zákrok změnil pravděpodobnost výskytu znaku. Označme symbolem + výskyt sledovaného znaku a symbolem - případy, kdy se znak nevyskytl. Obdržíme tabulky 11.9 a 11.10 následujících tvarů, přičemž (X=před zásahem, Y =po zásahu), X=+,- a Y =+,-. Dále např. p11 = P (X = +, Y = +). Před zásahem + Celkem
Po zásahu Po zásahu Celkem + n11 n12 n1. n21 n22 n2. n.1 n.2 n
Tabulka 11.9: Tabulka absolutních četností Před zásahem + Celkem
Po zásahu Po zásahu Celkem + p11 p12 p1. p21 p22 p2. p.1 p.2 1
Tabulka 11.10: Tabulka pravděpodobností Testujeme hypotézu H0 : p1. = p.1 . Tato hypotéza je ekvivalentní s hypotézou H0 : p12 = p12 . (procento pozitivního výsledku před zásahem je stejné jako po zásahu) Testovací statistika má tvar χ2 =
(n12 − n21 )2 n12 + n21
120
KAPITOLA 11. KONTINGENČNÍ TABULKY Lék B
Lék A úspěch úspěch 1 neúspěch 9 Celkem 10
Lék A Celkem neúspěch 3 4 5 14 8 18
Tabulka 11.11: Porovnání léku A a B a má asymptoticky χ21 rozdělení. Hypotézu H0 zamítáme v případě, že χ2 ≥ χ21 (α). Aproximaci pomocí asymptotického rozdělení chí-kvadrát o 1 stupni volnosti můžeme použít, pokud (n12 + n21 ) ≥ 8. Jestliže není splněna podmínka, nemůže se použít výše zmíněná statistika. Test, který se používá při malých hodnotách (n12 + n21 ), můžeme najít např. v [1] Příklad 11.5 Pozorujeme náhodný výběr 18 pacientů, kteří byli léčeni dvěma různými antihypertenzívy A a B. Každý pacient dostával po dobu jednoho měsíce lék A a po odeznění jeho případných účinků dostával po dobu jednoho měsíce lék B. Výsledek byl klasifikován jako úspěch nebo neúspěch. Máme otestovat, zda procenta úspěšnosti jsou u obou léků shodná. Výsledky pozorování jsou uvedeny v Tabulce 11.11. Řešení: Po dosazení do příslušné testové statistiky obdržíme χ2 =
(3 − 9)2 = 3. 3+9
Protože příslušná kritická hodnota je χ21 (0, 05) = 3, 84 a χ2 < χ21 (0, 05), hypotézu H0 nezamítneme, tzn. že na základě zkoumaných dat nelze prokázat rozdíl v působení obou léků.
11.6
Test symetrie
Uvažujme nyní čtvercovou kontingenční tabulku typu c × c.
121
11.6. TEST SYMETRIE n11 . . . n1c n21 . . . n2c ... nc1 . . . ncc n.1 . . . n.c
n1. n2. ... nc. n
Příslušná tabulka pravděpodobností má tvar p11 . . . p1c p21 . . . p2c ... pc1 . . . pcc p.1 . . . p.c
p1. p2. ... pc. p
Budeme testovat hypotézu H0 : pij = pji
pro všechny dvojice(i, j), i, j = 1, 2, ..., c.
Jde o zobecnění případu 2 × 2. McNemarův test je tedy speciálním případem tohoto testu symetrie. Testová statistika má v tomto případě tvar X (nij − nji )2 χ2 = . nij + nji i<j
Za platnosti nulové hypotézy H0 (hypotéza symetrie) má statistika χ2 asymptoticky χ2 rozdělení o c(c − 1)/2 stupních volnosti. Hypotézu symetrie zamítneme, jestliže χ2 ≥ χ21 (α).
Příklad 11.6 v tabulce 11.12 jsou údaje o rodinném stavu snoubenců. Je třeba rozhodnout, zda pravděpodobnost uzavření sňatku mezi svobodným ženichem a ovdovělou nevěstou je stejná jako pravděpodobnost uzavření sňatku mezi svobodnou nevěstou a ovdovělým ženichem a že analogická rovnost platí i pro pravděpodobnost ostatních kombinací původních rodinných stavů partnerů (viz [1]). Řešení: Dosazením do testové statistiky pro test symetrie obdržíme χ2 =
(824 − 1370)2 (3463 − 4603)2 (798 − 590)2 + + = 328, 17. 824 + 1370 3463 + 4603 798 + 590
122
KAPITOLA 11. KONTINGENČNÍ TABULKY nevěsta ženich svobodný ovdovělý rozvedený celkem
svobodná 75564 1370 4603 81537
ovdovělá 824 904 590 2318
rozvedená celkem 3463 79851 798 3072 2943 8136 7204 91059
Tabulka 11.12: Četnosti manželství při různých původních rodinných stavech partnerů. Vzhledem k tomu, že χ23 (0, 05) = 7, 81, platí χ2 ≥ χ21 (α), tudíž hypotézu symetrie zamítáme.
Kapitola 12 Statistické tabulky Tabulka 12.1: Kritické hodnoty normovaného normálního rozdělení U ∼ N (0, 1), P (U ≥ u(α)) = 1 − α u(α) = −u(1 − α). α 0,9 0,95 0,975 0,99 u(α) 1,281552 1,644859 1,959964 2,326348 α 0,995 0,999 0,9995 0,9999 u(α) 2,575829 3,090232 3,290527 3,719016
123
124
KAPITOLA 12. STATISTICKÉ TABULKY
Tabulka 12.2: Distribuční funkce normovaného normálního rozdělení X ∼ N (0, 1), Φ(x) = P (X < x), Φ(x) = 1 − Φ(−x). x Φ(x) x Φ(x) x Φ(x) x Φ(x) 0,00 0,5000 0,01 0,5040 0,31 0,6217 0,61 0,7291 0,91 0,8186 0,02 0,5080 0,32 0,6255 0,62 0,7324 0,92 0,8212 0,03 0,5120 0,33 0,6292 0,63 0,7357 0,93 0,8238 0,04 0,5160 0,34 0,6331 0,64 0,7389 0,94 0,8264 0,05 0,5199 0,35 0,6368 0,65 0,7422 0,95 0,8289 0,06 0,5239 0,36 0,6406 0,66 0,7454 0,96 0,8315 0,07 0,5279 0,37 0,6443 0,67 0,7486 0,97 0,8340 0,08 0,5319 0,38 0,6480 0,68 0,7517 0,98 0,8365 0,09 0,5359 0,39 0,6517 0,69 0,7549 0,99 0,8389 0,10 0,5398 0,40 0,6554 0,70 0,7580 1,00 0,8413 0,11 0,5438 0,41 0,6591 0,71 0,7611 1,01 0,8438 0,12 0,5478 0,42 0,6628 0,72 0,7642 1,02 0,8461 0,13 0,5517 0,43 0,6664 0,73 0,7673 1,03 0,8485 0,14 0,5557 0,44 0,6700 0,74 0,7703 1,04 0,8508 0,15 0,5596 0,45 0,6736 0,75 0,7734 1,05 0,8531 0,16 0,5636 0,46 0,6772 0,76 0,7764 1,06 0,8554 0,17 0,5675 0,47 0,6808 0,77 0,7794 1,07 0,8577 0,018 0,5714 0,48 0,6844 0,78 0,7823 1,08 0,8599 0,019 0,5753 0,49 0,6879 0,79 0,7852 1,09 0,8621 0,20 0,5793 0,50 0,6915 0,80 0,7881 1,10 0,8643 0,21 0,5832 0,51 0,6950 0,81 0,7910 1,11 0,8665 0,22 0,5871 0,52 0,6985 0,82 0,7939 1,12 0,8686 0,23 0,5910 0,53 0,7019 0,83 0,7967 1,13 0,8708 0,24 0,5948 0,54 0,7054 0,84 0,7995 1,14 0,8729 0,25 0,5987 0,55 0,7088 0,85 0,8023 1,15 0,8749 0,26 0,6026 0,56 0,7123 0,86 0,8051 1,16 0,8770 0,27 0,6064 0,57 0,7157 0,87 0,8078 1,17 0,8790 0,28 0,6103 0,58 0,7190 0,88 0,8106 1,18 0,8810 0,29 0,6141 0,59 0,7224 0,89 0,8133 1,19 0,8830 0,30 0,6179 0,60 0,7257 0,90 0,8159 1,20 0,8849
125 Tabulka 12.2: Distribuční funkce normovaného normálního rozdělení X ∼ N (0, 1), Φ(x) = P (X < x), Φ(x) = 1 − Φ(−x). x Φ(x) x Φ(x) x Φ(x) x Φ(x) 1,21 0,8869 1,56 0,9406 1,91 0,9719 2,52 0,9941 1,22 0,8888 1,57 0,9418 1,92 0,9726 2,54 0,9945 1,23 0,8907 1,58 0,9429 1,93 0,9732 2,56 0,9948 1,24 0,8925 1,59 0,9441 1,94 0,9738 2,58 0,9951 1,25 0,8944 1,60 0,9452 1,95 0,9744 2,60 0,9953 1,26 0,8962 1,61 0,9463 1,96 0,9750 2,62 0,9955 1,27 0,8980 1,62 0,9474 1,97 0,9756 2,64 0,9959 1,28 0,8997 1,63 0,9484 1,98 0,9761 2,66 0,9961 1,29 0,9015 1,64 0,9495 1,99 0,9767 2,68 0,9963 1,30 0,9032 1,65 0,9505 2,00 0,9772 2,70 0,9965 1,31 0,9049 1,66 0,9515 2,02 0,9783 2,72 0,9967 1,32 0,9066 1,67 0,9525 2,04 0,9793 2,74 0,9969 1,33 0,9082 1,68 0,9535 2,06 0,9803 2,76 0,9971 1,34 0,9099 1,69 0,9545 2,08 0,9812 2,78 0,9973 1,35 0,9115 1,70 0,9554 2,10 0,9821 2,80 0,9974 1,36 0,9131 1,71 0,9564 2,12 0,9830 2,82 0,9976 1,37 0,9137 1,72 0,9573 2,14 0,9838 2,84 0,9977 1,38 0,9162 1,73 0,9582 2,16 0,9846 2,86 0,9979 1,39 0,9177 1,74 0,9591 2,18 0,9854 2,88 0,9980 1,40 0,9192 1,75 0,9599 2,20 0,9861 2,90 0,9981 1,41 0,9207 1,76 0,9608 2,22 0,9868 2,92 0,9982 1,42 0,9222 1,77 0,9616 2,24 0,9875 2,94 0,9984 1,43 0,9236 1,78 0,9625 2,26 0,9881 2,96 0,9985 1,44 0,9251 1,79 0,9633 2,28 0,9887 2,98 0,9986 1,45 0,9265 1,80 0,9641 2,30 0,9893 3,00 0,99865 1,46 0,9279 1,81 0,9649 2,32 0,9898 3,20 0,99931 1,47 0,9292 1,82 0,9656 2,34 0,9904 3,40 0,99966 1,48 0,9306 1,83 0,9664 2,36 0,9909 3,60 0,999841 1,49 0,9319 1,84 0,9671 2,38 0,9913 3,80 0,999928 1,50 0,9332 1,85 0,9678 2,40 0,9918 4,00 0,999968 1,51 0,9345 1,86 0,9686 2,42 0,9922 4,50 0,999997 1,52 0,9357 1,87 0,9693 2,44 0,9927 5,00 0,999999 1,53 0,9370 1,88 0,9699 2,46 0,9931 1,54 0,9382 1,89 0,9706 2,48 0,9934 1,55 0,9394 1,90 0,9713 2,50 0,9938
126
k 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
KAPITOLA 12. STATISTICKÉ TABULKY
α
Tabulka 12.3: Kritické hodnoty Studentova t rozdělení T ∼ tk , P (|T | ≥ tk (α)) = α. α 0,10 0,05 0,02 0,01 0,10 0,05 k 6,314 12,706 31,821 63,657 21 1,721 2,080 2,920 4,303 6,965 9,925 22 1,717 2,074 2,353 3,182 4,541 5,841 23 1,714 2,069 2,132 2,776 3,747 4,604 24 1,711 2,064 2,015 2,571 3,365 4,032 25 1,708 2,060 1,943 2,447 3,143 3,707 30 1,697 2,042 1,895 2,365 2,998 3,499 35 1,690 2,030 1,860 2,306 2,896 3,355 40 1,684 2,021 1,833 2,262 2,821 3,250 45 1,679 2,014 1,812 2,228 2,764 3,169 50 1,676 2,009 1,796 2,201 2,718 3,106 60 1,671 2,000 1,782 2,179 2,681 3,055 70 1,667 1,994 1,771 2,160 2,650 3,012 80 1,664 1,990 1,761 2,145 2,624 2,977 90 1,662 1,987 1,753 2,131 2,602 2,947 100 1,660 1,984 1,746 2,120 2,583 2,921 ∞ 1,645 1,960 1,740 2,110 2,567 2,898 1,734 2,101 2,552 2,878 1,729 2,093 2,539 2,861 1,725 2,086 2,528 2,845
0,02 2,518 2,508 2,500 2,492 2,485 2,457 2,438 2,423 2,412 2,403 2,390 2,381 2,374 2,368 2,364 2,326
0,01 2,831 2,819 2,807 2,797 2,787 2,750 2,724 2,704 2,690 2,678 2,660 2,648 2,639 2,632 2,626 2,576
127 Tabulka 12.4: Kritické X ∼ χ2k , α 0,995 0,975 k 1 0,00 0,00 2 0,01 0,05 3 0,07 0,22 4 0,21 0,48 5 0,41 0,83 6 0,68 1,24 7 0,99 1,69 8 1,34 2,18 9 1,73 2,70 10 2,16 3,25 11 2,60 3,82 12 3,07 4,40 13 3,57 5,01 14 4,07 5,63 15 4,60 6,26 16 5,14 6,91 17 5,70 7,56 18 6,26 8,23 19 6,84 8,91 20 7,43 9,59 21 8,03 10,28 22 8,64 10,98 23 9,26 11,69 24 9,89 12,40 25 10,52 13,12 30 13,79 16,79 35 17,19 20,57 40 20,71 24,43 50 27,99 32,36 60 35,53 40,48 80 51,17 57,15 100 67,33 74,22
hodnoty Pearsonova χ2 rozdělení P (X ≥ χ2k (α)) = α. 0,05 0,025 0,01 0,005 3,84 5,02 6,63 7,88 5,99 7,38 9,21 1060 7,81 9,35 11,34 12,84 9,49 11,14 13,28 14,86 11,07 12,83 15,09 16,75 12,59 14,45 16,81 18,55 14,07 16,01 18,48 20,28 15,51 17,53 20,09 21,95 16,92 19,02 21,67 23,59 18,31 20,48 23,21 25,19 19,68 21,92 24,72 26,76 21,03 23,34 26,22 28,30 22,36 24,74 27,69 29,82 23,68 26,12 29,14 31,32 25,00 27,49 30,58 32,80 26,30 28,85 32,00 34,27 27,59 30,19 33,41 35,72 28,87 31,53 34,81 37,16 30,14 32,85 36,19 38,58 31,41 34,17 37,57 40,00 32,67 35,48 38,93 41,40 33,92 36,78 40,29 42,80 35,17 38,08 41,64 44,18 36,42 39,36 42,98 45,56 37,65 40,65 44,31 46,93 43,77 46,98 50,89 53,67 49,80 53,20 57,37 60,27 55,76 59,34 63,69 66,77 67,50 71,42 76,15 79,49 79,08 83,30 88,38 91,95 101,88 106,63 112,33 116,32 124,34 129,56 135,81 140,17
128
KAPITOLA 12. STATISTICKÉ TABULKY
Tabulka 12.5: Kritické hodnoty Fisherova rozdělení X ∼ Fm,n , P (X ≥ Fm,n (α)) = α. m n α 1 2 3 4 5 6 7 8 9 1 0,05 161 200 216 225 230 234 237 239 241 0,025 648 800 864 900 922 937 948 957 963 0,01 4050 5000 5400 5620 5760 5860 5930 5980 6020 2 0,05 18,5 19,0 19,2 19,2 19,3 19,3 19,4 19,4 19,4 0,025 38,5 39,0 39,2 39,2 39,3 39,3 39,4 39,4 39,4 0,01 98,5 99,0 99,2 99,2 99,3 99,3 99,4 99,4 99,4 3 0,05 10,1 9,55 9,28 9,12 9,01 8,94 8,89 8,85 8,81 0,025 17,4 16,0 15,4 15,1 14,9 14,7 14,6 14,5 14,5 0,01 34,1 30,8 29,5 28,7 28,2 27,9 27,7 27,5 27,3 4 0,05 7,71 6,94 6,59 6,39 6,26 6,16 6,09 6,04 6,00 0,025 12,2 10,6 9,98 9,60 9,36 9,20 9,07 8,98 8,90 0,01 21,2 18,0 16,7 16,0 15,5 15,2 15,0 14,8 14,7 5 0,05 6,61 5,79 5,41 5,19 5,05 4,95 4,88 4,82 4,77 0,025 10,0 8,43 7,76 7,39 7,15 6,98 6,85 6,76 6,68 0,01 16,3 13,3 12,1 11,4 11,0 10,7 10,5 10,3 10,2 6 0,05 5,99 5,14 4,76 4,53 4,39 4,28 4,21 4,15 4,10 0,025 8,81 7,26 6,60 6,23 5,99 5,82 5,70 5,60 5,52 0,01 13,7 10,9 9,78 9,15 8,75 8,47 8,26 8,10 7,98 7 0,05 5,59 4,74 4,35 4,12 3,97 3,87 3,79 3,73 3,68 0,025 8,07 6,54 5,89 5,52 5,29 5,12 4,99 4,90 4,82 0,01 12,2 9,55 8,45 7,85 7,46 7,19 6,99 6,84 6,72 8 0,05 5,32 4,46 4,07 3,84 3,69 3,58 3,50 3,44 3,39 0,025 7,57 6,06 5,42 5,05 4,82 4,65 4,53 4,43 4,36 0,01 11,3 8,65 7,59 7,01 6,63 6,37 6,18 6,03 5,91 9 0,05 5,12 4,26 3,86 3,63 3,48 3,37 3,29 3,23 3,18 0,025 7,21 5,71 5,08 4,72 4,48 4,32 4,20 4,10 4,03 0,01 10,6 8,02 6,99 6,42 6,06 5,80 5,61 5,47 5,35 10 0,05 4,96 4,10 3,71 3,48 3,33 3,22 3,14 3,07 3,02 0,025 6,94 5,46 4,83 4,47 4,24 4,07 3,95 3,85 3,78 0,01 10,0 7,56 6,55 5,99 5,64 5,39 5,20 5,06 4,94 11 0,05 4,84 3,98 3,59 3,36 3,20 3,09 3,01 2,95 2,90 0,025 6,72 5,26 4,63 4,28 4,04 3,88 3,76 3,66 3,59 0,01 9,65 7,21 6,22 5,67 5,32 5,07 4,89 4,74 4,63
129 Tabulka 12.5: Kritické hodnoty Fisherova rozdělení X ∼ Fm,n , P (X ≥ Fm,n (α)) = α. m n α 1 2 3 4 5 6 7 8 12 0,05 4,75 3,89 3,49 3,26 3,11 3,00 2,91 2,85 0,025 6,55 5,10 4,47 4,12 3,89 3,73 3,61 3,51 0,01 9,33 6,93 5,95 5,41 5,06 4,82 4,64 4,50 14 0,05 4,60 3,74 3,34 3,11 2,96 2,85 2,76 2,70 0,025 6,30 4,86 4,24 3,89 3,66 3,50 3,38 3,29 0,01 8,86 6,51 5,56 5,04 4,69 4,46 4,28 4,14 16 0,05 4,49 3,63 3,24 3,01 2,85 2,74 2,66 2,59 0,025 6,12 4,69 4,08 3,73 3,50 3,34 3,22 3,12 0,01 8,53 6,23 5,29 4,77 4,44 4,20 4,03 3,89 18 0,05 4,41 3,55 3,16 2,93 2,77 2,66 2,58 2,51 0,025 5,98 4,56 3,95 3,61 3,38 3,22 3,10 3,01 0,01 8,29 6,01 5,09 4,58 4,25 4,01 3,84 3,71 20 0,05 4,35 3,49 3,10 2,87 2,71 2,60 2,51 2,45 0,025 5,87 4,46 3,86 3,51 3,29 3,13 3,01 2,91 0,01 8,10 5,85 4,94 4,43 4,10 3,87 3,70 3,56 24 0,05 4,26 3,40 3,01 2,78 2,62 2,51 2,42 2,36 0,025 5,72 4,32 3,72 3,38 3,15 2,99 2,87 2,78 0,01 7,82 5,61 4,72 4,22 3,90 3,64 3,50 3,36 30 0,05 4,17 3,32 2,92 2,69 2,53 2,42 2,33 2,27 0,025 5,57 4,18 3,59 3,25 3,03 2,87 2,75 2,65 0,01 7,56 5,39 4,51 4,02 3,70 3,47 3,30 3,17 40 0,05 4,08 3,23 2,84 2,61 2,45 2,34 2,25 2,18 0,025 5,42 4,05 3,46 3,13 2,90 2,74 2,62 2,53 0,01 7,31 5,18 4,31 3,83 3,51 3,29 3,12 2,99 60 0,05 4,00 3,15 2,76 2,53 2,37 2,25 2,17 2,10 0,025 5,29 3,93 3,34 3,01 2,79 2,63 2,51 2,41 0,01 7,08 4,98 4,13 3,65 3,34 3,12 2,95 2,82 120 0,05 3,92 3,07 2,68 2,45 2,29 2,17 2,09 2,02 0,025 5,15 3,80 3,23 2,89 2,67 2,52 2,39 2,30 0,01 6,85 4,79 3,95 3,48 3,17 2,96 2,79 2,66 ∞ 0,05 3,84 3,00 2,60 2,37 2,21 2,10 2,01 1,94 0,025 5,02 3,69 3,12 2,79 2,57 2,41 2,29 2,19 0,01 6,63 4,61 3,78 3,32 3,02 2,80 2,64 2,51
9 2,80 3,44 4,39 2,65 3,21 4,03 2,54 3,05 3,78 2,46 2,93 3,60 2,39 2,84 3,46 2,30 2,70 3,26 2,21 2,57 3,07 2,12 2,45 2,89 2,04 2,33 2,72 1,96 2,22 2,56 1,88 2,11 2,41
130
KAPITOLA 12. STATISTICKÉ TABULKY
Tabulka 12.5: Kritické hodnoty Fisherova rozdělení X ∼ Fm,n , P (X ≥ Fm,n (α)) = α. m n α 10 12 15 20 24 30 40 60 120 ∞ 1 0,05 242 244 246 248 249 250 251 252 253 254 0,025 969 977 985 993 997 1000 1010 1010 1010 1020 0,01 6060 6110 6160 6210 6230 6260 6290 6310 6340 6370 2 0,05 19,4 19,4 19,4 19,4 19,5 19,5 19,5 19,5 19,5 19,5 0,025 39,4 39,4 39,4 39,4 39,5 39,5 39,5 39,5 39,5 39,5 0,01 99,4 99,4 99,4 99,4 99,5 99,5 99,5 99,5 99,5 99,5 3 0,05 8,79 8,74 8,70 8,66 8,64 8,62 8,59 8,57 8,55 8,53 0,025 14,4 14,3 14,3 14,2 14,1 14,1 14,0 14,0 13,9 13,9 0,01 27,2 27,1 26,9 26,7 26,6 26,5 26,4 26,3 26,2 26,1 4 0,05 5,96 5,91 5,86 5,80 5,77 5,75 5,72 5,69 5,66 5,63 0,025 8,84 8,75 8,66 8,56 8,51 8,46 8,41 8,36 8,31 8,26 0,01 14,5 14,4 14,2 14,0 13,9 13,8 13,7 13,7 13,6 13,5 5 0,05 4,74 4,68 4,62 4,56 4,53 4,50 4,46 4,43 4,40 4,36 0,025 6,62 6,52 6,43 6,33 6,28 6,23 6,18 6,12 6,07 6,02 0,01 10,1 9,89 9,72 9,55 9,47 9,38 9,29 9,20 9,11 9,02 6 0,05 4,06 4,00 3,94 3,87 2,84 3,81 3,77 3,74 3,70 3,67 0,025 5,46 5,37 5,27 5,17 5,12 5,07 5,01 4,96 4,90 4,85 0,01 7,87 7,72 7,56 7,40 7,31 7,23 7,14 7,06 6,97 6,88 7 0,05 3,64 3,57 3,51 3,44 3,41 3,38 3,34 3,30 3,27 3,23 0,025 4,76 4,67 4,57 4,47 4,42 4,36 4,31 4,25 4,20 4,14 0,01 6,62 6,47 6,31 6,16 6,07 5,99 5,91 5,82 5,74 5,65 8 0,05 3,35 3,28 3,22 3,15 3,12 3,08 3,04 3,01 2,97 2,93 0,025 4,30 4,20 4,10 4,00 3,95 3,89 3,84 3,78 3,73 3,67 0,01 5,81 5,67 5,52 5,36 5,28 5,20 5,12 5,03 4,95 4,86 9 0,05 3,14 3,07 3,01 2,94 2,90 2,86 2,83 2,79 2,75 2,71 0,025 3,96 3,87 3,77 3,67 3,61 3,56 3,51 3,45 3,39 3,33 0,01 5,26 5,11 4,96 4,18 4,73 4,65 4,57 4,48 4,40 4,31 10 0,05 2,98 2,91 2,85 2,77 2,74 2,70 2,66 2,62 2,58 2,54 0,025 3,72 3,62 3,52 3,42 3,37 3,31 3,26 3,20 3,14 3,08 0,01 4,85 4,71 4,56 4,41 4,33 4,25 4,17 4,08 4,00 3,91 11 0,05 2,85 2,79 2,72 2,65 2,61 2,57 2,53 2,49 2,45 2,40 0,025 3,53 3,43 3,33 3,23 3,17 3,12 3,06 3,00 2,94 2,88 0,01 4,54 4,40 4,25 4,10 4,02 3,94 3,86 3,78 3,69 3,60
131 Tabulka 12.5: Kritické hodnoty Fisherova rozdělení X ∼ Fm,n , P (X ≥ Fm,n (α)) = α. m n α 10 12 15 20 24 30 40 60 12 0,05 2,45 2,69 2,62 2,54 2,51 2,47 2,43 2,38 0,025 3,37 3,28 3,18 3,07 3,02 2,96 2,91 2,85 0,01 4,30 4,16 4,01 3,86 3,78 3,70 3,62 3,54 14 0,05 2,60 2,53 2,46 2,39 2,35 2,31 2,27 2,22 0,025 3,15 3,05 2,95 2,84 2,79 2,73 2,67 2,61 0,01 3,94 3,80 3,66 3,51 3,43 3,35 3,27 3,18 16 0,05 2,49 2,42 2,35 2,28 2,24 2,19 2,15 2,11 0,025 2,99 2,89 2,79 2,68 2,63 2,57 2,51 2,45 0,01 3,69 3,55 3,41 3,26 3,18 3,10 3,02 2,93 18 0,05 2,41 2,34 2,27 2,19 2,15 2,11 2,06 2,02 0,025 2,87 2,77 2,67 2,56 2,50 2,44 2,38 2,32 0,01 3,69 3,55 3,41 3,26 3,18 3,10 3,02 2,93 20 0,05 2,35 2,28 2,20 2,12 2,08 2,04 1,99 1,95 0,025 2,77 2,68 2,57 2,46 2,41 2,35 2,29 2,22 0,01 3,37 3,23 3,09 2,94 2,86 2,78 2,69 2,61 24 0,05 2,25 2,18 2,11 2,03 1,98 1,94 1,89 1,84 0,025 2,64 2,54 2,44 2,33 2,27 2,21 2,15 2,08 0,01 3,17 3,03 2,89 2,74 2,66 2,58 2,49 2,40 30 0,05 2,16 2,09 2,01 1,93 1,98 1,84 1,79 1,74 0,025 2,51 2,41 2,31 2,20 2,14 2,07 2,01 1,94 0,01 2,98 2,84 2,70 2,55 2,47 2,39 2,30 2,21 40 0,05 2,08 2,00 1,92 1,84 1,79 1,74 1,69 1,64 0,025 2,39 2,29 2,18 2,07 2,01 1,94 1,88 1,80 0,01 2,80 2,66 2,52 2,37 2,29 2,20 2,11 2,02 60 0,05 1,99 1,92 1,84 1,75 1,70 1,65 1,59 1,53 0,025 2,27 2,17 2,06 1,94 1,88 1,82 1,74 1,67 0,01 2,63 2,50 2,35 2,20 2,12 2,03 1,94 1,84 120 0,05 1,91 1,83 1,75 1,66 1,61 1,55 1,50 1,43 0,025 2,16 2,05 1,94 1,82 1,76 1,69 1,61 1,53 0,01 2,47 2,34 2,19 2,03 1,95 1,86 1,76 1,66 ∞ 0,05 1,83 1,75 1,37 1,57 1,52 1,46 1,39 1,32 0,025 2,05 1,94 1,83 1,71 1,64 1,57 1,48 1,39 0,01 2,32 2,18 2,04 1,88 1,79 1,70 1,59 1,47
120 2,34 2,79 3,45 2,18 2,55 3,09 2,06 2,38 2,84 1,97 2,26 2,84 1,90 2,16 2,52 1,79 2,01 2,31 1,68 1,87 2,11 1,58 1,72 1,92 1,47 1,58 1,73 1,35 1,43 1,53 1,22 1,27 1,32
∞ 2,30 2,72 3,36 2,13 2,49 3,00 2,01 2,32 2,75 1,92 2,19 2,75 1,84 2,09 2,42 1,73 1,94 2,21 1,62 1,79 2,01 1,51 1,64 1,80 1,39 1,48 1,60 1,25 1,31 1,38 1,00 1,00 1,00
132
KAPITOLA 12. STATISTICKÉ TABULKY
Tabulka 12.6: Kritické hodnoty k1 a k2 pro znaménkový test P (Y ≤ k1 ) ≤ α/2 P (Y ≥ k2 ) ≤ α/2. α = 0, 05 α = 0, 01 N k1 k2 k1 k2 6 0 6 7 0 7 8 0 8 0 8 9 1 8 0 9 10 1 9 0 10 11 1 9 0 11 12 2 10 1 11 13 2 11 1 12 14 2 12 1 13 15 3 12 2 13 16 3 13 2 14 17 4 13 2 15 18 4 14 3 15 19 4 15 3 16 20 5 15 3 17
N 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35
α = 0, 05 α = 0, 01 k1 k2 k1 k2 5 16 4 17 5 17 4 18 6 17 4 19 6 18 5 19 7 18 5 20 7 19 6 20 7 20 6 21 8 20 6 22 8 21 7 22 9 21 7 23 9 22 7 24 9 23 8 24 10 23 8 25 10 24 9 25 11 24 9 26
N 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50
α = 0, 05 k1 k2 11 25 12 25 12 26 12 27 13 27 13 28 14 28 14 29 15 29 15 30 15 31 16 31 16 32 17 32 17 33
α = 0, 01 k1 k2 9 27 10 27 10 28 11 28 11 29 11 30 12 30 12 31 13 31 13 32 13 33 14 33 14 34 15 34 15 35
133
Tabulka 12.7: Kritické hodnoty wn jednovýběrového Wilcoxonova testu P (min(S + , S − ) ≤ Wn (α)) ≤ α n wn (0, 05) 6 0 7 2 8 3 9 5 10 8 11 10 12 13 13 17 14 21 15 25 16 29 17 34 18 40 19 46 20 52 21 58 22 65 23 73 24 81 25 89
wn (0, 01) 0 1 3 5 7 9 12 15 19 23 27 32 37 42 48 54 61 68
n wn (0, 05) 26 98 27 107 28 116 29 126 30 137 31 147 32 159 33 170 34 182 35 195 36 208 37 221 38 235 39 249 40 264 41 279 42 294 43 310 44 327 45 343
wn (0, 01) 75 83 91 100 109 118 128 138 148 159 171 182 194 207 220 233 247 261 276 291
n wn (0, 05) 46 361 47 378 48 396 49 415 50 434 51 453 52 473 53 494 54 514 55 536 56 557 57 579 58 602 59 625 60 648 61 672 62 697 63 721 64 749 65 772
134
KAPITOLA 12. STATISTICKÉ TABULKY
Tabulka 12.8: Kritické hodnoty W(0,05) pro dvouvýběrový Wilcoxonův test P (min(U1 , U2 ) ≤ W (0, 05)) ≤ 0, 05. n 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 m 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30
0 0 0 0 1 1 1 1 1 2 2 2 2 3 3 3 3 3 4 4 4 4 5
0 1 1 2 2 3 3 4 4 5 5 6 6 7 7 8 8 9 9 10 10 11 11 12 13 13
0 1 2 3 4 4 5 6 7 8 9 10 11 11 12 13 14 15 16 17 17 18 19 20 21 22 23
2 3 5 6 7 8 9 11 12 13 14 15 17 18 19 20 22 23 24 25 27 28 29 30 32 33
5 6 8 10 11 13 14 16 17 19 21 22 24 25 27 29 30 32 33 35 37 38 40 42 43
8 10 12 14 16 18 20 22 24 26 28 30 32 34 36 38 40 42 44 44 48 50 52 54
13 15 17 19 22 24 26 29 31 34 36 38 41 43 45 48 50 53 53 57 60 62 65
17 20 23 26 28 31 34 37 39 42 45 48 50 53 56 59 62 62 67 70 73 76
23 26 29 33 36 39 42 45 48 52 55 58 61 64 67 71 71 77 80 83 87
30 33 37 40 44 47 51 55 58 62 65 69 73 76 80 80 87 90 94 98
37 41 45 49 53 57 61 65 69 73 77 81 85 89 89 97 101 105 109
45 50 54 59 63 67 72 76 80 85 89 94 98 98 107 111 116 120
55 59 64 69 74 78 83 88 93 98 102 107 107 117 122 127 131
64 70 75 80 85 90 96 101 106 111 117 117 127 132 138 143
75 81 86 92 98 103 109 115 120 126 126 137 143 149 154
18
87 93 99 105 111 117 123 129 135 135 147 154 160 166
Tabulka 12.9: Kritické hodnoty W(0,01) pro dvouvýběrový Wilcoxonův test P (min(U1 , U2 ) ≤ W (0, 05)) ≤ 0, 05. n 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 m 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30
0 0 0 0 0 0 0 0 1 1 1 1
0 0 0 1 1 1 2 2 2 2 3 3 3 4 4 4 5 5 5 5 6 6
0 0 1 1 2 2 3 3 4 5 5 6 6 7 8 8 9 9 10 10 11 12 12 13 13
0 1 1 2 3 4 5 6 7 7 8 9 10 11 12 13 14 14 15 16 17 18 19 20 21 22
2 3 4 5 6 7 9 10 11 12 13 15 16 17 18 19 21 22 23 24 25 27 28 29 30
4 6 7 9 10 12 13 15 16 18 19 21 22 24 25 27 29 30 32 33 35 36 38 40
7 9 11 13 15 17 18 20 22 24 26 28 30 32 34 35 37 39 41 43 45 47 49
11 13 16 18 20 22 24 27 29 31 33 36 38 40 43 45 47 49 52 54 56 58
16 18 21 24 26 29 31 34 37 39 42 44 47 50 52 55 58 60 63 66 68
21 24 27 30 33 36 39 42 45 48 51 54 57 60 63 66 69 72 75 78
27 31 34 37 41 44 47 51 54 58 61 64 68 71 74 78 81 85 88
34 38 42 45 49 53 57 60 64 68 72 75 79 83 87 91 94 98
42 46 50 54 58 63 67 71 75 79 83 87 92 96 100 104 108
60 64 69 73 78 82 87 91 96 100 105 109 114 119
70 74 79 84 89 94 99 104 109 114 119 124 129
81 86 91 96 102 107 112 118 123 128 134 139
92 98 104 109 115 121 127 132 138 144 150
99 106 112 119 125 132 138 145 145 158 164 171 177
135
Tabulka 12.10: Kritické hodnoty qm,ν (0, 05) pro Tukeyovu metodu mnohonásobného porovnání X ∼ qm,ν , P (X ≥ qm,ν (0, 05)) = 0, 05. m 2 3 4 5 6 7 8 9 10 11 12 13 ν 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 24 30 40 60 120 ∞
18,0 6,08 4,50 3,93 3,64 3,46 3,34 3,26 3,20 3,15 3,11 3,08 3,06 3,03 3,01 3,00 2,98 2,97 2,96 2,95 2,92 2,89 2,86 2,83 2,80 2,77
27,0 8,33 5,91 5,04 4,60 4,34 4,16 4,04 3,95 3,88 3,82 3,77 3,73 3,70 3,67 3,65 3,63 3,61 3,59 3,58 3,53 3,49 3,44 3,40 3,36 3,31
32,8 9,80 6,82 5,76 5,22 4,90 4,68 4,53 4,41 4,33 4,26 4,20 4,15 4,11 4,08 4,05 4,02 4,00 3,98 3,96 3,90 3,85 3,79 3,74 3,68 3,63
37,1 10,9 7,50 6,29 5,67 5,30 5,06 4,89 4,76 4,65 4,57 4,51 4,45 4,41 4,37 4,33 4,30 4,28 4,25 4,23 4,17 4,10 4,04 3,98 3,92 3,86
40,4 11,7 8,04 6,71 6,03 5,63 5,36 5,17 5,02 4,91 4,82 4,75 4,69 4,64 4,59 4,56 4,52 4,49 4,47 4,45 4,37 4,30 4,23 4,16 4,10 4,03
43,1 12,4 8,48 7,05 6,33 5,90 5,61 5,40 5,24 5,12 5,03 4,95 4,88 4,83 4,78 4,74 4,70 4,67 4,65 4,62 4,54 4,46 4,39 4,31 4,24 4,17
45,4 13,0 8,85 7,35 6,58 6,12 5,82 5,60 5,43 5,30 5,20 5,12 5,05 4,99 4,94 4,90 4,86 4,82 4,79 4,77 4,68 4,60 4,52 4,44 4,36 4,29
47,4 13,5 9,18 7,60 6,80 6,32 6,00 5,77 5,59 5,46 5,35 5,27 5,19 5,13 5,08 5,03 4,99 4,96 4,92 4,90 4,81 4,72 4,63 4,55 4,47 4,39
49,1 14,0 9,46 7,83 6,99 6,49 6,16 5,92 5,74 5,60 5,49 5,39 5,32 5,25 5,20 5,15 5,11 5,07 5,04 5,01 4,92 4,82 4,73 4,65 4,56 4,47
50,6 14,4 9,72 8,03 7,17 6,65 6,30 6,05 5,87 5,72 5,61 5,51 5,43 5,36 5,31 5,26 5,21 5,17 5,14 5,11 5,01 4,92 4,82 4,73 4,64 4,55
52,0 14,7 9,95 8,21 7,32 6,79 6,43 6,18 5,98 5,83 5,71 5,61 5,53 5,46 5,40 5,35 5,31 5,27 5,23 5,20 5,10 5,00 4,90 4,81 4,71 4,62
53,2 15,1 10,2 8,37 7,47 6,92 6,55 6,29 6,09 5,93 5,81 5,71 5,63 5,55 5,49 5,44 5,39 5,35 5,31 5,28 5,18 5,08 4,98 4,88 4,78 4,68
14 54 15 10 8,5 7,6 7,0 6,6 6,3 6,1 6,0 5,9 5,8 5,7 5,6 5,5 5,5 5,4 5,4 5,3 5,3 5,2 5,1 5,0 4,9 4,8 4,7
136
KAPITOLA 12. STATISTICKÉ TABULKY
Tabulka 12.11: Kritické hodnoty qm,ν (0, 01) pro Tukeyovu metodu mnohonásobného porovnání X ∼ qm,ν , P (X ≥ qm,ν (0, 01)) = 0, 01. m 2 3 4 5 6 7 8 9 10 11 12 13 ν 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 25 30 40 60 120 ∞
90,0 14,0 8,26 6,51 5,70 5,24 4,95 4,74 4,60 4,48 4,39 4,32 4,26 4,21 4,17 4,13 4,10 4,07 4,05 4,02 3,96 3,89 3,82 3,76 3,70 3,64
135 19,0 10,6 8,12 6,97 6,33 5,92 5,63 5,43 5,27 5,14 5,04 4,96 4,89 4,83 4,78 4,74 4,70 4,67 4,64 4,54 4,45 4,37 4,28 4,20 4,12
164 22,3 12,2 9,17 7,80 7,03 6,54 6,20 5,96 5,77 5,62 5,50 5,40 5,32 5,25 5,19 5,14 5,09 5,05 5,02 4,91 4,80 4,70 4,60 4,50 4,40
186 24,7 13,3 9,96 8,42 7,56 7,01 6,63 6,35 6,14 5,97 5,84 5,73 5,63 5,56 5,49 5,43 5,38 5,33 5,29 5,17 5,05 4,93 4,82 4,71 4,60
202 26,6 14,2 10,6 8,91 7,97 7,37 6,96 6,66 6,43 6,25 6,10 5,98 5,88 5,80 5,72 5,66 5,60 5,55 5,51 5,37 5,24 5,11 4,99 4,87 4,76
216 28,2 15,0 11,1 9,32 8,32 7,68 7,24 6,91 6,67 6,48 6,32 6,19 6,08 5,99 5,92 5,85 5,79 5,73 5,69 5,54 5,40 5,27 5,13 5,01 4,88
227 29,5 15,6 11,5 9,67 8,61 7,94 7,47 7,13 6,87 6,67 6,51 6,37 6,26 6,16 6,08 6,01 5,94 5,89 5,84 5,69 5,54 5,39 5,25 5,12 4,99
237 30,7 16,2 11,9 9,97 8,87 8,17 7,68 7,32 7,05 6,84 6,67 6,53 6,41 6,31 6,22 6,15 6,08 6,02 5,97 5,81 5,65 5,50 5,36 5,21 5,08
246 31,7 16,7 12,3 10,2 9,10 8,37 7,87 7,49 7,21 6,99 6,81 6,67 6,54 6,44 6,35 6,27 6,20 6,14 6,09 5,92 5,76 5,60 5,45 5,30 5,16
253 32,6 17,1 12,6 10,5 9,30 8,55 8,03 7,65 7,36 7,13 6,94 6,79 6,66 6,55 6,46 6,38 6,31 6,25 6,19 6,02 5,85 5,69 5,53 5,38 5,23
260 33,4 17,5 12,8 10,7 9,49 8,71 8,18 7,78 7,48 7,25 7,06 6,90 6,77 6,66 6,56 6,48 6,41 6,34 6,29 6,11 5,93 5,77 5,60 5,44 5,29
266 34,1 17,9 13,1 10,9 9,65 8,86 8,31 7,91 7,60 7,36 7,17 7,01 6,87 6,76 6,66 6,57 6,50 6,43 6,37 6,19 6,01 5,84 5,67 5,51 5,35
14 272 34,8 18,2 13,3 11,1 9,81 9,00 8,44 8,03 7,71 7,46 7,26 7,10 6,96 6,84 6,74 6,66 6,58 6,51 6,45 6,26 6,08 5,90 5,73 5,56 5,40
137 Tabulka 12.12: Kritické hodnoty pro Neményho porovnávání pořadí α = 0, 05 I 3 4 5 6 7 m 1 3,3 4,7 6,1 7,5 9,0 2 8,8 12,6 16,5 20,5 24,7 3 15,7 22,7 29,9 37,3 44,8 4 23,9 34,6 45,6 57,0 68,6 5 33,1 48,1 63,5 79,3 95,5 6 43,3 62,9 83,2 104,0 125,3 7 54,4 79,1 104,6 130,8 157,6 8 66,3 96,4 127,6 159,6 192,4 9 78,9 114,8 152,0 190,2 229,3 10 92,3 134,3 177,8 222,6 268,4 11 106,3 154,8 205,0 256,6 309,4 12 120,9 176,2 233,4 292,2 352,4 13 136,2 198,5 263,0 329,3 397,1 14 152,1 221,7 293,8 367,8 443,6 15 168,6 245,7 325,7 407,8 491,9 16 185,6 270,6 358,6 449,1 541,7
m 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
I
metodu mnohonásobnáho
8 10,5 28,9 52,5 80,4 112,0 147,0 184,9 225,7 269,1 315,0 363,2 413,6 466,2 520,8 577,4 635,9
9 12,0 33,1 60,3 92,4 128,8 169,1 212,8 259,7 309,6 362,4 417,9 476,0 536,5 599,4 664,6 732,0
10 13,5 37,4 68,2 104,6 145,8 191,4 240,9 294,1 350,6 410,5 473,3 539,1 607,7 679,0 752,8 829,2
8 12,2 33,6 61,1 93,6 130,4 171,0 215,2 262,6 313,1 366,5 422,6 481,2 542,4 606,0 671,9 740,0
9 13,9 38,3 69,8 107,0 149,1 195,7 246,3 300,6 358,4 419,5 483,7 551,0 621,0 693,8 769,3 847,3
10 15,6 43,1 78,6 120,6 168,1 220,6 277,7 339,0 404,2 473,1 545,6 621,4 700,5 782,6 867,7 955,7
α = 0, 01 3 4,1 10,9 19,5 29,7 41,2 53,9 67,6 82,4 98,1 114,7 132,1 150,4 169,4 189,1 209,6 230,7
4 5,7 15,3 27,5 41,9 58,2 76,3 95,8 116,8 139,2 162,8 187,6 213,5 240,6 268,7 297,8 327,9
5 7,3 19,7 35,7 54,5 75,8 99,3 124,8 152,2 181,4 212,2 244,6 278,5 313,8 350,5 388,5 427,9
6 8,9 24,3 44,0 67,3 93,6 122,8 154,4 188,4 224,5 262,7 302,9 344,9 388,7 434,2 481,3 530,1
7 10,5 28,9 52,5 80,3 111,9 146,7 184,6 225,2 268,5 314,2 362,2 412,5 464,9 519,4 575,8 634,2
138
KAPITOLA 12. STATISTICKÉ TABULKY Tabulka 12.13: Kritické hodnoty Friedmanova testu. α = 0,05.
I 3 4 5 6 7 8 9 10 11 12 13 14 15 16 20 ∞
J
3 6,000 6,500 6,400 7,000 7,143 6,250 6,222 6,200 6,545 6,167 6,000 6,143 6,400 5,99 5,99 5,99
4 7,4 7,8 7,8 7,6 7,8 7,65 7,66 7,67 7,68 7,70 7,70 7,71 7,72 7,73 7,74 7,82
5 8,53 8,8 8,99 9,08 9,11 9,19 9,22 9,25 9,27 9,29 9,30 9,32 9,33 9,34 9,37 9,49
6 9,86 10,24 10,43 10,54 10,62 10,68 10,73 10,76 10,79 10,81 10,83 10,85 10,87 10,88 10,92 11,07
7 11,24 11,63 11,84 11,97 12,07 12,14 12,19 12,23 12,27 12,29 12,32 12,34 12,35 12,37 12,41 12,59
8 12,57 12,99 13,23 13,38 13,48 13,56 13,61 13,66 13,70 13,73 13,76 13,78 13,80 13,81 13,8 14,07
9 13,88 14,34 14,59 14,76 14,87 14,95 15,02 15,07 15,11 15,15 15,17 15,19 15,20 15,23 15,3 15,51
10 15,19 15,67 15,93 16,12 16,23 16,32 16,40 16,44 16,48 16,53 16,56 16,58 16,6 16,6 16,7 16,92
11 12 16,48 17,76 16,98 18,3 17,27 18,6 17,4 18,8 17,6 18,9 17,7 19,0 17,7 19,1 17,8 19,2 17,9 19,2 17,9 19,3 17,9 19,3 17,9 19,3 18,0 19,3 18,0 19,3 18,0 19,4 18,31 19,68
α = 0,01 I 3 4 5 6 7 8 9 10 11 12 13 14 15 16 20 ∞
J
3 4 5 6 7 8 9 10 11 12 9,000 10,13 11,76 13,26 14,78 16,28 17,74 19,19 20,61 8,000 9,600 11,20 12,59 14,19 15,75 17,28 18,77 20,24 21,7 8,400 9,96 11,43 13,11 14,74 16,32 17,86 19,37 20,86 22,3 9,000 10,200 11,75 13,45 15,10 16,69 18,25 19,77 21,3 22,7 8,857 10,371 11,97 13,69 15,35 16,95 18,51 20,04 21,5 23,0 9,000 10,35 12,14 13,87 15,53 17,15 18,71 20,24 21,8 23,2 8,667 10,44 12,27 14,01 15,68 17,29 18,87 20,42 21,9 23,4 9,600 10,53 12,38 14,12 15,79 17,41 19,00 20,53 22,0 23,5 9,455 10,60 12,46 14,21 15,89 17,52 19,10 20,64 22,1 23,6 9,500 10,68 12,53 14,28 15,96 17,59 19,19 20,73 22,2 23,7 9,385 10,72 12,58 14,34 16,03 17,67 19,25 20,80 22,3 23,8 9,000 10,76 12,64 14,40 16,09 17,72 19,31 20,86 22,4 23,9 8,933 10,80 12,68 14,44 16,14 17,78 19,35 20,9 22,4 23,9 8,79 10,84 12,72 14,48 16,18 17,81 19,40 20,9 22,5 24,0 8,87 10,94 12,83 14,60 16,30 18,00 19,5 21,1 22,6 24,1 9,21 11,35 13,28 15,09 16,81 18,48 20,09 21,67 23,21 24,73
139 Tabulka 12.14: Kritické hodnoty pro mnohonásobná porovnání u Friedmanova testu α = 0,05 J 3 4 5 6 7 8 9 10 I 1 3,3 4,7 6,1 7,5 9,0 10,5 12,0 13,5 2 4,7 6,6 8,6 10,7 12,7 14,8 17,0 19,2 3 5,7 8,1 10,6 13,1 15,6 18,2 20,8 23,5 4 6,6 9,4 12,2 15,1 18,0 21,0 24,0 27,1 5 7,4 10,5 13,6 16,9 20,1 23,5 26,9 30,3 6 8,1 11,5 14,9 18,5 22,1 25,7 29,4 33,2 7 8,8 12,4 16,1 19,9 23,9 27,8 31,8 35,8 8 9,4 13,3 17,3 21,3 25,5 29,7 34,0 38,3 9 9,9 14,1 18,3 22,6 27,0 31,5 36,0 40,6 10 10,5 14,8 19,3 23,8 28,5 33,2 38,0 42,8 11 11,0 15,6 20,2 25,0 29,9 34,8 39,8 44,9 12 11,5 16,2 21,1 26,1 31,2 36,4 41,6 46,9 13 11,9 16,9 22,0 27,2 32,5 37,9 43,3 48,8 14 12,4 17,5 22,8 28,2 33,7 39,3 45,0 50,7 15 12,8 18,2 23,6 29,2 34,9 40,7 46,5 52,5 16 13,3 18,8 24,4 30,2 36,0 42,0 48,1 54,2
I 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
J
α = 0,01 3 4,1 5,8 7,1 8,2 9,2 10,1 10,9 11,7 12,4 13,0 13,7 14,3 14,9 15,4 16,0 16,5
4 5,7 8,0 9,8 11,4 12,7 13,9 15,0 16,1 17,1 18,0 18,9 19,7 20,5 21,3 22,0 22,7
5 7,3 10,3 12,6 14,6 16,3 17,8 19,3 20,6 21,8 23,0 24,1 25,2 26,2 27,2 28,2 29,1
6 8,9 12,6 15,4 17,8 19,9 21,8 23,5 25,2 26,7 28,1 29,5 30,8 32,1 33,3 34,5 35,6
7 10,5 14,9 18,3 21,1 23,6 25,8 27,9 29,8 31,6 33,4 35,0 36,5 38,0 39,5 40,8 42,2
8 12,2 17,3 21,2 24,4 27,3 29,9 32,3 34,6 36,6 38,6 40,5 42,3 44,0 45,7 47,3 48,9
9 13,9 19,7 24,1 27,8 31,1 34,1 36,8 39,3 41,7 44,0 46,1 48,2 50,1 52,0 53,9 55,6
10 15,6 22,1 27,0 31,2 34,9 38,2 41,3 44,2 46,8 49,4 51,8 54,1 56,3 58,4 60,5 62,5
140
KAPITOLA 12. STATISTICKÉ TABULKY
Tabulka 12.15: Kritické hodnoty Dn (α) pro jednovýběrový Kolmogorův Smirnovův test n α = 0, 05 1 ,97500 2 ,84189 3 ,70760 4 ,62394 5 ,56328 6 ,51926 7 ,48342 8 ,45427 9 ,43001 10 ,40925 11 ,39122 12 ,37543 13 ,36143 14 ,34890 15 ,33760 16 ,32733 17 ,31796 18 ,30936 19 ,30143 20 ,29408 21 ,28724 22 ,28087 23 ,27490 24 ,26931 25 ,26404 26 ,25907 27 ,25438 28 ,24993 29 ,24571 30 ,24170
α = 0, 01 0,99500 ,92929 ,82900 ,73424 ,66853 ,61661 ,57581 ,54179 ,51332 ,48893 ,46770 ,44905 ,43247 ,41762 ,40420 ,39201 ,38086 ,37062 ,36117 ,35241 ,34427 ,33666 ,32954 ,32286 ,31657 ,31064 ,30502 ,29971 ,29466 ,28987
n α = 0, 05 31 ,23788 32 ,23424 33 ,23076 34 ,22743 35 ,22425 36 ,22119 37 ,21826 38 ,21544 39 ,21273 40 ,21012 41 ,20760 42 ,20517 43 ,20283 44 ,20056 45 ,19837 46 ,19625 47 ,19420 48 ,19221 49 ,19028 50 ,18841 51 ,18659 52 ,18482 53 ,18311 54 ,18144 55 ,17981 56 ,17823 57 ,17669 58 ,17519 59 ,17373 60 ,17231
α = 0, 01 ,28530 ,28094 ,27677 ,27279 ,26897 ,26532 ,26180 ,25843 ,25205 ,25205 ,24904 ,24613 ,24332 ,24060 ,23798 ,23544 ,23298 ,23059 ,22828 ,22604 ,22386 ,22174 ,21968 ,21768 ,21574 ,21384 ,21199 ,21019 ,20844 ,20673
n α = 0, 05 61 ,17091 62 ,16956 63 ,16823 64 ,16693 65 ,16567 66 ,16443 67 ,16322 68 ,16204 69 ,16088 70 ,15975 71 ,15864 72 ,15755 73 ,15649 74 ,15544 75 ,15442 76 ,15342 77 ,15244 78 ,15147 79 ,15052 80 ,14960 81 ,14868 82 ,14779 83 ,14691 84 ,14605 85 ,14520 86 ,14437 87 ,14355 90 ,14117 95 ,13746 100 ,13403
α = 0, 01 ,20506 ,20343 ,20184 ,20029 ,19877 ,19729 ,19584 ,19442 ,19303 ,19167 ,19034 ,18903 ,18776 ,18650 ,18528 ,18408 ,18290 ,18174 ,18060 ,17949 ,17840 ,17732 ,17627 ,17523 ,17421 ,17321 ,17223 ,16938 ,16493 ,16081
141
Tabulka 12.16: Kritické hodnoty pro korelační koeficient r n α = 0, 05 3 0,9969 4 0,9500 5 0,8783 6 0,8114 7 0,7545 8 0,7067 9 0,6664 10 0,6319 11 0,6021 12 0,5760 13 0,5529
α = 0, 01 0,9999 0,9900 0,9587 0,9172 0,8745 0,8343 0,7977 0,7646 0,7348 0,7079 0,6835
n α = 0, 05 14 0,5324 15 0,5140 16 0,4973 17 0,4822 18 0,4683 19 0,4555 20 0,4438 21 0,4329 22 0,4227 23 0,4123 24 0,4044
α = 0, 01 0,6614 0,6411 0,6226 0,6055 0,5897 0,5751 0,5614 0,5487 0,5368 0,5256 0,5151
n α = 0, 05 25 0,3961 30 0,3610 35 0,3338 40 0,3120 45 0,2940 50 0,2787 60 0,2542 70 0,2352 80 0,2352 90 0,2072 100 0,1966
α = 0, 01 0,5052 0,4629 0,4296 0,4026 0,3801 0,3610 0,3301 0,3060 0,2864 0,2702 0,2565
Tabulka 12.17: Kritické hodnoty pro Spearmanův korelační koeficient n
α = 0, 05
α = 0, 01
5 6 7 8 9 10
0,9000 0,8286 0,7450 0,6905 0,6833 0,6364
0,9429 0,8929 0,7571 0,8167 0,7818
n α = 0, 05 11 0,6091 12 0,5804 13 0,5549 14 0,5341 15 0,5179 16 0,5000 17 0,4853 18 0,4716 19 0,4579 20 0,4451
α = 0, 01 0,7545 0,7273 0,6978 0,6747 0,6536 0,6324 0,6152 0,5975 0,5825 0,5684
n α = 0, 05 21 0,4351 22 0,4241 23 0,4150 24 0,4061 25 0,3977 26 0,3894 27 0,3822 28 0,3749 29 0,3685 30 0,3620
α = 0, 01 0,5545 0,5426 0,5306 0,5200 0,5100 0,5002 0,4915 0,4828 0,4744 0,4665
142
KAPITOLA 12. STATISTICKÉ TABULKY
Literatura [1] J. Anděl: Matematická statistika, SNTL/ALFA, Praha 1978 [2] J. Anděl: Statistické metody, Matfyzpress, Praha 1998 [3] V. Dupač, M. Hušková: Pravděpodobnost a matematická statistika, Karolinum, Praha 1999 [4] R.Hindls, S.Hronová,J.Seger:. Statistika pro ekonomy, Professional Publishing, Praha, 2004. [5] T. Mrkvička, V. Petrášková: Úvod do teorie pravděpodobnosti, PF JU, České Budějovice 2008
143
Rejstřík analýza korelační
97 chyba 2. druhu
47
analýza regresní
81 interakce
74
analýza rozptylu
65 interval spolehlivosi
41
četnost absolutní
10 koeficient determinace
83
četnost relativní
10 koeficient korelační
četnost třídní
10 koeficient korelační Spearmanův
25, 97 99
četnosti empirické
101 koeficient korelační výběrový
97
četnosti teoretické
101 kovariance
24
diagram úsečkový
12 kvantil
34
funkce distribuční
19 medián
13, 22
histogram
11 metoda linearizace
94
hladina testu
47 metoda nejmenších čtverců
82
hodnota kritická
34 metoda Neményova
71
21,22 metoda Tukeyova
68
hustota
21 model lineární
81
hustota marginální
24 model nelineární
94
hustota sdružená
23 model regresní
81
hypotéza alternativní
47 modus
hodnota střední
hypotéza homogenity
111 metoda Neményova
13, 22 71
hypotéza jednoduchá
47 nezávislost
24
hypotéza nezávislosti
97 obor kritický
47
hypotéza nulová
47 odhad nestranný
41
hypotéza symetrie chyba 1. druhu
111 odhad průměru
41
47 odhad regresní
82
144
145
REJSTŘÍK odhad rozptylu
41 rozdělení χ2
31, 34
16, 22 rozpětí
8
odchylka průměrná
16 rozptyl
16
pás spolehlivosti
84 rozptyl reziduální
67
podmodel
91 rozptyl výběrový
38
polygon četností
12 soubor statistický
7
pořadí
59 součet čtverců celkový
66
pravděpodobnost
19 součet čtverců reziduální
66
prostor elementárních jevů
19 součet čtverců řádkový
73
průměr
13 tabulka kontingenční
průměr aritmetický
13 test Friedmanův
76
průměr geometrický
14 test homogenity
113
průměr harmonický
14 test hypotézy
47
průměr výběrový
38 test jednostranný
48
regrese exponenciální
94 test Kolmogorovův-Smirnovův
regrese kvadratická
92 test Kruskalův-Wallisův
regrese linearizovatelná
94 test McNemarův
regrese s více proměnnými
86 test neparametrický
regresní polynom
92 test nezávislosti
111
rozdělení alternativní
25 test normality
102
rozdělení diskrétní
21 test oboustranný
48
rozdělení exponenciální
27 test párový
51
odchylka směrodatná
rozdělení Fisherovo-Snedecorovo 33, test Pearsonův χ2 34 rozdělení multinomické rozdělení normální
test shodnosti rozptylů 26 test symetrie
109
105 70 118 59
101 53 120
28, 34 test t dvouvýběrový
52
rozdělení Poissonovo
26 test t jednovýběrový
48
rozdělení rovnoměrné
27 test t párový
51
rozdělení spojité
21 test Wilcoxonův
61, 63
32, 34 test znaménkový
60
rozdělení Studentovo t
146 test χ2 testování hypotéz
REJSTŘÍK 101, 115 47
třídění dvojné třídění jednoduché
72 65
třídy vektor náhodný
8 23
veličina náhodná veličiny nekorelované
19 25
veličiny nezávislé věta centrální limitní
24 29
výběr náhodný výběr stratifikovaný
36 36
zákon velkých čísel
38
doc. RNDr. Tomáš Mrkvička, Ph.D., RNDr. Vladimíra Petrášková, Ph.D. ÚVOD DO STATISTIKY Roku 2006 vydala Jihočeská univerzita Vlastimil Johanus TISKÁRNA 2. upravené vydání
ISBN 80-7040-894-4